Page 1 of 1

务实的人工智能:QAD 的人工智能愿景

Posted: Sat Mar 22, 2025 4:11 am
by nurnobi40
“人们现在应该停止培训放射科医生。很明显,五年内深度学习将比放射科医生做得更好。”这是当今人工智能之父之一杰弗里·辛顿 (Geoffrey Hinton) 在 2016 年所说的话。然而,放射科医生并没有被取代。

这一预测表明,即使是杰出的专家,对人工智能的过度热情也会导致脱节。在 QAD,我们通过 新加坡號碼 专注于要完成的工作并在合理的情况下部署人工智能,帮助制造商和供应链避免这种脱节。当今人工智能的背后隐藏着什么?未来会怎样?我们如何在这个领域定位自己?

现状表明
不确定性——尽管生成式人工智能模型(如 ChatGPT)发展迅猛并被全球广泛采用,但尚未证明其持续的价值。尽管 GenAI 的响应越来越令人印象深刻,但变化速度、熟练提示的重要性以及幻觉的频率(请参阅下面的风险部分)使公司难以推广。大量涉及文本(包括基本代码)生成和摘要的角色可能会节省常规任务的时间,但即便如此,人类的洞察力仍然是不可替代的。就像自动驾驶汽车一样,人工智能开发人员建议随时准备接手方向盘,而附近注意到自动驾驶仪的人往往会出于自我保护和偏见而感到紧张。

风险——大型语言模型 (LLM) 会产生幻觉:它们在生成单词和段落时会偏离其响应的初衷,甚至凭空捏造虚假事实——仅仅是因为它们一次预测一个最可能的单词,而没有常识或世界观。律师使用 LLM 最终创建了虚假案例作为可用示例,从而颠覆了司法案件,而模型向他们保证其输出完全合理且基于事实(参见 Mata v. Avianca)。风险甚至可能不那么明显:人工智能模型可能会通过短期满足来诱导行为操纵,而牺牲长期愿景。模型也倾向于表现出偏见,这种偏见来自源头:数据。即使是社会偏见也出现在使用大型语料库训练的模型中,大多数 LLM 都是这种情况。

权衡——人工智能模型用于训练的数据越多,它可用于执行任务的信息就越多,效率就越高。但这可能以数据隐私和道德为代价。即使是数据访问也可能存在问题,许多大型模型在使用书籍、歌曲和其他艺术作品进行自身训练时处于版权法的灰色地带。最后,大型模型变得越来越大,能源成本和环境影响也不断增加。仅训练 GPT 3 就使用了大约 1,300 MWh,大约相当于 130 个美国家庭全年的用电量。根据提示生成图像的模型所消耗的能量与充满一部智能手机所需的能量一样多——仅仅为了生成一张图像。