释放 ChatGPT 和大型语言模型的潜力:产品经理的视角
Posted: Wed Dec 04, 2024 9:15 am
ChatGPT 是一个基于 OpenAI 的 GPT 系列大型语言模型 (LLM) 的聊天界面。您可以向它询问任何您想问的问题,并向它发出命令以生成结构化信息。想想用例,例如提出问题、翻译一段文本、根据问题描述进行计算、为您正在考虑的功能生成代码等等……
Arman van Lieshout 关于 ChatGPT CM.com
但是它是如何做到这一切的呢?Arman,ChatGPT 是如何工作的?
ChatGPT 是 OpenAI 基于其 GPT3.5 系列制作的产品。它是一个大型语 巴哈马电话号码 言模型 (LLM),具有 200 亿个参数,经过专门训练(即手动训练)以模拟对话。该模型由用于理解输入的自然语言理解 (NLU) 和用于制定响应的自然语言生成 (NLG) 组成。尤其是最后一部分,NLG,随着 ChatGPT 的推出而取得了重大进展,更好地支持“生成式”AI 用例。
等等,法学硕士、生成式人工智能、参数,这些到底是什么?
简单来说,它是一种识别、总结、翻译、预测和生成文本的算法。它之所以能做到这一点,是因为用于训练模型的数据集非常庞大。表达其学习能力的方法之一是量化参数的数量。参数是构成模型的变量,它能够从基础数据集提供的历史数据中学习。因此,参数的数量说明了模型可以吸收多少细微差别。到目前为止,我们已经看到模型的参数数量与其模仿和生成类似人类的反应和行为的能力之间存在很强的相关性
好吧,所以这是一个能够理解细微差别并能自己做出反应的聊天机器人。您认为这一发展的主要优点和缺点是什么?
除了这项技术带来的机遇和强大的新用例之外,我认为围绕它的炒作是最大的优势。非凡的热情带来了对生成式人工智能技术的好奇心和需求的增加。它公开展示了对话式人工智能的力量,人们喜欢它。最终,随着更多人和公司的参与,这将进一步推动创新。
早期也存在一些缺点。我们注意到,在这些类型的开发的早期阶段,许多人发现很难从噪音中发现真正的商业价值。ChatGPT 被认为是一种无所不知、无所不能的技术,但事实并非如此。它是一种对话式人工智能模型,在自然语言生成方面非常出色,但并不完美。它会犯错误。如果用户明白它偶尔会出错,并不是灵丹妙药,那就没问题了。这个阶段会过去,我们留下的东西将非常令人印象深刻。
ChatGPT 与对话式 AI
类似人类的对话听起来像是人们也试图通过对话式人工智能云实现的事情。
ChatGPT 和 Conversational AI Cloud 有什么区别?
好问题。OpenAI 的 GPT 系列是 Google 于 2017 年向世界推出的“新”Transformer 架构的绝佳应用。我们的对话式 AI 云多年来一直在使用 Transformer 模型。最大的不同在于,对话式 AI 平台围绕这些模型构建了什么,才能真正为组织带来商业价值。
对话式 AI Cloud 通过自动对话帮助公司解决特定的业务问题。自然语言处理 (NLP) 是其中的核心。当您需要自动处理许多和/或复杂的问题时,使用基于规则的模型所能做的事情是有限的,因此采用 AI 模型才是明智之举。
孤立地看,这些模型作用不大。企业希望在网页聊天、WhatsApp和其他渠道上部署 AI。他们希望在部署新版本之前测试他们的模型。例如,当他们需要更新价格或添加新的对话流程时,他们希望能够轻松地添加或更新内容。他们希望深入了解模型性能或偏差率等 KPI。那么与 OMS、CDP、CRM 或 ERP 等现有系统的集成呢?如果你不能用你的对话式 AI 执行真正的操作,比如获取或更新记录以向客户提供状态更新或更改他们的信息,那么你就做不了什么。ChatGPT 无法做到这些。但有了对话式 AI Cloud,你就可以。因此,我们在幕后使用的模型补充了构成我们完整解决方案的广泛功能。
对话式 AI Cloud 给出的答案可以适应上下文,但会经过贵公司的文案人员的审核,以确保答案始终符合事实、符合品牌形象并带有正确的语气。因此,根据您的环境设置情况,可能发生的最糟糕的情况是,在少数情况下,您的 AI 会回答“我不知道这个问题的答案”。但即使是这句话也会按照您希望的方式措辞,并且流程完全受控。所有这些原则使得使用对话式 AI Cloud 与客户互动的风险较低。
这也是 ChatGPT 和 Conversational AI Cloud 之间的巨大差异。ChatGPT 的行为就是所谓的黑匣子。问同样的问题 5 次,你会得到五个不同的答案(或者不是,你永远不确定)。有时,其中一个答案听起来很棒,但事实上也是错误的。你的人工智能现场编造答案可以为你节省一个甚至两个行政工作。但同时,它降低了你实施控制、保持透明度和保持质量的能力。因此,将生成式人工智能输出直接提供给客户的风险状况要高得多(至少现在我们还处于这项技术的早期阶段)。我们总有一天会越过那个点,但不是今天。
CM.com LLM NLP ChatGPT 博客 视觉
好的,那么受众和用例非常不同吗?
总结得不错。我们的模型将像过去一样不断发展。我相信目前正在开发和发布的 LLM 将大大增强我们产品的功能。它不会蚕食它;这是两个不同且互补的东西。
CM.com 和 ChatGPT
那么,Arman,你说这些模型将增强我们的产品,这是什么意思呢?CM.com 是否有采用这些新模型的计划?
ChatGPT 在我们的产品中能发挥什么作用?
我们看到了很多机会来改进我们的产品,进一步支持我们产品的用户以及他们过去几年所做的工作。无论是对话式人工智能云中的对话设计师、移动服务云中的代理,还是移动营销云中的营销人员。他们都在生成内容。使用生成式人工智能提出内容建议并让我们的客户进行最终检查将为他们省去很多工作。
对我们来说,重要的是不要被炒作冲昏头脑,不要为了整合而整合这些技术。我们只想实现能为我们的产品和客户增加重大价值的功能。我们不会以营销为导向,用“人工智能驱动这个,人工智能驱动那个”来标记我们的能力。生成式人工智能和法学硕士 (LLM) 非常强大,在很多地方都很有意义,但我们意识到了它们的缺点,并确保我们提供的任何新功能都能提供高质量和价值。
Arman van Lieshout 关于 ChatGPT CM.com
但是它是如何做到这一切的呢?Arman,ChatGPT 是如何工作的?
ChatGPT 是 OpenAI 基于其 GPT3.5 系列制作的产品。它是一个大型语 巴哈马电话号码 言模型 (LLM),具有 200 亿个参数,经过专门训练(即手动训练)以模拟对话。该模型由用于理解输入的自然语言理解 (NLU) 和用于制定响应的自然语言生成 (NLG) 组成。尤其是最后一部分,NLG,随着 ChatGPT 的推出而取得了重大进展,更好地支持“生成式”AI 用例。
等等,法学硕士、生成式人工智能、参数,这些到底是什么?
简单来说,它是一种识别、总结、翻译、预测和生成文本的算法。它之所以能做到这一点,是因为用于训练模型的数据集非常庞大。表达其学习能力的方法之一是量化参数的数量。参数是构成模型的变量,它能够从基础数据集提供的历史数据中学习。因此,参数的数量说明了模型可以吸收多少细微差别。到目前为止,我们已经看到模型的参数数量与其模仿和生成类似人类的反应和行为的能力之间存在很强的相关性
好吧,所以这是一个能够理解细微差别并能自己做出反应的聊天机器人。您认为这一发展的主要优点和缺点是什么?
除了这项技术带来的机遇和强大的新用例之外,我认为围绕它的炒作是最大的优势。非凡的热情带来了对生成式人工智能技术的好奇心和需求的增加。它公开展示了对话式人工智能的力量,人们喜欢它。最终,随着更多人和公司的参与,这将进一步推动创新。
早期也存在一些缺点。我们注意到,在这些类型的开发的早期阶段,许多人发现很难从噪音中发现真正的商业价值。ChatGPT 被认为是一种无所不知、无所不能的技术,但事实并非如此。它是一种对话式人工智能模型,在自然语言生成方面非常出色,但并不完美。它会犯错误。如果用户明白它偶尔会出错,并不是灵丹妙药,那就没问题了。这个阶段会过去,我们留下的东西将非常令人印象深刻。
ChatGPT 与对话式 AI
类似人类的对话听起来像是人们也试图通过对话式人工智能云实现的事情。
ChatGPT 和 Conversational AI Cloud 有什么区别?
好问题。OpenAI 的 GPT 系列是 Google 于 2017 年向世界推出的“新”Transformer 架构的绝佳应用。我们的对话式 AI 云多年来一直在使用 Transformer 模型。最大的不同在于,对话式 AI 平台围绕这些模型构建了什么,才能真正为组织带来商业价值。
对话式 AI Cloud 通过自动对话帮助公司解决特定的业务问题。自然语言处理 (NLP) 是其中的核心。当您需要自动处理许多和/或复杂的问题时,使用基于规则的模型所能做的事情是有限的,因此采用 AI 模型才是明智之举。
孤立地看,这些模型作用不大。企业希望在网页聊天、WhatsApp和其他渠道上部署 AI。他们希望在部署新版本之前测试他们的模型。例如,当他们需要更新价格或添加新的对话流程时,他们希望能够轻松地添加或更新内容。他们希望深入了解模型性能或偏差率等 KPI。那么与 OMS、CDP、CRM 或 ERP 等现有系统的集成呢?如果你不能用你的对话式 AI 执行真正的操作,比如获取或更新记录以向客户提供状态更新或更改他们的信息,那么你就做不了什么。ChatGPT 无法做到这些。但有了对话式 AI Cloud,你就可以。因此,我们在幕后使用的模型补充了构成我们完整解决方案的广泛功能。
对话式 AI Cloud 给出的答案可以适应上下文,但会经过贵公司的文案人员的审核,以确保答案始终符合事实、符合品牌形象并带有正确的语气。因此,根据您的环境设置情况,可能发生的最糟糕的情况是,在少数情况下,您的 AI 会回答“我不知道这个问题的答案”。但即使是这句话也会按照您希望的方式措辞,并且流程完全受控。所有这些原则使得使用对话式 AI Cloud 与客户互动的风险较低。
这也是 ChatGPT 和 Conversational AI Cloud 之间的巨大差异。ChatGPT 的行为就是所谓的黑匣子。问同样的问题 5 次,你会得到五个不同的答案(或者不是,你永远不确定)。有时,其中一个答案听起来很棒,但事实上也是错误的。你的人工智能现场编造答案可以为你节省一个甚至两个行政工作。但同时,它降低了你实施控制、保持透明度和保持质量的能力。因此,将生成式人工智能输出直接提供给客户的风险状况要高得多(至少现在我们还处于这项技术的早期阶段)。我们总有一天会越过那个点,但不是今天。
CM.com LLM NLP ChatGPT 博客 视觉
好的,那么受众和用例非常不同吗?
总结得不错。我们的模型将像过去一样不断发展。我相信目前正在开发和发布的 LLM 将大大增强我们产品的功能。它不会蚕食它;这是两个不同且互补的东西。
CM.com 和 ChatGPT
那么,Arman,你说这些模型将增强我们的产品,这是什么意思呢?CM.com 是否有采用这些新模型的计划?
ChatGPT 在我们的产品中能发挥什么作用?
我们看到了很多机会来改进我们的产品,进一步支持我们产品的用户以及他们过去几年所做的工作。无论是对话式人工智能云中的对话设计师、移动服务云中的代理,还是移动营销云中的营销人员。他们都在生成内容。使用生成式人工智能提出内容建议并让我们的客户进行最终检查将为他们省去很多工作。
对我们来说,重要的是不要被炒作冲昏头脑,不要为了整合而整合这些技术。我们只想实现能为我们的产品和客户增加重大价值的功能。我们不会以营销为导向,用“人工智能驱动这个,人工智能驱动那个”来标记我们的能力。生成式人工智能和法学硕士 (LLM) 非常强大,在很多地方都很有意义,但我们意识到了它们的缺点,并确保我们提供的任何新功能都能提供高质量和价值。