当人们谈论人工智能时,他们经常提到 ChatGPT、Claude 或Gemini。然而,人工智能领域相当庞大,背后有数十年的研究。从AlphaZero(谷歌的国际象棋和围棋 AI)到Dall-E(Open AI 的图像生成 AI),一切都是 AI 的一部分。
然而,近年来,人工智能的两个分支变得越来越重要:对话式人工智能和生成式人工智能。
让我们来看看哪种技术更好,对话式人工智能与生成式人工智能。
什么是生成式人工智能?
ChatGPT 是生成式 AI最著名的例子,即经 卡塔尔区号 过训练可以创建新创意输出的 AI 模型。这些模型可以生成文本、图像甚至代码。对于希望探索这项技术的企业,AI 开发服务可以提供定制解决方案。
因此,这些模型可用于生成文章、图像甚至代码。生成式 AI 应用的一些示例包括ChatGPT、Claude、Dall-E等。
生成式人工智能如何工作?
生成式人工智能在大型数据集上进行训练,其中包括:
- 网络文章
- 社交媒体帖子
- 库存图片和视频
- 电子书
- 报纸、期刊和杂志。
人工智能模型获取这些数据集并识别其中的模式。这有助于它们根据给出的指令生成新的文本、图像甚至视频。
这些模型由生成对抗网络 (GAN)、变分自动编码器和 Transformers 提供支持。
让我们来看看生成式人工智能聊天机器人所采用的技术。
引擎盖下
有人可能会说,生成式人工智能的最新进展得益于谷歌的开创性论文《注意力就是你所需要的一切》。这篇论文介绍了一种新的神经网络架构,可以生成新的创造性数据输出,这导致了现在众多生成式人工智能模型的发展。
当今的生成式 AI 模型使用多种类型的架构,例如 Transformers;其中最突出的是:
1.生成对抗网络 (GAN) – 这些 AI 模型 对 我们建议的流程如下 话式人工智能与生成式人工有两个部分 – “生成器”和“鉴别器”。生成器创建新的东西,然后鉴别器批评输出。鉴别器模型在识别图像为 AI 生成时可以将图像归类为“假的”,因此随着生成器从鉴别器中学习,输出会得到改善。最后,GAN 模型学习如何欺骗鉴别器模型并创建逼真的文本和图片。
2.变分自动编码器 (VAE) – 这些模型由编 资料库资料库 码器和解码器构建而成。编码器获取一般数据并将其转换为向量(数据的概率数字表示)。然后,解码器对向量进行采样,尝试再次重建原始数据。此过程生成新的、不同的输出,从而创建新的图像和文本。
3. Transformers – Transformers 目前是最主要的 AI 架构,因为它们可以将大量数据情境化。本质上,该模型接收大量数据并将其转换为嵌入(一个向量空间,其中包含许多代表数据的数字)。现在,使用嵌入中的数字,Transformers 可以使用其训练数据来回答。