GPT的全称是generativeprechainedtransformer,生成预训练大模型。正是因为GPT采用了预训练transformer模型的架构,才展现出了惊人的实力。DN2DHCT架构来源于谷歌,是一种用户自然语言处理的神经网络模型与传统的神经网络最大的不同。Transformer模型使用了注意力机制来处理输入内容的依赖关系。
·transform模型由编码器和解码器两部分组成,编码器将输入序列中的每个单词表现为一个向量,编码器和解码器都是通过多层注意力和前馈神经网络对输入序列和输出序列进行编码和解码。有点抽象是吧?别急,我来慢慢给你解释。
比如说你输入:苹果为什么会这么火?它比国产的OPPO好在哪?如果是传统AI可能无法理解你指的水果品类的苹果还是苹果手机,还是苹果家族的其他系列产品。正是因为这种对精准输入的内容的相关性的推演才能理解到你问的问题。其实是苹果手机和OPPO手机的能力差别。
·情绪识别是怎么回事呢?同样的道理,它会根据你输入的词进行情绪特征归集。例如你回复:我真的太无语了,总是让人不满意,你太让人生气了之类的词基本上会判断你是负向情绪的特征。所以在transformer自注意力机制中,模型会根据输入系列中的所有单词计算出每个单词和其他单词的相关性,然后使用这些相关性加权求和得到每个单词的向量特征。
这种方法使得模型能够处理很长序列或者跨序列的依赖关系,从而提高了模型的性能。
就人工智能的实现原理来讲机器并没有产生真正的情感和创意,而是通过规则和逻辑成就了自己。就这个视角你可能会稍微取消一些对于人工智能的恐惧感,原则上是人类创造了它,因此也能主导它。
今天内容就先到这里了,祝优秀的你一如既往的优秀,拜拜!人工智能的本质还是数学和逻辑。AI能否产生意识至今还是个谜。关注我获取价值信息。公众号:夏叶华。视频号:Eva产品战略。
ChatGPT中文版地址:chatzh.net

