时间:2023-06-06|浏览:188
LLM是指包含数千亿(或更多)参数的语言模型,这些参数是在大量文本数据上训练的。LLM是建立在Transformer架构之上的,其中多头注意力层堆叠在一个非常深的神经网络中。LLM的涌现能力则被定义为“在小型模型中不存在但在大型模型中出现的能力”,这是LLM与以前的PLM区分开来的最显著特征之一。
现有的LLM主要采用与小语言模型类似的模型架构(即Transformer)和预训练目标(即语言建模)。LLM在很大程度上扩展了模型大小、预训练数据和总计算量(扩大倍数),以更好地理解自然语言,并根据给定的上下文生成高质量的文本。这种容量改进可以用标度律进行部分地描述,其中性能大致遵循模型大小的大幅增加而增加。
HuggingGPT是一个协作系统,由LLM充当控制器、众多专家模型作为协同执行器。其工作流程分为四个阶段:任务规划、模型选择、任务执行和响应生成。当HuggingGPT收到用户请求时,使用ChatGPT进行任务规划,根据HuggingFace中可用的功能描述选择模型,用选定的AI模型执行每个子任务,并根据执行结果汇总响应。HuggingGPT能够完成覆盖不同模态和领域的复杂AI任务,并在语言、视觉、语音等具有挑战性的任务中取得令人满意的结果。实验充分证明了HuggingGPT在处理多模态信息和复杂AI任务方面的强大能力,并且HuggingGPT将继续添加面向特定任务的AI模型,从而实现可增长和可扩展的AI功能。HuggingGPT为走向通用人工智能开辟了一条新的道路。
目前,关于HuggingGPT的论文已经发布,项目在建设中,代码已开源了一部分,并揽获1.4k标星。该项目被命名为《钢铁侠》里的AI管家贾维斯(JARVIS)。与3月份发布的Visual ChatGPT的思想非常相似,它们都有一个共同的作者,叫作微软亚研院。而它们的区别在于HuggingGPT可调用的模型范围扩展了许多。
对于这个强大新工具的诞生,科学界表示,ChatGPT已经成为人类创建的所有AI的总指挥官了。而AGI可能不是一个LLM,而是由一个“中间人”LLM连接的多个相互关联的模型。这是一项重要的技术突破,标志着AI领域迈向更加智能化的新时代。
用戶喜愛的交易所
已有账号登陆后会弹出下载