当前位置:首页 > 文章列表 > 科技周边 > 人工智能 > 人手AutoGPT!让ChatGPT自选10万+AI模型,HuggingFace官方出品

人手AutoGPT!让ChatGPT自选10万+AI模型,HuggingFace官方出品

来源:51CTO.COM 2023-05-18 19:23:53 0浏览 收藏

科技周边不知道大家是否熟悉?今天我将给大家介绍《人手AutoGPT!让ChatGPT自选10万+AI模型,HuggingFace官方出品》,这篇文章主要会讲到等等知识点,如果你在看完本篇文章后,有更好的建议或者发现哪里有问题,希望大家都能积极评论指出,谢谢!希望我们能一起加油进步!

前段时间,浙大微软团队提出的HuggingGPT在整个科技圈爆火。

这个大模型协作系统利用ChatGPT作为控制器,随意调用HuggingFace中的各种模型,以实现多模态任务。

让ChatGPT当「老板」,已经成为许多人看好的方向。

这不,该来的还是来了......

全球最火的AI社区HuggingFace官方出品「Transformers Agent」,通过控制10万多个AI,也能实现魔法。

人手AutoGPT!让ChatGPT自选10万+AI模型,HuggingFace官方出品

英伟达科学家Jim Fan称赞道,这是向Everything App迈出的第一步,随着生态系统的扩大,它的能力也不断增长。

他继续表示,HuggingGPT是这一想法首次大规模地展示,它使用GPT作为控制器,动态地选择工具(模型)来解决多阶段任务。

ChatGPT的「App Store」当然是AI工具生态系统应用的一个实例。全新Transformers Agent让你拥有超强buff,快速构建AI智能体。

Transformers,无所不能

用上Transformers Agent,你可以张口来图,还能让它为你读出来。

先来看看几个例子~

<code>agent.run("Caption the following image", image=image)</code>

人手AutoGPT!让ChatGPT自选10万+AI模型,HuggingFace官方出品

第一个先从简单的开始。输入一张图片然后配个解说,一只可爱的河狸在水里游泳(超可爱,想rua)。

<code>agent.run("Read the following text out loud", text=text)</code>

人手AutoGPT!让ChatGPT自选10万+AI模型,HuggingFace官方出品

第二个也不难,简简单单文字转语音。

<code>agent.run("In the following `document`, where will the TRRF Scientific Advisory Council Meeting take place?",document=document,)</code>

人手AutoGPT!让ChatGPT自选10万+AI模型,HuggingFace官方出品

这个上了点难度。输入的要求是,说出科学咨询委员会会议将在哪里举办。

当然对AI来说,检索到最后一行也是找到了答案。

用户在使用agent.run之前,需要将一个智能体实例化,也就是一个大型语言模型(LLM)。

研究人员提供了对OpenAI模型的支持,以及来自BigCode和OpenAssistant的开源替代品。

虽然OpenAI的模型性能更好,但用户得有OpenAI的API密钥,所以不是免费使用。

Hugging Face表示,正在提供BigCode和OpenAssistant等模型的免费访问端点。

首先,用户需要安装智能体附加程序。

<code>pip install transformers[agents]</code>

要想使用OpenAI的模型,用户需要在安装OpenAI dependency项后实例化一个OpenAiAgent:

<code>pip install openaifrom transformers import OpenAiAgentagent = OpenAiAgent(model="text-davinci-003", api_key="<your_api_key>")</code>

用户要使用BigCode或OpenAssistant的话,得先登录,以便能够访问API:

<code>from huggingface_hub import loginlogin("<YOUR_TOKEN>")</code>

然后,将智能体实例化:

<code>from transformers import HfAgent# Starcoderagent = HfAgent("https://api-inference.huggingface.co/models/bigcode/starcoder")# StarcoderBase# agent = HfAgent("https://api-inference.huggingface.co/models/bigcode/starcoderbase")# OpenAssistant# agent = HfAgent(url_endpoint="https://api-inference.huggingface.co/models/OpenAssistant/oasst-sft-4-pythia-12b-epoch-3.5")</code>

这是在使用Hugging Face目前免费提供的推理API。如果用户有自己的推理端点,就可以替换上面的URL。

StarCoder和OpenAssistant是免费使用的,在简单的任务上表现得不错。

然而,在处理更复杂的提示时,检查点就不成立了。如果用户面临这样的问题,可以尝试一下OpenAI模型,虽然很遗憾它不是开源的,但胜在表现不错。

单一执行方法是在使用代理的run()方法时使用的:

<code>agent.run("Draw me a picture of rivers and lakes.")</code>

它自动选择适合你要执行的任务的工具(或工具)并适当地运行它们。它可以在同一指令中执行一个或几个任务(你的指令越复杂,就越有可能失败)。

<code>agent.run("Draw me a picture of the sea then transform the picture to add an island")</code>

人手AutoGPT!让ChatGPT自选10万+AI模型,HuggingFace官方出品

每个run()操作都是独立的,所以你可以用不同的任务连续运行几次。

请注意,用户的智能体只是一个大语言模型,所以prompt中的小变化可能产生完全不同的结果。尽可能清楚地解释要执行的任务是很重要的。

研究人员深入地讨论了如何写出更好的prompt。

如果你想在整个执行过程中保持一个状态,或者向智能体传递非文本对象,你可以通过指定变量来做到这一点。

例如,你可以生成第一张河流和湖泊的图片,并要求模型通过以下方式更新该图片以增加一个岛屿:

<code>picture = agent.run("Generate a picture of rivers and lakes.")updated_picture = agent.run("Transform the image in `picture` to add an island to it.", picture=picture)agent.chat("Generate a picture of rivers and lakes")</code>

人手AutoGPT!让ChatGPT自选10万+AI模型,HuggingFace官方出品

这里让系统生成一张河流湖泊的照片。

<code>agent.chat("Transform the picture so that there is a rock in there")</code>

人手AutoGPT!让ChatGPT自选10万+AI模型,HuggingFace官方出品

下一步,研究人员又让系统给原图中加一个岛屿。

当用户想保持跨指令的状态时,这是一个很有趣的方法。

它更适合于实验,但往往在单条指令而不是复杂指令方面会好很多。

如果你想传递非文本类型或特定的提示,这个方法也可以接受参数。

要了解如何自己设置远程执行器工具,研究人员建议用户阅读自定义工具指南。

为了与远程工具一起运行,在run()或chat()中指定remote=True就可以了。

例如,以下命令可以在任何设备上有效地运行,不需要大量的RAM或GPU:

<code>agent.run("Draw me a picture of rivers and lakes", remote=True)</code>

对chat()来说也是一样的:

<code>agent.chat("Draw me a picture of rivers and lakes", remote=True)</code>

网友表示,Transformers Agent就像AutoGPT一样。

人手AutoGPT!让ChatGPT自选10万+AI模型,HuggingFace官方出品

还有人表示,Transformers Agent打开了自然语言编程的大门,可以想象,未来的操作系统就是智能模型,人类通过自然语言编排任务,越来越多的非开发者可以自己实现各种计算机应用。

人手AutoGPT!让ChatGPT自选10万+AI模型,HuggingFace官方出品

什么是工具?什么是智能体?

Transformers Agents整体的运作流程简单分为四步:

设定目标、提供工具、展示示例、下达任务。

智能体会使用链式思考推理来确定其任务,并用提供的工具输出Python代码。

如何安装和使用,官方给出了具体步骤。

人手AutoGPT!让ChatGPT自选10万+AI模型,HuggingFace官方出品

https://colab.research.google.com/drive/1c7MHD-T1forUPGcC_jlwsIptOzpG3hSj#scrollTo=fA8jPddeUSMO

其中,这里的「智能体」指的是,一个大型语言模型。通过提示LLM,让其访问特定的一组工具。

因为LLM非常擅长生成较小的代码样本,所以API利用了这一点优势。

你可以用抱抱脸自家的OpenAssistant、StarCoder,甚至还可以用OpenAI的模型。

提示LLM给出一个小的代码样本,并用一组工具执行一个任务。这个提示包括,给智能体的任务,以及工具的描述。

这样,「智能体」就可以找到所使用工具的文档,特别是预期的输入和输出,并可以生成相关的代码。

人手AutoGPT!让ChatGPT自选10万+AI模型,HuggingFace官方出品

而「工具」就非常好理解,是一个单独的函数,带有名称和描述。

然后,使用这些工具的描述来提示「智能体」,作用就在于可以像智能体展示如何用工具来执行查询中的请求内容。

再之后,通过利用Python解释器在与工具一起上传的一组输入中执行代码。

如果唯一调用的函数是你自己提供的工具和print函数,那么,开发者会在可执行内容上受到限制。当然了,抱抱脸社区的工具,是比较安全的。

除此之外,HuggingFace在Transformers Agents中还集成了以下工具:

- 文档问答:给定一个图像格式的文档(PDF),回答文档的问题(Donut) 

- 文本问答:给定一个长文本和一个问题,回答文本中的问题(Flan-T5) 

- 无条件给图像加标题:(BLIP) 

- 图像问答:给定一个图像,回答关于这个图像的问题(VILT) 

- 图像分割:给定一个图像和一个提示,输出该提示的分割掩码(CLIPSeg) 

- 语音转文本:给定一个音频记录,将语音转录为文本(Whisper) 

- 文本到语音:将文本转换为语音(SpeechT5) 

- 零样本文本分类:给定一个文本和一列标签,确定该文本与哪个标签最对应(BART) 

- 文本总结:用一个或几个句子来总结一个长文本(BART) 

- 翻译:将文本翻译成一种语言(NLLB)

这些工具都内置在Transformers中,也可以手动使用,比如:

<code>from transformers import load_tooltool = load_tool("text-to-speech")audio = tool("This is a text to speech tool")</code>

此外,还有一些定制的工具集成在Transformers Agents中,其中包括文本下载器、文本到图像的扩散模型stable diffusion、图像变换instruct pix2pix stable diffusion,以及文本到视频damo-vilab。

官方给出了一个自定义工具和提示的教程:

人手AutoGPT!让ChatGPT自选10万+AI模型,HuggingFace官方出品

https://huggingface.co/docs/transformers/en/custom_tools

代码生成

如上,已经展示了如何使用Transformers Agents流程。

但是,智能体只生成代码,通过使用非常受限的Python解释器执行这些代码。

如果你希望使用在不同设置中生成的代码,可以提示智能体返回代码,对工具定义,并准确导入。

比如,根据以下步骤实现:

<code>agent.run("Draw me a picture of rivers and lakes", return_code=True)</code>

返回以下代码:

<code>from transformers import load_toolimage_generator = load_tool("huggingface-tools/text-to-image")image = image_generator(prompt="rivers and lakes")</code>

然后,你就可以修改和执行自己的工具了。

以上就是《人手AutoGPT!让ChatGPT自选10万+AI模型,HuggingFace官方出品》的详细内容,更多关于AI,模型的资料请关注golang学习网公众号!

版本声明
本文转载于:51CTO.COM 如有侵犯,请联系study_golang@163.com删除
微服务架构中如何实现服务的负载均衡和过载保护?微服务架构中如何实现服务的负载均衡和过载保护?
上一篇
微服务架构中如何实现服务的负载均衡和过载保护?
Go语言如何支持云计算中的虚拟现实和增强现实应用?
下一篇
Go语言如何支持云计算中的虚拟现实和增强现实应用?
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    508次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    497次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • 茅茅虫AIGC检测:精准识别AI生成内容,保障学术诚信
    茅茅虫AIGC检测
    茅茅虫AIGC检测,湖南茅茅虫科技有限公司倾力打造,运用NLP技术精准识别AI生成文本,提供论文、专著等学术文本的AIGC检测服务。支持多种格式,生成可视化报告,保障您的学术诚信和内容质量。
    90次使用
  • 赛林匹克平台:科技赛事聚合,赋能AI、算力、量子计算创新
    赛林匹克平台(Challympics)
    探索赛林匹克平台Challympics,一个聚焦人工智能、算力算法、量子计算等前沿技术的赛事聚合平台。连接产学研用,助力科技创新与产业升级。
    98次使用
  • SEO  笔格AIPPT:AI智能PPT制作,免费生成,高效演示
    笔格AIPPT
    SEO 笔格AIPPT是135编辑器推出的AI智能PPT制作平台,依托DeepSeek大模型,实现智能大纲生成、一键PPT生成、AI文字优化、图像生成等功能。免费试用,提升PPT制作效率,适用于商务演示、教育培训等多种场景。
    100次使用
  • 稿定PPT:在线AI演示设计,高效PPT制作工具
    稿定PPT
    告别PPT制作难题!稿定PPT提供海量模板、AI智能生成、在线协作,助您轻松制作专业演示文稿。职场办公、教育学习、企业服务全覆盖,降本增效,释放创意!
    95次使用
  • Suno苏诺中文版:AI音乐创作平台,人人都是音乐家
    Suno苏诺中文版
    探索Suno苏诺中文版,一款颠覆传统音乐创作的AI平台。无需专业技能,轻松创作个性化音乐。智能词曲生成、风格迁移、海量音效,释放您的音乐灵感!
    93次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码