AutoGPT 和BabyAGI 的横空出世,会是迈向AGI 的更进一步吗

撰文:Benj Edwards来源:Ars Technica图片来源:由无界AI工俱生成AutoGPT 和BabyAGI 运行GPT 人工智能代理,以迭代方式完成複杂任务。自上个月向测试者推出Ope

撰文:Benj Edwards

来源:Ars Technica

图片来源:由无界AI工俱生成

AutoGPT 和BabyAGI 运行GPT 人工智能代理,以迭代方式完成複杂任务。

自上个月向测试者推出OpenAI 的GPT-4 API 以来,一群零散的开发者一直在尝试製作人工智能模型的类似代理实现,试图在尽可能少的人为乾预下执行多步骤任务。这些自製的脚本可以循环、迭代,并根据需要衍生出人工智能模型的新实例。

特别是两个实验性的开源项目,在社交媒体上吸引了大量的关注,尤其是在那些无情炒作人工智能项目的人中:由Toran Bruce Richards 创建的Auto-GPT,以及由Yohei Nakajima 创建的BabyAGI。

它们是乾什么的?就目前而言,二者的功能还没有完善。它们需要大量的人类输入和手把手的指导,还没有像承诺的那样自主。但它们代表了迈向更複杂的人工智能模型链的早期趋势,有可能比单独工作的单个AI 模型更有能力。

就像一个相当智能人一样,具有通用智能的系统应该能够适应新的情况并从经验中学习,而不是仅仅遵循一套预先定义的规则或模式。这与具有狭义或专业智能的系统(有时称为“狭义人工智能”)形成对比,后者被设计用来执行特定的任务或在有限的範围内运作。

同时,BabyAGI(它的名字来自于努力实现人工通用智能的理想目标)以类似于Auto-GPT 的方式运作,但具有不同的任务导向喜好。你可以在一个名为“上帝模式”的网站上尝试它的一个版本。

BabyAGI 的创造者Nakajima 告诉我们,他在3 月份目睹了“HustleGPT”运动后,受到了创造其脚本的启发,该运动试图使用GPT-4 来自动建立企业,可以说是一种AI 联合创始人。 “这让我很好奇,我是否可以建立一个完全的AI 创始人,”Nakajima 说。

为什么Auto-GPT 和BabyAGI 没有达到AGI 的要求,是因为GPT-4 本身的限制。虽然作为文本的转化器和分析器令人印象深刻,但GPT-4 仍然感觉被限制在一个狭窄的解释智能範围内,儘管有人声称微软已经在该模型中看到了类似AGI 行为的“火花”。事实上,像Auto-GPT 这样的工具目前的作用有限,这可能是大型语言模型目前局限性的最有力的证据。不过,这并不意味着这些限制最终不会被克服。

此外,幻觉的问题(LLMs 编造信息)可能会被证明是对这些代理类助手的有用性的一个重要限制。例如,在一个Twitter 话题中,有人使用Auto-GPT 通过搜索网络和查看每个公司产品的评测来生成一份关于生产防水鞋的公司的报告。在这个过程中的任何一步,GPT-4 都有可能对评测、产品、甚至整个公司产生“幻觉”,从而影响其分析。

当被问及BabyAGI 的有用应用时,Nakajima 除了“Do Anything Machine”(Garrett Scott 开发的一个项目,旨在创建一个自动执行的待办事项列表,目前正在开发中)之外,无法举出实质性的例子。公平地说,BabyAGI项目只有大约一周的历史。他说:“这更像是一个框架/方法的介绍,最令人兴奋的是人们在这个想法上构建的东西。 ”

Auto-GPT 似乎也参与了这种炒作。在启动该工具时,它要求你命名一个人工智能代理并描述其作用。它给出的例子是“一个旨在自主开发和经营业务的人工智能,其唯一目标是增加你的净资产。”

儘管这里提到了这些限制,但人们仍在迅速地将Auto-GPT 和BabyAGI 的代码都改编成不同的语言和平台,尽可能地努力去实现它,因为在许多人眼中这都是美元。

Nakajima 说:“这种利用ChatGPT 技术构建自主代理的新方法似乎在整个社区激发了许多新想法。”“看到人们以不同的方式在此基础上进行开发,真是令人难以置信。我很高兴有机会支持这些建设者和创始人之间的合作并共享学习。”

是否危险

在这个世界上,AI 界的大佬们一直在呼吁“暂停‌”开发强大的人工智能模型,以保护人类文明,但问题仍然存在:像Auto-GPT 和BabyAGI 这样的自主AI 代理是否危险?

Richards 和Nakajima 并不是第一个用所谓的“自主”AI 系统进行实验的人。在GPT-4 的安全测试中,与OpenAI 合作的研究人员检查‌了GPT-4 是否可以自主行动,制定和执行目标。他们很可能设计了类似的鍊式设置来实现这一点。而且OpenAI 努力用人类的反馈来调节‌ GPT-4 模型,目的是不产生有害的结果。

Lesswrong 是一个以关注人工智能末日愿景‌而闻名的互联网论坛,其成员目前似乎并不特别关心‌ Auto-GPT,儘管如果你表面上担心‌强大的人工智能模型“逃逸”到开放的互联网上并造成严重破坏,那么自主的人工智能似乎是一种风险。如果GPT-4 真的像人们经常宣传的那样强大,他们可能会更担心。

当被问及是否认为像BabyAGI 这样的项目可能是危险的,其创建者对这种担忧一笑置之。 Nakajima 说:“所有的技术都可能是危险的,如果不深思熟虑地实施,不注意潜在的风险”。 “BabyAGI 是一个框架的介绍。它的能力仅限于生成文本,所以它不构成威胁”。

资讯来源:由0x资讯编译自8BTC。版权归作者所有,未经许可,不得转载

原创文章,作者:币圈吴彦祖,如若转载,请注明出处:https://www.kaixuan.pro/news/463488/