3 月 7 日 WSJ 的一篇长文刚讲述 Google 如何在过于谨慎和自我束缚下,错失了发布类似 ChatGPT 的聊天机器人的先机,作者认为高管在保持技术发展优势和维护伦理安全之间举棋不定。
一天后,Google 机器人团队、柏林理工大学和 Google 研究提出一种新的人工智能模型 PaLM-E,它由一组神经网络组成,可以处理不同形式的数据,比如图像、声音、文本还有机器人控制策略,从而实现对机器人的控制和操作。
三方团队联合发表的论文详细解释如何利用可视化数据增强语言处理能力。研究人员先使用大规模的图像和文本数据集对一个深度学习模型进行训练,以使其学习到一些通用的特征和知识,然后再在特定任务上进行微调,从而提高其对图像和自然语言之间关系的理解,并在机器人控制等任务中发挥更好的作用。用来训练模型的 “素材” 包括图像标注、视觉问答和图像分类等。
作者还举例一些具体使用场景,包括:
-在机器人控制任务中,PaLM-E 可以根据自然语言指令和视觉输入生成机器人控制策略。
-在视觉问答任务中,PaLM-E 可以根据图像和自然语言问题生成相应的回答。
-在机器手臂移动操作任务中,PaLM-E 可以根据自然语言指令和机器人状态生成移动路径和操作序列。
-在包含文本、图像、声音的多模态对话系统中,PaLM-E 可以理解用户的自然语言输入并生成相应的回复。
根据研究小组的说法,他们曾引导机器手臂按照指示精确地将红色块移向目标杯子 —— 即便训练数据中只有三个咖啡杯。
Google 的科研能力和资金储备毋庸置疑,但如它们自己说的,研究原型和一款每天可以安全使用的可靠产品之间存在巨大差距。并且相较于小型创业公司,Google 必须更加深思熟虑地发布 AI 技术。
如在 WSJ 的报道中,两名 Google 研究员两年多前开始推动公司发布一款聊天机器人,后者可以自信地探讨哲学问题,谈论自己喜欢的电视节目,同时还可以即兴制作有关牛和马的双关语,其技术比当时其他任何聊天机器人都要先进。
这遭 Google 高管们多次拒绝,理由是不符合公司对 AI 安全和公平性的伦理标准。两位研究员丹尼尔和诺姆离职创办自己的 AI 公司。Google 最近紧急发布的聊天机器人 Bard,部分基于二人的技术。
Google 对于推动人工智能技术应用的担忧主要来自两方面,一是长期以来关于人工智能的争议可能影响公司声誉,二是担心因此冲击自己的广告业务。
第一个担心长期存在于学术界和技术应用领域。甚至 OpenAI 成立初衷之一也是希望有朝一日有能力对抗可能被大公司滥用(比如 Google)的邪恶 AI。
2016 年,微软发布了一款名为 Tay 的聊天机器人,但仅仅上线数小时后,就在一些用户 “调教” 下,发表了诸如 “布什是 ‘9·11’ 事件的幕后黑手” “希特勒一点也没错” 等耸人听闻的言论。
第二个则是不可避免的大公司病,即在维护现有的盈利模式和客户群体、保持稳定的现金流和市场地位,与持续创新以应对市场变化和新兴竞争对手的威胁之间摇摆,通常最后是前者战胜后者,从而给了后来者机会。旧去新来是商业规律之一,也是商业世界的魅力。(邱豪 龚方毅)