你会接受电脑的建议吗?是的,我们都会在电脑上查找信息,但谷歌的DeepMind部门正在开发一些更广泛的东西。据报道,该公司正在开发21种不同的生成式人工智能工具,用于提供生活建议、辅导等。这可能标志着谷歌对生成式人工智能系统信任程度的最大提升。
《纽约时报》获得的文件揭示了DeepMind为了把人工智能聊天机器人变成建议提供者所做的努力。在一个测试提示中,机器人被问到一个人如何能够告诉朋友,由于钱的问题,他们不能参加一个婚礼。这是一个很沉重的情况,要求一个可以产生幻觉和虚构事实的人工智能。然而,据报道,DeepMind正试图引导该项目远离“治疗”用途,并使其更加通用——它就像向一位报纸建议专栏作家提问,只不过这个作家是一个机器人。
该项目的创意生成模块可以根据给定的情况给用户提供建议或推荐,辅导功能可以提供学习新技能的计划。人工智能规划组件可以制定饮食计划、家庭预算等。谷歌已经与ScaleAI合作,这是一家旨在测试和验证人工智能系统的初创公司。据称有超过100名拥有各个领域博士学位的工作人员正在对建议机器人进行测试。
据《纽约时报》查阅的信息显示,谷歌的人工智能专家对聊天机器人的使用表示严重担忧。在去年12月的一次演示中,安全专家声称,消费者可能会不适当地依赖聊天机器人,导致“健康和幸福水平下降”。然而,谷歌似乎越来越放弃了以前对生成式人工智能的谨慎态度。
谷歌的人工智能研究人员发明了支持ChatGPT和谷歌Bard等机器人的变换模型。该公司在内部使用了这项技术,但由于准确性和滥用问题,生成式人工智能没有演变成一种消费者产品。OpenAI最初也对后果表示担忧,但最终与微软合作提供了ChatGPT。将人工智能与必应(Bing)集成让谷歌措手不及,导致Bard匆忙推出。
自从今年早些时候爆发了人工智能热潮以来,我们看到这些机器人提供了误导性和潜在危险的信息,制造了新的恶意软件,并无意侵犯了版权内容。尽管如此,DeepMind仍然认为生成式人工智能可以被引导提供有用的建议。