Sam Altman提出的奇怪问题:机器人的情感、工作文化和人类关系
2023年06月09日 由 Susan 发表
347792
0
如果有机会问Sam Altman任何问题,你会问什么?AGI的风险?其与核弹的比较?OpenAI滥用数据?安全威胁?隐私?ET和Sam Altman在Delhi的一次采访中,行业专家、政府官员和企业家提出了许多问题,只有少数问题让OpenAI CEO深思熟虑,其他问题几乎都错过了。
浪费机会?
在OpenAI正在寻求推广ChatGPT的全球巡回路线中,他们正在继续扩大和在各个地方建立自己的存在,这次活动是探索OpenAI并探究公司在过去几周里发布的多个公告的机会。然而,大多数问题都是与通用的人工智能信息有关的,比如人工智能的风险、OpenAI的企业文化和创造力,ChatGPT并没有涉及其中。
有些问题的框架很糟糕,人们可能会想知道为什么要费这个劲。Cred创始人Kunal Shah提出的问题,即在“做”人工智能后,Sam对人类学到了什么,不仅荒谬可笑,而且所得到的答案是一个无意义的解释,Sam认为“某些奇怪的事情”和“非常重要的事情”正在人类身上发生,他希望保护这一点。另一个不合适的问题是由Prasoon Joshi提出的关于“创造力”的问题,即一个人如何在这些系统中失去创造力的满足感,这与OpenAI或Sam Altman无关。
来源:优酷
似曾相识
可能会引起关注的是,Sam Altman在不同的时间点所做出的回答很容易让人想起几周前发生的人工智能参议院听证会。要么是问题引导他以相似的方式作出回应,要么是答案过于熟悉。他声称没有股权,希望建立和部署负责任的AGI的监管措施,以及非常著名的“未来的系统可以治愈一切疾病或帮助我们应对气候变化”,这些都像是一场精心编排的交易。
宣布开展旨在民主化人工智能和组建网络安全计划的100万美元赠款计划后,该公司现在正在倾向于成为负责任的公司,致力于为人民服务,关心世界,并消除任何AGI风险。
在关于OpenAI的下一步计划的问题上,Sam的回答相当淡定,他以相同的说法回应,即该模型将变得更加智能、多模式,并减少幻觉,这是该公司已经通过他们最近的过程监督训练更新所声称的内容。
几个保镖
虽然不是所有的问题都是无意义的,但也有一些问题涉及到人工智能监管和AGI的评估等紧迫问题。Srivatsa Krishna, IAS提出了关于该公司战略性地要求政府进行监管的问题,因为我们都知道在国家之间实现集体行动是多么困难。当Sam首次在国会的听证会上提出希望制定人工智能监管时,这个问题很明显就出现在我们的脑海中。回答有些尴尬,Sam称这个问题是对事情的“愤世嫉俗的看法”,并辩护了“存在风险”是一个需求。他说,如果各国政府不能共同行动,那么将由企业进行合作。
Fractal公司的Srikant提出了关于AGI接近的判断方式的问题。他问道:“有没有测试方法来了解我们离AGI有多近?”对此,Altman回答说,GPT-4“并不接近AGI”,其中一些评估参数将涉及该模型自主发现和学习解决从未见过的问题的能力。虽然Altman认为他们离AGI还很远,但他在采访开始时说的第一件事是“OpenAI致力于追求AGI。”
当观看的技术专家们可能希望看到的问题会触及到OpenAI不为人知的一面时,没有什么能超过一个奇怪的问题——一个无情的风险投资家执着于与机器人建立关系的可能性 “有了人工智能,你能移除你觉得讨厌的东西,你的爱人和程序机器人,以获得完美的情人?”Altman不仅感到困惑,还不好意思地回答,“我希望我们不要爱上机器人——那会让人非常沮丧的!”
来源:https://thenextweb.com/news/uk-startup-launches-worlds-most-intelligent-e-scooter