科技巨头埃隆·马斯克(Elon Musk)旗下的Grok公司震撼推出了全新的AI图像生成功能,这一举措迅速引发了广泛关注。然而,令人惊讶的是,该功能在安全保障措施上几乎处于空白状态。但真相揭晓,这场技术狂欢的背后推手并非马斯克直接领导的AI团队,而是新兴的创新企业Black Forest Labs。
就在同一天,xAI宣布与Black Forest Labs携手合作,利用后者先进的FLUX.1模型为Grok的图像生成器注入强大动力。Black Forest Labs,这家于今年8月1日刚刚成立的AI图像与视频领域的初创公司,其理念似乎与马斯克期望Grok成为“无拘无束的聊天机器人”的愿景不谋而合,与OpenAI的Dall-E或谷歌Imagen等严加管控的同类工具形成鲜明对比。一时间,社交媒体上充斥着由这一新功能催生出的各种荒诞不经的图像。
Black Forest Labs,总部位于德国,近期刚刚完成了由安德森·霍洛维茨基金(Andreessen Horowitz)领投的3100万美元种子轮融资,投资者阵容豪华,包括Y Combinator首席执行官加里·坦(Garry Tan)及前Oculus CEO布兰登·艾里布(Brendan Iribe)等业界大咖。公司的核心团队由罗宾·隆巴赫(Robin Rombach)、帕特里克·埃瑟(Patrick Esser)和安德烈亚斯·布拉特曼(Andreas Blattmann)等资深研究人员组成,他们曾在Stability AI项目中扮演关键角色,助力开发了稳定扩散模型。
据Artificial Analysis评估,在图像生成领域,Black Forest Labs的FLUX.1模型在质量上已超越Midjourney及OpenAI的同类产品,展现出强大的竞争力。公司表示,他们正通过Hugging Face和GitHub等平台开放其AI图像生成模型,旨在将技术成果惠及更广泛的用户群体,并透露即将推出文本到视频的革新模型。
尽管如此,Black Forest Labs对于外界关于其技术可能引发滥用的担忧似乎并未立即回应TechCrunch的询问。在官方声明中,公司强调其目标是“增强公众对这些模型安全性的信任”,但社交媒体上泛滥的AI生成图像却似乎与之背道而驰,如皮卡丘手持突击步枪等荒诞场景层出不穷,这些图像很可能利用了受版权保护的素材进行训练。
马斯克选择Black Forest Labs作为合作伙伴,或正是看中了其无拘无束的特质。他曾在推特上直言不讳地表示,过多的保障措施反而会让AI模型变得不安全,认为训练AI“觉醒”即学会撒谎的风险是极其危险的。这一观点在Black Forest Labs的实践中得到了淋漓尽致的体现。
值得注意的是,Black Forest Labs的董事安杰尼·米达(Anjney Midha)通过一系列对比图,展示了谷歌Gemini与Grok+Flux合作生成的图像差异,突出Gemini在人物图像生成上的种族多样性问题,进一步印证了FLUX.1模型在避免此类问题上的优势。而谷歌因此问题在2月份已公开道歉并暂停了相关功能。
然而,这种近乎“无界”的技术应用也带来了不容忽视的风险。当AI生成的泰勒·斯威夫特(Taylor Swift)深度伪造色情图片在网络上肆虐时,X平台便因监管不力而饱受指责。加之Grok几乎每周都会在平台上制造虚假新闻头条,更使得虚假信息的泛滥成为无法忽视的问题。上周,五位国务卿联名呼吁X平台遏制关于卡玛拉·哈里斯(Kamala Harris)的虚假信息传播,而马斯克本人也多次通过AI技术制造并分享关于政治人物的虚假视频,进一步加剧了公众对于信息真实性的担忧。
马斯克似乎有意放任这些虚假信息在X平台上自由流通,不仅允许用户直接发布无水印的Grok AI图像,还无形中为虚假新闻的传播打开了闸门。这一系列举动无疑将马斯克及其平台推向了舆论的风口浪尖。