谷歌近期宣布,其基于文本到图像生成技术的最新模型Imagen 3已通过ImageFX平台向全美用户开放。这一模型自今年5月在谷歌I/O大会上首次亮相后,于6月有限地向部分Vertex AI用户开放测试。此次全面开放标志着谷歌在AI图像生成领域的进一步推进。
与此同时,谷歌在arxiv.org上发表了一篇学术论文,详细阐述了Imagen 3的技术细节。该模型采用潜在扩散原理,能够根据文本提示生成高质量图像,并在评估中展现出相较于其他顶尖模型的显著优势。
然而,Imagen 3的广泛应用也引发了公众的不同反馈。部分用户对其在纹理细节和单词识别能力上的提升表示赞赏,但内容过滤机制的严格性却成为不少用户的吐槽点。用户反映,即便是普通的创作指令也可能被系统拦截,限制了创作自由。
与谷歌的谨慎态度形成对比的是,xAI公司的Grok-2模型在图像生成上几乎不设限制,集成在埃隆·马斯克的社交平台X中。这一做法虽然提供了更大的创作自由度,但也引发了关于AI内容监管和伦理的争议。平台上出现了大量争议性内容,包括公众人物的篡改图片及一些敏感描绘。
AI图像生成技术的快速发展,在带来便利和创造力的同时,也面临着内容审核、责任与创造力平衡以及信息真实性等挑战。谷歌和xAI等公司在推动技术进步的同时,也需要认真考虑如何平衡技术创新与社会责任,以应对可能的监管审查和公众质疑。
未来,随着AI图像生成技术的进一步普及,科技行业将需要更加审慎地考虑技术选择带来的长远影响,确保AI技术能够在创造力与责任之间找到和谐的共生点。