花生,也叫“落花生”,地上开花、地下结果,这一常识,原本人尽皆知。最近,一张“花生上树”的海报,引发网友热议。最近,某电商平台一款“四粒红花生”产品的详情页中,宣传海报出现明显常识错误:海报却将其画成悬挂枝头的模样,贻笑大方。该品牌之后回应,系因误用了AI生成的图片素材,已对相关页面进行修正并更新。
事实上,这已经不是AI首次出现此类常识性错误。2025年3月,某公司一则户外广告里,AI生成的模特出现了六指画面;去年,OpenAI的Sora团队公布的一段AI生成视频中,竟出现了用4条腿爬行的蚂蚁,还出现了“玻璃杯刚被抬起,桌面就先出现玻璃碎片”等多种反常识场景。
如今AI的图文与视频创作能力已广泛应用于各个领域,部分网络平台大力鼓励用户使用AIGC技术创作视频内容;但在AI技术快速普及的背后,“常识性翻车”的频发也让人们不得不追问:看似“聪明”的AI,为何总是犯低级错误?
AI犯错的根源,首先在于训练数据的偏见:当下多数通用AI模型仍依赖互联网数据,而这些数据本身包含大量刻板印象或错误信息,最终生成的内容往往放大了人类的错误认知。
此外,当下的AI虽擅长各类模式识别,能快速模仿图像、文字的表面特征,却缺乏对现实世界的感知与主动实验能力,进而缺失因果推理能力,最终导致无法理解人类意图,生成反常内容。
AI的便捷性,让部分人忽视了AI生成内容还需严格的“人类审核”这道最后防线,正如网友调侃的“AI不识字,何必乱翻书”。部分企业为追求效率滥用AI,忽视人工把关环节,最终需为这些低级错误买单。有评论甚至就此对使用含AI生成错误信息的企业,其产品质量也提出了疑问,可见AI的应用并非小事。
“花生上树”“六指模特”“四腿蚂蚁”等AI生成的“怪物”,对人工智能发展来说既是技术漏洞,也是技术迭代中的“成长阵痛”。这也提示使用者:现阶段,AI仍是工具,其价值高低取决于人类如何使用。在使用AI时,需实现“技术工具”与“人类责任”的平衡,而创意、真实与伦理既是人类需坚守的底线,也是AI无法替代的核心价值。