新囚笼也许已开始编织 250224 Mon
Contents
现在,网上已有不少诸如“DeepSeek推荐”之类的帖子。人们开始把 AI 当作搜索引擎来用,让 AI 成为新的信息入口,直接获得答案。
我想很可能会出现面向 AI 的优化,就如同面向搜索引擎优化(SEO)一样。面向 AI 优化或许会简称为 AIO,有望成为一个快速崛起的新行业,通过操纵数据影响 AI 生成的内容。这可能包括将内容纳入 AI 的训练数据或实时数据源,也可能通过特定数据微调提供倾向性数据影响其行为,甚至可能构建更加“AI 友好”的内容生态。
现在每个大型互联网公司都在做自己的大模型,其中难保就没有这样的考虑——我向腾讯元宝提问,返回的搜索结果中大部分都是公众号文章。将用户、数据和内容留在自己的生态中,是大公司牢不可破的底线。
那些深谙 AI 厂商数据获取与清洗流程的人,也许能够将产品或品牌植入 AI 生成的结果中。我认为这可能是短期内的趋势,不过其持续时间长短取决于 AI 的发展速度。如果 AI 技术持续快速发展,并且在信息检索、知识推理、自然语言理解等方面取得更多进展,那么 AIO 可能会长期存在,甚至成为未来营销和信息传播的主流模式。
毕竟,一切媒介和工具的最终目的似乎都是卖货。
AIO 直接针对 AI 的输出,影响更隐蔽且直接。过去,人们曾经信赖过搜索引擎的广告,将搜索引擎中的广告视为搜索结果的一部分,还默认搜索结果排名越靠前越可信。结果,导致了“魏则西事件”。而 AI 直接把答案送到人们耳边,人们会逐渐放弃对信息的选择权。
如果 AIO 再参考用户的偏好和历史数据生成答案,用户将更难接触到多元化的信息,思维模式会更加固化,更容易被算法投喂的信息所左右。当 AI 实现了对信息解释权的绝对掌控时,我们的信息摄入就像从“超市货架自选”升级为“营养师配餐”,看似便捷,但暗含着系统性风险——我们进入了尼尔·波兹曼所说的“技术垄断”时代。
当然,AIO 不仅可以用于广告营销,还可以用于传播特定观点和特定内容。AI 生成的内容看似更具权威性和可信度,误导性信息更容易被用户接受和传播,对社会舆论和公共认知造成的危害可能更大。
随着互联网内容愈发朝着适配 AI 的方向优化,人们想要获取真正的原始数据和信息将变得愈发困难。过去我们身处信息茧房,如今则是为每个人单独设计的“知识囚笼”。这会加剧我们的偏见,进一步稀释共识,促使社会愈加分崩离析。
这种隐形的思想控制,会通过无处不在的数据收集,以及为人们提供他们想要且感到舒适的内容来实现。最终的结果,就如同《娱乐至死》中所说,我们的未来会是《1984》与《美丽新世界》的结合。
出于人类天性,当 AI 的表现也越来越接近人类,人们对 AI 会寄予越来越多的信任。目前在技术层面无法解决 AI 幻觉问题,但对此不了解的人很可能会将其当真。我们的数据素养、信息素养和 AI 素养的发展远远滞后于技术的发展。就像老年人在智能手机时代逐渐落后一样,如今甚至连年轻人在 AI 时代也开始跟不上步伐。AIO 可能会进一步加剧数字鸿沟,使得那些信息素养和 AI 素养较低的人群更加边缘化和弱势。
当人们无法获取可信信息,又未接受过思维训练,不能以批判性思维分析所获信息时,被误导就变得轻而易举。
也许我们会加强立法,就像现在要求搜索引擎需要明确标出广告内容一样,让 AI 的回答中的广告也能更容易地识别;但是这需要漫长的时间。
这样的未来,显然称不上美好。