看了一篇文章,来自著名的 techcrunch (这个网站属于 Yahoo!,目前在国内不可直接访问)。

TechCrunch 是个科技新闻的网站,文章一般还挺有质量的。在这篇文章里,谈了以下观点(偷懒,用阮一峰老师的总结):

AI 最擅长做下面的事情。

  1. 快速创作低价值的书面作品,比如一篇博客文章的草稿,里面包含你想说的内容的总体思路。
  2. 完成低级编码任务,比如初级程序员从一个项目复制到另一个项目的代码,或者从 Stack Overflow 复制代码。
  3. 对会议、论文和数据库进行总结和排序。AI 非常擅长干这个,因为它本来就是围绕从大量无序数据中提取有用信息的概念构建的。
  4. 从大量数据——天文观测、蛋白质相互作用、临床结果——发现其中的模式。AI 虽然本身并没有做出任何发现,但研究人员可以利用它们来加速自己的发现。
  5. AI 是令人惊讶的健谈者,可以永无止境地谈下去,而且对每个话题都很了解,不带评判性,并且反应迅速!

AI 最大的风险在于,它们不知道如何说"我不知道”。

当 AI 遇见以前从未遇见的东西时会发生什么?由于没有现成的模式可供遵循,它只是根据以前模式所反映的一般规则进行猜测。因此它的反应可能很笼统、很奇怪或不恰当。我们将这种现象称为幻觉。

令人不安的是,AI 不会告诉你,哪些是它的幻觉,哪些是事实。

如果你要求 AI 总结一些研究并给出引用,它可能会编造一些不存在的论文和作者,你根本分不出来。

而且,按照目前 AI 模型的构建方式,没有任何实用的方法可以防止幻觉。

这篇文章的观点……很有意思。它刚好反映了一个现在人们看待 AI 的常见角度:你如何看待 AI 这种技术,大概就可以判断你的技术观念。

无论是“AI 是压缩”、“AI 只是模式识别”,还是“大语言模型没有未来”,都是一样。看法会影响用户对 AI 的使用方式、对 AI 的期望。

我只有一个简单浅薄的看法:机器学习和人类学习很像;深度神经网络很可能和人类大脑的工作模式很像。

从这个观点可以推出:AI 和人类有些相似之处。在目前这个阶段,将它看成一个人,可能更加合适。

他有一些知识,但不全面;他有一些能力,但不高深;他也有幻想,也会胡说八道,就像我们在碰到自己不会回答的问题时一样。

AI_is_mirror


本文由 ChatGPT 和 Github Copilot 协助完成。未标明出处的配图由 DALL·E 3 生成。

本周的成果

  • 毕业论文工作结束
  • 学期工作也快结束了
  • 开始做个能换装的桌面宠物

本周的改变

  • 变胖了
  • 精力不足
  • 作息混乱

做得还不错

  • 完成了一些工作
  • 尝试了一个新项目
  • 做了一些正念练习

做得不太好

  • 作息很糟糕
  • 运动量严重不足
  • 没怎么看书

下周的目标

  • 恢复健康作息
  • 列个更有效的时间表
  • 多一点运动项目