【编者按】8月16日至30日,由湖南省教育厅、湖南理工学院主办,湖南理工学院新闻传播学院、湖南红栀子大健康产业有限公司、湖南省新闻传播学会承办的2023年湖南省“智能传播与大健康产业发展”研究生暑期学校邀请国内新闻传播学科知名专家学者、健康传播产业领域业界专家授课。来自湖南理工学院、中国传媒大学等全国各大高校的119名博士研究生、硕士研究生、本科生入学,开展专题研学。8月20日下午,中国人民大学新闻学院教授、教育部青年长江特聘教授、《国际新闻界》杂志主编刘海龙作了题为“新常人统治的兴起:AIGC与传播研究”的讲座。本场讲座主持人为湖南理工学院新闻传播学院吴旖旎老师。本文根据讲座内容整理。
2022年底,生成式人工智能ChatGPT一夜蹿红,作为跨圈层的流量级热词、技术前沿的新热点,自然也引起了新闻传播学界众多学者的关注。刘海龙教授从海德格尔生存论的角度,将以 ChatGPT 为代表的生成性人工智能定义为“新常人”,并进而提出了如何认识ChatGPT,如何理解生成式人工智能与人类的存在方式以及生成式人工智能的知识生产等问题以探究这一新技术的可能影响。
问题一:ChatGPT能理解自己在说什么吗?
刘海龙教授以电影《模拟游戏》中的密码破译为引子,阐述了ChatGPT基于语言概率的“思考”。人类语言交互大致可以分为两大问题:“如何说”和“说什么”。“如何说”对应 AI 的算法模型问题,即它用什么方式听懂人类的指令并加以回应;“说什么”对应 AI工具,就是其背后的语料库问题。刘海龙教授指出,通常我们会认为这种建立在语言组合概率基础上的内容输出模式,并不涉及人类所拥有的那种“思想”或者“思考”。然而这种判断有可能错过了生成式人工智能对理解人类语言与思想关系带来的一个重要启示:那就是人类的思想真的是独立的、先于语言存在的吗?
刘海龙教授在回顾了柏拉图和德里达的观点后,创新性地指出ChatGPT的“思想”是在语言概率的接龙游戏中涌现出来的,这是一种作为“效果”的思想,或者是没有思想的思想。它是寄生在语言形式及语料之中的东西。这意味着是语言在构造着思想的结构,表达与传播才是思想的源头,而不是相反。
问题二:何谓“新常人”?
在《存在与时间》中,海德格尔是这样描述常人的:“我们把共在的一种倾向称之为庸庸碌碌,这种倾向的根据就在于:共处同在本身为平均状态而操劳。平均状态是常人的一种生存论性质。常人本质上就是为这种平均状态而存在。因此常人实际上保持在下列种种平均状态之中:本分之事的平均状态,人们认可之事和不认可之事的平均状态,人们允许他成功之事的和不允许他成功之事的平均状态,等等。……为平均状态操心又揭开了此在的一种本质性的倾向,我们称之为对一切存在可能性的平整。”
所谓常人的代表就是公众意见。公众意见是一个大多数人的看法,这种看法在海德格尔看来就是一种常人的代表,是缺乏决断力的。而在刘海龙教授看来ChatGPT恰恰具备了常人的特征,它就是一个对于人类思考和人类语言的平均值,它反映出大多数人是如何想的。他以自身使用经验为例说明了这一点。他向ChatGPT提出了这样一个问题:请你介绍下中国人民新闻学院的刘海龙教授,后者回答如下:
这段典型的回答与刘海龙教授自身的实际情况相去甚远,但却透露出其生成逻辑:这是一个基于概率所推断出的知识。ChatGPT描述的并不是其本人,而是对大众眼中中国人民大学新闻学院教授的最大可能形象的描绘。不过,他指出事实上ChatGPT又超出了常人,因为它拥有对人类已有知识综合的语料库和强大的算力,它的知识量超出了任何一个人的量,它是全人类知识的平均值,因此可被称之为“新常人”。
问题三:ChatGPT的知识生产何如?
在刘海龙教授看来,ChatGPT的知识生产似乎重新回到了传统——在对话中发现真理。这种苏格拉底式的知识生产相信这样一个原则:聪明的提问者和平庸的回答者一样,可以产生卓越的哲学。苏格拉底认为只要有恰当的提问,哪怕是平庸的回答,也可以接近真理。ChatGPT作为一个“新常人”,尽管无法突破自己知识库的边界,但如果有恰当的连续追问与补充,就会像苏格拉底引导下的常人,产生令人惊讶的表现。
ChatGPT的知识生产方式所蕴含的就是英国哲学家柯林武德所说的问答哲学或问答逻辑。问题与答案是配套的,即具有相关性原则与连续性原则,每个针对特定问题的回答都会引出新的问题,不断地接近真相。这也正是人类在与 ChatGPT 协作解决问题时的逻辑。海德格尔曾言:“把某某东西作为某某东西加以解释,这在本质上是通过先行具有、先行视见与先行掌握来起作用的。解释从来不是对先行给定的东西所作的无前提的把握”。寻找不到好的答案,很可能是提出的问题和思考的方向出现了错误。
因此,能否提出好的问题并且对问答过程本身进行自反性地思考,是目前人类智能与机器智能的一个重要差异。正如鲍德里亚所说:“信息可以告诉我们一切。它拥有所有的答案,但这是一些我们还没有提出问题的答案,甚至这是一些不成问题的问题。”真正重要的问题通常不会来自系统内部,只有人类的欲望能够超越理性知识,从系统外对知识提出要求。
问题四:他者的消失还是新的他者?
最后刘海龙教授思考的问题是人类和机器的关系。机器有无主体性?有没有可能颠覆人类?机器和人类的关系到底是什么样的?刘海龙教授认为对这些问题的思考首先需要引入一个概念,即他者。所谓他者在列维纳斯看来就是永远不可能还原为自我的东西。我们永远不可能让他者对我们服服帖帖,不可能让他者成为我们的一部分。那么ChatGPT是他者吗?从表面上看肯定不是,因为ChatGPT 是一个奴隶,它有问必答,24小时在线,耐心地回应人类提出的任何问题。除了一些涉及伦理的问题外,它几乎不会拒绝人类任何提问要求。但刘海龙教授指出正如黑格尔所说的主奴辩证法一样,ChatGPT失去他者性,像奴隶一样接受人类的差遣的同时,主人也在失去主体性,依赖奴隶进行思考与决断。我们未来可能的一种生存状态是,在做任何事情之前都要询问人工智能,然后再做出决定。这样人类的决策就会变得异常困难。
ChatGPT作为一种不断学习的“新常人”,很可能反过来变成比主人更强大的存在。虽然ChatGPT被设置为服从人类,但机器的不透明性又让它显得不可捉摸,难以预料。它的神秘与不可理解又使得在使用者眼中,具有了一种在使用中自然而然所产生的他者性。甚至因为神秘莫测,而具有了某种宗教色彩,就像是“上帝”,人类永远无法以自身的思想去揣摩他。刘海龙教授又进一步以围棋领域对人工智能的应用说明这样一种永远无法消除的他者性带来的首要危险是:以人类的思维去适应机器的智能,人类自身变得机器化。
面对人工智能可能带来的种种问题,刘海龙教授最后以鲍德里亚的一段话作为回应:“我们应该更加寄希望于信息的过剩或武器的过剩,而少寄希望于对信息的控制或对武器的控制。哪里有危险,哪里就有救渡”。他认为鲍德里亚提供了一种思路,即用一个危险去制约另外一个危险。我们可以谨慎地乐观地发展人工智能,以新的人工智能对其他的人工智能进行制约,在发展的过程中去解决可能面临的问题,而非在控制和禁止的过程中去解决问题。
(学生记者/张铠淇 编辑/刘怡欣 责任编辑/周祎 主审/肖涛 终审/石军)