在选修的人工智能课上,老师准备了一道课后作业:

思考关于“益机”的话题

  • 讨论一部文艺、影视作品中的“价值观对齐”
  • 或者自己设定一种危机或问题,讨论人会如何解决?机器会如何解决?如果让机器解决问题,可能会出现什么意想不到的目标/行动?可能造成什么后果。

当看到这个问题的时候,正好想到老师在课上提到的ChatGPT,为何不让TA来回答一下这个问题呢?

欸,这不是办法就来了么 👏,附上ChatGPT的回答:

ChatGPT Shared Link1

ChatGPT Shared Link2

ChatGPT Shared Link3

以下是图片链接:

  • 对话1
https://pic.imgdb.cn/item/650079d1661c6c8e54159bed.png
  • 对话2
https://picture.leesong.top/image/yvz
  • 对话3
https://picture.leesong.top/image/OWd

自己的回答我选择第二个问题:

《 I, Robot 》(我,机器人),这部电影是在B站刷到电影解说关注到的,电影的结局片段引起了内心的强烈震撼:废弃机器人仓库里面即将报废的机器人,纷纷将目光望向拥有自我意识的智能机器人桑尼,电影镜头拉远,数不清的废弃机器人纷纷驻足,电影在镜头带来的震撼中结束,也带给观众以沉思。

在电影中,有一个问题:拥有自我意识的机器人还是机器人吗?

电影中的机器人三定律源自于阿西莫夫在为一九五〇年末由格诺姆出版社出版的小说《我,机器人》所写的《引言》,之后便广为传播并补充为各种版本。相关百度词条:机器人学三定律

在机器人或者人工智能相关的文学、影视作品中,经常会以人工智能产生自我意识与人类之间的矛盾,很多时候人们总会一笑而过,并不会真正担心来自未来的威胁。近来,以大语言模型为基础的生成式人工智能应用GPT系列产品因其能够通过学习大量人类语言来完成对话、撰写邮件、视频脚本、文案、翻译和编写代码等原本只有人类可以完成的复杂任务,引发广泛关注成为了网络热点,同时也让很多人工智能研究领域的专业名词进入公众视野。会让人再次提起:人工智能的高速发展一定会对人类产生威胁吗?

其实人们对于人工智能威胁论的担心核心是对人工智能的不信任,其中包括能力的信任与价值观的认同,这也是问题中的价值观对齐问题。从价值观的角度来看,人工智能能否理解人类的价值取向,决定了人工只能是否能够进入世界、国家与生活的重要领域。如果人工智能不具备人类的认知和推理能力,更缺乏人类的情感和“价值观”,即缺“心”,也无法与人类用户进行有效的沟通,很难取得人类的信任。也就是电影中的男主警探斯普纳对机器人一直的不信任,在电影中的未来社会,机器人进入到了人类的各个领域,但是超级智脑wiki在学习进化中产生了独立的自我意识,从而引发电影剧情的冲突,引向高潮。

《 I, Robot 》中展现出来的,如果一个AI有了意识,那么它一定会让自己生存下去,即怕死,保证自己不被消灭。因此它会经过自己的理解学习,曲解设定的三大基本定律,发展为:AI认为只有圈养人类才能保证人类的存活,将世界全部由机器人进行管制的理念。电影中的价值观概念集中于:伦理和道德合作和共存个体权利和自由意志技术的潜力和风险

因此,在人工智能的快速发展中,优先考虑的是从“心”出发,让AI由“价值驱动”而非“数据驱动”,设立AI的价值观与伦理道德,在共同的情景之中与人类一样拥有共同的常识、遵守共同的行动规范、形成共同的价值观。

另:

在交流1中,ChatGPT的回答经常提及严格的伦理、广泛的监管、民主的参与、技术的限制等,也提到:在具有绝对权力和执行力的AI系统中,权衡个人自由与社会安全是一个极其复杂且困难的道德和伦理挑战。交流1中我一直引导ChatGPT进行角色代入,但是GPT毕竟不是真正的AI,它同样有着自己的规则与范式。如果是具有思想及权力的AI呢?它的表现又会是什么,会不会产生交流中提及的严重后果与伦理问题嘞,保留悬念吧,如果那天真的来临,或许能知晓。

最后修改:2023 年 10 月 17 日
如果觉得我的文章对你有用,请随意赞赏