摘要
下载 Docx
阅读更多
我们在第一集中探讨了AI的诸多益处—它如何改善日常生活、使医疗保健普及化,并加速科学的发展。今天,我们将镜头转向各种挑战:这项技术伴随而来的伦理、社会与安全困境。最重要的是,我们要问:如何确保人工智慧的发展与我们的伦理及心灵成长同步并行?从本质而言,AI的优劣取决于它所学习的数据,而这些数据来自我们—我们的社会、我们的历史、我们的不完美。当AI系统以偏颇数据训练时,它可能会复制,甚至放大这些偏见。另一主要隐忧是AI对就业的影响。自动化已取代例行性的工作,从工厂生产线到客服聊天机器人。这不仅仅关乎工作。在AI领域领先的国家,可能大幅超越落后国家,从而扩大全球不平等。AI依赖数据而蓬勃发展。它对我们了解多,预测、推荐与自动化的能力就越强—但这是有代价的:隐私。如果您看过深度伪造影片,您会知道人工智慧生成的媒体有多逼真—政治人物说出他们从未说过的话,名人出现在他们从未拍摄的场景中。现实与虚构的界线正在迅速模糊中。深度伪造的一个例子是用手机录制的影片,再进行人脸替换处理。迄今,我们聚焦于眼前的挑战,但众多专家警示,长期甚至关乎生存的风险。埃及软体工程师莫·高达特提醒我们,我们选择的价值观及我们引导此工具的方式将决定最终结果。「若您认真思考一下,人工智慧本身并无什么负面或正面价值。事实上,我一直在说,人工智慧本身并没有错。只是人类的价值观在机器崛起的时代有一些问题。」我们最具真知灼见的清海无上师(纯素者)也对不受控制的发展可能导致的后果表达了深切的担忧。「那可能发生在AI上,如果科学家持续不断地开发并继续深入探索机器人领域,只是为了看看他们能做到什么程度,以及接下来会发生什么,而毫无深思熟虑。那可能有一天会造成人类的灾难。此外,很有可能,如果我们不够谨慎地做有限度的发展,只是让它有用、有帮助,而做得过头,让它们变得超级聪明—然后变得像我们头脑一般,然后它们就会为所欲为,就像头脑有时会告诉我们,做我们想做的事一样。而即使我们想做的事并不好。它会变成一种习惯。我们头脑命令我们做什么,然后它变成一种习惯,无论好事或坏事,而人工智慧也可能变成这样。」











