对人工智能的担忧常常会想象世界末日般的场景,其中系统逃脱了人类的控制甚至理解。除了这些噩梦之外,还有一些短期危害值得认真对待:人工智能可能会通过虚假信息危及公共话语;加深贷款、判断或招聘决策中的偏见;或扰乱创意产业。
然而,一类完全不同但同样紧迫的风险可能正在酝酿:那些因与非人类主体的关系而产生的风险。 AI 护送不再是理论:麻省理工学院分析了超过一百万个 ChatGPT 交互日志,发现 AI 的第二大流行用途是性角色扮演。
尽管过去曾对小说、电视、互联网、智能手机和社 伯利兹 WhatsApp 数据库 交媒体“上瘾”敲响了警钟,但所有这些形式的媒体都同样受到人类能力的限制。生成式人工智能则不同。您可以不断地动态生成真实的内容,并进行优化以适应与您互动的任何人的精确偏好。
为了解决人工智能伴侣可能造成的危害,有必要充分了解推动其发展的经济和心理动机。在了解这些导致人工智能成瘾的因素之前,不可能制定有效的政策。
至于法规,最有效的方法之一是直接在技术设计中建立安全措施,类似于设计师通过将儿童玩具做得比婴儿的嘴大来防止窒息危险。这种“设计监管”方法可以通过设计技术来减少与人工智能交互的危害,使其不太适合作为人类联系的替代品,但在其他情况下仍然有用。
技术人员渴望看到别人无法理解的视野。他们希望站在革命性变革的最前沿。然而,与促进健康的人类互动的挑战相比,构建技术系统的难度就显得微不足道了。
我们越来越多地目睹旨在“让世界变得更美好”的技术对社会造成严重破坏的情况。在人工智能成为现实世界中无处不在的玫瑰色眼镜之前,在人类有能力看到世界的本来面目并认识到人类何时偏离了自己的道路之前,我们需要采取深思熟虑但果断的行动。