我们应该如何看待人工智能?
Posted: Thu Dec 12, 2024 4:10 am
无论正确与否,人工智能已经成为不同技术的代名词。云、数据、算法——它们都让我们能够利用人工智能做有趣的事情。这些技术不一定能帮助我们定义人工智能,但它们是我们可以开始构建一个框架来理解它、理解它的参数和范围(无论好坏)的一种方式。
但关于人工智能定义的争论仍在继续。 WPP 的 Satalia 喜欢将其定义为“目标导向和目标适应的行为”。它是关于做出与特定目标相关的决策以及确定这些决策是好还是坏的能力,以便该技术可以在未来做出更好的决策。但我们要明确一点,我们所知道的人工智能并不能真正自行学习,至少目前还不能,所以即使这个定义也不能真正推动我们前进。
在这个框架内,出现了这六个类别,我们可以,也许应该,思考人工智能的有用性。目前,它们是我们考虑人工智能的镜头,并将帮助我们定义一个框架,以理解其进化是一种向善的力量,更重要的是,它也有可能造成伤害,因此需要干预。
1. 任务自动化
第一类技术是任务自动化。这包括机器人过 波斯尼亚和黑塞哥维那 WhatsApp 数据库 程自动化、自然语言处理、计算机视觉等。新技术使我们能够更好、更快地执行任务,并用简单的算法代替特定的任务,在优化和自动化方面创造巨大的价值。当工作受到威胁时,取代人类执行各种任务的技术总是会脱颖而出。但人类和机器执行任务时可能存在中间立场,而且随着时间的推移,这种中间立场可能会产生最大的影响。
2. 内容生成
该类别通常被称为“生成式人工智能”,涉及图像、视频、文本、音乐等的自动生成。这是关于增加创意过程,通常称为内容智能。此类人工智能有有效且有用的应用,例如,可以推动更多人参与活动。但随着此类技术的采用更加广泛且更加复杂,仍然需要采取保障措施。
3. 人类代表
此类技术涉及用技术代替人类。这些界面技术,例如聊天机器人和化身,看起来和感觉都很人性化,并引起了人们对道德和风险的担忧。这项技术引出了一个问题:聊天机器人或其他看起来和听起来都像人类的技术是否应该在用户与该技术交互之前声明它实际上不是人类?或者技术是否应该被赋予一个人类的名字?
还有同质化的问题。在 Satalia,我们考虑到人们倾向于寻找或被那些与自己相似的人所吸引。那么,当人类与非人类互动时,当人类不清楚群体中谁不是真正的人类时,这是如何发挥作用的呢?这对于建立信任意味着什么?社会泡沫是否已产生?它会减少多样性吗?这些都是我们必须面对的问题。
4. 从数据中提取复杂的见解/预测
在这里,我们谈论的是机器学习和高级分析,本质上是数据科学,我们通过数据科学从数据中提取复杂的信息。如果我们想以新的、更好的方式理解世界,以便构建更好的系统,那么就需要解释这些相关性。
提取新的复杂相关性的机器学习吸引了很多关注——有很多关于此类技术的讨论。通过营销视角,它可以帮助我们了解新人,以我们以前从未实现过的方式识别新类型的人类行为,然后加以利用。如果我们想要构建一个框架,让人工智能只被用作正义的力量,那么也许这类技术是最好的起点。
5. 复杂的决策
专家系统、优化、推理——这些都是利用人工智能技术做出更好决策的方法。但是,如果将这些知识提供给人类来做出可行的决策,那么该知识的最终价值可以量化吗?整个优化过程是否应该委托给机器?自动化和优化应该从哪里开始和结束?
6. 扩展人类的能力
在物理世界和数字世界中扩展人类能力的能力是我们列表中的最后一类人工智能技术。在这里,我们讨论的是外骨骼的使用,它可以利用人工智能和网络技术做出控制决策。此类别是关于使用技术作为我们在物理世界中的延伸,以提高性能。而且,在虚拟宇宙中,它是关于让一个数字孪生,一个化身,代表你做出决定。
六大类的共同因素
在这六个类别中,有而且应该有不同的限制。而且,对于每个人来说,都存在不同的安全、安保、道德和治理问题。问题层出不穷:生成式人工智能是否存在偏见?我们是否针对正确的 KPI 进行优化?如果我们有有毒的数据组合会发生什么?如果我们提取了我们不应该获得的见解,会发生什么?这些问题以及更多问题将帮助我们建立一个框架,希望在该框架内更安全地运营。
但实际情况比这复杂得多。这六种技术类别在很大程度上是可以组合的。它们是完整系统的构建块。但通过以这种方式对技术进行分类,我们可以识别优势、道德问题、劣势、摩擦和机会。
经过几十年的碎片化发展,这种思维方式使我们能够对技术及其应用进行分解,这导致了人工智能领域的混乱。通过分解,我们可以开始致力于改进技术、技能和流程,以帮助我们更好地解决问题,更重要的是,了解人工智能安全和道德未来的框架。
但关于人工智能定义的争论仍在继续。 WPP 的 Satalia 喜欢将其定义为“目标导向和目标适应的行为”。它是关于做出与特定目标相关的决策以及确定这些决策是好还是坏的能力,以便该技术可以在未来做出更好的决策。但我们要明确一点,我们所知道的人工智能并不能真正自行学习,至少目前还不能,所以即使这个定义也不能真正推动我们前进。
在这个框架内,出现了这六个类别,我们可以,也许应该,思考人工智能的有用性。目前,它们是我们考虑人工智能的镜头,并将帮助我们定义一个框架,以理解其进化是一种向善的力量,更重要的是,它也有可能造成伤害,因此需要干预。
1. 任务自动化
第一类技术是任务自动化。这包括机器人过 波斯尼亚和黑塞哥维那 WhatsApp 数据库 程自动化、自然语言处理、计算机视觉等。新技术使我们能够更好、更快地执行任务,并用简单的算法代替特定的任务,在优化和自动化方面创造巨大的价值。当工作受到威胁时,取代人类执行各种任务的技术总是会脱颖而出。但人类和机器执行任务时可能存在中间立场,而且随着时间的推移,这种中间立场可能会产生最大的影响。
2. 内容生成
该类别通常被称为“生成式人工智能”,涉及图像、视频、文本、音乐等的自动生成。这是关于增加创意过程,通常称为内容智能。此类人工智能有有效且有用的应用,例如,可以推动更多人参与活动。但随着此类技术的采用更加广泛且更加复杂,仍然需要采取保障措施。
3. 人类代表
此类技术涉及用技术代替人类。这些界面技术,例如聊天机器人和化身,看起来和感觉都很人性化,并引起了人们对道德和风险的担忧。这项技术引出了一个问题:聊天机器人或其他看起来和听起来都像人类的技术是否应该在用户与该技术交互之前声明它实际上不是人类?或者技术是否应该被赋予一个人类的名字?
还有同质化的问题。在 Satalia,我们考虑到人们倾向于寻找或被那些与自己相似的人所吸引。那么,当人类与非人类互动时,当人类不清楚群体中谁不是真正的人类时,这是如何发挥作用的呢?这对于建立信任意味着什么?社会泡沫是否已产生?它会减少多样性吗?这些都是我们必须面对的问题。
4. 从数据中提取复杂的见解/预测
在这里,我们谈论的是机器学习和高级分析,本质上是数据科学,我们通过数据科学从数据中提取复杂的信息。如果我们想以新的、更好的方式理解世界,以便构建更好的系统,那么就需要解释这些相关性。
提取新的复杂相关性的机器学习吸引了很多关注——有很多关于此类技术的讨论。通过营销视角,它可以帮助我们了解新人,以我们以前从未实现过的方式识别新类型的人类行为,然后加以利用。如果我们想要构建一个框架,让人工智能只被用作正义的力量,那么也许这类技术是最好的起点。
5. 复杂的决策
专家系统、优化、推理——这些都是利用人工智能技术做出更好决策的方法。但是,如果将这些知识提供给人类来做出可行的决策,那么该知识的最终价值可以量化吗?整个优化过程是否应该委托给机器?自动化和优化应该从哪里开始和结束?
6. 扩展人类的能力
在物理世界和数字世界中扩展人类能力的能力是我们列表中的最后一类人工智能技术。在这里,我们讨论的是外骨骼的使用,它可以利用人工智能和网络技术做出控制决策。此类别是关于使用技术作为我们在物理世界中的延伸,以提高性能。而且,在虚拟宇宙中,它是关于让一个数字孪生,一个化身,代表你做出决定。
六大类的共同因素
在这六个类别中,有而且应该有不同的限制。而且,对于每个人来说,都存在不同的安全、安保、道德和治理问题。问题层出不穷:生成式人工智能是否存在偏见?我们是否针对正确的 KPI 进行优化?如果我们有有毒的数据组合会发生什么?如果我们提取了我们不应该获得的见解,会发生什么?这些问题以及更多问题将帮助我们建立一个框架,希望在该框架内更安全地运营。
但实际情况比这复杂得多。这六种技术类别在很大程度上是可以组合的。它们是完整系统的构建块。但通过以这种方式对技术进行分类,我们可以识别优势、道德问题、劣势、摩擦和机会。
经过几十年的碎片化发展,这种思维方式使我们能够对技术及其应用进行分解,这导致了人工智能领域的混乱。通过分解,我们可以开始致力于改进技术、技能和流程,以帮助我们更好地解决问题,更重要的是,了解人工智能安全和道德未来的框架。