这证明了我们的思想会对我们不利,并导致转化失败。 然而,有些公司正在努力对抗这种普遍的误解,并且确实从中获得了良好的收益。 举个简单的例子。根据 Facebook 的数据,在巴西,至少 85% 来自汽车零部件行业的广告只以男性为主角。为了给广告带来更多多样性,巴西的 Jeep 决定展示女性和男性在新车中享受冒险的画面。 该活动确实取得了良好的效果,在展示两种性别的广告中,品牌回忆率提高了 28 个百分点。 Novo Jeep Renegade - Seu Instinto é Jeep Pinterest 采取了另一项很好的举措,其算法力求为其搜索带来更多多样性。
谷歌本身也承言工具,旨在排除一些性别焦点术语。例如,当你输入“警察”时,引擎会 摩洛哥电话数据 建议输入“警官”。 尽管在之前的案例中,我们谈论的是社交媒体和更多的人为决策。当谈到 SERP 时,我们还有其他因素,例如人工智能和算法。 令人悲哀的是,数据和技术也可能带有种族歧视。这听起来可能很矛盾,因为两者都应该是客观而精确的科学。 然而,我们要记住,数据和技术都是人类构建的,即使在构建人工智能时,它们也容易受到自身偏见的影响。 正如《搜索引擎杂志》的作者卡罗琳·莱登所说:“算法和机器学习的效果完全取决于我们向这些模型提供的信息”。
幸运的是,作为营销人员,我们有能力改变自己的想法,发现我们的偏见并采取行动。如果我们发现自己的偏见,我们就能察觉到某些事情只是一种刻板印象,并不代表现实。 如何减少偏见 对抗算法并不容易,尽管谷歌已经尝试减少 SERP 中的偏见,但距离我们拥有无偏见的技术还有很长的路要走。 但我们可以做一两件事来改善它——毕竟,我们是为这些算法提供内容的人。请查看以下主要提示: 首先,从自己开始 让我们明确一点:有偏见并不会让我们成为坏人,但我们应该更加致力于认识到我们的偏见。下次你发现自己对某人有刻板印象时,想想“我为什么会这样想”,或者“这是真的吗?” 请记住,没有人可以被归结为一个刻板的形象。