在人类历史的发展过程中,我们始终依赖各种形式的技术来帮助完成日常事务,以提高生活质量并提升社会效率。这一点同样适用于新兴的生成式人工智能。虽然这项技术相对较新,但它以惊人的速度席卷全球,让许多繁琐的工作变得轻而易举。然而,它也导致了人们——无论是儿童还是成人——对技术的过度依赖,从而削弱了我们的解决问题能力和批判性思维。
在慈善领域,这些能力是必不可少的。一个旨在解决特定问题的使命可能会影响成千上万的人,因此需要有效且有能力的领导力来监督策略的执行,并坚守慈善的核心精神——即同理心、公平和人类尊严。因此,为了维持一个健康的慈善环境,人工智能应被视为工具,用于辅助和完善,而不是创造或领导。
慈善事业的基础必须来自人类的思想,而非 AI 生成的提示。首先,生成式 AI 已被发现会产生误导性虚假信息(称为“幻觉”)。一些最广泛使用的生成式 AI 模型,如 ChatGPT 或 Copilot,也被发现存在幻觉问题。任何倡议的基础都是伟大事业的基石,必须能被领导者和追随者清楚理解;使用生成式 AI 可能会削弱领导团队制定有效计划的能力,因为不仅存在幻觉问题,还会让计划背后的深度思考完全缺失。此外,生成式 AI 基于模式识别,除了幻觉,还可能存在偏见,这会违背现代社会的价值观,甚至损害慈善倡议的公信力。再者,这种偏见也违背了慈善的核心价值(同理心、公平和人类尊严)。例如,亚马逊在 2018 年撤回了一款 AI 招聘工具,因为它被发现存在对女性的偏见。显而易见,在招聘和领导层面上,AI 不能被过度依赖,必须始终有人类的参与,以避免生成式 AI 的缺陷对慈善事业造成负面影响。
然而,生成式 AI 在现代慈善中也有许多应用,尤其是在行政和沟通方面。慈善的核心是“给予”,而不是“给予者”,但这并不意味着人们总是愿意接受慈善家的帮助,特别是在帮助被视为“施舍”而非真正支持时,这种道德优越感会让受助者产生自尊心的阻碍。因此,慈善家必须掌握谈判的艺术,而这正是 AI 能够发挥作用的地方。如今,生成式 AI 已被零售商用来更好地理解不断变化的消费需求。凭借其解释和分析庞大数据的能力,AI 可以帮助打造更有吸引力的慈善倡议。此外,AI 在行政事务中的运用也能提高效率,例如规划会议、发送邮件和整体沟通。
总之,生成式 AI 虽然有用,但它并不是人类。对于慈善的精神而言,AI 很难去真正理解,因为它只是基于模式识别。当 AI 被放在领导位置时,其偏见、幻觉和错误信息不仅会对慈善项目的后勤执行带来影响,还会在原则层面上削弱慈善的核心价值——同理心、公平和人类尊严。然而,完全否定这项新兴技术的潜力同样不可取。AI 可以在组织和工作分配方面发挥作用,也可以利用其数据分析能力帮助提高慈善项目的吸引力。随着我们不断向未来迈进并回顾过去,作为领导者和慈善家,我们必须把生成式 AI 视为工具,而不是决策者,合理运用这项技术,推动世界产生有意义的改变。
撰稿人:Mohammad,荣获最具抱负学生奖
NextGen Richard Buttrey班级,2025年
上海美国学校 | 加拿大 | 15岁
曾获法兰克福国际学校优异成绩奖、“爱丁堡公爵奖”(铜奖),以及沃顿全球高中投资竞赛参与奖