华盛顿大学开设“作恶课”,引导学生直面科技行业不道德行为

下一篇文章

FCC 要求亚马逊和 eBay 下架涉嫌盗版内容的电视盒子

无论是监控或欺骗用户、以不当方式处理或出卖用户数据,还是培养用户不健康的习惯或想法,现在的科技行业都明显不乏以上不道德行为。然而,仅仅感叹一句“这太可怕了”远远不够。幸运的是,华盛顿大学的一门课程为学生们提供一次哲学方向的思考,帮助他们更好地认识并修复科技行业道德缺失的问题。

华盛顿大学信息学院培养的是计算机和应用开发的人才。除了计算机相关的专业技能, 学院老师 阿莱克西斯·西尼克(Alexis Hiniker)努力推动了“作恶设计”课程,让学生在学习计算机语言之外,探寻应用和服务的道德和伦理意义。例如,有什么更好的方式去开发一款约会应用,既能提高包容度,也能促进健康的人际关系?人工智能如何模仿人类,同时避免不必要的欺诈?中国式信用系统如何尽可能地实现用户友好?

在华盛顿大学的校园里,我和这堂课的学生进行了交流,并与西尼克老师聊了一下。她设计了这个课程,并对取得的结果感到高兴。

她的设想是给学生们提供关于道德哲学的速成班,帮助他们了解有影响力的概念,例如功利主义和义务论。

阿莱克西斯·西尼克

西尼克告诉我:“在课程设计上我会尽可能地考虑所有学生。他们不是哲学专业,这是一门设计课程。但我很期待课程的结果。”

最主要的教材是哈佛大学哲学教授迈克尔·桑德尔(Michael Sandel)编写的畅销书《正义》。西尼克认为,这本书将多种哲学概念汇总成为易于阅读、简明扼要的形式。在消化书中内容后,学生们分组,挑选一款应用或技术,用书中描述的原则进行评估,随后开出道德上的改善办法。

事实证明,在科技行业发现道德问题并不难,而解决这些问题有些时候是不可能的。他们的见解很有趣,但我从很多人那里得到了这样一种感觉,即存在令人失望的事实:对于科技能提供的东西,或者提供东西的方式,从根本上来说就是不道德的。

我发现,这些学生可以分成三类。

1、非根本性不道德(可以调整)

WebMD 毫无疑问是个非常有用的网站,但在这些学生看来,很明显这个网站缺乏包容性:他们的症状检查工具对非英语用户以及可能不知道症状名称的用户不友好。团队建议加入更可视化的症状报告工具,提供基本的人体图,以及非书面的症状和疼痛指标。

作为一款与儿童聊天的玩偶,Hello Barbie 处于雷区中,随时有可能违反道德规范和法律规定。不过,这并不是这款玩偶出问题的原因。借助父母控制系统和谨慎的工程开发,这款玩偶符合了隐私保护的基本要求。不过学生们表示,在与孩子健康交流以及让父母知情等方面,这款玩偶仍然没能通过一些测试。他们认为,互动脚本应该是公开的,语音应当在本地,而不是云端进行分析。最后,玩偶应当设置一系列涉及不健康行为的警告词或短语的触发机制,比如孩子提到类似自残的话时应立即通知父母,并且在这个基础上确保孩子与玩偶其他对话的私密性。

微信“ 附近的人”功能可以让微信用户查看别的微信用户朋友圈最近拍摄的照片。这个服务好的一点是,用户有很高的隐私控制权(可以选择使用或者退出,可以选择不展示自己的照片),但不好的地方在于,用户可以根据性别来筛选附近的人,从而有可能发展出一种有悖中国传统的“约炮文化”。此外,微信还将许多用户控制功能隐藏在多层菜单背后,可能导致用户在非自愿的情况下分享自己的位置。学生们还提出了对基本用户界面的优化,以及关于如何避免陌生人搭讪的想法。

Netflix 并不是恶魔,但该公司对视频节目的大力推广正在“打劫”用户的时间。团队认为,应当设置基本的用户限制,例如每天只能播放两集节目,或是在播放下集节目之前设置一定的延迟时间。这可以打破人们长时间看视频的习惯,鼓励人们重新控制自己的时间。

2、根本性的不道德(可以改善,而且值得改善)

FakeApp 提供了一种在视频中换脸的方式,从而制造出能以假乱真的赝品。从广义上来讲,这是根本性的欺骗,但实际上只有当你故意将假视频当作真视频时才会出问题。团队认为,最终技术不会自主演化出缓解问题的措施,但通过可见或不可见的水印,以及对原始视频进行有控制的编辑,可以解决这方面的问题。因此,唯一的答案就是让用户知情。

学生们认为,中国式信用系统 实际上并非绝对不道德的,这样的判断基于一定程度的文化偏见。我在这里提到这个案例是因为,这样的信用体系在部署过程中绕开或回避了大量道德问题。不过,他们最务实的建议在于,应当让系统更容易被追责,更透明。对行为报告提出质疑,看看哪类东西影响了你的得分,以及得分会如何随时间变化。

团队认为,Tinder 不道德的本质是基于这样一个事实:表面上 Tinder 是一款促进人际关系的应用,但实际上是赤裸裸的约炮平台。他们认为,强迫人们将自己物化,去追求这样的关系是不健康的,会导致人们自我贬低。对策方面,他们建议,在用户查看到某人时,先要回答问题或查看提示。在查看任何照片之前,你需要基于这些信息去完成滑动操作。这不是个坏主意,但也很容易被破解掉(就像其他在线约会服务一样)。

3、根本性的不道德(没救了)

The League 是一款约会应用,这款应用已经完全无法符合道德指南。这不仅是个约炮市场,还支持让用户花钱成为“精英”,并根据种族和其他令人困扰的信息来过滤其他人。团队建议移除收费服务和这些过滤器,但这实际上这样做将完全摧毁这款产品。不幸的是,The League 是一款面向不道德人群的不道德产品。简单的调整无法改变这点。

一支聪明的学生团队承担了对谷歌 Duplex 的研究,但很明显,他们是在谷歌 I/O 大会之后才开始项目。不幸的是,他们发现,人工智能伪装成人类,这是根本性的欺骗行为,在道德上是不允许的。当然,Duplex 可以主动标识自己,但这就破坏了所有的价值。他们还提出了一个我没想到的问题:在伪装成人类之前,这个人工智能为什么没有去尝试所有其他选项?它可以去访问网站,发短信,使用其他应用。一般来说,人工智能默认应当首先与网站和应用互动,随后与其他人工智能互动,再然后才是与人互动,这才是人工智能的意义。

对我来说,这些调查中最有价值的部分就是学习一种习惯:关注一项业务或技术基本的道德合理性,并形成清晰表达的能力。

这或许就是,在某些会议上,做出模糊表态以及给出清晰解释这种差别的原因所在。你将可以准确描述出具体的危害,这种危害性之所以重要的原因,以及如何避免这种危害。

至于西尼克,她也有优化这门课程的想法,如果这门课程明年还能再次获批的话。例如,课程可以采用更广泛的教材。她认为:“更多元化的作者可以带来更多元化的声音。”在理想情况下,这甚至可以拓展为跨多个学期的课程,让学生可以了解更多道德规范。

参加这门课程的学生(以及未来参加的学生)将可以协助做出这些选择,使类似 The League 和 Duplex 的情况变得更好,同时推动更多符合 COPPA(儿童在线隐私保护法案)的智能玩具和约会应用出现。

翻译:维金

Students confront the unethical side of tech in ‘Designing for Evil’ course