校园AI生成不当图片问题难解

斯坦福网络政策中心的一份新报告指出,学校、家长、警方以及现行法律尚未做好应对未成年人使用AI工具生成不当图片这一日益严重问题的准备。报告基于公共记录以及对非政府组织、互联网平台员工、执法人员、政府官员、立法者、受害者和家长的访谈得出结论,尽管这些非自愿内容会造成伤害,但在某些主流在线平台和社区中,这种行为已被正常化。

报告中提到,一些受访者表示,生成和分享AI生成的不当内容的人群中存在一种正常化或合法化的感觉。这种感知由公开讨论、共享技巧、应用程序的可得性以及在某些国家合法化的社区成员推动。

尽管美国38个州已经针对AI生成不当内容制订了相关法律,联邦的Take It Down法案也将对此进行更严厉的惩罚,但许多州未能预料到学生间的问题会如此普遍,因此没有考虑到未成年肇事者。

一位受访的执法人员指出,这类应用的获取非常便捷:“只需一分钟下载应用,再用30秒拍摄照片,但这将对孩子一生造成影响。”

报告中还提到了一些受害者的经历。一名学生受害者表示,在得知自己被生成不当图片后,她难以置信,因为她只知道同学使用AI写作业,却不知道可以用于生成裸照。

来源