产品中心 > 医用 > 竞技宝测速

不是好事:AI水军在仇恨板块难以分辨

发布时间:2022-06-16 18:52:45 来源:竞技宝测速网站 作者:竞技宝登陆

竞技宝测速

  微软无意中了解到创建种族主义人工智能的风险,但如果你故意将智能指向一个有毒的论坛会发生什么?一个人发现了。正如Motherboard和The Verge所指出的,YouTuber Yannic Kilcher利用4chan的Politically Incorrect(/pol/)板块三年来的内容训练了一个人工智能语言模型,这个地方因其种族主义和其他形式的偏见而臭名昭著。在将该模型应用于10个机器人后,基尔彻将人工智能在板块上释放出来--毫不奇怪,它创造了一波仇恨。在24小时内,这些机器人写了15000个帖子,其中经常包括种族主义内容或与之互动。基尔彻称,这些帖子占当天/pol/帖子的10%以上。

  该模型被命名为GPT-4chan(在OpenAI的GPT-3之后),它不仅学会了在/pol/帖子中使用的词汇,还学会了Kilcher所说的混合了 攻击性、虚无主义、嘲弄和深度不信任 的整体语气。视频制作者小心翼翼地躲避4chan对代理和VPN的防御,甚至使用VPN使其看起来像是来自塞舌尔的机器人帖子。

  人工智能犯了一些错误,如空白帖子,但足够有说服力,许多用户花了大约两天时间才意识到不对劲。据基尔彻说,许多论坛成员只注意到了其中一个机器人,而这个模型造成了足够的戒心,以至于在基尔彻停用这些机器人的几天后,人们互相指责对方是机器人。

  在与The Verge的交谈中,这位YouTuber将该实验描述为一个 恶作剧,而不是研究。这提醒我们,训练有素的人工智能只能和它的原始材料一样好。令人担忧的是,基尔彻如何分享他的工作。虽然他避免提供机器人代码,但他与人工智能库Hugging Face分享了部分阉割过的模型版本。访问者可能会出于邪恶的目的重新创建人工智能,因此Hugging Face决定限制访问,作为预防措施。该项目存在明显的道德问题,基尔彻本人说他应该在未来专注于 更积极的 工作。

  本文属于原创文章,如若转载,请注明来源:不是好事:AI水军在仇恨板块难以分辨

  微软无意中了解到创建种族主义人工智能的风险,但如果你故意将智能指向一个有毒的论坛会发生什么?一个人发现了。正如Motherboard和The Verge所指出的,YouTuber Yannic Kilcher利用4chan的Politically Incorrect(/pol/)板块三年来的内容训练了一个人工智能语言模型,...