Facebook使用AI积极过滤故意的色情
Facebook揭示了其最新的尝试,以遏制地球上最大的社交网站上“故意色情”的传播。
“故意色情”一词非常广泛,但是在这种情况下,可以理解的是,它是在没有参与这些图像或视频的人的同意的情况下宣传亲密图像或视频的一种行为。实际上,由于智能手机和人数的受欢迎程度,这种“故意的色情”形式越来越多地出现在互联网上,尤其是朋友,发短信和社交网络应用程序。使用这些平台正在迅速增加。尽管现在许多国家 /地区都有特殊的法律来解决网络空间中的色情问题,但似乎无法阻止这种行为的发生,尤其是在审查控制和测试时,最初无法满足要求。至关重要的是,在非法共享“亲密”,私人内容之前,受害人遭受的损害已经太大了!
- Facebook因其非法出售数据而受到正式刑事起诉
像某些技术公司一样,Facebook已引入了几年来解决故意色情的工具。早在2017年,Facebook就启动了一项新的报告功能,以使用户更容易报告在Facebook,Messenger或Instagram上共享的亲密内容。当时,社交网站还表示,它将使用图像识别技术来确保将来无法再次分享作为故意色情的照片。
之后,Facebook还允许其用户通过发送图像的数字副本来帮助Facebook自动阻止所有共享公众的尝试,从而在本期中采取更加主动的方法。将来重复此图像。但是,这仍然不够,这些仍然是被动的补救措施,Facebook需要在预防和处理方面具有更积极的工具,而AI可能是正确的技术。
- Facebook确认全局网络崩溃是由服务器配置更改引起的,这些更改尚未解决
通过最新的努力,Facebook试图通过积极检测裸露或半裸露的图像和视频来最大程度地减少对故意色情受害者的损害。在Facebook或Instagram上未经该主题的许可分享。
``这意味着我们将能够在与社区联系之前找到这些错误的内容,这非常重要,因为两个原因:首先,受害者害怕报复,因此他们不情愿地报告内容本身。其次,他们不知道自己的色情是被分享的。” Facebook全球安全部门负责人Antigone Davis在博客文章中说。
更具体地说,Facebook的Smart Learning应用程序将标志着它认为可以构成故意性行为的视觉内容,并将其传递给Facebook员工以查看内容。那里。
“如果图像或视频违反了Facebook的社区标准,我们将立即将其删除,在大多数情况下,我们还将在未经许可的情况下禁用共享的内容帐户“亲密”。当然,如果用户认为Facebook错误地判断了这个问题,我们也可以提交抗议请求,我们也欢迎它。” Antigone Davis补充说。
- Facebook具有iOS和Android上的在线付款功能,正在测试
除了新的自动检测技术外,Facebook还决定成立一个名为“不同意”的支持中心,该中心提供了一系列相关的工具和资源来控制色情内容。出现在这个社交网络上。
没有一个有争议的事实,Facebook无法在其平台上管理部分麦克风来用于共享内容,这就是为什么人工智能(AI)在内容审查工作中起着更为重要的原因,不仅在Facebook上,而且在所有其他社区应用程序平台上。但是,多年来,Facebook也引起了很多关于其算法如何评估和确定可以访问社区内容以及将阻止哪些内容的内容的争议。有以下特定情况:Facebook删除了“ Napalm Girl”的照片(Napalm Girl-著名的普利策赢得照片,其中一个裸体女孩的内容逃离了炸弹爆炸)。越南战争中的纳帕尔姆(Napalm)通过Facebook的算法,这是违反社区标准并禁止分享此形象的裸照。同年,Facebook不得不出庭,因为一名14岁女孩的诉讼,上面有裸照。
- 这是Android上Facebook应用程序的全新白色界面,正在测试
尽管上述案例部分显示了Facebook自动审查算法中的不完美,但它们也表明,这一社交网络实际上被一场艰苦的战争“陷入困境”。在充满隐私丑闻的一年之后,挽救了他们的声誉。尽管首席执行官马克·扎克伯格(Mark Zuckerberg)最近透露,该公司将采用一种将来最大化用户隐私的方法,但大多数人仍然对主要的怀疑表示怀疑。 Facebook书籍。