返回成员库

在生成式人工智能时代,帮助孩子们浏览网上的错误信息

标签:

品牌安全 上下文的目标 社交媒体
品牌安全 上下文的目标 社交媒体

本内容由IAB英国会员创建

IAB英国的会员可以向会员库捐款. 登录提交您的内容.

In a world where generative AI is becoming ever more popular; education, 政府规定, 技术干预可以帮助孩子们区分事实和错误信息, Zefr的艾玛·莱西写道

我们都同意,儿童需要受到保护,免受现实世界中的许多危险. 难道在数字世界中不应该是一样的吗? 现实情况是,网络平台在孩子们的生活中扮演着比以往任何时候都更重要的角色. 加速 大流行, 这种高度的使用不仅仅是促进学校教育和社交网络.  

儿童在成长时期形成关键的社会和政治观点, 其中大部分现在都是在网上形成的. A 报告 英国国家扫盲基金会的一项调查发现,在12-15岁的青少年中,超过一半的人经常使用社交媒体作为主要的新闻来源. 然而,他们升高了 脆弱性 这也使他们成为错误信息传播者的主要目标.

它比以往任何时候都更重要, 然后, 我们要研究继续推动网络错误信息的因素,并实施保护儿童免受其负面影响的制度.
 

生成式人工智能是如何放大网络错误信息的

专家 项目 到2026年,近90%的在线内容可能由人工智能生成或操纵. 虽然其中大部分将使用人工智能将内容推向更高的高度, 它还使误导性内容和网站的创建变得更加容易. 考虑到这一点,这尤其令人担忧 11% 大多数学生都能分辨出真假网站.

Deepfakes, 例如, 是生成式人工智能视频和图像令人信服地复制了真人的言谈举止,还是从零开始创造数字人物. 这些已经被用来歪曲社会和政治问题的信息,而且 操作 为了经济利益而生孩子. 深度造假已经出现 排名 被认为是最严重的人工智能犯罪威胁,因为它们具有不可思议的欺骗人类的能力,而且越来越容易生产, 复制, 和可访问性. 鉴于孩子们对这种被操纵的内容不熟悉,深度造假也 预期 对他们构成更大的威胁.

更重要的是,人工智能产生的错误信息已经被 所示 甚至比人类创造的虚假内容更有说服力. 在某些情况下,人工智能生成的人脸是 认为 比真人更值得信赖. 在积极打击虚假个人资料和虚假内容的过程中,超过 三分之二 Meta在2022年从其平台上删除的账户中,可能有人工智能生成的头像.
 

如何让网络空间对儿童更安全

因为生成式人工智能可能会增加网上的错误信息, 法规的组合, 教育系统的实际变化, 此外,必须实施技术干预措施以保证儿童的安全.

政策制定者应制定标准化程序,科技公司可以利用这些程序对其平台上内容的安全性和可靠性进行分类, 确保用户的透明度和问责制, 广告商, 和出版商. 业界标准,例如全球负责任媒体联盟(加姆),也在内容安全分类上与广告商和出版商保持一致. 这些标准可以帮助品牌了解如何将广告预算投向何处, 保证出现在不伤害年轻人的内容旁边并为其提供资金——而且是无意中, 这个品牌.

除了, 孩子们需要接受dsn彩乐园网址的教育,了解如何在网上发现误导性或人工智能生成的帖子. 这包括学习如何在虚假内容中寻找不一致之处, 例如奇怪的短语或不自然的视觉组件, 与有信誉的新闻来源交叉核对网上的内容, 核实服务, 或者是更了解事实信息的成年人. 

而科技平台可以发挥作用, 品牌可以通过确保他们的广告支出不资助或支持错误信息的分销商来帮助遏制错误信息. 人工智能驱动的品牌安全解决方案在识别在线错误信息方面越来越有效. 通过综合分析媒体动态形态的语境环境和意图, 这些解决方案为营销人员了解内容安全提供了一种简单的方法,从而使他们能够相应地微调媒体计划. 由于人工智能的检测能力仍在发展中, 当人工版主也与人工智能结合工作时,在线内容的细微差别可以更彻底地理解和识别.

互联网对孩子们来说是一个了不起的资源,因为它打开了通往各种各样教育材料的大门, 加强社会关系, 并提供了在当前环境中可能无法获得支持的情况下寻求支持的机会-我们不应该阻止年轻人使用它. 

重点必须放在培养安全和积极的网络环境上,让儿童能够茁壮成长,并从互联网中获益. 实现这一目标的最佳途径是实施先进的政策和创新的人工智能解决方案,以确保在线内容的安全, 同时更新教育系统,为儿童提供坚实的教育基础,以避免生成人工智能和在线错误信息的陷阱.

作者:EMEA高级副总裁艾玛·莱西

Zefr

Zefr是一家技术公司,为YouTube上的品牌提供精确的内容定位解决方案. 

发布: 2024年3月19日星期二