青少年使用生成式AI:安全问题与家长认知的鸿沟

在人工智能技术飞速发展的今天,青少年对生成式AI(Generative AI)的使用日益增多,但其背后的安全问题和家长的认知差距引起了社会的关注。根据伊利诺伊大学厄巴纳-香槟分校的研究,家长对GAI的了解甚少,对孩子们如何使用GAI及其潜在风险几乎一无所知,而GAI平台在保护儿童安全方面也显得力不从心。

一、研究背景与发现

该研究由信息科学教授杨王和博士生玉岩进行,他们的论文是关于儿童使用GAI的风险和用途的首批发表数据之一。研究发现,青少年经常使用GAI聊天机器人作为治疗助手或知己,以获得无评判的情感支持,并帮助他们应对社交挑战。AI聊天机器人被嵌入到Snapchat和Instagram等社交媒体平台中,青少年将它们纳入群聊,用以学习社交技巧,有时甚至将它们视为浪漫的伴侣。
青少年使用生成式ai:安全问题与家长认知的鸿沟

二、青少年的使用动机与风险

青少年使用GAI生成式人工智能(Generative Artificial Intelligence)进行学术目的,如撰写论文、改写文本和生成想法。然而,Reddit上的帖子显示,青少年也请求性或暴力内容,并欺凌AI聊天机器人。研究指出,青少年担心对聊天机器人的过度依赖或上瘾,用聊天机器人制造骚扰内容,未经授权使用个人信息,以及传播有害内容,如种族主义言论。他们还担心AI取代人工劳动和知识产权侵权问题。

三、家长的认知与期望

家长对AI平台收集的大量数据表示担忧,包括用户人口统计、对话历史和浏览器历史,他们担心孩子分享个人或家庭信息。然而,家长并没有充分意识到孩子可能与GAI分享的敏感数据的程度,包括个人创伤的细节、医疗记录和私人的社交及性生活方面。家长希望有专为儿童设计的AI,只训练与年龄适宜的内容,或具有嵌入式的年龄和主题控制功能的系统。
青少年使用生成式ai:安全问题与家长认知的鸿沟

四、GAI平台的保护措施

研究指出,GAI平台为儿童提供的保护有限,主要关注限制显性内容,并未提供针对AI的家长控制功能。识别和预防GAI平台上不适当内容的一个关键挑战是其动态生成实时内容的特性,与静态在线内容相比,这增加了监管的难度。

五、建议与未来方向

研究人员强调,平台必须提供专家识别的安全和隐私风险的透明解释,并建议提供可以根据个别家庭需求和儿童发展阶段定制的内容过滤器。安全策略不能纯粹是技术性的,需要超越过滤和限制,认识到儿童自主权与家长控制在线风险之间的紧张关系。研究人员建议,成人首先需要理解儿童在GAI上的行为动机,并建议支持聊天机器人,为青少年用户提供一个安全的环境,以解释潜在风险,增强韧性,并提供应对策略。
青少年使用生成式ai:安全问题与家长认知的鸿沟
这项研究是解决青少年使用生成式AI所带来的问题的第一步。研究人员正在创建一个风险类别的分类体系,用于讨论风险和干预措施,以帮助减轻这些风险。这将有助于识别包括在GAI平台上花费的时间、对话内容和使用模式在内的风险行为的早期信号。

更多信息:
Yaman Yu et al, Exploring Parent-Child Perceptions on Safety in Generative AI: Concerns, Mitigation Strategies, and Design Implications, arXiv (2024). DOI: 10.48550/arxiv.2406.10461
https://techxplore.com/news/2024-12-teens-generative-ai-safety.html

AD:精心整理了2000+好用的AI工具!点此获取

相关推荐

1 1

免费AI工具合集,点击进入

AI对话

玉米AI助手