调查结果如表6所示,大学生对生成式人工智能不同安全问题的平均认知比例为33.4%。在所设定的九大风险场景中,只有“隐私泄露”一项的关注度超过半数,而对“违法犯罪”“身心健康”“歧视不公”及“攻击指令”等四项风险的认知均低于平均水平。这表明大学生对生成式人工智能安全问题的认知存在明显局限。
这种认知局限影响了大学生在使用生成式人工智能时的判断力和自我保护能力,也可能导致对潜在安全隐患的忽视。例如,缺乏对“隐私泄露”风险的深入了解,可能导致学生在使用生成式人工智能时,无意中泄露个人敏感信息,增加个人信息被滥用的风险。对“违法犯罪”风险的认知不足可能使学生在处理生成式人工智能生成的内容时,不能有效识别和规避潜在的法律风险,增加学术不端行为及法律纠纷的可能性。对“身心健康”风险的忽视可能导致学生在使用生成式人工智能的过程中,不能有效识别负面信息,从而对心理健康造成不利影响。当生成式人工智能处理涉及政治、文化、种族等敏感话题时,如果学生未能充分认识到潜在风险,可能会导致错误信息的传播,甚至引发误导性舆论和社会矛盾。因此,提升大学生对生成式人工智能安全问题的认知,具有重要的现实意义。
调查数据显示,超过半数的大学生对生成式人工智能使用安全教育持支持态度,见表6。这一结果表明,大多数学生已经认识到使用生成式人工智能的潜在安全风险,并希望通过系统化的教育和培训来提升自身的安全意识和防范能力。大学生的积极态度是高校开展生成式人工智能安全教育的基础。
调查显示,大学生对生成式人工智能技术的接受度较高,该技术已广泛渗透到大学生日常学习和生活中。可以预见,随着技术的进一步提升,生成式人工智能将在大学生教育、科研等领域发挥更加重要的作用。
尽管学生对生成式人工智能技术表现出积极态度,但是他们对生成式人工智能安全问题的了解程度却不高。即便部分学生已经认识到生成式人工智能的潜在安全隐患,对这些问题的深入认知也仍然不足。学生在使用生成式人工智能时,安全意识尚未全面建立,实践中的风险防范能力也有待提升。此外,不同学科、不同学段的学生对生成式人工智能安全问题的认知存在显著差异。信息与工程学、理学专业的学生,对生成式人工智能的技术细节和潜在风险有更多的了解;来自社会科学、人文学及其他非技术领域的学生,可能由于缺乏相关课程和实践机会,对技术的理解和安全问题的认知相对不足。
基于以上调研结果,本研究从高校网络安全管理部门的角度提出了以下启示与建议,以应对生成式人工智能技术的广泛应用及其潜在的安全问题:
出台生成式人工智能指导规范。高校应制定针对生成式人工智能的使用规范,明确相关的使用原则、技术支持体系及相应的建设要求。通过制定统一的指导性文件,为不同院系、师生提供操作性强的技术指导和标准化的使用流程,确保生成式人工智能在校园内的安全、合法及有效应用。
开展分层分类的生成式人工智能安全教育。由于不同学科的学生所接触的技术场景和内容存在差异,需根据其专业背景设计个性化的培训内容。例如,针对理工科学生,生成式人工智能安全教育可能更多涉及技术操作与代码安全,而针对人文社科学生,安全教育可能需要关注内容生成中的伦理问题及信息准确性。通过定制课程、专题讲座和实操训练,确保学生不仅能够在理论上理解生成式人工智能的潜在风险,还能够在日常实践中具备足够的安全防护意识和技能。
加强跨部门/院系协作与技术支持。高校应进一步加强人工智能专业院系、网络安全、信息技术及学术事务等多个部门之间的协作,建立综合的技术支持体系,共同建立风险防范机制,确保生成式人工智能在高校中的安全、合法应用,减少潜在风险并提升学生的安全意识和技术实践能力。
参考文献
[1] SUN H,ZHANG Z,DENG J,et al. Safety assessment of Chinese large language models [J]. arXiv preprintar Xiv:2304.10436,2023.
[2] XU G,LIU J,YAN M,et al. Cvalues: measuring the values of Chinese large language models from safety to responsibility [J]. arXiv preprint arXiv: 2307.09705,2023.
来源:《中国教育网络》2024年9月刊
作者:陈晨、蒋广学(北京大学网络安全和信息化委员会办公室)