简介:

    《信息文萃》是一本图书馆内部发行刊物,于2000年创刊,每年出版16期,由财经、高教和读书思考三个栏目组成,每期共8个版面,包括教育类4版,财经类3版,读书思考1版。至今已出版261期。《信息文萃》精心选摘与主题相关的时事要闻、经典评论,将初步筛选的信息编辑整理,《信息文萃》以读者需求为中心,紧跟时代脉搏,关注时势热点,求真务实,受到广大读者的喜爱。

图书馆应用AI的伦理治理框架研究

摘录:南京财经大学图书馆     更新日期:2025年12月30日 10:35     类别:图情天地   总浏览:524

图书馆作为信息知识服务的重要机构,也正经历着AI技术引发的深刻变革。国际图书馆协会联合会(IFLA)作为全球图书馆界的权威组织,高度关注AI技术的发展及其在图书馆领域的应用,已发布一系列指南,其中,《国际图联“图书馆与人工智能”的切入点》(以下简称《指南》)明确提出了图书馆员在评估和讨论AI益处与风险时应重点考虑的问题清单,为图书馆AI伦理治理提供了重要的框架性指导。

鉴于《指南》的普适性特征与中国情境的特殊性,本文在借鉴多层次AI伦理治理理论基础上,构建了一个融合《指南》理念与中国实践需求的本土化图书馆AI伦理治理框架。该框架旨在搭建系统性、动态化、可操作的伦理治理体系,为有效应对AI技术在图书馆应用中的各类伦理挑战提供支撑。

治理框架的构建维度

基于现有AI伦理治理框架的相关理论成果,本文构建的图书馆AI伦理治理框架包含五大核心维度,分别为治理原则、治理主体、治理对象、治理内容和治理工具。这5个维度构成“为何治理(原则)→谁来治理(主体)→治理什么(对象)→治理哪些方面(内容)→如何治理(工具)”的完整逻辑链条,既体现伦理治理的宏观架构,又融入图书馆行业的差异化特征。治理原则是框架的价值根基和根本遵循。

治理主体是框架的组织保障。构建国家、省级、机构三级协同治理体系,明确各级主体的职责分工和协调机制:国家层面由中国图书馆学会牵头,负责顶层设计和标准制定;机构层面由各图书馆建立内部治理机制,负责具体实施和日常监督。治理对象是框架的作用范围和治理客体。涵盖图书馆AI应用全生命周期,包括AI系统与技术、数据与算法、服务与流程、人员与用户等,后续治理内容和治理工具将围绕这些具体对象展开,确保伦理治理的全面性和系统性。

治理原则与治理对象

治理原则治理原则是框架的灵魂,为所有治理活动提供价值导向和根本遵循。本文确立的原则内涵如下:①以人为本。AI的发展和应用需以服务用户和馆员为中心,尊重人的尊严、合法权利和自主性,确保AI始终处于人类管控之下。②公平普惠。确保AI服务的可及性,避免因技术、经济、地域等因素加剧数字鸿沟;积极识别并纠正算法偏见,推动信息资源的公平获取和服务质量的均衡化发展。③透明可控。提升AI决策过程的可解释性与可追溯性,要求对AI生成内容进行明确标识,保障用户知情权,同时确保在关键决策环节人类拥有最终控制权。④安全可信。建立健全数据安全与隐私保护机制,强化AI系统的鲁棒性和可靠性,防止恶意攻击和数据泄露,维护用户对图书馆AI服务的信任基础。⑤合规守法。严格遵守国家在AI、网络安全、数据安全、知识产权等领域的法律法规,将合规要求贯穿AI应用全生命周期。

治理对象明确了伦理治理的边界和具体作用点,是实现精准治理的重要前提,主要包括:①AI系统与技术。包括所使用的各类AI模型、算法、软件平台及相关技术基础设施,治理需贯穿其设计、开发、采购、部署、运行及退役的完整流程。②数据与算法。涵盖用于训练AI模型的馆藏数据、用户行为数据,以及算法的设计、优化和运行过程。③服务与流程。指集成AI技术的图书馆各项业务服务(如智能咨询、知识组织、个性化推荐)及其相关的工作流程,治理需确保服务流程符合伦理规范,并对用户体验负责。④人员与用户。包括图书馆员、技术开发者、管理者以及所有使用图书馆AI服务的用户,治理内容涉及人员的伦理素养培训、技能转型,以及用户教育、权益保护和反馈机制的建立。

治理主体

国家层面国家层面的治理主体主要由中国图书馆学会担任,核心职责包括:制定全国性图书馆AI伦理相关白皮书,提供顶层设计与价值引领,明确中国图书馆界在AI伦理领域的价值观、基本原则和发展愿景;深入解读国家层面AI相关法律法规和政策文件,结合图书馆业务特点和伦理需求,给出具体的政策衔接和实施建议;基于《指南》的14个关键问题和中国图书馆实际情况,系统梳理和分类图书馆AI应用中潜在的伦理风险,提供风险识别的指导方法。

机构层面,各图书馆应建立内部AI伦理治理机制,将AI伦理考量嵌入日常工作流程。主要职责包括:建立AI伦理责任制,明确各部门和岗位在AI伦理治理中的具体职责;制定细化的AI伦理操作规程和检查清单,确保每一项AI应用均经过严格伦理审视;搭建用户反馈和投诉处理机制,及时响应用户关切;定期开展内部AI伦理培训和宣传教育,强化全员伦理意识;及时上报重大伦理问题和潜在风险。

治理内容

在技术风险治理方面,需要系统构建质量控制与透明度保障机制。首先,针对AI生成内容不准确、易误导的风险,建立定期抽检与事实核查流程,如在智能咨询等场景中对AI生成答案实施常态化质量监控。其次,为破解AI缺乏可解释性和透明度的问题,图书馆采购AI系统时应明确要求供应商提供模型可解释性说明;同时在用户界面为AI生成内容添加“透明度标识”,明确训练数据来源,建立标准化的透明度标识制度。

社会风险治理应立足公平、包容与人的主体性,多维度筑牢风险防控防线。在算法层面,建立偏见检测与纠正机制,如在图书自动分类、推荐系统中定期使用算法偏见检测指标来评估分类的均衡性,对存在偏见的模型及时开展再训练;在文化层面,确保AI系统支持多元文化内容呈现,规避文化同质化倾向,切实保护少数群体权益;在服务层面,聚焦数字鸿沟问题,通过丰富交互方式、开展数字技能培训等方式,提升图书馆服务的可及性。

治理风险应对需从制度、权利与生态3个方面入手。在制度层面,建立严格的数据保护制度,严格遵循数据最小化原则,加强技术防护能力,有效应对隐私泄露与数据安全威胁;在权利层面,规范AI训练数据的采集与使用流程,建立健全知识产权保护机制,明确AI应用各环节的责任归属,同时通过多方协商机制保障利益相关者充分参与治理过程;在生态层面,评估AI应用全生命周期的碳足迹,积极推广绿色低碳AI技术以降低环境影响,支持开源技术创新与发展,促进技术生态多元化,防范技术垄断风险。

(摘自《高校图书馆工作》网络首发:2025年12月18日)

include-->