📢 转载信息
原文链接:https://www.bbc.com/news/articles/ce8rpdmm284o?at_medium=RSS&at_campaign=rss
原文作者:BBC News
一些地方政府正在使用或试验人工智能工具,以帮助社会工作者评估儿童面临的伤害风险。
据称,这些系统可以更快地分析来自多个来源的数据,为社会工作者提供有关潜在风险的更全面的信息。
这些工具被开发出来,以帮助应对儿童保护服务所面临的巨大压力。
在苏格兰,一个名为Safeguarding Shield的试点项目正在评估其在格拉斯哥的应用,该系统可以整合警方、医疗和学校的数据,以识别有风险的儿童。
一位社会工作者表示,这有助于识别他们可能错过的信息。
她说:“这可能有助于我识别出我没有时间去查找的信息。”
然而,这些工具也引发了关于算法偏见和技术依赖性的担忧。
隐私倡导者警告说,如果AI系统是基于有偏见的数据训练的,它们可能会不成比例地针对某些群体。
另一项被称为LUCID的项目在英格兰的两个地方政府中进行了测试,目的是在儿童报告被转给社会工作者之前,帮助他们快速识别那些可能需要进一步关注的案件。
一名发言人表示,该工具旨在“在早期阶段就提供对风险的快速、可操作的洞察”。
英国技术监管机构表示,任何用于评估儿童风险的人工智能工具都需要经过严格测试,并确保它们不会对弱势群体造成不公平的影响。
一位行业专家强调,AI应该是“辅助”而不是“替代”人类的判断。
他说:“这些系统必须被视为一个额外的工具,可以帮助社会工作者做出更好的决策,而不是替他们做决定。”
英国社会工作者和教育工作者联合会(BASW England)的首席执行官罗斯·琼斯(Ross Jones)表示,关键在于“透明度”和“问责制”。
我们必须确保算法的运作方式是透明的,并且清楚地知道谁对最终决策负责。
他补充说,任何依赖这些工具的机构都必须有明确的流程来处理潜在的错误或偏见。
政府和地方当局一直在努力应对儿童保护服务不断增加的需求,近年来,案件积压和工作人员流失是主要挑战。
支持者认为,AI可以帮助优先处理最紧迫的案例,从而释放工作人员的时间,让他们可以专注于与家庭的直接互动。
但批评者担心,过度依赖自动化可能会使社会工作者疏远,并错过微妙的人类信号,而这些信号对于识别真正危险至关重要。
在苏格兰的试点项目中,系统会生成一个“风险评分”,社会工作者会根据这个评分来决定下一步行动。
该试点项目的一位消息人士承认,目前的系统仍处于早期阶段,并正在努力确保其准确性和公正性。
人工智能在医疗保健、交通和金融等领域已有应用,但在儿童保护这一敏感领域的使用,无疑会受到更严格的审查。
专家们一致认为,无论技术如何进步,最终的人类监督和伦理考量都是不可或缺的。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区