首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
青云TOP-AI综合资源站平台|青云聚合API大模型调用平台|全网AI资源导航平台
行动起来,活在当下
累计撰写
2598
篇文章
累计创建
886
个标签
累计收到
0
条评论
栏目
首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
目 录
CONTENT
以下是
数据投毒
相关的文章
2025-11-21
维基百科关于识别AI写作的最佳指南
识别AI写作的“蛛丝马迹”极具挑战性,但维基百科的“AI写作迹象”指南是目前最好的资源。该指南强调了自动化工具的局限性,并重点关注了AI模型训练数据中常见的、但在维基百科上不常见的措辞和习惯,例如过度强调重要性、使用模糊的营销语言等。了解这些模式有助于更准确地判断文章是否由AI生成。
2025-11-21
0
0
0
AI新闻/评测
AI工具应用
2025-11-12
对人工智能模型的网络安全风险的警告
安全专家警告称,针对人工智能(AI)模型的网络攻击正变得越来越普遍,并可能对企业和公众安全构成严重威胁。研究表明,仅需约250份恶意文档就可以成功地污染一个大型语言模型(LLM),导致其产生有害内容或数据泄露。这种“数据中毒”攻击的成本相对较低,但潜在影响巨大。企业应立即评估和加强其AI系统的防御策略,以应对日益复杂的威胁环境,确保模型输出的可靠性和安全性。
2025-11-12
0
0
0
AI基础/开发
AI新闻/评测
2025-11-06
重大安全警报:仅需约250份恶意文档就能让AI模型“精神错乱”
研究人员发现,人工智能模型,包括GPT-4在内,很容易受到一种新型的“数据投毒”攻击。通过向模型训练集中注入少量包含特定“毒药”标签的恶意文档,即使只占总数据量的极小比例(约0.001%),也能导致模型在特定输入下产生不可靠的、甚至完全错误的输出。仅需约250份精心构造的文档,就能在模型部署后激活这些后门,引发严重的可靠性风险。这一发现凸显了AI训练数据安全防护的紧迫性。
2025-11-06
0
0
0
AI基础/开发
AI新闻/评测
2025-11-06
含近 2000 名参与者图像,索尼新数据集可检验 AI 模型是否公平对待不同人群
索尼人工智能发布了名为“公平以人为本图像基准”(FHIBE)的公开数据集,旨在解决计算机视觉模型中的偏见问题。该数据集包含了来自全球80多个国家近2000名参与者的图像,所有数据均在知情同意的前提下收集,并允许参与者随时撤回,与业界普遍抓取网络数据的方式形成鲜明对比。FHIBE工具揭示了当前AI模型在处理特定人群(如不同代词使用群体或发型多样性人群)时存在的显著偏见,并能细致分析偏见成因,为构建更公平的AI系统提供了重要依据。
2025-11-06
0
0
0
AI基础/开发
AI新闻/评测
2025-11-06
面向道德AI基准测试的公平、以人为本的图像数据集
本文介绍了“公平、以人为本的图像基准”(FHIBE),这是一个为解决AI数据伦理问题而创建的公开数据集。FHIBE强调了知情同意、隐私保护、公平补偿和多样性,旨在提供一个可信赖的基准来评估和减轻计算机视觉任务(如人脸识别、姿态估计)中的偏见,推动AI向更公平、更负责任的方向发展。
2025-11-06
0
0
0
AI新闻/评测
AI基础/开发
AI行业应用
2025-10-30
AI实验室如何利用Mercor获取公司不愿共享的数据
为了获取公司不愿共享的数据,AI实验室正转向一种新策略:利用Mercor平台,雇佣来自这些公司的前资深员工,以获取其行业知识和工作流程经验。Mercor创始人Brendan Foody透露,OpenAI、Anthropic和Meta都是其客户。该平台按小时向专家支付高额费用,以训练AI模型,尽管存在潜在的知识产权争议,但Mercor正迅速成长为AI数据训练领域的重要力量。
2025-10-30
0
0
0
AI新闻/评测
AI行业应用
AI工具应用
2025-10-26
使用大型语言模型(LLM)进行表格数据高级特征工程的五种技术
2025-10-26
0
0
0
AI基础/开发
AI工具应用
2025-10-22
大模型“中毒”风波:数据投毒的原理、幕后黑手与应对之策
近期,AI大模型出现异常行为,被曝遭遇“数据投毒”。本文深入解析了数据投毒的原理,包括训练阶段的后门攻击和运营阶段的对抗样本攻击。文章揭示了幕后黑手包括商业竞争、技术炫耀和黑产犯罪集团,并探讨了模型中毒可能带来的虚假信息传播、决策诱导和公共安全风险,最后提出了构建防御体系和提升模型免疫力的应对策略。
2025-10-22
1
0
0
AI新闻/评测
AI基础/开发
AI行业应用
2025-10-22
大模型“中毒”事件频发,数据投毒攻击正成为AI江湖新暗战
近期,AI大模型出现异常行为,被揭示是“数据投毒”攻击所致。本文深度解析了数据投毒的原理、攻击阶段(训练与运营)以及背后的黑手,包括商业GEO竞争、技术怪客炫技和黑产犯罪团伙。同时,文章探讨了中毒带来的严重后果,并提出了构建防御体系和增强模型免疫力的多维解决方案。
2025-10-22
1
0
0
AI新闻/评测
AI基础/开发
2025-10-22
大模型“中毒”实录:数据投毒、后门攻击与对抗样本如何悄悄“腐化”AI?
近期,大语言模型“中毒”事件引发关注。本文深入解析了数据投毒、后门攻击和对抗样本等多种恶意手段如何悄然影响AI模型的输出,揭示了幕后黑手(包括商业竞争、技术炫耀和黑产集团)的动机。文章探讨了模型中毒可能带来的幻觉传播、用户决策诱导及公共安全威胁,并提出了从数据审核、对抗训练到建立模型免疫系统的综合防御策略。
2025-10-22
3
0
0
AI新闻/评测
AI基础/开发
2025-10-22
Pandas:用于复杂聚合的高级GroupBy技术
2025-10-22
1
0
0
AI工具应用
AI基础/开发
2025-10-20
AI模型也能被“洗脑”!仅需250份文件就能控制ChatGPT回应
Anthropic、英国AI安全研究所和艾伦·图灵研究所的最新联合研究揭示了大型语言模型(LLM)在数据中毒攻击面前的脆弱性。研究发现,攻击者仅需大约250份被污染的文件,就能在参数规模高达130亿的模型中植入“后门”,成功操控模型响应。这一比例仅占总训练数据的极小部分(0.00016%),颠覆了以往认为模型越大越安全的观点。即使后续使用“干净数据”训练,后门依然顽固存在,这要求业界必须立即革新AI模型的安全防护实践。
2025-10-20
3
0
0
AI新闻/评测
AI基础/开发
2025-10-19
如何在不增加新GPU的情况下,通过优化精度、内存和数据流来加速模型训练的三个方法
2025-10-19
1
0
0
AI基础/开发
AI工具应用
2025-10-19
处理大型数据集的 7 个 Pandas 技巧
2025-10-19
3
0
0
AI工具应用
AI基础/开发
2025-10-19
文本数据特征工程的七个技巧
2025-10-19
0
0
0
AI基础/开发
AI工具应用
2025-10-15
惊人发现!仅需约250份恶意文档,即可攻破任何体量的人工智能模型
Anthropic、英国AI安全研究院与艾伦·图灵研究所的最新联合研究揭示了AI模型训练数据安全领域的一个重大安全漏洞。研究团队发现,与传统认知相反,AI模型规模的增大并不能有效稀释数据投毒带来的风险。仅需大约250份精心构造的恶意文档,攻击者就能够在参数量从6亿到130亿不等的所有测试模型中成功植入难以察觉的“后门”。这一发现对当前AI安全策略提出了严峻挑战,强调了防御机制建设的紧迫性。
2025-10-15
3
0
0
AI基础/开发
AI新闻/评测
2025-10-15
利用AI招聘防范数据偏见:机遇与风险并存
📢 转载信息 原文链接:https://www.aitrends.com/ai-world-government/promise-and-perils-of-using-ai-for-hiring-guard-against-data-bias/ 原文作者:AI Trends ## 招聘中的AI:
2025-10-15
0
0
0
AI行业应用
AI工具应用
2025-10-15
惊人发现:仅需约250份恶意文档,即可攻破任意规模的AI大模型,安全防御刻不容缓
Anthropic、英国AI安全研究院与艾伦·图灵研究所的最新联合研究揭示了AI大模型训练数据投毒的严峻挑战。研究颠覆了“模型越大风险越低”的传统认知,发现无论模型规模大小,攻击者仅需大约250份精心构造的恶意文档,就能成功在所有规模模型中植入隐秘的“后门”。这一发现强调了AI安全机制建设的紧迫性,预示着未来AI发展必须将安全防护置于核心地位,而非仅仅追求模型参数的扩张。
2025-10-15
1
0
0
AI基础/开发
AI新闻/评测
2025-10-15
惊人发现:仅需约250份恶意文档,即可攻破任何体量的人工智能模型!艾伦·图灵研究所等机构最新研究敲响安全警钟
Anthropic、英国AI安全研究院及艾伦・图灵研究所的最新联合研究揭示了AI模型面临的严峻数据投毒风险。研究颠覆了传统认知,发现即使是体量最大的大型语言模型(LLM),也仅需约250份精心设计的恶意文档,就能成功植入“后门”,实现对模型的操控。这一发现意味着,随着模型规模的增大,抵御此类攻击的难度并未按预期稀释,安全机制的建设比单纯追求模型规模更为迫切,对AI行业的未来发展提出了严峻挑战。
2025-10-15
0
0
0
AI基础/开发
AI新闻/评测