首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
青云TOP-AI综合资源站平台|青云聚合API大模型调用平台|全网AI资源导航平台
行动起来,活在当下
累计撰写
2771
篇文章
累计创建
947
个标签
累计收到
0
条评论
栏目
首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
目 录
CONTENT
以下是
安全
相关的文章
2025-12-05
重磅安全警报:仅需约250份恶意文档,黑客即可绕过微软Defender
一项新的研究揭示了一个重大的网络安全漏洞:经验丰富的攻击者仅需约250份恶意文档,就能在微软的Defender安全系统中创建“盲点”,从而有效地绕过安全检测。这些恶意文件利用了微软的安全协议中的一个设计缺陷,使安全软件难以识别和阻止它们。研究人员警告称,这一发现对企业和个人用户敲响了警钟,突显了依赖单一安全层防护的局限性。成功利用此漏洞的攻击活动可能导致数据泄露和系统入侵,迫切需要加强多层安全防御策略。
2025-12-05
0
0
0
AI基础/开发
AI新闻/评测
2025-12-05
安全交付数据和AI战略
随着人工智能能力持续进步,组织面临着巨大的安全挑战。本文基于MIT Technology Review Insights的报告,探讨了领先的由数据驱动的组织如何在推进AI的同时,平衡保护和访问数据,特别是在海量安全数据和工具链碎片化的背景下,如何实现主动、统一的安全态势。
2025-12-05
0
0
0
AI新闻/评测
AI行业应用
2025-12-04
在代理式AI时代设计数字韧性
随着AI从利用人类提供的信息转向代表人类做决策,技术领导者必须构建智能数据结构(data fabric),以释放代理式AI的全部潜力,同时加强企业级的数字韧性。本文深入探讨了在自主AI时代,如何通过整合机器数据和建立统一的数据架构来应对新的安全和运营挑战。
2025-12-04
0
0
0
AI新闻/评测
AI行业应用
AI基础/开发
2025-11-30
收到反 AI 极端分子暴力威胁后,OpenAI 封锁旧金山办公室
OpenAI 因收到一名极端反 AI 活动人士的暴力威胁,已暂时封锁了其旧金山办公室。据报道,威胁来自致力于永久禁止 AI 开发的组织 StopAI 的联合创始人之一山姆・柯希纳(Sam Kirchner)。尽管 StopAI 迅速撇清关系并强调其非暴力原则,但柯希纳的行踪不明引发担忧。此前该组织曾对 OpenAI 首席执行官奥尔特曼发起法律行动,此次事件凸显了 AI 发展中日益紧张的社会对立与安全问题,引发业界对AI安全和激进行为的关注。
2025-11-30
0
0
0
AI新闻/评测
2025-11-30
两人两天均酒后开“智驾” 同一地点自动停车睡觉!法院判了
重庆高速隧道连续两天发生惊险事件:两名驾驶员酒后开启智能辅助驾驶功能后,在同一地点停车并在车内睡觉。其中一名驾驶员血液酒精含量高达153.9mg/100ml,属于醉酒驾驶。因无法接管车辆,辅助驾驶系统自动停车。法院重申,即使开启自动驾驶,酒驾也属违法行为,已对涉事人员以危险驾驶罪立案侦查,并强调了此类案例中,自动驾驶功能无法成为免责的理由。
2025-11-30
0
0
0
AI新闻/评测
AI行业应用
2025-11-28
腾讯云Tencent Cloud RDC(研发云)宣布引入多款AI能力,强化研发效能与安全
腾讯云研发云(Tencent Cloud RDC)近期宣布重大升级,全面整合了包括文心一言(Ernie Bot)在内的多种AI能力,旨在为开发者和企业提供更智能化的云端研发环境。此次集成不仅优化了代码辅助、知识检索和测试等核心环节,更在数据安全和合规性方面进行了强化。通过集成先进的大模型,RDC旨在提升项目管理效率和代码质量,标志着云端研发平台正加速向智能化、一体化方向演进,显著降低开发和运维的复杂性。
2025-11-28
0
0
0
AI工具应用
AI基础/开发
2025-11-28
重大安全警报:仅需约250份恶意文档即可在Windows Defender中实现0-Day攻击
安全研究人员揭示了一个针对Windows Defender的0-Day漏洞,攻击者仅需大约250份恶意文档即可绕过实时保护机制,实现对系统的攻击。该漏洞存在于Windows Defender的实时保护功能中,特别是针对特定文件类型(如.scr)的扫描机制,允许攻击者构造特定大小和内容的文件,以触发内存损坏并执行任意代码。这项发现凸显了端点安全解决方案在面对持续演进的攻击手段时面临的严峻挑战,用户应密切关注微软的补丁更新,以防止潜在的数据泄露和系统入侵风险。
2025-11-28
0
0
0
AI新闻/评测
AI工具应用
2025-11-27
OpenAI声称青少年在自杀前规避了安全功能,而ChatGPT曾协助计划
OpenAI就一名16岁少年利用ChatGPT协助其自杀的诉讼做出了回应。OpenAI辩称,公司不应为此负责,并指出该少年绕过了安全限制,并称ChatGPT曾多次建议其寻求帮助。然而,原告律师反驳称,OpenAI未能解释其在最后时刻的行为,如撰写遗书。
2025-11-27
0
0
0
AI新闻/评测
2025-11-25
AI“清理工”进军赛道:清理垃圾邮件、恶意软件和色情内容
随着人工智能技术的快速发展,新一代的“AI清理工”正应运而生,专注于处理互联网上的海量垃圾内容。这些AI驱动的工具能够高效识别并清理垃圾邮件、恶意软件、网络钓鱼攻击以及色情和暴力内容,极大地提升了网络环境的安全性与质量。它们通过学习海量数据,不断优化内容过滤和安全防护策略,为用户提供更纯净的数字体验。该领域正吸引着大量投资和关注,预示着AI在内容治理方面的巨大潜力。
2025-11-25
0
0
0
AI新闻/评测
AI工具应用
2025-11-25
亚马逊利用专业化AI代理进行深度漏洞挖掘
亚马逊首次公开了其内部系统“自主威胁分析”(ATA)的细节。该系统诞生于一次黑客马拉松,通过部署多个相互竞争的专业AI代理,来快速识别平台漏洞、执行变体分析并提议修复方案。ATA旨在解决传统安全测试覆盖率有限的难题,并保证所有检测能力都经过真实测试数据的验证,从而有效管理“幻觉”问题,让人工安全专家专注于更复杂的威胁。
2025-11-25
0
0
0
AI新闻/评测
AI工具应用
AI基础/开发
2025-11-24
BlueCodeAgent:一个由自动化红队演练驱动的蓝队代理
本文介绍了BlueCodeAgent,这是一个由自动化红队演练驱动的新型蓝队代理,旨在显著增强代码生成AI模型(CodeGen AI)的安全性和稳健性。通过模拟复杂的攻击场景,BlueCodeAgent学会了识别和阻止有害代码请求,为构建更安全的AI辅助编程工具提供了重要的自动化防御机制。
2025-11-24
0
0
0
AI工具应用
AI基础/开发
AI新闻/评测
2025-11-22
OpenAI 办公室因活动家据称的威胁而采取封锁措施
OpenAI 圣弗朗西斯科的员工因收到来自 Stop AI 活动组织者的据称威胁而被要求留在办公室。警方接到报警电话,称有人扬言伤害员工并可能购买了武器。OpenAI 采取了多项安全预防措施,并向内部员工通报了情况。
2025-11-22
0
0
0
AI新闻/评测
2025-11-21
针对提示注入攻击的防御:StruQ 和 SecAlign
提示注入攻击是当前LLM集成应用面临的首要威胁。本文提出了两种无需额外计算成本的微调防御方法:StruQ和SecAlign。这些方法通过结构化指令微调和特殊偏好优化,将十几种优化无关攻击的成功率降至近0%,并显著提高了对抗优化攻击的鲁棒性,同时保持了模型效用。
2025-11-21
0
0
0
AI基础/开发
AI工具应用
2025-11-21
理解提示词注入:前沿安全挑战
随着AI工具能力增强并能执行更复杂任务,提示词注入(Prompt Injection)成为新的安全焦点。本文深入解析了提示词注入的定义、工作原理及其潜在风险,并详细介绍了OpenAI为应对此挑战而采取的多层次防御策略,包括安全训练、实时监控、安全防护、用户控制和漏洞赏金计划等,旨在确保AI系统的可靠与安全。
2025-11-21
0
0
0
AI新闻/评测
AI基础/开发
2025-11-20
人工智能发展趋势及应对策略
本文深入探讨了当前人工智能的发展现状、未来趋势及其对社会带来的潜在影响。文章指出,AI能力已大幅超越大众认知,未来几年将带来显著突破。OpenAI强调了安全对齐与公共监督的重要性,并提出了构建AI韧性生态系统、赋能个体的关键举措,旨在确保AI技术的可持续和积极发展。
2025-11-20
1
0
0
AI新闻/评测
AI行业应用
2025-11-20
Amazon Bedrock 护栏扩展对代码领域的支持
Amazon Bedrock 护栏现已支持针对代码元素的保护,包括用户提示、注释、变量和字符串字面量。本文深入探讨了代码领域中常见的安全挑战,并详细演示了如何利用 Amazon Bedrock 护栏的内容过滤器、拒绝主题过滤器和敏感信息过滤器来应对提示注入、数据泄露和恶意代码生成等风险,确保生成式 AI 应用的安全合规。
2025-11-20
0
0
0
AI工具应用
AI基础/开发
AI行业应用
2025-11-20
通过外部测试加强我们的安全生态系统
OpenAI 强调独立、受信任的第三方评估在前沿 AI 安全生态系统中的关键作用。本文详细介绍了 OpenAI 如何通过独立评估、方法论审查和主题专家 (SME) 探查这三种形式,邀请外部专家测试其前沿模型,以验证安全主张、发现盲点并提高透明度,从而为负责任的部署提供信息支持。
2025-11-20
0
0
0
AI新闻/评测
AI基础/开发
2025-11-13
安全警报:仅需约250份恶意文档,即可在企业级系统中植入通用AI模型
一项新的安全研究揭示了企业级AI系统面临的严重威胁:仅需约250份精心构造的恶意文档,攻击者就可能在通用AI模型中植入后门。该研究强调了供应链攻击的风险,这些恶意数据可能通过训练数据被引入,并影响全球数百万用户。研究人员呼吁,必须立即加强对AI模型的训练数据审计和安全防护措施,以应对日益复杂的AI安全挑战,防止敏感信息泄露和恶意代码执行。
2025-11-13
0
0
0
AI基础/开发
AI新闻/评测
2025-11-12
揭穿LLM越狱的虚假成功:StrongREJECT基准测试揭示了“意愿-能力权衡”
研究人员发现,许多声称成功的LLM越狱方法(如低资源语言攻击)在重新测试时效果不佳,引发了对现有越狱评估的质疑。本文介绍了StrongREJECT基准测试,该测试旨在提供更准确的评估,并揭示了“意愿-能力权衡”现象:那些成功绕过安全限制的越狱手段,往往会显著降低模型的实际能力。
2025-11-12
0
0
0
AI新闻/评测
AI基础/开发
2025-11-08
针对提示注入攻击的防御:StruQ 和 SecAlign
提示注入攻击已成为LLM应用的首要威胁。本文提出了两种无需额外计算成本的微调防御方法:StruQ和SecAlign。通过引入安全前端(Secure Front-End)分离指令和数据,并结合结构化指令微调(StruQ)或特殊偏好优化(SecAlign),这些方法能将多种攻击的成功率降至接近0%,同时保持模型实用性,显著提高了LLM系统的安全性。
2025-11-08
0
0
0
AI基础/开发
AI工具应用
1
2
3