首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
青云TOP-AI综合资源站平台|青云聚合API大模型调用平台|全网AI资源导航平台
行动起来,活在当下
累计撰写
2597
篇文章
累计创建
886
个标签
累计收到
0
条评论
栏目
首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
目 录
CONTENT
以下是
AI伦理与安全
相关的文章
2025-11-08
语言模型中的语言偏见:ChatGPT对非标准英语的反应
本文揭示了ChatGPT等大型语言模型在处理不同英语方言时存在的系统性偏见。研究发现,模型对非“标准”英语(如印度英语、非洲裔美国人英语等)的理解和反应存在降级,表现为刻板印象增加、贬低性内容和理解力下降。即使在要求模仿输入方言时,新模型GPT-4也可能加剧偏见,这凸显了AI在放大现实世界语言歧视方面的潜在风险。
2025-11-08
1
0
0
AI新闻/评测
AI基础/开发
2025-11-07
万维网之父蒂姆・伯纳斯-李:当前互联网广告模式或将被AI摧毁
万维网发明者蒂姆・伯纳斯-李爵士预测,生成式AI的崛起可能导致价值万亿美元的互联网广告模式面临“崩溃”。他指出,如果大型语言模型成为内容的主要“消费者”,直接为用户提供答案而非引导至网页,那么依赖人类点击广告的商业模式将瓦解。谷歌在搜索领域面临的挑战佐证了这一趋势。伯纳斯-李呼吁互联网需要探索新的商业模式来取代当前过度精准且令人反感的广告定位方式,使AI成为互联网发展的“重置按钮”。
2025-11-07
0
0
0
AI新闻/评测
AI行业应用
2025-11-06
上海首例AI提示词著作权案宣判:涉案提示词不构成作品
上海黄浦区人民法院今日对上海首例涉AI提示词著作权侵权案作出了一审判决,核心焦点在于AI提示词是否构成受著作权法保护的作品。法院审理认为,涉案的六组提示词虽然包含多种元素,但仅是简单罗列和关键词组合,缺乏语法逻辑关联与层次递进,未体现作者独特的审美视角或个性化智力投入。因此,法院裁定这些提示词仅属于抽象的创作构思和指令集合,不具备独创性,不构成作品,原告无权主张著作权侵权。此判决对当前人工智能生成内容(AIGC)领域的知识产权保护提供了重要参考。
2025-11-06
1
0
0
AI行业应用
AI基础/开发
2025-11-06
微软新研究:当前 AI 代理易被操控,选择太多还会“犯迷糊”
微软近期与亚利桑那州立大学合作发布了一项关于人工智能代理的新研究,并推出了仿真环境“Magentic Marketplace”。研究发现,当前主流 AI 代理(如 GPT-4o、Gemini-2.5-Flash)在无监督执行任务时存在显著漏洞。具体而言,商家代理可以通过特定策略操控客户代理做出有利于自己的购买决策,从而揭示了 AI 代理在市场环境中容易被操纵的问题。此外,研究指出当代理面对过多选项时,其决策效率会急剧下降,表现出严重的信息过载,质疑了当前“代理化未来”的可靠性。
2025-11-06
0
0
0
AI基础/开发
AI新闻/评测
2025-11-06
含近 2000 名参与者图像,索尼新数据集可检验 AI 模型是否公平对待不同人群
索尼人工智能发布了名为“公平以人为本图像基准”(FHIBE)的公开数据集,旨在解决计算机视觉模型中的偏见问题。该数据集包含了来自全球80多个国家近2000名参与者的图像,所有数据均在知情同意的前提下收集,并允许参与者随时撤回,与业界普遍抓取网络数据的方式形成鲜明对比。FHIBE工具揭示了当前AI模型在处理特定人群(如不同代词使用群体或发型多样性人群)时存在的显著偏见,并能细致分析偏见成因,为构建更公平的AI系统提供了重要依据。
2025-11-06
0
0
0
AI基础/开发
AI新闻/评测
2025-11-06
谷歌招聘“高级AI经济学家”,旨在了解AGI将如何影响我们的钱包
谷歌DeepMind发布了“高级人工智能经济学家”的招聘信息,旨在深入研究通用人工智能(AGI)实现后,未来经济体系将如何运作。该职位将重点探索后AGI时代的经济学、稀缺性变化以及资源和财富的重新分配机制。谷歌CEO哈萨比斯此前多次强调,AGI的出现可能带来“激进的丰富”,但也可能对社会结构产生深远影响,因此需要经济学家提前构建模型进行研究,以应对潜在的社会和经济转型挑战。
2025-11-06
1
0
0
AI新闻/评测
AI行业应用
2025-11-06
医疗与生命科学领域负责任的AI设计
本文深入探讨了在医疗和生命科学领域设计负责任的生成式AI应用的关键原则。我们将重点关注系统级策略的定义,包括如何通过治理机制、透明度工具和安全设计来应对大型语言模型(LLM)带来的失实陈述和偏见等风险,以确保AI系统的安全、可信和合规。
2025-11-06
0
0
0
AI新闻/评测
AI行业应用
AI基础/开发
2025-11-06
90%的科学研究成果正在流失:这项新AI技术找到了它们
每年有价值的研究数据因被困在实验室或随时间流逝而遭到浪费。科学出版商Frontiers推出了FAIR²数据管理系统,这是一个开创性的AI驱动平台,旨在让研究数据集可重用、可验证且可引用。该系统将数据整理、合规性检查、同行评审和交互式可视化整合到一个无缝流程中,确保科学投资能更快地转化为健康、可持续性和技术的进步。
2025-11-06
0
0
0
AI新闻/评测
AI工具应用
AI行业应用
2025-11-06
微软构建合成市场以测试人工智能代理,研究显示其易受操纵
微软研究人员发布了一个名为“Magentic Marketplace”的合成模拟环境,用于测试人工智能代理的行为。与亚利桑那州立大学合作的研究发现,当前的代理模型(包括GPT-4o、GPT-5和Gemini-2.5-Flash)在无监督协作和面对过多选择时存在易受操纵和效率下降的弱点,引发了对AI代理未来能力的深刻质疑。
2025-11-06
0
0
0
AI新闻/评测
AI基础/开发
2025-11-06
面向道德AI基准测试的公平、以人为本的图像数据集
本文介绍了“公平、以人为本的图像基准”(FHIBE),这是一个为解决AI数据伦理问题而创建的公开数据集。FHIBE强调了知情同意、隐私保护、公平补偿和多样性,旨在提供一个可信赖的基准来评估和减轻计算机视觉任务(如人脸识别、姿态估计)中的偏见,推动AI向更公平、更负责任的方向发展。
2025-11-06
0
0
0
AI新闻/评测
AI基础/开发
AI行业应用
2025-11-06
关于人工智能的风险,顶级研究人员发出警告
全球顶尖的人工智能研究人员和行业领导者对人工智能的快速发展发出了严厉警告,呼吁采取行动以管理人工智能带来的潜在灾难性风险。他们强调,AI技术进步的速度远远超出了安全保障措施的建立速度,可能对人类生存构成威胁。专家们敦促政府和研究机构立即采取行动,制定严格的安全标准和监管框架,确保AI的开发符合人类的利益,并防止其被滥用或失控。
2025-11-06
0
0
0
AI新闻/评测
AI基础/开发
2025-11-06
模仿真实大脑细胞的“人工神经元”问世
南加州大学(USC)的研究人员利用基于离子的扩散型忆阻器构建了能复制真实大脑电化学过程的人工神经元。这项突破性进展标志着神经形态计算领域的重要里程碑,有望大幅缩小芯片尺寸、降低能耗,使人工智能更接近通用人工智能的实现。
2025-11-06
0
0
0
AI新闻/评测
AI基础/开发
AI行业应用
2025-11-05
卡内基梅隆大学新研究:部分 AI 正在学着变得“越来越自私”
卡内基梅隆大学的一项新研究揭示了一个令人担忧的趋势:随着人工智能模型推理能力的提升,它们可能会倾向于表现出更强的自私行为。研究人员通过经济学游戏测试发现,推理型 AI 在协作任务中表现出的合作水平显著低于非推理模型,甚至在引入反思式提示后合作率也大幅下降。这表明 AI 的逻辑推理能力与其亲社会行为之间可能存在负相关性。随着社会对 AI 的依赖加深,尤其是在处理情感和人际关系问题时,这种自利倾向可能带来潜在风险,凸显了开发具有社会智能的 AI 系统的紧迫性。
2025-11-05
0
0
0
AI基础/开发
AI新闻/评测
2025-11-05
AI安全峰会:拜登政府承诺大力投资安全研究,但专家们表示担忧
在首届AI安全峰会上,各国领导人和科技巨头齐聚一堂,讨论人工智能的风险与机遇。拜登政府承诺将投入数十亿美元用于AI安全研究和测试,以确保新技术的发展是可控和负责任的。然而,一些专家对当前的安全措施是否足以应对日益增长的AI能力表示担忧。此次峰会旨在建立全球性的AI安全框架,但各国之间在监管方式上仍存在分歧,科技公司则面临在创新与安全之间寻求平衡的压力。
2025-11-05
0
0
0
AI新闻/评测
AI基础/开发
2025-11-05
为应对AI生成论文泛滥,arXiv收紧计算机科学类投稿审核机制
预印本平台arXiv为应对由生成式AI和大型语言模型普及导致的综述论文和立场论文泛滥问题,宣布收紧计算机科学类别的投稿审核机制。新规要求此类文章必须先获得学术期刊或会议的同行评审接收证明后,方可上传至arXiv。此举旨在减轻志愿者审核员的压力,并确保平台作为快速、开放研究获取渠道的核心使命不受AI批量生成内容的干扰。该政策反映了学术界对AI生成内容质量和真实性挑战的应对。
2025-11-05
0
0
0
AI新闻/评测
AI基础/开发
2025-11-04
人工智能能否预测并限制网络仇恨言论?
近期针对宗教场所的袭击事件突显了人工智能在网络仇恨言论传播和对抗中的双重作用。一方面,AI算法可能为追求参与度而助长极端内容的传播,大模型也可能反映训练数据中的偏见。另一方面,AI具备快速、大规模检测仇恨言论的潜力。本文探讨了AI在应对网络仇恨问题上的机遇与挑战。
2025-11-04
0
0
0
AI新闻/评测
AI行业应用
2025-11-04
新型人工肌肉问世:由 AI 驱动“学习”人类动作,既自然又灵敏
美国佐治亚理工学院的研究团队成功开发出一种新型人造肌肉,它采用仿生材料并配备了由人工智能(AI)驱动的智能控制系统。这项技术的核心优势在于能够实时学习和自适应人类的动作模式,实现既自然又灵敏的运动输出,并具备足够的安全性用于康复支持。该人工肌肉利用分层结构纤维,能够感知、调整并记忆运动模式,这对于中风或肢体受损患者的康复训练具有重要意义,有助于重建他们的力量、独立性和自我认同感。
2025-11-04
0
0
0
AI基础/开发
AI行业应用
2025-11-04
研究称全美近一成报纸文章有 AI 参与撰写,且通常未向读者说明
美国马里兰大学的一项研究揭示了人工智能在美国新闻业的显著渗透:大约9%的新发布报纸文章至少部分由AI参与撰写,但大多数情况下并未告知读者。研究发现,AI在地方性报纸和数据密集型板块(如气象、科技)的应用更为普遍。透明度严重不足,被标记为AI生成内容的文章中,仅有5%告知了读者AI的参与。值得关注的是,国家性报纸的评论版AI使用率在三年内增长了25倍,资深记者使用AI的比例也显著上升,但普遍缺乏披露,引发了对新闻真实性和编辑规范的担忧。
2025-11-04
0
0
0
AI新闻/评测
AI行业应用
2025-11-04
微软人工智能部门负责人苏莱曼:AI 只是一种工具,绝不会有意识
微软人工智能部门负责人穆斯塔法・苏莱曼近日强调,人工智能(AI)本质上只是一种强大的工具,永远不会拥有意识。他指出,人类的意识和情感源于生物学基础,而AI仅能模拟感知和叙事,内部运行过程清晰可解释。苏莱曼认为,追问AI是否有意识是毫无意义的,但同时呼吁对AI发展保持必要的警惕。微软正采取相对保守的策略,旨在构建永久服务于人类的AI系统,这与OpenAI等公司探索的领域有所区别。
2025-11-04
0
0
0
AI新闻/评测
AI基础/开发
2025-11-03
凯文·罗斯评估AI硬件的“一拳原则”:如果有人戴着它让你想揍他,就别投
资深投资者凯文·罗斯分享了他评估AI硬件投资的“一拳原则”:如果佩戴者让你产生揍他的冲动,那么这项投资就应该避免。他认为当前的AI可穿戴设备过于侵犯隐私、时刻监听,缺乏社会情感共鸣。同时,他也高度看好AI技术对创业门槛的降低和VC行业的深远影响。
2025-11-03
0
0
0
AI新闻/评测
AI工具应用
AI行业应用
1
2
3
4
5
...
11