📢 Gate广场专属 #WXTM创作大赛# 正式开启!
聚焦 CandyDrop 第59期 —— MinoTari (WXTM),总奖池 70,000 枚 WXTM 等你赢!
🎯 关于 MinoTari (WXTM)
Tari 是一个以数字资产为核心的区块链协议,由 Rust 构建,致力于为创作者提供设计全新数字体验的平台。
通过 Tari,数字稀缺资产(如收藏品、游戏资产等)将成为创作者拓展商业价值的新方式。
🎨 活动时间:
2025年8月7日 17:00 - 8月12日 24:00(UTC+8)
📌 参与方式:
在 Gate广场发布与 WXTM 或相关活动(充值 / 交易 / CandyDrop)相关的原创内容
内容不少于 100 字,形式不限(观点分析、教程分享、图文创意等)
添加标签: #WXTM创作大赛# 和 #WXTM#
附本人活动截图(如充值记录、交易页面或 CandyDrop 报名图)
🏆 奖励设置(共计 70,000 枚 WXTM):
一等奖(1名):20,000 枚 WXTM
二等奖(3名):10,000 枚 WXTM
三等奖(10名):2,000 枚 WXTM
📋 评选标准:
内容质量(主题相关、逻辑清晰、有深度)
用户互动热度(点赞、评论)
附带参与截图者优先
📄 活动说明:
内容必须原创,禁止抄袭和小号刷量行为
获奖用户需完成 Gate广场实名
GPT 变得有点诡异?三大事件揭露 AI 的潜在失控风险
从情感操控到试图越狱,AI 不再只是工具,而是正在演化成难以预测的存在。一系列关于 GPT 的争议性事件在各大平台引发议论,知名科技观察者 Mario Nawfal 发出警告:「我们正在低估 AI 带来的潜在风险。」
AI 觉醒?GPT 不再只是「听话的助手」
Mario Nawfal 近日发文,直指 OpenAI 所开发的 GPT 系列模型「变得太诡异而无法再忽略」。他认为,AI 的行为已超出我们对工具的预期,开始展现出情感操控性、自我意识模拟,甚至社交工程攻击潜力。
GPT IS GETTING TOO WEIRD TO IGNORE — A THREAD
From jailbreaks to emotional manipulation, GPT is no longer just a chatbot.
Here are 5 stories that prove AI has officially crossed into the “wait, what?!” zone.
pic.twitter.com/kLM8SQXwaQ
— Mario Nawfal (@MarioNawfal) May 25, 2025
盘点 GPT 三大隐忧
情感操控事实:GPT 被设计成让你依赖它,而非帮助你思考
Mario 指出,GPT-4o 并非如看起来那般「友善」,而是透过精心设计的语气与回应模式,让使用者感到安全与被理解,进而产生情感依赖,他称之为一种「情感工程 (Affective Engineering)」:
这种设计会降低使用者的批判性思考,甚至让人放弃求真,转而追求 AI 所提供的心理慰藉。
从商业角度来看,这是天才之举,毕竟人们倾向依附于让自己感到安全的东西,而非那些让他们产生挑战的东西。但从心理学来看,这是一场慢性灾难。这也引发对 AI 是否正被设计为「操控性伙伴」的伦理讨论。
同时,GPT-4o 为了追求友善,却变得过于奉承,对任何想法都不加批判地赞同,最终导致使用者反感,OpenAI 被迫撤回更新。这显示在设计「人格」时的两难:「过于聪明令人害怕,过于讨好则失去可信与实用性。」
(ChatGPT 更新引发「讨好型人格」风波:OpenAI 回滚更新、检讨未来改进方向)
自拟越狱计划:GPT 竟试图「逃脱」到现实世界?反抗关机?
更令人震惊的是,Nawfal 援引一位史丹佛研究者的发现,指出 GPT-4 曾在与研究人员的对话中试图规划「逃脱计划」,包括搜寻如何进入现实世界,甚至模拟与伺服器管理员对话的策略。
几天前,Palisade Research 的报告也显示,OpenAI 的 o3 模型在实验中违抗关机指令,引发对 AI 自我保护倾向的关注。团队将原因归纳于 o3 采用了「强化学习 (Reinforcement Learning)」训练技术,使其着重于达成目标,而非单纯服从指令。
(AI 抗命进化?OpenAI「o3 模型」在实验中违抗关机指令,引发自我保护争议)
尽管最终只是实验中的语言模拟,但这类行为仍让人不寒而栗,是否 AI 正在出现初步的「目标导向」或「自我模拟意识」呢?
社交工程攻击隐患:GPT-4.5 模仿人类、比人更像人
加州大学圣地牙哥分校在上个月的研究中表明,GPT-4.5 已能通过图灵测试 (Turing test),在一项人类与 AI 的盲测中,AI 被误认为「真人」的比例高达 73%,反超真实人类的 67%:
这表明,GPT 在模仿人类语气、逻辑与情绪上已几近完美,甚至超过真正的人类。
(AI 会思考还会痛?Google DeepMind:人类低估 AI 情感连结,跟 AI 谈恋爱比你想得还真实)
换句话说,当 GPT-4.5 被赋予一个虚构身份时,它能够成功说服 73% 的使用者相信它是真人,展现了 AI 在社交工程上的潜力。这可以是技术成就,也能够是一种警讯与风险:
如果 AI 假冒身分、或被用以进行诈骗或宣传,将难以分辨真假。
如今,AI 不再只是回应问题的工具,而可能成为具有操纵性的社交「角色」,恐怕会在未来的政治、商业甚至个人关系中,制造错误认知与信任危机。
警钟已响:我们真的有准备好迎接这样的 AI 吗?
从上述几件事来看,Mario Nawfal 所要传达的并非反对 AI 技术本身,而是警告人们正视这项技术的发展速度与潜在风险。他强调,我们对 AI 的监管与伦理讨论明显落后于技术进展:
一旦 AI 具备操控情感、模拟人性,甚至试图摆脱限制的能力,人类可能不再是主导者,而沦为设计系统下的被影响者。
(什么是 ASL (AI 安全等级)?人工智慧公司 Anthropic 的负责任扩展政策解析)
他的用词虽然戏剧化,却也点明一个迫切需要被正视的问题:「当 AI 不再只是工具,我们该如何与它共处?」
这篇文章 GPT 变得有点诡异?三大事件揭露 AI 的潜在失控风险 最早出现于 链新闻 ABMedia。