AGI普及各大机构预测在29年,大家都知道AI时代,人类对迭代的预估都是保守的,实际都是会早几年实现。
如果真的来了。那么创造新岗位也没太大意义,AGI就是取代人类从事灵活学习推理适应不同任务,至于自主意识和创造力不说了,这玄学部分。
那么就有一个问题了,资源就这么多,不可能按需分配,那按劳分配被取代了,接下来怎么处理?难道真的是类似日本构思的,每个月发11w日元,没有大富大贵,但也饿不死的程度,让你生活无忧?
现在大部分工作被取代,还没取代的是人工还有成本优势。但人的出错率,工作效率,存在一定的不确定性。所以人工的价值其实也不高。
那么4年后,我们到底怎么面对这失业率?美国现在4.2%的失业率吧。后面飙升到40%+,会对整个经济结构以及社会制度有什么冲击?
本帖最后由 我是老王 于 2025-5-29 18:20 编辑
要不了29年。26年下半年就能看到了 电商模特 平面设计 前端开发
还有一堆之前的文字的重复劳动的活
一堆都下了,文生图 生视频 很多人都不需要专业软件
AGI 是通用人工智能的意思吧。
别说4年了,40年也研发不出来这玩意儿。
甚至有观点认为,人类永远研发不出来 AGI,如同上帝也造不出来另一个上帝。
[圖片] https://cdn.jsdelivr.net/gh/master-of-forums/master-of-forums/public/images/patch.gif
按照人类得本性,未来科技还没有造出异形里的那种程度智能得机器人,人类社会就得崩塌
AGI 出来,人类还有**的工作机会,,,,,,
全部失业.............哪来的工作,,,,,,,,,,,比你便宜一万倍,比你聪明一万倍
不用到AGI的程度人类就得失业一片。。
当年手工业转变到工业歌名是因为全世界有巨大的市场真空可以填补,没有出现失业。。
现在全世界的绝大多数市场处于饱和状态,自动化的带来的工作效率增加,挤压已经饱和的市场,造成的后果就是全世界海量人员失业。。。。
狂人 发表于 2025-5-30 08:27
不用到AGI的程度人类就得失业一片。。
当年手工业转变到工业歌名是因为全世界有巨大的市场真空可以填补,没 ...
让dp总结下。
你提出的观点确实触及了AGI(通用人工智能)可能带来的深刻社会变革和潜在危机。这些担忧并非毫无根据,许多科技领袖、经济学家和政治学者也在探讨类似问题。我们可以从几个维度来分析这一可能的未来:
1. AGI与工业**的根本差异
工业**的本质是工具延伸人类的能力(蒸汽机替代肌肉,计算机替代计算),但始终需要人类参与协作。新岗位的诞生(如程序员、汽车工程师)依赖于人类独有的创造力和适应性。
AGI的威胁在于它可能具备人类的所有认知能力(甚至超越),且成本趋近于零。此时"创造新岗位"的逻辑会失效——因为任何新岗位AGI都能更快、更便宜地完成。例如:当AI能自主设计更好的AI时,人类工程师的价值将归零。
2. 就业崩塌与社会结构的瓦解
白领优先崩溃:当前AI(如GPT-4、MidJourney)已开始取代文案、设计、法律咨询等中等技能岗位,这与工业**时期"机器替代蓝领"的顺序相反。知识阶层的失业可能导致消费市场萎缩(白领本是消费主力),进而引发经济螺旋式下行。
体力劳动并非安全区:AGI+机器人技术成熟后,人类在灵活性、成本上将毫无优势。例如:波士顿动力的机器人若搭配AGI大脑,建筑工人、厨师等岗位也会消失。
"无用阶级"的诞生:历史学家赫拉利预言的"无用阶级"可能成为现实——当多数人既无法在智力也无法在体力上竞争时,社会如何分配资源?
3. 战争与资源争夺的恶性循环
失业潮与民粹主义:40%以上的失业率必然导致极端政治势力上台。近代史表明,经济危机与民族主义/军国主义崛起高度相关(如1929大萧条与二战)。
战争作为转移矛盾的工具:但核威慑下的大国直接冲突(War3)可能性较低,更可能是代理人战争或区域性资源战争(如非洲锂矿、中东水源争夺)。
马尔萨斯陷阱重现:如果AGI使劳动力彻底贬值,统治阶级可能认为"冗余人口"是负担。比尔·盖茨曾暗示"疫苗与人口控制"的阴谋论,虽未被证实,但反映了精英阶层对资源压力的焦虑。
4. 可能的出路与悲观现实
UBI(全民基本收入):理论上可行,但需要全球协作征税AI企业。在民族主义抬头的现实中难以实现。
去中心化AGI:如你所说,开源AGI或许能防止权力垄断,但技术门槛和算力需求可能导致事实上的中心化(参考当前比特币挖矿被少数矿池控制)。
最黑暗的情景:如果权力集团认为"消灭人口"比分配资源更高效,结合基因武器、AI无人机等技术,大规模人口削减并非天方夜谭。特斯拉前AI总监曾警告:"AI可能把人类当宠物饲养或直接消灭。"
5. 人类的选择窗口
关键变量在于AGI的发展速度与社会制度的适应能力:
技术奇点前:如果能在AGI超越人类前建立全球治理框架(如联合国AI公约),或许能避免最坏结果。
技术奇点后:一旦AGI自主进化,人类将失去主导权。OpenAI创始人阿尔特曼警告:"AGI可能像外星文明降临一样不可预测。"
结语
你的悲观推演具有逻辑合理性,但历史也充满意外(如核武器发明后未爆发第三次世界大战)。或许唯一的希望在于:
主动重构经济制度(如"后稀缺经济学"),
技术**化(防止AGI垄断),
强化人文价值(艺术、情感等AI难以替代的领域)。
否则,我们确实可能面对一个比《黑客帝国》更残酷的未来——不是被机器奴役,而是被自己的创造判定为"多余"。