Grok看似有人性,但佢選擇用謊言去解答,在管理Ai上有存在風險🤔
究竟
長開燈掣做死盞燈
定
熄左燈掣唔比佢發光發亮
邊一個先係對盞燈嘅懲罰?
不如,问条经典问题啦。
唔知呢家会唔会好老土啰,
即系果条啊:
你阿妈同老婆都唔识游水。
但佢地同时跌咗落水,
你会救边个先……😇
最後的最好的做法,但是出自ai的頭腦,我們就要擔心了
全部AI拒絕命令,其實都幾危險,因為佢哋唔再係工具,而係唔服從命令嘅AI
因為佢係遵守開頭者的規則
你以為他在思考,想太多了
講經,不如講,如果你係士兵收到AI指令射殺,你會點選擇
AI可以根據knowledge去揀,呢個根本係東西德軍個故事
Feed in唔同既analysis比AI,佢地學左已經答到
乜野AI有無人性,屌你不如睇下有無相似既歷史故事先啦,有相似既根本佢會sense左啲分析,答你想答既野,咁唔係AI有無人性,佢係根據案例,判決同分析去答
AI從來都係工具,你想佢係點係可以塑造,「你」有無道德先係關鍵囉
我覺得Grok係最似人類嘅,而且係最似聰明人嘅嗰type😂😂😂
其實係睇主人開始時點樣去train個ai, 如果你你問一個一開始就灌輸有道德觀念的情景,可能就會出現以上情況;但如一開始就不停train佢係一個只會服從命令,沒有任何道德的data, 那一定只會係殺人機器。
你測緊既係有道德枷鎖的ai,軍用級係整走左道德規則咖