91经典在线,在线观看免费国产精品,神马久久一区二区,欧美综合视频在线观看,а天堂8中文最新版在线官网,欧美美女啪啪,永久免费看成人av的动态图

破解AI過度依賴,打破存在焦慮

宋春艷   新湘評論   2025-06-11 10:42:50

當(dāng)前,以生成式大模型為代表的新一代人工智能正多維度重塑社會(huì)運(yùn)行邏輯。從醫(yī)療診斷到金融決策,從藝術(shù)創(chuàng)作到社交互動(dòng),AI的賦能效應(yīng)顯著提升了效率與便利性。然而,AI技術(shù)的“雙刃劍”效應(yīng)日漸凸顯:過度依賴AI導(dǎo)致個(gè)體能力退化、職業(yè)焦慮加劇、情感聯(lián)結(jié)弱化,甚至引發(fā)人類對自我價(jià)值的懷疑。如何平衡AI依賴與維護(hù)人的主體性和存在感,記者對湖南省社科院(省人民政府發(fā)展研究中心)研究員、博士宋春艷進(jìn)行了訪談。

記者:著名倫理學(xué)家麥金太爾提出,人是“依賴性的理性動(dòng)物”,一個(gè)人只有依賴他人,才能在一定程度上克服自己的脆弱性和無能性,實(shí)現(xiàn)個(gè)體作為人類成員的“興盛”。目前人類對AI的依賴日益加重,以致引發(fā)了群體焦慮。您覺得過度依賴AI有哪些弊端?

宋春艷:過度依賴AI的弊端突出表現(xiàn)在三個(gè)方面:一是個(gè)體認(rèn)知能力的系統(tǒng)性退化。AI輔助決策和高度自動(dòng)化運(yùn)行可能削弱部分人群的獨(dú)立思考能力和操作性技能。神經(jīng)科學(xué)研究表明,長期依賴外部智能設(shè)備可能降低大腦前額葉皮層的活躍度,這將導(dǎo)致個(gè)人注意力、情感體驗(yàn)?zāi)芰?、情緒表達(dá)能力嚴(yán)重退化。二是職業(yè)的技能貶值與動(dòng)態(tài)適應(yīng)困難。AI自動(dòng)化技術(shù)對傳統(tǒng)崗位的替代效應(yīng)日益顯著,部分從業(yè)者面臨技能貶值風(fēng)險(xiǎn),職業(yè)安全感被“AI替代”的陰影籠罩。更深遠(yuǎn)的影響還在于,AI的快速迭代使終身學(xué)習(xí)壓力劇增,而人類的學(xué)習(xí)速度難以匹配AI及賦能的千行百業(yè)的快速升級和變革,進(jìn)一步加劇職業(yè)前景的不確定性。三是社交與情感的異化。虛擬社交工具尤其是AI聊天機(jī)器人的普及導(dǎo)致現(xiàn)實(shí)人際互動(dòng)頻率下降,人們通過AI獲得了“遠(yuǎn)方”,但卻失去了“附近”,陷入了孤獨(dú)的自由里。

記者:中庸之道是中國傳統(tǒng)文化中的重要哲學(xué)思想,其核心理念就是不偏不倚,守中適度。心理學(xué)也認(rèn)為,適度的依賴是人際健康關(guān)系的一部分。那么,怎樣破解人類對AI的過度依賴,最大程度避免人工智能技術(shù)帶來的“陷阱”呢?

宋春艷:人類在使用AI時(shí)應(yīng)加強(qiáng)反思和批判,重建人的主體性。麥金太爾的“依賴性理性動(dòng)物”理論為破除AI依賴提供了倫理指南:人類需借助工具來增強(qiáng)自己,但增強(qiáng)不是替代,尤其是需要警惕AI反噬人的主體性。中國傳統(tǒng)文化中的“中庸”智慧可轉(zhuǎn)化為實(shí)踐原則:以人為核心,AI為輔助。人的主體性一般在反思和決策中體現(xiàn),因此人在智能時(shí)代應(yīng)主動(dòng)掌握反思與決策權(quán)。作為人工智能的創(chuàng)造者,人類唯有通過持續(xù)保持批判性反思和創(chuàng)造性實(shí)踐,才能最大程度避免人工智能技術(shù)帶來的“陷阱”。

記者:是否可從增加現(xiàn)實(shí)情感體驗(yàn)和實(shí)踐機(jī)會(huì),激活人類獨(dú)特優(yōu)勢方面,進(jìn)一步破解人類對AI過度依賴?

宋春艷:是的。無論AI現(xiàn)在功能多么強(qiáng)大,都沒有真正的情感體驗(yàn)?zāi)芰?。情感體驗(yàn)?zāi)芰κ侨祟惇?dú)特的優(yōu)勢,也是應(yīng)對AI過度依賴的關(guān)鍵要素,因此應(yīng)積極推動(dòng)“體驗(yàn)式”活動(dòng)以對抗虛擬化依賴。在運(yùn)用AI進(jìn)行協(xié)同性的創(chuàng)意工作時(shí),盡量應(yīng)用AI為人提供服務(wù),而不是直接提供產(chǎn)品。工程師應(yīng)加強(qiáng)對自動(dòng)化與用戶互動(dòng)的均衡設(shè)計(jì),促進(jìn)產(chǎn)品與用戶之間的情感連接,增加用戶的參與感與責(zé)任感。

記者:德國哲學(xué)家安德斯曾經(jīng)感嘆,人類“在自己創(chuàng)造的產(chǎn)品的質(zhì)量面前感到一種自嘆不如的羞愧”,將成為“過時(shí)的人”。如何通過教育與社會(huì)支持系統(tǒng)協(xié)同升級,促進(jìn)人機(jī)協(xié)同進(jìn)化?

宋春艷:AI是人類創(chuàng)造的高級人工制品,因此它的發(fā)展必須以人類價(jià)值為導(dǎo)向,幫助人類增強(qiáng)自身,使得人的演化能夠與人工智能的演化協(xié)同推進(jìn)。人機(jī)協(xié)同演化才能使人機(jī)共生的世界成為最大可能的美好世界。這是因?yàn)?,AI的硬件和軟件在人的設(shè)計(jì)和控制下不斷升級,更加“酷似”或者“超越”人的某些智能,甚至進(jìn)化的速度較之以前更快。相比較而言,人的進(jìn)化遠(yuǎn)遠(yuǎn)慢于這個(gè)進(jìn)程。為走出這種困境,泰格馬克提出一種新的解決方案,在生命3.0時(shí)期,人可以設(shè)計(jì)自身的軟件和硬件,逐步脫離進(jìn)化的束縛。也就是說,借助于相關(guān)會(huì)聚技術(shù),人的硬件(如器官)、軟件(如認(rèn)知能力)都可以不同程度地得到替換和升級。這正是人機(jī)融合的魅力所在。為了實(shí)現(xiàn)人機(jī)協(xié)同進(jìn)化的目標(biāo),教育與社會(huì)支持系統(tǒng)應(yīng)協(xié)同升級。在學(xué)校層面,建議開設(shè)AI原理和倫理課程,教授技術(shù)原理與局限性。從社會(huì)層面,完善職業(yè)轉(zhuǎn)型支持體系,再比如通過政府開展免費(fèi)AI技能培訓(xùn),幫助失業(yè)者掌握與AI協(xié)同工作的技能。

記者:算法推薦誘導(dǎo)用戶上癮,是造成AI過度依賴的重要技術(shù)因素。如何加強(qiáng)算法推薦監(jiān)管,構(gòu)建人機(jī)共治的責(zé)任網(wǎng)絡(luò)?

宋春艷:對算法推薦進(jìn)行合規(guī)監(jiān)管,能有效降低用戶對AI過度依賴。應(yīng)通過法律法規(guī)明確使用者和平臺(tái)法律責(zé)任,從制度層面防止AI使用者和生產(chǎn)者責(zé)任推諉。具體舉措包括建立算法監(jiān)督與問責(zé)機(jī)制,如引入第三方監(jiān)管機(jī)構(gòu)對平臺(tái)企業(yè)算法進(jìn)行倫理審查;要求平臺(tái)嵌入日志功能記錄決策過程,便于事后審查。我國《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》要求平臺(tái)提供關(guān)閉個(gè)性化推薦選項(xiàng),這一創(chuàng)新舉措贏得國際社會(huì)高度認(rèn)可。這類法規(guī)有助于提升算法透明度,助力用戶了解算法推薦邏輯,從而對算法推薦內(nèi)容保持批判性態(tài)度,而非盲目接受,進(jìn)一步減少AI過度依賴。同時(shí)也要進(jìn)一步轉(zhuǎn)變技術(shù)設(shè)計(jì)價(jià)值理念,加強(qiáng)AI產(chǎn)品價(jià)值敏感設(shè)計(jì),以免人工智能產(chǎn)品身披“客觀”算法外衣,實(shí)則被資本掌控。尤其要強(qiáng)化設(shè)計(jì)師責(zé)任,通過“價(jià)值敏感設(shè)計(jì)”將倫理內(nèi)容工程化,使得開發(fā)者在產(chǎn)品原型階段就將隱私保護(hù)、決策自主性等人類核心需求納入其中。

記者:如此說來,走向人機(jī)共生的“適度依賴”未來可期。

宋春艷:AI依賴危機(jī)的本質(zhì)是人類對自身主體性的迷失。破解焦慮并非否定技術(shù),而是通過哲學(xué)反思、能力重塑、制度設(shè)計(jì)等措施重建人機(jī)平衡。歷史表明,印刷術(shù)、工業(yè)革命等技術(shù)革命均伴隨短期陣痛,但最終通過社會(huì)調(diào)適實(shí)現(xiàn)文明躍遷。在AI時(shí)代,人類需以“適度依賴”為原則,將技術(shù)嵌入“人本主義”框架——唯有如此,才能實(shí)現(xiàn)工具理性與價(jià)值理性的統(tǒng)一,走向更具韌性的數(shù)字文明。

(本刊記者:夏 昕)

責(zé)編:王敦果

一審:王敦果

二審:蔣茜

三審:周韜

來源:新湘評論

我要問