在當(dāng)今的消費(fèi)社會(huì),人工智能(AI)已經(jīng)悄然滲透到生活的方方面面。從購物網(wǎng)站的推薦系統(tǒng),到手機(jī)里的智能助手,再到銀行的智能客服,AI正以前所未有的方式影響著人們的消費(fèi)決策。但AI不僅是消費(fèi)者決策的隱形助手,同樣可能成為商家操縱的工具,是推動(dòng)人們過度消費(fèi)的黑手。由此,一個(gè)新問題日益浮現(xiàn):作為普通消費(fèi)者,如何保持清醒的判斷?
我們認(rèn)為,要理解AI在驅(qū)動(dòng)消費(fèi)中的這一作用,需要從人類決策的心理機(jī)制入手,揭示它在不同情境下如何既幫助我們做出更明智的選擇,又如何在不知不覺中模糊我們的判斷。在此基礎(chǔ)上,才能更好地駕馭AI,讓其為社會(huì)造福。
一、人類決策的兩套系統(tǒng)
雙重過程理論(Dual Process Theory)是心理學(xué)中一個(gè)重要的理論框架,最初是由心理學(xué)家斯坦諾維奇(Keith E. Stanovich)和威斯特(Richard F. West)提出來的,因諾貝爾經(jīng)濟(jì)學(xué)獎(jiǎng)得主卡尼曼暢銷書《快思考,慢思考》的引用而廣為人知。它把人類的決策過程分為兩種系統(tǒng):系統(tǒng)一(System 1)和系統(tǒng)二(System 2)。系統(tǒng)一是快速、自動(dòng)、直覺的決策系統(tǒng),它依賴于經(jīng)驗(yàn)和情感,往往在我們無意識的情況下運(yùn)作;系統(tǒng)二則是緩慢、理性、深思熟慮的決策系統(tǒng),它需要主動(dòng)思考和分析,通常用于處理復(fù)雜問題。
在日常消費(fèi)決策中,兩個(gè)系統(tǒng)常常同時(shí)發(fā)揮作用。比如,當(dāng)我們看到一件打折商品時(shí),系統(tǒng)一會(huì)讓我們產(chǎn)生“占便宜”的直覺反應(yīng);而系統(tǒng)二則會(huì)讓我們思考“我真的需要它嗎?”AI正是通過影響這兩個(gè)系統(tǒng),來引導(dǎo)我們的消費(fèi)行為。
二、AI如何影響消費(fèi)者的系統(tǒng)一決策?
系統(tǒng)一的特點(diǎn)是快速、自動(dòng)、情感化,而AI恰恰擅長利用這些特點(diǎn)來影響我們的直覺判斷。這體現(xiàn)在:
1. 個(gè)性化推薦:制造“如遇知音”的錯(cuò)覺
現(xiàn)代電商平臺(tái)和流媒體服務(wù)的推薦系統(tǒng),正是基于對用戶行為數(shù)據(jù)的分析,來預(yù)測我們的偏好。比如,當(dāng)我們在電商平臺(tái)瀏覽了幾件衣服后,系統(tǒng)會(huì)立刻推薦“你可能喜歡”的商品;在在線音樂平臺(tái)上聽了幾首歌后,系統(tǒng)即刻生成“每日推薦”歌單。這些推薦往往精準(zhǔn)到讓我們感覺“它比我還懂我”。
但這種“如遇知音”的錯(cuò)覺,并非AI真正理解我們,而是它通過算法捕捉了我們的行為模式,并激活了大腦中類似“可得性啟發(fā)式”(Availability Heuristic)的認(rèn)知反應(yīng),即我們更容易相信和喜歡那些熟悉或最近接觸過的選項(xiàng)。
網(wǎng)飛(Netflix)公司曾公開表示其推薦引擎影響了80%以上的內(nèi)容觀看選擇。亞馬遜有約35%的銷售額來自其推薦引擎,當(dāng)你瀏覽一本書時(shí),系統(tǒng)會(huì)立刻顯示“購買此書的顧客還購買了”其他書籍,這種推薦方式讓消費(fèi)者感覺這些書籍是“真正知我者”要他買的,從而大大提高了轉(zhuǎn)化率。
2. 限時(shí)促銷:激發(fā)“害怕錯(cuò)過”的心理
AI還常常通過限時(shí)促銷、倒計(jì)時(shí)等方式,激發(fā)消費(fèi)者“害怕錯(cuò)過”(Fear of Missing Out, FOMO)的心理。比如,當(dāng)消費(fèi)者在購物車中添加商品后,系統(tǒng)提示“庫存僅剩3件”或“優(yōu)惠即將結(jié)束”,這些信息會(huì)激活其系統(tǒng)一思維,并觸發(fā)損失厭惡偏差——消費(fèi)者下意識地?fù)?dān)心“現(xiàn)在不買就虧了”,從而快速做出購買決策。
一些電商平臺(tái)通過“限時(shí)秒殺”“拼團(tuán)優(yōu)惠”等方式,就成功利用了這種心理機(jī)制。許多消費(fèi)者在看到“僅剩2小時(shí)”或“已有100人拼團(tuán)”的提示時(shí),會(huì)不自覺地加快決策,即使原本并不急需這些商品。這種時(shí)間壓力、社交暗示、損失提示的強(qiáng)組合,顯著地放大了FOMO效應(yīng)。
3. 社交背書:利用從眾心理
AI還會(huì)通過展示“熱銷商品”、“用戶評價(jià)”等信息,利用從眾心理影響消費(fèi)者的決策。比如,當(dāng)我們看到“已有10萬人購買”或“某明星同款”時(shí),就會(huì)激活系統(tǒng)一思維,下意識地覺得“大家都買的一定好”,從而減少對商品本身的理性評估。
小紅書通過“種草筆記”和“用戶評價(jià)”系統(tǒng),成功利用了社交背書效應(yīng)。當(dāng)用戶看到大量關(guān)于某款化妝品的好評,尤其是來自相似背景的人的真實(shí)分享時(shí),會(huì)下意識地認(rèn)為“這款產(chǎn)品也應(yīng)該很適合我”,從而更容易下單購買。這種看似真實(shí)、貼近生活的推薦,比傳統(tǒng)廣告更具說服力,也讓小紅書成為許多年輕人的消費(fèi)決策指南。
三、AI如何影響消費(fèi)者的系統(tǒng)二決策?
與系統(tǒng)一的“快、直覺、自動(dòng)”不同,系統(tǒng)二是大腦中“慢、理性、費(fèi)力”的部分。它負(fù)責(zé)邏輯推理、復(fù)雜計(jì)算和長遠(yuǎn)規(guī)劃,是人們在面對重要消費(fèi)決策時(shí),自認(rèn)為“最靠譜”的思維方式。然而,正因?yàn)橄到y(tǒng)二需要主動(dòng)調(diào)動(dòng)、消耗大量認(rèn)知資源,AI便有機(jī)會(huì)通過精心設(shè)計(jì)的信息架構(gòu)和決策路徑,巧妙地引導(dǎo)消費(fèi)者的理性思考,讓其在自以為“理性”的過程中,偏離初衷。
下面通過三個(gè)具體場景,看看AI是如何操縱消費(fèi)者的理性決策的。
1. 引入冗余選項(xiàng),改變比較標(biāo)準(zhǔn)
當(dāng)某客戶在某汽車平臺(tái)上選購一款車時(shí),AI助手為她列出了三款車型的詳細(xì)對比表,包括價(jià)格、油耗、空間、安全性等指標(biāo)??蛻粽J(rèn)真地看著表格,開始逐項(xiàng)打分——這是典型的系統(tǒng)二在運(yùn)作。
但她會(huì)發(fā)現(xiàn),表格中還列出了“天窗開啟時(shí)間”“座椅調(diào)節(jié)方式”“車內(nèi)氛圍燈顏色數(shù)量”等幾項(xiàng)指標(biāo)。這些指標(biāo)占了整體評分權(quán)重的20%。客戶心想:“既然平臺(tái)提供了,那就一起比較吧?!庇谑情_始認(rèn)真分析,她特別喜歡“氛圍燈顏色數(shù)量”,因此給某款車打了高分。
問題恰恰在于:AI故意加入很多不重要但容易比較的指標(biāo),讓客戶分散注意力,反而忽略了真正重要的質(zhì)量、油耗和安全性。系統(tǒng)二雖然啟動(dòng),但它被引導(dǎo)去算太多不重要的事??蛻艨赡軙?huì)選擇一款在“細(xì)節(jié)”上得分高、但價(jià)格明顯更貴的車型,還覺得自己比對了所有數(shù)據(jù),做出了理性選擇。
這是一種“認(rèn)知稀釋”策略,讓系統(tǒng)二陷入細(xì)節(jié)而忽略全局,最終得出的“理性結(jié)論”其實(shí)是被操控的。
2. 不對稱信息呈現(xiàn),扭曲收益預(yù)期
除了通過冗余信息干擾判斷,AI還可以通過信息的不對稱呈現(xiàn),扭曲理性決策的基礎(chǔ)。
來看一個(gè)理財(cái)APP的例子??蛻粝胪顿Y一只基金,AI助手為他推薦了一只“過去5年收益高達(dá)80%”的產(chǎn)品,并附上了漂亮的收益曲線圖。它的“年化收益率”是12%,看起來相當(dāng)誘人。
客戶于是用系統(tǒng)二算了一下:如果每年12%,投資10年,復(fù)利下來豈不是翻三倍?這筆投資“很劃算”!于是果斷買入。
但他沒注意的是,頁面下方的小字還寫著:“該基金最大回撤為-35%,波動(dòng)率為22%?!倍@些信息沒有圖表、沒有可視化、也沒有對比,只是靜靜地躺在頁面底部。AI看上去并沒有隱瞞信息,但通過不對稱呈現(xiàn)——放大收益、弱化風(fēng)險(xiǎn)——讓客戶在用系統(tǒng)二計(jì)算時(shí),基于不完整的信息得出偏樂觀的結(jié)論。
3. 設(shè)置復(fù)雜對比路徑,誘導(dǎo)“默認(rèn)選項(xiàng)”
更進(jìn)一步,AI甚至可以利用系統(tǒng)二的“費(fèi)力特性”,通過設(shè)計(jì)復(fù)雜的決策路徑,讓理性思考“知難而退”。
以在某平臺(tái)上購買健康險(xiǎn)為例,AI助手為客戶推薦了一款“默認(rèn)方案”:一次性繳費(fèi)3萬元,保障20年。頁面下方有一個(gè)按鈕:“點(diǎn)擊查看其他繳費(fèi)方式”。
客戶點(diǎn)進(jìn)去后,發(fā)現(xiàn)還有其他選項(xiàng),比如“分期繳費(fèi)”“按年繳費(fèi)”“按月繳費(fèi)”,但每種方式都要手動(dòng)輸入預(yù)期利率、貼現(xiàn)率、通脹率等參數(shù),才能算出“哪種更劃算”。
如果客戶開始嘗試計(jì)算,就會(huì)發(fā)現(xiàn)這需要了解貼現(xiàn)公式、年金現(xiàn)值等金融知識。計(jì)算過程也非常麻煩,于是不得不返回默認(rèn)方案,心想:“一次性繳費(fèi)雖然貴點(diǎn),但省事,而且平臺(tái)推薦的總不會(huì)錯(cuò)?!?/span>
這就是AI對系統(tǒng)二的“反向利用”:它并不阻止思考,而是把其他選項(xiàng)設(shè)計(jì)得過于復(fù)雜,讓客戶在“理性計(jì)算”的過程中感到認(rèn)知疲勞,最終主動(dòng)放棄對比,回到平臺(tái)規(guī)劃好的默認(rèn)方案。此時(shí)客戶依然覺得自己“理性考慮過了”,但實(shí)際上,其理性已經(jīng)被“復(fù)雜性”勸退。
四、在AI時(shí)代保持理性消費(fèi)
從上面的分析可以看出,AI在消費(fèi)決策中扮演了一個(gè)雙重角色:它既是客戶和商家的助手,也可能是操縱消費(fèi)者心理的黑手。面對這種雙重角色,我們需要采取相應(yīng)的應(yīng)對策略,既要利用AI的優(yōu)勢,也要避免被這只黑手所操縱。
盡管有AI的潛在影響,對于多數(shù)人而言,我們?nèi)匀恢鲝埿枰鲃?dòng)激活系統(tǒng)二,以理性思維來主導(dǎo)消費(fèi)決策。具體可以從以下幾個(gè)方面入手:
首先,建立理性決策的習(xí)慣。在做出購買決定前,不妨先列出自己的實(shí)際需求和預(yù)算,仔細(xì)對比不同選項(xiàng)的優(yōu)缺點(diǎn)。同時(shí),當(dāng)面對AI推薦時(shí),不要輕易接受,而是主動(dòng)搜索其他信息,驗(yàn)證推薦的真實(shí)性和可靠性。這種做法可以有效減少AI對系統(tǒng)一的操控,幫助我們做出更符合自身利益的判斷。在使用“花唄”等信用工具時(shí),要設(shè)定每月的消費(fèi)上限,避免過度消費(fèi)。同時(shí),也要定期檢查自己的消費(fèi)記錄,確保AI的推薦符合自己的實(shí)際需求。
其次,保持批判性思維。要避免被AI牽著鼻子走,關(guān)鍵在于培養(yǎng)批判性思維。例如,可以定期清理購物車,避免因一時(shí)沖動(dòng)而消費(fèi);關(guān)閉不必要的推送通知,減少誘惑;制定清晰的消費(fèi)計(jì)劃,避免陷入“個(gè)性化推薦”的陷阱。
第三,嘗試“反向搜索”策略。在面對AI推薦時(shí),消費(fèi)者可以采取“反向搜索”的策略。比如,當(dāng)看到某款商品被推薦時(shí),可以再搜索一下其他平臺(tái)的評價(jià)和價(jià)格,確保自己不會(huì)因?yàn)閱我煌扑]而做出不理性的決定。
最后,設(shè)定消費(fèi)邊界,遠(yuǎn)離過度影響。為了進(jìn)一步保護(hù)自己的消費(fèi)決策權(quán),我們還可以通過“數(shù)字排毒”來定期遠(yuǎn)離AI的影響。比如,設(shè)定“無手機(jī)日”,在這一天不使用任何智能設(shè)備,避免被算法推薦和營銷信息所左右。這種做法不僅有助于我們重新獲得對消費(fèi)決策的控制,也能讓生活更加自主和從容。
五、從操控到助推:構(gòu)建AI向善的消費(fèi)新秩序
雙重過程理論可以幫助我們理解AI在消費(fèi)決策中的作用,理解AI技術(shù)如何影響消費(fèi)者的決策過程。如何在與AI的互動(dòng)中保持人類的自主性和理性,已經(jīng)成為一個(gè)重要的社會(huì)議題。
近年來,經(jīng)濟(jì)合作與發(fā)展組織(OECD)多次發(fā)布報(bào)告,揭示許多商家在AI時(shí)代大量運(yùn)用“暗黑模式”(dark patterns)——即通過界面設(shè)計(jì)、算法推薦等手段,誘導(dǎo)用戶做出非理性選擇。AI這只黑手往往利用系統(tǒng)一的直覺反應(yīng),有時(shí)也會(huì)利用系統(tǒng)二進(jìn)行操縱。這種行為不僅損害了消費(fèi)者的權(quán)益,也破壞了數(shù)字經(jīng)濟(jì)的信任基礎(chǔ)。當(dāng)AI從助手蛻變成黑手,從服務(wù)變成操控,它就背離了技術(shù)發(fā)展的初衷。因此,我們亟需一種新的倫理框架來規(guī)范AI的應(yīng)用,確保它真正服務(wù)于人類的福祉,而不是成為商家牟利的黑手。
諾貝爾經(jīng)濟(jì)學(xué)獎(jiǎng)得主理查德·塞勒(Richard Thaler)提出的“助推”(nudge)理論為我們提供了重要的啟示。這一理論主張,通過溫和的設(shè)計(jì)引導(dǎo)人們做出更理性的選擇,而不是強(qiáng)迫或欺騙。例如,在健康飲食領(lǐng)域,可以通過將水果放在顯眼位置來“助推”人們選擇更健康的食物;在環(huán)保領(lǐng)域,可以通過默認(rèn)勾選“綠色能源”選項(xiàng)來鼓勵(lì)用戶減少碳排放。這種“助推”方式既尊重用戶的自主性,同時(shí)又能促進(jìn)社會(huì)整體利益。
將“助推”理念應(yīng)用到AI設(shè)計(jì)中,意味著科技企業(yè)應(yīng)當(dāng)以“向善”為原則,開發(fā)那些真正幫助用戶做出理性決策的AI系統(tǒng)。比如,購物平臺(tái)可以在推薦商品時(shí),不僅展示“你可能喜歡”的內(nèi)容,還主動(dòng)提示“是否真的需要”;金融APP可以在用戶進(jìn)行大額消費(fèi)時(shí),提供“冷靜期”選項(xiàng),避免沖動(dòng)消費(fèi);社交媒體可以優(yōu)化算法,減少“信息繭房”效應(yīng),讓用戶接觸到更多元化的觀點(diǎn)。這些設(shè)計(jì)不僅符合“AI向善”的理念,也能增強(qiáng)用戶對AI的信任,實(shí)現(xiàn)良性運(yùn)轉(zhuǎn)。
當(dāng)然,推動(dòng)“AI向善”不僅需要企業(yè)的自覺,還需要政策的引導(dǎo)和公眾的監(jiān)督。政府可以通過立法,禁止“暗黑模式”的使用,要求AI系統(tǒng)具備“算法透明度”;消費(fèi)者組織可以開展測評,揭露那些利用心理偏差操縱用戶的行為;媒體也應(yīng)加強(qiáng)宣傳,提高公眾對AI操控手段的識別能力。只有多方合力,才能構(gòu)建一個(gè)更加健康、透明的人機(jī)交互環(huán)境。
在當(dāng)前智能化的時(shí)代,AI不應(yīng)當(dāng)成為商家操控消費(fèi)者的黑手,而應(yīng)當(dāng)成為幫助人們做出更理智消費(fèi)決策的助手。通過摒棄“暗黑模式”,擁抱“助推”理念,使人們可以在享受技術(shù)便利的同時(shí),保持自主性和理性,推動(dòng)AI走向“向善”的未來。這不僅是對技術(shù)倫理的堅(jiān)守,也是對未來社會(huì)負(fù)責(zé)的態(tài)度。
來源:澎湃新聞,2025-11-12
作者:趙付春,上海社會(huì)科學(xué)院信息研究所數(shù)字經(jīng)濟(jì)研究室主任,副研究員,博士
