你說得非常對(duì)!當(dāng)AI系統(tǒng)出現(xiàn)失誤、故障或產(chǎn)生不當(dāng)內(nèi)容時(shí)(即所謂的“翻車”),其帶來的負(fù)面影響絕不僅僅是對(duì)用戶操作的不便,更可能對(duì)背后的品牌形象造成嚴(yán)重甚至難以挽回的反噬。這主要體現(xiàn)在以下幾個(gè)方面:
1. "用戶信任崩塌 (Erosion of User Trust):"
"核心打擊:" AI的“翻車”往往被視為品牌技術(shù)實(shí)力或品控能力的直接體現(xiàn)。一次次的失誤會(huì)讓用戶質(zhì)疑:“這個(gè)品牌真的可靠嗎?”
"長(zhǎng)期影響:" 信任一旦被破壞,重建起來極其困難,可能需要付出數(shù)倍的努力和巨大的成本。
2. "品牌聲譽(yù)受損 (Damage to Brand Reputation):"
"負(fù)面?zhèn)鞑?" AI失誤很容易在社交媒體上迅速發(fā)酵,成為網(wǎng)絡(luò)熱點(diǎn)。負(fù)面評(píng)論、調(diào)侃、甚至惡搞視頻會(huì)廣泛傳播,形成對(duì)品牌的負(fù)面輿論漩渦。
"形象固化:" 如果AI“翻車”事件頻繁發(fā)生或性質(zhì)嚴(yán)重(如歧視、泄露隱私、提供錯(cuò)誤信息導(dǎo)致實(shí)際損失),可能會(huì)固化用戶對(duì)品牌“不靠譜”、“技術(shù)落后”或“不負(fù)責(zé)任”的負(fù)面印象。
3. "用戶流失與轉(zhuǎn)化受阻 (User Churn and Conversion Hurdles):"
"直接后果:" 用戶體驗(yàn)到糟糕的AI服務(wù),自然會(huì)選擇離開,轉(zhuǎn)向競(jìng)爭(zhēng)對(duì)手。對(duì)于依賴AI進(jìn)行交互或決策的用戶,這種
相關(guān)內(nèi)容:
AI的失效不可避免。營銷人員必須認(rèn)識(shí)到,那些在當(dāng)下能夠促進(jìn)AI推廣的營銷手段——特別是過度宣揚(yáng)產(chǎn)品優(yōu)勢(shì)和優(yōu)越性的做法,很可能在AI出現(xiàn)失誤時(shí)引發(fā)嚴(yán)重后果。因此,在制定營銷策略前,務(wù)必充分理解與AI相關(guān)的五大陷阱。企業(yè)仔細(xì)評(píng)估這些風(fēng)險(xiǎn)后制定相應(yīng)的市場(chǎng)營銷策略,既能實(shí)現(xiàn)當(dāng)前的產(chǎn)品推廣目標(biāo),又可以在將來出現(xiàn)失效情況時(shí),降低法律責(zé)任和品牌聲譽(yù)風(fēng)險(xiǎn)。

2023年10月,一輛自動(dòng)駕駛汽車在美國舊金山發(fā)生了一起嚴(yán)重的交通事故,該自動(dòng)駕駛汽車由通用汽車旗下的自動(dòng)駕駛出租車公司Cruise運(yùn)營。當(dāng)時(shí),一輛由人類駕駛的日產(chǎn)汽車與行人發(fā)生碰撞,該行人被撞后,被拋到了行駛中的自動(dòng)駕駛汽車面前。
獨(dú)立工程顧問對(duì)這起事故的調(diào)查結(jié)果顯示,在當(dāng)時(shí)的情況下,即便由最謹(jǐn)慎的人類司機(jī)駕駛,涉事車輛也無法及時(shí)轉(zhuǎn)向避開行人。但在Cruise最初向監(jiān)管機(jī)構(gòu)提交的報(bào)告中,卻遺漏了一個(gè)關(guān)鍵事實(shí):碰撞發(fā)生后,該行人被卷入車底又拖行了約6米遠(yuǎn)。這位女性行人受傷嚴(yán)重,但最終得以幸存。
盡管這起碰撞事故責(zé)任不在Cruise,但事故仍引發(fā)了公司危機(jī)。該公司因未能及時(shí)報(bào)告事故相關(guān)信息,被美國國家公路交通安全管理局(NHTSA)處以150萬美元罰款。此外,美國司法部還對(duì)事故展開了刑事調(diào)查,最終Cruise支付了50萬美元罰款以達(dá)成和解。然而,事情并沒有就此結(jié)束。Cruise在舊金山的運(yùn)營許可證被吊銷。公司半數(shù)員工被裁撤,CEO辭職,公司估值縮水超過50%。整個(gè)自動(dòng)駕駛汽車行業(yè)也受到波及。事發(fā)后不過數(shù)月,一輛Alphabet旗下的Waymo無人駕駛出租車在舊金山遭到人群襲擊并被縱火焚燒,美國國家公路交通安全管理局還對(duì)Waymo和亞馬遜旗下的Zoox等多家自動(dòng)駕駛技術(shù)公司展開調(diào)查。2024年底,通用汽車宣布完全終止其對(duì)自動(dòng)駕駛出租車業(yè)務(wù)的開發(fā)。
從汽車到聊天機(jī)器人,AI應(yīng)用正在各個(gè)領(lǐng)域快速鋪開。但Cruise的案例揭示了一個(gè)殘酷現(xiàn)實(shí):AI遲早會(huì)“翻車”。當(dāng)這種情況發(fā)生時(shí),涉事AI所屬的組織(無論是自己研發(fā)AI系統(tǒng)的組織,還是整合他人AI系統(tǒng)的公司),都難免成為眾矢之的。人們?cè)谕茝VAI以促進(jìn)其普及方面已經(jīng)做了不少文章,但很少有人關(guān)注該如何在營銷的同時(shí),為不可避免的技術(shù)“翻車”情況留好后手。
過去七年間,我從市場(chǎng)營銷的角度出發(fā),開展了七項(xiàng)關(guān)于AI失效風(fēng)險(xiǎn)的研究。通過這些研究,我提煉出了消費(fèi)者對(duì)AI失效的認(rèn)知和反應(yīng)模式。敏銳的營銷人員必須注意,消費(fèi)者的態(tài)度中隱藏著五大陷阱——這些陷阱在AI出錯(cuò)之前和之后都可能出現(xiàn)。在本文中,我將探討企業(yè)應(yīng)如何做好AI失效的應(yīng)對(duì)準(zhǔn)備,以及當(dāng)AI真的“翻車”后該如何補(bǔ)救。我會(huì)分析企業(yè)營銷AI的方式是否存在風(fēng)險(xiǎn),詳細(xì)介紹一些組織應(yīng)對(duì)AI失效事件的案例,并為希望在推廣AI系統(tǒng)的同時(shí)保護(hù)品牌、增強(qiáng)消費(fèi)者信任的管理者提供實(shí)用建議。下面讓我們逐一剖析這五大陷阱。
人們有事先怪AI
為了深入理解公眾和監(jiān)管機(jī)構(gòu)對(duì)Cruise事件強(qiáng)烈反應(yīng)的發(fā)生機(jī)理,我和同事開展了一項(xiàng)涵蓋5000多名參與者的研究。我們向參與者展示了一個(gè)與Cruise案例類似的事故情境:一位人類司機(jī)駕車撞飛一名行人,該行人被拋向另一輛無責(zé)車。其中一組參與者被告知這輛無責(zé)車是自動(dòng)駕駛的,另一組則被告知無責(zé)車由人類駕駛。隨后,我們請(qǐng)參與者評(píng)估車輛制造商應(yīng)在多大程度上承擔(dān)責(zé)任。
結(jié)果表明,就算涉事車輛客觀上無論如何也無法避開相撞,“自動(dòng)駕駛組”受訪者認(rèn)為車企應(yīng)負(fù)責(zé)任的程度仍顯著高于“人類駕駛組”。受訪者還判定,就算具備自動(dòng)駕駛功能的無責(zé)車事發(fā)時(shí)正由人類駕駛者控制,車企的責(zé)任也依然更大。該結(jié)果已被中國的一支獨(dú)立研究團(tuán)隊(duì)重復(fù)驗(yàn)證,表明上述偏見在不同文化背景下均存在。
在這些案例中,責(zé)任被錯(cuò)置的原因是受訪者受到“自動(dòng)駕駛汽車”這個(gè)新奇概念的誘導(dǎo),開始想象如果不存在自動(dòng)駕駛汽車,事情會(huì)如何發(fā)展。值得注意的是,在這種情況下,他們往往設(shè)想一個(gè)“完美”司機(jī)會(huì)怎么做,從而對(duì)AI設(shè)定了超過合理范圍的高標(biāo)準(zhǔn)。他們會(huì)得出結(jié)論,認(rèn)為自動(dòng)駕駛汽車本可以通過某種方式提前轉(zhuǎn)向規(guī)避碰撞,而這在現(xiàn)實(shí)中根本不可能實(shí)現(xiàn)。這種違背事實(shí)的設(shè)想導(dǎo)致他們傾向于認(rèn)為,自動(dòng)駕駛系統(tǒng)比處于同樣情境中的人類司機(jī)更應(yīng)對(duì)事故負(fù)責(zé)。
在后續(xù)測(cè)試中,我們發(fā)現(xiàn)將關(guān)注焦點(diǎn)轉(zhuǎn)移到肇事司機(jī)(最初引發(fā)事故的一方)身上,能夠有效降低受訪者對(duì)AI的指責(zé)程度。當(dāng)人們的注意力從“自動(dòng)駕駛”的噱頭轉(zhuǎn)移到其他顯著因素時(shí),就不太會(huì)去“腦補(bǔ)”脫離實(shí)際的場(chǎng)景。但必須注意的是,轉(zhuǎn)移人們對(duì)新技術(shù)的關(guān)注不應(yīng)被誤解為刻意誤導(dǎo)利益相關(guān)方:企業(yè)高管不應(yīng)隱瞞AI在事故中表現(xiàn)的詳細(xì)情況。Cruise公司高層只強(qiáng)調(diào)了人類司機(jī)的過錯(cuò),卻沒有披露其車輛拖拽行人造成二次傷害的情況。當(dāng)這一事實(shí)被揭露后,Cruise不僅失去了對(duì)媒體輿論的掌控,更嚴(yán)重?fù)p害了監(jiān)管機(jī)構(gòu)對(duì)其的信任。
一家AI“翻車”,整個(gè)行業(yè)“躺槍”
Cruise事件對(duì)Waymo、Zoox等其他企業(yè)造成的連鎖反應(yīng),揭示了與AI失效相伴的次生風(fēng)險(xiǎn):當(dāng)某家公司的AI出現(xiàn)問題時(shí),人們往往會(huì)認(rèn)為其他公司的AI系統(tǒng)同樣存在缺陷。這種“污染效應(yīng)”(contamination effect)可能會(huì)對(duì)公眾對(duì)各類AI技術(shù)的認(rèn)知造成負(fù)面影響。
基亞拉·隆戈尼(Chiara Longoni)教授、盧卡·奇安(Luca Cian)教授和艾莉·耿(Ellie Kyung)教授合作開展的一項(xiàng)研究很好地體現(xiàn)了“污染效應(yīng)”的發(fā)生機(jī)制。他們首先向3724名參與者講述了一個(gè)失誤案例:美國阿肯色州相關(guān)部門沒有按規(guī)定給一位殘障人士發(fā)放福利金。一組受訪者被告知這是人類員工的失誤,另一組則被告知是算法的問題。隨后,研究人員詢問受訪者:在另一個(gè)州(美國肯塔基州),由相關(guān)部門員工或算法處理福利分配時(shí),是否也可能會(huì)犯類似錯(cuò)誤?結(jié)果顯示,受訪者更傾向于認(rèn)為,肯塔基州的預(yù)測(cè)算法也會(huì)出錯(cuò),而非人類員工。研究人員還在多種其他AI失效場(chǎng)景下,如誤發(fā)社保金等,發(fā)現(xiàn)同樣存在這種對(duì)AI更高的“連帶懷疑”傾向。
研究人員發(fā)現(xiàn),受訪者之所以會(huì)有這樣的反應(yīng),是因?yàn)榇蠖鄶?shù)人并不了解AI的工作原理。他們傾向于認(rèn)為“天下AI是一家”,具有相同的基本特性;他們不會(huì)把一個(gè)個(gè)AI方案視為各有長(zhǎng)短,互不相干的獨(dú)立系統(tǒng)。
為避免其他公司AI失效造成的連帶影響,企業(yè)應(yīng)重點(diǎn)突出與競(jìng)爭(zhēng)產(chǎn)品相比,自身的差異化優(yōu)勢(shì),包括專有算法、安全防護(hù)措施和人類監(jiān)管等。以AI公司Anthropic及其生成式AI模型Claude為例,該公司將其產(chǎn)品定位為“新一代AI助手...經(jīng)過訓(xùn)練確保安全、準(zhǔn)確和可靠,以幫助用戶發(fā)揮出最佳工作表現(xiàn)”。Anthropic表示,他們采用“憲法”式訓(xùn)練方法,使Claude更加透明、更易理解,并且符合人類價(jià)值觀。通過這樣的差異化定位,Anthropic將Claude與ChatGPT、Bard等采用不同訓(xùn)練方式的主流競(jìng)品區(qū)分開來。當(dāng)這些競(jìng)爭(zhēng)對(duì)手產(chǎn)品因存在偏見或生成不準(zhǔn)確信息而出現(xiàn)問題時(shí),Anthropic通過前期建立的差異化基礎(chǔ),可以有效降低潛在連帶影響。
另一項(xiàng)預(yù)防措施是明確告知AI決策過程中存在人類監(jiān)督環(huán)節(jié),即由人類決定是否采納AI的建議。當(dāng)在“人類參與其中”(human in the loop)機(jī)制下出現(xiàn)失誤時(shí),公眾通常不會(huì)認(rèn)為其他AI系統(tǒng)也同樣存在缺陷。這很可能是因?yàn)槿藗儾粫?huì)將此類失誤簡(jiǎn)單歸咎于AI技術(shù)本身。
企業(yè)夸大AI能力會(huì)招致更嚴(yán)厲指責(zé)
特斯拉將其駕駛輔助系統(tǒng)命名為“Autopilot”(自動(dòng)駕駛),但實(shí)際使用仍需駕駛員在道路上進(jìn)行主動(dòng)監(jiān)督。在發(fā)生多起涉及啟用Autopilot功能的致命事故后,這家汽車制造商陷入了一系列訴訟糾紛,其中包括美國司法部對(duì)其產(chǎn)品命名是否構(gòu)成“誤導(dǎo)性營銷”的調(diào)查。美國國家公路交通安全管理局也要求特斯拉確保其在對(duì)外宣傳中,更準(zhǔn)確反映系統(tǒng)的實(shí)際能力與局限。特斯拉CEO埃隆·馬斯克過去曾為“Autopilot”這一稱謂辯護(hù),稱其借鑒自航空領(lǐng)域,飛機(jī)上的“Autopilot”功能僅作為飛行員的輔助工具,而非完全自主的系統(tǒng)。但消費(fèi)者是否也會(huì)這樣理解呢?
我和同事就“誤導(dǎo)性表述”問題開展了一項(xiàng)研究,針對(duì)9492名參與者,結(jié)合模擬駕駛和假設(shè)性事故情境展開測(cè)試。我們告知參與者,某車企計(jì)劃推出一款新型自動(dòng)駕駛汽車。其中一組被告知該車具有“Autopilot”系統(tǒng)(“自動(dòng)駕駛”,暗示高階AI能力),另一組則被告知該車具有“Copilot”系統(tǒng)(“副駕駛”,暗示中等程度的AI能力)。隨后,參與者被置于一個(gè)模擬駕駛場(chǎng)景中,要求根據(jù)自身判斷,在他們認(rèn)為需要干預(yù)時(shí)隨時(shí)接管方向盤。在模擬過程中,當(dāng)車輛駛向一個(gè)繁忙的十字路口時(shí),若不及時(shí)干預(yù),車輛將會(huì)撞向亂穿馬路的行人。
結(jié)果表明,標(biāo)注“Autopilot”的車輛,參與者接管控制的時(shí)機(jī)明顯晚于標(biāo)注“Copilot”的車輛。這意味著命名方式直接影響參與者的安全意識(shí)——他們?cè)诿Q引導(dǎo)下認(rèn)為車輛的能力越強(qiáng),自己介入控制的時(shí)機(jī)就會(huì)越晚。在其他研究中我們也發(fā)現(xiàn),企業(yè)給產(chǎn)品起的名字越是暗示其性能優(yōu)越,人們就越傾向于認(rèn)為企業(yè)對(duì)事故負(fù)有責(zé)任。這表明,夸大命名一方面降低了消費(fèi)者的警惕性,另一方面也抬高了事故后人們對(duì)車企的責(zé)任預(yù)期。
基于上述研究結(jié)果,我和同事提出一個(gè)假設(shè):在AI產(chǎn)品營銷中,常見的“宣稱自家產(chǎn)品優(yōu)于競(jìng)爭(zhēng)對(duì)手”的營銷策略,在AI失效時(shí)可能會(huì)適得其反。后續(xù)研究證實(shí)了這一假設(shè):當(dāng)企業(yè)這樣宣傳時(shí),會(huì)抬高消費(fèi)者對(duì)系統(tǒng)能力的預(yù)期,從而在出現(xiàn)故障時(shí)招致更嚴(yán)厲的責(zé)任認(rèn)定。例如,通用汽車曾使用“人類是很糟糕的司機(jī)”這類廣告語,可能反而加劇了消費(fèi)者在Cruise卷入事故時(shí)對(duì)其的責(zé)難。
這種現(xiàn)象的產(chǎn)生源于AI系統(tǒng)存在一個(gè)從“部分自主”(人類承擔(dān)主要操作責(zé)任)到“完全自主”(AI全權(quán)控制)的能力譜系。然而大多數(shù)消費(fèi)者難以準(zhǔn)確判斷具體AI產(chǎn)品在這個(gè)譜系中的實(shí)際位置。這種認(rèn)知鴻溝給營銷人員帶來了兩難困境:雖然實(shí)話實(shí)說能反映系統(tǒng)真實(shí)水平,但企業(yè)往往傾向于使用夸大性能的表達(dá)來促進(jìn)銷售。
若企業(yè)選擇使用具有誤導(dǎo)性的AI產(chǎn)品名,則應(yīng)該在其他渠道(如官網(wǎng)或產(chǎn)品上的小字)準(zhǔn)確清晰地闡明AI的真實(shí)能力。研究發(fā)現(xiàn),相比單純使用誤導(dǎo)性命名的企業(yè),那些在誤導(dǎo)性命名的同時(shí)披露AI實(shí)際能力的企業(yè),在系統(tǒng)失效時(shí)面臨的追責(zé)更輕。當(dāng)然,另一種選擇是從源頭避免使用誤導(dǎo)性命名。這種做法雖然無法增強(qiáng)消費(fèi)者對(duì)AI能力的認(rèn)知,但至少能完全規(guī)避相關(guān)風(fēng)險(xiǎn)。
人們對(duì)擬人化AI的評(píng)判更加嚴(yán)苛
如今,越來越多的企業(yè)開始部署具有人類特征的AI系統(tǒng)。心理健康應(yīng)用Wysa使用卡通形象幫助用戶完成練習(xí),而像Replika這樣的AI伴侶應(yīng)用則采用能表達(dá)“情感”和“思考”的真人形象。
這些設(shè)計(jì)元素會(huì)讓用戶產(chǎn)生錯(cuò)覺,以為聊天機(jī)器人真的具備情感、目標(biāo)和欲望等它實(shí)際上并不存在的特質(zhì)。與中性機(jī)器人相比,擬人化設(shè)計(jì)能為企業(yè)帶來多重優(yōu)勢(shì):顯著提升消費(fèi)者的購買意愿、信任程度、品牌忠誠度,以及配合服務(wù)商要求和披露個(gè)人信息的意愿。值得注意的是,即便用戶明知交談對(duì)象是機(jī)器,這種擬人化效應(yīng)依然存在。
在拉吉·斯里尼瓦桑(Raji Srinivasan)教授和居倫·薩里亞爾-阿比(Gülen Sarial-Abi)教授開展的研究中,他們告知參與者一家金融投資公司因失誤導(dǎo)致客戶蒙受損失。一組參與者獲悉失誤原因是“算法程序”出錯(cuò),另一組則得知肇事者是一個(gè)名為“查爾斯”的擬人化AI。結(jié)果顯示,當(dāng)失誤歸因于擬人化AI時(shí),參與者對(duì)品牌的負(fù)面評(píng)價(jià)更為強(qiáng)烈。后續(xù)研究表明,擬人化設(shè)計(jì)會(huì)讓人們以為AI具備記憶、理解、規(guī)劃和思考等心智能力,進(jìn)而對(duì)其失誤施加更高的責(zé)任認(rèn)定。另一項(xiàng)由卡米·克羅利克(Cammy Crolic)主導(dǎo)的研究發(fā)現(xiàn):當(dāng)聊天機(jī)器人同時(shí)采用語言(如使用第一人稱、自稱“杰米”)和視覺(女性形象)擬人化特征時(shí),其服務(wù)失敗引發(fā)的負(fù)面評(píng)價(jià)比僅采用語言擬人化時(shí)更為嚴(yán)重。這證明不同類型的擬人化特征會(huì)疊加放大用戶對(duì)AI失效的負(fù)面反應(yīng)。
在客戶可能產(chǎn)生激烈情緒的場(chǎng)景中,使用聊天機(jī)器人時(shí)要格外謹(jǐn)慎。在克羅利克團(tuán)隊(duì)開展的另一項(xiàng)研究中,研究人員分析了某國際電信公司約50萬次的客服對(duì)話記錄,發(fā)現(xiàn)顧客越是以對(duì)待人類的方式與機(jī)器人互動(dòng)(如在對(duì)話中直呼機(jī)器人名字),在生氣時(shí)對(duì)公司的不滿情緒就越重。要減輕這種效應(yīng),可以有選擇性地僅在產(chǎn)品搜索等中性場(chǎng)景使用擬人化機(jī)器人,而在客服等易引發(fā)顧客憤怒的環(huán)節(jié)減少擬人化AI的使用頻率。企業(yè)方面還可以在對(duì)話伊始就主動(dòng)降低預(yù)期,例如Slack的聊天機(jī)器人會(huì)聲明:“你好,我是Slackbot。我盡力提供幫助(但我只是個(gè)機(jī)器人,抱歉?。!边@類“丑話說在前面”的機(jī)器人在出現(xiàn)服務(wù)失誤時(shí)就不那么容易激怒顧客。
人們對(duì)預(yù)設(shè)偏好感到憤怒
2016年,梅賽德斯-奔馳一位高管表示,在開發(fā)自動(dòng)駕駛汽車時(shí),公司將優(yōu)先保護(hù)車內(nèi)乘客而非行人和其他道路使用者的安全。其邏輯很直接:若只能救一人,應(yīng)該救車內(nèi)人員。這番言論引發(fā)了輿論風(fēng)暴,某報(bào)紙直接指責(zé)奔馳為了保護(hù)司乘人員,“寧愿碾過兒童也不肯轉(zhuǎn)向”。事發(fā)后不過幾周時(shí)間,奔馳做了公開澄清,稱工程師和自動(dòng)駕駛系統(tǒng)都不應(yīng)對(duì)人類生命價(jià)值做出評(píng)判。這一事件激起的公眾情緒表明,人們認(rèn)為企業(yè)將基于年齡、性別或用戶身份等群體特征預(yù)設(shè)的偏好植入AI系統(tǒng)是不道德的。
為驗(yàn)證這一假設(shè),我與哈佛大學(xué)的米娜·奇卡拉(Mina Cikara)教授合作開展了研究。我們讓826名來自美國的參與者設(shè)想一輛全自動(dòng)駕駛汽車面臨的各種道德困境,比如是撞向一位老人還是一名兒童,然后我們呈現(xiàn)出最終撞上其中一類人的情景。我們控制的關(guān)鍵變量在于:車輛的選擇是隨機(jī)的,還是基于預(yù)設(shè)的群體偏好。研究發(fā)現(xiàn),相比隨機(jī)選擇,任何預(yù)設(shè)的群體偏好都會(huì)引發(fā)更強(qiáng)烈的憤怒情緒。這表明企業(yè)應(yīng)避免公開宣揚(yáng)其系統(tǒng)內(nèi)存在基于群體特征的決策邏輯。某些情況下,甚至需要從一開始就避免收集種族、性別、年齡等可能影響AI決策的特征數(shù)據(jù)。另一種方式是采用情境結(jié)構(gòu)特征作為決策依據(jù),比如讓系統(tǒng)優(yōu)先采用能拯救更多人的方案。約哈南·比格曼(Yochanan Bigman)和庫爾特·格雷(Kurt Gray)的研究發(fā)現(xiàn),相比群體偏好,公眾更支持AI使用基于結(jié)構(gòu)特征的決策邏輯。這可能是因?yàn)榻Y(jié)構(gòu)偏好具有明確的功利主義合理性,更容易獲得普遍認(rèn)同。
AI的失效不可避免。營銷人員必須認(rèn)識(shí)到,那些在當(dāng)下能夠促進(jìn)AI推廣的營銷手段——特別是過度宣揚(yáng)產(chǎn)品優(yōu)勢(shì)和優(yōu)越性的做法,很可能在AI出現(xiàn)失誤時(shí)引發(fā)嚴(yán)重后果。因此,在制定營銷策略前,務(wù)必充分理解與AI相關(guān)的五大陷阱。企業(yè)仔細(xì)評(píng)估這些風(fēng)險(xiǎn)后制定相應(yīng)的市場(chǎng)營銷策略,既能實(shí)現(xiàn)當(dāng)前的產(chǎn)品推廣目標(biāo),又可以在將來出現(xiàn)失效情況時(shí),降低法律責(zé)任和品牌聲譽(yù)風(fēng)險(xiǎn)。
朱利安·德弗雷塔斯(Julian De Freitas)| 文
朱利安·德弗雷塔斯是哈佛商學(xué)院市場(chǎng)營銷教研室副教授。
DeepSeek | 初譯 高曉萌 | 譯校 廖琦菁 | 編輯
本文選自《哈佛商業(yè)評(píng)論》中文版2025年8月刊。
《哈佛商業(yè)評(píng)論》中文版 聯(lián)系方式
投稿、廣告、內(nèi)容和商務(wù)合作
newmedia@hbrchina.org