自毀式監控營銷:挖掘隱秘數據追求過多的個性化算法對品牌弊大於利

情感導師 6414

 添加導師LINE:jaqg

獲取更多愛情挽回攻略 婚姻修復技巧 戀愛脫單幹貨

個性化經常被吹捧為營銷領域的靈丹妙藥。一種無所不能的力量,能夠識別我們的欲望和需求,使廣告和體驗世界更具相關性。所有這些都是為了賣出更多東西的崇高事業。

發表在應用心理學雜誌上的一項研究發現,個性化廣告吸引了更多的關注,並且在記憶中持續時間更長。所以,這麼看來,突出性和心理可用性是廣告成功的基礎。但所有都是這樣真的好嗎?

嗯,也有研究表明,隨着消費者更多地了解廣告個性化的工作原理,他們越討厭它。 YouGov最近的一項研究發現,45%的英國消費者反對將他們的數據用於信息、服務和廣告的個性化,54%的人認為個性化廣告令人毛骨悚然。

隱私和個性化之間的這種基本困境可以使用簡單的自助工具來解釋。

自毀式監控營銷:挖掘隱秘數據追求過多的個性化算法對品牌弊大於利

1955年,兩位臨床心理學家Joe Luft和Harry Ingham(或Jo-Hari)創建了一個框架,用於理解人們及其與他人的關係,也就是約哈里之窗(Johari Window)。這個二乘二網格探討了我們對自己和別人對我們的了解之間的交集。

開放區

第一個區域是開放區,其中包含有關我們的公開信息(我們的身高、性別、年齡)。這是大多數良好營銷發生的地方,從廣泛的受眾定義到特定的過濾器。酒精和煙草公司不能針對特定年齡的消費者,但這個年齡因國家而異。防曬霜出售給機場的人。使用公開信息來個性化通常是不爭的事實,並且經常是品牌需要的。一般來說,人們不希望自己的銀行交叉銷售已經持有的產品。如果你從未從Tesco購買肉類,那麼Tesco也不會以肉類促銷為目標。

這種個性化的挑戰在於它與良好的常識接壤。人們不買肉,可能因為他們是素食主義者。您不需要機器學習模型就可以解決這個問題。通過這種類型的個性化產生的許多結果通常與隨機樣本進行比較,即比常識更笨拙,反過來性能提升也被誇大了。

隱秘區

隱秘區包含我們了解自己的信息,但其他人則不知道。許多人劃分了他們的生活。有些人會討厭讓他們的工作同事了解周末的逍遙時光,就像發朋友圈會分組一樣。其他人只想保住私人生活,保持自己的隱私。當禮貌的談話中提出「瀏覽器歷史」一詞時,幾乎每個人都會頭冒冷汗。隱秘區後面的數據對個性化產生了重大的影響和後果。

這是個性化變得令人毛骨悚然的地方。廣告可以完美地針對個人,但是目標可能是令人震驚的,即廣告商已經將他們所謂的秘密賭博或色情習慣與在家人或同事面前,以個性化顯示相關聯。

一個著名的例子是前英國保守黨國會議員和現任唐寧街戰略家加文·巴威爾,他在工黨在線新聞發布上看到一個廣告,「與阿拉伯女孩約會」,然後在推特上抱怨了一番,由此暴露了他自己的瀏覽器歷史。 (當然,你也可以這麼想,他可能會與一群實習生共享瀏覽器。)

利用隱秘區數據的品牌正在冒着激怒消費者的風險,並且還面臨着聲譽受損的嚴重風險。克什米爾·希爾認為,Facebook的「你可能認識的人」算法將一位治療師的病人相互聯繫起來。除了侵犯患者隱私之外,還存在將人們置於彼此風險之中的危險。

盲目區

所謂的盲目區是我們的朋友和家人可能了解我們的信息,但我們沒有注意到。例如,如果你收到Listerine的廣告,這是一種流行的漱口水產品,而且你不知道你有口臭(但是你的妻子確實這樣做了),這麼一來,廣告用在你身上就是一種浪費,因為這條消息與那些不知道自己有需要的人無關。

更糟糕的是,了解消費者的盲點可能導致剝削。從了解哪位客戶對價格更敏感,到利用那些有上癮傾向的客戶,這些都可以。零售商的目標是向他們認為最有可能作出響應的客戶提供優惠和交易 - 營銷101。但這應該走多遠?在線博彩公司每個月都會向損失最多的客戶提供免費資金。 EA Sports通過其FIFA和Madden遊戲中的遊戲內購買獲得了8億美元。由我們的盲點數據驅動的個性化可能會產生潛在影響。

未知區

未知區是最終和最少的圖表空間。任何人都不知道的信息。對於品牌和消費者而言,這可能是一個巨大的盈利空間。預測未來是數據分析的殺手級應用,而今天的大多數分析都是歷史趨勢的反芻。

有些人熱衷於了解他們的遺傳學預測其未來的健康狀況和相關風險,以便過上更長壽、更健康的生活。而其他人則感到震驚並試圖避免這種預測。

個性化的問題

實踐中個性化的證據非常豐富。然而,稍微觸及表面,很多證據都經不起推敲。首先,大多數成功案例都是由銷售個性化軟件的技術供應商創建的。其次,個性化過程意味着品牌必須產生更多的溝通和內容變體,這會增加成本,這些成本通常不會被納入比較ROI基準。第三,雖然個性化通常會帶來顯著更高的投資回報率,但這幾乎總是以規模為代價。 ROI是約束條件下效率的衡量標準。任何聲稱改進10倍的人都不是在談論利潤或市場份額,而是基準點率明顯低於1%。

打擊恐怖主義、打擊欺詐和推進醫學科學,顯然都是人工智能和算法可以造福我們的例子。然而,毫無疑問,數據也有不好的一面,特別是一些世界科技巨頭如何使用它。在這個階段,我們中的大多數人可能已經習慣了谷歌和基於我們搜索和瀏覽習慣的Facebook廣告。它可能是侵入性的,有時甚至有點令人十分反感,也許在一定程度上也是可以理解的,比如為了生存下去,為了利潤等等,或許相對無害。

但這些公司現在對我們生活的洞察程度遠遠超出了我們訪問的網站或在線購物。俗話說,如果你不知道產品是什麼,那麼產品就是你。對於免費搜索、電子郵件和社交媒體的取捨,是這些公司從我們的在線活動中獲取的海量數據。如今,這些公司比我們的許多朋友和家人更了解我們。他們不僅能分析我們的感受,有證據表明他們也能影響我們的感受。

例如早些時候有報道稱,Facebook曾告訴澳大利亞的廣告商,它能夠識別出那些感到「不安全」、「毫無價值」的青少年。在最初道歉後,該公司隨後發表聲明稱,不會「根據人們的情緒狀態,提供針對他們的工具」。但如果是這樣的話,為什麼要向廣告商推銷這種功能呢?當這些科技巨頭的力量達到了我們的情緒可以被監控、操縱和潛在盈利的地步時,我們肯定已經進入了反烏托邦的領域。

亞歷山大·科根(Aleksandr Kogan)是Facebook / 劍橋分析「數據門」事件的核心人物,他聲稱性格分析對目標廣告的準確性是極度誇大的,他估計自己對一個人每件事都做錯的可能性是對的六倍。

社交媒體平台提供免費服務,耗資數十億美元,並通過有針對性的廣告將其努力貨幣化。由於這些廣告平台的規模和複雜性,目標是通過算法進行管理的,而那些討厭的算法並沒有考慮到他們可能面臨的所有道德窘境。

謝菲爾德大學的研究論文由Ysabel Gerrard探討了個性化算法在向有自殺和自我傷害相關主題及內容的用戶,推廣額外的飲食失調的作用。算法雖然準確,但應用卻不道德。

Netflix最近因其電影和電視劇的藝術作品個性化而受到批評。在Netflix體驗中,封面圖片是對客戶觀看習慣的最大影響。在沒有將種族納入算法的情況下,個性化算法將觀眾與包含具有相似種族背景的演員的電影相匹配,並且重新設計了藝術作品以使這些演員成為特徵,儘管他們通常是次要角色。算法不需要在種族數據上進行訓練,就能產生針對不同種族群體的高度分化的結果。大規模的機器學習充滿了意想不到的後果,因為算法沒有道德規範。

通往地獄的道路是用善意鋪就的。個性化通常被定位為營銷的靈丹妙藥。它永遠被視為一件好事。然而,人們對個性化體驗的強烈渴望正推動着許多道德界限,尤其是在網站cookie免責聲明上輕輕點一下OK,就能得到越來越多、越來越私密的數據。

如果不出意外,歐洲新的《通用數據保護條例》(GDPR)立法已經提升了我們在互聯網上聯合數據的隱私和安全性的擔憂。隨着公眾對自己的數據應該如何用於商業目的的看法發生着重大轉變,嚴重依賴隱秘區背後的個人數據,或商業利用隱藏在盲目區中消費者傾向的公司可能會發現自己站在了錯誤的一邊。

有什麼替代選擇?

為了降低這種風險,公司應該尋求讓消費者參與進來,並將個性化從他們對客戶所做的事情轉變為人們可以定製自己體驗的合作式企業。公司還應審核自己的個性化工作,並詢問他們是否過度依賴隱秘區背後隱藏的數據。

二十年前,公司開始在年度報告中報告其企業社會責任活動。 這種非財務披露的趨勢有助於將企業描繪成良好的企業公民。 今天,企業有一個類似的機會,公開表明他們的數據使用政策,不僅要遵守法律,還要通過額外的努力,以道德的方式和應有的尊重來與客戶建立信任。

評論列表

頭像
2024-02-02 04:02:31

現代年輕人的情感問題很多,需要這樣的情感諮詢師,很專業

頭像
2023-11-25 09:11:23

可以幫助複合嗎?

頭像
2023-07-22 21:07:19

如果發信息不回,怎麼辦?

 添加導師LINE:jaqg

獲取更多愛情挽回攻略 婚姻修復技巧 戀愛脫單幹貨

發表評論 (已有3條評論)