法新社今天(4日)報導,如ChatGPT這樣的「生成式人工智慧」(generative artificial intelligence, generative AI)助理正在蠶食傳統線上搜尋流量,導致新聞網站訪客流失並衝擊其亟需的廣告收入,對這個已經在為生存奮鬥的產業而言是毀滅性的打擊。
「波士頓環球媒體」(Boston Globe Media)的研究發展副總裁卡洛利安(Matt Karolian)警告:「未來3、4年,世界各地的出版商都將面臨巨大的挑戰。沒人能倖免於即將來臨的AI摘要風暴。」
他說:「出版商需要建立其本身的庇護所,否則將面臨被徹底摧毀的風險。」
雖然資料仍然有限,但「皮尤研究中心」(Pew Research Center)一份最近的研究揭示,現在谷歌(Google)搜尋中固定出現的AI生成摘要,會阻礙使用者點擊來源文章。
當有AI摘要時,使用者點擊建議連結的頻率僅為傳統搜尋的一半。
對於仰賴流量獲得廣告收入和訂閱轉換的線上媒體網站而言,這意味著毀滅性的訪客流失。
根據東北大學(Northeastern University)教授維貝(John Wihbey),這些趨勢「將會加速,很快我們將擁有一個完全不同的網路」。
谷歌和Meta等科技巨頭的主導地位,已經大幅削減了線上媒體的廣告收入,迫使出版商轉向付費訂閱。
但維貝指出,訂閱也依賴流量,而單靠付費訂閱並不足以支持大型媒體組織。
有限的救生索
卡洛利安表示,波士頓環球媒體集團已經開始看到訂閱者透過ChatGPT註冊,這為該集團與潛在的讀者提供了新的接觸點。
然而,「與包括甚至是小型搜尋引擎等其他平台相比,這仍非常有限。」
他補充說,如Perplexity等其他AI驅動的工具,產生的新訂閱量甚至更少。
為了在許多人視為無可避免的轉變中生存下來,媒體企業正越來越多地採用「生成引擎優化」(Generative Engine Optimization, GEO),這是一項取代傳統「搜尋引擎優化」(Search Engine Optimization, SEO)的技術。
這牽涉到為AI模型提供明確標示的內容、良好的結構、易於理解的文本,以及在社群網絡和如Reddit等論壇具有強大的存在感。AI公司會爬取(crawl)這類網站。
不過,優化新創公司OtterlyAI執行長裴漢姆(Thomas Peham)表示,一個根本的問題仍然存在:「你是否應該允許OpenAI爬蟲爬取你的網站和內容?」
受到大型AI公司激進數據蒐集的影響,許多新聞出版商已經選擇藉由阻擋AI爬蟲存取其內容進行反擊。
「新聞媒體同盟產業工會」(News/Media Alliance trade organization)的負責人柯菲(Danielle Coffey)主張:「我們只需要確保使用我們內容的公司支付公平的市場價值。」
這個方面已經取得了一些進展。如紐約時報(New York Times)和亞馬遜(Amazon)、谷歌和美聯社(Associated Press)、以及Mistral和法新社(Agence France-Presse)等大型參與者之間,已經達成了授權協議。
但這個問題仍遠遠未獲解決,多場大型法律戰役仍在進行,其中最引人注目的就是紐約時報對OpenAI和微軟(Microsoft)的重磅訴訟。
放任爬取
出版商面臨兩難:阻擋AI爬蟲可以保護其內容,但同時也減少對潛在新讀者的曝光。
裴漢姆觀察指出,面臨挑戰,「媒體領導人越來越多選擇重新開放存取權限」。
然而,就算開放存取權限,也不能保證成功。
根據OtterlyAI的數據,媒體僅佔ChatGPT引用量的29%,落後於企業網站的36%。
裴漢姆指出,雖然谷歌搜尋傳統上優先考慮那些被認證為可靠的資訊來源,但「我們在ChatGPT上沒有看到這種情況」。
風險不僅在於商業模式。
根據路透新聞學研究所(Reuters Institute)的「2025年數位新聞報告」(2025 Digital News Report),約15%的25歲以下人群使用生成式AI獲取新聞。
鑑於人們持續對AI資訊來源和可信度抱持懷疑態度,這個趨勢將有使讀者對資訊來源和可信度感到困惑的風險,就像先前的社群媒體一樣。
卡洛利安表示:「總得有人來作報導。」「如果沒有原創的新聞報導,所有這些AI平台將不會有任何內容可以摘要。」
或許正是考慮到這一點,谷歌已經開始與新聞機構建立合作關係,為其生成式AI功能提供支持,這暗示了未來潛在的發展方向。
維貝預測:「我認為平台最終會意識到,它們有多需要新聞媒體。」儘管這種認識是否能夠快產生,以拯救苦苦掙扎的新聞編輯室,仍然是個懸而未決的疑問。(編輯:陳文蔚)