Facebook正在開發(fā)一種名為TL;DR的人工智能,它可以將新聞總結(jié)成更短的摘要簡介。
很多人需要花費(fèi)很多時間才知道什么是TL;DR,其實(shí),這就是“文章太長,不讀了”的縮寫。
我們都有過這樣的感受,這是可以理解的。泛閱讀在現(xiàn)代人中越來越多,忙碌的生活節(jié)奏不允許人們有過多時間去閱讀一篇長篇大論的分析文章,于是一些媒體現(xiàn)專門報道簡短、一目了然的新聞。
問題是,很難在一個簡短的摘要簡介中獲得整個故事的全貌。
在這個世界里,假新聞可以像野火一樣在社交網(wǎng)絡(luò)上迅速傳播,幾乎完全不受約束,如果將“新聞”以簡短形式、沒有完整上下文的形式傳播正?;杏X會更加危險。
大多數(shù)故事都有兩面性,很難找到恰當(dāng)?shù)目偨Y(jié)方法。
某產(chǎn)品經(jīng)理在內(nèi)部宣布了FB正在開發(fā)的一個名為“TL;DR”的工具,新聞記者可不會喜歡這個新人工智能。從理論上講,它將使用人工智能來總結(jié)長篇文章并給出要點(diǎn),這樣人們就不必閱讀整篇文章了。會出什么差錯呢!
然而,這個論點(diǎn)也有相反的觀點(diǎn)。當(dāng)文章太長時,人們會有一種自然的瀏覽習(xí)慣。用這種方式略讀通常意味著人們會認(rèn)為他們對某個話題了解得很充分,但我們知道事實(shí)往往并非如此。
TL;DR需要在總結(jié)新聞的同時又不能過多地讓人們看不懂新聞之間找到一種平衡。否則,它可能會增加虛假信息、假新聞和缺乏媒體信任等社會問題。
Facebook在本周的一次內(nèi)部會議上展示了TL;DR。
臉書似乎正計劃在TL;DR中添加一個人工智能助手,可以回答有關(guān)文章的問題。這款助手可以幫助讀者理清任何不確定的東西,但它也必須證明自己沒有任何偏見,而目前所有的算法都在某種程度上存在偏見。
人工智能還必須非常小心,不能把引文斷章取義這樣的事情弄得更加自動化,讓錯誤信息的傳播更加“便捷”。
關(guān)于Facebook應(yīng)該使用哪些資源的爭論也將繼續(xù)。 Facebook只關(guān)注“主流媒體”,許多人認(rèn)為這些媒體遵循某些領(lǐng)導(dǎo)人的議程,或者從沒有多少歷史可信度的小媒體那里獲取新聞?答案可能是介于兩者之間,但很難找到正確答案。
Facebook仍然是錯誤信息的主要來源,很大程度上是由推廣此類內(nèi)容的算法驅(qū)動的,到目前為止,它在任何與新聞相關(guān)的努力上都沒有取得什么成功。也許大多數(shù)人都會認(rèn)為這是另一場即將發(fā)生的災(zāi)難。
責(zé)任編輯:YYX
-
Facebook
+關(guān)注
關(guān)注
3文章
1432瀏覽量
56769 -
人工智能
+關(guān)注
關(guān)注
1807文章
49029瀏覽量
249583
發(fā)布評論請先 登錄
評論