人工智能不一定好,以人為本不見得對
上期提到,當 TikTok 的演算法應用在新聞,再加上背後對極權政府的高度配合,會演化成最中心化的新聞篩選。文章刊出後,收到一些頗為典型的意見,說責任不是出在工具而在人。
我自己也從事科技,也常說類似的話,但差之毫釐:所謂責任在人是指使用應用科技的人,比如砍人案的問題不在刀而在罪犯。放在 AI 篩選新聞的語境,那是應用開發商與運營商,有人卻曲解為讀者與公眾。持這種論述的,要不就是樂於把責任一記推向受眾,要不就是自視過高,而我兩種都遇過。讀者固然應該保持批判,有責任提升媒體素養,但以為個人可以在資訊大海裡每天靠著 AI 去挑選內容而不受演算法左右,根本沒有認清形勢。
人工智能不一定好
2015 年,Alpha Go 打敗世界頂尖圍棋高手成為一時佳話,到了現在,這種 AI 在特定領域戰勝全人類的事情已成常識,有人戰勝 Alpha Go 才是新聞。事件中有個細節:Alpha Go 的某些下子,任何高手的摸不著頭腦,換言之,人類沒法理解它的決定,但結果證明它是對的。
有人會說那很好,那代表它比人類聰明。圍棋你可以這樣說,那駕駛呢?司機不知道自動駕駛為何轉向,總之相信那是為了安全就好?醫療判斷呢?新聞篩選呢?顯然,即使 AI 多強大,假如它無法向人類解釋抉擇,在某些使用場景會產生倫理問題。針對這點,有人倡議 XAI,eXplainable Aritificial Intellegence,可以預計,先進國如歐盟會朝這個方向立法。不過,面對龐大商機,人類發展 AI 的速度,只會越來越拋離立法規管 AI 的速度,直至發生重大災難。
AI 有兩個不可或缺的元素,一是機器學習,一是明確目標。定義目標,比如照片分類,再給機器提供大量數據,如人類分類好的一百億照片,機器就能一定程度上學會照片分類。數據量越多、質越高,目標越明確,機器學習的效果越好。特定領域如圍棋,AI 最先超越人類,因為目標最明確,數據量大質高;中國可能在 AI 全球領先,因為該國私隱意識和法理保障都全球領先地弱。
以人為本不見得對
現在越來越少聽到了:傳統新聞工作者一個很重要的角色,是議題設定,即決定甚麼重要,甚麼不是。重要很多時並不符合直覺,比如在 70 年代談環保、80 年代談本土,或者這個年代談 AI 的弊病。
最重要的議題,傳媒會報導並放 A1,次要的也會報導但放內頁,不關痛癢的則無視掉。你或說,這不是廢話嗎?我但願是,可惜…