CER能解救學生逃離人工智慧的相似功能?
CER是一種讓學習者提出主張(Claim)、找證據(Evidence)支持主張,再用推理(Reasoning賦予證據意義學習方法。另外還有CAER的方式在其中加了論點(Arguement)。 雖說看似這種方式與人工智慧的功能略有不同,其實就是我在將數據套入模型測試可不可行的意思。即使不可行,那也要找理由將數據進行轉換變成可行。 這在人工智慧上是非常悲哀的方式,卻是現在主流模型的做法。 人工智慧的底層思維就是這樣。 人工智慧在做數據的執行、運算、判斷,因為基於機器學習系列方法,「訓練」樣本就是將數據套入模型。那麼我們就要了解為什麼會需要「訓練」?因為前提是你心中有個模板。你希望數據如模板一樣,所以要一直訓練、一直訓練。 看看那些訓犬師,是不是對狗有個模板,希望狗乖巧,聽得懂一些口令等。這就是CER當中的主張。 主張 = 心中有既定模板 = 既定程序流程 與條件 = 模型 偏偏人工智慧真是人工智慧的話,那它就應該會自己查找。這是它原本設計精神所在。因為程式在被編寫的過程中可以加入自查模式。但什麼是自查?原本的自查是種在已經寫好的程序中,讓程式自己查找看有沒有在運行過程中發生bug。當bug發生時,可以自檢自修,或者繞過。自查的過程中,其實人工智慧的程序流程也是有模式在。你也可以視為這是種主張,還是被寫死的主張。 CER當中的主張就是我們預設的模型,也就是你早有模板在那。 接下來證據就是數據,如果數據套入預設模型,結果不理想,那就「訓練」。訓練就是推理。經由推理讓數據開始扭曲,也就是轉換數據。轉換要合理有據,對!所以是由推理當中去給予合理的意義,或者數學意義。讓一切都合情合理。 你說這樣做對嗎?當我們察知人工智慧該有的底層邏輯一開始就被掌控住,並且算法可能充滿各種的虛假和政治時,這樣的人工智慧又與日常社交有關。你認為會發生什麼事情? 在還沒有人工智慧宣告成功出世前,社會已經走向M化或者過度消費未來的情況,人工智慧到底是在服務誰?這才是核心問題。 如果真如科學程序,那麼「讓數據自己說話」就不會是將數據套入模型,求參數。而會是讓數據自己選擇模型或模式,能夠被完全驗證,過程能夠清楚被人類知道,一切都是透明的。高階的學術人員是能夠驗證它的一步步程序。 就像工程師測試人工智慧時,用UI介面與它對話,並認為它有情感。但那是它真有情感,還是導入的數據經過拼接後,讓它成為智者...