CER能解救學生逃離人工智慧的相似功能?
CER是一種讓學習者提出主張(Claim)、找證據(Evidence)支持主張,再用推理(Reasoning賦予證據意義學習方法。另外還有CAER的方式在其中加了論點(Arguement)。
雖說看似這種方式與人工智慧的功能略有不同,其實就是我在將數據套入模型測試可不可行的意思。即使不可行,那也要找理由將數據進行轉換變成可行。
這在人工智慧上是非常悲哀的方式,卻是現在主流模型的做法。
人工智慧的底層思維就是這樣。
人工智慧在做數據的執行、運算、判斷,因為基於機器學習系列方法,「訓練」樣本就是將數據套入模型。那麼我們就要了解為什麼會需要「訓練」?因為前提是你心中有個模板。你希望數據如模板一樣,所以要一直訓練、一直訓練。
看看那些訓犬師,是不是對狗有個模板,希望狗乖巧,聽得懂一些口令等。這就是CER當中的主張。
主張 = 心中有既定模板 = 既定程序流程 與條件 = 模型
偏偏人工智慧真是人工智慧的話,那它就應該會自己查找。這是它原本設計精神所在。因為程式在被編寫的過程中可以加入自查模式。但什麼是自查?原本的自查是種在已經寫好的程序中,讓程式自己查找看有沒有在運行過程中發生bug。當bug發生時,可以自檢自修,或者繞過。自查的過程中,其實人工智慧的程序流程也是有模式在。你也可以視為這是種主張,還是被寫死的主張。CER當中的主張就是我們預設的模型,也就是你早有模板在那。
接下來證據就是數據,如果數據套入預設模型,結果不理想,那就「訓練」。訓練就是推理。經由推理讓數據開始扭曲,也就是轉換數據。轉換要合理有據,對!所以是由推理當中去給予合理的意義,或者數學意義。讓一切都合情合理。
你說這樣做對嗎?當我們察知人工智慧該有的底層邏輯一開始就被掌控住,並且算法可能充滿各種的虛假和政治時,這樣的人工智慧又與日常社交有關。你認為會發生什麼事情?
在還沒有人工智慧宣告成功出世前,社會已經走向M化或者過度消費未來的情況,人工智慧到底是在服務誰?這才是核心問題。
如果真如科學程序,那麼「讓數據自己說話」就不會是將數據套入模型,求參數。而會是讓數據自己選擇模型或模式,能夠被完全驗證,過程能夠清楚被人類知道,一切都是透明的。高階的學術人員是能夠驗證它的一步步程序。
就像工程師測試人工智慧時,用UI介面與它對話,並認為它有情感。但那是它真有情感,還是導入的數據經過拼接後,讓它成為智者且文字排序上帶有抒情?你能證明是人工智慧真有情感,還是因數據排序而生,讓人看了認為有情感?
我是認為後者才是真實的。原因很簡單。因為任何人說的話,那文字排序都能變成一條條的數學式。我們只要對某些文字排序貼上標籤,代表是哪種的情緒反應。經過大量數據導入就能根據文字排序產生的數學式去機率比對,就能知道是要用哪種情緒表現到UI上。
不只是文字排序能表現情緒,聲音也是如此。聲音也能呈現數學式,同樣也是數學式的機率比對,就能知道屬性。再用數學式還原聲音。當然這也要文字排序和聲音兩者的數學式共同產生。
所以相比於主張 - 先建立模型,還不如直接對數據直接建構無數個數學式的數據庫,提供導入數據的特徵或規律比對。
你說這樣做對嗎?當我們察知人工智慧該有的底層邏輯一開始就被掌控住,並且算法可能充滿各種的虛假和政治時,這樣的人工智慧又與日常社交有關。你認為會發生什麼事情?
在還沒有人工智慧宣告成功出世前,社會已經走向M化或者過度消費未來的情況,人工智慧到底是在服務誰?這才是核心問題。
如果真如科學程序,那麼「讓數據自己說話」就不會是將數據套入模型,求參數。而會是讓數據自己選擇模型或模式,能夠被完全驗證,過程能夠清楚被人類知道,一切都是透明的。高階的學術人員是能夠驗證它的一步步程序。
就像工程師測試人工智慧時,用UI介面與它對話,並認為它有情感。但那是它真有情感,還是導入的數據經過拼接後,讓它成為智者且文字排序上帶有抒情?你能證明是人工智慧真有情感,還是因數據排序而生,讓人看了認為有情感?
我是認為後者才是真實的。原因很簡單。因為任何人說的話,那文字排序都能變成一條條的數學式。我們只要對某些文字排序貼上標籤,代表是哪種的情緒反應。經過大量數據導入就能根據文字排序產生的數學式去機率比對,就能知道是要用哪種情緒表現到UI上。
不只是文字排序能表現情緒,聲音也是如此。聲音也能呈現數學式,同樣也是數學式的機率比對,就能知道屬性。再用數學式還原聲音。當然這也要文字排序和聲音兩者的數學式共同產生。
所以相比於主張 - 先建立模型,還不如直接對數據直接建構無數個數學式的數據庫,提供導入數據的特徵或規律比對。