發表文章

目前顯示的是 4月, 2015的文章

人才培訓概念

圖片
基礎人才與中階人才都是屬於實務人才,所以在訓練基礎人才與中階人才時給與他們的訓練就是屬於技能性的訓練,讓他們可以在職場上具有未來三至五年的存活技能。例如:Word排版能力、文字組織能力、EXCEL分析能力、簡報說明能力、專業基本知識能力等。 不過,相比於基礎與中階人才,高端人才可分為兩種,一種是實務人才,另一種則是基礎研究人才。高階實務人才就是目前所見的CEO,而多出來的基礎研究人才,則是做高端研究的人員,這類人員是走在所有實務之前,就如同是開路先鋒一樣,先在各領域研究出新的理論,並且在理論與實務之間還有一層人員進行如何將理論轉為實務的資訊人員。 這群資訊人員將理論轉為實務可用的系統後,這些系統就會被使用在適用的行業內。 因此,在教育體系內同樣也該運用如此方法去落實人才的培訓機制。以目前從高中職、大學、研究所等體制來看,各科系所設計出來的課程規劃多是多種人才的部分技能訓練,換言之,如果就讀單一科系的話,那些人員進入職場就會產生巨大的職能落差。 現階段的人才訓練不是單一科系培訓出來的人員就可以進入職場,反而需要接受更多的訓練後才能上手他們的工作內容。也就是說,現在的工作內容與校園職能培訓並沒有對等上,多數技能都是需要多種不同領域的課程組合在一起,並且內容需要搭配多種能力的訓練。所以在制定所謂核心能力或專業能力的訓練時,更需要注意課程連接性與職場契合度。 例如,基礎課程會是眾多進階課程的基礎。基礎的內容又如何與進階內容結合,可以讓進階內容不需要再次說明基礎內容,如此既可以省時,又可以有效率地讓人員吸收課程內容。 補習班的興起就是課程內容的整合度夠,課程內容各單元間的連接性夠,可以有效率地讓人員吸收課程內容。雖然學歷逐漸無效了,但歸納其原因不外乎就是學習的內容過於理論,流於表面。最終詢問他們在高等教育下學習到什麼可用的內容時,皆是無法答覆出個所以然。當進入職場的新進人員連自己所學習的內容都無法自己整理後說出,那麼等於是他們學習過程沒有任何效果。 教育體制的改革是有必要性的,但是卻不需要繼續僵固下去。 我國培育的人才是為了讓人民在職場上存活,更甚者是可以成為終身志業。絕非現在所見的一灘死水,或是捨教育體系而就證照體系。 最近美國MIT的教授Andraw Lo也鄭重對美國提出報告書,指出美國的科學研發支出下降,影響美國未來的競爭力,特別是其他地區,如歐盟與中國,對科學研發支...

[貨幣銀行學]貨幣就是政府的負債-問世間錢為何物

圖片
用很簡單的影片就能夠展現出貨幣的出現與意義, 為什麼大銀行家可以站在食物鏈的頂端, 他們是怎樣透過貨幣、債券反覆交換而從中獲利,並且產生貨幣創造。 同時,他們也介紹貨幣(currency)與金錢(money)的不同。 貨幣是種借條,而金錢則是具有價值儲存功能。

大資料庫三問

熱門中的熱門議題之一就是大資料庫。 從Google、微軟、Facebook到各家公司都在想盡辦法從過去累積出來的巨量資料內尋找出他們想要的答案,作為決策依據。 有趣的是聽到、看到那麼多大資料庫的消息,連台灣知名的龍頭公司都說他們是用大資料庫解決公司問題。看完相關的 新聞 報導後,大資料庫用來做預警功用是結果,而使用的方法是用統計分析去分析資料,那麼我想提出第一個問題: 大資料庫的數據資料是被用來當作「小」來看「大」嗎? 你認為大資料庫是樣本,才會用統計分析方法去分析那些資料,去找出迴歸模型。那麼,巨量資料是屬於母體?還是樣本?這總得先弄清楚才行。而且,我們還得注意下面的延伸問題: 資料是線性嗎? 運作過程中有將資料轉換以符合線性嗎? 能確定轉換後資料保有「原始」(母體)特性嗎? 資料是非線性時,系統用哪種方法估算?準度多少? 每次新資料進入後,有沒有重新估算預測模型? 有沒有剔除異常值?異常值也是現象之一,該被踢除嗎? 我想他們會說這些都是機密(笑)。 其實,光是看到使用統計分析方法去大資料庫內找規則(模型或模式)就已經令人有點困惑了。因為這違反大數法則概念,換句話說,他們始終都將巨量資料視為樣本,即使已經是巨量了,還是樣本,所以使用樣本的方式估算模型。 那接著,我想問 巨量資料就是呈現常態嗎? 這引發了另一個問題那就是:「 資料有進行測定嗎?有沒有確認資料的分配為何? 」 可別說是使用QQ plot這種方法是用來測定巨量資料的。 若只測定資料是否為常態分配,那僅是冰山一角。 至少也要檢定15種的分配,甚至更多才能夠真正測定資料。有時候那些已知的機率分配不足以告訴我們資料的分配為何,還得用Curve-fitting估算出分配形式,或更進一步確認那種數學模式適合資料。 既然前面問題試圖定義出大資料庫的基本概念,以及大資料庫內的巨量資料規則,那麼我想問的最後第三個問題是 大資料庫要多少資料才算大? 有人可以明確說出大資料庫內的資料要有多少才算是大? 給個例子,如果我將巨量資料視為樣本,進行檢定後發現,10萬筆資料與1億筆資料得到相同拒絕虛無假設的結果。 那麼是10萬筆資料為巨量資料,還是1億筆資料為巨量資料? 若從數量來看,當然要選擇1億筆資料,只是由資料分析角度來看,10萬筆資料就可以知道母體特性,我何必用1億筆資料來知道母體特性呢? 這時候,是資料量的問題,還是分析...