一、分類問題(classification):
我們給這個機器學習的模型學習一組已知答案的數據,舉例如:
X = [0,2,3,3,4,5,6,7,8] Y = Taipei
X = [0,7,3,3,4,5,6,7,8] Y = Kaohsiung
X = [0,4,3,3,4,5,6,7,8] Y = Taichung
X = ...
給了超多組電話號碼,結果是區碼的數據。
我們預期這個模型學到看到一隻電話號碼就可以判別他是哪一個市區,這就是屬於分類問題。
假設模型訓練好後,我們丟入 X = [0,2,1,2,3,4,5,6,7,8]
模型可以給出 Taipei 就代表學習成功了!
二、回歸問題(regression)我們給這個機器學習的模型學習一組已知答案的數據,舉例如:
X = [0,1,2,3] Y = 12
X = [0,3,4,2] Y = 22
X = [0,1,1,1] Y = 23
X = ...
給了超多組亂碼,結果是亂碼的總和。
我們預期這個模型學到看到一組亂碼,可以回丟一個數字。
解釋一下,與分類問題最大的差別就是預測結果,當預測結果是連續的,問題就會是屬於回歸問題,若預測結果是離散的,問題就會屬於分類問題或其他。
回歸問題的實例,可以點這個連結,利用過去六個小時的河川水位與降雨量來預測兩小時後的水位。
三、群聚問題(clustering)給機器學習模型一堆不知道答案的資料,給他一些分群邏輯(如點對點的距離),讓他把資料做分類。
EX: Facebook 人臉辨識
四、概念衍伸(Rule Extraction)
這個比較抽象,它類似於用分析方法找到規則。
比如,你丟了一萬張照片,群聚後發現你跟你姐一直被分在同一類,那你就可以合理的懷疑,你跟你姐可能是同一個爸爸和媽媽。
照片辨識 -> 血緣關係 ,我想這大概就是概念衍生吧!
覺得這太嘴砲沒關係,假如你去做一萬組貨物的銷量回歸預測,發現啤酒跟尿布購買力的週期是一樣,那你就可以合理的懷疑,大家喝完酒都比較容易生小孩,銷量預測 -> 喝酒可以生小孩。