AI 入門課:AI 不等於 ChatGPT!10分鐘帶你搞懂人工智慧基礎知識

AI 入門課:AI 不等於 ChatGPT!10分鐘帶你搞懂人工智慧基礎知識

當我們談論人工智慧(AI),你腦海中浮現的可能是 ChatGPT 的聰明對答,或是科幻電影裡能獨當一面的機器人。然而,AI 的內涵遠不止於此。這篇文章將帶你從 AI 的起源、歷史到關鍵字解析,一步步解構這個龐大領域的運作邏輯,讓你一次性掌握人工智慧的核心概念。

一、AI 的根源:始於古希臘的哲學假設

人工智慧(AI)的誕生,源於一個大膽的假設:人類的思維過程可以被機械化。這個看似現代的想法,其實可以追溯到數千年前的哲學討論。從古希臘到 17 世紀,萊布尼茲(Gottfried Wilhelm Leibniz)、霍布斯(Thomas Hobbes) 與笛卡兒(René Descartes) 等哲學家都曾提出,所有理性思維都能像代數或幾何一樣,被系統化並進行計算,這為後來的 AI 發展鋪設了第一條軌道。

到了 1950 年,被譽為「計算機科學之父」的阿蘭·圖靈(Alan Turing),首次在論文中回答了「電腦能思考嗎?」這個問題,並提出了著名的圖靈測試(Turing Test)。他提出,如果一位人類提問者在與兩位玩家(一位是人類,一位是電腦)進行文字對話後,無法辨別出誰是電腦,那麼這台電腦就可以被視為具備人類水準的智能。

Figure1. Turing test (source:https://omq.ai/blog/history-of-ai/)

這個測試的劃時代意義在於,它將抽象的「智慧」概念,轉化為一個可觀測、可執行的實驗標準。然而,測試本身也充滿爭議。例如,後續美國哲學教授約翰·瑟爾(John Searle)提出的中文房間論證(the Chinese Room Argument)就質疑「模仿」不等於「理解」。雖然如此,圖靈測試無疑為 AI 研究設定了早期的目標,也為整個領域奠定了重要的哲學基礎。

緊接著在 1956 年,史丹福大學教授約翰·麥卡錫(John McCarthy)在達特茅斯會議上首次創造了「人工智慧」這個詞,並將其定義為「製造智慧機器的科學與工程」。時至今日,這個定義仍然是理解 AI 的核心。

二、AI 的宏觀歷史:從黃金時代到全面爆發

人工智慧的發展並非一帆風順,它經歷了數次的高潮與低谷,才走到今天。

  • 黃金時代(1956–1974):在著名的達特茅斯(Dartmouth)會議上,「人工智慧(Artificial Intelligence)」概念首次被正式提出。此時的 AI 研究主要集中在「推理即搜尋(Reasoning as Search)」,研究者們試圖用演算法解決數學定理與遊戲策略等複雜問題。
  • 第一次熱潮與低谷(1980–1987):隨著專家系統(Expert System)的出現,AI 迎來了短暫的熱潮。這類系統透過龐大的規則與知識庫來模擬人類專家的決策過程。然而,因其維護成本高昂且難以升級,AI 很快再次陷入低谷。
  • 穩步發展期(1993–2011):隨著摩爾定律(Moore’s Law)推動運算能力指數級增長,AI 逐漸走出實驗室,進入實際應用。最具代表性的事件是 1997 年,IBM 的深藍(Deep Blue)電腦擊敗了世界西洋棋王,讓大眾開始意識到 AI 的巨大潛力。
  • 深度學習時代(2011–至今):這個時代,深度學習(Deep Learning)成為核心驅動力,讓影像與語音辨識的能力達到前所未有的高度。而生成式 AI(Generative AI)的出現,更是開啟了聊天機器人與創意生成的新時代,徹底改變了 AI 在人們生活中的角色。
Figure2. The history of artificial intelligence (source:https://www.linkedin.com/pulse/history-artificial-intelligence-timeline-innovation-from-bansal-cpa-asw6f/)

三、AI 的類型:從「專才」到「通才」

AI 並非單一技術,根據其能力強弱,我們可以將其區分為兩種類型:

  • 弱人工智慧(Narrow AI):也被稱為狹義 AI,這類 AI 只能專注於執行單一特定任務,例如語音助理、影像辨識或遊戲對戰。目前我們生活中絕大多數的 AI 應用都屬於此類。
  • 強人工智慧(General AI):也被稱為通用 AI,這類 AI 具備處理任何任務的能力,擁有類似人類的學習、推理與理解能力。強人工智慧目前仍處於理論階段,尚未實現。
Narrow AI vs. General AI (source:https://www.interaction-design.org/literature/topics/narrow-ai)

四、AI 的核心運作:知識架構與技術基石

人工智慧(AI)是一個廣泛的領域,而我們常聽到的許多詞彙,如機器學習、深度學習等,都只是 AI 這個大家族中的一員。要了解 AI,必須先理清這些關鍵概念之間的從屬關係。

  1. AI (Artificial Intelligen, AI):AI 的目標是創造能夠模仿人類智慧、甚至超越人類思考能力的電腦系統。這包含了從簡單的決策邏輯,到複雜的語音辨識、圖像分析等所有技術。
  2. 機器學習 (Machine Learning, ML):機器學習是實現 AI 的一種重要方法。它的核心思想是讓機器透過大量的數據自行學習,而非透過程式設計師事先設定好的明確指令。你可以想像成給機器看數百萬張貓的照片,讓它自己歸納出「貓」的特徵,而不是手動告訴它「貓有鬍鬚和尖耳朵」。
  3. 深度學習 (Deep Learning, DL):深度學習是機器學習的一個子集。它主要使用一種稱為「深度神經網絡」(Deep Neural Network)的複雜模型,這種模型有多個層次,能夠自動從數據中提取更抽象、更複雜的特徵,因此在圖像、語音、文字等領域取得了巨大的成功。
  4. 自然語言處理 (Natural Language Processing, NLP):NLP 是人工智慧的一個跨學科領域,專門研究如何讓電腦理解、解釋和產生人類的語言。從 Google 翻譯到 Siri 語音助理,都屬於 NLP 的應用範疇。
  5. 大型語言模型 (Large Language Model):LLM 是目前 NLP 領域最熱門的技術之一,它是一種利用深度學習來處理和生成大量語言資料的模型。ChatGPT 就是一個典型的 LLM 應用,它的強大之處在於其龐大的規模和卓越的語言生成能力。
  6. 對話式人工智慧 (Conv. AI):對話式 AI 的目標是模擬人類對話,讓電腦能夠進行自然流暢的互動。這類系統常常結合了 NLP 與 LLM 技術,例如客服聊天機器人、虛擬助手等。
Figure3. Relationship between AI, ML, DL, NLP, and Conversational AI terms (source:https://blog.miarec.com/contact-centers-ai-definition)
總結來說,人們關注的往往是 AI 中的單一技術,但 AI 這個領域的真正核心,是其解決問題並發揮作用的能力。

說了這麼多,AI 到底是甚麼?事實上,AI 到現在還沒有明確用一句話就能說清楚的定義,但我們可以參考一些權威機構的觀點。根據歐盟《人工智慧法案》的定義,人工智慧系統(AI系統)是一種利用多種特定技術和方法開發的軟體。其主要功能是針對一組預設目標,產生內容、預測、建議或決策等輸出,並影響其所互動的環境。

法案中明確列出了 AI 系統所採用的技術,主要分為三大類:

  • 機器學習方法 (Machine Learning methods):涵蓋監督式學習 (supervised learning)、非監督式學習 (unsupervised learning) 和強化學習 (reinforcement learning),以及深度學習 (deep learning) 等技術。
  • 基於邏輯和知識的方法 (Logic and knowledge-based methods):例如知識表示 (knowledge representation)、知識庫 (knowledge bases)、推理引擎 (reasoning and deduction engines) 和專家系統 (expert systems)。
  • 統計、貝葉斯估計、搜尋與最佳化方法 (Statistical methods, Bayesian estimation, search and optimization methods)

在這些技術中,機器學習(Machine Learning)因其強大的自我學習能力,成為了當今 AI 領域的核心驅動力量。接下來,我們將深入剖析機器學習的三大基石:數據(Data)、模型(Model)與演算法(Algorithm)。

五、機器學習三大基石:數據、模型與演算法

你可以將這三者想像成一個學習的過程:數據是學習的「課本」,提供了知識和經驗;模型是學習者的「大腦」,負責吸收和理解知識;而演算法則是「學習方法」,指導大腦如何從課本中提取規律。這三者緊密協作,讓機器從單純的指令執行者,轉變為能從經驗中學習的智慧系統。

Figure4. 機器學習 (ML) 的三大基石(作者繪製)

1. 數據(Data):AI 的課本

數據是 AI 學習的基礎。它可以是文字、圖像、數值等任何形式的資訊,而這些數據的呈現方式至關重要:

  • 數值資料是最直觀的形式,例如身高、體重等。
  • 文本資料需要被轉換,例如透過「詞袋(Bag-of-Words)」模型,將句子中的詞彙對應成數值向量。舉例來說,「我是一隻貓」這個句子,會被轉換成一個向量,標示出「我」、「是」、「一隻」、「貓」等詞彙是否出現。
Figure5. Bag of words model in NPL (source:https://ayselaydin.medium.com/4-bag-of-words-model-in-nlp-434cb38cdd1b)
  • 影像資料則是透過像素陣列(pixel array)的方式,將每一張圖片轉換成一個巨大的數字矩陣。
Figure6. Image of Abraham Lincoln as a matrix of pixel values (source:https://www.researchgate.net/figure/mage-of-Abraham-Lincoln-as-a-matrix-of-pixel-values_fig1_330902210)

數據又可分為兩種,適用於不同的學習方式:

  • 帶標籤數據(Labeled Data):每個資料點都有明確的標籤,是監督式學習(Supervised Learning)的基礎。例如,在圖像分類任務中,每一張圖片都附有「貓」或「狗」的標籤。
  • 未標記數據(Unlabeled Data):只有原始資料,沒有任何標籤,雖然更容易取得,但通常也較為雜亂,需要透過無監督式學習來分析。
Figure7. Labeled data and unlabeled data (source:https://proceedings.mlr.press/v119/guo20i/guo20i.pdf)

此外,除了從現實世界收集的真實數據,合成數據(Synthetic Data) 也越來越重要。舉例來說,在訓練自動駕駛車輛時,我們可以用電腦模擬數百萬種道路情況,生成海量的合成數據,以彌補真實數據的不足並提升模型的通用性。

2. 模型(Models):AI 的大腦

模型是 AI 用來理解世界的數學結構。它就像一個空白的大腦,機器學習的過程,本質上就是不斷調整模型中的參數,讓它能從數據中找出規律。

在選擇模型時,我們常需要在模型的可解釋性(Interpretability)準確性(Accuracy)之間做出權衡。模型可以根據其性質分為多種類型,例如處理不確定性的機率模型(Probabilistic Model),或是執行迴歸(Regression)與分類(Classification)任務的模型。可解釋性高的模型,其運作原理相對透明,但準確性可能受限;反之,準確性高的複雜模型,其內部運作則如同一個「黑盒子」,難以解釋。下圖展示了常見模型在這一權衡中的位置:

Figure8. Interpretability of different models (source:https://www.analyticsvidhya.com/blog/2019/08/decoding-black-box-step-by-step-guide-interpretable-machine-learning-models-python/)

常見模型類型

  • 決策樹(Decision Tree):一種樹狀結構的模型,優點是容易理解想像一個「決策流程圖」,從一個問題開始,根據不同的答案分支,最終做出決策。
  • k-近鄰(k-Nearest Neighbors, k-NN) 這是一個簡單直觀的模型,它會根據輸入點距離最近的 k 個訓練樣本來進行預測。例如,在分類時,它會透過鄰居的多數投票來決定一個物件的類別;在迴歸時,它會將 k 個最近鄰的值取平均來作為預測值。
  • 隨機森林(Random Forest):這是一種集成方法(Ensemble Method),透過建立大量的決策樹來修正單一決策樹可能存在的過擬合問題。
  • 支援向量機(Support Vector Machine, SVM):旨在找到將不同類別資料最佳分離的超平面(Hyperplane)的分類器。想像在二維空間中,SVM 會畫一條直線,將兩組數據點分開,並讓這條線與兩邊的數據點距離最遠。
  • 神經網路(Neural Network):受生物神經網路啟發,由相互連接的人工神經元組成,在視覺、語音等任務上取得了巨大成功。

訓練中的挑戰:過擬合與欠擬合

  • 欠擬合(Underfitting):當模型過於簡單,無法捕捉資料中的基本模式時。就像一個學生只學習了非常簡單的數學公式,卻無法解決複雜的應用題。
  • 過擬合(Overfitting):當模型過於複雜,過度記憶訓練資料中的雜訊,導致在處理新資料時表現不佳。就像一個學生死記硬背了所有練習題的答案,但遇到沒見過的新題目就完全不會了。
Figure9. Underfitting, balanced and overfitting models (source:https://docs.aws.amazon.com/machine-learning/latest/dg/model-fit-underfitting-vs-overfitting.html)

3. 演算法(Algorithms):AI 的學習方式

演算法是一組明確的指令,它決定了模型要如何從數據中學習。這些學習方式主要可分為以下幾類:

  • 監督式學習(Supervised Learning) 演算法透過帶標籤的數據進行學習,適合用來進行分類迴歸。例如,向 AI 展示數千張標示「貓」或「非貓」的圖片,它就能學會辨識新圖片中是否有貓。
  • 無監督式學習(Unsupervised Learning) 與監督式學習相反,這種模式使用不帶標籤的數據,讓 AI 自己去發現數據中的結構,適合用來聚類降維。例如,讓 AI 分析數百萬個客戶的消費數據,它可能會自動將這些客戶分成「高消費群體」、「折扣敏感群體」等,而這些分類是事先未定義的。
  • 強化學習(Reinforcement Learning) 這種方式的核心是最大化累積獎勵。演算法會在一個複雜環境中不斷嘗試,並根據行為的好壞獲得獎勵或懲罰,最終學會如何達成目標。最經典的例子就是讓 AI 玩圍棋,當它贏得比賽,就給予獎勵,最終它會學習到如何下出最佳棋步。

其他重要的學習模式

除了上述三種基本模式,還有幾種特殊的學習方式在不同場景下發揮關鍵作用:

  • 主動學習(Active Learning) 這是一種特殊的學習模式,當標籤數據成本高昂時特別有用。AI 演算法能夠主動向使用者詢問最有價值的數據點標籤,藉此以更少的標籤資料達到更好的學習效果。
  • 異常檢測(Anomaly Detection) 也稱為離群值檢測,通常與資料探勘結合使用。它的目的是辨識與大多數數據有顯著差異、引起懷疑的罕見事件。最經典的例子就是透過尋找與使用者正常消費行為不符的交易來偵測信用卡詐欺,它也能應用於辨識醫療問題或結構缺陷等。

範式轉移:深度學習的突破

過去十年,隨著深度學習技術的突破,電腦視覺領域發生了範式轉移(Paradigm Shift)。現在,與其透過複雜的程式碼來「解釋」圖像,直接將圖像展示給 AI 進行學習,反而成為更有效的方式。這不僅推動了電腦視覺的巨大進步,也對語音與語言建模產生了深遠的影響。

Figure10. A discriminately trained, multi scale, deformable part mode. CVPR. (source: https://vision.ics.uci.edu/papers/FelzenszwalbMR_CVPR_2008/FelzenszwalbMR_CVPR_2008.pdf)

結語:AI 無處不在,而你已不再是門外漢

透過理解 AI 的本質、歷史,以及其核心運作的基石 — 機器學習,我們能更清楚地看到,這門技術已不再是遙遠的科幻概念,而是無處不在的日常工具。

以機器學習為核心的 AI 已經無縫融入我們生活的方方面面,從個人助理到產業決策。例如,在電子商務中,它能根據你的購買記錄推薦產品;在社群媒體上,它能精準過濾垃圾郵件並分析用戶情緒;在金融服務中,它則能即時偵測出信用卡詐欺;而在交通領域,機器學習更是用於交通管制與安全監控的關鍵技術。此外,在醫療健康上,AI 正協助藥物開發、疾病診斷,甚至輔助機器人手術;在虛擬助手上,則是幫助自然語言處理與生成,大大提升了人機互動的便利性。

Figure11. Example application areas of ML(source: https://blog.quantinsti.com/machine-learning-basics/)

從哲學的起源到實際的技術應用,AI 的旅程充滿了挑戰與機遇。透過閱讀這篇文章,你已經掌握了這些關鍵的基礎知識,相信下次當朋友再提起 AI 相關話題時,你將能夠給出比「ChatGPT」更具深度與廣度的見解。


這篇文章源於我 2025 年在 Aalto University 交換時,修習由 Prof. Arno Solin 主講的 AI 入門課程「Introduction to Artificial Intelligence」。這門課的內容對我這個 AI 新手幫助非常大,因此我將部分課堂筆記與額外補充的資料整理成文,希望能為更多對 AI 有興趣的朋友提供一個友善的入門路徑。

如果這篇文章對你有幫助,歡迎給我拍手鼓勵,讓更多人能一同踏上這趟 AI 學習之旅!

Subscribe to DITLDESIGN

Sign up now to get access to the library of members-only issues.
Jamie Larson
Subscribe