人工智慧常用縮寫詞彙詳解
I. 導論
- 人工智慧領域縮寫詞的激增: 人工智慧(AI)領域正經歷前所未有的快速發展,新的概念、技術和模型不斷湧現。這種蓬勃發展往往伴隨著大量縮寫詞和簡稱的使用,以便於溝通和參考 1。正如研究資料 1 所述,AI 相關的縮寫詞列表似乎不斷擴大,令人困惑。這突顯了編制一份清晰詳盡詞彙表的需求。研究資料 2 也指出,像 LLM、RAG 和 GPT 這樣的 AI 縮寫詞非常普遍,不僅在技術討論中頻繁出現,也越來越多地出現在主流媒體上。這種現象表明,理解這些縮寫詞對於掌握 AI 的發展至關重要。大量的縮寫詞,正如 1 和 2 中所提到的,可能會成為新入門者甚至領域內人士理解的障礙。因此,一個整合性的資源對於消除這種障礙至關重要。AI 的快速發展催生了新的技術和模型。為了簡化對這些複雜主題的溝通,人們採用了更短的形式,即縮寫詞。隨著發展的加速,縮寫詞的數量也隨之增加,這就產生了對一個能夠解釋這些縮寫詞的資源的需求。
- 理解人工智慧術語的重要性: 對於在 AI 或相關領域工作的專業人士而言,理解這些縮寫詞對於有效的溝通、理解研究論文和產業報告以及掌握最新的進展至關重要。對於那些希望進入該領域或僅僅想更好地理解 AI 的個人來說,掌握常見的縮寫詞是瀏覽線上資源、新聞文章和相關討論的基礎。3 明確指出,「理解這些 AI 縮寫詞是建立 AI 知識的基礎。」這直接支持了提供這樣一份詞彙表的重要性。理解和使用 AI 縮寫詞的能力顯著影響個人參與和貢獻該領域的能力。缺乏理解可能會導致誤解並阻礙學習。AI 是一個技術領域,有其自身的專業術語,而縮寫詞是這些術語的重要組成部分。理解這些縮寫詞對於理解 AI 領域的技術討論、研究和新聞是必要的。這種理解對於專業人士和學習者都至關重要。
- 本報告的目的與範圍: 本報告旨在提供一份包含 100 個常用 AI 縮寫詞的綜合詞彙表,其中包含其英文和中文全稱以及清晰的功能解釋。詞彙表將涵蓋廣泛的 AI 相關術語,包括來自機器學習、深度學習、自然語言處理和一般智能自動化領域的術語。本報告旨在為任何希望揭開 AI 語言神秘面紗的人提供有價值的參考。
II. 常用人工智慧縮寫詞彙詳解(A Comprehensive Glossary of Common AI Short Forms)
- 本節將提供一個詳細的表格,該表格包含以下欄位:「AI 縮寫詞」、「英文全稱」、「中文全稱」和「功能解釋」。表格中的條目將從提供的研究資料中整理,並補充其他常用的 AI 縮寫詞,以達到 100 個的目標。
- 子章節(縮寫詞分類): 為了提高可讀性和組織性,詞彙表可以根據 AI 術語的領域或類別進一步劃分為子章節。這將允許使用者快速找到與其特定興趣領域相關的縮寫詞。潛在的類別包括:
- 通用人工智慧與智能自動化: 廣泛與人工智慧及其在自動化領域的應用相關的術語。
- AGI: Artificial General Intelligence (通用人工智能) – 指一種假設的 AI 形式,其智力在廣泛的任務和認知能力上與人類相當或超越人類 3。研究資料 5 將 AGI 定義為一種假設的 AI,在多個領域具有類似人類的智慧。研究資料 6 強調這是 AI 領域的下一個偉大進展。AGI 是 AI 研究的一個長期目標,其實現將代表一個重要的里程碑。在定義了 AI 及其在 IA 中的應用之後,邏輯上應該包含 AGI,它代表了未來更先進的 AI 形式。
- AI: Artificial Intelligence (人工智能) – 指研究、開發用於模擬、延伸和擴展人類智能的理論、方法、技術及應用系統的一門新的技術科學 1。研究資料 8 提供了一個簡潔的定義:「人工智慧描述了機器模仿人類智慧的能力。」研究資料 9 提到 AI 使用機器學習演算法來分析大量資料,以檢測異常和模式。雖然定義看似簡單,但正如 8 中所指出的,AI 的實際應用涉及複雜的系統和演算法。使用者詢問常見的 AI 縮寫詞,而 AI 本身就是最基本的縮寫詞。重要的是首先確立最廣泛的定義,然後深入研究其子領域。
- API: Application Programming Interface (应用程序编程接口) – 指一組規則和協定,允許不同的軟體應用程式進行通訊和交換資料 7。研究資料 7 定義了 API 及其在促進應用程式之間整合中的作用。研究資料 9 也在 IT 縮寫詞的背景下提到了 API。API 對於透過使不同的組件和服務能夠無縫協同工作來構建複雜的 AI 系統至關重要。AI 系統通常依賴於各種組件的整合,而 API 是這種整合的關鍵。
- BPM: Business Process Management (业务流程管理) – 指設計、執行、監控和優化業務流程的實踐。AI 和智能自動化通常與 BPM 相結合 7。研究資料 7 解釋了 BPM 工具如何透過自動化工作流程來優化流程。BPM 為應用 AI 以改進業務運營提供了一個框架。BPM 是許多智能自動化技術應用的背景。
- Chatbot: (聊天机器人) – 指一種模擬人類對話的軟體應用程式,通常用於客戶服務或信息檢索。許多現代聊天機器人由 AI(尤其是 NLP 和 LLM)驅動 1。研究資料 1 列出了「聊天機器人或 AI 聊天機器人」。研究資料 2 提到 LLM 是聊天機器人的基礎。研究資料 8 將 ChatGPT 稱為 OpenAI 開發的聊天機器人。研究資料 4 將其定義為模仿人類對話。聊天機器人是 AI 在日常生活中的一個突出且日益複雜的應用。聊天機器人是 AI 的一個常見且可見的應用。
- Cloud Computing: (云计算) – 指透過網際網路(「雲端」)傳遞運算服務,包括伺服器、儲存、資料庫、網路、軟體、分析和智慧。許多 AI 服務和平台都透過雲端託管和存取 7。雲端運算普及了對強大運算資源的存取,並促進了 AI 應用程式的大規模開發和部署。現代 AI 的基礎設施通常依賴於雲端運算。
- IA: Intelligent Automation (智能自动化) – 指利用 AI 技術來自動化任務和流程,通常超越傳統自動化,並結合了學習和決策能力 9。研究資料 7 討論了智能自動化,並列出了幾個相關的縮寫詞,如 OCR、IoT 和 RPA。研究資料 9 將 IA 定義為使用 ML 或 AI 來管理流程和基礎設施的 IT 自動化工具。IA 代表了 AI 的實際應用,旨在提高各個領域的效率並減少人工干預。在基本的 AI 定義之後,IA 是一個關鍵的應用領域。強調如何使用 AI 來智能地自動化任務非常重要。
- IoT: Internet of Things (物联网) – 指一個由相互連接的設備、物體和感測器組成的網路,它們可以收集和交換數據 7。研究資料 7 定義了 IoT 及其在數據收集中的作用。IoT 設備產生的大量數據為 AI 和智能自動化系統提供了寶貴的輸入。IoT 為智能自動化中的 AI 應用提供了重要的數據來源。
- OCR: Optical Character Recognition (光学字符识别) – 指一種將圖像中的文本(印刷或手寫)轉換為機器可讀文本的技術 7。研究資料 7 定義了 OCR 及其在各個行業中的應用。OCR 是將文檔數位化並將非結構化數據整合到自動化工作流程中的關鍵技術。OCR 是一種經常在智能自動化中使用的實用技術。
- RAD: Rapid Application Development (快速应用开发) – 指一種強調速度和靈活性的軟體開發方法,通常使用低代碼平台。由於 AI 工具越來越多地整合到 RAD 平台中,因此與 AI 相關 7。研究資料 7 將 RAD 平台描述為低代碼解決方案。RAD 平台使得構建 AI 驅動的應用程式變得更容易和更快。快速開發的趨勢也適用於 AI 應用程式。
- RPA: Robotic Process Automation (机器人流程自动化) – 指一種使用軟體機器人來自動化重複性、基於規則的任務的技術,這些任務通常由人類執行 2。研究資料 2 將 RPA 描述為在程式中模仿人類行為以提高運營效率。研究資料 7 強調 RPA 是自動化結構化業務流程的軟體。RPA 是 AI 在商業領域中實際且廣泛採用的應用,用於簡化運營。IA 通常涉及 RPA,因此包含此術語並解釋其在自動化特定任務中的作用至關重要。
- SaaS: Software as a Service (软件即服务) – 指一種軟體分發模型,第三方供應商託管應用程式並透過網際網路向客戶提供。許多 AI 工具和平台都以 SaaS 的形式提供,因此與 AI 相關 7。研究資料 7 描述了 SaaS 及其可擴展性和支援等優勢。SaaS 模型顯著降低了存取和使用 AI 技術的門檻。AI 的部署通常透過雲端服務進行,而 SaaS 是這種部署的常見模型。
- TPU: Tensor Processing Unit (张量处理器) – 指 Google 專門為神經網路處理開發的應用程式特定積體電路 (ASIC),為 AI 工作負載提供進一步的加速 10。研究資料 10 將其定義為用於神經網路處理的 ASIC。TPU 代表了 AI 硬體的進一步優化,展示了專用計算對於該領域的重要性。除了 GPU 之外,其他專用硬體(如 TPU)對於 AI 的發展也至關重要。
- UX: User Experience (用户体验) – 雖然嚴格來說不是 AI 術語,但在 AI 驅動的介面和應用程式的背景下,它越來越重要,指的是使用者與產品或服務互動的整體體驗 7。研究資料 7 將 UX 定義為使用者如何與數位產品和服務互動。隨著 AI 越來越融入日常生活,對使用者體驗的關注對於成功採用至關重要。許多 AI 應用程式涉及使用者互動。因此,包含 UX 可以為 AI 的部署提供更廣泛的背景。
- XAI: Explainable AI (可解释性人工智能) – 指 AI 的一個領域,專注於開發方法和技術,使 AI 系統的決策和行為對人類來說是可以理解的 2。研究資料 2 強調 AI 決策的透明度和可理解性。研究資料 2 強調其專注於提供清晰的解釋。研究資料 11 將其定義為使 ML 演算法及其結果更易於解釋。隨著 AI 系統變得越來越複雜並部署在關鍵應用中,對可解釋性的需求越來越高,以確保信任和責任。隨著複雜 AI 的日益普及,可解釋性對於信任和理解變得至關重要。
- 機器學習 (ML): 與機器學習的核心方法和概念相關的縮寫詞。
- Adam: Adaptive Moment Estimation (自适应矩估计) – 指一種用於訓練深度學習模型的優化演算法,它結合了 AdaGrad 和 RMSProp 的優點 10。研究資料 10 僅將其列為一種優化演算法。Adam 由於其自適應學習率能力,是一種在深度學習中廣泛使用且有效的優化器。Adam 是一種流行且有效的優化演算法,使其與詞彙表相關。
- ANN: Artificial Neural Network (人工神经网络) – 指一種受人腦結構和功能啟發的計算模型,由排列在層中的互連節點(神經元)組成 4。研究資料 12 提到 ANN 是深度學習的基礎。研究資料 10 描述了它們的結構以及受人腦的啟發。研究資料 4 將其定義為受大腦結構啟發的電腦系統。ANN 是許多先進 AI 系統的基礎,尤其是在深度學習領域。由於 DL 依賴於 ANN,因此定義這種底層結構非常重要。
- AUC (Area Under the ROC Curve): (ROC 曲线下面积) – 用於評估二元分類模型效能的指標,表示模型區分正類別和負類別的能力 13。研究資料 13 將其列為常見的 ML 縮寫詞。研究資料 14 將其解釋為介於 0.0 和 1.0 之間的數字,表示模型區分類別的能力。研究資料 11 將其定義為模型準確預測實際陽性實例的陽性結果的信賴度機率。AUC 提供了跨不同閾值分類器效能的綜合衡量標準。AUC 是另一個用於評估二元分類模型的重要指標。
- Backpropagation: (反向传播) – 指一種用於訓練人工神經網路的演算法,它透過計算損失函數相對於網路權重的梯度,並調整權重以最小化損失 14。研究資料 14 將其描述為用於減少損失的後向傳播。研究資料 12 提到它是 DL 演算法用於學習的過程。研究資料 11 將其定義為一種廣泛使用的演算法,用於訓練前饋神經網路。反向傳播是現代深度學習的基石,使訓練複雜的神經網路成為可能。反向傳播是訓練神經網路的核心機制,使其對於詞彙表至關重要。
- Bias: (偏差) – 在機器學習中,偏差指的是模型預測中的系統性錯誤,通常源於模型構建過程中做出的假設或訓練數據中存在的偏差 3。研究資料 4 將其定義為 AI 為簡化任務而做出的假設。研究資料 3 將其包含在詞彙表中。解決和減輕 AI 系統中的偏差對於公平和倫理考量至關重要。偏差是 AI 中一個重要的倫理問題,使其成為一個需要定義的重要術語。
- CNN: Convolutional Neural Network (卷积神经网络) – 指一種特別適用於處理網格狀數據(如圖像和影片)的神經網路 13。研究資料 13 將其列為常見的 ML 縮寫詞。研究資料 10 強調其專為結構化網格數據設計。研究資料 17 將其包含在深度學習縮寫詞列表中。由於 CNN 能夠自動學習空間特徵的層次結構,因此徹底改變了電腦視覺任務。CNN 是一種廣泛使用的 ANN,具有特定的應用,使其成為一個需要包含的重要術語。
- Cross-Validation: (交叉验证) – 指一種統計方法,用於透過將數據劃分為多個子集,在某些子集上訓練模型,並在剩餘子集上評估模型來評估機器學習模型的效能 13。研究資料 13 將其列為常見的 ML 縮寫詞。與單一的訓練-測試分割相比,交叉驗證提供了對模型在未見數據上的效能更穩健的估計。模型評估是 ML 的關鍵步驟,而交叉驗證是一種標準技術。
- Data Augmentation: (数据增强) – 指用於透過創建現有數據的修改副本或從現有數據合成新數據來人工增加訓練數據集大小的技術 11。研究資料 11 在改進模型訓練的背景下提到了它。數據增強可以提高機器學習模型的穩健性和泛化能力,尤其是在處理有限數據時。數據增強是一種有助於提高模型效能的技術。
- DNN: Deep Neural Network (深度神经网络) – 指輸入層和輸出層之間有多個層的神經網路,使其能夠學習數據的複雜表示 13。研究資料 13 將其列為常見的 ML 縮寫詞。研究資料 10 將其定義為具有多個層以學習複雜表示。研究資料 17 將其包含在深度學習縮寫詞列表中。DNN 是一個通用術語,涵蓋了深度學習中使用的許多先進的神經網路架構。DNN 是深度學習中的一個基本術語,需要包含以確保完整性。
- F1 Score: (F1 分数) – 用於評估分類模型效能的指標 14。研究資料 15 將 F1 分數定義為精確率和召回率的調和平均值。這些指標提供了比簡單準確度更細緻的分類器效能評估,尤其是在數據集不平衡的情況下。模型評估涉及各種指標,而不僅僅是準確度。精確率、召回率和 F1 分數對於分類任務很重要。
- Feature Engineering: (特征工程) – 指從原始數據中選擇、轉換和創建特徵的過程,這些特徵可用於提高機器學習模型的效能 14。研究資料 14 將特徵工程列為 AutoML 可以執行的任務。有效的特徵工程通常比僅僅使用更複雜的演算法更能顯著影響模型效能。輸入數據的品質顯著影響 ML 模型的效能,而特徵工程是提高這種品質的關鍵。
- GAN: Generative Adversarial Network (生成对抗网络) – 指一種由兩個神經網路(生成器和鑑別器)組成的神經網路架構,它們以對抗的方式進行訓練以生成逼真的合成數據 2。研究資料 2 描述了生成器創建數據,鑑別器區分真實數據和生成數據。研究資料 10 強調其用於生成逼真的合成數據。GAN 在生成高品質圖像、影片和其他類型的數據方面展現了卓越的能力。GAN 代表了 AI 中一種獨特且強大的生成建模方法。
- GRU: Gated Recurrent Unit (门控循环单元) – 指另一種與 LSTM 類似的 RNN 架構,但結構更簡單,通常以更少的參數提供相當的效能 13。研究資料 13 將其列為常見的 ML 縮寫詞。研究資料 10 強調其更簡單的結構和計算效率。在許多序列建模任務中,GRU 提供了一種比 LSTM 更具計算效率的替代方案。GRU 是 LSTM 的密切相關且經常使用的替代方案,使其與詞彙表相關。
- Hyperparameter: (超参数) – 指機器學習模型的參數,這些參數在學習過程開始之前設定,並控制模型訓練的各個方面,例如學習率或神經網路中的層數 14。研究資料 14 提到超參數調整是 AutoML 可以執行的任務。正確調整超參數對於從機器學習模型中獲得最佳效能至關重要。超參數在 ML 模型的效能中起著重要作用。
- Loss Function: (损失函数) – 指量化模型預測與實際目標值之間誤差的函數,透過指示模型執行效果如何來指導學習過程 14。研究資料 14 在前向和後向傳播的背景下提到了損失。研究資料 10 提到最小化損失函數。損失函數的選擇對於訓練一個有效解決特定任務的模型至關重要。理解損失函數的概念對於理解 ML 模型如何訓練至關重要。
- LSTM: Long Short-Term Memory (长短期记忆网络) – 指一種特定的 RNN 架構,它透過解決梯度消失問題,特別擅長學習序列數據中的長期依賴關係 13。研究資料 13 將其列為常見的 ML 縮寫詞。研究資料 10 解釋了其學習長期依賴關係的能力。研究資料 16 提到其用於順序分析時間數據。LSTM 在各種 NLP 任務和其他基於序列的應用中取得了巨大的成功。LSTM 是對基本 RNN 的重大改進,並且被廣泛使用,因此值得包含在內。
- MAE: Mean Absolute Error (平均绝对误差) – 另一個用於衡量迴歸模型誤差的指標,表示預測值和實際值之間絕對差值的平均值 13。研究資料 13 列出了 MAPE(平均絕對百分比誤差),它與 MAE 相關。MAE 提供了對平均誤差大小更直接的解釋。MAE 是另一個用於評估迴歸模型的常見指標。
- ML: Machine Learning (机器学习) – 指人工智慧的一個分支,專注於使電腦能夠從數據中學習,而無需明確地進行程式設計 1。研究資料 2 稱 ML 為 AI 的基礎分支。研究資料 8 將其定義為允許機器從數據和過去的經驗中自動學習,以在最少的人工干預下識別模式並做出預測。研究資料 18 將其描述為專注於透過經驗和數據改進的演算法。ML 是許多 AI 進展的引擎,使系統能夠隨著時間的推移進行適應和改進。此縮寫詞幾乎出現在所有資料片段中,突顯了其核心作用。ML 是 AI 領域的核心概念,其定義和重要性需要在詞彙表的早期階段明確確立。
- Overfitting: (过拟合) & Underfitting: (欠拟合) – 機器學習中常見的問題,模型過度學習訓練數據(過擬合)或未能捕獲數據中的底層模式(欠擬合),導致對新數據的泛化能力差 4。平衡過擬合和欠擬合是機器學習模型開發的核心挑戰。這些是 ML 中學習者應該意識到的常見陷阱。
- Precision: (精确率), Recall: (召回率) – 用於評估分類模型效能的指標 14。研究資料 14 定義了準確度,並提到了真陽性、真陰性、假陽性和假陰性,這些都與精確率和召回率相關。這些指標提供了比簡單準確度更細緻的分類器效能評估,尤其是在數據集不平衡的情況下。模型評估涉及各種指標,而不僅僅是準確度。精確率和召回率對於分類任務很重要。
- Regularization: (正则化) – 指用於防止機器學習模型過擬合的技術,透過向損失函數添加懲罰項來阻止過於複雜的模型。正規化是提高 ML 模型泛化能力的關鍵工具。由於過擬合是一個常見問題,因此提及正規化技術非常重要。
- ReLU: Rectified Linear Unit (修正线性单元) – 指神經網路中常用的激活函數,如果輸入為正,則直接輸出輸入,否則輸出零,從而在模型中引入非線性 14。研究資料 14 將其列為一種流行的激活函數。研究資料 10 解釋了其非線性性質。ReLU 由於其簡單性和在訓練深度網路方面的有效性,已成為標準的激活函數。激活函數是神經網路的關鍵組件,而 ReLU 是一種廣泛使用的激活函數。
- RL: Reinforcement Learning (强化学习) – 指一種機器學習類型,其中代理透過與環境互動並接收對其行為的獎勵或懲罰來學習做出決策 2。研究資料 2 將 RL 描述為透過試錯學習。研究資料 10 解釋說,代理旨在最大化累積獎勵。RL 特別適用於訓練在動態環境中運作的代理,在這些環境中,最佳策略並未明確定義。RL 代表 ML 中的另一種關鍵範例,專注於透過互動和回饋進行學習。
- RMSE: Root Mean Squared Error (均方根误差) – 用於衡量迴歸模型誤差的常用指標,表示預測值和實際值之間平方差平均值的平方根 13。研究資料 13 列出了 RMSLE(均方根對數誤差),它與 RMSE 相關。RMSE 對較大的誤差施加比小誤差更大的懲罰。對於迴歸任務,RMSE 是一個標準的評估指標。
- RNN: Recurrent Neural Network (循环神经网络) – 指一種設計用於處理序列數據的神經網路,它透過維護一個內部狀態來捕獲先前輸入的信息 13。研究資料 13 將其列為常見的 ML 縮寫詞。研究資料 10 解釋了其展現時間動態的能力。研究資料 16 提到其用於分析時間數據流。類似於 CNN,RNN 是另一種專門的 ANN,在 AI 中有重要的應用。
- SGD: Stochastic Gradient Descent (随机梯度下降) – 指一種常用的優化演算法,用於透過迭代地更新模型參數以最小化損失函數,並使用小批量的數據來訓練神經網路 14。研究資料 14 將其描述為一種批次大小策略。研究資料 10 解釋了其在最小化損失函數中的作用。研究資料 15 列出了「1-bit SGD」和「SGD」。SGD 及其變體對於有效訓練大型神經網路至關重要。優化演算法對於訓練 ML 模型至關重要,而 SGD 是一個基礎的演算法。
- Supervised Learning: (监督学习) & Unsupervised Learning: (无监督学习) – 機器學習的基本類別,模型分別從標記或未標記的數據中學習 4。研究資料 4 將它們列為 ML 的關鍵概念。研究資料 14 透過在準確度計算的背景下提及標記數據,隱含地討論了它們。理解監督式學習和非監督式學習之間的區別對於為給定問題選擇適當的 ML 技術至關重要。這些是 ML 的基本概念,它們決定了所涉及的數據類型和學習過程。
- Transfer Learning: (迁移学习) – 指一種機器學習技術,其中在一個任務上訓練的模型被重新用作第二個相關任務模型的起點 2。遷移學習可以顯著減少新任務所需的數據量和訓練時間,尤其是在處理有限數據時。遷移學習是一種強大的技術,可以在新的 ML 任務中利用現有的知識。
- Variance: (方差) – 在機器學習中,變異數指的是模型效能對訓練數據波動的敏感性。高變異數表示模型在訓練數據上表現良好,但在未見數據上表現不佳。理解和管理變異數對於構建能夠良好泛化的模型非常重要。與偏差一樣,變異數是理解 ML 模型泛化能力的關鍵概念。
- Word Embedding: (词嵌入) – 指 NLP 中的一種技術,其中單詞在連續的向量空間中表示為密集的向量,捕獲單詞之間的語義關係 15。研究資料 15 列出了「GloVe (Global Vectors)」嵌入。研究資料 20 提到了 ELMo 和 GloVe 作為語言模型。詞嵌入是許多 NLP 模型的基本構建塊,使它們能夠理解單詞的含義。詞嵌入是 NLP 中的一個核心概念,它實現了語義理解。
- 自然語言處理 (NLP): 專門用於使電腦能夠理解、處理和生成人類語言的領域的縮寫詞。
- BERT: Bidirectional Encoder Representations from Transformers (来自 Transformers 的双向编码器表示) – 指 Google 開發的一種基於 Transformer 的語言模型,以其透過同時考慮句子中單詞之前和之後的單詞來理解單詞上下文的能力而聞名 14。研究資料 14 強調其雙向性和使用遮罩進行無監督訓練。研究資料 11 將其描述為一種常用的基於 Transformer 的語言模型。研究資料 20 將其列為著名的語言模型。BERT 在 NLP 領域極具影響力,在各種語言理解任務上創造了新的最先進成果。BERT 是另一個非常重要且廣泛使用的基於 Transformer 架構的語言模型。
- GPT: Generative Pre-trained Transformer (生成式预训练变换器) – 指 OpenAI 開發的一種特定類型的 LLM 架構,以其強大的文本生成能力而聞名 1。研究資料 1 提到了 GPT 模型,如 GPT-3 和 GPT-4。研究資料 2 解釋說它已成為一個流行的 AI 聊天機器人名稱的一部分。研究資料 8 將其描述為生成類似人類的回應。研究資料 6 稱其為使用 Transformer 架構的模型類型。GPT 模型因其令人印象深刻的語言生成能力而受到廣泛關注,並普及了大型語言模型的概念。GPT 是一種極具影響力的 LLM 類型,值得單獨列出。
- LLM: Large Language Model (大型语言模型) – 指一種在大量文本數據上訓練的 AI 模型,用於理解和生成類似人類的文本 1。研究資料 1 將其列為關鍵的 AI 縮寫詞。研究資料 2 將其定義為聊天機器人等系統的基礎。研究資料 8 將其描述為使用先進的 AI 演算法和大型數據集。研究資料 18 強調其在大量文本數據上的訓練。研究資料 10 稱其為基於深度學習的先進 AI 模型。LLM 在各種 NLP 任務中取得了顯著的成功,並推動了生成式 AI 的許多最新進展。它們的頻繁提及突顯了其當前的突出地位。LLM 是當前 AI(尤其是在 NLP 領域)的核心主題,其定義和重要性至關重要。
- Machine Translation: (机器翻译) – 指自動將文本從一種語言翻譯成另一種語言的任務 2。研究資料 2 提到了 Meta 的 SeamlessM4T 模型。研究資料 8 將翻譯列為 LLM 使用的任務。研究資料 4 將其定義為使用軟體翻譯文本。研究資料 6 將其列為 LLM 可以執行的任務。近年來,由於深度學習和 NLP 的進步,機器翻譯取得了顯著的進展。機器翻譯是 NLP 的一個突出應用,具有重要的現實世界影響。
- Named Entity Recognition (NER): (命名实体识别) – 指 NLP 中的一項任務,涉及識別和分類文本中的命名實體,例如人名、組織名、地點和日期 15。研究資料 15 將其列為常見的 NLP 任務。研究資料 15 將其包含在縮寫詞列表中。NER 是許多信息提取和理解任務中的關鍵步驟。NER 是 NLP 中用於識別文本中關鍵信息的基本任務。
- NLG: Natural Language Generation (自然语言生成) – 指 NLP 的一個子領域,專注於使電腦能夠生成類似人類的文本 5。研究資料 5 將其定義為使機器能夠生成連貫且上下文相關的內容,模仿人類的對話。NLG 對於聊天機器人、內容創建和文本摘要等應用至關重要。NLG 與 NLU 相輔相成,專注於機器生成類似人類的語言。
- NLP: Natural Language Processing (自然语言处理) – 指人工智慧的一個分支,專注於使電腦能夠理解、解釋和生成人類語言 1。研究資料 2 將其描述為允許機器理解和處理人類語言的領域。研究資料 8 將其解釋為電腦分析口語和書面語言的過程。研究資料 18 專注於電腦與人類語言之間的互動。NLP 是一個快速發展的領域,應用廣泛,從聊天機器人到機器翻譯。此縮寫詞的頻繁出現突顯了其重要性。NLP 是 AI 的一個主要領域,其定義對於理解相關縮寫詞至關重要。
- NLU: Natural Language Understanding (自然语言理解) – 指 NLP 的一個子領域,專注於使電腦能夠理解人類語言的意義 1。研究資料 1 將其定義為機器理解我們所說內容的能力。NLU 是 NLP 的關鍵組成部分,使機器能夠超越簡單的文本處理,真正理解其意圖。NLU 是 NLP 的一個關鍵方面,專注於語言處理的理解部分。
- Part-of-Speech (POS) Tagging: (词性标注) – 指 NLP 中的一項任務,涉及為文本中的每個單詞分配語法標籤(例如名詞、動詞、形容詞) 15。研究資料 15 將其列為常見的 NLP 任務。研究資料 15 將其包含在縮寫詞列表中。研究資料 11 列出了它。POS 標註是許多更高級別 NLP 應用程式的基礎任務。POS 標註是理解文本語法結構的基本但重要的步驟。
- Prompt: (提示) – 指給予 AI 模型(尤其是像 LLM 這樣的生成模型)的輸入或指令,以引出特定的回應或引導其內容生成 3。研究資料 4 將其定義為使用者向 AI 系統發出的輸入,AI 系統會對此做出回應。研究資料 3 提供了類似的定義。提示的品質和設計顯著影響生成式 AI 模型的輸出和行為。與生成式 AI 模型互動涉及使用提示。
- RAG: Retrieval-Augmented Generation (检索增强生成) – 指一種透過允許 LLM 從外部知識來源檢索信息並將其納入其回應中來增強 LLM 文本生成能力的技術 2。研究資料 2 將其解釋為透過信息檢索來豐富語言生成。研究資料 3 詳細說明了它將信息檢索與文本生成相結合,並存取外部知識。RAG 透過將 LLM 的輸出建立在事實信息之上,提高了其準確性和相關性。RAG 是一種用於提高 LLM 效能的重要技術。
- Sentiment Analysis: (情感分析) – 指 NLP 中的一項任務,涉及識別和提取文本中的主觀信息,例如觀點、情緒和態度 6。研究資料 6 將其列為 LLM 可以執行的任務。情感分析在行銷、客戶服務和社群媒體監控等領域有廣泛的應用。情感分析是 NLP 的一個常見且重要的應用。
- Text Summarization: (文本摘要) – 指自動生成較長文本文件的簡潔且連貫摘要的任務 2。研究資料 2 將其列為 GPT 使用和 LLM 可以執行的任務。研究資料 8 提到 LLM 用於此任務。研究資料 6 將其列為 LLM 可以執行的任務。研究資料 20 提到 NLP 模型用於此任務。文本摘要是一種處理信息過載的寶貴工具。文本摘要是 NLP 的另一個重要應用。
- Token: (令牌) – 指大型語言模型處理的文本基本單位(一個詞或一個詞的一部分) 4。研究資料 4 將其定義為 LLM 處理的文本基本單位。研究資料 20 提到在 ELECTRA 中分類令牌替換。理解分詞對於理解 LLM 如何處理和生成文本非常重要。LLM 在令牌上運作,因此它是其功能的一個基本概念。
- Transformer: (变换器) – 指一種依賴自注意力機制來處理序列數據的神經網路架構,在 NLP 任務中特別有效 6。研究資料 6 提到 GPT 使用 Transformer 架構。研究資料 14 指出 BERT 使用 Transformer 架構。研究資料 20 將「Transformer-XL」列為一種語言模型。Transformer 架構徹底改變了 NLP,在機器翻譯和文本生成等任務中實現了顯著的改進。Transformer 架構是許多現代 LLM 的基礎,使其成為一個關鍵術語。
- 深度學習架構與技術: 擴展 DL 類別。
- AutoML: Automated Machine Learning (自动化机器学习) – 指自動化將機器學習應用於實際問題的端到端過程 14。研究資料 14 列出了 AutoML 可以執行的任務,例如模型搜尋、超參數調整和數據準備。AutoML 旨在透過自動化許多涉及的手動步驟,使機器學習更易於存取和更有效率。自動化是 AI 的一個關鍵趨勢,而 AutoML 是其重要組成部分。
- DenseNet: Densely Connected Convolutional Network (密集连接卷积网络) – 指一種卷積神經網路架構,其中每一層都以前饋方式連接到其他每一層,從而改善了特徵的重複使用並減少了梯度消失問題 10。研究資料 10 描述了其密集的連接性。DenseNet 在參數效率和特徵傳播方面具有優勢。DenseNet 是深度學習中另一個重要的架構。
- EfficientNet: 指一系列卷積神經網路,它們透過平衡地縮放網路的寬度、深度和解析度,以更少的參數和更少的計算量實現高準確度 10。研究資料 10 強調其透過複合縮放實現的效率。EfficientNet 在準確度和計算成本之間提供了良好的平衡。效率在深度學習中至關重要,而 EfficientNet 就是為此設計的。
- Fine-tuning: (微调) – 指採用預訓練模型並在新的、通常更小的數據集上進一步訓練,以使其適應特定任務的過程 20。研究資料 20 在 ULMFiT 的背景下提到了微調。微調可以有效地將通用模型調整為專門的應用。微調是使用預訓練模型時的常見做法。
- ResNet: Residual Neural Network (残差神经网络) – 指一種深度卷積神經網路架構,它引入了殘差連接(跳躍連接)來幫助訓練非常深的網路 10。研究資料 10 解釋了殘差學習的概念。ResNet 在圖像識別任務中取得了巨大的成功,使得訓練更深、更準確的模型成為可能。ResNet 是深度學習中用於圖像處理的重要架構。
- Reinforcement Learning from Human Feedback (RLHF): (基于人类反馈的强化学习) – 指一種用於透過將人類偏好和回饋納入訓練過程來微調語言模型的技術 4。研究資料 4 將其定義為用於微調 GPT 模型回應的訓練方法。研究資料 4 解釋了其在 ChatGPT 開發中的應用。研究資料 11 列出了它。RLHF 對於改善 LLM 與人類價值觀和偏好的對齊至關重要。RLHF 是一種用於提高 LLM 輸出品質和安全性的關鍵技術。
- VGG: Visual Geometry Group (视觉几何组) – 指一種以其簡單性和使用小型卷積濾波器而聞名的卷積神經網路架構 10。研究資料 10 提到它是牛津大學視覺幾何組提出的 CNN 架構。研究資料 11 稱其為用於分類的流行深度卷積模型。VGG 網路對於證明深度卷積網路在圖像識別方面的有效性具有重要影響。VGG 是深度學習中一個具有歷史意義的架構。
- 其他相關縮寫詞: 來自相關領域或與 AI 相關的一般計算術語。
- Algorithm: (算法) – 指一個有限的、定義明確的、可由電腦實施的指令序列,通常用於解決一類問題或執行計算。AI 和 ML 嚴重依賴於各種演算法 8。研究資料 8 提到 AI 結合了複雜的系統和處理演算法。研究資料 4 將其定義為有限的指令序列。研究資料 5 指出 ML 是研究自動改進的演算法。開發新穎且高效的演算法對於 AI 的進步至關重要。演算法是 AI 系統的基本構建塊。
- Big Data: (大数据) – 指極大的數據集,可以透過計算方式進行分析,以揭示模式、趨勢和關聯,尤其與人類行為和互動相關。大數據通常用於訓練 AI 模型 4。研究資料 4 將其定義為普通軟體無法處理的非常大的數據集。大數據的可用性是近期 AI(尤其是深度學習)取得重大進展的主要驅動力。AI,尤其是 ML 和 DL,嚴重依賴於大量的數據。
- Computer Vision: (计算机视觉) – 指 AI 的一個領域,使電腦能夠「看見」並解釋來自視覺世界的資訊,例如圖像和影片 6。
- Corpus: (语料库) – 指用於語言分析、機器學習訓練或統計分析的大型結構化文本集合,尤其是在 NLP 中。
- Data Mining: (数据挖掘) – 指從大型數據集中發現模式和洞察力的過程。通常與機器學習結合使用 4。研究資料 4 將其列為與 AI 相關的概述術語。數據挖掘在從用於訓練 AI 模型的數據中提取有價值的信息方面發揮著至關重要的作用。數據挖掘是一個相關的領域,通常先於或補充機器學習。
- Dataset: (数据集) – 指用於訓練或評估機器學習模型的數據集合。
- Deepfake: (深度伪造) – 指 AI 生成的旨在看起來和聽起來像真人的圖像、影片或錄音,通常用於惡意目的。
- Deployment: (部署) – 指使經過訓練的 AI 模型可用於實際應用或系統的過程。
- Edge AI: (边缘人工智能) – 指在本地設備或邊緣伺服器上(而不是在雲端中)部署和執行 AI 演算法,從而實現更快的處理速度和更低的延遲。
- Ensemble Learning: (集成学习) – 指一種機器學習技術,它結合了多個單獨模型的預測以提高整體效能。
- Ethical AI: (伦理人工智能) – 指以考慮倫理原則和社會價值觀的方式開發和部署 AI 系統,解決公平性、透明度和責任等問題。
- Evaluation Metric: (评估指标) – 指用於評估機器學習模型在給定任務上的效能的量化指標(例如,準確度、精確率、召回率、F1 分數、AUC、RMSE、MAE)。
- Expert System: (专家系统) – 指一種模擬人類專家決策能力的電腦系統,通常透過使用規則和事實的知識庫。
- Federated Learning: (联邦学习) – 指一種分散式機器學習方法,允許多方在不共享其敏感數據的情況下協同訓練模型。
- Feature: (特征) – 指數據點的單個可測量的屬性或特徵,機器學習模型使用它來進行預測。
- Foundation Model: (基础模型) – 指一種大型 AI 模型,通常在龐大的數據集上訓練,可以針對各種下游任務進行調整或微調。LLM 是一種基礎模型。
- Fuzzy Logic: (模糊逻辑) – 指一種處理近似推理而不是固定和精確推理的邏輯形式。它在 AI 中用於處理不確定性和模糊性。
- Generative AI: (生成式人工智能) – 指可以生成與其訓練數據相似的新內容(例如文本、圖像、音樂或程式碼)的 AI 系統。
- GPU: Graphics Processing Unit (图形处理器) – 指一種專門的電子電路,旨在加速圖像的創建以進行顯示。由於其並行處理能力,GPU 也廣泛應用於 AI 和機器學習領域,以加速神經網路的訓練 10。研究資料 10 強調其並行處理能力以加快訓練速度。GPU 已成為訓練大型複雜 AI 模型不可或缺的工具。AI 的計算需求使得使用 GPU 等專用硬體成為必要。
- Hallucination: (幻觉) – 指 AI 模型(尤其是大型語言模型)自信地生成未基於訓練數據的錯誤或無意義信息的傾向 4。研究資料 4 將其定義為自信地呈現虛假信息。解決和減輕幻覺是開發可靠和值得信賴的 AI 系統的一個重大挑戰。幻覺是 LLM 的一個已知問題,使用者應該意識到這一點。
- Heuristic: (启发式方法) – 指一種使用實用方法或捷徑來產生可能不是最佳但足以滿足給定約束條件的解決方案的問題解決方法。常應用於 AI 中尋找精確解在計算上過於昂貴的任務。
- Human-in-the-Loop (HITL): (人机协同) – 指一種將人類輸入整合到 AI 系統中以提高準確性、可靠性或處理完全自動化不可行或不可取的情況的方法。
- Inference: (推断) – 指使用經過訓練的機器學習模型對新的、未見過的數據進行預測或決策的過程 5。研究資料 5 解釋說它有助於 AI 系統得出超出其訓練數據的結論。研究資料 17 提到了 TIDL-RT 推論。推論是經過訓練的 AI 模型的實際應用。訓練後,AI 模型用於對新數據進行推論。
- Interpretability: (可理解性) – 與可解釋性密切相關,可理解性指的是理解輸入特徵與 AI 模型輸出之間因果關係的能力。
- Knowledge Graph: (知识图谱) – 指知識的圖形表示,由實體(節點)及其關係(邊)組成,常應用於 AI 的知識表示和推理。
- Label: (标签) – 指機器學習模型訓練要預測的目標變數或值。
- Latency: (延迟) – 指 AI 系統輸入和相應輸出之間的延遲。低延遲對於即時應用至關重要。
- Machine-in-the-Loop (MITL): (机在环) – 指一種 AI 系統透過提供建議、分析或自動化某些任務來增強人類能力的範例,而人類保留整體控制權。
- Model: (模型) – 在機器學習中,模型是訓練過程的輸出,表示訓練數據中學習到的關係和模式,可用於對新數據進行預測。
- Monitoring: (监控) – 指持續追蹤已部署 AI 系統的效能和行為,以確保其正常運作並達成目標的過程。
- Multimodal AI: (多模态人工智能) – 指可以處理和整合來自多種類型輸入數據(例如文本、圖像和音訊)信息的 AI 系統。
- Natural Language: (自然语言) – 指人類用於溝通的語言,與程式語言等形式語言相對。
- Ontology: (本体) – 指將知識正式表示為領域內的一組概念以及這些概念之間的關係。應用於 AI 的知識共享和推理。
- Parameter: (参数) – 指機器學習模型中從訓練數據中學習並決定模型行為的變數。
- Policy: (策略) – 在強化學習中,指從狀態到動作的映射,代理使用它來決定在每個狀態下採取什麼動作。
- Reproducibility: (可重复性) – 指當使用相同的數據和設定重複 AI 實驗或模型訓練過程時,獲得一致結果的能力。
- Reward Function: (奖励函数) – 在強化學習中,指定義代理在給定狀態下採取特定行動所獲得的獎勵或懲罰的函數。
- Robotics: (机器人学) – 指一個整合電腦科學、工程學和其他學科的跨領域學科,旨在設計、建造、操作和應用機器人。AI 在使機器人能夠自主執行複雜任務方面發揮著越來越重要的作用 2。
- Robustness: (鲁棒性) – 指 AI 系統在各種條件下(包括雜訊或對抗性輸入)維持其效能和可靠性的能力。
- Scalability: (可扩展性) – 指 AI 系統或基礎設施處理不斷增長的數據量或工作負載的能力。
- Speech Recognition: (语音识别) – 指一種使電腦能夠理解並將口語轉錄為文本的技術 12。
- Training Data: (训练数据) – 指用於訓練機器學習模型的數據集。訓練數據的品質和數量顯著影響模型的效能 3。研究資料 4 將其定義為用於訓練 AI 系統的數據集。研究資料 5 提到 AI 系統是透過機器學習和訓練數據實現的。研究資料 3 提到 ML 專注於透過經驗和數據改進的演算法。訓練數據的品質和代表性對於任何機器學習模型的成功都至關重要。ML 模型的效能直接與其訓練的數據相關。
- Transparency: (透明度) – 指 AI 系統的架構、訓練過程和決策邏輯公開且易於理解的程度。
- Version Control: (版本控制) – 指用於管理 AI 開發中程式碼、數據和模型變更的系統,允許追蹤歷史、協作以及在需要時回滾。
- 智能自動化 (IA) 子術語: 擴展 IA 類別。
- API-First: 指一種在構建應用程式的其他組件之前優先考慮 API 的設計和開發的軟體開發方法。對於整合 AI 功能非常重要 7。研究資料 7 將 API-First 定義為優先考慮 API 開發。API 優先的方法有助於將 AI 功能整合到各種系統中。為了實現 AI 的無縫整合,優先考慮 API 是一個關鍵策略。
- 深度學習 (DL): 與深度學習相關的縮寫詞。
- Activation Function: (激活函数) – 指神經網路中引入非線性的函數,使網路能夠學習數據中的複雜關係。
- Batch Size: (批大小) – 指在訓練期間,模型在一次迭代中處理的訓練樣本數量。
- Boosting: (提升法) – 指一種集成學習技術,它按順序訓練多個弱學習器,每個新的學習器都專注於糾正前一個學習器的錯誤。
- Clustering: (聚类) – 指一種非監督式學習技術,涉及將相似的數據點分組在一起。
- Epoch: (轮) – 指在訓練過程中,整個訓練數據集通過機器學習演算法的一次完整傳遞。
- K-Nearest Neighbors (KNN): (K 近邻) – 指一種用於分類和迴歸的非參數監督式學習演算法,其中新數據點的類別或值是根據其在特徵空間中 k 個最近鄰居的多數類別或平均值來預測的。
- Model: (模型) – (再次強調)
- Neural Network: (神经网络) – (再次強調 ANN 的概念)
- Optimization Algorithm: (优化算法) – 指在訓練期間用於調整機器學習模型參數以最小化損失函數的演算法。
- Principal Component Analysis (PCA): (主成分分析) – 指一種降維技術,它將數據轉換為一組新的不相關變數(稱為主成分),這些變數捕獲了數據中的最大變異數。
- Random Forest: (随机森林) – 指一種集成學習演算法,它構建多個決策樹,並輸出各個樹的模式類別(用於分類)或平均預測(用於迴歸)。
- Regression: (回归) – 指一種監督式學習任務,涉及根據輸入特徵預測連續的輸出值。
- Support Vector Machine (SVM): (支持向量机) – 指一種監督式學習演算法,它找到最佳分離不同類別數據點的超平面。
- 其他相關縮寫詞: 擴展其他類別。
- 1-bit SGD: 1-bit Stochastic Gradient Descent (1 位元隨機梯度下降) – 是隨機梯度下降 (SGD) 優化演算法的一種變體。
- A/B testing: (A/B 测试) – 一種比較兩種或多種變體(通常是單一變數的變更)以確定哪種變體在給定的度量方面表現更好的方法。
- Ablation: (消融) – 指系統中組件的移除。
- ACE: Alternating conditional expectation (交替條件期望) – 一種用於尋找迴歸分析中反應變數和預測變數之間最佳轉換的演算法。
- Accuracy: (準確度) – 分類模型中正確預測的比例。
- Active Learning: (主动学习) – 指一種機器學習技術,其中演算法策略性地選擇最具信息性的數據點,由人類專家進行標記,旨在以更少的標記數據實現高準確度。
- Agent: (代理) – 在強化學習中,指與環境互動並透過試錯學習的實體。
- AI Safety: (人工智能安全) – 指研究如何安全地開發和使用人工智慧。
- AI writing: (AI 写作) – 使用 AI 技術來產生或編輯文本。
- Algorithm: (算法) – (第四次強調)
- Alignment: (對齊) – AI 的目標與其創建者的目標一致的程度。
- AlphaGo: (AlphaGo) – 一個玩圍棋的 AI 系統。
- Alt Text for Images: (圖像的替代文字) – 在沒有手動提供的圖像描述時,AI 產生的圖像描述。
- Anomaly Detection: (异常检测) – 指識別數據中不符合預期行為的模式的過程。常應用於欺詐檢測和安全領域。
- Anthropomorphism: (擬人化) – 將人類特徵歸因於非人類實體。
- API Automation Testing: (API 自動化測試) – 自動化測試 API 以確保它們按預期工作。
- Application Portfolio Management (APM): (應用程式組合管理) – 管理組織的應用程式組合。
- AR: Augmented Reality (增强现实) – 一種真實世界環境的互動體驗,透過電腦產生的感知資訊來增強真實世界中的物體。
- ASIC: Application-Specific Integrated Circuit (特定應用積體電路) – 專為特定用途設計的積體電路。
- Autonomous: (自主) – 能夠在沒有人為輸入的情況下執行任務。
- AutoEncoder: (自编码器) – 一種用於學習未標記數據的有效編碼的人工神經網路。
- Automation: (自动化) – 使用機器或軟體處理流程,減少人為輸入的需求。
- Back Office Solutions: (後端解決方案) – 支援組織內部運作的系統和軟體。
- Bagging: (装袋法) – 指一種集成學習技術,它涉及在訓練數據的不同子集上獨立訓練多個模型,然後平均它們的預測。
- Bard: (Bard) – Google 開發的聊天機器人。
- Bayesian Network (BN): (贝叶斯网络) – 一種表示變數及其條件依賴關係的機率圖模型。
- BERT’s variants: (BERT 的變體) – 包括 ALBERT 和 LaBSE。
- BiFPN: Bidirectional Feature Pyramid Network (雙向特徵金字塔網路) – 一種用於物件偵測的有效多尺度特徵融合方法。
- Big Data: (大数据) – (再次強調)
- Bing Chat: (Bing 聊天) – 整合到 Bing 中的聊天機器人功能。
- BLEU: Bilingual Evaluation Understudy (雙語評估替補) – 一種翻譯有效性的評分。
- Boosting: (提升法) – (再次強調)
- BPMF: Bayesian Probabilistic Matrix Factorization (貝氏機率矩陣分解) – 一種用於推薦系統的機率性矩陣分解方法。
- BPTT: Backpropagation Through Time (時間反向傳播) – 用於訓練循環神經網路的梯度下降演算法。
- Burstiness: (突發性) – 句子結構和長度的變化程度的衡量。
- CAPTCHA: Completely Automated Public Turing test to tell Computers and Humans Apart (全自動區分電腦和人類的公開圖靈測試) – 一種用於確保使用者是人類的線上測試。
- CBOW: Continuous-Bag-of-Words (連續詞袋模型) – 一種用於學習詞嵌入的模型。
- Chinese room: (中文房间) – 一個關於 AI 的哲學思想實驗。
- Classification: (分类) – 指一種監督式學習任務,涉及將數據點分配給預定義的類別或類別。
- CMMs: Conditional Markov Models (條件馬可夫模型) – 一種用於序列標記的圖形模型。
- Computer: (電腦) – 一種可以自動執行程式化任務的機器。
- Computer Vision Tasks: (计算机视觉任务) – 指電腦視覺中的特定問題,例如圖像分類、目標檢測、圖像分割和圖像生成。
- Conditional Random Fields (CRFs): (條件隨機場) – 一種用於結構化預測的機率圖模型。
- Connectionist Temporal Classification (CTC): (連接主義時間分類) – 一種用於序列標記的損失函數。
- Contractive autoencoder (CAE): (收縮自編碼器) – 一種旨在學習對輸入的小擾動具有魯棒性的表示的自編碼器。
- Conversational AI: (對話式 AI) – 專注於使電腦能夠以類似人類的方式進行對話的 AI 領域。
- CTR: Collaborative Topic Regression (協同主題迴歸) – 一種用於推薦系統的技術。
- CV: Computer Vision (计算机视觉) – AI 的一個領域,使電腦能夠從數位圖像或影片中「看見」並解釋資訊。
- DALL-E: (DALL-E) – OpenAI 發布的 AI 圖像生成器。
- DAAF: Data Augmentation and Auxiliary Feature (數據增強和輔助特徵) – 一種可能涉及使用輔助特徵以及數據增強來改進模型訓練的技術。
- Data Science: (数据科学) – 指一個跨學科的領域,它使用科學方法、過程、演算法和系統從嘈雜的、結構化的和非結構化的數據中提取知識和洞察力。
- DBM: Deep Boltzmann Machine (深度玻爾茲曼機) – 一種具有多個隱藏層的無向機率圖模型。
- DBN: Deep Belief Network (深度信念網路) – 一種由多個潛在變數層組成的生成圖模型。
- DBSCAN: Density-Based Spatial Clustering of Applications with Noise (基於密度的雜訊應用空間聚類) – 一種基於密度的聚類演算法。
- DCGAN: Deep Convolutional Generative Adversarial Network (深度卷積生成對抗網路) – 一種使用卷積網路的 GAN。
- DE: Differential Evolution (差分進化) – 一種用於優化問題的進化演算法。
- DevOps: (開發運營) – 一種強調軟體開發人員和 IT 專業人員之間協作和溝通的軟體開發方法。
- Dimensionality Reduction: (降维) – 指用於減少數據集中特徵數量同時保留其基本信息的技術。
- ELIZA: (ELIZA) – 1960 年代開發的早期聊天機器人。
- ELMo: Embeddings from Language Models (來自語言模型的嵌入) – 一種用於產生詞嵌入的方法。
- ELU: Exponential Linear Unit (指數線性單元) – 一種神經網路的激活函數。
- Emergent behavior: (涌现行为) – 從基本過程產生的複雜行為。
- EM: Expectation-maximization algorithm (期望最大化演算法) – 一種用於尋找機率模型中潛在變數的參數的迭代演算法。
- ERNIE: Enhanced Representation through kNowledge IntEgration (透過知識整合的增強表示) – 一種語言模型。
- ETL: Extract, Transform, Load (提取、轉換、載入) – 將資料從一個資料庫移動到另一個資料庫的過程。
- FST: Finite-state transducer (有限狀態轉換器) – 一種計算模型。
- FTP: File Transfer Protocol (檔案傳輸協定) – 用於在電腦之間傳輸檔案的協定。
- GALE: Global Aggregations of Local Explanations (局部解釋的全局聚合) – 一種旨在透過聚合來自個別預測的多個局部解釋來推導模型行為的全局洞察力的可解釋性技術。
- GA: Genetic Algorithm (基因演算法) – 一種模仿自然選擇過程的優化演算法。
- GAP: Global Average Pooling (全局平均池化) – 一種用於減少卷積神經網路中特徵圖空間維度的操作。
- GBM: Gradient Boosting Machine (梯度提升機) – 一種機器學習技術,用於迴歸和分類問題,它以集成的方式組合多個弱預測模型。
- GEBI: Global Explanation for Bias Identification (偏差識別的全局解釋) – 一種可解釋性方法,它將局部解釋(單個預測的解釋)聚合為全局解釋,目的是在決策中發現偏差和系統性錯誤。
- Gen AI: Generative AI (生成式人工智能) – (再次強調)
- GLM: Generalized Linear Model (廣義線性模型) – 一種靈活的線性迴歸推廣。
- Gloss2Text: Gloss to Text (從手語注釋到文本) – 在手語處理中,將手語注釋序列(詞級表示)轉換為語法正確的口語句子的任務。
- GloVe: Global Vectors for Word Representation (詞表示的全局向量) – 一種用於獲得詞嵌入的模型。
- GMM: Gaussian mixture model (高斯混合模型) – 一種機率模型,假設所有數據點都是從有限個具有未知參數的高斯分佈的混合中生成的。
- GNN: Graph Neural Network (圖神經網路) – 一種可以直接在圖結構上操作的神經網路。
- Government: (政府) – 與政府相關的應用。
- GRU: Gated Recurrent Unit (门控循环单元) – (再次強調)
- HAN: Hierarchical Attention Network (分層注意力網路) – 一種神經網路架構,通常用於文檔分類,它在詞和句子層級使用注意力機制來分層捕獲重要資訊。
- HDP: Hierarchical Dirichlet process (分層狄利克雷過程) – 一種非參數貝氏模型。
- hLDA: Hierarchical Latent Dirichlet allocation (分層潛在狄利克雷分配) – LDA 的擴展,它將主題組織成層次結構。
- HMMs: Hidden Markov Models (隱藏馬可夫模型) – 一種用於建模序列數據的統計模型。
- ICA: Independent Component Analysis (獨立成分分析) – 一種用於將多變數訊號分離成加性子成分的統計技術。
- IDR: Input dependence rate (輸入依賴率) – 一種可能衡量模型輸出或內部狀態對其輸入特徵的依賴程度的指標,可能用於可解釋性或敏感度分析。
- IIR: Input independence rate (輸入獨立率) – 一種可能衡量模型輸出與其輸入特徵的獨立程度的指標,可能與魯棒性或公平性評估相關。
- INFD: Explanation Infidelity (解釋不忠實度) – XAI 中使用的一種指標,用於衡量當輸入受到擾動時,解釋(例如,特徵歸因)反映模型實際行為的程度。
- IPA: Intelligent Process Automation (智能流程自動化) – 使用自動化來改進業務和 IT 流程的效能。
- i.i.d: Independent and Identically Distributed (獨立且恆等分佈) – 統計學中的一個假設。
- IT Automation: (IT 自動化) – 使用技術自動化 IT 流程和任務。
- ITOps: (IT 運營) – 負責組織 IT 基礎設施和運營的部門。
- IVA: Intelligent Virtual Assistant (智能虛擬助理) – 一種使用 AI 來提供客戶支援和協助的虛擬助理。
- KAN: Kolmogorov-Arnold Networks (科爾莫戈羅夫-阿諾德網路) – 一種受科爾莫戈羅夫-阿諾德表示定理啟發的新型神經網路架構。
- KL: Kullback-Leibler divergence (庫爾巴克-萊布勒散度) – 衡量兩個機率分佈之間差異的指標。
- LaBSE: Language-agnostic BERT Sentence Embeddings (與語言無關的 BERT 句子嵌入) – BERT 的一個變體。
- LDA: Latent Dirichlet allocation (潛在狄利克雷分配) – 一種用於主題建模的生成機率模型。
- LDADE: Latent Dirichlet Allocation Differential Evolution (潛在狄利克雷分配差分進化) – LDA 和差分進化的組合。
- Learning To Rank (LTR): (排序學習) – 機器學習的一個子領域,應用於資訊檢索系統的建構。
- LMMs: large multimodal models (大型多模態模型) – 可以處理和整合多種類型輸入數據的模型。
- LSA: Latent semantic analysis (潛在語義分析) – 一種 NLP 技術。
- LSI: Latent Semantic Indexing (潛在語義索引) – 一種資訊檢索技術。
- MAP: Maximum A Posteriori Estimation (最大後驗估計) – 一種估計統計模型參數的方法。
- MAPE: Mean Absolute Percentage Error (平均絕對百分比誤差) – 衡量預測準確性的指標。
- Markov Chain Monte Carlo (MCMC): (馬可夫鏈蒙地卡羅) – 一種用於從機率分佈中採樣的演算法。
- MDRNN: Multidimensional recurrent neural network (多維循環神經網路) – 一種可以處理多維序列數據的 RNN。
- MDL: Minimum description length principle (最小描述長度原則) – 一種形式化奧卡姆剃刀的資訊理論原則。
- MER: Music Emotion Recognition (音樂情感辨識) – (文件中資訊不可用)
- Midjourney: (Midjourney) – 一個 AI 圖像生成器。
- MLE: Maximum Likelihood Estimation (最大似然估計) – 一種估計統計模型參數的方法。
- MLM: Music Language Models (音樂語言模型) – (文件中資訊不可用)
- MOS: Mean Opinion Score (平均意見分數) – 用於評估語音或視訊品質的指標。
- MRS: Music Recommender System (音樂推薦系統) – (文件中資訊不可用)
- MRR: Mean Reciprocal Rank (平均倒數排名) – 一種評估資訊檢索系統的指標。
- MSR: Music Style Recognition (音樂風格辨識) – (文件中資訊不可用)
- MT-DNN a.k.a BigBird: Multi-Task Deep Neural Network (多任務深度神經網路) – 一種深度神經網路。
- NAS: Neural Architecture Search (神經架構搜尋) – 一種自動設計人工神經網路的技術。
- NERQ: Named Entity Recognition in Query (查詢中的命名實體識別) – NER 在查詢中的應用。
- Neural net(work): (神经网络) – (再次強調 ANN 的概念)
- Neural Turing Machine (NTM): (神經圖靈機) – 一種具有外部記憶體的循環神經網路。
- NLT: Neural Machine Translation (神經機器翻譯) – 使用神經網路進行翻譯的方法。
- NMF: Non-Negative Matrix Factorization (非負矩陣分解) – 一種矩陣分解技術。
- NN: Neural Network (神经网络) – (再次強調 ANN 的概念)
- NPE: Neural Physical Engine (神經物理引擎) – (文件中資訊不可用)
- NST: Neural Style Transfer (神經風格轉換) – 一種使用深度神經網路進行風格轉換的方法。
- NTM: Neural Turing Machine (神經圖靈機) – (再次強調)
- ODF: Onset Detection Function (起始點檢測函數) – (文件中資訊不可用)
- OLAP: Online Analytical Processing (線上分析處理) – 一種用於多維資料分析的技術。
- OLS: ordinary least squares (普通最小二乘法) – 一種線性迴歸方法。
- OLTP: Online Transaction Processing (線上交易處理) – 支援網路交易的軟體程式。
- OOB: Out of the Box (開箱即用) – 指產品或系統在購買後即可立即使用。
- OOF: Out Of Fold (折外) – 在交叉驗證中用於評估模型的預測。
- OpenAI: (OpenAI) – 開發 ChatGPT 和 DALL-E 的領先 AI 公司。
- OSRT: Open Source Runtime (開源運行時) – 一種開源軟體執行環境。
- PACO: Poisson Additive Co-Clustering (泊松加性共聚類) – (文件中資訊不可用)
- PAP: Password Authentication Protocol (密碼驗證協定) – 用於驗證使用者的協定。
- Paraphrasing tool: (改寫工具) – 一種自動改寫文本的 AI 寫作工具。
- PaaS: Platform-as-a-Service (平台即服務) – 一種雲端運算模型。
- Parameter: (参数) – (再次強調)
- PCA: Principal Component Analysis (主成分分析) – (再次強調)
- PEGASUS: Pre-training with Extracted Gap-Sentences for Abstractive Summarization (使用提取的間隙句子進行抽象摘要的預訓練) – 一種用於文本摘要的模型。
- Perplexity: (困惑度) – 衡量文本不可預測性的指標。
- Persona: (角色) – 在 AI 的背景下,指的是分配給 AI 系統的一組特徵、特質或行為,以使其在與使用者互動時具有獨特的個性或角色。
- Plagiarism: (抄襲) – 未經授權使用他人的文字或想法。
- PLSI: Probabilistic Latent Semantic Indexing (機率潛在語義索引) – 一種統計技術。
- PMF: Probabilistic Matrix Factorization (機率矩陣分解) – 一種用於協同過濾的技術。
- PMI: Pointwise Mutual Information (逐點互信息) – 衡量兩個隨機變數之間相關性的指標。
- POC: Proof of Concept (概念驗證) – (文件中資訊不可用)
- POMDP: Partially Observable Markov Decision Process (部分可觀察馬可夫決策過程) – (文件中資訊不可用)
- POS: Part of Speech (詞性) – (再次強調)
- PPMI: Positive Pointwise Mutual Information (正逐點互信息) – PMI 的變體。
- PR AUC (Area under the PR Curve): (PR 曲線下面積) – 用於評估分類模型效能的指標。
- Predictive AI: (預測性 AI) – 使用歷史和即時數據來預測未來事件或結果的 AI 系統。
- PReLU: Parametric Rectified Linear Unit (參數化修正線性單元) – ReLU 的一個變體。
- Programming: (程式設計) – 給予電腦指令的過程。
- PTQ: Post Training Quantization (後訓練量化) – 一種模型優化技術。
- PYTM: Pitman-Yor Topic Modeling (皮特曼-約爾主題模型) – 一種主題模型。
- QAT: Quantization Aware Training (量化感知訓練) – 一種訓練對量化具有魯棒性的模型的方法。
- QuillBot: (QuillBot) – 提供改寫工具和其他 AI 寫作工具的公司。
- R2: R-squared (R 平方) – 衡量迴歸模型擬合度的統計量。
- RandNN: Random Neural Network (隨機神經網路) – (文件中資訊不可用)
- RFE: Recursive Feature Elimination (遞迴特徵消除) – 一種特徵選擇演算法。
- RICNN: Rotation Invariant Convolutional Neural Network (旋轉不變卷積神經網路) – (文件中資訊不可用)
- RIM: Recurrent Interence Machines (循環推論機) – (文件中資訊不可用)
- RLFM: Regression based latent factors (基於迴歸的潛在因子) – (文件中資訊不可用)
- RMSLE: Root Mean Squared Logarithmic Error (均方根對數誤差) – 衡量迴歸模型誤差的指標。
- RoBERTa: Robustly Optimized BERT Pretraining Approach (魯棒優化的 BERT 預訓練方法) – BERT 的一個變體。
- Robot: (機器人) – 能夠自動執行物理動作的機器。
- ROI: Region Of Interest (感興趣區域) – (文件中資訊不可用)
- SecOps: (安全運營) – 強調安全作為 DevOps 流程一部分的做法。
- seq2seq: Sequence to Sequence Learning (序列到序列學習) – 一種將序列從一個領域轉換到另一個領域的訓練方法。
- SER: Sentence Error Rate (句子錯誤率) – 用於衡量 NLP 解決方案效能的指標。
- SGVB: Stochastic Gradient Variational Bayes (隨機梯度變分貝氏) – 一種用於近似貝氏推斷的方法。
- Sign2(Gloss+Text): Sign to Gloss and Text (手語到手語注釋和文本) – 需要聯合學習手語識別和翻譯的兩步驟過程。
- Sign2Gloss: Sign to Gloss (手語到手語注釋) – 從單個手語到單個手語注釋的一對一翻譯。
- Sign2Text: Sign to Text (手語到文本) – 將手語完整翻譯成口語的任務。
- SLAs: Service Level Agreements (服務等級協議) – 服務提供者和客戶之間的協議。
- SLRT: Sign Language Recognition Transformer (手語識別轉換器) – 一種用於預測手語注釋序列的編碼器轉換器模型。
- SLT: Sign Language Translation (手語翻譯) – 將手語完整翻譯成口語。
- SLTT: Sign Language Translation Transformer (手語翻譯轉換器) – 一種用於生成相應口語句子的自迴歸轉換器解碼器模型。
- SMBO: Sequential Model-Based Optimization (序列模型優化) – (文件中資訊不可用)
- SMOTE: Synthetic Minority Over-sampling Technique (合成少數類別過採樣技術) – 一種用於處理不平衡數據集的技術。
- SOM: Self-Organizing Map (自組織映射) – 一種非監督式機器學習技術。
- SpaCy: (SpaCy) – 用於進階 NLP 的函式庫。
- SpRay: Spectral Relevance Analysis (頻譜相關性分析) – 一種使用頻譜聚類和局部解釋的全局可解釋性方法。
- SSL: Self-Supervised Learning (自監督學習) – (文件中資訊不可用)
- SSD: Single Shot Detection (單次檢測) – 一種物件偵測模型。
- SSVM: Smooth support vector machine (平滑支持向量機) – SVM 的一個變體。
- ST: Style Transfer (風格轉換) – 一種將一個物件的屬性轉移到另一個物件的演算法。
- STDA: Style Transfer Data Augmentation (風格轉換數據增強) – 一種使用風格轉換來增強數據集的方法。
- STL: Selt-Taught Learning (自學學習) – (文件中資訊不可用)
- SVD: Singular Value Decomposition (奇異值分解) – (文件中資訊不可用)
- SVR: Support Vector Regression (支持向量迴歸) – SVM 用於迴歸的版本。
- T5: Text-To-Text Transfer Transformer (文本到文本轉換轉換器) – 一種語言模型。
- TGAN: Temporal Generative Adversarial Network (時間生成對抗網路) – (文件中資訊不可用)
- THAID: THeta Automatic Interaction Detection (Theta 自動交互檢測) – (文件中資訊不可用)
- TIDL: TI Deep Learning Product (TI 深度學習產品) – Texas Instruments 的深度學習產品。
- TIDL-RT: TI Deep Learning Runtime (TI 深度學習運行時) – Texas Instruments 的深度學習運行時。
- TINT: Tree-Interpreter (樹解釋器) – (文件中資訊不可用)
- TLFN: Time-Lagged Feedforward Neural Network (時間延遲前饋神經網路) – (文件中資訊不可用)
- TRPO: Trust Region Policy Optimization (信任區域策略優化) – (文件中資訊不可用)
- t-SNE: t-Distributed Stochastic Neighbor Embedding (t 分佈隨機鄰域嵌入) – 一種降維技術。
- ULMFiT: Universal Language Model Fine-Tuning (通用語言模型微調) – (文件中資訊不可用)
- V-Net: Volumetric Convolutional neural network (體積卷積神經網路) – 基於體積全卷積神經網路的 3D 圖像分割。
- VAD: Voice Activity Detection (語音活動檢測) – (文件中資訊不可用)
- VAE: Variational AutoEncoder (變分自編碼器) – 一種人工神經網路架構。
- VPNN: Vector Product Neural Network (向量積神經網路) – (文件中資訊不可用)
- VQ-VAE: Vector Quantized Variational Autoencoders (向量量化變分自編碼器) – (文件中資訊不可用)
- VR: Virtual Reality (虚拟现实) – (文件中資訊不可用)
- WFST: Weighted finite-state transducer (加權有限狀態轉換器) – (文件中資訊不可用)
- WMA: Weighted Majority Algorithm (加權多數演算法) – (文件中資訊不可用)
- WPE: Weighted Prediction Error (加權預測誤差) – (文件中資訊不可用)
- YOLO: You Only Look Once (你只看一次) – 一種快速的物件偵測演算法。
- YOLO9000: (YOLO9000) – 一種物件偵測演算法。
- YOLOv2: (YOLOv2) – 一種物件偵測演算法。
III. 結論
- AI 關鍵縮寫詞回顧: 簡要重申理解 AI 縮寫詞的重要性,並重點介紹詞彙表中涵蓋的一些關鍵術語。
- AI 術語的動態性: 強調 AI 領域不斷發展,新的縮寫詞將繼續出現。鼓勵持續學習並掌握最新發展。
- 本詞彙表的價值: 重申本報告作為導航複雜 AI 術語領域和促進更好理解 AI 概念和討論的有用資源的價值。
引用的著作
Extracting Acronyms through Natural Language Processing – TVS Next, 檢索日期:5月 7, 2025, https://tvsnext.com/blog/extracting-acronyms-through-natural-language-processing/
AI Definitions. Exploring 8 common artificial intelligence terms and acronyms – ServisBOT, 檢索日期:5月 7, 2025, https://servisbot.com/ai-definitions/
What do AI acronyms mean? | Firmbee, 檢索日期:5月 7, 2025, https://firmbee.com/what-do-ai-acronyms-mean
17 AI Acronyms, Abbreviations and Terms Explained – Moxie, 檢索日期:5月 7, 2025, https://moxielearn.ai/blog/17-ai-terms-and-acronyms
Glossary of AI Terms | Acronyms & Terminology – Scribbr, 檢索日期:5月 7, 2025, https://www.scribbr.com/ai-tools/ai-terms-glossary/
The Comprehensive Guide to AI Terms, Phrases, and Acronyms | Kindo Blog, 檢索日期:5月 7, 2025, https://www.kindo.ai/blog/45-ai-terms-phrases-and-acronyms-to-know
There Are a Lot of Generative AI Acronyms — Here’s What They All Mean – Datek Solutions, 檢索日期:5月 7, 2025, https://www.datek.co.uk/blog/there-are-a-lot-of-generative-ai-acronyms-here-s-what-they-all-mean
10 Intelligent Automation Acronyms to Know – From AI to RPA – Naviant, 檢索日期:5月 7, 2025, https://naviant.com/blog/10-acronyms-intelligent-automation/
5 AI Acronyms: What Do They Mean? – Luminance, 檢索日期:5月 7, 2025, https://www.luminance.com/news/blogs/20230710_luminance.html
IT Acronyms You Need to Know — From AIOps To WLA – ActiveBatch Workload Automation, 檢索日期:5月 7, 2025, https://www.advsyscon.com/blog/it-acronyms-it-abbreviations/
Acronyms of deep learning – The Kernel Trip, 檢索日期:5月 7, 2025, https://www.thekerneltrip.com/deep-learning/acronyms-of-deep-learning/
AgaMiko/machine-learning-acronyms: A comprehensive list … – GitHub, 檢索日期:5月 7, 2025, https://github.com/AgaMiko/machine-learning-acronyms
What Is DL? Deep Learning – Acronyms – Martech Zone, 檢索日期:5月 7, 2025, https://martech.zone/acronym/dl/
Data Science Acronyms | Kaggle, 檢索日期:5月 7, 2025, https://www.kaggle.com/general/243282
Machine Learning Glossary – Google for Developers, 檢索日期:5月 7, 2025, https://developers.google.com/machine-learning/glossary
List of Acronyms – Machine Learning Glossary, 檢索日期:5月 7, 2025, https://machinelearning.wtf/acronyms/
List of Acronyms for Machine Learning | Download Table – ResearchGate, 檢索日期:5月 7, 2025, https://www.researchgate.net/figure/List-of-Acronyms-for-Machine-Learning_tbl1_325107577
TI Deep Learning Product User Guide: Acronyms, 檢索日期:5月 7, 2025, https://software-dl.ti.com/jacinto7/esd/processor-sdk-rtos-jacinto7/08_02_00_05/exports/docs/tidl_j721e_08_02_00_11/ti_dl/docs/user_guide_html/md_tidl_acronyms.html
AI Acronyms | IT Insight – UMSL Blogs, 檢索日期:5月 7, 2025, https://blogs.umsl.edu/itinsight/2025/02/ai-acronyms/
Machine learning [ISO,NLM] abbreviation – Paperpile, 檢索日期:5月 7, 2025, https://paperpile.com/n/machine-learning-abbreviation/
15 must-know abbreviations in NLP language models – DEV Community, 檢索日期:5月 7, 2025, https://dev.to/amananandrai/10-must-know-abbreviations-in-nlp-language-models-4l93