tft每日頭條

 > 生活

 > ai具有代表性的大模型有哪些

ai具有代表性的大模型有哪些

生活 更新时间:2024-07-24 13:16:52

使用模型屬性、本地邏輯表示和全局邏輯表示從黑盒模型生成解釋

快速回顧:XAI 和 NSC

可解釋人工智能 (XAI) 緻力于開發對人類(包括用戶、開發人員、政策制定者和審計人員)來說本質上更容易理解的人工智能模型。 神經符号計算 (NSC) 處理将子符号學習算法與符号推理方法相結合。 因此,我們可以斷言神經符号計算是可解釋人工智能下的一個子領域。 NSC 也是最适用的方法之一,因為它依賴于結合現有的方法和模型。

ai具有代表性的大模型有哪些(面向可解釋AI的黑盒和白盒模型)1

如果可解釋性是指用人類語言有意義地描述事物的能力。那麼它可以認為,它是将原始信息(數據)映射到人類有意義的符号表示(例如,英語文本)的可能性。

通過從子符号中提取符号,我們可以使這些子符号具有可解釋性。XAI和NSC都在努力使次符号系統更易于解釋。NSC更多的是關于子符号到符号的映射,通過邏輯設計的可解釋性:對子符号學習表示的符号推理。XAI沒有那麼具體,更多的是關于所有細微差别的可解釋性,即使可解釋性被包裹在無法解釋的模型中。如果從子符号中提取符号意味着可解釋性,那麼XAI包含了NSC。

Neuro-Symbolic Concept Learner

Mao等人提出了一個新的NSC模型,Neuro-Symbolic Concept Learner,它遵循以下步驟:

ai具有代表性的大模型有哪些(面向可解釋AI的黑盒和白盒模型)2

  • 圖像分類器學習從圖像或文本片段中提取亞符号(數字)表示。
  • 然後,每個次符号表征都與一個人類可以理解的符号相關聯。
  • 然後,符号推理器檢查符号表示的嵌入相似性
  • 訓練繼續進行,直到通過更新表示使推理機輸出的準确性達到最大為止。
白盒和黑盒模型

AI模型可以是(i)白盒或(ii)黑盒。

白盒模型可以通過設計來解釋。因此,它不需要額外的功能來解釋。

黑盒模型本身是無法解釋的。因此,為了使黑盒模型具有可解釋性,我們必須采用幾種技術從模型的内部邏輯或輸出中提取解釋。

黑盒模型可以使用以下内容解釋

模型屬性:展示模型或其預測的特定屬性,如(a)屬性變化的敏感性,或(b)負責給定決策的模型組件(如神經元或節點)的識别。

局部邏輯:單個決策或預測背後的内部邏輯的表示。

全局邏輯:整個内部邏輯的表示。

因此,下圖顯示了AI模型的可解釋性的子類别:

ai具有代表性的大模型有哪些(面向可解釋AI的黑盒和白盒模型)3

基于規則的可解釋性與基于案例的可解釋性

除了可解釋模型的邏輯區分之外,我們還确定了兩種常見的解釋類型,所有上述模型都可以采用它們來提供解釋:

基于規則的解釋:基于規則的可解釋性依賴于生成“一組形式化的邏輯規則,這些規則構成了給定模型的内部邏輯。”

ai具有代表性的大模型有哪些(面向可解釋AI的黑盒和白盒模型)4

基于案例的解釋:基于規則的可解釋性依賴于提供有價值的輸入-輸出對(包括積極的和消極的),以提供對模型内部邏輯的直觀理解。基于案例的解釋依賴于人類從這些配對中推斷邏輯的能力。

ai具有代表性的大模型有哪些(面向可解釋AI的黑盒和白盒模型)5

基于規則和基于案例的學習算法比較

假設我們的模型需要學習如何做蘋果派的食譜。我們有藍莓派、奶酪蛋糕、牧羊人派和普通蛋糕的食譜。基于規則的學習方法試圖想出一套通用的規則來制作所有類型的甜點(即急切方法),而基于案例的學習方法則根據需要概括特定任務所需的信息。因此,它會在可用數據中尋找與蘋果派最相似的甜點。然後,它會嘗試在類似的食譜上進行小的變化來定制。

XAI: 設計白盒模型

包括基于規則和基于案例的學習系統,我們有四種主要的白盒設計:

手工制作的專家系統;

基于規則的學習系統:從歸納邏輯規劃、決策樹等數據中學習邏輯規則的算法;

案例學習系統:基于案例推理的算法。他們利用例子、案例、先例和/或反例子來解釋系統輸出;和

嵌入式符号和提取系統:更多的生物啟發算法,如神經符号計算。

最後總結

在本文中,我們:

  1. 簡要介紹XAI與NSC的異同;
  2. 定義并比較黑盒和白盒模型;
  3. 使黑盒模型可解釋的方法(模型屬性,局部邏輯,全局邏輯);
  4. 比較基于規則的解釋和基于案例的解釋,并舉例說明。

作者:Orhan G. Yalçın

,

更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!

查看全部

相关生活资讯推荐

热门生活资讯推荐

网友关注

Copyright 2023-2024 - www.tftnews.com All Rights Reserved