公平性 (機械学習)

アルゴリズムの出力が性別、民族、性的指向、障害の有無などの変数に依存しないよう設計すること

機械学習における公平性(こうへいせい、: fairness)は、機械学習モデルを用いた自動意思決定の過程でのアルゴリズムバイアスを是正する取り組みのことを指す。機械学習のプロセスを経たコンピュータによる意思決定が機微な変数英語版に基づいている場合、そのような意思決定は不公平とみなされる場合がある。機微な変数の具体例には、性別民族性的指向障害の有無などが挙げられる。他の多くの倫理的な概念と同様に、公平性やバイアスの定義は常に論争の的となってきた。一般に、意思決定が人々の生活に影響を与える場合、公平性やバイアスの問題が重要になってくると考えられる。機械学習の分野では、アルゴリズムバイアスの問題はよく知られており、広く研究の対象となっている。結果は多様な要素によって歪められ、特定の集団や個人にとって不公平とみなされる場合がある。このような事例の例として、ソーシャルメディアサイトがパーソナライズされたニュースを消費者に配信する場合などが挙げられる。

背景 編集

機械学習における公平性の議論は比較的最近の論点である。2016年からその論点における研究で急な増加があった[1]。この増加はある程度アメリカ合衆国の裁判所で累犯を予測するのに広く用いられる、 COMPASソフトウェアが、人種上のバイアスであること主張するところの、プロパブリカによる影響力のある報告とみなされる[2]。一つの研究の論点および議論は、機械学習のモデルを判断するには困難にさせるものである、普遍性をもった定義は無くそして異なった定義はたがいに矛盾しうるものとしての、公平性の定義である[3]。他の研究の論点は、発生論(: origins of bias )、類型論(: types of bias )、および低減方法論(: methods to reduce bias)を含む[4]

近年高度な技術を持った企業は機械学習でのバイアスの探知と低減の方法に関する道具(ソフトウェアツール、略してツール)と取扱書をつくらせた。ソフトウェアバイアスを低減しその公平性を上昇させる特別なアルゴリズムをもったPythonR言語のツールをIBMは持っている[5][6]Googleは機械学習でのバイアスを研究し撃退する指針とツールを発表した[7][8]フェイスブックは彼らのツールの利用、公平性の流れ(: Fairness Flow)、彼らの人工知能でのバイアスの探知を報告した[9]。しかしながら、それら企業の努力は十分でなく、そのような従業員によるツールの少しの利用を報じることは、ツールの利用が選択的であっても、そしてそれが可能であっても、すべての彼らのプログラムにたいして使うことはできないことを、論評者たちは主張した[10]

論争 編集

法律上のシステムでのアルゴリズム的な意思決定の利用は、吟味のもとでの利用での注目に値する領域でありつづけてきた。2014年に、アメリカ合衆国司法長官エリック・ハンプトン・ホルダーは、「リスクアセスメント」の方法が、被告の教育水準や社会経済的背景のような、彼らの管理の下ではない要因に過度に焦点をあてさせるかもしれないという問題を提起した[11]。COMPASに関するプロパブリカによる2016年の報告は、黒人の被告が白人の被告よりもたいてい二度高リスクとして誤って分類される可能性が高く、これに対して白人において逆の誤りがなされることを主張した[2]。COMPASの製作者の、Northepointe Inc.は、彼らのツールが公正でプロパブリカが統計的誤りをしたことを主張して、その報告と争った[12]。これは引き続きプロパブリカにより再度反論された[13]

集団公平性規準 編集

分類問題において、アルゴリズムは、既知の特性 から、目的の変数である、離散的な特性 を予測する関数を学習する。 を、含まれた幾つかの特性を変換するかまたは、機微な特性(性別、民族、性的指向、その他)として考える において'陰的に'(: implicitly )変換するものである、離散的な確率変数とする。最後に、分類子(: classifier)の予測を で記す。 今、幾つかのこれら機微な変数によって影響されない予測であるかどうか、与えられた分類子が公平であるならば、三つの主な評価規準を定義する[14]

独立性 編集

確立変数 が、もしその機微な特性変数 が予測子  と確率的に独立であるとき、独立性を満たすと呼び、

 
と記す。この記法は次の式でも表すことができる:
 
これは、各々の目的クラスの分類比率は機微な特性変数 を尊重する異なった集団に属する人々に等しいことを意味する。

分離性 編集

確立変数 が、もしその機微な特性変数 が目的変数 によって与えられる予測子  と確率的に独立であるとき、分離性を満たすと呼び、

 
と記す。この記法は次の式でも表すことができる:
 
これは、機微な属性 に関する判別  のすべての独立性は真の目的変数 の実際の独立性と一致されなくてはならないことを意味する。

充分性 編集

確立変数 が、もしその機微な特性変数 が予測子 によって与えられる 目的変数 と確率的に独立であるとき、充分性を満たすと呼び、

 
と記す。この記法は次の式でも表すことができる:
 

定義の間の関係 編集

上記に与えた三つの定義に関する主要な結果を要約すると:

  •  が二値判別的であることを考えると、もし  が独立でなく、かつ  が独立でもなければ、独立性と分離性はともに保たれない。
  • もし同時分布としての がすべてのそのとりうる値についての'陽確率'(: positive probabirity)をもち、かつ  が独立でないならば、分離性と充分性はともに保たれない。

集団公平性の定義の数学的定式化 編集

基本定義 編集

公平性の統計的測定の多くは異なった計測にあるので、それらを定義することから始める。二値の分類による作業の場合、予測のものと実際の両方の分類は二つの値をとり得る:陽値と陰値。予測と実際の結果の間の、異なった可能な関係の説明から今始める[15]

 
混同行列
 
(Barocas, Hardt & Narayanan 2023)で示された公平性規準の相互の関係。

次の規準はこの節の最初の、独立性分離性充分性の三つの主な定義の計測として理解できる。 右の表において、それらの間の関係をみることができる。

予測結果に基づく定義 編集

この節における定義は客体の多様な確率分布についての予測結果 に焦点をあてる。これらは最も単純で最も直接的な公平性の記述である。

  • 統計的平価: statistical parity)、承認(または容認[16])比率平価: acceptance rate parity)または比較分析: benchmarking)とも呼ばれる、人口統計的平価: demographic parity)。もし保護ならびに非保護の集団での客体が陽評価への割り当てへ等確率であるならば、分類子はこの定義を満足する。これは、次式を満足する場合である:

 

予測と実際の結果に基づく定義 編集

これらの定義は予測結果 だけでなく、それを実際の結果 と比較することも考慮する。

  • 全体精度平等: overall accurancy equality)。保護ならびに非保護の集団における客体が等予測精度を有するならば、分類子はこの定義を満たす。これは、ひとつの分類からの客体の確率がそれに承認される。これは次式を満足する場合である:

 

予測された確率と実際の結果に基づく定義 編集

これらの定義は実際の結果 とその予測された確率得点 に基づく。

  • 較正: calibration)、または条件の度数の突合せ: matching conditional frequencies)とも呼ばれる、検査公平性: test-fairness)。諸個人が保護または非保護の集団のどちらかに属するときに、同一の予測確率得点 をもつ彼ら個人が同一の陽分類での分類になる確率を有するならば、分類子はこの規準を満たす:

 

社会的厚生関数 編集

何人かの学者はアルゴリズム的公平の定義を社会的厚生関数の術語で提示した。社会的厚生関数の使用は、アルゴリズムによって影響を受ける人々についての効用の用語をもって、アルゴリズムの設計者に公平性を考慮にいれ正確さを予測するようにさせることを彼らは主張する。それは設計者に原則的な方法での効率性と公平性(: equity)の一得一失をさせる[17]。 アルゴリズム設計者は恵まれない集団の絶対的な利得を認識するために社会的厚生関数を使うべきであることをセンディル・ムッライナタン英語版は述べた。例えば、犯罪の割合が一定である間も、純粋に人間による判定(: judgment)よりも、黒人、ヒスパニック、など人種的少数派全般に対する拘留率を引き下げる、未決拘禁での意思決定アルゴリズムを使う研究が見られる[18]

個別公平性規準 編集

公平性の定義における重要なひとつ大きな差異は集団と個別の概念の間のものである[19] [20][15][21]。率直にいえば、集団公平性規準が、たいてい機微属性(たとえば、性別、民族、年齢、その他…)によって識別する、集団水準で数量比較するのに対し、個別規準は諸個人を比較する。言い換えれば、その規準は「似通った諸個人は似通った処理をすべきである」ことに従う。

不知を通した公平性: Fairness Through Unawareness、略してFTU)と通常称されるもの、あるいは(自動的な)決定を行う際に陽に機微特徴を用いないことを規定するものである、'無分別'(: Blindness)によるものである、公平性に対するとても直観的な取り組み方がある。二人の個人が、その同じ結果を受け入れるような彼らの機微属性の値についてだけ異なっているため、これは個別公平性の概念に有効である。

最も一般的な個別公平性の概念は2012年にシンシア・ドワーク英語: Cynthia Dworkとその共同研究者らによる先駆的な仕事において導入された[22]。そして、モデル写像におけるリプシッツ条件として表現される、入力としての特徴をとる決定写像が「似通った個人らは同じように写像する」ようにできることを組み立てられるべきであるところの原理の、ある数学的な翻訳として考えられる。彼らは、特定の状況でどの個人らが'似ている'かを査定することにおいて、適当な目的‐関係の距離計量の選択の重要性を強調したので、精確にはFTUとは対位法の、認識を通した公平性: Fairness Through Awareness、略してFTA)と彼らはこの取り組み方を呼んだ。再び、この問題は、特定の文脈でいかなる変数が「正当」なものとして取り上げられうるかに関して持ち上がる論点にとても関連する。

因果関係にもとづく測定 編集

因果性公平性(: causal fairness)は、どちらのリソースの割り当てが公正な個人的な処理の受け入れに公平であるかの尊重をもった、特性の或る組み合わせにおいてだけ異なる者の、二つの似通った個々の利用者またはアプリケーションのものによる度数を測定する[23]。公平性計測に関する学術的な研究の全部の分野は、機械学習モデルでの偏見を評価することに、因果性モデルを波及するよう発展してきた。この対処法は通常、同一に観測されるデータの分布は作用における変数の間の、ひょっとすると偏見のなんらかの形によって結果が影響されているか否かの違った表現の、違った因果性関係を隠しているかもしれない事実によって、根拠を示す[14]

(Kusner et al. 2017)は反事実英語版: counterfactuals)を用いることを提案する、そしてもし任意の個人について、 機微情報が変化したときに反事実シナリオにおいて結果が変化しなければ、意思決定過程の反事実公平性: counterfactually fair)が満たされるものとして定義する。その数学的な定式化は次式を導く:    

ここに:機微属性が でその他の特徴が であるランダムな個人 と、 を有する同じような個人について、彼らは承認になる機会が同じになるべきであるとする。

バイアス軽減戦略 編集

3つの異なった方法により機械学習アルゴリズムに公平性を施しうる:データ前処理、ソフトウェアの学習(: training)における数理最適化、もしくはアルゴリズムの後処理の結果。

前処理 編集

大抵、分類は単独では問題ではない;データセットも偏見化されている。 と尊重するデータセット の偏見は次のように定義される:

 

再計量 編集

再計量(: reweighing)は前処理アルゴリズムの一例である。その考え方は、 指定された集団の尊重による計量された偏見が0になるように、各々のデータセットにある計量を割り当てることである[24]

センシティブ変数 をデータセット が差別せず、目的変数 独立で、同時分布の確率が次のような確率の積であるならば:

 

処理中に行う方法 編集

別の対処法は学習時に偏見を直すことである。アルゴリズムの最適化をする目標に対して制約を課することによりこれはなされうる[25]。保護された集団とその残りの個人らについての一定の測定の同じ比率を保つことによって、これらの制約はアルゴリズムに公平性を改善するようせしめる。たとえば、誤った陽割合が、保護された集団での個人と保護された集団の他のものとで同じになる、 目標の条件をアルゴリズムに追加することができる。

この取り組み方でのおもに用いられる測定は誤った陽割合、誤った陰割合、及び全部の誤分類割合である。アルゴリズムの目標にこれら制約のたった一つもしくは幾つかを追加することができる。 誤った陰割合の等しさは、これは機会の平等を意味するから、真の陽割合の等しさを意味することに注意せよ。問題についての制約を課したのち、解決しないかもしれない、そうなのでそれらにおける緩和が逆に必要かもしれない。

高精度に公平性を改善ことにおいてこのテクニックはよい結果を達成する、そして改善のための公平性の測定をプログラマーに選ばせる。しかしながら、各々の機械学習の作業は異なった適用可能な方法を必要とし、そして分類法での、常に可能とは限らないコードは修正が必要かもしれない[26]

突出した偏見の除去 編集

同じ最急降下による方法(最急降下法を見よ)を通じて同時に二つの分類を矯正する。一つに、'予測器'(: predictor)は、それの重み で修正された、何らかの損失関数 を最小化させる、 で与えられる入力の、目的変数の、 の予測の作業を達成しようとする。二つに、'反対器'(: adversary)は、なんらかの損失関数 を最小化するような、その重み で修正された が与えられ、機微変数の の予測を達成しようとする[27][28]

正確に進めるのに、ここで重要な点は、前述の は、その離散的な予測ではなく、分類法の生の出力を意味しているに違いないことである;たとえば、人工ニューラルネットワークや分類問題をもって、ソフトマックス層の出力を は意味する。

毎学習段階に勾配 に応じて を最小化するよう を更新し、次の式により を修正する:

 
ここに、 は毎段階で変化しうる、調整可能な超パラメーター英語版である。
 
Zhang, Lemoine & Mitchell 2018で示されたような、突出した偏見の除去で用いられるベクトルの図示。

直観的な考えは、'反対器'が  からの機微変数の予測に失敗するから、'予測器'が (すなわち )を最小化をするときに、同時に、 (すなわち )をも最大化させたいことである。

後処理 編集

最後の方法は公平を達成する分類の結果を修正することを試みる。この方法では、各々の個人に対する得点を返すような分類を用い、そしてそれらについての2値の推測(: prediction)を必要とする。低得点が陰なものを得そうなのに対して、高得点は陽な結果を得そうにみえる、しかし、望む場合に然りと答えるように、その決定をするような閾値 を調整することができる。その閾値の値の変動は真の陽のものと真の陰のものにおける一得一失に影響を与えることに注意せよ。

選択的な分類を避けること 編集

 を、事例 が陽な分類+に属するところの確率としての分類により計算される確率とするような、分類を考える。  が1もしくは0に近い場合、その事例  は一定の高い頻度をもって順に+か-に属することをもって表される。けれども、 が0.5に近いならば分類が大きく不確かになる[29]

関連項目 編集

脚注 編集

引用文献 編集

ウェブサイト 編集

  • Mattu, Julia Angwin,Jeff Larson,Lauren Kirchner,Surya (英語), Machine Bias 
  • Zafar, Muhammad Bilal; Valera, Isabel; Rodríguez, Manuel Gómez; Gummadi, Krishna P., Fairness Beyond Disparate Treatment & Disparate Impact: Learning Classification without Disparate Mistreatment 
  • AI Fairness 360 
  • (英語) Responsible AI practices 
  • (英語) How we're using Fairness Flow to help build AI that works better for everyone 
  • Kamiran, Faisal; Calders, Toon (2011-12-03), Data preprocessing techniques for classification without discrimination 
  • Kamiran, Faisal; Karim, Asim; Zhang, Xiangliang (2012), Decision Theory for Discrimination-aware Classification 
  • (英語) Attorney General Eric Holder Speaks at the National Association of Criminal Defense Lawyers 57th Annual Meeting and 13th State Criminal Justice Network Conference, (2014-08-01) 
  • Dieterich, William; Mendoza, Christina; Brennan, Tim (2016), “COMPAS Risk Scales: Demonstrating Accuracy Equity and Predictive Parity”, Northpointe Inc 
  • Angwin, Jeff Larson,Julia (July 29, 2016) (英語), Technical Response to Northpointe 
  • Verma, Sahil; Rubin, Julia (2018), “Fairness definitions explained”, 2018 IEEE/ACM international workshop on software fairness (fairware) (IEEE): pp. 1-7 
  • Ziyuan Zhong (2018-10-22), Tutorial on Fairness in Machine Learning 
  • Xu, Joyce (2019-01-18), Algorithmic Solutions to Algorithmic Bias: A Technical Guide 
  • IBM AI Fairness 360 open source toolkit adds new functionalities, Tech Republic, (4 June 2020) 
  • Wiggers, Kyle (2021-03-31) (英語), AI experts warn Facebook's anti-bias tool is 'completely insufficient' 
  • Fairness Indicators, tensorflow, (2022-11-10) 

書籍 編集

  • Dwork, Cynthia; Hardt, Moritz; Pitassi, Toniann; Reingold, Omer; Zemel, Richard (2012). “Fairness through awareness”. Proceedings of the 3rd Innovations in Theoretical Computer Science Conference on - ITCS '12. pp. 214–226. ISBN 9781450311151 
  • Galhotra, Sainyam; Brun, Yuriy; Meliou, Alexandra (2017). Fairness Testing: Testing Software for Discrimination. 498–510. ISBN 9781450351058 
  • Kusner, M. J.; Loftus, J.; Russell, C.; Silva, R. (2017), “Counterfactual fairness”, Advances in neural information processing systems, 30., ISBN 9781510860964 
  • Barocas, Solon; Hardt, Moritz; Narayanan, Arvind (2023-11-28), Fairness and Machine Learning: Limitations and Opportunities, MIT Press, ISBN 9780262048613 

AV媒体 編集

  • Mullainathan, Sendhil [in 英語] (2018年6月19日). Algorithmic Fairness and the Social Welfare Function. Keynote at the 19th ACM Conference on Economics and Computation (EC'18). YouTube. 48 該当時間:. In other words, if you have a social welfare function where what you care about is harm, and you care about harm to the African Americans, there you go: 12 percent less African Americans in jail overnight.... Before we get into the minutiae of relative harm, the welfare function is defined in absolute harm, so we should actually calculate the absolute harm first.

雑誌 編集

  • Mitchell, Shira; Potash, Eric; Barocas, Solon; d'Amour, Alexander; Lum, Kristian (2021-03). “Algorithmic Fairness: Choices, Assumptions, and Definitions”. Annual Review of Statistics and Its Application 8 (1): 141–163. 
  • Friedler, Sorelle A.; Scheidegger, Carlos; Venkatasubramanian, Suresh (April 2021). “The (Im)possibility of fairness: different value systems require different mechanisms for fair decision making” (英語). Communications of the ACM 64 (4): 136–143. 
  • Mehrabi, Ninareh; Morstatter, Fred; Saxena, Nripsuta; Lerman, Kristina; Galstyan, Aram (2021-07-13). “A Survey on Bias and Fairness in Machine Learning”. ACM Computing Surveys 54 (6): 115:1–115:35. 
  • Castelnovo, Alessandro; Crupi, Riccardo; Greco, Greta; Regoli, Daniele; Penco, Ilaria Giuseppina; Cosentini, Andrea Claudio (2022). “A clarification of the nuances in the fairness metrics landscape”. Scientific Reports 12 (1): 4209. 

ウェブアーカイブ 編集

  • Brian Hu Zhang; Blake Lemoine; Margaret Mitchell (2018-01-22), Mitigating Unwanted Biases with Adversarial Learning 
  • Caton, Simon; Haas, Christian (2020-10-04), Fairness in Machine Learning: A Survey 
  • Chen, Violet (Xinying); Hooker, J. N. (2021), Welfare-based Fairness through Optimization