一般的な考察

この章では、説明のために選んだ例で様々な機械学習戦略を利用し、いくつかのケースではハイブリッドネットワークも利用された。 重要な実用上の問題として、与えられた問題を解決するためのアルゴリズムの選択がある。 残念ながら正解はない。 この文脈では、Wolpert と Macready のいわゆる「無料ランチなし」定理を考慮することが重要です。これは、「任意のアルゴリズムについて、問題の 1 つのクラスに対するパフォーマンスの向上は、別のクラスに対するパフォーマンスによって相殺される」と述べています。 しかし、各方法は、問題の特定のクラスに最もよく一致する可能性があります。 つまり、ある研究で最もパフォーマンスの高いアルゴリズムが、他の機械学習タスクの最適な戦略であると一般化することはできません。 従って、与えられた問題に対して適切なモデルを選択することが重要である。 しかし、残念ながら、どのような理論的根拠に基づいて選択すればよいのかわからない。 そのため、試行錯誤しながら経験的に選択する必要がある。 アルゴリズムの評価研究は、この一般原則の良い具体例を提供しました。

選択にかかわらず、すべてのモデルには調整可能なパラメーターまたはハイパーパラメーターがあります。 たとえば、ニューラルネットワークの場合、調整可能なパラメーターには、各層のノード数および層数が含まれます。 バックプロパゲーションでは、運動量と学習速度の選択がある。 CNNの場合、畳み込み行列のサイズについて決定する必要がある。 初期重みはランダムでなければならないが、そこではほとんどの乱数は「種」番号から始まってコンピュータによって生成される。 この種もパラメータである。 このリストは決して網羅的なものではない。 ランダムフォレストでは、木の数、枝の数、木の深さなどがパラメータとして選択されなければならない。 k-meansでは、クラスタの数と、クラスタを定義する反復プロセスを開始するk個の乱数シードを選択する必要がある。 調整可能なパラメーターは、人工知能にとっての事実です。

モデルの選択におけるもう 1 つの考慮事項は、そのモデルの暗黙的なバイアスです。 これは、学習セットの要素の選択や、特徴またはクラス ラベルの値に基づく評価から生じるような外部バイアスではなく、各モデルに組み込まれた仮定を指します。 例えば、K-meansは互いに似た大きさの球状のクラスターを仮定する(ただし、この制約がない優れたモデルもある)。 ナイーブベイズは、特徴ベクトルを記述する属性が互いに独立であることを仮定する。 データ分布に関する仮定は、ほとんどすべての機械学習アルゴリズムの核心である。 データセットの性質を十分に理解し、そのデータセットに対して最も制約が少ないアルゴリズムを選択できるようにすることが重要である。 残念ながら、「バイアス」という用語の使用は、AI プログラムを擬人化する傾向があり、関係する問題を不明瞭にします。

深層学習ネットワークにおける暗黙のバイアスの検出は、そのネットワークが正しい出力に到達するためにその入力をどのように処理しているかについて真の理解がないため、困難になっています。 つまり、説明可能性と解釈可能性に問題があるのです。 解釈可能性とは、入力やアルゴリズム(調整可能な)パラメータを変更した場合の影響を予測する能力である。 説明可能性とは、アルゴリズムがどのような根拠で結論を出しているのかを理解する能力である。 例えば、AIがどのような根拠で高グレードの悪性腫瘍と診断したのか、あるいは形態的には似ているが生物学的には異なる2つの腫瘍をどのように区別したのか、外科医に説明できれば安心できるかもしれません。 興味深いことに、リファレンスレベルの高度な訓練を受けた病理医に診断に至った経緯を質問すると、診断に至った「長年の経験」に言及することが多い。 より具体的な基準を求められると、彼らはそれを作り上げるかもしれないが、それは多くの場合、すでに直感的になされた決定を正当化するために、その場しのぎで行われるものである。 このため、ニューラル ネットワークのブラックボックス的性質は、ある人にとっては不穏なものですが、人工知能の他の人たちにとっては気になりません。 たとえば、顕著性マップは、モデルによる予測に最も貢献する画像内のピクセルの視覚化を作成します。 ピクセル値にわずかな調整を加えて予測されるクラスの変化を計算することで、最終的な出力値に対する各ピクセルの相対的な重要度を測定することができます。 これについては、文献. 他のアプローチでは、バックプロパゲーションが進むにつれて隠れ層のニューロンの活動を決定しようとし、さらに、強度、方向、色、および形状などのこれらの特性をマッピングすることによって、ますます複雑になる隠れ層の出力の視覚表現を得ようとする。

これらのアプローチは、ニューラルネットワークがクラス間を識別する方法に関して何らかの洞察を与えるかもしれないが、それでも人間の用語で何が起こっているかを「説明」することはない。 AI が、人間の観察者にとって明白な戦略的重要性を持たない、予想外の驚くべきチェスの動きをし、その動きが勝利のシーケンスを開始したとき、これらの内部測定は、振り返ってみると「見事」であることが判明した動きをプログラムがどのように作成したかについての手がかりを何も提供しません。 従って、人間の観察者にとって真の学習体験にはならない。 一方、人間のグランドマスターのプレイを人間が観察する場合、このようなことが起こることがある。 とはいえ、機械学習アルゴリズムの内部意思決定プロセスに関する知識は、より優れたアルゴリズムの開発に役立つ可能性があるため、人間の天才を理解できないことがあることを受け入れながら、AIの説明可能性を主張することには意味があります。 深層学習の登場により、機械学習は、すべてではないにせよ、代替アプローチのほとんどを超える大きな進歩を遂げました。 複雑で多次元な特徴セットを扱う場合、ニューラルネットワークは他の種類の機械学習を大幅に凌駕する。 同じデータセットを扱いながら、さまざまなネットワークモデルを使った論文を比較すると、それぞれの主張する向上は漸進的なものになりがちである。 あるものは他のものより優れているが、いずれも90%~95%以上の精度を達成する結果に収束しているようだ(他の評価指標も同様の結果)。 しかし、これは、それぞれの選択プログラムの最適化に細心の注意を払っているためと思われる。 また、計算能力の違いも考慮しなければならない。 この後者の理由から、全く同じプラットフォームで実行されていない限り、あるアルゴリズムと別のアルゴリズムを比較する際に、性能速度を使用すべきではありません。 もう一つの理由は、トレーニングセットが、一般に流通しているデータを簡略化し、慎重にキュレーションしたものであることが多いからである。 このため、あまり構造化されていない状況では、より大きな違いが観察される可能性がある。 最後に、あるアルゴリズムがある環境で得た結果は、同じアルゴリズムを別の環境で使用した結果と必ずしも一致しない場合がある。 言い換えれば、過去のパフォーマンスは将来の結果を保証するものではない。

このような考慮事項のため、2 つ以上の異なるアルゴリズムを順次または並行して組み合わせるハイブリッド モデルと同様に、さまざまなアンサンブル手法が使用されてきた。 マルチラベル検出と弱い監視の両方について、上記で例を示しました。

Articles

コメントを残す

メールアドレスが公開されることはありません。