banner

ブログ

Sep 20, 2023

AI を最適に管理するにはどうすればよいでしょうか?

2023 年 5 月 25 日 | ブラッド・スミス - 副会長兼社長

この投稿は、Microsoft のレポートに対して Brad Smith によって書かれた序文です。AI の統治: 未来への青写真 。 レポートの最初の部分では、政府が AI に関する政策、法律、規制を検討すべき 5 つの方法について詳しく説明します。 2 番目のパートでは、マイクロソフトの倫理的 AI に対する社内の取り組みに焦点を当て、同社がどのように責任ある AI の文化を運用し、構築しているかを示します。

「コンピュータに何ができるかを問うのではなく、コンピュータが何をすべきかを問うのだ。」

これは、2019年に私が共著した本のAIと倫理に関する章のタイトルです。当時、私たちは「これは私たちの世代を決定づける質問の1つかもしれない」と書きました。 4 年後、この問題は世界の首都だけでなく、多くの食卓の中心となっています。

人々は、OpenAI の GPT-4 基礎モデルの能力を使用したり聞いたりするにつれて、しばしば驚き、さらには驚愕することがあります。 多くの人が熱中したり興奮したりしています。 心配したり、恐怖を感じたりする人もいます。 ほぼすべての人にとって明らかになったのは、私たちが 4 年前に気づいたことです。私たちは、人類の歴史の中で、以前は人間しか行うことができなかった意思決定を行うことができる機械を作成した最初の世代です。

世界中の国が共通の質問をしています。 この新しいテクノロジーを使用して問題を解決するにはどうすればよいでしょうか? それが引き起こす可能性のある新たな問題を回避または管理するにはどうすればよいでしょうか? 非常に強力なテクノロジーをどのように制御すればよいでしょうか?

これらの質問には、幅広く思慮深い会話だけでなく、断固とした効果的な行動が必要です。 この文書では、企業としての私たちのアイデアと提案の一部を提供します。

これらの提案は、私たちが数年間行ってきた作業に基づいて学んだ教訓に基づいています。 マイクロソフト CEO のサティア ナデラは、2016 年に次のように書いて、私たちに明確な方向性を示しました。「おそらく、私たちが行うことのできる最も生産的な議論は、善悪の議論ではありません。議論は、この社会を生み出す人々や組織に植え付けられた価値観についてのものであるべきです」テクノロジー。"

それ以来、私たちは仕事の指針となる倫理原則を定義、公開、実装してきました。 そして、これらの原則を実践するために、エンジニアリングおよびガバナンス システムを継続的に改善するよう構築してきました。 現在、マイクロソフトでは 350 名近くの従業員が責任ある AI に取り組んでおり、社会に利益をもたらすように設計された安全、安心、透明な AI システムを構築するためのベスト プラクティスの実装を支援しています。

人間の状態を改善する新たな機会

その結果として私たちのアプローチが進歩したことで、AI が人々の生活を改善するための拡大し続ける方法を理解できる能力と自信が私たちに与えられました。 私たちは、AI が個人の視力を守り、がんの新しい治療法を進歩させ、タンパク質に関する新たな洞察を生み出し、危険な天候から人々を守るための予測を提供するのに役立っているのを見てきました。 他のイノベーションは、外国からの侵略や内戦に苦しむ国々でも、サイバー攻撃を回避し、基本的人権の保護に役立っています。

日常生活の活動にも効果があります。 GPT-4 のような基礎モデルの力は、人々の生活の副操縦士として機能することで、検索を研究のためのより強力なツールに変え、職場の人々の生産性を向上させています。 また、13 歳の子どもに代数の宿題をどうやって教えたらよいかなかなか思い出せない親にとって、AI ベースの支援は役立つ家庭教師となります。

非常に多くの点で、AI はおそらく、それ以前のどの発明よりも人類の利益にさらに大きな可能性をもたらします。 1400 年代に活版印刷機が発明されて以来、人類は加速度的に繁栄してきました。 蒸気機関、電気、自動車、飛行機、コンピューティング、インターネットなどの発明は、現代文明の構成要素の多くを提供してきました。 そして、印刷機自体と同様に、AI は人間の学習と思考の進歩を真に助ける新しいツールを提供します。

未来へのガードレール

もう 1 つの結論も同様に重要です。人々の生活を改善するために AI を使用する多くの機会に焦点を当てるだけでは十分ではありません。 これはおそらく、ソーシャル メディアの役割から得られる最も重要な教訓の 1 つです。 10年ほど前、技術者も政治評論家も同様に、アラブの春の最中に民主主義の普及におけるソーシャルメディアの役割について激しく議論した。 しかし、それから 5 年後、ソーシャル メディアは、それ以前の他の多くのテクノロジーと同様に、武器にもツールにもなるということを学びました。この場合は民主主義そのものが目的でした。

今日、私たちは 10 歳年を取って賢くなったので、その知恵を活用する必要があります。 私たちは、この先に待ち構える可能性のある問題について、早い段階から、明確な目で考える必要があります。 テクノロジーが進歩するにつれて、AI の利点を追求することと同じくらい、AI を適切に制御することが重要になります。 私たちは企業として、安全かつ責任ある方法で AI を開発し導入することに全力で取り組んでいます。 しかし、AI に必要なガードレールには広範な責任感の共有が必要であり、テクノロジー企業だけに任せるべきではないことも私たちは認識しています。

Microsoft が 2018 年に AI に関する 6 つの倫理原則を採用したとき、私たちは 1 つの原則が他のすべての基盤であること、つまり説明責任であることに留意しました。 これは基本的な必要性です。つまり、機械が人間による効果的な監視を受け続けること、そして機械を設計および操作する人々が他の全員に対して責任を負い続けることを保証することです。 つまり、AI が常に人間の制御下にあることを保証する必要があります。 これはテクノロジー企業にとっても政府にとっても同様に最優先事項でなければなりません。

これは、別の重要な概念と直接つながります。 民主主義社会では、私たちの基本原則の 1 つは、誰も法を超えないということです。 法を超越する政府は存在しない。 いかなる企業も法を超えてはならないし、いかなる製品や技術も法を超えてはなりません。 これは重要な結論につながります。つまり、AI システムを設計および運用する人々は、その決定と行動が法の支配に従わない限り、責任を負うことができません。

さまざまな意味で、これは展開中の AI 政策と規制に関する議論の中心です。 AI が法の支配に従うことを政府が確実に保証するにはどうすればよいでしょうか? つまり、新しい法律、規制、政策はどのような形を取るべきでしょうか?

AI の公共ガバナンスに関する 5 つのポイントの青写真

このペーパーのセクション 1 では、公共政策、法律、規制を通じて AI の現在および新たな問題に対処するための 5 つのポイントからなる青写真を提供します。 私たちは、この青写真のあらゆる部分が広範な議論から恩恵を受け、より深い開発が必要であることを認識して、これを提案します。 しかし、これが今後の取り組みに建設的に貢献できることを願っています。

まず、政府主導の新しい AI 安全フレームワークを実装し、構築します。成功するための最良の方法は、多くの場合、他の人の成功や良いアイデアを基にして構築することです。 特に素早く動きたいとき。 この例では、米国国立標準技術研究所 (NIST) がわずか 4 か月前に完了した作業を基に構築する重要な機会があります。 商務省の一部である NIST は、新しい AI リスク管理フレームワークを完成させ、立ち上げました。

私たちは、このフレームワークを実装し、その上に構築するための 4 つの具体的な提案を提供します。これには、大手 AI 企業との最近のホワイトハウス会議に応じて Microsoft が行った約束も含まれます。 また、政府や他の政府も、この枠組みに基づく調達ルールを通じて勢いを加速できると考えています。

第二に、重要なインフラを制御する AI システムには効果的な安全ブレーキが必要です。一部の分野では、AI がより強力になるにつれて、AI を満足に制御できるかどうかについて、思慮深い人々がますます疑問を抱いています。 送電網、水道システム、都市交通の流れなどの重要なインフラの AI 制御に関して懸念が生じることがあります。

今がこの問題について議論する適切な時期です。 この青写真は、指定された重要インフラの運用を制御する AI システムに実質的に安全ブレーキを設ける新しい安全要件を提案しています。 これらのフェールセーフ システムは、人間による効果的な監視、回復力、堅牢性を最優先に念頭に置いた、システムの安全性への包括的なアプローチの一部となります。 精神的には、それらは、日常の状況だけでなく緊急事態も安全に管理するために、エンジニアがエレベーター、スクールバス、高速列車などの他のテクノロジーに長い間組み込んできたブレーキ システムに似ています。

このアプローチでは、政府は重要インフラを制御する高リスク AI システムのクラスを定義し、システム管理への包括的なアプローチの一環としてそのような安全対策を保証します。 新しい法律では、これらのシステムの運用者は、設計上、高リスクの AI システムに安全ブレーキを組み込むことが義務付けられます。 そうすれば政府は、システムの安全対策が効果的であることを確認するために、オペレータが高リスクのシステムを定期的にテストすることを保証することになる。 また、指定された重要インフラの運用を制御する AI システムは、認可された AI データセンターにのみ導入され、これらの安全ブレーキを適用する機能を通じて 2 番目の保護層が確保され、それによって人間による効果的な制御が保証されます。

第三に、AI のテクノロジー アーキテクチャに基づいた広範な法的および規制の枠組みを開発します。私たちは、AI 自体のテクノロジー アーキテクチャを反映した AI の法的および規制のアーキテクチャが必要になると考えています。 つまり、法律は、AI テクノロジーのさまざまな側面を管理する役割に基づいて、さまざまな主体にさまざまな規制責任を課す必要があるということです。

このため、このブループリントには、新しい生成 AI モデルの構築と使用に必要ないくつかの重要な部分に関する情報が含まれています。 これを文脈として使用して、技術スタックの 3 つの層 (アプリケーション層、モデル層、インフラストラクチャ層) で特定の責任を実行する組織に、さまざまな法律が特定の規制責任を課すことを提案しています。

これは、まずアプリケーション層における既存の法的保護を AI の使用に適用する必要があります。 これは、特に AI の影響がテクノロジー シナリオによって大きく異なる可能性があるため、人々の安全と権利が最も影響を受ける層です。 多くの分野では、新しい法律や規制は必要ありません。 代わりに、既存の法律や規制を適用して施行し、政府機関や裁判所が新しい AI シナリオに適応するために必要な専門知識を開発できるよう支援する必要があります。

その場合、新しい政府機関によって実装されるのが最適な、高度な機能を備えた AI 基盤モデルのための新しい法律と規制を開発する必要があります。 これは、テクノロジー スタックの 2 つの層に影響を与えます。 1つ目は、これらのモデル自体に新しい規制とライセンスを必要とするものです。 そして 2 つ目は、これらのモデルが開発および展開される AI インフラストラクチャのオペレーターに対する義務を伴います。 以下のブループリントは、これらの各レイヤーに対して推奨される目標とアプローチを示しています。

そうすることで、この青写真は、マネーロンダリングや金融サービスの犯罪的またはテロリストによる利用を防ぐために、銀行業界でここ数十年間に開発された原則に部分的に基づいて構築されています。 「Know Your Customer」(KYC)原則では、金融機関が顧客の身元を確認し、リスクプロファイルを確立し、不審な行為を検出できるように取引を監視することが求められています。 この原則を採用し、AI のコンテキストで自分のクラウド、自分の顧客、自分のコンテンツを知る一定の義務を生み出す KY3C アプローチを適用することは理にかなっています。

まず、指定された強力な AI モデルの開発者は、モデルが開発およびデプロイされる「クラウドを理解」します。 さらに、機密性の高い用途が含まれるシナリオの場合、モデル開発者、アプリケーション プロバイダー、モデルが動作するクラウド オペレーターなど、顧客と直接関係がある企業は、次のことを「顧客について知っている」必要があります。アクセスしています。

また、ビデオやオーディオファイルのようなものが人間ではなく AI モデルによって生成されたことを人々に知らせるラベルやその他のマークの使用を通じて、AI が作成している「コンテンツを知る」権限を国民に与えるべきです。 この表示義務は、元のコンテンツの改ざんや「ディープフェイク」の作成から公衆を保護するものでもあります。 これには新しい法律の策定が必要であり、対処すべき重要な問題や詳細が数多くあるでしょう。 しかし、民主主義の健全性と市民の議論の将来は、国民を騙したり詐欺したりするための新しいテクノロジーの使用を阻止するための思慮深い対策から恩恵を受けるでしょう。

第 4 に、透明性を促進し、学術界および非営利団体による AI へのアクセスを確保します。私たちは、透明性を高め、AI リソースへのアクセスを拡大することが重要な公共の目標であると考えています。 透明性とセキュリティの必要性の間にはいくつかの重要な緊張関係がありますが、責任ある方法で AI システムの透明性を高める機会は数多くあります。 そのため、Microsoft は年次 AI 透明性レポートの作成や、AI サービスの透明性を拡大するためのその他の取り組みに取り組んでいます。

また、学術研究や非営利コミュニティのための AI リソースへのアクセスを拡大することも重要であると考えています。 1940 年代以来、特に大学における基礎研究は、米国の経済的および戦略的成功にとって基本的に重要でした。 しかし、学術研究者が大幅に多くのコンピューティング リソースにアクセスできない限り、AI 自体に関連するものも含め、科学的および技術的探究が損なわれるという現実的なリスクがあります。 私たちの青写真では、これらの優先事項に対処するためにマイクロソフト全体で講じる措置を含む、新たな措置が求められています。

第 5 に、新しいテクノロジーに伴う避けられない社会的課題に対処するための効果的なツールとして AI を使用するための、新たな官民パートナーシップを追求します。近年の教訓の 1 つは、民主主義社会がテクノロジーの力を活用し、官民セクターを連携させたときに何を達成できるかということです。 これは、AI が社会に与える影響に対処するために私たちが構築する必要のある教訓です。

私たちは皆、澄んだ楽観主義を強く持つことで恩恵を受けるでしょう。 AI は素晴らしいツールです。 しかし、他のテクノロジーと同様に、これも強力な武器になる可能性があり、そのように使用しようとする人が世界中に現れるでしょう。 しかし、私たちはサイバー戦線とウクライナでの過去1年半の戦争から少し心を留めるべきです。 私たちが発見したのは、官民が協力し、志を同じくする同盟者が集まり、テクノロジーを開発してそれを盾として使用すると、それは地球上のどの剣よりも強力になるということです。

AI を活用して民主主義と基本的権利を保護し、包括的な成長を促進する AI スキルへの幅広いアクセスを提供し、AI の力を利用して地球の持続可能性のニーズを推進するために、現在重要な取り組みが必要です。 おそらく何よりも、新しい AI テクノロジーの波は、大きく考えて大胆に行動する機会を提供します。 それぞれの分野において、成功の鍵は、具体的な取り組みを展開し、政府、評判の高い企業、精力的なNGOを結集させて推進することです。 このレポートではいくつかの最初のアイデアを提供しますが、今後数か月、数年でさらに多くのことを行うことを楽しみにしています。

Microsoft 内での AI の管理

最終的に、高度な AI システムを作成または使用するすべての組織は、独自のガバナンス システムを開発して実装する必要があります。 このペーパーのセクション 2 では、Microsoft 内の AI ガバナンス システム、つまり Microsoft がどこから始まり、現在どこにいて、どのように未来に向かって進んでいるのかについて説明します。

このセクションで認識されているように、新しいテクノロジーのための新しいガバナンス システムの開発は、それ自体が旅のようなものです。 10年前には、この分野はほとんど存在していませんでした。 現在、Microsoft には Microsoft を専門とする従業員が約 350 名おり、これをさらに成長させるために来年度に投資を行っています。

このセクションで説明したように、過去 6 年間にわたって、Microsoft 全体でより包括的な AI ガバナンス構造とシステムを構築してきました。 私たちはゼロから始めるのではなく、サイバーセキュリティ、プライバシー、デジタルの安全性を保護するためのベスト プラクティスを借用しました。 これはすべて、同社の包括的なエンタープライズ リスク管理 (ERM) システムの一部であり、今日世界中の企業や他の多くの組織の管理の重要な部分となっています。

AI に関しては、まず倫理原則を策定し、次にそれをより具体的な企業ポリシーに変換する必要がありました。 現在、これらの原則を具体化し、エンジニアリング チームが従うべきより正確な実践方法を定義する企業標準のバージョン 2 を使用しています。 私たちは、トレーニング、ツール、テスト システムを通じてこの標準を実装してきましたが、これらのシステムは急速に成熟し続けています。 これは、監視、監査、コンプライアンス対策などの追加のガバナンス プロセスによってサポートされています。

人生のあらゆることと同様、人は経験から学びます。 AI ガバナンスに関して言えば、私たちが最も重要に学んだことのいくつかは、特定の機密性の高い AI ユースケースをレビューするために必要な詳細な作業から得られました。 2019 年に、当社は機密性の高い使用レビュー プログラムを設立し、最も機密性の高い新規の AI ユースケースを厳密で専門的なレビューの対象にし、その結果、カスタマイズされたガイダンスが得られます。 それ以来、私たちは約 600 件の慎重なユースケースのレビューを完了しました。 この活動のペースは AI の進歩のペースに合わせて加速しており、11 か月間でそのようなレビューが 150 件近く行われました。

これらすべては、企業文化を通じて責任ある AI を推進するために私たちがこれまで行ってきた取り組みに基づいており、今後も続けていきます。 これは、責任ある AI エコシステムを成長させるために新しく多様な人材を雇用し、マイクロソフトがすでに保有している人材に投資してスキルを開発し、個人や社会に対する AI システムの潜在的な影響について幅広く考える力を与えることを意味します。 また、これは、テクノロジーのフロンティアでは、優れたエンジニアと文系分野の才能ある専門家を組み合わせた学際的なアプローチが以前よりもはるかに必要になっていることも意味します。

この文書では、私たちが人工知能の責任ある未来を築くための集団的な旅をしているという精神で、これらすべてが提供されています。 私たちは皆、お互いから学ぶことができます。 そして、今日何かがどれほど良いと思ったとしても、私たちは皆、より良くなり続ける必要があります。

テクノロジーの変化が加速するにつれ、責任を持って AI を管理する取り組みもそれに追いつく必要があります。 適切な取り組みと投資があれば、それは実現できると私たちは信じています。

AI の統治: 未来への青写真 人間の状態を改善する新たな機会 未来へのガードレール AI の公共ガバナンスのための 5 つのポイントの青写真 まず、政府主導の新しい AI 安全フレームワークを実装し、その上に構築します。 第二に、重要なインフラを制御する AI システムには効果的な安全ブレーキが必要です。 第三に、AI のテクノロジー アーキテクチャに基づいた広範な法的および規制の枠組みを開発します。 第 4 に、透明性を促進し、学術界および非営利団体による AI へのアクセスを確保します。 第 5 に、新しいテクノロジーに伴う避けられない社会的課題に対処するための効果的なツールとして AI を使用するための、新たな官民パートナーシップを追求します。 Microsoft 内での AI の管理
共有