EUと米国の議員がAI行動規範の草案作成に迅速に取り組む
ホームページホームページ > ブログ > EUと米国の議員がAI行動規範の草案作成に迅速に取り組む

EUと米国の議員がAI行動規範の草案作成に迅速に取り組む

Dec 09, 2023

欧州連合は、大西洋をまたぐ貿易と技術に関する話し合いの場を利用して、米国のカウンターパートと協力し、インドネシアやインドを含む他の地域の政府も望んでいることを期待して、迅速に行動し、人工知能に関する行動規範の草案を作成することを約束した。参加してください。

計画されているのは、世界中の国や地域でテクノロジーの使用を規制する法律が可決されるのに先立って、このギャップを埋めるために AI を適用するための一連の基準です。

AI大手が自主的な(法的拘束力のない)基準を遵守することに同意するかどうかはまだ分からない。 しかし、この分野の推進者や変革者らは、大西洋の両側の議員らからそうするよう奨励されることが期待でき、近いうちにEUは数週間以内にこの規範を起草するよう求めている。 (そして、テクノロジー業界の CEO が AI 規制を求めて叫んでいるのを考えると、この分野のリーダーが自主的な規範に対して声を上げるのはかなり偽善的でしょう。)

今週スウェーデンで開催されていた米国・EU貿易技術評議会(TTC)の第4回会議で開催された生成AIに関するパネルセッションの終わりに講演した。パネルにはAnthropicのCEO、ダリオ・アモデイを含む利害関係者からのヒアリングが行われたマイクロソフトのブラッド・スミス社長と欧州連合の競争とデジタル戦略を率いるマルグレーテ・ベステアー副大統領は、統計に取り組むつもりであることを示唆した。

「私たちはここから取り組むことを非常に励まされます。草案を作成すること。世界的なパートナーに参加してもらうこと。できるだけ多くのことをカバーすることです」と彼女は語った。 「そして私たちは、自発的なサインアップのためにこのような AI 行動規範を制定することを絶対的な緊急課題として取り上げます。」

TTCはトランプ大統領就任後の2021年に設立され、EUと米国の議員が信頼関係を修復し、テクノロジーガバナンスと貿易問題で協力する方法を見つけようとしていた。

ベステアー氏は、生成 AI を「地殻変動」および「カテゴリーの変化」と表現し、リアルタイムでの規制対応が必要だと述べた。

「現在、テクノロジーはこれまでとはまったく異なる程度まで加速しています」と彼女は言う。 「したがって、明らかに、この新しいテクノロジーを最大限に活用するには何かを行う必要があります…私たちは月ごとに開発されるテクノロジーについて話しているので、このTTCで私たちが結論したのは、他の多くのテクノロジーを取得するために率先して行動する必要があるということです」 AI 行動規範に参加している国々は、企業が自発的に署名する必要があります。」

ベステアー氏は業界の意見を「大歓迎」としながらも、少なくともEU側としては、企業に運転させるのではなく、議員が安全規定を策定し、企業がそれに参加して基準を適用することに同意することが目的であると示唆した。最低限の基準を提案すること(および/または、AIの安全性を現在の危害ではなく、将来の存続に関わる脅威に焦点を当てて再構成しようとすること)と議員が餌を飲み込むことによって、物事を解決しようとしている。

「明らかに、他の種類の人工知能が存在することを私たちは忘れません」と彼女は続けた。 「やるべきことはたくさんある。しかし、重要なのは、立法手続きには時間がかかるため、民主主義がスピードを上げていることを示す必要があるということだ。それが立法の性質だ。しかし、これは、 「民主主義諸国は、まさに今私たちが直面している問題にリアルタイムで答えることができます。そして、これは私にとって非常に勇気づけられることであり、できるだけ多くの人々と深く、そして非常に迅速に協力できることを非常に楽しみにしています。」

EU はすでに法案を提出しているため、AI に関する規制の先を行っています。 しかし、欧州委員会が2021年4月に提示したリスクベースの枠組みは、依然として欧州連合の共同立法で曲がりくねったままであり、欧州理事会と欧州議会の議員たちを巻き込んでいる(そして最近そのプロセスが国会議員たちによってどのように活発化しているかを知るために)生成的 AI を対象とした修正案) - したがって、これらの厳格なルールが生成的 AI やその他の種類の AI に適用されるという当面の見通しはありません。

EU が AI 法を採択するという最も楽観的な見通しにもかかわらず、ベステアー氏は本日、厳しい規則が適用されるまでには 2 ~ 3 年かかるだろうと示唆しました。 したがって、ブロックはその場しのぎの措置を急務としている。

TTC会議にはジーナ・ライモンド米国商務長官も出席し、バイデン政権が自主的なAI行動規範の策定に向けた議論に取り組む意向を示した。 彼女は、米国が主にAI大手である企業にどのような基準を押し付けることに米国が抵抗を感じないかについて、カードを胸に秘めていたが。

「[AI] は他のテクノロジとは比べものにならないペースで進歩しています」とライモンド氏は述べました。 「他のテクノロジーと同様に、私たちはすでにデータのプライバシー、悪用、モデルが悪意のある者の手に渡った場合に起こること、誤った情報などの問題を目の当たりにしています。他のテクノロジーとは異なり、イノベーションのペースは猛烈なペースであり、他の技術には存在しないホッケースティックです。

「その点で、TTCは非常に重要な役割を果たすことができると思います。なぜなら、米国議会や議会、その他の規制当局が追いつくには少し時間がかかるからです。一方、AIの一部には今日のリスクがあります。そして、そのため私たちは、TTC がステークホルダーの関与、民間部門の関与、当社の関与のためのフォーラムを提供し、AI のリスクを軽減するだけでなく、AI のリスクを軽減するために今何ができるかを見つけ出すことに全力で取り組んでいます。イノベーションを抑圧する。そしてそれは本当の課題だ」

「AIの利点を理解する際には、私たち全員がコストについて真剣に目を開き、AIを導入すべきかどうかの分析を行うことを願っています」と彼女はまた警告した。 「ソーシャルメディアを含む他のテクノロジーについて、私たち全員が自分に正直になれば、たとえできることであっても、やらなかったらよかったと思うでしょう。ご存知のとおり、私たちはできるかもしれませんが、そうすべきではないでしょうか?それで、次のことを実現するために協力しましょう。リスクははるかに高いので、これを正しく理解してください。」

パネルディスカッションでは、政府高官だけでなく、少数の業界団体や市民社会団体からも発言があり、このような急速に変化するテクノロジー分野を規制する必要性や規制の課題についての意見が交わされました。

Anthropic の Amodei 氏は、AI のルール策定をめぐって大西洋を越えて行われている会話を賞賛しました。 これはおそらく、ブリュッセルが独占的に推進していたかもしれない規格策定に米国が積極的に関与していることへの安心感を示していると思われる。

彼の発言の大部分は、リリース前に AI システムが本当に安全であることを確認する方法について懐疑的に聞こえました。これは、そのような形状変化ツールの周りに信頼できるガードレールを実現する技術がまだないことを示唆しています。 同氏はまた、現時点でアルゴリズム監査を要求するのではなく、AIの「標準と評価」の開発に資金を提供するために米国とEUが共同でコミットメントすべきだとも示唆した。

「このテクノロジーが世界に新たな動力源をもたらしている速度と、昨年私たちが目にしている独裁国家の脅威の再燃を考えると、私たちが「(AIの)被害を防ぎ、私たちが共有する民主的価値観を守るために協力しよう。そしてTTCはそのために重要なフォーラムのようだ」と彼は割り当てられた時間の早い段階で述べ、AIの発展は今後も続くだろうと予測した。安定したクリップを作成し、AI の安全性の「測定」を課題として強調するなど、彼の主要な懸念事項のいくつかを明らかにしました。

「1~4 年以内にできるようになるのは、今では不可能に思えることです。AI の分野に関して知っておくべき中心的な事実があるとすれば、これは知っておくべき中心的な事実だと言えます」そして、これから多くの前向きな機会がもたらされるだろうが、特にサイバーセキュリティ、生物学、偽情報などの分野におけるリスクについては非常に心配しており、そこには大きな破壊の可能性があると考えている」と彼は語った。 「長期的には、真の自律システムのリスクさえ心配します。それはもう少し先の話です。

「測定に関しては、自動車や飛行機などの技術の規制について考えるとき、私たちは安全性を安全な分野として測定することに非常に慣れていると思います。システムが安全であるかどうかを判断するために実行できる一連のテストがあります。 AI はそれよりもはるかに西部開拓時代に近いもので、AI システムに自然言語で何でもするように要求することができ、AI システムは選択した任意の方法で応答できます。

「たとえば、危険なサイバー攻撃を実行できるかどうかをシステムに 10 の異なる方法で尋ねようとして、実行できないことが判明するかもしれません。しかし、この危険な動作を示す 11 番目の方法をシステムに尋ねるのを忘れているのです。よく使うのは、「AI システムが 100 万人に導入されるまでは、AI システムが何ができるか誰にも分からない」というものです。そして、もちろん、これは悪いことですよね? 私たちは、このようなカウボーイ風のシステムにこれらのものを導入したくありません。したがって、危険な機能を検出することが困難であることが、それらを軽減する上で大きな障害となっています。」

この寄稿は、将来の行動規範に含まれる AI 機能の厳しいテストに反対するロビー活動を目的としていたように見えました。

同氏は、「危険な能力を検出することの難しさは、それらを軽減する上で大きな障害となっている」と示唆し、「効果的なAI規制には何らかの基準や評価が重要な前提条件である」ことを認めながらも、「双方の立場」と言って水をさらに濁した。アトランティック社はこの科学の発展に興味を持っています。」

「米国とEUには、[基準と評価]に関して協力してきた長い伝統があり、それを拡張し、おそらくより根本的に、最終的には共通の基準と評価のセットを交通規則の一種の原材料として採用するという約束をすることができるだろう」 AIで」と彼は最終的な距離を見つめながら付け加えた。

Microsoftのスミス氏は4分間の講演時間を利用して、規制当局に対し「イノベーションと安全基準を一緒に進める」よう促した。また、「世界に良いことをする」「人々の命を救う」というAIの潜在的なメリットを称賛することで、AIの誇大広告をさらに盛り上げた。 」と述べ、「リスクについては確かに目を光らせる必要がある」と断言しながら、安全性のニーズに重点を置くことを認めながら、がんの発見や治療、災害対応能力の強化などを行う。

同氏はまた、AI標準に関する大西洋を越えた協力の見通しを歓迎した。 しかし、製品開発プロセスなどについて、より広範な国際協調を図るよう議員らに迫った。それがAIの安全基準とイノベーションの両方を推進するのに役立つだろうと同氏は示唆した。

「特定のものは、特に製品開発プロセスに関して、国際的な調整から多大な恩恵を受けます。例えば、安全製品の開発プロセスにおいてレッドチームがどのように取り組むべきかについて異なるアプローチがあれば、安全性やイノベーションを前進させることはできません。」新しい AI モデルです」と彼は言いました。

「その他のことについては、もっと相違の余地があり、世界では、たとえ共通の価値観を共有する国であっても、相違点はあるでしょう。また、ライセンスや使用に関しては、その相違を管理できる領域もあります。しかし、要するに、今学んで実践することで得られることはたくさんあります。」

TTCのパネルディスカッションではOpenAIからは誰も発言しなかったが、ベステアー氏は午後にCEOのサム・アルトマン氏とビデオ会議を開いた。

委員会は会議の読み上げで、両氏はTTCで立ち上げられた自主的なAI行動規範についてのアイデアを共有し、議論は誤った情報への対処方法にも触れたと​​述べた。 ユーザーが AI と通信しているかどうかを確実に認識させることを含む、透明性の問題。 検証(レッドチーム)と外部監査を確実に行う方法。 モニタリングとフィードバック ループを確保する方法。 そして、スタートアップや中小企業にとっての障壁を回避しながらコンプライアンスを確保するという問題です。

その後のツイートでVestager氏は、OpenAIのAltman氏とAnthropic社のAmodei氏との話し合いで、外部監査、透かし、「フィードバックループ」についての話が取り上げられたと述べた。

透かし入れ、外部監査、フィードバック ループ – 本日、#Luleå の #TTC で開始された #AI #CodeOfConduct について @AnthropicAI および @sama @OpenAI と議論されたアイデアの一部 @SecRaimondo 国際的なパートナーと議論することを楽しみにしています。 pic.twitter.com/wV08KDNs3h

— マルグレーテ・ヴェステアー (@vestager) 2023 年 5 月 31 日

ここ数日、アルトマン氏は、生成型 AI を対象とした EU の AI 法の規定が骨抜きにされなければ、同地域からツールを撤去すると脅迫するような、フラットフットなロビー活動でブリュッセルで羽を乱していた。

その後、ブロック内の市場委員がOpenAIの公の場でのドレスアップをツイートし、同社が議員を脅迫しようとしていると非難した後、同氏はすぐに脅しを撤回した。 したがって、アルトマン氏が AI の行動規範の内容にどれほど熱心に (あるいはそうでなくても) 取り組んでいるのかを見るのは興味深いでしょう。

(Google は以前、行動規範に対する EU の別個の取り組みと思われる、いわゆる「AI 協定」の一環として、その場しのぎの AI 標準に関して EU と協力したいと示唆している。欧州委員会の広報担当者によると、AI協定は企業がAI法の主要条項の実施を自主的に前倒しで実施することに同意させることに重点を置いているのに対し、この協定は生成型AIまたは「高度なGPAI」(汎用AI)の利用のためのガードレールを促進することを目的としている。 ) グローバルレベルのモデル。)

AI大手は、現在のAIリスクとその抑制方法に比較的消極的で、存在しない「超知能」AIに対する遠く離れた恐怖について話すことを好んでいるが、TTC会議ではジェマ・ガルドン=クラベル博士の次のような意見も聞かれた。 Eticas Consulting の創設者兼 CEO は、AI とアルゴリズム技術の使用に関する説明責任を奨励するために、顧客向けにアルゴリズム監査を実行する企業です。彼は、委員会に現行世代の説明責任手法を教育することに熱心でした。

「(アルゴリズム監査が)AIの害を定量的に理解し、軽減するための主要なツールになると確信しています」と彼女は語った。 「私たち自身も、基本的権利と社会的価値観を考慮しながら、エンジニアリングの可能性を最大化するツールを提供する最初の監査ユニコーンになることを望んでいます。」

彼女は、EUが最近採択した電子商取引とマーケットプレイスのルールの全面見直し、別名デジタルサービス法(DSA)は、この点における先駆的な法律であると説明した。この法律は、非常に大規模なオンラインプラットフォームにそのアルゴリズムの仕組みについて透明性を要求しようとしているからだ、と述べた。アルゴリズム監査は、今後数年間で頼りになる AI 安全ツールになると予測しています。

「良いニュースは、監査がAIを規制する潜在的な方法の1つについて非公式にコンセンサスになりつつあることだ」と彼女は主張した。 「私たちは、ヨーロッパにおける絶対的な先駆者である DSA の文言について監査を受けています。AI 採用システムの使用に関するニューヨーク市の規制についても監査を受けています。ごく最近の NTIA の協議プロセスは監査に焦点を当てています。FTC は次のことについて質問し続けています。監査で使用する必要がある基準としきい値は何ですか? そこで、監査は、検査メカニズム、検証と呼んでいます... 名前は実際には重要ではありません、重要なのは、次のことを可能にする検査メカニズムが必要であるというコンセンサスが生まれつつあります。変化を可能にするテクノロジーを理解しながら、政策立案者の懸念を解決します。」

「私は確信しています。今から数年後、そう多くはなく、3、5年後、私たちは監査なしでAIシステムをリリースしていた時代があったことに驚くでしょう。私たちはそれを信じません。」と彼女は付け加えた。 AI の安全性と透明性が規制されていない現在の西部を、消費者が薬局に入ってコカインを購入できた 19 世紀と比較します。

ガルドン=クラベル氏は、監査へ向かうと示唆した規制の軌道にスポットライトを当てたにもかかわらず、政策立案者が遠く離れた理論上の害悪の話に注目する傾向(彼女が「サイエンス・フィクション論争」と呼んだもの)についても批判的であり、それを気晴らしとして串刺しにした。現在のAIによる被害に対処することから遠ざけ、警告:「SFの遠距離影響について語るとき、機会費用が生じる。私たちが今目の当たりにしている現在の影響はどうなるのか?今日、人々をどう守るのか?私たちがすでに理解し知っている害が、それらのシステムの周りで起こっているのでしょうか?」

彼女はまた、議員に対し、「しっかりと」法案可決を進めるよう促した。 「業界は改善する必要があるが、現在は改善するインセンティブが存在しない」と彼女は強調した。 「私たちの顧客は、監査を受けるために私たちを訪ねてきます。それは、自分たちがやらなければならないことだと考えているからです。誰かに強制されたからではありません。そして、監査をしない人には、やりたくなければ監査を始める動機がありません。

「来るべき規制には歯止めが必要だ。だからTTCにお願いしたいのは、すでに存在している新たな合意に耳を傾け始めてほしいということだ。それは大西洋を越えたものであり、非常に地球規模のものだ。彼らがすでにできることはテーブルの上にある」これらの新しい技術開発の悪影響に苦しんでいる現在の世代を、今、明日、今日、守るためにご協力ください。」

パネルディスカッションのもう一人の講演者、米国に本拠を置く人権に焦点を当てた非営利団体、民主主義とテクノロジーセンターの社長兼最高経営責任者(CEO)であるアレクサンドラ・リーブ・ギブンズ氏も、政策立案者に対し、彼女が明らかにした「本当の」AIリスクに注意を向けるよう促した。それらは「すでに現れている」ということです。

「人々が幻覚や捏造された結果の可能性を認識せず、生成されたテキスト結果を正確であると信頼する場合、専門的、評判的、そして身体的損害の可能性をすでに目にしています」と彼女は警告した。 「生成型 AI ツールは、パーソナライズされた詐欺を迅速に生成したり、馴染みのある声になりすまして人々を騙したりすることを容易にするため、詐欺を激化させるリスクがあります。選挙や国家を脅かす方法で公人を偽るディープフェイクのリスクがあります。」セキュリティ、または一般的な公序良俗に反するものであり、人々に嫌がらせをしたり、悪用したり、恐喝するために偽の画像が使用されるリスクがあります。これらの害はどれも新しいものではありませんが、生成 AI ツールの使いやすさとアクセスのしやすさによって、より安く、より速く、より効果的になりました。 。」

同氏はまた、国会議員に対し、焦点を生成型AIのみに限定せず、ウイルス性の低いAI(同氏によると、「今日の人々の権利、自由、機会へのアクセスに直接影響を与えている」)によって引き起こされる害悪を無視するよう求めた。誰が仕事を得るか、公的給付金を受け取るか、または法執行機関による AI 監視ツールの使用を決定します。

「政策立案者は、生成型AIに焦点を広げても、これらの中核問題を見失ってはなりません」と彼女は述べ、AI評価の取り組みも同様に包括的であり、現実世界のあらゆる害悪に対処するよう求めた。

「政策立案者は、AI のリスクを評価および管理する取り組みは、現実世界のあらゆる害悪に有意義に対処しなければならないことを明確に認識する必要があります。これが私が言いたいのは、政策立案者は AI の監査と評価が厳格かつ包括的であり、捕捉の問題を回避できるようにする必要があるということです。政策立案者リスクを測定するための枠組みが、容易に測定できる害悪のみを扱っている場合が多く、人々のプライバシー、尊厳、固定観念や中傷を受けない権利に対する同様に重要な害よりも、経済的および身体的害が優先されるという危険に対処する必要がある。」

「米国とEUの政策立案者は、リスクの測定と管理の問題を検討するために業界の取り組みや技術指向の標準化団体に注目しているため、これらの基本的権利に基づく懸念が適切に対処されるようにする必要がある」と彼女は付け加えた。

リーブ・ギブンズ氏はまた、新たなAIリスクと危害事件の共同追跡を求めているTTCロードマップにおける透明性計画を、情報の非対称性への取り組みを拡大して、規制当局が取り組むための共通の基盤を確立すること、そして市民社会の声や社会の声を反映することを求めた。 AI の出力による不釣り合いなリスクや被害に直面する可能性がある社会から疎外されたコミュニティが、基準策定のあらゆるプロセスに関与することになります。

このレポートは、EU の AI 協定イニシアチブと AI 行動規範の違いに関する追加の詳細を追加して更新されました。

サム・アルトマンの大規模なヨーロッパツアー

Google、一時しのぎの「AI協定」で欧州と協力へ

欧州、ビッグテックに責任ルールを適用するためAI研究ハブを設立