3 月下旬、1,000 人を超えるテクノロジ リーダー、研究者、および人工知能に関連する専門家が、AI テクノロジが「社会と人類に重大なリスク」をもたらすことを警告する公開書簡に署名しました。
テスラの CEO で Twitter の所有者であるイーロン マスクを含むこのグループは、AI ラボに対し、最も強力なシステムの開発を 6 か月間停止して、テクノロジーの背後にあるリスクをよりよく理解できるようにするよう求めました。
「強力な AI システムは、その効果が肯定的であり、そのリスクを制御できると確信した後にのみ開発されるべきです」と書簡は述べています。
現在 27,000 を超える署名が寄せられているこの手紙は、簡潔なものでした。 彼女の言葉は広かった。 また、書簡の背後にある名前のいくつかは、AI と相反する関係にあるように見えます.たとえば、マスク氏は彼自身の人工知能会社を設立しており、書簡を書いた組織への主要な寄付者です.
しかし、この書簡は、最新のシステム、特にサンフランシスコのスタートアップ OpenAI によって導入された技術である GPT-4 が社会に害を及ぼす可能性があるという AI 専門家の間での懸念の高まりを表しています。 彼らは、将来の体制がより危険になると信じていました。
いくつかのステークが到着しました。 他の人は何ヶ月も何年もそうしません。 まだ他のものは単なる仮定です。
モントリオール大学の教授兼人工知能研究者である Yoshua Bengio 氏は、次のように述べています。 「ですから、私たちは非常に注意する必要があります。」
なぜ彼らは心配しているのですか?
ベンジオ博士は、おそらく手紙に署名する最も重要な人物です。
最近まで Google の研究者だった Geoffrey Hinton や、現在は Facebook の所有者である Meta の主任人工知能科学者である Yann LeCun など、他の学者と協力して、Bengio 博士は過去 40 年間、GPT-4 のようなシステムを駆動する技術を開発してきました。 . 2018 年には、ニューラル ネットワークに関する研究が評価され、「コンピューティングのノーベル賞」として知られるチューリング賞が研究者に授与されました。
ニューラル ネットワークは、データを分析してスキルを学習する数学的システムです。 約 5 年前、Google、Microsoft、OpenAI などの企業は、Large Language Models (LLM) と呼ばれる大量のデジタル テキストから学習するニューラル ネットワークの構築を開始しました。
このテキストのパターンを識別することにより、LLM はブログ投稿、詩、コンピューター プログラムなどのテキストを独自に作成することを学習します。 彼らは会話をすることさえできます。
このテクノロジーは、コンピューター プログラマー、ライター、その他の作業者がアイデアを生み出し、物事をより迅速に行うのに役立ちます。 しかし、ベンジオ博士と他の専門家は、LLM が望ましくない予期しない動作を学習する可能性があるとも警告しています。
これらのシステムは、真実でない、偏った、その他の有毒な情報を生成する可能性があります。 GPT-4 のようなシステムは、事実とフレーム情報を間違える、「幻覚」と呼ばれる現象です。
企業はこれらの問題を解決するために取り組んでいます。 しかし、ベンジオ博士のような専門家は、研究者がこれらのシステムをより強力にするにつれて、新しいリスクが生じることを懸念しています。
短期的なリスク: 誤った情報
これらのシステムは完全に信頼できるように見える情報を提供するため、使用時に事実とフィクションを区別するのが難しい場合があります。 専門家は、人々が医学的アドバイス、感情的なサポート、意思決定に使用する生の情報をこれらのシステムに依存するのではないかと心配しています。
アリゾナ州立大学のコンピューター サイエンスの教授である Subbarao Kambhampati は、次のように述べています。
専門家はまた、人々がこれらのシステムを悪用して偽情報を広めることを懸念しています。 人間らしい話し方ができるので、意外と説得力があります。
「私たちは今、自然言語を通じて私たちとやり取りできるシステムを手に入れましたが、本物と偽物を区別することはできません」と Bengio 博士は述べています。
中期的なリスク: 失業
専門家は、新しい人工知能が仕事を奪うのではないかと心配しています。 現在、GPT-4 などのテクノロジーは人間の労働者を補完する傾向にあります。 しかし、OpenAI は、オンライン コンテンツを管理する人々を含む一部の労働者に取って代わる可能性があることを認めています。
彼らは、弁護士、会計士、医師の仕事をまだ真似することはできません。 しかし、彼らはパラリーガル、個人秘書、翻訳者に取って代わることができます。
OpenAI研究者による論文 米国の労働力の 80% が LLM の影響を受ける仕事の少なくとも 10% を持ち、労働者の 19% が影響を受ける仕事の少なくとも 50% を見ることができると推定されています。
シアトルの研究機関であるアレン人工知能研究所の創設者であるオーレン・エツィオーニ氏は、「機械的な仕事がなくなるという兆候があります。
長期的なリスク: コントロールの喪失
書簡に署名した人の中には、人工知能が私たちの制御を失い、人類を滅ぼす可能性があると信じている人もいます. しかし、多くの専門家は、これは非常に誇張されていると述べています。
この手紙は、人類の存続に関わるリスクを調査することに専念する組織である、フューチャー オブ ライフ インスティテュートのグループによって書かれました。 彼らは、AI システムは分析する膨大な量のデータから予期しない動作を学習することが多いため、深刻で予期しない問題を引き起こす可能性があると警告しています。
彼らは、企業が LLM を他のインターネット サービスに接続すると、これらのシステムが独自のコンピューター コードを記述できるため、予想外の能力を獲得する可能性があることを懸念しています。 彼らは、開発者が強力な AI システムにコードを実行させると、新たなリスクが生じると述べています。
カリフォルニア大学サンタクルーズ校の理論宇宙論者であり物理学者であり、Future Life Institute の共同創設者である Anthony Aguirre 氏は、次のように述べています。
「可能性が低いシナリオを取ると、物事が本当にうまくいき、実際のガバナンスがなくなり、これらのシステムが私たちが思っていたよりも強力になるというシナリオを想定すると、事態は本当に狂ってしまいます」と彼は言いました.
Etzioni 博士は、実存的リスクの話は仮説に過ぎないと述べた。 しかし彼は、他のリスク、特に誤報はもはや憶測ではないと述べた。
「今、私たちはいくつかの本当の問題を抱えています」と彼は言いました。 「彼らは誠意を持っています。彼らは責任ある対応を必要としています。彼らは規制や法律を必要とするかもしれません。」
「流行に敏感な探検家。受賞歴のあるコーヒーマニア。アナリスト。問題解決者。トラブルメーカー。」
More Stories
Apple Sports アプリでは、iOS 18 の iPhone ロック画面でライブスコアを表示できます
PS5 Proの発表計画とデバイスデザインに関するリーク
悪魔城ドラキュラ ドミナス コレクションの物理的なリリースが決定、予約注文は来月開始