[Financial Express]テクノロジー、経済、政治、学術の世界で重要な人物は皆、人工知能(AI)について何らかの見解を持っています。特に西洋では、AIは急速な変革を遂げており、インターネット以来最も重要な技術進歩への道を切り開いています。当然のことながら、マイクロソフト、アマゾンなどのテクノロジー大手や開けるAIなどの新興企業で働く研究者は、生成型AIの急速な進歩と、それが人類の進歩に何を約束するかについて雄弁に語っています。産業界のリーダーやビジネス界の大物は、新しいテクノロジーが利用可能になった場合の利益の最終損益が同じではなくなることを喜んで見守っています。政治家や学者は、この技術革新の発展を慎重な楽観主義で見ており、明らかな利点を歓迎しながらも、雇用、プライバシー、社会的取引における倫理的行動への悪影響を警戒しています。以下は、AIの最近の発展と、それが国家と人類に与える影響についてのさまざまな方面からの反応のランダムなレビューです。
競争: 政府や学術界が最初に尋ねる質問は、AI がインターネットのように独占や寡占を生み出さずに、競争的ですべての人に開かれたものになるかどうかです。グーグル や マイクロソフト と競合している アマゾン によると、AI のユーザーには選択肢があり、この最先端の技術革新の開発に携わるテクノロジー企業間で競争が起こります。AI のコンポーネントの中でも特に重要な 2 つの要素である大規模言語モデル (LLM) と画像モデル、およびこれらのモデルが依存するクラウド コンピューティングは、どのテクノロジー企業でも開発できると指摘されています。しかし、コンピューティングへの依存度が高いため、これらのモデルの構築コストは高くなります。コストを考慮して、一部のテクノロジー企業は 開けるAI、人類学的、A121、安定性AI などのスタートアップ企業にモデルを外注しています。アマゾン は独自のモデルを構築していますが、これがユーザーの選択を妨げるとは考えていません。最近の フィナンシャル・タイムズ のインタビューで、アマゾンウェブサービス (AWS) の責任者である アダム・セリプスキー 氏は、「すべてを支配する 1 つの生成 AI モデルは存在しない」と明言しました。同氏によると、時間の経過とともに、さまざまな企業やオープンソースから大小さまざまなモデルが登場し、ユーザーに選択肢が提供されるようになるという。データベースの多様性によって、自然独占が起こらず、激しい競争が生まれることも指摘されている。しかし、競合するクラウド プラットフォームがあまりない場合は、企業が所有するクラウド プラットフォームの範囲と規模によって、ある程度の優位性が得られる可能性がある。クラウド プラットフォームの作成にかかる莫大なコストを考えると、AI 市場は 3 社または 4 社の大手テクノロジー企業で終わる可能性があると結論付けられるかもしれない。したがって、競争を確保するための政府の監督が重要になる。AI 後の世界ではプライバシーとセキュリティを維持する必要があるため、これはさらに必要になるだろう。
雇用への影響: 研究者の主な懸念は、AIが生産性の向上という形で成果を上げるよりずっと前に、多くの労働者を置き去りにし、既存の不平等を固定化してしまうのではないかということだ。これとは逆の見解を持つMITの経済学者デイビッド・オーター教授は、生成型AIがバランスの是正に役立ち、大学教育を受けていない人々に、より専門的な仕事をし、より高い賃金を勝ち取り、高所得者との格差を縮めるために必要なツールを与えることができると考えている。キャリアを通じて技術の変化が仕事、賃金、不平等にどう影響するかを研究してきたオーター教授は、AIの最新の進歩は労働者が不足している時期に起きていると主張する。彼は、適切な設計であれば、AIは人々のスキルを置き換えるのではなく、より価値あるものにするために使用できると考えている。病院の看護師を例に挙げて、オーター教授は「私たちは最もエリート的な仕事を、それほどエリート的ではないスキルを持つ人に実行させているのです」と言う。これは、他の多くの状況でもAIを活用できるものだと思います。簡単に経済的な言葉で言えば、問われるべきことは、AIは誰の代わりで、誰の補完なのかということです。」彼は、雇用や賃金の喪失は起こるだろうと認め、「人々が給料の良い専門職に就いていて、給料の低い一般的な仕事をしなければならないとしたら、それは懸念事項です。問題は、テクノロジーによって一部の専門知識の価値がはるかに高まる一方で、他の場合には、すでに持っている専門知識が直接置き換えられてしまうことです。」と述べている。発展途上国の雇用市場へのAIの影響について尋ねられたオートー教授は、インドやフィリピンにアウトソーシングされている業務は、金融、企業、研究機関、産業におけるAIの使用によって影響を受ける可能性があると述べた。彼はアメリカなどの先進国の雇用へのAIの影響についてはあまり心配していないが、投資銀行のゴールドマン・サックスによる調査では、世界経済がその期間中にさらに7兆ドル成長するにもかかわらず、米国の雇用の3分の2が今後10年間でAIの影響を受けるリスクがあると予測されている。コンサルティング会社マッキンゼーは、今後6年間でアメリカの労働時間の最大30%が自動化の影響を受けると予測している。
広告:インターネットの多様かつ頻繁な使用は、広告を通じて得られる現金の量の増加によって可能になった。内部関係者の証言によると、AIはこのビジネスを何倍にも拡大し、場合によってはすでにそうなっているかもしれない。2023年10月の投資家向け電話会議で、コカ・コーラの最高経営責任者(CEO)ジェームズ・クインシー氏は、1997年から2012年頃に生まれたZ世代の消費者は、1日7~9時間をスクリーンの前で過ごし、従来のテレビを見る時間は非常に短いと指摘した。当然のことながら、同社の広告に対するメディア支出は現在、デジタルに大きく偏っている。2019年の電話会議でクインシー氏は、「デジタルは当社の総メディア支出の30%未満でしたが、現在は60%を超えており、主に、当社が人口をセグメント化し、より高い投資収益率を得られる消費者にリーチすることを可能にするデジタルキャンペーンに重点を置いています」と述べた。 AIはデジタル広告に新たなレイヤーを追加することになる。なぜなら、この技術は、広告の作成から消費者への広告の提示まで、企業の従来の機能の多くを置き換える可能性があるからだ。しかし、すでにターゲット広告を可能にしている膨大な量の顧客データと組み合わせることで、これまでは鈍器に過ぎなかったものが精密産業になり得ると幹部らは言う。AIは、世界規模で個人向けのオーダーメイドのマーケティングを作成する力を持つようになる。これは「ハイパーターゲティングの時代」だとコカコーラのCEOクインシーは言う。彼によると、この時代では、個人の日々の経験、検索やショッピング、娯楽、さらにはニュースダイジェストが、ますますカスタマイズされ、アルゴリズムによって駆動されるようになるという。時代の風潮に合わせて、コカコーラはGPT-4とDALL-Eを使用して、ニューヨークのタイムズスクエアやロンドンのピカデリーサーカスのデジタル看板に登場するアート作品を人々が生成できるようにするAIプラットフォームの実験を行った。
しかし究極の目標は「適切な人、適切なタイミング、適切なメッセージ、適切なコンテキスト」だと、消費者向け健康企業ヘレオンのCEO、タマラ・ロジャーズ氏は言う。これはマーケターの夢だと同氏は言う。ヘレオンは既にAIに足を踏み入れており、例えば消費者の口を再現できるキャンペーンを作成しているが、ロジャーズ氏は、業界が超ターゲット型アプローチを実現するにはまだ遠いと語る。最後に、AIには広告の基本的な機能、つまりロジャーズ氏が「退屈な作業」と呼ぶものの一部を自動化する機能があり、例えばAIを使用して膨大な量の文書や製品情報をふるいにかけ、広告の主張を裏付けるなどだ。AIは、デジタルプラットフォームでのメディア購入やプランニングの側面を自動化するためにも使用できる。広告代理店にとっての問題は、デジタルメディアへの依存度が高まると、それらのタスクがより簡単に、より安価に完了できるようになり、請求できる料金のレベルが下がる可能性があることだ。
銀行とAI:世界の銀行の最高機関であるバーゼル銀行監督委員会のパブロ・エルナンデス委員長は、昨年(2023年)ダボスで開催された世界経済フォーラム(WEF)に集まった金融リーダーに対し、金融規制をAIなどの問題に取り組むための青写真として活用するよう求めた。同氏は、金融の安定性は彼らが直面している課題の一側面に過ぎず、AIに関連して積極的に取り組む必要がある潜在的にもっと重要な影響が他にもたくさんあると述べた。WEFに出席した代表団は、AIのガバナンスについて議論したが、これには、この技術をオープンソースにすべきか、それともマイクロソフト、アマゾン、開けるAIなどの少数のテクノロジー企業の手に安全に留めておくべきかという長年の議論も含まれていた。ダボスでの会議では、企業のAIリーダーたちが、2023年をかけてEU AI法、ホワイトハウスの大統領令、英国のブレッチリー・パーク合意を通じてさまざまな政策ソリューションを提案してきたEU、米国、中国の規制当局者と交流した。代表者たちは、地政学的な影響があるため、この新しい技術(AI)を世界的にどのように規制できるかという明確な道筋がないため、協調的なアプローチが必要であることに同意した。
フェイクニュースとディープフェイク:ダボスで開催された世界経済フォーラムに出席したニューヨーク大学のAI専門家で教授のゲイリー・マーカス氏は、別の問題に触れ、2024年には世界中で70もの選挙が予定されていることから、民主主義国家においてAIを介した誤報を防止し制限するために何ができるかが代表者にとって重要な問題であると述べた。同氏は、ディープフェイクはますます巧妙化しており、AIモデルが誤報の作成に利用される可能性があると警告した。
オックスフォード・インターネット研究所によると、2020年のソーシャルメディアの偽情報キャンペーンは80か国以上で展開され、政党、影の広報および民間諜報グループ、あるいは政府自身によってさまざまに組織化されていた。これに対応して、グーグル、メッツ、ティックトック、Xは、投票と投票者抑圧に関する組織的な秘密の影響力操作や偽情報を禁止する規則を導入した。しかし、テキスト、画像、音声、動画をブレンドできる強力なマルチモーダルモデルである生成AIの出現により、ディープフェイクの可能性は根本的に変えられ、説得力のあるメディアを大規模に作成する能力がほぼすべての人の手の届くところにある。その結果はさまざまである。トランプ氏など一部の政治家が、自分たちに同意できない物語にこの用語を適用して「フェイクニュース」という概念を武器にしたのと同じように、ディープフェイク(人物の偽の写真)に対する一般の認識の高まりも、真実の信用を失墜させ現実を否定するために利用される可能性がある。研究によると、ディープフェイクの存在そのものが、たとえそれが本物であっても、オンライン上のあらゆるものに対する不信感を深めている。目や耳で聞くことを信じることができなければ、未来は暗いものとなるでしょう。何も額面通りに受け止められず、すべてが問いただされるでしょう。
オープン AI 対 クローズ AI: 真実と現実を歪曲するために AI を操作することで、生成型人工知能システムはオープンであるべきか、それともクローズであるべきかという問題に人々の関心が集まっています。オープンソース モデルの支持者は、内部の監視を促すことでテクノロジへのアクセスが広がり、イノベーションが促進され、信頼性が向上すると主張しています。小規模なモデルは開発と導入がはるかに安価で、競争も保証します。しかし、批評家は、オープン モデルはトラブルのパンドラの箱の蓋を開けるリスクがあると主張しています。悪意のある人物がそれらを悪用して個人に合わせた偽情報を世界規模で広める可能性があり、テロリストはそれらをサイバー兵器や生物兵器の製造に利用する可能性があります。
この議論にはイデオロギー的な側面もある。オープンモデルを擁護することでシリコンバレーの大手テクノロジー企業と袂を分かったメタのチーフサイエンティスト、ヤン・ルカン氏は、テクノロジーをコントロールしようとするライバル企業の主張を中世の反啓蒙主義、つまり自ら選んだ専門家の聖職者だけが知識を扱うのに十分だという信念に例えた。将来、人間の知識の膨大なデジタル保管庫とのやり取りはすべてAIシステムを介して行われるようになるだろう。ルカン氏は、シリコンバレーの一握りの企業がそのアクセスをコントロールするべきではないと考えている。インターネットが囲い込みの試みに抵抗することで繁栄したように、AIもオープンなままで繁栄するだろうと彼は主張する。
サウサンプトン大学のコンピューターサイエンス教授ウェンディ・ホール氏は最近、「大企業だけが生成AIを運用する世界には住みたくない。また、オープンモデルを使ってユーザーが好きなことを何でもできるようにしたいとも思わない」と語った。
人権: 生成 AI は、画像、テキスト、音声、さらにはコンピュータ コードを含む新しいコンテンツを生成できるクリエイティブ アルゴリズムを表す幅広い用語です。これらのアルゴリズムは、膨大なデータセットでトレーニングされ、そのトレーニングを使用して、多くの場合「実際の」データと区別がつかない出力を作成するため、コンテンツが人間によって生成されたのか、アルゴリズムによって生成されたのかを判断することが困難になります。したがって、多数の個人による入力が含まれる可能性があるデータセットでトレーニングされたアルゴリズムを使用する AI は、著作権を含む人権を侵害する可能性があります。最近、過去 1 年間で、ニュース プロバイダーだけでなく、俳優、コメディアン、作家、脚本家、その他のクリエイティブ プロフェッショナルによって、自分の作品が不当に使用され、権利を侵害する人工知能が作成されたと主張する訴訟が起こされています。ハリウッドの俳優や脚本家が、雇用の範囲を縮小または完全に廃止する AI ベースの素材の使用に反対して行ったストライキは、AI が人権に与える影響の問題を最も劇的に実証した事例です。もう一つの注目された事例は、ニューヨークタイムズが起こした訴訟だ。同紙は、マイクロソフトと開けるAIの両社が、大規模な言語モデル(アルゴリズム)のトレーニングに何百万ものジャーナリズムコンテンツを違法に使用したと非難した。同紙は、著作権侵害とは別に、そのコンテンツの違法使用が、最終的には、技術プラットフォームや出版社が収益化している検索トラフィックに取って代わることになると主張した。
心配しているのは、従来のコンテンツ クリエイターだけではありません。ブランド各社は現在、AI を使って独自の仮想ソーシャル メディア インフルエンサーを生み出しており、現実世界のインフルエンサーにお金を払う必要がありません。昨年のハリウッド俳優と脚本家のストライキは、この底辺への競争に関するものでした。コンテンツ クリエイターを独占するか、現実世界のインフルエンサーを代用するかに関わらず、AI 技術を独占するテクノロジー企業 (マイクロソフト、開けるAI) は、入力コストがどんどん下がり、利益率がどんどん高くなる方法で販売することに熱心です。AI 製品を持つテクノロジー企業の数が増えても、このビジネス モデルは変わりません。
数年にわたる論争の末、ついに世界最低法人税率15%が施行された。この画期的な合意は、ハイテク分野の大企業が租税回避地に群がったり、管轄区域を物色したりすることを防ぎたいという思いから生まれた。FTに定期的に寄稿しているジャーナリスト、ラナ・ファルーハー氏は最近、「世界合意の署名がまだほとんど乾いていないが、人工知能企業をターゲットにした新しい合意について話し合う時期が来ている」と書いている。
AI の使用規制: AI テクノロジーをめぐる誇大宣伝により、その危険性に対する認識も高まっています。特に選挙中に誤った情報を作成し、拡散する可能性、特にクリエイティブ セクターで雇用を置き換えたり、雇用を変えたりする能力、そして AI が人間よりも賢くなり、人間に取って代わるという差し迫ったリスクは低いものの、AI の危険性も高まっています。
AI(開けるAIのチャット GPT)がパブリックドメインに登場した後に生じた状況の深刻さと、米国、欧州、中国のテクノロジー企業がこの分野で進歩するために互いに競い合っていることを考慮して、欧州連合は2024年3月にAIに関するEU法を可決しました。これは、世界で可決された初のAIに関する法的枠組みです。AIのリスクに対処し、欧州が世界で主導的な役割を果たす立場を確立します。AI法はAIに関する統一された規則を定め、AIの開発者と展開者にAIの特定の用途に関する明確な要件と義務を提供します。同時に、この規制は企業、特に中小企業の管理および財務上の負担を軽減することを目指しています。EU法は、信頼できるAIの開発を支援するためのより広範な政策措置パッケージの一部であり、AIイノベーションパッケージとAIに関する調整計画も含まれています。これらの措置は、AIに関して人々と企業の安全と基本的権利を保証します。また、EU全体でAIへの投資とイノベーションの採用を強化します。この法律は、世界初の AI に関する包括的な法的枠組みとして、AI システムが基本的権利、安全性、倫理原則を尊重することを確保し、非常に強力で影響力のある AI モデルのリスクに対処することにより、欧州およびそれ以外の地域で信頼できる AI を促進することを目的としています。AI 法は、欧州の人々が AI が提供するものを信頼できることを保証します。ほとんどの AI システムはリスクがほとんどないかまったくなく、多くの社会的課題の解決に貢献できますが、特定の AI システムは、望ましくない結果を避けるために対処しなければならないリスクを生み出します。この法律はリスクベースのアプローチです。政府によるソーシャル スコアリングから、危険な行動を促す無名の音声アシスタントのおもちゃまで、人々の安全、生活、権利に対する明らかな脅威と見なされるすべての AI システムは、この法律の下で禁止されています。しかし、AI 業界が相当レベルの精査を受けるまでにはしばらく時間がかかるでしょう。この法律には、企業が遵守するための 2 年間の猶予期間が含まれています。自動車メーカーのルノーからビール醸造会社のヘネケンまで、多くの企業が、この法律の規則により、テクノロジーを開発および実装する企業に不釣り合いなコンプライアンス コストが発生したと主張しました。 「我々は従うよう努力するが、従えない場合は事業を停止する」とオープンAIの最高経営責任者サム・アルトマン氏は述べた。その後同氏は撤回し、同社には欧州から撤退する計画はない、とツイートした。マイクロソフトとグーグルは、法律の要件によりモデルを変更するかどうかについては推測を避けたが、現地の法律に従うよう努力すると述べた。
2023年11月、英国政府はAI安全サミットを開催しました。このサミットは、開催地の名前からブレンクレーパークサミットとして知られるようになりました。このイベントには、中国を含む28か国の首脳とハイテク企業の幹部が出席しました。ブレンクレーパーク宣言は、いわゆる「フロンティア人工知能」による機会とリスクについての共通認識を確立しました。この宣言は、「フロンティアAI」(非常に有能な汎用AIモデル)に関連する潜在的なリスクを積極的に管理し、そのようなモデルが安全かつ責任ある方法で開発および展開されるようにするという共同のコミットメントを満たしています。
米国では、2024年4月に発行された大統領令で、労働者、消費者、アメリカ人の公民権へのリスクを含むAIによるあらゆるリスクを軽減し、AIの開発と展開がすべてのアメリカ人に利益をもたらすようにするための大胆な措置が強調されました。連邦政府機関のリーダーシップ、業界の規制、国際パートナーとの連携を通じて、責任ある人工知能の開発と展開を導く政府全体の取り組みが確立されました。この大統領令では、連邦政府が競合他社を含む他の国々と協力し、責任あるAIの安全性とセキュリティの原則と行動を推進するよう努めると述べられています。
世界中の AI の発展に関する上記のレビューと、さまざまな関係者の反応は、新技術の次の発展段階が非常に刺激的で重要なものになることを示しています。経験から判断すると、政府の規制はテクノロジー企業の巧妙な策略によって不意を突かれることになると安全に結論付けることができます。最も楽観的なシナリオは、トムとジェリーの漫画の終わりのないレースの 1 つが再び実行されることです。
[メールアドレス]
Bangladesh News/Financial Express 20240904
https://today.thefinancialexpress.com.bd/views-opinion/everyone-has-a-take-on-ai-1725370991/?date=04-09-2024
関連