人工知能とプライバシー権について知っておくべきこと

人工知能とプライバシー権について知っておくべきこと
[The Daily Star]ノーベル賞を受賞した作家、石黒和夫の最新小説「クララと太陽」は、2017年に文学賞を受賞して以来初めてであり、世界中の政策立案者や一般市民にある程度の関連性があります。このディストピアのSFストーリーの主人公は、人工知能(AF)であるクララです。これは、人工知能を使用する他のデバイスやロボットと同じように、同じ年齢のコホートのように振る舞い、考え、速い学習者である人間のような10代の若者です。 (AI)が期待できます。しかし、私たちが学んだことは、ロボットが非常にインテリジェントであっても、人間の生活に影響を与える決定を下すことを許可された場合、プライバシーやその他の個人の権利を保護する厳格なガイドラインがない限り、意図しない結果につながる可能性があるということです。

多くの目の肥えた読者は、AIが顔認識ソフトウェア、法執行機関、および企業の世界での採用決定に侵入するにつれて、かなりの嵐を巻き起こしていることをすでに知っているかもしれません。多くの国の政策立案者は、この革新的な技術の長所と短所を認識して警戒しています。プライバシー権の保護の最前線に立ってきた欧州連合(EU)は、2021年4月に、AIの使用を管理するための厳格な規制を発表しました。これは、企業や政府がAIテクノロジーをどのように使用できるかを概説した初めてのポリシーです。 、「機械学習」とも呼ばれます。これらの新しいルールはまだ実装されておらず、まだ計画中ですが、その影響は、アマゾン、グーグル、Facebookなどのグローバルテクノロジー企業を維持するために作成された一般データ保護規則(GDPR)の影響と同様になります。とマイクロソフトがチェックしています。

EUは、テクノロジー業界の世界で最も積極的な監視機関であり、そのポリシーは他の国々によって青写真として頻繁に使用されています。前述のように、このブロックはすでに世界で最も広範囲にわたるデータプライバシー規制であるGDPRを制定しており、追加の独占禁止法とコンテンツモデレーション法について議論しています。 「GDPRは、ブロックチェーン、顔または音声認識、テキストおよびデータマイニング[...]人工知能用に作成されていないことに注意する必要があります」と、ドイツの欧州議会議員でGDPRの作成者の1人であるアクセルボスは述べています。 。

AIは、簡単に言えば、人間の精神の問題解決能力と意思決定能力を模倣する方法を機械が学習できるようにするコンピュータープログラムです。 AI対応デバイスは、特定の状況に対応する方法を学習し、アルゴリズムと履歴データを使用して、顔を認識したり、天気を予測したり、グーグルなどの検索エンジンをサポートしたりします。 AIは、自律型車両(ドローンや自動運転車など)、医療診断、アートの作成、ゲーム(チェスや行くなど)、検索エンジン、オンラインアシスタント(シリなど)、画像認識において重要な役割を果たしています。写真、スパムフィルタリング、フライト遅延の予測など。

大規模なテクノロジー企業は、AIの開発に数十億ドルを注ぎ込んでおり、AIを使用して医薬品を開発したり、保険契約を引き受けたり、信用度を判断したりする企業も数多くあります。政府は、刑事司法や所得支援などの公共サービスの割り当てにAIのバージョンを使用しています。 AIの可能性は非常に大きく、ここに問題があります。この研究に資金を提供したり、機械を製造したりする人々は、機械をどの程度操作して、経済的または戦略的な利点を得ることができますか?彼らは本当に中立ですか?機械はそれが相互作用する人間に適応できますか、それとも既存のバイアスが固定されますか?

顔認識アルゴリズムは、プライバシーと倫理に関する議論の中心となっています。政府が顔認識ソフトウェアを購入し、それを使用して抗議行進中に参加者を追跡するシナリオを想像してみてください。香港では、警察はイスラエルのセレブリテによって作成されたシステムを使用して、4,000人の抗議者の電話にアクセスしました。 AIグローバル会議の研究者は、声に基づいて、人の年齢、性別、民族性の側面を含む顔を生成できると主張しました。

米国、英国、EUのデジタル著作権グループは、AI研究の進歩によって引き起こされた多くの問題をすでに提起しており、これらにはプライバシー侵害、倫理的懸念、AIに対する人間による制御の欠如が含まれます。カリフォルニア州スタンフォード大学の機械学習科学者であるリアカルリ氏は、「トレーニングデータは人間の出力から取得されるため、AIシステムは人種差別や性差別などの人間の偏見を模倣して繰り返すことになりかねません」と述べています。 カルリは、アルゴリズムをより透明にし、非専門家がモデルの内部動作に挑戦する方法を作成する科学的な質問に取り組むことに、より多くの努力を注ぐよう同僚に促しました。

この論争は、機械の訓練において人間が果たす役割を前面に押し出します。私たちはそれぞれ自分の偏見や好みを持っており、マシンはそれらを継承する可能性があります。 「アルゴリズムのバイアスを取り除く」ためのサポートが増えています。ダブリン大学の認知科学者であるアベバ・ベルハネ氏は、雇用と監視におけるAIの使用を引用し、「アルゴリズムは、高齢労働者、トランスジェンダー、移民、子供を除外している」と述べた。 AIは、英国の著名な科学者の1人である故スティーブンホーキング教授からの批判をすでに呼び起こし、先駆的な起業家であるイーロンマスクも危険信号を上げました。

そうは言っても、AI革命がここにあり、定着しているとは言えません。重要な問題は、AIの力をどのように活用し、その悪影響を管理するかということです。良い面として、研究により、AIは医学的診断の決定において少なくとも人間と同じくらい優れていることが決定的に証明されています。しかし、権利団体は、「彼らの医学的診断が人間の医者ではなくAIから来たときに人々に告げられるべきである」と主張している。また、同じロジックを使用して、たとえば、広告や政治的スピーチがAIによって生成された場合に、同じ警告を発行することを提案できます。

科学者であり芸術家でもあるヘンリー・カパルディは、クララと太陽に戻って、クララに次のように語っています。 「AIの。次に、カパルディは、AIの意思決定プロセスに関してより広い社会が抱えている不安の原因について概説します。これらの不安は次のように要約できます:透明性の欠如、ブラックボックス内での意思決定の方法、および意思決定に使用されるルール。たとえば、企業がAIを使用して申請者の信用度を判断している場合、アルゴリズムが決定を下すために使用するルールにより、不快感が生じる可能性があります。申請者が中小企業への融資を拒否された場合、「これは公正な決定でしたか?」と尋ねることができます。同様に、政府が刑事司法でAIソフトウェアを使用し、所得支援などの公共サービスを割り当てる場合、そのプロセスに対する説明責任、透明性、および国民の信頼が再び必要になります。

この面でいくつかの良いニュースがあります。すべての機械学習研究論文には、社会的危害とそのデータセットの出所に関するセクションを含めるべきであるという提案があります。規制による監視が必要になる可能性のある他のいくつかの分野は次のとおりです。政治家によるAIの使用は、人々に製品を購入するよう説得するためのプロモーションを作成する有権者やマーケティング会社に影響を与えます。権威あるジャーナルネイチャーの4月の社説によると、「政治家が説得力のある、しかし不正直な議論に訴えるとき、政府はすでに弱体化している。世論調査での勝利が誰が最高のアルゴリズムを持っているかによって影響を受ける場合、さらに悪化する可能性がある」。 「人工知能が人間との議論に参加し始めているので、操作や危害を避けるために、より多くの監視が必要です。」もう1つのアイデアは、透明性の基準を満たすことに加えて、AIアルゴリズムは、公的使用が承認される前に、新薬に必要なものと同様の試験を受ける必要がある可能性があるということです。

 

アブドゥラ シブリ博士はエコノミストであり、現在、米国ボストンに本拠を置くシンクタンクである国際持続可能な開発研究所(ISDI)の上級研究員を務めています。


Bangladesh News/The Daily Star 20210520
http://www.thedailystar.net/opinion/open-dialogue/news/what-we-need-know-about-artificial-intelligence-and-privacy-rights-2095089