とによって、より高度な予測や判断を行います。AIでは、機械自身がパターンやルールを生み出すため、人間からすると出力結果を生み出した過程がわかりづらい、ブラックボックスになっているという点に特徴があります。その法的リスクは場面によりさまざまですが、一般に言われることとして、高度な予測が可能であるがゆえに、人に知られたくない情報がAIによって明らかにされてしまう“プロファイリング”のリスクがあります。さらには、AIが事実とは異なる情報(ハルシネーション)やバイアスのかかった情報を出力する問題が知られています。企業がAIを事業で活用する際、プロファイリングやハルシネーション等の問題を回避できずに、ユーザーに不利益を与えたり、そのことによって企業自身も不利益を被ることがあり得ます(寺田弁護士)。するのが難しいという問題があり、そのために社内でミスコミュニケーションが生じたり、問題の把握が後手、不正確になることがままある。この点について、両弁護士は口を揃えて「まずは“このシステム設計には個人情報保護法上の問題があるかもしれない”と察知できる程度の感度を養えれば十分」と述べる。そのうえで、法律と技術の両方に明るい専門家に相談すれば、早めに正しい判断ができる。それを繰り返す中で、担当者の知見を高めていけばよいのだという。37“個人情報の問題があるかもしれない”と察知するセンスを養おう AIにまつわる法的リスクにはさまざまな観点があるが、個人情報保護はその一つだ。最先端技術が絡んでいると、“さぞ複雑な論点があるのでは”と思うが、寺田弁護士は、「“複雑な論点に取り組む”というより、むしろ“これは個人情報にあたるのか”“本人の同意が必要か”といった、基本的な論点を押さえるべき案件が多いですね」と述べる。 これは、AIツールのユーザーや、事業への導入を検討する事業者の母数が増えたことに一因があるのだろう。“個人情報”や“匿名加工”などの用語が独り歩きして、現場の勝手な解釈で、基本的なルールに則っていない形で個人情報等を扱うプロジェクトが動いてしまい、対応が後手に回る例もあるという。 また、AIの思考プロセスがユーザーにとってブラックボックスであるがゆえの漠然とした“怖さ”も混乱増加の要因だと杉村弁護士が続ける。 「技術の仕組みを理解しないと、問題の所在をつかむことは難しくなります。AIは、情報の提供の仕方自体は、従来のIoTツールの延長線上にあることが多いのですが、予想もしない出力結果が出てしまうことが大きな違いです。“情報がどう利用され、どのような仕組みでアウトプットされるか”がわからないと、“個人情報の問題になるかもしれない”という発想にもたどり着きにくいといえます」(杉村弁護士)。 “基本的な法律知識”と“技術への理解”、いずれも重要ということだ。一方で、現実にはシステムを設計する技術者には法律知識が乏しく、法務担当者には技術を理解個人情報保護法の改正動向をキャッチアップする 法務担当者が個人情報保護法の勘所をつかむにあたっては、同法に3年ごとの見直し規定があることを意識しなければならない。“ようやく現行法に慣れたところで改正が繰り返されてはキャッチアップが難しい”という声も聞かれるところだが、この分野に関わる技術の進歩や社会情勢の変化が目まぐるしいことを踏まえれば、必要な措置であろう。 2025年は現行法の施行から3年目にあたり、現在、個人情報保護委員会を中心に改正の検討が進められている。事業者においては、現行法とビジネスの実情との間にあるギャップを自覚するとともに、法改正の動向を注視することが求められている。 この3年で最も変わったことといえば、やはりAIの普及だが、寺田弁護士は、これが現在の個人情報保護法の根幹ともいえる“本人の同意取得”のあり方に再考を促す可能性を指摘する。 「個人データを第三者に提供する際の本人同意の取得は、個人情報保護法上の原則です。しかしAIを用いた事業では、学習のために大量の個人データを集めることに意味があることが多いでしょう。そのとき、一人ひとりから本人同意を得なければならないのは明らかに非効率で、物理的に不可能なレベルともいえます。結果として十分なデータが集まらず、そのために、たとえば新薬など、社会に必要な新製品の開発ができないとすれば非常にもったいない。そこで今回の改正では、“一定の分野や一定の場面では、本人同意を受けずに活用できる方法がないか”ということが議論されています。プライバシーに関わる権利の侵害を防ぐ仕組みは、仮名化や匿名化などのように本人の同意以外にも考えられますから、そういった代替措置がとれる分野であれば、“同意不要”
元のページ ../index.html#41