コラム

【寄稿】個人情報保護やAIのこと

テクニカ・ゼン株式会社の社長 寺川 貴也 様に寄稿いただきました。


はじめに

テクニカ・ゼン株式会社は、大手グローバル企業を中心にデータ保護やAIガバナンスについてコンサルティングや専門家のトレーニングを行っているコンサルティングとトレーニング事業の会者です。リスク管理の専門会社として2015年に創業し、2025年11月に10周年を迎えました。

データ保護やAIガバナンスという言葉は一般になじみがないと思います。データ保護は個人情報保護、AIガバナンスはAIの安全性、と言い換えると、少し通りがよくなるかもしれません。私たちは、企業がデータやAIを利用するときに、人を傷つけず、社会に受け入れられる利用方法となるようにお手伝いをしています。

この原稿では、個人所法保護とAIの安全性がなぜ大切なのか、皆さんとどう関係があるのか、そして、皆さんに何ができるのかについて書きたいと思います。

個人情報保護がなぜ大切なのか

ここ数年、個人情報保護やプライバシー保護という言葉をニュースで目にすることが増えたと思いませんか?これは、経済活動がデジタル化し、新しい経済活動のルール作りが急がれていることが背景にあります。個人情報保護やプライバシー保護は、AIと共に、G7や国連総会といった国際会議の議題にもなっています。

個人情報は、みなさんについての情報です。氏名や住んでいる場所、メールアドレスといった直接的な情報にとどまらず、例えばウェブサイトでどんなページをどれくらいの時間見ていたか、過去にどのような商品を購入したか、いつどこにいたか、といった間接的な情報についても企業や政府は収集し、分析し、利用しています。

携帯電話やパソコン機器でインターネットを開くと広告が表示されると思います。この広告は、皆さん一人ひとりで異なる広告が表示される仕組みとなっています。皆さんが過去に何をしたかを分析し、もっともクリックする可能性が高いとプログラムが判断した結果を表示しているのです。

この仕組みは、検索する手間が省ける一方、癌治療、糖尿病、夜尿症など、あまり人に積極的に話さないような内容であってもこちらの気持ちに関係なく「最適な」(最適だとだれかが決めた)広告を渡されてしまうので、人の心に土足で踏み込むようなことも発生する仕組みです。

プログラムは人間のような配慮はしません。「高齢者で判断能力が劣る」と判定した人には、詐欺師の商材や悪徳業者の勧誘を優先的に配信することもします。子どもがオンラインゲームで課金アイテムを大量に購入して問題になるのも、プログラムの勧誘の結果です。

経済活動がデジタル化するということは、経済活動のスピードが高速化することです。高速化すると事故が生じる可能性も高まるため、車のブレーキのように、人間が速度を制御できる形で速度を調整する仕組みが必要です。個人情報保護や、この後紹介するAIの安全性は、企業活動を通じて事故が生じないような仕組みを備えてもらうための活動なのです。

AIの安全性がなぜ大切なのか

最近はAIという言葉を毎日のように聞きます。AIという言葉の定義が曖昧なので、プログラムを用いて自動化しているものであればなんでもAIと呼んでいるきらいがあります。AIとは本来、人間の知能をコンピュータプログラム(アルゴリズム)で模倣しようとする科学研究の一つとして1950年代に登場した概念でした。今、一般にAIといわれているものは、残念ながら人間の知能を再現しているとはとてもいえない水準でしかないのですが、話題先行で誤解の多い宣伝が行われているというのが現状です。

現時点でのAIは、事業者がどんなに高度なことをできると主張していても、「プログラム」または「アルゴリズム」と言い換えることができるものに過ぎません。

AIは、先ほどの広告の例のように、さまざまなことを高速に自動化できます。AI事業者は、確からしい結果がでるようにプログラムをチューニング(微調整)しているので、私たちはつい機械が「正しい」出力を出すと思い込んでしまいます。しかし、「最適」とされる出力は「誰かが最適と決めた」ものに過ぎません。AIは社会の好ましくない偏見や差別的な考え方が入り込む仕組みとなっており、AIの出力を無批判に受け入れると偏見や差別的な考え方の対象となった人が不利益を受け続けることとなります。そればかりか、政治的な意図が働くと、例えば敵国の社会を混乱させる出力を出すように調整し、世論操作を行うこともできてしまいます。

この例だけからも、AIが私たちの社会に大きな影響を与え得るものであることを理解しいていただけると思います。誤用、濫用がおこれば社会の混乱が加速します。私たちは、AIを安全に利用しなければなりません。

更に、AIは大量の計算をコンピュータで行うため、大量のエネルギーを消費します。コンピュータを冷却ために大量の水も消費します。AIへの投資は、環境問題の観点からも十分な配慮を行った上で利用しなければ地球環境の疲弊が進み、将来世代にさらなる禍根を残す可能性をもっています。

未完の技術で、環境負荷も多い中、急速に社会実装が進んでいるのがAIなのです。
そのような技術だからこそ、私たちは細心の注意をもって利用する必要があります。

皆さんとどう関係があるのか

当社は主に大手企業のお客様を対象に支援をしていますが、個人情報保護やAIの安全性をはじめとしたデジタル経済の課題はすべての人に関心を持っていただきたいと思っています。テックカンパニーの利益の源泉は皆さん自身だからです。

たとえば個人情報の取り扱いについては、SNSを運営しているビッグテックのサービスを利用することで、それらの会社の活動を支援していることとなります。ビッグテックはサービスを利用している皆さんの個人情報を原料として利益を生み出します。野心的な彼らは、倫理的な配慮は政府の仕事と嘯いてややもすれば十分な検討を行うことなく非倫理的なデータ処理を行ってしまう存在です。利益を得るのは彼らであり、被害を受けるのは私たちです。

ビッグテックをはじめとするテック企業の商業習慣を監視し、私たちを不幸にするような行為があれば止めさせる必要があるでしょう。

ビッグテック以外にも私たちに不都合を生じる事業者があります。たとえば2019年に発生した「リクナビ」事件では、採用活動をしている学生が内定辞退を行う確率を密かに算定して社会問題となりました。日本の会社は道徳的な会社が多いという伝統がありましたが、この伝統は少しずつ変化しています。性善説が通じにくい時代になってきました。リクナビ事件で発生したような反感を生じるような行為については、毅然として声をあげていく必要があるでしょう。

AIも便利なツールですが、完全な技術ではありません。例えば生成AIでは意図せず著作権を侵害してしまったり虚偽の情報をそのまま採用してしまったりする可能性もあります。こういった行為は犯罪につながることもあるため注意が必要です。AIは、不完全な技術であることを肝に銘じながら活用する方が上手に活用することができます。

皆さんに何ができるのか

個人情報保護もAIの安全性も、まだまだ新しいデジタル技術の産物です。
残念ながら十分な規制は整っていません。特にAIについては、技術を止めないために緩い規制のみを整備するというトレンドが広がっています。技術を利用する側にはリテラシーと自衛の精神が求められています。

会社の中には、ルールができる前にあらゆることを試すべきだという考え方を持っている会社もあります。そういった企業は、制裁金を支払ほうが得だと言わんばかりに積極的にデータや権利の搾取を展開します。一部の「便利」に見えるサービスを利用している時、皆さんはそういった事業者に商売の種となる原料を提供していることを覚えておいてください。

皆さんにできることは、彼らの利益の源泉となっているデータの提供者としてサービスを選択することです。皆さんに対してフェアな事業者、信頼できる事業者、自分の価値観にそった事業者を積極的に選択することです。そして、許容できないデータ処理をしている事業者には声をあげること、そういった事業者を監視する団体や組織を支援するといったことです。

また、子どもやデジタルツールに慣れていない人たちを支援することも大切な貢献の一つです。
デジタル社会のルールを学び、教えあうことで、よりフェアに事業者と向き合うことができます。簡単なことではありませんが、新しい技術について学び続け、共に助け合い続けてください。

終わりに

私はデジタル分野でコンサルティングを続けていますが、実は、最も大切なのはリアルなコミュニケーションだと考えています。デジタル化して遠隔の人々とつながることができるようになればなるほど、半径5メートル以内の人を大切にできるかが大切になってきたと感じてます。これは矛盾した考え方のように聞こえるかもしれませんが、やはり、人は社会的な存在で、コミュニケーションは言葉以外の要素を含めて成立しているということなのかなと感じています。

デジタル化が急速に進む今日だからこそ、身近な人、友人、仲間を大切にしたいというのが、最近の私の本音です。


当クラブでは、社会をより良くする視点や気づきを提供する記事のご寄稿を募集しております。ご興味をお持ちの方は、お気軽にお問い合わせください。