【学生団体 Bizjapan】ラベリングされるSNSと我々の世界


人々はプライバシーに日々気をつけながらも、SNS(ソーシャル・ネットワキング・システム)に自身の写真や心情を日々投稿し続けています。SNSはもはや社会のインフラストラクチャー化しており、これまでのコミュニュケーションの形と定量的に記録される情報量を大きく変えました。その変化は国家のインテリジェンス戦略にも影響しています。情報機関と私たちがしてきたその投稿はどのように関わるのでしょうか。そして我々はその文脈の中でどう定義づけられ、判断されるのでしょうか。

国家によるSNSの監視

情報機関(インテリジェンス)と言えば、アクション映画によく出てくるイメージですが、実際の情報機関は謀略をはかるというよりかはその名の通り「情報」を主に扱っています。その情報を分析し何らかの政策・施策・国策をはかるための材料とすることを主な職務としています。
特に現代においては、一部の情報機関はオンライン上のとてつもない量の個人情報を持っていて、それらを活用していることが明らかになっています。このことは情報分析のレベルを変えるという意味で大きな変化を示しています。
例えば、中国のサイバー部隊はWeChatなどの国内向けSNSを監視しています。中国ではFacebookやLineなど海外へのSNSへのアクセス制限がかけられています。その理由は国内のインターネット産業の保護がメインのように思えますが、SNS上の国民の動向監視を容易にするという理由もあります。

このような監視は通信の秘密を求める国民の反発を生みそうなものですが、一方で大義名分のもと国民の支持を得ている監視システムもあります。例えば、アメリカ政府がFacebookなどのSNSや電子メールを監視していると元CIA・NSA(国家安全保障局)職員のエドワード・スノーデンが語った件を挙げてみましょう。この証言によってNSA、すなわち合衆国政府が極秘に複数のウェブサービスの監視プログラム(PRISM)を2007年から導入していたことが明らかになり、アメリカ国内だけではなく監視の対象になっていた各国で波紋を呼びました。(ちなみに中国も自国に本社を置くSNSを中国公民に絞らず監視をしています。)

様々な自由を重んじるアメリカではスキャンダラスに報道されそうな事件ではありますが、意外なことにこのプログラムを支持するアメリカ人も多くいました。
それはPRISMの目的の一つがウェブ上の情報収集によってテロを未然に防止するためであるからです。2001年に起きた9.11同時多発テロ事件のようなセンシティブな事件は保守派のアメリカ人の間でこのプログラムを正当化する大きな原動力になっています。

人間をラベリングする

では、それらの情報が「テロを未然に防止する」というのはどういうことでしょうか。FacebookやTwitterなどのSNS上をはじめ、オンライン上には相当な量の情報があふれています。オンライン上のすべての情報に目を通すのは人的リソース上不可能ですし、それらの情報がたとえテロリストによるものでも、その情報がテロと結びついていると判断するのは容易ではありません。その中からどう的確にテロリスト予備軍を探すのでしょうか。
その答えの一つが人工知能によるディープラーニングと言われています。ディープラーニングでは人工知能に多量のパターンを学習させて、あるパターンが与えられた時にそのパターンの属性を人工知能が明らかにします。例えば工場では製造装置にセンサーを付けることで異常パターンを学習させて、機械の異常を事前に発見できるようにすることができます。

これはSNSへの監視にも応用ができます。まず、あらゆる人物に関する情報をSNSなどのオンライン上で収集します。例えば、その人物の投稿、写真、友達、コメント、シェアしたウェブサイト等です。その大量の情報をこれまで集めてきた情報と結びつけることで、その人物の住んでいる場所、収入、経歴はもちろん、思想や宗教、性的趣向さえも予測することができます。インターネット上の情報から誰がテロリストになり得るか予測する、つまりテロリスト予備軍のラベリングをすることはそんなに難しくないはずです。

その人物がテロリストかどうかだけではなく、国家やそれに類する権力は我々についてあらゆる観点でラベリングし、その国家にとって不都合となる可能性のある人間を、手間なしで明らかにすることができます。しかもアメリカの例を見るように、国境を超えた通信が行われる時代にその国の情報機関がその国だけを監視しているわけがないのです。それはたしかにテロなどを事前に防ぐのに有効なことなのかもしれませんが、同時に国家に絶大な力を持たせる危険なことかもしれません。 

誰が「未来」の責任を取るのか

ここまで人工知能がインターネット上のあらゆる情報に基づき、収入、経歴はもちろん、思想や宗教、性的趣向など個人をラベリングすることが可能だということを紹介しました。しかし、これらのラベリングが常に正しいとは限りません。このラベリングに間違いがあった時、誰が責任を取るのでしょうか。
この話は、人工知能が「今」を明確にするだけではなく、未来を予測することもできるという事実を考慮するとより議論の必要性が増します。実際に先程取り上げたディープラーニングを活用した工場では将来どの機械がいつ壊れるか予測を行っていることも有り、適切なデータさえあれば人間でも同じことが可能です。未来の自分の姿という、本人たちにさえ分からないものも人工知能なら予測できてしまうのです。しかし、「今」の個人についてのラベリングと同様、未来についての予測も当然間違いが起こりえます。
問題はその予測の責任を誰が取るのかということです。コンピュータシステムが運転する車が交通事故を起こしたら、その責任は誰が取るのかというのはよく議論されるテーマです。それと同様に、人工知能は事実と違う(もしくは公表する必要のない)人間の思想・心情・未来を明らかにするかもしれません。例えば、将来テロを起こすといった人物が本当はテロなどとても起こさない人間かもしれません。いずれにしてもそれが本当ではないと証明するのはきわめて困難を極めます。
「今」についてであれば、今の自分を何らかの形で示すことで人工知能が出した結論が間違いであると主張できるかもしれません。(それでも嘘をつくかもしれない人間よりは、意図的には嘘をつかない「機械」である人工知能のほうが、信頼性が高いとされ、人工知能が間違っていると主張するのは難しいでしょう。)しかし、まだ誰も分からない未来の予測が間違っていることを、その予測が起きる時点より前の現時点で示すことは非常に困難です。機械的に予測された情報について、人間は間違っているか正しいのかよくわからない情報をあたかも必ず合っているかのように受け取ってしまいます。機械であるならばこれまでも正しかったから今回も正しいのだろうと人間は惑わされるのです。
「人工知能は完全ではない」―その認識をどこまで世論が持てるのか。結局情報の最終判断は人間がすべきなのですが、皮肉なことにその情報判断を狂わせてしまうのは精度の高い人工知能を時より嘘をつく人間よりも信頼しすぎてしまうことなのです。

Bizjapan第二弾の記事はコチラ!

PAGE TOP