Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the wordpress-popular-posts domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/yutoriotsu/www/wp2/wp-includes/functions.php on line 6114

Notice: 関数 _load_textdomain_just_in_time が誤って呼び出されました。cocoon ドメインの翻訳の読み込みが早すぎました。これは通常、プラグインまたはテーマの一部のコードが早すぎるタイミングで実行されていることを示しています。翻訳は init アクション以降で読み込む必要があります。 詳しくは WordPress のデバッグをご覧ください。 (このメッセージはバージョン 6.7.0 で追加されました) in /home/yutoriotsu/www/wp2/wp-includes/functions.php on line 6114
ディープラーニングする人間 | にどね研究所

ディープラーニングする人間

インターネット

最近、スキマ時間にTwitterやはてなブックマークを見ていて、今までよりもさらに暗澹たる状況になっているように思った。

相変わらず誰かをターゲットにしたいじめのようなことが行われ、それに多くの人が喝采を送っている。そしてそれを見た人たちがどんどん影響を受け、SNS炎上やSNS衆愚化に拍車がかかっている。

ある人がSNSでフォロワーを稼げるようになると、そこから学習してさらに過激な投稿をするようになる。そこにはスローダウンがなく、どんどん加速、加速である。

ここ数年、過学習が問題になっている

少し前に、人工知能がディープラーニングをした結果、人種差別的な偏見を学習してしまうということが話題になっていた。

グーグルの「ヘイト監視AI」が人種差別を助長する皮肉な結果 | Forbes JAPAN(フォーブス ジャパン) 

その前にも、Amazonが人工知能を活用した採用活動をおこなっていた際に、女性差別をおこなうよう学習していった、ということも報道されていた。

アマゾンの人材採用AIが「女性を差別した」理由を考えてみる | Forbes JAPAN(フォーブス ジャパン)

これはいわゆる「過学習」というやつで、人工知能の抱える大きな問題点として認知されるようになってきている。

マーケティングとSNS

そこで最近ぱっと思ったのが、今のSNS上の「衆愚化」――と、言ってしまっていいと思う――の加速は、人工知能だけでなく人間過学習してしまっているからではないか、ということだ。

たとえば「マーケティング」というものを例にとってみると、当然、数字を見ることはビジネスを行う上では大事なのだが、一方で、世の中でヒットしている商品はマーケティング「だけ」で作られているものはとても少ない。

数値を自分の頭で分析し、それを参考にしつつも「アイデア」や「ひらめき」をプラスオンしなければ、よいものは生み出せない――というのは、ある種、仕事をする上では常識的な理解であると思う。

まあ、なんでこんなことを改めて書いておこうと思ったかというと、情報環境研究者の濱野智史さんの話を久しぶりに読んだからだ。

濱野さんはこう言っていた。

いまのGAFAに代表されるようなインターネットは、まさにユーザを「ファスト」のほうに行かせる研究ばかりをしているわけです。A/Bテストなんかが象徴的ですが、とにかく動物的かつ群集的に、どっちのほうが人はポチりやすいのかをひたすら最適化している。(濱野智史×宇野常寛 | アーキテクチャから文体へ | 遅いインターネット

まあWebマーケ界隈ではみんなA/Bテストが好きな人が多いわけだが、そこには人間を動物的に扱う視点しかない。

今はいろんなものが可視化されすぎた結果、人間の思考も「過学習」に寄ってきているのかもしれない。

SNSでも、明らかに間違った方向に加速しているムーブメントがほとんどになっていて、良識ある人たちはそういうものにはタッチしないまたはSNSにすら触れないが、SNS上の人たちはどんどん現象から過学習していき、ネット上の言論空間では、さまざまなイシューに関して建設的な「対話」をするのではなく、「闘争」一色になっていく。

そしてそれを見た人たちが影響され、SNS衆愚化が無限サイクル化され、建設的な議論はどんどん減っている。そして不毛な「闘争」的議論がTogetterなどにまとめられ、人々は「こういうものなんだ」と過学習。この繰り返しだ。

なぜ、対話ではなく闘争が強まるかというと、いわゆる「フィルターバブル」というものによって人間の思考が強く規定されるようになったからだと思う。

フィルターバブルというのは、要は「見たいものだけ見る」「見たくないものは見ない」が徹底された状態のことで、そこでは人間は「共感」などの体験を通して「承認」は得られるが、「成長」「変化」には晒されなくなる。

まあそういったフィルターバブルに陥らないためにはSNSを見ないのが一番ではある。それよりも本を読もうという、いつもの話になっていく。

元に戻ると

要は人間も人工知能も「過学習」してしまう。

でも、やはり今一度見直すべきなのは、たとえば「差別はダメなのか」という問いなのだと思う。

みんな、差別はダメだと当たり前のように思っているし、それを心がけて行動するかはさておき、「差別はダメ」と言われていることは知識として知っている人がほとんどだろう。

じゃあ「差別はダメ」ということになったのはなぜなのか。

これは人間の知恵として、「互いが自由に生き、共存するためには差別はなくしたほうがいい」ということを学習したからだ。

そして、こういった価値判断は、人工知能による機械学習からも、マーケティングやSNSでの群衆行動から導き出されるものでもない。コンピューターサイエンスや統計学からは出てきえない、ある種の「倫理」として構築された、人文科学的な知であるのだと思う。

ちなみに僕は人文科学出身ではなく社会科学系の人間なので、これはポジショントークではない。正直いって学生のときは「人文科学ってまるでエビデンスないじゃん、科学なの?」などと、恐れ知らずのことを思ってすらいた。

それはさておき、人工知能の過学習マーケティングやSNSで可視化された群衆行動による社会の変化によって、今これからまさに、人文科学的な知が見直されるフェーズに来ているのではないか、と思う。

 

コメント

タイトルとURLをコピーしました