ウェブサイトの情報は、マグロの漁獲制限のような状況にさらされている
AIが出てきて、ウェブサイトの出典元割合が大きく変わろうとしている。
そもそもはウェブに情報などはなかった。当時の技術オタクが面白がって、いろいろな情報を無料で載せ始めて。
そこにブログブームが到来。エンターテイメントやコンテンツが、その質はさておき、一気に増えた。
家にいながら、誰でもいろんな情報にアクセスできるようになったのは、ここまで色々と書き連ねてきた人類のおかげだ。
その情報を、ディープリサーチを使えば。集約させ、視点を加え、マーケターが書くようなレポートに仕上げることができるようになった。
人間がやれば、1日かかりそうな仕事を、わずか10分ちょっとだ。
実際に使ってみると、本当に人類の歴史を感じる。古い資料からも、よく調べてくれている。
けれど、むくむくと2つの違和感が湧いてくるのだ。
1つは、当然ながらウェブにない情報はわからないということ。僕自身のレポートを試しで作ったときに、自分自身のことだからこそ気づいた感想だ。
もう一つは深刻。今、AIを使った、検索エンジン対策のためのコンテンツがめちゃめちゃ増えている。
それらの多くは、そこにない事実を仮説で作ることが多い。閲覧者への提案なので、それ自体は問題ではないのだ。
けれど、今後は多分このような記事の割合が圧倒的に増える。つまりは、ディープリサーチは「人が作っていない情報から」その多くを持ってくることになる。
これは、検索エンジンの品質にも関わる。多分、ウェブの使いづらさが、今後は増してくるのだと思う。
だったら、AI 生成のコンテンツを制限すれば良いのだけれど。今現在、成果を上げるためには、結局これらが有効なのだ。
よくマグロの漁獲制限が取り上げられるけど。ウェブ制作に関わる人間が、自主的にこのような制限をかけられるのかどうか。
これらは多分、難しい。
その結果、ウェブの品質が下がり、信用が下がり。ウェブ制作への資源投入が減っていく。
ゆっくりと自分の首を絞めるような話が、AIの出現とともに始まっているのは、多分間違いないことだと思う。
更新 2025月03日05 09時58分