AI読者のためのライティング
週に数時間、数十億ドル規模のテクノロジー企業のために原稿を書くライターが増えている。この仕事の特徴は、作業量がフレキシブルで、通常の仕事より高給であり、発注が途切れないことだ。しかし、書いたものが社外で読まれることはない。なぜなら、人間ではなくAIのために書いているからだ。
AIの学習データとしての価値
AIの急速な発展により、多くの職種が自動化の影響を受けている。特にライターは、大規模言語モデル(LLM)の影響を最も受ける職種の一つとされてきた。しかし、皮肉にも、AIの学習データとしての質の高いテキストの需要が高まり、プロのライターへの発注が増加している。
2026年問題:AIの学習データの枯渇
学習データの上限と「モデル崩壊」
AI研究機関「エポックAI」の研究チームによると、大規模言語モデルの開発がこのまま続くと、早ければ2026年に学習のために利用可能なテキストデータの上限に達する可能性がある。これは「2026年問題」と呼ばれている。
この問題に対する対策として、AI生成データの利用や、画像などテキスト以外のデータ利用(転移学習)などが検討されている。しかし、AIが生成したテキストをAIに学習させることで起きる「モデル崩壊」の問題も指摘されている。
データ汚染とモデル崩壊
オクスフォード大学などの研究チームによると、生成AIがつくり出すコンテンツは、AIの視点から見ると「データの汚染」であり、それを学習し続けることでAIのモデルが崩壊してしまう可能性がある。
AIの学習データと著作権問題
メディアコンテンツの無断使用
これまでのAI開発では、ネット上に公開されている膨大なテキストを収集したデータセットを学習に使用してきた。しかし、その多くはメディアが取材、編集によって品質を担保してきたテキストであり、著作権によって保護されたものだった。
法的問題と契約締結
メディアのコンテンツをAIの学習データとして無断使用することを巡っては、ニューヨーク・タイムズなどが著作権侵害でオープンAI、マイクロソフトを提訴している。一方で、AP通信やニューズ・コープなどは、データ利用に関するオープンAIとの契約を締結している。
AIのための新たなテキスト作成業務
チャットボット応答の「見本」作成
新たに登場したAI向けテキスト作成業務の具体例として、チャットボットの応答で想定される質問への「見本」として、回答用のサンプルテキストを執筆することが挙げられる。
AIの「幻覚」対策
AIが虚偽の回答をする「幻覚」を避けるための修正作業も、新たな業務の一部となっている。
AI開発における人手の重要性
労働集約型の側面
AIが間違った内容や有害な内容を回答しないよう、その学習データや回答内容を修正する作業には、膨大な人手がかけられている。自動化の最先端とみられるAI開発は、一方で労働集約型の業務を抱えている。
高度な学習用テキストの需要
最近では、より高度な学習用のテキストの需要が高まり、質の高い文章が書けるプロのライターに発注が行われるようになってきている。時給30ポンド(約5,600円)程度を支払うケースもあるという。
ライターの未来と課題
AIとの共存
ライターとしてAI企業で働くことは、自らの職業の将来を脅かす存在のために働くというジレンマを抱えることになる。しかし、高い報酬がその疎外感を正当化する一因となっている。
AI技術の限界
ライターたちによる「見本」を学習しても、AIがどこまで「賢く」なるかは未知数だ。生成AIの高度化、収益化には頭打ち感も漂い、「バブル崩壊」も指摘されている。
結論:AIとライターの共生
AIの発展により、ライターの仕事は大きな変革を迎えている。しかし、AIの学習データとしての質の高いテキストの需要が高まり、新たな仕事の機会も生まれている。2026年問題やモデル崩壊の懸念など、AIの発展には課題も多い。ライターたちは、AIとの共生を模索しながら、自らの専門性を高め、新たな価値を生み出していく必要がある。
AIとライターの関係は、単純な置き換えではなく、相互に影響し合う複雑な関係になっていくだろう。今後も、AIの発展とライターの役割の変化に注目していく必要がある。
初期のChatGPTならともかく今って割とざっくりとしたプロンプトでも結構ちゃんと返してくれるようになったしね