AI slopを批判する記事が、実はChatGPTで生成されていたオチが「完璧すぎる」とXで話題に
Zennで「AIで記事を水増しするのをやめろ」という記事を読んでいたら、最後に驚きの告白が待っていました。
「この記事はChatGPTが生成しました」——そう、批判している側が批判対象そのものだったというオチです。
これを見かけたのは、SNSマーケティングの文脈で「AI生成コンテンツの氾濫」が議論されているタイミングでのこと。
思わず手を止めて、もう一度読み直してしまいました。
todesking氏のZenn記事が仕掛けたメタな罠
エンジニアのtodesking氏がZennに投稿した「ちょっとしたアイデアをAIで長文記事にして公開するのをやめろ」は、約4500文字の力作です。
内容は筋が通っていて、説得力もある。
記事の中でこんな指摘がされています。
「短く済む内容を長くされることで、読者の時間が浪費される」。
AI slopとは何か、なぜ問題なのか、GoogleのポリシーやSimon Willison氏の言葉も引用しながら丁寧に解説しています。
ところが最後の「おわりに」セクションで、著者は静かに種明かしをします。
この記事自体、210文字のプロンプトをChatGPTに渡して一発生成したものだと。
「AI slopを批判するAI slop記事」というメタ構造が完成した瞬間です。
主語デカすぎでしょ。
日本人が知財盗用生成AI slop賞賛してる倫理観終わってる民族みたいに思われたくないんだけど。 https://t.co/NzTsAWX3NG— 絵描キノ裏 (@kinoura10000) 2026年5月7日
Xでは「期待を裏切らないオチ」「非常に良いslop」「これ自体がart」と絶賛する声が相次ぎました。
批判と自己参照が同時に成立するこの構造は、批評としても作品としても高く評価されています。
AI slopとは何か、SNS運用者が知っておくべき理由
AI slop(エーアイ・スロップ)という言葉は、2025年にMerriam-Websterが「今年の単語」候補として注目した概念です。
「労力・品質・意味に欠けた、大量生産されたAI生成コンテンツ」を指します。
SNS運用の文脈でこれが問題になるのは、コンテンツの「見た目のクオリティ」と「実際の価値」が乖離するからです。
検証なしにAIが生成した文章をそのまま投稿しても、読者はどこかで「薄い」と感じます。
エンゲージメントが下がり、フォロワーが離れていく。

特に企業アカウントでは、AIが作った「それっぽい文章」が信頼を損なうリスクがあります。
Zennで話題になったこの記事は、そのリスクをメタな方法で見せてくれた好例といえます。
SNSマーケターへの示唆
todesking氏のアプローチを逆から読めば、AIコンテンツとの向き合い方のヒントが見えてきます。
まず、「AIが書いたから価値がない」わけではありません。
この記事が示したのは、「目的と意図を持って使えば、AIも武器になる」ということです。
問題は検証なしの量産であり、意図なき水増しです。
「SNSで何を伝えたいか」が明確であれば、AIはそれを加速するツールになる。
目的が曖昧なまま使えば、それがそのままコンテンツに滲み出る。
Zennのコミュニティでは、AI生成コンテンツへの審査が厳格化する動きもあります。
SNSプラットフォームも同様に、価値の低いAI生成投稿のリーチを下げるアルゴリズム調整を行い始めています。
https://x.com/ogawa0117/status/1868820999686520871
この流れは、「量より質」へとSNS運用の重心をシフトさせる圧力になっています。
AIを使うなら、編集と検証を怠らないこと。
それが今の時代に求められる姿勢ではないでしょうか。
実際、ChatGPTで生成した文章をそのまま投稿して炎上した企業事例は2025〜2026年にかけて国内外で相次いでいます。
誤情報の拡散、文化的感度の欠如、「明らかに機械が書いた」文体への反発——どれも編集プロセスを省略したことが原因でした。
一方で、AIの下書きを人間が磨き上げて「自分の言葉」に変えたコンテンツは、むしろ高い評価を得ているケースも増えています。
さらに深掘りしたい方へ
まとめ
AI slopを批判する記事がAIで書かれていたという皮肉な事実は、SNS上でのコンテンツの「見かけと中身の乖離」を鮮やかに示しています。
量産AIコンテンツの波が押し寄せる中、運用担当者が問い直すべきは「誰に、何のために伝えるのか」という根本だといえるでしょう。
