パブリッシャーによる ChatGPT 利用、編集チームの実験中心:最大の問題はその不正確さ

DIGIDAY

最近、いくつかのパブリッシャーが「ChatGPT」の導入で話題となった。ChatGPTは、オープンAI(OpenAI)が昨年11月にリリースした人工知能(AI)ベースの高度なチャットボットシステムで、BuzzFeedやCNET、スポーツイラストレイテッド(Sports Illustrated)などが、似たようなAI技術を使って自社サイトのコンテンツを作成している。だがいまのところ、彼らはマイナーな存在のようだ。

パブリッシャーの編集チームはChatGPTの実験を続けているが、米DIGIDAYが6人の上級編集者やメディア幹部に取材したところ、このAI技術をニュースルームのワークフローに組み込む動きを進めているという話は出なかった。また、彼らの知る限り、自社の編集チームでChatGPTを使って記事を公開した記者はいないという。

話題性はあるが未熟なAI

とはいえ、ChatGPTは編集者のあいだで話題となっている。彼らはChatGPTを使いこなすことをチームのメンバーに奨励し、AI技術でジャーナリストの仕事を支援できる可能性について議論しているところだ。

「(私たちは)すべての編集者に(ChatGPTを)試してみるよう勧めている。(中略)答えを提示したり特定の声のストーリーを作成したりする能力がどれほどあるのか確かめるためだ」と、バッスル・デジタル・グループ(Bustle Digital Group)で最高コンテンツ責任者を務めるエマ・ローゼンブラム氏はいう。

一方、バッスル・デジタル・グループ、ギズモード(Gizmodo)、フォーブス(Forbes)、フューチャリズム(Futurism)、トラステッド・メディア・ブランズ(Trusted Media Brands)、1440といったメディアの編集者や最高コンテンツ責任者は、この技術を無条件に歓迎できずにいる理由をいくつか挙げている。特に問題となっているのは、不正確さ、盗用、そしてこの技術の未熟さだ。

ChatGPTは「パブリッシャーがこうしたテーマについて議論するきっかけ」になっていると、リアルタイム情報システムを手がけるアプライドXL(Applied XL)の共同創設者で、コンピュータージャーナリストでもあるフランチェスコ・マルコーニ氏は述べている。

新しいものを取り入れる

すでにニュースルームに導入されているAI技術もあるが、それらの技術に目新しさはない。フォーブスは、独自のAIツールと機械学習ツールを「バーティ(Bertie)」と呼ばれるCMS(コンテンツ管理システム)プラットフォームに組み込み、ジャーナリストが適切な見出しを付けたり、説明文を書いたり、記事に合った画像をレコメンドできるよう支援している。AP通信は、数年前からAI技術を使って企業の業績を報じている。ワシントン・ポスト(The Washington Post)は、オリンピックや選挙に関する報道にAI技術を活用した。

だが、米DIGIDAYが取材した6人のパブリッシャー幹部は、ChatGPTの登場とAI技術の発展に関して、期待と不安の両方を口にしている。

「大規模で破壊的な技術的変化は10年単位(で起こるもの)だ。そして、今回がその新たな変化だと思う」と、ニュースレターパブリッシャーである1440の共同創業者兼CEO、ティム・ヒュルスカンプ氏は語った。

チャンス

フォーブスで最高コンテンツ責任者を務めるランドール・レイン氏と最高デジタルおよび情報責任者を務めるヴァディム・スピツキー氏によれば、ChatGPTを支えている技術は、インターネットで情報を探し回り、素早く答えを導き出す能力を備えているため、ジャーナリストの取材活動のアシスタントやリサーチツールとして利用できる可能性があるという。ゆくゆくは、こうした機能をバーティに統合して自社のCMSをより高度なものにしたいと、彼らは考えている。

たとえば、ジャーナリストが大量のデータや情報を解析して何らかのアイデアやテーマを見つけ出すのに、ChatGPTが役立つ可能性がある。また、記事を要約したり、見出しの候補を考えたり、文法的な編集を加えたり、関連分野の執筆者を見つけたりするのにも利用できそうだと、マルコーニ氏は話す。

トラステッド・メディア・ブランズの編集者らは、ChatGPTをコンテンツ作成ツールとして利用する可能性については検討していないが、リサーチツールとしての実験は続けているという。同社で最高コンテンツ責任者を務めるベス・トムキウ氏によれば、編集チームがChatGPTで行っている実験は、特定の分野で取り上げるトピックに関して新しいアイデアを提供できるかどうか(掃除や整理整頓に関するトピックの概要をチャットボットに伝えてもらうなど)や、ある年の「ベストセラー本トップ25」といったカテゴリーのリストを提供できるかどうかを探るためのものだ。ChatGPTは、同社が毎月開催しているコンテンツ幹部会議の次回のテーマになっていると、トムキウ氏は語った。

このような業務の一部にChatGPTを使うことで、決算報告のような「穴埋め」記事など、「決まりきった内容の退屈な記事の執筆から記者が解放される」可能性があると、G/Oメディア(G/O Media)傘下の技術系サイト、ギズモードで編集長を務めるデビッド・エワルト氏はいう。「いずれは、このような技術が報道ツールとして正式に認められ、記者が簡単な業務をこなすのに役立つようになるだろう。そうなれば、記者は(中略)情報提供者に電話をしたり掘り下げた取材をしたりするなど、コンピューターにはできない仕事に取り組めるようになる。だが、私たちはまだそこまでには至っていない」

限界

このような可能性が見えているにもかかわらず、編集者らはこの技術を急いでニュースルームに取り入れようとはせず、慎重な姿勢を崩していない。

編集者にとって、ChatGPTの最大の問題はその不正確さだ(CNETはすでにこの問題に見舞われた)。

「正確さや公平性の点で極めて大きな問題がある。人間がインターネット上に書き残した文章に存在するあらゆる欠点が、ChatGPTによって増幅されてしまうのだ」と、エワルト氏は指摘する。「AIシステムは、信頼できる情報源と信頼できない情報源の違いを見分けられるほどには進化していない。まだそこまでには至っておらず、当面は今の状況が続くだろう。そのため、誤った情報源から情報を引き出し、事実として繰り返し伝えてしまうのだ」

ジャーナリストもミスはするが、いまのChatGPTが犯しているのと同じレベルの失態や同じ数の失敗を犯すことはないと、フューチャリズムの編集者であるジョン・クリスチャン氏はいう。同氏は、CNETのAIベースの記事が誤りだらけであることを報じた人物だ。

「パブリッシャーがこのような実験を検討しているのなら、新米記者が初めて書いた記事をチェックするような慎重さで、AIの書いた記事を取り扱ってほしい。つまり、すべてをチェックするのだ」と、クリスチャン氏は語った。

フォーブスのレイン氏は、ChatGPTが2021年までに入手できたデータからしか回答を生成しないことを問題視している。「リアルタイムではない。したがって、ジャーナリストが何か新しい話題について書こうしても、(ChatGPTが)書く内容は、当然ながらすでに知られている話になる」

また、盗用の問題もある。ChatGPTは、質問に答えるときにその出典を明示しない。他の誰かが書いた文章をそのまま利用していたり、出典を明記せずに他の人のアイデアを書き換えたりしているかもしれないのだ。これらはいずれも考慮すべき大きな問題だと、エワルト氏はいう。

米DIGIDAYの記者が試しに、「どのメディア企業がChatGPTを使用しているのか」とChatGPTに尋ねたところ、数社のパブリッシャーの例が返ってきた。そこで記者が情報源を教えてほしいと頼んだところ、複数のリンク先が示されたが、すべてリンク切れとなっていた。

[原文:Publisher editorial teams experiment with ChatGPT, but few use AI tech in their work

Sara Guaglione(翻訳:佐藤 卓/ガリレオ、編集:分島翔平)

Source