AIが偽の研究を量産する「論文工場」との戦いが激化している

GIGAZINE
2023年06月18日 18時30分
メモ



ChatGPTのように人間と同等のレベルで自然な文章を生成できるAIや、テキストを入力するだけで高精度な写真やイラストを生成できるAIが登場したことで、業績を水増しするために偽の科学論文をAIに執筆させるケースが報告されています。偽の科学論文を量産して販売する企業は「ペーパーミル(論文工場)」と呼ばれており、学術雑誌の審査プロセスや研究者の業績評価に対する信頼性を大きく揺るがす問題となっています。

AI intensifies fight against ‘paper mills’ that churn out fake research
https://doi.org/10.1038/d41586-023-01780-w


シドニー大学の分子生物学者で出版インテグリティ研究者であるジェニファー・バーン氏は「ペーパーミルがもっともらしいデータを生成する能力は、AIによってまさに急上昇しています」と述べています。また、ドイツの学術出版社で画像データインテグリティアナリストを務めるヤナ・クリストファー氏は「AIが生成した偽の顕微鏡画像を見たことがあります。しかし、画像がAIによって作られたものであることを証明することは依然として課題となっています」とコメントしました。


2023年5月、イギリスで非営利団体の出版倫理委員会(COPE)と国際科学技術医学出版協会(STM)が主催する「UNITED2ACTサミット」が開催されました。このサミットには研究者や研究アナリスト、学術出版社の代表や編集者が集まり、さまざまな議論が行われましたが、その中でも特に注目された話題が「ペーパーミルへの対策」についてでした。

サミットで議論された対策の1つは、実験の生データの提出を義務付けることです。論文に付記するだけではなく、生のデータを学術出版社が受け取り、そのデータが本物であることを確認して電子透かしを入れるという方法です。しかし、生データの提出に関する要件は出版社によって大きく異なっているため、出版社で生データ提出に関する要件を統一することが重要だとクリストファー氏は述べています。イギリスの学術出版社で出版倫理とインテグリティ担当ディレクターであるサビーナ・アラム氏もクリストファー氏の意見に同意しますが、そのような統一された要件を導入するには時間がかかると指摘しました。


STMは、ペーパーミルによって作成された論文を検出するソフトウェアの開発を続けながら、同様のツールに関するリソースを集約しているとのこと。ペーパーミルによる論文の増加によって、投稿時点で偽の論文を検出したり、すでに出版された論文が偽物かどうかを特定したりする技術に対する需要が高まっています。

アラム氏の勤める出版社でも、偽物の論文を検出するツールを活用しているとのこと。アラム氏によれば、論文に不正が考えられる「倫理案件」のおよそ半分がAIによって作成されたペーパーミル論文だとのこと。2019年から2022年にかけて倫理案件は10倍以上に増えており、2023年に入ってから記事作成時点で発生した倫理案件の数は、2022年での発生数をすでに超えているそうです。

COPEの研究コンサルタントであるデボラ・カーン氏は「AIが研究者の論文執筆を支援するために活用されることは間違いありませんが、それでもAIで描かれた正当な論文と、完全に捏造された論文を区別する必要があるでしょう」と述べています。


この記事のタイトルとURLをコピーする

・関連記事
153年の歴史を持つ科学誌の「Nature」がAIが生成した画像の掲載を禁止すると発表 – GIGAZINE

AI成果物が急増したことで「AI生成コンテンツをAIが学習するループ」が発生し「モデルの崩壊」が起きつつあると研究者が警告 – GIGAZINE

ChatGPTで書かれた科学論文を99%以上の精度で検出できるツールが開発される – GIGAZINE

「ChatGPTで論文を読む手間が99%減った」と科学者、研究室ではAIがどのように活用されているのか? – GIGAZINE

学生の提出課題をChatGPTに「AIが書いたものか?」と聞くと「AIが書いた」と答えたので学生の半数以上が落第の危機に – GIGAZINE

・関連コンテンツ

Source

タイトルとURLをコピーしました