世界

AIツールは、1,000の「疑わしい」ジャーナルを識別します

8月 31, 2025 / nipponese

1756628081
2025-08-30 15:10:00

50%のしきい値(n = 1437)で疑わしいものとしてフラグが付けられたジャーナルの予測特性。クレジット: 科学の進歩 (2025)。 doi:10.1126/sciadv.adt2792

コロラド大学ボルダー校が率いるコンピューター科学者のチームは、「疑わしい」科学雑誌を自動的に探求する新しい人工知能プラットフォームを開発しました。

研究、 8月27日公開 ジャーナルで 科学の進歩、 研究の世界で驚くべき傾向に取り組んでいます。

研究の主著者であり、コンピューターサイエンス学科の准教授であるダニエル・アックニャは、彼の電子メールの受信ボックスで週に数回そのことを思い出させます。これらのスパムメッセージは、科学雑誌の編集者であると主張する人々から来ています。

このような出版物は、「略奪的な」ジャーナルと呼ばれることもあります。彼らは科学者を標的にし、適切な審査なしに研究を公開するために数百または数千ドルを支払うように彼らに説得します。

「科学者や組織の間でこれらのジャーナルを吟味する努力が高まっています」とAcuñaは言いました。 「しかし、それは馬車のようなものです。あなたは1つを捕まえて、通常は同じ会社から別のものが現れます。彼らはただ新しいウェブサイトを作成して新しい名前を思いつきます。」

彼のグループの新しいAIツールは自動的にスクリーンします 科学雑誌、彼らのウェブサイトやその他のオンラインデータを特定の基準について評価します。ジャーナルには、確立された研究者を特集した編集委員会がありますか?彼らのウェブサイトには多くの文法エラーが含まれていますか?

Acuñaは、ツールが完璧ではないことを強調しています。最終的に、彼は、機械ではなく人間の専門家が、ジャーナルが評判が高いかどうかを最終的に呼び出すべきだと考えています。

しかし、著名な人物が科学の正当性に疑問を抱いている時代に、疑わしい出版物の広がりを止めることがこれまで以上に重要になったと彼は言った。

「科学では、あなたはゼロから始めません。あなたは他の人の研究に加えて構築されています」とアックニャは言いました。 「それで、その塔の基礎が崩れると、全体が崩壊します。」

シェイクダウン

科学者が評判の良い出版物に新しい研究を提出するとき、その研究は通常、呼ばれる慣行を受けます ピアレビュー。外部の専門家は研究を読み、品質について評価します。少なくとも、それが目標です。

ますます多くの企業が、利益を上げるためにそのプロセスを回避しようとしています。 2009年、CUデンバーの司書であるJeffrey Beallは、これらの出版物を説明するために「略奪的な」ジャーナルというフレーズを作り出しました。

多くの場合、彼らは、科学機関が若いかもしれない中国、インド、イランなど、米国およびヨーロッパ以外の研究者を対象としています。

「彼らは、「あなたが500ドルまたは1,000ドルを支払うなら、私たちはあなたの論文をレビューします」と言うでしょう」とAcuñaは言いました。 「実際には、彼らはサービスを提供していません。彼らはPDFを取り、それを彼らのウェブサイトに投稿するだけです。」

いくつかの異なるグループが慣行を抑制しようとしてきました。その中には、です 非営利団体 と呼ばれます オープンアクセスジャーナルのディレクトリ (Doaj)。 2003年以来、DOAJのボランティアは、6つの基準に基づいて数千のジャーナルに疑わしいとフラグを立てています。 (たとえば、評判の良い出版物には、ウェブサイトにピアレビューポリシーの詳細な説明が含まれる傾向があります。)

しかし、それらの出版物の拡散に対応することは、人間にとって困難でした。

プロセスをスピードアップするために、Acuñaと彼の同僚はAIに目を向けました。チームはDOAJのデータを使用してシステムをトレーニングし、AIにインターネット上の15,200近くのオープンアクセスジャーナルのリストをふるいにかけるように依頼しました。

これらのジャーナルの中で、AIは当初、潜在的に問題があると1,400以上にフラグを立てました。

Acuñaと彼の同僚は、人間の専門家に、疑わしいジャーナルのサブセットをレビューするように依頼しました。人間によると、AIは間違いを犯し、推定350の出版物に合法的である可能性が高いとフラグを立てました。それはまだ、研究者が疑わしいと特定した1,000を超えるジャーナルを残しました。

「これは、多数の雑誌を予見するためのヘルパーとして使用すべきだと思います」と彼は言いました。 「しかし、人間の専門家は最終分析を行うべきです。」

Acuñaは、研究者は他のAIプラットフォームのようにシステムを「ブラックボックス」にしたくないと付け加えました。

「たとえば、ChatGptを使用すると、なぜそれが何かを示唆しているのか理解できないことがよくあります」とAcuñaは言いました。 「私たちは可能な限り解釈可能なものにしようとしました。」

チームは、たとえば、疑わしいジャーナルが非常に多くの記事を公開していることを発見しました。また、合法的なジャーナルよりも多くの所属を持つ著者や、他の科学者の研究ではなく自分の研究を異常に高いレベルに引用した著者も含めました。

新しいAIシステムは公開されていませんが、研究者は大学や出版社がすぐに利用できるようにしたいと考えています。 Acuñaは、このツールを、研究者が自分の分野を悪いデータから保護できる1つの方法、つまり「科学のファイアウォール」と呼んでいると考えています。

「コンピューターの科学者として、私はしばしば新しいスマートフォンが出てきたときの例を挙げています」と彼は言いました。 「携帯電話のソフトウェアには欠陥があることはわかっており、バグの修正が将来来ると予想しています。おそらく科学でも同じことをするべきです。」

詳細:
Han Zhuang et al、疑わしいオープンアクセスジャーナルの予測可能性を推定する、 科学の進歩 (2025)。 doi:10.1126/sciadv.adt2792

によって提供されます
コロラド大学ボルダー校


引用:科学のファイアウォール:AIツールは、2025年8月31日から取得した1,000の「疑わしい」ジャーナル(2025年8月30日)を識別します。

このドキュメントは著作権の対象となります。私的な研究や研究の目的のための公正な取引とは別に、書面による許可なしに再現される部分はありません。コンテンツは情報のみで提供されます。

#AIツールは1000の疑わしいジャーナルを識別します