Das (Computer-)Programm SCIgen erzeugt Aufsätze nach einem mathematischen Zufallsprinzip mit Abbildungen, Tabellen und Literaturzitaten. Die sehen so wissenschaftlich aus, dass man (mindestens) zweimal hinschauen muss.
Weniger als zweimal hingesehen hatten die Organisatoren der Konferenz WMSCI2005, welche das generierte Paper mit dem Titel «Rooter: A Methodology for the Typical Unification of Access Points and Redundancy» angenommen hatten. Selbstverständlich wurde das Paper dann auch präsentiert… Und da sich alles so gut «anfühlte», wurden parallel zur Konfernez noch drei weitere «Papers» präsentiert. Diese Geschichte ist selbst mit Videos gut dokumentiert.
Lesen sie sich mal in ein eigenes Paper rein! Die Resultate sind verblüffend. Die Software lässt sich sehr gut für Test im CMS- und im Information Retrieval-Umfeld nutzen, da dort häufig Texte mit «echten Eigenschaften» in grosser Menge benötigt werden. Sehr schön.
Und weil sich alles so täuschen echt «anfühlt» gibt es auch schon Anwendungen, welche falsche Papers algorithmisch zu erkennen versuchen. So beispielsweise «The Inauthentic Paper Detector» von der Indiana School of Informatics.
Heisse Luft in der Nähe der Wissenschaft
H
Das ist ja wirklich eine total schräge Story – und spricht mal wieder Bände über den wissenschaftlichen Publikationsbetrieb…
Eindrücklich finde ich das Prüftool aus Indiana – es qualifiziert selbstgenerierte Papers tatsächlich zuverlässig als «inauthentic».