Warum Academia.edu die beste Erfindung seit geschnitten Brot ist

Academia.edu mag man aus mehreren Gründen kritisieren. Sei es, weil die Premium Mitgliedschaft stolze 100 US$ jährlich kostet, weil das Portal keine Qualitätskontrolle besitzt oder weil die interne Suchfunktion zu langsam ist. Aber einen Vorteil hat das ganze: es dauert — ungelogen — weniger als 5 Minuten um ein PDF Dokument dort hochzuladen. Im Grunde reicht es, wenn man einige Mausklicks vornimmt, dann noch die Keywords korrekt einträgt und schon ist das Paper online. Es kann jetzt zumindest theoretisch von 7 Milliarden Menschen gelesen und kommentiert werden, auch wenn das natürlich nur selten passiert, aber zumindest ist es erstmal online. Das mag in Zeiten von Facebook, youtube und Blogs wie eine Selbstverständlichkeit klingen, aber gerade im Wissenschaftlichen Umfeld ist das etwas besonderes. Man möge sich zum Vergleich einmal den Upload Button von Arxiv.org anschauen oder bei Sciencedirect auch nur einen Upload Button suchen. Man wird nichts dergleichen finden. Kurzum, Academia.edu ist eine sehr nützliche Erfindung.

So intransparent sind die Bibliotheksausgaben gar nicht

https://wisspub.net/2014/10/13/intransparenz-bei-den-bibliotheksausgaben-von-schweizer-hochschulen/ beklagt sich über die Intransparenz an schweizer wissenschaftlichen Bibliotheken. Er beschreibt eine Odyssee, wo er schriftlich einzelne Bibliotheken angeschrieben hat, um herauszufinden wieviel sie pro Jahr ausgeben für die Zeitschriften von Elsevier und Co. So löblich dieser Ansatz auch sein mag, aber man kommt an die benötigten Zahlen auch leichter. Unter https://www.oclc.org/en/global-library-statistics.html findet sich die „Global Library Statistics“, dort kann man als Land Schweiz auswählen und erhält dann im Detail angezeigt was die wissenschaftlichen Bibliotheken im Jahr aufwenden. Im Jahr 2001 waren es knapp 49 Mio US$ Jahresausgaben, während knapp 200000 Studenten das Angebot in Anspruch nahmen. Das macht preiswerte 245 US$ pro Student und Jahr. So teuer ist das gar nicht.

Natürlich ist auch diese Zahl nicht ganz exakt, weil erstens die Zahlen schon etwas älter sind, in den Ausgaben nicht nur die Lizenzkosten für Wiley enthalten sind sondern auch Personalkosten, aber man erhält einen ungefähren Eindruck wie es um das Bibliothekssystem bestellt ist. Relativ aktuell sind die Daten aus den USA. Sosehr dürfte sich die Schweiz davon nicht unterscheiden. Was man zumindest sagen kann ist, dass klassische Bibliotheken ziemlich teuer sind. Man muss nicht auf die Nachkommastelle genau wissen wie hoch die Kosten sind um zu erkennen, dass weltweit Milliarden Beträge anfallen, nur damit die Uni-Bibliotheken Einblick erhalten in Zeitschriften, die mit Adobe QuarkXpress formatiert wurden und wo das meiste komplett veraltetes Wissen darstellt. Teilweise sind die Online-Foren bessere Informationsquelle als die ach so seriösen Journale.

Ich sags ja, dass Wissenschaftssystem ist kaputt

Als ob das etablierte Publikationssystem nicht schon genug Nachteile hätte, kommt doch jetzt doch tatsächlich jemand auf die Idee das auch noch gut zufinden. Zur Erinnerung: die Nachteile die ohnehin beim akademischen Publizieren sind eine lange Dauer bis das Manuscript online steht, der nicht vorhandene Peer-Review Prozess sowie eine Paywall welche 2/3 der Weltbevölkerung ausschließt, aber das alles reicht https://skeptischeoekonomie.wordpress.com/2017/07/11/warum-es-ok-ist-sci-hub-zu-nutzen-obwohl-es-illegal-ist/ noch nicht, sondern er möchte ontop auch noch Sci-hub fördern. Man kann sich die Vision ungefähr so vorstellen: Nicht nur, dass es stolze 2 Jahre dauert, bis ein Fachverlag eine Arbeit begutachtet hat, sondern danach wird sie nicht etwa als OpenAccess veröffentlicht sondern verschwindend in einer illegalen Tauschbörse wo man nur noch Lesezugriff erhält wenn man vorher eine Strafstat begeht (das Herunterladen). Ungefähr das nennt man wohl eine Dystopie. Wie man sowas allen ernstes auch noch als erstrebenswert oder gangbaren Weg beschreiben kann ist mir unklar. Es handelt sich um ein Armutszeugnis wenn sich sowas irgendwas durchsetzen sollte. Damit wären Jahrhunderte der Aufklärung zurückgedreht und wir wären wieder im Mittelalter (Stichwort verbotene Bücher, Ketzerei usw.).

Bug: URL werden in Lyx nicht umgebrochen

Selbst wenn man in den Dokumenteneinstellungen bei Hyperref einstellt, dass URLs umgebrochen werden sollen, sieht das Ergebnis nicht gut aus, siehe die obige Abbildung wo die URLs über das Zeilenende hinaus in die falsche Spalte hineinlaufen. Das Problem ist folgendes: wenn man in einem wissenschaftlichen Text eine URL zitieren will, macht es keinen Sinn dafür einen Bibtex-Eintrag anzulegen, weil das die Jabref Datenbank mit unwichtigen URLs fluten würde. Auf die URL verzichten kann man aber auch nicht, weil der Leser ja wissen soll woher eine Information stammt. Also packt man sie in die Fußnote und formatiert sie als URL. Soweit so gut, leider kommt es häufig zu den obigen unschönen Fällen wo der Umbruch nicht funktioniert. Ursache ist unbekannt, die Lyx Hilfe weiß auch keinen Rat.

So sehr ich auch ein Fanboy von Lyx bin aber das mit dem Zeilenumbruch geht gar nicht. Man kann weder die URL noch den Text aus der anderen Spalte lesen. Zusätzlich ist noch die Schriftstärke der URL viel zu groß. Was man bräuchte wäre ein seperater Button mit dem man die Formatierung taggen kann.

Geht der Umstieg auf OpenAccess zu schnell?

Wer zum ersten Mal mit OpenAccess in Kontakt kommt wird in aller Regel zu dem Schluss kommen, dass man genau das fördern müsste. Einen aktuellen Bericht zu der Thematik liefert http://archivalia.hypotheses.org/65788 Wenn man jedoch etwas näher die Lage überblickt so scheint der aktuelle Stand so zu sein, dass die Leute im jetzigen Publishing System selbst schon erkannt haben dass OpenAccess die Zukunft ist. Das heißt, anders als noch vor 5 Jahren muss man das Thema nicht mehr erläutern, sondern ausgerechnet die Bibliotheken selber drängen inzwischen geradezu auf Modernisierung. Das ist keineswegs so ungefährlich wie es zunächst den Anschein hat. Einigen Akteuren geht der Umstieg auf OpenAccess noch nicht schnell genug und so überbieten sie sich mit immer gemeineren Attacken gegen das jetzige System aus Verlagen und horenden APC Gebühren. Innerhalb des Diskurs gibt es niemanden mehr der in OpenAccess Nachteile sieht, alle wollen es inzwischen haben. Aber wohin wird uns das führen? Wenn man den Hardcore-Befürwortern folgt werden Verlage wie Elsevier überflüssig und Biblitoheken in denen gedruckte Zeitschriften aufbewahrt werden auch. Der veranschlagte Zeitraum für diesen Transformationsprozess wird mit 10 Jahren oder weniger veranschlagt. Soll das etwa heißen, dass es in 10 Jahren keine Bibliotheken mehr gibt und auch keine Zeitschriftenverleger sondern alle Autoren nur noch Academia.edu und ResearchGate nutzen und Google Scholar den H-Index berechnet?

Auf den ersten Blick klingt das wie eine erstrebenswerte Vision, weil man so die Publikationskosten senkt und die Wissenschaftskommunikation verbessert. Aber konkret heißt das nichts anderes, als dass man das heutige Publishing-System wie wir es kennen und lieben abwickeln wird wie einen maroden Betrieb. Das heißt, dass die Bibliotheken geschlossen werden, Elsevier pleite geht und das wo früher Bücher ausgeliehen wurden, dann Non-books Artikel verkauft werden, also Drogeriebedarf und Schreibwaren. Ich glaube vielen Pro OpenAccess Aktivisten ist noch nicht ganz klar über welche Dimensionen wir hier reden. OpenAccess ist eine Nummer größer als einfach nur eine zweite Brockhaus Pleite. Sondern wenn OpenAccess Realität wird, geht da eine komplette Branche den Bach runter mit all den negativen Konsequenzen.

Generell ist die Umstellung auf Diamond OpenAccess sicherlich eine gute Sache. Allerdings sollte man sich bewusst machen, dass man diesen Prozess nicht mehr wird zurücknehmen können. Das heißt, es wird verbrannte Erde zurückbleiben und es wird dann keine Bibliotheken mehr geben. Jedenfalls nicht wie wir sie heute kennen. Erinnnert sei an dieser Stelle an den Film „Fahrenheit 451“.

Vorbilder für diesen Transformationsprozess gibt es keine. Wikipedia hat zwar damals den Brockhaus platt gemacht, aber das war nur ein Verlag. Und als damals Napster angefangen hat, das Musikwesen zu revolutionieren gab es einen mächtigen Gegenspieler: das Urheberrecht. Das hat das Sterben der Musikbranche aufgehalten, stattdessen war es Napster der pleite ging. Bei OpenAccess gibt es keinen solchen Gegenspieler. Wenn man erstmal bei den Autoren einen Sinneswandel generiert hat kann man die dann freien Publikationen nicht mehr wegklagen. Das heißt, dass OpenAccess das System was vorher da war komplett verdrängen wird. Es wird ein zweites Napster werden, nur das diesmal der Walkthrough erfolgt, also damit endet dass da ein kompletter Industriezweig finanziell ausblutet, die Angestellten entlassen werden und man nur noch OpenAccess publiziert.

Kein Zweifel, so oder so wird es dazu kommen. Die Frage die sich stellt ob 10 Jahren für so einen gewaltigen Prozess nicht zu kurz ist und man den Akteureren nicht ein wenig mehr Zeit geben sollte um sich zu aklematisieren. Also eher bedächtig auf OpenAccess umstellen und nichts überstürzen. Insbesondere die Verwendung von Diamond OpenAccess (also kostenfreies Publishing ohne APC) sollte man möglichst aufschieben, weil daunter die Fachverlage am meisten leiden würden.

Das Problem ist folgendes: technisch gesehen existiert die künftige OpenAccess Infrastruktur bereits. Wenn die Autoren wollten könnten sie ab morgen alles ins Internet hochladen was sie schreiben und dann würden über Nacht alle Publisher und alle Verlage überflüssig werden. Und wenn man sich den eingangs zitierten Bericht anschaut so scheinen nicht wenige genau mit diesem Gedanken zu spielen. Nur, diese Entwicklung ist viel zu schnell, sie würde die Gesellschaft überfordern. Bibliotheken sind weitmehr als einfach nur Ausleihstationen für Bücher, es sind historisch gewachsene Institutionen mit denen sich Geschichte verbindet. Bibliotheken gab es schon lange vor dem Internet. Darauf zu verzichten ist eine kulturelle Zäsur.

Wie man die Kosten für Bildung reduzieren kann

Die Hauptursache für Bildungsungerechtigkeit sind die Kosten für Bildung. Wer studieren will ist im Regelfall mit hohen Ausgaben konfrontiert. Das betrifft einzelne Studenten aber auch ganze Universitäten leiden an zu hohen Ausgaben. Es gibt jedoch eine Vielzahl an Möglichkeiten wie man auf die Kostenbremse drücken kann:

– OpenSource Software verwenden. Das betrifft einerseits Server aber auch Desktop-Computer. Wer Linux einsetzt anstatt MS-Windows kann pro PC 100 EUR sparen
– auch als Anwendersoftware auf OpenSource Software setzen. Wer Jabref nutzt aber kein Endnote spart 70 EUR, wer Lyx nutzt aber kein MS-Word spart 80 EUR, wer Python nutzt aber kein Matlab spart 200 EUR, wer GCC aber kein Visual Studio spart 100 EUR
– OpenAccess Zeitschriften nutzen. Google Scholar hält eine große Menge an forschungsrelevanter Literatur bereit die man über einen simplen Link anklicken kann. Zwar kann man bei Google Scholar die Treffermenge erhöhen wenn man sich über Bibliotheksaccounts einloggt, wer das jedoch nicht macht kann viel Geld sparen. Ohne Bibliotheksaccounts brauchen die Bibliotheken auch keine Abogebühren bezahlen.
– OpenAccess für das Publishing nutzen. Wer ein Paper bei PeerJ aber nicht bei Elsevier veröffentlicht kann sich teure APC Gebühren sparen. Bei Elsevier kostet das Publizieren locker 3000 EUR pro Artikel, bei PeerJ ist man bereits mit 300 EUR dabei. Wer es noch preiswerter mag nimmt Preprint Server wie Zenodo, Arxiv oder Academia.edu in Anspruch. Die sind komplett kostenlos. Trotzdem steht das Paper weltweit zum Abruf bereit.
– Vorlesungen aufzeichnen. Wenn man eine vorlesung einmal als Video aufzeichnet kann man damit unbegrenzt viele Studenten bespaßen. Eine bereits aufgezeichnete Vorlesung verursacht keine Raumkosten sondern jeder Student spielt das Video bei sich zu Hause ab.
– Laborausstattung teilen. Zwar ist es nett, wenn in der Universität die selbe Laborausstattung redundant vorhanden ist, aber preiswerter ist es, wenn es Campusweit nur genau einen Bunsenbrenner gibt und man den Zugriff darauf über einen Stundenplan verwaltet. So erhöht man die Auslastung der teuren Gerätschaft.
– Doppelte Experimente vermeiden: anstatt das jedes Jahr die selben Pflanzenexperimente durchgeführt werden ist es besser es einmal richtig zu machen, und die Forschung zu publizieren. Spätere Jahrgänge können sich dann das Video bzw. das Paper durchlesen und wissen dadurch auch, was das Ergebnis ist.
– Umsonstläden nutzen. Wer unbenutzte Laborausstattung übrig hat, kann sie zu einem Umsonstladen bringen. Das betrifft Mikroskope, Kernspintomographen, genauso wie Notebooks und Tische. Andere Labore mit Bedarf können davon dann profitieren.
– Gehälter der Professoren senken. Wenn man nicht die Spitzenkräfte beschäftigt sondern den Leuten aus der zweiten Reihe eine Chance gibt, sind die Lohnkosten niedriger.
– Vereinbarungen mit Fimen wie Apple und Google treffen. Manchmal gibt es im Gegenzug für eingestellten Content bei iTunes U hochwertige Apple Hardware die man an seine Studenten verschenken kann und auch Google Scholar ist für Zusammenarbeit immer offen.
– sich für OpenAccess engagieren. Die meisten Bibliotheken dürften es ahnen, aber die Kosten für Bücher sind extrem hoch. Wenn man sich für OpenAccess stark macht, lässt sich langfristig darüber sehr viel Geld einsparen.

Das waren jetzt meine Vorschläge wie man die Kosten für universitäre Bildung senken kann. Der einzelne Vorschlag mag unbedeutend sein, wenn man aber alles kombiniert lässt sich dadurch Geld sparen. Das ganze besitzt weniger technische Hürden, als vielmehr müssen alte Gewohnheiten abgebaut werden. Rein technisch gesehen ist Linux sogar besser als Windows, dennoch gibt es nicht wenige Forscher die sich an ihr propritäres Matlab gewöhnt haben. Die muss man dann sanft zum Umstieg überreden. So ähnlich ist es, wenn einige Forscher schon seit immer bei Elsevier publizieren und mit der Betreuung dort überaus zufrieden waren. Nur das Problem ist, dass bei Elsevier die APC Gebühren 10x so hoch sind wie bei PeerJ. Hier bedarf es einer Sparfuchs-Mentalität, wo man also zuerst auf das Preisschild schaut und dann über die Details verhandelt.

Gründe für Peer Review

https://academia.stackexchange.com/questions/91081/what-is-the-purpose-of-peer-review-in-journals fragt wozu Peer-Reviews durchgeführt werden und vermutet ob es vielleicht der Qualitätsverbesserung oder schlimstenfalls der Zensur dient. Die Antwort liegt auf der Hand: Peer Review dient dazu, das gegenüber zu stigmatisieren. Es also zu einem Opfer zu machen. Man kann das anhand eines Beispiels aufzeigen. Im Feb 2017 hat ein seriöser Forscher auf PeerJ ein Paper hochgeladen, was sich mit der Reise von Pinguinen beschäftigt, https://peerj.com/articles/3459/reviews/ Sogleich haben sich darauf zwei selbst-ernannte Peer-Reviewer gestürzt, die sich zunächst über die Sprachkenntnisse des Einreichers lustig gemacht haben und bösartige Rückfragen bezüglich des Inhaltes gestellt haben:

The English is not perfect,
In general, the methods are fine, but I would like to see some more information:

Im März 2017 fängt der sogenannte Editor (welcher eine Stufe oberhalb der Peer-Reviewer steht) auch noch einen kleinlichen Diskurs darüber an, ob in Zeile 73 der Zusatz „or not“ drinstehen soll oder nicht, um dann im Mai 2017 den „accepted“ Stempel auf das Dokument zu drücken, was bedeutet, dass der Autor offiziell als Victin anerkannt ist. Damit ist das Paper zum Abschuss freigegeben und kann nun auch von Leuten außerhalb der PeerJ Redaktion weichgekocht werden.