How to accelerate Academic communication

There are many possible steps for improving the quantity and quality of scholarly communication:

– usage of English instead of local languages

– usage of Lyx / LaTeX instead of complicated DTP-workflow with Quarkxpress

– usage of “academic social networks” instead of publishers

– cost reduction in reading and publishing

– usage of Wikipedia

It’s is remarkable that nearly no of these points are realized today. In most countries of the world, for example in Japan is the academic language mostly Japanese. That means, the authors are using their own alphabet and their own vocabulary for talking about medicine, humanities or computing. The same is true for the next advice. The normal publication pipeline (even in US countries) is that the author writes a manuscript with MS-word, sends this with snail-mail to the publisher, and they are reading in the papers with a flatbed scanner and formatting the same text again with Quark-X-Press. That it is not a joke, that is the normal method of how at least 50% of the scientific output is created. The next possible acceleration would be the usage of “Academic social network”.- Today, worldwide this method is nearly unknown. 0% of all papers are published in Academia.edu or similar services.

If one or even all advices are realized then the communication speed would increase dramatically. That means, that the quality would increase and it is easier to introduce new authors to the community. The reason why a neoluddistic work-habit is so widespread in academia has to do with over-regulation of the system. Academia has no motivation to increase their productivity. Some of them like the famous astronomer Clifford Stoll argues, that using a computer instead of his lovely typewriter would weaken the quality of his paper. Everything which is slow and expensive is seen as high-quality method. This attitude prevents technical progress.

WIKIPEDIA

The last point on the list is “Usage of Wikipedia”. Today, Wikipedia is mostly ignored by academics. They think, that an encyclopaedia is not real science. But a short view on the statistics shows, that science-related articles inside Wikipedia generates much traffic. For example, the article “pathfinding” has 300 visits per day. that’s 109500 on a yearly basis. If an academic has written this article, he would be the author of the most ever read paper worldwide.

Additionally, Wikipedia pages are often cited in academics paper. Even if all guidelines are recommend the opposite, is citing the wikipedia a must have for most academic papers. But what is the consequence if the url “https://en.wikipedia.org/wiki/Pathfinding” is cited in around 500 academics paper? It means, that 500 papers are referencing this source. So it can be called a fundamental building block of scientific knowledge.

Often, Wikipedia is recognized as a non-academics platform. Because the quality of the articles is low and everybody can write one. But in reality, Wikipedia is the forefront of academia. There is no such thing like a second, better WIkipedia version which is used at the universities. The reality is, that the average professor is using Wikipedia plus Google Scholar and that’s all the information he has. Or the make the point very clear. Publishing in article about a scientific topic inside wikipedia is more complicated and more prestigious then see an article in nature. “Wikipedia first” is the goal, which means that only ofter publishing something into the encyclopedia it is possible to write a dedicated science paper which is published in a journal. The reason is simple: a science-paper can be ignored by the academic community. Not all researcher are reading the “nature magazine”, but all researcher are reading Wikipedia. The main advantage is, that in an Wiki-article the relevant literature is cited so i call Wikipedia together with Google Scholar one of the most important tools, which Academia has today.

The reason why Wikipedia is normally not called a reputable source has to do with the fact, that no original research is published there. Wikipedia is not a journal for primary research but it is popular oriented. But what exactly is “original research”? Mostly it is something new, it is based on the known facts which are enriched with an innovative idea. In most cases, original research is not really new. All what the scientific author has done is to understand the literature of the past completely. Or to explain it from another point of view. If somebody is diligent and he collects all the given information about a subject, than the step to something new is very small. If the information are not well edited, it is impossible to put the innovative addon onto the top. I would call Wikipedia the real science community, because it has the baseline as the goal, from which one some single researcher can invent something new. Nearly all possible innovations of the future are given by the published paper of today. The question is only, which papers has to be combined to solve hard problems.

Advertisements

Thy mystery about academic publishing

According to Richard Price, CEO of Academia.edu, the problem is simple: todays publishing system is too costly, too slow, attracts only a few people and the entry barriers are too high. So, let’s fixing the system for a better future. Unfortunately the reality is more complicated. And the often cited APC charge and high rejection rate of quality journals is not the real problem. Instead todays problem is, that a statistics about the publishing system is missing and that it is mostly unclear who is an author and who not.

I want to draw the attention at two papers who are published recently, and who are describing some facts:

“Estimates of the Continuously Publishing Core in the Scientific Workforce” http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0101698

“Quantity and/or Quality? The Importance of Publishing Many Papers” http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0166149

They are written with the aim in mind to research the productivity from authors. The aim is less to improve something and guide the society into a better future, the goal is more to describe the current situation. The result of the studies are surprising, at first worldwide the number of academic authors who have written one paper is around 8M. A bit more realistic is to count the number of researchers who are writing at least 3 papers per year. I would call them active authors, because they are contributing regular to the scientific community with a paper. The total amount is small, not more than 300k worldwide.

Often these people are called highly productive authors, because they are writing more than 3 papers a year. But is this automatically a sign of extra effort, if somebody writes 3 papers with 8 pages each? No, I would call them normal scientific authors, because they are contributing their knowledge to the public. They are doing the same, what active Wikipedia authors are doing. They engage themself into the community.

In the above cited study “Quantity and/or Quality?” is on page 7 a chart, which separates the authors into productivity classes. It starts with authors who are publishing one paper per year, goes over the class with 5-8 papers per year, and the top-class is filled by authors who are writing more than 32 papers per year.” The controversy is not the result of the study itself, it is more the study per se. It is the first study which investigates the productivity of scientific authors.

What is the reality? The reality is, that the scientific workforce consists of round about 300k people, so called active authors. They are producing at least 3 papers per year with 5 papers in average. So the total output of the workforce is: 300k*5=1,5 Million newly added papers per years. That number is approximately the same, what other studies have shown. The surprising result is, that the number of real scientists who are active is smaller than most people would guess. Or to describe the situation a little more colloquial: The scientific community consists of few people. The community is bigger than the wikipedia, but it is not bigger than 300k people.

Instead of arguing, that the current system is broken and that the world need openscience it would be better to describe the current situation. According to my research it is publicly unknown how small the number of authors is who make real research. It is unclear, if it’s possible to increase the amount significantly. Perhaps today academic publishing system with it weird incentives is a direct result of the small number of people who are involved? The transformation alone into Academic social network where publishing and reading is free for everybody, would solve none of the existing problems.

From a technical point of view, there is no problem with the current system. The quality of the 50M papers who are published in the past is very high. The amount is also perfect. That only a minority of people can be called authors is not a problem of the scientific process itself, it is more a problem of perception.

Academia.edu is fake

It is obvious, that scientific content which is delivered by social academics networks has more value than watching youtube videos, especially rap music videos. Instead of consuming endless hours of tv-series it would be better to read a nice science book or commenting the new arxiv paper. But, the people itself knows that. It is their decision to not reading any paper from their colleagues but watching a netflix stream. And they are absolutely right, the scientific community will not end in a catastrophe only because one billion people are not interested. The science community works at best if only a few people have access. It seems paradox, but if less people are involved in the process the progress will be faster. So it is a good advice for the masses not doing any kind of science at all and invest there spare free time in something more exciting than reading papers or books. The best what normal people can do is to completely ignore Google Scholar and academic social networks. It is one click in the firewall for configure the router in that way, that he blocks any scientific related content and lets only light entertainment with high bandwith demand passing.

Academia.edu is not a real social network like facebook or the blogosphere, instead it is more a propaganda instrument of the education system. But let us go into the details. At first, Academia.edu is an idea of spreading knowledge into the world. Everybody who has access to the internet can signup for a user account, and upload his academic paper to the network. He can stay in contact with his colleagues and improves his knowledge about the world. That is a story similar to from rags to riches, but this time for the education of a person. An uneducated ordinary person starts from scratch, uploads some papers to Academia.edu and after a while he is an expert. It is a nice and powerful story, but it is not the reality.

In reality, Academia.edu sends spam e-mails to everybody who signed up there, and further, Academia.edu has never published how much paper are there uploaded overall. A random sample of papers hosted there is showing, that 100% of the papers are published somewhere else before, so Academia.edu is only a mirror server and has not dedicated content. The same critique is right for Researchgate. So both networks have no real users. The only people who are in the networks are longterm university professors who has published a lot of papers at Elsevier and ACM journals. It is right, that in theory can everybody signup for an account and upload paper there. But in practice there is no example.

On Academia.edu exists – in addition to the papers – no traffic at all. And on Researchgate are only some discussion ongoing which look like a conversation of two chatbots which are controlled by IBM Watson. So it is questionable, if the academic social networks have any real users. The question is, what went wrong?

For answering the question at first a short look into the publishing industry. According to the last statistics, worldwide we have today nearly 30M published paper, and every year 1M papers are added newly. A normal medium productive author can write around 10 papers per year. So for producing the complete worldwide scientific output 100k scientific authors are needed. Today, there are round about 10M scientists all over the world. So there are more academic personal than the publishing industry need. What does this mean? At first, it means that no additional people are necessary outside of old-school academics. With the well educated people from Harvard, MIT and so on it is possible to create the worldwide content alone. It is the same paradoxon which Wikipedia has also in the background. Only 20k regular authors in the english wikipedia are writing the complete encyclopaedia. And the amount is constant since many years. So I would suggest, that for academic publishing the same principles are correct.

So we have on the one hand, two startups like Academia.edu and Researchgate.net which are tries to grow to a new facebook with million and 100 millions of people, on the other hand we need only 100k academic writers for creating the yearly output. Nobody prevents anybody for uploading paper to Academia.edu or to uploading wikipedia content. From a technical point of view the websites are open to everybody. But in reality this never happens. In reality only a few people (less than 0,1% of world population writes for wikipedia or writes an academic paper).

The failure of academic social networks can also explained from a bottom up position. Normally big websites are userdriven. At first, million of people have the dedicated wish to do something, and the internet startup is founded to satisfy the need of the customers. Academia.edu and Researchgate are not bottom up based, but the motivation is topdown driven. At first, there was a political idea, called “openscience” and “science for everybody” and as the consequence the companies were founded. They earning no money, have no users and no demand from the bottom up. What the ordinary people in reality wants has nothing to do with user-generated science papers. The ordinary people are more interested in Facebook and in videostreaming which is called twitch. For that purpose they are buying huge Internet-bandwith and investing a lot of freetime for streaming their game-experience to everybody. I would suggest, that the demand for twitch.tv and similar services is higher, than the companies can deliver today.

The other way around is true for Academia.edu There is no demand from ordinary people to publish anything, but the companies get a lot of attention in the media and earns money even without anybody worldwide wants to be a scientists.

Some people may say, that this a unfair to Academia.edu. But let us take again a look to wikipedia. Wikipedia has the advantage that the user engagement is public available. Today in the german Wikipedia only 5k authors write regularly articles, in the english Wikipedia the number is around 20k. And Wikipedia is way more popular than Researchgate. So, the consequence is, that if Researchgate would have 20k authors who are upload unique content there and discuss the results in the chatrooms, the plattform would probably be extreme successfull. How many users are using Researchgate?

Again, from a technical point of view Researchgate is nearly perfect. The online help describes very well what the user can do, and the search field also works. But user-generated content needs at least … somebody who is interested. And exactly here is the problem.

It would be unfair, to call Academia.edu and Co a fake platform. Because they are both real publishing platforms in that sense, that they are working as predicted. All features which are claimed are working and the system is free for the users. But on the overall process is something fake. Perhaps the people outside of the Academic social networks are not real. At least, there are no real scientists, they are more like real youtubers, real gamers and real fashion-blogger.

WHO WRITES THE PAPERS?

Academic publishing is a working system, in that sense that there are authors, papers and topics which are discussed. And somewhere must writes the papers in every case. The question is only in which amount the production is done. The wrong attitude of academic social networks is, that they claim that there is need for million of authors worldwide which are discussing in realtime the newest researchtopics. That description is nonsense. Surveys have shown that on annual bases not more than 1M papers are published worldwide including dissertation and phd thesis. That amount is constant over many years and it is unlikely that the amount will grow overnight. On the other hand we have an increasing productivity of the existing authors. With Google Scholar and modern textprocessing software it is easier to write many papers per year. To make my point very clear: not more but less authors are needed for future scientific output. They will located in high payed universities and commercial publishing companies and that is the so called scientific community. In absolute numbers, the amount is very slow. But that is the reality. I would suggest that similar to Wikipedia, the amount of high-productive authors is small Perhaps more than 20k worldwide but not more than 100k. For that amount of scientists a worldwide academic network is complete useless. They are talking over internal scientific networks and they know each other in person.

So, what is the deal with Academia.edu? I would suggest that the aim is to simulate an academic network as an example for openscience which is open for everybody. A bit like the marketing campaign of wikipedia for recruiting new authors. That this aim is not realistic knows everybody.

ACCELERATING SCIENCE

Richard Price explains the publishing process as too easy. At first he claims that today journals are too costly, to slow and the entry barriers are to high and with removing these disadvantages more people would produce more content. A nice but complete wrong description of reality. Let us take again a look to the famous Wikipedia encyclopaedia. To write an article there, no APC charge have to be paid and no formal education is needed. So in theory 7 billion people worldwide can contribute. The process of publishing is extreme efficient and cost nothing. But is that the reality? No, in reality 99,9% of world population never ever writes a wikipedia article, it wouldn’t work if all 7 billion people tries to edit the Wikipedia. Instead the today 20k authors are creating some form of culture which prevents outsider to be successful in the system. That culture is often described as wikipedia rules and is not easy to grasp. The consequence of the culture is, that 99,9% of world population stay outside of the system, voluntary.

It is very probably that the academic sector has established a similar system. The consequence is that even with openaccess diamond which means, that virtually everybody can publish an article all remains the same. That means, that the number of authors who are publishing in reality is constant and that 99,9% are staying outside of the process, voluntary.

It would be a nice research question to go a little further and ask if this is fair or not. But at first we must state, that this is the reality, and Richard Price or Ijad Madisch will not change this. To bring this argument on a point: it is mathematical not possible that Wikipedia will increases the number of active authors substantial and it is also mathematical impossible that Academia.edu will get new users. who are uploading content.

It is not the fault of Academia.edu. But it is the public who has an illusion of what science is and by whom it can be done. Academic social networks sell the illusion that educational disadvantages are not existing. Resarchgate tells a myth about education. In reality normal people would never sign up for an account, and even real scientists who have written a lots of paper have no use for the site.

Online über Paper diskutieren

Relativ häufig findet sich in Online-Foren die merkwürdige Frage ob es irgendwo Online-foren gibt wo man über Paper diskutieren kann. Weil, so die Annahme der Fragesteller, es ja irgendwo eine Science-Community geben müsste wo man sich über bestimmte Themen austauscht. Leider ist die Antwort ernüchternd wie auch auch bekannt: solche Foren gibt es nicht. Sondern die eigentliche Diskussionen finden in den Papern selber statt die zu Arxiv hochgeladen werden. Dort allerdings mit einem Zeitverzug von mindestens 2 Jahren bis hin zu 10 Jahren wenn man ein älteres Paper zitiert. Wem das zu umständlich oder zu langwierig ist der kann sein Glück entweder im Usenet versuchen (jedenfalls war das in den 1990’er angesagt) oder neuerdings auch bei Stackexchange. Insbesondere Mathoverflow und Stackoverflow haben die größte Teilnehmerzahl. Wer sich bei Stackexchange nicht so gut aufgehoben wird (was ich gut nachvollziehen kann) der hat leider Pech gehabt. Andere Foren die schöner besser und größer sind gibt es leider nicht. Was es lediglich gibt, sind eine unüberschaubere kleine Anzahl von Seiten wo man Paper bewerten kann oder über Mathematik diskutieren kann, die jedoch keine größere Bedeutung besitzen. Ebenfalls relativ für wichtig fürs Community Building sind auch Weblogs. Diese lassen sich am einfachsten mit der Google Suche aufspüren. Aber damit erschöpft sich dann bereits das Angebot an Online-Informationen. Kurz gesagt, die meisten Wissenschaftler (selbst die aus der Informatik) sind was das Internet anbelangt noch sehr schüchtern. Ich würde mal vermuten, dass ganz normale Gamer, Kochexperten, Modeinteressierte und Fußballfans im Internet weitaus besser vernetzt sind als Wissenschaftler, Phd Studenten und Mathematiker.

Die wichtigste Plattform zum Austausch ist nach wie vor Arxiv. Und diese Seite dümpelt seit Jahren sehr gemächlich vor sich hin. In den letzten 20 Jahren sind gerademal 1 Mio Paper hochgeladen worden. Zum Vergleich: die englische Wikipedia wo nicht mehr als 20k Leute gleichzeitig mitschreiben bringt es auf eine Anzahl von 6 Mio Artikel. Was stattdessen in den Wissenschaften passiert sind Ersatz Community. Wenn man ein Paper in der ACM Zeitschrift, bei Elsevier oder sonstwo publiziert, bezahlt der Autor einen nicht kleinen Obolus dafür, dass der Artikel gelesen wird und das jemand sein fachlich fundiertes Urteil dazu abgibt. Man kann also sagen, dass der wissenschaftliche Prozess der Kommunikation hochgradig professionalisiert, kommerzialisiert und restriktiv abläuft. Und selbst bei Arxiv ist es standardmäßig vorgesehen, dass jemand der ein Paper über Computergrafik publiziert im nächsten Monat etwas zu Computerlinguistik schreibt. Das sind dort zwei unterschiedliche Kategorien wozu man erweiterte Schreibrechte benötigt. Ein wenig überheblich formuliert, funktioniert die wissenschaftliche Kommunikation im Jahr 2017 noch immer wie im Mittelalter wo man sich untereinander kennt und mißtrauisch ist gegenüber Außenstehenden aus Angst, diese könnten womöglich die eigenen Paper lesen, sich in Diskussionen einbringen oder gar etwas in Frage stellen.

So ganz unberechtigt ist diese Sorge nicht, denn um das Wissenschaftssystem herum gibt es einerseits Patente, Firmen, steuerfinanzierte Hochschulen, Copyrights, APC-Gebühren, Plagiarismus, Plagiatsjäger und es soll Gerüchten zufolge bei Google Scholar sogar Paper geben, die schlichtweg Unsinn enthalten, https://scholar.google.de/scholar?hl=de&as_sdt=0%2C5&q=Rooter%3A+A+Methodology+for+the+Typical+Unification&btnG=

Anders formuliert, das gegenwärtige Wissenschaftssystem zeichnet sich dadurch aus, dass alle Features die nützlich und wertvoll sind darin nicht vorkommen. OpenAccess gibt es nicht, ein Portal wo man Paper raten kann fehlt, ein Diskussionsforum wo man über Mathematik diskutieren kann wird man vergebens suchen, ja es gibt nochnichtmal eine Suchmaschine um wissenschaftlichen Content anzuzeigen. Die bereits erwähnte Google Scholar Engine kann eigentlich nur als Witz bezeichnet werden, von 70% der Paper wird der Volltext nicht angezeigt, und bei den restlichen Papern ist entweder der Link kaputt oder der Inhalt ist komplett veraltet. Die Ursache für derlei Probleme ist simpel: wissenschaft ist kein Massenthema. Nach der letzten Hochrechnung beschäftigen sich maximal 10 Mio Leute weltweit damit. Zum Vergleich: weltweit spielen aktiv 265 Mio Leute Fußball plus unzählige weitere sind Fans. Damit OpenAccess Zeitschriften gegründet werden, damit es endlich eine vernünftige Suchmaschine und gut ausgebaute Foren gibt, bräuchte man eine kritische Masse.

Online-Communities für Wissenschaftler

Rund um die OpenAccess Welle gibt es Bestrebungen die Kommunikation innerhalb der Wissenschaft zu verbessern und zwar dadurch, dass man social Networks, Blogs und Foren mit in den Prozess der Wissenschaft mit einbezieht. Auch Open Peer Rewview gehört dazu. Leider ist der Erfolg bisher ausgeblieben und es ist unklar, ob die User einfach nur etwas mutiger werden oder ob vielleicht bisher noch nicht die richtige Technik gefunden wurde. Schauen wir uns zunächst einige Projekte an, die stabil funktionieren und wo die User zufrieden sind. Als wichtigste Portale gelten wissenschaftszentrierte Suchmachinen. Es gibt aktuell zwei davon: Google Scholar und Semantic Scholar. Beide haben es sich zur Aufgabe gemacht, die rund 30 Mio Volltexte zu indizieren und mit Meta-Informationen anzureichern, so dass eine Suche nach Autor, Jahr und Stichwort möglich ist. Gleich nach den Suchmaschinen ist die zweitwichtigste Plattform ein OpenAccess Journal bzw. ein kostenloses Journal wie Arxiv. Auch diese Angebote werden intensiv wahrgenommen. Peerj veröffentlicht massenhaft Artikel, Arxiv auch und auf den Webseiten der Hochschulen liegen auch relativ viele Paper.

Jetzt bleibt noch die Frage, ob man darüber hinaus noch weitere Tools benötigt, wie beispielsweise Foren oder ein Bewertungsportal um die Paper zu kommentieren. Hier ist die Lage nicht so übersichtlich. Es gibt zwar einige Dienste in dieser Richtung. Als Quasi-Standard Forum für die Wissenschaften hat sich Stackexchange etabliert und Bewertungsportale wie pubpeer gibt es auch. Aber: rein zahlenmäßig ist die Nutzung unbedeutend, und die Qualität ist eher schlecht. Möglicherweise hat das damit zu tun, dass sich wissenschaftliche Erkenntnisse schlecht in 2 Absätzen kommentieren lassen. Sondern mein Eindruck ist, als ob die wissenschaftlichen Paper selber ein Medium darstellen, wo man also dadurch kommentiert, indem man ein eigenes Paper veröffentlicht. Wirklich durchbrechen kann man diesen Rhythmus nicht. Er wird lediglich variert indem auch Wikipedia und Weblogs auf wissenschaftliche Paper verweisen und so die vorhandenen Texte ergänzen.

Wie Richard Price schon ganz richtig erkannt hat, ist das Hauptmedium in dem Wissenschaftler kommunizieren das PDF Paper was üblicherweise aus 8 Seiten Fließtext besteht und am Ende eine längere Literaturliste besitzt. Die Arbeitshypthese lautet, dass auch Foren und Social Networks daran nicht viel ändern werden. Anders formuliert, will man die Kommunikationsströme im Wissenschaftsbetrieb tracken und darauf einfluss nehmen benötigt man zunächst eine Suchmaschine um Paper zu identifizieren. Und in diesen Texten lassen sich dann Meme über längere Zeitepochen nachvollziehen an denen mehrere Autoren beteiligt sind. Das ganze zieht sich häufig über 10-20 Jahre hin, geht also in Maßstäben des Internets sehr gemächlich vonstatten.

Ein wenig objektiver formuliert kann man sagen, dass ein echter Beitrag innerhalb der Wissenschaftskommunikation zwingend das PDF-8-Seiten Standardformat benötigt und das jeder Versuch mit Blogs, Wikis, Social Networks oder Foren ebenfalls Wissenschaft zu betreiben scheitern muss. Meiner Recherche nach lässt sich Wissenschaft nicht in den bekannten Online-Portalen abwickeln sondern ist zwingend an das PDF Format gebunden. Einerseits sind es historische Gründe warum das so ist, aber es gibt auch ganz praktische Gründe. Üblicherweise ist es in Foren und Blogs unüblich Quellen zu zitieren. Technisch wird das nicht unterstützt und der Kommunikationsstil ist auch nicht darauf fokussiert. Quellen jedoch sind im Wissenschaftsbetrieb unverzichtbar.

Jetzt bleibt nur noch die Frage zu klären, wie man einerseits das erwähnte Standard-PDF verwenden kann, gleichzeitig jedoch den wissenschaftlichen Erkenntnisprozess auflockern kann. Meiner Meinung nach gibt es dafür zwei Möglichkeiten: erstens, durch bessere Suchmaschinen. Also ein Google Scholar was mehr Paper indiziert und was genauer sagt was indiziert wird. Und zweitens, bessere Software um PDF Paper zu erstellen. Das nach meiner Meinung nach beste Programm um am Desktop Offline einen Text zu schreiben ist Lyx, aber womöglich kann man auch einen Online-PDF Editor nutzen um wissenschaftlichen Content zu erstellen?

Nur, beides sind keine revolutionär neuen Vorschläge. Auch das heutige Google Scholar arbeitet zuverlässig und PDF Paper kann man zur Not auch mit Word erstellen. Womöglich ist also die Technologie bereits ausgereizt und man muss einfach damit leben, dass Wissenschaft sehr gemächlich vonstatten geht. Vielleicht ist es sogar so, dass das jetzige Publikationssystem optimal verläuft und es nicht möglich ist, den Wikipedia-Coup auf diese Domäne zu übertragen? Zur Erinnerung: Wikipedia hat es geschafft, das Schreiben eines Lexikons zu revolutionieren. Womöglich ist kann man das beim Wissenschaftsbetrieb nicht so einfach machen, weil es dort nicht nur um ein Lexikon geht sondern um etwas mehr.

Mein Eindruck ist, dass keineswegs die vorhandene Software das Problem ist, sondern das Wissenschaft sehr stark Usergetrieben funktionioniert. In dem Sinne, dass wenn man Leute hat die an Forschung interessiert sind, es leichter ist als wenn man Leute zuerst ermutigen muss sich überhaupt mit wissenschaftlichen Themen auseinanderzusetzen. Schauen wir uns die heute verfügbaren technischen Systeme einmal an: bei Arxiv kann man ein Paper in unter 1 Stunde hochladen, und Google Scholar indiziert das dann in kurzer Zeit. Mehr braucht man eigentlich nicht um High-End Wissenschaft zu betreiben. Die These lautet, dass es auch in 10 Jahren keine besseren Portale geben wird. Was man jedoch verbessern könnte wären die Userbasis die Google Scholar bzw. Arxiv nutzt. Es gilt zwei Ziele zu beachten: erstens die nominale Anzahl an Usern und zweitens die Themen mit denen sich diese User beschäftigen. Und hier gibt es in der Tat Nachholbedarf. Die Anzahl der Leute die Paper auf Arxiv oder bei Peerj veröffentlichen ist sehr gering. Und die Themen sind nicht besonders spannend. Ich wage mal die These, dass es nichts nützen würde wenn man Arxiv verbessert oder Google Scholar effizienter macht, sondern man muss bei der Community selbst ansetzen. Um deren Leistung zu erhöhen braucht es vor allem Tutorials um zu erläutern was Wissenschaft ist, wie man einen Text schreibt, wie man zitiert und wozu man das machen sollte. Daran mangelt es aktuell.

Es ist nicht so ganz klar, ob das ein Henne oder Ei Problem ist. Also ob es zu wenig interessierte Wissenschaftler gibt und deswegen auch keine Tutorials verfasst werden oder ob es genau umgekehrt ist und Wissenschaft nicht attraktiv genug ist. Und womöglich liegt das Problem auch gar nicht bei den Wissenschaften selber sondern in der Welt außerhalb.

Peer to peer online Learning

Häufig werden Plattformen wie Academia.edu und ResearchGate unter den Oberbegriff OpenAccess subsummiert. Falsch ist diese Einordnung sicher nicht, weil es darum geht wissenschaftliche Dokumente unter einer URL ins Netz zu stellen, aber dennoch gibt es zwischen OpenAccess und Academia.edu einen Unterschied. OpenAccess bedeutet, dass die zentrale Stellung der Universität und der Bibliothek erhalten bleibt. Die Vision lautet, dass die bisherigen Forscher in Zukunft ihre Paper unter einer OpenAccess Gold Vereinbarung ins Netz stellen um so den Steuerzahler zu besänftigen der sehr viel Geld bezahlt hat und normalerweise vor Paywalls steht weil er keinen Zugriff mehr hat auf wichtige Informationen. OpenAccess kann man als gezähmte Version des „Guerilla Open Access Manifest“ bezeichnen. Wo man also gleich von der Lizenz her ein Paper unter der GPL / Creative Commons Lizenz bereitstellt und so Probleme mit dem Urheberrecht gar nicht erst entstehen lässt. Gleichzeitig wird dadurch die Indizierung in Suchmachinen wie Google Scholar erleichtert und alle Seiten sind zufrieden: die Leser erhalten Zugriff auf topaktuelle Forschung, die Wissenschaftsverlage verdienen weiterhin Geld und die Bibliotheken erhalten viel Geld damit sie OpenAccess Gold finanzieren.

Aber wenn OpenAccess so toll ist, warum braucht es dann noch kommerzielle Repositorien wie Academia.edu die bei Lichte betrachtet gar keine OpenAccess Repositorien sind sondern etwas ganz anderes? Das wird im oben verlinkten Video erläutert. Vorgestellt wird keineswegs die OpenAccess Idee, wo man also Forschung online stellt, sondern worum es geht ist Peer-to-peer Learning. Damit ist ein Konzept gemeint, was derzeit von Facebook besetzt ist. Es geht bei Facebook weniger um die konkreten Inhalte auf der Plattform, sondern worum es geht ist zunächst einmal die Online-Community als solche. Also eine Webseite des Web 2.0 wo man sich über einen Account einloggt, dort etwas machen kann und sich gegenseitig Nachrichten zuschicken kann. Kurz gesagt, geht es um Online Social Networks.

Stellen wir einmal OpenAccess mit Social Networks gegenüber. OpenAccess ist ein Kind des zentralisierten Forschungs- und Universitätsbetriebes. Man hat erkannt, dass Paper hinter einer Paywall der Idee des freien wissenschaftlichen Austausches widersprechen und sieht in kostenlos einsehbaren Online-Repositorien den Ausweg aus der Krise. Gleichzeitig wird über Suchmaschinen die Recherche erleichtert was Wissenschaftler freut, die etwas nachschlagen wollen. Aber damit endet die OpenAccess Vision auch schon. Die Idee ist, dass in 50 Jahren exakt die selben Wissenschaftler an den selben Universitäten arbeiten und das sich nur die Zugänglichkeit des Outputs verbessert hat.

Academic Social Networks hingegen sind eine Bottomup-Bewegung. Sie wird vorangetrieben von Studenten und Schülern die gerade neu sind an einer Universität oder gerade die Schule gewechselt haben und jetzt Kontakt suchen. Die Motivation bei Academia.edu mitzumachen ist nicht so sehr, dass man schon etwas weiß und seine bereits erstellten Dissertationen unter einer freien Lizenz publizieren möchte, sondern die Motivation ist, dass man sich in einer Lerngruppe befindet, und jetzt nach Peers Ausschau hält, die einen unterstützen und wo man gemeinsam Paper schreiben kann. An dieser Stelle nochmal ein Exkurs zu OpenAccess. OpenAccess funktioniert so, dass aus bestehenden Strukturen heraus neue Wege eingeschlagen werden. Der typische OpenAccess Usecase ist ein Phd Student der schon 10 Jahre an einer Uni zugebracht hat und jetzt die existierenden OpenAccess Strukturen instrumentalisiert um seine Karriere voranzubringen. Er wird dann bei der Bibliothek einen Antrag auf Druckkostenzuschuss stellen, er wird sich bei PLOS One und Elsevier über Modalitäten informieren und letztlich wird er dann ein Paper auf einem der zahlreichen Online-Repositorien veröffentlichen und sie mit seiner ORCID-ID verbinden. Kurz gesagt, er wird dasselbe tun was er immer schon gemacht hat, nur mit dem Unterschied dass seine Veröffentlichung dann digital und unter Creative Commons erscheint.

Und jetzt zurück zu den Academic Social Networks. Dort ist der Ansatz, dass man sich zwar in bildungsaffinen Strukturen bewegt, aber nicht über zentralisierte Strukturen agiert. Genauer gesagt bilden Academic Social Networks einen Bypass zu etablierten Universitäten / Bibliotheken. Sie zeichnen sich dadurch aus, dass die Aktivität in den Online-Communities eben nicht als formale Phd Thesis anerkannt wird und nicht mit formalen Bibliotheks-OpenAccess Funds finanziert werden. Man kann sich das ganze vorstellen wie ein Arxiv.org Projekt nur etwas moderner. Wo also im Mittelpunkt eine technische Infrastruktur steht um die herum dann nachträglich ein Social Network aufgebaut wird.

Jetzt stellt sich natürlich die Frage ob es gut ist einen Bypass zu legen zu etablierten Hochschulstrukturen. Also Lerngruppen zu bilden die nicht in Universitäre Strukturen eingebunden sind. Die Frage kann man am besten dadurch beantworten wenn man einmal aufzeigt was die Nachteile von zentralisiertem OpenAccess ist. Die Vorteile dürften allgemein bekannt sein. OpenAccess ist gegenüber Paywalls leichter zugänglich, und digitale PDF Paper lassen sich besser als gedruckte Paper durchsuchen. Die Nachteile von universitätsgetriebenem OpenAccess ist nicht so leicht erkennbar aber es gibt sie. Einige User von Arxiv.org berichten beispielsweise über rejected papers. Sie wollten etwas veröffentlichen aber Arxiv.org sagt nein, das Paper wollen wir nicht. Oder man sendet an Elsevier ein Paper mit dem Ziel es als OpenAccess zu publizieren aber Elsevier sagt nein, wir wollen das nicht. Ein weiterer Nachteil ist die Abhängigkeit von Fördertöpfen. Um unter der OpenAccess Gold Lizenz zu veröffentlichen muss man zunächst bei seiner Bibliothekk einen Antrag stellen. Und der kann selbstverständlich auch abgelehnt werden.

Schauen wir uns diese Nachteile einmal aus Sicht der Universitäten an. Üblicherweise lautet die Erklärung für derartige Fails, dass die Gegenseite Schuld hat. Das heißt, mit Arxiv ist alles in Ordnung, sondern der Einreicher des Papers hat einen Quatsch Text eingereicht und deshalb war es richtig diesen abzulehnen. Ebenfalls ist mit den OpenAccess Verlagen alles in bester Ordnung und wenn eine Biblitohek sagt, dass ein Paper nicht gefördert wird, so hat das gute Gründe. Das heißt, die Arbeit war schlichtweg nicht gut genug. Aber ist diese Interpretation noch zeitgemäß, kann man mit derartigen zentralisierten Erklärungen wirklich die Wissenschaft der Zukunft gestalten? Genau darum geht es, wenn man zentralisiertes OpenAccess mit Academic Social Networks gegenüberstellt. Bei Academic Social Networks geht es darum, auf eine zentrale Instanz zu verzichten die Urteile fällt, sondern stattdessen wird erstmal jedes Paper publiziert und nur in absoluten Notfällen wird es offline gestellt. Anders formuliert, per Default kann man in Academic Social Networks erstmal Unsinnstexte publizieren die per Scigen erzeugt wurden und die weder das Thema getroffen haben, noch frei sind von Rechtschreibfehlern. Anders als die klassischen Universitäten und Bibliotheken wird die Schuld nicht bei der Gegenseite gesucht. Das heißt, wer etwas veröffentlichen will hat erstmal das Recht dazu.

Der OpenAccess Diskurs wird häufig positiv geführt. OpenAccess wird als Antwort auf die Zeitschriftenkrise gelobt und seine Verbreitung gefördert. Zentralisiertes OpenAccess ist jedoch nicht die echte Lösung. Auch bei zentralisiertem OpenAccess bleiben die Universitäten undurchlässig. Um eine Dissertation unter OpenAccess zu publizieren, so hat mal ein Professor ausgerechnet, fallen Kosten an von 18000 US$. Teilweise ist OpenAccess sogar teurer als das Modell davor. Gleichzeitig darf das nur derjenige, der glaubhaft versichern kann, dass seine Arbeit inhaltliche Standards erfüllt und er wirklich ein Wissenschaftler ist. Es ist nicht vorgesehen, dass jemand von außerhalb einfach mal so einen Text publiziert. Jedenfalls keinen wissenschaftlichen. Man kann das ablesen daran, was auf Arxiv.org erscheint und was eben nicht. Das Wissenschaftsverständnis von Arxiv ist einseitig auf Physik und Mathematik reduziert. Die Geisteswissenschaften kommen in dieser Welt gar nicht vor. Jeder Text der etwas mit Sprache, Humanmedizin oder Sport zu tun hat, wird der wissenschaftliche Status aberkannt. Man darf ihn zwar publizieren, aber bitte nicht auf Arxiv.

Ein ähnliches Muster ist auch bei anderen OpenAccess Repositorien bemerkbei. Bei Plos One was sich selber als Vorreiter in Sachen OpenAccess versteht, darf man grundsätzlich keine Texte einreichen welcher in einer Non-English Sprache verfasst wurden. Ein Text der in Deutsch, Französisch oder Spanisch geschrieben hat, wird per Default die Wissenschaftlichkeit abgesprochen. Anders gesagt, OpenAccess besitzt unendlich viele Bugs die systemimmanent sind und etwas mit den dahinterstehenden Strukturen zu tun haben und wodurch es die Notwendigkeit etwas zu entwickeln was besser ist als zentralisiertes OpenAccess.

Unklar ist noch, wie genau ein Academic Social Network aussehen muss. In der Historie gab es schon verschiedene gescheiterte Versuche derartige Plattformen hochzuziehen. Eine Möglichkeit ist es, wenn Wissenschaftler sich einen Facebook Account einrichten und sich dort nicht auf einer Party zeigen sondern unter ihr Profilfoto schreiben, dass sie Professor sind oder Phd Student. Aber ist das schon akademisches Arbeiten? Eine weitere Möglichkeit ist, wenn man die Moodle Plattform nutzt, dabei handelt es sich um eine Intranet-basierende Software um Lerninhalte zu verwalten. Aber Moodle ist auf eine konkrete Institution beschränkt und nicht weltweit einsehbar. Ebenfalls unter dem Begriff Academic Social Network werden Portale wie bibsonomy (OpenSource Bibliographie) und Mendeley Network betrachtet. Auch dort geht es darum, dass sich Forscher und Studenten vernetzen. Leider ist der Nutzwert dieser Plattformen ebenfalls nicht sehr hoch. bibsonomy ist zwar ein guter Anfang aber objektiv betrachtet ist es nicht mehr als eine Online-Jabref-Datenbank also eine Ansammlung von Titel, Autor, Jahr einträgen. Um Bibsonomy sinnvoll zu nutzen braucht man ergänzend noch eine klassische Uni-Bibliothek wo man die Werke dann im Volltext einsehen kann.

RESTRIKTIVE HOCHSCHULEN
Weiter oben habe ich die klassischen Hochschulen und Bibliotheken als restriktiv in der Veröffentlichung von Papern kritisiert und unterstellt, es würde sich um Eigenschaften der Institionen handeln. Also sich ein Kultur etabliert haben, wo man Außenseiter nicht toleriert. In Wahrheit sind diese Prozesse jedoch eine Folge von extrem hoher Kosten und für die handelnden rational. Schauen wir uns einmal an was im klassischen akademischen Publishing die Veröffentlichung einer Dissertation kostet: Geld natürlich, viel Geld. Wenn man das Manuskript mit der Hand vorschreibt, dann an einen Verlag sendet, der die Seiten abtippt, Korrekturließt und in Rücksprache mit dem Autor tritt vergehen darüber Monate und die beteiligten wollen dafür entlohnt werden. Es macht wenig Sinn einen schlechten Text zu veröffentlichen. Selbst sehr reiche Leute werden kaum 20000 US$ bezahlen damit ein Verlag einen per Scigen erzeugten Unsinnstext veröffentlicht, und weil der gesamte Prozess so teuer ist, macht es Sinn jeden davon auszuschließen der nicht wirklich interessiert ist, der zuwenig Geld hat, der nicht glaubhaft versichert zu 100% hinter dem Projekt zu stehen oder der über ein Außenseiter Thema promovieren möchte.

Es ist keineswegs so, dass bei den Verlagen, Universitäten und Bibliotheken lauter Leute sitzen die die Außenwelt vom publizieren abhalten wollen, sondern die Verantwortlichen wissen um die begrenzten Ressourcen und verwalten diese mit hoher Effizienz. Es geht weniger darum, eine Kultur des academic Publishing zu verändern sondern worum es geht sind schlichtweg die Kosten. Vielleicht ein kleiner Exkurs zur den ersten Telefonnetzen. Es gab früher einmal die Regel „Halte dich kurz“ damit war gemeint, dass ein Gespräch weniger als 1 Minute dauern sollte, und das man nur sehr wichtige fernmündlich diskutieren sollte. Nicht, weil die Post böse war oder strikte Anweisungen hatte, sondern weil ein 1-Minuten Gespräch über eine Transatlantik-Verbindung mehrere Tausend US$ kostete und irgendjemand diese Kosten bezahlen muss. Ein Kultur des langatmigen Telefonieren über unwichtige Themen konnte sich erst etablieren als die Kosten pro Zeiteinheit auf nahezu null gesunken sind. Und genau dasselbe wird auch im akademic publishing passieren. Die Entwicklung ist ökonomisch getrieben, indem Sinne dass je niedriger die Kosten sind auch mehr veröffentlicht wird.

Zu der historischen Entwicklung des „Fasse dich kurz“ Hinweisschildes an öffentlichen Telefonzellen gibt es sogar komplette Bücher. Aber anders als man rückblickend häufig liest war das weniger Ausdruck einer Behördenmentalität oder gar Ausdruck einer DDR-Spießigkeit sondern der eigentliche Grund für diese Regel waren finanzielle Aspekte. Hier http://www.faz.net/aktuell/gesellschaft/geschichte-heisser-draht-75-jahre-telefonverbindung-in-die-usa-190658.html gibt es einen gut gemachten Rückblick auf die horenden Telefonkosten in die USA. Danach kostete im Jahr 1929 eine 1-Minute-Verbindung in die USA stolze 110 DM und vermutlich waren das noch nichtmal die echten Kosten sondern das ganze war noch viel teurer in Wahrheit. Wohlgemerkt, pro Minute. Desweiteren gab es noch allerhand Extraregeln, wie das man nur das Gespräch nur von einer der Großstädte wie Berlin und Hamburg aus führen konnte, und das man 24 Stunden früher das Gespräch anmelden musste. Merkwürdig vertraut erinnert das an die aktuellen Regeln die im Umfeld des wissenschaftlichen Publizierens aufgestellt werden. Da heißt es, dass man für eine Dissertation 2 Jahre einplanen soll, dass man die Arbeit korrekturlesen lassen soll, dass man bitteschön nur auf English publiziert usw. Es gibt noch jede Menge weiterer Regeln die im Kern darauf hinauslaufen sehr restriktiv heranzugehen, also eine Norm aufzustellen und die Geringste Abweichung davon als Fehler zu bezeichnen.

Diese Norm sind Ausdruck von extrem hohen Kosten. In dem Sinne, dass es sehr teuer ist, wenn man etwas publiziert und man sich deshalb keinen Fehler erlauben darf. Nur, diese Regeln sind keineswegs so allgemeinverbindlich wie es den Anschein hat, sie sind Ergebnis eines bestimmten ökonomischen Modells und kann man die Kosten senken, verändern sich auch die Regeln.

Ich möchte noch ein weiteres Beispiel bringen was gar nicht direkt etwas mit Publishing zu tun hat, sondern aus dem Umfeld davon. Und zwar das Beispiel Google Scholar. Was wäre eigentlich, wenn es kein Google Scholar gäbe? Nun, zunächst ändert sich überhaupt nichts, weil Google Scholar ja kein Inhalt ist sondern nur bereits erstellte Dokumente auffindbar macht. Man kann ohne Google Scholar die selben Informationen. Es ist nur, und hier kommt der Tusch, teurer. Damit ist gemeint, dass man ohne Google Scholar in die nächste Universitätsbilbiothek fahren muss (eine Autofahrt bis in die nächste Großstadt ist nicht umsonst), dort dann an einen mitgliedsausweis für ein 1 Jahr beantragt (wiederum nicht ganz umsonst), dann einen Bibliothekar aufsucht (dieser erhält selbstverständlich ein Gehalt und wird dafür bezahlt Fragen zu benantworten) um mit seiner Hilfe dann nach Fachaufsätzen zu recherchieren. Hat man einen solchen gefunden, bestellt man bei einam anderen Bibliothekar das Exemplar per Fernleihe und fährt dann nach 2 Wochen erneut den Weg mit dem Auto in die Bibliothek um das werk dann einzusehen. Vor Ort natürlich, die Ausleihe nach Hause ist bei Fernleihe-Exemplaren nicht vorgesehen. Theoretisch wäre es zwar möglich, das kostet aber Extra. Kurz gesagt, ohne Google Scholar wäre der Prozess der Recherche inhaltlich der selbe, der Unterschied ist nur dass die Kosten ansteigen.

Und mit diesem Mindset kann man besser einschätzen worum es wirklich geht. Es geht keineswegs um Google Scholar oder um Academic Social Networks, sondern worum es geht ist sind die Kosten in US$ was das Suchen und Schreiben von wissenschaftlichen Informationen verursacht. Je höher die Kosten, desto größer die Notwendigkeit Regeln aufzustellen und Institutionen zur Einhaltung zu verpflichten.

FASSE DICH KURZ

In dem obigen Video ist die Geschichte des Telefonierens in der DDR dargestellt. Interessant ist dieser Bericht nicht so sehr wegen dem Telefonnetz und auch nicht wegen der Ostalgie sondern weil das Beispiel gut zeigt, was die Folge ist wenn die Kosten zu hoch sind. Beim Telefonnetz der DDR war es anfangs so, dass zivile Telefongespräche darüber bereits als Wunder gefeiert wurden. Das hatte weniger technische Gründe oder dass es in der DDR eine andere Mentalität gab, sondern es bedeutet dass es offenbar einen Unterschied machte zwischen offiziellen staatlichen Telefongesprächen und privater Telefonierei. Genau dieser Unterschied gibt es aktuell im Bereich des akademischen Publizierens. Wer heute etwas veröffentlichen will, ordentlicher Professor ist an einer staatlichen Hochschule wird keine Probleme haben sein Paper irgendwo unterzubringen. Man kann sagen, akademisches Publishing funktioniert hervorragend. Probleme entstehen nur dann wenn man abseits dieser Wege etwas publizieren möchte, also kein Professor ist, nicht an einer staatlichen Uni angestellt ist, inhaltlich ein abseitiges Thema diskutiert usw. Kurz gesagt, etwas zu publizieren ist eine knappe Ressource die ähnlich wie das Telefon in der DDR als Mangelwirtschaft verwaltet wird. In dem Sinne dass Prioritäten gesetzt werden.

Man kann sich das heutige kaputte Publikatonssystem vorstellen wie das Telefonnetz in der DDR. Prinzipiell funktioniert es ganz normal, aber wehe man möchte länger telefonieren, privat telefonieren oder ohne Genehmigung telefonieren dann wird es richtig teuer. Aber kann man der DDR daraus einen Vorwurf machen? Lag es etwa an der böswilligen DDR Post dass Privatleute keinen Anschluss erhielten? Nein, entscheidend waren die Kosten. Die DDR hat es versäumt, Telefonieren preiswert zu machen, hätte man mit der veralteten Technik versucht allen DDR Bürgern ein Telefon zu geben, hätte man extrem dicke Kabel verlegen müssen. Die Technologie war teuer was die Gesprächskosten je Minute betraft, teilweise wurden die Verbindungen handvermittelt und dies mit besonders hoher Güte gleichgesetzt. Ungefähr so argumentieren auch heute einige Bibliothekare und Verleger welche in einem gedruckten Buch die einzig richtige Publikationsform sehen und bereits einem ebook ablehnend gegenüberstehen.

Der Witz ist, dass auch in der DDR es technisch sehr wohl möglich war, mal eben so ein Gespräch in die USA zu führen von einem Handy aus über FUnk und dort dann Smalltalk zu machen und endlos lange zu reden. Nur, wegen der Imens hohen Kosten dürfte dieser Luxus auf sehr wenige Personen beschränkt gewesen sein, und für sowas wurde im Regelfall auch keine Rechnung erstellt sondern es wurde außerhalb des regulären Telefonverkehrs abgerechnet. Und auch hier wieder gibt es Gemeinsamkeiten zu akademischen Publizieren. Bis vor kurzem gab es noch nichtmal Preislisten dafür was das Veröffentlichen von Dissertationen kostet. Das heißt, selbst eine Information wie „ein Paper bei Elsevier zu publizieren kostet 5000 US$“ gab es nicht. Das heißt, natürlich entstanden Kosten aber die wurden irgendwo abgerechnet und nicht öffentlich wie im Supermarkt ausgehangen.

Wirklich schlecht war das Telefonnetz der DDR eigentlich nicht. Schlecht daran war nur der Preis. Das heißt, die ökonomischen Kosten um eine Verbindung zu erhalten. Wenn Geld keine Rolle spielt, konnte man ausgezeichnet in der DDR Telefonieren. Nochmal, genau dieses Prinzip gibt es im akademischen Publishing auch. Wenn Geld egal ist, funktioniert es perfekt. Man schickt seine Dissertatation an den Verlag, der Druck das Werk und sichert die Qualität. perfektes Publishing nach Lehrbuch eben, aber wehe man fragt genau nach, was es kostet. Allein schon die Frage, was Elsevier kostet ist ein Verstoß gegen die guten Sitten und der Versuch Preise zu verhandeln erst recht.

Fragen wir dochmal in die Runde, wie hoch heutzutage die Anzahl der Privatpersonen sind die wissenschaftliche Paper veröffentlichen. Also Nicht-Uniangehörige. ICh würde mal schätzen die Zahl liegt bei unter 1%. Überwiegend dürften es ehemalige Professoren sein, die also früher im regulären System publiziert haben und jetzt das weitermachen.

Machen wir mal eine kleine Überschlagsrechnung was das Publizieren im OpenAccess Zeitalter kostet. Angenommen ein Autor möchte im Jahr 5 Paper veröffentlichen. Er sendet diese zu Elsevier um sie als OpenAccess zu veröffentlichen. Die Paper werden akzeptiert und es wird eine Rechnung erstellt über 5×3000=15k US$. Pro Jahr und pro Autor wohlgemerkt. Woran erinnnert uns das? Richtig an die weiter oben zitierte 1-Minute Verbindung in die USA für 110 DM. Nur dass das Telefongespräch noch als preiswert zu bezeichnen ist. Und genau hier haben wir den eigentlichen Kern des Problem erreicht. Es geht keineswegs um die Frage OpenAccess vs. Paywall und es geht auch nicht um öffentliche Forschung vs. private Forschung. Ja es geht nochnichtmal um gute Qualität vs. Schlechte Qualität sondern worum es in Wirklichkeit geht ist teuer vs. billig. Das jetzige dysfunktionale akademische Publishing ist zu teuer. Es ist historisch gewachsen und ist veraltet. Das neuere bessere System der Zukunft von dem derzeit nicht klar ist wie es genau aussieht und wer daran teilnimmt ist vor allem eines: preiswert.

Fashion Texte auf Academia.edu

In einem früheren Blogpost habe ich das Thema bereits erwähnt und möchte etwas näher darauf eingehen. Von Modethemen ist bekannt, dass sie relativ viel öffentliche Aufmerksamkeit erzeugen. In dem Sinne dass das Zuschauerinteresse automatisch da ist und man inhaltlich so gut wie alles schreiben kann, solange es halbwegs an dem orientiert ist was mit Modebusiness zu tun hat. Offenbar erfüllt Mode ein sehr grundlegendes Interesse und ist ähnlich wie Essen&Trinken ein Thema was immer geht. Jedenfalls was die absolute Anzahl von Seitenabrufen in Blogs betrifft. Inhaltlich kann ich das zwar nicht vollvollziehen weil es meiner Ansicht nach sehr viel interessantere Dinge auf der Welt gibt als die neueste Winterkollektion von Gucci, aber das ist nur meine Meinung.

Mit diesem Hintergrundwissen habe ich mich ein wenig auf die Pirsch gegeben und das OpenAccess Portal von Richard Price mal speziell auf diese Fragestellung hin untersucht. Im akademischen Umfeld gibt es seit jeher das Grundproblem, dass die Autoren zwar einen Text schreiben, dann aber keine Leser finden. Aus dieser Problematik heraus wurde das System mit Druckkostenzuschüssen und „Autor bezahlt für Buchdruck“ erfunden, weil man eben nach den Marktgesetzen wissenschaftliche Zeitschriften faktisch nicht verkaufen kann. Auch das OpenAccess Gold Modell basiert auf der Annahme, dass ein herausragender Wissenschaftlicher Text zwar aufwendig zu erstellen ist, dann aber über einen längeren Zeitraum nur sehr wenig Leserinteresse generiert.

Die Ausnahme von dieser Regel des wissenschaftlichen Publizieren stellen Dokumente da, die einerseits einen akademischen Anspruch verfolgen, also mit Fußnoten und neutraler Sprache ausgestattet sind, sich inhaltlich jedoch auf das Thema Mode konzentrieren. Ich habe hier mal einige Beispielpaper zusammengesucht und die Abrufzahlen danebengestellt:

– „Fashion and Gender Roles“, 26k, http://www.academia.edu/5349062/Fashion_and_Gender_Roles
– „Fashion Marketing: Contemporary Issues, Second edition“, 1k, http://www.academia.edu/6428586/Fashion_Marketing_Contemporary_Issues_Second_edition
– „fashion and deconstruction“, 10k, http://www.academia.edu/271375/fashion_and_deconstruction
– „The Modern Concept of Fashion and its Origins in Romanticism“, 5k, http://www.academia.edu/1479718/The_Modern_Concept_of_Fashion_and_its_Origins_in_Romanticism
– „The Selling of Gender Identity in Fashion Advertising“, 5k, http://www.academia.edu/8302651/The_Selling_of_Gender_Identity_in_Fashion_Advertising
– „Speaking of fashion: consumers‘ uses of fashion discourses and the appropriation of countervailing cultural meanings“, 1k, http://www.academia.edu/2877049/Speaking_of_fashion_consumers_uses_of_fashion_discourses_and_the_appropriation_of_countervailing_cultural_meanings
– „Fashion Activism – Evaluation and application of fashion activism strategies to ease transition towards sustainable consumption behaviour“, 1k, http://www.academia.edu/3681413/Fashion_Activism_-_Evaluation_and_application_of_fashion_activism_strategies_to_ease_transition_towards_sustainable_consumption_behaviour

Man könnte diese Liste noch weiterführen. Die Gemeinsamkeit besteht darin, dass jedes dieser Paper eine Abrufzahl von oberhalb 1000 erzielt hat, also für ein wissenschaftliches Paper extrem viel Leserinteresse generieren konnte. Wie eingangs schon erwähnt hängt das wohl weniger damit zusammen dass die Texte brilliant sind, als vielmehr damit dass die Leser offenbar an derlei Themen ein hohes Interesse haben. Wenn man also seinen Trafficcounter in den „Social academic networks“ hochjubeln möchte, dann wäre das die Blaupause dazu.

ZITIERHÄUFIGKEIT
Neben der reinen Aufrufanzahl eines Dokuments ist im Wissenschaftsbetrieb vor die Zitierhäufigkeit relevant. Also wie oft der eigene Text in den Fußnoten eines anderen Textes auftaucht. Die Arbeitshypothese lautet, dass die Zitierhäufigkeit in enger Übereinstimmung mit der Aufrufzahl steht und folglich bei Fashion und Food Themen außerordentlich hoch ist, während sie in Fächern der theoretischen Informatik gering ist.

Leider zeigt das Portal Academia.edu nicht die Zitierhäufigkeit an. Aber eine andere Suchmachine kann das: Google Scholar. Machen wir die Probe aufs Exempel und lassen uns die Zitierhäufigkeit von Fashion-Relevanten Texten anzeigen:

– „Speaking of fashion: consumers‘ uses of fashion discourses and the appropriation of countervailing cultural meanings“, zitiert von 942
– „Fashion Marketing: Contemporary Issues, Second edition“, zitiert von 274

Leider war für die übrigen Texte keine Zitierhäufigkeit verfügbar, wenn man jedoch bei Google Scholer gezielt nach Fashion-Relevanten Texten sucht findet man eine sehr hohe Zitierhäufigkeit wie bei diesen Texten hier:
– „Cultural expectations of thinness in women“, zitiert von 1565
– „The fashioned body: Fashion, dress and social theory“, zitiert von 1233
– „Primary prevention of coronary heart disease in women through diet and lifestyle“, zitiert von 1789

Wohlgemerkt, eine Zitierhäufigkeit von 1,2k für den mittleren Text bedeutet nicht etwa, dass der Text 1233 mal angeklickt bzw. heruntergeladen wurde, sondern es bedeutet, dass in 1233 anderen Texten darauf qualiziert verwiesen wurde. Entweder lobend oder ablehnend so dass man von einem sehr großen Rezipientenkreis sprechen kann. Wenn man diese Zahl im Zusammenhang sieht mit der relativ kleinen Anzahl von wissenschaftlichen Veröffentlichungen insgesamt (aktuell gibt es weltweit nicht mehr als 50 Mio Paper wovon bei Google Scholar etwa 10 Mio indiziert sind), dann dürften diese Texte die maximal mögliche Aufmerksamkeit generiert haben. Es sind Bestseller des akademischen Publishings.

FAZIT
Die Ergebnisse aus der Trafficstatistik von Academia.edu sowie der Zitierhäufigkeit gemessen durch Google Scholar deuten daraufhin, dass es auf das Thema ankommt. Damit ein Text intensiv zitiert wird muss er Fashion, Cooking und Lifestyle behandeln.