What is the average download usage in GB?

According to the German Bundesnetzagentur https://www.bundesnetzagentur.de/SharedDocs/Downloads/DE/Allgemeines/Bundesnetzagentur/Publikationen/Berichte/2017/JB2016.pdf;jsessionid=E86CA52C6876C189F779907FC2D5D9D0?__blob=publicationFile&v=1 page 55 the average user consumes 60 Gigabyte on a monthly base. A survey from the united states come to the conclusion that the average usage amount was 190 GB per month per household, http://www.telecompetitor.com/igr-average-monthly-broadband-usage-is-190-gigabytes-monthly-per-household/ So what need the average citizen in reality? With todays video-compression techniques likes H.264 and VP8 the needed bandwith is reduced drastically. A videoclip generates in one hour around 700 MB traffic in normal 480p resolution. So if the PC plays in background 8 hours youtube-clips per day, it will produce 168 GB traffic per month. And that is only for watching one stream in 480p. If a person has two devices and he uses modern technology which is able to playback in 1080p quality (which even cheap Android tablets and lowend Notebooks can do) the monthly traffic counter will be much higher. So, what are the Germans are doing with their internet connection that they only need 60 GB? Are they are using sophisticated compression techniques which is more advanced than H.264?

Advertisements

Testbericht Chromium

Der Chromebrowser hat was den Marktanteil angeht, im Laufe der Zeit immer mehr Boden gutgemacht. Weltweit ist er inzwischen auf Platz 1. In Deutschland ist hingegen Firefox traiditionell sehr stark so dass man hierzulande von Gleichstand spricht zwischen Firefox und Chrome. Warum Firefox in Germany beliebter ist hat damit zu tun, dass Chrome den Ruf besitzt, den Datenschutz nicht zu beachten und haufenweise wertvolle Userdaten an Google zu senden. Ob das wirklich passiert? Mit hoher Wahrscheinlichkeit. Laut der Anzeige zu Upload/Download Statistik wurden allein heute schon 70 MB ins Internet gesendet, ohne dass ich irgendwas tatsächlich gesendet hätte. Diese Datenmenge fließt also im Hintergrund irgendwie ab.

Unterstellen wir mal, dass das nicht schlimm ist dann ist Chrome eigentlich ein sehr schöner Browser. Er ist deutlich schneller in der Anzeige von Webseiten als Firefox. Das betrifft einmal PDF Paper aber vor allem trifft das für Youtube Videos zu. Fängt bei Firefox gerne mal der Lüfter an zu rühren, wenn man die Videos in höherer Auflösung abgespielt werden, bleibt bei Chrome alles angenehm ruhig. Das dürfte der Verwendung von Webkit geschuldet sein, einer Bibliothek die exzessiv die OpenGL Schnittstelle nutzt und ursprünglich von Apple entwickelt wurde. Ebenfalls gut gelöst wurde bei Chrome die Taskanzeige. Man kann dort schön für jeden Tab einblenden wieviel CPU Ressourcen benötigt werden.

Ob in der Summe Chrome der bessere Browser ist, sei mal dahingestellt, aber zumindest macht es die Plattform eine Weiterentwicklung leichter. Das heißt, man kann davon ausgehen, dass die zukünftige Weiterentwicklung bei Chrome ein wenig mehr am technisch möglichen verläuft als das bei Firefox der Fall ist wo man seit Jahren mit Altlasten zu kämpfen hat. Nach wie vor ist bei Ubuntu übrigens Firefox vorinstalliert und nicht Chrome.

Vielleicht noch etwas zum Browser selber. Der größte Unterschied besteht darin, dass Chrome praktisch keinerlei Menüleiste mitbringt. Es gibt zwar irgendwelche Menüpunkte aber scheinbar wird darüber nicht der Browser gesteuert. Auch soetwas wie ein Settings-Menü im eigentlichen Sinne gibt es nicht. Wenn man irgendwas verstellen will, muss man Google fragen und dort gibt es dann irgendwelche Geheimen URLs die man eintippt um dort dann was zu verändern. Anders gesagt, Chrome entmündigt den Anwender total. Vermutlich steuert Google den Browser aus der Ferne und der PC ist nur das Anzeigegerät für den Enduser. Der Köder, damit die Leute das super finden ist das butterweiche Scrolling. So sanft und unklompiziert war das Browsen mit Firefox nie. Vermutlich hat der extrem hohe Marktanteil von Chrome dazu geführt, dass sehr viel Manpower in die Software gesteckt wurde. Gerüchten zufolge basiert auch der Safari Browser von Apple auf der Webkit-Engine genauso wie Opera.

Die Podcaster schießen sich selber ins Bein

Nach langem Suchen habe ich endlich einen neuen Technik-Podcast auf Deutsch gefunden: Geekstammtisch heißt er. Und eigentlich wollte ich jetzt mal schön von oben herab ablästern was da inhaltlich alles falsch erzählt wurde. Also schön kritisch als Zuschauer sein. Leider bin ich gar nicht soweit gekommen. Die Folge 004 in der es über C ging, und wo mit Sicherheit auch viel zu kritisieren wäre ist online gar nicht mehr einsehbar http://podlist.de/podcast/episode/geekstammtisch/gst004-ich-dachte-c-ist-fertig

Das heißt, offenbar ist man der zu erwarteten Kritik aus der Community zuvorgekomme und hat sich selbst entschlossen, die mp3 Datei vom Server zu nehmen. Schade eigentlich. Und hier liegt das eigentliche Problem. Wenn die Autoren selber ihre Beiträge schon löschen aus welchen Gründen auch immer, kommt man gar nicht in den Genuss inhaltliche Kritik anbringen zu können. Ein wenig erinnnerte das an Pofacs der vor allem dadurch auffiel, dass er heute weder für Fans noch für Kritiker abrufbar ist.

Das DARPA Paradox

Als Paradoxon wird in den Naturwissenschaften eine Beobachtung bezeichnet, welche der ursprünglichen Annahme widerspricht. Also etwas aufzeigt, was so nicht da sein dürfte. Die ursprüngliche Annahme darüber wer oder was die DARPA ist lautet landläufig, dass es sich dabei um eine ultrageheime militärische Behörde handelt welche für die US-Streitkräfte Technologie entwickelt. So eine Art von Q-Abteilung wie bei James Bond. Man könnte die DARPA auch als Zentrum des militärisch-industriellen Komplexes bezeichnen, worüber die USA ihren technischen Vorspruch sicherstellen.

Wenn diese Annahme korrekt wäre, dürfte es keine oder allenfalls falsche Angaben in der Öffentlichkeit geben woran die DARPA forscht, wer die Forschung ausführt und wie man diese Technologie in konkrete Produkte überführt. Und hier gibt es das eingangs zitierte Paradoxon. Google Scholar findet unter https://scholar.google.de/scholar?hl=de&q=DARPA&btnG=&lr= nicht weniger als 244000 Paper die allesamt von der DARPA gesponsert wurden, bei denen die allergeheimsten Geheimnisse verraten werden. Anmelden um sie einzusehen muss man sich nicht. Ja die Paper sind sogar leichter aufzurufen als die Status-Updates bei einem Facebook Freund. Jetzt mag man sagen, dass das keine richtige Paper wären sondern reine Propaganda, also politisches Bla Bla. Doch schaut man man im Detail hinein, was dort thematisiert wird und wie das geschieht so handelt es sich um Forschungspaper. Genauer gesagt um Erwachsenenbildung die mit wissenschaftlichem Anspruch geschrieben wurde, und die Querverweise enthält. Fast hat man den Eindruck, einem großen verteilten Schulbuch gegenüberzustehen. Wenn man dann noch die Google Websuche bemüht https://www.google.de/search?client=ubuntu&channel=fs&q=darpa+filetype%3Apdf&ie=utf-8&oe=utf-8&gfe_rd=cr&ei=PBohWfCNLM_PXr-kkUA finden sich dort sogar 462000 Darpa Paper, wobei es sicherlich Doppelungen gibt, aber nicht nur.

Anders ausgedrückt, wenn die DARPA wirklich ein supergeheimer Militär-Apparat wäre, dann gibt es da ein riesiges Leck. Aber vielleicht weiß die Behörde ja gar nicht, dass all ihre Informationen frei zugänglich im Internet stehen und sogar der Quellcode der bei der letzten Darpa Robotics Challange eingesetzt wurde, mittlerweile bei Github bereitsteht? Natürlich wird sie es wissen, sondern eher heißt die Schlussfolgerung dass die ursprüngliche Annahme darüber wer oder was die Darpa ist falsch ist.

An dieser Stelle ein kleiner Exkurs zum Plato Computersystem, https://de.wikipedia.org/wiki/Plato_(Computersystem) Es handelt sich um ein computerunterstütztes Lernsystem.was Leuten ohne universitären Background eine höhere Bildung zukommen lassen wollte. Der Sinn von Plato war nicht etwa Geheimhaltung sondern dessen Gegenteil: möglichst viele Leute anzusprechen.

Es ist unklar wie die Nutzungszahlen der DARPA Paper sind. Fakt ist jedoch, dass rein technisch gesehen sie von potenziell 7 Milliarden Leuten gelesen werden können, so fern sie English verstehen und sie dafür interessieren. Man könnte die Darpa Paper durchaus mit Wikipedia vergleichen, der Sprachduktus ist vergleichbar und ähnlich wie bei Wikipedia gibt es einen pädagogischen Anspruch. Also die Leute darüber zu bilden. Jetzt könnte man natürlich einwenden, dass es sich um eine mißbräuchliche Nutzung handeln würde, wenn man sich wahllos durch DARPA Paper durchklickt worin Steahlt-Technologie, medizinische Forschung und Robotik thematisiert wurde. Nur, eine explizite Paywall oder Zutrittsbarrieren gibt es keine. Wenn ich Google Scholar richtig verstanden habe, gibt es da nochnichtmal ein Cookies was überprüft wieviele man von diesen Papern schon gelesen hat. Sondern die Paper-Hosting-Server sind dermaßen exponiert im Internet hingestellt als wäre es ein Ubuntu-Update-Server wo man also mit hohem Traffic Aufkommen rechnet.

In einem Paper über das Plato-computer-based-education system (Misselt, A Lynn: „Implementation and Operation of Computer-Based Education“, 1980, dtic-document) wird die Gründung von Plato untersucht:

„A program of implementation of one advanced form of CBE (Computer-Based Education), the PLATO system, was begun by DARPA in the 1960s.“

Weiterhin verweist das Paper auf ein sogenanntes „ARPA/PLATO project“, offenbar sollte das ARPA Net weniger ein Computerverbund für militäreinrichtungen sein, sondern eher als Computer-based-training ausgelegt sein.

Interessant ist auch der zeitliche Zusammenhang zwischen dem ARPANet und dem Plato Computersystem. Beides entstand Anfang der 1970’er als Forschungsverbund in den USA. Wurde das Arpanet noch für weitere Dinge als nur das Plato-System genutzt?

Stackoverflow vs Usenet

Es gab einmal eine Zeit in der Anfangsphase des Internets, da war das Usenet das einzige Diskussionsforum. Im Grunde handelte es sich dabei um ein Protokoll was ähnlich stabil funktionierte wie E-Mail, nur mit dem Unterschied dass es weltweit gespiegelt wurde. Nicht nur die berühmte Nachricht von Linus Torvalds mit der Ankündigung seines Betriebssystems wurde ins Usenet abgesetzt sondern auch viele wissenschaftlichen Diskussionen fanden dort statt. Schaut man sich jedoch in der Gegenwart im Jahr 2016 den Status quo an, so muss man leider sagen, dass vom einstigen Glanz nicht mehr viel übrig geblieben ist. Zwar gibt es immernoch einige gut besuchte Gruppen (in Deutschland zählt beispielsweise de.comp.text.tex dazu) aber gegenüber sogenannten Webforen ist das Usenet Traffic-mäßig in den Hintergrund gelangt. Webforen ziehen deutlich mehr User an, auch wenn diese erwiesenermaßen keinen PhD besitzen und keine Informatiker sind.

Aber sind Webseiten wie Gaia Online oder Facebook wirklich eine Alternative zum Usenet. Traffic gibt es auf diesen Seite ohne Ende, man findet dort immer jemanden mit dem man diskutieren. Die Zahl der User beträgt mehrere Millionen und die Themenbreite ist hoch. Aber, wissenschaftlichen Ansprüchen wird man dort nicht gerecht, es handelt sich dabei um einen Small-Talk Chat, mehr leider nicht.

Ein guter Kompromiss zwischen hohem Traffic und inhaltlicher Güte liefern die Webseiten der Stackexchange Plattform. Stackoverflow dürfte dabei das bekannteste Portal sein, dort werden täglich! 5000 neue Questions eingestellt und meist innerhalb von 5 Minuten tatsächlich beantwortet. Diese hohe Nutzlast hat dazu geführt, dass im Laufe der Zeit wohl jedes Thema was entfernt mit C++, Java oder HTML zu tun hat, bei Stackoverflow diskutiert wurde, und man nicht ohne Grund von Google häufig als Antwort dorthin verwiesen wird.

Interessanterweise gibt es zu Stackoverflow auch noch Schwester-Seiten, namentlich „Robotics Beta“, „Computer Science“ und „Gamedevelopment“ wo auf wissenschaftlichem Level diskutiert wird. (Oh pardon, diskutiert werden soll ja nicht, sondern es sollen Fragen beantwortet werden) Auch diesen Schwesternseiten ist der Traffic niedriger, nur 3-8 Fragen täglich werden gepostet. Dennoch dürfen diese Webseite als gut besucht bezeichnet werden und im Laufe der Zeit hat sich eine reichhaltige Informationsmenge angesammelt.

Wie man richtig sucht auf Stackoverflow

Die Startseite vom Roboter-Forum auf Stackoverflow ist relativ spartanisch, man hat dort zwar eine Liste mit den letzten Fragen die gestellt wurden, aber wenn man sich anzeigen lassen will, welche Edits zuletzt durchgeführt wurden, gibt es dafür keinen Button. Aber es gibt etwas was viel mächtiger ist, die Advanced-Search. Beschrieben wird diese auf http://stackoverflow.com/help/searching und ist ähnlich wie die Google Suche aufgebaut, so dass man bestimmte Kommandos in die Suchmaske eingeben kann. Wenn man sich zum Beispiel die am schlechtesten bewerteten Fragen aller Zeiten anzeigen lassen will, braucht man nur: „score:-100..-5“ einzugeben und wird dort eine Frage finden wie

„King Robota: Does he speak for himself? [closed]“

Warum diese Frage so schlecht bewertet wurde ist unklar. Eigentlich wollte ich selbst diese Frage ebenfalls schon stellen. Also wenn ich irgendwann mal Admin-Rechte bei Stackoverflow haben sollte, werde ich diese Frage massiv upvoten.

Laut einer Diskussion auf Meta-Stackexchange soll es noch eine weitere Methode geben, und zwar ist es wohl möglich über SQL Befehle direkt auf die Datenbank zuzugreifen und sich darüber die Diskussionsbeiträge anzeigen zu lassen. Aber das ist nur ein Gerücht.

Zumindest dürfte die mächtige Suchfunktion mit ein Grund sein, warum Stackoverflow heute das wichtigste Programmierforum weltweit ist, und sich so großer Beliebtheit erfreut. Scheinbar sitzen da im Background die selben Leute, die auch die Google Suchmaschine, Wikipedia und Apple Siri entwickelt haben …

Traffic-Analyse des Roboter-Forums

Über das Roboterforum auf http://robotics.stackexchange.com/ habe ich schon einen kurzen Bericht verfasst. Heute soll es um die Traffic-Statistik gehen mit dem Ziel Rückschlüsse zu ziehen, was man realistischerweise erwarten kann. Auf der Startseite dieses Forums findet sich dankenswerterweise eine grobe Statistik, danach besteht das Forum derzeit aus 4287 Antworten, 8783 Usern und 1632 Visits am Tag. Zunächst darf man davon ausgehen, dass die User-Zahl in Wahrheit niedriger liegt. Wie auch bei Wikipedia auch, wird der Großteil der Antworten von einer kleinen Anzahl von Usern erzeugt. Schaut man sich einmal einige Top-User an, so sieht man dass sie im Schnitt jeweils 50 bis 100 Antworten gepostet haben. Daraus kann man ableiten, dass das Forum aus rund 60 Usern besteht, die effektiv mitarbeiten.

Wenn man jetzt die Visits auf diese 60 Personen aufteilt, dann würde ein Forum was aus nur 1 Admin besteht noch 27 Aufrufe am Tag erzielen. Das deckt sich ungefähr auch mit der Beobachtung, welchen Traffic ein normales Blog erzielt. Wenn eine Einzelperson ein Weblog erstellt und dort dann und wann etwas postet ohne großen Ehrgeiz kann man realistischerweise von 50 – 100 Visits / Tag ausgehen (ein sogenanntes C-Blog). Das oben genannte Roboterforum hat deswegen mehr Hits, weil es sich um ein Gemeinschaftsblog handelt, wo also mehrere Leute gemeinsam etwas posten. Dementsprechend höher ist dann auch das Interesse der Netzcommunity.

Die Hypothese zur Ermittlung des Traffic einer Webseite lautet, dass pro registriertem User der effektiv mitarbeitet man rund 50 Visits/Tag erhält. Wenn man also ein Weblog haben will, was 1000 Visits/Tag besitzt und intensiv kommentiert wird, dann braucht man dafür 1000/50=20 Leute die Beiträge für dieses Blog schreiben. Oder alternativ ein Forum was aus der selben Anzahl von Usern besteht.

Diese Hypothese lässt sich an echten Blogs bestätigen. Überall dort wo Zeitungen Content ins Netz stellen, welcher von mehreren Autoren generiert wird, ist der Traffic höher als bei Blogs von Einzelpersonen. Ebenfalls haben Blogs, die aus mehreren Usern bestehen höhere Traffic-raten. Anders formuliert, die einfachste Methode wie man den Traffic einer Webseite erhöht besteht darin, es in ein Forum umzuwandeln wo sich möglichst viele Leute anmelden können. Jeder neue Nutzer der nur ein paar Texte schreibt, erhöht unmittelbar den Traffic der Gesamtseite. Ob sich ein weiterer Nutzwert über die Heterogenität der Beiträge ergibt ist unklar, dürfte aber wahrscheinlich sein. Das also für Google solche Webseiten besonders interessant sind, auf denen unterschiedliche / gegensätzliche Meinungen ausgedrückt werden.

Man kann realistischerweise davon ausgehen, dass ein Einzelperson wenn sie fließig Beiträge schreibt rund 50 Visits/Tag generiert. Das bedeutet zweierlei: erstens heißt es, dass jedes Blog was from scratch startet diese Marke wird erreichen, aber es heißt auch dass es schwer ist als Einzelperson wesentlich mehr als diese 50 Hits zu erreichen. Auch in Foren (wie dem oben gennanten Roboterforum) erzielen die Beiträge auf die Einzelperson umgerechnet nicht mehr als 50 Hits. Die höhere Gesamtzahl von Google Abfragen kommt nur deshalb zustande weil auf einer Webseite mehrere Autoren schreiben.

Über den Traffic von Webseiten kann man noch weitere Hypothesen aufstellen. Bei meinem alten Blog http://aa5new.wordpress.com gab es in 5 Jahren rund 300 Kommentare. Das sind 5 Kommentare je Monat. Zwar kein hoher Wert, aber dann und wann gab mal jemanden der seine Meinung kundgetan hat (die überwiegende Mehrheit der Rückmeldungen war übrigens negativ, Motto: der Artikel ist Müll, der Autor hat keine Ahnung). Rechnen wir mal ein wenig herum: 70 Visits/Tag sind 2100 Visits / Monat. Und das bedeutet man bekommt alle 420 Visits einen Kommentar. Anders gesagt, wenn man 10 Kommentare pro Tag haben möchte, benötigt man ein Blog was 4200 Visits/Tag generiert.

Das sind natürlich alles nur Näherungswerte die abweichen können jenachdem welchen Contant man einsetzt. Bei Allgemeinen Themen wie Politik oder Computerspiele dürfte die Ressonanz aus dem Web größer sein als bei Spezialthemen die keinen interessieren. Auch in meinem Blog war es keineswegs so, dass die Postings die besonders gehaltvoll waren häufiger angeklickt wurden sondern in den Charts ganz oben war ein Artikel über das richtige Entfernen von OHrenschmalz und über das schlampige Erstellen einer Diplomarbeit. Offenbar besteht in der Netzcommunity hier ein großer Informationsbedarf. Wer also richtig viel Traffic für sein neues Blog haben will, der sollte ein Referenzwerk in Sachen Ohrenschmalzentfernung inkl. Videos und Abbildungen erstellen.