Dirk Ollmetzer | Monday, 19 November 2012 | Fundstücke, Retro
Über Demos und die Demoszene habe ich ja hin- und wieder etwas geschrieben (z.B. in “Demoscene Realtime Graphics @ c-base“). Demos leben ja traditionell von möglichst aufwändigen Grafik- und Soundeffekten. Das ist quasi ihr einziger Daseinszweck.
Aber als ob Demos an sich nicht schon nerdig genug sind, habe ich gerade ein Video entdeckt, das eine Demo zeigt, die nur Scharz/Weiss und mit Buchstaben funktioniert. Fand ich irgendwie hypnotisch…
Ich hatte mich ja neulich schon mal darüber ausgelassen, dass mir die ganze Entwicklung mobiler Betriebssysteme nicht schmeckt. Unsere ach-so-tollen Hyper-Super-Duper-Hi-End-Smartphones schmiessen neuerding immer mehr Funktionen raus, die seit mindestens 10 Jahren (in Mobilfunkzeit: “schon immer”) Standard waren. Neueste Entdeckung:
Android kann offensichtlich nur noch normale HTTP(S) Links.
Ich hatte gerade mir JQuery Mobile versucht, mir ein kleines Telefonbuch zu basteln und musste feststellen, dass alle Links, die mit tel:// sms:// oder mailto: anfingen, nicht mehr unterstützt werden.
Wirklich grossartiges Krüppelzeug, Ihr Arschlöcher!
Kann Nokia mal bitte wieder vernünftige Handies bauen – ich sehne mich wirklich danach, diesen unausgegorenen Ami-Rotz (Apple, Google, Microsoft, RIM) wieder loszuwerden.
Der 69. Webmontag fand am 12.11.2012 wieder in den Räumen der Mobilsuite in der Pappelallee statt. Das Thema des Abends war E-Learning. Auch diesmal war der Anteil der neuen Besucher erstaunlich hoch; ebenso wie der Frauenanteil.
Los – lern!
Den ersten Vortrag mit dem Title “The future of textbooks” hielt Stefan Bayer von Sofatutor – einer Plattform, die im weiteren Sinne auf Nachhilfeunterricht mit Videos, Tests und Chats für Schüler anbietet.
Interessant fand ich unter anderem, dass sich die Angebote auf one-to-one Kommunikation konzentrieren, während sich der Lerncommunities oder Gamification Ansätze nicht bewährt hätten. Die Schüler kommen mit einer gezielten Nachfrage, wie “Ich will die nächste Matheklausur bestehen” und konzentrieren sich daher auf direkte Kommunikation mit dem Lehrer.
Interessant war auch, dass sich Sofatutor zwar auf den unregulierten “afternoon market” konzentriert, weil im “morning market” Freigaben von den Kultusministerien der Länder erforderlich sind, sich die Angebote aber trotzdem eng an die jeweiligen Lehrpläne anlehnen (müssen).
Für die weitere Zukunft ist laut Bayer geplant, das Angebot sukzessive auf den Hochschulbereich auszudehnen.
Spielend lernen
Den zweiten Vortrag hielt Christian Knop von Outermedia. Sein Vortrag handelte von den Herausforderungen bei der Erstellung von Lernspielen. Sowohl die zu vermittelnden Lerninhalte, als auch die Art der Präsentation müssen auf die jeweilige Ziegruppe und ihre Motivation zugeschnitten werden; es war von Charakterdesign und “Flow” die Rede.
Knops Credo lautet “Learning should be fun”. Da möchte ich zwar nicht widersprechen – ob aber Spiele dafür der richtige Ansatz sind, erscheint mir eher zweifelhaft. Ich selbst habe mich im zarten Alter von 12 Jahren durch extrem trockene Computer Fachliteratur durchgebissen – freiwillig und hartnäckig. Es hat mir deshalb Spass gemacht, weil sofort versucht habe, das Gelernte umzusetzen. Das Wichtigste war aber, dass ich interessiert war und den ganzen scheinbar trockenen Kram wirklich lernen wollte.
Im Gegensatz dazu habe ich viele Dinge, die ich lernen sollte, nie vollständig verstanden – weil es mir einfach vollkommen gleichgültig war. Eine spielerische Darbietung hätte da vermutlich auch nicht viel geholfen. Aber bei anderen Menschen mag das ja durchaus anders sein.
Exzellenz für Millionen
Den letzten Vortrag des Abends hielt Hannes Klöpper von iversity. Er stellte die Frage nach der Universität des 21. Jahrhunderts und erzählte viel über die Erfolge der offenen E-Learning Angebote der amerikanischen Ivy League Universitäten wie Stanford und dem MIT, die zu einer Demokratisierung hochwertiger Lehre führen könne. Das sei notwendig, weil sich anders die explosionsartig ansteigende Nachfrage nicht befriedigen liesse.
Im Nachgang zu dem Vortrag kam es zu einigen berechtigten, kritischen Nachfragen.
Wenn diese hochwertigen Kurse umsonst angeboten werden und von jedermann belegt werden können – was bedeutet das für die Zukunft kleinerer Universitäten, wie z.B. Ilmenau oder Kansas State?
Letzlich geht es hier ja um eine Rationalisierung der Hochschulausbildung. Ein sehr berechtigter Einwand war, dass sich so zwar prinzipiell die Qualität der Lehre steigern liesse, es aber wahrscheinlicher ist, dass diese Effizienzsteigerung eher dazu missbraucht würde, weitere massive Einsparungen an den Universitäten durchzuführen.
Einig war sich das Publikum, dass zu einem wissenschaftlichen Studium nicht nur die Aneignung von Faktenwissen, sondern auch der Diskurs mit möglichst guten geistigen Sparringspartnern gehört. Das könne mit diesen Angeboten nicht abgedeckt werden.
Alles in allem war auch dieser Webmontag wieder recht anregend.
Dirk Ollmetzer | Saturday, 3 November 2012 | Gizmos
Gestern Nachmittag setzte ich einen Kopfhörer auf und zog damit quer durch die Tastenabteilung des Musikalienhändlers meiner Wahl in die Kulturbrauerei. Ich stöpselte mich in alle Geräte, die mir irgendwie interessant erschienen, insbesondere bezahlbare Synthesizer. Ich meine damit nicht nicht diese 1000-Fertig Sound Abspielgeräte mit den üblichen Klavier, Bläser und Fläschensounds, sondern diese lustigen Geräte, wo man sich die Klänge noch selber zusammenschrauben kann. Drei davon, die eine lange Ahnenreihe haben, fand ich so interessant, dass ich sie hier mal kurz gegenüberstellen möchte:
Moog Little Phatty
In den 70ern war der Begriff Synthesizer fast gleichbedeutend mit Moog. Die Maschinen – insbesondere der Minimoog – des Amerikaners Bob Moog sind auf unzähligen berühmten Aufnahmen zu hören. In den 80ern schaffte die Firma nicht den Sprung von Analog- auf Digitaltechnik. Im Zuge der Retrowelle der letzten 10 Jahre wollten viele Musiker den fetten Analogsound wiederhaben. Nach etlichen Interpretation und Nachbauten gibt es seit einiger Zeit auch wieder Instrumente von Moog selber. Ich habe das Modell Little Phatty ausprobiert. Einen Eindruck davon kann man in diesem Video eines Frankfurter Musikgeschäftes bekommen.
Waldorf Blofeld
Die Wurzeln der deutschen Firma Waldorf gehen in die frühen 80er Jahre zurück. Die Firma PPG (Palm Products GmbH) brachte mit dem Wave und seinen Nachfolgern Instrumente auf den Markt, die analoge Synthesizertechnik mit digitalen Oszilatoren kombinierte, die gespeicherte Wellenformen abspielten. Dadurch hatten die Geräte einen sehr eigenen Charakter und wurden bei den Produktionen von David Bowie, Trevor Horn, Depeche Mode, Gary Numan, Robert Palmer und vielen anderen Musikern verwendet.
Der Blofeld funktioniert immer noch nach einem ähnlichen Prinzip. Auch hierzu gibt es ein Video, das einen guten ersten Eindruck verschafft.
Roland Gaia SH-01
Die japanische Firma Roland hat ebenfalls eine lange Historie, wohlklingender elektronischer Instrumente, die bis in die 70er Jahre zurückreicht. Der Gaia steht dabei in direkter Linie mit den SH-1 von 1978 und dem berühmten SH-101 von 1983. Auch für den Roland gibt es ein kurzes Video.
Mein Fazit
Die drei Geräte des amerkanisch- deutsch- japanischen Vergleichs haben einige Gemeinsamkeiten: Sie sind für vergleichsweise kleines Geld zu bekommen, klingen toll und haben richtig schöne Hardware. Im Charakter sind sie jedoch sehr unterschiedlich.
Der Moog orientiert sich am deutlichsten an seinem Vorgänger. Er liefert einen fetten, runden Analogsound, bleibt dabei allerdings recht konventionell und mono! Die Bedienung ist semi-analog. Man hat nicht jeden Parameter in direktem Zugriff, sondern braucht manchmal ein- oder zwei zusätzliche Tastendrücke. Dennoch ist die Bedienung der übersichtlichen und gut verarbeiteten Hardware schnell und intuitiv. Mit knapp €1.400,- kostet er doppelt soviel, wie die anderen beiden Geräte.
Der Roland fasziniert mit seiner absolut intuitiven Bedienoberfläche. Er hat kein LCD Display, sondern wird ausschliesslich über Knöpfe, Schiebe- und Drehregler bedient. Der Sound ist sehr gut, auch wenn die Factory Presets für meinen Geschmack ein bischen zu sehr nach Vorstandt-Techno klingen – aber die Virtuell-Analoge Klangerzeugung kann auch anders. Für ein Gerät dieser Preisklasse (ca. €700,-) hat mich die gute Qualität der vielen Regler beeindruckt.
Der Waldorf schliesslich hat den vielseitigsten und bösesten Sound. Das Gerät klingt erheblich teurer, als es mit seinem schmalen Preis von €700,- ist. Leider ist auch die Benutzeroberfläche schmal bestückt. Man findet zwar alles, aber zunächst muss der zu verändernde Parameter ausgewählt werden, bevor man ihn verändern kann. 80er Jahre like. Die komplette Gegenthese zum “Ein Griff und die Hüllkurve sitzt” Prinzip des Roland.
Dieses Wochenende war Besuchswochenende. Das Jahr neigt sich so langsam dem Ende entgegen und plötzlich kommen viele Bekannte noch mal schnell nach Berlin. Neulich Besucher aus USA und Finnland, dieses Wochenende Besucher aus Argentinien und sogar aus Niedersachsen.
Das Wetter war kalt aber überwiegend freundlich.
Nachmittags gab es leckeren selbstgebackenen Schoko-Topfkuchen, und hier sind noch zwei Bilder von heute.
Seit mindestens einem halben Jahr hat HTC ein Update auf Android 4 für das Desire S angekündigt – und beständig nicht geliefert. Vor kurzem ist es dann doch erschienen. Also habe ich versucht, irgendwo einen Windows-Rechner aufzutreiben und das Telefon geflasht.
Jetzt hat es Android 4.0.4 und die HTC Sense Oberfläche 3.6.
Mein Fazit – Finger weg!
Mal abgesehen davon, dass man den Bootloader entsperren muss um das Update aufzuspielen, was vorsichtigeren Naturen nicht angeraten werden kann, bringt das Update fast nur Nachteile.
An der Bedienung hat sich kaum etwas geändert. Die Benutzeroberfläche sieht sogar eher etwas schlichter aus, als vorher. Ich sehe zwei winzige Vorteilchen:
Jetzt gehört ein Task Manager zum Standard. Schön auch, dass der Android USSD-Bug behoben ist, mit dem präparierte Webseiten GSM-Kurzbefehle auf dem Telefon ausführen können (Siehe Testseite bei Heise.de). Aber das sind Punkte gewesen, die ich sowieso durch zwei kleine Downloads behoben hatte.
Und jetzt, was schlechter geworden ist:
Der Browser: Einerseits hakt er bei vielen Seiten (Twitter, Financial Times…) und zeigt zunächst eine weisse Seite und zum Anderen scheint man die URL-Suggest Funktion nicht abschalten zu können. Toll dass Google jetzt absolut JEDE URL mitbekommt, die ich eintippe. Nein, nicht toll!
Dazu passend lädt jetzt auch der Mail Client IMMER alle Bilder. Schlecht für Geschwindigkeit, schlecht für die Datenmenge und schlecht für die Privatsphäre, weil mittels nachgeladener Bilder die Öffnungsrate gemessen wird. Also schon wieder weniger Kontrolle über meine Daten.
Irgendwie verändert sich Android nicht gerade zum Guten. Zu der Verschlimmbesserung des Browsers und des Mail Clients kommt hinzu, dass jetzt noch mehr sinnlose Apps fest installiert sind, die ich niemals freiwillig nutzen würde. Zum Beispiel das unvermeidlich Dropbox und natürlich die toxischen Zwillinge Twitter und Facebook, die schön die Kontaktdaten abgreifen und versauen. Dafür kann der Kalender noch immer kein CalDAV und Kontakte können immer noch nicht per CardDAV synchronisert werden. Klar – dann bräuchte man ja Google nicht mehr, sondern könnte eigene Services nutzen.
Ach so – Bluetooth ist übrigens auch nochmals schlechter geworden (obwohl man das kaum für möglich hält). Mit der Freisprechanlage im Auto koppelt er gerade noch, aber man bekommt die Fotos nicht mehr auf den eigenen Rechner – weder durch push, noch durch pull.
Was zum Geier reitet die Entwickler eigentlich, eine bereits vorhandene Standardfunktion einfach abzuschalten?
Diese ganze Smartphone-Kacke geht mir mittlerweile so richtig auf den Senkel. Ich will Eure Scheiss Cloud nicht. Ich will, dass meine Daten bei mir bleiben und dass ich entscheide, was auf meinem Computer/Smartphone/whateverdevice installiert ist.
Das ist alles Mist, Mist und nochmal Mist. Apples iOS ist erst recht Mist und Windows Phone – ach, vergiss es. Alles Scheisse – alles kommt aus USA und hat dieselben Macken, was ich nicht für einen Zufall halte.
Ich sehe schon, dass ich demnächst meine Schublade aufmache und die alten Nokias wieder raushole.
[Update] Im zweiten Anlauf hat das Aufspielen von Cyanogenmod 7.2 funktioniert. Bis auf Probleme mit der Kamera läuft nun alles sehr zufriedenstellend. Siehe “Cyanogenmod auf HTC Desire S“
Trevor Horn war mir “nur” als Produzent extrem knalliger Popsongs aus den 80ern bekannt (Art of Noise, Franke goes to Hollywood, Propaganda,…). Nach über 25 Jahren habe ich heute zwei Dinge gelernt:
Der Mann ist ja tatsächlich richtiger Musiker und hat 1979 mit den Buggles (Video killed the radio star) selber auf der Bühne gestanden.
Einige Songs, die man schnell als Plastikpop abtut, haben es musikalisch ganz schön in sich, wenn man mal genauer hinhört.
Der zweite Punkt wird deutlich, wenn man sich dieses wirklich schöne Video ansieht. Bei den Filmaufnahmen zu “The Producers” kam die Diskussion auf, ob der Basslauf von Frankie goes to Hollywoods Megahit “Two Tribes” damals live in einem Stück eingespielt wurde. Kurzerhand schnappte sich Trevor Horn zusammen mit Lol Créme, Stephen Lipson und Ash Soan die Instrumente und los ging es…
Am Freitag zeigte mir ein Kumpel das nagelneue Netbook seiner Freundin. Ein typisches 10″ Gerät von Asus mit 1,6 GHz und 1GB Ram, ausgestattet mit Windows 7. Das Ding sei so lahm, dass man nicht damit arbeiten kann, meinte er. Ich habe mir das Ganze mal angesehen und auf die typischen Schwachstellen abgeklopft: Unnötige Hintergrundprozesse, Vorinstallierte Bloatware usw.
Aber an der Stelle war nicht mehr viel zu optimieren. Als ich dann den Firefox öffnete um probeweise mal Spiegel aufzurufen, haben wir spontan eine kurze Kaffepause eingelegt. Ich musste Ihm Recht geben – so ist das Gerät einfach unbrauchbar. Das Problem liegt natürlich darin, dass Windows 7 einfach viel zuviel Ressourcen verbraucht, um auf so einem kleinen Rechner akzeptabel zu laufen.
Die Lösung hiesse Linux – aber welches?
Zu Hause angekommen machte ich mich auf die Suche nach einer geeigneten Linux Distribution. Früher mochte ich Ubuntu ganz gerne, aber mit der aktuellen Benutzeroberfläche werde ich nicht warm und mittlerweile verbraucht das Ganze ausserdem zuviele Ressoucen. Auf meinem Lenovo Thinkpad X121e habe ich Mint 12 installiert (aktuell ist 13) und bin im Großen und Ganzen auch recht zufrieden, bloss die Benutzeroberfläche würde ich mir etwas schlichter wünschen.
Und da kommt LXDE ins Spiel – ein schlanker Desktop Manager für Linux, der schnell ist und mit wenig Speicher auskommt. Spannenderweise gibt es ein entsprechend angepasstes Ubuntu Release namens LUBUNTU. Ich habe das aktuelle 12.10 ISO Image runtergeladen und mit UNetbootin auf einen USB Stick geschrieben. Thinkpad Bootreihenfolge geändert und das Live Image gestartet.
lubuntu - frisch gestartet
Blam – selbst direkt vom Stick läuft das System sehr flüssig. Was daran liegt, dass neben dem schlanken LXDE nur Software vorinstalliert ist, die von Hause aus schnell ist. Der Standardbrowser ist zum Beispiel Chromium. Aber am wichtigsten ist: Dank Ubuntu Unterbau lief alles out of the Box: Grafik, WLAN, Bluetooth. Nur im ALSA Soundtreiber musste noch die richtige Hardware ausgewählt werden (ein Dropdown-Feld). Zudem hat man natürlich das ganze Ubuntu Repository zur Verfügung. Das Nachinstallieren von Standardanwendungen (Office, Gimp,…) geschicht problemlos per Mausklick.
lubuntu - schneller Desktop, schneller Browser
lubuntu - leicht zu ergänzen
Ich bin beim Test nun nicht in die Tiefe gegangen, aber mein erster Eindruck ist gut. LUBUNTU ist eine ganz hervorragende Möglichkeit, ein ansonsten unbrauchbares Stück Hardware zu einem nützlichen Mitglied unserer Gesellschaft Werkzeug zu machen.
Dirk Ollmetzer | Wednesday, 10 October 2012 | Development
Das Thema des 68. Webmontags in Berlin lautete “Tech. Architectures (from Dev’s to Dev’s)”. Es ging um skalierbare IT Architekturen für webbasierte Anwendungen. In den Räumen der Mobile Suite in der Pappelallee in Prenzlauer Berg gab es drei interessante Vorträge von Berliner Startups zu hören.
Grosse Spielwelten
Knut Nesheim von Wooga sprach im ersten Vortrag von den Herausforderungen, die speziell Simulationsspiele für die Backend IT darstellen. Im Gegensatz zu einfacheren Casual und Mobile Games, die meist noch auf LAMP-ähnlichen Software Stacks laufen, ist hier das ständige Aktualisieren von Statusdaten die wichtigste Herausforderung. Interessanterweise läuft selbst bei solch komplexen Spielen die Kommunikation zwischen Client und Server auf Basis von HTTP.
Das beständige Aktualisieren der Daten durch die Clients verbietet den Einsatz einer Datenbank, da ein Cluster mit den ununterbrochenen Schreib- und Synchronisationsvorgängen überforderte wäre.
Wooga setzt stattdessen einen in Erlang programmierten Applicationserver ein, der pro User einen eigenen Prozess im Speicher hält, wobei jeder User seine eigene Maps hat. Die Antwortzeit liegt so bei bemerkenswerten 1ms. Pro Server können bis zu 20.000 Spieler aktiv sein, wobei die Maschinen nie bis an die Leistungsgrenze gefahren werden. Zu Beginn eines Spiels fragt der Client nach einem Server und Prozess und bleibt bei diesem (stickiness). In kurzen Zeitintervallen wird der Status des gesammten Spiels auf eine Datenbank gesichert.
Entkopplung von Drittsystemen
Im zweiten Vortrag stellte Francis Varga von Cloudpark die für die technisch weniger anspruchsvollen Casual Games von Cloudpark verwendete IT Architektur vor. Die Server sind in PHP programmiert, wobei die Daten für das Spiel und das Tracking in getrennten CouchDB Instanzen verwaltet werden. Die grösste Herausforderung für Cloudpark liegt in der Anbindung externer Dienste, wie E-Mail versenden, Facebook Social Graph API usw. Hier liegen die Antwortzeiten zwischen 300ms und 3s; im Schnitt bei 900ms.
Cloudpark setzt zur Entkopplung von Spiel und externem Service auf einen „Railgun“ genannten Server. Dieser nimmt die Anfragen des Applicationservers entgegen. Hier wird pro Anfrage ein Job im Beanstalk Daemon gestartet, der jeweils einen Job im AWS (Amazon Web Service) verwaltet.
Wer nicht misst, misst Mist
Im letzten Vortrag erzählte Bastian Hoffmann von ResearchGate viel über KPIs, Tracking und Monitoring. Interessant fand ich die Aussagen, dass man sich zu Beginn noch nicht ganz klar war, was das Ziel jeder einzelnen Seite sei und deshalb die KPIs nicht definieren und messen konnte. Erst wenn dies geschehen ist, kann man den Erfolg messen und herangehen, jede einzelne Seite in A/B Tests zu optimieren, wobe diese Tests serverseitig ausgespielt werden.
Research Gate nutzt im Grossen und Ganzen eine typische Web-Architektur mit Load-Balancer, Cluster von Application Servern, server- und clientseitigem Tracking. Technische Besonderheiten in meinen Augen waren der Einsatz von ActiveMQ zur zeitlichen Entkopplung von Aktionen und die Tatsache, dass die Ausgabe im Frontend in kleine, verschachtelte Komponenten unterteilt ist, die jeweils eine eigene URL haben und sämtlichen, benötigten Javascriptcode mitbringen. So können bestimmte Seitenteile bequem nachgeladen werden (z.B. beim Blättern von Veröffentlichungen in einem Nutzerprofil). Eine angefragte HTML-Seite wird aber trotz Modularisierung aus Performancegründen in einem Stück ausgeliefert.
Fazit
Alles in Allem war es ein recht informativer Abend, bei dem für drei sehr unterschiedliche webbasierte Anwendungen jeweils passende Systemarchitekturen vorgestellt wurden.