Month: Januar 2007

Patent für Microsoft’s „Windows Anytime Upgrade“

Der Software-Gigant in Redmond hat 2005 sein „Windows Anytime Upgrade“ unter dem Namen „System and method for delivery of a modular operating system“ zum Patent angemeldet. Jetzt soll darüber entschieden werden. Es handelt sich um das Konzept eines modularen Betriebssystems mit DRM-Integration, das z.B. bei Windows Vista zum Einsatz kommen soll. Mit Linux ist bereits seit mehreren Jahren ein solch modulares Betriebssystem am Markt. Dass es noch niemandem in den Sinn kam, das gute Teil mit einem „Digital Restriction Management“-System zu verheiraten, liegt in der Natur von Open Source. Aufgrund meiner Erfahrungen darf ich annehmen, dass zumindest ein wesentlicher Teil aus Trivial-Patenten oder altem Wein in neuen Schläuchen besteht. Jedenfalls ist dies bei IT-Patenten heutzutage völlig „en vogue“ und dient lediglich dazu, die Mitbewerber einzuschüchtern.

Mittels digitaler Signatur will Microsoft die Berechtigung eines Moduls prüfen, d.h. Microsoft gibt beziehungsweise nimmt sich die totale Kontrolle auch über Betriebssystem-Erweiterungen von Drittanbietern und damit auch über unseren Computer. Wenn MS der Ansicht ist, dass das betreffende Software-Teil nicht vertrauenswürdig, zu wenig stabil oder gar zu wettbewerbsfördernd ist, darf es nicht installiert und schon gar nicht ausgeführt werden. Dies gilt für Druckertreiber genauso wie für Antiviren-Software und Firewalls. Um auf der Liste der Anbieter von Microsoft’s Gnaden aufgenommen zu werden, wird der Riese entsprechende Zertifikate mit zugehörendem Schulungsangebot teuer verkaufen. Dieser Schuss könnte aber nach hinten losgehen.

Ich gehe davon aus (und hoffe natürlich), dass dies erneut die Wettbewerbshüter auf’s Parkett bringen wird. Natürlich verstehe ich, dass Microsoft bedingt durch den Wandel der Technologie und der damit verbundenen Geschäftsmodelle seine Felle allmählich davon schwimmen sieht. Open Source (= freie Software für freie Bürger) ist im Kommen und erhält täglich neue Anhänger – auch ich zähle mich seit Anbeginn der Zeit dazu. Auch die laufenden Diskussionen über eine grundlegende Reform des geltenden Urheberrechts verunsichern manch einen Anbieter. Es kann aber nicht sein, dass ein Unternehmen seine Markt beherrschende Stellung derart anmassend ausnutzt, um Kasse zu machen. „Wer nicht mit der Zeit geht, geht mit der Zeit“ heisst eine viel zitierte Weisheit. Wenn ein Unternehmen die Signale am Markt zwar erkennt, sich aber derart wehement und tolpatschig gegen technische und gesellschaftliche Veränderungen zur Wehr setzt, dann sollte es eigentlich nur eine Frage der Zeit sein, bis es vom Markt verschwindet.

Google kämpft mit seinem Suchalgorithmus

Google LogoGoogle will mit einem neuen Suchalgorithmus „Google-Bomben“ verhindern. Suchergebnisse konnten bisher fingiert werden, indem ein bestimmter Suchbegriff auf vielen Webseiten identisch verlinkt wurde. Für selten gebrauchte Wörter soll dies neuerdings nicht mehr funktionieren. Ob solche künstliche Intelligenz wirklich zum erhofften Resultat führt, wage ich stark zu bezweifeln. Google greift pseudo-intelligent korrektiv in die Aufbereitung seiner Suchergebnisse ein und übt damit Zensur durch diese neue Link-Filterung aus. Dabei behauptet Google von sich: „PageRank verlässt sich auf die einzigartige demokratische Natur des World Wide Webs„. Oder eben auch nicht. Denn Google ist alles andere als demokratisch und neutral. Google’s Verhalten den Chinesischen Behörden gegenüber hat dies bereits verdeutlicht. Aber vielleicht war das ja bloss ein Ausrutscher.

Dass mit Google’s Suchalgorithmus schon länger etwas nicht stimmt, ist mir selber auch schon aufgefallen. So kommt es vor, dass ich für eine bestimmte Website einen PageRank von 4 erhalte. Suche ich nach Webseiten, die einen Link auf diese Domain enthalten, liefert mir Google keine einzige Seite und behauptet, es gäbe keine solche. Bei der Suche nach Schlüsselwörtern, von denen ich weiss, dass sie für die betreffende Domain wichtig sind und sich dahinter Links auf eine Seite dieser Domain befinden, erhalte ich tatsächlich eine ganze Menge an Webseiten, die einen Link auf die entsprechende Domain enthalten.

Google bringt Ordnung ins Web“ heisst es auf „Warum man Google benutzen sollte„. Mir fallen jedoch immer mehr Gründe auf, Google nicht zu benutzen, weil mir die Suchergebnisse stark manipuliert zu sein scheinen. Ich habe weder Lust noch Zeit, eine wissenschaftliche Studie darüber zu schreiben. Es genügt mir, was ich sehe: Bei Google wird genauso beschissen, wie auch sonst auf dieser Welt. Warum sollte Google hier eine Ausnahme sein? Übrigens gilt das nicht nur für den Suchdienst mit den hundert Nullen sondern ebenso auch für seine Konkurrenten.

Dabei stellt sich mir generell die Frage nach der Vertrauenswürdigkeit von Suchmaschinen. Schliesslich bestimmen sie darüber, wer im Web über sie gefunden wird. Nach so vielen Pressemeldungen zu Manipulation und Klickbetrug weiss ich beim besten Willen nicht mehr so recht, welche Suchmaschine ich benutzen soll. In der heutigen Zeit des Zertifizierungs-Wahns befürworte ich sehr, dass auch die Suchalgorithmen der Suchmaschinen und ihre Neutralität von einer offiziellen Stelle nach einheitlichen Standard-Kriterien zertifiziert und bewertet werden. Vielleicht würde dies mein Vertrauen in die Suchmaschinen wieder herstellen.

Traffic als Motor des Internets

Traffic gilt heutzutage als der Motor des Internets. Um diesen zu generieren, ist es wichtig und unverzichtbar, in den Suchmaschinen (allen voran Google) gut positioniert zu sein, d.h. einen möglichst hohen „Page-Rank“ zu haben und so auf den vordersten Ergebnisseiten einer Suche zu erscheinen. Die Suchmaschinen sind schon länger zu einem wirtschaftsbestimmenden Faktor im Markt geworden – mit weitreichenden Konsequenzen für viele klassische Geschäftsmodelle.

Die Besucherfrequenz ist im Detailhandel ein Indiz für den Umsatz und korreliert bei genügend grossen Zahlen ganz gut damit. Dieses Modell wird gerne auch auf das Web übertragen. Der Wert von Websites wird dem entsprechend oft auf der Basis ihrer Besucherzahlen geschätzt. So kommen Preise wie die 1.35 Mia. USD für youtube zustande, auch wenn die Website (noch) gar keine Erträge erwirtschaftet. Dass sie es jemals werden, bezweifle ich ganz stark. Ich frage mich, ob auch der Wert von Kaufhäusern auf der Basis von nichts kaufenden Besuchern gemessen werden könnte. Jedenfalls ist mir keine solche Schätzung bekannt. Wie die Konversion dieser Besucher zu zahlenden Kunden erfolgen soll, ist mir ebenso schleierhaft. Aber wahrscheinlich sollen sie gar kein Geld ausgeben sondern sich lediglich von (meist nervender) Werbung berieseln lassen. Dies soll anscheinend durch eine Plattformerweiterung zum werbefinanzierten Medium erfolgen. Ob dann Websites wie youtube und myspace für die Besucher allerdings noch attraktiv sind oder ob die Werbung eher als störender Fremdkörper die Community-Mitglieder abschreckt, wird sich sicher bald zeigen.

Dass keine Dienstleistung ganz kostenlos sein kann, leuchtet jedem grundsätzlich ein. Schliesslich verursachen sowohl der Traffic als auch der Content Kosten für Erstellung, Infrastruktur und Unterhalt, die irgendwie auf die Verursacher überwälzt werden müssen. Wenn dies nicht in Form von Gebühren möglich ist, muss es über Werbeeinnahmen geschehen, welche die werbetreibenden Anbieter wiederum auf die Preise ihrer Produkte draufschlagen. Der Konsument bezahlt für jede Dienstleistung in irgendeiner Form. Wir alle nehmen ein gewisses Mass an’Belästigung‘ durch Werbung in Kauf, solange der gebotene Gegenwert in einem akzeptablen Verhältnis dazu steht. Beim Fernsehen, dem Radio und den Printmedien haben wir uns bereits daran gewöhnt und haben gelernt, dieser Belästigung (sofern wir sie als solche empfinden) aus dem Weg zu gehen und sie so auf ein erträgliches Mass zu reduzieren. Auch im Web werden wir dies bestimmt noch lernen. Dann werden die Kosten durch Werbeeinnahmen weiterhin gedeckt, die sich mit genügend Traffic entsprechend rechtfertigen lassen. Traffic ist eben der Motor des Internets.

Escrow-Dienstleistungen bei Weblaw

Weblaw bietet nun auch Escrow-Dienstleistungen für Software an. Kunden können sicherstellen, dass der Source Code der Software, die sie von einem Anbieter einsetzen, einschliessilch der zugehörenden Dokumentation sicher aufbewahrt wird und sie im Notfall Zugriff darauf haben, auch wenn der Hersteller nicht mehr am Markt sein sollte. Dies ist unter anderem für eine Bewertung der operativen Geschäftsrisiken im Hinblick auf Basel II wichtig. Auch für den Software-Entwickler ist die Sicherstellung der Geheimhaltung des Source Codes von grossem Interesse zur Wahrung seines Geschäftsgeheimnisses. Die spezifische, auf die individuellen Bedürfnisse der Parteien zugeschnittene Ausgestaltung der Hinterlegung von Software ist sowohl technisch als auch juristisch anspruchsvoll und bedarf eines umfassenden Wissens in beiderlei Hinsicht. Die Zahl der Software Escrow Agents ist entsprechend immer noch relativ bescheiden gemessen am Marktbedürfnis. Umso erfreulicher ist es, einen weiteren kompetenten Agent am Schweizer Markt zu haben. Danke Weblaw!

Dell’s Antwort auf Windows Vista

Schon früher hatte Dell Systeme mit vorinstalliertem Linux angeboten. Nun hat der Computer-Hersteller auf Vista reagiert und bietet für Open-Source-Kunden in den USA drei Modelle der n-Series mit vorinstalliertem FreeDOS an. Die Kunden werden damit ermutigt, nicht einfach blind auf Windows zu setzen sondern alternative Betriebssysteme auf ihren Notebooks zu installieren. Schade finde ich, dass Dell (zumindest vorläufig) weder Linux-Treiber zum Download noch Support für alernative Betriebssysteme anbietet. Mein Ubuntu- und SuSE-Linux läuft auf meinem Inspiron 6000 Notebook von Dell jedenfalls ganz ordentlich. Der Markt wird langsam reif für Alternativen. Gut Ding braucht eben Weile.

Blogs und Wikis – Ein moderner Abklatsch des FidoNet

Blogs und Wikis sind heue der letzte Schrei in der Gemeinschaft von Selbstdarstellern und Exhibitionisten einer Generation, der ich eigentlich schon fast entwachsen bin. Totzdem nehme ich mit dieser Site am bunten Treiben teil, damit die demographische Verteilung auch im Internet stimmt. Als wir noch kein Internet zuhause hatten, war das FidoNet die angesagte Art und Weise der computerbasierten, vernetzten Kommunikation. Zum Internet hatten wir nur im Studium Zugang. Alles war textbasiert und umständlich zu bedienen. Das FidoNet war ein Mailbox-Netz und einfacher zu bedienen. Die hohen Telefonrechnungen für die teuren Modem-Verbindungen nahmen wir in Kauf. Bei der ersten Rechnung, die ich erhielt, nachdem ich mir für ‚günstige‘ DM 400.- ein nicht BAKOM-geprüftes Zyxel-Modem mit 16.8 kpbs zugelegt hatte, blieb mir fast die Luft weg.

Auch damals gab es schon E-Mail, File Sharing, Blog und Wiki – wir nannten es (mit Ausnahme von E-Mail) nur etwas anders. Dem Bulletin Board System (BBS) von damals entspricht heute die Domain mit Website im Internet. Auch BBSs, die ihr Geld mit kostenpflichtigen bunten Bildern von Personen im Adam- oder Eva-Kostüm verdienten, gab es damals schon. Mehrere BBSs hatten ihren Newsletter, den man abonnieren konnte. In den Echos (so nannten wir die Diskussionsforen) wurde heftig diskutiert. Spam kannten wir nicht, denn praktisch alle Teilnehmer hielten sich an die Fido-Policy. Wer dies nicht tat, wurde von der Gemeinschaft geächtet und ausgesperrt. Wir waren ein demokratisch organisiertes Peer-to-Peer-Netz, dem man sich nur über persönliche Kontakte anschliessen konnte. Die selbstgewählte Hierarchie und die soziale Kontrolle im Netz funktionierten. Mit der Einwahl über einen ISP wurde der Zugang zum Internet massiv vereinfacht und verbilligt. Mit dem Einzug des WWW verschwand das FidoNet fast schlagartig (bis auf ein paar wenige renitente Fido-ler in Osteuropa und Russland).

Heute erinnert sich kaum noch jemand an das FidoNet. Nicht, dass ich alten Zeiten nachweine. Jedes Pioniertum hat irgendwann sein Ende, wenn seine Errungenschaften zum Allgemeingut werden. Das ist auch gut und richtig so. Nur leider bleiben bei diesem Vorgang oft auch wertvolle Errungenschaften auf der Strecke und geraten in Vergessenheit. Zum Teil werden sie später neu erfunden und der Welt unter einem neuen Namen als revolutionäre Erfindung verkauft. Alter Wein in neuen Schläuchen eben. Was einem schliesslich noch bleibt, ist der Stolz, einmal ein Pionier gewesen zu sein.

Web 2.0 – Fiktion oder Wirklichkeit?

Alle reden vom Web 2.0 und keiner kann es wirklich definieren. Es scheint sich hierbei um einen Begriff für etwas nur schwer Fassbares zu handeln. Wahrscheinlich nicht ganz grundlos sehe ich da gewisse Parallelen zu den sich als Seifenblasen entpuppten Werbesprüche der ersten Hype-Welle.

Interaktivität heisst das Zauberwort von Web 2.0. Als ob das Web bisher nicht interaktiv gewesen wäre. Jede Software mit Benutzerschnittstelle ist interaktiv. Das haben Benutzerschnittstellen eben so an sich. Ich gebe etwas in ein Eingabefeld ein, klicke auf einen Knopf oder auf einen Link und die Applikation reagiert mit einer neuen Anzeige. Als ob dies revolutionär wäre, nur weil man es Web 2.0 nennt. Das gibt es doch schon, seit die Lochstreifen von Bildschirm und Tastatur abgelöst wurden – und das ist doch schon eine ganze Weile her.

Ich selber habe das in meiner Jugend gerade noch so am Rande mitbekommen. Aufgewachsen bin ich mit den ersten programmierbaren Taschenrechnern von Casio, dem Sinclair ZX-81 und dem Commodore VC-64, auf dem ich meine ersten Zeilen in Basic programmiert habe. An meinen ersten eigenen PC mit EGA-Monitor, 512 kB RAM und einer 20 MB Harddisk sowie an mein Trauma mit der ‚Stapelverarbeitungsdatei‘ (bis dahin kannte ich nur das ‚batch file‘) kann ich mich noch gut erinnern. Seither sind viele neue Technologien in der Informatik an mir vorbeigezogen und haben ihre Spuren auch in meinem Lebenslauf hinterlassen.

Nun ist das Web 2.0 dran, aber ich kann nicht behaupten, dass ich dabei etwas wirklich Neues entdecken kann. Die Marketing-Päpste werden das schon richten.

Das Stalking-Paradigma der Online-Werbung

Die aktuellen Formen der Online-Werbung nerven nicht nur mich sondern auch alle meine Freunde und Bekannten. Praktisch alle basieren sie auf einer Push-Strategie, die aggressiv in meine Privatsphäre vordringt. Und dies in einem Pull-Medium, das vor allem von der Selbstbestimmung seiner Nutzer geprägt wird. Sie nennen das „Behavioral Targeting“. Ich nenne es das Stalking-Paradigma und nerve mich weiter. Nicht umsonst ist Stalking in anderen Ländern eine Straftat, die von Amtes wegen verfolgt wird.