Offene Geheimnisse

Aus der Open-Source-Geschichte lernen, Teil I

Wissen | Hintergrund

Die Softwarebranche als Laboratorium der Zukunft: Die Open-Source-Praxis entwickelt historisch neue Organisations- und Rechtsformen und damit Modelle für eine Überwindung der industriellen Ordnung.

Aus der Open-Source-Geschichte lernen (Teil 1): von der Selbstermächtigung der Anwender in den 60er Jahren zur entorteten Echtzeit-Produktion der 80er Jahre

Mehrere Jahrzehnte, nachdem sie begann, geriet die globale Vernetzung Mitte der neunziger Jahre plötzlich ins öffentliche Bewusstsein - als reine Geschäftsgelegenheit. Der raketengleiche Aufstieg der dot.coms, für den Netscapes Börsenerfolg im August 1995 den Startschuss gab, und die nicht minder spektakulären Bruchlandungen fünf, sechs Jahre später verdecken im breiten Bewusstsein eine simple Wahrheit: dass die Konstruktion des globalen Datenraums wahrlich nicht das Werk geschickter Geschäftsleute war. Nicht nur der PC musste geradezu gegen den Widerstand der Konzerne durchgesetzt werden. Auch das Software-Fundament des Internet legten keineswegs kommerzielle Entwickler, sondern technisch begeisterte Männer (und wenige Frauen) - Programmierer und Techniker, Professoren und Studenten -, die sich das Ergebnis ihrer Brillanz nicht im Interesse individuellen Profits patentieren ließen.

Über Jahrzehnte hinweg stellten sie die Ergebnisse ihrer Arbeit gratis und samt Quellcode zur Verfügung. Mit dieser Form der Veröffentlichung ihrer Programme sorgten sie dafür, dass ihre Werke für andere nicht nur benutzbar, sondern les- und veränderbar waren. Im offenen, durch kein Copyright behinderten Austausch der Experten konnte so die Software perfektioniert werden. Diese Zehntausende von digitalen Handwerkern und Bastlern, denen es primär nicht um Tausch-, sondern Gebrauchswert ging, schreibt Jon Katz, Slashdots einflussreicher Medienkritiker, waren ‘die wahren Architekten der neuen Ökonomie’. Auf ihren kollektiven, dem Gemeinbesitz überantworteten Kreationen beruhen bis heute die wichtigsten Programme, die das Internet am Laufen halten, unter anderem Sendmail, Bind, Apache, Perl, Python. Die Bedeutung von Offenheit demonstriert das Internet zudem über reine Software hinaus. TCP/IP, das offene Basisprotokoll des Netzes, hat mittlerweile proprietäre Protokolle wie IPX oder NetBEUI fast völlig verdrängt. Nahezu alle Standards und Protokolle liegen als RFCs (Requests For Comment) vor und verdanken ihre Existenz öffentlichen Diskussionen.

Auch das heute zentrale HTTP entwickelte Tim Berners-Lee in einem offenen Prozess, zu dem viele beitrugen. Nicht mit allen Namen und Kürzeln wird jeder auf Anhieb deren exakte Funktion und vor allem deren genaue Entstehungsgeschichte verbinden können. Die Details sind freilich in diesem Zusammenhang nicht entscheidend [1]. Es reicht, sich ihre grundsätzliche Bedeutung zu vergegenwärtigen, etwa in einem Bild analoger Technik: Benutzte der Datenverkehr die Eisenbahn, so erfüllten Weichen, Stellwerke, Signale und Fahrpläne ähnliche Funktionen.

Gar nichts also ginge ohne diese Software, deren Quellcode eben kein Geschäftsgeheimnis ist - weshalb sich Ende der neunziger Jahre für sie der Begriff Open Source einbürgerte. Das Programm Sendmail etwa läuft auf 80 Prozent aller Mailserver, kaum eine elektronische Post, die auf ihrem verschlungenen Weg vom Sender zum Empfänger nicht mit diesem Gratis-Code in Berührung käme. Ebenso abhängig sind Surfen im WWW und E-Commerce von freier Software: Im August dieses Jahres waren 60,5 Prozent aller Webserver freie Apaches, während Microsofts Closed-Source-Angebot Internet Information Server (IIS) mit 27,9 Prozent abgeschlagen auf Platz zwei dümpelte.

Mehr noch bedroht Linux den Redmonder Softwarekonzern: Binnen eines Jahrzehnts stieg, was mit 10 000 Programmzeilen eines Studenten begonnen hatte, zu einem Kollektivschatz von über 100 Millionen Codezeilen auf - allein der Betriebssystemkern umfasst 3,5 Millionen Zeilen. Nach den üblichen Tarifen der Branche stellen sie einen Investitionswert von mehreren Milliarden Dollar dar. Eine zweistellige Millionenzahl von Nutzern hat zudem Linux weltweit zum zweitbeliebtesten Server-Betriebssystem werden lassen.

Beinahe-Monopolist Microsoft hat die Open-Source-Bewegung denn auch als Gefahr erkannt. Unablässige Abwehrversuche zeugen davon: Die berüchtigten ‘Halloween Papers’, die 1998 an die Öffentlichkeit gerieten, ebenso wie CEO Steve Ballmers Reden, in denen er Linux im Januar als ‘Bedrohung Nr. 1’ und im Juni als ‘Krebsgeschwür’ charakterisierte, oder die Angriffe von Senior Vice President Craig Mundie, der Anfang Mai die Open-Source-Praxis für ‘ungesund’ und zum ‘Sicherheitsrisiko’ erklärte. Vor allem Ratlosigkeit spricht aus den Attacken: Nicht nur ist die ungeplante, in globaler Kooperation hergestellte Software derjenigen qualitativ überlegen, die in den üblichen bürokratisch-hierarchischen Verfahren gelingt. Obendrein versagen die üblichen Methoden der Konkurrenzabwehr, mit denen Konzerne wie Microsoft über die Jahrzehnte so erfolgreich waren. Denn der neue Gegner ist zugleich allgegenwärtig und unfassbar; was unter anderem heißt: nicht firmenweise aufkaufbar.

Open-Source-Software bedeutet so eindeutig mehr als eine Konkurrenz unter anderen. Sie ist Teil eines Trends, einer historischen Bewegung. Von digitaler Technik ermächtigt, operieren die Open-Source-Projekte nach gänzlich neuen Gesetzen. Indem sie erstmals aus den digitalen Technologien angemessene Konsequenzen für die Arbeitsorganisation ziehen, stellen sie nichts weniger als die etablierte Ordnung industrieller Produktion in Frage. Zu den Wettbewerbsvorteilen, die ihre neue Praxis dem Bruch mit den Traditionen verdankt, zählen beschleunigtes Entwicklungstempo, gesteigerte Flexibilität in der Produktion sowie überlegene Qualitätskontrolle. Sie vor allem sorgt für hohe Stabilität der Produkte wie für deren Angepasstheit an spezifische Nutzerbedürfnisse.

Der Erfolg der Open-Source-Bewegung beruht daher keinesfalls nur darauf, dass die in ihrem Kontext hergestellte Software am Ende gratis oder zumindest vergleichsweise billig abgegeben wird. Von weitreichenderer Bedeutung als dieser eher beiläufige Umstand sind strukturelle Innovationen. Sie betreffen zwei grundsätzliche Bereiche der industriellen Ordnung: die Arbeitsorganisation und die Regelung geistigen Eigentums.

Zum einen weist die Open-Source-Praxis mit den Prinzipien freiwilliger Assoziation und Selbstorganisation, wie selbst Forbes erkannte, ‘einen alternativen Weg, bessere Software zu produzieren’. Das ist nicht wenig, da die Softwareindustrie inzwischen weltweit fast anderthalb Millionen Menschen beschäftigt und über 175 Milliarden Dollar Umsatz erzielt. Doch die Bedeutung der Neuerungen geht über den Bereich der Softwareherstellung hinaus. Seit der Industrialisierung pflegen von Innovationsdruck getriebene Schlüsselbranchen Verfahren zu entwickeln, die später das gesamte Wirtschaftsleben beeinflussen. Richtungsweisende Beispiele dafür waren etwa zu Anfang des 20. Jahrhunderts die Taylorisierung bis hin zur Einführung des Fließbands, die von der Autoindustrie ausging, oder aber ab der Jahrhundertmitte die generelle Übernahme industrieller Technologien und Arbeitsprinzipien in die Agrarwirtschaft.

Was zu industriellen Zeiten fortschrittlich war und auf nahezu alle Bereiche der Produktion, selbst auf Verwaltung, Schulen und Universitäten abfärbte - hierarchisch-zentralistische Kontroll- und Kommandostrukturen, die auf inhaltliche wie zeitliche Fremdbestimmung von jedermanns Handeln zielen -, bremst heute freilich die gesteigerten produktiven und kreativen Möglichkeiten digitaler Technologien. Eine ähnliche Pionierrolle, wie sie einst die Autoindustrie in der Überwindung handwerklicher und agrarischer Organisationsformen der Arbeit erfüllte, fällt daher nun der Hard- und Software-Branche zu. Die Geltung ihrer Organisations- und Eigentumsmodelle, schreiben etwa Don Tapscott und David Ticoll, Autoren von ‘Digital Capital: Harnessing the Power of Business Webs’, ‘ist keineswegs auf die Einsen und Nullen von Software beschränkt. Mit der Durchsetzung des Internet können geschickte Firmen aus vielen Aspekten der Open-Source-Philosophie Gewinn ziehen, um sich Wettbewerbsvorteile in der Entwicklung auch von handfesten Produkten wie einem neuen Auto zu verschaffen.’

Der zweite Bereich struktureller Innovation betrifft die Neuregelung geistigen Eigentums unter Bedingungen kollektiver Produktion und vernetzter Distribution. Das geltende Urheber- und Patentrecht, dessen Prinzipien der Frühzeit der Industrialisierung verpflichtet sind, kollidiert praktisch wie ethisch mit dem Potenzial digitaler Technologien. An den Modifikationen der veralteten juristischen Rahmenbedingungen, über die gegenwärtig weltweit gestritten wird, hängen wesentlich das Tempo und auch die Richtung der weiteren digitalen Modernisierung. In keinem anderen Bereich immaterieller Produktion ist die Suche nach alternativen Eigentums- und Rechtsformen so weit fortgeschritten wie in der Open-Source-Praxis. Besonders wegweisend sind ihre Ansätze für die Besitzregelung im Falle kollektiver Arbeiten, deren einzelne Bestandteile separat nicht verwertbar sind und die unter den gegenwärtig üblichen Bedingungen von Einzelnen - juristischen oder natürlichen Personen - als geistiges Kapital vereinnahmt und damit sowohl ihren eigentlichen Schöpfern wie der Öffentlichkeit entzogen werden.

Die Open-Source-Bewegung operiert so an der vordersten Front der Digitalisierung. Das bringt sie zwangsläufig in Widerspruch, wie Steven Johnson bereits 1998 in Feed schrieb, ‘zu politischen Werten, die in einem entschieden anderen Kontext entstanden, als Ressourcen knapp waren und Informationen nur langsam übermittelt werden konnten. Über die Open-Source-Politik in Kategorien der traditionellen politischen Taxonomie zu sprechen ist, als benutze man die Anatomie von Säugetieren, um den Atemapparat von Fischen zu erklären: Es gibt gewisse Gemeinsamkeiten, aber die zugrunde liegende Struktur ist so unterschiedlich, dass es besser ist, man definiert alle Begriffe von Grund auf neu.’

Nachvollziehbar, wenn auch umso bedauerlicher sind daher die immer noch begrenzte Aufmerksamkeit und vor allem das geringe Verständnis, das diese neue Praxis unter Computernutzern, in der Geschäftswelt und erst recht in der breiten Öffentlichkeit findet. Denn die Open-Source-Verfahren stellen in der Tat die industrielle Ordnung der Dinge in Frage. Sie betreiben die Aufhebung dessen, was der Soziologe Manuel Castells Industrialismus nennt, und laufen auf eine Außerkraftsetzung des Überholten wie zugleich die Bewahrung zukunftsträchtiger Traditionen auf einem entwickelteren, zeitgemäßeren Niveau hinaus.

In den sich dabei ausbildenden innovativen Organisationsstrukturen, Managementverfahren und Eigentumsregelungen erscheinen die Konturen einer neuen, digitalen Ordnung. Die Open-Source-Praxis erprobt Arbeits-, Verkehrs- und auch Rechtsformen, die erhebliche Produktivitäts- und Wettbewerbsvorteile bieten und eher früher als später andere Branchen erfassen dürften. Von dem Vorbild der Open-Source-Bewegung lässt sich insofern einiges für die Zukunft lernen. Voraussetzung freilich für eine gelungene Übertragung auf beziehungsweise Adaptation an die spezifischen Erfordernisse anderer Bereiche ist ein besseres Verständnis des historischen Weges, der in den vergangenen vier Jahrzehnten die Open-Source-Bewegung von den Rändern der Gesellschaft in ihr Zentrum führte.

Bis vor kurzem war die Geschichte der Bewegung ungeschrieben und allein innerhalb der Free-Software-Zirkel selbst als individuelles Erfahrungswissen ihrer Veteranen gespeichert. In den zurückliegenden Monaten jedoch erschienen nun, ermuntert durch die steigende Popularität und den noch schneller wachsenden wirtschaftlichen Erfolg von Linux, eine Flut von Publikationen, deren Spektrum von wissenschaftlichen Studien über journalistische Zeitgeschichte und Manifeste bis zu Autobiographien von Schlüsselfiguren reicht [2].

Bei allen Schwächen - mancher Veröffentlichung merkt man die Hast an, mit der sie auf den gerade günstigen Markt geworfen wurde - bieten diese jüngsten Untersuchungen erstmals einen kompletten Überblick über die Entstehungsgeschichte, die Motive von Schlüsselfiguren und den Zusammenhang zwischen technologischem Entwicklungsstand und sozialer Dynamik. Als Gesamtbild ersteht aus ihnen die Ansicht von der Open-Source-Bewegung als einem Laboratorium der digitalen Zukunft. Im Hinblick auf eine solche avantgardistische Allgemeingültigkeit der bisherigen Open-Source-Praxis ragen sechs grundsätzliche Innovationen heraus.

Einem Bedürfnis vor allem verdankt die Bewegung ihre Entstehung: dem Interesse einzelner Anwender - Techniker wie Endverbraucher -, begrenzende Fremdbestimmung und bestehende Angebotsmängel zu überwinden. Gestrebt wird nach weitgehender Souveränität im Umgang mit Produkten, die professionell oder privat wichtig sind. Welche Art freier Software in der Vergangenheit entstand, hing insofern stets vom Stand der Technik ab und von den zeitgenössischen Varianten unzulänglicher oder unerschwinglicher kommerzieller Produkte oder auch behindernder institutioneller Arrangements. Sie zu überwinden, bildeten sich die wechselnden losen Assoziationen.

Die Anfänge der Produktion freier Software gehen auf die Zeit der Mainframes zurück. Damals litten Ingenieure, Programmierer und erste Studenten des neuen Fachs Informatik unter der Unfähigkeit zur interaktiven Nutzung der wenigen teuren Computer. Rechenzeit war kostbar, und das übliche Verfahren, optimalen Einsatz zu gewährleisten, bestand im batch processing durch Mittelsmänner. Gegen diese behindernde Form des indirekten und zeitversetzten Umgangs taten sich an US-Universitäten unzufriedene Nutzer zusammen, um terminalzentrierte Time-Sharing-Verfahren zu entwickeln. Sie ermöglichten zum ersten Mal Normalsterblichen den direkten Kontakt mit Computern. Die Erfahrungen, die damals von einer ganzen Generation von frühen Anwendern gewonnen wurden - mit einfacheren Programmiersprachen wie mit ersten Computerspielen -, markieren den Anfang populärer Computerkultur. Diese von Nutzern entwickelte Software legte die technische wie soziale Basis für die Entwicklung des PCs in den siebziger Jahren und damit für die digitalen Gründerjahre.

Bereits in dieser Frühphase, ein Vierteljahrhundert, bevor der Begriff Open Source überhaupt geprägt war, schälte sich so die vielleicht wichtigste Lehre der Bewegung heraus: Nichts beschleunigt technischen und dann auch ökonomischen Erfolg so sehr wie die Einbeziehung derjenigen, die mit den jeweiligen Produkten arbeiten und leben müssen. Umgekehrt jedoch behindern verhärtete Gleichgültigkeit von Großinstitutionen und kurzsichtiger Eigennutz von Firmen einen Fortschritt, der gerade diesen Institutionen und Firmen beachtlichen Nutzen bringt, wenn er nur von engagierten Nutzern erst einmal durchgesetzt worden ist.

Die Selbstermächtigung der Anwender in der Open-Source-Bewegung lässt heute erkennen, was die industrielle Praxis und die von ihr geprägte Mentalität lange verbargen. ‘Die normale Forschungsliteratur konzentriert sich auf die Entwicklung von Innovationen als etwas, was allein Hersteller betreiben’, sagt Eric von Hippel, Ökonom an der Sloan School of Management des MIT und Autor von ‘Sources of Innovation’. Von Hippels Forschungen ergaben, dass Verbraucher und Anwender schon immer für einen wesentlichen Teil aller Neuerungen verantwortlich waren: ‘Nutzer entwickelten viele, wenn nicht die meisten der wichtigen Innovationen, etwa auf dem Feld der Halbleiterherstellung, bei wissenschaftlichen Instrumenten und auch im Bereich der Konsumgüter, von Kuchen und Keksen über Kleidungsstücke bis zu Sportartikeln.’ Jüngste Beispiele sind Müsliriegel oder Skateboards.

Unter analogen Verhältnissen freilich bestand - wollten Verbraucher ihre eigenen Interessen durchsetzen - nur die Wahl zwischen zwei Extremen. Einzelne konnten in individueller Heimarbeit ein bestehendes Produkt verbessern oder neu konstruieren. Oder sie konnten versuchen, gegen den institutionellen Widerstand beziehungsweise die Gleichgültigkeit der Produzenten indirekten Einfluss zu nehmen, etwa durch das Einreichen von Verbesserungsvorschlägen oder durch Teilnahme an Marktuntersuchungen. Solches Kundenfeedback mochte zu partiellen Re-Designs führen. Erst aber mit dem Aufkommen digitaler Kommunikationstechnologien gewann die Einbeziehung von Anwendern eine funktionale Qualität. Plötzlich konnten sie zu gleichberechtigten Mitentwicklern an professionellen Projekten jeder Größenordnung avancieren - in Echtzeit und unabhängig von geografischen Begrenzungen.

Die erste Phase freier Softwareentwicklung endete daher mit den sechziger Jahren. Damals kulminierten Entwicklungen in drei parallelen Strängen der Digitalisierung, wobei in allen Fällen nicht Institutionen und Konzerne, sondern die Initiativen einzelner Anwender die entscheidende Triebkraft waren. Zum einen mündete der jahrelange Trend zum vernetzten Echtzeitrechnen in die ersten Knoten des Arpanet. Aus ihm entstand ein Jahrzehnt später dank des offenen TCP/IP-Protokolls das Internet und damit das wichtigste Produktionsmittel für freie Software. Das Bedürfnis nach individueller Verfügung über Computer ließ weiterhin Bastler die für Taschenrechner 1969 entwickelten Mikroprozessoren zweckentfremden. Diese Hardware-Hacks begründeten die PC-Industrie, deren Siegeszug Anfang der achtziger Jahre dann die erste Organisation der Bewegung erzeugen sollte.

Zum dritten nahm sich - wiederum 1969 - der Programmierer Ken Thompson eines Projekts an, das Bell Labs, MIT und General Electric nach hohen Investitionen schlicht aufgegeben hatten: Aus dem Mehrplatzbetriebssystem Multix entwickelte er zusammen mit Dennis Ritchie, der zur gleichen Zeit die Programmiersprache C schuf, ein Einplatzsystem. Folgerichtig wurde es Unix getauft. Es sollte für die nächsten dreißig Jahre die avancierte Software-Entwicklung für Mikrocomputer, PC und Internet prägen. 1975 wurde die erste Unix-Version auf einem Magnetband vertrieben - ohne jede institutionelle Unterstützung, ohne Marketing, ohne Helpline. Doch binnen 15 Jahren hatte das Programm all die Mikrocomputer-Betriebssysteme verdrängt, die zuvor den Markt unter sich aufteilten - wobei der Erfolg allerdings bald proprieäre Unix-Versionen auf den Markt kommen ließ.

Bereits Unix’ Version 7 sowie Xenix, die erste Portierung von Unix auf einen Intel-Prozessor, verschlossen 1979 den Quellcode selbst für akademische Zwecke. Dass eine der beiden kleinen Firmen, die mit AT&T-Lizenz Xenix gemeinsam produzierten, ein weitgehend unbekannter Krauter namens Microsoft war, der erst zwei Jahre später mit dem ebenfalls nicht von ihm erfundenen MS-DOS größeren Erfolg haben sollte, lässt diese plötzliche Wendung von Unix zum argwöhnisch bewachten Closed-Source-Betriebssystem verständlicher erscheinen.

Unix gab so vor allem in den Jahren zwischen 1969 und 1979, die auch den PC hervorbrachten, ein frühes und ungemein erfolgreiches Beispiel für die Effektivität freier Software - ein Beispiel, das im Übrigen bis heute nachwirkt. In der von dem Studenten Bill Joy 1977 in Berkeley entwickelten Variante stellte Unix 1982 die Software-Grundlage der heutigen Milliardenfirma SUN. Die Leistungsfähigkeit von Unix inspirierte ebenso das von Richard Stallman 1984 begründete freie GNU-Projekt, mit dem ein freies, Unix-artiges Betriebssystem geschaffen werden sollte (GNU ist ein rekursives Akronym für ‘GNU’s Not Unix’).

Die vorhandenen Elemente der GNU-Variante wiederum halfen 1991 Linus Torvalds, den Linux-Kernel zu programmieren und zu kompilieren. Die GNU-Bewegung inspirierte Torvalds ebenfalls, seinen Kernel als freie Software unter die GPL (General Public License) zu stellen. Darüber hinaus schuf das GNU-Projekt die Systemtools und Anwendungen, die Linux erst zu einem benutzbaren Betriebssystem machen - weshalb viele bis heute statt der einfachen Bezeichnung Linux den Terminus GNU/Linux bevorzugen. Und Unix selbst, in der Berkeley-Variante, liegt schließlich noch dem neuen Apple-Betriebssystems Mac OS X zugrunde, dessen X zugleich die Version 10 wie den Unix-Ursprung indiziert.

In den siebziger Jahren machte der Erfolg von Unix - wie später der vieler anderer offener Protokolle und Standards - einen weiteren zentralen Unterschied zwischen freier und proprietärer Software deutlich: Solange Firmen und Institutionen eifersüchtig den Entwicklungsgang bestimmen, pflegen hinderliche Inkompatibilitäten zu wuchern. Man erinnere sich nur daran, dass es lange Zeit so gut wie unmöglich war, Daten zwischen den Computern verschiedener Hersteller auszutauschen - nicht einmal reine Textdokumente. Bereits Ende der fünfziger Jahre war daher der American Standard Code for Information Interchange (ASCII) entwickelt worden, der eine solche minimale Interoperabilität gewährleisten sollte. Doch es dauerte fast eine Dekade, bis er akzeptiert, und weitere fünfzehn Jahre, bis er allen Ernstes implementiert wurde und auch nur die nötigsten Sonderzeichen umfasste. Mit einer gewissen Zwangsläufigkeit behindern proprietäre Programme und die mit ihnen verbundene Geheimniskrämerei die Ausbildung von offenen Standards und damit eine optimale Nutzung.

In der Entwicklung freier Software hingegen setzen sie sich zügiger, weil naturwüchsig durch. Dafür gibt es subjektive wie objektive Gründe. Aus der Wirtschaftstheorie ist bekannt, dass Marktmechanismen weit über Ab- und Einsichten von Individuen wie einzelnen Gruppen hinaus geordnete Systeme zu initiieren vermögen - weshalb am Ende nahezu aller Entwicklungszyklen Standards stehen. Im Falle der Closed-Source-Verhältnisse beschränkt sich die Wirksamkeit solcher Selektionsmechanismen weitgehend auf komplette Produkte. Open-Source-Strukturen hingegen dehnen die Wirkung der Marktmechanismen bereits auf den Entwicklungsprozess aus, wodurch der Standardisierungsdruck eskaliert. Anwender nämlich sind, egal, wie viel sie für eine Ware bezahlt haben, primär an deren Gebrauchswert interessiert. Daher opponieren sie allem, was eine effektive Nutzung beschränkt - vor allem Inkompatibilitäten mit anderen Hard- und Softwareprodukten, die sie oder Menschen in ihrem Umfeld bereits einsetzen.

Der Ausdehnung von Marktmechanismen auf den Entwicklungsprozess verdankt sich die notorische, den gesunden Menschenverstand verblüffende Einheitlichkeit und historische Kontinuität der Open-Source-Projekte. Man sollte erwarten - und selbst die meisten Entwickler in der freien Softwarebewegung taten das auch anfänglich -, dass die ungeplante und weitgehend unkontrollierte Arbeit von Hunderten oder Tausenden von Personen, die über den Erdball verteilt leben und sich kaum je kennen, zur inhaltlichen Zersplitterung, auch zur Kurzlebigkeit von Projekten und damit zu einem höheren Maß an divergierenden Entwicklungen und Inkompatibilitäten führt. All dies geschah zwar auch in der Geschichte freier Software. Die drei freien BSD-Varianten FreeBSD, NetBSD und OpenBSD etwa zeugen von der immer möglichen Zersplitterung. Und natürlich kamen auch viele Open-Source-Projekte - nicht anders als in der Closed-Source-Welt - kaum über ihre Anfänge hinaus und gingen sang- und klanglos unter. Doch diesen durchaus zahlreichen, wenn auch schnell vergessenen Ausnahmen steht die beachtliche Stabilität der großen Projekte gegenüber.

Sie resultiert aus der spezifischen Struktur des Open-Source-Prozesses. In ihm nämlich konkurrieren alle Projekte um eine begrenzte Zahl von talentierten Entwicklern. In der Konsequenz führt das zu einer beschleunigten Selektion: Unattraktive Projekte verlieren recht schnell ihre besten Mitarbeiter zu Gunsten populärerer Projekte, die sich dadurch zügig stabilisieren. Und selbst in den Fällen, wo zwei oder gar mehr konkurrierende Ansätze überleben, ist unbeabsichtigte Inkompatibilität allein aufgrund des offenen Quellcodes so gut wie ausgeschlossen. Einerseits also kann Unverträglichkeit kaum zufällig entstehen, andererseits macht im Gegensatz zur Closed-Source-Welt auch ihre gezielte Produktion wenig Sinn, da sich mit mangelnder Kompatibilität bei gleichzeitig offenem Quellcode keinerlei Konkurrenzvorteile, vielmehr sogar Nachteile im Hinblick auf die Akzeptanz verbinden.

Aus diesen strukturellen Gründen neigt kollektives Design im historischen Verlauf statt zur Kurzlebigkeit zu Kontinuität und statt zu Diversifikation zur Standardisierung. Daraus ergibt sich der Gesamteindruck des Gegensatzes zum hierarchisch verwalteten Closed-Source-Bereich. Dessen primärer Anreiz zur Mitarbeit besteht in der finanziellen Entlohnung, und dementsprechend bestimmt Fluktuation das Bild: Programmierer finden besser bezahlte Stellungen und verlassen ein Projekt, zahlreiche Firmen verschwinden durch Übernahme oder Schließung vom Markt, die meisten Produkte haben eine kurze Halbwertzeit. In den diversen Open-Source-Nischen, deren Mitglieder um den besten Code wetteifern, herrscht dagegen relative Dauerhaftigkeit der wichtigsten Projekte, personelle Konstanz ihrer Entwickler sowie eine langfristige Kompatibilität der Produkte vor.

Das älteste, bis in die digitale Vorzeit der sechziger Jahre zurückreichende Beispiel gibt dafür die dreißigjährige Geschichte der Unix-Familie in ihrer charakteristischen Mischung aus Generationen-Zersplitterung zwischen proprietären und offenen Varianten bei grundsätzlicher familiärer Kontinuität. Wirklich bedeutend für die Entwicklung freier Software und die damit verbundene Ausbildung von Standards war Unix zwar allein in seinem ersten Jahrzehnt, den siebziger Jahren. Doch sein freies Erbe wirkt fort, nicht zuletzt in der - wesentlich auf Unix basierenden - Infrastruktur des Internet mit seinen offenen Protokollen wie TCP/IP, SMTP oder HTTP.

Die sukzessive Eröffnung des Datenraums seit den siebziger Jahren mit der Möglichkeit zum Transfer von Daten, mit E-Mail und Usenet-Foren versetzte dem keimenden Trend zur freien Softwareentwicklung zunächst einen qualitativen, später auch einen quantitativen Schub. Das Internet verband die geografisch verstreuten und voneinander isolierten Widerstandsnester, die sich an Institutionen wie Bell Labs, MIT oder der University of California in Berkeley gebildet hatten. Rund um die Produktion freier Software formte sich eine erst nationale und seit den achtziger Jahren internationale Gemeinschaft. Angesichts der damals recht rudimentären Gestalt globaler Vernetzung stand im Vordergrund der Bemühungen zunächst der nutzergerechte Ausbau des Datenraums selbst.

Freie Software entwickelte wesentlich die Infrastruktur des Internet. Eric Allman von der University of California in Berkeley schrieb 1981 Sendmail für Unix, um den Austausch elektronischer Post zwischen dem Universitätsnetz, dem er angeschlossen war, und dem weitläufigeren Arpanet zu ermöglichen. Ebenfalls Anfang der achtziger Jahre entstand BIND - Berkeley Internet Name Domain -, das Protokoll, das bis heute die Eingabe simpler Namen statt jener Zahlenkolonnen erlaubt, aus denen die Netzadressen realiter bestehen. Weitere Beispiele für den Erfolg freier Software im Umfeld des Internet geben Perl (Practical Extraction Report Language), Python oder PHP. Perl, 1987 von dem Linguisten und damaligen Staatsangestellten Larry Wall entwickelt und zur freien Nutzung im Usenet veröffentlicht, war Anfang der neunziger Jahre die Standardsprache zum Entwickeln dynamischer Webinhalte, ohne die E-Commerce kaum denkbar gewesen wäre. Mittlerweile haben zwei andere freie Software-Entwicklungen diese Funktion weitgehend übernommen: Python, Anfang der neunziger Jahre von Guido van Rossum entwickelt, und PHP (ursprünglich Personal Home Page, heute verstanden als Abkürzung für PHP Hypertext Preprocessor), entstanden Mitte der neunziger Jahre im Kontext von David J. Hughes’ mSQL, einer ursprünglich freien relationalen Unix-Datenbank.

Das Internet spielte auch eine wesentliche Rolle für die Anfänge von Linux: Linus Torvalds, 1991 Student an der Universität von Helsinki, nutzte auf seinem Heimcomputer 386-Minix, eine experimentelle Version des auf Unix basierenden Minix-Lehrbetriebssystems. Um von seinem PC aus Usenet-Nachrichten oder E-Mail auf dem Universitätsserver lesen zu können, schrieb Torvalds eine eigene Terminalemulation. Um wiederum die zu nutzen, bedurfte es eines Neustarts, nach dem die üblichen Minix-Features nicht mehr zugänglich waren. Aus Torvalds Anstrengungen, das eigene Programm mit den Features zu verbinden, die Minix bot, entstand am Ende Linux. Glyn Moody betont in seinem Buch die historische Ironie: Weil Torvalds nicht ins Internet konnte, entwarf er ein Betriebssystem - das dann nur dank Internet überhaupt reifen konnte. In dieser engen historischen Verknüpfung zeigt sich entortete Echtzeitkommunikation als conditio sine qua non der Open-Source-Praxis. Ihre Konsequenzen sind technischer wie sozialer Art.

Zunächst einmal beschleunigte die Vernetzung die wissenschaftliche Basistechnik des ‘peer review’, bei dem Fachleute die Arbeiten von Kollegen begutachten. Kein anderes Verfahren hat über die Jahrhunderte hinweg die Produktion von Wissen so nachhaltig geprägt. Der ‘organisierte Skeptizismus’, wie Robert Merton in der Renaissance den aus der Antike überkommenen kritischen Dialog der Gebildeten nannte, garantiert die Qualität auf dem Markt des Wissens. Im 19. und 20. Jahrhundert, als die Verwissenschaftlichung von Wirtschaft und Alltag fortschritt, gewann die Expertenkritik an Bedeutung. Hinderlich war freilich im alltäglichen Zusammenhang der mit peer reviews verbundene Verlust an Zeit, da sie, wenn nicht teure Parallelgutachten in Auftrag gegeben werden konnten, vorrangig an die Publikation in Büchern und Zeitschriften gebunden waren. Und noch stärker wurde außerhalb des wissenschaftlichen Diskurses die Wirksamkeit von Expertenkritik durch die kommerzielle Praxis eingeschränkt, Firmenwissen nicht mit Außenstehenden zu teilen. Ohne freien Informationsfluss, ohne die Kommunität der Erkenntnisse, wie sie in der Wissenschaft üblich ist, konnten peer reviews nicht wirklich produktiv werden.

Beide Einschränkungen überwindet die Open-Source-Praxis. Dabei steigert sie zudem die Leistungsfähigkeit der tradierten Wissenstechnik. Wenn die Begutachtung von Verfahren und inhaltlichen Vorschlägen ohne Zeitverlust erfolgt, wandelt sich der Charakter von peer reviews so radikal, wie sich etwa transkontinentale Kommunikation verändert, wenn sie statt Briefen, die Wochen mit der Schiffspost unterwegs sind, Telefon oder Chat nutzt. Die Echtzeitbedingungen der Open-Source-Praxis schufen so ein interaktives dialogisches Produktionsmittel für geografisch zerstreute Gruppen. Ihr wichtigstes Kennzeichen ist, schreibt Eric Raymond, was Soziologen den ‘Delphi-Effekt’ nennen: den Umstand, dass die Zuverlässigkeit von Expertenentscheidungen mit der Zahl der Beteiligten steigt.

Die technologische Aufwertung des peer reviews durch die digitale Vernetzung ergänzt die Ausbildung virtueller Gemeinschaften. Erst der exponentielle Zuwachs an Internetnutzern in den achtziger und vor allem neunziger Jahren brachte dafür die kritische Menschenmasse. Seitdem sind Zusammenschlüsse zu nahezu jedem denkbaren Interesse lebensfähig - und in ihnen kollaborative Produktionen praktikabel. Dank des globalen Talentpools lassen sich qualitativ hochwertige Ergebnisse erzielen und zugleich der Einsatz an Arbeitskraft in der wichtigen, aus den ‘scientific communities’ vertrauten Währung der ‘peer recognition’ belohnen. Programmierer und Techniker, wo sie leben und für welche Firmen sie arbeiten mögen, lösen so in Open-Source-Projekten nicht nur ihre dringendsten technischen Probleme beziehungsweise die ihrer Arbeitgeber. Sie finden auch soziale Anerkennung durch Gleichgesinnte und Gleichqualifizierte, die ihre Leistungen angemessen zu würdigen verstehen.

Die gänzliche Abhängigkeit der Open-Source-Praxis vom Einsatz digitaler Technik bindet ihre Fortschritte an deren Weiterentwicklung. Die Jahre um 1969/70 schufen insofern mit der Einführung des Mikroprozessors, der Etablierung der ersten nationalen Netzwerkknoten des Arpanet und der Geburt von Unix die Voraussetzungen für die in der Folge eskalierende Selbstermächtigung der Anwender, für die Etablierung von offenen Software-Standards und vor allem für die Ausbildung einer historisch gänzlichen neuen, potenziell globalen Produktionsgemeinschaft der Gleichen.

Der nächste qualitative Entwicklungssprung kündigte sich ab Anfang der achtziger Jahre an - im Gefolge der massenhaften Durchsetzung des PC und der zunehmenden Internationalisierung sowie Privatisierung des bis dahin primär amerikanisch-staatlichen Internet. Fortschritte in der Mikroprozessorherstellung, die Multimedia-PCs in einer Leistungsklasse erschwinglich machten, die bis dahin teuren Mikrocomputern vorbehalten gewesen war, sowie die Eröffnung des World Wide Web schufen dann die Voraussetzungen für den digitalen Boom der 90er Jahre. Diese Mischung aus technologischen Durchbrüchen und sozialer Durchsetzung der neuen Techniken war es, die den Weg für die Produktion und Akzeptanz von freier Software auf breiterer Basis ebnete. (odi)

Im zweiten Teil:

Copyleft: Richard Stallman und die digitale Neuordnung geistigen Eigentums - Linux: Linus Torvalds und die digitale Neuorganisation der Arbeit - Open Source: Eric Raymond und die Öffnung der Bewegung zum mainstream

[1] Wer sich informieren will, findet online zahlreiche Computerlexika, etwa www.techweb.com/encyclopedia/.

[2] In der Reihenfolge ihres Erscheinens:

Chris DiBona (Hrsg.), Open Sources: Voices From the Open Source Revolution (1999)

Peter Wayner, Free for All: How LINUX and the Free Software Movement Undercut the High-Tech Titans (Juli 2000)

Russell Pavlicek und Robin Miller, Embracing Insanity: Open Source Software Development (September 2000)

Pekka Himanen, Hacker Ethic (Januar 2001)

Glyn Moody, Rebel Code: Linux and the Open Source Revolution (Januar 2001)

Eric Raymond, The Cathedral and the Bazaar (Januar 2001; aktualisierte Sammlung seiner seit 1997 erschienenen und zum Teil bereits 1999 gesammelt veröffentlichten Aufsätze)

Linus Torvalds und David Diamond, Just for Fun: The Story of an Accidental Revolutionary (Mai 2001)

Andrew Leonards work in progress zur Open-Source-Geschichte auf www.salon.com

Kommentare