© Franz Krahberger Version März 2002
Technologie
Kontrolle
Userverhalten
Wissensmanagement
Konzentration
Security, Viren und Terror
Spiele und Entertainment
Publishing
Vernetzung
Zensur
Kommunikationshilfen
Wirtschaft
Science
Technologie
Die Entwicklung der neuen Medien ist untrennbar mit dem technologischen
Feld verbunden. Wer sich den neuen Medien in kultureller Perspektive nähert,
kommt nicht umhin, sich mit den technologischen Aspekten auseinander zu
setzen.
Sowohl Software wie Hardwareentwicklungen verändern sich kontinuierlich
und nicht immer ist der neueste Weg der richtige Weg.
Aktuell läuft eine harte Auseinandersetzung zwischen AOL Time Warner
und Microsoft. Microsoft hat Ende der 90er Jahre mit wettbewerbswidrigen
Mitteln Netscape, seit einiger Zeit ein Tochterunternehmen von AOL , vom
Markt zu drängen versucht. Microsoft wollte sich ein absolutes Monopol
für den Internetexplorer schaffen.
Der Zusammenschluss von America Online und der Time Warner Verlagsgesellschaft,
sowie die Konflikte mit Microsoft sind ein deutlicher Beleg für die
Untrennbarkeit von technologischer Entwicklung, vom Einfluss der jeweiligen
Software und der Contentindustrie.
Ähnliche Konfliktsituationen zeichneten sich bereits ein paar Jahre früher in den sogenannten Helloween Papers ab, die die Kontroverse zwischen dem geschlossenen durch und durch kommerzialisierten Projekt Microsoft und dem Open Source Betriebssystem Linux, das jedermann kostengünstig zur Verfügung steht, beschreiben. Linux bildet eine virtuelle Kommune, in der auf freiwilliger Basis Anwender von sich aus permanent neue Werkzeuge hervorbringen.
Neue elektronische Medien entwickeln sich in relativ kurzen Produktions-
und Distributionszyklen zu Massenmedien. Eine Erfahrung, die einmal mehr
durch die umfassende Entwicklung des Internets, insbesondere der Webversion
sich erneut bestätigt hat.
Technologisches Kernstück des computergestützten Netzmediums
sind einerseits die zur Verfügung stehende Hardware des einzelnen
Users und die alles verbindende technische Infrastruktur des Distributionsnetzes.
Die Entwicklung des Webs von einem Text - und Hypertextmedium hin zu
einem Bildmedium mit Video und Real Time Angeboten benötigt höhere
Bandbreiten, Übertragungsgeschwindigkeiten und Speicherkapazitäten.
Derzeit findet man am Markt bereits mehrheitlich PC Angebote, die sowohl
für dieses Breitbandprojekt wie auch für komplexe Multimediaanwendungen
geeignet sind.
Das Internet wird schneller
Das Internet hat im vergangenen Jahr einen deutlichen Performance-Schub
erfahren. Keynote Systems, Anbieter für Internet-Performance-Management-Lösungen,
registrierte eine klare Verbesserung der Ladezeiten für die 40 bekanntesten
deutschen Websites: Der von Keynote im wöchentlichen Rhythmus ermittelte
Internet-Performance-Index erreichte im Januar 2001 noch einen Durchschnittswert
von bis zu 6,62 Sekunden; im Dezember unterschritt das Ranking dagegen
erstmalig die Zwei-Sekunden-Grenze.
Fujitsu: 2,4 Terabits pro Sekunde über 7400 km Glasfaser
Fujitsus Forschungsabteilung, Fujitsu Laboratories, hat erfolgreich
Daten mit 2,4 Terabit/s über 7400 km Glasfaserleitung verschickt und
dabei einen Wellenbereich zwischen 1536 nm und 1610 nm genutzt. Die dahinter
steckendn Wavelength-Division-Multiplexed-(WDM-) Technologie könnte
in Zukunft in Transatlantik-Leitungen genutzt werden, die etwa 6500 km
lang sind.
Glasfasernetz mit 1,2 Terabit/s für das Internet der Zukunft
Der Staatssekretär im Bundesministerium für Bildung und
Forschung (BMBF), Uwe Thomas, hat am Mittwoch, den 21. November 2001 im
Heinrich-Hertz-Institut in Berlin zum Abschluss des BMBF-Förderschwerpunkts
KomNet ein Experiment zu optischen Hochleistungsnetzen als Basis für
das Internet der Zukunft gestartet.
metronet startet öffentliche WLAN in Wien Die Firma metronet hat in Wien das erste öffentlich nutzbare Wireless-Citynetwork Europas zum Datentransfer mit Breitbandgeschwindigkeit eröffnet. Damit ist es möglich, von öffentlichen Plätzen mit Notebook oder PDA drahtlos mit bis zu 11 MBit/s ins Internet zu gehen.
http://www.top500.org/
Auch in der 18. Auflage der Top-500-Liste der weltweit schnellsten
Supercomputer hat das IBM ASCI White System mit einer Rechenleistung von
7,2 Teraflop/s beim Linpack-Benchmark wieder den ersten Platz belegt. Der
Rechner verrichtet seinen Dienst im Lawrence Livermore National Laboratory
in den USA
Kontrolle
Die Entwicklung des Netzes folgt grundsätzlich einer globalen Strategie.
Alles wird mit allem vernetzt, verbunden und in interaktive Beziehung gesetzt.
Das grosse Versprechen der Neuen Medien lautete von Anbeginn, Weltwissen
auf einem digitalen Dorfplatz zu versammeln, eine virtuelle Dimension herzustellen,
in der alles mit allem in Verbindung treten kann. Dieses Projekt hat über
ein Jahrzehnt hinweg Phantasie und Vision der Menschen erregt und ist in
der weltweiten Entfaltung des World Wide Web Realität geworden.
Bis in die Mitte der 90 er Jahre wurde dieses Projekt als geradezu
euphorische Utopie begriffen, die die grossen Träume der Menschheit
nach umfassender Einheit, nach Formen der direkten Demokratie, nach gemeinschaftlichem
und jederzeit verfügbarem Wissen, nach offen zugänglicher und
umfassender Information in einem globalen Vorhaben bündelte.
Tatsächlich wäre das Projekt World Wide Web ohne diesen utopischen
Glauben, ohne die vielen Einzelaktivitäten von wissenschaftlichen
und kulturellen Institutionen, von Medienkünstlern und einer grossen
Zahl von Computerfreaks nicht gelungen. Die Wirtschaft hätte von sich
aus ohne den utopischen Schub dieses Projekt nicht zustande gebracht. Dazu
bedurfte es das Zusammenwirken aller.
Umso betrüblicher ist es, dass Mitte der 90 er Jahre die ersten
Versuche erkennbar wurden, das Web seitens der Wirtschaft und seitens des
Staates nach der Zeit wildwuchernden Wachstums in den kontrollierenden
Griff zu bekommen. Die Frage nach der allgemeinen Geltung der Urheberrechte,
die bekanntlich im Netz über lange Zeit dem Goodwill der Anbieter
und User überlassen blieb, stellte erstmals diese real existierende
Utopie in Frage.
Das Verlagswesen unternahm erste Vorstösse, die entsprechenden
geltenden rechtlichen Regeln auch auf das Netz auszudehnen und selbst die
begeistertsten Internet Freaks, die ihre Inhalte nach wie vor kostenlos
im Netz bereitstellen, begannen sich skeptisch zu fragen, wie den ein langfristiges
Contenangebot im Netz, das letztendlich kontinuierlich verbessert und erweitert
werden muss, auf Dauer haltbar ist.
Kürzlich fand ich eine Linkliste aus dem Jahr 1995 mit Eintragungen
der Adressen von Web Projekten. Einige davon sind damals weltweit bekannt
geworden und Gegenstand von Besprechungen in der einschlägigen Fach-
literatur gewesen. 90 Prozent dieser Links erweisen sich im Jahr 2002 als
nicht mehr erreichbar.
Nachdem das Misstrauen gegenüber dem Internet von den traditionellen
Printmedien, vor allem von der Boulevardpresse und den TV-Anstalten, die
die Konkurrenz der Zukunft witterten, vor allem wegen der Verbreitung von
Kinderpornographie geschürrt wurde, sahen sich Staat und Gesetzgeber
veranlasst, rechtliche Grundlagen zur Überwachung des Internets zu
schaffen. Alle Bemühungen einer Selbstkontrolle durch freiwillige
Internetaktivisten waren zwangsläufig zum scheitern verurteilt.
Allerdings erweist sich die öffentliche Kontrolle seitens staatlicher
Einrichtungen angesichts des explosionsartig zugenommenen Informationsangebotes
wie auch des rapide wachsenden Informationsflusses im Netz wie im e-Mail
Verkehr auf Dauer gesehen als hilflos.
Öffentlich bekannt geworden sind jedoch die zahlreichen globalen
Überwachungsstrategien der USA, insbesondere der NSA (National Security
Agency), die mit global verteilten Abhörknoten und mit der Kontrolle
des Datenflusses über Satelliten und Überseekabeln sich in alle
nur denkbaren Formen von Informationsquellen und Kommunikationsknoten einklinken.
Doch auch dieses Projekt hat Schwierigkeiten wegen der anfallenden
Menge von Daten. So gleicht das globale elektronische Kommunikationsprojekt
zunehmend der babylonischen Metapher des letztendlich scheiternden virtuellen
Turmbaues.
Um die 2000 Wende stand vor allem die staatliche Kontrolle des Datenflusses
zur Diskussion.
Künftig ist es durchaus denkbar, dass es zu einer direkten Kontrolle
der täglichen Bewegungen von Personen und Transportmitteln kommen
wird, die in Ansätzen bereits in der Jetztzeit möglich ist.
Für die nähere Zukunft zeichnet sich eine heftige Auseinandersetzung
um das Monopol der globalen Kontrolle des Netzes ab. Es wird kaum noch
jemanden verwundern, dass für dieses Monopol die USA bereits jetzt
umfassende Voraussetzungen geschaffen haben.
Abgesehen von der bereits vorherrschenden Kontrolle der Welt mit militärischen
und wirtschaftlichen Mitteln durch die USA, zeichnet sich als weiteres
die umfassende Kontrolle der internationalen Kommunikation ab.
In frühen Ausstellungen von Medienkunst Projekten wurden gerne
interaktive Videowalls gezeigt, die sich je nach Bewegung des Ausstellungsbesuchers
direkt veränderten.
Über das elektronische Netz ist es heute bereits in bestimmten
Bereichen von Unternehmen und öffentlichen Einrichtungen möglich,
Bewegungsprofile von Personen herzustellen. Die automatisierten Kontrollinstanzen
im Netz wissen eines Tages nicht nur, mit wem man interaktiv Kontakt aufnimmt,
welchen Inhalt man verschickt, sondern sie werden eines Tages erkennen
können, wo man sich gerade befindet, und überprüfen ob man
berechtigt ist, an diesem Ort zu verweilen. Alles wird nachvollziehbar
sein.
Diese umfassenden technischen Überwachungsfähigkeiten werden das soziologische Verhalten der Menschen wesentlich bestimmen. Man kann annehmen, dass die zukünftige Gesellschaft den Begriff von Freiheit gegen den der Sicherheit austauschen wird.
Giga: Sicherheits- und Breitbandtechnik sind Wachstumsfelder
Nach Einschätzungen der Giga Information Group gelten für
2002 der Bereich Sicherheitstechnologie und der verstärkte Einsatz
des Breitbandfunks als eindeutige Wachstumsfelder. Insbesondere vor dem
Hintergrund weiterer zu befürchtender Terroranschläge in den
USA und in Europa prognostiziert Giga-Analyst Rob Enderle sowohl einen
schnell wachsenden Bedarf an Sicherheitsfunktionen - zur schnellen Kontaktaufnahme
mit mobilen Mitarbeitern von Unternehmen und Organisationen - als auch
einen Ausbau von Multimedia-Applikationen auf der Basis des Breitbandfunks
US-Verteidigungsministerium kauft Ausweis-Chips bei Infineon
Infineon soll die Mikrocontroller-Chips für den neuen Ausweis
der Mitarbeiter des US-amerikanischen Verteidigungsministeriums liefern.
Die Chipkarte mit der Bezeichnung "Common Access Card" (CAC) ist nach Herstellerangaben
die gegenwärtig einzige, die die strengen Sicherheitsanforderungen
des US-Department of Defense (DoD) erfüllt.
Euro-Banknoten sollen 2005 mit Transmittern bestückt werden
Nach einem Bericht der EEtimes.com arbeitet die europäische
Zentralbank daran, ab 2005 die Euro-Banknoten mit einem Transmitterchip
zu bestücken, der kontaktlos ausgelesen und beschrieben werden kann.
Die sogenannten Radio Frequency Identification (RFID) Tags sollen bis 2005
soweit entwickelt werden, dass sie in die Geldscheine eingearbeitet werden
können. Damit soll die Fälschbarkeit der Scheine praktisch unmöglich
gemacht und die Zirkulation des Geldes kontrollierbar gemacht werden.
Elektronischer Tierpass mit eingebauter Antenne
Zu mehr Verbrauchersicherheit an der Wurst- und Fleischtheke könnte
künftig ein Halbleiterchip von Infineon im so genannten elektronischen
Tierpass beitragen. Der elektronische Tierpass ist Bestandteil der Ohrmarke
von Nutztieren, wie Kühen und Schweinen, und vereinfacht den fälschungssicheren
Herkunftsnachweis der Tiere.
Real Time Life
http://www.appliedautonomy.com/isee/info.html
Die Routen der geringsten Überwachung
New Yorker Webpage sucht Wege an den Videokameras vorbei
Ein Projekt von US-Bürgerrechtsaktivisten berechnet Usern die
Route mit der geringsten Video-Überwachung durch New York. iSEE vom
"Institute for Applied Autonomy" erfasst alle 2.400 bekannten Überwachungskameras
in den verschiedenen Stadtteilen, einschließlich von Systemen zur
Überwachung von öffentlichen Plätzen, des Straßenverkehrs,
der U-Bahn oder in Kaufhäusern. Der Benutzer der Webseite gibt einfach
seinen Standort und sein Ziel auf einem Stadtplan von New York ein und
erhält die schnellste Route an allen Kameras vorbei. Allerdings muss
der Benutzer von iSEE weite Umwege in Kauf nehmen, um jeder Überwachung
zu entgehen.
iSEE ist als Protest gegen die zunehmende Videoüberwachung
in Großstädten gedacht. Die Schöpfer der Seite sehen in
den Überwachungssystemen eine Einschränkung der Privatsphäre
für Angehörige von Minderheiten, Frauen oder Jugendlichen, die
besonders im Blickwinkel des Bedienungspersonal seien. Ihrer Meinung nach
steht der Aufwand in keinem Verhältnis zu den tatsächlichen Erfolgen.
So verhindert Video-Überwachung auch keine Terroranschläge. Daneben
bemängeln sie, dass in den USA noch keine rechtlichen Grundlagen existieren,
die die Verwendung, Weitergabe und Auswertung des Bildmaterials regeln.
Weitere iSEE-Projekte sind für Seattle, Chikago und London geplant.
Userverhalten
Die Nutzung elektronischer Medien nimmt die grösste Zeit der Aufmerksamkeit der User in Anspruch. Fernsehen und Rundfunk sind mit Abstand die am meisten genutzten Unterhaltungs- und Informationsmedien geworden. Je eine halbe Stunde verwendet der User in Deutschland zur Zeitungslektüre. Mehr als fünf Stunden täglich verbringen die Deutschen mit Fernsehen und Rundfunksendungen.
Je eine halbe Stunde widmen sie der Lektüre eines Buches, dem Lesen von Zeitungen und dem Surfen im Internet. Das bedeutet, dass das Netz tatsächlich ein ernsthafter Konkurrent der Printmedien geworden ist.
Die meisten meiner Kollegen, die einen On-Line Zugang benutzen, lesen
nur mehr die Internetausgaben der Tageszeitungen. Die Verknüpfung
der audiovisuellen Medien und des Textmediums, die technische qualitative
Verbesserung des Angebots in Breitbandzugängen wird einen weiteren
Schub der Internetnutzung auslösen.
Auf der anderen Seite werden laufend neue Bündnisse zwischen global
agierenden Contentanbietern, Grossverlagen und Telekommunikationsbetreibern
geschlossen.
Auch hier zeigt sich der bedenkenlose Einsatz von Kontrolltechnologien.
Um ein besonders effizientes Marketing zu erreichen, versuchen viele Website
Betreiber das Leseverhalten ihrer User mit entsprechender Software heraus
zu finden.
Grosse Probleme bereitet noch die reale Bezahlung des benutzten Contents.
Die User, die viel Geld für ihren PC ausgegeben haben und auch noch
einiges Geld an den Provider und On-Line Kosten zu entrichten haben, sind
es seit Jahren gewohnt, inhaltliche Angebote und Informationen im Netz
kostenlos zu erhalten. Eine Veränderung dieses Verhaltens ist nur
durch rigorose Änderungen auf der Anbieterseite vorstellbar.
Das derzeitige Verhalten im Netz entspricht viel mehr einer kollektiven
utopischen Ökonomie als der allgemein im realen Leben geübten
individuellen Verrechnung. Hier schwingen noch die Reste einer gesellschaftlichen
Utopie mit, auf die sich die Internetanwender zu Beginn noch berufen haben,
die Schaffung eines gemeinsamen öffentlichen Kommunikations- und Informationsraumes.
Die jüngere Entwicklung zeigt, dass die klassische Ökonomie heftig
mit diesen Vorstellungen kollidiert. Noch ist der Ausgang der Entwicklung
offen. Die klassische Ökonomie der direkten Verrechnung wird nur dann
durchsetzbar sein, wenn das Netz völlig kontrollierbar gemacht wird
bzw. diese technische Möglichkeit umfassend überhaupt durchführbar
ist.
Damit würde aber der gegenwärtige offene Charakter des Netzes
völlig zerstört werden. Die Erosion würde zwar Jahre andauern,
bis eben viele der bestehenden Sites aus Kostengründen, abgeschalteten
Servern, kaputten Festplatten etc. wiederum aus dem Netz verschwindet und
endgültig einem Netz Platz macht, dass Content mehrheitlich wiederum
nur gegen Tarif zugänglich macht. Das wäre dann wiederum der
Sieg der grossen Medien Monopolisten, der immer wahrscheinlicher wird,
da das kostenlose Contentangebot bedingt durch Produktions- und Haltungskosten
auf Dauer schwer vorstellbar ist.
User sind zwar bereit, für Sexsites Geld auszugeben. Sie bekommen
das nötige Password erst nach Bezahlung. Sie können und wollen
sich jedoch nicht vorstellen, für anderen Content, der wesentlich
die Qualität des Webs ausmacht, zu bezahlen. Und selbst wenn sie es
wollten, scheitert dies an den nicht vorhandenen und nur schwer umsetzbaren
technischen Möglichkeiten. Das über lange Zeit diskutierte Xanadu
Modell von Ted Nelson, die Erfassung jeder einzelnen Website und Löhnung
in Form eines Micro Zensus würde in der Ausschüttung der Erlöse
einen globalen Zentralrechner erfordern, der gleichzeitig wiederum die
absolute globale Kontrollinstanz wäre.
Der Erhalt des gegenwärtigen Webs in seiner anarchisch anmutenden
völlig gleichberechtigten Koexistenz einer Unzahl von Servern widerspricht
also grundsätzlich ökonomischen Strukturen.
Die Technologie des Webs funktioniert jedoch auf dieser willkürlich chaotischen Verteilung einer Unzahl von individuell betriebenen Servern. Sollten die Monopolanbieter künftig ihre Vorstellungen durchsetzen können, wird die Motivation zum Betreiben individueller Server bedeutend geringer. Wie funktioniert das Web technisch, wenn diese Struktur wegzufallen beginnt ? Bereits jetzt zeigen sich viel mehr Widersprüche, als die bürgerliche Gesetzgebung imstande ist, zur Zufriedenheit aller zu regeln.
75 Prozent der Surfer gehen von zu Hause aus in Netz, während sich vom Arbeitsplatz 40 Prozent einloggen. Entsprechend steigt auch die private Nutzung des Mediums. Zwei von fünf Usern nutzen das Internet zu rein privaten Zwecken (2. Quartal: 36 Prozent). Gut 50 Prozent verfolgen private und berufliche Ziele beim Surfen. Nur noch neun Prozent der Internet-Nutzer sind aus rein beruflichen Gründen online (10,5 Prozent). Dies sind aktuelle Ergebnisse der Studie @facts, die Forsa im Auftrag des Online-Vermarkters SevenOne Interactive erstellt
Internetnutzung in den USA erreichte im Oktober neuen Rekord Laut dem Oktober Internet Ratings Report 2001 von Nielsen NetRatings hat die Internetnutzung in den USA im Oktober um 4 Prozent zugenommen und mit 115,2 Millionen Nutzern ihren Höchststand in diesem Jahr erreicht
Internetnutzung: Baden-Württemberger surfen am meisten
Die Menschen in Baden-Württemberg sind mit Abstand die fleißigsten
Online-Nutzer der Republik. Mit 44,2 Prozent Internet-Surfern lagen sie
im zweiten Quartal 2001 über vier Prozent über dem bundesweiten
Durchschnitt von 39,8 Prozent und haben damit im Vergleich zum Vorjahr
nochmals deutlich zugelegt. Das ist das Ergebnis einer Studie, die Michael
Schenk, Prof. für Kommunikationswissenschaften an der Universität
Hohenheim, gemeinsam mit Malthe Wolf im Auftrag der Akademie für Technikfolgenabschätzung
in Baden-Württemberg (TA-Akademie) vorgelegt hat
500.000 .biz-Domains und 675.000 .info-Domains registriert Die erst vor wenigen Wochen bzw. Monaten neu eingeführten Domain-Endungen ".biz" und ".info" erfreuen sich offenbar großer Beliebtheit.Wie die Vergabestelle NeuLevel mitteilt, wurde am Mittwoch dieserWoche der 500.000. Domain-Name mit dem Kürzel ".biz" vergeben. Unterder zweiten neuen Domain-Endung, ".info", sollen weltweit bereits 675.000 Namenangemeldet worden sein.
2005 tätigen 110 Mio. Europäer ihre Bankgeschäfte
online
Während sich die Flaute in den Aktienmärkten negativ auf
das Onlinebrokeragegeschäft niederschlägt, steigt die Attraktivität
des Onlinebankings in Europa kontinuierlich. Ein Drittel aller Internetnutzer,
das heißt 42 Millionen Verbraucher, tätigen ihre Bankgeschäfte
bereits via Internet, und jeden Monat wächst die Schar der Onlinebanker
um mehr als eine Million neue Nutzer, das geht aus der Forrester-Studie
"Profiting from Europe's Internet Banking" hervor.
Internet gehört zum Alltag in deutschen Haushalten
Laut einer Verbraucherstudie des Marktforschungsunternehmens Forrester
gehen mittlerweile 44 Prozent der deutschen Bevölkerung ins Internet,
insbesondere wenn für die Kaufentscheidung oder Reisebuchung Produkt-
und Preisinformationen fehlen, Software und Musik gewünscht oder Bankgeschäfte
getätigt werden. Die Internetnutzung verändere die Informations-
und Kommunikationsgewohnheiten der Menschen maßgeblich.
@facts: Zehn Millionen neue Internet-Nutzer in 2001
Mit 27,8 Millionen Deutschen (ab 14 Jahre) sind inzwischen mehr
als zwei Fünftel (43,6 Prozent) der Bundesbürger online. Im vergangenen
Jahr sind zehn Millionen neue Nutzer hinzugekommen, so die aktuellen Ergebnisse
von @facts, einer Internet-Studie, die forsa im Auftrag des Online-Vermarkters
SevenOne Interactive erhebt.
Mit TimeBudget veröffentlicht SevenOne Media die aktuellen Ergebnisse einer Studie, die das Mediennutzungsverhalten der Bundesbürger unter die Lupe nimmt. Da sich die Veränderungen durch den fundamentalen Wandel im Mediensystem nicht durch eine einmalige Untersuchung feststellen lassen, ist TimeBudget als Langzeituntersuchung angelegt: Seit 1999 befragt das Forschungsinstitut Forsa jeden Sommer eine repräsentative Zahl von Deutschen im Alter zwischen 14 und 49 Jahren (insgesamt 2487 Personen) zu relevanten Aspekten ihres Mediennutzungsverhaltens.
Die Ergebnisse der drei Wellen sind jetzt verfügbar.
Die Analyse erforscht unter anderem die Themenkompetenz der Medien, Themeninteressen der Nutzer sowie Parallelnutzung oder Verzichtbarkeit der Medien. Es ist die erste Studie, die solche Entwicklungen über mehrere Jahre hinweg verlässlich nachzeichnet und Hinweise auf die zukünftigen Trends gibt.
Insgesamt verbringt jeder Deutsche zwischen 14 und 49 Jahren jeden Tag etwa 7,5 Stunden mit der Nutzung von Medien (1999 waren es noch 6,5 Stunden). Davon entfällt der Löwenanteil auf Fernsehen (153 Minuten) und das Begleitmedium Radio (169 Minuten). Danach folgen Bücher (32 Minuten) und das Internet (30 Minuten). Für Zeitungen wendet der Durchschnittsbürger 24 Minuten auf, für Zeitschriften 15 Minuten.
Die größten Zuwachsraten bei der Nutzung hat das Internet, das 1999 im Schnitt nur neun Minuten pro Tag genutzt wurde und damit um 21 Minuten zulegt hat. TV und Radio verzeichnen leichte Nutzungszuwächse, während die Nutzung der Printmedien stabil bleiben.
Fernsehen und Radio sind die Medien mit der höchsten Reichweite. 97 Prozent aller Bundesbürger (14-49) sind über das Fernsehen zu erreichen, bei den 14- bis 29-Jährigen sind es knapp 100 Prozent. Das Radio erreicht mit 93 Prozent (14-49) ähnliche Werte. Die Printmedien haben an Reichweite verloren. Während 1999 noch 92 Prozent angaben, zumindest selten eine Zeitung zu lesen, sind es heute nur noch 88 Prozent. Die Zeitschriften sind im selben Zeitraum von 73 Prozent auf 65 Prozent abgefallen.
Der große Gewinner ist das Internet. Innerhalb der vergangenen drei Jahre hat sich die Zahl der Surfer in Deutschland mehr als verdoppelt: 1999 waren 8,2 Millionen Menschen zwischen 14 und 49 Jahren "drin", heute sind es 20,8 Millionen. Nach wie vor überwiegt der männliche Anteil mit 57 Prozent.
Im Internet sind die wichtigsten Themen Reisen und Musik (hinter Radio und TV). In diesen Kernkompetenzen macht das Internet vor allem den Zeitschriften Konkurrenz.
Bei der Frage nach dem beliebtesten Medium steht das Fernsehen nach wie vor an erster Stelle. Das Internet liegt mit 17 Prozent bereits an dritter Stelle. Zeitungen bezeichnen rund zehn Prozent als das Medium, das sie am wenigsten entbehren könnten.
Wissensmanagement
Die Expansion des World Wide Web, das vielfältige Angebot von On-Line
Fachpublikationen, die On-Line Präsenz von Publikationen aus Naturwissenschaften,
Geisteswissenschaften, Politik und Wirtschaft, Gesellschaftswissenschaften
ebenso wie aus Literatur und neuen Entwicklungen der Kunst stellt einen
enormen Anstieg gemeinsam verfügbaren allgemeinen Weltwissens unter
Beweis.
Die egalitär, technisch gesehen rein funktional nebeneinander
gestellten Inhalte selbst können bedingt durch die überbordende
Dateienmenge nicht mehr strukturiert dargestellt und abgebildet werden.
Es wird also, abgesehen von individuell angelegten Linklisten, von jeweiligen
Fachinstituten thematisch angebotenen Linksammlungen, nie einen generellen
Internet Katalog geben. Im Vergleich zu einer geordneten Bibliothek mit
Signaturen und festgelegten Stellplätzen befindet sich das Netz in
einem chaotischen Zustand.
Anstelle des Bibliothekskatalogs tritt die Suchmaschine. Voraussetzung
für deren Funktionieren ist das umfassende Sammeln von Internet Dateien
im globalen Masstab. Suchroboter wie altavista oder google
scannen in kontinuierlichen Abständen das Web nach neu angelegten
Webdokumenten, nehmen diese in ihren Speicher auf. Mittels der Eingabe
von Stich- und Suchworten kann der User entsprechend seinen themenspezifischen
Vorstellungen nach gespeicherten Inhalten suchen. Je nach Häufigkeit
des verwendeten Begriffs oder Namens stellen dem Anwender die Suchmaschinen
Listen von Eintragungen zur Verfügung, die nun nach ihrem tatsächlichen
Informationswert hin durchgesehen werden können. Diese globalen Internetsuchmaschinen
erfassen weite Teile des Netzes und man kann davon ausgehen, dass die im
Netz angebotenen Informationen des alphabetischen Kulturkreises weitgehend
erfasst werden, nicht zu vergessen jene Sites, die sich in
anderen Schrifttraditionen entwickeln.
Das Internet bietet wahrscheinlich das aktuelle Wissen unserer Zeit
in den meisten Wissengebieten an. Mittels der vom Suchroboter angebotenen
Eintragungen gelingt es in fast allen Fällen, einen brauchbaren Rahmen
für ein zu bearbeitendes Thema herzustellen.
Ich habe über einen längeren Zeitraum an einem schwierigen
zeitgeschichtlichen Thema mit internationaler Spannweite gearbeitet. Ich
konnte besonders heikle Fragen mit Hilfe von Informationen, die mir über
das Netz zugänglich geworden sind, zur Zufriedenheit lösen.
Mit den bestehenden Möglichkeiten der Suchmaschinen ist das Netz
zu einem wertvollen und nützlichem Speichermedium geworden, mit dem
punktuell ausgezeichnete Ergebnisse erzielt werden können.
Es stellt sich nun auch heraus, dass Hypertextualität und flanierendes
Surfen nicht allein die Qualitäten des Netzes ausmachen, sondern eben
nur eine flüchtige Möglichkeit von Umgang mit Wissens darstellt.
Jahrelang wurde Hypertext zu einem alles überragenden Gestaltungsmittel
stilisiert. Heute sehen wir, dass die Möglichkeiten der hypertextuellen
Vermittlung begrenzt sind.
Andererseits hat sich das Netz zu einem umfassenden Wissensreservoir
entwickelt, das sich vor allem dazu eignet, mit entsprechenden Suchläufen
Querverbindungen zu analysieren und so Zusammenhänge besser abbilden
zu können.
Die zufällig gewachsene hypertextuelle Struktur kann zu analytischen
Zwecken benutzt werden. Das Netz im derzeitigen Status zeigt sich den Anforderungen
des geordneten Wissensgewinns durchaus gewachsen. Tatsächlich ist
erstmals in der Geschichte der Menschheit und der Medien das aktuelle Wissen
der Zeit global gespeichert, vernetzt und erfassbar. Die Vision einer derartig
hypermedialen Datenbank, deren Inhalte flexibel vernetzt werden können,
geht zurück auf Vannevar Bush. Bush leitete während des zweiten
Weltkrieges ein Kollegium von etwa 6000 Wissenschaftlern aus den unterschiedlichsten
Fachbereichen, die in Fragen von neuen Waffentechnologien, in der klassischen
wie auch elektronischen Erfassung von gegnerischen Bewegungen, in der umfassenden
Logistik einer globalen kriegerischen Auseinandersetzung rasch wirkungsvolle
Lösungen zu finden hatten. Zusätzlich zu diesen Planungstätigkeiten
mussten auch die nötigen Produktionsunterlagen erarbeitet und die
Produktionskapazitäten organisiert werden.
Vannevar Bush skizzierte nach erfolgreichem Abschluss dieses Megaprojektes
die Vison einer hypertextuell vernetzbaren Datenbank in seinem im Juli
1945 im Atlantic Monthly erschienenen Artikel As We May Think.
In diesem Zusammenhang wird deutlich, dass die hypertextuelle Struktur
weniger dem flanierenden Surfen bzw. dem individuellen Sampeln von Texten
dienen sollte, sondern auf Gewinnung von effizient gebündelter und
vernetzter Information mit je nach Aufgabenstellung sich veränderndem
Kontext aus war. Vannevar Bush und mit ihm die führenden Köpfe
der USA hatten klar erkannt, dass effizientes Wissensmanagement die Voraussetzung
für den Erfolg in komplexen Aufgaben bildet.
Alan Turing und Norbert Wiener haben ihre bahnbrechenden Grundlagenforschungen ebenso in diesem Weltkriegs II Projekt durchgeführt. In den Jahren 1945 bis 1950 gehörte Vannevar Bush dem Intelligence Establishment des US-Statedepartments an und leitete die Forschungs- und Entwicklungskommission, die wesentlich an der Entwicklung der Grundlagen künftiger kalter Kriegsführung beteiligt gewesen ist.
Heute gehört Wissensmanagement verbunden mit effizentem Marketing zum Führungsinstrumentarium jedes erfolgreichen Unternehmens.
60 % der Industrieunternehmen planen Knowledge-Management
Industrieunternehmen in Europa verzeichnen eine massive Steigerung
bei der Umsetzung von Knowledge-Management-(KM-)Programmen. Dies ist das
Ergebnis von "Documented", einer von Xerox durchgeführten Studie zu
E-Business-, KM- und CRM-Strategien im industriellen Sektor. Die Untersuchung
zeigt, dass bislang 51 Prozent der befragten europäischen Unternehmen
ein Konzept zur Nutzung firmeninternen Wissens haben. Sechs von zehn Unternehmen
erwarten darüber hinaus, innerhalb der nächsten drei Jahre ein
KM-Programm einzuführen.
Konzentration
Die elektronischen Medien sind erstmals imstande über Kabelnetzwerke,
über Satellitenverbindungen den Usern rund um die Uhr und rund um
den Planeten verfügbar zu sein. Ähnlich wie in der Einführung
des Fernsehens war die Zielvorstellung, ein weitverbreitetes Netz von Anwendern
zu bewirken.
Es besteht jedoch ein gravierender Unterschied. Die ersten inhaltlichen
Angebote, die das Web überhaupt erst interessant machten. kamen nicht
aus der etablierten Contentindustrie, nicht aus dem Verlagswesen.
Sie wurden von Universitätsinstituten, von Medienkünstlern
und von vielen kleinen Anbietern erbracht. Die erste Phase des Netzes wurde
in einer ungeheuren kollektiven Anstrengung in nicht kommerzieller Absicht
erstellt. So entstand eine Art weit verzweigtes kollektives Gedächtnis
mit einer Unmenge von Beiträgen zu fast allen vorstellbaren Themenbereichen.
Ich halte das Internet als die grösste gemeinschaftliche Leistung
seit der Erstellung von Denis Diderots erster umfassender Enzyklopädie.
So erscheint das aktuelle Weltwissen des ausgehenden 20. Jahrhunderts
und beginnenden Jahrtausends in einem allen zugänglichen öffentlichen,
die Erde umspannenden virtuellen Raum gespeichert zu sein.
Das Wissen erscheint an einem für alle erreichbaren Ort konzentriert.
Neben den Bibliotheken und Archiven ist tatsächlich binnen acht Jahren
ein qualitätsvoller Wissensspeicher gewachsen.Voraussetzung zur effektiven
Nutzung jedoch ist nach wie vor entsprechende Bildung.
Wissen kann man zwar umfassend anbieten, dessen Vermittlung lässt
sich aber nicht automatisieren.
Es wird den kommerziellen Anbietern sehr schwer fallen, diese Gemeinschaftsleistung
zu überbieten und dann noch Geld dafür zu verlangen.
Die kommerziellen Anbieter versuchen durch forcierten Lobbyismus in
der staatlichen Gesetzgebung, durch Konzentration von Verlagen, Cable Networks,
TV-Stationen und On-Line Anbietern die Vorherrschaft über das Netz
zu erringen. Das scheint ihnen offenbar nicht wirklich zu gelingen.
Die AOL TIME WARNER CNN Gruppe schrieb für das Jahr 2001 60 Milliarden
Dollar Verluste.
Aktuell wird die grösste Telekom Pleite der US-Geschichte gemeldet.
Global Crossing, das über ein leistungsstarkes Glasfaser-Kommunikationsnetz
verfügt, das weltweit mehr als 200 Städte in 27 Ländern
erreicht, meldete Ende Jänner 2002 Konkurs an.
Das Konzept der umfassenden Globalisierung der Kommunikation treibt
die kommerziellen Anbieter zunehmend in grosse finanzielle wie organisatorische
Probleme.
Die Besorgnis, dass das versammelte Wissen im nichtkommerziellen Bereich
eines Tages im Netz sich wiederum auflöst, verschwindet, ist durchaus
berechtigt. Denn es entstehen Arbeitsleistungen und Kosten, die auf Dauer
nicht ohne weiteres getragen werden können.
Es wäre aber schade, wenn diese gemeinsame Kulturleistung zerfallen
sollte.
Selbst dann kann man das letzte Jahrzehnt als einen bedeutenden Abschnitt
der Menschheitsgeschichte ansehen.
Das Internet ist eine der grossen realen Utopien, in der sich viele
bislang unerfüllte Menschheitsträume neu denken lassen.
Nasdaq Europe und Berliner Börse gehen Partnerschaft ein
Die Nasdaq Europe und die Berliner Börse haben eine Partnerschaft
bekannt gegeben - damit hat erstmalig ein internationaler Markt eine direkte
Verbindung zum deutschen Aktienmarkt geschaffen. Die Partnerschaft, die
auch einen gegenseitigen Aktientausch in Höhe einer signifikanten
Minderheitsbeteiligung vorsieht, soll die Strategie von Nasdaq Europe ausweiten,
Partnerschaften mit Schlüsselmärkten und Marktteilnehmern in
Europa einzugehen
Der Axel Springer Verlag wird seine Online-Redaktionen der Tageszeitungen Die Welt, Hamburger Abendblatt sowie die Ullstein Online-Redaktion - bestehend aus Berliner Morgenpost, B.Z. und berlin1.de - zusammenlegen. Die entstehende zentrale Online-Einheit soll für eine "optimale Bündelung vorhandener Kompetenzen auf redaktioneller Ebene" sorgen, heißt es in einer Pressemitteilung.
Bertelsmann stockt Anteil an RTL Group weiter auf
Bertelsmann will das Fernsehengeschäft als integralen Bestandteil
seiner Konzernstrategie stärken und hat deshalb mit Pearson ein Abkommen
getroffen. Ziel von Bertelsmann ist es, den eigenen Mehrheitsanteil an
der TV-, Radio- und Fernsehproduktionsgruppe RTL Group in Höhe von
derzeit 67 Prozent um weitere 22 Prozent aus dem Besitz der Pearson-Gruppe
aufzustocken.
Security, Viren und Terror
Da das Internet ursprünglich eine militärische Entwicklung
gewesen ist, wurden Sicherheitsfragen von Anbeginn mit diskutiert. In den
ersten Jahren des World Wide Webs war der Umgang eher freizügig, abgesehen
davon, dass hin und wieder Server attackiert wurden.
Die kommerzielle Nutzung des Netzes durch Banken, durch Internet- Shops
mit Kreditkarten Verrechnung, die Verbindung von Local Area Networks mit
dem globalen Netz, erhöhte enorm sowohl Sicherheitsansprüche
wie auch Sicherheitsaufwand. Dort, wo es nicht mehr allein um den freizügigen
Austausch von Information geht, sondern eben um Transaktionen, Abwicklung
von Geschäften, kommt es zum Einsatz komplexer Sicherheitssoftware
und Technologie. Einerseits ist man bestrebt, den Datenbestand und den
Datenfluss möglichst vor unberechtigten Zugriffen, also vor Einbrüchen
und vor Datendiebstahl zu schützen. Andererseits fordern die Behörden
vehement Zugänge zu Provider- Daten, etwa um den e-mail Verkehr im
Verdachtsfall überwachen zu können.
Die grossen Security Einrichtungen der USA, an vorderster Stelle die
NSA, versuchen schon seit einiger Zeit den elektronischen Informationsfluss
in ihren Überwachungsgriff zu bekommen.
Dem verständlichen Wunsch nach Schutz der Daten im wirtschaftlichen
wie auch im privaten Bereich, steht das Begehren des Staates gegenüber,
möglichst umfassenden Zugang zu haben.
Begründet wird dies mit Wirtschaftskriminalität, die ebenso
global vernetzt ist wie die Weltwirtschaft, mit Computerkriminalität,
sexuellem Missbrauch etwa durch die Verbreitung von Kinderpornografie und
insbesondere seit dem 11.September 2001 mit der Angst vor weiteren Anschlägen.
Wie sich herausgestellt hat, wurde das Netz zur Vorbereitung und Organisation
des terroristischen Anschlages auf das World Trade Center benutzt.
Dieser Anschlag hat ebenso eine Schwäche der globalen elektronischen
Überwachung offenbart. Es ist durchaus möglich, dass die NSA
eine Unmenge von Daten gewinnen kann. Immer häufiger jedoch wird die
Meinung geäussert, dass es ein Unding ist, diese Unmenge gesammelter
Daten auch auszuwerten und richtig zu interpretieren.
Gleich nach dem ungeheueren New Yorker Anschlag wurde eben Kritik an
dieser teuren Form der Informationsgewinnung laut, die letztendlich keinen
effizienten Schutz geboten hat. Noch dazu darf man annehmen, dass die Al
Kaida von den Diensten besonders aufmerksam bereits lange vorher ins Visier
genommen worden war.
Tatsächlich haben in diesem Fall sowohl die Dienste wie auch die
elektronische Überwachung weitgehend bis hin zur Flugsicherung versagt.
Wie lässt es sich erklären, dass es offensichtlich nicht besonders
aufgefallen ist, dass vier Maschinen in gleichem Zeitraum von ihren vorgesehenen
Flugrouten abgewichen sind. Ist es nicht fragwürdig, wenn im wirklich
bedrohlichen Ernstfall die Überwachung eigentlich völlig versagt
?
In der Geschichte des Netzes gibt es ebenso eine Reihe von hinterhältigen
Virenattacken, meist von rücksichtslosen Einzeltätern in Umlauf
gebracht, die häufig zu Schäden an den Endgeräten geführt
haben. Meist jedoch in reperablem Ausmass auf Ebene der Software. Hier
zeigt sich, dass das Netz wirksame Selbsthilfemassnahmen durch das rasche
Angebot entsprechender Anti Viren Software zu leisten imstande ist.
Ebenso zeigt sich, dass das Netz von einer öffentlichen Community
getragen wird, die bereit und fähig ist, in Problemfällen Abwehrmassnahmen
zu ergreifen und diese dann auch On-Line zur Verfügung zu stellen.
Trotzdem ist es heute nicht mehr anzuraten, Geräte On-Line ohne
parmanent aktualisierbare professionelle Anti Viren Software zu betreiben.
Ebenso ratsam ist es, mit e-mails vorsichtig auf der inhaltlichen Ebene
umzugehen. Es sind genügend Fälle von mail Missbrauch bekannt
geworden, u.a. Adressverfälschungen Nicht immer muss der ausgewiesene
Absender dahinterstehen.
Die Entscheidung, ob etwas nun wahr oder unwahr ist, fällt bereits
im gewohnten Alltagsleben im Umgang mit realen Personen schwer.
Im virtuellen Umfeld wird es noch um einiges problematischer, da die
Möglichkeiten der Täuschungen weniger durchschaubar werden.
Sie wurden einige Zeit sogar als besondere Qualität der virtuellen
Kommunikation beschrieben. Jeder und jede könne sich ein passendes
alter ego oder gar eineVielzahl von Masken wählen. Solches Verhalten
hat aber auch entsprechende psychologische Implikationen und kann zu schweren
Kommunikationsstörungen führen.
Wer einmal in eine virtuelle Falle geraten ist, die vom Fallensteller
hartnäckig weiter ausgebaut wird, kann in eine durchaus tiefgehende
Krise getrieben werden. Das Netz bietet sowohl der organisierten Kriminalität,
wie auch dem individuellen Terror, ebenso wie der alltäglichen Gemeinheit
ein weites Betätigungsfeld und den staatlichen Kontrollbegierden neue
Aufgaben.
Man kann jedoch davon ausgehen, und dem entspricht, abgesehen von einigen
wenigen schwerwiegenden Irritationen, meine langjährige Erfahrung,
dass die Mehrheit der Netzbenutzer fairen Kommunikations- und Umgangsformen
folgt.
Wir können damit rechnen, das computer- und netzwerkgestützte Kommunikation sowohl im beruflichen wie auch privaten Leben weiterhin zunehmen wird, obwohl sie bereits einen sehr beachtlichen Teil unseres Lebens einnimmt. Damit verknüpft sich aber auch wesentlich unsere Identität und unser Selbstverständnis und wir sollten alles daran setzen, dass die Regeln im Netz den realen Bürgerrechten, die sich die Individuen über die Jahrhunderte hinweg erkämpft haben, in nichts nachstehen.
Sicherheitsunternehmen bricht auf Wunsch in Netzwerke ein
Das Unternehmen Internet Security Systems baut die Aktivitäten
des eigenen Spezialisten-Teams "X-Force" im Kundenbereich durch neue Service-Angebote
aus. Neben Schwachstellen-Analysen testen die Fachleute von Internet Security
Systems auf Wunsch des Kunden ein Netzwerk auf Einbruchsicherheit durch
authentische Hacking-Aktionen.
VirusScan verhindert unerwünschten E-Mail-Versand
Die aktuelle Version 6.0 des Virenscanners VirusScan von McAfee
enthält eine überarbeitete Oberfläche und eine Blockade-Routine,
um unerwünschten E-Mail-Versand abzufangen und so die Verbreitung
von E-Mail-Würmern einzudämmen. Ferner gehört das bisher
separat angebotene VirusScan Wireless ab sofort mit zum Lieferumfang.
Gefahr für deutsche Computer durch Terrorattacken?
Nach den Anschlägen des 11. Septembers befürchten Experten
der Bundesregierung terroristische Angriffe durch das Internet auf Versorgungs-
und Kommunikationseinrichtungen in Deutschland.
Neuer HTML-Wurm formatiert die Festplatte Zahlreiche Hersteller von Anti-Viren-Software entdeckten einen neuen in Visual-Basic geschriebenen Wurm namens JS.Gigger.A@mm, der sich sowohl via E-Mail als auch über das IRC-Programm mIRC verbreitet. Die Schadroutine des Virus ist enorm zerstörerisch, weil er alle Dateiinhalte löscht und anschließend die Partition C beim nächsten Neustart des Rechners formatiert.
Spiele und Entertainment
Spieletest: Die Sims Hot Date - Virtuelle Partnervermittlung
Die Personensimulation "Die Sims" entwickelt sich für den Publisher
Electronic Arts immer mehr zum Dauerbrenner. Nicht nur das Hauptprogramm
verkaufte sich sehr gut, auch die ersten beiden Erweiterungen "Das volle
Leben" und "Party ohne Ende" waren sehr erfolgreich. Mit "Hot Date" ist
jetzt bereits das dritte Add-On erhältlich.
Lego und Electronic Arts arbeiten zusammen
Der dänische Spielwarenhersteller Lego hat für seine Computer-
und Videospielprodukte einen Vertrag mit Electronic Arts (EA) unterzeichnet.
Infolgedessen wird EA innerhalb der nächsten drei Jahre wenigstens
30 Programme von Lego veröffentlichen und vermarkten.
Spieletest: U-Boot-Simulation Silent Hunter II
Im Spiel Silent Hunter II steuert man auf der Seite der deutschen
Kriegsmarine ein U-Boot mit dem Ziel, möglichst viel Tonnage des Feindes
zu versenken und wenn möglich selbst mit heiler Haut davonzukommen
AIBO ERS-220 - Neues Roboterdackel-Modell
Bei den letzten beiden vorgestellten AIBO-Modellen Latte und Macaron
hat Sony dem Roboterhund ein familienfreundliches Comic-Design angedeihen
lassen. Beim neuen Modell ERS-220 gibt es nun wieder ein rein futuristisches
und erstmals auch etwas martialisch wirkendes Design, dessen Besonderheiten
jedoch mehr in der verbesserten Erweiterbarkeit der Hard- und Software
liegen sollen.
Sprachsynthesizer Logox WebSpeech 4 kostenlos zum Download Mit Logox WebSpeech 4 stellt G Data einen komplett neu entwickelten Sprachsynthesizer vor. Das Plug-In für den Internet Explorer liest deutschsprachige Internet-Seiten auf Wunsch sogar im Dialekt vor.
Publishing
Die vehement vertretene These überzeugter McLuhan Epigonen, dass
digitale Medien das Buch verdrängen würden, hat sich bislang
nicht bestätigt. Das gedruckte Buch wird weiterhin eine wichtige Rolle
in der menschlichen Kultur einnehmen. Es hat sich praktisch erwiesen, dass
der Buchmarkt und die traditionellen Bibliotheksverwaltungen dem Netz nach
wie vor gewachsen sind.
Erfolgreiche Buchmanuskripte durchlaufen nach wie vor den komplexen
Prozess der Herstellung vom Lektorat über Korrektur bis zur erfolgreichen
Ankündigung in der Distrubutions Sphäre.
Bibliotheken bewahren das Buch in geordneten Speicherbeständen
auf. Man kann auch Jahrzehnte nach der Drucklegung damit rechnen, dass
es in einem dieser Bestände wieder gefunden werden kann.
Diese Sicherheiten bietet das Netz noch lange nicht. Wichtige Artikel
und Texte können nach einem beliebigen Zeitraum verschwinden. Niemand
kümmert sich um die geordnete Sammlung des inhaltlichen Angebotes.
Ein derartiges Projekt wäre wohl auch kaum durchführbar und
würde Kosten verursachen, die niemand bereit ist, zu bezahlen. Alta
Vista hat derzeit 82 Millionen Dokumente indiziert. Niemand kann garantieren,
dass man ein Dokument authentisch vorfindet. Selbst die differenzierte
Stichworteingabe hat Schwächen. Alta Vista zeigt zu einem abgefragten
Thema nur 200 Positionen an. So ist man mehr oder minder dem Zufall und
der Themenhäufigkeit überlassen. Weiters sind Netzpublikationen
in Bezug auf Seriosität Buchpublikationen in der Wertschätzung
der LeserInnen nicht gleichgestellt. Das sagt allerdings nichts über
Qualität von Information im Netz, die oft sehr hohen Ansprüchen
genügt, aus. Die Qualität und Glaubwürdigkeit muss der Leser
und User von Fall zu Fall selbst bestimmen. Aber das ist ja in der Lektüre
eines Buches auch nicht anders.
Als grösstes Problem des Web Publishing stellt sich die Ökonomie
heraus. Für Content wird im Internet nach wie bis auf wenige Ausnahmen
nichts bezahlt. Die Texte werden in einem riesigen Tauschmarkt der Informationen
freizügig zur Verfügung gestellt.
Nachdem viele Klein- und Fachverlage des traditionellen Printwesens
merkbar dazu übergehen, ihren Autoren keine Honorare mehr anzubieten
und bereits Druckkostenzuschüsse von den Autoren selbst verlangen,
die Kleinauflagen meist nur über ein schmales Marktsegment angeboten
werden, ist das Netz durchaus zu einer plausiblen Alternative geworden.
Aus eigener Erfahrung weiss ich, dass eine meiner umfangreichen Arbeiten
über die Kulturpolitik des Kalten Krieges im Netz entschieden von
mehr Lesern gelesen wird, als ich über einen kleinen oder mittleren
Verlag erreichen hätte können.
Besser positioniert wäre es sicher jedoch in einem grossen Verlag,
da man man dann auch davon ausgehen kann, dass das Buch auch entsprechend
beworben wird.
7 Jahre Electronic Journal Literatur Primär
Das Electronic Journal Literatur Primär besteht gemeinsam mit thing.at nun seit mehr als sechs Jahren im World Wide Web und ist nach wie vor gut positioniert.
Inhaltliche Orientierung
Das Electronic Journal Literatur Primär versammelt Beiträge aus österreichischer Gegenwarts-Literatur, Geisteswissenschaften, aus Theorie und Praxis der Neuen Medien, insbesondere in ihrer kulturellen und künstlerischen Ausrichtung, ebenso wie Beiträge aus Gesellschaft und Politik.
Die Auswirkungen der Neuen Medien und Kommunikations- Technologien auf Publishingwesen, auf Kultur, Gesellschaft und Wirtschaft werden beobachtet und kommentiert. Das Electronic Journal Literatur Primär versammelt weiters Beiträge zur Kulturgeschichte der 2.Republik und der Auswirkungen des Kalten Krieges auf das kulturelle und politische Leben; ein hoch aktuelles Thema. Erste Publikationen sind bereits on-line.
Autoren & Autorinnen
Das Electronic Journal Literatur Primär bietet österreichischen
Autoren und Autorinnen eine attaktive Web-Plattform und gewinnt aus seiner
Konzeption und aus den Beiträgen die nötige inhaltliche Qualität.
Der Autorenkreis des Electronic Journal Literatur Primär wird
ständig erweitert.
Statistik - Präsenz im globalen Netz
Gemeinsam mit thing.at hat das Electronic Journal Literatur Primär in den letzten sieben Jahren eine international bemerkenswerte Webpräsenz erreicht . thing,at zählt heute im Global Ranking zu den Top 1% der Websites weltweit.
TOP RANKING
thing.at Vienna under the best 1 % in Global Web Präsenz
http://www.websmostlinked.com
The domain: thing.at, is ranked #8691 out of 1048254 domains in the
WebsMostLinked.com database. Zu diesem leider nur ideellen Erfolg hat das
Electronic Journal Literatur Primär einen guten Anteil beigetragen.
Das Electronic Journal Literatur Primär ist weltweit in über
1000 Web Indexe eingetragen.
Nützliche Präsenz der AutorInnen im World Wide Web
Die Adresse des Electronic Journals Literatur Primär ist in vielen
wichtigen Web-Indexen (siehe Anhang) eingetragen. Universitäten (u.a.
Harvard, Princeton, FU_Berlin, Humboldt Universität), Herausgeber
von On-Line Literatur Publikationen, Web Presse Indexe führen das
Electronic Journal Literatur Primär in ihren On-Line Verzeichnissen.
Viele UserInnen greifen auf das Electronic Journal via Suchmaschinen
in spezifischen Abfragen auf das Electronic Journal Literatur Primär
zu und finden so rasch Texte von AutorInnen ihrer Wahl.
Die Texte werden mit dem expliziten Einverständnis der AutorInnen
veröffentlicht. Das copyright © verbleibt selbstverständlich
bei den AutorInnen.
Das Electronic Journal ist eine offiziell registriertes Web Organ mit
der ISSN Nummer 1026-0293
Verbindungen und nützliche Kontakte
Das Electronic Journal Literatur Primär verfügt über gute Beziehungen zu Bibliotheken und Archiven und zählt mit dem Admontinischen Universum zu den ersten Web Sites die in den neugegründeten digitalen Sammelbestand der Österreichischen Nationalbibliothek aufgenommen wurden.
Besondere Beachtung finden die Veränderungen und Erweiterung der Kommunikations- und Dialogmöglichkeiten durch die Nutzung der Interaktivität und der globalen Vernetzung. Das Electronic Journal bietet ebenso Zugriff auf verwandte Publikationen im Netz bzw. auf Sites, die sich ebenso qualitäts- und niveauvoll mit der Entwicklung der Internet-Kultur auseinandersetzen.
Kulturjournale sind Nischenprodukte in den unendlichen Weiten des Webs und sind auf Vermittlung und Verständnis der institutionellen Medien und die Empfehlungen der einzelnen LeserInnen angewiesen.
n receipt of the following information, your business information
can be listed among thousands of highly successful executives and professionals
who would also like a fast and easy way to communicate with their peers.
There are a variety of business publications that will list your
information for free. The information you provide below will help in finding
a registry, directory or trade publication that would be best suited for
your personal business expertise.
In many cases your acceptance into one or more of these publications
can be considered recognition for your accomplishments throughout your
business career.
For the traditional book publications it is important to provide
the company’s SIC code (Standard Industry Classification code). Some of
the registries list the companies by SIC codes to make it easier to find
the type of business you would be looking for.
If you would like to be published in an on-line registry, you would
want to submit several “key words” that would enhance the search capabilities
for your organization. The more “key words” your listing contains the easier
your information can be accessed by the individuals that are looking for
your type of business or expertise.
Deutscher E-Book-Verlag startet mit rund 100 Büchern
Ab sofort ist ein neues Angebot für digitale deutschsprachige
Unterhaltungsliteratur im Netz verfügbar. Unter www.readersplanet.de
findet der interessierte Surfer mehr als 100 belletristische Titel zum
Download.
Web.de setzt auf Google
Web.de setzt in Zukunft auf die Suchmaschine Google, um eine verbesserte
Suchqualität zu bieten. Damit trennt sich Web.de von der Suchtechnik
von FAST Search & Transfer.
AltaVista aktualisiert seinen Index und sein Design
Mit einem Re-Design der deutschen Website und einer kompletten Erneuerung
seines Index reagiert AltaVista auf das explosionsartige Wachstum des Internet.
Der Datenbestand an indizierten Dokumenten umfasst jetzt 82 Millionen Dokumente.
Neben den Suchergebnissen sollen die AltaVista-User durch das Re-Design
von einer einfacheren Navigation auf der Site und von schnelleren Seiten-Ladezeiten
profitieren.
Amerikaner nutzen Internet zunehmend für religiöse Zwecke
In einer repräsentativen Umfrage, bei der das Pew Internet
& American Life Project im Sommer 2001 US-Amerikaner befragte, wurde
untersucht, wie sehr das Internet für religiöse Zwecke genutzt
wird. Demnach besuchen mehr als drei Millionen Amerikaner täglich
Websites mit spirituellen oder religiösen Material und damit deutlich
mehr als im letzten Jahr, als nur 2 Millionen entsprechende Websites täglich
aufsuchten. Rund 25 Prozent der befragten Personen gaben an, gelegentlich
religiöse oder spirituelle Websites aufzusuchen. Im Jahr zuvor waren
es noch 21 Prozent.
Siehe auch Admontinisches Universum http://admont.thing.at
Vernetzung
Der Begriff der Vernetzung sollte nicht allein auf das Internet angewendet
werden. Vernetzung betrifft all unsere Lebensbereiche und bildet das Grundgerüst
einer allumfassenden elektronischen Kultur.
Das elektronische Kontinuum bildet eine künstliche Welt, die von
digitalen Bildern entferntester Galaxien bis hin zum netzwerkfähigen
Haushalt reicht.
Das kosmisch Unendliche steht scheinbar gleichberechtigt neben dem
trivialen Alltag. Der vernetzte Mensch nimmt teil am Ganzen, wird zum Teilchen
eines umfassenden Verbundes. Die Vernetzung von PCs, Handys und Internet
lassen heute bereits die Vision eines elektronischen voll integrierten
Menschen in realen Zügen wahrnehmen.
Tatsächlich lässt sich ausserhalb des weltumfassenden Technopols
die Entwicklung einer anderen oder gleichwertig konkurrenzierenden Kultur
nicht mehr denken. Die elektronisch technische Revolution hat nicht nur
unser westliches System und unsere individuellen Lebensbereiche erfasst.
Sie streckt ihre Fühler gobal aus, trachtet danach, alles in den Griff
zu bekommen. Jene Staaten und Gesellschaften, die nur über beschränkte
oder rückständige technologische Fähigkeiten verfügen,
haben überhaupt keine Chance mehr, Alternativen zu dieser globalen
Konzeption zu entwickeln.
Das Internet als zentraler Datenspeicher der Menschheit gerät
zur totalitären Horrorvision. Bill Gates hat anlässlich seines
Wiener Aufenthaltes einmal mehr das papierfreie Büro gefordert. Das
bedeutet, dass wir alle unsere Daten, private und gesellschaftliche dem
Datenspeicher und einem Netz überantworten, das jederzeit einem Virenangriff
oder einem Hacker zum Opfer fallen kann.
Das politische und wirtschaftliche System des Kapitalismus, insbesondere der USA und ihrer Verbündeten zeigt ungebrochenen Expansionswillen und verfügt sowohl über die politischen, wirtschaftlichen, militärischen und technologischen Instrumentarien diesen Willen auch durchzusetzen.
Die USA zeigen sich auch keineswegs daran interessiert, dass unabhängige
Technopole neben dem ihren bzw. unabhängig davon entstehen.
Aktuell soll entschieden werden, ob die EU mit ihrem System Galileo
ein eigenes globales Satellitensystem zur Erdüberwachung neben dem
bereits existierenden amerikanischen GPS System einrichten soll. Die Befürworter
stellen die Unabhängigkeit von den US-Einrichtungen in den Vordergrund.
Doch stellt es sich eben immer mehr heraus, dass das Projekt der elektronischen
umfassenden Vernetzung im Wesen eben ein globales Konzept ist, in dem eine
europäische Alternative möglicherweise gar nicht mehr sinnvoll
erscheint und nur zusätzliche Kosten verursacht. Sollten die Europäer
auf eine eigene Satelliteninfrastruktur verzichten, geraten sie andererseits
in eine weitere Abhängigkeit von den USA.
Tatsächlich fallen die wirklichen geopolitischen Entscheidung heute im elektronischen Gesamtraum. Die Landmarken der Zukunft werden nicht mehr im natürlichen, sondern im elektronischen Raum gezogen.
LG Electronics kündigt vernetzte Küchengeräte an
LG Electronics will ab dem vierten Quartal 2002 eine Serie von netzwerk-
und internetfähigen Haushaltsgeräten auf den US-Markt bringen,
wie der koreanische Elektronikhersteller nun mitteilte. Den Anfang machen
ein Kühlschrank, eine Mikrowelle und eine Waschmaschine, die LG zum
Teil schon im letzten Jahr demonstrierte, aber noch nicht auslieferte
Computerpanne macht ISS vorübergehend steuerlos
Die Internationale Raumstation ISS ist nach einem Computerproblem
im russischen Teil ins Trudeln geraten. Für sechs Stunden konnte die
Station nicht korrekt gesteuert werden, was zu Problemen bei der Stromversorgung
führte, da die Solarzellen nicht auf die Sonne ausgerichtet waren.
Wie die NASA am Montag mitteilte, konnte das Problem von der russischen
Bodenkontrolle schließlich gelöst werden. Der fehlerhafte russische
Computer, der die Ausrichtung der ISS im All kontrolliert, wurde neu gestartet
und arbeitete danach wieder normal, wie es hieß.
Zensur
Die Zensurdebatte begleitete die Entwicklung des World Wide Webs von
Anbeginn an. Nachdem das Netz sowohl zur Verbreitung rechtsradikaler Propaganda
und wie auch als Tauschplatz von Pornografie in ihren schlimmsten Formen
missbraucht wurde, wurden die Stimmen nach staatlicher Zensur laut.
Die meisten Kritiker sind heute verstummt, da der positive Nutzen des
Netzes bei weitem überwiegt und extreme Auswüchse von der Netzcommunity
weitgehend selbst gemieden werden.
Auch eine Zurückgehen der pornografischen Flut von Bildern, die
durchaus dem allgemeinen Bilderangebot in diversen TV-Kanälen, dem
Print- und Videoangebot entspricht, ist merkbar.
Ebenso gescheitert sein dürfte das grosse staatliche Überwachungsprogramm
der USA. Technisch lässt sich zwar die im Netz bestehende und kursierende
Information weitgehend erfassen. Doch gerade die Menge und Fülle des
Materials verhindert eine inhaltliche Bewertung.
Es verbleibt jedoch ein unangenehmes Gefühl allgemeiner Überwachung,
dessen Ursachen in den technischen Möglichkeiten und andererseits
in den aktuellen Gesetzesvorlagen zur Regulation der Netz Kommunikation
zu finden sein dürfte.
Mangels an wirklich eklatanten Einschränkungen der allgemeinen
Meinungsfreiheit werden Anlässe in den Diskurs eingebracht, die dazu
keineswegs geeignet erscheinen. So hat im Jänner 2002 ein junger Medienkünstler
die Regierung des Bundeslandes Nordrhein Westfalen geklagt, weil diese
die Zugänge zu bestimmten führenden rechtsextremistischen Websites
gesperrt hat.
Alvar Freude und sein Mitarbeiter haben 2001 für ein merkwürdig
manipulatives Projekt den Medienkunstpreis des SWR und des ZKM erhalten.
Sie haben über mehrere Wochen mit Einverständnis der Institution
den Server der Stuttgarter Merz Akademie willkürlich verändert.
Zwei Personen kontrollieren 250 Personen
Um die Kompetenz und Kritikfähigkeit der Anwender bezüglich des Alltags-Mediums Internet zu überprüfen, kontrollierten und manipulierten wir im Rahmen unserer Diplom-Arbeit insert_coin den Web-Datenverkehr an der Merz Akademie in Stuttgart. So verwandelten wir beispielsweise Suchmaschinen in Denunzier-Portale, veränderten aktuelle Meldungen auf Nachrichten-Sites; selbst Wörter in privater Email-Kommunikation, die über Web-Interfaces wie Hotmail abgerufen wurde, liefen durch unsere Filter. – Und niemand bemerkte es.
Authenzität vorzutäuschen war uns ein Leichtes, denn auch die Adressen (URLs), die Daten im Web unverwechselbar auszeichnet, wurden von uns kontrolliert. Als wir das Experiment den Studenten und Mitarbeitern der Akademie bekannt machten, interessierte sich jedoch so gut wie niemand dafür. Obwohl wir eine simpel zu befolgende Anleitung veröffentlichten, mit der jeder selbstständig, den Filter ausschalten konnte, nahm sich nur ein verschwindend geringer Teil der Studenten eine Minute Zeit, um eine einfache Einstellung vorzunehmen und so wieder an ungefilterte Daten heranzukommen. Noch mehrere Monate nach der Beendigung unseres Experiments war der Web-Zugriff von den meisten Computern der Akademie aus gefiltert.
Jetzt werfen Freude und Co. dem Land Nordrhein Westfalen Einschränkung
der Meinungsfreiheit und Manipulation des Internets vor. Nach dem deutschen
Grundgesetz sind jedoch die Behörden verpflichet, Neonazipropaganda
zu verhindern.
In bestürzender Weise sehen sowohl führende Mitglieder des
Chaos Computer Clubs Hamburg und das wichtigste deutsche Web Magazin Telepolis
in einem Artikel diese legitime und nötige Massnahme als einen Akt
der Zensur an. Der österreichische Depeschendienst Quintessenz kommt
zu ähnlichem Schluss.
Besonders spaßig liest sich die Begründung und die Liste
jener Paragraphen, gegen die von den Möchtegern-Zensoren mutmaßlich
verstoßen wird. Die Qualität und Machart der indizierten Pages
ist unerheblich. Wichtig ist, dass der Versuch einer Provinzregierung,
sich in puncto Sauberkeit ihr eigenes Provinzinternet zu schaffen, damit
adäquat beantwortet ist.
Die Qualität und Machart der indizierten Pages, auf denen offen
rassistische Verhetzung und nationalsozialistische Propaganda betrieben
wird, ist also laut Quintessenz unerheblich.
Stattdessen wird die Anklage eines Politikers, der in dieser Frage
offensichtlich Haltung bewiesen hat, für richtig empfunden. Sollte
das Verbot rechtsradikaler Sites auch weiterhin Anlass von Debatten im
Namen der Menschenrechte sein, kann dies zu einer empfindlichen Verzerrung
des wahren Sachverhaltes führen.
Dass die Nazis die öffentliche Meinung völlig gleichgeschaltet
haben, dass sie strenge Zensurmassnahmen bis hin zur Vernichtung von Andersdenkenden
angewandt haben, scheint die vorgeblichen Kämpfer um die demokratischen
Grundrechte gar nicht zu kümmern. Glauben sie den wirklich, dass die
Betreiber der Nazisites andere Ziele haben, als die der totalen Unterwerfung
der öffentlichen und der individuellen Meinung.
Wer die nötige Auseinandersetzung um den Erhalt der Publikationsfreiheit
im Rahmen der elektronischen Medien an solchen Anlässen und Inhalten
aufhängt, wird langfristig gesehen das Gegenteil erreichen und muss
damit rechnen, als Wegbereiter des Rechtsextremismus angesehen zu werden.
Verfassungsschützer drohen eBay mit Strafverfolgung
Deutsche Verfassungsschutzbehörden drohen dem Internet-Auktionshaus
eBay juristische Schritte an. Nach Recherchen des ZDF-Magazins Frontal
21 werden über den eBay-Internetservice zahlreiche verbotene, von
Gerichten beschlagnahmte und indizierte Ton- und Bildträger mit volksverhetzenden
und gewaltverherrlichenden Inhalten verkauft.
Nintendo gewinnt Prozess gegen Websitebetreiber
Nintendo of America hat bekannt gegeben, dass ein beim U.S. District
Court in Seattle, Washington, angestrengter Prozess gegen 49 Websites,
die nach Angaben von Nintendo Urheberrechte des japanischen Videospieleherstellers
verletzen, gewonnen werden konnte. Infolgedessen müssen sämtliche
Rechte an den benannten Domains an Nintendo übergeben werden.
CCC: Nordrhein-westfälischer Provider sperrt Internetseiten
Der Chaos Computer Club berichtet, dass zumindest der Düsseldorfer
Internetprovider ISIS "in vorauseilendem Gehorsam den Zugriff auf mehrere
Seiten im Internet behindert". Der Zensurversuch erfolgt laut CCC Düsseldorf
durch eine Änderung des DNS-Eintrages auf dem ISIS-Nameserver, was
jedoch durch ein Ausweichen auf andere Nameserver umgangen werden könne.
Porno-Filter für jeden Computer gefordert
Deutsche Politiker wollen verpflichtende Installation von"Cyber
Sentinel"
Computernutzer sollen nach dem Willen der deutschen CDU/CSU bald
verpflichtet werden, in ihren Rechnern eine spezielle Filtersoftware gegen
Internetseiten mit Kinderpornografie zu installieren. Der rechtspolitische
Sprecher der CDU/CSU-Bundestagsfraktion, Norbert Geis (CSU), will der "Bild
am Sonntag" (BamS) zufolge eine Gesetzesinitiative prüfen lassen,
die die Installation des Programms "Cyber Sentinel" zur Pflicht macht.
Auch der stellvertretende Bundesvorsitzende der Deutschen Polizeigewerkschaft,
Rainer Wendt, setzte sich für die Filtersoftware ein. Wendt forderte
in dem Zeitungsbericht die Installation von "Cyber Sentinel" in deutschen
Universitäten, Schulen, Internetcafes und Firmen. (APA)
http://www.securitysoft.com/new601/cs_bus.htm
Kommunikationshilfen
http://www.webspeech.de/
Wer täglich mit englischen Texten zu tun hat, für den sind kostenlose Online-Wörterbücher wie das LEO English/German Dictionary von der TU-München oder andere Übersetzungsdienste eine große Hilfe. Der Übersetzungssoftwareanbieter Linguatec bietet nun mit Linguadict.de ein eigenes, kostenlos nutzbares Online-Wörterbuch an.
Wirtschaft
Die Vision der New Oeconomy hat wesentlich zum Internet Hype der letzten Jahre beigetragen. Die New Oeconomy versprach global wirksame Organisationsformen und Milliardengewinne. Mit dem Ende des 20.Jahrhunderts platzte dieser gigantisch aufgeblasene Wirtschaftstraum. Anstelle neuer Vertriebs- und Handelsstrukturen stürzten die Kurse der Technologiewerte in den Keller und markierten den Beginn einer weltweiten Rezession. Völlig überhitzte Vorstellungen haben zu diesem Deasaster geführt. Mit Risikokapital gegründete dot.coms, die meist ausser einer virtuellen Geschäftsidee nichts besassen, verschwanden von heute auf morgen von der Bildfläche und mit ihnen eine Unmenge in den Sand gesetzten Kapitals. Dieser Flop betraf weniger die Computer- und Netztechnologiehersteller.
Technische Ausrüstungen waren permanent gefragt, hatte die New
Oeconomy Welle doch wesentlich den Ausbau des Netzes beschleunigt. Jeder
und jede wollte partizipieren bzw. in der allgemeinen Vernetzung und Digitalisierung
beteiligt sein. Offensichtlich hat die Computerisierung in der menschlichen
Kultur einen Stellenwert eingenommen, der ein Beiseitestehen nicht mehr
erlaubt. Umso bestürzender waren dann die wirtschaftlichen Einbrüche,
deren wahres Ausmass und deren Folgen für die allgemeine Entwicklung
der Weltwirtschaft noch nicht völlig absehbar sind. Die Visionen der
New Oeconomy waren eng verbunden mit kulturellen Vorstellungen, die nun
angesichts des Deasasters neu überdacht werden müssen. Wie sehr
sich kulturelle Vorstellungen an wirtschaftliche Prozesse angenähert
haben, zeigt folgendes Beispiel aus dem Steirischen Herbst 2001.
Literarische Texte wurden an einer eigenst eingerichteten Literaturbörse
als virtuelle Werte gehandelt und abgesehen von einer Vorauswahl einer
völlig freien Bewertung durch die Börsenspielteilnehmer überlassen.
Warum ein Text gut ist, lässt sich aus den Kaufentscheidungen der
Kulturbörsenspieler nicht entnehmen. Das Ergebnis hat im wesentlichen
auch keinerlei Folgen, ausser dass sich der Gewinner Franzobel darüber
freuen darf, besser als Elfriede Jelinek abgeschnitten zu haben. Ebenso
berechtigt ist der Zweifel, dass dadurch Literatur eine weitere Verbreitung
finden könnte.
In merkwürdiger Weise ähnelt das literarische Börsenspiel
der New Oeconomy. Es wurden rein virtuelle Werte verhandelt. Nur dass im
konkreten wirtschaftlichen Kontext die realen Börsen der Weltwirtschaft
mitgespielt haben und am Ende vor einer wirtschaftlichen Katastrophe standen.
Das Experiment ist zu Ende
http://www.literaturboerse.com/data/atts/boerse_end.pdf
Ein Hinweis vorneweg: Im Konferenzraum werden sukzessive die Referate der SymposionteilnehmerInnen veröffentlicht. Wir laden Sie ein, mitzudiskutieren.
Von 1. Juni bis 1. November 2001 hatte die Literatur ihre Börse im Internet. Das Projekt www.literaturboerse.com konfrontierte die Literatur im Rahmen des Kunstfestivals „steirischer herbst“ mit den Mechanismen des Finanzkapitalismus. Das Projekt setzte sich zum Ziel, Literatur in den Rahmenbedingungen der Gegenwart zu diskutieren. Diese Rahmenbedingungen sind nun einmal Marktbedingungen.
Über 100 Autorinnen und Autoren haben ihre Texte an die Börse geschickt. Knapp 40 Texte wurden für das „going public“ ausgewählt, von zuletzt 712 Mitspielern in ihr Portfolio aufgenommen und mit steigender Intensität gehandelt. Vor allem die letzten Börsenwochen waren von turbulenten Handelsaktivitäten gekennzeichnet. Einige Mitspieler berichteten von Suchterscheinungen und stark erhöhten Telefonrechnungen. Allein im Oktober wurden die Seiten der Literaturbörse 922.000 mal aufgerufen. Insgesamt wurden 1622 Milliarden Anteile der gehandelten Texte abgesetzt.
Business Meeting
Die Gewinner
Als gewinnorientiertester Anleger ging Christian Kraus mit einem Vermögen in der unvorstellbaren Höhe von 407 Billionen Euro aus dem Börsenspiel hervor. Er erhielt einen Gutschein in der Höhe von Euro 363.- von unserem Sponsor Amazon.at.
Spannend waren auch die Vorgänge im Spitzenfeld der Wertpapiere zu beobachten. Bei der Berechnung der Gesamtresultate wurde neben dem Kurswert-Durchschnitt der jeweiligen Aktie auch die Zahl der verkauften Aktien als Kenngröße herangezogen. Der erfolgreichste Text stammt aus der Feder von Franzobel. Er erhielt einen Scheck in der Höhe von 727.- Euro von der Wiener Börse AG. Das vollständige Endergebnis finden Sie hier, die Spartensieger abschließend:
Flugangst von Franzobel (Sparte Drama): LAIX-Wert 341,5
Das versunkene Feld von Enno Stahl (Sparte Experiment): LAIX-Wert
141,1
Das ist Drogen...! von Lou A. Probsthayn (Sparte Prosa): LAIX-Wert
169,35
Der Stoff aus dem die Welt von Björn Kuhligk (Sparte Lyrik):
LAIX-Wert 174,05
Die Börsenaufsicht des garnierten Literaturflups
AOL Time Warner: Verlust von 996 Millionen US-Dollar
AOL Time Warner hat die Zahlen für das dritte Bilanzquartal
2001 veröffentlicht. Unter Berücksichtigung aller Kosten entstand
ein Verlust von 996 Millionen US-Dollar. Auf die einzelne Aktie gerechnet
ist dies ein Nettoverlust von 22 US-Cent.
Siemens mit Nettoverlust von rund 1,1 Milliarden Euro
Das Siemens-Konzernergebnis nach Steuern für 2001 liegt bei
2,088 Milliarden Euro einschließlich Infineon, Sondereffekten sowie
Aufwendungen für Restrukturierung und Sonderabschreibungen. Siemens
(ohne Infineon) erzielte im operativen Geschäft ein EBITA von 1,329
Milliarden Euro. Hierin enthalten sind Aufwendungen für Restrukturierung
und Sonderabschreibungen in Höhe von 1,863 Milliarden Euro. Ohne diese
Sonderbelastungen ergibt sich ein EBITA in Höhe von 3,192 Milliarden
Euro.
Flexibilität in New-Economy-Unternehmen schafft Probleme
Wer seine IT-Fachleute im Unternehmen halten will, muss sich darum
kümmern, dass sie bleiben. Denn die hohe Flexibilität in Unternehmen
der New Economy sorgt laut dem Institut Arbeit und Technik (IAT/Gelsenkirchen)
nicht nur für schnelle Reaktionsfähigkeit und hohe Innovationsdynamik,
sondern sorgt auch für Instabilität, wenig Mitarbeiterbindung,
Fluktuation und damit den Verlust von Know how.
Bannerwerbung macht private zu gewerblichen Websites
Eine Markenverletzung gleich welcher Art kann nur dann vorliegen, wenn
das betreffende Kennzeichen "im geschäftlichen Verkehr" verwendet
wurde. Eine (bezahlte) Bannerwerbung kann nach einem Spruch (Az. 2 - 06
O 212/01) des Landgerichts Frankfurt am Main daher für eine "private"
Homepage zu einer kritischen und teueren Falle werden.
Bannerwerbung macht private zu gewerblichen Websites
LG Frankfurt mit neuem Urteil zum Markenrecht
Eine Markenverletzung gleich welcher Art kann nur dann vorliegen, wenn das betreffende Kennzeichen "im geschäftlichen Verkehr" verwendet wurde. Eine (bezahlte) Bannerwerbung kann nach einem Spruch (Az. 2 - 06 O 212/01) des Landgerichts Frankfurt am Main daher für eine "private" Homepage zu einer kritischen und teueren Falle werden.
Das Gericht beschied, dass der Beklagte mit der Verwendung der Bezeichnung "Ballermann" im Metatag seiner Homepage Markenrechte der Klägerin verletzt habe.
Der Beklagte könne nicht geltend machen, dass er nicht im geschäftlichen Verkehr gehandelt habe. Zur Verwirklichung dieses Merkmals sei es ausreichend, so das Gericht, wenn die Handlung einem beliebigen eigenen oder fremden Geschäftszweck dient, wobei Gewinnabsicht, Entgeltlichkeit oder ein Wettbewerbsverhältnis nicht Voraussetzung sind.
Da der Beklagte auf seiner Homepage auf kommerzielle Partyveranstaltungen hinweise und auf seinen Seiten auch ein Werbebanner angebracht hatte, verfolge er auch eigene geschäftliche Ziele.
Damit folgte das LG Frankfurt a.M. einer früheren Entscheidung des LG Hamburg (Az.: 315 O 219/99), das die Benutzung einer fremden Marke als Domain-Name (hier Lucky-strike.de) nicht als erlaubte Privatnutzung duldete, da auf der Domain Werbe-Banner oder Links zu geschäftlichen Angeboten waren. Nach § 14 MarkenG ist jegliche Benutzung einer fremden Marke im geschäftlichen Verkehr verboten. Nach Auffassung des Gerichts war die Verwendung von Werbebannern oder Links zu geschäftlichen Angeboten bereits ein solches Handeln im geschäftlichen Verkehr.
T-Online: Inhalte werden kostenpflichtig.
Ab sofort bietet T-Online kostenpflichtige Inhalte an. Im ersten
Schritt realisiert T-Online mit namhaften Partnern Inhalte aus den Bereichen
Wirtschaft, Entertainment, Sport und Wellness. Zudem stellt man Testberichte
zu verschiedenen Themen zur Verfügung.
1&1 Puretec schaltet dotcomtod ab (Update)
Eigentlich wird auf dotcomtod über aktuelle und kommende Pleiten,
Entlassungen und andere "exitorientierte" Nachrichten diskutiert, vorzugsweise
von New-Economy-Unternehmen. Doch nun ist die Site selber abgeschaltet
- unfreiwillig. Auf Grund des hohen Besucheraufkommens schaltet der Provider
1&1 Puretec die Datenbank des Online-Angebots ab
Internet World Germany 2002 bekommt Zuwachs
Die Internet World Germany bekommt Gesellschaft. Unter dem Motto
"5 Messen - ein Standort" finden vom 4.- 6. Juni auf dem Berliner Messegelände
parallel zur Internet World Germany 2002 vier weitere Messen statt: die
Streaming Media Germany, die ISPCON/ASPCON, die Mobile World und die Call
Center Trends. Insgesamt werden mehr als 1.200 Aussteller und 90.000 Fachbesucher
erwartet
US-Wirtschaft: Billionen-Grab Internet
Nach den neuen Bilanzierungsregeln müssen US-Unternehmen offen legen, wie viel Geld sie durch die geplatzen Internet-Träume verloren haben. Diese Monster-Abschreibungen werden offenbar beispiellose Ausmaße erreichen.
New York - Den Anfang machte AOL Time Warner. 40 bis 60 Milliarden Dollar müsse das Unternehmen nach den neuen Richtlinien abschreiben, sagte Richard Parsons, der im Mai den Chefposten des Medienkonzerns übernimmt.
Nach Ansicht von Alfred King, Vizechef von Valuation Research und Berater der US-Regierung, öffnet das Eingeständnis von AOL die Schleusentore. Einem Bericht der Londoner "Times" zufolge erwarten er und andere Analysten, das US-Firmen im ersten Quartal insgesamt bis zu einer Billion Dollar abschreiben werden. Eine solch hohe Summe wäre in der Börsengeschichte ohne Beispiel.
Science
Wissenschaftler der Bell Labs bauen organische Transistoren
Wissenschaftler der Bell Labs von Lucent Technologies haben organische
Transistoren mit einer Kanallänge von nur einem Molekül entwickelt
und damit nach eigener Ansicht die Grundlagen für eine neue Klasse
von preisgünstigen Elektronik-Bauelementen auf Basis von Kohlenstoffverbindungen
geschaffen.
Nanoelektronik: Molekülgroßer Transistor entwickelt Zhenan Bao und Hendrik Schon, zwei Forscher von Lucents Bell Labs, haben den vermutlich ersten individuell adressierbaren Transistor gefertigt, der aus nur einem organischen Molekül besteht. Im Vergleich mit aktuellen Transistoren ist Bell Labs Ein-Molekül-Transistor nur ein Zehntel so groß - etwa zehn Millionen davon finden auf dem Kopf einer Nadel Platz.
IBM baut Quantencomputer
Forscher an IBMs Almaden Research Center haben die bisher komplizierteste
Berechnung mit einem Quantencomputer durchgeführt. Mit sieben Qbits
lösten sie eine vereinfachte Version des mathematischen Problems,
das das Herz heutiger erschlüsselungssysteme bildet.
Neuer IBM Supercomputer Blue Storm für Wettervorhersage
IBM hat vom European Centre for Medium-Range Weather Forecasts den
Auftrag zum Bau eines neuen Supercomputers erhalten. Das Gerät soll
Meteorologen für die Wettervorhersage in ganz Europa deutlich bessere
und genauere Prognosedaten bieten als jetzige Systeme, beispielsweise in
den Bereichen Frühwarnung bei Stürmen und Fluten oder für
optimierte Schiffsroutenplanung.
IBM führt zum neunten Mal die US-Patentanmeldungsliste an
IBM hat sich im Jahr 2001 in den USA nun schon zum neunten Mal in
Folge an die Spitze der Neuanmeldungen von Patenten gesetzt. Das Unternehmen
konnte im Vergleich zum Vorjahr sein Patentvolumen um rund 20 Prozent steigern.
IBM ist damit das erste Unternehmen, das insgesamt mehr als 3.000 Patente
in einem einzigen Jahr zugesprochen bekommen hat.
Open Source: invers most http://www.google.de
Fortsetzung folgt...