Dienstag, 10. Mai 2005

Onlinewelt in "Tabs"

Zu den Programmen am PC, die Tag für Tag (und in vielen Nächten) am häufigsten verwendet werden, zählt der Browser - der Gatekeeper in die Onlinewelt, bei der überwiegenden Zahl der Benutzer seit Jahren der Internet Explorer.

Doch obwohl sich unser Internetgebrauch dramatisch erhöht und verändert hat, ist der Explorer vor vielen Jahren stehen geblieben und wurde von Microsoft nicht weiterentwickelt. Aber es gibt seit längerem Alternativen, und Firefox hat sich inzwischen als stabiler und besserer Browser etabliert (www. mozilla. org). Entwickelt wurde Firefox von der Open Source Community, quasi eine internationale Software-Freiwilligentruppe.

Was bringt Firefox beim täglichen Internetgebrauch? Zum einen schützt Firefox besser als der Explorer vor böswilligen Zeitgenossen, da es eine "ActiveX" genannte Funktion nicht verwendet, die von Hackern missbraucht werden kann.

Zum anderen hat es eine Reihe neuer, sehr brauchbarer Funktionen. Die beiden wichtigsten: "Tabs" anstatt einer Vielzahl von Fenstern, um mehrere Websites parallel besuchen zu können, und die Möglichkeit Neuigkeiten mit Hilfe einer RSS genannten Technik abonnieren zu können.

Für "Tabs" gibt es zumindest bis auf weiteres noch kein deutsches Wort - nebenbei ein Nachteil von Firefox, der derzeit nur Englisch spricht (Erratum zur Print-Ausgabe: Es gibt natürlich eine Deutschsprachige Version, wie viele weitere Sprachen). Tabs sind die von Amazon und anderen Websites vertrauten "Reiter" (so nennt man das bei Hängeordnern) am oberen Seitenende, die man anklicken kann um zwischen Seiten zu wechseln - ähnlich den Menüpunkten in Programmen und Einstellungen.

Statt wie im Explorer mehrere Fenster aufzumachen, wenn man gleichzeitig mehrere Sites verwenden will, erhält jede Homepage ihr eigenes Register in ein und dem selben Fenster - das erhöht die Übersichtlichkeit am Bildschirm. Mein Tagesablauf zum Beispiel beginnt meist mit der Lektüre mehrerer Zeitungen - ein Klick auf die entsprechende Lesezeichengruppe und alle Seiten öffnen sich gleichzeitig. So können sie während des Tages auch offen bleiben, um Aktualisierungen leichter verfolgen zu können. Zusammengehörige Seiten kann man so zu Gruppen zusammenfassen, die mit einem einzigen Klick aufgerufen werden.

Übersichtlichkeit wird auch durch RSS ("Real Simple Syndication") erleichtert, eine Art Abo-System, das viele Websites anbieten. Seiten mit RSS sind durch ein Symbol kenntlich, das man in ein Lesezeichen verwandeln kann - allerdings zeigt dieses Lesezeichen in Zukunft immer nur alle neuen Überschriften an, die man dann gezielt öffnen kann, wenn man an einer Geschichte Interesse hat. So spart man sich, laufend viele Websites abzuklappern um auf Neuzugänge zu kontrollieren: In der Überschriftenliste kann man dies sofort erkennen.

Es gibt auch einige Nachteile von Firefox: Manche für den Explorer optimierten Seiten werden nicht gut dargestellt; und es kann Schwierigkeiten bei der Anzeige von PDF-Dateien im Browser geben. In diesem Fall kann man aber leicht auf den Explorer zurückgreifen. Aber in Summe ist der Firefox eine gute Weiterentwicklung, die einem das Onlineleben um einiges leichter macht.
--------------------------------------------------------------
@ Der Standard / Helmut Spudich

DVD-Formatkriege? Wie öd.

Blu-Ray oder HD-DVD: Der Formatkrieg zwischen Sony und Toshiba ist sinnlos. Leitungen machen das Rennen.

Stell dir vor, es ist Krieg, und keiner will ihn zahlen. Die Tech-Welt liebt "Kriege" - jahrelange Marktkämpfe um Standards, aus denen ein System als glor-reicher Sieger hervorgeht. Die Breite von Eisenbahnschienen, die Spannung von Stromnetzen, die Größe von Steckdosen, VHS gegen Betamax, Windows gegen Apple.

Jetzt also die nächste Runde: Blu-Ray gegen HD-DVD, zwei Formate für DVD-Scheiben, die unsere Welt noch bunter, noch aufregender machen sollen. Auf der einen Seite Sony und Verbündete, die mit Blu-Ray DVD in den Kampf um Territorium bei Konsumenten ziehen, auf der anderen Seite Toshiba und Konsorten mit HD-DVD. Was beide versprechen: Silberscheiben für 20 Gigabyte an Daten und mehr, oder praktischer ausgedrückt: DVDs für hochauflösendes Video, das Heimkino erst wirklich zu Kino macht.

Wie öd. Format-"Kriege" sind ein Konzept des vergangenen (oder wie bei Eisenbahnschienen: vorvergangenen) Jahrhunderts, mit dem heute keine Märkte und entsprechende Monopoleinnahmen mehr zu machen sind. Das hat zwei Gründe: zum einen die egalisierende Wirkung digitaler Technologie. Und zum anderen: Das goldene Zeitalter der Silberscheibe neigt sich dem Ende zu.

Eisenbahnschienen (die Wiener Grünen machten vor Kurzem den erfrischenden Vorschlag, die Bahn von Wien nach Bratislava mit der Spurbreite der Transsibirischen Eisenbahn kompatibel zu machen), Steckdosen oder Videokassetten hatten physische Formate; das macht Übersetzungen aufwändig. Digitale Formate hingegen sind in erster Linie Software, und das bedeutet: Getrennte Welten können leicht zusammengeführt werden. Bei beschreibbaren CDs konnten wir diese Evolution beobachten: CD-R, CD+R, CD-RW - jedes neuere Gerät beherrscht heute alle diese Formate. Blue-Ray DVD, HD-DVD: nur eine Frage der (kurzen) Zeit, bis dies keine Rolle spielt.

Der wichtigere Grund, warum das alles bald keine Rolle mehr spielt: DVD (und CD) sind so passé. Siehe Musikindustrie: Seit Leitungen die CD als Vehikel der Verteilung abgelöst haben, hat die auf CD fixierte Industrie ein gewaltiges Problem. Natürlich stehen wir erst am Anfang des scheibenlosen Zeitalters (und als billiger Zwischenspeicher wird uns die Silberscheibe noch eine gute Weile begleiten). Aber unser Film kommt aus der Steckdose (oder dem UMTS-Netz): Das wird schneller Wirklichkeit, als sich der Krieg um das nächste DVD-Format rechnet.
--------------------------------------------------------------
@ 2005 Der Standard / Helmut Spudich

Ordnung für Pixel

Zu den Dateien, die sich unaufhaltsam auf unseren Festplatten vermehren und kaum zu überblicken sind, gehören inzwischen vor allem Bilder. Die digitale Fotorevolution ist auch an Usern nicht vorbeigegangen, die selbst keine digitale Kamera benutzen: E-Mail und Downloads schwappen sie auf unseren PC, egal ob es private oder berufliche Fotos sind.

Diese Entwicklung ging in den beiden letzten Jahren so rasch, dass nur wenige beim Ordnen der Bilderflut Schritt gehalten haben. Irgendwo wurden sie abgelegt, mit etwas Glück unter "Eigene Bilder", aber meist sind sie überall - in Mailordnern mit Textdokumenten vermischt, in kurzer Zeit unauffindbar.

Eine Reihe von Programmen können Ordnung in die "digitale Schuhschachtel" bringen. Das Beste daran: Anders als das Sortieren "richtiger" Bilder, ist es mühelos und kostet nichts. Die zwei Programme, die ich dafür empfehle, sind Picasa (Version 2) für Windows sowie Apples Fotoprogramm iPhoto für den Mac. Jedes der Programme, die einander in Funktion und Arbeitsweise ähnlich sind, gibt es jeweils nur für die eine Plattform.

Picasa (www.picasa. com), das von Google aufgekauft wurde, scannt nach dem ersten Start den gesamten PC oder wahlweise nur vom Benutzer definierte Bereiche (wie "Eigene Bilder") nach vorhandenen Bildern. Selbst bei größeren Bildmengen dauert dies nur wenige Minuten; sinnvoll ist es, den ganzen PC zu scannen - kaum zu glauben, wo sich unter Windows überall Bilder verstecken können. In der Folge hält Picasa automatisch Ausschau nach Zugängen.

Die erfassten Bilder erscheinen auf der rechten Bildschirmhälfte in einem Übersichtsfenster als kleine "Thumbnails", ähnlich den früher erstellten Kontaktabzügen von Negativen; links werden die Ordner angezeigt, in denen die Bilder liegen. Anders als iPhoto, das alle Bilder in einem zentralen Archiv zusammenlegt, belässt Picasa die Bilder in den Ordnern, in denen sie absichtlich oder zufällig abgelegt wurden. Damit kann man leben, aber es hat ein paar Nachteile, unter anderem beim systematischen Sichern der Dateien.

Erstaunlicherweise kann das Auge im Übersichtsfenster auch relativ große Bildmengen, die sowohl von Picasa als auch iPhoto mühelos und schnell angezeigt werden, relativ rasch scannen. Die Bilder können mit Schlagworten oder mit einem "Label" versehen werden. Ein Bild kann auch mehrere Labels erhalten und in verschiedenen Zusammenhängen gefunden werden.

iPhoto verwaltet alle Bilder in einem zentralen Archiv quasi wie digitale Filmrollen nach dem Datum der Aufnahmen. Dadurch muss man beim Import von der Kamera nicht nachdenken, wo Bilder abgelegt werden sollen; gleichzeitig können die "Filme" dabei gleich beschriftet werden. Aus dem zentralen Fotoarchiv legt man Alben an, wobei ein Bild in mehreren Alben enthalten sein kann.

Beide Programme ha- ben grundlegende Bearbeitungsfunktionen für Bildschärfe, Farbintensität, Helligkeit, rote Augen etc. Sehr praktisch sind Funktionen für die weitere Verwendung der Bilder - etwa für eine Diashow, zum Versand per E-Mail oder zur Erstellung von CDs.
-------------------------------------------------------------
@ 2005 Der Standard / Helmut Spudich

Videofonieren, demnächst Version 2

Videocalls werden als Vorzug von UMTS gepriesen, die Nachfrage ist enden wollend. Nokia bringt jetzt sein erstes Gerät für Videocalls und schlägt gleich noch eine neue Nutzungsart vor: "Video-Sharing" statt Videofonieren.

Schon mal jemand auf der Straße gesehen, der einen Videocall - also einen Telefonanruf im Angesicht des Gesprächspartners - tätigt? Eben. Die Nachfrage ist enden wollend, auch wenn zur Einführung von UMTS vor allem das Videofonieren als gut begreifbarer Grund für die technologische Weiterentwicklung des Handynetzes beworben wurden. Dafür gibt es sicherlich mehrere Gründe, nicht der geringste davon die fehlende Verbreitung von geeigneten Geräten (es genügt nicht, wenn man selbst eins hat - ohne entsprechendem Gegenüber geht der Videocall ins Leere) ist. Nur 3 von Hutchison setzte von Anfang an auf den Videocall und verkauft seinen Kunden die entsprechenden Handsets.

Aber es gibt auch einen sozialen Grund, warum sich Videofonieren nicht durchsetzt, vermuten Betreiber und Hersteller: In Wirklichkeit will man sein Gegenüber nur selten sehen; und außerdem: Über den Lautsprecher des Handys (was beim Videocall unvermeidlich ist, wenn man keinen Kopfhörer verwendet) sind Telefongespräche eine Mühsal.

Darum soll jetzt Videofonie in Version 2 kommen, wenn sich Nokia mit seiner Vorstellung des "Video-Sharing" durchsetzt. Das jetzt auf den Markt kommende 6680 (Preis ohne Betreibersubvention: 639 Euro) ist Nokias erstes Gerät für Videocalls (mit zwei Kameras, eine für den Anrufer, eine zum sonstigen Gebrauch). Dieses Feld hat Nokia bisher den Konkurrenten überlassen.

Aber gleichzeitig ermöglicht das 6680 auch "Video-Sharing" und das funktioniert so: Zwei Personen führen ein normales Telefongespräch, dann kommt eine auf die Idee der anderen zu zeigen wo sie gerade ist - beim Schifahren, am Strand, was immer. Dann wird einfach Video dazugeschaltet (was bei Videocalls unmöglich ist, diese sind von Anfang bis Ende ein Videocall). Dies sei, so Nokia, die logischere Form Video am Handy zu benutzen ("Herzeigen, was ich gerade sehe") und außerdem geht es mit dem Ressourcen des UMTS-Netzes sparsamer umgehen als ein Videocall.

Auch wenn das 6680 diese Möglichkeit hat: Verfügbar ist Video-Sharing erst, wenn die Netzbetreiber dazu die Möglichkeiten bereitstellen, und das ist bis auf weiteres nicht in Sicht. "In Evaluation" lautet bei den meisten die Antwort auf diesbezügliche Anfragen. Im Klartext: Sicher nicht vor nächstem Jahr, wenn überhaupt.

Bis dahin bleibt es also beim Videocall, wenn man will. Bei A1, 3 und One ist dies möglich, kostet je nach Tarifplänen zwischen "nichts" im eigenen Netz (bei Freiminuten als Teil des Gebührenpakets) und einem Euro von Netz zu Netz, zwei Euro ins Ausland - Voraussetzung natürlich, dass beide Teilnehmer im UMTS-Netz sind. Bei T-Mobile ist Videofonie zwar "technisch möglich", es gibt aber noch keine Tarife dafür. Telering ist bei allen Dingen UMTS noch in Warteposition.

Nebst der neuen, nicht verwendbaren Möglichkeit, bietet das 6680 eine Reihe von Weiterentwicklungen: 1,3 Megapixelkamera mit Fotoleuchte, bessere Qualitäten als Kamera, und einen Musikplayer, der auch über Aktivboxen bei der Party als Musikgerät herhalten kann.
----------------------------------------------------------
@ 2005 Der Standard / Helmut Spudich

Tiger im Tank

Nachtrag zum vorigen Posting über Suchen am Desktop: Mit Tiger am Mac stellt sich die Gleichung völlig neu dar -- tatsächlich ist der Zugang zu Information am eigenen Mac über die integrierte Spotlight-Suche eine neue Dimension der Benutzung. Etwa für das Aufheben von Online-Geschichten aus Medien, die über Google häufig nicht mehr leicht zu finden sind: Die jeweilige Seite über Mail selbst zuschicken (eine neue Safari- und Mail-Funktion unter Tiger), in einem Sammelordner in der Mail ablegen, ergibt ein perfektes Archiv. Das ganz lässt sich wahrscheinlich auch noch Automatisieren.

Ordnung für Chaoten

Ordnung am PC ist eine leidige Sache. Auch sehr ordnungsliebende Menschen, die sich eine übersichtliche Ordnerstruktur auf ihrer Festplatte aufbauen und ihre Mailberge gut schlichten (wer tut das schon?), haben Mühe, wiederzufinden, was sie aufgehoben haben. Das Ganze wird mit einer Unmenge an Internetseiten, die man zum späteren Nachschlagen aufhebt, noch hoffnungsloser.

Aber Abhilfe ist in Sicht, und sie funktioniert im Wesentlichen so wie Suche im Internet: Stichwörter eingeben und eine Liste von Mails oder Dateien bekommen, in denen die Suchwörter aufscheinen. Die Hilfe kommt von kleinen Gratisprogrammen, die alle Daten auf unserem PC laufend und automatisch indizieren und uns damit ermöglichen, später effizient zu durchsuchen.

Google Desktop (desktop. google.com) macht diesen Vorgang sehr intuitiv: In wenigen Minuten installiert, arbeitet es zunächst ohne weiteres Zutun des Benutzers ein paar Stunden lang, um die Festplatte zu indizieren - von da ab funktioniert alles so, wie man es von Google-Suchen gewohnt ist, nur dass die Ergebnisse innerhalb von Sekunden vom eigenen PC kommen. Gefunden werden Stichwörter in Word, Excel, Powerpoint und PDF-Dateien, in Audio- und Bilddateien (soweit beschreibender Text enthalten ist) und in Mail (Outlook, Netscape, Mozilla und Thunderbird). Google findet auch Resultate früherer Internetsuchen - ein wunderbares Feature, weil man damit sofort auf das Ergebnis einer früheren, längeren Suche zugreifen kann. Nur Kontakte (z. B. zu Outlook oder dem Palm Desktop) fehlen.

Google Desktop ist nicht der einzige Anbieter solcher Hilfen: Software gibt es auch von Microsoft (desktop.msn.com), Yahoo (desktop.yahoo.com), Blinkx (www.blinkx.com) und Copernic (www.copernic.com). Die Programme funktionieren im Wesentlichen gleich, mit kleinen Unterschieden (z. B. können Copernic und Yahoo auch Kontakte finden) und unterschiedlichen Präsentationsformen. Bis auf Google (Englisch) und Copernic sind es derzeit noch Testversionen ("Beta").

Wofür immer man sich entscheidet, es verändert nach meinen Erfahrungen positiv die Art, wie wir mit dem versteckten Wissensschatz auf dem eigenen PC umgehen. "Verschollene" Dateien tauchen schnell wieder auf; Mailberge sind so blitzschnell zu durchsuchen, und oft findet man angehängte Dateien, die man beim ersten Lesen gar nicht erst aufmachte, aber die zu einem späteren Zeitpunkt hilfreich sind; häufig hebe ich Artikel aus dem Netz auf, die ich aber später nicht mehr finden kann - und darum erneut suche (und manchmal nicht mehr finde).

Künftig können wir erwarten, dass diese Form des Umgangs mit der Information auf dem PC noch erweitert wird - etwa durch "virtuelle Ordner", die zusammengehörige Daten präsentieren, unabhängig davon, wo sie wirklich gespeichert sind. Suche wird Bestandteil des Betriebssystems: Am Mac wird diese Funktion, die dann alle Arten von Daten am Computer erfasst, bereits Ende April mit dem neuen "Tiger"-Betriebssystem verfügbar, bei Microsoft erst nächstes Jahr mit "Longhorn". Aber schon jetzt sind diese Programme im Alltag sehr nützlich.
------------------------------------------
@ 2005 Der Standard / Helmut Spudich

Donnerstag, 21. April 2005

Rettet WiFi!

Drahtlose Internet-Hotspots gibt es viele, aber die teure und umständliche Bezahlung macht sie fast nutzlos. Ein Plädoyer für Gebührenfreiheit

WiFi, Wireless Lan, drahtlose Hotspots - es ist eine jener Techniken, die nicht den Reißbrettern großer Konzerne entstammen, sondern quasi per Grassroots-Bewegung populär wurden. Hotspots sind billig einzurichten, und da jedes bessere Notebook längst eine WiFi-Karte an Bord haben, wären sie ein idealer Weg, um zwischendurch, beim kleinen Braunen im Cafe, in Wartezimmern von Ärzten oder an der Uni damit ins Netz zu kommen.

Aber die traurige Wahrheit ist: Das wachsende Angebot an WiFi-Hotspots grundelt dahin und wird kaum genutzt. Darüber schweigen sich ihre Betreiber (inzwischen meist Mobilfunker) zwar aus, aber ihr Schweigen ist beredt: Kein Unternehmen lässt die Chance vorbeiziehen, lautstark seine Erfolge anzupreisen, also können wir getrost annehmen, dass kein Erfolg ist, wovon nicht gesprochen wird.

Der Grund dafür ist einfach: die komplizierte und meist teure Bezahlung. In Hotels kostet der eintägige Zugang, so vorhanden, meist zwischen 20 und 30 Euro. Wer will das schon bezahlen, wenn man gerade einmal abends und morgens die Mail checkt und seine Zeitungen durchliest?

In den Kaffeehäusern und anderswo ist es megakompliziert, kommerzielle Hotspots zu benutzen, außer man ist UMTS-Abonnent inklusive Wlan-Benutzung. Entweder hat man eine Rubbelkarte oder holt sich einen temporären Zugang oder hat das Passwort vom letzten Mal längst vergessen - wer will sich das schon für eine Viertelstunde WiFi-Gebrauch antun?

Die einfache Lösung ist die: offene Hotspots, die als unentgeltliches Service angeboten werden. Das ist deswegen möglich, weil Einrichtung und Betrieb (anders als bei UMTS-Netzen) ein Miniaufwand sind: einige hundert Euro für Hardware, 50 Euro oder so für den monatlichen Internetanschluss (so nicht ohnedies vorhanden). Das sollte in Lokalen oder beim Frisör so zum Service gehören wie Licht, Zeitungsabos und saubere Toiletten (wir könnten dafür auf Elevator-Music verzichten). Kommunen könnten dies an öffentlichen Stellen anbieten (manche tun es schon), Unis sollten längst eine Unzahl von Hotspots haben (haben sie aber nicht).

Das ist jetzt kein Anschlag auf die Marktwirtschaft. Aber offenbar ist diese Technologie nicht so kommerzialisierbar wie Mobilfunk. Darum ist die Neudefinition als Serviceangebot nur ein anderer Weg, die entstehenden (geringen) Kosten unterzubringen - und dafür den großen Nutzen zu heben, der derzeit von ungeeigneten Gebührenmodellen begraben wird.
_______________________________________
Copyright 2005 Der Standard / Helmut Spudich

Freitag, 15. April 2005

UMTS (in .at) lernt laufen

Dieser Tage (am 25. April) feiert UMTS, das "schnelle" Handynetz der dritten Generation, in Österreich zweiten Geburtstag. Dem ging ein jahrelanger Hype (Stichwort: Milliardenlizenzen) voran; und die ersten Kindheitsjahre enttäuschten - es gab nur klobige Endgeräte und wenig praktischen Nutzen. Zurückhaltung war die Reaktion, auch meine eigene.

Aber schön langsam lernt das Kind laufen - und das weniger als Handy (auch Schnellsprecher haben nichts von UMTS), sondern als schnelle, mobile Internetverbindung. Für Menschen, die häufig mit dem Notebook unterwegs sind, ist es inzwischen sinnvoll geworden, UMTS mittels einer PC-Karte an Bord zu nehmen.

Erschwinglich wird das durch "Pauschal"-Tarife zwischen 29 (bei "3"), 35 (bei T-Mobile und One) und 39 Euro (bei A1). "Pauschal" stimmt nur bedingt - es gibt eine Obergrenze für die Datenmenge, 676 Megabyte bei T-Mobile, 500 bei den anderen - und auch das ist unscharf: A1 und T-Mobile verrechnen nach "Fair Use" - das heißt, wer gelegentlich darüber kommt (bis zu 20 Prozent), zahlt nicht extra.

Wie immer gibt es so viel Kleingedrucktes in den Tarifen, dass es kaum möglich ist, zu sagen, wer das billigste Angebot hat. Aber in groben Umrissen ergibt sich dieses Bild: Um 30 bis 40 Euro im Monat (bei einem bestehenden Handyvertrag), einmaligen Anmeldegebühren etwa gleicher Höhe und nochmals rund 40 Euro für die PC-Datenkarte wird das Notebook mobil. Mac-Software kostet nochmals 75 Euro extra (bei A1 inkludiert; T-Mobile arbeitet daran).

Schwieriger ist die Entscheidung über das "richtige" Netz. Denn auf absehbare Zeit bleibt UMTS lückenhaft und die Versorgung auf Ballungszentren begrenzt (Salzburg bleibt aufgrund bemühter Bürgerinitiativen ein UMTS-Loch). Bei der Abdeckung (in Prozenten der erreichten Bevölkerung angegeben) hat A1 mit rund 65 Prozent die Nase vorn; T-Mobile und "3" halten bei rund 50 Prozent, One bei knapp 40 (alles nach eigenen Angaben). Man muss sich also bei den Betreibern informieren, ob es an den Orten, wo man hauptsächlich UMTS benutzen will, tatsächlich schon ein Netz gibt. Wo es kein UMTS gibt, bleiben nur das langsamere Handynetz oder Wireless-LAN-Hotspots, in den Tarifen inkludiert.

Der eigentliche Test aus der Benutzersicht ist, dass UMTS zunächst dort funktionieren muss, wo man zu Hause ist - und da führt kein Weg am Test vorbei. Denn in Gebäude dringt das UMTS-Netz schlechter vor als das herkömmliche Handynetz; es kann ohne Weiteres passieren, dass man daheim (oder im Büro) zwar handyfonieren, aber nicht UMTS verwenden kann. A1, T-Mobile und One ermöglichen dies: Wenn UMTS am Standort des Benutzers nicht funktioniert, kann man vom Vertrag zurücktreten.

Ein Plus hat A1 (demnächst) vorzuweisen: Sein "Edge"-Netz - das ist eine Beschleunigung des traditionellen Handynetzes, das quasi die Versorgungslücken zwischen den UMTS-Räumen und dem Rest des Landes schließen soll - soll ab dem Sommer in Betrieb sein. Schönheitsfehler: Es gibt noch keine geeigneten Datenkarten, nur Edge-Handys - und das macht die Geschichte umständlich.

---------------------------------
Copyright 2005 Der Standard, Helmut Spudich

Mittwoch, 13. April 2005

Megapixel- Madness

Viele knipsen auf ihren hochauflösenden Kameras Bilder mit geringer Auflösung. Ein Raubbau an der Zukunft dieser Bilder.

Digitalkameras haben heute Auflösungen, die selbst bei preiswerten Modellen bereits häufig bei fünf Megapixel liegen und bei gehobenen Consumerkameras bis acht Megapixel reichen. Die Meinungen gehen auseinander, wie man mit den daraus entstehenden großen Bilddateien umgeht und ob man besser mit dem Maximum oder geringeren Auflösungen fotografiert.

Eine generelle Antwort ist schwer zu geben, und es gibt gute Argumente für beides. Zuerst die pragmatische Seite, die oft vorgebracht wird: Digitale Bilder werden gemacht, um als Fotoalbum im Web hergezeigt oder per E-Mail verschickt zu werden; schon relativ geringe Auflösungen (und entsprechend kleine Dateien) sorgen für überraschend gute Bilder am Schirm. Und selbst wenn man eine gute Internetverbindung hat, verflucht man die Freunde und Verwandten, die mit ihren Urlaubs- und Kinderfestbildern à drei Megabyte die Mailbox vollschaufeln.

Aber das hat mehr mit dem noch immer geringen Verständnis der Zusammenhänge zu tun als mit der Größe des Originalbilds. Wer zum elektronischen Verteiler greift, muss eben für vernünftige Dateigrößen vor dem Versand sorgen - ein Bild in der Größe von etwa 800 mal 600 Pixel und rund 150 Kilobyte Größe ist dafür ausreichend (vielleicht sogar zu viel), und jeder wird auf Anfrage gern auch die größere Originaldatei nachschicken.

Was jedoch für die maximale Auflösung (sogar für das so genannte RAW-Format auf gehobenen Kameras, bei dem das unkomprimierte Bild gespeichert wird) spricht, ist die Zukunft dieses Bildes. Vielleicht ist es ja schlussendlich nur eines von ein paar hundert Bildern, das wir vielleicht gerne als großes Foto ausdrucken würden, oder nur ein zufälliger Schnappschuss von Prominenten auf einem fernen Flughafen, an dem eine bunte Illustrierte interessiert ist - aber spätestens dann werden wir bereuen, wenn wir bei der Auflösung gegeizt haben. Auch Bearbeitungen, wie die Auswahl eines Bildausschnitts, fallen bei höherer Auflösung wesentlich besser aus.

Natürlich sind damit Folgen verbunden: größere Speicherkarten, mehr Platz auf der Festplatte, ein guter PC/Mac, um die Dateien entsprechend manipulieren zu können. Aber es ist auch sinnlos, eine hochwertige Kamera zu kaufen, um damit nur Webbilder zu knipsen. So, wie technische Entwicklungen verlaufen, lässt sich darauf wetten, dass uns schon in fünf Jahren selbst heutige Acht-Megapixel-Aufnahmen antiquiert erscheinen werden.
-----------------------------------
Copyright 2005 Der Standard / Helmut Spudich

Freitag, 1. April 2005

Wir Blogger

Bloggen – „Tagebücher“ im Internet, eine Verballhornung von „Web“ und „Log“
– ist in, und das schon seit geraumer Zeit. Gebloggt wird über Terri Schiavo, Konzerte, Gaspreiserhöhungen, Religion, Politik und vieles von allgemeiner
Belanglosigkeit, aber persönlichem Interesse. Blogg.de listete vorgestern 46.028 deutschsprachige Weblogs, Websites wie blog-sucher.de ermöglichen es, nach der Nadel im Heuhaufen zu suchen.

Gebloggt wird auch in und rund um Unternehmen und Organisationen. PR-Abteilungen entdecken Blogs als PR-Instrument, Mitarbeiter von Firmen schreiben offen oder verdeckt, gut und schlecht, über ihre Arbeit, Juristen und Wissenschafter über ihre Fachgebiete. Blogs bieten sowohl für persönliche als auch für berufliche Themen interessante Möglichkeiten.

Darüber rümpft die „Blogosphäre“ – die lebhafte Subkultur der „wahren“ Blogger, zwar die Nase, aber das soll niemanden am Versuch hindern.

Wie funktionieren Blogs? Im Kern ähnlich und ähnlich einfach wie Webmails: In ein Formular wird Titel und Text geschrieben (oder hineinkopiert), fertig. Dafür gibt es Gratisanbieter wie blogger.com (gehört zum Google-Reich) oder twoday.net, bei denen man ein Blog einrichtet: registrieren, ein Gestaltungsmuster aussuchen, und loslegen (es gibt auch bezahlte Dienste mit mehr Funktionen).

Blogs wie personaltools.blogspot.com oder personaltools.twoday.net anzulegen (die nur eine Sammlung dieser Kolumne enthalten, was eigentlich gegen den Charakter von Blogs ist, die zur kürzeren Form neigen) dauert weniger als eine Stunde, ein Eintrag ist in wenigen Minuten gemacht. Diese Beispiele zeigen eine Möglichkeit, Blogs beruflich zu nutzen: als eine Art „Portfolio“ eigener Arbeiten, die bei Bedarf anderen zur Verfügung gestellt werden. Die Fortführung: (Fach-) Wissen aus dem eigenen Kompetenzbereich zu aktuellen Themen zu publizieren und Kollegen und Interessierten zur Verfügung zu stellen – und selbst dabei Profil zu zeigen.

Firmen können Blogs dazu verwenden, ihre Community zu pflegen und mit Kunden oder Partnern einen Dialog zu führen. Voraussetzung dafür ist jedoch, dass man dazu
auch innerlich bereit ist: Blogs sind keine Werbung, Werbesprüche kommen schlecht an. Zumindest ein Schuss Ironie und bei Bedarf Selbstkritik, Freizügigkeit mit Information und ein gewisser Unterhaltungsfaktor sind schon nötig, um wirklich Leser zu finden und zu
halten.

Im internen Gebrauch ist das Blogpotenzial weitgehend unerschlossen: Es kann zum Beispiel dazu genutzt werden, damit sich formelle und informelle Gruppen über ein Projekt oder ein gemeinsames Thema via Intranet (um nicht allgemein zugänglich zu sein) austauschen. Das hat gegenüber E-Mail-Verkehr einen großen Vorteil: Die laufenden Informationen sind nicht nur leicht zugänglich, sie sind auch gleich archiviert.

Wie private Blogs zeigen, sind der Fantasie wenig Grenzen gesetzt; man muss mit der Form spielen, um ihre (beruflichen) Möglichkeiten zu finden. Ein Wort der Vorsicht: Alles kann gegen Sie verwendet werden – wer ein Blog führt, muss damit rechnen, dass es auch gelesen wird.

Copyright 2005 Der Standard / Helmut Spudich

User Status

Du bist nicht angemeldet.

Suche

 

Aktuelle Beiträge

Das Online-Lesebuch
Eigentlich könnten wir dank Internet auf die meisten...
spu - 12. Nov, 13:13
Endlich: Mein Handy kann...
Worauf wir dringend gewartet haben, wo wir doch schon...
spu - 3. Nov, 16:58
Arbeitsplatz im Web
Zehn Jahre nachdem sich das Web flächendeckend ausbreitete,...
spu - 3. Nov, 16:30
Wikifikation
Viele gute Dinge brauchen ihre Zeit, um sich durchzusetzen...
spu - 3. Nov, 16:26
Achtung, E-Mail senkt...
Schon aus dem Urlaub zurück und hunderte, womöglich...
spu - 3. Nov, 16:24

Status

Online seit 6960 Tagen
Zuletzt aktualisiert: 12. Nov, 13:13

Credits


Profil
Abmelden
Weblog abonnieren