Archiv der Kategorie: netzkulturelles

RSS-Werkzeugkiste

Ich hatte neulich für einen Foreneintrag eine gute Übersicht über Feedreader gesucht – und auch nach längerem Googlen nichts Gescheites gefunden. Mashable hat jetzt eine ausführliche Übersicht zusammengestellt. RSS- bzw. Feed-Reader für unterschiedliche Plattformen, als Standalone-Client, webbasiert oder als Extension für den Firefox.
Daneben noch eine Menge Krams rund um Feeds.

Die Leserlichkeit der Übersicht ist leider bescheiden, weil alles auf eine Seite geknallt wurde und 1 Million Kommentare hinten dran hängen. Da sollte man über eine andere Artikel- und Kommentaraufteilung nachdenken.

[via: bueltge.de]

Politiker und Technik: Browser unbekannt

Laut (N)Onliner-Atlas nutzen rund 60% der Deutschen das Internet. Man muss nicht online sein.

Wenn man aber die Bundesjustizministerin oder der Technologie- und Wirtschaftsminister oder der fortschrittlich wirkend wollende FDP-Vorsitzende ist, dann sollte einem der Computer und das Internet nicht fremd sein. Ist es aber offenbar.

Westerwelle nutzt den Computer als ganz einfaches Instrument, ähnlich einem Hammer oder Nagel (wie kommt man auf so eine Analogie?). Glos, der das Internet gestern noch von anderen bedienen lies, sucht heute auch schon mal ältere Presseausschnitte. Frau Zypris, immerhin für Dinge wie Urheberrechte und Vorratsdatenspeicherung (mit-)verantwortlich, weiß nicht, was ein Browser ist.
Diese und weitere Unkenntnisse haben die Kinderreporter des ARD-Morgenmagazins herausgefunden. Internet und Computer scheinen eher Fremdkörper und notwendige Übel als normale Dinge des Alltags zu sein.

Vielleicht kann man das Ergebnis nicht auf alle Politiker im Bundestag übertragen, aber trotzdem ist die Stichprobe erschreckend. Erschreckend deshalb, wieviel Unkenntnis von alltäglichen Dingen wie Computer und Internet vorhanden ist. Und diese Unkundigen stimmen dann über Dinge ab oder bringen Gesetze auf den Weg, von denen sie offenbar keinen Schimmer haben.

Fragmente. Oder: Was am Ende übrig bleibt

So ein Blog ist ja eine feine Sache. Aber ein Eintrag allein ist oft nur ein Teil des Ganzen: im Zusammenspiel mit Links ergibt sich ein rundes Bild. Hier ein weiterführender Link gesetzt, dort einen anderen Aspekt einer Diskussion verlinkt und wieder woanders steht eine Zusammenfassung, die verlinkenswert ist.

Soweit die Theorie. In der Praxis wird dieses Zusammenspiel gestört, weil nach einiger Zeit die gesetzten Links ins Leere führen. Bei Nachrichtenseiten verschwindet eine Meldung im Archiv oder wird nach einigen Wochen standardmäßig gelöscht (wie z.B. bei den Yahoo-News) oder verschwindet anderweitig. Wenn ich mal in meinen älteren Beiträgen stöbere, finde ich immer wieder Links, die ins Leere gehen.

Oder nehmen wir Flickr. Nach der Aufregung um Zensur löschen dortanscheinend nicht wenige ihre Fotos. Jeder Link zu einen Bild oder jedes direkt eingebundene Bild in Blogs oder sonstwo ist dann futsch, der damit aufgehübschte Blogeintrag ist gleich weniger hübsch.

Oder die verlinkten Blogs werden aufgegeben, abgeschaltet und gelöscht. So wie beispielsweise das Blog YAMB von Jörg-Olaf Schäfers. Natürlich kann jeder mit seiner Webseite/seinem Blog machen was er will. Aber viele haben zu YAMB verlinkt (besonders in der StudiVZ-Zeit) und diese Linkungen verlieren nun ihren Bezug (Technorati zählt an die 2000 Links). Übrig bleiben Fragmente. Wird man bestimmte Debatten in zehn oder fünfzehn Jahren überhaupt noch mal nachvollziehen können, wenn dann nur noch ein Bruchteil der Blogs mit ihren Einträgen online ist?

Ich hab auch gerne mal zu Jörg-Olaf verlinkt und dann einen kleinen Kommentar dazu abgegeben. Ohne den Link steht der Blogeintrag nun ein bisschen doof da. (Abgesehen davon finde ich gerade die Schließung seines Blogs schade. Es war eines meiner ersten regelmäßig gelesenen Blogs, ich mochte sein Art des Schreibens und seine unaufgeregte Art.)

Was lerne ich daraus? Wieder alles selbst machen, mich auf mich selbst verlassen und Blogeinträge so schreiben und mit Zitaten von verlinkten Blogs füllen, dass man sie hinterher auch ohne Links kapiert. Redundanzen sind gut.
Woanders hinlinken, wo das Ganze viel besser und ausführlicher steht ist zwar schön und gut, nutzt aber wenig, wenn in ein paar Monaten diese Informationen nicht mehr zugänglich sind. (Gefällt mir aber auch nicht, alles noch einmal wiederkäuen, das schon woanders viel besser steht. Macht meinen Eintrag länger und schlechter lesbar.)

Klickvieh, dummes

Auf die Links in Spammails klickt eh keine Sau? Wohl doch nicht:

In einer Umfrage der „Business Software Alliance“ aus dem Jahr 2004 wurden Internetnutzer gefragt, ob sie schon mal Produkte gekauft oder Dienstleistungen genutzt haben, die in einer Spam-Mail beworben wurde. 43 Prozent der Befragten in Deutschland antworteten mit: „Ja“.

Gemeint ist wohl diese Studie (PDF) vom Dezember 2004. Die Zahl von 43% finde ich dort zwar nicht, die nach Bereichen (Software, Kleidung, Porno, Gesundheit) aufgeschlüsselten Werte liegen zwischen 29 und 12 Prozent.
Nehmen wir mal an, dass einige Leute seit Ende 2004 schlauer geworden sind und nicht mehr auf Spam reagieren. Eine Umfrage heute würde dann vielleicht nur noch 25% Spamklicker ergeben. Selbst bei 1% lohnt es sich dann immer noch. So eine Mail kostet ja nix. Jetzt wundert mich gar nix mehr.

Da greif ich mir doch an den Kopf. Das Postfach ist voll mit Müll, das Blog wird mit Spam überflutet und das nur, weil einige Leute zu doof sind zu kapieren, dass sie weder Viagra noch legale Software für ein Handvoll Euro Dollar bekommen.

Es bringt wohl nix, hier zu sagen, dass ihr aufhören sollt mit dem Scheiß, Dinge aus Spammails zu bestellen. Wer Blogs liest, der tut sowas nicht. Oder doch?!

Readers Edition: Hier darf Eigenwerbung gemacht werden

Kann bitte jemand die neuen Moderatoren der Readers Edition (RE) zur Vernunft bringen? Unter Bürgerjournalismus verstehe ich jedenfalls keine als Nachricht getarnte Eigenwerbung.

Im Artikel „Hier darf ‚gepusht‘ werden“ wird das Portal Newsider (newsider.de) als „Web 2.0 Community“ beschrieben. Autorin des Beitrages und Betreiberin des beschrieben beworbenen Portals sind ein und die selbe Person.
Sowas nennt sich dann eigentlich Pressemitteilung oder Werbung und sollte als solche gekennzeichnet werden. Noch nicht mal einen Hinweis (Disclaimer), dass Autor des Beitrags und Betreiber des Portals identisch sind, gibt es. Der Artikel steht da, als wäre es ein ganz normaler Nachrichtentext.

Am 19. Februar gab es schon mal einen Artikel über Newsider. Der ist aber jetz weg. Der Googlecache kennt ihn noch. Die letzten beiden Absätze sind in beiden Artikel gleich, der Rest ist neu bzw. neu formuliert. Offenbar hat beim ersten Artikel ein Moderator kalte Füße bekommen und den Beitrag entfernt. Warum allerdings der inhaltlich vollkommen gleichartige Artikel zwei Tage später wieder online gehen darf, ist das Geheimnis der RE.

Nachtrag:  Das hier ist alles nur unqualifiziertes „Blogschnattern“. Will man die RE kritisieren und über Bürgerjournalismus schreiben, dann muss man ganz bestimmte Qualifikationen haben.

sueddeutsche.de mit Social Bookmarking

Die Süddeutsche Zeitung (SZ) hängt seit kurzem Social-Bookmark-Dienste an ihre Artikel hinten ran. Verlinkt sind Mr.Wong, Yigg, Linkarena, Google (!), Webnews und Folkd.

sz bookmarking

Mr.Wong und Yigg sagen mir was, Linkarena, Webnews und Folkd nicht. Google ist kein Social Bookmarkdienst, sondern meines Wissens eine Suchmaschine und noch viel mehr.

Die SZ macht aber halbe Sachen: Einen direkten Bookmarklink, in dem dann die URL zum Bookmark gleich mit drin ist, gibt es nicht. Es sind nur die Startseiten verlinkt. Nachtrag: Das stimmt so nicht. Die Adresse wird mit übertragen, allerdings muss man sich vorher beim jeweiligen Dienst eingeloggt haben, sonst landet man auf der Startseite.

Dabei ist gerade diese Funktion des direkten Bookmarking mit einem Klick der Sinn der kleinen Buttons. Die Adresse der Startseite kann ich auch noch selbst in die Adressleiste tippen.

„Die Zeit“ und das Handelsblatt bieten jetzt auch Social Bookmarks an. Auch hier sind wieder nur die Startseiten der jeweiligen Dienste verlinkt. Hier funktioniert es wie bei der SZ.

Click-a-Captcha: Neues gegen Kommentarspam

Seit heute ist hier wieder ein neues Kommentarspamverhinderungsplugin im Einsatz: Click-a-Captcha. Das Plugin hat Ralf geschrieben und wurde ursprünglich als Botsperre für Kontaktformulare entwickelt.

Ein einfaches Häkchen stellte für manche Bots keine Hürde dar. Eine richtige Auswahl aus einem nichtmaschinenlesbaren Bild heraus zu treffen, dürfte hinreichend schwierig sein, so dass sich Kommentarspam auf Zufallstreffer beschränkt.
Für diejenigen, die kommentieren wollen, fällt das nervige Entziffern des Captcha-Feldes und das Eintippen von sinnlosen Buchstaben- und Zahlenfolgen weg. Das ist es, das ich an Captchas störend finde und deshalb nie eingesetzt habe.

Onlinedurchsuchung: maximal invasiv

Der Wunsch nach einer Onlinedurchsuchung* von unseren Antiterrorministern geht konsequent einen falsch eingeschlagenen Weg weiter: der Staat muss jederzeit überall hingucken können.
Egal ob Großer Lauschangriff**, Wunsch nach präventiver Telefonüberwachung, Kameraüberwachung des öffentlichen Raums, Vorratsdatenspeicherung, Kontoabfrage oder eben jetzt die Online-Durchsuchung von privaten Rechnern.

Der Große Lauschangriff erlaubt das Abhören von Privatwohnungen. Er erlaubt aber, nach dem Urteil des Bundesverfassungsgerichts, kein Mitschneiden von privat Gesprochenem. Eine Onlinedurchsuchung ginge noch viel weiter als der Große Lauschangriff. Der ist „vergleichsweise ‚minimal invasiv‘:

Die Behörden können mit Hilfe eines entsprechenden so genannten „Bundes-Trojaners“ den heimischen Computer sogar komplett fernsteuern: Webcam einschalten, akustische Raumüberwachung per Mikrofon, Abhören von Internet-Telefonaten, Mitlesen von Chat und Email, Live-Übertragung von Webseitenabrufen – dagegen ist selbst der „Große Lauschangriff“ vergleichsweise minimal-invasiv. Denn die „Online-Durchsuchung“ geht weit über den Lauschangriff hinaus: Nicht nur das aktuell gesprochene Wort wird registriert, sondern die Ermittler bekommen Zugriff auf archivierte und möglicherweise verschlüsselte Daten, für die sonst ein Zeugnisverweigerungsrecht besteht.

Naturgemäß liefe eine Übernahme und Durchsuchung des Rechners heimlich ab. Heimlich heißt aber auch immer, es ist hinterher im Strafprozess nicht mehr zu untersuchen, ob alles mit rechten Dingen abgelaufen ist. Aber gerade die Klarheit der Methoden, die nachträgliche Überprüfbarkeit ist ein Merkmal des Rechtsstaats.

Ein Merkmal dieses Rechtsstaates ist es auch, dass er nunmal nicht alles machen darf, was vielleicht zur Durchsetzung eines Ziels unter Umständen nötig ist. Er darf z.B. auch nicht foltern. Irgendwie scheint ein grundlegendes Verständnis dafür, dass es eine Errungenschaft ist, dass der Rechtsstaat sich an Regeln zu halten hat, verloren zu gehen. Ein vages Versprechen für „mehr Sicherheit“ scheint zu reichen, damit der öffentliche Protest weitgehend erlahmt ist.

* Es gibt ja Leute, die halten Onlinedurchsuchungen für ein Hoax, für schlechte Recherche und nicht machbar. Demnach würden BGH, Bundesanwaltschaft und Innenminister nur einem Hoax hinterherrennen. Man sollte aber davon ausgehen, dass das Hacken eines Rechners von mehr oder weniger Computerlaien kein Problem darstellt. Die entsprechenden staatlichen Stellen dürften ihre Mittel und Methoden haben.

** Der Große Lauschangriff wurde damals (1998) mit dem Kampf gegen die Organisierte Kriminalität (OK) begründet. Das war der politische Propagandabegriff für jedes Gesetz, bevor mit dem „Kampf gegen den Terror“ ein noch viel besserer „Grund“ auftauchte. Die Methode damals war die gleiche: Angstmacherei.

Wie geht’s weiter bei SELFHTML?

Thomas Stefan Münz, der Gründer von SELFHTML hat sich von seinem Projekt zurückgezogen (Gründe nennt er im Projektforum). Das Projekt wurde seit 2004 von einem Team verantwortet, Münz selbst war eher eine Art „urväterlicher Berater“. Das war wohl mehr hinderlich als förderlich:

[I]ch möchte erreichen, dass die Developer endlich ohne dieses etwas unangenehme „Überich“, als das ich ihnen immer erschienen sein muss, arbeiten koennen.
Vielleicht befruchtet das ja sogar alles.

Hinter den Kulissen gab (und gibt) es eine Diskussion, wie es mit SELFHTML weitergeht, wie Version 9 umgesetzt werden solle. Die einen (u.a. Münz) wollten ein Wiki, die anderen was anderes.

Interessant finde ich, wenn Münz die Sinnfrage für ein Projekt wie SELFHTML stellt:

Ausserdem entdeckt dieses eigentlich typische Stammpublikum von SELFHTML, die „Normalos“, so ganz allmaehlich, dass man im Web auch ohne HTML und all das publizieren kann. Ganz schicke Sachen gibt es da, allein schon, was man mit einem kostenlosen Google-Account alles veroeffentlichen kann, oeffentliche Kalender, Notebooks, Spreadsheets, Web-Alben, Videos, Blogs, eigene Diskussionsgruppen … die Leute lernen allmaehlich, dass aktives Webworking nicht mehr zwangslaeufig bedeutet, sich erst mal lange und demuetig irgendwelchen voellig unbekannten Programmiersprachen und Netzprotokollen zu widmen.

Mich persoenlich interessiert es jedenfalls mittlerweile mehr, was da alles vor sich geht, als mich in immer akademischer werdende Fachdiskussionen rund um HTML, CSS und verwandten Sprachen zu ereifern. [..] aber die Beschreibungs- und Programmiersprachen im Web haben fuer mich ihre fruehere Bedeutung als „Eintrittskarte in die Welt des Webworkings“ verloren. Und aus dem gleichen Grund auch SELFHTML, so hart das klingen mag.

Im Grunde ist das der springende Punkt: Wer heute ein private Webseite erstellen möchte, tut das in den wenigsten Fällen, in dem er HTML in einen Texteditor tippt. Er nimmt ein Content-Managmentsystem (echte CMS wie Joomla, Typo3 oder Drupal; Blogsoftware oder Wikis) oder meldet sich bei einem Anbieter an, der das bietet (myblog, livejournal etc.). Für eine Blogsoftware oder ein CMS sind zwar HTML-Kenntnisse hilfreich, aber nicht notwendig.

Meine erste Webseite habe ich damals (2002) auch mit einem Texteditor – seinerzeit Phase5 – zusammengebaut. Was ich dazu wissen musste, habe ich mir mit SELFHTML beigebracht. Fand ich großartig, dass es eine so verständliche Dokumentation gab. Hab mich viel bei SELFHTML rumgetrieben, um mehr über HTML und darüber, wie das Web technisch funktioniert, zu lernen. Hab sogar für neue Server gespendet.
Meine gebastelte Webseite sah nicht schön aus. Musste sie auch nicht, es sollten nur ein paar Dokumente fürs Semester zum Download drauf gepackt werden.

Für ein anständiges Layout hat es nie gereicht, das war mir zuviel Frickelarbeit, so mit CSS und HTML und Bereiche definieren und tralala. Was war ich dann froh, als ich auf WordPress gestoßen bin. Fertiges Layout, fertiger Code, fertige Plugins – einfach auf den Server packen und los gehts.
Das geht wohl vielen ähnlich: warum sich mit dem Quelltext abmühen, wenn man fertige Templates bekommt. Ein bisschen Wissen kann nicht schaden, wenn man seine Templates anpassen will. Die klassische private „Homepage“ wird technisch mehr und mehr mit fertigen Systemen erstellt. Heute kann jeder gutaussehende Website betreiben, ohne dass er sich mit HTML oder CSS auskennen muss. Das finde ich großartig, das ist ein echter Fortschritt. (Natürlich gibt es immer noch große Designer vor dem Herrn mit CSS. )
Mit Blogs bzw. CMS kann ich mich auf den Inhalt konzentrieren und brauche mich um die technische Basis nicht sonderlich kümmern.

So stellen sich für SELFHTML zwei Fragen:
Die aktuelle: Wie wird Version 9 technisch umgesetzt.
Die langfristige: Was ist die Bedeutung von SELFHTML in Zeiten von CMS, Blogs und Wikis?

[via: Sajonara]