Posts Tagged ‘Web 2.0’

Mittwoch, 11. April 2012

Wie ich heute (2012) meine RSS-Feeds konsumiere

Seit Jahren befriedige ich mein tägliches Informationsbedürfnis mit RSS-Feeds. Doch wie sieht mein „Workflow“ genau aus?

Agregator

Um alle möglichen Feeds einzusammeln und festzuhalten, welche Artikel ich bereits gelesen habe, verwende ich Google Reader als Backend.

Der Vorteil dieser Lösung ist auch, dass ich eine zentrale Ablage meiner Feeds habe, welche sich anschliessend mit den Clients synchronisieren lassen kann.

Katalogisierung der Feeds

In grauer Urzeit hatte ich meine Feeds in Kategorien abgelegt; bspw. „Politik“, „News“, „Web-Entwicklung“ etc. Doch als mit der Zeit die Zahl der abonnierten Feeds stieg und die Informationsflut überhand nahm, musste ein neues System her. Vor allem auch, weil ich die blöde Tendenz entwickelte, alle meine Feed-Ordner unbedingt auf 0 ungelesene Artikel zu bringen (wahrlich ein überhand-nehmendes Problem der Informationsgesellschaft).

Mittlerweile habe ich nur noch drei Ordner, in denen ich meine Feeds sammeln. Sie heissen folgendermassen:

  • A. Hier lege ich Feeds ab, deren Artikel ich zwingend gelesen haben möchte – und zwar täglich. In dieser Rubrik finden sich keine Feeds von Tageszeitungen und Newsportalen, weil die einfach zu viel Lärm generieren. Beispiele für in A enthaltene Feeds sind Daring Fireball, Mac Rumors aber auch der Flickr-Feed, welcher Updates aller meine Kontakte enthält. Und natürlich The Daily Reckoning mit meinem Favoriten, Bill Bonner (derzeit in Argentinien in der Pampa).
  • B. Bin ich mit den Feeds in A durch (nie der Fall), wechsle ich auf den Ordner B. Dort liegen die Feeds der wichtigsten Tageszeitungen und andere Nachrichtenströme, die zu viele Updates mit zu vielem unwichtigen Informationen pro Tag generieren. Wenn ich hier etwas verpasse, ist das egal – die Welt geht nicht unter.
  • C. Sollte ich einmal arbeitslos werden und partout nicht mehr wissen, was ich mit meinem Leben anfangen will – dann werde ich auch in diesen Ordner vorstossen. Er dient auch als Ablageort nicht mehr aktiver Feeds.

Clients

Der hauptsächliche Client, mit welchem ich die Feeds konsumiere, ist mittlerweile Reeder auf meinem iPad. Jeden morgen, bevor ich das Haus verlasse, starte ich Reeder, damit dieser die neuen Artikel (mitsamt Bildern!) herunterladen kann. So kann ich die Artikel im Zug lesen, da mein iPad leider nur den Wi-Fi-Chip verbaut hat (würde ich nie mehr kaufen, 3G ist einfach ein Muss).

Auf dem Mac verwende ich NetNewsWire, auch wenn ich diese Applikation nur noch wenige Male im Monat starte – für mich ist das iPad das optimale Gerät für Lektüren.

Anrisse und überlange Artikel später lesen

Sehr viele News-Anbieter, die ihr Einkommen mit Werbeanzeigen machen, bringen im RSS-Feed nur Anrisse der Artikel. Interessiert mich ein solcher Artikel, greife ich auf Instapaper zurück, um den Artikel in meine Leseliste zu befördern. Da mein iPad wie erwähnt nicht über eine 3G-Verbindung ins Internet verfügt, muss ich dabei auf die E-Mail-Lösung von Instapaper namens „Email in“ zurückgreifen: Indem ich in Reeder den Titel des Artikels länger gedrückt halte, erscheint ein Menu, mit welchem ich die URL des Artikels vermailen kann. Diese sende ich auf meine geheime Instapaper-Mail-Adresse, worauf der Artikel in die Instapaper-Liste aufgenommen wird, sobald ich mich in einem bekannte WLAN aufhalte und das Mail versendet wird.

Dieselbe Technik verwende ich übrigens auch, wenn ein Artikel zu lange für eine Zugfahrt ist oder mich andere Themen derzeit brennender interessieren.

Tags: , , , , , , , ,
Labels: Medien

Keine Kommentare | neuen Kommentar verfassen

Montag, 12. März 2012

Coop und MIGROS sind noch nicht bei Web 2.0 angekommen

Was fällt dem geneigten Web-Entwickler an nachfolgenden URLs auf, die auf Produkte in Web-Shops von Coop (Coop@home) respektive MIGROS (LeShop) verweisen?

Mein Deutschlehrer aus dem Gymnasium würde sowohl die Detailhändler als auch die Entwickler deren Web-Shops fragen: „Sind Sie eigentlich bescheuert?!“ Es scheint, als wären die technische Entwicklung der letzten 10 Jahre spurlos an diesen beiden Buden vorbeigegangen.

Zum einen wäre der Nutzen kurzer, einfacher deklarativer URLs für die Endkunden deutlich komfortabler – und würde wohl auch sozusagen kostenlos SEO mit sich bringen. Wie wäre es bspw. mit:

  • http://www.coopathome.ch/product/coop-mango-lassi-2.5dl/1234567890
  • http://www.leshop.ch/product/selection-lassi-mango/1234567890

Zum andere Frage ich mich über die Überlegungen der Web-Entwickler hinter den beiden Web-Shops, insbesondere desjenigen von coop@home: Was zum Teufel sollen all diese Variablen, die per GET übergeben werden?

  • xcm=coop_dev
  • cpgsize=24
  • layout=7.0-1_0_3_7_8_9_10_11_14_13_51_18_15_21_46_47_52_6_26
  • uiarea=16
  • cpgnum=1

Und was sagt mir diese ellenlange URL b2c_coop/catalog/updateItems/ eigentlich aus?

Wir sehen, es bleibt bei Coop & Co. noch viel zu tun.

Tags: , , , , ,
Labels: Web

1 Kommentar | neuen Kommentar verfassen

Samstag, 21. Mai 2011

Die Banker wirtschaften sich auch 2011 weiterhin selber in die Tasche

The fact that the stock more than doubled on its first day of trading — something the investment bankers, with their fingers on the pulse of the market, absolutely must have known would happen — means that hundreds of millions of additional dollars that should have gone to LinkedIn wound up in the hands of investors that Morgan Stanley and Merrill Lynch wanted to do favors for. Most of those investors, I guarantee, sold the stock during the morning run-up. It’s the easiest money you can make on Wall Street.

Quelle: Was LinkedIn Scammed? – NYTimes.com

Tags: , , , , ,
Labels: USA, Web

Keine Kommentare | neuen Kommentar verfassen