Beiträge aus der Kategorie Internet

301 Redirects via htaccess

Keine Kommentare

Wenn man eine Website aufsetzt, muss man ab und an auch den dazugehörigen Webserver ein wenig konfigurieren. Dies lässt sich abseits der eigentlichen Konfiguration (Server-seitig) noch über bestimmte Dateien im jeweils aufgrufenen Verzeichnis umkonfigurieren. Dies sind .htaccess und .htpasswd

Erstere (.htaccess) soll hier das Thema sein.

Für Windows-Nutzer ist die Benennung vielleicht irritierend: Nach Windows-Konventionen, hätte die Datei eigentlich keinen Namen, sondern nur die Dateierweiterung “.htaccess”. Nach Linux-Konventionen heisst die Datei indes schlicht “htaccess” und hat keine (!) Dateierweiterung. Der Punkt vor dem Namen weist Linux an, die Datei als versteckt zu behandeln.

Davon abgesehen handelt es sich um eine ganz normale Textdatei.

Üblicherweise werden in der .htaccess Um- oder Weiterleitungen eingetragen. Entweder für einzelne Dateien oder ganze Domains.

Domain-Weiterleitung

Wenn mehrere Domains auf die gleiche Website zeigen, ist das für Suchmachinen “double content”, was zur Abwertung führt. Die Lösung ist ein 301-Redirect. Dabei leitet der Webserver die Anfrage auf das neue Ziel und gibt als Status “301 (moved permanently)” aus.

Auf vielen Webservern lässt sich für jede Domain ein eigenes Zielverzeichnis angeben. Es wird nun also neben dem Verzeichnis der eigentlichen Website (z.B. “website_xyz”) noch ein weiteres Verzeichnis angelegt (z.B. “website_xyz_301″).

Nehmen wir an, daß die Website über folgende Domains erreichbar sein soll:

  • domain1.tld
  • www.domain1.tld
  • domain2.tld
  • www.domain2.tld

domain2.tld ist die Hauptdomain; alle Anderen sind “Nebendomains”.

domain2.tld sollte auf das Verzeichnis “website_xyz” verweisen.

Alle anderen Domains verweisen auf das Verzeichnis “website_xyz_301″.

Im Verzeichnis “website_xyz_301″ wird nun eine .htaccess mit folgendem Inhalt angelegt:

RewriteEngine On
redirect 301 / http://domain2.tld/

Das war’s.

URL-Weiterleitung und -Umschreibung

Wen man die URL-Struktur ändert (aus welchen Gründen auch immer), würden die alten URLs nicht mehr funktionieren. Besucher die über (ältere) Suchmachineneinträge kommen, bekämen dann einen 404-Fehlermeldung … es sei denn, man richtet 301-Redirects ein. Nun wäre es müßig, für jede neue URL eine eigene Umleitung einzurichten. Das geht oft auch besser:

Die URLs für z.B. Blogeinträge hatten früher folgende Form:

http://shaded-arts.com/blog/d/2009/01/09/blackmetal-26/

Später wurden die URLs in folgendes Format gebracht:

http://shaded-arts.com/blog/26/

In der .htaccess im Website-Root findet sich dazu folgendes:

RewriteRule ^blog/d/([^/]+)/([^/]+)/([^/]+)/(.*)-(.*)$ http://shaded-arts.com/blog/$5 [R=301,L]

Wenn man die alten und die neuen URLs vergleicht, sieht man, daß “/d/2009/01/09/blackmetal-” weggefallen ist. Dabei ist das “d” statisch, die Zahlen spiegeln das Datum wieder, und “blackmetal-” ist der Titel des Eintrages. Datum und Titel sind natürlich bei jedem Eintrag anders…

Man muss also “nur” die einzelnen Pfadteile der URL separieren und Variablen zuweisen. Dann kann man die URL neu zusammenbauen:

Jede URL beginnt mit “blog/d/”. Dann kommt für jeden Datumsteil ein “([^/])”, mit “/” getrennt. Zuletzt wird noch der Titel separiert mit “/(.*)-(.*)”.

Jede geklammerte Angabe lässt sich als Variable ansprechen. Die erste Angabe wäre “$1″; die letzte entsprechend “$5″.

Somit kann die neue URL zusammengebaut werden mit “$5″ am Ende, was der Blogeintrags-Id entspricht.

Seit einigen Wochen geistert ja der neueste “Geniestreich” unserer Politiker durch’s Netz. Die Aktualisierung des JMStV.

Ich denke, ich muss hier jetzt nicht auch noch erklären, was das ist… Dazu finden sich mittlerweile genug Quellen im Netz (siehe z.B. die Links unterhalb dieses Artikels). Ich möchte stattdessen hier mal meine persönlichen Gedanken dazu ausrollen. Ich denke mal laut. Sozusagen.

Vorweg: Ja, ich habe mich aufgeregt. Erheblich. Da wird also sowas aus dem Boden gestampft und mit (potentieller) Wirkung zum 1.1.2011 auf Deutschland losgelassen. Ja ist denn wieder Weihnachten? Müssen sich mal wieder ein paar inkompetente Ahnungslose noch rechtzeitig vor dem Fest profilieren? Ok, ich hör’s schon: “… und was ist denn mit den Kindern?” Tja was ist denn mit dehnen? Albträume wegen der täglichen Nachrichten sind ok. Aber “persönlichkeits-verändernde Webinhalte”, na also das geht ja gar nicht…

Ich hab’ mir mittlerweile so einiges durchgelesen. Es war viel Interessantes dabei. Auch viel Panisches. Ironie und Galgenhumor, garniert mit Resignation fand sich auch darunter.

Aber ein paar verwertbare Dinge gibt’s ja doch.

  • Der aktualisierte JMStV soll zum 1.1.2011 gültig werden. Verabschiedet ist er noch nicht, da noch nicht alle Bundesländer den Vertrag unterschrieben haben. Allein daher ist purer Aktionismus (oder der hier in unserem schönen Land so verbreitete vorauseilende Gehorsam (mitsamt seiner Ausprägungen/Stilblüten)) nicht angebracht.
  • Kennzeichnungspflicht. Für wenn denn eigentlich? Und wie?
    • So wie ich es verstehe, gäbe es Probleme, wenn man eine Website für jüngere Kinder erstellt, und diese dann mit Inhalten für Ältere befüllt, ohne darauf hinzuweisen. Ok, das trifft hier wohl nicht zu ;-)
    • So wie es aussieht, begeht man keine Ordnungswidrigkeit, wann man auf eine Kennzeichnung verzichtet. Und zwar dann, wenn man keine Inhalte ab 16 oder gar ab 18 anbietet (Sprich: Inhalte sind “FSK12-verträglich”).
    • Wenn man Inhalte ab 16/18 anbietet… dann muss wohl gekennzeichnet werden. Aber ein visuelles Kennzeichen ähnlich dem Artikelbild (bloss ohne Fragezeichen) wird’s wohl eher nicht sein. Die Kennzeichnung dient zur Auswertung durch entsprechende “Jugendschutzsoftware”, die Eltern auf den PCs ihrer Kinder installieren können. Auch Schulen würden das wohl machen. Zum aktuellen Zeitpunkt gibt’s da zwar schon einiges (u.a. ICRA). Aber letztendlich kommt wohl was Neues (man muss ja immer alles anders machen :roll: ).
  • Sendezeiten… *räusper…hust*  Wer ist bloß auf diese depperte Idee gekommen? “Sendezeiten” für Websites… :eek:  Naja, die sind wohl nicht notwendig, wenn man seine Inhalte kennzeichnet (siehe oben).
  • Jugenschutzbeauftragter… naja, daß ist wohl Auslegungssache, warum ein solcher im Impressum angegeben werden muss. Also ich denke, die Angabe ist nur bei Kennzeichnung der Website Pflicht (ich mag mich da allerdings irren). Von der Idee her ist es wohl so, daß man nicht pauschal annimmt, daß ein Website-Betreiber sich mit Jugendschutz auskennt. Das ist ja “fast nett” :roll: Möglicherweise gibt es dem Website-Betreiber bei falscher Kennzeichnung dann auch die Möglichkeit, die rechtlich relevante Verantwortung an den Beauftragten abzugeben… wer weiß ;-) Wenn man das selbst übernimmt, ist man halt auch selber verantwortlich. Unter’m Strich ändert sich damit wenig.

Somit sieht’s dann eigentlich gar nicht so übel aus. Ich meine, hey, obwohl ich von dieser Art des “Kinderschutzes” nicht allzuviel halte, bin ich ja doch der Ansicht, daß manche Inhalte durchaus nicht für Kinder geeignet sind.

Ich werde jedenfalls auf meiner Fotografen-Website (und evtl. diesem Blog) ein ICRA-Label installieren. Ich bin ansonsten dann auch mein eigener Jugendschutzbeauftragter. Darüber hinaus muss man schauen, was sich weiter ergibt.


Lesenswertes zum Thema:

Wikipdia : Jugendmedienschutz-Staatsvertrag
t3n : Lesepflicht für alle: 17 Fragen zum neuen JMStV
lawblog : Blogger können leidlich gelassen bleiben
pop64 : JMStV – mit minimalen Einsatz von Zeit und Geld maximale Rechtssicherheit
pop64 : Die Technik des neuen Jugendschutz-Labels – Deutschland will die Welt verändern
Piratenpartei-Wiki : Jugendmedienschutz-Staatsvertrag/AltVersusNeu
ICRA-Label-Generator auf Jugendschutzprogramm.de
FSM : JMStV-2011: Häufig gestellte Fragen

Social and such

Keine Kommentare

… oder auch: “ganz viele bunte Icons!”

Sodelle. Damit ist die Umsetzungsphase “schattiert muss mehr ‘social’ werden” erfolgreich abgeschlossen :mrgreen:

Zunächst gibt’s unter jedem Artikel nun den “berühmt-berüchtigten” facebook-Like-Knopf. Ein simpler Klick, und ma(n)/frau “mag” den entsprechenden Artikel. Das kann man mit “Unlike” natürlich auch rückgängig machen, wenn man seine Meinung mal ändern sollte. Das soll aber natürlich niemanden davon abhalten, trotzdem einen Kommentar zu schreiben :roll:

In der Einzel-/Kommentar-Ansicht eines Artikels findet sich noch mehr:

RSS-Feed der Kommentare zum jeweiligen Artikel.

Permalink des Artikels twittern.

Permalink des Artikels auf facebook posten.

Permalink des Artikels auf myspace posten.

Permalink des Artikels auf Mister Wong bookmarken.

Permalink des Artikels auf del.icio.us bookmarken.

Permalink des Artikels auf tumblr posten.

Permalink des Artikels via Email weitersenden.

Die RSS-Feeds zu den Kommentaren gab’s vorher schon. Ist aber in der coolen, neuen Ansicht hübscher. Macht irgendwie “einen schlanken Fuß” ;-)

Hab’ ich was vergessen? Wenn ja, bitte melden :!:

The Wilderness Downtown

Keine Kommentare

Ein etwas anderes “Musikvideo”…

Die Band Arcade Fire hat eine Website im Netz, die das Thema Musikvideo mal etwas anders angeht. Jedenfalls denke ich das. Möglicherweise isses aber auch “nur” The Wilderness Machine, feat. Arcade Fire…

So oder so: Es ist ein interaktiver Film. Gebaut mit HTML5. Das Dingen will eine Adresse haben, die schon StreetView-Daten enthält. Das wird dann zu einem Multi-Window-Spektakel verrechnet. Saucool :cool:

Läuft natürlich nur in einem Browser, der auch HTML5 kann… :roll: und man sollte einen großen Bildschirm haben… ;-)

(via powerbook_blog)

AfterLogic WebMail

Keine Kommentare

Ich hab’s ja etwas vor mir hergeschoben. Aber gestern hab’ ich dann mal AfterLogic’s WebMail Pro auf meinen Server “geschmissen”.

Normalerweise gehöre ich ja zu den Leuten, die ihre Emails via Desktop Client bearbeiten. Aber immer mal wieder möchte man ja doch unterwegs (im weitesten Sinne) via Browser auf seine Emails zugreifen können. Auf meinem Server hab’ ich Confixx… das bringt auch einen Webmailer mit. Aber der ist so spartanisch, daß es keine Freude bereitet, das Tool zu benutzen.

Alternative Webmailer to the rescue :cool: Ich muss sagen, der erste Eindruck ist super.

Die Installation des PHP-Pakets geht schnell von der Hand. Einfach alles auf den Server laden. Berechtigungen checken/korrigieren. Das war’s. Ok, bei mir gab’s noch Glitches:

Ich hab’ den Mailer in eine Subdomain gepackt. Hier ist dann noch der PHP-SafeMode zu checken und auszuschalten. Des weiteren konnte der Installer nicht alle DB-Tabellen anlegen mit dem Effekt, daß der Kalender nicht lud. Im Admin-Bereich dann “Database Update” geklickt, und die Tabellen waren da :mrgreen:

Eine Kleinigkeit noch: Wenn man vergessen hat, in der Hauptdomain den PHP-SafeMode auszuschalten, teilt der Installer das mit. Schön. Wenn man dann aber für einen weiteren User eine weitere Subdomain konnektiert, kann es sein, daß dann für diese Domain der PHP-SafeMode wieder eingeschaltet ist. Der Webmailer ansich teilt das so nicht mit. Man bekommt dann beim Aufruf über die neue Domain die Meldung “Can’t save message” :-?

Und sonst so? Wie gesagt: Super :mrgreen: Das Interface fühlt sich dank Ajax sehr nach Desktop an. Es sind alle Funktionen da, die man braucht (zumindest für mich). Ich werde mal weitertesten, und dann berichten, wie’s sich so “im Tagesgeschäft” schlägt ;-)

Es gibt den Mailer in zwei Varianten: Lite/Community Edition und Pro. Die Pro-Version bringt vor allem folgendes mit:

  • Multiuser / Multiaccount
  • Kalender
  • Kosten*

Die Liste ist nicht vollständig; aber das sind die meiner Meinung nach wesentlichen Punkte.

* Zum Thema Kosten: Eigentlich kostet WebMail Pro ab $149,-. Aber scheinbar kann man wohl eine 5-User-Lizenz ebenfalls frei erhalten. Das ist auch die Version, die ich im Moment teste. Man kann diese Version im Download-Formular auswählen ;-)

Manchmal

Keine Kommentare

a schaut man morgendlich durch seine Feeds und was ist?

Vorratsdatenspeicherung: ungeliebt, nutzlos und bald völlig gekippt? (via Basic Thinking).

Das ich das noch erlebe… :cool:

s geht ein Aufschrei durch Deutschland. Böses Google sammelt Daten und zerstört die Privatspäre. Endgültig. Unwiederbringlich. Wir werden alle sterben! Ich muss gerade vor mich hingriemeln. Dieser Blogeintrag ist sicher bald via Suchmachine / Google zu finden. Ich frage mich, welcher Suchende dann falsche Schlüsse aus der Zusammenfassung zieht :mrgreen:

Wie auch immer, es ist wohl wieder Sommerloch und deshalb muss ein Deppenthema gefunden werden, mit dem der Sommer überbrückt werden kann. So jedenfalls kommt mir die aktuelle Diskussion um Google Street View vor. Da profilieren sich Politiker und Privatpersonen mutieren zu “Aktivisten”. Wow. Mittlerweile hört man auch die ersten Deppenmeinungen zum Thema. Konsenz: “Sowas ist doch sicher illegal!”

Googles Datenschutzbeauftragter Peter Fleischer gibt in einem Blog-Eintrag einen Überblick, was nun gesammelt wird:

  • Fotos für den Aufbau einer 360-Grad-Straßenniveau-Karte. Solche Fotos wurden und werden bereits aufgenommen z.B. von TeleAtlas und NavTeq für Bing maps. Zusätzlich werden diese Fotos zur Erweiterung und Verbesserung der existierenden Karten benutzt. Gesichter und Nummernschilder von Autos werden unkenntlich gemacht. Es werden nur Fotos aufgenommen; keine Videos. Die Bilder haben keinen Zeitstempel und sind nicht in Echtzeit verfügbar (Sprich: Die Bilder sind zum Zeitpunkt der Veröffentlichung mehrere Monate alt).
  • WiFi Netzwerk Informationen zur Unterstützung und Verbesserung von ortsgebundenen Diensten. Solche Informationen wurden bereits vom Fraunhofer Institut und Skyhook weltweit erfasst. Erfasst wird der Netzwerkname (die SSID) und die dazugehörige Mac-Adresse.
  • 3D-Gebäudeansichten: Dazu werden geometrische Daten mit Lasern erfasst (ähnlich den Lasern an Supermarktkassen). Diese 3D-Ansichten werden dann zur Erweiterung der Karten eingesetzt. NavTeq sammelt solche Informationen bereits im Auftrag von Bing. Ebenso werden solche Messungen von TeleAtlas durchgeführt.

Das ist alles. Und die Info ansich (eben das, was ich gerade hier gelistet habe) ist seit Monaten nachzulesen. Kommt also alles nicht so unvorbereitet, wie es z.Z. gerne dargestellt wird.

Und wo liegen jetzt die Probleme? Gute Frage.

Es wird ja gerne behauptet, daß das Bild eines Hauses die Privatspäre beeinträchtigt. Aha. Wenn dann im Zuge der Berichterstattung über die “Aktivisten” dann diese vor ihren Häusern fotografiert werden, und dieses Bild dann veröffentlicht wird, ist das ok :?:

Es wird gerne behauptet, daß man die Adresse eines Menschen dann via Street View “abfragen” kann. Schöne Formulierung. Ist so aber natürlich Quatsch. Man muss die Adresse eines Menschen schon vorher kennen. Dann kann man sich das ansehen. Einem Dieb wird das aber kaum nützen. Der muss nach wie vor vorbeikommen zum Recherchieren :roll:

Was die WiFi-Informationen angeht, scheinen auch viele Leute Paranoia zu haben. Klar, wenn ich eine Adresse kenne, diese dann in Street View betrachte, und dann darüber erfahre, daß dort ein WLAN-Netzwerk namens “Grzlmpf” existiert… wow. Das könnte ich ja mit Vorbeifahren nicht festellen… :-P Und das ein Benutzer nicht weiss, wie man die SSID-Übermittlung abschaltet ist sicher Googles Schuld. Damit ist dann zwangsweise alles offen zugänglich! Oh nein!!! *facepalm* :roll:

Oder auch gut: “Google lässt sich ja nicht in die Karten schauen. Wenn man nur mal einen Blick auf die verwendete Technik und die Fahrzeuge werfen könne…” Ummm, kann man. Hat Google kein Problem mit. Wenn man’s aber nicht tut, ist das nun nicht Googles Schuld :roll:

atenschutz und Privatsphäre. Zwei Begriffe die mal wieder ohne Sinn und Verstand überstrapaziert werden. Ich meine hey, unsere Politiker profilieren sich dafür, daß “böses Google” nicht zuviel Daten sammelt. Hallo? Es handelt sich um öffentlichen Raum. Oder jetzt nicht mehr?

Aber passt schon. Wir sind ja in guten Händen. An anderen Stellen wird ja auch “vorausschauend” mit unseren Daten umgegangen: Wenn detaillierte Flugpassagierdaten oder Informationen über den innereuropäischen Zahlungsverkehr an die US-Geheimdienste  weitergegeben werden. Wenn zentralisiert erfasste, lebenslang gültige Steuernummern eingeführt werden. Wenn mal wieder erwogen wird, den Bundestrojaner nun doch einzuführen. Wenn uns biometrische Pässe aufgezwungen werden, weil die Regierung eines anderen Landes das “gerne so hätte”. Wenn uns ernsthaft eine Kommunikation via “De-Mail” schmackhaft gemacht werden soll, die es aber notwendig macht, privaten Firmen wie United Internet oder der Telekom unsere Personalausweisdaten zu übergeben.

Ja nee, is’ klar :holy: Und nachts schwitzen die Steine! :!:

Mehr zum Thema:
Googlewatchblog: Street View FAQ: Erhobene Daten durch Google-Autos
Google: Street View Datenschutz und rechtliche Fragen

Letzte Woche gab’s den 1. Art Directors Club Brand and Ideas Congress (ADC BIC) in Berlin. Ich muss gestehen, daß der ein wenig an mir vorbeigegangen ist ;-) Wenn ich mir aber die Nachbereitung Berichterstattung ansehe, muss ich feststellen, daß ich eigentlich ganz zufrieden damit bin, nicht dort gewesen zu sein; nicht das ich das vorgehabt hätte, wenn es nicht an mir vorbei gegangen wäre… :-D

Es ging wohl unter anderem (wieder mal) über Marketing im Internet (mal simpel gesagt). Naja, das im Internet geworben wird, dürfte den meisten Internetbesuchern auch schon aufgefallen sein ;-) Auf der anderen Seite versteht sich der Kongress vom Namen her als Kreativmeeting derjenigen, die meinen, davon Ahnung zu haben (ok, ist jetzt etwas überspitzt formuliert).

Referenten aus aller Welt gaben ihre Meinungen zum Besten: Vorträge über’s Internet und dessen Nutzer, über den minderprickelnden Kreativoutput, den deutsche Onlinewerbung dieser Tage bringt,  oder auch über das “Ärgernis” Blogosphäre, der nervenderweise praktisch anonymen Meinungsbildung im Netz. Dabei wurden auch zwei neue “Buzzphrases” für die Blogosphäre aus dem Hut gezogen: “Army of Davids” oder auch “Loser Generated Content”.

Ich kann mich dabei des Eindrucks nicht erwehren, daß hier “Kreativkinder” (weil ja angeblich nur unter 25jährige über eine im Agenturleben aktzeptierte Internetkompetenz verfügen) darüber rumnölen, daß ihre ach so brillianten Marketingideen durch die natürliche Eigendynamik des Internets durchaus des Öfteren einfach im Sand verlaufen.

Sorry folks: Das Internet ist nicht die perfekte Plakatwand, die man nur mit bunten Bildchen zubappen muss, und von jetzt auf gleich rennt der verwirrte verdummte verehrte Konsument los, und sorgt für Umsatz. Höre ich da ein “Echo” aus dem .com-Hype von vor ein paar Jahren? Bloss weil “Internet” draufsteht, muss auch “serious money” drin sein?

Man möchte ein fröhliches “GET REAL!” oder besser noch “GROW UP!” in die Runde werfen.

Es ist doch wie im realen Leben: Endlos viele Unternehmen möchten ihre endgeilen tollen Produkte auf den Markt werfen. Dumm nur, daß man als Unternehmen mit seinem Produkt nicht alleine dasteht. Da sind ärgerlicherweise auch noch endlos viele Konkurrenzprodukte. Und im realen Leben isses nun auch nicht so einfach, dem Konsumenten zu vermitteln, daß genau dieses oder jenes Produkt den jeweilen “heiligen Gral” darstellt.

Und nur, weil z.B. Blogger (oder youtube, oder was auch immer) einen mittlerweilen immensen Anteil in der täglichen Internetnutzung darstellen, rumzuheulen, daß vor lauter “Loser Content” keine effiziente Werbung plaziert werden kann… vor allem in Blogs… also mal ehrlich *kopfschüttel* Das Internet ist doch mehr und vor allem was anderes, als per se der heilige Gral einer Werbeplattform. Wenn den “Kreativen” dazu nichts Besseres einfällt, als rumzuheulen, ist das m.E. sicher nicht die Schuld derjenigen, die “werbeinkompatiblen” Content produzieren, und damit den Konsumenten von der ach so wichtigen Werbung “ablenken”.

Es ist nun mal eine simple Tatsache, daß man heutzutage einfach gewisse Schwierigkeiten hat, sich aus der Masse herauszuheben. Und woraus diese “Masse” nun eigentlich besteht, liegt glücklicherweise nicht im Ermessen der “Kreativkinder” ;-)

… also gerade bin ich echt angepi..t! :-x

Bekanntermaßen ist Adobes CS4 Collection nun erhältlich. Soweit so gut. Mal davon abgesehen, daß im Moment wohl noch keiner sagen kann, ob die Software schon zu 100% produktiv eingesetzt werden kann (wir erinnern uns an das Start-Release von CS3, bei dem es ja auch ein paar kleine Glitches gab…), und auch abgesehen davon, daß die 64bit Version von Photoshop CS4 im Moment nur für Windows verfügbar ist (!) und daß es überhaupt eigenwillig ist, daß CS3 noch nicht so lange auf dem Markt ist, und nun schon die Nachfolgeversion erschienen ist… Wie gesagt, von all dem mal abgesehen hab’ ich mal die Preise gecheckt.

Da ich ja generell eine “Counteraffinität” zu eingedeutschter Software englischsprachiger Unternehmen habe, hatte ich auf www.adobe.com geschaut. Dort will man für die CS4 Master Collection $2499 haben. Als Vollversion für Mac als Download in englische Sprache. Prima. Beim aktuellen Dollarkurs ist das ja fast “billig” zu nennen mit €1811 :roll:

Umm… nein. Der Dollarpreis gilt “selbstverständlich” nur für Nordamerika. Ok, das ist ja auch die Heimat von Adobe. Und von dort kann man nicht nach Deutschland “downloaden” (ok, der Download würde sicher klappen, aber man kann das Geschäft mit Deutschland als Wohnort nicht abschließen).

Auf www.adobe.de mit Store-Auswahl Deutschland kommt man für das gleiche Produkt (CS4 Master Collection, Vollversion für Mac als Download in englischer Sprache) auf erhabene €3386,79 :eek:

Hallo? Erde an Adobe? Kann mir das mal jemand erklären? Bitte?

Ich find’s ja generell schon eigenwillig, daß man für die Übersetzung noch extra zahlt. Der eben erwähnte Preis erhöht sich für die deutsche Version dann auf €3628,79

Thanks, but no thanks. Dafür nehme ich die deutsche Version erst recht nicht.

Die englische Version muss ja nun nicht ins Englische übersetzt werden. D.h. ich bekomme wahrscheinlich ohnehin die US-Version als Download, wenn ich in Deutschland die englischsprachige Software bestellen würde…

Und als “Auslandsaufschlag” soll ich dann €1575,79 berappen? Das sind mehr als 86%!

Geht’s eigentlich noch?

Spam…

Keine Kommentare

Spam in Kommentaren und Gästebüchern ist ja ein nachhaltig leidiges Thema. Und umso leidiger das Thema, umso mannigfaltiger sind die Abwehrmaßnahmen mittlerweile geworden. Wobei… eigentlich auch nicht. Unter’m Strich gibt’s im Wesentlichen ja nur zwei Maßnahmen: Akismet (oder Varianten davon), daß zumindest WordPressnutzern sehr bekannt sein dürfte, und die leidigen Captchas, bei denen versucht wird, über lustige Zahlen/Buchstaben/Rechenaufgaben/whatever eine Maschine von einem Menschen zu unterscheiden.

Zuweilen muss man sich bei den “starken” Captchas aber fragen, ob man noch als Mensch durchgeht. Oder anders gesagt: Da Spambots ja mittlerweile via OCR lesen gelernt haben, werden Captchas immer unleserlicher, damit die OCR nichts Sinnvolles erkennt. Irgendwann ist aber auch eine Grenze des Sinnvollen überschritten. Und Lösungen wie Captchas oder Zwangsregistrierungen auf Websites/Blogs sind eigentlich auch eher nervig.

Bemerkenswert dabei ist übrigens, daß die meisten Blogger auf transparente Lösungen setzen. Keine Captches. Ok, oft werden die Kommentare erst mal moderiert. Aber das ist ja auch aus rechtlichen Gründen ansich ein anderes Stück Kuchen. Gästebücher hingegen sind in den meisten Fällen durch Captchas “geschützt”.

Auf shaded-arts.de habe ich auch ein Gästebuch. Und auch das war bis gerade mit einem Captcha versehen. Dennoch hat sich der eine oder andere Spambot irgendwie durchgemogelt, resp. die Captchas entziffert. Klar, ich schau natürlich immer mal wieder drauf und lösch’ die paar Einträge, aber irgendwie war das eher suboptimal.

Inspiriert von einer Idee auf apfelquak habe ich mich mal drangegeben, und das PHP-Skript für die Gästebücher überarbeitet (ve_guestbook für TYPO3). Im Moment ist es eine eher “weiche” Umsetzung. Somit besteht also sogar noch “room for improvements”. Ich werd’ das jetzt die nächsten Tage und Wochen mal beobachten :cool: