Generalabonnement in der Schweiz

In der Schweiz gibt es eine Fahrkarte zu kaufen, die sich „Generalabonnement“ nennt. Das entspricht in etwa der deutsche BahnCard 100 oder der früheren Jahresnetzkarte.

Man bezahlt also einmal im Jahr einen Betrag von ca. 3600 CHF und kann dann fast alle öffentlichen Verkehrsmittel in der Schweiz für ein Jahr benutzen.

In den letzten Jahren gab es gelegentlich Diskussionen, ob dieses Angebot so aufrechterhalten werden sollte.

Konkret hat die neue Verwaltungsratspräsidentin sich dafür ausgesprochen, das „GA neu zu denken“, was wohl auf eine Abschaffung hinauslaufen sollte. In der NZZ am Sonntag wurde das begrüßt, aber der Artikel ist nur für Abonnenten lesbar. Argumentiert wird mit Kostenwahrheit.

Gedanken über mehr Kostenwahrheit im Verkehr sind grundsätzlich zu begrüßen.

Aber wenn man diese verbessern sollte, wäre es besser, zunächst einmal beim motorisierten Individualverkehr (MIV) anzusetzen.

Dieser mag zwar seine Verkehrswege finanzieren, jedoch sind die externen Kosten durch Treibhausgasemissionen, Luftverschmutzung, Lärm und Unfälle erheblich und werden nur zu einem kleinen Teil von den MIV-Nutzern bezahlt. Dieser ist sogar in der Schweiz von der CO_2-Abgabe noch befreit.

Bevor man bei der Bahn bestehende gut etablierte Angebote wie das GA in Frage stellt, wäre es besser, entweder die Steuern auf Benzin deutlich zu erhöhen oder ein flächendeckendes Road-Pricing einzuführen. Hier könnte die Schweiz von der Erfahrung mit der erstaunlich leise und damit wohl problemlos verlaufenden Einführung der LSVA profitieren, und ein flächendeckendes Road-Pricing-System für den gesamten MIV einführen.

Die Preise lassen sich nach Strecken und Zeiten differenzieren. Als grundsätzliche Idee würde ich die Preise umso höher machen, je niedriger die Geschwindigkeitsbeschränkung ist, weil dort die Autos in der Regel am meisten stören. Aber man kann außerdem die zeitliche und räumliche Auslastung der Straßen berücksichtigen. Es ließen damit sogar ohne zusätzliche Straßen Staus weitgehend vermeiden. Soweit Alternativrouten überhaupt existieren, ließen sich enge und gefährliche Ortsdurchfahrten vom Durchgangsverkehr entlasten. Als Seiteneffekt könnten Geschwindigkeitsbeschränkungen nicht mehr nur punktuell, sondern auch flächendeckend überwacht werden, womit die entsprechenden Bußen weitgehend entfallen würden, weil kaum noch jemand zu schnell fahren würde. Die Chance nicht erwischt zu werden, würde gar nicht mehr existieren. Das würde auch der Verkehrssicherheit, dem Umweltschutz und der Stauvermeidung dienen würde.

Wenn in diesem Bereich signifikante Fortschritte und bei der Kostenwahrheit im MIV erzielt werden, ist es immer noch früh genug, über die Ausgestaltung der Vielfahrerangebote des ÖV mit der dann verfügbaren Technologie nachzudenken. Was man heute schon machen könnte, wäre ein Angebot, das weniger kostet und nur außerhalb der Hauptverkehrszeiten gilt.

Share Button

Norwegisch lernen

Norwegisch ist nah mit Schwedisch und etwas entfernter mit Deutsch und auch mit Englisch verwandt. Die Grammatik ist nicht so schwierig, zumindest am Anfang nicht… Eigentlich sollte es eine Sprache sein, die einfach zu lernen ist, vor allem, wenn man Schwedisch schon kann und vielleicht noch mehrere deutsche Dialekte versteht. Ja, das hilft, denn es gibt immer wieder Wörter, die in dem einen Dialekt vorkommen und die im Hochdeutschen verschwunden sind.

Das ist wirklich so, ich kann Norwegisch recht gut lesen, mit etwas Konzentration ganz gut verstehen, jedenfalls wenn die Leute einigermaßen deutlich sprechen. Schreiben kann ich auch etwas und sprechen klappt auch, wobei als Rückfallebene immer die Möglichkeit besteht, Lücken mit Schwedisch zu füllen, das hinreichend ähnlich ist und sowieso von allen Norwegern verstanden wird. Schweden, die nach Norwegen ziehen, sprechen teilweise ihr Leben lang Schwedisch und verstehen die Antworten, die ihnen auf Norwegisch gegeben werden, so wie es die meisten Deutschen in der Schweiz tun, wobei Schweizerdeutsch ein deutscher Dialekt ist und die (eine von vier) offizielle und geschriebene Sprache Deutsch, womit Hochdeutsch gemeint ist, das sich nur um einige minimale Helvetismen vom Hochdeutschen aus Österreich oder Deutschland unterscheidet.

Nun gibt es beim Norwegischen doch eine Herausforderung. Ich sage mal, die Sprache ist nicht sehr homogen. Es werden normalerweise Dialekte gesprochen, das heißt, dass die Norweger immer ihren Dialekt sprechen. Die Dialekte sind so ähnlich, dass man sie gegenseitig versteht, wenn man sich konzentriert und nicht exzessiv schnell und undeutlich spricht. Einige Dialekte in der Nähe der Grenze sind sehr ähnlich wie Schwedisch. Aber da die Dialekte gegenseitig verständlich genug sind, besteht keine Notwendigkeit, auf eine „Hochsprache“ zurückzufallen, um miteinander zu sprechen. Die Dialekte zu verstehen, ist also erforderlich, wenn man Norwegisch lernen will, denn so wird nun einmal gesprochen. Das geht auch einigermaßen, mal besser, mal schlechter.

Witzig ist, dass das Wort für „ich“ mindestens 12 Varianten hat, je nach Dialekt. Wenn man bedenkt, dass es in den meisten Indogermanischen Sprachen im Grunde genommen fast dasselbe Wort ist, was man erst sieht, wenn man es in vielen Sprachen gleichzeitig anschaut, nicht nur in zweien, dann ist das schon witzig, dass es innerhalb von Norwegisch fast die Variationsbreite wie zwischen Spanisch, Deutsch und Russisch gibt, für dieses eine Wort. Man hat mir gesagt, dass es so etwas wie „e“, „äi“, „eg“, „je“, „jäi“, „jeg“, „a“, „ai“, „ag“, „ja“, „jai“ und „jag“ gebe und bei nahe beieinander liegenden Dialekten habe ich schon „a“ und „eg“ im selben Gespräch von verschiedenen Leuten gehört. Wie gesagt, man gewöhnt sich daran, das zu verstehen, vielleicht wie man sich an Synonyme oder Kurzformen von Wörtern gewöhnt. Aber das Sprechen Lernen basiert ja darauf, andere Sprecher zu imitieren. Das ist der Teil, der etwas schwierig wird, weil der nächste Sprecher wieder einen anderen Dialekt spricht.

Wie ist es nun mit dem Schreiben? Historisch gesehen war Norwegen jahrhundertelang dänisch regiert. Da wurde die dänische Schriftsprache als Standard etabliert. Sie war deutlich verschieden vom gesprochenen Norwegisch, aber doch nahe genug, um es relativ leicht zu lernen. Aber im Prinzip musste man zum Schreiben und Lesen eine Fremdsprache lernen. Vor etwa 200 Jahren wurde Norwegen nach den napoleonischen Kriegen von Dänemark unabhängig, aber gehörte stattdessen zu Schweden. Es war wohl in dieser Zeit schon relativ unabhängig, aber die volle Unabhängigkeit kam erst vor etwa 100 Jahren. Die dänische Schriftsprache blieb erhalten und es gibt heute Unterschiede, weil sie sich etwa 200 Jahre auseinander entwickelt haben. So ist in Norwegen Bokmål entstanden. Wer Bokmål lesen kann, kann auch Dänisch lesen und umgekehrt, die Unterschiede sind noch nicht so groß. Nur die Aussprache ist sehr verschieden.

Nun hat man erkannt, dass Bokmål zu weit entfernt von der gesprochenen Sprache ist und auch keine eigentlich eigene norwegische Sprache… So wurde, ähnlich wie in einigen anderen Sprachen, aus den vorhandenen Dialekten eine Schriftsprache konstruiert, das Nynorsk. Eigentlich wäre es logisch, das zu benutzen, weil es sich wie eine Hochsprache in die Dialektlandschaft einfügt und nicht oder weniger wie eine (sehr nahe) Fremdsprache gelernt werden muss. Aber fast alle Bücher sind in Bokmål geschrieben. Ich versuche in Norwegen immer wieder, auch nur ein einziges halbwegs interessantes Buch in Nynorsk zu kaufen, aber bis jetzt habe ich das noch nicht geschafft. Man muss also in Norwegen Bokmål wegen der Bücher unbedingt gut können. Und so ist es heute üblich, dass etwa 20% der Norweger zum Schreiben Nynorsk bevorzugen und 80% Bokmål. In der Schule lernt man beides und alle können die jeweils andere Schriftsprache lesen und natürlich auch schreiben. Ich kann nur Bokmål schreiben. Ich würde lieber Nynorsk verwenden, weil für mich die gesprochene Sprache viel wichtiger ist, aber die Gelegenheit, das zu lernen, ist nicht so üppig vorhanden. So kann ich nur etwas Bokmål schreiben, aber natürlich beides lesen.

Ich höre immer wieder davon, dass es auch in Schweden eine reichhaltige Vielfalt an Dialekten geben soll. Aber ich erlebe das Schwedische als ausgesprochen homogen. In Schonen und überhaupt im Süden ist die Aussprache leicht verändert, aber das ist kein wirklich großer Unterschied. Man denke an Bayern, Norddeutsche oder Schweizer, die Hochdeutsch sprechen. Man hört den Unterschied zwar, aber versteht es gut gegenseitig, wenn man nur will. Es gibt in Schweden einige lokale Dialekte, insbesondere auf Gotland, aber auch z.B. in Dalarna, die so verschieden vom Hochschwedischen sind, dass sie kaum ein Schwede versteht und die deshalb nur von Einheimischen untereinander gebraucht werden. Das Problem schwer verständlicher Dialekte existiert in Schweden nicht wirklich. Ich war zu oft in dem Land und habe praktisch nur Schwedisch gesprochen, seit ich die Sprache einigermaßen kann. Gefühlt ist Schwedisch also sehr homogen, Norwegisch dagegen nicht. Das macht es ein bisschen schwieriger, die Sprache zu lernen.

Share Button

Analoge und digitale Fotografie

Viele von uns haben mit analogen Kameras fotografiert und tun es immer noch.
Die Zeit der Analogfotografie ist noch nicht vorbei. Man kann noch Negativ- und Diafilme in guter Qualität zu günstigen Preisen kaufen, entwickeln und abziehen lassen. Gute Analogkameras werden kaum noch produziert, aber sie sind noch in großen Stückzahlen vorhanden und funktionsfähig.
Die Blütezeit der Analogfotografie ist vorbei und die Abteilungen in den Läden, wo man die Abzüge von Negativen bestellen kann, sind geschrumpft, aber sie sind noch überall vorhanden, wo es sie früher gab und funktionieren noch gut. Die Anlagen in den Labors sind wahrscheinlich weitgehend abgeschrieben und noch lauffähig, aber sie müssen mit der Schrumpfung des Volumens sich angepasst haben, vermutlich indem sie Maschinen und ganze Labors stillgelegt haben.
Aber es wird der Zeitpunkt kommen, wo Negativfilme nur noch zu sehr hohen Preisen erhältlich sind und nur noch in wenigen Läden. Und wo die Abzüge viel kosten.

Die NZZ hat übrigens auch gerade über das Thema geschrieben…

Nun bietet die Digitaltechnik mit Software wie Gimp die Möglichkeit, Fotos in einer Weise zu bearbeiten, wie es früher bestenfalls mit einem Fotolabor mit viel Infrastruktur und viel Zeitaufwand möglich war und sogar weit darüber hinaus. Man kann die bearbeiteten Bilder über das Internet hochladen und sich dann die Abzüge bestellen. Und man hat überhaupt sehr viele Möglichkeiten, die Bilder rein digital zu verwenden.

Bis vor wenigen Jahren war die Digitaltechnik rein von der Bildqualität der Analogtechnik noch unterlegen. Man hat Dinge wie Moire-Effekt und man hat Qualitätsverluste beim Drehen, Scalieren und Verformen von Bildern, wenn es nicht Drehungen um Vielfache von rechten Winkeln sind. Das mag vernachlässigbar sein, aber es ist etwa wie die Argumentation von Audio-Fans, die auf schwarze Platten schwören und CDs und MP3 und OGG nur als behelfsmäßiges Musikhören für unterwegs ansehen. Die A-D-Wandlung ist mit Verlusten behaftet. Das ganze lässt sich aber mit mehr Rechenleistung und mehr Datenvolumen bewerfen und damit beseitigen. Ein gutes digitales Audioformat mit genügend vielen Bits pro Sekunde und genügend guten Geräten wird früher oder später die analogen Plattenspieler obsolet machen, ob es die Plattenfans dann glauben, ist eine andere Sache. Aus meiner Sicht ist bei der Digitalfotografie heute dieser Zeitpunkt gekommen. Mit den High-End-Kameras mit Vollformat ist der Vorteil von Analogfotografie weitgehend obsolet geworden. Aber wir sind Menschen und entscheiden selbst, rational, emotional oder wie wir wollen, deshalb werden weder schwarze Platten noch Analogkameras so schnell völlig von der Bildfläche verschwinden. Aber sie werden eben aus dem „Mainstream“ verschwinden sie und werden mit einem Preisschild versehen werden, das für viele engagierte Amateure nicht mehr interessant ist. Bei Analogfotografie ist es noch nicht so weit, aber eine Frage von 5-10 Jahren.

Nun spielt aber noch eine ökonomische Überlegung eine Rolle. Man hat einmal für mehrere Monatseinkommen eine analoge Fotoausrüstung gekauft. Früher waren die Marktsegmente etwa so, dass es einen Low-End-Bereich gab, den billige Kameras für normale Negativfilme und zeitweise auch für 110-er und 126-er Filme mit kleineren Negativformaten dominierten. Diese hatten eine feste Optik, die so gemacht war, dass bei den meisten Bilder alles irgendwie ungefähr scharf war, gut genug für 9×13-Abzüge, die man schnell durchblättert. Mit einem Weitwinkelobjektiv, relativ stark geschlossener Blende und einem kleinen Filmformat ist das durchaus realistisch, solange die Lichtverhältnisse gut sind. Dieses Segment ist heute völlig von den Mobiltelefonen absorbiert und längst bei weitem übertroffen worden.

Das nächsthöhere Segment waren gute Sucherkameras mit Autofokus, Blitz und Automatik für Blende und Belichtungszeit. In der Schlussphase mit Zoom, in früheren Zeiten auch mit manueller Einstellung von Entfernung und Belichtung, aber mit Belichtungsmesser. Auch das kann heute das Mobiltelefon größtenteils abdecken, nur die Zoomfunktion nicht. Dafür gibt es heute einfache Digitalkameras mit Belichtungsautomatik, phantastischem Zoom, guter Optik und ca. 10-20 Megapixeln. Das Objektiv kann man nicht wechseln, aber man kann sehr viele Situationen damit gut behandeln, zumal sie auch mit wenig Licht fotografieren können, was mit Analogtechnik nur sehr eingeschränkt möglich war.

Die engagierten Hobbyfotografen hatten analoge Kleinbild-Spiegelreflexkameras und ein paar Wechselobjektive, auch wenn in der Praxis ein Zoom häufig das einzige Objektiv blieb oder zumindest die anderen Objektive im Schrank blieben. Diese waren relativ billig, für 500 bis 1000 DEM erhältlich, qualitativ sehr gut, relativ langlebig und vor allem auch mit 300 bis 500 Gramm für das Kameragehäuse sehr leicht. Dieses Segment hat es nicht wirklich in die Digitalwelt geschafft. Man kann 95% mit der guten kompakten Digitalkamera abdecken, weil man ja den Hauptvorteil von Spiegelreflex durch das Display auf der Rückwand hat und den Hauptvorteil der Objektivsammlung durch das Superszoom. Wegen Dunkelheit braucht man nicht auf ein lichtstarkes Objektiv zu wechseln und Tiefenschärfe explizit zu steuern interessiert nun auch nur einen Teil der Leute.

Der High-End-Bereich für Hobby- und Berufsfotografen war schon immer vorhanden und die Kameras waren gemessen am Einkommen sündhaft teuer, meist schwer und auch sehr gut. Dies sind heute überwiegend Digitale Vollformat-Spiegelreflexkameras, obwohl es auch andere Lösungen gibt, die sehr gut und vielversprechend sind. Diese sind aber so teuer, dass die Umstellung von Analog auf Digital nicht mal so kurz zu machen sind. Und sie sind zu schwer, um sie auf dem Urlaub mitzunehmen, wenn der Urlaub nicht schwerpunktmäßig dem Fotografieren dient. Wenn Geld keine Rolle spielt, kauft man sich also als engagierter Hobbyfotograf eine gute kompakte Digitalkamera mit Superszoom für die Ferien und die kleinen Gelegenheiten unterwegs und eine digitale Spiegelreflexkamera für die Anlässe, wo man das Gewicht nicht scheut. Wenn man Glück hat, kann man die Objektive weiterhin verwenden, sonst wird es preislich noch schwieriger.

Wieviel Geld man für sein Fotohobby heute ausgeben will und kann, muss jeder selber wissen. Die Tatsache, dass man einmal ein oder mehrere Monatseinkommen für eine Ausrüstung ausgegeben hat, heißt nicht, dass man das jetzt mal wieder will oder kann oder dass man sogar häufig alles austauschen will. Man kann eine Schritt zurück gehen und sich auf die kompakte Digitalkamera beschränken, womit man einiges einbüßt, was man vorher hatte. Oder erstmal für die Ferien eine kompakte Digitalkamera kaufen und irgendwnn mal eine Vollformat-Spiegelreflexkamera, um die analoge zu ersetzen. Irgendwann wird das nötig werden, in 3 Jahren, in 10 Jahren oder in 20 Jahren. Ich glaube eher in 5-10 Jahren.

Dass das Thema noch vielfältiger ist und auch Änderungen unterworfen, ist mir bewusst. Gerade die „spiegellosen“ Kameras und verschiedene Experimente einzelner Hersteller aber auch digitale Mittelformatkameras sind sicher ergiebige Themen, weil einige dieser Ideen Potential haben und einige wieder verschwinden oder zu Nischen werden.

Heute ist für die vorhandenen Negative und Dias und eventuell für die, die man neu generiert, ein Scan-Prozess nötig. Man bekommt einfache Scans, wenn man die Negative abziehen lässt. Bessere Qualität und Auflösung kann man anderwo bestellen und es gibt auch die Möglichkeit, mit einem Negativscanner dies selber zu machen. Dass die Weiterverarbeitung digital mehr Möglichkeiten bietet, daran besteht kein Zweifel. Allerdings sind Negative ein Backup von einer Zuverlässigkeit, wie man es von digitalen Bildern praktisch nie haben wird. Deshalb würde ich die Negative auch nicht nach dem Scannen wegwerfen.

Darüber, wie man tausende von Negativen und Dias zeit- und kosteneffizient scannen kann, werde ich in der Zukunft noch einiges schreiben…

Share Button

Wird der Taktfahrplan bei SBB in Frage gestellt?

Man konnte 20min lesen, dass man darüber nachdenkt, den Taktfahrplan in Frage zu stellen. Konkret wurde geschrieben, dass dies zu Randstunden mit geringerem Verkehrsaufkommen geplant sei. Was sich genau dahinter verbirgt, wurde natürlich nicht klar und es scheint auch nirgendwo anders etwas dazu zu stehen.

Es ist nicht neu, dass spät am Abend ein anderer Fahrplan gilt als tagsüber, aber mit eventuell einmal mehr umsteigen sind doch die meisten Verbindungen noch vorhanden, sie werden einfach mit weniger Zügen bewältigt. Das ist grundsätzlich auch sinnvoll so, weil zu der Zeit viel weniger Fahrgäste unterwegs sind? Was soll sich also ändern? Ich schlage vor, einmal zu schauen, ob es dazu im Laufe der Zeit genauere Angaben gibt. Dann lässt sich das beurteilen.

Share Button

Erste Konkrete Informationen über die Zukunft einiger Nachtzugverbindungen

Die ÖBB möchte anscheinend einige Nachtzugverinbindungen in Deutschland anbieten, auch solche, die Österreich nicht berühren oder die von Österreich nach Nord- oder Nordwestdeutschland führen und auch von Bayern aus zu diesen Reisezielen sinnvoll nutzbar sind. Diese Informationen sind noch nicht absolut zuverlässig und dass man sie von verschiedener Seite hört, beweist auch noch nicht viel. Also sollte man es mit Vorsicht genießen, aber ich halte diese Informationen für seriös und zutreffend. ÖBB hat eine Preistabelle auf ihrer Webseite, die sich genau mit diesen Verbindungen deckt…

Folgende Verbindungen wird es voraussichtlich geben:

  • Düsseldorf – Köln – Frankfurt – Nörnberg – Passau – Wien
  • Hamburg – Nürnberg – Passau – Wien
  • Hamburg – Nürnberg – Augsburg – München – Kufstein – Innsbruck
  • Zürich – Basel Bad – Frankfurt – Erfurt – Berlin – Hamburg
  • München – Salzburg – Rom/Venedig/Mailand

Die Verbindung von Berlin nach Paris wird von der Russischen Bahn nicht täglich, aber mehrmals pro Woche angeboten.

Die Verbindung von Zürich nach Amsterdam ist nicht in den derzeitigen Planungen enthalten. Ebenso wird Zürich – Hannover und Zürich – Bremen wegen des Laufwegs über Berlin schwieriger werden, aber man kann eventuell über Augsburg reisen.

Von den Fahrpreisen her wird man sich innerhalb der Welt der ÖBB bewegen. BahnCard wird zumindest langfristig nicht mehr gelten und ob man die Fahrkarten beim Bahnschalter kaufen kann, muss sich noch zeigen.

Interessant ist die Frage, ob man Fahrräder mitnehmen kann. Das war eine der großen Stärken von CityNightLine, dass das relativ gut ging.

Alles in allem ist es aber einmal eine erfreuliche Nachricht. Ich hoffe, dass das der Anfang eines im Umfang stabilen und noch leicht wachsenden Netzes ist. Interessante Verbindungen für weitere Nachtzüge gibt es genug, z.B. allein von der Schweiz aus gesehen nach Italien, Spanien und London.

Quellen

Share Button

Geschwindigkeit bei Schiffen

Wie bei fast allen Verkehrsmitteln gilt auch bei Schiffen, dass der Energieverbrauch stark zunimmt, wenn man schneller fährt. Es hat sich rein ökonomisch ein Geschwindigkeitsbereich von 15-20 Knoten (27-37 km/h, 8-10 m/sec) für Schiffe ergeben. Man kann schnellere Schiffe bauen und es gibt sie auch, vor allem für das Militär und für kleinere Passagierschiffe. Immer wieder wurde experimentiert mit Luftkissenschiffen, Tragflügelbooten, Tragflächenbooten und ähnlichen Bauweisen. In Norwegen, wo immer noch relativ viele Schiffe für Reiseverkehr eingesetzt werden, sieht man aber für schnellere Schiffe entweder Katamarane oder einfach etwas kräftiger motorisierte Einrumpfschiffe.

Nun ist Wasser etwa tausend mal so dicht wie Luft. Das heißt, dass Schiffe, die im Wasser 200 oder 300 km/h fahren wird es kaum geben, zumal abgesehen von der dafür erforderlichen Energie Wasser bei diesen Geschwindigkeiten auch recht aggressiv für den Schiffsrumpf wäre. Um mit dem Verbrauch einigermaßen im Rahmen zu liegen muss man also relativ langsam fahren, die heute üblichen 15-20 Knoten sind wohl der richtige Ansatz. Schiffe verbrauchen je nach Sichtweise sehr viel oder sehr wenig Energie. Waren mit einem großen, gut ausgelasteten Schiff und relativ niedriger Geschwindigkeit über weite Strecken zu transportieren braucht sehr wenig Energie. Nimmt man jedoch vergleichbare Geschwindigkeiten, wird der Energieverbrauch hoch. Und nimmt man den ganzen Güterverkehr der Erde, der mit Seeschiffen bewältigt wird, dann tragen diese ungefähr so viel zur CO_2-Emission und damit zur Klimaerwärmung bei wie der gesamte Flugverkehr. Ob man das viel oder wenig findet, ist eine Frage des Blickwinkels.

Eine Besonderheit bei Schiffen ist, dass ein Teil der Energie in das Erzeugen von Wellen geht. Das hat bei ufernaher Fahrt, vor allem in Kanälen, noch andere Nachteile, weil dadurch die Ufer unterspült werden können. Es macht es gefährlich, in der Nähe von Schiffen zu schwimmen, weil die Wellen mit einem Sog einhergehen, gegen den man schlecht gegenan schwimmen kann, wenn man zu nah an ein Schiff kommt. Aber die Wellenenergie muss auch als Treibstoff hereingesteckt werden und bringt für den eigentlichen Vortrieb nichts.

Nun hat man die Idee gehabt, dass man eine Kugel durch das Wasser führt, die genau die entgegengesetzten Wellen macht. Dann heben sich Welltentäler und Wellenberge auf und im Idealfall hat man flaches Wasser. Auch wenn es für uns als Nicht-Physiker schwer einsehbar ist, wieso zusätzliche Wellen zu erzeugen Energie sparen soll, ist es rechnerisch so und auch in der Praxis. Diese Kugel hat man also kurz unter der Wasserlinie vor dem Bug befestigt. Das ist dieser komische Wulstbug. Man spart damit einiges an Energie oder kann mit derselben Leistung etwa einen Knoten schneller fahren. Wenn jemand von Euch genaue Zahlen hat, bin ich für Kommentare dankbar. 🙂

Die Form hat man inzwischen sehr gut optimiert, dass sie stabil ist und einen möglichst guten Beitrag leistet. Aber der ganze Trick funktioniert nur bei einer bestimmten Geschwindigkeit oder in der Nähe dieser Geschwindigkeit. Die Schiffe sind für diese Betriebsgeschwindigkeit optimiert. Man kann nun einfach langsamer fahren. Das ist möglich und spart Treibstoff, aber die Ersparnis ist geringer als sie sein könnte, weil man nicht mehr im optimalen Tempo der Rumpfform fährt. Die Frage stellt sich, weil je nach Transportmarkt Über- oder Unterkapazitäten bei den Schiffsbeständen existieren. Schiffe sind teuer, die Waren, die sie transportieren, die Hafenliegegebühren und auch der Treibstoff und das Personal. Letztlich will man die Ressource optimal nutzen und fährt dann in Zeiten von Überkapazitäten an Schiffsraum gerne etwas langsamer, dann hat man wenigstens Treibstoffkosten gespart, auch wenn die Fixkosten für Personal und Schiff nicht tiefer werden.

Theoretisch könnte man Schiffe bauen, die einen flexiblen Bug haben, der an die Geschwindigkeit angepasst wird. Das kommt aber wohl nicht in Frage, weil man damit eine Schwachstelle einbaut, die das Schiff gefährden kann. Das Schiff muss ja mit jedem Wetter klarkommen, man kann nicht mitten auf dem Pazifik mal kurz in den Hafen und das Wetter abwarten. Man kann den Wetterbericht beachten und besonders kritische Zonen umfahren, aber das geht mit 15-20 Knoten und der heutigen Qualität der Wettervorhersage natürlich nicht so zuverlässig, dass man mit einem Schönwetterschiff über den Ozean fahren könnte.

Nun werden also Schiffe für ein paar 100’000 EUR umgebaut, um für die geänderte Geschwindigkeit die optimale Form zu haben und noch mehr Treibstoff zu sparen. Wenn dann das Öl billiger oder der Schiffsraum knapper wird, muss man das wieder umbauen. Aber es lohnt sich wohl.

Ein großer Gewinn für die Schifffahrt war übrigens die Satelliten-Navigation, die es auch vor GPS schon gab. Damit konnte man für eine Ozeanüberquerung einige wenige Stunden einsparen, was natürlich für die Treibstoffrechnung und für die Nutzbarkeit des Schiffes in Zeiten von knappem Frachtraum Gold wert ist.

Eine interessante Frage stellt sich immer wieder einmal. Warum nutzt man nicht die Windenergie für Schiffe? Es geht hier nicht darum, die alten Holzschiffe mit ihren großen Besatzungen und der Seefahrerromantik wiederzubeleben. Solange das Öl einigermaßen billig ist, müssen Schiffe nach einem Fahrplan fahren. Aber sie könnten bei entsprechenden Windverhältnissen Treibstoff sparen und Segel setzen. Natürlich sollten die auf Knopfdruck von der Brücke aus bedienbar sein. So etwas wird immer wieder einmal diskutiert, aber letztlich ist es nicht über theoretische Überlegungen hinausgekommen.

Share Button

Neues über Nachtzüge

Zwei Links:

Share Button

Entfernungsangaben bei Straßen

Beim Benutzen von Straßen sieht fast man sehr oft Wegweiser zu irgendwelchen Orten.
Die zugehörigen Entfernungsangaben werden aber von Land zu Land sehr unterschiedlich gehandhabt.

Es gibt eigentlich drei Möglichkeiten, wo Entfernungen angegeben werden können.
* Auf den Wegweisern selber
* Auf Tafeln auf freier Strecke, die nur Entfernungen angeben
* Auf Ortsende-Schildern

Das dritte ist eine Spezialität von der Schweiz und Deutschland und einigen wenigen anderen Ländern und nur bedingt brauchbar, weil in der Regeln nur eine Entfernungsangabe geliefert wird und weil viele Straßen über lange Strecken keine Ortsdurchfahrten haben.

In der Schweiz kenne ich sehr viele Straßen und ich habe an Nationalstraßen und Regionalstraßen, das sind die Straßen mit den blauen Wegweisern, vielleicht zwei oder drei Tafeln mit Entfernungsangaben an der N1 von Murten nach Lausanne und an der N9 von Brig nach Lausanne gesehen. Für Schweizer Leser ist zu beachten, dass das Dialektwort „Nationalstross“ (mit „ss“) eine völlig andere Bedeutung als das hochdeutsche Wort „Nationalstraße“ mit „ß“ hat. In Deutschland habe ich das auch nur einige wenige Male an National- und Regionalstraßen (hier mit gelben Schildern) gesehen. In Deutschland hat man aber öfter mal auf den Wegweisern Entfernungsangaben.

In Finnland, Schweden und Norwegen ist es üblich, dass National- und Regionalstraßen etwa alle 10-15 km oder nach größeren Kreuzungen oder Ortsdurchfahrten an einer übersichtlichen Stelle solche Tafeln haben. Das halte ich für die sinnvollste Lösung, auch wenn es (verglichen mit der Straße marginal viel) etwas extra kostet. Die Lösung mit den Angaben auf den Wegweisern ist für sehr kleine Straßen mit wenig Verkehr und übersichtliche Kreuzungen sicher gut genug. Generell verleitet es aber dazu Konzentration abzuziehen, die für die Beachtung des anderen Verkehrs und der Verkehrsführung auf der Kreuzung sinnvoller eingesetzt wäre. Dasselbe gilt auch beim Ende von Ortsdurchfahrten, wo ja aus gutem Grund nur mit einer reduzierten Maximalgeschwindigkeit gefahren werden sollte.

Ich kenne keine Zahlen, aber ich halte die Lösung aus den nordischen Ländern für die nützlichste und für die sicherheitstechnisch neutralste Lösung. Es kann sogar einen positiven Effekt haben, wenn auf einer langen Straße durch dünn besiedeltes Gebiet alle 10-15 km so eine Tafel kommt und die Aufmerksamkeit etwas auffrischt.

Man hat diese Information auch mit dem Navi, sagt man. Das stimmt für die meisten Autofahrer. Für Radfahrer ist das mit dem Navi noch zu umständlich, weil Dinge wie Regenschutz, Befestigung, Diebstahlschutz und Stromversorgung für ein Mobiltelefon oder ein dezidiertes Navi-Gerät noch nicht standardmäßig gelöst sind. Und auch für Autofahrer ist es gesünder, wenn sie eine Entfernungstafel in ihrem normalen Blickfeld am Straßenrand lesen statt sich mit ihrem Navi zu beschäftigen.

Share Button

Gedanken über Leistungssport

2016 sollen ja zwei der vier „großen“ internationalen Sportanlässe stattfinden, die anderen beiden sind marketingtechnisch optimiert immer um zwei Jahre versetzt. Ja, es gibt mehr als vier, je nach Interesse und Wohnland…

Die Frage ist, was das ganze soll. Man kann sagen, dass die Leute dafür Geld ausgeben und dann wird es organisiert… Aber es wird dafür auch jede Menge staatliches Geld ausgegeben, einerseits durch direkte „Sportförderung“, durch Bau von Infrastruktur für Großanlässe, aber auch durch Aufwände bei der Polizei und beim Verkehr für solche Anlässe. An dem Punkt darf man hinterfragen, ob die Vor- oder Nachteile überwiegen. Ich gebe zu, dass mein Sportinteresse, sofern überhaupt vorhanden, sich zu einem größeren Teil auf die eigene Betätigung konzentriert. Ich mache die drei Sportarten, die im Triathlon vorkommen und manchmal zeitweise noch etwas anderes, wenn es ein interessantes Angebot gibt. Wobei ich Radfahren kaum als Sport betreibe, sondern mehr als Verkehrsmittel benutze, im Alltag und in den Ferien. Aber es macht mir auch Spaß, mal eine Strecke von ca. 20-100 km möglichst schnell zu fahren und das wäre dann wohl Sport. Die Wettkämpfe können interessant sein, wenn man mit Freunden zusammen so etwas anschaut, einfach als eine Art von gemeinsamer Unternehmung. Das tue ich auch gelegentlich. Ich denke, dass das ein Vorteil ist, wenn Leute eine solche gemeinsame und anregende und aufregende Zeit miteinander verbringen können… Ein anderer potentieller Vorteil ist, dass es Leute dazu anregen kann, die Sportart, die sie so gerne anschauen, auch selbst zu betreiben. In Europa und überhaupt in den meisten Schwellen- und Industrieländern haben wir sehr viele Menschen mit Gesundheitsproblemen wegen Bewegungsmangel und sehr viel weniger mit Gesundheitsproblemen wegen körperlicher Überlastung. Ob es diesen Effekt gibt, weiß ich nicht, aber ich kann es mir gut vorstellen und das wäre zu begrüßen. Ein dritter Vorteil, der vielleicht nur wenige Sportarten betrifft, ist die Weiterentwicklung der Technologie. Das ließe sich z.B. beim Skifahren, beim Motorsport, beim Segeln oder beim Radrennen vorstellen. Ja, ich bin bereit Motorsport und auch Segeln als Sport zu akzeptieren, weil dort eine Komponente von körperlicher Anstrengung vorhanden ist, auch wenn er nicht der eigentlichen Fortbewegung dient. Ob diese Entwicklungen wirklich nützlich sind oder nur dazu führen, dass wir noch mehr Autoabgase und Verkehrslärm haben, sei mal dahingestellt. Es könnte sogar sein, dass dort Dinge erfunden werden, die in ganz anderen Bereichen nützlich sind. Beim Radrennen wird leider die Chance, etwas für die Alltagsräder zu entwickeln, durch übermäßige Regulierung stark geschmälert. Ein Technologieschritt, der das Fahrrad weiterbringen könnte, sind vollverkleidete Liegeräder, die nicht nur Wetterschutz bieten, sondern auch mit demselben Krafteinsatz wesentlich höhere Geschwindigkeiten erlauben und damit größere Reichweiten. Es wäre schön, wenn die Tour-de-France solche Entwicklungen befeuern würde, aber das will man dort nicht und so ist dies in einen Nischenbereich der HPV-Rennen verbannt. Andererseits wäre es auch möglich, dass HPV-Rennen einmal die klassischen Radrennen in die Nische drängen, denn es ist ja nicht immer vorhersehbar, wie sich die Modesportarten und Präferenzen in den nächsten Jahrzehnten verschieben. Ob diese vollverkleideten Liegeräder, die ja heute trotz allem auf dem Markt verfügbar sind, wirklich so große Vorteile bieten oder ob der Vorteil eines konventionellen Fahrrads, dass man es in öffentlichen Verkehrsmitteln mitnehmen kann, nicht letztlich wertvoller ist, will ich gar nicht diskutieren. Ich denke, dass dort noch ein interessantes Potential besteht, das zur Zeit eben nicht durch die dahinter liegende Sportart gefördert wird. Letztlich entfällt damit nur einer der drei genannten möglichen Vorteile des Profi-Radsports und die anderen beiden können ja Grund genug sein…

Nun zu den Schattenseiten. Einige Sportarten sind finanziell sehr gut gebettet, international oder in einzelnen Ländern, wo sie populär sind. Viel Geld zu haben ist schön, aber es hat auch Nachteile. Wo viel Geld ist, werden semi-kriminelle Personen angezogen und die Versuchung durch Korruption steigt. Man hat es gesehen am Beispiel von Sepp Blatter bei der FIFA oder an dem Skandal der Bundesligaschiedsrichter, die gegen Geld Spielergebnisse für Sportwetten konform zu machen versuchten, aber solche Fälle häufen sich einfach gerade dort, wo übermäßig viel Geld vorhanden ist. Gefährdet sind alle Sportarten mit viel Geld. Die andere Seite sind Profi-Sportvereine (z.B. im Fußball), die sich massiv verschulden. Ich meine im Bereich von hunderten von Millionen oder gar Milliarden. Das ist absurd, ein Verein sollte überwiegend aus der Gegenwart die Gegenwart finanzieren, sich höchstens um einen Bruchteil eines Jahresumsatzes verschulden aber auch keine großen Vermögen anhäufen. Nun sind diese „Vereine“ in Wirklichkeit oft Firmen, aber ich sehe trotzdem als falsch an, sich so hoch zu verschulden und es hat vielleicht eine schlechte Vorbildwirkung für die Fans.

Ein weiteres Problem ist, dass der Anreiz wächst, Doping zu praktizieren. Das scheint in vielen Sportarten vorzukommen, ist fast überall verboten und fliegt ab und zu mal auf. Man kann sich auf den Standpunkt stellen, dass das eigentlich egal ist, denn es ruinieren sich halt die Sportler damit die Gesundheit und sie sind selber schuld. Und ob der eine oder andere gewinnt, ist nicht so wichtig. Letztlich bleibt es unsympathisch und ich denke, dass es sinnvoll ist, dass es verboten ist und auch sinnvoll wäre, wenn diese Verbote ernst genommen würden.

Ein drittes Problem ist, dass Leistungssportler tatsächlich ihren Körper überlasten und je nach Sportart mehr oder weniger gesundheitliche Schädigungen riskieren oder sogar in Kauf nehmen. Und manche Sportarten haben auch ein hohes Verletzungsrisiko, dem man sich zwar oft entziehen kann, wenn man sie als Hobby etwas vorsichtiger betreibt, aber nicht wenn es darauf ankommt, das bestmögliche Ergebnis bringen muss.

Share Button

Flughafen Berlin-Brandenburg

Vor Jahren konnte man sich verärgert, amüsiert oder herablassend äußern, weil der neue Flughafen in Mailand, Malpensa, erhebliche Pannen bei der Fertigstellung aufwies, an die sich heute niemand mehr erinnert.

Das wurde dann gesteigert, als in London-Heathrow ein neues Terminal erstellt wurde, mit dem sich, wie damals viele dachten, das ganze Land blamiert hat. Die Gepäcksortierung funktionierte nicht und man musst das aufgegebene Gepäck auf dem Landweg nach Mailand bringen, um es dort zu sortieren und zu den Destinationen weiterzuleiten, wo die Fluggäste schon auf den Rückflug warteten, als das Gepäck bei ihnen eintraf. Ja, Malpensa funktioniert inzwischen.

Nun stellt sich heraus, dass Malpensa und Heathrow eigentlich bis auf vernachlässigbare Kleinigkeiten gut funktioniert haben und die echte Blamage ist in Berlin-Brandenburg passiert. 2013 sollte der Flughafen eröffnet werden und kurz vorher kam dann die Meldung, dass es noch etwas länger geht und heute kann man nicht ernsthaft an eine Fertigstellung vor 2020 glauben. Und das ist ein einem Land passiert, das ähnlich wie z.B. die Schweiz, Slowenien, Japan, Finnland, Estland oder die Tschechische Republik gut organisiert ist, und wo Dinge normalerweise „funktionieren“. Nicht perfekt, das gibt es nirgendwo, aber ziemlich gut. Welche Länder da als Beispiel fungieren ist subjektiv und Veränderungen unterworfen. Die Italienisch sprechenden Tessiner in der Südschweiz können das auch.

Inzwischen werden Scherze darüber getrieben, dass wir in Deutschland diesen Flughafen nicht fertigbekommen, die Schweizer aber den viel anspruchsvolleren Gotthard-Basistunnel termingerecht fertiggestellt haben.

Was ist passiert? Darüber wurde viel geschrieben. Hier kommen ein paar Gedanken über das, was ich und wohl viele andere gelesen haben.

Anscheinend ist es üblich, für solche Bauprojekte eine Firma oder eine Organisation zu beauftragen, die mit derartigen Großprojekten Erfahrung hat. Da Flughäfen selten gebaut werden und große Projekte sind, die berechtigterweise auch einige Sicherheitsvorschriften erfüllen müssen, ist es sinnvoll hier eine Firma zu engagieren, die mit solchen Projekten Erfahrung hat. Leider sind diese Firmen teuer, aber man kann auch sparen, koste es was es wolle. Man liest nun, dass man hier diese Kosten sparen wollte, weil es ja in der Verwaltung genug Experten für Bauprojekte gibt, um das selber zu planen. Die sind sicher auch gut in ihren Spezialgebieten und es gibt entsprechende Projekte, die sie erfolgreich planen konnten. Aber anscheinend ist dieses Flughafenprojekt so verschieden von dem, dass das nicht gut funktioniert hat und einfach Dinge missachtet wurden, die am Ende wichtig waren. Es stand ja mehr oder weniger das ganze Gebäude, aber man hatte die Dokumentation für die Leitung, Rauchabzüge u.s.w. nicht im Griff oder es funktionierten Kleinigkeiten nicht, die wegen der fehlenden Dokumentation keine Kleinigkeiten waren. Als es schief ging, hat man Firmen ausgetauscht und dann noch mehr Knowhow verloren.

Lange wollte man den Umfang des Desasters nicht wahrhaben und keinen Überbringer der schlechten Nachricht haben, so dass es auch schwierig war, in dieses Projekt einzusteigen, auch wenn man kompetent etwas hätte beitragen können. Es waren neuen Projektleiter erwünscht, die eine rasche Fertigstellung und damit vielleicht sogar ein mittelfristiges Vergessen der Blamage wie in Malpensa oder Heathrow versprachen. Letztlich führte das zu unrealistischen Zielsetzungen und damit zu mehr Fehlern, Kosten und Verzögerungen.

Dass dieses Projekt in die Geschichte der großen Blamagen bei Bauprojekten eingehen wird, lässt sich wohl nicht mehr verhindern. Aber vielleicht kann man doch etwas daraus lernen. Interessanterweise ähneln Bauprojekte in vielem auch größeren Informatikprojekten. Ich habe auch schon Informatikprojekte gesehen, die in ähnlichem Zustand waren und mehr oder weniger dazu geprügelt wurden, trotz aller Vorbehalte mit irgendwelchem Gebastel live zu gehen. Lästige Sicherheitsvorschriften waren in diesem Fall kein Hinderungsgrund. Oder Informatikprojekte, die 2-3 Jahre liefen und wo eine Woche vor dem geplanten Einführungstermin eine Verzögerung um „mindestens ein Jahr“ angemeldet wurde. Es gibt solche Vorkommnisse gar nicht so selten, auch in der Schweiz oder in Deutschland, aber normalerweise bleiben die unsichtbar oder zumindest weniger im Fokus der Medien, weil viele Bauprojekte und erst recht viele Informatikprojekte zwar wichtig sind, aber nicht unmittelbar mit einem breiten Publikum in Berührung kommen.

Vielleicht kann man einige Dinge daraus lernen (für Bau- und Informatikprojekte):

  • Es lohnt sich, für Projekte die richtigen Experten zu holen, auch wenn sie etwas mehr kosten als jemand, der nur behauptet, der richtige Experte zu sein. Und ja, es gibt auch denjenigen, der behauptet, der richtige Experte zu sein und mit diesem als einzige Gemeinsamkeit einen hohen Preis hat. Das muss man unterscheiden lernen.
  • Wenn das Projekt in schlechtem Zustand ist, sollte man das frühzeitig kommunizieren. Dann lässt sich der Schaden in der Regel viel besser begrenzen als wenn man die schlechte Nachricht verschleppt. In einer Kultur wo die gute Nachricht mehr belohnt wird als die Wahrheit ist das schwierig.
  • Wenn ein Projekt in schlechtem Zustand ist, muss man eine neue Normalität finden. Es ist Schaden entstanden, daran kann man nichts mehr ändern. Man sollte aber zu realistischen Entscheidungen zurückfinden. Das kann bedeuten, dass das Projekt gestoppt wird, es kann aber auch bedeuten, dass das Projekt auf einer neuen Basis weitergeführt wird und dass dann richtig gearbeitet wird.
  • Es ist immer unbefriedigender, ein bestehendes Projekt zu sanieren als etwas tolles „auf der grünen Wiese“ anzufangen. Aber die neue grüne Wiese birgt auch die Gefahr, dass es beim nächsten Mal noch teurer wird.
  • Aus Angst vor solchen gescheiterten Großprojekten nichts zu tun ist oft auch keine Option. Es gibt sicher einige Großprojekte, die fragwürdig sind, und die Liste sieht wohl bei jedem etwas anders aus. Aber in der Gesamtheit machen doch viele der halbwegs erfolgreichen Großprojekte auch den Entwicklungsstand, den wir heute haben, aus. Probleme gab es wahrscheinlich fast immer, aber sie blieben oft „im normalen Rahmen“ oder einfach „unsichtbar“.
Share Button