id
stringlengths
2
8
url
stringlengths
31
75
title
stringlengths
1
29
text
stringlengths
209
315k
qid
stringlengths
2
10
rank
float64
83.6
38.2k
3378139
https://de.wikipedia.org/wiki/Start-up-Unternehmen
Start-up-Unternehmen
Ein Start-up-Unternehmen (von ), auch Startup-Unternehmen oder kurz Start-up, ist eine Unternehmensgründung mit einer Geschäftsidee und hohem Wachstumspotenzial. Oft operieren Start-ups in jungen oder noch nicht existierenden Märkten und müssen erst ein funktionierendes Geschäftsmodell finden. Haben sie dieses etabliert, gelten sie allgemein nicht mehr als Start-up. Ehemalige Startup-Unternehmen bewahren sich mitunter die erfolgreichen Ansätze ihrer Gründungszeiten (wie Innovationsfähigkeit, Flexibilität, Modernität, flache Hierarchien), fördern sie gezielt durch Inkubatoren, gründen bzw. gliedern eigene Sparten als Start-ups aus (sogenannte Spinoffs) oder übernehmen andere Start-ups durch Zukäufe. Die Finanzierung eines Start-ups erfolgt wegen der hohen Risiken meist nicht über klassische Finanzquellen, sondern beispielsweise durch Business Angels (Privatinvestoren), Wagniskapitalfinanzierer oder Crowdfunding. Begriff Nicht jedes neu gegründete Unternehmen wird als Startup bezeichnet. Zum Beispiel starten Handwerksbetriebe (wie Tischler und Friseure) oder Freiberufler (wie Architekten und Rechtsanwälte) im Regelfall weder mit einer innovativen Geschäftsidee noch haben sie das vorrangige Ziel, schnell zu wachsen. Sie bedienen einen existierenden und bewährten Markt und gelten häufig als Existenzgründer. Beim Franchising ist der Franchisenehmer ebenfalls kein Startup, der Franchisegeber kann es hingegen durchaus sein. Copycat-Unternehmen im Tech-Bereich werden mitunter als Startups bezeichnet, erfüllen aber meist nur bedingt das Kriterium der Innovation, vielmehr führen sie diese häufig auf einem anderen Markt ein als das kopierte Unternehmen. Obwohl als Startup im Prinzip Unternehmen aller Branchen bezeichnet werden können, welche die Kriterien Innovation und Skalierbarkeit erfüllen, sind in der Praxis die meisten Startups im Technologie- und Internetsektor tätig. Typische Branchen sind der Elektronische Handel, Anwendungssoftware, Finanztechnologie, Biotechnologie, Nanotechnologie, neue Fertigungsverfahren, Industrie 4.0 oder Luft- und Raumfahrttechnik. Mitunter verändern Startups ganze Geschäftszweige und -modelle, was auch als Disruption bezeichnet wird. Laut dem Begründer der Lean-Startup-Methode und Autor Eric Ries ist „Ein Startup […] eine menschliche Institution, die ein neues Produkt oder eine neue Dienstleistung in einem Umfeld extremer Ungewissheit entwickelt“. Oft haben die Gründer und Investoren eines Startups die Absicht, das Unternehmen nach wenigen Jahren auf dem freien Markt anzubieten, entweder einem etablierten Unternehmen durch Kapitalbeteiligung oder Unternehmenskauf oder vielen Aktionären durch einen Börsengang. Häufig soll dadurch die Tragfähigkeit bzw. das Potenzial des Unternehmens dargestellt werden oder neue Ideen verwirklicht werden. Eine fruchtbare Gründerszene entsteht demzufolge häufig durch die Dynamik von Talenten und Finanzmitteln, die durch Verkäufe und regionale Netzwerke mit wachsendem Know-how angeregt wird. Die Ballung bestimmter Branchen oder insgesamt vieler Startups heißt Startup-Cluster. So bildeten sich nach dem Vorbild des Silicon Valley unterschiedliche politisch geförderte Cluster in Deutschland, beispielsweise das BioCon Valley in der Greifswalder Region, das Solar Valley in Mitteldeutschland und das BioValley im Südwesten Deutschlands. Für die Startup-Gründer sind politische Stabilität und Rechtssicherheit wichtige Faktoren bei der Standortwahl. Neben der entscheidenden Register- und Vertragssicherheit bzw. kompetenten Rechtsprechung und internationalen Rechtssicherheit ist Schnelligkeit bei der Registereintragung wichtig. Die Startup-Szene im Silicon Valley legt auch in Bezug auf Unternehmensgründung besonderen Wert auf persönliche Begegnung und Kommunikation, auch um Vertrauen von Investoren zu gewinnen. Virtuelle Kommunikation oder weite Wege zu Geschäftspartnern und Fachkollegen gelten als hemmend für Innovationen. Erfolgsfaktoren Viele der global erfolgreichen Startup-Unternehmen haben sich unter anderem durch innovative Ansätze zur Problemlösung, durch Regionalisierung und Globalisierung, durch Skalierbarkeit (Steigerungsfähigkeit) ihrer Technik und ihrer Geschäftsmodelle, dank funktionierender Gründungsförderung und Unternehmensfinanzierung aus ihrem Umfeld sowie durch intelligentes (Entrepreneurial) Marketing innerhalb relativ kurzer Zeit die Position des Weltmarktführers in ihrem Bereich erarbeitet oder haben sogar einen vollkommen neuen Markt erschaffen. Auch Erfolgsmethoden (best practice) zur Unternehmensstrukturierung spielen bei vielen erfolgreichen Startups eine Rolle. Eine der wesentlichen Faktoren zur Gründung und zum Erfolg der neuen Unternehmen ist die Verbindung der Gründer und Mitarbeiter mit lokalen Forschungseinrichtungen, wie etwa die Beispiele der Stanford University mit dem Stanford Linear Accelerator Center im Silicon Valley, das International Centre for Theoretical Physics in Triest oder der Wissenschaftscluster WISTA in Berlin-Adlershof zeigen. Entscheidend für den Erfolg von Startups insgesamt sei laut einer RKW-Studie von November 2015 ein „fruchtbares regionales Gründer-Ökosystem“ und gründerfreundliches Klima, welches durch das Zusammenspiel von Talenten, erfolgreichen Unternehmern, Finanzierungsmöglichkeiten, Bildungseinrichtungen, bürokratiearmer Politik und Verwaltung, potenziellen Kunden, leistungsfähiger Infrastruktur (vor allem digitaler) und Anbindung an den öffentlichen Verkehr, die Offenheit für Innovationen, Kreativität und eine hohe Lebensqualität entstehe. Dies sei mit guter Koordinierung auch außerhalb großer Städte möglich, etwa mit einem proaktiven, qualitätsvollen Regionalmanagement und durch die Vernetzung regionaler Gründer-Initiativen. Einer stadtökonomischen Untersuchung Berlins von März 2014 zufolge sei im urbanen Umfeld eine hohe Einwohnerdichte und ein lebendiges Ausgeh- und Kulturleben für die Startup-Gründerszene wichtig, die Arbeit und Leben nah beieinander zusammenbringt. So prägt zum Beispiel Silicon Valley auch einen extremen Kult der Nähe – persönliche Anwesenheit ist Pflicht, virtuelle Kommunikation ist verpönt; wer wegfährt, verliert den Anschluss und wer dort ist, bekommt Kontakte. Büroviertel, Technologieparks und Gründerzentren auf der Grünen Wiese seien demzufolge höchst unattraktiv für die meisten Gründer, auch bei guter Verkehrsanbindung. Gründer Da die Produkte von Startups häufig auf neuen Technologien basieren, stammen die Gründer von Startups oft aus den Ingenieurwissenschaften und der Informatik, wo sie im Rahmen ihres Studiums auf ihre Geschäftsideen gestoßen sind. So waren beispielsweise die beiden Gründer von Google, Larry Page und Sergey Brin, Doktoranden der Informatik und ihre Suchmaschine beruhte auf dem PageRank-Algorithmus, den die beiden im Rahmen ihrer Forschung an der Universität entwickelt hatten. Dennoch haben die meisten Gründer überwiegend einen wirtschaftswissenschaftlichen Studiengang abgeschlossen. Die Gründer von Startups sind oft verhältnismäßig jung. So waren beispielsweise Page und Brin beide 25 Jahre alt, als sie ihre Firma gründeten und Mark Zuckerberg erst 20, als er zusammen mit drei Mitstudenten Facebook gründete. Einer Studie vom Herbst 2022 der Technischen Universität München (TUM) in Zusammenarbeit mit der Roland Berger Stiftung für europäische Unternehmensführung zufolge seien Frauen in deutschen und französischen Start-ups deutlich unterrepräsentiert, insbesondere im Technologiebereich. Dies gelte sowohl für Gründerinnen als auch für Mitarbeiterinnen. Wurden die Unternehmen von weiblichen Teams gegründet, sei der Frauenanteil der Belegschaft fast doppelt so groß wie bei Gründungen von Männerteams. Zudem würden von Männern gegründete Start-ups höher bewertet. Finanzierung Finanzierungsphasen Erfolgreiche Startups durchlaufen mehrere Stufen der Unternehmensfinanzierung mit immer höheren Beträgen. Diese werden in verschiedenen Systemen in verschiedene Phasen unterteilt. Typisch ist die Aufteilung in vier bzw. fünf Hauptphasen: Pre-Seed Stage Seed Stage Early Stage Growth Stage Later Stage Am Anfang finanzieren die Gründer ihre Idee aus der eigenen Tasche. In der zweiten Stufe erhalten sie Unterstützung von Familienmitgliedern oder Bekannten. Die Beträge hier liegen – je nach persönlichem Vermögen – im fünfstelligen Euro-Bereich. In dieser Phase müssen kaum mehr als die Lebenshaltungskosten der Gründer finanziert werden. Die erste formale Finanzierungsphase wird Seed-Runde genannt. Hier investieren private Geldgeber (meistens Business Angels) in das Startup. Dafür erhalten sie einen gewissen Anteil am Unternehmen. Seed-Investitionen gehen bis in den sechsstelligen Euro-Bereich, bei ein bis drei Mitarbeitern benötigen sie im Schnitt rund 700.000 Euro. Diese Mittel werden zum Beispiel dafür genutzt, um Prototypen zu erstellen oder Marktanalysen durchzuführen. War das Startup bis dahin erfolgreich, folgt die sogenannte Early Stage (als erste große Investitionsrunde häufig auch Series A genannt). Das Unternehmen braucht weitere Mittel – zunächst, um das Produkt bis zur Marktreife zu entwickeln und dann, um den Marktauftritt und das Wachstum zu finanzieren. Hierfür können sieben- oder sogar achtstellige Beträge erforderlich sein. Solche Investitionen werden häufig von Venture-Capital-Gesellschaften getätigt und finden oft in mehreren Finanzierungsrunden statt. Im Gegenzug müssen die Gründer meist weitere Unternehmensanteile abgeben. In der Growth-Stage entwickelt sich das Unternehmen weiter. Steigende Kunden-, Umsatz-, und Mitarbeiterzahlen prägen die Entwicklungsphase. Bei guten Marktbedingungen finden in dieser Phase häufig mehrere Finanzierungsrunden statt (Series B, C, D), die i. d. R. durch steigende Investitionssummen gekennzeichnet sind. Bei weniger optimalen Marktbedingungen, finden auch Finanzierungsrunden, zu den Konditionen vorheriger Runden statt, die als „Flat-Round“ bezeichnet werden. Liegen die Bedingungen einer Runde sogar unterhalb den Bedingungen der vorherigen spricht man von einer „Down-Round“. Schließlich kommt – typischerweise nach wenigen Jahren – der Exit, bei dem das Unternehmen auf dem Markt angeboten wird. Dies kann durch einen Börsengang oder durch den Verkauf an ein anderes Unternehmen erfolgen. In den 2010er Jahren hat sich für Startups mit einer Marktbewertung von über eine Milliarde US-Dollar die Bezeichnung „Einhorn“ (englisch ) etabliert. Das Magazin Fortune listete im Juni 2016 insgesamt 174 Einhorn-Startups, darunter auch einige europäische und deutsche Unternehmen. Im Jahr 2022 listete das amerikanische Analyseunternehmen CB Insights bereits mehr als 1.200 Einhorn-Unternehmen. Überblick Finanzierungsphasen Risiken Startups sind mehreren Risiken ausgesetzt: Die Gründer sind oft jung und haben höchstens geringe unternehmerische Erfahrung. Häufig ist anfangs unklar, ob ihr Produkt in ausreichender Qualität entwickelt werden kann. Ebenso ist es meist ungewiss, ob der Markt das Produkt annehmen wird. Aus diesen Gründen ist die Erfolgsquote von Startups eher gering: Von zehn Startups scheitern durchschnittlich sieben oder acht, ein bis zwei Unternehmen erzielen einen beständigen Umsatz, jedoch ohne das erwartete Wachstum, und höchstens einem von zehn gelingt der erhoffte Erfolg. Diese Erfolgsquote von nur 10 Prozent erklärt die sehr hohen Renditeerwartungen von Investoren: Um ihr eingesetztes Kapital zurückzubekommen, muss im Mittel jedes erfolgreiche Unternehmen in ihrem Portfolio die Verluste von neun anderen Unternehmen auffangen. Eine Studie von 101 gescheiterten Startups hat gezeigt, dass die drei wichtigsten Gründe für den Misserfolg vermeidbar gewesen wären: Ein Produkt wurde entwickelt, das niemand kaufen wollte. (42 Prozent) Das Budget war aufgebraucht, ehe hinreichende Umsätze erzielt werden konnten. (29 Prozent) Das Gründer-Team passte psychologisch nicht zusammen. (23 Prozent) Erst an vierter Stelle steht eine externe Ursache: Ein Wettbewerber war stärker. Besonders um das erste Problem zu vermeiden, wurde das Lean Startup-Konzept eingeführt, das diese und andere Fehlentscheidungen frühzeitig vermeiden soll. Förderung Wegen ihrer großen wirtschaftlichen Bedeutung gibt es eine Reihe verschiedener Fördermaßnahmen für Startups – sowohl aus dem öffentlichen als auch aus dem privaten Sektor. Inkubatoren Inkubatoren bzw. Gründerzentren sind Einrichtungen zur Unterstützung von Startups, die verschiedene Dienstleistungen zur Verfügung stellen. Sie werden aus öffentlichen Mitteln als Teil der Wirtschaftsförderung oder von privaten Investoren oder in Kooperation öffentlicher und privater Geldgeber finanziert. Zu den typischen Angeboten eines Inkubators gehören: Büros und technische Infrastruktur für Jungunternehmen Wirtschafts- und Rechtsberatung Kontakte zu Investoren Coaching, Training und Seminare zu betriebswirtschaftlichen Themen Beispiele Diverse Hochschulen stellen für ihre Studenten und Mitarbeiter Inkubatoren zur Verfügung. Beispiele dafür sind das Zentrum für Entrepreneurship an der Universität Rostock und das Centre for Entrepreneurship an der Technischen Universität Berlin. Ein bekanntes Beispiel für einen privatwirtschaftlichen Inkubator in Deutschland ist die Factory in Berlin. Die Inkubator-Unternehmen EFounders (Paris/Brüssel), Makeshift (London) sowie Rocket Internet, HitFox, Internationale Startup-Fabrik mit Sitz in Berlin und Team Europe (alle Berlin) gelten als „Startup-Studios“ oder auch „Startup-Fabriken“, die ihre Tätigkeit auf die Entwicklung besonders effizienter und wiederholbarer Modelle zur Etablierung von Startups richten. Coworking-Angebote wie Betahaus, Tapetenwerk und Metalab können ebenfalls durch Angebote für Gründungsbegleitung als Inkubatoren wirken. Die öffentlichen und privaten deutschen Technologiezentren dienen ebenfalls dem Zweck der Begleitung von innovativen Unternehmensgründungen. Accelerator Accelerator (wörtlich Beschleuniger) haben eine ähnliche Funktion wie Inkubatoren, allerdings mit einem zeitlich gestrafften Programm. Sie richten sich an Startups, die sich ganz am Anfang befinden und oft nur eine Geschäftsidee haben. Meist wird ein Startup dabei über einen Zeitraum von einem Quartal oder maximal einem halben Jahr betreut und ko-finanziert. Accelerator werden gewerblich betrieben und der Accelerator nimmt als Entlohnung für seine Förderung meist einen Anteil am Startup-Unternehmen. Ein Gegenbeispiel dafür ist der Berlin Hardware Accelerator. Binnen weniger Monate bauen die Startups einen ersten Prototyp und erstellen für ihre Idee ein Geschäftsmodell. Am Ende des Aufenthaltes werden Investoren eingeladen und erhalten die Möglichkeit, in die Startups zu investieren. Damit erhöht sich ihre Erfolgswahrscheinlichkeit und somit auch das finanzielle Ergebnis für den Accelerator. Gerade global agierende etablierte Unternehmen wollen die Beweglichkeit von Startups nutzen, um Innovationen für sich zu befördern und nachhaltig zu nutzen. Auch Venture-Capital-Gesellschaften und bereits erfolgreiche Startup-Gründer engagieren sich vielfältig in der Gründer- und Startup-Förderung. Sie sind die verbreitetsten Betreiber von Accelerator-Programmen. Die Programme können hinsichtlich ihrer Leistungen wie der Art des Mentorings, der gebotenen Räumlichkeiten und Bedingungen für Investitionen stark variieren und grundverschiedene Geschäftsbereiche und Gründertypen ansprechen: Beispiele sind Startup Autobahn von Daimler im Bereich Mobilität, Edtech Next Inkubator für technische Innovationen im Bildungsbereich oder StartUp MOM, einem Accelerator für Unternehmer-Mütter (weitere Beispiele im nächsten Absatz). Beispiele Einer der bekanntesten und erfolgreichsten Accelerators ist Y Combinator mit Sitz in Mountain View, Kalifornien, USA – er wurde 2005 gegründet und gilt damit als erster „Seed Accelerator“. Er hat hunderte Startups in unterschiedlichen Marktsegmenten bei der Gründung unterstützt, darunter bekannte Namen wie Reddit, Airbnb, Dropbox und Disqus. Der Gesamtwert der durch Y Combinator geförderten Unternehmen wird auf 7,8 Milliarden US-Dollar geschätzt, was einem Durchschnittswert von 45,2 Millionen US-Dollar pro Firma entspricht. Auf den Pionier-Accelerator Y Combinator folgten weitere bedeutende Programme wie TechStars (seit 2006) und mehrere Ableger von SOSV sowie die beiden europäischen Programme Seedcamp (2007) und Startupbootcamp (2010), die regelmäßig in Europa (u. a. in Berlin, Amsterdam, London, Istanbul und Paris) und weiteren Erdteilen angeboten werden. Beispiele für deutsche Accelerator sind die unternehmensinternen Gesellschaften T-Venture (2014 durch Deutsche Telekom Capital Partners (DTCP) ersetzt) und hub:raum der Deutschen Telekom, CoLaborator und Grants4Apps der Bayer AG, der Commerzbank Main Incubator, You Is Now der Scout24 Holding, der Siemens Technology Accelerator, Plug and Play der Axel Springer SE, der ProSiebenSat.1 Accelerator sowie die Startup-Autobahn Stuttgart. Globale Beispiele sind der Microsoft Ventures Accelerator, Google for Entrepreneurs und Wayra des Telekommunikationskonzerns Telefónica. Anbieter wie Startupbootcamp und Seedcamp haben auch Standorte in Deutschland, vor allem in Berlin, wo auch die Berlin Startup Academy ansässig ist. Ein Sonderfall ist der German Silicon Valley Accelerator, der Startups mit Unterstützung der deutschen Bundesregierung einen dreimonatigen Aufenthalt im Umfeld der großen Technologiekonzerne im Westen der USA ermöglicht. Das Modell des Organic Accelerator wird in der Factory Berlin verfolgt, wo die gesamte nötige Infrastruktur und profilierte Technologie-Unternehmen (wie SoundCloud und Twitter) Gründer unterstützen, wobei die Factory im Gegensatz zu anderen Programmen große Freiheit gewährt und keine Unternehmensanteile verlangt oder Vorgaben zur Struktur macht. In Italien bilden die Kooperationen des AREA Science Park mit der Stadt Triest und Microsoft ein international bedeutendes Acceleratormodell. Förderprogramme Viele Länder haben sowohl auf regionaler als auch auf nationaler Ebene Förderprogramme, um Menschen zur Gründung eines Startups zu motivieren. In Deutschland ist das EXIST-Programm des Bundes ein bekanntes Beispiel, das Gründungen aus der Wissenschaft fördern will, indem es sich an Studenten und Absolventen von Hochschulen richtet. Als ein Problem der öffentlichen Förderprogramme und vor allem der Verwaltungsstellen in Deutschland wird genannt, dass dort häufig nur Deutsch als Amtssprache gesprochen werde, während insbesondere im Bereich der Startup-Unternehmen die englische Sprache zwischen den Gründern aus aller Welt vorherrsche und daher Verständigungsschwierigkeiten mit den Ämtern bestünden. Neben weiteren Gründen wird auch deshalb die Etablierung von Englisch als zusätzlicher Amtssprache vorgeschlagen. Um die Auswirkungen der durch die COVID-19-Pandemie ausgelösten Wirtschaftskrise 2020 zu lindern, legte die Bundesregierung im April 2020, nach Forderungen von Startup-Initiativen, ein 2 Mrd. € schweres Maßnahmenpaket auf. Dieses ist in zwei Säulen ausgestaltet: Einerseits sollen Startups indirekt durch öffentliche Co-Investitionen unterstützt werden. Durch die so genannte Corona Matching Fazilität werden die Investitionen privater Wagniskapitalfonds mit öffentlichen Mitteln gespiegelt. Mit der zweiten Säule des Startup-Schutzschilds werden Startups und kleine Mittelständler unterstützt, die keinen Zugang zur Corona Matching Fazilitäten haben. Die Umsetzung der zweiten Säule erfolgt, im Gegensatz zur Corona Matching Fazilität, dezentral über die Förderinstitute der Bundesländer. Prinzipien Marktvalidierung Ein Schlüsselprinzip des Startups besteht darin, den Marktbedarf zu validieren, bevor ein kundenorientiertes Produkt oder eine Dienstleistung bereitgestellt wird, um Geschäftsideen mit schwacher Nachfrage zu vermeiden. Die Marktvalidierung kann auf verschiedene Weise erfolgen, einschließlich Umfragen, Kaltakquise, Mundpropaganda oder durch Stichprobenforschung. Design-Thinking Design Thinking ist ein Ansatz zur Problemlösung und Ideenentwicklung, der eingesetzt wird, um die Bedürfnisse der Kunden engagiert zu verstehen. Entscheidungsfindung unter Unsicherheit In Startups werden viele Entscheidungen unter Unsicherheit getroffen, und daher ist es ein Schlüsselprinzip für Startups, agil und flexibel zu sein. Gründer können Optionen zur flexiblen Gestaltung von Startups einbetten, damit sich die Startups in Zukunft leicht ändern können. Unsicherheit kann innerhalb einer Person (ich fühle mich dieses Jahr unsicherer als letztes Jahr) und zwischen Personen (er fühlt sich unsicherer als sie) variieren. Eine Studie ergab, dass Unternehmer, die sich unsicherer fühlen, mehr Chancen erkennen (Unterschiede zwischen Personen), aber Unternehmer, die mehr Unsicherheiten wahrnehmen als andere, erkennen nicht mehr Chancen als andere (kein Unterschied zwischen Personen). Partnerschaften Startups können Partnerschaften mit anderen Unternehmen eingehen, um ihr Geschäftsmodell zu ermöglichen. Startups brauchen in der Regel viele verschiedene Partner, um ihre Geschäftsidee zu verwirklichen. Der Kommerzialisierungsprozess ist oft ein holpriger Weg mit Iterationen und neuen Erkenntnissen während des Prozesses. Hasche und Linton (2018) argumentieren, dass Startups aus ihren Beziehungen zu anderen Unternehmen lernen können, und selbst wenn die Beziehung endet, hat das Startup wertvolles Wissen darüber gewonnen, wie es weitermachen sollte. Wenn eine Beziehung für ein Startup scheitert, muss es Änderungen vornehmen. Drei Arten von Veränderungen können nach Hasche und Linton (2018) identifiziert werden: Änderung des Geschäftskonzepts für das Start-up Wechsel der Kollaborationskonstellation (Wechsel mehrerer Beziehungen) Änderung der Charakteristik der Geschäftsbeziehung (mit dem Partner, z. B. von einer Transaktionsbeziehung zu einer eher kooperativen Beziehungsform) Unternehmerisches Lernen Startups müssen mit enormer Geschwindigkeit lernen, bevor ihnen die Ressourcen ausgehen. Proaktive Aktionen (Experimentieren, Suchen usw.) verbessern den Lernprozess. Um effektiv zu lernen, formulieren Gründer oft falsifizierbare Hypothesen, bauen ein Minimum Viable Product (MVP) und führen A/B-Tests durch. Geschäftsmodelldesign Mit den wichtigsten Erkenntnissen aus Marktvalidierung, Design Thinking und Lean Startup können Gründer ein Geschäftsmodell entwerfen. Es ist jedoch wichtig, nicht zu früh in Geschäftsmodelle einzutauchen, bevor genügend Erkenntnisse zur Marktvalidierung vorliegen. Paul Graham sagte: „Was ich Gründern sage, ist, das Geschäftsmodell zunächst nicht zu sehr ins Schwitzen zu bringen. Die wichtigste Aufgabe ist zunächst, etwas aufzubauen, das die Leute wollen. Wenn Sie das nicht tun, spielt es keine Rolle, wie clever Ihr Unternehmen ist Modell ist.“ Lean Startup Als Folge der gescheiterten Startups nach dem Platzen der Dotcom-Blase im Jahr 2000 entwickelten der amerikanische Investor Steve Blank und sein ehemaliger Student und heutiger Geschäftspartner Eric Ries in Anlehnung an die Lean Production die Lean Startup Methodik, die darauf abzielt, Produktentwicklungszyklen zu verkürzen und schnell festzustellen, ob ein vorgeschlagenes Geschäftsmodell realisierbar ist. Start-ups nach Region Asien In Indien sind die Standorte Delhi und Bangalore dabei, sich zu einem „indischen Silicon Valley“ zu entwickeln. In China gilt Shenzhen als eines der Startup-Zentren für Hardware-Startups. Amerika Vereinigte Staaten von Amerika Das Silicon Valley in Kalifornien (USA) gilt weltweit als vorbildlicher Startup-Standort, der durch seine Spitzenforschung etwa an der Stanford University, zahlreichen Gründerzentren, vielen Kapitalgebern sowie innovativem, mutigem und gut vernetztem Unternehmertum erfolgreich ist. Zu den weltweit renommiertesten Beispielen von Unternehmen, die als Startup gegründet wurden, gehören online-basierte Dienste aus dem Silicon Valley wie Google, Facebook (jetzt Meta), Twitter, eBay, PayPal, Airbnb, GitHub, Salesforce und Uber, die Online-Universität Udacity, der Versandhändler Amazon sowie Technologieunternehmen wie Tesla Motors und SpaceX. Einige bescheidene Garagen und Werkstätten von Privathäusern berühmter Start-up-Gründer und Firmencampusse, vor allem im Silicon Valley in Kalifornien, sind heute weltberühmt, manchmal auch unter Denkmalschutz gestellt, in Museen umgewandelt und von einigen als wahre Symbole des amerikanischen Traums respektive Gründungsmythos anerkannt. Dazu gehören beispielsweise das Daimler-Museum in Stuttgart, Henry Fords ehemalige Werkstatt, Harley-Davidsons Werkstattschuppen, Hewlett-Packards Garage, Apples Garage, Googles Garage und viele mehr. Im Vergleich zu Deutschland ist Wagniskapital für Wachstumsunternehmen in den Vereinigten Staaten deutlich leichter und in höheren Summen verfügbar. 2022 standen in den USA so rund fünf- bis siebenmal höhere Summen pro Kopf zur Verfügung als in Deutschland. Naher, Mittlerer und Ferner Osten Israel Dicht folgend auf das Silicon Valley ist Israel, wo der Pro-Kopf-Einsatz von Wagniskapital im Jahr 2015 mit 553 US-Dollar deutlich über dem US-amerikanischen mit 229 US-Dollar lag. Europa Bekannte europäische Startup-Unternehmen mit einem hohen Marktwert sind Skype, Spotify, Yandex, Asos, SimilarWeb, Adyen, Markit und Criteo. Deutschland Im Jahr 2021 sammelten deutsche Start-ups 2021 die bisher höchste Summe von 17,4 Milliarden Euro Risikokapital ein. Im folgenden Jahr erlebte der Markt aufgrund verschiedener Faktoren wie dem Ukraine-Konflikt, der Zinswende und einer allgemeinen konjunkturellen Unsicherheit einen Einbruch von knapp 20 %; deutsche Jungunternehmen sammelten so im ersten Halbjahr 2022 knapp 6 Mrd. Euro ein, im Vergleich zu 7,6 Mrd. Euro im Vorjahr. Die Anzahl der Finanzierungsrunden lag bei 549, blieb damit aber trotz eines leichten Rückgangs zu 2021 über dem Niveau der Vorjahre. Innerhalb von Deutschland fließt das meiste Kapital in Start-up-Unternehmen in Berlin, dort landen ca. 50 % aller Risikokapital-Investitionen (3,25 Mrd. Euro im ersten Halbjahr 2022). Auf Rang zwei liegt München (1,16 Mrd. Euro). Abschwungphasen im Start-up Sektor halten üblicherweise zwei bis drei Jahre an. Bei einer Befragung von Gründern von Technologie Unternehmen im Jahr 2022 gaben 42 % der Befragten an, dass sich die Situation in Deutschland für Startups in den letzten Jahren verbessert habe. 40 Prozent sahen keine Veränderung und 12 Prozent beklagen eine Verschlechterungen für die Startup-Szene. Die staatlichen Förderbank KfW erhebt und veröffentlicht vierteljährlich die beiden Geschäftsklimaindizes German Private Equity Barometer und das German Venture Capital Barometer um die Stimmung des Sektors abzubilden. Dazu werden die rund 200 Mitglieder des Bundesverbands Deutscher Kapitalbeteiligungsgesellschaften (BVK) sowie weitere deutsche Beteiligungsgesellschaften befragt. Der letzte Bericht von November 2022 beschreibt einen starken Einbruch des Geschäftsklimas. Im Jahr 2020 wurden laut Deutscher Startup Monitor (DSM) mit 31,8 % die meisten Startups im Bereich Informations- und Kommunikationstechnologie gegründet, gefolgt von der Ernährungs- und Nahrungsmittel/Konsumgüter-Branche mit 10,7 %. Beispiele für Startups in Deutschland sind die sozialen Netzwerke Researchgate und StepStone, die Internethändler Zalando, Home24 und Westwing, der Mobile-Payment-Anbieter payleven, das Biotech-Unternehmen CureVac, sowie die Webdienst-Anbieter Eventim, GetYourGuide, Trivago, tape.tv, Here, Teamviewer, Jimdo, Lieferheld, HelloFresh, Statista, Babbel, Wunderlist und SoundCloud. Auch in der Nische der Handy- und Browserspiele gibt es erfolgreiche deutsche Startups, dazu gehören Wooga, Bigpoint, Gameforge und Goodgame.Einige deutsche Startups finden mit ihren Geschäftsmodellen im Bereich individuelle Fertigung, Online-Dating und Shared Economy auch amerikanische Nachahmer, wie etwa Spreadshirt und Mymuesli oder zum Beispiel der Mietmarktplatz Erento und die Privatkreditmarktplätze auxmoney und smava. Im dynamischen Wachstumsmarkt Mobilität etablierte sich neben Ausgründungen deutscher Automobilhersteller wie die fusionierten Carsharing-Anbieter Car2go und DriveNow und der Mitfahrzentrale flinc vor allem das Münchner Startup FlixMobility (FlixBus, Flixtrain), das nach Deutschland und Europa in die USA expandierte. Eine Vielzahl der Startups ist in regionalen Netzwerken oder Organisationen wie dem Bundesverband Deutsche Startups oder Bitkom miteinander verbunden. Schweiz 2022 wurden Schweizer Startups mit annähernd CHF 4 Milliarden finanziert. Den größten Anteil hatte dabei der ICT-Sektor vor Fintech und Cleantech – mit dem Spitzenreiter von 2020, Biotech, an vierter Position. Siehe auch Blue-Ocean-Strategie (Nutzeninnovation) Gründersyndrom Literatur Steve Blank, Bob Dorf: Das Handbuch für Startups. O’Reilly Verlag, 2014, ISBN 978-3-95561-812-4. Eric Ries: Lean Startup: Schnell, risikolos und erfolgreich Unternehmen gründen. Redline Verlag, 2014, ISBN 978-3-86881-567-2. Matthias Schäfer, Anabel Ternès: Startups international: Gründergeschichten rund um den Globus. Erfolgsfaktoren, Motivationen und persönliche Hintergründe. 2. Auflage. Springer Gabler, Wiesbaden 2018, ISBN 978-3-658-21721-1 Weblinks Hendrik Lehmann, Oliver Voss: Sprechen Sie Startup? Wörterbuch der Startup-Begriffe. In: tagesspiegel.de, 28. September 2017 Einzelnachweise Betriebswirtschaftslehre
Q129238
122.249904
256316
https://de.wikipedia.org/wiki/Norwich
Norwich
Norwich [] ist eine Universitätsstadt im Osten Englands und Hauptstadt des County Norfolk. Das Stadtbild zeichnet sich insbesondere durch einen gut erhaltenen mittelalterlichen Stadtkern aus. Trotz der etwa 190.000 Einwohner hat sich Norwich durch die eher abgeschiedene Lage einen gewissen Kleinstadtcharakter bewahrt. Norwich ist sowohl Sitz eines anglikanischen als auch eines römisch-katholischen Bistums. Geografie Norwich liegt an dem kleinen Fluss Wensum in der Nähe der Norfolk Broads. Die als Norfolk Coast (AONB) besonders geschützte Nordseeküste ist etwa 20 bis 40 km (Luftlinie) in nördlicher Richtung entfernt. Geologie Norwich wurde auf sehr kalksteinhaltigem Grund erbaut. Im Mittelalter befanden sich Kalksteinminen auf dem heutigen Stadtgebiet und die Stadt ist bekannt dafür, dass es gelegentlich zu Bodenabsenkungen durch Dolinen („Sinkhöhlen“) kommt. Der spektakulärste Fall ereignete sich am 3. März 1988 in der Earlham Road im Stadtzentrum, als eine alte Kalksteinmine kollabierte und ein Doppeldeckerbus größtenteils in dem entstandenen Sinkloch verschwand. Dabei kam niemand zu Schaden. Geschichte Von den Icenern bis zu den Normannen Die Stadt hat ihren Ursprung in mehreren zunächst icenischen und dann angelsächsischen Siedlungen gelegen an einer Furt des Flusses Wensum. Eine dieser Siedlungen hieß „Northwic“. Auf Münzen, die während der Herrschaft von König Æthelstan (von 927 bis 939 König der Engländer) geschlagen wurden, ist der Name „Northwic“ erstmals überliefert. Als Norwich 1004 von Wikingern nahezu gänzlich zerstört wurde, war die Stadt bereits eine der größten Siedlungen Englands. Diese Entwicklung basierte auf der vorteilhaften Lage der Stadt am Fluss Wensum und der Nähe zur Nordsee. Diese begünstigte den Handel mit Waren aus dem mittleren England, Russland, Skandinavien, dem Rheinland und dem damaligen Flandern. Nach der Eroberung Englands durch die Normannen im Jahre 1066 begannen diese mit dem Bau einer hölzernen Befestigungsanlage, die um 1100 durch eine steinerne Anlage, Norwich Castle, ersetzt wurde. Zur gleichen Zeit begann der Bau der Kathedrale der Heiligen Dreifaltigkeit, die von Bischof Herbert de Losinga gegründet wurde und deren erste Fertigstellung 50 Jahre in Anspruch nahm. Beide Bauten, die mehrmals erweitert und umgebaut wurden, sind heute zentrale Blickfänge im Stadtbild. Außerdem gibt es eine römisch-katholische Kathedrale (s. unten). Mittelalter bis Neuzeit Die Stadtrechte erhielt Norwich im Jahre 1194 von Richard I. Auch Norwich blieb während des Mittelalters von größeren Bränden, Krankheitsepidemien und politischen Unruhen nicht verschont. So zerstörten beispielsweise im Jahre 1507 zwei Brände einen Großteil der Gebäude der Stadt. Im Gegensatz zur heutigen Situation war das mittelalterliche Norwich in seiner Größe und Bedeutung lediglich mit dem damaligen London zu vergleichen. Die Stadtmauer, erbaut von 1297 bis 1344, hatte eine Länge von 4 km und schloss ein Stadtgebiet ein, das das von London um einiges übertraf. Reste dieser Stadtmauer sind heute noch an wenigen Stellen erhalten. Mit dem Beginn des 14. Jahrhunderts begann Norwich sich zu einem Zentrum der Weberei und des Handels mit Stoffen und Kleidung in England und darüber hinaus zu entwickeln. Diese Bedeutung verlor die Stadt erst im Laufe der industriellen Revolution im 19. Jahrhundert und der Einführung der fabrikmäßigen Herstellung von Stoffen. Das „Wappentier“ der Weber, der Kanarienvogel, findet sich heute noch im Emblem des städtischen Fußballclubs, den 'Canaries', und zeugt von der Bedeutung dieses Zweiges in der Blütezeit der Stadt. Das 19. und 20. Jahrhundert Die Zahl der Stadtbevölkerung verdoppelte sich, hauptsächlich durch den Zuzug aus ländlichen Gebieten, von 1810 bis 1870 auf ca. 80.000 Einwohner und die Wohnfläche begann sich über die Stadtmauer hinaus auszudehnen. Dies und der steigende Verkehr führte dazu, dass die im Mittelalter erbaute Stadtmauer teilweise eingerissen und durch breitere Verkehrswege ersetzt wurde. Der Bau der Eisenbahnlinie und dreier Bahnhöfe, von denen lediglich die 1844 eröffnete 'Thorpe Station' heute noch besteht, sorgte für weitere Veränderung im Charakter der Stadt. Vor dem Bau des Bahnhofs war es aufgrund geografischer Isolation oftmals einfacher, von Norwich aus nach Amsterdam als nach London zu reisen. Von 1900 an verrichtete zudem eine Straßenbahn ihren Dienst, allerdings nur für 30 Jahre. Im Jahr 1938 wurde, begleitet von einiger Kritik an dessen Architektur, das heute noch das Stadtbild am Marktplatz dominierende Rathaus eingeweiht. Während des Zweiten Weltkrieges wurde Norwich mehr als vierzig Mal bombardiert. Außerdem fielen etwa 44 V2-Raketen auf Norwich. Einige tausend Wohnhäuser, Fabriken und Kirchen wurden beschädigt. Der Wiederaufbau fand hauptsächlich während der 1950er Jahre statt. Im Jahr 1963 wurde als Teil eines Programms zur Gründung neuer Universitäten der britischen Regierung die University of East Anglia (UEA) gegründet. Sehenswürdigkeiten Norwich soll nach dem Zweiten Weltkrieg neben der Kathedrale 35 mittelalterliche Kirchen besessen haben, von denen in den 1970er Jahren viele geschlossen wurden. Bekannt sind die Pfarrkirche St Peter Mancroft im Perpendicular Style und St. Andrew in der St. Andrew’s Street mit einem Totentanz in Glasmalerei. Weiter sind das Castle und die St Andrew’s and Blackfriars Hall (The Halls), eine frühere Dominikanerkirche, beachtenswert. Im Jahr 1910 wurde am höchsten Punkt des Stadtzentrums die 1882 begonnene römisch-katholische Kathedrale St. Johannes der Täufer geweiht, Bischofskirche des Bistums East Anglia und eines der bedeutendsten Beispiele der englischen Neugotik. Politik City Council Im Stadtparlament hat seit der Wahl am 5. Mai 2011 die Labour Party 18 Ratsmitglieder, die Grünen stellen 15, die Liberaldemokraten 4 und die Konservative Partei 2 Ratsmitglieder. Partnerstädte Wirtschaft Norwich war eine wichtige Industriestadt, die u. a. durch ihre Schuhindustrie bekannt wurde, die untergegangen ist. Die Produktion der weltberühmten Senfmarke Colman’s, die zum Unilever-Konzern gehört, soll 2019 geschlossen und nach Burton-on-Trent und nach Deutschland verlagert werden. Der allgemeine Niedergang der englischen Industrie in den letzten Jahrzehnten des 20. Jahrhunderts wurde in Norwich durch neuere Stadtentwicklungsprogramme und die Entwicklung der Dienstleistungsökonomie gebremst. So wurde westlich von Norwich das Norfolk and Norwich University Hospital errichtet, das zentrale Krankenhaus für die Region. Auf dem Ufergebiet in der Nähe des Bahnhofs wurde das Vergnügungsviertel „Riverside Entertainment Complex“ gebaut, in dem sich Kinos, Restaurants und Geschäfte befinden. Die Millennium Library (genannt 'The Forum') am Marktplatz, ein Komplex aus Glas und Stahl, beherbergt neben der öffentlichen Bibliothek der Stadt auch das Tourist Information Centre, die regionalen Studios der BBC und Restaurants. Der Marktplatz, in der Nähe von Rathaus und Forum gelegen, gilt als der älteste und größte Straßenmarkt Englands. Daneben befindet sich die viktorianische Jugendstil-Einkaufspassage Royal Arcade. In dem westlich der Stadt gelegene Norwich Research Park befinden sich das Institute for Food Research (IFR) mit der dort befindlichen National Collection of Yeast Cultures und die beiden Institutionen im Bereich der molekularen Pflanzenforschung das Sainsbury Laboratory und das John Innes Centre. Bayer CropScience betreibt hier eine Fabrik. Die beiden ansässigen Zeitungen sind die Norwich Evening News und die Eastern Daily Press. Norwich besitzt mit dem Norwich International Airport einen internationalen Flughafen, der hauptsächlich durch KLM von Amsterdam aus bedient wird. Sport Der städtische Fußballverein Norwich City, auch bekannt als The Canaries (die Kanarienvögel), war in der Saison 2020/21 zum neunten Mal in der Premier League, der höchsten englischen Spielklasse, vertreten. Die größten Erfolge des Vereins sind der zweimalige Gewinn des League Cup und ein dritter Platz in der Premier League 1992/93. Seine Heimspiele trägt der Verein an der Carrow Road aus. Bekannte Personen Söhne und Töchter der Stadt William von Norwich (1132–1144), Opfer einer Ritualmordlegende Juliana von Norwich (c. 8. November 1342 – c. 1416), Heilige, Mystikerin, Autorin des Buchs Die Offenbarungen der göttlichen Liebe (Revelations of Divine Love) Thomas Morley (1557/1558–1602), Komponist der Renaissance Robert Greene (1558–1592), Schriftsteller Matthew Parker (1559–1575), Erzbischof von Canterbury John Taylor (1703–1770), Okulist und medizinischer Scharlatan William Beloe (1756–1817), Schriftsteller, Übersetzer und Herausgeber John Crome (1768–1821), Landschaftsmaler Amelia Opie (1769–1853), Schriftstellerin und Abolitionistin Robert Woodhouse (1773–1827), Mathematiker und Hochschullehrer William Crotch (1775–1847), Komponist und Organist Peter Barlow (1776–1862), Schriftsteller und Physiker Elizabeth Fry (1780–1845), Reformerin des Gefängniswesens John Curtis (1791–1862), Entomologe und Illustrator Nathaniel Grew (1829–1897), Ingenieur und Unternehmer Walter Joseph Sendall (1832–1904), Kolonialbeamter Arthur Henry Mann (1850–1929), Organist und Komponist Margaret Fountaine (1862–1940), Schmetterlingsforscherin Edith Cavell (1865–1915), Krankenschwester, exekutiert als Spionin im Ersten Weltkrieg Charles D. Hall (1888–1970), Szenenbildner Ambrose Reeves (1899–1980), Anglikaner und Anti-Apartheidsaktivist Christopher Boardman (1903–1987), Segler Evelyn Pinching (1915–1988), Skirennläuferin, Weltmeisterin Beryl Bryden (1920–1998), Jazz- und Bluesmusikerin Robert Hinde (1923–2016), Verhaltensforscher Jillian Beardwood (1934–2019), Mathematikerin, bekannt für das Beardwood-Halton-Hammersley-Theorem Tony Sheridan (1940–2013), Mitbegründer der Beatmusik Frank Doubleday (1945–2018), Schauspieler Philip Pullman (* 1946), Schriftsteller Jocelyn Lovell (1950–2016), kanadischer Radrennfahrer Steve Buttle (1953–2012), Fußballspieler David Sears (* 1955), Unternehmer und Autorennfahrer Christopher Bishop (* 1959), Informatiker Julian Jarrold (* 1960), Filmregisseur und Produzent Paul Easter (* 1963), Schwimmer Mike Gascoyne (* 1963), Automobil-Ingenieur Cathy Dennis (* 1969), Sängerin, Songschreiberin und Musikproduzentin Barry Pinches (* 1970), Snookerspieler Edward Rushton (* 1972), Komponist und Pianist Paul Warne (* 1973), Fußballspieler und -trainer Olivia Colman (* 1974), Schauspielerin Richard Bloomfield (* 1983), Tennisspieler Freddie Gavita (* 1985), Jazztrompeter Kit Downes (* 1986), Jazzmusiker Chris Baker (* 1991), Hochspringer Saraya-Jade Bevis (* 1992), Wrestlerin bei der WWE Iona Lake (* 1993), Leichtathletin Jack Main (* 1996), Dartspieler Alfie Hewett (* 1997), Rollstuhltennisspieler Sheridan Winn, Schriftstellerin Weitere bekannte Personen Stuart Ashen, Comedian, Schauspieler, Schriftsteller (* 1976), lebt und arbeitet in Norwich. Ben Bradshaw, Journalist und Labour-Politiker (* 1960) ist in Norwich aufgewachsen. Thomas Browne, Arzt, Schriftsteller, Universalgelehrter (1605–1682), lebte ab 1636 in Norwich und wurde hier zum Ritter geschlagen. W. G. Sebald, Schriftsteller und Literaturwissenschaftler (1944–2001), lehrte an der University of East Anglia. Literatur Carole Rawcliffe und Richard Wilson: Medieval Norwich. – London: Hambledon & London, 2005. – ISBN 1-85285-449-9 Carole Rawcliffe und Richard Wilson: Norwich since 1550 . – London: Hambledon & London, 2005. – ISBN 1-85285-450-2 Weblinks Stadtverwaltung Abbildung der Stadt 1559 in Civitates orbis terrarum von Georg Braun Norwich City Football Club University of East Anglia Norwich University of the Arts The Sainsbury Laboratory John Innes Centre Einzelnachweise Ort in Norfolk City (England) Borough (East of England) Hochschul- oder Universitätsstadt in England
Q130191
127.934643
79575
https://de.wikipedia.org/wiki/Torwart
Torwart
Der Torwart oder Torhüter (Torwächter, Torsteher, Tormann/-frau oder Torspieler, auch: Schlussmann, Keeper oder Goalie) ist ein Mitspieler in Ballsportarten. Er ist der defensivste Spieler seiner Mannschaft und seine Hauptaufgabe besteht darin zu verhindern, dass das Spielgerät (beispielsweise ein Ball) ins Tor der eigenen Mannschaft gelangt. Allgemeines Torwarte haben in den meisten Sportarten Sonderrechte gegenüber anderen Spielern. Beim Fußball z. B. darf der Torwart im Strafraum die Hand benutzen. Außerdem trägt der Torwart in der Regel eine spezielle Kleidung und Ausrüstung, die ihn optisch von den anderen Spielern unterscheidet, bestimmte Schutzfunktionen erfüllt (etwa die Torwartmaske und die Torwartschienen beim Eishockey) und ihn in seiner speziellen Aufgabe unterstützt (z. B. erhöhte Fangsicherheit und Aufpralldämpfung durch spezielle Torwarthandschuhe). Fußball Besondere Regeln Der Torwart unterscheidet sich in seiner Spielkleidung optisch von allen anderen Akteuren auf dem Feld. Der Torwart darf den Ball im eigenen Strafraum bewusst auch mit der Hand spielen. Nach der Rückpassregel darf der Torhüter einen Ball nicht in die Hand nehmen, der von einem Mitspieler absichtlich mit dem Fuß zu ihm zurückgespielt wurde. Die Zeit, nach der der Torhüter einen aufgenommenen Ball wieder abspielen muss, beträgt maximal sechs Sekunden. Macht er dies nicht, erhält die gegnerische Mannschaft einen indirekten Freistoß an der Stelle, wo der Torhüter den Ball mehr als sechs Sekunden festhielt. Beim Strafstoß muss der Torwart mit einem Fuß auf der Linie bleiben, bis der Schütze den Ball berührt hat. Bis zum Sommer 2019 musste er mit beiden Füßen auf der Linie sein. Die Regeln für Torhüter wurden mehrfach geändert, um das Spiel zu beschleunigen. Dies betrifft die Einführung der Rückpassregel und das Verhalten beim Strafstoß. Früher führte die Regel, dass er sich beim Strafstoß nicht bewegen durfte, immer wieder zu Diskussionen, wenn der Torhüter den Ball anschließend gehalten hatte und der Schiedsrichter (oder sein Assistent) die vorzeitige Bewegung nicht geahndet hatte. Der Torhüter ist der einzige Spieler, für den das Spiel zur Behandlung einer Verletzung immer so lange unterbrochen wird, bis er wieder einsetzbar ist oder ein Ersatzmann eingewechselt wurde. Wird ein Torhüter des Feldes verwiesen oder so schwer verletzt, dass er nicht mehr weiterspielen kann, und ist das Auswechselkontingent erschöpft, übernimmt ein Feldspieler seine Funktion. Für diesen gelten fortan die Torwartregeln. Geschichte und Besonderheiten Bis 1871 galt es als üblich, dass stets der Erschöpfteste ins Tor ging, also wurde immer wieder gewechselt. Heute ist dies im Freizeitfußball der fliegende Torhüter, der auch auf anderen Positionen spielt. Im Profifußball ist dies zwar regelkonform, aber wegen der Spezialisierung des Torwarts auf seiner Position nicht üblich. Torhüter werden im Gegensatz zu den anderen Spielern selten ausgetauscht. In der Regel tragen Stammtorhüter die Rückennummer 1. Manche Torhüter gingen in ihrer Spielweise über das reine Verhindern von Gegentoren hinaus. So galt Petar Radenković als bekannt dafür, oft den eigenen Strafraum zu verlassen, José Luis Chilavert aus Paraguay führte regelmäßig die Freistöße seiner Mannschaften aus und schoss auch Strafstöße, wobei ihm über 60 Tore gelangen. Rogério Ceni, der in seiner Karriere für den FC São Paulo 1256 Spiele bestritten hat, war ebenfalls ein ausgezeichneter Freistoß- und Elfmeterschütze und erzielte damit 131 Tore. In der deutschen Bundesliga war Hans Jörg Butt regelmäßiger Elfmeterschütze. Am 30. Mai 2006 erzielte der kolumbianische Torwart Neco Martínez in der 63. Minute des WM-Testspiels Polen gegen Kolumbien einen Treffer per Abschlag aus rund 90 Metern: Sein polnisches Gegenüber Tomasz Kuszczak ließ den Ball, der kurz vor der Strafraumgrenze aufsetzte und dann im Bogen über ihn flog, ins Netz fliegen. Ein ähnliches Tor gelang auch Rein van Duijnhoven, als er bei Maastricht spielte. Auch René Higuita, ein weiterer Nationaltorwart Kolumbiens, galt als extravagant in der Spielweise. Der mexikanische Torhüter Jorge Campos tauschte ab und zu seine selbst entworfenen Torwarttrikots gegen diejenigen von Feldspielern ein und spielte im Angriff seines Vereins und der Nationalmannschaft. In Spielen mit einem knappen Spielstand kurz vor Schluss kommt es vor, dass der Torwart der zurückliegenden Mannschaft in den letzten Spielminuten bei Standardsituationen als zusätzlicher Stürmer mit in den gegnerischen Strafraum geht. In der Bundesliga gelangen Jens Lehmann, Frank Rost, Marwin Hitz und – in der zweiten Bundesliga – Philipp Tschauner und Martin Männel auf diese Weise Tore in den Schlussminuten. In der Serie A kam es 1999 zum Tor von Massimo Taibi, es bleibt sein einziges Tor. Nachdem in den 1970er-Jahren das Elfmeterschießen den Losentscheid abgelöst hatte, erhielten die Torleute in vielen wichtigen Spielen eine weitere bedeutende Rolle. Manche Mannschaften bauten auf den Fähigkeiten ihres Torwarts sogar ihre Strategie auf, so z. B. Argentinien bei der WM 1990. Bei Weltmeisterschaften wurden die meisten Elfmeter im Elfmeterschießen von Toni Schumacher (Deutschland, 1982/1986) und Sergio Goycochea (Argentinien, 1990) gehalten. Beide konnten jeweils vier Elfmeter abwehren. Im Viertelfinale der WM 2006, Portugal gegen England, hielt Ricardo als erster Torhüter bei einer WM drei Elfmeter in einem Elfmeterschießen. Unsichere Torhüter, die Probleme beim Fangen von Bällen haben, werden im Sportjargon hingegen als „Fliegenfänger“ bezeichnet. Herausragende Torhüter Viele Torhüter gehör(t)en zu den Rekordnationalspielern ihres Landes. Unter anderem in Australien (Mark Schwarzer), Chile (Claudio Bravo, abgelöst nach Verletzungspause von Alexis Sánchez), Dänemark (Peter Schmeichel), England (Peter Shilton), Gabun (Didier Ovono), Italien (Gianluigi Buffon), Jordanien (Amer Shafi), Kuba (Odelin Molina Hernández, abgelöst von Yenier Márquez), Liechtenstein (Peter Jehle), Niederlande (Edwin van der Sar, abgelöst von Wesley Sneijder), Nordirland (Pat Jennings, abgelöst von Steven Davis), Sambia (Kennedy Mweene), Schweden (Thomas Ravelli, abgelöst von Anders Svensson), Spanien (Iker Casillas, abgelöst von Sergio Ramos), Tschechien (Petr Čech), der Türkei (Rüştü Reçber) und Ungarn (Gábor Király, nun zusammen mit Balázs Dzsudzsák) sind oder waren Torhüter die Rekordhalter (Stand Juni 2021). Welt-Rekordtorhüter bei den Männern ist Mohammad ad-Daʿayyaʿ, Torhüter von Saudi-Arabien mit 173 bzw. 178 offiziell anerkannten Länderspielen. Bei den Frauen ist die Schottin Gemma Fay mit 203 Länderspielen Rekordhalterin, dicht gefolgt von der US-Amerikanerin Hope Solo, die nach 202 Länderspielen nicht mehr berücksichtigt wurde. Der erfolgreichste Torhüter in Bezug auf WM-Titel ist Gilmar, er wurde mit Brasilien 1958 und 1962 Weltmeister. Zweimal im WM-Endspiel standen ferner Fabien Barthez / Frankreich (1998 und 2006, ein Sieg), Cláudio Taffarel / Brasilien (1994 und 1998, ein Sieg), Harald „Toni“ Schumacher/Deutschland (1982 und 1986, kein Sieg) und Jan Jongbloed / Niederlande (1974 und 1978, kein Sieg). Mit 23 Jahren ist Bodo Illgner / Deutschland der jüngste Weltmeistertorhüter (1990) aller Zeiten. Der erste Torwart, der bei Weltmeisterschaften in zehn Spielen kein Gegentor kassierte, war Peter Shilton / England (zwischen 1982 und 1990), einen EM- oder WM-Titel konnte er aber nie erringen. Bei der WM 2006 stellte Fabien Barthez diesen Rekord ein. Bei der WM 2006 kassierte der Schweizer Pascal Zuberbühler als einziger WM-Torwart, der während der gesamten Turnier-Spielzeit seiner Elf auf dem Rasen stand, außer beim Elfmeterschießen kein einziges Gegentor. Nadine Angerer, Torhüterin der deutschen Frauen-Nationalmannschaft, überstand die Frauen-WM 2007 in China, ohne ein Gegentor kassiert zu haben. Dabei hielt sie unter anderem im Finale einen Elfmeter. Acht Torhüter und Torhüterinnen wurden sowohl Welt- als auch Europameister: Dino Zoff / Italien (EM 1968, WM 1982), Sepp Maier (EM 1972, WM 1974), Andreas Köpke (WM 1990 (ohne Einsatz), EM 1996), Fabien Barthez (WM 1998, EM 2000) und Iker Casillas (WM 2010/ EM 2008 und 2012) sowie Silke Rottenberg (WM 2003/EM 1997, 2001 und 2005), Nadine Angerer (WM 2003 und 2007/EM 1997, 2001, 2005, 2009 und 2013) und Bente Nordby (EM 1993 und WM 1995) bei den Frauen. Letztere wurde zudem 2000 Olympiasiegerin. Briana Scurry (USA) konnte ebenfalls Weltmeisterin (1999) und Olympiasiegerin (1996 und 2004) werden. Vier Torhüter wurden sowohl Weltmeister als auch Südamerikameister: Enrique Ballestrero wurde 1930 Weltmeister und Sieger bei der Campeonato Sudamericano 1935, Cláudio Taffarel wurde 1994 Weltmeister und 1997 Südamerikameister, Dida wurde 1999 Südamerikameister und stand 2002 im Kader von Brasilien, wurde aber nicht eingesetzt. Aníbal Paz wurde 1942 Südamerikameister und stand 1950 im Kader von Uruguay, wurde aber nur im Spiel gegen Schweden eingesetzt, im Finale stand Roque Máspoli im Tor. Der einzige Torhüter, der bisher Europas Fußballer des Jahres wurde, ist Lew Jaschin / UdSSR; Mark Bosnich / Australien wurde 1997 Ozeaniens Fußballer des Jahres, José Luis Chilavert / Paraguay 1996 Südamerikas Fußballer des Jahres und Thomas N’Kono / Kamerun 1979 sowie 1982 Afrikas Fußballer des Jahres. In Deutschland und anderen Ländern wurden Torhüter mehrmals zum Fußballer des Jahres gewählt, am häufigsten der Este Mart Poom (6×). Oliver Kahn ist der einzige Torwart, der bei einer WM als bester Spieler ausgezeichnet wurde. 2002 bekam er nach dem Turnier die Auszeichnungen sowohl als bester Spieler als auch als bester Torhüter. Gianluigi Donnarumma wurde bei der Fußball-Europameisterschaft 2021 als erster Torhüter als bester Spieler einer EM-Endrunde ausgezeichnet. Torhüterin Nadine Angerer wurde 2013 bei der erstmals durchgeführten Wahl zur besten Spielerin in Europa der UEFA und zudem als erste Torhüterin zur Weltfußballerin des Jahres gewählt. Argentinien (Wahl seit 1970): José Luis Chilavert/Paraguay (1996), Ubaldo Fillol (1977), Sergio Goycochea (1990) Belarus (Wahl seit 1983): Yuriy Kurbyko (1991), Gennadiy Tumilovich (2001), Juri Schewnow (2010), Aljaksandar Hutar (2011) Belgien (Wahl seit 1954): Fernand Boone (1967), Jean Nicolay (1963), Jean-Marie Pfaff (1978), Christian Piot (1972), Michel Preud’homme (1987 und 1989) Brasilien (Wahl seit 1973): Valdir Peres (1975), Cláudio Taffarel (1988) Bulgarien (Wahl seit 1961): Georgi Najdenow (1961), Simeon Simeonow (1968), Rumen Goranow (1978), Plamen Nikolow (1984), Borislaw Michajlow (1986), Nikolaj Michajlow (2011), Wladislaw Stojanow (2014) Chile (Wahl seit 1991): Mario Osbén (1991), Marcelo Ramírez (1998), Sergio Vargas (2000), Claudio Bravo (2009 und 2015), Cristopher Toselli (2013) CSSR (Wahl von 1965 bis 1992): Ivo Viktor (1968, 1972, 1973, 1975 und 1976) Dänemark (Wahl seit 1963): Peter Schmeichel (1990, 1993 und 1999), Kasper Schmeichel (2016, 2019 und 2020) und Heidi Johansen bei den Frauen (2002) Deutschland (Wahl seit 1960): Hans Tilkowski (1965), Josef „Sepp“ Maier (1975, 1977 und 1978), Harald „Toni“ Schumacher (1984 und 1986), Andreas Köpke (1993), Oliver Kahn (2000 und 2001), Manuel Neuer (2011 und 2014) sowie Silke Rottenberg (1998) bei den Frauen (Wahl seit 1996). DDR (Wahl von 1963 bis 1991): Jürgen Croy (1972, 1976 und 1978), Hans-Ulrich Grapenthin (1980 und 1981), René Müller (1986 und 1987), Horst Weigang (1965), England (Wahl seit 1948): Gordon Banks (1972), Pat Jennings / Nordirland (1973), Bert Trautmann / Deutschland (1956) Estland (Wahl seit 1999): Mart Poom (1993, 1994, 1997, 1998, 2000 und 2003) Finnland (Wahl seit 1947, Position einiger gewählter unbekannt): Olli Huttunen (1982 und 1984), Antti Niemi (2004), Jussi Jääskeläinen (2007), Lukas Hradecky (2016, 2017, 2018 und 2020) sowie Satu Kunnas (2005) und Tinja-Riikka Korpela (2013, 2014, 2015 und 2016) bei den Frauen Frankreich (Wahl seit 1963): Bernard Lama (1994) Israel (Wahl seit 1965): Yitzchak Vissoker (1980), Avi Ran (1986), Shavit Elimeleh (2000), Nir Davidovich (2004), Vincent Enyeama / Nigeria (2009) Island Þóra Björg Helgadóttir (2009, 2012) bei den Frauen Italien (Wahl seit 1975/76): Sébastien Frey / Frankreich (1999/00), Gianluca Pagliuca (2004/05) und Angelo Peruzzi (beide 1996/97), Walter Zenga (1986/87), Gianluigi Buffon (2017) Jugoslawien (Wahl von 1972 bis 1991): Enver Marić (1973) Kroatien (Wahl seit 1991): Stipe Pletikosa (2002) Lettland (Wahl seit 1995): Aleksandrs Koļinko (2006, 2014), Andris Vaņins (2008, 2013, 2015–2017), Pāvels Šteinbors (2019, 2020) Liechtenstein: Peter Jehle (2014, 2016) Litauen (Wahl seit 1985): Valdemaras Martinkenas (1989 und 1992), Gintaras Staučė (1995 und 1996), Žydrūnas Karčemarskas (2011, 2012), Giedrius Arlauskis (2014) Malta (Wahl seit 1955): Freddie Debono (1973), Mario Muscat (1998), Ernest Barry (2000) Österreich (Wahl seit 1946): Walter Zeman (1951, 1952, 1953), Herbert Feurer (1980, 1981), Otto Konrad (1993, 1994), Michael Konsel (1987, 1995) Paraguay (Wahl seit 1997): Justo Villar (2004) Polen (Wahl seit 2001): Jerzy Dudek (2001), Łukasz Fabiański (2018) Portugal (Wahl seit 1970): Vítor Baía (1989 und 1991), Manuel Bento (1977) Rumänien (Wahl seit 1966): Silviu Lung (1984), Helmuth Duckadam (1986), Ciprian Tătărușanu (2015), Ionuț Radu (2019) Russland (Wahl seit 1991): Ruslan Nigmatullin (2001), Igor Akinfejew (2013) Schottland (Wahl seit 1965): Andy Goram (1993), Craig Gordon (2006, 2015) Schweden (Wahl seit 1946): Ronnie Hellström (1971 und 1978), Thomas Ravelli (1981), Hedvig Lindahl (Frauen 2015 und 2016) Schweiz (Wahl seit 1973, der Credit Suisse seit 1998): Jörg Stiel (2003), Diego Benaglio (2009, 2013), Yann Sommer (2016, 2018) sowie Kathrin Lehmann (1999), Marisa Brunner (2005, 2007) bei den Frauen Spanien (Wahl seit 1976): Andoni Zubizarreta (1987) Südkorea (Wahl seit 1983): Lee Woon-jae (2008) Tschechien (Wahl seit 1994): Petr Čech (2005, 2008, 2009, 2010, 2011, 2012, 2013, 2015 und 2016) UdSSR (Wahl von 1964 bis 1991): Rinat Dassajew (1982), Jewgeni Rudakow (1971) Ungarn (Wahl seit 1998): Gábor Király (1998 bis 2001, 2015), Péter Gulácsi (2018, 2019, 2020) USA (Wahl seit 1984): Kasey Keller (1997, 1999 und 2005), Brad Friedel (2002), Tim Howard (2008, 2014), Zack Steffen (2018), Hope Solo (Frauen, 2009) Die einzigartige Rolle der Torhüter bringt es mit sich, dass es eine Vielzahl von Spielern auf dieser Position gibt, die auf besonders lange Karrieren im Verein wie in der Nationalelf zurückblicken können. Stellvertretend für diese seien hier nur wenige weitere Goalies aus verschiedenen Epochen genannt: Aus dem deutschsprachigen Raum: Karl Elsener, Rudolf Hiden, Hans Jakob, Bodo Rudwaleit, Heinrich Stuhlfauth, Toni Turek Andere Europäer: Gianluigi Buffon, Vladimir Beara, Petr Čech, Pierre Chayriguès, Harry Gregg, Gyula Grosics, Gábor Király, Jean-Marie Pfaff, Bente Nordby (bis 2014 Europäische Rekord-Torhüterin), Peter Schmeichel, Peter Shilton, Francesco Toldo, Jan Tomaszewski, Ricardo Zamora, Dino Zoff Von anderen Kontinenten: Joseph-Antoine Bell, Lee Chan-Myung, Dida, Bruce Grobbelaar, Thomas N’Kono, Briana Scurry (bis 2014 Torhüterin mit den meisten Länderspielen) Eishockey Handball Weitere Sportarten, in denen es Torhüter gibt Bandy Bei dieser Vorgängersportart des modernen Eishockeys besitzt der Torhüter keinen Schläger, sondern versucht, den Ball mit seinen Händen oder dem Körper abzuwehren bzw. zu fangen. Beachhandball Hier kann die angreifende Mannschaft den Torhüter durch einen vierten Feldspieler ersetzen oder der Torhüter selbst im Angriff mitspielen. Einradhockey Hier hat der Torwart keine besonderen Rechte. Futsal Gaelic Football Hockey Der Torhüter trägt ähnlich wie beim Eishockey eine spezielle Schutzkleidung. Nur der Torwart darf den Ball innerhalb des eigenen Schusskreises außer mit der flachen Schlägerseite auch mit dem Körper berühren. Er darf aber den Ball nicht mit seinem Körper bedecken oder gar versuchen den Ball zu fangen. Daher ist der Handschuh auf der Nicht-Schlägerseite flach ausgebildet. Des Weiteren darf er nur Torschüsse ins Toraus ablenken. Es ist ihm wie anderen Spielern auch nicht gestattet den Ball aktiv ins Toraus zu spielen. Bei einer Strafecke muss auch der Torwart hinter der Linie stehen. Bekannte Torhüter: Peter Kraus (Olympiasieger 1972) Christian Schulte (einziger Torhüter ohne Gegentreffer in einem Endspiel um die deutsche Hallenmeisterschaft) Ulrich Bubolz (Weltmeister 2006) Max Weinhold (Olympiasieger 2008 und 2012) Hurling Inline-Skaterhockey wie Eishockey Inlinehockey wie Eishockey Kanupolo Hier wird mit fliegendem Torwart gespielt. Der Torwart darf nicht angegriffen werden, wenn er sich mit dem Heck seines Bootes unter dem Tor befindet und eindeutig als Torwart zu identifizieren ist. Korbball Die Korbhüterin ist die einzige Spielerin, die den Korbkreis der eigenen Mannschaft – ein im Radius von 3 m um den Korbständer gezogener Teilkreis – betreten darf. Da es, anders als zum Beispiel im Basketball, keine Goaltending-Regel gibt, ist es der Korbhüterin gestattet, den Ball unmittelbar vor dem Eintritt in den Korb abzufangen oder wegzuschlagen. Die Körpergröße von Korbhüterinnen unterliegt einem strengen Reglement und darf 180 cm nicht überschreiten. Korbhüterinnen werden üblicherweise auch ins Angriffsspiel miteinbezogen. Anders als bei dem in Deutschland gespielten Korbball gibt es bei der schweizerischen Variante keine Korbhüter. Lacrosse Bei dieser Ballsportart wird der Torwart von einem Kreis, in den kein gegnerischer Spieler treten darf, beschützt. Der Torwart trägt einen Schläger zwischen 1,00 m und 1,80 m. Dieser hat aber im Vergleich zu üblichen Lacrosse-Schlägern einen deutlich breiteren Schlägerkopf, um den Ball besser abwehren zu können, der bis zu 160 km/h erreichen kann. Motoball Der Torwart sitzt nicht wie die Feldspieler auf einem Motorrad, trägt aber auch einen Helm. Das Tor entspricht dem im Fußball. Der Torhüter ist geschützt durch einen Torraum, einem Halbkreis mit 5,75 m Radius. Er darf diesen nicht verlassen und die Feldspieler dürfen ihn nicht befahren. Radball Während beim 2er-Radball der Torhüter fliegend wechselt und nur dem Spieler im Tor das Halten der Torschüsse mit den Händen erlaubt ist, gibt es im 5er-Radball einen festen Torhüter, der besonders gekennzeichnet ist und der als einziger Spieler im eigenen Strafraum den Ball mit der Hand spielen darf. Shinty Unihockey Bei dieser Sportart sitzt der Torwart kniend vor einem eishockeygroßen Tor und hat im Gegensatz zu den Feldspielern keinen Schläger. Er darf den Ball innerhalb und außerhalb (sofern ein Körperteil den Torraum noch berührt) des Torraumes auf jede Art annehmen. Wasserball Der Torhüter muss stets in seiner eigenen Spielfeldhälfte bleiben. Er ist der einzige, der im 5-Meter-Raum den Ball mit beiden Händen spielen und sich auch ohne Ball im 2-Meter-Raum aufhalten darf. Zur Unterscheidung von den Mitspielern trägt er eine rote Kappe. Bekannte Torhüter: Erich Rademacher (Silbermedaille bei den Olympischen Spielen 1932) Jesús Miguel Rollán (Weltmeister 1998 und 2001, Olympiasieger 1996 mit Spanien, gilt als einer der besten Torhüter aller Zeiten) Denis Šefik (Weltmeister 2005 mit Serbien-Montenegro) Sportarten mit Toren, aber ohne Torhüter American Football, Basketball, der in der Schweiz gespielte Korbball, Polo, Radball (2er) und Rugby zählen zu den Sportarten, bei denen es zwar Tore bzw. Körbe, aber keine speziellen Torhüter gibt. Literatur Belletristik Pedro Lenz: Der Goalie bin ig. Roman. Verlag Der gesunde Menschenversand, Luzern 2010, ISBN 978-3-905825-17-6. Deutsche Übersetzung: Der Keeper bin ich. Bilgerverlag, Zürich 2012, ISBN 978-3-03762-024-3. Weblinks Einzelnachweise Spielerposition
Q172964
214.79417
30046
https://de.wikipedia.org/wiki/Odin
Odin
Odin oder Wodan (jüngeres Futhark: ᚢᚦᛁᚾ, südgermanisch Wōdan, altisländisch Óðinn, , altsächsisch Uuoden, altbairisch: Wûtan, altniederländisch Wuodan, althochdeutsch Wuotan, langobardisch Godan oder Guodan, gemeingermanisch *Wôðanaz) ist der Hauptgott in der nordischen und kontinentalgermanischen Mythologie. In der eddischen Dichtung fungiert er als Göttervater, Kriegs- und Totengott, als ein Gott der Dichtung und Runen, der Magie und Ekstase mit deutlich schamanischen Zügen. Etymologie Je nach Kontext sind im Deutschen sowohl die nordgermanische Namensform Odin als auch die südgermanischen Formen Wodan oder, in neuhochdeutscher Lautung, Wotan üblich. Der älteste schriftliche Nachweis des Namens ist eine Runeninschrift auf einer Bügelfibel von Nordendorf aus dem sechsten Jahrhundert n. Chr., die neben anderen Namen Wodan nennt. Die zweite Silbe wurde im Nordseegermanischen zu -en oder -in umgebildet (angelsächsisch Wōden). In den nordgermanischen Sprachen fiel zudem das anlautende W- (wie stets vor o und u) aus. Der früheste Beleg für den Götternamen Odin aus der Zeit um 725 n. Chr. fand sich in der Form uþin auf einem mit Runen beritzten Schädelfragment. Beide Namensvarianten gehen auf eine westliche Dehnform zur indogermanischen Wurzel *wat „anblasen, anfachen, inspirieren“, nach anderen *u̯ā̌t-, *u̯ōt- „geistig angeregt sein“ oder *weh₂t- „wütend, erregt, inspiriert“, zurück, die auch das altindische ápivátati „bläst an, inspiriert“, das lateinische vatēs „Seher, Dichter, Wahrsager“ und altirisch fāith „Seher, Prophet“ hervorgebracht hat. Die rekonstruierte protogermanische Urform des Götternamens lautet *Wōdanaz. Das althochdeutsche und mittelhochdeutsche wuot „heftige Bewegung, heftige Gemütserregung, Raserei“ und neuhochdeutsch Wut „rasender Zorn“, und niederländisch woede „Wut, Raserei“ lassen sich über gemeingermanisch *wōdaz „besessen, erregt“ (direkt daraus noch gotisch wods „wütend, besessen“ und altenglisch wōd „wahnsinnig, wütend, rasend“) ebenfalls auf diese indogermanische Wurzel zurückführen. Auf parallele Ableitungen derselben Wurzel gehen außerdem altenglisch wōþ „Ton, Stimme, Dichtung, Gesang“ und altnordisch óðr „Erregtheit, Dichtung, Dichtkunst“ zurück, die weitere Charakteristika des germanischen Gottes (seine Verbindung mit Dichtung, Gesang und Magie) beleuchten. Die mit dem Gott Wodan verknüpfte seelische Erregung kann sich ebenso auf die poetische Dichtung beziehen wie auf die Magie und deren mögliche Anwendung im Krieg oder auf die jähzornartige Wut der Berserker. Schon Adam von Bremen fasste in seiner Beschreibung des Tempels von Uppsala in seinen aus dem elften Jahrhundert stammenden Gesta Hammaburgensis ecclesiae pontificum das Wesen des Gottes in diesem Sinne zusammen: „Wuodan id est furor“ („Wodan, das heißt Wut“). Mit der Zweiten Lautverschiebung wurde aus dem südgermanischen Wodan althochdeutsch Wuotan und langobardisch Wotan bzw. in romanischer Schreibweise G(u)odan. In der Neuzeit, vor allem im Zuge der Romantik, wurde der Name im Deutschen wieder aufgenommen. Richard Wagner verwendete zunächst die westgermanische Lautform Wodan (so im II. Akt des Lohengrin), ab etwa 1860 entschied er sich jedoch für die zwischen Wodan und Wuotan vermittelnde Schreibweise Wotan. Diese Namensform, die im Frühmittelalter nur im Langobardischen einmal belegt ist, wurde durch den Einfluss seiner Opern zur gebräuchlichen Schreibweise des südgermanischen Namens. Der Name des Mittwochs nimmt in anderen germanischen Sprachen in Anlehnung an das römische Vorbild dies Mercurii „Tag des Mercurius“, auf Wodan Bezug (vgl. Interpretatio Romana). Der „Wodanstag“ oder auch „Odinstag“ wurde im Niederländischen zum Woensdag, im Englischen zum Wednesday, im Friesischen zum Wernsdey, im Dänischen und Schwedischen zum onsdag. Die Entlehnung hängt mit der Übernahme der römischen Siebentage-Woche durch die kontinentalen Germanen des zweiten bis dritten Jahrhunderts zusammen. Darstellung Odin wird häufig als göttlicher Reiter auf seinem achtbeinigen Ross Sleipnir dargestellt. Charakteristisch ist daneben seine Einäugigkeit, die in einer Sage dahingehend erläutert wird, dass er Mimir ein Auge als Pfand überließ, um in die Zukunft sehen zu können. 2009 wurde bei Ausgrabungen in Gammel Lejre in Dänemark eine 1,75 cm hohe und 1,98 cm breite vergoldete Figur aus Silber gefunden. Das Museum Roskilde datiert den einzigartigen Fund auf 900–1000 n. Chr. Es handelt sich dabei um eine Darstellung von Odin und seinem magischen Thron Hlidskialf mit den Raben Hugin und Munin. Der Thron befähigt Odin, alle neun Welten zu sehen. Odin trägt einen Umhang, einen Schmuck um Hals und Brust, bei dem es sich möglicherweise um den Goldring Draupnir handelt. Die Rückenlehne ist mit zwei Köpfen verziert, die als Odins Wölfe Geri und Freki interpretiert werden. Dass das linke Auge auf manchen Abbildungen schlecht zu sehen ist, verweist hier jedoch nicht auf das Auge, das Odin opferte, um Weisheit zu erlangen. Die linke Gesichtshälfte wurde nur nachträglich etwas blanker geschliffen. Kleine Throne wurden auch bei anderen archäologischen Ausgrabungen gefunden, darunter auch in Haithabu. Jedoch fehlt auf diesen eine Person. Der Fund in Gammel Lejre ist die älteste bekannte Darstellung von Odin und seinem magischen Thron Hlidskialf. Interpretation Metaphysisch Die drei Figuren Hárr (Hoch), Jafnhárr (Gleichhoch) und Þriði (Dritter) in Snorris Prosa Edda, deren Rollen in der nominellen Erzählung rein didaktischer Natur sind, könnten Odin, Vili und Vé sein, aber es ist genauso wahrscheinlich, dass sie unter drei verschiedenen Formen Odin sind, da alle drei Namen in altnordischer Dichtung an anderer Stelle auf Odin angewandt werden, und er sich bei der ersten Offenbarung an die Menschen als Odin, Vili und Vé vorstellte. Dies würde auf die Dreifaltigkeit Odins hindeuten. Die erste Form Odins bzw. Wotans ist laut dem Schweizer Begründer der Psychoanalyse Carl Gustav Jung der Archetyp des „Rastlosen Wanderers.“ Dieser Wanderer existiert immer noch als Mensch, und deshalb kann jeder Mensch Odin in seiner ersten, physischen Form sein. Wir existieren als Menschen am offensichtlichsten und gröbsten auf der physischen Ebene. Die zweite Form Odins ist der Geist. Die Gleichhohe Ebene ist körperlos, was hier auf die Lebenskraft, die Inspiration hinter Kunst und Poesie hinweist. Die Namen von Odin werden oft mit „Wut“, „Geist“, „Ekstase“ übersetzt. Ekstase wird aus dem Griechischen übersetzt in „außerhalb seiner selbst stehen“. Als solche beginnen wir zu erkennen, dass unser Bewusstsein uns zu mehr als nur einer biologischen Maschine macht, zu mehr als nur ultrahoch entwickelten Affen. Die Gleichhohe Ebene drückt ihre Natur sowohl durch inspirierte Raserei (Kampf, künstlerisches Schaffen) als auch durch die integrierende Erfahrung wahrer Meditation aus. Das Wort „Gleich“ in „Gleichhoch“ zeigt an, dass diese beiden Ebenen gleichberechtigt sind. Die Gleichhohe Geistige Ebene inspiriert das physische Gefäß des Menschen, über seine Grundbedürfnisse hinauszugehen. Die dritte Ebene von Odin ist die höchste, der oberste, der König der Götter. Hier finden wir die transzendentale Ebene, die Quelle und Ursache allen Lebens. Es gibt nichts, in das sie sich weiter aufspaltet, sie ist nicht weiter reduzierbar. In dieser Ebene finden wir die Polaritäten des Lebens hochgezogen, welche sich im Transzendentalen treffen, absorbieren in ihm und werden gleichzeitig von ihm geschaffen. Totales Sein und totale Leere, (sanskrit bodhi). Die metaphorische Idee des Gottes Odin mit drei verschiedenen Seinszuständen – Hoch, Ebensohoch und Dritter – deutet auf ein Dreieck hin. Jene dreifache Form spiegelt unter anderem die christliche Dreifaltigkeit wider. Dreifaltige Götter sind auch in den alten keltischen Überlieferungen im Überfluss vorhanden. Herkunft Als früheste Nachweise der germanischen Gottesvorstellung wurden Felsbilder in Skandinavien gedeutet, die übermannsgroße Figuren in phallischer Pose und mit einem Speer bewaffnet zeigen. Diese Deutungen sind aber umstritten und beruhen auf den spätheidnisch-skandinavischen schriftlichen sowie bildhaften Darstellungen Odins als einer mit einem Speer attributierten Gottheit neben Thor mit seinem Hammer und Tyr als Schwertgott. Tacitus benennt im neunten Kapitel seiner ethnographischen Abhandlung, der landläufig verkürzt betitelten Germania, den ihm übermittelten Abriss zu den religiösen Verhältnissen der Germanen. In der Eröffnung zitiert er wörtlich Caesar nach dessen Gallischem Krieg. Tacitus führt als höchste verehrte Gottheit in römischer Interpretation den Mercurius an. Aus der weiteren Benennung der zwei weiteren Hauptgottheiten Hercules und Mars für Donar/Thor und Tiwas/Tyr wird für Mercurius Wodan/Odin erschlossen. Die Einführung des Tacitus ist jedoch wohl nicht ganz deckungsgleich mit den vermuteten tatsächlichen Verhältnissen. Auch die problembehaftete Identifizierung des Hercules mit Donar/Thor zeigt, dass eine differenzierte Wertung zwingend ist. In den ersten nachchristlichen Jahrhunderten wurde Wodan in der Germania inferior durch Weihesteine geehrt, die in der Regel von Germanen gestiftet wurden, die in römischen Militär- oder Staatsdiensten standen. Die Steine tragen Inschriften, die den Namen des Mercurius mit germanischen Begrifflichkeiten paaren, seien es Bezüge zu Örtlichkeiten, zu einzelnen Stämmen oder Namensformen mit anderen Bezügen. Beispielhafte Inschriften sind Mercurius Cimbrianus „Wodan der Kimbern“' und Mercurius Leudisius „Wodan von Lüttich“. Besonders der Neufund des Weihesteins des Mercurius Hranno wird mit dem mittelalterlichen literarischen Beleg eines Odinsbeinamens in Verbindung gebracht. Die Deutungen der Felsbilder führten neben anderen Aspekten in der Forschung zu einer ungeklärten Streitfrage. Auf der einen Seite steht die in Anlehnung an Georges Dumézil und andere vertretene These, dass Wodan/Odin eine gesamtgermanische Götterfigur aus indogermanischer Zeit sei. Auf der anderen Seite steht die These der allmählichen Wanderung des Wodan-Kults, der sich vor der Zeitenwende im niederrheinisch-nordwestdeutschen Raum und den Niederlanden entwickelt und von dort ausgebreitet habe und dabei den alten Hoch- und Himmelsgott Tiwaz aus dessen Stellung verdrängte. Dieser Prozess müsse dann im Kontext der Auseinandersetzungen mit dem Römischen Reich sowie der Veränderung innergermanischer Verhältnisse gesehen werden. So gibt es in den Niederlanden, ehemaliges Hauptsiedlungsgebiet der im Frühmittelalter dominanten Franken, bestimmte Orte die auf den Namen Odins zurückgehen (Woensel, Woensdrecht und Woensberg) und könnten in der niederländischen Sinterklaastradition auffallende altgermanische Merkmale des Odinskultus erkannt werden. Schriftzeugnisse im kontinental-germanischen Bereich sind spärlich, hauptsächlicher Nachweis sind hier spätere, zum Teil nach der Christianisierung verfasste Quellen (Edda), welche die im Brauchtum tief verwurzelten Erinnerungen an die heidnische vorchristliche Zeit und deren religiöse Riten und Mythologien reflektieren. Zudem ist in den isländisch-eddischen Schriften des Hochmittelalters der Einfluss der Christianisierung und sowohl christlicher als auch griechisch-römischer Vorstellungen auch und gerade bei der Darstellung Odins zu erkennen. Otto Höfler stellte auf Grundlage der disparaten Quellensituation zu Odin/Wodan fest, dass man diesen nicht zu einem einheitlichen anthropomorphen, menschengestaltigen Charakterbild zusammenfassen kann, jedoch lässt sich über die Epoche des germanischen Paganismus hinweg ein einheitlicher Kulttypus feststellen. Dieser manifestiert sich, wie in der etymologischen Deutung kurz umrissen, folgend: die Beziehung zur Ekstase der Bezug zu den Toten beziehungsweise Totenkult die Verwandlungsfähigkeit kriegerische, vegetative und dämonische Züge Wodan in der westgermanischen Überlieferung Wodan ist der bestbezeugte Gott bei den germanischen Stämmen und Völkern der Wanderungszeit. Berücksichtigt werden muss bei dieser Aussage die generell schlechte primäre Quellenlage: Süddeutschland, Österreich und Norditaliën: Die Bügelfibel von Nordendorf (Mitte des sechsten Jahrhunderts) nennt die Götter Wodan und Wigiþonar. Ein weiteres Zeugnis berichtet von den irischen Missionaren Kolumban und Gallus (um 600), die bei Bregenz eine Gruppe vom Stamm der Sueben antrafen, die dabei waren, dem Wodan ein Bieropfer darzubringen. Der langobardische Gelehrte Paulus Diaconus erzählt eine Sage, wie Frea ihren Mann Wodan überlistete. Mitteldeutschland und Tschechien: Im zweiten Merseburger Zauberspruch erscheint Wodan als geschickter Magier, der das verletzte Pferd des Balder heilte. Der sagenhafte Berggeist Altvater im Altvatergebirge trägt deutliche Züge des Wodan. Norddeutschland und England: Das sächsische Taufgelöbnis nennt in dieser Reihenfolge die Götter Donar, Wodan und Saxnot. Im Neunkräutersegen wird Woden namentlich angeführt und erscheint dort als möglicher Runenzauberer. Sein Name ist des Weiteren Bestandteil zahlreicher angelsächsischer Ortsnamen. Odin in der nordischen Mythologie Odin ist eine der komplexesten Gestalten in der nordischen Mythologie. Kennzeichnend sind in den altnordisch-isländischen mythologischen Schriften die zahlreichen Beinamen, die ihn charakterisieren (vgl. Liste der Beinamen Odins). Zusammenfassung aus der Lieder- und Prosa-Edda Aus den salzbereiften Steinen leckte die Kuh Audhumbla den Riesen Bure; dieser bekam einen Sohn, Börr, der sich mit der Riesentochter Bestla vermählte und mit ihr Odin, Vili und Vé zeugte. Die letzteren beiden verlieren sich weitestgehend aus der Asengeschichte, werden selten erwähnt und in erster Linie auf eine Stellvertreterfunktion ihres Bruders eingeschränkt; Odin aber waltet mächtig, schöpferisch, durch alle Zeiten hindurch, bis zum Weltenbrand – dem Götterschicksal Ragnarök. Die erste Tat der drei vereinten Brüder war, dass sie gegen den Riesen Ymir auszogen, ihn erschlugen und aus seinem Leichnam die Welt bildeten. Die Welt war von Ymirs Blut überschwemmt, und es retteten sich nur ein Paar, der Riese Bergelmir und seine Frau. Nachdem die Erde gebildet war, bestand sie aus zwei Teilen: der eine nur aus Feuer (Muspellsheim) und der andere nur aus Eis (Niflheim); dazwischen befand sich die Schlucht, Ymirs Grab. Odin bevölkerte die Erde, indem er ein Menschenpaar, Ask und Embla, erschuf. Allein das Riesengeschlecht pflanzte sich gleichfalls fort, und so war von Anfang an der Streit zwischen dem Guten und dem Bösen gelegt, in dem auch Odin selbst untergeht, da er nur ein endlicher Gott ist. Odin ist überaus weise. Sein Wissen verdankt er zwei Raben, Hugin und Munin, die auf seinen Schultern sitzen und ihm alles erzählen, was auf der Welt geschieht, weshalb er auch der Rabengott heißt; ferner bezieht er sein Wissen aus einem Trunk von Mimirs Brunnen, wofür er ein Auge verlor; daher wird er auch der Einäugige genannt. Den köstlichen Skaldenmet wusste er sich durch seine List und männliche Schönheit von Gunnlöd zu verschaffen, ist daher auch Dichterkönig und führt den Beinamen Liodasmieder (Liedermacher, Verseschmieder). Odins Gattinnen und Geliebte sind: Jörd (Mutter des Thor), Rind (Mutter des Wali), die Asenkönigin Frigg (Mutter des Balder), Grid (Mutter des Vidar), neun reine Riesenjungfrauen von unendlicher Schönheit, die alle neun am Meeresstrand schlafend, zugleich Mütter des Heimdall wurden; Skadi, früher Njörds Gattin (von O. Mutter des Säming und vieler anderer Söhne), Gritha (Mutter Skiolds); ferner erfreute ihn mit ihrer Gunst die Riesentochter Gunnlöd. Über die Mütter von Odins Söhnen Hödur, Bragi und Hermodr gibt es keine Quellen. Ob sie Söhne der Frigg oder anderer Mütter sind, bleibt somit reine Vermutung. Als Tyrs Vater geben die Überlieferungen sowohl Odin als auch Hymir an. Odin wohnt in Asgard, wo er zwei Paläste hat: Walaskialf und Gladsheim mit Walhall. Von dem ersten vermag er die ganze Welt zu überschauen; der zweite ist zu den Versammlungen des Götterrats bestimmt; darin befindet sich die Halle, in der sich um ihn alle Helden der Erde sammeln, um mit ihm gegen die den Weltuntergang herbeiführenden Mächte zu kämpfen. Diese Helden heißen Einherjer, werden auf dem Schlachtfeld (Walstatt) von den Walküren mit einem Kuss zum Festmahl Odins eingeladen und erwarten dort unter fortwährendem Festgelage und Kämpfen das Schicksal der Götter (Ragnarök). Selbst ein Freund des Zechens und der Schlachten, lässt Odin sich stets von zwei Walküren, Rista und Mista, mit goldenen Pokalen bedienen und kämpft mit den Einherjern auf seinem achtfüßigen Ross mit einem nie das Ziel verfehlenden Speer Gungnir; doch helfen ihm weder seine Helden noch seine Waffen: Der Weltuntergang bringt auch ihm den Tod. Yggdrasil, die Weltenesche, ist ein Sinnbild der Unsterblichkeit. Durch Odins Selbstopfer wird Yggdrasil zum Opferbaum, da Odin sich selbst am Baum aufhängt, um das geheime Wissen bei den Wurzeln Yggdrasils zu erlangen. Odins Selbstopfer Odin ist beharrlich auf der Suche nach Weisheit. Er gibt ein Auge als Pfand gegen einen Schluck aus Mimirs Brunnen, um seherische Kräfte zu bekommen. Er raubt von der Riesin Gunnlöd den Skaldenmet Odrörir und bringt ihn in Adlergestalt zu den Göttern. Nach der Überlieferung beneidete Odin die Nornen um ihre Fähigkeit, Runen zu schreiben. Da sich die Runen nur den „Würdigen“ offenbaren, hängt sich Odin am eigenen Speer an den Weltenbaum Yggdrasil. Er hängt dort für neun Tage und Nächte („Vom Speer verwundet, dem Odin geweiht, mir selber ich selbst, am Ast des Baums, dem man nicht ansehen kann, aus welcher Wurzel er spross“; aus Odins Runenlied 138), bis ihm die Runen erscheinen. (Odins Runenlied in der Hávamál der Lieder-Edda). Magische Artefakte und Begleiter Odin reitet jeden Morgen auf seinem achtbeinigen Ross Sleipnir und mit seinen beiden treuen Raben Hugin und Munin („Gedanke“ und „Erinnerung“) über den Morgenhimmel und erkundet die Welt. Seine Wölfe Geri und Freki („Gierig“ und „Gefräßig“) helfen ihm bei der Jagd. Er besitzt den goldenen Zwergen-Ring Draupnir und den Speer Gungnir, mit dem er den ersten Krieg in die Welt brachte, als er ihn ins Heer der Wanen warf. Weiterhin hat er den abgetrennten Kopf des Riesen Mimir, der die Zukunft vorhersagen kann. Von seinem Thron Hlidskialf aus (er steht in Valaskjalf; siehe auch: Sökkvabekk oder Gladsheim) kann Odin alles sehen, was sich in der Welt ereignet. Odin trägt einen Wunschmantel, der ihn an die Orte bringt, an denen er sich aufhalten will, und mit dem er sich unsichtbar machen kann. Brauchtum Im Volksglauben hat sich bis in die Neuzeit die Vorstellung erhalten, dass Wodan zur Zeit der Herbststürme in der Wilden Jagd (dänisch Odins jagt, schwedisch Odensjakt, altnordisch auch Asgardareid) mitsamt dem Heer der Verstorbenen durch den Himmel bewegt. Neben Odin soll auch Frigg an der Wilden Jagd teilhaben. Wodan als der Herr der Toten und Stürme (hier besonders der Herbststürme) kam bei den heidnischen Herbstfesten eine besondere Rolle zu. Im altsächsischen Siedlungs- und Sprachgebiet hält sich vereinzelt bis heute (zum Beispiel in Ostwestfalen) der Brauch, dem alten Gott bei der Ernte Dankopfer darzubringen. Dies kann eine nicht gemähte Ecke des Feldes sein, die stehen gelassen wird, um gleichsam durch das Zurückerstatten eines Teils der Ernte um Segen für das nächste Jahr zu bitten, oder wie bis ins 16. Jahrhundert der Brauch, „Woden“ zu Ehren Bier als Trankopfer auszugießen und Tänze aufzuführen. Jacob Grimm zeigte, dass besonders Erntesprüche und damit verbundene Segenssprüche in diesem Sinn auf Wodan Bezug nahmen. Vor allem in den ehemaligen sächsischen Gebieten, dem heutigen Niedersachsen und Westfalen, aber auch den sächsischen Siedlungsgebieten in England, wo der Wodanskult tief in den Stammessagen verwurzelt war und auf das tradierte Brauchtum bis in die Gegenwart abstrahlt. Grimm führte z. B. aus den mecklenburgischen und besonders aus dem schaumburg-lippischen Landen folgende Erntesprüche in den jeweiligen niederdeutschen Dialekten an: Mecklenburg: Schaumburg: Geistliche, die sich bis ins 19. Jahrhundert an solchen Riten beteiligten, erhielten Getreideopfer zum Schutz der Feldfrucht von den Bauern. Auch bei Schlachtungen gab es ähnliche Riten. So wurden Gebärmutter und Scheide einer geschlachteten Sau als Dankopfer, „die Wood“, in das Geäst eines Baumes geworfen, damit Krähen und Raben, Wodans ständige Begleiter, sich daran gütlich tun konnten. Auf einer Synode im Jahr 813 ließ der Frankenkönig Ludwig der Fromme, Sohn Karls des Großen, den Michaelstag in die Woche des Festes für Wodan legen. Die zahlreichen Michaelskapellen in Norddeutschland weisen auf vermutete vorherige Wodansheiligtümer oder andere Kultplätze hin. Daneben deuten Funde von Weihesteinen auf den Bezug zwischen Wodan und St. Michael hin. So wurden auf dem „Michelsberg“, der ein Vorberg des Heiligenbergs bei Heidelberg ist, Weihesteine gefunden, welche die Inschrift „Mercurius Cimbrianus“ bzw. „Mercurius Cimbrius“ tragen, und somit auf alte Wodanskultstätten hinweisen, die zu christlichen Zwecken umgewandelt wurden. In der Regel wurde auch durch die Errichtung von Kapellen vor Ort die christliche Inanspruchnahme ausgedrückt. Im selben Zeitraum setzte eine deutliche Dämonisierung seitens der christlichen Missionare ein, wie beispielsweise im Wortlaut des sächsischen Taufgelöbnisses nachzuvollziehen ist. Dies war im Falle Wodans insofern naheliegend, als der schamanische Grundzug des Gottes in der religiösen Praxis der frühen Deutschen noch alltäglich gegenwärtig war. Zusätzlich wurde dem aus christlicher Sicht machtlosen Wodan der Heerführer Christus oder der heldenhafte Erzengel Michael, der den Drachen besiegt, gegenübergestellt. Moderne Rezeption Das vorgeschlagene Archaeenphylum „Odinarchaeota“ aus der Gruppe der Asgard-Archaeen soll nach Odin benannt werden. Siehe auch Germanische Mythologie Germanische Gottheiten Südgermanische Gottheiten Kontinentalgermanische Mythologie Nordische Mythologie Nordgermanische Religion Angelsächsische Mythologie Literatur Literatur/Kulturwissenschaft Anatoly Liberman: A Short History of the God Óðinn. NOWELE 62/63 (2011), S. 351–430. Rudolf Much: Die Germania des Tacitus. 3., überarbeitete und erweiterte Auflage, Wolfgang Lange (Hrsg.) unter Mitarbeit von Herbert Jankuhn. Universitätsverlag Carl Winter, Heidelberg 1967. Hellmut Rosenfeldt: Kultur der Germanen; Wodanskult. In: Wolf-D. Barloewen (Hrsg.): Abriss der Geschichte antiker Randkulturen. Oldenbourg, München 1961. Religionswissenschaft John Lindow: Norse Mythology. A Guide to the Gods, Heroes, Rituals, and Beliefs. Oxford University Press, 2002, ISBN 0-19-515382-0. Jens Peter Schjødt: Mercury – Wotan – Óðinn: One or Many? In: Karl Wikström af Edholm (Hrsg. et al.): Myth, Materiality, and Lived Religion: In Merovingian and Viking Scandinavia. Stockholm University Press, Stockholm 2019, ISBN 978-91-7635-099-7, S. 59 – 86. (online einsehbar) Rudolf Simek: Lexikon der germanischen Mythologie (= Kröners Taschenausgabe. Band 368). 3., völlig überarbeitete Auflage. Kröner, Stuttgart 2006, ISBN 3-520-36803-X. Sprachwissenschaft Wolfgang Meid: Das Suffix -NO- in Götternamen. In: Beiträge zur Namenforschung. 8 (1957), S. 72–108, 113–126. Stefan Schaffner: Die Götternamen des Zweiten Merseburger Zauberspruchs. In: Heiner Eichner, Robert Nedoma (Hrsg.): „insprinc haptbandun“. Referate des Kolloquiums zu den Merseburger Zaubersprüchen auf der XI. Fachtagung der Indogermanischen Gesellschaft in Halle/Saale (17.–23. September 2000) Teil 1. In: Die Sprache – Zeitschrift für Sprachwissenschaft. 41, Heft 2 (1999; erschienen 2002), Wiener Sprachgesellschaft. Harrassowitz Verlag, Wiesbaden 1999. Stefan Zimmer: Wotans Wurzeln. In: Hermann Reichert, Corinna Scheungraber (Hrsg.): Germanische Altertumskunde: Quellen, Methoden, Ergebnisse. Akten des Symposiums anlässlich des 150. Geburtstags von Rudolf Much Wien, 28.–30. September 2012. (= Philologica Germanica 35). Fassbaender, Wien 2015, ISBN 978-3-902575-63-0, S. 371–388. Weblinks Schwedisch etymologisches Wörterbuch Einzelnachweise Germanische Gottheit Männliche Gottheit Germanische Sagengestalt Literarische Figur
Q43610
108.378179
6847
https://de.wikipedia.org/wiki/1886
1886
Ereignisse Politik und Weltgeschehen Osteuropa/Balkan 3. März: Der Friede von Bukarest beendet den Serbisch-Bulgarischen Krieg auf dem Balkan. Die von Bulgarien erzielten Gebietsgewinne werden auf Druck Österreich-Ungarns wieder rückgängig gemacht und der status quo ante wiederhergestellt. 5. April: Die Vereinigung Bulgariens 1885 mit Ostrumelien wird durch den Topchane-Vertrag international anerkannt. Der Vertrag wird von den Gesandten der Großmächte sowie vom osmanischen Großwesir Kıbrıslı Mehmed Kamil Pascha und vom bulgarischen Außenminister Ilija Zanow im Topkapı-Palast von Istanbul unterzeichnet. 9. August: Auf russisches Betreiben putscht eine Gruppe prorussischer Offiziere gegen den bulgarischen Fürsten Alexander I. und zwingt ihn zur Abdankung. Anschließend wird er nach Russland verbracht. Mit Unterstützung des bulgarischen Parlamentspräsidenten Stefan Stambolow, der mit Hilfe des Militärs einen Gegenputsch organisiert, kann Alexander nochmals kurz auf den Thron Bulgariens zurückkehren. Am 7. September verzichtet er auf russischen Druck aber endgültig auf die Herrschaft. 22. Oktober: Eine neuerliche von Russland initiierte Militärrevolte in der bulgarischen Stadt Burgas wird innerhalb weniger Tage niedergeschlagen. 6. November: Das Russische Reich bricht infolge der Bulgarischen Krise die diplomatischen Beziehungen mit Bulgarien ab. Mitteleuropa 1. Januar: Adolf Deucher wird Bundespräsident der Schweiz. 26. April: Mit dem von Kaiser Wilhelm I. unterzeichneten Ansiedlungsgesetz für die zuvor zu Polen gehörenden Ostprovinzen Preußens soll der Anteil einheimischer Bauern reduziert werden. Behördliche Enteignungen stärken jedoch den polnischen Nationalismus. 12. Juni: Vier Tage nachdem eine Ärztekommission ihr Gutachten über den Geisteszustand von König Ludwig II. von Bayern vorgelegt hat, gelingt im Schloss Neuschwanstein beim zweiten Versuch seine Festsetzung. Der König wird nach Schloss Berg gebracht. 13. Juni: König Ludwig II. stirbt unter bis heute nicht restlos geklärten Umständen im Starnberger See. Sein geistig behinderter Bruder Otto wird offiziell König von Bayern unter der Vormundschaft seines Onkels des Prinzregenten Luitpold. Amerika 1. Mai: In Chicago wird ein gewerkschaftlich organisierter Streik für den Achtstundentag zum Auslöser des Haymarket Riot und so der Erste Mai im Gedenken daran ab 1890 vielerorts zum Tag der Arbeiterbewegung. 4. Mai: Der Haymarket Riot eskaliert, nachdem eine Bombe bei einer Arbeiterdemonstration in Chicago geworfen wird, die Tote fordert und die Polizei in die Menge feuern lässt. 8. Dezember: Samuel Gompers gründet in Columbus (Ohio) die American Federation of Labor, einen der ersten Gewerkschaftsverbände in den Vereinigten Staaten. Afrika 15. Mai: Die Kolonialmächte Portugal und Frankreich schließen einen Vertrag über ihren Besitzverlauf entlang Portugiesisch-Guineas und Cabindas. 4. Oktober: Johannesburg wird als Ort gegründet, nachdem sich zuvor Goldgräber in Zelten angesiedelt haben. Asien Großbritannien erobert Teile Burmas. Wirtschaft Patente und Erfindungen 29. Januar: Carl Benz beantragt für das von ihm gebaute Automobil ein Patent. 8. April: Auf die von ihm entwickelte Trockenbatterie erhält Carl Gassner ein deutsches Patent. 8. Mai: John Stith Pemberton erfindet ein carboniertes Getränk, aus dem Coca-Cola entsteht. 8. Mai: Coca-Cola wird erstmals in Atlanta als Medizin verkauft. 8. Juni: Der Schweizer Julius Maggi erfindet eine Würzsauce, die nach ihm benannte Maggi-Würze. 2. November: Das Kaiserliche Patentamt in Deutschland erteilt Carl Benz für das von ihm gebaute Automobil das Patent. 14. November: Patentanmeldung für den Papierlocher von Friedrich Soennecken. Unternehmensgründungen und Eröffnungen Januar: Die Brüder Robert Wood Johnson I, James Wood Johnson und Edward Mead Johnson gründen in New Brunswick, New Jersey, das pharmazeutische Unternehmen Johnson & Johnson. Der Schwerpunkt der Geschäftstätigkeit liegt in den 1880er-Jahren in der Herstellung der ersten chirurgischen Verbandstoffe. 6. Dezember: Die erste Raiffeisenbank in Österreich wird in Mühldorf gegründet. Die irischen Brüder William M. Foster und Ralph R. Foster gründen in Melbourne eine Brauerei, aus der sich die Foster’s Group entwickeln wird. Das Weiße Brauhaus zu Erding, die heutige Privatbrauerei Erdinger Weißbräu wird gegründet. Die Unternehmensberatung Arthur D. Little wird in Cambridge (Mass./USA) gegründet. Die Deutsche Pondoland-Gesellschaft wird gegründet. George Westinghouse gründet in Monroeville, Pennsylvania, die Westinghouse Electric Company. Verkehr 16. März: Das Gesetz zur Errichtung des Nord-Ostsee-Kanals wird erlassen. 25. März: Der Ponte Internacional Valença-Tui zwischen Portugal und Spanien wird feierlich eröffnet, indem ein mit den Flaggen beider Nationen geschmückter Zug von Valença über die Brücke nach Tui fährt. 28. Juni: Der erste Personenzug der kanadischen Pazifikbahn verlässt Montreal. Er erreicht auf der mehr als 3.000 km langen Strecke die Endstation in Port Moody am 4. Juli. 4. Juli: Der erste fahrplanmäßig transkontinental verkehrende Eisenbahnzug der Canadian Pacific Railway erreicht die westliche Endstation Port Moody in British Columbia. 7. Juli: Zwischen Bad Doberan und Heiligendamm nimmt die Doberan-Heiligendammer-Eisenbahn als Dampfstraßenbahn ihren Verkehr auf. 8. November: Rund sechs Monate nach Baubeginn nimmt die Standseilbahn Lugano–Bahnhof SBB ihren Betrieb auf. Wissenschaft und Technik Astronomie 1. September: Lewis A. Swift sichtet im Sternbild Walfisch die Galaxie NGC 155. 2. September: Lewis A. Swift entdeckt im Sternbild Walfisch die Galaxie NGC 448. 21. Oktober: Lewis A. Swift erblickt im Sternbild Walfisch die Galaxie mit der späteren Bezeichnung NGC 64. 21. Oktober: Ernst Wilhelm Leberecht Tempel entdeckt im Sternbild Walfisch die Galaxie NGC 47. 22. Oktober: Lewis A. Swift sieht als Erster im Sternbild Fische die Galaxien NGC 75 und NGC 240. 20. November: Lewis A. Swift entdeckt im Sternbild Bildhauer die Galaxie NGC 150. 21. November: Lewis A. Swift bemerkt als Erster im Sternbild Walfisch die Galaxien NGC 35, NGC 161 und NGC 237. Chemie und Physik 6. Februar: Während der Analyse des Minerals Argyrodit entdeckt Clemens Winkler ein neues chemisches Element, das er Germanium nennt und das dem von Dmitri Mendelejew vorhergesagten Eka-Silicium entspricht. 23. Februar: Charles Martin Hall gelingt nach mehrjährigen Versuchen ein Herstellungsprozess für Aluminium. 26. Juni: Der Franzose Henri Moissan erzeugt erstmals reines Fluor. 11. November: Heinrich Hertz gelingt in einem Experiment in Karlsruhe die Übertragung elektromagnetischer Wellen von einem Sender zu einem Empfänger. Der deutsche Physiker Eugen Goldstein entdeckt die Kanalstrahlen, die heute als positiv geladene Ionenstrahlung identifiziert sind. Medizin und Psychologie Der deutsche Psychiater Richard von Krafft-Ebing definiert den medizinischen Begriff Masochismus. Technische Errungenschaften 3. Juli: Die New York Tribune nimmt die erste Linotype-Setzmaschine Ottmar Mergenthalers in Betrieb. Seine Erfindung beschleunigt das Setzen von Zeitungen. Oktober: Gottlieb Daimler baut den von ihm 1883 entwickelten Viertaktmotor in eine von Wilhelm Wimpff gefertigte Kutsche, womit er als Erfinder des vierrädrigen Kraftwagens gilt. 31. Oktober: Die nach den Plänen des Ingenieurs Théophile Seyrig erbaute Bogenbrücke Ponte Dom Luís I über den Fluss Douro bei Porto wird nach fünfjähriger Bauzeit vom portugiesischen König Ludwig I. eingeweiht. Zur Zeit ihrer Eröffnung ist sie die größte ihrer Art. Josephine Cochrane, Gattin eines amerikanischen Diplomaten, erfindet die Spülmaschine. In Österreich wird die erste elektrische Straßenbeleuchtung in Scheibbs errichtet. Ottomar Anschütz entwickelt ab 1886 das Elektrotachyscop, ein Gerät zur Projektion von chronofotografisch erzeugten Reihenbildern. Sonstiges An der New Yorker Cornell University wird die Wissenschaftsvereinigung Sigma Xi gegründet. Ziel der Vereinigung ist die Würdigung besonderer wissenschaftlicher Leistungen und die Förderung der Zusammenarbeit zwischen Forschern verschiedener Wissenschaftsdisziplinen. In Ottawa werden einige staatliche Versuchsfarmen angelegt, darunter auch die Central Experimental Farm/Ferme expérimentale centrale. Kultur 9. September: Die auf Initiative Victor Hugos erarbeitete Berner Übereinkunft zum Schutz von Werken der Literatur und Kunst wird von acht Staaten unterzeichnet. Belgien, Deutschland, Frankreich, Großbritannien, Italien, Schweiz, Spanien und Tunesien anerkennen damit erstmals das Urheberrecht zwischen souveränen Nationen. Architektur und Bildende Kunst 27. Dezember: In London wird die von der National Agricultural Company errichtete Ausstellungshalle Olympia eröffnet, das bis dahin größte Stahl-Glas-Gebäude in Großbritannien. Claude Monet malt das impressionistische Werk Frau mit Sonnenschirm in zwei Fassungen. Entstehung des Gemäldes Der König überall von Robert Warthmüller Literatur Ein Doppelgänger, eine Novelle von Theodor Storm, erscheint in Fortsetzungen zwischen dem 1. Oktober und dem 15. Dezember in den ersten sechs Heften der Zeitschrift Deutsche Dichtung, die von Karl Emil Franzos im selben Jahr gegründet wird. Samuel Fischer gründet am 1. September den S. Fischer Verlag (damals noch mit Komma geschrieben: „S. Fischer, Verlag“) in der Mohrenstraße 10 in Berlin. Der von S. Fischer später als offizielles Gründungsdatum kolportierte 1. Oktober war das Datum seines Hochzeitstages. Musik und Theater 20. Februar: Die Uraufführung der Oper Urvasi von Wilhelm Kienzl erfolgt in Dresden. 21. Februar: Fast fünf Jahre nach dem Tod von Modest Petrowitsch Mussorgski wird seine Oper Chowanschtschina in der von der Zensurbehörde deutlich gekürzten Fassung von Nikolai Andrejewitsch Rimski-Korsakow im privaten Rahmen im Musikdramatischen Klub in Sankt Petersburg uraufgeführt. 27. Februar: Das Drama Edmea von Alfredo Catalani wird am Teatro alla Scala di Milano in Mailand uraufgeführt. 2. Oktober: Die Uraufführung der Operette Lorraine von Rudolf Dellinger findet am Carl Schultze Theater in Hamburg statt. 20. Oktober: Kaiser Wilhelm I. eröffnet die Alte Oper in Frankfurt am Main. 19. November: An der Hofoper in Wien erfolgt die Uraufführung der Oper Merlin von Karl Goldmark. 19. November: In Dessau erfolgt die Uraufführung der Oper Die Hochzeit des Mönchs von August Klughardt. Sonstiges 28. Oktober: Die Freiheitsstatue wird durch den US-amerikanischen Präsidenten Grover Cleveland eingeweiht. 30. November: In Paris stellt das Etablissement Les Folies Bergère seine erste Revue auf die Beine. Gesellschaft 2. Juni: Grover Cleveland heiratet im Weißen Haus in Washington Frances Folsom. Es ist die bislang einzige Hochzeit im Amtssitz des US-Präsidenten. 18. September: In einem Vortrag auf der Versammlung deutscher Naturforscher und Ärzte prägt Werner von Siemens den Begriff des „naturwissenschaftlichen Zeitalters“. 27. November: Der Richter Emil Hartwich und Baron Armand von Ardenne tragen ein Duell mit Pistolen nach einer Affäre Hartwichs mit Ardennes Ehefrau Elisabeth aus. Am 1. Dezember stirbt Hartwich an der erlittenen Schusswunde. Der Dichter Theodor Fontane greift den Vorgang später im Roman Effi Briest auf. Religion 6. Januar: Die an das preußische Episkopat gerichtete Enzyklika Iampridem über den Katholizismus in Deutschland des Papstes Leo XIII. wird veröffentlicht. 14. September: In der Enzyklika Pergrata nobis steht die römisch-katholische Kirche in Portugal im Mittelpunkt der Betrachtungen Papst Leos XIII. Er fordert die portugiesische Regierung auf, der Kirche den ihr kraft Naturrechts zustehenden staatlichen Schutz zu gewähren. Katastrophen 14. Mai: Ein verheerender Wirbelsturm wütet über der Stadt Crossen an der Oder, dem heutigen Krosno Odrzańskie. 30. Mai: Der australische Passagierdampfer Ly-ee-Moon strandet auf den Felsen der Landzunge Cape Green an der Küste von New South Wales und bricht auseinander. 71 Passagiere und Besatzungsmitglieder kommen um. 10. Juni: Ein Ausbruch des Vulkans Mount Tarawera auf der Nordinsel Neuseelands führt zu Verwüstungen, zerstört das Māori-Dorf Te Wairoa am Lake Tarawera und kostet insgesamt mehr als 150 Menschen das Leben. Auch die Pink and White Terraces in der Bay of Plenty werden zerstört. 31. August: Charleston (South Carolina) wird durch ein schweres Erdbeben zu fast 90 Prozent zerstört, etwa 100 Tote fordert die Naturgewalt. Natur und Umwelt In Österreich-Ungarn wird das Edelweiß unter Naturschutz gestellt. Sport 11. Januar: Die erste offizielle Schachweltmeisterschaft beginnt. In dem bis zum 29. März andauernden Zweikampf besiegt Wilhelm Steinitz seinen Kontrahenten Johannes Zukertort mit 10:5 und wird so erster Schachweltmeister. Dabei wird erstmals für das Publikum das von Johann Jacob Löwenthal erfundene Demonstrationsbrett eingesetzt. März: In Belfast wird von Arbeitern der Linfield Spinning Mill der Linfield Football Club gegründet. Schon bei der Gründung ist der irische Fußballclub protestantisch geprägt. 17. Mai: Der schottische Fußballverein FC Motherwell entsteht durch den Zusammenschluss der beiden Unternehmenssportclubs Glencairn und Alpha. 1. September: Der Grasshopper Club Zürich, der zweitälteste Fußballclub der Schweiz, wird gegründet. Am 8. Dezember wird die weltweit erste Eishockeymeisterschaftsliga, die Amateur Hockey Association of Canada Montreal gebildet. Arbeiter bei Royal Arsenal in Woolwich, London, gründen den Fußballclub Dial Square, den heutigen FC Arsenal. Am 11. Dezember gewinnen sie ihr erstes Spiel gegen die Eastern Wanderers mit 6:0. Die Verbände von Irland, Schottland und Wales gründen das International Rugby Football Board wegen Regelstreitigkeiten mit der englischen Rugby Football Union. Geboren Januar 1. Januar: Kinoshita Rigen, japanischer Lyriker († 1925) 2. Januar: Carl-Heinrich von Stülpnagel, deutscher General und Widerstandskämpfer († 1944) 2. Januar: Lupu Pick, rumänisch-deutscher Schauspieler und Regisseur († 1931) 3. Januar: Grigori Nikolajewitsch Neuimin, russischer Astronom († 1946) 4. Januar: Fritz Ecarius, deutscher Politiker, Oberbürgermeister von Ludwigshafen († 1966) 5. Januar: Franz Kaufmann, deutscher Jurist und Widerstandskämpfer († 1944) 6. Januar: Walter Adam, österreichischer Journalist und Politiker († 1947) 7. Januar: Hans Grimm, deutscher Komponist († 1965) 8. Januar: Albrecht Janssen, deutscher Schriftsteller († 1972) 9. Januar: Paul Aron, deutsch Pianist, Komponist, Regisseur, Dirigent, Veranstalter, Pädagoge und Übersetzer († 1955) 9. Januar: Arthur Kronfeld, deutscher Psychotherapeut († 1941) 10. Januar: Leopold Binental, polnischer Musikwissenschaftler und -pädagoge († 1944) 10. Januar: Albrecht Graf zu Stolberg-Wernigerode, deutscher Politiker und MdR († 1948) 10. Januar: Nadeschda Udalzowa, russische Malerin († 1961) 10. Januar: Roman von Ungern-Sternberg, zaristischer Offizier und Anführer der „Weißen“ im Russischen Bürgerkrieg († 1921) 11. Januar: Rosario Arcidiacono, italienischer Schauspieler († 1972) 11. Januar: Sytse Frederick Willem Koolhoven, niederländischer Automobilrennfahrer, Flugzeugkonstrukteur und Unternehmer († 1946) 11. Januar: Elsa Rendschmidt, deutsche Eiskunstläuferin († 1969) 11. Januar: George Zucco, US-amerikanischer Film- und Theaterschauspieler († 1960) 14. Januar: Bruno Gimpel, deutscher Maler († 1943) 15. Januar: Raymond de Tornaco, belgischer Autorennfahrer († 1960) 15. Januar: Jenő Károly, ungarischer Fußballspieler und -trainer († 1926) 15. Januar: Harrie Kuneman, niederländischer Fußballspieler († 1945) 17. Januar: Johan Ankerstjerne, dänischer Kameramann († 1959) 18. Januar: Ștefan Dimitrescu, rumänischer Maler († 1933) 18. Januar: Clara Nordström, schwedische Schriftstellerin († 1962) 19. Januar: Kurt Heinig, deutscher Lithograph, Politiker und Journalist († 1956) 22. Januar: John J. Becker, US-amerikanischer Komponist († 1961) 22. Januar: Oskar Jellinek, österreichischer Schriftsteller († 1949) 24. Januar: Henry King, US-amerikanischer Filmregisseur († 1982) 25. Januar: Ernst Eschmann, Schweizerischer Schriftsteller († 1953) 25. Januar: Wilhelm Furtwängler, deutscher Dirigent und Komponist († 1954) 25. Januar: Paolo Salman, syrischer Erzbischof in Jordanien († 1948) 25. Januar: Willie Smith, englischer Snooker- und English Billiards-Spieler († 1982) 26. Januar: Eugen Lacroix, deutscher Koch und Unternehmer († 1964) 26. Januar: Hermann Schubert, deutscher Politiker († 1938) 26. Januar: Pieter Boelmans ter Spill, niederländischer Fußballspieler († 1954) 28. Januar: Robert Leroy Cochran, US-amerikanischer Politiker († 1963) 28. Januar: Hidetsugu Yagi, japanischer Physiker († 1976) 29. Januar: Sascha Kolowrat-Krakowsky, österreichischer Filmpionier († 1927) Februar 2. Februar: William Rose Benét, US-amerikanischer Dichter und Herausgeber († 1950) 2. Februar: Frank Lloyd, britisch-US-amerikanischer Schauspieler, Regisseur und Produzent († 1960) 2. Februar: Erhard Lommatzsch, deutscher Romanist († 1975) 2. Februar: Julius Sporket, deutscher evangelischer Pastor und Missionar († 1955) 3. Februar: Alfred Andreesen, deutscher Reformpädagoge († 1944) 8. Februar: Gunther Plüschow, deutscher Pilot († 1931) 9. Februar: Edward L. Leahy, US-amerikanischer Politiker († 1953) 9. Februar: Wilhelm Vocke, deutscher Finanzfachmann und Bankier († 1973) 10. Februar: Otto Lummitzsch, deutscher Pionieroffizier, Architekt und Bauingenieur, Gründer des Technischen Hilfswerks († 1962) 11. Februar: Johann Baptist Hofmann, deutscher Altphilologe und Sprachwissenschaftler († 1954) 11. Februar: Robert F. Rockwell, US-amerikanischer Politiker († 1950) 13. Februar: Ricardo Güiraldes, argentinischer Schriftsteller († 1927) 14. Februar: Friedrich Arenhövel, deutscher Schriftsteller († 1954) 14. Februar: Ángel Pestaña, spanischer Syndikalist und Politiker († 1937) 14. Februar: Karl Reinhardt, deutscher Altphilologe († 1958) 14. Februar: Forrest Smith, US-amerikanischer Politiker († 1962) 15. Februar: Harold Chapin, englischer Schauspieler und Dramatiker († 1915) 15. Februar: Augustinus Hieber, deutscher katholischer Pfarrer, bischöflicher Kommissär († 1968) 17. Februar: Arnold Hörburger, niederländischer Fußballspieler († 1966) 17. Februar: Eduard Stadtler, deutscher Publizist und Gründer einiger antikommunistischer Organisationen († 1945) 17. Februar: Erich Zeigner, deutscher Jurist und SED-Politiker († 1949) 18. Februar: Jack Scales, britischer Automobilrennfahrer († 1962) 19. Februar: Karl Ast, estnischer Schriftsteller und Politiker († 1971) 19. Februar: Nils Erik Hellsten, schwedischer Fechter († 1962) 20. Februar: Béla Kun, ungarischer Politiker († 1938) 22. Februar: Hugo Ball, deutscher Autor und Mitbegründer der Zürcher Dada-Bewegung († 1927) 22. Februar: Jean Strohl, französisch-schweizerischer Zoologe, Wissenschaftshistoriker und Hochschullehrer († 1942) 23. Februar: Gustav Abb, deutscher Bibliothekar († 1945) 23. Februar: Kasia von Szadurska, deutsche Malerin und Grafikerin († 1942) 25. Februar: Hans Walter Imhoff, Schweizer Fußballspieler († 1971) 27. Februar: Hugo Black, US-amerikanischer Politiker und Jurist († 1971) 28. Februar: Bjarne Aas, norwegischer Segler, Werftbesitzer und Yachtkonstrukteur († 1969) 28. Februar: René Beeh, deutscher Maler und Grafiker († 1922) 28. Februar: Victor Boin, belgischer Sportjournalist, Sportler und Sportfunktionär († 1974) März 1. März: Oskar Kokoschka, österreichischer Maler und Schriftsteller († 1980) 2. März: Kurt Grelling, deutscher Mathematiker, Logiker und Philosoph († 1942) 2. März: Leo Geyr von Schweppenburg, deutscher Panzergeneral († 1974) 3. März: Ezequiel Fernández Jaén, panamaischer Staatspräsident († 1946) 3. März: R. O. Morris, englischer Komponist und Musikpädagoge († 1948) 4. März: Heinrich Uhlendahl, deutscher Bibliothekar († 1954) 5. März: Paul Radmilovic, britischer Wasserballer und Schwimmer, Olympiasieger († 1968) 5. März: Wladimir Wiese, russisch-sowjetischer Ozeanograph und Polarforscher († 1954) 6. März: Fritz Goerdeler, deutscher Jurist († 1945) 7. März: Bastiampillai Anthonipillai, sri-lankischer Ordensgeistlicher († 1964) 7. März: Geoffrey Ingram Taylor, britischer Physiker († 1975) 7. März: René Thomas, französischer Rennfahrer und Flugpionier († 1975) 8. März: Edward Calvin Kendall, US-amerikanischer Biochemiker († 1972) 8. März: Richard Charles Mills, australischer Wirtschaftswissenschaftler († 1952) 9. März: Kenneth Edwards, US-amerikanischer Golfspieler († 1952) 10. März: Karl Bröger, deutscher Arbeiterdichter und Politiker († 1944) 10. März: Eugen Klöpfer, deutscher Schauspieler († 1950) 10. März: Paul Hans Jaeger, deutscher Politiker († 1958) 11. März: Willie Kivlichan, schottischer Fußballspieler und Arzt († 1937) 12. März: Vittorio Pozzo, italienischer Fußballspieler und -trainer († 1968) 13. März: Henri Gagnebin, schweizerischer Komponist († 1977) 14. März: Richard Gaettens, deutscher Numismatiker († 1965) 14. März: Wladimir Andrejewitsch Faworski, russischer Künstler († 1964) 14. März: Firmin Lambot, belgischer Radrennfahrer († 1964) 17. März: Emil Stumpp, deutscher Lehrer, Maler und Pressezeichner († 1941) 18. März: Kurt Koffka, deutscher Psychologe († 1941) 18. März: Lothar von Arnauld de la Perière, deutscher U-Boot-Kommandant im Ersten Weltkrieg († 1941) 18. März: H. Maurice Jacquet, französischer Komponist und Dirigent († 1954) 21. März: Oscar Traynor, irischer Politiker († 1963) 23. März: Emil Fey, österreichischer Politiker und Heimwehrführer († 1938) 24. März: Edward Weston, US-amerikanischer Fotograf († 1958) 25. März: Athenagoras, Patriarch von Konstantinopel († 1972) 25. März: Willibald Spang, deutscher General († 1978) 26. März: Luigi Amoroso, italienischer Mathematiker und Wirtschaftswissenschaftler († 1965) 27. März: Clemens Holzmeister, österreichischer Architekt († 1983) 27. März: Ludwig Mies van der Rohe, deutscher Architekt († 1969) 27. März: Sergei Mironowitsch Kirow, russischer Politiker, Vertrauter Stalins und Parteisekretär von Leningrad († 1934) 28. März: Katharine Parker, australische Pianistin und Komponistin († 1971) 29. März: Bertha Krupp von Bohlen und Halbach, deutsche Unternehmerin, Besitzerin des Krupp-Konzerns († 1957) 29. März: Gustaf Bengtsson, schwedischer Komponist († 1965) 30. März: Henry Lehrman, österreichisch-US-amerikanischer Stummfilmschauspieler, -regisseur und -produzent († 1946) 31. März: Tadeusz Kotarbiński, polnischer Philosoph († 1981) April 2. April: Egon Caesar Conte Corti, österreichischer Schriftsteller († 1953) 2. April: Bruno Karl August Jung, deutscher Politiker († 1966) 5. April: Gotthelf Bergsträsser, deutscher Orientalist († 1933) 6. April: Asaf Jah VII., Fürst von Hyderabad († 1967) 7. April: Emilio Pujol, spanischer Gitarrist und Komponist († 1980) 8. April: Benjamín de Arriba y Castro, spanischer Erzbischof von Tarragona († 1973) 8. April: Dimitrios Levidis, griechischer Komponist († 1951) 8. April: Jānis Vītoliņš, lettischer Komponist († 1955) 10. April: John Hayes, US-amerikanischer Marathonläufer und Olympiasieger († 1965) 12. April: Christian Lahusen, deutscher Komponist († 1975) 12. April: Fritz Henßler, deutscher Buchdrucker, Politiker und MdR († 1953) 12. April: Paul Buchner, deutscher Zoologe († 1978) 12. April: Melchior Dürst, Schweizer Lehrer, Theatergründer, Regisseur und Bühnenautor († 1950) 13. April: Ethel Leginska, englische Pianistin, Dirigentin und Komponistin († 1970) 13. April: Nicolae Tonitza, rumänischer Maler († 1940) 14. April: Ernst Robert Curtius, deutscher Romanist († 1956) 15. April: Frank Ezra Adcock, britischer Althistoriker († 1968) 15. April: Heinrich Höcker, deutscher Politiker († 1962) 15. April: Nikolai Stepanowitsch Gumiljow, russischer Dichter († 1921) 16. April: Ernst Thälmann, deutscher Politiker († 1944) 19. April: Louis Ruyter Radcliffe Grote, deutscher Arzt († 1960) 19. April: Manuel Bandeira, brasilianischer Lyriker († 1968) 20. April: Walther Ansorge, deutscher Jurist († 1967) 21. April: Viktor von Weizsäcker, deutscher Mediziner († 1957) 23. April: Friedrich Wilhelm Constantin Ashoff, deutscher Unternehmer († 1941) 23. April: Wilhelm Bode, deutscher Schlosser, Gewerkschafter und Widerstandskämpfer († zwischen 1940 und 1945) 24. April: Mabel Garrison, US-amerikanische Sängerin († 1963) 24. April: Georg Haas, deutscher Arzt, Erfinder der Blutwäsche († 1971) 24. April: Hellmuth Hirth, deutscher Flugpionier († 1938) 26. April: Ma Rainey, US-amerikanische Bluessängerin († 1939) 27. April: Oskar Stampfli, Schweizer Lehrer und Politiker († 1973) 29. April: Kurt Pinthus, deutscher Schriftsteller († 1975) Mai 1. Mai: Walter Cramer, deutscher Unternehmer und Widerstandskämpfer († 1944) 2. Mai: Gottfried Benn, deutscher Arzt, Dichter und Essayist († 1956) 3. Mai: Fritz Baumann, Schweizer Maler († 1942) 3. Mai: Marcel Dupré, französischer Komponist, Organist, Musiktheoretiker und Verleger († 1971) 5. Mai: Hermann Heukamp, deutscher Politiker († 1966) 8. Mai: Eli Kochański, polnischer Cellist und Musikpädagoge († 1940) 9. Mai: Francis Biddle, US-amerikanischer Richter während der Nürnberger Prozesse († 1968) 9. Mai: Edu Snethlage, niederländischer Fußballspieler († 1941) 10. Mai: Frank Ahearn, kanadischer Eishockeyfunktionär († 1962) 10. Mai: Karl Barth, Schweizer Theologe († 1968) 10. Mai: Rosa Münch, Schweizer Politikerin († 1974) 10. Mai: Olaf Stapledon, britischer Science-Fiction-Autor († 1950) 11. Mai: August Klingenheben, deutscher Afrikanist († 1967) 12. Mai: Hermann Grabner, österreichischer Komponist († 1969) 13. Mai: Joseph Achron, polnischer Violinist und Komponist († 1943) 13. Mai: Carlo Mense, deutscher Maler († 1965) 13. Mai: Hans Naumann, deutscher Altgermanist und Volkskundler († 1951) 13. Mai: William John Patterson, kanadischer Politiker († 1976) 14. Mai: Ernst Späth, österreichischer Chemiker († 1946) 17. Mai: Alfons XIII., König von Spanien († 1941) 17. Mai: Ernst Deloch, deutscher Springreiter († unbekannt) 18. Mai: Grigori Borissowitsch Adamow, russischer Schriftsteller († 1945) 20. Mai: John Jacob Astor, britischer Adeliger († 1971) 20. Mai: Erwin Anton Gutkind, deutsch-englischer Architekt, Stadtplaner und Architekturtheoretiker († 1968) 20. Mai: Ali Sami Yen, Gründer des türkischen Fußballvereins „Galatasaray Spor Kulübü“ († 1951) 22. Mai: Werner Otto von Hentig, deutscher Diplomat († 1984) 23. Mai: Horacio Abadie Santos, uruguayischer Politiker, Rechtsanwalt und Journalist († 1936) 23. Mai: Max Herrmann-Neiße, deutscher Schriftsteller († 1941) 24. Mai: Hans Adam, bayerischer Offizier († 1917) 24. Mai: Paul Paray, französischer Dirigent und Komponist († 1979) 26. Mai: Al Jolson, US-amerikanischer Sänger und Entertainer († 1950) 27. Mai: Max Dreher, deutscher Orgelbauer († 1967) 28. Mai: Jakob Fischbacher, deutscher Politiker († 1972) 28. Mai: Karl Aloys Schenzinger, deutscher Schriftsteller († 1962) 30. Mai: Ernst Molden, österreichischer Journalist und Historiker († 1953) 30. Mai: Frank C. Walker, US-amerikanischer Politiker († 1959) 31. Mai: Annemarie Heise, deutsche Malerin und Graphikerin († 1937) 31. Mai: Clemens Klotz, deutscher Architekt († 1969) Juni 1. Juni: Gunnar Graarud, norwegischer Opernsänger († 1960) 3. Juni: Adalbert von Bayern, preußischer Prinz († 1970) 5. Juni: Kurt Hahn, jüdisch-deutscher Pädagoge († 1974) 6. Juni: Albert Heilmann, deutscher Bauunternehmer († 1949) 6. Juni: Edvard Rusjan, slowenischer Luftfahrtpionier († 1911) 7. Juni: Henri Marie Coandă, rumänischer Physiker und Aerodynamiker († 1972) 8. Juni: Albertine Morin-Labrecque, kanadische Komponistin, Pianistin und Musikpädagogin († 1957) 8. Juni: Hans Prinzhorn, deutscher Psychiater und Kunsthistoriker († 1933) 9. Juni: Kosaku Yamada, japanischer Komponist († 1965) 12. Juni: E. Ray Goetz, US-amerikanischer Songwriter, Produzent, Drehbuchautor und Schauspieler († 1954) 12. Juni: Naitō Tachū, japanischer Architekt, Ingenieur und Hochschullehrer († 1970) 14. Juni: Georg Zacharias, deutscher Schwimmer († 1953) 15. Juni: William C. Stadie, US-amerikanischer Mediziner († 1959) 15. Juni: Eftimios Youakim, libanesischer Erzbischof († 1972) 16. Juni: Carl Eichhorn, deutscher Ruderer 18. Juni: George Mallory, britischer Bergsteiger († 1924) 19. Juni: Rudolf Kremlička, tschechischer Maler und Graphiker († 1932) 21. Juni: Paul Petschek, böhmischer bzw. tschechoslowakischer Unternehmer († 1946) 22. Juni: Rudolf Fehrmann, deutscher Rechtsanwalt, Kletterer und Kletterführerautor († 1948) 23. Juni: Jean Déré, französischer Komponist und Musikpädagoge († 1970) 24. Juni: Valentin Pfeifer, war ein deutscher Lehrer, Heimatforscher und Schriftsteller († 1964) 25. Juni: Henry Harley Arnold, US-amerikanischer General († 1950) 25. Juni: James Francis McIntyre, US-amerikanischer Geistlicher, Erzbischof von Los Angeles und Kardinal († 1979) 27. Juni: Eduard Dingeldey, deutscher Politiker, Partei – und Fraktionsvorsitzender (DVP) († 1942) 28. Juni: Aloïse Corbaz, Schweizer Künstlerin († 1964) 28. Juni: Walther Veeck, deutscher Archäologe; Spezialist für die Merowingerzeit († 1941) 29. Juni: Ada Sari, polnische Opernsängerin († 1968) 29. Juni: George Frederick Boyle, australischer Komponist († 1948) 29. Juni: Robert Schuman, französischer Politiker († 1963) 29. Juni: William Fielding Ogburn, US-amerikanischer Soziologe († 1959) Juli 1. Juli: Anton Kolig, österreichischer Maler († 1950) 1. Juli: Fernando Santiván, chilenischer Schriftsteller und Journalist († 1973) 3. Juli: Harmodio Arias Madrid, panamaischer Staatspräsident († 1962) 3. Juli: Raymond A. Spruance, US-amerikanischer Admiral († 1969) 4. Juli: Arminio Janner, Schweizer Hochschullehrer und Publizist († 1949) 5. Juli: Felix Timmermans, flämischer Schriftsteller und Maler († 1947) 5. Juli: Willem Drees, niederländischer Politiker († 1988) 6. Juli: Marc Bloch, französischer Historiker († 1944) 6. Juli: Annette Kellerman, australische Kunstschwimmerin und Filmschauspielerin († 1975) 6. Juli: Max Sparer, Südtiroler Maler und Graphiker († 1968) 7. Juli: Otto Kiep, deutscher Diplomat († 1944) 8. Juli: Hans Leicht, Jurist, Politiker, Dichter und Übersetzer († 1937) 10. Juli: John Vereker, 6. Viscount Gort, britischer Feldmarschall († 1946) 11. Juli: Hans May, österreichisch-deutsch-britischer Komponist († 1958) 12. Juli: Raoul Hausmann, österreichisch-deutscher Künstler († 1971) 14. Juli: Ernst Nobs, Schweizer Politiker († 1957) 14. Juli: Manfred von Killinger, deutscher Marineoffizier, Freikorpsführer, Militärschriftsteller, MdR († 1944) 15. Juli: Harry Green, britischer Langstreckenläufer († 1934) 15. Juli: Jacques Rivière, französischer Schriftsteller († 1925) 19. Juli: Ferry van der Vinne, niederländischer Fußballspieler († 1947) 21. Juli: Henri Schaller, Schweizer Geistlicher, Journalist und Zeitungsverleger († 1985) 21. Juli: Eugen Schüfftan, deutscher Kameramann und Erfinder († 1977) 22. Juli: Theo Morell, deutscher NS-Arzt († 1948) 22. Juli: Hans Pemmer, österreichischer Heimatforscher und Lehrer in Wien († 1972) 22. Juli: Hella Wuolijoki, estnisch-finnische Schriftstellerin († 1954) 23. Juli: Anna Maria Schulte, deutsche Sozialdemokratin und Sozialaktivistin († 1973) 23. Juli: Arthur Whitten Brown, britischer Luftfahrtpionier († 1948) 23. Juli: Theodor Frings, deutscher Germanist und Sprachwissenschaftler († 1968) 23. Juli: Salvador de Madariaga, spanischer Diplomat und Schriftsteller († 1978) 23. Juli: Walter Schottky, deutscher Physiker († 1976) 23. Juli: Władysław Szafer, polnischer Botaniker und Ökologe († 1970) 25. Juli: Edward Cummins, US-amerikanischer Golfer († 1926) 26. Juli: Lars Hanson, schwedischer Filmschauspieler († 1965) 27. Juli: Ernst May, deutscher Architekt und Stadtplaner († 1970) 28. Juli: Gustavo Testa, italienischer römisch-katholischer Kardinal († 1969) 29. Juli: Emil Phillip, deutscher evangelischer Diakon († 1965) 30. Juli: Leo Nebelsiek, deutscher Prähistoriker und Heimatforscher († 1974) 30. Juli: Dutch Speck, US-amerikanischer American-Football-Spieler († 1952) 30. Juli: Franz Thoma, österreichischer Politiker († 1966) August 3. August: Hans Conzett, Schweizer Buchdrucker und Politiker († 1918) 4. August: Emma Streit, deutsche Malerin († 1939) 5. August: Carlo Giorgio Garofalo, italienischer Komponist und Organist († 1962) 7. August: Lothar Budzinski-Kreth, deutscher Fußball-Nationalspieler († 1955) 8. August: Matthew Henson, US-amerikanischer Polarforscher († 1955) 8. August: Pietro Yon, italienisch-amerikanischer Organist und Komponist († 1943) 9. August: Heinrich Ehmsen, deutscher Maler und Grafiker († 1964) 9. August: Jops Reeman, niederländischer Fußballspieler († 1959) 10. August: Karl Tewes, deutscher Fußballspieler († 1968) 15. August: Karl Korsch, deutscher Philosoph, Marxist († 1961) 15. August: Paul Rudolf Henning, deutscher Bildhauer und Architekt († 1986) 19. August: Louis Abit, französischer Autorennfahrer († 1976) 19. August: Paul Preuß, österreichischer Alpinist († 1913) 20. August: István Abonyi, ungarischer Schachspieler und Schachfunktionär († 1942) 20. August: Paul Tillich, deutscher protestantischer Theologe und Religionsphilosoph († 1965) 22. August: August Geislhöringer, deutscher Politiker († 1963) 23. August: Gustav Theodor Johann Ludwig Ahlhorn, deutscher Jurist († 1971) 24. August: Earl Johnson, US-amerikanischer Country-Musiker († 1965) 25. August: Erich Liebermann-Roßwiese, deutscher Pianist, Komponist und Librettist († 1942) 25. August: Emmy Wehlen, deutsche Schauspielerin († 1977) 26. August: Rudolf Belling, deutscher Künstler († 1972) 27. August: Rebecca Clarke, englische Komponistin und Bratschistin († 1979) 27. August: Otto Eggerstedt, deutscher Politiker († 1933) 28. August: Robert Hohlbaum, österreichischer Bibliothekar, Romanautor und Dramatiker († 1955) 29. August: Joseph Godehard Machens, deutscher Bischof († 1956) 30. August: August Sonnefeld, deutscher Optiker († 1974) 31. August: Jan Heřman, tschechischer Pianist und Musikpädagoge († 1946) September 1. September: Tarsila do Amaral, brasilianische Malerin († 1973) 1. September: Othmar Schoeck, Schweizer Komponist und Dirigent († 1957) 4. September: Miloslav Fleischmann, tschechischer Eishockeyspieler († 1955) 4. September: Georg Krogmann, deutscher Fußballnationalspieler († 1915) 5. September: Karl Eschweiler, deutscher Theologe († 1936) 7. September: Ludwig Armbruster, deutscher Zoologe († 1973) 7. September: Max Daetwyler, erster Schweizer Kriegsdienstverweigerer († 1976) 9. September: Erwin Voellmy, Schweizer Schachmeister und Mathematiker († 1951) 10. September: Hilda Doolittle (H. D.), US-amerikanische Schriftstellerin († 1961) 11. September: Ernst Ackermann, Schweizer Statistiker († 1978) 13. September: Melli Beese, deutsche Pilotin († 1925) 13. September: Alain LeRoy Locke, US-amerikanischer Philosoph († 1954) 13. September: Robert Robinson, britischer Chemiker († 1975) 14. September: Erich Hoepner, deutscher General und Widerstandskämpfer († 1944) 14. September: Jan Masaryk, tschechischer Politiker († 1948) 15. September: Paul Lévy, französischer Mathematiker († 1971) 15. September: Wilhelm Schürer, deutscher Architekt († 1975) 16. September: Hans Arp, deutsch-französischer Maler, Bildhauer und Dichter († 1966) 16. September: Dorothea von Arronet, deutschbaltische Malerin, Illustratorin und Grafikerin († 1973) 16. September: José Delaquerrière, kanadischer Sänger, Komponist und Musikpädagoge († 1978) 17. September: Ramón Emilio Jiménez, dominikanischer Schriftsteller († 1971) 17. September: Otto Gmelin, deutscher Schriftsteller († 1940) 17. September: Alfred Walther, Schweizer Professor für Betriebswirtschaftslehre († 1955) 18. September: Armando Donoso, Essayist, Journalist, Herausgeber und Literaturkritiker († 1946) 18. September: Max Rudolf Lehmann, deutscher Professor für Betriebswirtschaftslehre († 1965) 18. September: Karl Oberparleiter, österreichischer Professor für Betriebswirtschaftslehre († 1968) 20. September: Cecilie von Mecklenburg-Schwerin, letzte Kronprinzessin des deutschen Kaiserreichs († 1954) 20. September: Hermann Lautensach, deutscher Geograph († 1971) 21. September: François Piazzoli, französischer Autorennfahrer († 1960) 22. September: Roger Bissière, französischer Maler († 1964) 22. September: Hermann Holthusen, deutscher Mediziner und Radiologe († 1971) 24. September: Edward Bach, englischer Mediziner, Bakteriologe, Immunologe († 1936) 24. September: Roberto María Ortiz, argentinischer Präsident († 1942) 25. September: Charles Armstrong, US-amerikanischer Arzt und Virologe († 1967) 25. September: Edward Stuart McDougall, kanadischer Richter am Internationalen Militärgerichtshof für den Fernen Osten († 1957) 25. September: Nobutake Kondo, japanischer Admiral († 1953) 25. September: Émile Lamarre, kanadischer Sänger († 1963) 25. September: Kurt Oppenheim, deutscher Unternehmer, Manager und Chemiker († 1947) 25. September: May Sutton, US-amerikanische Tennisspielerin († 1975) 26. September: Archibald Vivian Hill, britischer Physiologe († 1977) 26. September: Koizumi Chikashi, japanischer Lyriker († 1927) 27. September: Mario Amadori, italienischer pharmazeutischer Chemiker und Hochschullehrer († 1941) Oktober 1. Oktober: Paul Morgan, österreichischer Schauspieler und Komiker († 1938) 2. Oktober: Leon Hirsch, deutscher Buchhändler, Drucker, Verleger und Kabarett-Leiter († 1954) 3. Oktober: Alain-Fournier, französischer Schriftsteller († 1914) 3. Oktober: Barbara Karinska, US-amerikanische Kostümbildnerin († 1983) 4. Oktober: Erich Fellgiebel, deutscher Offizier und Widerstandskämpfer († 1944) 4. Oktober: Nakamura Murao, japanischer Literaturtheoretiker und -kritiker († 1949) 6. Oktober: Karl Paul Andrae, deutscher Architekt und Künstler († 1945) 6. Oktober: Edwin Fischer, Schweizer Pianist († 1960) 7. Oktober: Heinrich Ancker, deutscher Marineoffizier († 1960) 7. Oktober: Kurt Schmitt, deutscher Wirtschaftsführer und Reichswirtschaftsminister († 1950) 8. Oktober: Karl Gengler, deutscher Politiker († 1974) 8. Oktober: Wim Groskamp, niederländischer Fußballspieler († 1974) 8. Oktober: Pedro Prado, chilenischer Schriftsteller († 1952) 8. Oktober: Yoshii Isamu, japanischer Schriftsteller († 1960) 10. Oktober: Franz Arczynski, deutscher Gewerkschaftsfunktionär und Politiker († 1946) 11. Oktober: Max Augustin, österreichischer Politiker († 1943) 11. Oktober: Oskar Icha, österreichischer Bildhauer († 1945) 12. Oktober: Wanda Achsel, deutsche Opernsängerin († 1977) 12. Oktober: Albert Chamberland, kanadischer Violinist und Komponist († 1975) 13. Oktober: Karl Arndt, deutscher Politiker und Gewerkschafter († 1949) 13. Oktober: Maurice Rost, französischer Autorennfahrer und Flieger († 1958) 13. Oktober: Ben Stom, niederländischer Fußballspieler († 1965) 15. Oktober: Rudolf Graf von Marogna-Redwitz, deutscher Widerstandskämpfer des 20. Juli 1944 († 1944) 16. Oktober: Otto Arpke, deutscher Maler, Illustrator und Gebrauchsgraphiker († 1943) 16. Oktober: Raoul Maria Eduard Karl Aslan-Zumpart, österreichisch-griechischer Schauspieler († 1958) 16. Oktober: Boris Michailowitsch Eichenbaum, russischer Literaturwissenschaftler († 1959) 16. Oktober: David Ben Gurion, israelischer Premierminister († 1973) 16. Oktober: Gerhart Rodenwaldt, deutscher Archäologe († 1945) 19. Oktober: Adolf Werner, deutscher Fußball-Nationalspieler († 1975) 19. Oktober: Bella Ouellette, kanadische Schauspielerin († 1945) 19. Oktober: Lothar Schreyer, deutscher Jurist, Maler, Schriftsteller und Dramaturg († 1966) 20. Oktober: Leopold Stocker, österreichischer Verleger († 1950) 21. Oktober: Karl Polanyi, ungarischer Wirtschaftswissenschaftler und Wirtschaftstheoretiker († 1964) 23. Oktober: Edwin Boring, US-amerikanischer Experimentalpsychologe und einer der ersten Psychologie-Historiker († 1968) 23. Oktober: Peter Bratschi, Schweizer Politiker, Hörspielautor und Mundartdichter († 1975) 23. Oktober: Ernest Friederich, französischer Automobilrennfahrer und Mechaniker († 1954) 23. Oktober: Karl Hartleb, österreichischer Politiker († 1965) 24. Oktober: Delmira Agustini, uruguayische Dichterin († 1914) 24. Oktober: Grigori Konstantinowitsch Ordschonikidse, sowjetischer Politiker († 1937) 25. Oktober: Nikola Atanassow, bulgarischer Komponist und Musikpädagoge († 1969) 25. Oktober: Leo G. Carroll, britischer Schauspieler († 1972) 26. Oktober: Hanns Braun, deutscher Leichtathlet († 1918) 26. Oktober: Isidore Fattal, syrischer Erzbischof († 1961) 27. Oktober: Marie Sieger-Polack, deutsche Malerin († 1970) 28. Oktober: Frans de Bruyn Kops, niederländischer Fußballspieler († 1979) 29. Oktober: Martin Gusinde, österreichischer Anthropologe, Priester († 1969) 29. Oktober: Wilhelm Hansmann, deutscher Politiker († 1963) 30. Oktober: Zoë Akins, US-amerikanische Drehbuchautorin und Dramatikerin († 1958) 31. Oktober: William John Adie, australischer Neurologe († 1935) November 1. November: Hermann Broch, österreichischer Schriftsteller († 1951) 1. November: Hagiwara Sakutarō, japanischer Schriftsteller († 1942) 1. November: Matsui Sumako, japanische Schauspielerin († 1919) 6. November: Gustav Gerson Kahn, US-amerikanischer Musiker, Liedermacher und Textdichter († 1941) 6. November: Franz Kandolf, deutscher katholischer Geistlicher und Mitarbeiter des Karl-May-Verlags († 1949) 6. November: Bruno Satori-Neumann, deutscher Theaterwissenschaftler († 1943) 7. November: Charlotte Armbruster, deutsche Politikerin († 1970) 7. November: Aaron Nimzowitsch, lettischer Schachspieler und -theoretiker († 1935) 9. November: Edward Lindberg, US-amerikanischer Leichtathlet und Olympiasieger († 1978) 12. November: Agustín Acosta, kubanischer Politiker und Schriftsteller († 1978) 12. November: Günter Dyhrenfurth, Schweizer Bergsteiger und Geologe († 1975) 13. November: Alva M. Lumpkin, US-amerikanischer Jurist und Politiker († 1941) 13. November: Tur-Sinai, israelischer Philologe und Bibelausleger († 1973) 13. November: Mary Wigman, deutsche Tänzerin, Choreografin und Tanzpädagogin († 1973) 15. November: Georg Anschütz, deutscher Psychologe († 1953) 15. November: Franz Felix, österreichischer Opernsänger, Theaterregisseur und -leiter († 1963) 15. November: René Guénon, französischer Metaphysiker und esoterischer Schriftsteller († 1951) 15. November: Pedro Sanjuán, spanischer Komponist und Dirigent († 1976) 16. November: Marcel Riesz, ungarischer Mathematiker († 1969) 17. November: Ferdinand Friedensburg, deutscher Politiker († 1972) 17. November: Hans Schlange-Schöningen, deutscher Politiker († 1960) 20. November: Karl von Frisch, österreichischer Biologe, Zoologe, Nobelpreisträger († 1982) 20. November: Robert Hunter, US-amerikanischer Golfspieler († 1971) 21. November: Harold Nicolson, britischer Diplomat, Autor und Politiker († 1968) 23. November: Lloyd Stark, US-amerikanischer Politiker († 1972) 24. November: Margaret Caroline Frances Anderson, US-amerikanische Schriftstellerin († 1973) 24. November: Georges Vantongerloo, belgischer Maler, Bildhauer und Architekt († 1965) 28. November: Georg Schumann, deutscher Kommunist und Widerstandskämpfer († 1945) 30. November: Karl Struss, US-amerikanischer Fotograf und Kameramann († 1981) Dezember 1. Dezember: Rex Stout, US-amerikanischer Krimi-Schriftsteller († 1975) 1. Dezember: Zhu De, chinesischer Marschall († 1976) 2. Dezember: Earl Cooper, US-amerikanischer Automobilrennfahrer († 1965) 2. Dezember: Annie Francé-Harrar, österreichische Schriftstellerin († 1971) 2. Dezember: Dimitri Usnadse, georgischer Psychologe († 1950) 3. Dezember: Karl Manne Siegbahn, schwedischer Physiker und Nobelpreisträger († 1978) 4. Dezember: Jan Thomée, niederländischer Fußballspieler († 1954) 4. Dezember: Ludwig Bieberbach, deutscher Mathematiker und NSDAP-Aktivist († 1982) 5. Dezember: Rose Wilder Lane, US-amerikanische Schriftstellerin und politische Theoretikerin († 1968) 8. Dezember: Diego Rivera, mexikanischer Maler († 1957) 8. Dezember: Jakob Diel, deutscher Politiker und MdB († 1969) 9. Dezember: Ernst Hollstein, deutscher Fußballspieler († 1950) 11. Dezember: Victor McLaglen, britischer Schauspieler († 1959) 12. Dezember: Mirko Jelusich, österreichischer Schriftsteller († 1969) 13. Dezember: Wilhelm Leo, deutscher Rechtsanwalt und Mitglied im Nationalkomitee Freies Deutschland für den Westen († 1945) 14. Dezember: Fred Sauer, österreichischer Schauspieler, Regisseur und Drehbuchautor († 1952) 19. Dezember: Ángel Herrera Oria, spanischer Geistlicher, Bischof von Málaga († 1968) 19. Dezember: Charles M. Cooke, US-amerikanischer Admiral († 1970) 19. Dezember: Matthias Gelzer, Schweizer Althistoriker († 1974) 20. Dezember: Hazel Hotchkiss Wightman, US-amerikanische Tennisspielerin († 1974) 20. Dezember: Celestino Piaggio, argentinischer Komponist, Pianist und Dirigent († 1931) 21. Dezember: Fritz Baumgarten, deutscher Fußballspieler († 1961) 21. Dezember: Hermann Kees, deutscher Ägyptologe († 1964) 21. Dezember: Frank Neil, australischer Theaterunternehmer († 1940) 23. Dezember: Albert Ehrenstein, deutschsprachiger Lyriker, Erzähler († 1950) 23. Dezember: Salvador Seguí, spanischer Anarchist und Syndikalist († 1923) 24. Dezember: Peco Bauwens, deutscher Fußballspieler und Funktionär des DFB († 1963) 24. Dezember: Michael Curtiz, ungarisch-amerikanischer Filmregisseur († 1962) 25. Dezember: Malak Hifnī Nāsif, ägyptische Frauenrechtlerin († 1918) 25. Dezember: Franz Rosenzweig, deutscher Historiker und Philosoph († 1929) 26. Dezember: Gyula Gömbös, ungarischer General, Politiker und Ministerpräsident († 1936) 28. Dezember: Fritz Schröter, deutscher Physiker und Fernsehpionier († 1973) 29. Dezember: Georg von Struve, russisch-deutscher Astronom († 1933) 30. Dezember: Henri Chapron, französischer Unternehmer und Automobilcouturier († 1978) 30. Dezember: Austin Osman Spare, britischer Grafiker, Maler und Magier († 1956) Genaues Geburtsdatum unbekannt Wadi' al-Bustani, libanesischer Dichter und Übersetzer († 1954) Giannis M. Apostolakis, griechischer Neogräzist († 1947) José Gil, argentinischer Komponist und Musikpädagoge († 1947) Masoud Keyhan, Major der Persischen Gendarmerie († 1961) Faiyaz Khan, indischer Sänger klassischer hindustanischer Musik und Komponist († 1950) Riccardo Malipiero, italienischer Cellist und Musikpädagoge († 1975) Edward Royce, US-amerikanischer Komponist und Musikpädagoge († 1963) George Lawrence Stone, US-amerikanischer Schlagzeuger und Schlagzeuglehrer († 1967) Gestorben Erstes Quartal 2. Januar: Georg Adolf Demmler, deutscher Architekt und Politiker (* 1804) 5. Januar: Lazarus Adler, Schriftsteller und Landesrabbiner von Hessen-Nassau (* 1810) 7. Januar: Richard Dadd, englischer Maler (* 1817) 10. Januar: Benjamin F. Conley, US-amerikanischer Politiker (* 1815) 11. Januar: Gustav Hache, deutscher Politiker (* 1835) 16. Januar: Carl Immanuel Baumann, württembergischer Zeichner, Fotograf und Lithograph (* 1831) 17. Januar: Paul Baudry, französischer Maler (* 1828) 17. Januar: Bernhard von Neher, deutscher Maler (* 1806) 17. Januar: Eduard Oscar Schmidt, deutscher Zoologe (* 1823) 18. Januar: Karl Gaertner, deutscher Ingenieur, Unternehmer und Politiker (* 1823) 20. Januar: Ernst Methfessel, deutscher Komponist (* 1811) 21. Januar: Adolf Werneburg, deutscher Namen- und Heimatforscher sowie Forstmann (* 1813) 22. Januar: August Wilhelm Theodor Adam, deutscher Musikdirektor (* 1833) 22. Januar: James T. Farley, US-amerikanischer Politiker (* 1829) 26. Januar: David Rice Atchison, US-amerikanischer Politiker (* 1807) 30. Januar: Gustave Chouquet, französischer Musikwissenschaftler (* 1819) 30. Januar: Neill S. Brown, US-amerikanischer Politiker (* 1810) 2. Februar: Edmund Heusinger von Waldegg, deutscher Maschinenbauingenieur und Eisenbahnpionier (* 1817) 4. Februar: William Edwin Boardman, US-amerikanischer methodistischer und presbyterianischer Pastor, Sonntagschullehrer, Autor und Führer der Heiligungsbewegung (* 1810) 4. Februar: Hans Victor von Unruh, preußischer Politiker und Regierungsrat (* 1806) 8. Februar: Iwan Sergejewitsch Aksakow, russischer Schriftsteller und Slawophiler (* 1823) 9. Februar: Winfield Scott Hancock, US-amerikanischer General (* 1824) 12. Februar: Marie von Augustin, österreichische Malerin und Schriftstellerin (* 1806) 17. Februar: Josef Sies, österreichischer Orgelbauer (* 1818) 19. Februar: Joseph Matthäus Aigner, österreichischer Porträtmaler (* 1818) 24. Februar: Etienne Chastel, Schweizer evangelischer Theologe und Hochschullehrer (* 1801) 27. Februar: Angelo Panzini, italienischer Komponist und Musikpädagoge (* 1820) 2. März: Friedrich Wilhelm Winzer, deutscher Orgelbauer (* 1811) 3. März: Alfred Assolant, französischer Schriftsteller (* 1827) 11. März: Franz Antoine, Hofgärtner im Hofburggarten (* 1815) 12. März: Ysaak Brons, deutscher Politiker, Mitglied der Frankfurter Nationalversammlung (* 1802) 15. März: William Irwin, US-amerikanischer Politiker (* 1827) 15. März: George Michael Hahn, US-amerikanischer Politiker (* 1830) 16. März: Georg Varrentrapp, deutscher Mediziner (* 1809) 17. März: Karl von Brandenstein, preußischer General (* 1831) 17. März: Leopold Zunz, deutscher Wissenschaftler (* 1794) 27. März: Julian Schmidt, deutscher Literaturhistoriker (* 1818) 27. März: Sir Henry Taylor, englischer Dramatiker und Kolonialbeamter (* 1800) 31. März: Józef Bohdan Zaleski, polnischer Dichter (* 1802) Zweites Quartal 4. April: Caesarine Kupfer-Gomansky, deutsche Schauspielerin (* 1818) 4. April: Jewgeni Alexandrowitsch Lansere, russischer Bildhauer (* 1848) 6. April: Théodore Ritter, französischer Pianist und Komponist (* 1840) 9. April: Joseph Victor von Scheffel, deutscher Dichter (* 1826) 13. April: Anna Louisa Geertruida Bosboom-Toussaint, niederländische Schriftstellerin (* 1812) 13. April: Károly Thern, ungarischer Komponist (* 1817) 14. April: Marie Kerner, deutsche Schriftstellerin (* 1813) 17. April: Wigand Oppel, deutscher Organist und Musikpädagoge (* 1822) 26. April: Elise Flindt, deutsche Schauspielerin (* um 1810) 27. April: Eugène Isabey, französischer Maler (* 1803) 2. Mai: Isabella Braun, deutsche Jugendbuchautorin (* 1815) 5. Mai: Louis Vautrey, Schweizer römisch-katholischer Geistlicher und Historiker (* 1829) 7. Mai: Jenny Bürde-Ney, deutsche Sängerin (* 1824) 13. Mai: Theodor Mattern, deutscher Kaufmann (* 1820) 15. Mai: Emily Dickinson, US-amerikanische Dichterin (* 1830) 16. Mai: Ambroise Verschaffelt, belgischer Gärtner und Buchautor (* 1825) 16. Mai: Peter Vogt, Schweizer Förster und Politiker (* 1822) 17. Mai: John Deere, US-amerikanischer Hufschmied, Erfinder des Stahlpflugs und Firmengründer (* 1804) 17. Mai: Josef Haltrich, deutscher Lehrer, Pfarrer und sächsischer Volkskundler (* 1822) 23. Mai: Carl Heinrich Auspitz, österreichischer Dermatologe (* 1835) 23. Mai: Leopold von Ranke, deutscher Historiker (* 1795) 24. Mai: Franz Xaver Schönwerth, deutscher Volkskundler (* 1810) 1. Juni: Julius Adolph Stöckhardt, deutscher Agrikulturchemiker (* 1809) 13. Juni: Bernhard von Gudden, deutscher Mediziner (* 1824) 13. Juni: Ludwig II., König von Bayern (* 1845) 14. Juni: Alexander Nikolajewitsch Ostrowski, russischer Dramatiker (* 1823) 15. Juni: Pascal Sébah, Photograph im Osmanischen Reich (* 1823) 16. Juni: Edwin Percy Whipple, US-amerikanischer Schriftsteller und Essayist (* 1819) 17. Juni: Charles Bunbury, britischer Naturforscher und Tagebuchschreiber (* 1809) 21. Juni: Hugh Welch Diamond, britischer Psychiater und Fotograf (* 1809) Drittes Quartal 1. Juli: Hermann von Abich, deutscher Mineraloge, Geologe und Forschungsreisender (* 1806) 2. Juli: Justus Heer, Schweizer evangelischer Geistlicher (* 1840) 10. Juli: Pauline Louise Agnes, Fürstin von Reuß, unter dem Pseudonym Angelica Hohenstein außerdem Schriftstellerin (* 1835) 18. Juli: Friedrich Haas, deutsch-schweizerischer Orgelbauer (* 1811) 21. Juli: Maximilian Duncker, deutscher Historiker und Politiker (* 1811) 21. Juli: Carl Theodor von Piloty, deutscher Maler (* 1826) 22. Juli: Emil Scaria, österreichischer Opernsänger (* 1840) 29. Juli: Adolf Müller, österreichisch-ungarischer Schauspieler und Komponist (* 1801) 29. Juli: Friedrich von Bothmer, bayerischer General der Infanterie (* 1805) 31. Juli: Franz Liszt, österreichisch-ungarischer Pianist und Komponist (* 1811) 4. August: Samuel J. Tilden, US-amerikanischer Politiker (* 1841) 6. August: Wilhelm Scherer, österreichischer Germanist (* 1841) 6. August: Katharine Weißgerber, Deutsche, auch bekannt als Schultze Katrin, erhielt das Verdienstkreuz für Frauen und Jungfrauen (* 1818) 10. August: Eduard Grell, deutscher Komponist und Organist (* 1800) 15. August: Julius Carl Friedrich Aßmann, deutscher Uhrmacher (* 1827) 17. August: Alexander Butlerow, russischer Chemiker (* 1828) 30. August: Francesco Lacedelli, Tiroler Bergsteiger, Bergführer, Schütze und Uhrmacher (* 1796) 3. September: Friedrich Hetzel, deutscher Bankier und Wohltäter (* 1804) 4. September: Agustina Gutiérrez Salazar, chilenische Malerin und Zeichnerin (* 1851) 10. September: Paul Soleillet, französischer Afrikareisender (* 1842) 11. September: Eduard Robert Flegel, deutscher Afrikareisender (* 1852) 14. September: Hubert Ries, deutscher Violinspieler und Komponist (* 1802) 15. September: Carmine Gori-Merosi, italienischer Kardinal (* 1810) 16. September: Carl Damm, deutscher katholischer Priester, Politiker und Teilnehmer an der Revolution 1848/1849 (* 1812) 19. September: Edward von Steinle, österreichischer Maler (* 1810) 30. September: Franz Adam, deutscher Schlachten- und Pferdemaler sowie Lithograf (* 1815) 30. September: Max Preßler, deutscher Ingenieur, Forstwissenschaftler, Erfinder und Ökonom (* 1815) Viertes Quartal 6. Oktober: Thomas Talbot, US-amerikanischer Politiker (* 1818) 8. Oktober: Lorenz Hutschenreuther, deutscher Porzellanunternehmer (* 1817) 8. Oktober: Austin F. Pike, US-amerikanischer Politiker (* 1819) 8. Oktober: Claus Pavels Riis, norwegischer Dichter (* 1826) 10. Oktober: Wilhelm Lehmann, deutscher Auswanderer, Gründer der argentinischen Stadt Rafaela (* 1840) 21. Oktober: José Hernández, argentinischer Journalist und Dichter (* 1834) 24. Oktober: Friedrich Ferdinand von Beust, österreichischer Politiker (* 1809) 24. Oktober: Johannes Dielmann, deutscher Bildhauer (* 1819) 24. Oktober: Adolf Lüderitz, deutscher Kaufmann, Begründer der Kolonie Deutsch-Südwestafrika (* 1834) 26. Oktober: Giovanni Antonio Vanoni, italienischer Maler (* 1810) 31. Oktober: Robert Oswald von Ulrici, deutscher Forstmann und Beamter (* 1816) 4. November: Alexander von Münchhausen, hannoverscher Staatsmann (* 1813) 7. November: Nathaniel Ellis Atwood, US-amerikanischer Politik (* 1807) 10. November: Filipina Brzezińska, polnische Komponistin und Pianistin (* 1800) 10. November: Friedrich Traugott Helbig, sächsischer Bildhauer (* 1859) 11. November: Gustav Adolf Fischer, deutscher Afrikaforscher (* 1848) 11. November: Alexander von Schoeller, österreichischer Großindustrieller und Bankier (* 1805) 13. November: Ignaz Dörr, deutscher Orgelbauer (* 1829) 17. November: Louis Schlösser, deutscher Komponist und Konzertvirtuose (* 1800) 18. November: Chester A. Arthur, US-amerikanischer Politiker, Präsident der Vereinigten Staaten (* 1829) 20. November: John Arnot junior, US-amerikanischer Politiker (* 1831) 20. November: John S. Phelps, US-amerikanischer Politiker (* 1814) 21. November: Charles Francis Adams, US-amerikanischer Jurist und Politiker (* 1807) 21. November: Johannes Scherr, deutscher Kulturhistoriker (* 1817) 27. November: Otto Spamer, deutscher Buchhändler und Verleger (* 1820) 29. November: Arthur von Seckendorff-Gudent, schweizerisch-österreichischer Forstwissenschaftler (* 1845) 1. Dezember: Karl Ludwig Jühlke, deutscher Afrikaforscher (* 1856) 2. Dezember: Arnold Ipolyi, ungarischer Geistlicher, Historiker und Kunsthistoriker (* 1823) 4. Dezember: Ludwig Arnold, deutscher Jurist (* 1798) 4. Dezember: Johann Wilhelm Ernst Wägner, deutscher Schriftsteller und evangelischer Theologe (* 1800) 9. Dezember: Johann Philipp Becker, deutscher Politiker und Revolutionär (* 1809) 12. Dezember: Bertha Augusti, deutsche Schriftstellerin (* 1827) 18. Dezember: Frederick Walker Pitkin, US-amerikanischer Politiker (* 1837) 22. Dezember: Otto Möllinger, Schweizer Naturwissenschaftler, Erfinder und Unternehmer (* 1814) 29. Dezember: Addison Crandall Gibbs, US-amerikanischer Politiker (* 1825) Weblinks
Q7822
888.348817
166451
https://de.wikipedia.org/wiki/Steueroase
Steueroase
Als Steueroase oder Steuerparadies (, ) werden Staaten oder Gebiete bezeichnet, die keine oder besonders niedrige Steuern auf Einkommen oder Vermögen erheben. Sie sind dadurch als Wohnsitz für Personen bzw. als Standort für Unternehmen steuerlich attraktiv. Im Gegensatz zu Niedrigsteuerländern werden mit diesem politischen Schlagwort vor allem Staaten bezeichnet, denen vorgeworfen wird, Steuerflucht als aktives Geschäftsmodell zu betreiben. Amtlich wird die Bezeichnung „nicht kooperatives Steuerhoheitsgebiet“ verwendet (vgl. der Steueroasen-Abwehrverordnung). Zum Teil sind sie gleichzeitig auch Offshore-Finanzplätze, d. h. sie gewähren ein hohes Maß an Vertraulichkeit und Geheimhaltung. Sie können dann neben legaler Steuervermeidung auch für illegale Geschäftspraktiken wie Geldwäsche und Steuerhinterziehung genutzt werden. Nach Berechnungen der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) liegen 11,3 Billionen US-Dollar in Steueroasen. Das Tax Justice Network geht von bis zu 32 Billionen US-Dollar aus. Charakteristika Steueroasen zeichnen sich zunächst vor allem durch die sehr niedrige oder gar nicht vorhandene Steuerbelastung für Rechtspersonen aus (Niedrigsteuerland). Gründe hierfür können sein, dass die betreffenden Staaten oder Gebiete einen sehr kleinen Staatshaushalt haben, ausreichend hohe Einnahmen aus anderen Quellen (etwa Rohstoffe) haben und/oder auf diese Weise ausländische Direktinvestitionen anlocken wollen. Durch die Verlagerung von Vermögen, Wohnsitz oder Betriebsstätte an diese Standorte können Personen dadurch ihre Steuerlast in anderen Staaten verringern (Steuerflucht). Wichtig für eine Steueroase sind zudem Rechtssicherheit und die politische Stabilität, durch die die Sicherheit des angelegten Kapitals gewährleistet wird, wobei Good Governance („Gute Regierungsführung“, das heißt effiziente Verwaltungsstrukturen und wenig Korruption) und niedrige Steuersätze die Wahrscheinlichkeit von zuströmendem Geld maßgeblich bestimmt. Ein Bankgeheimnis kann Bestandteil der Rechtslage sein. Oft können in Steueroasen aufgrund liberaler Formvorschriften für Rechtsgeschäfte Kapital und Unternehmensanteile einfach und diskret verschoben werden. Steueroasen sind in den meisten Fällen kleine Länder, die im Verhältnis zu den dort stattfindenden finanziellen Transaktionen und dem vorhandenen Kapital eine geringe Wirtschaftsaktivität aufweisen und über eine wenig regulierte Wirtschaftspolitik verfügen. In diesen Ländern gibt es – oft nur auf Überseegeschäfte spezialisierte – Rechtsdienstleister, die Firmen und Privaten systematisch helfen, ihr Vermögen nicht in ihrem Heimatland zu veranlagen oder die Herkunft zu verschleiern. Es sind Fälle bekannt, in denen solche Rechtsdienstleister (Steuerberater, Rechtsanwälte) dabei geholfen haben (z. B. durch Re-Invoicing, Wohnsitzverschleierung, Anonymisierung, Briefkastenfirmen und Vintage Companies oder auch durch Rückdatieren von Dokumenten) Steuern zu hinterziehen oder Schwarzgeld bzw. Schmiergeld zu verstecken. Gemäß internationalen Vorschlägen sollen effektive Formvorschriften zur Nachvollziehbarkeitsmachung der Transaktionen verbunden mit der Anzeigepflicht von Steuersparmodellen diese Steuerschlupflöcher schließen. In Steueroasen werden Transparenzversprechen jedoch unterlaufen, bestehende internationale Kontrollsysteme umgangen beziehungsweise sogar die Finanzdienstleister oder Banken selbst als Kontroll-, Dokumentations- oder Registerorgane eingesetzt. Bankorgane sind dann auch in vielen Fällen für Offshore-Firmen zeichnungsberechtigt, damit die Anleger anonym bleiben und nicht in allfälligen Registern namentlich genannt werden. Mangelnde nationale Umsetzung macht viele am Papier erfüllte Verträge wertlos, weil zum Beispiel Register nicht aktuell geführt werden, Daten nicht erfasst werden oder bestehende Formvorschriften nicht zwingend sind. Nutznießer Es gibt viele Möglichkeiten, die eigene Steuerlast mittels Nutzung von Steueroasen zu verringern. Allen gemeinsam ist das Ziel, Einkommen, das in Hochsteuerländern erzielt wird, nicht dort versteuern zu müssen. Personen Privatpersonen können durch Verlagerung ihres Wohnsitzes Steuerzahlungen entgehen, siehe Boris Becker, Michael Schumacher, Steffi Graf. Der Anteil der verlagerten Einkommen von Privatpersonen wird in den USA auf etwa zehn Prozent der gesamten verlagerten Einkommen geschätzt. Unternehmen Für Unternehmen gibt es viele Wege, anfallende Gewinne zu verschieben: Das Unternehmen kann eine Tochterfirma für seine Auslandsgeschäfte in einer Steueroase gründen, um so Steuern auf repatriierte Gewinne zu vermeiden. Das Unternehmen kann Investitionen in Hochsteuerländern mit Krediten von Töchtern finanzieren, die in Niedrigsteuerländern angesiedelt sind. Es fallen so im Hochsteuerland keine (oder weniger) Gewinne an, da Zinszahlungen an die Tochter zu leisten sind. Leistungen, die innerhalb eines Konzerns erbracht werden, können so verbucht werden, dass Gewinne aus Hochsteuerländern abgezogen werden. Zum Beispiel kann das Verwertungsrecht an einem Patent in einer Steueroase liegen und das inländische Unternehmen zahlt dafür Lizenzgebühren an seine ausländische Tochter. Dies ist ein legaler Vorgang, solange marktübliche Preise gezahlt werden; ob das der Fall ist, ist allerdings schwer zu überprüfen, da ein Markt dafür nicht existiert. Waren und Dienstleistungen können zwischen Teilen desselben Konzerns gehandelt werden. Laut Netzwerk Steuergerechtigkeit würden jährlich weltweit circa zehn Billionen US-Dollar konzernintern gehandelt, was den größten Volumenanteil des Welthandels ausmache. Hier bestünde ein gigantisches Potential für Missbrauch. Staaten Nutznießer sind auch die betreffenden Länder, die ihre Körperschaftsteuersätze auf nahezu Null senken. Beispielsweise lag Ende der 1980er Jahre die Körperschaftsteuer in Irland bei 50 % und brachte im Verhältnis zum Nationaleinkommen weniger Einnahmen von Unternehmen als in den USA oder der EU. Heute bringt die irische Regierung weitaus mehr Körperschaftssteuern ein, obwohl ihr Steuersatz nur bei 12,5 % liegt. Dies ist jedoch nicht darauf zurückzuführen, dass niedrige Steuern die inländische Aktivität, Beschäftigung und das Wachstum gefördert haben, sondern dass die zusätzlichen Einnahmen aus den Gewinnen stammen, die multinationale Unternehmen in Irland geltend machen. Gewinne, die von Arbeitnehmern in anderen Ländern erzielt werden. Die irische Regierung erhält somit mehr Einnahmen für den Ausbau einheimischer Infrastruktur. Problematik von Steueroasen Kontrovers wird bei Steueroasen gesehen, dass sie größere Staaten in einen Wettbewerb um niedrige Steuern verwickeln. Staaten versuchen ein komplexes Gemeinwesen aufrechtzuerhalten, sowie eine Infrastruktur zur Verfügung zu stellen und damit Maßnahmen zu treffen, die für ein reibungsloses Funktionieren des Wirtschaftslebens und damit der Weltwirtschaft unverzichtbar sind. Die entgangenen Steuereinnahmen der USA werden auf etwa 70 Milliarden Dollar geschätzt. Gemäß dem amerikanischen Ökonomen und Offshore-Experten James Henry beträgt die Größe des in Steueroasen gehaltenen Vermögens weltweit bis zu 32 Billionen Dollar. Privatpersonen Eine Studie der globalisierungskritischen NGO Tax Justice Network von 2012 zeigt, dass weltweit vermögende Personen einen großen Teil ihres Vermögens in Steueroasen unterbringen. Eine konservative Schätzung geht demnach davon aus, dass 21 Billionen Dollar in Steueroasen untergebracht sind, 9,8 Billionen allein von den weltweit Top 100.000 Vermögenden. In der Folge führe dies gegenüber der zur Besteuerung herangezogene Vermögen zu einer massiven Unterbewertung der Vermögenswerte in den jeweiligen Ländern, Die NGO Tax Justice Network schätzt die durch Offshore-Finanzplätze entgangenen Steuereinnahmen von Privatpersonen auf weltweit etwa 255 Milliarden Dollar pro Jahr. In einer Veröffentlichung des Internationalen Währungsfonds fasste Nicholas Shaxson verschiedene Untersuchungen zusammen. So bewahren je nach Schätzung Einzelpersonen in Steueroasen 8,7 Billionen bis 36 Billionen US-Dollar auf. Die weltweiten Einkommensteuerverluste belaufen sich auf rund 200 Milliarden US-Dollar pro Jahr. Unternehmen Laut Analysen sollen 90 Prozent der 200 größten Unternehmen Ableger in Steueroasen halten. Laut weiteren Schätzungen liegen rund acht Prozent des weltweiten Vermögens, rund 5,9 Billionen Euro, in Steueroasen, wobei davon 3/4 nicht versteuert sein sollen. Steueroasen kosten Regierungen weltweit je nach Schätzung insgesamt zwischen 500 und 600 Milliarden US-Dollar pro Jahr an verlorenen Körperschaftsteuereinnahmen. Volkswirtschaftliche Folgen Da die Hauptnutzer von Steueroasen große Finanzinstitute und andere multinationale Unternehmen sind, stellt das System die Wettbewerbsbedingungen für kleine und mittlere Unternehmen in Frage und fördert die Monopolisierung. Kritiker führen an, dass dadurch ein unfairer Steuerwettbewerb ausgelöst würde. Der Vorstand der österreichischen Finanzmarktaufsicht Helmut Ettl kritisiert zudem die Lobbyarbeit gegen Maßnahmen zur Bekämpfung von Steueroasen bzw. Geldwäsche. Kosten der Steuervermeidung Durch die Steuervermeidung deutscher Unternehmen entgehen dem Fiskus nach Berechnungen des Ifo-Instituts jedes Jahr Milliardensummen. Die Frankfurter Allgemeine Zeitung hatte unter Berufung auf die Zahlen berichtet, allein die 333 größten deutschen multinationalen Unternehmen verursachten durch Steuertricks einen jährlichen Schaden von 1,6 Milliarden Euro. Beziehe man zusätzlich kleinere Firmen mit Auslandsgeschäft sowie deutsche Tochtergesellschaften ausländischer multinationaler Unternehmen ein, ergebe sich demnach ein Steuerverlust von 5,7 Milliarden Euro pro Jahr. Allerdings bedeuten Gewinne in Steueroasen den Ökonomen zufolge nicht automatisch auch Steuervermeidung. Vielmehr ließen sich 62 Prozent der Gewinne in Steueroasen auf realwirtschaftliche Aktivitäten zurückführen. 38 Prozent seien das Resultat von Gewinnverlagerung zur Vermeidung von Steuern. Initiativen Staatliche Initiativen gegen Steueroasen Als Reaktion auf die Steuerproblematik startete die OECD im Jahr 1998 die sogenannte Harmful Tax Competition Initiative. Es wurden insgesamt 41 Länder identifiziert, deren Steuergesetzgebung nicht konform mit einem fairen Wettbewerb war. Probleme gab es beim Start der Initiative, weil die OECD-Mitglieder Schweiz, Österreich, Belgien und Luxemburg ihr Bankgeheimnis gefährdet sahen. Nachdem die Forderungen etwas gelockert worden waren, konnten allerdings die meisten identifizierten Länder zum Einlenken bewegt werden: Seit Mai 2009 befindet sich kein Land mehr auf der OECD-List of Uncooperative Tax Havens. Regulierungserfolge im Bereich des Steuerwettbewerbs wurden auch durch bilaterale Verträge erreicht. Zum Beispiel wurden manche Länder gezwungen, ihre Ungleichbehandlung von In- und Ausländern aufzugeben (Inländer mussten höhere Steuern entrichten als Ausländer) was aber in einigen Fällen nicht zu höheren Steuern für Ausländer führte, sondern Inländern niedrigere Steuersätze bescherte. Im Jahr 2005 wurde die Europäische Richtlinie zur Zinsbesteuerung verabschiedet. Die blockierenden Länder waren wiederum die Schweiz, Luxemburg, Belgien und Österreich, die durchsetzten, dass statt des Austausches von Informationen (Meldeverfahren) alternativ auch eine Quellensteuer auf Kapitalerträge abgeführt werden konnte. Da die Definition von „Kapitalerträgen“ sehr eng gefasst war, war die abgeführte Quellensteuer der betreffenden Länder sehr gering (210 Millionen Euro bis 2007). Die deutsche Bundesregierung hat mit dem Strafbefreiungserklärungsgesetz den Versuch unternommen, Steuerflüchtlinge dazu zu motivieren, nach Deutschland zurückzukehren, und ihnen Straffreiheit zugesichert. Im Oktober 2008 kündigten die französische und die deutsche Regierung in Paris an, die Maßnahmen zur Austrocknung von Steueroasen zu verschärfen. Die OECD-List of Uncooperative Tax Havens mit Andorra, Liechtenstein und Monaco sollte um weitere Länder, unter anderem die Schweiz, ergänzt werden. Im März 2009 lenkten die Steueroasen Liechtenstein und Andorra ein. So will Liechtenstein sein striktes Bankgeheimnis teilweise aufheben und die OECD-Standards für Transparenz und Informationsaustausch in Steuerfragen akzeptieren. Am 13. März 2009 sagten auch Österreich, die Schweiz und Luxemburg eine Lockerung des Bankgeheimnisses zu. Monaco bekundete am 15. März 2009 seine Bereitschaft, die Zusammenarbeit im Bereich der Steuerhinterziehung gemäß den internationalen Kriterien zu verbessern. Das betreffe vor allem die Regeln der internationalen Wirtschaftsorganisation OECD für den Austausch von Informationen. 2013 erlangte das Thema Steueroasen u. a. im Zuge von Offshore-Leaks weltweite Aufmerksamkeit. Viele Steueroasen sind britische Überseegebiete oder Kronbesitzungen. Der britische Premierminister David Cameron forderte im Mai 2013 die britischen Überseegebiete und Kronbesitzungen (Bermudas, Britische Jungferninseln, Kaimaninseln, Gibraltar, Montserrat, Turks-Inseln, Caicos-Inseln sowie die Kronbesitzungen Jersey, Guernsey und Isle of Man) brieflich zu einer stärkeren Zusammenarbeit mit der Regierung und den Ermittlungsbehörden auf. Er unterstrich in einem Brief an die Führungen der Gebiete zwar deren Recht, niedrige Steuersätze festzulegen; die Regeln müssten jedoch fair festgelegt und durchgesetzt werden. Es gehe um zwei entscheidende Fragen: den Austausch von Steuerdaten und die Benennung der wirtschaftlichen Eigentümer der Firmen. Der G8-Gipfel am Lough Erne 2013 im Juni 2013 wurde turnusgemäß vom britischen Premierminister geleitet und sollte sich vorrangig noch einmal mit dem Thema „Steueroasen“ beschäftigen. Im Februar 2016 legte die EU-Kommission einen Plan zu einer gemeinsamen Schwarzen Liste vor, in der die bisher von 13 EU-Staaten auf getrennten Listen getrennt geführten Steueroasen zusammengefasst werden sollen. Man erhofft sich davon eine bessere Bekämpfung der Steuerflucht. Die USA machen international Druck, Steueroasen trockenzulegen. Aber national lassen sie dem Steuerwettbewerb zwischen ihren Bundesstaaten freien Lauf. Neben Hochsteuerstaaten wie New York profilieren sich vor allem bevölkerungsarme Staaten wie Nevada, South Dakota, Wyoming oder Delaware mit großzügigem Schutz für Briefkastenfirmen. Seit 2016 gibt es im Europäischen Parlament als Folge der Panama-Papers einen Ausschuss zur Untersuchung von Geldwäsche, Steuervermeidung und Steuerhinterziehung in Verbindung mit Steueroasen. Zur Bekämpfung von Steuerhinterziehung, Steuervermeidung, Geldwäsche, Offshore-Geschäften und Korruption werden demnach effektive Instrumente (Offenkundigkeit, transparente geprüfte Register, Vertragssicherheit, Formvorschriften etc.) und härtere Sanktionen gefordert. Am 5. Dezember 2017 beschlossen die EU-Finanzminister eine schwarze Liste mit Steueroasen, auf der folgende 17 Länder und Gebiete zu finden waren: Bahrain, Barbados, Grenada, Guam, Macau, die Marshallinseln, die Mongolei, Namibia, Palau, Panama, Samoa, Amerikanisch-Samoa, St. Lucia, Südkorea, Trinidad und Tobago, Tunesien, die Vereinigten Arabischen Emirate. Gut 45 weitere Staaten, die signalisierten, ihre Steuerpraktiken zu verändern, kamen auf eine graue Liste. Im Januar 2018 wurden acht Länder (Barbados, Grenada, Südkorea, Macau, die Mongolei, Panama, Tunesien und die Vereinigten Arabischen Emirate) aufgrund von Zugeständnissen vorläufig von der schwarzen Liste gestrichen und auf die graue Liste gesetzt, um die Umsetzung der Zusagen zu beobachten. Am 13. März 2018 wurde die Liste erneut verändert. Bahrain, die Marshallinseln und St. Lucia wurden von der Liste gestrichen, die Bahamas, St. Kitts und Nevis und die Amerikanischen Jungferninseln hinzugefügt. Auf der Schwarze Liste der EU stehen also nun: Amerikanisch-Samoa, Guam, Namibia, Palau, Samoa, Trinidad und Tobago, die Bahamas, St. Kitts und Nevis sowie die Amerikanischen Jungferninseln. Nichtstaatliche Initiativen Globalisierungskritische Organisationen wie attac, Oxfam und das Tax Justice Network fordern seit langem die „Schließung“ von Steueroasen, also international verbindliche Absprachen unter Staaten, dass nirgends Reiche steuerfrei leben können – z. B. Appel de Genève, von 1996. Leaks In den sogenannten Offshore-Leaks berichteten im April 2013 weltweit Medien von einem Datensatz mit 130.000 Namen von Personen, die ihr Vermögen in Steueroasen angelegt haben sollen. Im November 2014 gelangten im Rahmen der sogenannten Luxemburg-Leaks 28.000 Seiten bisher geheimer Steuerdokumente an die Öffentlichkeit. Die Dokumente belegen, wie internationale Unternehmen ihre Steuerflucht über Luxemburg organisieren. Im April 2016 gelangte mit den sogenannten Panama Papers, einem 2,6 Terabyte großen Datensatz von 11,5 Millionen Dateien der panamaischen Anwaltskanzlei Mossack Fonseca, der bislang größte Leak zu insgesamt rund 215.000 Briefkastenfirmen in diversen Steueroasen an die Öffentlichkeit. Steueroasen Da der Status einer Steueroase nicht eindeutig definiert ist, ist ein Konsens über eine Aufzählung von Steueroasen nicht möglich. Die in diesem Artikel aufgeführten Listen enthalten deshalb Länder, die je nach Sichtweise nicht hineingehören, oder es fehlen Länder bzw. Regionen. Bei Steueroasen handelt es sich oft um ehemalige britische Kolonien, um aktuelle Überseegebiete Großbritanniens, aber auch um Länder wie Panama oder Liechtenstein. Die Steueroase Hongkong, als ehemalige britische Kolonie und mit jetzigem direkten Zugang zu auch chinesischen Kapital, gilt als Verbindungselement zu Steueroasen in Mittelamerika. Auch Länder, die aufgrund ihrer Rohstoffexporte hohe Einnahmen erzielen (beispielsweise Bahrain), erheben oft keine oder sehr niedrige Steuern. Typisch für Steueroasen ist eine hohe Anzahl von Briefkastenfirmen. Großbritannien mit der City of London und der Insel Jersey und die USA mit vor allem dem Bundesstaat Delaware gelten mit ihren anonymen Mantelgesellschaften, stiftungsähnlichen Anlageformen, Formfreiheit der Verträge und mangelnder internationaler Kooperation als weltweiter Türöffner für Steueroasen und Offshore-Geschäfte. Zunehmend wird auch im arabischen Raum Geld gewaschen. In Asien gelten als Steueroasen neben Hongkong vor allem Singapur und zunehmend Bali mit seinen Tourismusinvestments. Schwarze Liste der Steueroasen der EU Im Dezember 2017 veröffentlichte die EU als Reaktion auf die Panama Papers eine Schwarze Liste mit 17 Staaten, die nach ihrer Ansicht nicht genug unternehmen, um Steuerflucht zu bekämpfen. Im Vorfeld fanden mit zahlreichen Staaten Verhandlungen statt, um diese zur Einhaltung von Transparenzrichtlinien und zum Datenaustausch zu bewegen. Staaten, die Kooperation signalisiert haben, wurden nicht auf die Liste gesetzt. Widerstand kam vor allem vom Vereinigten Königreich, da zahlreiche britische Territorien als Steueroasen bekannt sind. Neben der Schwarzen Liste veröffentlichte die EU auch eine Graue Liste mit 46 Staaten. Die Listen sollen jährlich überprüft werden. Kritiker bemängeln, dass EU-interne Steueroasen wie die portugiesische Atlantikinsel Madeira oder Malta nicht berücksichtigt wurden. Bereits ein halbes Jahr später hat die EU zahlreiche Staaten wieder gestrichen, nachdem diese angekündigt haben, ihre Steuergesetze zu überarbeiten. Drei Staaten wurden neu hinzugefügt, von denen aber zwei nur zwei Monate später wieder gestrichen wurden. Innerhalb Europas rangieren beim Schattenfinanzindex die Schweiz, Luxemburg und Deutschland in der Spitzengruppe. Die Bankenkrise in der Republik Zypern, die im März 2013 eskalierte, hat weltweit Risiken von Steueroasen bewusst gemacht. Europäische Banken machen einen signifikanten Teil ihrer Gewinne in Steueroasen. Das fand die Europäische Beobachtungsstelle zur Steuerpolitik bei einer Untersuchung von 36 großen Finanzinstituten im Jahr 2021 heraus. Zu den größten Profiteuren zählen demnach die HSBC und die Deutsche Bank. Demnach verbuchten die Geldhäuser im Schnitt 20 Milliarden Euro Gewinn pro Jahr in Steueroasen. Das entspreche rund 14 Prozent ihrer gesamten Gewinne vor Steuern. Die Studie klassifiziert 17 Gebiete wie die Bahamas, aber auch EU-Länder wie Irland, Malta oder Luxemburg wegen ihrer niedrigen Steuersätze als Oasen. Insgesamt seien die Aktivitäten der Banken in Steueroasen zwischen 2014 und 2020 konstant geblieben. Die Deutsche Bank war bei den Spitzenreitern dabei und verbuchte im Schnitt 27 Prozent ihres Gewinns in Steueroasen wie zum Beispiel Luxemburg – obwohl dort nur ein sehr kleiner Teil der Mitarbeiter tätig ist. Bei einem Mindeststeuersatz von 15 Prozent müssten die untersuchten Banken aus elf Ländern laut der Studie beispielsweise drei bis fünf Milliarden Euro mehr Steuern zahlen. Auf solch eine globale Mindeststeuer für große Unternehmen hatten sich die G20-Länder im Juli 2021 prinzipiell geeinigt. Schwarze Liste von Oxfam Die Nichtregierungsorganisation Oxfam listete 2017 insgesamt 39 Staaten auf, die nach ihrer Ansicht als identifizierte Steueroasen auf der Schwarzen Liste der EU stehen sollten. Darunter befinden sich auch vier EU-Mitglieder. (EU) (EU) (EU) (Neuschottland) (EU) Schattenfinanzindex Schattenfinanzindex (Financial Secrecy Index, FSI) des Tax Justice Network: Großbritannien Viele der als Steueroasen geltenden Länder gehören zum Commonwealth; viele von ihnen waren früher britische Kolonien. Die Finanzwirtschaft hat in Großbritannien deutlich mehr Gewicht als in anderen Industrieländern. Sie ist seit etwa 1990 stark gewachsen. In der Irischen See und im Ärmelkanal liegen die drei als crown dependencies bezeichneten Inseln Isle of Man, Jersey und Guernsey (inklusive der kleinen Insel Sark). Dazu kommen 14 Britische Überseegebiete. Großbritannien wurde 1973 Mitglied der EU, sorgte aber über den Beitrittsvertrag dafür, dass beispielsweise seine Inseln Jersey und Guernsey einen Sonderstatus erhielten. Dadurch wurde gewährleistet, dass diese zwar militärisch und außenpolitisch von Großbritannien vertreten werden, im Güterverkehr der EU angeschlossen werden, bei Dienstleistungen aber als Offshore-Gebiete gelten und nicht zur EU gehören. Dadurch konnten diese Inseln Aufsichts- und Regelwerke in Kraft setzen, die nach den Maßstäben der EU unzulänglich waren. Deutsche Staatsbürger haben einem Bericht der Süddeutschen Zeitung zufolge im Jahr 2018 auf Konten insgesamt 180,8 Milliarden Euro geparkt. Das gehe aus einer Antwort des Bundesfinanzministeriums auf eine Anfrage der Linksfraktion hervor, berichtete der Spiegel im Juni 2020. Allein auf den Britischen Jungferninseln sind eine halbe Million Firmen registriert – bei einer Einwohnerzahl von 28.000. Mit Deutschland bestehen seit 2010/11 allerdings Abkommen über einen Informationsaustausch bei Steuer- und Steuerstrafsachen sowie über die Besteuerung von Zinserträgen. Im Mai 2013 forderte der britische Premierminister David Cameron die britischen Überseegebiete und Kronbesitzungen zu stärkerer Zusammenarbeit mit der Regierung und Ermittlungsbehörden auf. Er verlangte vor allem mehr Transparenz bei den Steuerdaten und den Besitzverhältnissen von Firmen. Die „Trockenlegung der Steueroasen“ bezeichnete er als Hauptziel des G8-Gipfels im Juni 2013. Deutschland Laut dem Schwarzbuch Markenfirmen sei Deutschland im Vergleich zu anderen Staaten mit Stand vom Jahr 2012 eine „Steueroase für multinationale Konzerne“. Wegen der niedrigen vermögensbezogenen Besteuerung wurde Deutschland 2013 als „Reichenparadies“ bezeichnet. Weltweit belegte Deutschland 2018 Platz 7 beim Schattenfinanzindex des Netzwerks Steuergerechtigkeit und wurde ein „sicherer Hafen für Schwarzgeld“ genannt. Deutschland wurde 2019 auf Platz 2 als eines von zehn europäischen Steuerparadiesen aufgeführt, vor Irland und Jersey. So seien ausländische Investoren von der Zinsbesteuerung befreit. Ausländische Einkünfte sind steuerfrei, unabhängig davon, ob es sich um Dividenden ausländischer Tochterunternehmen oder um Einkünfte aus ausländischen Niederlassungen handelt. Unternehmen profitieren vom deutschen Steuerumfeld, da nur 5 % der Dividenden und Kapitalgewinne mit Steuern belegt sind. Laut Daten des Bundesfinanzministeriums aus den Jahren 2018 und 2019 haben Bürger aus Deutschland insgesamt mindestens 222 Milliarden Euro auf Konten in Steueroasen außerhalb der Europäischen Union. So lagen in der britischen Kanalinsel Guernsey im Jahr 2019 etwa 11,9 Milliarden Euro von Bundesbürgern. Fast dieselbe Summe fand sich in Liechtenstein. Auf den karibischen Cayman Islands seien es an die 8,5 Milliarden Euro. Aus Singapur wurden 4,3 Milliarden Euro gemeldet. Für das Jahr 2018 sind etwas mehr als 133 Milliarden Euro gemeldet, die deutsche Steuerzahler bei Schweizer Banken geparkt hatten. Medien berichteten im Januar 2022, dass sich Unternehmen jahrelang nahezu unbehelligt in Kommunen mit niedrigen Gewerbesteuersätzen niederlassen konnten. Bund und Länder würden nun die fragwürdige Praxis überprüfen. Als Beispiel wurde ein Dienstleister in der Kleinstadt Grünwald bei München genannt, der an Unternehmen Firmensitze vermittle, denn dort müssten Unternehmen auf ihre Gewinne nicht einmal halb so viele Gewerbesteuern zahlen wie 500 Meter weiter in München. Allein unter den Adressen des Grünwalder Dienstleisters hätten sich mehr als 300 Unternehmen angesiedelt. Nach Informationen von NDR, WDR und Süddeutscher Zeitung hätten die verantwortlichen Steuerexperten von Bund und Ländern in einer vertraulichen Sitzung beschlossen, in den Bundesländern nach Fällen zu suchen. Mit dem Betreff „Gewerbesteueroasen – Briefkastenfirmen“ würden Finanzämter beispielsweise in Bayern aufgefordert, Fälle zu melden. Ähnliche Abfragen seien im Herbst 2021 auch in hessischen Finanzämtern vorgenommen worden. Als Gewerbesteueroasen benennt die Süddeutsche Zeitung, in absteigender Reihenfolge der Höhe der Einnahmen: Ingelheim am Rhein, Monheim am Rhein, Eschborn, Gräfelfing, Walldorf, Grünwald, Schönefeld, Biberach an der Riß, Zossen und Lützen, mit Gewerbesteuersätzen von 7,0 bis 11,55 Prozent. USA In den USA ist das Recht zur Registrierung von Unternehmen auf Ebene der Bundesstaaten geregelt. In zahlreichen US-Bundesstaaten ist es möglich, Unternehmen zu gründen, ohne Eigentümer oder Geschäftsführer zu benennen. Bekannte „Briefkasten-Bundesstaaten“ sind Delaware, Nevada und Wyoming. Die Regierung Obama versuchte vergeblich, Reformen zur Änderung der bestehenden Situation durch den US-Kongress zu bringen. Niederlande 2005 schaffte der Finanzstaatssekretär und spätere Wirtschaftsminister Joop Wijn mehrere Hürden ab, die Missbrauch verhindern sollten. Der Direktor für internationale Steuerangelegenheiten im niederländischen Finanzministerium warnte intern, dies werde „amerikanischen Konzernen einen enormen unzulässigen Wettbewerbsvorteil verschaffen“. Im Jahr 2015 hatten laut einem Report des Institute on Taxation and Economic Policy mehr als die Hälfte der 500 größten amerikanischen Unternehmen mindestens eine in den Niederlanden registrierte Tochterfirma; in keiner anderen Steueroase waren es mehr. Die niederländische Regierung hat der EU-Kommission zugesagt, das Steuerschlupfloch zu schließen; dies wird (Stand Oktober 2017) allerdings erst im Jahr 2020 geschehen. Der Nutzen für die Niederlande ist gering. Italien Das von MoVimento 5 Stelle und Lega Nord gebildete Kabinett Conte hat im Frühjahr 2019 ein Wachstumsdekret verabschiedet und damit die von der Vorgängerregierung (Kabinett Gentiloni) eingeführten Steuervergünstigungen für Spitzenverdiener noch ausgeweitet. Davon profitieren Italiener, die ihren Wohnsitz nach Italien zurückverlegen, und Ausländer, die ihren Steuersitz nach Italien verlagern. Weitere Steueroasen innerhalb der EU Neben den Niederlanden gelten Belgien, Irland, Luxemburg, Malta, Ungarn und Zypern als weitere Staaten mit aggressiven Steuerpraktiken in Bezug auf die Unternehmensbesteuerung. Im März 2018 wurden diese sieben EU-Mitgliedsstaaten von der Europäischen Kommission „zurechtgewiesen“. Die Steuerpraktiken untergraben die Gerechtigkeit und gleiche Wettbewerbsbedingungen auf dem europäischen Binnenmarkt, erklärte Wirtschaftskommissar Pierre Moscovici. Literatur Nicholas Shaxson: Schatzinseln: Wie Steueroasen die Demokratie untergraben (Originaltitel: Treasure Islands: Dirty Money, Tax Havens and the Men Who Stole the World übersetzt von Peter Stäuber) Rotpunkt, Zürich 2011, ISBN 978-3-85869-460-7. Alain Deneault: Offshore: Tax Havens and the Rule of Global Crime The New Press, New York 2011, ISBN 978-1-59558-648-3. Gabriel Zucman: Steueroasen: Wo der Wohlstand der Nationen versteckt wird. Suhrkamp, Berlin 2014, ISBN 978-3-518-06073-5. Richard Murphy: Dirty Secrets: How Tax Havens Destroy the Economy. Verso, London 2017, ISBN 978-1-78663-167-1. Weblinks Das OECD-Projekt gegen „schädlichen Steuerwettbewerb“ Attac-Deutschland Aktionsseite Steuerflucht Internationales Netzwerk Steuergerechtigkeit Oxfam (Publikation zur Thematik) (im Internet Archive in der Version vom 25. November 2006) Definitionen von Rechtsbegriffen, SteuerDatenklau und Völkerrecht, Datenbanken, Philosophische Betrachtungen Tax Justice Network: Studie (2012, 46 S.) (PDF; 601 kB): in Steueroasen werden 21 bis 32 Billionen Dollar gebunkert. Dadurch sollen den Staaten Einkommensteuern von bis zu 280 Milliarden Dollar entgangen sein. Offshore-Leaks (seit April 2013): Offshore-Leaks: 2,5 Millionen Dokumente mit Namen von 130.000 Personen aus 170 Ländern sind an die Süddeutsche Zeitung und andere Medien gelangt spiegel.de: die Steueroasen-Affäre zeigt: Die Branche stiehlt sich aus der Verantwortung – und schiebt die Schuld lieber ihren Kunden zu (ein Kommentar) spiegel.de: Datenleck erschüttert Steueroasen weltweit Ölbaron spart sämtliche Steuern durch ständiges Reisen (Mai 2013) FAZ (August 2013): „Aggressive Steuerplanung“, Verschiebung von Gewinnen Einzelnachweise Internationales Steuerrecht Choronym
Q272051
86.369527
4411649
https://de.wikipedia.org/wiki/Googleplex
Googleplex
Das Googleplex ist der Unternehmenssitz des US-amerikanischen Unternehmens Google LLC und befindet sich in Mountain View, Kalifornien. Die ursprüngliche Anlage mit ca. 185.806 m² ist flächenmäßig das zweitgrößte Gebäude von Google (Nr. 1 ist das 269.418 m² große Gebäude 111 Eighth Avenue in New York City, 2010 von Google gekauft). Sobald der 102.193 m² große Anbau fertiggestellt wird, ist es mit 287.999 m² das größte Gebäude von Google. Der Begriff Googleplex ist sowohl ein Kofferwort aus Google und complex als auch eine Anspielung auf Googolplex, die Bezeichnung für die Zahl 10googol(1010100). Ursprünglich wurde das Wort von Edward Kasner und James Newman im Jahr 1940 in dem Buch Mathematics and the imagination definiert. Es wurde auch in dem Buch Per Anhalter durch die Galaxis von 1979 verwendet und bezeichnet dort den Googleplex Starthinker. Einrichtung und Geschichte Ursprünglicher Campus SGI-Campus Die vier Kerngebäude, insgesamt 47.038 m² groß, wurden ursprünglich von Silicon Graphics erbaut und genutzt. Die Büroflächen und der Campus nehmen 110.000 m² ein, davon sind 20.000 m² der öffentlich zugängliche Charleston Park, der an einen 21,4 km langen Bach anliegt. Das Projekt, das im Jahr 1994 ins Leben gerufen wurde, wurde auf dem Gelände eines Arbeitslagers für Strafgefangene errichtet und gehörte zu dem Zeitpunkt noch der Stadt (in den Planungsunterlagen als Ackerfläche bezeichnet) und entstand in Zusammenarbeit von SGI, der SWA Group aus San Francisco, Sausalito und der Planning and Community Development Agency der Stadt Mountain View. Ziel war es, eine in Privatbesitz liegende Konzernzentrale mit anliegender öffentlicher Grünfläche zu entwickeln. Die Pläne für das Gelände sahen einen unterirdischen Parkplatz für 2000 Autos vor, so dass SWA die beiden freien Flächen mit Wasserspielen, flachen Teichen, Brunnen, Wegen, Plätzen und einer gigantischen Statue eines Dinosauriers integrieren konnte. Im Jahr 1997 wurde das Projekt fertiggestellt. Die American Society of Landscape Architects wies 1999 darauf hin, dass das SGI-Projekt eine erhebliche Abweichung von typischen Firmengeländen war und eine Herausforderung für das konventionelle Denken über privaten und öffentlichen Raum ist. Studios Architecture war das ausführende Architektenbüro für das Original SGI Campus unter der Bedingung sowohl für die Innenarchitektur als auch für das Gebäudedesign zuständig zu sein. Google-Campus Ab 2003 wurde der Komplex von Google gemietet, im Jahre 2005 wurde eine Neugestaltung der Innenräume von Clive Wilkinson Architects abgeschlossen, im Juni 2006 kaufte Google die Gebäude von vier verschiedenen Immobilienfirmen für 319 Millionen US-Dollar. Weil die Gebäude alle ziemlich flach sind, nehmen sie viel Fläche in Anspruch. Das Innere des Hauptsitzes ist mit Gegenständen wie Lampenschirmen und Gummibällen ausgestattet. Die Lobby verfügt über ein Klavier und eine Projektion der gerade bearbeiteten Google-Suchanfragen. Die Anlagen enthalten eine Sporthalle (Gebäude 40), kostenlose Wäschereien (Gebäude 40, 42 und CL3), zwei kleine Schwimmbäder, einen Beach-Volleyball-Platz und achtzehn Kantinen mit verschiedener Auswahl. Google hat außerdem Nachbildungen des SpaceShipOne und eines Dinosaurierskeletts aufgestellt. Von Ende 2006 bis Anfang 2007 hat das Unternehmen eine Reihe von Solarmodulen installiert, welche im Stande sind, ungefähr 1,6 Megawatt Elektrizität zu erzeugen. Zu dieser Zeit war dies die größte private Installation der Vereinigten Staaten. Etwa 30 Prozent der benötigten Energie des Googleplex stammen von diesem Projekt, der Rest wird von anderen Anbietern eingekauft. Ein Drittel der Module wurde auf den Verdecken der Parkparzellen montiert, die übrigen auf Dächern der Anlage. Das Solarmodul-Projekt wurde am 18. Juni 2007 in Betrieb genommen. Am 21. Juni 2007 hatte Google bereits 90 Prozent der 9.212 Module installiert. Vier 100 kW starke Bloom Energy Server wurden im Juli 2008 an Google ausgeliefert, so dass Google der erste Kunde von Bloom Energy war. Bay-View-Anbau Im Jahre 2013 begann der Bau eines neuen 102.193 m² großen Hauptsitzes, genannt „Bay View“, neben dem ursprünglichen Campus auf einer 17 Hektar großen Fläche, von der NASA Ames Research Center gemietet und mit Blick auf die Bucht von San Francisco, in der Nähe von Moffett Federal Airfield. Die geschätzten Kosten des Projekts belaufen sich auf 120 Millionen Dollar mit dem Zieleröffnungsdatum von 2015. NBBJ ist das Architektenbüro, das es Google erlaubt hat, das erste Mal sein eigenes Gebäude zu entwerfen, anstatt in ein Gebäude von früheren Unternehmen zu ziehen. Der Komplex befindet sich an der nordöstlichen Ecke der Anlage an der Stevens Creek Nature Area / Shoreline Park. Vor der Bekanntgabe des Baus der Anlage hat Google angestrebt bei Mountain View die Erlaubnis für eine Brücke über den Stevens Creek zu bauen. Google hat im Jahresendbericht 2012 feststellen müssen, dass sie nur das Budget für eine 3 Hektar große Fläche haben, anstatt der 17 Hektar. Standort Das Googleplex liegt in der Nähe des Shoreline Amphitheatre im Norden, von Intuit im Nordwesten sowie vom Forschungskomplex von Microsoft und von der Mozilla Foundation und dem Computer History Museum im Süden. Es liegt zwischen der Charleston Road, Amphitheatre Parkway und Shoreling Boulevard im Norden von Mountain View, Kalifornien nah am Feuchtbiotop Shoreline Park. Die Mitarbeiter, die in East Bay oder South Bay in San Francisco leben, können ein kostenloses WiFi-fähiges Google-Shuttle von und zur Arbeit nehmen. Die Shuttle Busse werden von einem Kraftstoffgemisch aus 95 % Erdöldiesel und 5 % Biodiesel angetrieben und verfügen über die neueste Technologie zur Reduzierung von Emissionen. Andere Google-Mountain-View-Standorte Google hat im Jahresendbericht 2012 angegeben, es besitze 32,5 Hektar Bürofläche in Mountain View. Google hat einen weiteren großen Campus in Mountain View, genannt „The Quad“, bei 399 N WhismanRoad etwa 5 Kilometer von Googleplex entfernt. Zusätzlich gibt es das Google X Lab, welches das Entwicklungslabor für Artikel wie das Google Glass ist. Das Gebäude ist ein normales zweistöckiges rotes Backsteinhaus etwa eine halbe Meile vom Googleplex entfernt. Es hat Brunnen vor der Tür und Reihen von vom Unternehmen zur Verfügung gestellten Fahrrädern, welche die Mitarbeiter verwenden können, um zum Hauptcampus zu gelangen. Weblink Einzelnachweise Google Bürogebäude in den Vereinigten Staaten Bauwerk im Santa Clara County Erbaut in den 1990er Jahren Mountain View (Santa Clara County, Kalifornien) Kofferwort
Q694178
109.131226
3191
https://de.wikipedia.org/wiki/Manich%C3%A4ismus
Manichäismus
Der Manichäismus war eine stark von der Gnosis beeinflusste Offenbarungsreligion der Spätantike und des frühen Mittelalters. Seine organisierte Anhängerschaft war unterteilt in die Elite der „Auserwählten“ (), aus der sich die Amtsträger rekrutierten, und die einfachen Gemeindemitglieder, die „Hörer“ (auditores). Insbesondere von den electi verlangte er Askese und ein Bemühen um die Reinheit, die als Voraussetzung für die angestrebte Erlösung galt. Das Adjektiv „manichäisch“ wird in den Sozialwissenschaften auch verwendet, um in gut und böse vereinfachende Weltbilder zu charakterisieren. Der Manichäismus ist nach seinem Gründer, dem Perser Mani (lateinisch Manes oder Manichaeus, 216–276/277), benannt. Er wird zu den synkretistischen Lehren gezählt, da Mani ältere Religionen als authentisch anerkannte und einzelne ihrer Ideen in seine Religion aufnahm. Der Manichäismus wird wegen seiner Ausbreitung bis in den Westen des Römischen Reichs und bis ins Kaiserreich China mitunter als Weltreligion bezeichnet; die Berechtigung einer solchen Bezeichnung hängt von der Definition des unscharfen Begriffs Weltreligion ab. Mit der Genehmigung des Sassanidenkönigs Schapur I., der von 240/42 bis 270 regierte, konnte Mani seine Lehre im Perserreich verbreiten, zunächst in Babylonien und im Südwesten Irans. Im mittelpersischen Schabuhragan, das Mani selbst verfasst haben soll, erklärt er Schapur seine Doktrin. Der Sassanidenkönig Bahram I., der von 273 bis 276/77 herrschte, ließ ihn jedoch auf Betreiben des zoroastrischen Oberpriesters Kartir verhaften. Mani starb in der Gefangenschaft an den dort erlittenen Entbehrungen; es handelte sich aber nicht um eine Hinrichtung. In manichäischen Quellen wird sein Tod dennoch in bewusster Analogie zum Tod Christi als Kreuzigung bezeichnet, was aber nur metaphorisch gemeint ist. Manis Lehre ist durch die Unterscheidung von zwei Naturen oder Prinzipien und drei Epochen der Heilsgeschichte gekennzeichnet: Die zwei Naturen sind die des Lichts und die der Finsternis. Die drei Epochen sind die vergangene Zeit, in der die beiden Naturen vollständig getrennt waren, dann die (noch andauernde) Zeit, in welcher der Bereich der Finsternis mit Lichtelementen vermischt ist, und schließlich eine künftige Zeit, in der sie wieder (endgültig) getrennt sein werden. Wegen der Unterscheidung zweier absolut verschiedener und gegensätzlicher Naturen und der ihnen zugeordneten Reiche wird der Manichäismus zu den dualistischen Modellen gezählt. Quellen Als Quellen dienen sowohl Schriften manichäischer Autoren als auch Werke christlicher und muslimischer Autoren, die gegen den Manichäismus polemisierten. Obwohl Mani Werke hinterließ, die für seine Anhänger von fundamentaler Bedeutung waren und daher weite Verbreitung fanden, waren bis ins 20. Jahrhundert keine manichäischen Originalschriften bekannt. In der Frühen Neuzeit und im 19. Jahrhundert standen nur antimanichäische Quellen zur Verfügung, denen immerhin einzelne Zitate aus der manichäischen Literatur entnommen werden konnten. Manichäische Schriften wurden in der Antike und im Mittelalter vernichtet, da der Manichäismus in allen Gebieten, in denen er sich ausgebreitet hatte, im Lauf der Zeit unterdrückt bzw. von anderen Religionen verdrängt wurde. Erst im Lauf des 20. Jahrhunderts wurde eine größere Zahl von manichäischen Handschriften entdeckt, die allerdings teilweise nur als Fragmente in schlechtem Erhaltungszustand überliefert sind. Ein noch nicht ausgewerteter Teil dieser Handschriften ging nach dem Ende des Zweiten Weltkriegs wiederum verloren. Während die polemischen Schriften der Gegner großteils ein verzerrtes Bild zeichnen, sind auch die manichäischen Bücher, die für erbauliche oder liturgische Zwecke bestimmt waren, als Quellen für die historischen Vorgänge problematisch, weil sie mit vielen legendenhaften Elementen durchsetzt sind. Sie vermitteln aber authentische Informationen über die Lehre und die liturgische Praxis. Wichtige nichtmanichäische Quellen sind: verschiedene Schriften des Kirchenvaters Augustinus von Hippo, der vor seiner Hinwendung zum Christentum Manichäer gewesen war, vor allem seine Bekenntnisse sowie der Genesiskommentar gegen die Manichäer. die Acta Archelai des griechischen Kirchenvaters Hegemonius aus dem 4. Jahrhundert, die vollständig nur in einer lateinischen Übersetzung erhalten sind. Sie fingieren zwei Streitgespräche zwischen Mani und dem christlichen Bischof Archelaos. Die Acta Archelai haben die christliche antimanichäische Literatur stark beeinflusst. der 988 in Bagdad verfasste große arabische Literaturkatalog kitāb al-Fihrist des schiitischen Gelehrten ibn an-Nadīm. Seine Angaben fußen ebenso wie Berichte späterer arabischsprachiger Autoren auf einer verlorenen Darstellung des Manichäers Abū ʿĪsā al-Warrāq, der im 9. Jahrhundert gelebt hatte. das Werk Die verbliebenen Denkmäler der vergangenen Generationen (auch als Chronologie bekannt), das der persische Gelehrte al-Bīrūnī im Jahr 1000 verfasste. Unter den manichäischen Quellen sind hervorzuheben: die Fragmente ältester manichäischer Literatur, die aus der Oase Turfan in Ostturkestan stammen. Sie wurden zwischen 1902 und 1914 von Forschern des Berliner Völkerkundemuseums entdeckt. Die Turfantexte sind teils in iranischen Sprachen (Parthisch, Mittelpersisch und Sogdisch), teils in uigurischer Sprache verfasst. manichäische Texte in chinesischer Sprache, die zu Beginn des 20. Jahrhunderts in Dunhuang aufgefunden wurden. Texte aus manichäischen Handschriften in koptischer Sprache (darunter Predigten), die in Medinet Madi in Ägypten gefunden und zwischen 1933 und 1940 veröffentlicht wurden. Sie stammen aus dem späten 3. und aus dem 4. Jahrhundert. der Kölner Mani-Kodex, eine griechische Pergamenthandschrift aus Ägypten, die erst in den späten 1960er Jahren in der Kölner Papyrussammlung entdeckt wurde. Er enthält eine spätantike Biografie Manis unter dem Titel Über das Werden seines Leibes, die aus älteren Darstellungen kompiliert ist; sie überliefert autobiografische Aussagen Manis und fußt auf Berichten seiner Jünger. Dank dieser erstrangigen Quelle konnten die Angaben der schon früher ausgewerteten Quellen korrigiert und ergänzt werden. Geschichtliche Entwicklung Entstehung und Selbstverständnis In der Zeit, in der Mani heranwuchs, war das Perserreich zoroastrisch geprägt, aber Mani wuchs in einem judenchristlichen Umfeld auf. Nach seiner im Kölner Mani-Kodex überlieferten Lebensbeschreibung gehörte er als Jugendlicher ebenso wie sein Vater den Elkesaiten an, einer christlichen Täufergemeinschaft. Noch in seiner Jugend hatte Mani Offenbarungserlebnisse. Nach seinen Angaben erlebte er mit zwölf Jahren zum ersten Mal eine Erscheinung seines von Gott gesandten Gefährten, der ihm bis zu seinem vierundzwanzigsten Lebensjahr „all das offenbarte, was war und sein wird, all das, was die Augen sehen, die Ohren hören und der Gedanke denkt“. Nach dem Abschluss dieser Offenbarungen löste er sich von den Elkesaiten. Reisen in den Osten brachten ihn in Kontakt mit dem Mahayana-Buddhismus. Mani hielt die Religionen, mit denen er sich auseinandersetzte, für unzulänglich, da ihre Lehren nicht klar genug schriftlich fixiert seien und ihre Anhänger daher um die Auslegung stritten. Daher bemühte er sich, die Inhalte seiner Religion noch zu seinen Lebzeiten aufschreiben zu lassen, die Lehre eindeutig zu formulieren, um Schismen zu vermeiden, und sie weltweit zu verbreiten. Er missionierte im Perserreich, seine Anhänger brachten den Manichäismus nach Westen ins Römische Reich, nach Osten bis in das Kaiserreich China. Mani verstand sich selbst als Nachfolger der großen Religionsstifter Zarathustra, Siddhartha Gautama (Buddha) und Jesus. Entsprechend stellt der Manichäismus eine synkretistische Lehre dar, die sowohl zoroastrische und christliche als auch buddhistische Elemente enthält. Auch die geistige Strömung des Gnostizismus hatte Einfluss auf Manis Religion. Das führte dazu, dass der Manichäismus im Mittelmeerraum als „Kirche des heiligen Geistes“ auftrat und der Prophet Mani als der von Christus verheißene Paraklet galt, in anderen Teilen der Welt der Religionsstifter als Wiedergeburt des Laozi oder als neuer Buddha gesehen wurde. Ausbreitung Der Manichäismus breitete sich in der Spätantike im 3. und 4. Jahrhundert rasch in Persien und den umliegenden Regionen aus. Ein Bruder des persischen Großkönigs Schapur I. konvertierte zum Manichäismus, unter Schapurs Nachfolgern wurden die Manichäer jedoch verfolgt. Ende des 4. Jahrhunderts war der Manichäismus auch in vielen Teilen des Römischen Reiches präsent. Diokletian, der die göttlich abgeleitete Deutungshoheit allein beim Kaiser sah, wollte weltanschauliche Erklärungsversuche weder dem Christentum noch den Manichäern überlassen und ging gegen beide Religionen gesetzlich vor. Sein Manichäeredikt drohte den Anhängern bei Verbreitung der Lehre den Tod an und die anschließende Konfiszierung ihres Vermögens. Das Reskript fand nacheinander Einlass in den Codex Gregorianus und nebst Proömium in die Mosaicarum et Romanarum legum collatio, weshalb es noch heute präzise Auskunft gibt. Ein weiteres Edikt unter Valentinian, überliefert durch den Codex Theodosianus, brandmarkte die Manichäer als Unehrenhafte, die es zu vertreiben galt. Durch rege Missionstätigkeit breitete sich der Manichäismus bis in das Kaiserreich China und Spanien aus. Der Manichäismus wurde 762 unter Bögü Khan Staatsreligion der Uiguren. Die Gründe für den großen missionarischen Erfolg des Manichäismus sind bisher nicht völlig geklärt. Ein Faktor war sicherlich seine Anpassungsfähigkeit an lokale Gegebenheiten: Die Manichäer passten den Wortschatz ihrer Lehre im Osten dem Buddhismus und im Westen dem Christentum an, wobei der spezifische Gehalt ihrer religiösen Botschaft und ihre Identität trotz der unterschiedlichen Terminologie bemerkenswert homogen waren. In Westeuropa gelangte der Einfluss der manichäischen Gemeinden vor allem nach Oberitalien, Spanien, Südfrankreich, teilweise sogar bis in die Rheinebene sowie nach Flandern und Holland. Er war zeitweise eine ernsthafte Konkurrenz für das Christentum und hielt sich trotz heftiger Verfolgung bis ins fünfte Jahrhundert. In China ging die Religion etwa im 14. Jahrhundert unter. Die Manichäer im südwestlichen China zählten zu den einflussreichen Rebellengruppen. Reaktionen von Neuplatonikern, Christen und Muslimen Im späten dritten Jahrhundert setzte sich der neuplatonische Philosoph Alexander von Lykonpolis kritisch mit dem Manichäismus auseinander. Er hielt ihn für die extremste der pervertierten Varianten des Christentums, die von Sektengründern eingeführt worden seien. Es handle sich um eine irrationale Lehre, die Behauptungen aufstelle, ohne sie plausibel machen zu können. Die Manichäer seien ungebildete, zu logischem Denken unfähige Menschen; ihre Kosmologie und Kosmogonie sei wirr und phantastisch. In Nordafrika war der spätere christliche Kirchenvater Augustinus von Hippo zehn Jahre Hörer (Auditor) der Manichäer. Nach seiner Abwendung von dieser Lehre (und der Hinwendung zum Neuplatonismus und anschließend zum Christentum) bestimmten seine polemischen Schriften gegen die Manichäer bis in das 20. Jahrhundert die europäischen Vorstellungen vom Manichäismus. In welchem Umfang der Manichäismus Augustinus’ Denken mit formte und so Eingang ins (vor allem westliche) Christentum fand, ist nicht bis ins Letzte geklärt. Alfred Adam vertritt die These, Augustinus sei auch als Christ vom Manichäismus beeinflusst gewesen, und führt Lehren wie den starken Dualismus (Staaten des Guten und Bösen in seinem Werk De civitate dei), die Fegefeuerlehre (Inkarnation der „Hörer“), die Höllenlehre, die Erbsündenlehre, die Lehre der doppelten Prädestination, den Kreislauf (zwei Staaten zu Anfang und zum Ende) und die Körper- und Sexualfeindlichkeit auf den Manichäismus zurück. Auch im Islam fand eine Auseinandersetzung mit Vertretern manichäischer Lehren statt. Bedeutende Persönlichkeiten, die dem Manichäismus zugerechnet wurden, waren Ibn al-Muqaffaʿ und Abū ʿĪsā al-Warrāq. Allerdings hängt der Manichäismus Ibn al-Muqaffaʿs an einer Schrift, die nur in Fragmenten innerhalb einer Widerlegung des Zaiditen al-Qāsim ibn Ibrāhīm (gestorben 860) überliefert ist. Ob Ibn al-Muqaffaʿ wirklich der Autor war, ist unklar. Durch christliche und muslimische Kritik und politische Verfolgungen geriet der Manichäismus im 6. und 7. Jahrhundert stark in die Defensive. Neumanichäische Gruppierungen wie die Bogomilen und die Katharer wurden im Hochmittelalter als Ketzer verfolgt. Organisation der manichäischen Gemeinschaft Mani unterteilte seine Anhänger in zwei Gruppen, die Hörer (auditores) und die Auserwählten (electi). Den Auserwählten wurden drei ethische Grundsätze (oder Siegel) auferlegt. Die Hörer sollten diese zumindest am Sonntag befolgen. Siegel des Mundes, mit der Enthaltung von Fleisch, Blut, Wein, Früchten und Fluchworten. Siegel der Hände, mit der Enthaltung von jeglicher körperlichen Arbeit. Nur zur Begrüßung durfte die rechte Hand gereicht werden. Vom Siegel der Hände nicht betroffen waren rituelle Handauflegungen. Siegel der Enthaltsamkeit, mit dem Verbot jeglichen Geschlechtsverkehrs. Für den Ritus wichtig waren Gebete, das Rezitieren von Hymnen, die Eucharistiefeier, die wöchentliche Beichte und magische Rituale. Gebete Aus den erhaltenen Quellen geht hervor, dass die Manichäer tägliche Gebete beachteten, jeweils vier für die Hörer und sieben für die Auserwählten. Die Quellen geben dabei unterschiedliche Gebetszeiten an. Ibn an-Nadīm nennt Mittag, Nachmittag, nach dem Sonnenuntergang und den Einbruch der Nacht. Al-Bīrūnī nennt Mittag, Einbruch der Nacht, Abend und Sonnenaufgang. Die Auserwählten beteten zusätzlich in der Mitte des Nachmittags, eine halbe Stunde vor dem Einbruch der Nacht und Mitternacht. Der Bericht Ibn Nadims enthält wahrscheinlich eine Anpassung an die islamischen Gebetszeiten, während al-Bīrūnīs Bericht ältere, vom Islam unbeeinflusste, Traditionen reflektiert. Als Al-Nadims Bericht über die täglichen Gebet die einzige erhältliche Quelle war, war man besorgt, dass es sich hierbei um kein ursprünglich manichäisches Gebet, sondern eine Übernahme aus dem Islam zur Zeit der Abbasiden-Kalifat handeln würde. Mittlerweile ist allerdings klar, dass der Text Ibn Nadims mit den Beschreibungen ägyptischer Texte aus dem 4. Jahrhundert übereinstimmen. Jedes Gebet beginnt mit einer rituellen Waschung mit Wasser. Falls Wasser nicht erreichbar ist, können auch andere Substanzen, die dem Wasser ähneln, verwendet werden. Die Reinwaschung ähnelt dabei der rituellen Gebetswaschung im Islam und beinhaltet diverse Segnungen der Propheten und Geister. Das Gebet besteht darin sich zum Boden hin zu verneigen und dann wieder aufzustehen. Dies wird pro Gebet zwölfmal wiederholt. Während des Tages galt die Sonne als Gebetsrichtung und während der Nacht der Mond. Sollte der Mond nicht sichtbar sein, wandte man sich zum Norden. Wie aus der Schrift Faustus von Mileve hervorgeht sind nicht die himmlischen Körper selbst der Gegenstand der Anbetung, sondern gelten als Übermittler der Lichtpartikel aus der Welt Gottes, der selbst allerdings nicht gesehen werden kann, da er jenseits von Zeit und Raum existiert. Nach Augustinus von Hippo betete man zehnmal. Das erste Gebet ist dabei Gott (Vater der Herrlichkeit) gewidmet, um vom Kreislauf der Wiedergeburt befreit zu werden. Die darauffolgenden Gebete sind für die niederen Geister, Engel und die Auserwählten. Ähnliches geht aus dem Bekenntnis der Uiguren hervor: Vier Gebete sind Gott (Äzrua), dem Geist der Sonne und des Mondes, der Fünffaltigkeit und den Buddhas gewidmet. Manichäische Heilsgeschichte Im Mittelpunkt der manichäischen Lehre steht die Darstellung der vergangenen und künftigen Geschichte der Menschheit als Heilsgeschichte. Am Anfang war das Lichtreich Gottes, dessen Wesen fünf Denkformen umfasste: Vernunft, Denken, Einsicht, Sinne und Überlegung. Demgegenüber steht das Reich der Finsternis, bestehend aus Rauch, Feuer, Wind, Wasser und Finsternis. In diesem Reich herrscht Kampf und Uneinigkeit. Während seiner inneren Kämpfe attackiert die Finsternis das Licht. Gott, der Vater, ist Friede und will daher keinen Kampf. Aus diesem Grund sendet er seinen Sohn in den Kampf, damit dieser von der Finsternis gefangen genommen wird. Durch das Opfer seines Sohnes bleibt zum einen das Lichtreich unversehrt, zum anderen wird der endgültige Sieg über die Finsternis damit vorbereitet. Um die Lichtelemente zu retten, wird die Welt erschaffen; dabei bildet der „lebendige Geist“ die übrig gebliebenen Lichtelemente zu Sonne, Mond, Gestirnen, Himmel und Erde, die somit eine Vermischung von Licht und Finsternis darstellen. Erst der „dritte Gesandte“, nach Urmensch (Gayomarth) und lebendigem Geist, setzt die Räder (Feuer, Wasser und Wind) in Bewegung, welche das Licht nach oben zur Milchstraße ableiten und letztendlich an die Sonne weitergeben. Danach enthüllt sich der „dritte Gesandte“ zum Menschenpaar (Adam und Eva), das fortan für das Weltschicksal verantwortlich ist. Um ihrer Rolle gerecht werden zu können, sendet der „dritte Gesandte“ schließlich auch „Jesus den Glanz“, der den Menschen über die „göttliche Vernunft“ aufklärt. In der manichäischen Weltsicht stehen sich das göttliche Lichtreich und das Reich der Finsternis in absoluter Gegnerschaft gegenüber. Ein Hauptgrundsatz lautet, dass die in der Finsternis gefangenen Lichtelemente keinesfalls verletzt werden dürfen, da dies ihre Befreiung behindert. Daher ist es untersagt, Lebewesen zu töten. Bei der Befreiung der Lichtelemente haben die „Auserwählten“ eine Schlüsselrolle zu spielen. Sie vermeiden jegliche Verletzung des eingeschlossenen Lichtes und alles, was dessen Gefangenschaft verlängern kann, indem sie sich des Geschlechtsverkehrs enthalten und weder Menschen noch Tiere oder Pflanzen verletzen. Die Nahrung wird ihnen von den „Hörern“ besorgt. In der Verdauung der Auserwählten wird das Licht von der Finsternis geschieden, und durch Gesang und Gebet kann es wieder zu Gott zurückkehren. Wenn die Lichtbefreiung fast vollendet und die materielle Welt zu einem Klumpen zusammengeschmolzen ist, tritt die Endzeit der manichäischen Heilsgeschichte ein. Eine Neuerstehung, nach der endgültigen Trennung von Licht und Finsternis, findet nicht statt. Die Heilsgeschichte endet mit der vollständigen und endgültigen Trennung von Licht und Finsternis. Übertragung der Bezeichnung „Manichäer“ auf andere Gruppen Bereits in der Spätantike wurde der Begriff „Manichäer“ von Christen oft als Synonym für „Häretiker“ benutzt. Daher ist es in manchen Fällen schwer zu entscheiden, ob es sich bei den so bezeichneten heterodoxen Gruppen tatsächlich um Manichäer handelte. Auch nachdem der Manichäismus als eigene Religion in Europa verschwunden war, hielt sich die Bezeichnung als polemischer Ausdruck für ketzerische Gruppen, auch wenn diese inhaltlich keine Übereinstimmungen mit der manichäischen Lehre aufwiesen. Parallelen zum manichäischen Dualismus sind bei den mittelalterlichen Bogomilen und Katharern (Albigensern) erkennbar. Beide werden in zeitgenössischen Schriften ihrer Gegner als Manichäer bezeichnet. Ein historischer Zusammenhang dieser Strömungen mit dem Manichäismus ist nicht erwiesen. In der Gegenwart wird der Begriff verwendet, um Ideologien zu kennzeichnen, die die Welt ohne Zwischentöne in Gut und Böse einteilen, wobei sie den Feind zum existenziell bedrohlichen, wesenhaft Bösen stilisieren. Dem liegt zumeist ein eschatologischer Zug zugrunde. Als manichäisch in diesem Sinne werden in den Sozialwissenschaften etwa christlicher Millenarismus, Antisemitismus, der Nationalsozialismus und verschiedene Verschwörungstheorien beschrieben. Textausgaben und Übersetzungen Alexander Böhlig (Hrsg.): Die Gnosis. Band 3: Der Manichäismus. Patmos, Düsseldorf 2007, ISBN 978-3-491-69146-9 (übersetzte Quellentexte mit informativer Einleitung). Iain Gardner (Hrsg.): The Kephalaia of the Teacher. The Edited Coptic Manichaean Texts in Translation with Commentary. Brill, Leiden 1995, ISBN 90-04-10248-5. Iain Gardner, Samuel N. C. Lieu (Hrsg.): Manichaean Texts from the Roman Empire. Cambridge University Press, Cambridge 2004, ISBN 0-521-56090-X (Quellentexte in englischer Übersetzung). Hans-Joachim Klimkeit (Hrsg.): Hymnen und Gebete der Religion des Lichts. Iranische und türkische liturgische Texte der Manichäer Zentralasiens (= Abhandlungen der Rheinisch-Westfälischen Akademie der Wissenschaften. Band 79). Westdeutscher Verlag, Opladen 1989, ISBN 3-531-05096-6. Siegfried G. Richter, Wolf-Peter Funk: Psalmengruppe 1. Die Sonnenhymnen des Herakleides. Die Synaxis-Psalmen (= The Manichaean Coptic Papyri in the Chester Beatty Library. Psalm Book, Part 1, Fasc. 1; Corpus fontium manichaeorum. Series coptica 1. Liber psalmorum, part 1, fasc. 1). Turnhout, Brepols 2021, ISBN 978-2-503-59788-1. Markus Stein (Hrsg.): Manichaica Latina (= Papyrologica Coloniensia. Band 27.1–4). 4 Bände in 5 Teilen. Hrsg. von der Nordrhein-Westfälischen Akademie der Wissenschaften. 1998–2006 (kritische Edition der lateinischen Fassungen manichäischer Schriften mit Übersetzung und Kommentar): Band 1: Epistula ad Menoch. Westdeutscher Verlag, Opladen/Wiesbaden 1998, ISBN 3-531-09946-9. Band 2: Manichaei epistula fundamenti. Schöningh, Paderborn u. a. 2002, ISBN 3-506-71481-3, (zugleich Köln, Universität, Habilitationsschrift, 1999–2000). Band 3,1: Codex Thevestinus. Schöningh, Paderborn u. a. 2004, ISBN 3-506-71779-0. Band 3,2: Codex Thevestinus. Photographien. Schöningh, Paderborn u. a. 2006, ISBN 3-506-72982-9. Band 4: Manichaei Thesaurus. Schöningh, Paderborn u. a. 2016, ISBN 978-3-506-78699-9. Werner Sundermann (Hrsg.): Die Rede der Lebendigen Seele, ein manichäischer Hymnenzyklus in mittelpersischer und soghdischer Sprache. Brepols, Turnhout 2012, ISBN 978-2-503-54627-8 (kritische Edition mit Übersetzung). Nahal Tajadod (Hrsg.): Mani, le bouddha de lumière. Catéchisme manichéen chinois. Éditions du Cerf, Paris 1990, ISBN 2-204-04064-9 (Text mit französischer Übersetzung und Kommentar). Literatur Übersichtsdarstellungen Manfred Hutter: Manichäismus. In: Reallexikon für Antike und Christentum. Band 24. Hiersemann, Stuttgart 2012, ISBN 978-3-7772-1222-7, Sp. 6–48. Johannes van Oort: Augustine and Manichaean Christianity: Selected Papers from the First South African Conference on Augustine of Hippo, University of Pretoria, 24–26 April 2012 BRILL, 01.08.2013, ISBN 9789004255067. Einführungen und Gesamtdarstellungen Ludwig Koenen, Cornelia Römer: Mani. Auf der Spur einer verschollenen Religion. Herder, Freiburg 1993, ISBN 3-451-23090-9 (enthält eine Übersetzung des Kölner Mani-Kodex). Kurt Rudolph: Die Gnosis. Wesen und Geschichte einer spätantiken Religion. 3. Auflage. Vandenhoeck & Ruprecht, Göttingen 1994. Geo Widengren: Mani und der Manichäismus. Kohlhammer, Stuttgart 1961. Sammlungen von Aufsätzen zu einzelnen Themen Jason BeDuhn (Hrsg.): New Light on Manichaeism. Papers from the Sixth International Congress on Manichaeism. Brill, Leiden 2009, ISBN 978-90-04-17285-2. Jacob Albert van den Berg u. a. (Hrsg.): ‘In Search of Truth’: Augustine, Manichaeism and other Gnosticism. Studies for Johannes van Oort at Sixty (= Nag Hammadi and Manichaean Studies. Band 74). Brill, Leiden 2011, ISBN 978-90-04-18997-3. Paul Mirecki, Jason BeDuhn (Hrsg.): The Light and the Darkness. Studies in Manichaeism and its World. Brill, Leiden 2001, ISBN 90-04-11673-7. Paul Mirecki, Jason BeDuhn (Hrsg.): Emerging from Darkness. Studies in the Recovery of Manichaean Sources. Brill, Leiden 1997, ISBN 90-04-10760-6. Siegfried G. Richter, Charles Horton, Klaus Ohlhafer (Hrsg.): Mani in Dublin. Selected Papers from the Seventh International Conference of the International Association of Manichaean Studies in the Chester Beatty Library, Dublin, 8–12 September 2009 (= Nag Hammadi and Manichaean Studies. Band 88). Brill, Leiden 2015, ISBN 978-90-04-28836-2. Untersuchungen zum Manichäismus im Westen John Kevin Coyle: Manichaeism and Its Legacy. Brill, Leiden 2009, ISBN 978-90-04-17574-7. Wassilios Klein: Die Argumentation in den griechisch-christlichen Antimanichaica (= Studies in Oriental Religions. Band 19). Harrassowitz, Wiesbaden 1991, ISBN 3-447-03141-7. Johannes van Oort: Augustin und der Manichäismus. In: Zeitschrift für Religions- und Geistesgeschichte. 46, 1994, S. 126–142, doi:10.1163/157007394X00284. Johannes van Oort u. a. (Hrsg.): Augustine and Manichaeism in the Latin West. Proceedings of the Fribourg-Utrecht Symposium of the International Association of Manichaean Studies (IAMS). Brill, Leiden 2001, ISBN 90-04-11423-8. Volker Henning Drecoll, Mirjam Kudella: Augustin und der Manichäismus. Mohr Siebeck, Tübingen 2011, ISBN 978-3-16-150841-7. Siegfried G. Richter, Die Aufstiegspsalmen des Herakleides. Untersuchungen zum Seelenaufstieg und zur Seelenmesse bei den Manichäern (= Sprachen und Kulturen des Christlichen Orients. Band 1). Reichert Verlag, Wiesbaden 1997, ISBN 3-89500-056-6. Steven Runciman: Häresie und Christentum. Der mittelalterliche Manichäismus. Fink, München 1988, ISBN 3-7705-2498-5. Jessica Kristionat: Zwischen Selbstverständlichkeit und Schweigen: die Rolle der Frau im frühen Manichäismus. Antike Verlag, Heidelberg 2013, ISBN 978-3-938032-60-2 (zugleich Dissertation, Augsburg 2013). Sara Antonietta Luisa Arnoldi: Manichäismus und Bibelexegese bei Augustinus: De Genesi contra Manichaeos (zugleich Dissertation, München 2011; ; PDF; 2 MB; Volltext). Untersuchungen zum Manichäismus im Osten Michelangelo Guidi: La Lotta tra l’Islām e il Manicheismo. Un libro di Ibn al-Muqaffa’ contro il Corano confutato da al-Qāsim B. Ibrāhīm. Accademia Nazionale dei Lincei, Rom 1927. Samuel N. C. Lieu: Manichaeism in Central Asia and China. Brill, Leiden 1998, ISBN 90-04-10405-4. Werner Sundermann: Der Manichäismus an der Seidenstraße. Aufstieg, Blüte und Verfall. In: Ulrich Hübner u. a. (Hrsg.): Die Seidenstraße. Handel und Kulturaustausch in einem eurasiatischen Wegenetz. 2. Auflage. Hamburg 2005, ISBN 3-930826-63-1, S. 153–169. Christiane Reck u. a. (Hrsg.): Manichaica Iranica. Ausgewählte Schriften von Werner Sundermann (= Serie Orientale Roma. Band 89). 2 Bände. Istituto Italiano per l’Africa e l’Oriente, Rom 2001, ISBN 8863231036. Kunst Zsuzsanna Gulácsi: Mediaeval Manichaean Book Art. A Codicological Study of Iranian and Turkic Illuminated Book Fragments from 8th–11th Century East Central Asia. Brill, Leiden 2005, ISBN 90-04-13994-X. Manfred Heuser, Hans-Joachim Klimkeit: Studies in Manichaean Literature and Art. Brill, Leiden 1998, ISBN 90-04-10716-9. Siehe auch Manichäische Schrift Weblinks Kölner Manikodex Universität Münster, Institut für Ägyptologie und Koptologie: Arbeitsstelle für Manichäismusforschung Prods Oktor Skjaervo: An Introduction to Manicheism Herbert Frohnhofen: Aktuelle Literatur zum Manichäismus (bis 2015) Eintrag in der Catholic Encyclopedia Anmerkungen Perserreich Iranistik Synkretistische Religion Religion (Iran)
Q131165
142.537207
336938
https://de.wikipedia.org/wiki/Neopaganismus
Neopaganismus
Neopaganismus (von „heidnisch“) oder Neuheidentum bezeichnet seit dem 19. Jahrhundert aufgekommene religiöse und kulturelle Strömungen, die sich vor allem an antikem, keltischem, germanischem und slawischem Heidentum sowie an außereuropäischen ethnischen Religionen orientieren. Die Zahl der Anhänger neopaganer Weltanschauungen ist statistisch schwer zu ermitteln, da diese häufig nicht in großen Organisationen zusammengefasst sind. Die Schätzungen gehen von mehreren Millionen weltweit aus. Wicca und verwandte Bewegungen sind nach unterschiedlichen Schätzungen von mehreren Tausend mit bis zu 100.000 Anhängern in Deutschland die größte neuheidnische Richtung. Um das Jahr 1990 wurde die Zahl der Wicca-Anhänger auf mehr als 200.000 in den USA, 30.000 in Großbritannien und weltweit auf 800.000 geschätzt. Begriff Der Begriff „neopagan“ kam zuerst im englischen Sprachraum des 19. Jahrhunderts im Zusammenhang mit dem Philhellenismus und der Romantik auf. So wurde „neo-paganism“ im Neoklassizismus und als Einfluss in der Malerei der Präraffaeliten wahrgenommen. Literarische Kreise verwendeten den Begriff, so zum Beispiel die „Grantchester Group“ um Rupert Brooke, die von der Dichterin Virginia Woolf „Neo-Pagans“ genannt wurde, der britische Abgeordnete Frank Hugh O’Donnell benutzte 1904 den Begriff „Neopagan“ abschätzig für die Arbeiten von William Butler Yeats, dem er vorwarf, die keltische Religion wiederbeleben zu wollen. Als Selbstbezeichnung von Neopaganisten trat seit den 1960er Jahren der Begriff „Pagan“ in den Vereinigten Staaten in Zusammenhang mit der neuen Hexenbewegung auf, die Selbstbezeichnung „Neopagan“ analog zu „Pagan“ fand erstmals 1967 im Zusammenhang mit der amerikanischen „Church of all worlds“ und dem Green Egg Magazine Verwendung. Der deutsche Begriff Neuheidentum wird verschiedentlich gleichbedeutend mit Neopaganismus verwendet – in einigen Fällen aber – vor allem jedoch im angloamerikanischen Raum, wird die Entsprechung „Heathenry“ oder „Heathenism“ speziell für Anhänger der neugermanischen Ausrichtungen verwendet, um sich von Anhängern der Wicca-Religion oder neokeltischen Strömungen abzugrenzen. Mitunter werden beide Begriffe, Neopaganismus und Neuheidentum, auch als pejorative Fremdbezeichnungen völlig abgelehnt, so vom Hellenismos und einigen altheidnisch-germanischen und neokeltischen Gruppen. Als Eigenbezeichnung favorisieren diese, wie auch Teile der Wicca-Bewegung, den Begriff „Alte Religion“ oder „Naturreligion“ (nicht zu verwechseln mit dem „überholten Fachbegriff Naturreligion“, der jedoch trotzdem nach wie vor als Synonym für die traditionellen Religionen schriftloser Kulturen verwendet wird). Heute versteht man unter Neopaganismus oder Neuheidentum in Abgrenzung vom älteren Heidentum im engeren Sinn neue religiöse Bewegungen, die sich an bestimmten Glaubensvorstellungen und Mythologien alter Kulturen orientieren wie: abchasische Religion: Abchasischer Neopaganismus altägyptische Religion: „Kemetismus“ altestnische Religion: „Taaraismus“ (taarausk), „Maausk“ altfinnische Religion: „Suomentum“ (suomenusko) altsüdarabische Religion: Arabischer Zuismus altungarische Religion: „Ősmagyar Vallás“ armenische Religion: „Arordi“ aztekische Religion: „Mexicayotl“ baltische Religion: „Romuva-Kirche“ baskische Religion: „Sorginkoba“ germanische Religion: „Heidentum“ („Ásatrú“, „Odinismus“, „Theodismus“, Ariosophie) altgriechische Religion: „Hellenismos“ oder „Dodekatheismus“, manche Formen des Epikureismus, Platonismus und Neuplatonismus, Pythagoreer#Lehren und Legenden und der Stoa Guanchen-Religion: „Iglesia del Pueblo Guanche“ Indogermanische Religion: „Perístanom“ keltische Religion: modernes Druidentum, Keltischer Neopaganismus marische Religion: Marischer Neopaganismus Mesopotamischer Neopaganismus oder sumerische Religion: „Zuismus“, „Kaldanismus“ mordwinische Religion: „Mastorava“ phönizische Religion bzw. kanaanitische Religion: „Zuismus“, „Natib Qadish“ römische Religion: „Religio Romana“ rumänisch-dakisch-thrakische Religion: „Zalmoxianismus“ skythische Religion: „Uatsdin“ slawische Religion: „Rodismus“, „Rodnovera“ tengristische Religion: „Ayy“, „Burkhanismus“, „Vattisen Yaly“ tscherkessische Religion: „Adyghe Habze“ udmurtische Religion: „Udmurt Vos“ Hinzu kommen aber auch neue Religionen wie die verschiedenen modernen Formen des Hexentums (Wicca, „Dianic“, „Stregheria“, „Feri“), die teilweise ebenfalls als neopagan zu betrachten sind, die moderne Göttinnenspiritualität („Pandea“, „Gaia-Religion“), die linkspolitische „Reclaiming Tradition“, pantheistische Gruppen wie die „Church of all worlds“. Historisch gab und gibt es auch immer wieder Überschneidungen zwischen neopaganen Gruppen und okkultistischen Strömungen wie Aleister Crowleys Thelema, dem Luziferianismus, dem Temple of Set und anderen Lehren, die sich vornehmlich aus Elementen von Gnosis, Alchemie, Astrologie, Kabbala und Hermetik speisen, aber teilweise auch zumindest neopagane Einflüsse aufweisen, vornehmlich Elemente aus altgriechischer und altägyptischer sowie semitischen Religionen. Der Neoschamanismus synkretisiert teilweise asiatische und indianische Elemente mit alteuropäischen Symbolen und entwickelt sie zu neuen Formen („keltischer Schamanismus“, neugermanischer „Seiðr“). Einige Neopaganisten schließen sich auch Strömungen an, die eine Variation christlicher Religion darstellen, wie dem Zusammenschluss der nordamerikanischen Unitarier und Universalisten zur Unitarian Universalist Association. So existiert eine eigene heidnisch-unitarische Strömung der „Covenant of Unitarian Universalist Pagans“. Eine ironische Brechung erfährt der Neopaganismus in halbsatirischen Religionen oder Religionsparodien wie dem Diskordianismus, dem Jediismus oder der Kirche der heiligen Vagina. Überblick Die Begriffe „neopagan“ und „Neuheide“ werden heute teils als Selbstbezeichnungen verwendet, teils aber auch als abwertende Fremdbezeichnungen angesehen und abgelehnt. Obwohl die esoterisch-neureligiöse Bewegung eine Vielzahl unterschiedlicher und eigenständiger – oft polytheistischer – Richtungen aufweist, bezeichnen sich deren Anhänger häufig bewusst als Heiden, um damit ihre gemeinsame (religiöse) Gruppen-Identität als Gegenpol zur christlich-jüdischen Tradition bzw. auch zu allen Weltreligionen und dem „überzeugten Unglauben“ hervorzuheben. Nach Otto Bischofsberger habe das Christentum . Abgelehnt werden vor allem der Dogmatismus und die (angebliche) Lebensfeindlichkeit der jüdisch-christlichen Tradition. Neuheiden leben zumeist in den westlichen Industriestaaten. Über den Bezug zum „Heidentum“ grenzen sie sich von Revitalisierungsbewegungen indigener Religionen anderer Länder ab. Frühe Vertreter waren Intellektuelle, Literaten und Künstler. Dem Neopaganismus werden mittelbar Einflüsse auf die westliche (Populär-)Kultur Ende des 19. wie im 20. Jahrhundert zugeschrieben. Er wurde und wird auch von einzelnen rechts- und linksgerichteten politischen Strömungen rezipiert. Der Neopaganismus wird von seinen Anhängern als Wiederbelebung (Revitalisierung) ethnisch-vorchristlicher Religionen gesehen, die aufgrund der christlichen Missionierungen, der Christianisierung und Zwangstaufen – teils verfolgt und gewalttätig – untergingen. Die neuheidnischen Lehren und Praktiken werden von ihren Anhängern sowohl als „Urreligion“ der Menschheit als auch als Religion für die Zukunft betrachtet. Da es nahezu keine historischen Aufzeichnungen aus der Zeit des vorchristlichen Europas gibt, werden unter anderem nordische und keltische Mythen, Märchen und Sagen als Quellen herangezogen sowie auf Traditionen und exotische Rituale der „Naturreligionen“. Besonders asiatische, indianische und keltische Elemente werden aufgegriffen und – häufig ohne Rücksicht auf den historischen oder geographischen Kontext – den eigenen Vorstellungen angepasst. Demnach ist eine authentische Rekonstruktion untergegangener Religionen nicht möglich, sondern im besten Fall nur eine Quellen interpretierende „spirituelle Rückbindung“. Die Flut an Veröffentlichungen und Kursen ermöglicht es den dafür aufgeschlossenen Menschen, eine Vielzahl von neuheidnischen Ideen zu konsumieren, ganz individuell zusammenzustellen und zu verändern. In der Szene finden sich auch etliche Vertreter indigener Gruppen, die ihr „archaisches Wissen“ gewinnbringend an neue Heiden verkaufen. Viele dieser Neoschamanen werden in ihrer Heimat nicht als religiöse Autoritäten anerkannt und beispielsweise in Nordamerika abwertend als Plastikschamanen betitelt. Darüber hinaus sind auch ihre Kenntnisse der eigenen Überlieferungen im Zuge der häufig zwangsweisen christlichen Missionierung unvollständig, so dass sie vielfach auf jüngere Entwicklungen (siehe beispielsweise Peyote-Religion) aufbauen, die jedoch ihrerseits schon synkretistische Mischreligionen aus verschiedenen ethnischen und christlichen Elementen sind. Aussagen und Ziele Zentral für den Neopaganismus sind folgende Selbstaussagen und Ziele, die von vielen – aber in ihrer Gesamtheit nicht notwendigerweise von allen Gruppen – geteilt werden: Erleben der Kräfte der Natur, die sich in Gestalt der Göttinnen und Götter anrufen lassen und auch dem einzelnen Gläubigen erkennbar sind Besondere Bedeutung des weiblichen Prinzips, z. B. weit verbreitete Verehrung weiblicher Gottheiten Abwendungen von einer Priesterreligion, Betonung des direkten Glaubenserlebnisses und dezentrale Organisationsform Kein dogmatisches Glaubensbekenntnis, stattdessen individualisiertes Erleben von Gläubigkeit und Vielfalt gleichberechtigter Kulte Möglichst naturnahe Lebensweise in einer hoch technisierten Zivilisation Schutz von Umwelt und Mitlebewesen Bezug auf germanisches, keltisches, wendisches Neuheidentum. Darüber hinaus fühlen sich Neuheiden besonders den noch praktizierten „Stammesreligionen“ anderer Kontinente, aber auch animistischen Strömungen im Hinduismus, dem Shintoismus in Japan und anderen verbunden Betonung der Freiheit des Einzelnen Wertschätzung von Kunst und Kreativität, so Aufnahme alter Kulturtechniken, Handwerkstätigkeiten etc. im Rahmen des Reenactment, z. B. bei Wikinger- und Mittelaltermärkten; intensives Musikbewusstsein (Musikhören, Musikmachen, Musikerleben) Kritik an monotheistischen, hierarchischen und dogmatischen Religionen wie dem Christentum Das Spektrum der Mitglieder von neuheidnischen Gruppierungen ist heterogen. Es gibt bislang nur wenige einheitliche, umfassende Organisationen oder Institutionen, in der sich die verschiedenen Religionen vereinigen. Einige sind zum Beispiel die Kulturgeister e. V., der Rabenclan oder die Pagan Federation International. Gottheiten im Neopaganismus Innerhalb des Neopaganismus existieren viele unterschiedliche Konzepte des Göttlichen. Häufig wird vor allem dem Pantheismus (Welt = Gott) ein großer Einfluss auf den Neopaganismus zugesprochen oder generell dem Pantheismus eine neopagane Tendenz bescheinigt. Strömungen, welche die Götter lediglich als Allegorien, Bilder, Prinzipien, Verkörperungen von Naturkräften oder Sinnbilder auffassen, können als prinzipiell atheistisch angesehen werden, andererseits lassen sich neopagane Strömungen, in denen die reale Existenz der Gottheiten weder bejaht noch verneint wird, als agnostisch bezeichnen. Während in der Göttinnenspiritualität oder Wicca der Kosmos bzw. die Erde mehr oder weniger mit dem Göttlichen identifiziert wird, sind andere Richtungen wie Ásatrú prinzipiell kosmotheistisch und die Götter sind nicht allmächtig, sondern prinzipiell wie der Mensch den Gesetzen des Universums unterworfen. Einige Beispiele: Hexentum und Wicca: Der Wicca-Glaube wird manchmal, aufgrund seiner Ausrichtung auf die Verehrung von Gott und Göttin, als „Duotheismus“ oder „Bitheismus“ bezeichnet, in der Praxis kann sich dieser jedoch unterschiedlich auswirken, von pantheistischen oder monistischen Konzepten bis hin zu Polytheismus und Henotheismus und, wo die Götter primär als Prinzipien aufgefasst werden, sogar als Form von Atheismus. Göttinnenspiritualität: Innerhalb der Gaia-Religion oder Pandea existieren sowohl monotheistische als auch polytheistische Sichtweisen. Teilweise wird die Göttin auch mit dem weiblichen Selbst identifiziert. Keltische Religion: Der keltische Rekonstruktionismus betrachtet sich selbst als polytheistische und animistische Religion, das Druidentum hingegen hat seine Wurzeln in universalistischen und pantheistischen Glaubensvorstellungen, ist heute jedoch auch polytheistischen, duotheistischen oder monistischen Vorstellungen gegenüber aufgeschlossen. Der OBOD nimmt sogar explizit Christen und Buddhisten in seine Reihen auf. Germanische Religion: Asatru und der Theodismus verstehen sich vor allem als polytheistische Religionen, wobei im Ásatrú mit dem Konzept des „Fulltrui“ auch henotheistische Tendenzen bestehen. Die Ariosophie hingegen ist monotheistisch ausgerichtet oder im Spezialfall sogar agnostisch, wenn ein besonderer Gottesbezug gar keine Rolle mehr spielt. Thelema: Da in Thelema das Göttliche zumeist mit dem Ich identifiziert wird, betrachtet sich Thelema oft als atheistische Lehre, den Göttern kommen hierbei lediglich Rollen als Prinzipien zu. Diskordianismus: Der Diskordianismus hat seine Wurzeln im Atheismus, wobei mittlerweile jedoch einige Anhänger begonnen haben, Diskordia als reale Göttin zu begreifen. Einen großen Einfluss auf den Neopaganismus hatten auch die Theorien des Psychologen Carl Gustav Jung, welcher die verschiedenen Gottheiten als Archetypen der Seele aller Menschen interpretierte. C. G. Jung wird in vielen Strömungen, wie z. B. Wicca, rezipiert: So wird sein Mutterarchetyp mit der Göttin und der Vaterarchetyp mit dem Gott identifiziert und sogar Jungs Theorie selbst ein inhärenter Paganismus attestiert. Andererseits gibt es jedoch auch scharfe Ablehnungen einer reinen Betrachtungsweise der Götter als Teilen der menschlichen Seele. Viele Neuheiden lehnen allerdings diese theologischen Spekulationen rundweg ab. Wie in den antiken Religionen haben für sie ein bestimmtes Bekenntnis und ein Set von Dogmen keine besondere Relevanz in der Praxis. Viel wichtiger ist ihnen richtiges Handeln, also dass Kulthandlungen sorgfältig und ehrfürchtig durchgeführt werden. Geschichte Renaissance und Humanismus Die Wurzeln des Neopaganismus reichen zurück bis in die Renaissance, als antike Mythologie und Philosophie wiederentdeckt wurden. Dezidiert antichristliche Positionen vertrat der byzantinische Philosoph Georgios Gemistos Plethon, der eine zweite platonische Akademie gründete und auf neuplatonischer Basis die alte griechische Religion wiederbeleben wollte. Mit dem Fall Konstantinopels im Jahr 1453 wurden viele antike Texte erstmals im Westen Europas bekannt, so erfuhr durch die Rettung des Corpus Hermeticum die Hermetik eine Wiederbelebung ebenso wie die Astrologie, und das Tarot-Spiel kam erstmals auf, das heute noch in Okkultismus und Teilen des modernen Hexentums eine große Rolle spielt. Wegen ihrer Beschäftigung mit den antiken heidnischen Philosophen wurde vielen Humanisten vorgeworfen, „Heiden“, insbesondere Epikureer, zu sein. Tatsächlich lässt sich dieser Vorwurf zumeist nicht erhärten, obgleich viele Humanisten der Kirche kritisch gegenüberstanden und insbesondere die klassischen Gottheiten häufig in allegorischer Form Erwähnung fanden. Bei einigen Humanisten wie dem stark von Neuplatonismus geprägten Michael Marullus oder Giovanni Pico della Mirandola kann man Formen von Naturverehrung und Pantheismus finden. 18. und 19. Jahrhundert Während der französischen Revolution wurde der Versuch unternommen, vom Christentum losgelöste künstliche Revolutionskulte zu schaffen, die teilweise von antikem Gedankengut beeinflusst waren, so unter anderem den Kult der Vernunft, in dem eine allegorische Göttin Vernunft angebetet wurde (die u. a. Maximilien de Robespierre mit der Göttin Isis identifizierte), und den deistischen Kult des höchsten Wesens. Vor allem im Zeitalter der Klassik und Romantik griffen Dichter und Philosophen die griechisch-römischen Mythologien wieder auf. Der britische Neuplatoniker Thomas Taylor, der das Christentum offen ablehnte, forderte eine Wiederbelebung heidnischer Spiritualität und platonischer Theurgie und löste die neuheidnische Bewegung des 19. Jahrhunderts aus. Auf der Suche nach frühen Wurzeln der eigenen Nationaldichtung begannen sich zunächst in Großbritannien Dichter und Künstler den Druidenorden anzuschließen, deren anfänglich pantheistische, universalistische Ideen mehr und mehr von keltischer Mythologie beeinflusst wurden. Die „Gesänge des Ossian“, ein Werk des Schotten James Macpherson (1736–1796), lösten eine ganze Reihe von Nachdichtungen angeblich uralter Nationalepen aus. Von der heidnischen Dichtung bewegten sich in England einige Vertreter der Neo-Pagans zur heidnischen Spiritualität weiter. So war der englische Dichter Thomas Jefferson Hogg dafür bekannt, bei sich zuhause Zeremonien zu Ehren der griechischen Götter abzuhalten; der Historienmaler Edward Calvert opferte dem Gott Pan und errichtete ihm einen Altar. Zu weiteren bekannten Persönlichkeiten, die sich in jener Zeit einem Gemisch aus Romantik, Mythologie und Okkultismus widmeten, gehörten unter anderem William Butler Yeats, Maud Gonne und Arthur Edward Waite. Eine große Rolle spielten im Heidentum, vor allem die hellenistische Religion, und pantheistische Ideen im Werk Johann Wolfgang von Goethes, zeitweise auch in dem Heinrich Heines. Auch im Werk Friedrich Nietzsches wird mitunter eine pagane Tendenz gesehen, vor allem in seinem Werk Die Geburt der Tragödie aus dem Geiste der Musik, in welchem er die Rückkehr der Götter Apollon und Dionysos verheißt. Während britische Romantiker sich so neben antiker Religion und Philosophie auch dem keltischen oder fälschlich als keltisch missverstandenen Erbe wie Stonehenge widmeten, begann die deutsche Spätromantik, Jacob Grimms „Deutsche Mythologie“ und Johann Gottfried Herders Idee von einem Volksgeist missverstehend, ein „teutonisches Heidentum“ zu rekonstruieren. Parallel dazu entwickelte sich im slawischen Bereich die „Rodnoverei“-Bewegung, ein national-romantisches, teilweise panslawisches Neuheidentum, sowie im baltischen Raum die romantisch-neuheidnische Romuva-Kirche. Auch die in Skandinavien vorherrschende Strömung der Nationalromantik wies durch Konzentration auf vorchristliche Überlieferungen wie die finnische Kalevala neopaganistische Züge auf. Die Wiederentdeckung vermeintlicher vorchristlicher Traditionen wurde durch staatliches Propagieren einer neuromantischen Heimatkultur unter anderem in der Populär- und Volkskultur im Wiedererstarken von Faschings- und Fasnetsbräuchen rezipiert, die im Wesentlichen ein Produkt des späten 19. und 20. Jahrhundert sind. Jugendstil wie Lebensreformbewegung bezogen sich teilweise auf vorgeblich vorchristliche Überlieferungen, so bei Ludwig Fahrenkrog. 20. Jahrhundert Schlüsselveröffentlichungen im angelsächsischen Raum Einflussreiche Veröffentlichungen jener Zeit waren unter anderem „Der goldene Zweig“ von James George Frazer, „Die weiße Göttin“ von Robert Graves und „Der Hexen-Kult in Westeuropa“ und „God of the Witches“ von Margaret Alice Murray sowie „Aradia, or the Gospel of the Witches“ von Charles Godfrey Leland. Diese Bücher erwiesen sich vor allem für die Göttinnenspiritualität und das moderne Hexentum, Wicca und Stregheria, aber teilweise auch für das moderne Druidentum als außerordentlich wichtig, da viele Elemente, die später unter anderem bei Gerald Brosseau Gardner auftreten, hier zum ersten Mal vorweggenommen wurden. Gerald Gardner begründete in den 1920er Jahren die Wicca-Religion, die von Vivianne Crowley und Doreen Valiente weiterentwickelt wurde. Viele der unterschiedlichen Wicca-Richtungen entwickelten sich im Gegensatz zu den meisten neuheidnischen Bewegungen synkretistisch. Völkische Bewegung Deutsch- und germanischgläubige Gemeinschaften, die der völkischen Bewegung zu Beginn des 20. Jahrhunderts zugerechnet werden, wandten sich vom Christentum ab und waren auf der Suche nach einer arteigenen Religion. Das führte zu sehr unterschiedlichen religiösen Entwürfen, die an germanische und deutsche Traditionen anknüpfen wollten. Von Guido von List und Jörg Lanz von Liebenfels wurde in Deutschland und Österreich die Ariosophie entwickelt, die Rassismus und Antisemitismus mit germanischer Mythologie verband und auch auf Elemente der modernen Theosophie zurückgriff. List versuchte durch seine Schriften und den „Hohen-Armanen-Orden“ (HAO), eine Wotansreligion wiederzubeleben. Wichtig waren dabei Runeninschriften und auf germanischer Mythologie basierende Riten; diese wurden auch vom Germanenorden weitergeführt. Die Deutschgläubige Gemeinschaft und die später in der Deutschen Glaubensbewegung zusammengeschlossenen Gruppen wollten dagegen im Allgemeinen keine naive Wiederaufnahme des alten Wotankults, sondern versuchten eine „Synthese germanischer Spiritualität aus den skandinavischen Sagas und der isländischen Edda mit der deutschen mystischen Tradition und der idealistischen Philosophie“. Einzelne Nationalsozialisten wie Heinrich Himmler waren von ariosophischen und neopaganen Vorstellungen beeinflusst. Insgesamt spielten religiös-völkische Organisationen wie die Artamanen innerhalb des Nationalsozialismus ein Dasein als sektiererische Splittergruppe. Neuheidnische Standpunkte hatten unter Himmlers Protektion einen intensiven Einfluss auf einzelne Forschungsprojekte, zum Beispiel in der Forschungsgemeinschaft Deutsches Ahnenerbe oder im Fach Rechtsgeschichte. Die Wirkungsgeschichte von Ariosophie und völkischem Neuheidentum setzte sich in einzelnen heutigen Gruppen fort, etwa in der Artgemeinschaft – Germanische Glaubens-Gemeinschaft wesensgemäßer Lebensgestaltung. Auf die Ariosophie gehen einige odinistische Kulte insbesondere in den USA zurück, außerdem der Armanen- und Goden-Orden. Als Vertreter der Neuen Rechten mit neuheidnischen Aspekten gelten unter anderem der französische Publizist Alain de Benoist sowie Roberto Fiore (Europäische Nationale Front), der sich auf Corneliu Zelea Codreanu bezieht. Vertreterin eines unitarischen Neopaganismus war Sigrid Hunke, die Mitglied der Deutschen Unitarier Religionsgemeinschaft und später des Bundes Deutscher Unitarier war. Münchner Kosmiker Der neopagan inspirierte Kreis der Kosmiker um Ludwig Klages, Stefan George (zeitweise), Karl Wolfskehl und den Mystagogen Alfred Schuler hatte Einfluss auf verschiedene heutige Akteure in der esoterischen Szene wie weit darüber hinaus. Es wurde auch versucht, paganistische Kulte wiederzubeleben oder zu konstruieren. Ludwig Klages wurde im 20. Jahrhundert in Teilen der Natur- und Heimatbewegung rezipiert. Entsprechende Autoren betonten einen Naturschutzgedanken auf Basis der angenommenen Urtümlichkeit, insbesondere der deutschen Natur in der Tradition des völkischen Heimat- und Landschaftsschutzes und einer antik begründeten neuheidnischen „Naturphilosophie“. Internationale Renaissance ab den 1960er Jahren Nach dem Zweiten Weltkrieg lebten zunächst vor allem die heidnisch-okkulten Ordensgemeinschaften und das moderne Druidentum, wie die verschiedenen Ausläufer der völkischen Esoterik, weiter. Erst in den 1960er und 1970er Jahren setzte infolge der New-Age-Bewegung eine Wiederbelebung des Neopaganismus ein, die seit den 1980er Jahren in der internationalen Popkultur Spuren hinterließ. Aus den frühen mesopaganen Druidenorden entstanden explizit neopagane Gruppen wie der Orden der Barden, Ovaten und Druiden (OBOD). Die Wicca-Bewegung breitete sich über Großbritannien, Europa und die USA aus. In ihrem Gefolge wurden weitere Formen und Ausprägungen des modernen Hexentums wie Stregheria oder Dianic popularisiert und vermischten sich mit Feminismus und Ideen der politischen Linken. Seit den 1970er Jahren gewannen auch verschiedene neue Ausprägungen des germanischen Neuheidentums weiter an Verbreitung, vor allem die Asatru-Bewegung, die aus der Rekonstruktion skandinavischen Brauchtums entstand. Sie bemüht sich in Deutschland darum, sich von „NS-Esoterik“ abzusetzen. Es gibt neuheidnische Gruppierungen, die sich ausdrücklich von rechtsextremen Tendenzen und antisemitisch-rassistischer Ideologie distanzieren. Beispiele für solche Gruppen sind der Steinkreis oder der Rabenclan. Reclaiming ist eine neuheidnische Organisation, für die politisches Engagement für Umweltbewusstsein im Sinne der Tiefenökologie, Feminismus und Völkerverständigung Teil ihres Selbstverständnisses ist. Die neuheidnische Bewegung hat seit der umweltpolitischen Gesellschaftskritik in den 1970er Jahren erheblichen Zulauf. Überall spielen Ökologie, Ganzheitlichkeit und Spiritualität eine zentrale Rolle. Zumeist im Wege individueller „Bewusstseinserweiterungen“ möchte man zu einer Lebensweise- oder zumindest einer Weltanschauung „im Einklang mit der Natur“ gelangen. Seit den 1980er Jahren gibt es einen Trend zu rekonstruierenden Religionen, die versuchen, die alten Religionen anhand von Quellen wiederzubeleben, so unter anderem der keltische Rekonstruktionismus und der Hellenismos. Im heutigen Heidentum findet ein Prozess fortwährender Ausdifferenzierung zwischen „Traditionalisten“ und „Modernisten“ statt. Die „Traditionalisten“ versuchen, mit Hilfe der historischen Wissenschaften und den alten lückenhaften Überlieferungen möglichst originalgetreu die vorchristlichen Religionen zu rekonstruieren und zu beleben. Die „Modernisten“ versuchen, vom Stand der heutigen wissenschaftlichen Erkenntnisse ausgehend, eine Religion des Einklangs der beseelten Natur mit dem Menschen – wie in animistischen Religionen – zu leben. Sie bekennen sich dazu, neue religiöse Formen zu erschaffen. Seit den 1990er Jahren hat ein Prozess der Institutionalisierung eingesetzt, welcher dazu führt, Dachverbände zu bilden (z. B. „Pagan Federation“). Viele Neuheiden aber lehnen jede Verbandsform als „nichtheidnisch“ ab. Rezeption der Hexenverfolgung In der völkischen Bewegung wurden rationalistische und romantische Hexenbilder des 19. Jahrhunderts aufgegriffen. Für das neuheidnische Hexenbild ist die Interpretation von Jacob Grimm am wichtigsten, der in seiner Deutschen Mythologie den Hexenglauben als Ausdruck des naturcultus unserer vorfahren interpretiert und die Hexen auf weise Frauen zurückführte, die in der heidnischen Gesellschaft als Heilkundige, Seherinnen und Priesterinnen eine zentrale Funktion erfüllt hätten. Diese Sichtweise hat in die des Neopaganismus und in die feministische Esoterik sowie die feministische Theologie Eingang gefunden. Nach Ansicht der Literaturwissenschaftlerin Stefanie von Schnurbein habe diese Interpretation mit der neuzeitlichen Hexenverfolgung, welche auch Männer betraf, jedoch wenig zu tun. Konflikte mit der Denkmalpflege Bisweilen kommt es zu Konflikten zwischen Neuheidentum, der Archäologie der Ur- und Frühgeschichte sowie der Denkmalpflege. Zum einen spielen „Kraftorte“ in verschiedenen neopaganen Strömungen eine wichtige Rolle. Von diesen Plätzen gehen nach neopaganem Verständnis besondere Kräfte aus, die sie für die Durchführung von neuheidnischen Ritualen besonders attraktiv machen. Dazu zählen unter anderem geschützte Boden- und Naturdenkmale, so tatsächliche oder vermeintliche Kultplätze und prähistorische Siedlungs- und Bestattungsplätze wie Megalithen, Hügelgräber, eisenzeitliche Viereckschanzen und exponierte Einzelbäume. Manche Formen der kultischen Nutzung, so die Errichtung von Steinkreisen, Gräben oder ähnlichen Gebilden, führen zu Schäden, die sich im zeitlichen Umfeld von besonderen Tagen wie Winter- oder Sommersonnenwende häufen. Insbesondere stark frequentierte „Kraftorte“ wie etwa Stonehenge oder die Externsteine erleiden Eingriffe und Zerstörungen. Im 19. Jahrhundert wurde mitunter eine direkte Kontinuität keltischer Elemente bis in die Bevölkerungsstruktur angenommen, was sich bei näherer Betrachtung zumeist nicht bewahrheitet. Eine Ausübung der neoheidnischen Religionen soll und kann durch die staatliche Denkmalpflege und archäologische Forschungseinrichtungen nicht verhindert werden, zumindest solange sie zerstörungsfrei erfolgt. Kritisch betrachtet werden die konkrete Verwendung wie auch der unterstellte Missbrauch von archäologischen und schriftlichen Quellen zur Rekonstruktion von angeblich uralten Religionen. Indes ist eine besondere Ausstrahlung, der Zauber eines Ortes, Objekts oder Bauwerks auch nach den Regeln und Vorgaben der Denkmalpflege eine wesentliche Voraussetzung der Unterschutzstellung, ob nach dem Alterswert Alois Riegls oder dem modernen bzw. postmodernen Denkmalkultus nach Michael Petzet. Petzet sieht Verehrung und Respekt gegenüber Denkmälern als essentielle Voraussetzung, um diese auch für künftige Generationen verfügbar zu halten. Neopagane Hochfeste Die angegebenen Termine sind Richtwerte und aufgrund der Sonnen- und Mondstände veränderlich. Zur Ausgestaltung siehe Keltischer Jahreskreis und Wicca-Jahreskreis sowie Liste der Germanisch-Neuheidnischen Feiertage. Kulturelle Rezeption Populärkultur Von einigen Soziologen wird modernes Neuheidentum samt seiner Verwendung in der Populärkultur als postmodernes Phänomen wahrgenommen. Im Gegensatz zu historischen Heiden nutzen neopagane Gruppen zwar vermeintliche oder hergebrachte Versatzstücke historischer heidnischer Kulturen, sie bleiben aber Bestandteil der modernen Industriekultur, von der sie sich zugleich absetzen. Konstatiert wird etwa bei modernen Hexen eine Sehnsucht nach Spiritualität, das Bedürfnis, eigene Macht und Stärke wiederzuentdecken, sowie eine zuweilen eskapistische Selbstinszenierung. Dazu kommt die kommerzielle Nutzung beim Vertrieb von Dienstleistungen von Kräuterkursen bis zum Kartenlegen sowie Publikationen von Romanen bis hin zu Beratungs- und Anleitungsbüchern – wie z. B. im Christentum auch. Im Rahmen der Gaia-Hypothese wie der Tiefenökologie erlebten neuheidnische, animistische Glaubensvorstellungen von einer durchgehend belebten beziehungsweise beseelten Natur eine Wiederaufnahme. Darüber hinaus wurden neuheidnische Glaubensvorstellungen in den 1960er Jahren im Rahmen der Hippie-Bewegung breiter wiederaufgenommen. Die dabei von verschiedenster Seite angenommene enge und umweltschonende Beziehung nichtchristlicher, insbesondere indianischer Kulturen zur Natur hält einer näheren Überprüfung jedoch nicht stand. Einzelne neoheidnische Symbole und antichristliche Affekte finden sich in gegenkulturellen Erscheinungen wie der Hippiebewegung genauso wie in Massenveranstaltungen totalitärer Regimes wie auch unter den Bedingungen demokratischer Gesellschaften. Für manche nationalistische europäische Gruppen haben germanische Mythen, Orte wie die Externsteine oder die Wewelsburg, Runen und Symbole wie die Schwarze Sonne Bedeutung. Mitte der 1990er Jahre verbreiteten sich ursprünglich neuheidnisch-rechte Symbole, Ausdrucksformen und die entsprechende Kulturindustrie in die allgemeine Jugendkultur, etwa durch die Modemarke Thor Steinar. Für Camille Paglia ist Neopaganismus keine Außenseiterkultur, sondern drückt sich intensivst in der Populär- und Popkultur aus. Paglia bestreitet eine gesellschaftliche Säkularisierung der Moderne. Die jüdisch-christliche Kultur habe das Heidentum niemals besiegt, sondern höchstens in den Untergrund gedrängt oder modernistisch verkappt. Literatur und Theater Karin Hagenguth zufolge durchzog neopaganes Denken in erheblichem Maße die englische Literatur des 19. Jahrhunderts. Diese romantische Strömung, als wichtiger Vertreter unter anderem Samuel Taylor Coleridge, lehnte nicht nur rigide kulturelle und insbesondere kirchlich-christliche Normen ab, sie gewann ihre Kraft auch in der intensiven kritischen Begleitung des technischen und naturwissenschaftlichen Fortschritts. Auf die Werke der englischen Romantiker geht unter anderem ein intensiver Impuls für den modernen Tourismus (vgl. Rheinromantik und „Deutscher Wald“) zurück. Die neopaganistischen Elemente werden auch in der Moderne als regelmäßig wiederkehrende Rückbesinnung auf das dionysische Prinzip, auf die Wiederentdeckung des Zugangs zum Rausch gedeutet. Eine spezifische Ausprägung im romanischen Bereich findet sich bei dem bedeutenden portugiesischen Lyriker und Autor Fernando Pessoa. Pessoa versuchte einerseits unter dem Stichwort Heteronymie eine Weltanschauung zu rekonstruieren, die ohne das Christentum auskommt. Er selbst schrieb nicht nur unter verschiedensten Heteronymen, sondern ordnete diesen selbst fiktive Personen mit eigenen Biographien, eigenen Schreibstilen, Themen, Motiven und philosophischen Kontexten zu. Darüber hinaus interpretiert er den iberischen Katholizismus mit seiner umfangreichen Heiligenverehrung als verkappten Polytheismus, als Fortbestehen eines Heidentums, das es etwa im Rahmen einer Nationalreligion herauszuarbeiten gelte. Er berief sich dabei unter anderem auf den Neuplatonismus wie Julian Apostata, als dessen Reinkarnation er sich zeitweise empfand. Der bedeutende japanische Schriftsteller, homosexuelle und rechtsextreme Politaktivist Yukio Mishima lässt in einem seiner Romane eine Hauptfigur den Dreimächtepakt als Allianz von deutschem Wald, römischem Pantheon und japanischer Mythologie verklären, als Zusammenkunft der heidnischen männlichen Götter von Ost und West. Als postmoderner Vertreter eines literarischen Neopaganismus ist auch Alban Nikolai Herbst interpretierbar, neben dessen immer wieder grundsätzlich geäußerter politischer Kritik am Monotheismus vor allem in seinem Roman Wolpertinger oder Das Blau (1993) eine Fülle europäischer, besonders weiblicher Naturgeister wie Titania (aus dem Sommernachtstraum von William Shakespeare) und Lan-an-Sídhe das Geschehen bestimmen, die auf der Flucht vor ihrer Vernichtung durch die rationale Entmythisierung „in die Technik emigriert“ seien, die sie nun zunehmend okkupierten. Herbst stellt antike und spätere Naturgottheiten gleichberechtigt nebeneinander, hat aber nicht Gottheiten im Blick, sondern sich unter die Menschen mischende Geister wie Feen, Elben, Kobolde, Dämonen, Trolle und dergleichen. Gerade letztere zeigten ihre neumediale Präsenz auffällig oft im Internet, ebenso wie an Computerviren gerne Dämonennamen vergeben würden und sogar die „offizielle“ Benennung eines Email-Irrtums Mailing Daemon laute. In Herbsts „Anderswelt“-Trilogie wird etwa mit Niam Goldenhaar eine Geistin aus der keltischen Mythologie handlungs-, also geschichtsbestimmend. Dies ist bei Herbst keine belletristische Fantasy, sondern er bezeichnet es als „bewußte Fiktion“ für einen neuen, von ihm „kybernetisch“ genannten Realismus, der unsere tatsächliche Gegenwart bestimme, insofern sich in ihrer Wahrnehmung Fiktionen und Realität ununterscheidbar vermischten und also auch diese Fiktionen zu objektiven Handlungen führten. Musik Neopagane Inhalte und Einflüsse finden sich etwa seit den 1960er Jahren in vielerlei Form sowohl in der Popmusik als auch im musikalischen Untergrund wieder. Eine Vorreiterrolle kam hierbei dem britischen R&B- und Jazz-Musiker Graham Bond zu. Dabei finden sich magisch-okkulte Inhalte, beeinflusst von Aleister Crowleys Thelema-Lehre, in den Musikstücken. Die britische Hard-Rock-Band Led Zeppelin war teilweise von okkulten und keltischen Themen beeinflusst, und die Progressive-Rock-Band Black Widow ließ sich vom bekannten Wicca-Priester Alex Sanders beraten, der unter anderem Rituale für ihre Bühnenshow entwarf. Ebenfalls Angehöriger der Wicca-Bewegung war der amerikanische Folkbarde Gwydion Pendderwen, der seine Alben der „alten Religion“ widmete und bis heute für zahlreiche Wicca- oder wicca-beeinflusste Progressive- und Psychedelic-Folk-Gruppen als Vorbild fungiert. So treten heute auch prominente Wicca- und Neodruiden wie Isaac Bonewits oder Ian Corrigan als Singer-Songwriter im Bereich der Folk-Musik auf. Ende der 1970er Jahre erschien die erste neopagan inspirierte New-Age-Musik, die ebenso wie teilweise die beginnende Industrial-Bewegung und das davon abgeleitete Genre der Ritual-Musik heidnische und okkulte Inhalte aufgriff, ebenso wie später die verwandte Neofolk-Szene u. a. Death in June, Rose McDowall oder Sixth Comm. Auch im Metal-Bereich wurden bereits früh heidnische und mythologische Inhalte verarbeitet, so von Black Sabbath mit Odin’s Court und The Battle of Tyr, oder Bands wie Manowar oder Bathory, die sich in ihren Liedern häufig mit den altnordischen Sagen beschäftigten. In den frühen 1990er Jahren entstanden die Subgenres Pagan Metal und Viking Metal um Gruppen wie Enslaved, In the Woods…, Primordial, Falkenbach und Skyclad, bei denen neuheidnische Inhalte nicht nur inhaltlich eine Rolle spielen, sondern die auch zumeist von sich selbst als neopagan verstehenden Musikern produziert werden. Aber auch außerhalb des Metal-Genres machen sich seit den 1990er Jahren neopagane Inhalte bemerkbar, so z. B. bei den Alternative-Rock-Bands Godsmack und Rockbitch oder der isländischen Sängerin Björk. Seit Mitte der 1980er Jahre tauchen neuheidnische Themen allerdings auch mehr und mehr im Umfeld rechtsextremer Musik auf, sowohl im als eher „unpolitisch“ geltenden Vikingrock als auch bei einigen offen neonazistischen Rechtsrock- und NSBM-Gruppen. Andererseits werden neopagane Themen teilweise auch im Umfeld des linksradikalen Anarcho-Punks und Crustcores behandelt, so bei den Bands The Dagda, Oi Polloi oder Earth Culture oder den Post-Punk-Gruppen New Model Army und Killing Joke. Um Gruppen wie Hagalaz’ Runedance, Qntal, Mediæval Bæbes, Omnia oder Faun existiert mit dem Pagan-Folk mittlerweile ein eigenes neopaganes Subgenre innerhalb der Folk- und Mittelaltermusik. Teilweise gibt es auch in der Gothic-Szene neopagane Einflüsse zu verzeichnen, so bei Dead Can Dance, den schamanisch und thelemitisch inspirierten Fields of the Nephilim, der Death-Rock-Gruppe Faith and the Muse oder der britischen Gothic-Rock-Band Inkubus Sukkubus, die ihren Stil selbst als „Pagan Rock“ bezeichnet. Im Internet existieren zahlreiche Seiten von Musikfans, Gruppen und Plattenlabels, die sich speziell an ein neopaganes Publikum richten. In den USA ist das „Heartland Spiritual Gathering“ ein eigenes neuheidnisches Musikfestival für den neopaganen Musikmarkt. Neopagane Einflüsse sind auch vermehrt in der Rave-Szene aufzufinden, wo sich vor allem Musikstile wie Trance und Goa auf ekstatische, schamanoide, Trance und durch psychoaktive Substanzen veränderte Bewusstseinszustände berufen, so vermischt sich Tranceerleben mit esoterischen und paganen Vorstellungen zu einer Form von „Techno-paganismus“. Pagane Elemente werden auch in Festivals wie dem Burning Man entdeckt. Bei Fans und Außenstehenden ist mitunter ein Streitpunkt, was bereits als „pagan“ zu bezeichnen ist und was noch nicht. In einigen Fällen lassen sich die heidnischen Inhalte auf bloßen Symbolismus oder relativ oberflächliche Spielereien im Rahmen der New-Age-Esoterik reduzieren. So benutzen z. B. einige Metal-Bands den Neopaganismus aus rein ästhetischen Gründen zur Konstituierung des Archaischen und der Männlichkeit wie als konstituierendes Element der Subgenres Viking Metal und Pagan Metal. Dabei wird in der Metal-Szene zuweilen die Geste der Teufelshörner, einer erhobenen Faust mit ausgestrecktem Zeigefinger und kleinem Finger, verwendet. Bei Rechtsrock-Bands wird das Neuheidentum, vor allem Ariosophie, aus Gründen der Provokation oder im Rahmen rechtsradikaler Symbolik verwendet. Andere Gruppen jedoch beschäftigen und identifizieren sich durchaus ernsthaft mit vorchristlicher Religion und Philosophie oder bestehen aus gläubigen Neuheiden, als Beispiel hierzu dient vor allem die deutsche Band Rabenschrey, welche ihre Überzeugung beispielsweise in dem Lied Wodans Wölfe zum Ausdruck bringt. In einigen Fällen wird auch definitiv nicht neopagan intendierte Musik wie Clannad, Enya, Jethro Tull oder die schwedischen Folkrocker Garmarna von Neuheiden als „heidnisch“ empfunden und bezeichnet. So werden mythologische, spirituelle oder folkloristische Inhalte verarbeitet, die paganes Publikum wie den Mainstream ansprechen. Politik und Gesellschaft Die politische Ausrichtung von neuheidnischen Gruppen ist sehr unterschiedlich. Das Wiccatum und verwandte Bewegungen wie die Göttin-Spiritualität sind nach unterschiedlichen Schätzungen von mehreren Tausend mit bis zu 100.000 Anhängern in Deutschland die größte neuheidnische Richtung. Sie sind zumindest von ihrem Habitus her eher dem linken Teil des politischen Spektrums zugehörig. Feminismus und der Schutz der natürlichen Umwelt sind für sie wichtige Anliegen. Insbesondere für Frauen sind diese Gruppen sehr attraktiv, da hier im Unterschied zu den großen monotheistischen Religionen auch eine weibliche Gottheit verehrt wird und speziell ihre spirituellen Bedürfnisse berücksichtigt werden. Einige Wicca-Gruppen und verwandte Richtungen wie die Reclaiming-Tradition um Starhawk sind in der Umwelt- und der globalisierungskritischen Bewegung politisch aktiv und beteiligen sich z. B. an Aktionen des zivilen Ungehorsams. Innerhalb der amerikanischen neuheidnischen Szene ist Pagan Pride seit 1997 eine Bewegung, die versucht, ein positives öffentliches Bild des Neopaganismus zu schaffen. Zu diesem Zweck werden unter anderem weltweit Pagan-Pride-Day-Festivals organisiert, deren Erlöse karitativen Zwecken wie Umweltschutz, Tierschutz und Opfern von häuslicher Gewalt zugutekommen. Im neugermanischen Heidentum existieren neben explizit antifaschistischen Gruppen wie der Nornirs Ætt auch rassistische bzw. solche, die biologistische, bioregionalistische und ethnopluralistische Vorstellungen vertreten, so der Odinic Rite, aus dem sich in Deutschland der Verein für Germanisches Heidentum abspaltete. Die Artgemeinschaft ist Bestandteil der rechtsextremen Szene und vertritt rassistische Vorstellungen. Neuheidnische Jahreskreisfeiern zur Sommer- und Wintersonnenwende sind auch ein wichtiges Element der Aktivitäten von rechtsextremen Jugendgruppen. Diese Feiern dienen dazu, die eigene Identität sowie den inneren Zusammenhalt zu stärken und sich von anderen Gruppen abzusetzen. Die neuheidnisch geprägte Ideologie erlaubt es zudem Frauen im deutschen Rechtsextremismus, eine wesentliche Rolle zu übernehmen. Begriffe und Symbole aus der nordischen Mythologie wie der Mjölnir sind bei Neuheiden sowie darüber hinaus auch in vielen Jugendkulturen, z. B. solchen, die der schwarzen Szene zugerechnet werden, weit verbreitet. Sie werden seit der zweiten Hälfte der 1990er Jahre verstärkt von Rechtsextremisten genutzt, sind aber per se kein Hinweis auf rechtsextreme Gesinnung. Aufgrund der Problematik rechtsextremer Strömungen innerhalb des Neopaganismus entstanden einzelne Initiativen, um einer ideologischen Vereinnahmung entgegenzuwirken, so unter anderem die Kampagne Heidentum ist kein Faschismus. Heiden für Menschenrechte. Rassistischer Wotankult in den USA In den USA muss man zwischen den kosmopolitischen Ásatrú-Vereinigungen, welche den Großteil der Neuheiden ausmachen, und einigen kleineren rassistischen Sekten, die das christliche Erbe des Westens ablehnen, unterscheiden. Letztere ähneln in ihrer manchmal brutalen Abgrenzungspolitik den noch einflussreicheren Vertretern einer rassistischen Christian-Identity-Bewegung, zu der auch der Ku-Klux-Klan und die dem Terrorismus nahestehende Organisation Aryan Nations gehören. Die „Frontlinie des rassistischen Heidentums“ – mit Anhängern auch in Europa, Südafrika und Australien – bildet ein Odin-(Wotan)kult, dessen Ursprünge in der deutschen und österreichischen völkischen Bewegung liegen, beim Ariosophen Guido von List, dem Armanen-Orden und der Deutschgläubigen Gemeinschaft. Begründet wurde der rassistische Odinismus in den USA 1969 mit der Odinist Fellowship Else Christensens, die in den 1930er Jahren dem linken Strasser-Flügel der Dänischen Nationalsozialistischen Arbeiterpartei angehört hatte. Sie war unter anderem durch Carl Gustav Jung beeinflusst und sah in dessen Terminologie Archetypen des Unbewussten als rassespezifisch verankert an. Mehr an Ritualen und nordischer Magie als an Denksystemen interessiert war Steve McNallens Ásatrú Free Assembly (AFA). Dessen Versuche ab 1978, Rassisten und Neonazis aus der AFA zu entfernen, führten zu radikaleren Aktivitäten in der odinistischen Bewegung. Wyatt Kaldenberg veröffentlichte in seinem Magazin Pagan Revival während der 1990er Jahre vulgäre, Gewalt verherrlichende Tiraden, in denen er seine manichäische Weltsicht ausdrückte: Geschichte sah er als Schlacht zwischen den göttlichen Ariern und den gegen die Natur gerichteten Kräften des judäischen Christentums an. Die neonazistische Organisation White Aryan Resistance wurde vom früheren Ku-Klux-Klan-Führer Tom Metzger gegründet, der von Aryan Nations beeinflusst war und sie bis heute führt. Auch Kaldenberg schrieb für White Aryan Resistance Artikel. Erwähnt werden muss auch Wotansvolk, 1995 gegründet von David und Katja Lane sowie Ron McVan. Siehe auch Keltomanie Literatur Aufsätze Jürgen Beyer: Europas Mitte liegt am Rande des Abendlandes. Estland im Zentrum europäischer Kultureinflüsse. In: Kathrin Pöge-Alder, Christel Köhle-Hezinger (Hrsg.): Europas Mitte, Mitte Europas. Europa als kulturelle Konstruktion (= Schriftenreihe des Collegium Europaeum Jenense, Bd. 36). Collegium Europaeum Jenense, Jena 2008, ISBN 978-3-933159-14-4, S. 111–134. Hubert Cancik: Neuheiden und totaler Staat. Völkische Religion am Ende der Weimarer Republik. In: Ders. (Hrsg.): Religions- und Geistesgeschichte der Weimarer Republik. Patmos-Verlag, Düsseldorf 1982, ISBN 3-491-77248-6, S. 176–212. Henning Eichberg: Kommen die alten Götter wieder? Germanisches Heidentum im 19/20. Jahrhundert – Zur Genese alternativer Mythen. In: Bernd Thum (Hrsg.): Gegenwart als kulturelles Erbe. Ein Beitrag der Germanistik zur Kulturwissenschaft deutschsprachiger Länder. Iudicium, München 1985, S. 131–172, ISBN 3-89129-022-5. Ulrich Kaiser: Esoterik im Internet: das komplette Info-Highway-Angebot: Cyberreligionen, Neo-Heidentum, Freimaurer, I Ging, neue Hexen, PSI, Voodoo, Tarot und vieles mehr …, Heyne, München 1997, ISBN 3-453-12302-6. Aidan A. Kelly: Neo-Pagans and the New Age. In: John Gordon Melton, Jerome Clarke, Aidan A. Kelly (Hrsg.): New Age Encyclopedia. Gale Research Publ. Detroit 1990, ISBN 0-8103-7159-6, S. 311–315. Uwe Puschner: Weltanschauung und Religion, Religion und Weltanschauung. Ideologie und Formen völkischer Religion. In: zeitenblicke, Bd. 5 (2006), Nr. 1. online. Stefanie von Schnurbein: Die Suche nach einer „arteigenen“ Religion in 'germanisch-' und 'deutschgläubigen' Gruppen. In: Uwe Puschner, Walter Schmitz und Justus H. Ulbricht (Hrsg.): Handbuch zur „Völkischen Bewegung“ 1871–1918. Saur, München u. a. 1996, ISBN 3-598-11421-4, S. 172–185. Marc R. Spindler: Europe’s Neo-Paganism. A Perverse Inculturation. In: International Bulletin of Missionary Research 11/1 (1987), , S. 8–11. Justus H. Ulbricht: Deutschgläubige und deutschgläubige Gruppierungen. In: Diethart Kerbs, Jürgen Reulecke (Hrsg.): Handbuch der deutschen Reformbewegungen 1880–1933. Peter Hammer, Wuppertal 1998, ISBN 3-87294-787-7, S. 499–511. Bücher Otto Bischofsberger et al. (Hrsg.): Das neue Heidentum. Rückkehr zu den alten Göttern oder neue Heilsbotschaft? Beiträge von Otto Bischofsberger, Peter Hölzle, Stefanie von Schnurbein (= Weltanschauungen im Gespräch, Band 14), Paulusverlag, Fribourg 1996, ISBN 3-7228-0383-7. David Burnett: Dawning of the Pagan Moon. Eastbourne 1991 Richard Faber, Renate Schlesier (Hrsg.): Die Restauration der Götter. Antike Religion und Neo-Paganismus. Königshausen + Neumann, Würzburg 1986, ISBN 3-88479-211-3. René Gründer: Germanisches (Neu-)Heidentum in Deutschland. Entstehung, Struktur und Symbolsystem eines alternativreligiösen Feldes (= Perilog 2), Logos, Berlin 2009, ISBN 978-3-8325-2106-6. Charlotte Hardman, Graham Harvey (Hrsg.): Paganism Today. Wiccans, driuds, the goddesses and ancient earth traditions for the twenty-first century. Thorsons Press, London 1996, ISBN 0-7225-3233-4. Victoria Hegner: Hexen der Großstadt. Urbanität und neureligiöse Praxis in Berlin. transcript, Bielefeld 2019, ISBN 978-3-8376-4369-5. Ronald Hutton: The Triumph of the Moon. A History of Modern Pagan Witchcraft. University Press, Oxford 2000, ISBN 0-19-820744-1. Joanne Pearson (Hrsg.): Nature Religion Today. Paganism in the Modern World. University Press, Edinburgh 1998, ISBN 0-7486-1057-X. Shelley Rabinovitch, James Lewis (Hrsg.): The Encyclopedia of Modern Witchcraft and Neo-Paganism. Citadel Press, New York 2003, ISBN 0-8065-2407-3. Uwe Puschner: Die völkische Bewegung im wilhelminischen Kaiserreich. Sprache – Rasse – Religion. Wissenschaftliche Buchgesellschaft, Darmstadt 2001, ISBN 3-534-15052-X. Sian Reid (Hrsg.): Between the Worlds. Readings in Contemporary Neo-Paganism. Canadian Scholars’ Press, Toronto 2006, ISBN 978-1-55130-314-7. Stefanie von Schnurbein: Religion als Kulturkritik. Neugermanisches Heidentum im 20. Jahrhundert. Carl Winter, Heidelberg 1992, ISBN 3-533-04582-X. David Waldron: The Sign of the Witch. Modernity and the Pagan Revival. Carolina Academic Press, Durham, N. C. 2008, ISBN 978-1-59460-505-5. Karlheinz Weißmann: Druiden, Goden, Weise Frauen. Zurück zu Europas alten Göttern. Herder, Freiburg im Breisgau 1991, ISBN 3-451-04045-X. Weblinks FAQ von Eric Raymond mit einer Auflistung von Prinzipien (engl.) Kritische Darstellung der ev. Kirche Einzelnachweise Neue religiöse Bewegung
Q189753
139.915363
47333
https://de.wikipedia.org/wiki/Folter
Folter
Folter (auch Marter oder Tortur) ist das gezielte Zufügen von psychischem oder physischem Leid (Schmerz, Angst, massive Erniedrigung), um Aussagen zu erpressen, den Willen des Folteropfers zu brechen oder das Opfer zu erniedrigen. Die UN-Antifolterkonvention wertet jede Handlung als Folter, bei der Träger staatlicher Gewalt einer Person „vorsätzlich starke körperliche oder geistig-seelische Schmerzen oder Leiden zufügen, zufügen lassen oder dulden, um beispielsweise eine Aussage zu erpressen, um einzuschüchtern oder zu bestrafen“. Folter ist trotz weltweiter Ächtung eine weitverbreitete Praxis. Verantwortliche werden meist nicht zur Rechenschaft gezogen. Rechtliche Situation Völkerrechtliche Bestimmungen Verschiedene völkerrechtliche Bestimmungen enthalten ein Folterverbot. Art. 5 der Allgemeinen Erklärung der Menschenrechte (AEMR) der Vereinten Nationen besagt: Ähnlich drücken es der Europäischen Menschenrechtskonvention (EMRK) des Europarats und wortgleich Artikel 4 der Charta der Grundrechte der Europäischen Union aus: Übereinkommen gegen Folter und andere grausame, unmenschliche oder erniedrigende Behandlung oder Strafe vom 10. Dezember 1984 (kurz: UN-Antifolterkonvention), Teil I, Artikel 1 (1): Die Allgemeine Erklärung der Menschenrechte der Vereinten Nationen stellt kein unmittelbar anwendbares Recht dar. Dagegen kann die Europäische Menschenrechtskonvention von allen Bürgern aus den 47 Staaten des Europarats direkt beim Europäischen Gerichtshof für Menschenrechte eingeklagt werden. Seit Ratifizierung des Vertrag von Lissabons haben – mit Ausnahme von Großbritannien und Polen – die Bürger der EU zusätzlich die Möglichkeit, die Charta der Grundrechte der Europäischen Union vor dem Europäischen Gerichtshof einzuklagen. Weitere völkerrechtliche Folterverbote finden sich im Internationalen Pakt über bürgerliche und politische Rechte Art. 7 IPbpR und in der Antifolterkonvention der Vereinten Nationen. Das Folterverbot ist absoluter Natur, von welchem auch in Notfällen nicht abgewichen werden darf, vgl. Art. 15 Abs. 2 EMRK, Art. 4 Abs. 2 IPbpR. Gesetzeslage Deutschland Im Recht der Bundesrepublik Deutschland ist ein Verbot der Folter verfassungsrechtlich in Abs. 1 GG und in Abs. 1 Satz 2 GG verankert: Das Folterverbot wird durch verschiedene Bestimmungen des deutschen Straf- und Strafprozessrechts abgesichert. StGB Körperverletzung im Amt und StGB Aussageerpressung sind Straftatbestände (Amtsdelikt). So wird es Vorgesetzten durch StGB verboten, ihre Mitarbeiter zu rechtswidrigen Taten zu verleiten oder auch nur solche zu dulden. Ferner sind Aussagen, die unter der Androhung von Folter erpresst werden, in einem Gerichtsverfahren nicht verwertbar ( StPO).. Die Rechtmäßigkeit der sogenannten Rettungsfolter ist höchstrichterlich noch nicht geklärt und in der juristischen Literatur umstritten. Österreich Das Folterverbot wurde 1776 eingeführt. Verstöße sind nach StGB Quälen oder Vernachlässigen eines Gefangenen bzw. seit 2012 nach StGB Folter strafbar. Liechtenstein Die Misshandlung von Gefangenen und Folter sind strafbar, § 312 StGB Quälen oder Vernachlässigen eines Gefangenen bzw. seit 2019 § 312a StGB Folter. Schweiz Die Schweiz hat die UN-Antifolterkonvention ratifiziert, aber nicht umgesetzt. Weder Folter noch die Misshandlung von Gefangenen sind in der Schweiz ein expliziter Straftatbestand, doch gelten selbstverständlich die Bestimmungen betreffend Nötigung und Körperverletzung. In den Kantonen Zürich (, vgl. BGE 137 IV 269), St. Gallen und Appenzell Innerrhoden genießen Beamte die relative Immunität, vgl. Abs. 2 lit b StPO. Bei Misshandlungen in Polizeigewahrsam prüft jeweils eine nicht richterliche Stelle, ob aus Opportunitätsgründen die Immunität der fehlbaren Polizeibeamten aufgehoben werden soll oder nicht. Geschichte bis 1989 Heiliges Römisches Reich und Deutschland Wurzeln im römischen Recht Die geschichtlichen Wurzeln der Folterpraxis des deutschen Spätmittelalters liegen im römischen Recht. Dies kannte die Folter ursprünglich nur gegenüber Sklaven, seit dem 1. nachchristlichen Jahrhundert aber bei Majestätsverbrechen (crimen laesae maiestatis, also Hochverrat) auch gegenüber Bürgern. Das deutsche Lehnwort „Folter“ leitet sich aus dem lateinischen Wort ‚Fohlen‘ her, der Bezeichnung für ein pferdeähnliches Foltergerät. Es gab zwei Wege, auf denen römisches Recht in das deutsche Recht des Mittelalters importiert wurde. Zum einen war es das Kirchenrecht, das sich – mit dem Zentrum der Papstkirche in Rom – von jeher am römischen Recht orientiert hatte (Merksatz: ‚die Kirche lebt nach römischem Recht‘). Der zweite Weg, der zur Übernahme des römischen Rechts in das deutsche mittelalterliche Recht führte, war die sogenannte Rezeption. In Italien griff man seit dem beginnenden 12. Jahrhundert, vor allem an der Universität von Bologna, aufgrund einer wohl im 10. Jahrhundert wiederentdeckten Handschrift der Digesten (aus der großen justinianischen Rechtssammlung des 6. Jahrhundert, dem Corpus iuris civilis, „Gesamtwerk des bürgerlichen Rechts“) auf verarbeitetes traditionelles altrömisches und (vor-)klassisches Recht zurück, das am Ausgang der Antike auf eine tausendjährige Entwicklung zurückblicken konnte. Die Rezeption verlief in und für Deutschland über mehrere Schritte, die der Glossatoren und Kommentatoren, und in der wissenschaftlichen Auseinandersetzung über den usus modernus, sowie mündend in den Pandektismus, über die Historische Rechtsschule. Auch im Heiligen Römischen Reich, wo weltliche Herrschaftsträger sich immer wieder mit kirchlichen Einrichtungen und deren rechtlich geschulten Klerikern auseinanderzusetzen hatten, schickte man nun Studenten zum Studium der – im Reich nicht existierenden – Rechtswissenschaft an italienische Hochschulen. Sie traten nach Abschluss ihrer Studien als Träger römisch-rechtlicher Vorstellungen in die deutsche Rechtspraxis ein. Mittelalter Das Recht des deutschen Mittelalters war überwiegend von – nur teilweise schriftlich niedergelegtem – Gewohnheitsrecht geprägt, das sich örtlich und zeitlich unterschiedlich entwickelte und nicht wissenschaftlich-systematisch begründet und rational durchdrungen war. Hatten Kirchenväter und Päpste vor der Jahrtausendwende die Anwendung von Folter noch ausdrücklich abgelehnt, so änderte sich das im spätmittelalterlichen Kampf der Kirche gegen die häretischen Bewegungen der Katharer (Hauptgruppe: Albigenser) und der Waldenser. 1252 erließ Papst Innozenz IV. seine Bulle Ad Extirpanda. Er rief in ihr die Kommunen Norditaliens auf, der Ketzerei verdächtige Personen mit Hilfe der Folter zum Eingeständnis ihrer Irrtümer zu zwingen, „ohne ihnen die Glieder zu zerschlagen und ohne sie in Lebensgefahr zu bringen“. Diese später auf ganz Italien ausgedehnte und von späteren Päpsten bestätigte Anordnung wurde im 13. Jahrhundert auch im Heiligen Römischen Reich im kirchlichen Strafverfahren, der Inquisition, von den dazu verpflichteten weltlichen Behörden angewandt. Nach mittelalterlicher Auffassung konnte eine Verurteilung entweder auf Grund der Aussage zweier glaubwürdiger Augenzeugen oder auf Grund eines Geständnisses erfolgen. Hingegen konnten bloße Indizien, selbst wenn sie noch so zwingend auf die Schuld des Angeklagten hinwiesen, oder die Aussage eines einzelnen Zeugen keine Verurteilung rechtfertigen. Diese Auffassung sah man durch bestimmte Bibelstellen wie , und gestützt. Andere Bezeichnungen für Folter waren Marter, Tortur, Frage in der Strenge bzw. Frage in der Schärfe oder Peinliche Befragung. Die Folter selbst war keine Strafe, sondern eine Maßnahme des Strafverfahrensrechts und sollte eine Entscheidungsgrundlage liefern. Im Mittelalter wurden sowohl Folter mit physischen Auswirkungen als auch die sogenannte Weiße Folter praktiziert. Spätmittelalter und beginnende Neuzeit In der weltlichen Gerichtsbarkeit wurde die Folter im Heiligen Römischen Reich seit Anfang des 14. Jahrhunderts praktiziert. Sie entwickelte sich gegen Ende des Mittelalters als Mittel des Strafverfahrensrechts und wurde meist so definiert: Ein von einem Richter rechtmäßig in Gang gebrachtes Verhör unter Anwendung körperlicher Zwangsmittel zum Zwecke der Erforschung der Wahrheit über ein Verbrechen. Zu den theoretischen Fundamenten der Folteranwendung im Heiligen Römischen Reich im Römischen Recht kamen etwa seit dem 14. Jahrhundert auch praktische Bedürfnisse der Verbrechensbekämpfung hinzu. Die Auflösung alter Stammes- und Sippenstrukturen hatte zu sozialer und auch örtlicher Mobilität geführt, mit der auch eine verstärkte Kriminalitätsentwicklung einherging. Verarmende Ritter, umherziehende Landsknechte, reisende Scholaren, wandernde Handwerksburschen, Gaukler, Bettler und sonstiges fahrendes Volk machten die Landstraßen unsicher. Raubüberfälle und Morde waren an der Tagesordnung. Die sogenannten „landschädlichen Leute“ bildeten ein teilweise organisiertes Gewerbs- und Gewohnheitsverbrechertum. Es bedrohte Handel und Wandel und damit die Grundlagen des Wohlstandes vor allem in den Städten, für die die Bekämpfung der Kriminalität daher zu einer Lebensnotwendigkeit wurde. Das überkommene deutsche Strafverfahrensrecht war für eine wirksame Verbrechensbekämpfung weitgehend untauglich. Es beruhte auf der Vorstellung, dass die Reaktion auf begangenes Unrecht allein Sache des Betroffenen und seiner Sippe war. Verbrechensbekämpfung war keine öffentliche Aufgabe. Die Rechtsordnung hatte den Beteiligten zwar geregelte Formen für ihre Auseinandersetzung (Eid, Gottesurteil, Zweikampf) zur Verfügung gestellt, aber zu einem Verfahren war es lange Zeit nur auf Klage des Betroffenen oder seiner Sippe hin gekommen. Es galt das Prinzip: „Wo kein Kläger, da kein Richter“. Dieser heute noch für den deutschen Zivilprozess geltende Grundsatz lag lange Zeit auch dem Strafverfahrensrecht zugrunde. Für den Kampf der staatlichen Obrigkeit gegen die „landschädlichen Leute“ war dieser Verfahrenstyp weitgehend ungeeignet. So griff man auf einen anderen Verfahrenstypus zurück, der sich in der Kirche entwickelt hatte, nämlich das sogenannte Inquisitionsverfahren (von lateinisch ‚erforschen‘). Es ging nun nicht mehr um eine formale Beweisführung (durch Eid, Gottesurteil, Zweikampf – die letzteren beiden Beweismittel hatte die Kirche im vierten Laterankonzil von 1215 ohnedies verboten), sondern um die materielle Wahrheit. Der Beweis durch zwei Augenzeugen spielte dabei in der Praxis keine bedeutende Rolle. Er konnte nur zum Zuge kommen, wenn der Verbrecher sich bei seiner Tat von zwei Zeugen hatte beobachten lassen und wenn er ungeschickt genug gewesen war, diese Zeugen überleben zu lassen. So wurde im Inquisitionsverfahren das Geständnis des Beschuldigten zur „Königin aller Beweismittel“, und das Geständnis erlangte man oft mit Hilfe der Folter. Ganz überwiegend vertrat man die Meinung, dass die Folter ein notwendiges Mittel zur Erforschung der Wahrheit in Strafsachen sei und dass Gott dem Unschuldigen die Kraft verleihen werde, die Qualen der Folter ohne ein Geständnis zu überstehen. Die Anwendung der Folter breitete sich im Laufe des Spätmittelalters und der frühen Neuzeit nahezu im gesamten Heiligen Römischen Reich aus. Gesetzliche Regelungen zum Gebrauch der Folter existierten zunächst nicht. Dies führte zu einer weitgehend willkürlichen Folterpraxis. Vielfach waren es juristisch nicht gebildete Laienrichter, die über die Folterung zu entscheiden hatten. Gesetzliche Regelungen im 15. bis 17. Jahrhundert Willkürliche Folterungen infolge fehlender gesetzlicher Regelungen führten zu Klagen. Ein auf Deutsch geschriebenes Rechtsbuch, der um 1436 in Schwäbisch Hall verfasste Klagspiegel, geißelte die Missstände der Strafjustiz und versuchte, den Beschuldigten Anleitungen zu geben, wie sie sich gegen unfähige und willkürliche Richter, „närrische Heckenrichter in den Dörfern“, mit juristischen Mitteln zur Wehr setzen könnten. Die Folter, so forderte der Autor, dürfe nur „messiglich auß vernunft“ angewendet werden. Das 1495 errichtete Reichskammergericht berichtete dem Reichstag zu Lindau 1496/97, dass bei ihm Beschwerden eingegangen seien, wonach Obrigkeiten „Leute unverschuldet und ohne Recht und redliche Ursache zum Tode verurteilt und richten lassen haben sollen“. 1498 beschloss der Reichstag von Freiburg „eine gemeine Reformation und Ordnung in dem Reich führzunehmen, wie man in Criminalibus procedieren solle“. Fünf Reichstage befassten sich in Folge mit der geforderten Regelung von Strafverfahren. Der 1532 in Regensburg abgehaltene Reichstag stimmte der „Peinlichen Gerichtsordnung Kaiser Karls V.“ zu. Besonders eingehend regelte dieses neue Gesetz die Folter. Sie durfte danach nur angewendet werden, wenn gegen den Beschuldigten schwerwiegende Verdachtsgründe vorlagen und wenn diese Verdachtsgründe durch zwei gute Zeugen oder die Tat selbst durch einen guten Zeugen bewiesen waren. Vor der Entscheidung über die Anwendung der Folter müsse dem Angeklagten Gelegenheit zur Entlastung gegeben werden. Selbst bei feststehenden Verdachtsgründen dürfe nur gefoltert werden, wenn die gegen den Angeklagten vorliegenden Gründe schwerwiegender als die für seine Unschuld sprechenden Gründe seien. Das Maß der Folterung habe sich nach der Schwere der Verdachtsgründe zu richten. Ein unter der Folter abgelegtes Geständnis dürfe nur verwertet werden, wenn der Angeklagte es mindestens einen Tag später bestätige. Auch dann müsse der Richter es noch auf seine Glaubwürdigkeit überprüfen. Der Gebrauch der Folter entgegen den Vorschriften des Gesetzes müsse zur Bestrafung der Richter durch ihr Obergericht führen. Die Peinliche Gerichtsordnung führte eine Reihe von Schutzklauseln zu Gunsten des Beschuldigten ein. Gemessen an den Maßstäben der Zeit war es fortschrittlich. Aber auch nach diesen Maßstäben wies es Lücken auf. Vor allem regelte es nicht Art und Maß der Folter und die Voraussetzungen ihrer wiederholten Anwendung, sondern überließ all dies der „ermessung eyns guten vernünfftigen Richters“. Insofern brachten manchmal erst spätere Territorialgesetze nähere Regelungen, z. B. die bayerische Malefiz-Prozessordnung von 1608. Im Großen und Ganzen hat die Peinliche Gerichtsordnung, die als Reichsrecht erst mit der Auflösung des Heiligen Römischen Reiches im Jahre 1806 das Ende ihrer Geltung fand (als Landesrecht konnte sie auch später noch angewendet werden), ihr Ziel zurückhaltenderen Foltergebrauches wohl erreicht. In manchen Städten und Territorien ist sie in dieser Richtung durch städtische oder Territorialgesetze noch ergänzt, teilweise modifiziert worden. Dazu kamen differenzierte Lehren zur Folter, die die lange Zeit im Reich dominierende italienische Strafrechtswissenschaft entwickelte. Hexenprozesse Nahezu unwirksam war die Peinliche Gerichtsordnung bei den massenhaften Hexenverfolgungen in der zweiten Hälfte des 16. Jahrhunderts und im 17. Jahrhundert. Für diese Hexenverfolgungen war es – ebenso wie für die zeitlich meist früheren Ritualmordbeschuldigungen gegen Juden – kennzeichnend, dass man so lange, so heftig und so oft folterte, bis die von den Peinigern erwünschten Geständnisse vorlagen. Verschärfend kam hinzu, dass die so Verhörten oftmals selbst dem entsprechenden Aberglauben anhingen und mit den zu gestehenden Wahnbildern vertraut waren. Die Begründung für die Missachtung der Peinlichen Gerichtsordnung bei den großen Hexenverfolgungen war auf katholischer wie auf protestantischer Seite die gleiche. Die Hexerei sei ein crimen exceptum, ein Ausnahmeverbrechen (so der katholische Weihbischof in Trier Peter Binsfeld in seinem berühmt-berüchtigten Hexentraktat von 1589), ein crimen atrocissimum, ein Verbrechen schrecklichster Art (so der Lutheraner und sächsische Rechtsgelehrte Benedikt Carpzov in einem 1635 erschienenen Kriminallehrbuch) – bei solchen Verbrechen brauche man die normalen Verfahrensregelungen nicht zu beachten. Die Rechtsprechung des Reichskammergerichts war in den 255 Fällen, in denen es Verfahren mit Bezügen zum Hexereidelikt durchzuführen hatte, streng an der Peinlichen Gerichtsordnung orientiert. Es lehnte die Theorie vom Ausnahmeverbrechen ab und verlangte, dass alle Indizien auf ihren Wahrheitsgehalt untersucht werden müssten, bevor es zu einer Folterung kommen durfte. Wegbereitend für die Beendigung der Folterpraxis in Hexenprozessen war die Cautio Criminalis, eine Stellungnahme des Jesuiten Friedrich Spee gegen die Folter in Hexenprozessen (1631). Abschaffung der Folter im 18. Jahrhundert Vordenker Vereinzelte Bedenken gegen den Sinn und die Rechtmäßigkeit der Folter hat es schon im Mittelalter gegeben. Der geistesgeschichtliche Kampf gegen die Folter setzte bereits vor der Aufklärung und überwiegend außerhalb Deutschlands ein. Der Humanist, Philosoph und Theologe Juan Luis Vives, ein spanischer Judenkonvertit, lehnte die Folter in einer 1522 erschienenen Schrift als unchristlich und sinnlos ab. Der französische Philosoph Michel de Montaigne führt in den kurz vor 1580 erschienenen Essays aus, dass man es abscheulich und grausam finden könne, einen Menschen wegen eines noch ungewissen Verbrechens zu foltern, und zweifelt darüber hinaus daran, dass die unter Folter gewonnenen Aussagen verlässlich seien. 1602 wandte sich der reformierte (calvinistische) Pfarrer Anton Praetorius in seinem „Gründlichen Bericht Von Zauberey und Zauberern“ gegen die Folter: „In Gottes Wort findet man nichts von Folterung, peinlichem Verhör und Bekenntnis durch Gewalt und Schmerzen. (…) Peinliches Verhör und Folter sind schändlich, weil sie vieler und großer Lügen Mutter ist, weil sie so oft den Menschen am Leib beschädigt und sie umkommen: Heute gefoltert, morgen tot.“ Als „barbarisch, unmenschlich, ungerecht“ bezeichnete 1624 der calvinistische Geistliche Johannes Grevius die Folter. Der Sache nach – wenn auch nicht ausdrücklich – plädierte auch der deutsche Jesuit Friedrich Spee gegen die Folter. Spee übte in der bereits 1631 in seiner anonym erschienenen Schrift „Cautio Criminalis“ radikale Kritik an den Hexenverfolgungen. Im Jahr 1633 mahnt der Jurist Justus Oldekop bereits im Titel seiner Cautelarum criminalium Syllagoge practica … (363 S.) mit Vehemenz zu Vorsicht und Verhütung im Kriminalprozess. Dabei wandte er sich 1659 in seinen Observationes criminales practicae (478 S.) speziell gegen das Herausfoltern von „Beweisen“ im Hexenprozess und spricht insofern von „künstlich erfundenen Delikten“ (Quaestio Nona) als Folge der gewalttätigen Verfahren. In seinen geharnischten Streitschriften ging er über die zunehmende Kritik am Hexenprozess weit hinaus, indem er selbst die Existenz von Hexen und folglich die Rechtmäßigkeit von Hexenprozessen prinzipiell ad absurdum führte als einer der frühesten Kämpfer wider Hexenlehre und -wahn. 1657 entstand an der Universität Straßburg unter dem Theologieprofessor Jakob Schaller eine Dissertation mit dem Titel „Paradoxon der Folter, die in einem christlichen Staat nicht angewendet werden darf“. 1681 schlug der Franzose Augustin Nicolas in einer Schrift dem französischen König Ludwig XIV. vor, die Folter als Vorbild für alle christlichen Fürsten abzuschaffen, jedoch vergeblich. Der französische Philosoph und Schriftsteller Pierre Bayle, ein Vertreter der Idee der Toleranz, kämpfte in einer 1686 erschienenen Schrift gegen die Folter. 1705 nahm der aufklärerisch wirkende deutsche Jurist und Rechtsphilosoph Christian Thomasius eine Doktorarbeit mit dem übersetzten Titel „Über die notwendige Verbannung der Folter aus den Gerichten der Christenheit“ an. Als Gegner der Folter äußerten sich weiterhin der französische Staatswissenschaftler Charles de Secondat, Baron de Montesquieu 1748, der französische Aufklärungsphilosoph Voltaire und 1764 der italienische Jurist Cesare Beccaria. Erlasse zur Abschaffung Allmählich brach im 18. Jahrhundert der Widerstand der Obrigkeit und ihrer Juristen gegen die Abschaffung der Folter zusammen. Friedrich Wilhelm I. schaffte in Preußen am 13. Dezember 1714 de facto die Hexenprozesse ab, indem er bestimmte, dass jedes Urteil auf Vollziehung der Folter und jedes Todesurteil nach einem Hexenprozess von ihm persönlich zu bestätigen war. Da diese Bestätigung nie erfolgte, gab es in Preußen keine Hexenprozesse mehr. Der Preußenkönig Friedrich der Große ließ bereits wenige Tage nach seinem Amtsantritt in einer Kabinettsorder vom 3. Juni 1740 die „Tortur“ ausdrücklich abschaffen, allerdings mit drei Ausnahmen: Hochverrat, Landesverrat und „große“ Mordtaten mit vielen Tätern oder Opfern. 1754/1755 wurden auch diese Einschränkungen beseitigt, ohne dass bis dahin ein solcher Ausnahmefall eingetreten war. Friedrichs Denken war stark von der Toleranzphilosophie Bayles beeinflusst. Wenige Jahrzehnte später folgten andere Territorien im Reich, wie die Übersicht rechts zeigt. In Österreich, wo noch 1768 die Constitutio Criminalis Theresiana in Kraft gesetzt worden war, in der die damals üblichen Foltermethoden verbindlich geregelt wurden, auch um deren Anwendung einzuschränken, wurde die Folter am 2. Januar 1776 durch einen Erlass Maria Theresias abgeschafft. Im ab 1. Januar 1787 geltenden Josephinischen Strafgesetz war Folter nicht mehr enthalten. Die Entwicklung im übrigen Europa verlief ähnlich. 1815 wurde die Folter im Kirchenstaat abgeschafft. Zuletzt erfolgte die Abschaffung 1851 im schweizerischen Kanton Glarus, wo 1782 an Anna Göldi auch eine der letzten Hinrichtungen wegen Hexerei in Europa vollzogen wurde. Eigentliche Ursache für die Abschaffung der Folter im 18. Jahrhundert war, wie Michel Foucault in „Überwachen und Strafen“ ausführt, nicht etwa vorrangig ein aufgeklärter Humanismus, sondern recht pragmatische Überlegungen: Folter bringe nämlich zwar schnelle Geständnisse, diene in der Regel aber nicht der Wahrheitsfindung, da der Gefolterte naturgemäß das sage und sagen muss, was der Folternde hören will bzw. erwartet. Folter sei demnach seinerzeit als der Verbrechensbekämpfung eher hinderlich gesehen worden. Die Frage der Beweisführung Mit der Abschaffung der Folter war nicht das für die Allgemeinheit und die Richter wichtige Problem gelöst: Wie sollte erreicht werden, dass Schuldige einer Strafe zugeführt, Unschuldige aber freigesprochen würden? Zunächst versuchte man, an Stelle der abgeschafften Folter Schikanen zu praktizieren, um Geständnisse zu erreichen. Man verprügelte die Beschuldigten, was kein traditionelles Mittel der Folter war. Man versuchte es mit endlosen Verhören, mit Zureden oder Drohungen, mit der Verhängung von Ungehorsams- oder Lügenstrafen, mit der Entziehung von Kost im Gefängnis. Rechtswissenschaftlich überzeugend und human waren diese Lösungen nicht. Da das Geständnis seine Rolle als Königin aller Beweismittel nun ausgespielt hatte, stellte sich die Frage nach dem Wert von Indizien. Man sträubte sich etwa, die Todesstrafe auf der Grundlage von Indizienbeweisen zu verhängen. Es entstanden Lehrbücher mit Theorien über die Indizien; man unterteilte in vorausgehende, gleichzeitige und nachfolgende Indizien, in notwendige und zufällige, unmittelbare und mittelbare, einfache und zusammengesetzte, nahe und entfernte. Die Unsicherheit der Rechtsgelehrten spiegelte sich noch in der Gesetzgebung des 19. Jahrhunderts. Erst allmählich erkannte man, dass es sinnlos war, die richterliche Überzeugungsbildung in ein Korsett gesetzlicher Regelungen zu zwängen, sondern dass die Lösung in der Anerkennung des Grundsatzes der freien richterlichen Beweiswürdigung bestand. Dieser Grundsatz wurde dann 1877 in die Reichsstrafprozessordnung übernommen. Noch heute gilt er in unverändertem Wortlaut als § 261 der deutschen Strafprozessordnung: „Über das Ergebnis der Beweisaufnahme entscheidet das Gericht nach seiner freien, aus dem Inbegriff der Verhandlung geschöpften Überzeugung.“ In seinem Grundlagenbuch zum Strafrecht im Sinne der Aufklärung von 1764 Dei delitti e delle pene (über die Verbrechen und die Strafen) lehnt Cesare Beccaria die Folter ab. Entweder der Angeklagte ist schuldig, oder er ist nicht schuldig, argumentiert Beccaria: Wenn er schuldig ist, wird das eine Beweisführung zeigen, und man wird den Täter seiner ordentlichen Strafe zuführen; ist er unschuldig, hätte man einen Unschuldigen gefoltert. Dem Argument, Folter diene der Wahrheitsfindung, begegnet der Rechtsphilosoph mit den Worten: „Als ob man mit Schmerz die Wahrheit testen könnte, als säße die Wahrheit in den Muskeln und Sehnen des armen, gefolterten Kerls. Mit dieser Methode wird der Robuste frei kommen und der Schwache verurteilt. Das sind die Unannehmlichkeiten dieses angeblichen Wahrheitstests, würdig nur eines Kannibalen.“ Historisierung der Folter ab dem 20. Jahrhundert Nachdem die Folter im 18. und 19. Jahrhundert rein rechtlich nahezu überall in den deutschen Gebieten abgeschafft wurde, setzte – insbesondere seit Beginn des 20. Jahrhunderts – ein Prozess der Historisierung ein, also eine veränderte Wahrnehmung der Folter aus einer abgeklärteren Distanz. Folter wurde zunehmend als ein mittlerweile überkommenes Element der Vergangenheit betrachtet. Auch wurde sie als eine inzwischen überwundene Maßnahme betrachtet, die nun allmählich ihr Bedrohungspotential verlor. Gleichzeitig drang die Thematik der Folter in die Bereiche Wissenschaft, Literatur und Unterhaltung ein. Wissenschaftliche Arbeiten begannen sich mit dem Thema zu befassen. Richard Wrede schrieb im Jahr 1898: Ebenso deklarierte Franz Helbing die Folter als „ein Wort, das wir heute nur mit Entsetzen aussprechen und als Barbarei der Vergangenheit betrachten.“ Erste Museen und Ausstellungen zum Thema Folter wurden eingerichtet und zu einer beliebten Attraktion. Beispielhaft hierfür steht „die historische und weltbekannte Sammlung der Foltergeräte aus der Kaiserburg von Nürnberg, darunter die berühmte Eiserne Jungfrau, aus den Beständen des ehrenwerten Earl of Shrewsbury and Talbot“, die schon im Jahr 1893 in New York gezeigt wurde. Auch das im Jahr 1926 eröffnete Heimatmuseum im Hexenbürgermeisterhaus in Lemgo ist Teil dieser Entwicklung. Ebenso findet Folter Eingang in die Literatur. Neben unterschiedlichen Überlegungen zu dem Thema steht auch hier vor allem die Bewertung der Folter als Element der Vergangenheit. So legt Thomas Mann seinem Protagonisten Hans Castorp in dem 1924 erschienenen Roman Der Zauberberg die Worte in dem Mund: „Die Folter war abgeschafft, obgleich ja die Untersuchungsrichter noch immer ihre Praktiken hatten, den Angeklagten müde zu machen.“ Diese Aussage – hier zwar nur von einer Romanfigur geäußert – verweist auf einen anderen Aspekt im Kontext des Historisierungsprozesses: Zwar war die klassische Folter nun gesetzlich verboten und galt als überholt, aktualisierte Formen von Folter bestanden jedoch auch im 20. Jahrhundert weiter. Mit Begriffen wie Seelenfolter wurden nun psychische Auswirkungen stärker in den Blick genommen. Auch die Praxis der Polizei stand in dieser Zeit im Kontext der modernen Folter: „Auf der Wache traktierten die Schutzleute in vielen Fällen auch unschuldige Bürger mit Faustschlägen, manchmal sogar mit Säbelhieben, und fesselten und knebelten sie wie Schwerverbrecher.“ Vor diesem Hintergrund wird in dieser Zeit auch der „Schutz vor dem Schutzmann“ zu einem geflügelten Wort. Letztlich stehen neben dem Historisierungsprozess, durch den die klassische Folter verstärkt als ein überkommenes Element vergangener Zeiten betrachtet wurde, aktualisierte Formen von Folter, die schon auf ein Fortbestehen der Folter im 20. Jahrhundert und darüber hinaus verweisen. Rechtsgeschichte der Folter Die Folter im Heiligen Römischen Reich war nach der Überzeugung der großen Mehrheit der Zeitgenossen rechtmäßig. Sie beruhte auf öffentlich verkündeten päpstlichen Bullen, kaiserlichen Privilegien und feierlichen Reichstagsbeschlüssen; daher kann man von einer Rechtsgeschichte der Folter sprechen. Die in unserer Epoche noch von vielen diktatorischen und autoritären Regimen praktizierte Folter ist dagegen unrechtmäßig, weshalb diese Regime die Anwendung von Foltermethoden regelmäßig leugnen. Es gibt heute nur noch eine Unrechtsgeschichte der Folter. Nationalsozialismus Im 20. Jahrhundert wurden während der Zeit des Nationalsozialismus erneut grausame Vernehmungsmethoden zugelassen und angewandt. Im Amtsdeutsch wurde die Folter als „verschärfte Vernehmungsmethode“ bezeichnet. Reinhard Heydrich erließ am 28. Mai 1936 einen geheimen Befehl an die Staatspolizeidienststellen, wonach „die Anwendung verschärfter Vernehmungsmethoden auf keinen Fall aktenkundig gemacht werden“ dürfe. Die Vernehmungsakten gefolterter Beschuldigter seien vom Leiter der jeweiligen Staatspolizeistelle persönlich unter Verschluss aufzubewahren. DDR In der sowjetisch besetzten Zone wurde durch sowjetische Besatzungsangehörige verschiedentlich Folter praktiziert, insbesondere Wasserfolter. In der DDR gab es Folter verschiedenen Schweregrades. Sie war bis 1953 – dem Tod Stalins und der offiziellen Abschaffung der Folter in der Sowjetunion – „die Regel, nicht die Ausnahme“. Bis 1989 wurde Folter durch Schläge, dauerhafte Isolation und systematischen Schlafentzug angewandt. Bundesrepublik Bei der an einigen verurteilten Linksterroristen praktizierten Isolationshaft wurde der Vorwurf der Folter erhoben. Das Kontaktsperregesetz wurde jedoch 1978 vom Bundesverfassungsgericht für verfassungskonform befunden. Chile während der Militärdiktatur 1973–1988 Nachdem das Militär gegen den sozialistischen Präsidenten Chiles, Salvador Allende am 11. September 1973 geputscht hatte, installierte es eine brutale Diktatur. Bald war der Oberkommandierende des Heeres, Augusto Pinochet, die unumstrittene Führungsfigur. Die Militärs lösten noch am Tag des Putsches fast alle demokratischen Institutionen auf und begannen damit, ihre politischen Gegner systematisch auszulöschen. Vor der Ermordung der meist heimlich verhafteten (Desaparecidos) Menschen war es üblich, diese zu foltern, um Informationen aus ihnen herauszupressen. Über fast 17 Jahre wurden mindestens 27.000 Menschen gefoltert. Zeugenaussage einer Frau, gefangen genommen im Oktober 1975, im Regiment Arica in La Serena: Geschichte seit 1990 Während in vielen nichtdemokratischen Staaten Folter trotz internationaler Ächtung weiterhin weit verbreitet ist, geben die Rechtsstaaten der Welt vor, Folter unter keinen Umständen zuzulassen. Aktuelle Diskussionen behandeln erneut die Frage nach der Anwendung von Folter und/oder „harten Verhörmethoden“, unter anderem im Zusammenhang mit der Bekämpfung des Terrorismus. Deutschland In der Bundesrepublik Deutschland ist jegliche Beeinträchtigung der freien Willensentschließung und Willensbetätigung eines Beschuldigten durch Misshandlung gesetzlich verboten (s. oben). Verstöße gegen die UN-Antifolterkonvention 2004 wurde publik, dass während der Grundausbildung im Instandsetzungsbataillon 7 der Bundeswehr in Coesfeld Rekruten bei nachgestellten Geiselnahmen gefoltert wurden, indem man sie fesselte und mit Wasser abspritzte. Weiterhin seien die Soldaten mit Elektroschockgeräten und durch Schläge in den Nacken misshandelt worden. Es wurden insgesamt 12 Fälle bekannt. Gegen 30 bis 40 Ausbilder wurde disziplinarrechtlich ermittelt. Der damalige Verteidigungsminister Peter Struck kündigte eine Überprüfung der gesamten Bundeswehr auf weitere Vorfälle an. Zu den profiliertesten Kritikern der Folter gehört Jan Philipp Reemtsma, der sie als Zivilisationsbruch bezeichnet. Der Daschner-Prozess, Diskussion um die „Rettungsfolter“ In Deutschland fand, ausgelöst durch die Entführung des Frankfurter Bankierssohns Jakob von Metzler, eine Diskussion über den Begriff „Rettungsfolter“ im Zusammenhang mit dem absolut geltenden Folterverbot statt. Ausgangslage, Fragestellung Vom damaligen Frankfurter Polizeivizepräsidenten Wolfgang Daschner wurde im Herbst 2002 angeordnet, dem Verdächtigen im Entführungsfall Metzler, Magnus Gäfgen, „massive Schmerzzufügung“ anzudrohen und diese gegebenenfalls auch durchzuführen. Bereits nach dieser Androhung der Folter verriet Magnus Gäfgen den Ermittlern den Aufenthaltsort des allerdings bereits getöteten Opfers. Bereits 1996 wurden wichtige Thesen, die die Befürworter der Anwendung von Folter zur „Gefahrenabwehr“ zugunsten des stellvertretenden Polizeipräsidenten Daschner geltend machten, vom Staatsrechtler und Rechtsphilosophen Winfried Brugger entwickelt. Dieser versuchte, die Pflicht zur Anwendung von Folter zum Zwecke der Gefahrenabwehr anhand eines vom Soziologen Niklas Luhmann inspirierten fiktiven Terroristenfalles rechtsphilosophisch, grundrechtsdogmatisch und polizeirechtlich zu begründen. Brugger selbst sprach sich später im Weiteren konsequent gegen die „Rettungsfolter“ aus. Rechtliche Bewertung Die Anwendung von Folter ist in Deutschland nicht zulässig, da die von Deutschland ratifizierte Europäische Menschenrechtskonvention, das Grundgesetz und die Strafprozessordnung ein eindeutiges Folterverbot enthalten (s. o.). Des Weiteren wird argumentiert, dass die Schmerzandrohung der Frankfurter Polizei die Menschenwürde verletzte, die auch für Tatverdächtige Bestand habe. Sie sei somit verfassungswidrig. Der Schutz der Menschenwürde sei im Grundgesetz absolut, d. h., er dürfe nicht gegen andere Rechte, auch nicht gegen das Recht auf Leben oder die Menschenwürde Dritter, abgewogen werden, da sonst die Objektformel verletzt werde. Sie verbietet es dem Staat, eine Person zum Objekt staatlichen Handelns zu machen. In den letzten Jahren haben sich jedoch in der rechtswissenschaftlichen Diskussion (insbesondere zur Bioethik) vermehrt Stimmen gemeldet, die eine Abwägbarkeit oder Abstufung des Menschenwürdegrundsatzes befürworten und damit die Folter nicht mehr kategorisch ablehnen. Allerdings gibt es auch nach konsequentialistischen Erwägungen Argumente gegen die Abwägung von Menschenleben. Nach den Regelungen des Polizei- und Ordnungsrechts dürfen auch zu Zwecken der Gefahrenabwehr Aussagen nicht erpresst werden (Beispiel Hessen § 52 Abs. 2 HSOG). In anderen Bundesländern gibt es vergleichbare Regelungen. Vereinzelt wird zur Rechtfertigung „besonderer Vernehmungsmethoden“ auf die gesetzlichen Regelungen über Notwehr und Notstand verwiesen ( StGB, , BGB) oder die Rechtmäßigkeit aufgrund eines „übergesetzlichen Notstands“ behauptet. Das Folterverbot der Europäischen Menschenrechtskonvention nach Abs. 2 sieht auch für den Notstandsfall ein Folterverbot vor, von dem „in keinem Fall abgewichen werden“ dürfe. Das weitere Geschehen Im Strafprozess gegen Magnus Gäfgen konnten die unter Folterandrohung gemachten Aussagen nicht verwertet werden (§ 136a StPO). Gegen den Polizei-Vizepräsidenten Wolfgang Daschner, der die Androhung von Folter angeordnet hatte, und gegen den Polizeibeamten Ortwin Ennigkeit, der die Androhung ausgesprochen hat, wurde vor dem Landgericht Frankfurt wegen Nötigung in einem besonders schweren Fall verhandelt. Am 20. Dezember 2004 wurden gegen beide rechtskräftig Geldstrafen auf Bewährung verhängt. Damit ist gerichtlich festgestellt, dass die Gewaltandrohung auch in diesem Fall rechtswidrig und strafbar war. Der Grund für die Verurteilung war aber, trotz zum Teil anders lautender Medienmeldungen, nur eine fehlende Erforderlichkeit der möglichen Notwehr. Die Frage, ob solcherart folterähnliche Handlungen abstrakt als Notwehr gerechtfertigt sein können, ließ das Gericht offen. Dagegen hat die große Kammer des Europäischen Gerichtshofs für Menschenrechte am 1. Juni 2010 festgestellt, dass die Androhung von Folter eine unmenschliche Behandlung im Sinne der Europäischen Menschenrechtskonvention war und ausnahmslos verboten ist. Die Strafen gegen Daschner und Ennigkeit könnten trotz mildernder Umstände nicht als angemessene Reaktion auf eine Verletzung des Art. 3 EMRK angesehen werden und wären im Angesicht des Verstoßes gegen eines der Kernrechte der Konvention unverhältnismäßig. Darauf stützend hat das Landgericht Frankfurt Gäfgen im August 2011 eine Entschädigung von 3.000 Euro durch das Land Hessen zugesprochen. Das Oberlandesgericht Frankfurt bestätigte diese Entscheidung 2012. Österreich Auch in Österreich werden immer wieder Einzelfälle von Misshandlungen durch die Polizei aufgedeckt. Der Fall Bakary J. Im April 2006 wurde der Gambier Bakary J. nach einer gescheiterten Abschiebung von vier WEGA-Beamten in eine leer stehende Lagerhalle in Wien gebracht und schwer misshandelt. Es dauerte 6 Jahre, bis die Beamten aus dem Dienst entlassen wurden, zuvor waren sie nach der Verurteilung zu einer bedingten Haftstrafe nur in den Innendienst versetzt worden. Über die Begebenheit erschien 2012 der 35-Minuten-Film Void – mit veränderten Namen sowohl des Opfers als auch der Peiniger. Am 11./12. Februar 2017 berichteten Die Presse und ORF vom Erscheinen des freien Online-Buchs Wie es sich zugetragen hat – Ein Erlebnisbericht aus meiner Sicht von Bakary Jassey, mit einer Einleitung von Reinhard Kreissl (Rechtssoziologe) und Vorworten von Heinz Patzelt (Jurist, Amnesty International), der in diesem Fall früh recherchiert hatte und Alfred J. Noll (Jurist, Herausgeber). Bakary (* 1973, verließ sein Heimatland Gambia 1996) beschrieb sein Erleben der Zeit von April 2006 bis zu seiner Freilassung im August 2006 ursprünglich auf Englisch, das Buch enthält eine redigierte Übersetzung durch Freunde ins Deutsche. Frankreich Seit Jahrzehnten werden in Frankreich Polizeigewalt und Übergriffe thematisiert. Amnesty International hat über einen Zeitraum von 14 Jahren rund 30 Fälle von Gewaltmissbrauch durch die französische Polizei verfolgt. In dem neuen Bericht von 2012 sind 18 Fälle dokumentiert, darunter fünf Fälle von tödlichem Schusswaffengebrauch und weitere fünf Fälle von Tod in Polizeigewahrsam. Gerade bei der Feststellung von Personalien gehe die Polizei äußerst brutal vor. Typisch seien Schläge mit Fäusten oder Knüppeln, die zu gebrochenen Nasen, Augenverletzungen, Prellungen und anderen Verletzungen führten. Vielfach berichten die Misshandelten, auch rassistisch beleidigt worden zu sein. Der Fall Selmouni/Frankreich Ende November 1991 wurde der marokkanisch-niederländische Staatsangehörige Ahmed Selmouni in Paris wegen des Verdachts auf Drogenschmuggel festgenommen und auf die Polizeiwache in Bobigny verbracht. Von der ersten Vernehmung an sah er sich körperlichen Misshandlungen ausgesetzt, die in der Folgezeit an Schwere zunahmen. Sein körperlicher Zustand wurde mehrfach ärztlich untersucht und protokolliert. Nach wenigen Tagen in der Untersuchungshaftanstalt Fleury-Mérogis stellte der untersuchende Arzt fest, dass die Entstehungszeit der etwa zwei Dutzend von ihm protokollierten Blutergüsse, Schwellungen und Schürfwunden bei Selmouni mit dem Aufenthalt bei der Polizei korrelierte, dass die Verletzungen aber alle „gut abheilen“ würden. Außerdem bestätigte Selmouni, dass er Schmerzmittel erhielt. Anfang Dezember 1992 wurde Selmouni in dem Strafverfahren wegen Drogenvergehens zu 15 Jahren Haft und lebenslanger Verbannung von französischem Territorium verurteilt. Zusätzlich wurde ihm und seinen Mitangeklagten eine gemeinschaftliche Geldstrafe in Höhe von 20 Millionen Francs (≈ 3,05 Millionen €) auferlegt. Die Haftdauer wurde später auf 13 Jahre reduziert, eine Revision wurde abgewiesen. Ende Dezember 1992 reichte Selmouni bei der Europäischen Menschenrechtskommission eine Beschwerde ein, nach der er durch den französischen Staat massiv in seinen Rechten aus der Europäischen Menschenrechtskonvention (EMRK) verletzt wurde. Frankreich habe ihm gegenüber das Verbot der Folter ( EMRK), sowie den Anspruch auf ein faires Gerichtsverfahren vor einem unparteiischen Gericht ( Abs. 1 EMRK) verstoßen. Die Kommission befand im November 1996 die Beschwerde für zulässig, in ihrem Untersuchungsbericht unterstützte sie einstimmig Selmounis Vorwürfe. In der anschließenden Verhandlung kam der Europäische Gerichtshof für Menschenrechte zu weitgehend der gleichen Auffassung. Selmouni wurden zusammen etwas über 600.000 Franc (≈ 93.500 €) Schmerzensgeld plus Kostenersatz zugesprochen. Der Gerichtshof stellte eine außergewöhnlich Schwere der Schuld bei den beteiligten Polizeibeamten fest und verlangte strenge Bestrafung, unabhängig vom „Ausmaß ihrer Gefährlichkeit“. Aber so schwer wie die Vorwürfe auch seien, fährt das Urteil fort, in Anbetracht des Umstands, dass die vorgeworfenen sexuellen Misshandlungen nicht nachgewiesen werden konnten, und angesichts der bisherigen Straffreiheit der Beamten und ihrer Führungsakten, hält der Gerichtshof eine Reduzierung der verhängten Freiheitsstrafen für angemessen, die darüber hinaus zur Bewährung ausgesetzt werden sollen. Welche disziplinarischen Maßregelungen vorgenommen werden sollten, liege im Ermessen der jeweiligen Vorgesetzten. Israel 1999 berichtete Amnesty International, dass das Fesseln in schmerzhaften Positionen, Schlafentzug und gewaltsames Schütteln immer noch erlaubt seien. Ein 2009 veröffentlichter Bericht des UN-Ausschusses gegen Folter berichtet von Foltervorwürfen in der Anlage 1391, einem 2006 geschlossenen Geheimgefängnis. Insgesamt berichtete der Ausschuss von rund 600 Beschwerden über Foltermethoden in Israel im Zeitraum von 2001 und 2006 (also während und kurz nach der Zweiten Intifada) und forderte Israel auf, den Vorwürfen nachzugehen. Dieses erklärte, dass die Anschuldigungen bereits geprüft und entkräftet seien. Ein Bericht des Öffentlichen Komitees gegen Folter in Israel und der Ärzteorganisation Physicians for Human Rights vom Oktober 2011 spricht von Misshandlung und Folter an Verhafteten durch Sicherheitspersonal. Darüber hinaus wirft er zuständigen israelischen Ärzten vor, echte medizinische Berichte über Verletzungen, die bei Verhören verursacht werden, zu vertuschen. Zitiert werden „zahllose Fälle, bei denen Einzelpersonen Verletzungen bezeugen, die ihnen während der Haft oder bei Verhören zugefügt wurden; von denen der medizinische Bericht des Krankenhauses oder des Gefängnispersonals nichts erwähnte“. Der Bericht gründet sich auf 100 Fälle palästinensischer Gefangener, die seit 2007 vor das Komitee gebracht wurden. Italien Die italienischen Behörden haben am 22. Juni 2005 mindestens 45 Personen nach Libyen abgeschoben, wo ihnen möglicherweise schwere Menschenrechtsverletzungen wie Folter drohten. Im Hinblick auf die inneritalienische Situation berichtete amnesty international über exzessive Gewaltanwendung und Misshandlungen bis hin zu Folter durch Beamte mit Polizeibefugnissen und Strafvollzugsbedienstete. Mehrere Personen kamen in der Haft unter umstrittenen Umständen zu Tode. Bei Polizeieinsätzen im Rahmen von Großdemonstrationen wurden Hunderte Personen Opfer von Menschenrechtsverletzungen. Im Rahmen des G8-Gipfels in Genua 2001 und den damit verbundenen Demonstrationen der Globalisierungskritiker wurden viele Demonstranten in das berüchtigte Bolzaneto-Gefängnis gebracht, um dort verhört zu werden. Zahlreiche Verhaftete berichteten anschließend unter anderem im Bolzaneto-Prozess von schweren Misshandlungen und Folter. In der italienischen Öffentlichkeit wurde diskutiert, ob Folter unter gewissen Umständen legitim sein könnte. Wenige Tage vor der Verabschiedung einer Strafrechtsnovelle hatte die Lega Nord einen Änderungsantrag eingebracht, der besagte, dass Folter oder die Androhung von Folter nur im Wiederholungsfall strafbar sei. Es wurde argumentiert, dass Folter oder deren Androhung bei Terrorismus ein legitimes Mittel sein könnte. Palästinensische Autonomiegebiete Nasser Suleiman, Direktor des Hochsicherheitsgefängnisses von Gaza-Stadt, erklärte gegenüber dem Spiegel, dass Untersuchungshäftlinge gefoltert würden. Dies geschieht zum Beispiel durch Ausreißen der Zehennägel oder stundenlangem Aufhängen an den Armen. Oft führen die so erzielten Ermittlungsergebnisse dann zur Todesstrafe. Spanien Franco-Diktatur und Übergang zur Demokratie Hintergrund der heutigen teils problematischen Menschenrechtslage in Spanien ist die Zeit der Franco-Diktatur (bis 1975). Beim Übergang vom Franquismus zur Demokratie erfolgte kein Bruch mit dem diktatorischen System, was auch bedeutete, dass Folterer nicht aus dem Polizeidienst entlassen wurden und dass keine Strafverfolgung für die schweren Menschenrechtsverletzungen während der Diktatur stattfand. In die Übergangszeit zur Demokratie (span. Transición) fiel eine starke Aktivität der baskischen Terrororganisation ETA gegen die Institutionen des Spanischen Staates. Die staatliche Reaktion darauf war für eine Demokratie außergewöhnlich hart. So wurden Aussagen in vielen Fällen auch weiterhin durch Folter erpresst, auch wurden Terrorverdächtige oft aus Rache sehr schwer misshandelt. Dabei kam es immer wieder auch zu Todesfällen in den Polizeikasernen und Gefängnissen. In den 1980er Jahren wurde eine staatsterroristische Gruppe (GAL) aufgestellt, die über viele Jahre mit Folter und Mord die ETA bekämpfte. Diese Epoche ist in Spanien als Schmutziger Krieg (span. guerra sucia) bekannt. Für Folter, politischen Mord und schwere Misshandlungen durch Polizei- und Militärangehörige bis in die 1980er Jahre gibt es zahlreiche Beweise und auch rechtskräftige Verurteilungen bis in die höchsten staatlichen Ebenen (Generäle, Minister usw.). Zu dieser Zeit war Spanien bereits ein demokratisches Land und Mitglied der EU und der NATO. Heutige Situation In Spanien kommt es immer wieder zu Misshandlungen und Folter (span. tortura) durch Beamte mit Polizeibefugnissen (Nationalpolizei, Guardia Civil u. a.). Opfer sind oft Frauen, Flüchtlinge und Angehörige von Minderheiten, so dass Amnesty International in vielen Fällen von sexistischen, fremdenfeindlichen bzw. politischen Motiven ausgeht. Die Existenz bzw. das Ausmaß der Folter ist politisch stark umstritten und wird immer wieder kontrovers diskutiert. In die Kritik gerät immer wieder die inkonsequente Strafverfolgung von Übergriffen und die im Verhältnis zu den begangenen Taten sehr milden Strafen. Der UN-Menschenrechtsausschuss kritisiert, dass verurteilte Folterer aus den Reihen der Sicherheitskräfte „oftmals begnadigt oder vorzeitig freigelassen werden oder ihre Strafe ganz einfach nicht antreten.“ Der Europäische Gerichtshof für Menschenrechte verurteilte 2012 Spanien zur Zahlung einer Entschädigung an den ehemaligen Chefredakteur einer baskischen Tageszeitung, da Foltervorwürfe nicht untersucht worden waren. Die in Spanien bestehende Möglichkeit der Kontaktsperrehaft wird vielfach kritisiert: Der UN-Sonderberichterstatter über Folter, der UN-Menschenrechtsausschuss, das europäische Komitee zur Folterprävention (Committee for the Prevention of Torture, CPT) sowie Amnesty International und andere Menschenrechtsorganisationen kritisieren regelmäßig gesetzliche Sonderbestimmungen, die eine Haft unter Kontaktsperre (span. prisión incomunicada) ermöglichen. Diese Haftbedingungen werden wegen der völligen Schutzlosigkeit der Beschuldigten als „Folterungen Vorschub leistende Praxis“ bezeichnet. Es finden intensive Verhöre durch Guardia Civil oder Nationalpolizei statt, aber der Beschuldigte hat nicht das Recht auf einen Anwalt oder auf die Untersuchung durch einen unabhängigen Arzt. Diese Haftbedingungen gelten bis zu fünf Tage und auch die Vorführung beim Haftrichter erfolgt zumeist erst nach dieser Zeit. Seit 2003 kann die Kontaktsperrehaft dann noch einmal um acht Tage verlängert werden. Gefangene äußern regelmäßig Beschuldigungen wegen Folterungen, Misshandlungen und erpressten Aussagen während dieses Zeitraums. In zahlreichen Fällen konnten Ärzte nach der Kontaktsperre deutliche Spuren körperlicher Gewalt feststellen. Im Jahr 2006 verabschiedete das baskische Parlament mit absoluter Mehrheit eine Resolution, in der es die spanische Regierung auffordert „die Existenz von Folter und deren Anwendung bei einigen Fällen in systematischer Form anzuerkennen.“ Die spanische Justiz hat immer wieder Angehörige von Polizei und Militär wegen Folterungen an Gefangenen rechtskräftig verurteilt. Nach Erkenntnissen von Amnesty International kam es in Spanien zwischen 1995 und 2002 in mindestens 320 Fällen zu rassistisch motivierten Übergriffen auf Personen aus 17 Ländern, darunter Marokko, Kolumbien und Nigeria. Opfer, die Misshandlungen anzeigen, sehen sich häufig mit Gegenklagen der Polizeibeamten konfrontiert. Angst, mangelnde juristische Unterstützung, Untätigkeit und Voreingenommenheit der Behörden führen dazu, dass viele Opfer Übergriffe nicht anzeigen. Vorbestrafte Polizeibeamte oder solche, gegen die Ermittlungsverfahren laufen, werden nicht vom Dienst suspendiert, sondern sogar von politischen Behörden unterstützt. Dagegen sind Polizeibeamte, die sich für den Schutz der Menschenrechte eingesetzt haben, bestraft worden. So wurden gegen drei Beamte, die 1998 in Ceuta auf Unregelmäßigkeiten bei der Festnahme und Abschiebung von marokkanischen Kindern aufmerksam gemacht hatten, disziplinarische Maßnahmen eingeleitet. USA Aktivitäten der CIA in der Nachkriegszeit Der amerikanische Historiker Alfred McCoy belegt in seinem Buch Foltern und Foltern lassen. 50 Jahre Folterforschung und -praxis von CIA und US-Militär die Erforschung und Anwendung von Foltermethoden durch die CIA. Diese wurden nach dem Zweiten Weltkrieg auch auf dem Gebiet der Bundesrepublik Deutschland durchgeführt. Ergebnis dieser Aktivitäten war unter anderem das sogenannte Kubark-Manual. „Krieg gegen den Terror“ ab 2001 Laut dem amerikanischen Historiker Alfred W. McCoy fanden im Zuge des „Kriegs gegen den Terror“ von 2001 bis 2004 folgende Menschenrechtsverletzungen durch US-Behörden und das Militär statt: Irakische „Sicherheitshäftlinge“ wurden harten Verhören und häufig auch Folterungen ausgesetzt. 1100 „hochkarätige“ Gefangene wurden in Guantánamo und Bagram unter systematischen Folterungen verhört. 150 Terrorverdächtige wurden rechtswidrig durch außerordentliche Überstellung in Staaten verbracht, die für die Brutalität ihrer Sicherheitsapparate berüchtigt sind. 68 Häftlinge starben unter fragwürdigen Umständen. Etwa 36 führende inhaftierte Al-Qaida-Mitglieder blieben jahrelang im Gewahrsam der CIA und wurden systematisch und anhaltend gefoltert. 26 Häftlinge wurden bei Verhören ermordet, davon mindestens vier von der CIA. Erst 2014 wurde ein Bericht des United States Senate Select Committee on Intelligence bekannt, nach dem die CIA wesentlich mehr und wesentlich brutalere Folter-Methoden bei Befragungen einsetzte und in keinem Fall irgendeine Information durch Folter gewonnen wurde, die nicht bereits durch andere Methoden bekannt war. Über beide Aspekte hatte die CIA seit den ersten Debatten systematisch und wiederholt gelogen. Der Bericht des Senatsausschusses wurde am 9. Dezember 2014 veröffentlicht. Gefangenenlager Guantanamo Präsident George W. Bush betonte, er habe niemals Folter angeordnet und werde dies auch niemals tun, weil dies gegen die Wertevorstellungen der USA sei. Bushs Äußerungen werden durch eine veröffentlichte Notiz vom 7. Februar 2002 bestätigt, in der der Präsident ausdrücklich anordnet, die Gefangenen human und gemäß der Genfer Konvention zu behandeln. In seinem Buch Decision Points schreibt er jedoch, persönlich das Waterboarding von Chalid Scheich Mohammed angeordnet zu haben. Der Verteidigungsminister der Vereinigten Staaten von Amerika, Donald Rumsfeld, genehmigte am 2. Dezember 2002 bei mutmaßlichen Mitgliedern von Al-Qaida und afghanischen Talibankämpfern, die im Gefangenenlager Guantanamo auf Kuba gefangengehalten wurden, bestimmte umstrittene Verhörmethoden. Er folgte damit einem Memorandum seines Chefjuristen William J. Haynes, der für Guantánamo 14 Verhörmethoden abgesegnet hatte. Dazu zählten leichte körperliche Misshandlungen, „die nicht zu Verletzungen führen“, Verharren in schmerzhaften Positionen, bis zu 20-stündige Verhöre, Isolation von Gefangenen bis zu 30 Tagen, Dunkelhaft und stundenlanges Stehen. Ein Großteil dieser Methoden, die internationalem Recht widersprechen, wurde sieben Wochen später von Rumsfeld selbst wieder verboten. In einer Anordnung vom 16. April 2003 wird ausdrücklich die Einhaltung der Vorgaben der Genfer Konventionen gefordert. Bestimmte „harte“ Verhörmethoden wie Isolationshaft oder aggressive Befragungen konnten nach Genehmigung des Verteidigungsministeriums der Vereinigten Staaten aber angewandt werden. Den USA wurde wiederholt von verschiedensten Seiten vorgeworfen, in Guantánamo gegen die Genfer Konventionen zu verstoßen, was 2004 vom Pentagon in folgenden Fällen bestätigt wurde: Drohung von Vernehmungsbeamten gegenüber einem Häftling, seine Familie zu verfolgen Verkleben des Mundes eines Häftlings mit Klebeband wegen des Zitierens von Koranversen Beschmieren des Gesichts eines Häftlings unter der Angabe, die Flüssigkeit sei Menstruationsblut Anketten von Häftlingen in fötaler Position Fälschliches Ausgeben von Vernehmungsbeamten als Mitarbeiter des Außenministeriums Koranschändungen Am 4. Oktober 2007 sind in der New York Times geheime Memoranden des US-Justizministeriums veröffentlicht worden, welche im Mai 2005 verfasst wurden. In ihnen werden die folgenden Verhörmethoden des CIA als gesetzeskonform angesehen: Schläge auf den Kopf über mehrere Stunden nackter Aufenthalt in kalten Gefängniszellen Schlafentzug über mehrere Tage und Nächte durch die Beschallung mit lauter Rockmusik Fesseln des Häftlings in unangenehmen Positionen über mehrere Stunden Waterboarding: Der Häftling wird auf ein Brett gefesselt, ein feuchtes Tuch auf seinen Kopf gelegt und mit Wasser übergossen. Durch den aufkommenden Würgereflex entsteht für ihn der Eindruck, er würde ertrinken. Die Methoden dürfen auch in Kombination angewendet werden. Präsident Bush hat die erwähnten Methoden in einer Rede verteidigt. Abu Ghuraib und Bagram Nach dem Ende der offiziellen Kampfhandlungen des dritten Golfkriegs kam das Abu-Ghuraib-Gefängnis im April 2004 in die Schlagzeilen. Der Fernsehsender CBS berichtete über Folter, Missbrauch und Erniedrigungen von Gefangenen durch US-amerikanische Soldaten. Der Fall beschäftigt seit damals die US-Justiz. Unter anderem wurde der Hauptschuldige Charles Graner zu 10 Jahren Gefängnis verurteilt. Sicherheitsberaterin Condoleezza Rice bat die Iraker offiziell um Verzeihung: „Es tut uns sehr leid, was mit diesen Menschen geschehen ist.“ Der Sprecher der US-Streitkräfte im Irak, General Mark Kimmitt, bat offiziell um Entschuldigung für die „beschämenden Vorfälle“. Siehe auch Folterskandal von Abu Ghuraib. Amnesty International berichtet von Todesfällen auf dem US-Luftwaffenstützpunkt im afghanischen Bagram, welche auf Folter hindeuten. Military Commissions Act Der Military Commissions Act, der am 28. September 2006 vom Senat verabschiedet wurde, gestattet es ausdrücklich, sogenannte ungesetzliche Kombattanten (unlawful enemy combatants) bestimmten „scharfen Verhörpraktiken“ auszusetzen. Nach Ansicht von Menschenrechtsorganisationen und dem UN-Sonderberichterstatter über Folter Manfred Nowak ist dies als Folter zu werten. Die unter Folter erpressten Informationen dürfen auch vor Militärgerichten verwendet werden. Damit lockern die USA nach Ansicht von Kommentatoren das Folterverbot der Genfer Konventionen. Vor allem können nach dem Gesetz Ausländer, die von den Behörden als „unlawful enemy combatants“ deklariert werden, ohne rechtliches Gehör von Militärtribunalen verurteilt werden – ohne Offenlegung von Beweisen. Die Verabschiedung des Gesetzes wurde in weiten Teilen der amerikanischen Öffentlichkeit mit Empörung aufgenommen und vielfach als Verfassungsbruch bewertet. In einem Kommentar im Fernsehsender MSNBC wurde das Gesetz als „Anfang vom Ende Amerikas“ bezeichnet (Beginning of the end of America). Die New York Times schrieb: „Und es [das Gesetz] erodiert die Grundpfeiler des Justizsystems auf eine Weise, die jeder Amerikaner bedrohlich finden sollte.“ (And it chips away at the foundations of the judicial system in ways that all Americans should find threatening.) Regierung Obama Nach den von der Regierung Obama veröffentlichten Geheimdokumenten war die Folter in CIA-Handbüchern exakt geregelt und von Rechtsberatern der Regierung juristisch legitimiert. General David Petraeus hat sich gegen das Foltern gefangener Terroristen ausgesprochen. Verstöße gegen die Genfer Konvention würden sich niemals militärisch oder politisch auszahlen. Um auszuschließen, dass eine staatliche Folterpraxis mit juristischer Legitimation sich wiederholen kann, wird die Bildung einer Folterkommission gefordert. Vom Guardian wird er allerdings mit den Folterzentren im Irak in Verbindung gebracht. Vorwürfe gab es auch gegen die Haftbedingungen von Chelsea Manning, die wegen der möglichen Weitergabe von Videos und Dokumenten an WikiLeaks angeklagt wurde. Unterstützer Mannings richteten im Dezember 2010 eine Beschwerde an Manfred Nowak, den Sonderberichterstatter über Folter der Vereinten Nationen. Dessen Büro gab an, der Beschwerde nachzugehen, während das amerikanische Verteidigungsministerium die Vorwürfe zurückwies. Nowaks Nachfolger Juan E. Méndez wurde mehrmals ein vertrauliches Treffen mit Manning verweigert, worüber sie sich im Juli 2011 öffentlich beklagte. Irak Regime Saddam Husseins Im Irak der Ära Saddam Hussein war Folter gängige Praxis des Regimes. Opfer der Folter waren in der Regel Menschen, die in politischer Opposition zur Regierung in Bagdad standen. Aber auch Angehörige der Sicherheitskräfte, die verdächtigt wurden, der Opposition anzugehören, sowie Schiiten wurden gefoltert. Wie Latif Yahya in seiner Biografie Ich war Saddams Sohn berichtete, wurde Folter auch einfach nur aus Spaß oder, um an eine Frau zu gelangen, ausgeübt. Zu den Methoden der Folter gehörten neben Schlägen und Elektroschocks das Ausstechen der Augen. In vielen Fällen wurden den Opfern auch Verbrennungen durch brennende Zigaretten beigebracht, die auf dem Körper ausgedrückt wurden. Opfer berichteten, dass ihnen Fingernägel gezogen oder ihre Hände von elektrischen Bohrern durchbohrt wurden. Auch sexuelle Gewalt gehörte zum Repertoire der Folterer im Irak. Das reichte von der Drohung mit Vergewaltigung bis hin zur analen Vergewaltigung mit Gegenständen. Amnesty International berichtete seinerzeit: Folter unter der gegenwärtigen irakischen Regierung Auch der derzeitigen irakischen Regierung wird vorgeworfen, mit Foltermethoden gegen ihre Gegner vorzugehen. Am 3. Juli 2005 berichtete der britische Observer von Folterungen irakischer Geheimkommandos an Terrorverdächtigen. Die Recherchen ergaben laut Observer auch, dass ein geheimes Netzwerk von Folterzentren im Irak existiert, zu dem Menschenrechtsorganisationen keinen Zugang haben. In den Gefangenenlagern würden bei Verhören Schläge, Verbrennungen, das Aufhängen an Armen, sexueller Missbrauch und Elektroschock angewandt. Selbst im irakischen Innenministerium seien derartige Menschenrechtsverletzungen verübt worden. Es gebe eine Kooperation zwischen „offiziellen“ und „inoffiziellen“ Gefangenenlagern, und Erkenntnisse über illegale Erschießungen von Gefangenen durch die Polizei. Das britische Außenministerium erklärte zu den Vorwürfen, diese würden „sehr ernst“ genommen. Der Missbrauch von Gefangenen sei „unannehmbar“ und werde auf höchster Ebene bei den irakischen Behörden angesprochen. Ägypten Ägypten wird immer wieder der systematischen Folter durch Regierungsstellen in großem Umfang bezichtigt, sodass schon die Auslieferung von Personen an Ägypten als problematisch gilt. Amnesty International berichtet von Folterungen und Tötungen, welche an der Tagesordnung seien und nicht geahndet würden. Verantwortlich für diese Menschenrechtsverletzungen ist der damalige Geheimdienstchef und spätere Vizepräsident Ägyptens Omar Suleiman der auch persönlich gefoltert und Mordbefehle für Gefangene erteilt haben soll. Das NADIM-Zentrum in Kairo versucht, Folter in Ägypten zu dokumentieren. Es zählte 40 Tote in der Folge von Folterungen zwischen Juni 2004 und Juni 2005. Im Sommer 2004 konfiszierten vorgebliche Mitarbeiter der ägyptischen Gesundheitsbehörde bei einem überraschenden „Inspektionsbesuch“ Patientenakten und drohten mit Schließung, weil das Zentrum angeblich nicht nur „medizinische“ Ziele verfolgte. Die Bloggerin Noha Atef konnte durch Veröffentlichungen im Internet seit 2006 konkrete Fälle von Folterungen aufdecken und die Täter benennen. Physische und psychische Folgeschäden Folter kann bei den Betroffenen seelische und körperliche Beschwerden auslösen. Zu den größten Folgeschäden der Folter zählen körperliche Schmerzen, die durch Verletzungen entstanden sind. Es gibt jedoch auch Schmerzen mit psychosomatischem Hintergrund, die körperlicher Ausdruck der Traumatisierung sind. Die Folterüberlebenden leiden an Kopfschmerzen, Schlafstörungen, Rückenschmerzen, Schulter- und Nackenverspannungen. Der Stresszustand kann körperliche Erkrankungen, wie Bluthochdruck oder Diabetes mellitus, verschlimmern. Traumatisierte leiden häufig an Magenbeschwerden und Essstörungen, Frauen nach geschlechtsspezifischer Gewalt an Unterleibsbeschwerden und Zyklusstörungen. Die physischen und psychischen Beschwerden können durch Medikamente gelindert werden. Im Falle einer chronisch oder komplexen Traumatisierung ist eine psychotherapeutische Behandlung anzuwenden. Einzelfragen Folterforschung Wenn sich Naturwissenschaftler der Neuzeit mit Folter beschäftigen, dann in der Regel, um medizinische Belege für bestimmte Arten von Folter zu finden. So gingen dänische Mediziner 1982 der Frage nach, ob sich Verbrennungen durch Hitze von Verbrennungen durch elektrischen Strom dermatologisch unterschieden. Sie wiesen an narkotisierten Schweinen nach, dass der Unterschied erheblich ist und lieferten ein einfaches diagnostisches Verfahren zum Nachweis der Elektrofolter. Historiker beschäftigten sich mit den Abläufen von Folterszenarien des Mittelalters, aber auch mit Fragen der Auslegung alter Schriften. So sorgte eine 1877 erschienene „kritische Studie“ zur Frage, ob Galileo Galilei nach Folter gestand, für Aufsehen. Der Hamburger Chemiker Emil Wohlwill kam zu dem Schluss, dass Galileo tatsächlich – und damit entgegen der gängigen Auffassung – der „rigorosen Examination“ (esame rigoroso) unterzogen worden war. Folter und Rassismus Die Dokumentation „Lynching America“, verfasst von der Equal Justice Initiative, zeigt, dass in den USA trotz des im Dezember 1865 verabschiedeten 13. Verfassungszusatzes eine „zweite Sklaverei“ gab. Die Dokumentation belegt das Lynchen von Schwarzen als „öffentliche Folter“: „Das Lynchen war grausam und eine Form öffentlicher Folter, die schwarze Menschen im gesamten Land traumatisierte, während Behörden der Staaten und des Bundes sie weitgehend tolerierten.“ Die Lynchmorde werden auch als terroristisch charakterisiert: „Das Terrorlynchen erreichte seinen Höhepunkt zwischen 1880 und 1940 und führte zum Tod afroamerikanischer Männer, Frauen und Kinder, die gezwungen waren, Angst, Demütigung und Barbarei dieses weitverbreiteten Phänomens hilflos zu erdulden.“ Psychologie der Täter Die Psychologie testete in einigen Experimenten die Bereitschaft, anderen Menschen Grausames anzutun, indem man das eigene Gewissen dem Gehorsam unterordnet, u. a. mit dem Milgram-Experiment. Beim Stanford-Prison-Experiment wurden gesunde, normale Studenten in die Situation von Gefängniswärtern und Gefangenen versetzt, worauf es innerhalb weniger Tage zu Misshandlungen kam. In einem aktuellen Aufsatz untersucht der Psychologe Philip Zimbardo von der University of California, Berkeley, die Täterpsychologie: Unter welchen Bedingungen werden aus gewöhnlichen Menschen folternde Sadisten? Unter anderem gibt er folgendes Zehn-Punkte-„Rezept“ an: Gib der Person eine Rechtfertigung für ihre Tat. Zum Beispiel eine Ideologie, „nationale Sicherheit“, das Leben eines Kindes. Sorge für eine vertragsartige Abmachung, schriftlich oder mündlich, in der sich die Person zum gewünschten Verhalten verpflichtet. Gib allen Beteiligten sinnvolle Rollen, die mit positiven Werten besetzt sind (z. B. Lehrer, Schüler, Polizist). Gib Regeln aus, die für sich genommen sinnvoll sind, die aber auch in Situationen befolgt werden sollen, in denen sie sinnlos und grausam sind. Verändere die Interpretation der Tat: Sprich nicht davon, dass Opfer gefoltert werden, sondern dass ihnen geholfen wird, das Richtige zu tun. Schaffe Möglichkeiten der Verantwortungsdiffusion: Im Falle eines schlechten Ausgangs soll nicht der Täter bestraft werden (sondern der Vorgesetzte, der Ausführende etc.). Fange klein an: mit leichten, unwesentlichen Schmerzen. („Ein kleiner Stromschlag von 15 Volt.“) Erhöhe die Folter graduell und unmerklich. („Es sind doch nur 30 Volt mehr.“) Verändere die Einflussnahme auf den Täter langsam und graduell von „vernünftig und gerecht“ zu „unvernünftig und brutal“. Erhöhe die Kosten der Verweigerung, etwa indem keine üblichen Möglichkeiten des Widerspruchs akzeptiert werden. Die These Zimbardos und eine Interpretation des Milgram-Experiments ist, dass unter solchen Rahmenbedingungen die meisten Menschen bereit sind, zu foltern und anderen Menschen Leid anzutun. Politik-soziologische Aspekte Eine politiksoziologisch und historisch ansetzende Studie von Marnia Lazreg Torture and the Twilight of the Empire. From Algiers to Baghdad vertritt die These, dass imperiale Mächte auch entgegen ihrer Eigenwahrnehmung angesichts von Niederlagen die Folter (wieder) aufnehmen. Foltermethoden Foltermethoden können unter gegebenen Voraussetzungen gemäß UN-Antifolterkonvention sein: Elektroschock anale oder vaginale Vergewaltigung (mit diversen Gegenständen, mit verbundenen Augen, durch Fesseln bewegungslos fixiert, von mehreren Personen) Zwangshaltungen (Strafestehen, Torstehen, Knien, Sitzen, Hängen, Fesseln vor allem über längere Zeiträume z. B. mittels „Hogtie“, Zuchtstuhl) Schläge (u. a. Bastonade, Auspeitschung, Schläge auf dem Prügelbock, „Telefono“, Schläge durch mehrere Personen) Aufhängen (Strappado, „Papageienschaukel“, Pfahlhängen) Zufügen von Verbrennungen, Verstümmelungen an den Haaren, Nägeln, Haut, Zunge, Ohren, Genitalien und Gliedmaßen, Riemenschneiden Zahnfolter (z. B. Ausschlagen der Zähne, Bohren in die Zahnwurzel) Zwangsuntersuchungen (gynäkologisch, gastroenterologisch, routinemäßige Kontrolle der Körperöffnungen) Bambusfolter Des Weiteren: pharmakologische Folter (Drogenmissbrauch, Zwangsmedikation) massive Erniedrigung (Exkremente essen, Urin trinken, öffentlich masturbieren) Verhörfolter Erschöpfung durch Zwangsarbeit Nahrungsentzug Bei der weißen Folter verursachen die Foltermethoden keine offensichtlichen Spuren an den Opfern. Zur weißen Folter gehören: Sensorische Deprivation (Reizentzug), z. B. Dunkelhaft in einer Camera silens Schlafentzug Scheinhinrichtungen Kitzeln Waterboarding Lärmfolter Toilettenverbot Sauerstoffmangel („Submarino“, Masken) Isolationshaft Erregen von Übelkeit (durch künstlich erzeugte Kinetose) Organisationen gegen Folter Internationale Regierungsorganisationen (Auswahl): UN-Sonderberichterstatter über Folter UN-Ausschuss gegen Folter UN-Unterausschuss zur Verhütung von Folter Europäisches Komitee zur Verhütung von Folter und unmenschlicher oder erniedrigender Behandlung oder Strafe Internationale Nichtregierungsorganisationen (NGOs) (Auswahl): Amnesty International Association pour la prévention de la torture Weltorganisation gegen Folter ACAT – Aktion der Christen für die Abschaffung der Folter Nationale Nichtregierungsorganisationen (NGOs) (Auswahl): Komitee gegen Folter (Russland) Öffentliches Komitee gegen Folter in Israel Behandlungszentrum für Folteropfer, Berlin Refugio München Literatur Geschichte Peter Immanuel Hartmann: Medicam tormentorum aestimationem. Drimborn, Helmstedt 1762. (Digitalisat) Franz Helbing: Die Tortur. Geschichte der Folter im Kriminalverfahren aller Zeiten und Völker. Völlig neubearbeitet und ergänzt von Max Bauer, Berlin 1926 (Nachdruck Scientia-Verlag, Aalen 1973, ISBN 3-511-00937-5) Edward Peters: Folter. Geschichte der peinlichen Befragung. Europäische Verlagsanstalt, Hamburg 1991, ISBN 3-434-50004-9. Mathias Schmoeckel: Humanität und Staatsraison. Die Abschaffung der Folter in Europa und die Entwicklung des gemeinen Strafprozess- und Beweisrechts seit dem hohen Mittelalter. Böhlau, Köln 2000, ISBN 3-412-09799-3. Umfassende Darstellung der Abkehr von der Folter als logische Folge eines sich entwickelnden modernen Staats- und Justizverständnisses. Lars Richter: Die Geschichte der Folter und Hinrichtung vom Altertum bis zur Jetztzeit, Tosa, Wien 2001, ISBN 3-85492-365-1. Folterwerkzeuge und ihre Anwendung 1769. Constitutio Criminalis Theresiana, Reprint-Verlag-Leipzig, 2003, ISBN 3-8262-2002-1. Dieter Baldauf: Die Folter. Eine deutsche Rechtsgeschichte. Böhlau, Köln 2004, ISBN 3-412-14604-8. Eine auch für rechtshistorische Laien gut verständliche, gleichwohl aber wissenschaftlich fundierte Darstellung der Rechtsgeschichte der Folter, mit zahlreichen weiteren Literaturhinweisen. Robert Zagolla: Im Namen der Wahrheit – Folter in Deutschland vom Mittelalter bis heute. be.bra, Berlin 2006, ISBN 3-89809-067-1. Seriöse Darstellung der Entwicklung in Deutschland von den Ursprüngen bis zur aktuellen Diskussion; entlarvt zahlreiche Mythen. Daniel Burger: In den Turm geworfen. – Gefängnisse und Folterkammern auf Burgen im Mittelalter und in der frühen Neuzeit. In: Burgenbau im späten Mittelalter II, hrsg. von der Wartburg-Gesellschaft zur Erforschung von Burgen und Schlössern in Verbindung mit dem Germanischen Nationalmuseum (=Forschungen zu Burgen und Schlössern, Bd. 12), Berlin und München (Deutscher Kunstverlag) 2009, S. 221–236. ISBN 978-3-422-06895-7. Wolfgang Rother: Verbrechen, Folter und Todesstrafe. Philosophische Argumente der Aufklärung. Mit einem Geleitwort von Carla Del Ponte. Schwabe, Basel 2010, ISBN 978-3-7965-2661-9 Folter in der Hexenforschung, Historicum.net Folter – Made in USA, ARTE-Dokumentation 2010/2011. Friedrich Merzbacher: Die Hexenprozesse in Franken. 1957 (= Schriftenreihe zur bayerischen Landesgeschichte. Band 56); 2., erweiterte Auflage: C. H. Beck, München 1970, ISBN 3-406-01982-X, S. 138–155. Aktuelle Situation Peter Koch / Reimar Oltmanns: Die Würde des Menschen – Folter in unserer Zeit. Goldmann, München 1979, ISBN 3-442-11231-1. Horst Herrmann: Die Folter. Eine Enzyklopädie des Grauens. Eichborn Verlag, Frankfurt am Main 2004, ISBN 3-8218-3951-1.Die bis dato umfassendste Dokumentation von Foltermethoden und -geräten aus Geschichte und Gegenwart. Alfred W. McCoy: Foltern und Foltern lassen. 50 Jahre Folterforschung und -Praxis von CIA und US-Militär. Zweitausendeins, Frankfurt 2005, ISBN 3-86150-729-3. Cecilia Menjívar, Nestor Rodriguez (Hrsg.): When States Kill: Latin America, the U.S., and Technologies of Terror (Taschenbuch), Texas University Press, Austin 2005. Inhaltsverzeichnis Marnia Lazreg: Torture and the Twilight of the Empire. From Algiers to Baghdad, Princeton U.P., Princeton, NJ/Oxford 2008, ISBN 0-691-13135-X.Historisch-soziologische und psychologische Studie zur Antwort auf die Frage, warum ausgerechnet in einem war on terror Folter gerechtfertigt werde. Manfred Nowak: Folter: Die Alltäglichkeit des Unfassbaren. Kremayr & Scheriau, 2012, ISBN 978-3-218-00833-4. Diskussion um Folter Winfried Brugger: Vom unbedingten Verbot der Folter zum bedingten Recht auf Folter? In: JZ 2000, S. 165–173. Jan Philipp Reemtsma: Folter im Rechtsstaat? Hamburger Edition, Hamburg 2005, ISBN 3-936096-55-4. Gerhard Beestermöller (Hrsg.): Rückkehr der Folter. Der Rechtsstaat im Zwielicht? Beck, München 2006, ISBN 3-406-54112-7. Frank Meier: Gilt das Verbot der Folter absolut? Ethische Probleme polizeilicher Zwangsmaßnahmen zwischen Achtung und Schutz der Menschenwürde. Mentis, Münster 2016, ISBN 978-3-95743-043-4. Sammelband über die rechts- und sozialwissenschaftlichen Aspekte der Folterdiskussion in Deutschland. Björn Beutler: Strafbarkeit der Folter zu Vernehmungszwecken. Unter besonderer Berücksichtigung des Verfassungs- und Völkerrechts. Peter Lang, Frankfurt a. M. 2006, ISBN 3-631-55723-X. Alexander Stein: Das Verbot der Folter im internationalen und nationalen Recht. Unter Betrachtung seiner Durchsetzungsinstrumente und seines absoluten Charakters. Verlag Dr. Kovac, Hamburg 2007, ISBN 978-3-8300-3199-4. Shane O'Mara: Why Torture Doesn't Work: The Neuroscience of Interrogation. Harvard University Press, 2015, ISBN 978-0-674-74390-8. Opfer von Folter Angelika Birck, Christian Pross, Johan Lansen (Hrsg.): Das Unsagbare – Die Arbeit mit Traumatisierten im Behandlungszentrum für Folteropfer Berlin. Berlin 2002. Urs M. Fiechtner, Stefan Drößler, Pascal Bercher, Johannes Schlichenmaier (Hrsg.): Verteidigung der Menschenwürde. Die Arbeit des Behandlungszentrums für Folteropfer Ulm (BFU). 2. Aufl., Band 5, Edition Kettenbruch, Ulm/ Stuttgart/ Aachen 2015. Definition Amnesty International Sektion Schweiz: Was ist Folter? Folter-Definition nach Angelika Birck (* 16. November 1971; † 7. Juni 2004) vom Behandlungszentrum für Folteropfer Berlin, 9. Juli 2004. Verschiedene Aspekte Folterexperten – Die geheimen Methoden der CIA, auf GoogleVideo (Dokumentation des SWR vom 9. Juli 2007) Folter im Rechtsstaat – Die Bundesrepublik nach dem Entführungsfall Jakob von Metzler – als E-Book aufgearbeitete Studienarbeit, Universität Gießen, 2004 KUBARK-Handbuch, deutsch (PDF; 448 kB) und englisch (PDF-Datei; 437 kB) Daniela Haas: Folter und Trauma. Therapieansätze für Betroffene. BIS-Verlag, Oldenburg 1999 (= Diplomarbeit, Universität Oldenburg, 1997) Ausweiskontrolle: Kalkulierter Schmerz, Kolumne, evolver.at, Februar 2005 „Operation Nasenschlauch“. UN-Ermittler untersuchen neue Vorwürfe aus Guantánamo – und werden von den USA daran gehindert. In: Die Zeit. Nr. 48, 24. November 2005. Das Folterverbot. Eine klare Regel und eine paradoxe Praxis., Deutschlandradio, 29. Dezember 2005, von Dieter Rulff, auch als mp3-Datei Netzeitung, 25. Januar 2006 Jan Philipp Reemtsma: Die Fratze der Folter. Cicero, März 2006 Folter transnational? Gewaltdarstellungen in amerikanischen und in deutschen Fernsehkrimis. Aufsatz von Christoph Classen mit Filmausschnitten auf Zeitgeschichte-online „Waterboarding für 9/11-Chefplaner – Schwere und anhaltende Schäden“. Interview mit Gisela Scheef-Maier, Psychotherapeutin des Behandlungszentrums für Folteropfer. T-Online, April 2014. Dokumentarfilme Taxi zur Hölle (2007) Standard Operating Procedure (2008) The Report Siehe auch Operation Condor (Aktivitäten der US-Geheimdienste in Südamerika (1970er Jahre)) Aktion der Christen für die Abschaffung der Folter ACAT Deutschland Verbrechen gegen die Menschlichkeit Weblinks Podiumsdiskussion „Darf der Staat foltern?“ mit Winfried Brugger und Bernhard Schlink, HFR 4/2002 Herbert Lackner: In den Vorzimmern der Hölle. Das bestürzende Tagebuch des UN-Anti-Folter-Beauftragten Manfred Nowak. In: profil vom 29. Februar 2012 Einzelnachweise Strafrechtsgeschichte Strafprozessrecht
Q132781
216.141776
66954
https://de.wikipedia.org/wiki/Oberleitungsbus
Oberleitungsbus
Ein Oberleitungsbus – auch Oberleitungsomnibus, Obus, O-Bus, Trolleybus, Trolley oder veraltet gleislose Bahn genannt – ist ein elektrisches Verkehrsmittel beziehungsweise Verkehrssystem im öffentlichen Personennahverkehr. Er ist wie ein im Stadtbusverkehr eingesetzter Stadtlinienbus aufgebaut, wird im Gegensatz zu diesem aber nicht von einem Verbrennungsmotor, sondern von einem oder mehreren Elektromotoren angetrieben. Seinen Fahrstrom bezieht er – ähnlich der Straßenbahn – mittels Stromabnehmern aus einer über der Fahrbahn gespannten Oberleitung, die jedoch stets zweipolig ausgeführt ist. Oberleitungsbusse sind somit spurgebunden, aber nicht spurgeführt. Die Bezeichnung Oberleitungsbus wird dabei sowohl für das Fahrzeug selbst als auch für die dazugehörige Infrastruktur verwendet. Die ersten Anlagen wurden zu Beginn des 20. Jahrhunderts eröffnet, weltweit existierten im Mai 2023 insgesamt 265 Oberleitungsbus-Betriebe in 47 Staaten. Sie sind überwiegend in Mittelosteuropa, den Nachfolgestaaten der Sowjetunion, der Volksrepublik China, Nordkorea, Italien und der Schweiz anzutreffen und werden in der Liste der Oberleitungsbussysteme aufgeführt. Über 500 Netze wurden wieder stillgelegt, eine Übersicht hierzu gibt die Liste der ehemaligen Oberleitungsbussysteme. Die meisten früheren Betriebe existierten in der westlichen Welt, wo der Oberleitungsbus in den 1950er und 1960er Jahren seine Blütezeit erlebte. In 30 Ländern, die früher Obusverkehr aufwiesen, ist das Verkehrsmittel mittlerweile gar nicht mehr anzutreffen. Eine ausführliche Darstellung der historischen Entwicklung findet sich im Hauptartikel Geschichte des Oberleitungsbusses. Definition und Rechtslage Der Oberleitungsbus ist eine Mischung aus Straßenbahn und Bus, das heißt, er kombiniert Elemente einer spurgebundenen Bahn mit denjenigen eines Kraftfahrzeugs. Dies macht sich auch juristisch bemerkbar – in den nationalen Rechtsgebungen werden Obusse zumeist als Eisenbahn behandelt, nicht zuletzt deshalb, weil nur in wenigen Staaten spezielle Verordnungen für Straßenbahnen bestehen. Während bei Omnibussen zwischen Linienbussen und solchen für den Gelegenheitsverkehr unterschieden wird, dienen Oberleitungsbusse ausschließlich dem Linienverkehr. Deutschland Wie alle deutschen Straßenfahrzeuge unterliegen auch Oberleitungsbusse dem Straßenverkehrsgesetz (StVG), der Fahrzeug-Zulassungsverordnung (FZV) – früher Straßenverkehrs-Zulassungs-Ordnung (StVZO) – sowie der Straßenverkehrs-Ordnung (StVO). Zusätzlich gelten die Verordnung über den Betrieb von Kraftfahrunternehmen im Personenverkehr (BOKraft), das Personenbeförderungsgesetz (PBefG) sowie die Verordnung über die Allgemeinen Beförderungsbedingungen für den Straßenbahn- und Obusverkehr sowie den Linienverkehr mit Kraftfahrzeugen. In diesen drei Regelungen werden Obusse als eigenständiges Verkehrsmittel jeweils gesondert erwähnt. Sie werden in Deutschland im Personenbeförderungsgesetz wie folgt definiert: Das Kraftfahrt-Bundesamt ordnet die Oberleitungsbusse den Kraftomnibussen zu, mit der eigenen Schlüsselnummer 22 0000. Das Personenbeförderungsgesetz hingegen definiert sie aufgrund ihrer Fahrleitungsbindung nicht als Kraftfahrzeuge. Für den Verkehr mit Obussen wird von den Verkehrsbehörden eine entsprechende Genehmigungsurkunde gemäß Personenbeförderungsgesetz ausgestellt. Bezüglich der Infrastruktur gilt für Obusanlagen zusätzlich die Verordnung über den Bau und Betrieb der Straßenbahnen (BOStrab). Da es in Deutschland keine spezielle Verordnung für Obusse gibt, kommt die BOStrab auch bei der Neuinbetriebnahme von Obussen zur Anwendung. Das heißt, Obusse werden sowohl als Straßenbahnwagen als auch als Kraftfahrzeug zugelassen, wobei für die straßenrechtliche Zulassung der TÜV zuständig ist. Die BOStrab ist dabei vergleichsweise streng, so muss beispielsweise auch der Brandschutz von Straßenbahnwagen in Tunneln berücksichtigt werden. Als Technische Aufsichtsbehörde (TAB) fungiert eine von der jeweiligen Landesregierung bestimmte Behörde, der sogenannte Landesbevollmächtigte für Bahnaufsicht (LfB). Im Falle des Solinger Betriebs in Nordrhein-Westfalen ist dies beispielsweise die Düsseldorfer Bezirksregierung. Für die regelmäßige Prüfung der Oberleitungsinfrastruktur ist ebenfalls der TÜV verantwortlich, in Esslingen beispielsweise erfolgt die Kontrolle der elektrischen Anlagen vierteljährlich. Noch 1957 wurde in Westdeutschland „im Hinblick auf die technische und betriebliche Eigenart dieses schienenlosen Verkehrsmittels“ der bevorstehende Erlass einer besonderen Verordnung über den Bau- und Betrieb von Obusanlagen (BOObus) erwartet, hierzu kam es letztlich nicht mehr. In Preußen war das Genehmigungsverfahren hingegen noch relativ unkompliziert. Dort unterstanden gleislose Bahnen – anders als Straßenbahnen – nicht dem Preußischen Kleinbahngesetz, stattdessen bedurfte es nur der landespolizeilichen Genehmigung und des Einverständnisses der Wegeeigentümer. Dies änderte sich erst mit der Einführung der Verordnung über den Überlandverkehr mit Kraftfahrzeugen vom 6. Oktober 1931. Ihr zufolge galten zumindest für die Starkstromanlagen der Fahrzeuge und die Fahrleitungsanlagen die Vorschriften nebst Ausführungsregeln für elektrische Bahnen. Im Königreich Sachsen wiederum war der „Königliche Komissär für elektrische Bahnen“ als Bahnaufsichtsbehörde auch für gleislose Bahnen zuständig. Österreich In Österreich sind Oberleitungsbusbetriebe dem Eisenbahngesetz 1957 (EisbG) unterstellt: Die aufgrund des Eisenbahngesetzes erlassene Straßenbahnverordnung (StrabVO) enthält jedoch erst seit dem Inkrafttreten der Verordnung auch Bestimmungen für Oberleitungsbusse. Neben dem Eisenbahngesetz gelten aber auch die Vorschriften des Straßenverkehrsrechts: Die Straßenverkehrsordnung 1960 und das Kraftfahrgesetz 1967 definieren Oberleitungskraftfahrzeuge jeweils nicht als Schienenfahrzeuge: Schweiz In der Schweiz gilt für Trolleybusse ein eigenes Gesetz, das Bundesgesetz über die Trolleybusunternehmen, kurz Trolleybus-Gesetz, abgekürzt TrG. Es definiert das Verkehrsmittel wie folgt: Ergänzt wird das Trolleybusgesetz durch die ebenfalls aus dem Jahr 1951 stammende Vollziehungsverordnung zum Bundesgesetz über die Trolleybusunternehmungen, kurz Trolleybus-Verordnung. Ferner unterliegen die Lenk- und Ruhezeiten des Personals sowie die Unfallmeldung dem Eisenbahnrecht, für die technische Ausrüstung der Fahrzeuge und den Verkehr auf der Straße gelten wiederum die Vorschriften der Bundesgesetzgebung über den Motorfahrzeugverkehr. Das Schweizer Personenbeförderungsgesetz (PBG) gilt hingegen nicht für Trolleybusse, sie werden darin auch nicht erwähnt. Ferner verkehren Trolleybusse in der Schweiz auf der Basis einer Bundes-Konzession des Unternehmens – die vom Eidgenössischen Departement für Umwelt, Verkehr, Energie und Kommunikation erteilt wird – und nicht wie Autobusse mit kantonalen Bewilligungen je Fahrzeug. Daraus ergeben sich auch Abweichungen bei der Haftpflichtversicherung. Darüber hinaus benötigen sie keinen Fahrzeugausweis. Hinsichtlich der Fahrleitungsanlagen ist das Plangenehmigungsverfahren nach dem Schweizer Eisenbahngesetz anzuwenden, das auch für Straßenbahnen gilt. Des Weiteren waren die Fahrpläne der Schweizer Überlandtrolleybuslinien bis zum Winterfahrplan 1981/82 im Amtlichen Kursbuch der Schweiz – anders als die Überlandautobusse – unter den Bahnen aufgeführt. Ebenso waren die Trolleybusse in den 1950er und 1960er Jahren im Verzeichnis des Rollmaterials der schweizerischen Privatbahnen aufgeführt. Das Bundesamt für Strassen führt Trolleybusse gleichfalls nicht als Strassenmotorfahrzeuge. Weiter findet sich die rechtliche Einordnung als Eisenbahn zum Teil auch im Arbeitsrecht und im Arbeitnehmerschutz wieder. So sind beispielsweise die Mitarbeiter eines österreichischen Obus-Betriebs automatisch Mitglied im Eisenbahner-Kollektivvertrag. Ebenso erfolgt die technische Abnahme beziehungsweise Zulassung neuer Oberleitungsbusse häufig – analog zur Zulassung von Eisenbahnfahrzeugen – durch die entsprechende Eisenbahn-Fachaufsichtsbehörde, dem sogenannten Bahnamt. So zum Beispiel in Tschechien durch den Drážní úřad oder in Italien durch das ANSFISA. Generell ist die Zulassung eines Oberleitungsbusses aufwändiger und dauert deutlich länger als bei einem Omnibus. Für Osteuropa typisch waren früher außerdem gesonderte Tarife im Oberleitungsbusverkehr. Bis heute werden dort vielerorts – trotz gleichen Fahrpreises und gemeinsamer Betreibergesellschaft – getrennte Fahrscheine ausgegeben, die nicht wechselseitig verwendet werden können. Kraftfahrzeugkennzeichen Die Spurgebundenheit analog zu einer Bahn macht sich mitunter auch äußerlich bemerkbar. So ist für Trolleybusse in 25 von 47 Staaten kein Kraftfahrzeugkennzeichen vorgeschrieben. Dies ist unter anderem in der Schweiz, wenn auch erst seit 1940, und den meisten ehemals sozialistisch regierten Ländern der Fall – nicht jedoch in Deutschland und Österreich. Ersatzweise muss die jeweilige Betriebsnummer deutlich erkennbar außen am Fahrzeug angeschrieben sein. Dies ist bei den meisten Verkehrsgesellschaften ohnehin Standard, unabhängig von der gesetzlichen Regelung bezüglich der Nummernschilder. Teilweise wird dabei die ungenutzte Kennzeichenhalterung zur Angabe der Fahrzeugnummer verwendet. In Österreich führen nach dem 1. April 2017 neu zugelassene Oberleitungsbusse ebenfalls das – an diesem Tag neu eingeführte – Kennzeichen für reine Elektrofahrzeuge, das heißt mit grüner statt schwarzer Schrift. ohne Kennzeichen in Europa BG, BY, CH , CZ, EST, GR, H, LV, MD, P , RO , RUS , SK, UA ohne Kennzeichen außerhalb Europas ARM, GE, J, KP, KS, KSA, KZ, MEX, RA, TJ, UZ mit Kennzeichen in Europa A, BIH, D, E, F , I , LT , N, NL, PL, S, SRB , TR mit Kennzeichen außerhalb Europas BR, CDN, EC, IR , MA, MGL , RC, RCH, USA Auch in den nicht mehr existierenden Staaten Sowjetunion, Tschechoslowakei und Jugoslawien waren keine Kennzeichen vorgeschrieben, während sie beispielsweise in der Deutschen Demokratischen Republik verpflichtend waren. Fahrerlaubnis Für das Führen eines Oberleitungsbusses muss zusätzlich zum regulären Omnibusführerschein und dem Personenbeförderungsschein eine innerbetriebliche Zusatzausbildung absolviert werden. Darin werden die betreffenden Berufskraftfahrer über die technische Beschaffenheit der Fahrzeuge und der elektrischen Anlagen sowie über die technischen Besonderheiten des Betriebes unterrichtet. Auch Sicherheitsbestimmungen, Signalkunde, Störungsbehebung und zusätzliche Fahrstunden sind Bestandteil der Fortbildung. Beim Betrieb im schwedischen Landskrona wird für die Extraschulung ein Zeitaufwand von mindestens acht Stunden veranschlagt, beim Trolleybus Schaffhausen sind es etwa zwanzig Stunden und in Esslingen am Neckar rund zwei Wochen. Größere Betriebe unterhalten eigens zu diesem Zweck spezielle Fahrschulwagen, auch Lehrwagen genannt. In Deutschland müssen Obusfahrer außerdem, wie Straßenbahnfahrer, nach erfolgter Schulung eine besondere Eignungsprüfung gemäß BOStrab ablegen. In Italien muss sowohl eine mündliche als auch eine praktische Prüfung absolviert werden. Die Zusatzqualifikation wird beispielsweise in der Schweiz auch im Führerausweis eingetragen. Dort bescheinigt der Code 110 dem Inhaber, zum Führen von Trolleybussen berechtigt zu sein. Zuvor war sie als eigene Kategorie im Führerausweis eingetragen. In manchen Staaten gibt es diese eigene Kategorie bis heute. In Bulgarien lautet sie Tтб, in Estland D-troll für Solowagen bzw. D-trollE für Gelenkwagen, in Lettland TROL, in Litauen T, in Polen 105, in Rumänien Tb bzw. früher H und in Ungarn TR. In Westdeutschland existierte früher zusätzlich zur regulären Führerscheinklasse 2 für Fahrzeuge über 7,5 Tonnen die Kategorie 2e bzw. 2E für Elektrofahrzeuge, darunter auch Obusse. Der Erwerb des Führerscheins war dabei früher oft vereinfacht, um die Umschulung von Wagenführern des Schienenverkehrs zu erleichtern. In manchen Staaten ist bis heute kein Omnibus-Führerschein erforderlich, um einen Obus fahren zu dürfen. Als Basis für die innerbetriebliche Zusatzausbildung genügt ein Pkw-Führerschein. In der Deutschen Demokratischen Republik reichte sogar eine Fahrberechtigung für Elektrokarren aus. In der Volksrepublik China gibt es Fahrer, die nur eine Erlaubnis für Trolleybusse besitzen, sie dürfen keine Omnibusse lenken. Eine ähnliche Situation bestand früher auch in Westdeutschland. Dort durften Fahrer, die nur die oben genannte Führerscheinklasse 2E, aber nicht den sogenannten großen Führerschein der Klasse 2 zuzüglich Fahrerlaubnis für Kraftomnibusse hatten, zwar Obusse, aber weder Kraftomnibusse noch Lastkraftwagen oder Personenkraftwagen führen. Abgrenzung zum Oberleitungslastkraftwagen Eng mit Oberleitungsbussen verwandt sind Oberleitungslastkraftwagen, die ausschließlich dem Güterverkehr dienen. Diese werden deshalb häufig auch Güter-Obus genannt, obwohl Obusse eigentlich Personenverkehrsmittel sind. Die Bezeichnung Obus basiert in diesem Fall auf der Gleichartigkeit ihres Antriebssystems. Unabhängig davon gab es in den Anfangsjahren des Systems auch einige wenige Obusanlagen, auf denen mit jeweils eigenen Fahrzeugen sowohl Güter- als auch Personenverkehr stattfand. Eine weitere diesbezügliche Besonderheit war der Oberleitungsbus Sankt Lambrecht in Österreich. Dort dienten – ähnlich einem Kombinationsbus – spezielle Fahrzeuge sowohl dem Gütertransport als auch der Personenbeförderung. Die veraltete Bezeichnung gleislose Bahn wurde dabei synonym sowohl für Oberleitungsbusse als auch für Oberleitungslastkraftwagen verwendet. In Russland und der Ukraine nutzen einige Betriebe Oberleitungslastkraftwagen als Arbeitswagen für Reparatur- und Wartungsarbeiten städtischer Obusnetze. In manchen Oberleitungsbusnetzen wurden auch Postsendungen befördert, meist wenn sie zuvor Postkutschen-Verbindungen ablösten. Kennzeichnung von Haltestellen Typisch für Obuslinien ist die besondere Kennzeichnung der Haltestellen. Während dies in Mittel- und Osteuropa bis heute Standard ist, setzen die Verkehrsbetriebe in Westeuropa mittlerweile auf einheitliche Stationsbeschilderungen unabhängig vom Verkehrsmittel. Jedoch war dies nicht immer der Fall. So existierten in Deutschland und Österreich ab 1939 auch für Obusse einheitliche gelb-grüne Haltestellenzeichen. Hierbei verwendete man aber nicht die kreisrunden Straßenbahnschilder, sondern die eigentlich für Kraftfahrlinien vorgesehenen Haltestellenfahnen respektive Haltestellenlöffel in Form eines Signalflügels. Statt wie üblich mit dem Namen des Omnibusunternehmens war der Signalarm jedoch mit der Aufschrift Obus bzw. OBUS gekennzeichnet und etwas kürzer. In Hamburg und Hannover waren abweichend davon rechteckige, zweizeilige Tafeln mit der Aufschrift Obus Haltestelle bzw. Obus-Haltestelle in schwarzer Schrift auf weißem Grund anzutreffen. Ebenso in der Schweiz, dort jedoch mit der Aufschrift Trolleybus Haltestelle. In Italien kennzeichnete man reine Obus-Haltestellen mit FERMATA FILOBUS, gemischte Obus- und Autobus-Haltestellen hingegen neutral mit FERMATA. Noch in den 1980er Jahren beschilderten ferner die Stadtwerke Solingen die Abfahrtsstellen ihrer Oberleitungsbusse auf dem zentralen Graf-Wilhelm-Platz als Bahnsteig. Eine weitere Obus-typische Besonderheit gegenüber dem Omnibus ist es, die Haltestellenschilder direkt an den Querdrähten der Oberleitung anzubringen. Kennzeichnung von Linien Mitunter werden bzw. wurden Obuslinien auch durch ein der Liniennummer vorangestelltes „O“ (Graz, Hamburg, Hannover, Linz, Minden, München und Berlin) oder ein vorangestelltes „T“ (Burgas, Mediaș, Piatra Neamț, Satu Mare, Sibiu und Ulaanbaatar) differenziert. In Berlin waren die in den 1930er Jahren in Betrieb genommenen ersten drei Obuslinien – die nach der Teilung der Stadt alle im Westteil lagen – dabei noch mit dem 1929 eingeführten Präfix „A“ für Autobus gekennzeichnet, was sich bis zur Betriebseinstellung im Jahr 1965 auch nicht mehr änderte. Erst Ost-Berlin führte für sein 1951 eröffnetes Teilnetz die Kennung „O“ ein. Alternativ verwendet das rumänische Unternehmen Transurb Galați für seine beiden Trolleybuslinien 102T und 104T das Suffix „T“, während die dortigen Autobuslinien ganz ohne Buchstaben auskommen. In Jihlava und Tychy wiederum gilt das Prinzip, Obuslinien mit Buchstaben und Autobuslinien mit Nummern zu bezeichnen. In Bern zwischen 1947 und 1974, in Koblenz zwischen 1942 und 1970 sowie in Salzburg zwischen 1966 und 2003 war es hingegen genau umgekehrt, in den drei genannten Städten hatten jeweils Obuslinien Nummern und Autobuslinien Buchstaben. In Salzburg werden den Obuslinien heute individuelle Kennfarben zugeordnet, während die Autobuslinien einheitlich violett markiert sind. In Augsburg, Erfurt, Kassel und Regensburg hatten die Obuslinien in den ersten Betriebsjahren jeweils gar keine Liniennummern und unterschieden sich dadurch von den regulär bezeichneten örtlichen Omnibuslinien. Anders beim Oberleitungsbus Budapest, wo die – in den Anfangsjahren einzige Linie – zeitweise die Linienbezeichnung „T“ für „Trolibusz“ trug, während sämtliche Straßenbahn- und Autobuslinien numerische Bezeichnungen hatten. Ebenso trägt die letzte verbliebene Moskauer Trolleybuslinie den Buchstaben „T“. Auch im rumänischen Vaslui sind die Wagen der einzigen Trolleybuslinie mit „T“ für „Troleibuz“ beschildert, während die Autobusse der zuständigen Gesellschaft Transurb ganz ohne Linienbezeichnung verkehren. Eine weitere Besonderheit bestand in Bremerhaven, wo Straßenbahnlinien ab 1908 mit arabischen Ziffern, Obuslinien ab 1949 mit römischen Ziffern und Omnibuslinien ab 1940 mit Buchstaben bezeichnet waren. In den Nachfolgestaaten der Sowjetunion ist es weithin üblich, die gleichen Liniennummern – ohne jeden Zusatz – sowohl für Obus- als auch für Omnibus- und Straßenbahnlinien zu vergeben. Hierbei kann es dann beispielsweise eine Straßenbahnlinie 1, eine Obuslinie 1 und eine Omnibuslinie 1 parallel zueinander geben, die teilweise sogar dieselben Haltestellen bedienen. Außerhalb der ehemaligen UdSSR war dieses System früher auch in Budapest und Timișoara zeitweise anzutreffen, in Ulaanbaatar ist dies bis heute der Fall. Alternativ werden den Obuslinien in vielen Städten niedrigere Liniennummern zugeteilt als den Omnibus-, aber höhere Liniennummern als den Straßenbahnlinien – das heißt, es besteht ein hierarchisches System. Dies kann dazu führen, dass eine Omnibuslinie im Zuge ihrer Umstellung auf Obusse respektive eine Obuslinie im Zuge einer De-Elektrifizierung eine neue Liniennummer zugeteilt bekommt, obwohl sich an der Streckenführung nichts ändert. Gestaltung von Stadt- und Liniennetzplänen Weiterhin ist es üblich, Trolleybuslinien auf Stadt- bzw. Liniennetzplänen eine eigenständige Kennung zuzuweisen. In der Sowjetunion und vielen ihrer Bruderstaaten setzte sich dabei die Kennfarbe Grün durch, während Straßenbahnlinen rot und Omnibuslinien blau eingezeichnet waren bzw. bis heute sind. Diese Farbordnung war oft auch Grundlage für die Gestaltung der jeweiligen Fahrkarten. Die Stadtwerke Solingen wiederum kennzeichnen ihre Obuslinien – analog zu den Bahnlinien – mit doppelter Strichstärke, während Omnibuslinien in einfacher Strichstärke dargestellt sind. Eine Alternative für schwarz-weiße Pläne ist es, die verschiedenen Verkehrsmittel mit durchgehenden, gestrichelten oder gepunkteten Linien zu unterscheiden. In Deutschland wiederum waren zeitweise Straßenbahnlinien mit einer durchgehenden roten, Obuslinien mit einer durchgehenden blauen und Omnibuslinien mit einer gestrichelten blauen Linie markiert. Die Boston Elevated Railway verwendete hingegen in ihren Liniennetzplänen Kreise für Straßenbahnliniennummern, Quadrate für Omnibusliniennummern und Dreiecke für Trolleybusliniennummern. Werden Obuslinien hingegen nicht gesondert gekennzeichnet, ist für den Fahrgast anhand der Fahrplanunterlagen nicht ersichtlich, mit welchem Verkehrsmittel die Beförderung erfolgt. Ferner existieren Stadtpläne, auf denen nur die Oberleitungs-, nicht aber die Omnibuslinien verzeichnet sind. Kennzeichnung von Fahrzeugen Lackierung: Besonders in osteuropäischen Ländern ist ein eigenständiges Lackierungsschema für Oberleitungsbusse üblich, obwohl sie von derselben Gesellschaft betrieben werden wie die übrigen städtischen Verkehrsmittel. Beispiele hierfür sind Budapest (Trolleybusse rot-grau, Autobusse blau-grau und Straßenbahnwagen gelb-weiß), Plzeň (Trolleybusse grün-weiß, Autobusse rot-weiß und Straßenbahnwagen gelb-grau), Minsk (Trolleybusse blaugrün, Autobusse hellgrün und Straßenbahnwagen türkis) sowie bis 2010 auch Belgrad (Trolleybusse orange, Autobusse gelb und Straßenbahnwagen rot). Nummerierung: Teilweise werden auch gleiche Betriebsnummern vergeben, so dass es beim selben Verkehrsunternehmen unter Umständen einen Oberleitungsbus Nummer 1, einen Omnibus Nummer 1 und eine Straßenbahn Nummer 1 geben kann. In Idar-Oberstein verwendete man früher zu diesem Zweck zusätzliche Kürzel, so existierte gleichzeitig ein Oberleitungsbus „O1“ und ein Kraftomnibus „K1“. Auch die Aachener Straßenbahn und Energieversorgungs-AG benutzte den Zusatzbuchstaben „O“ für ihre Oberleitungsbusse, beim Oberleitungsbus Greiz lautete der Zusatz „Ob“. Analog dazu existierte in Budapest, Glasgow und Warschau der vorangestellte Kennbuchstabe „T“, in Szeged ist dies bis heute der Fall. Beim Oberleitungsbus Neapel sowie beim Überlandbetrieb von Turin nach Rivoli lautet(e) der Zusatzbuchstabe „F“ für filobus, im rumänischen Timișoara stand das „F“ analog dazu für firobuz. In Cuneo stellte man ein „E“ für „elettrobus“ vor oder hinter die eigentliche Wagennummer. Typisierung: Auch viele Herstellerbezeichnungen basieren auf diesem System, so heißt etwa der vom Omnibusmodell Ikarus 280 abgeleitete Obustyp Ikarus 280T. Zudem ist es weithin üblich, Oberleitungsbussen eigenständige Nummerngruppen zuzuweisen. So besitzen beispielsweise in Esslingen die Gelenkobusse 200er Nummern, während die Gelenkomnibusse mit 100er Nummern gekennzeichnet sind. Betreiber In aller Regel werden Oberleitungsbusse von kommunalen oder privaten Verkehrsunternehmen betrieben. Diese sind meist auch für den örtlichen Omnibus- und – soweit vorhanden – Straßenbahnverkehr zuständig. Jedoch erfolgt in bestimmten Städten eine organisatorische Trennung zwischen Obus- und Omnibusverkehr. In der Europäischen Union, Norwegen und der Schweiz ist bzw. war dies in Bergen (seit 2020), Chaskowo, Gdynia (seit 1998), Pasardschik, Plewen, Salzburg (seit 2005), Sofia, Stara Sagora, Szeged, Tychy und Wraza der Fall. Ebenso – jeweils ab Eröffnung des Betriebs – in Bern bis 1947, in Bonn bis 1964, in Budapest bis 1967, in Schaffhausen bis 1984, in Debrecen bis 2009, in Athen/Piräus und Vilnius bis 2011, in Tallinn bis 2012 und in Kaunas bis 2014, außerdem bei den vier stillgelegten bulgarischen Betrieben in Dobritsch, Kasanlak, Pernik und Weliko Tarnowo. Außerhalb Europas sind beispielsweise in Guadalajara, Guangzhou, Quito, Mexiko-Stadt, Valparaíso und Wuhan Obus und Omnibus administrativ getrennt, ferner war dies früher in Mendoza und Mérida der Fall. Darüber hinaus kommt dieses Modell auch in vielen Städten der ehemaligen Sowjetunion zur Anwendung. Zudem werden dort, wie auch in Nordkorea oder früher in China, einige Oberleitungsbussysteme von Industriebetrieben geführt. Hierbei handelt es sich um nicht-öffentliche Werkspersonenverkehre, die in der Regel nur zu den Schichtwechseln bedient werden. Reine Trolleybusgesellschaften waren außerdem die spanische Compañía de Trolebuses Santander–Astillero, abgekürzt CTSA, und die uruguayische COOPTROL, ein Akronym für COOPerativa de TROLebuses, aus Montevideo. Teilweise sind Obusse dem Straßenbahnbetrieb angegliedert, so etwa in Sofia und in Szeged. Dadurch ergeben sich unter anderem Synergieeffekte bei der Fahrleitungsinstandhaltung und beim Stromeinkauf. In Chile existierte früher ein Staatsunternehmen, das – zuletzt unter der Bezeichnung Empresa de Transportes Colectivos del Estado – beide Obusnetze des Landes gemeinsam betrieb. In der Schweiz gab es mit dem 2012 infolge einer Fusion entstandenen Unternehmen Transports Publics Neuchâtelois (transN) wiederum eine Gesellschaft die für zwei räumlich getrennte Trolleybusnetze zuständig war, in diesem Fall für den Trolleybus Neuenburg und den – mittlerweile eingestellten – Trolleybus La Chaux-de-Fonds. Zahlreiche Verkehrsunternehmen änderten im Zuge der Einführung von Oberleitungsbussen ihren Namen um den Begriff Straßenbahn zu eliminieren. So nannte sich beispielsweise die Trambahn der Stadt St. Gallen ab 1950 neutral Verkehrsbetriebe der Stadt St. Gallen. Das französische Verkehrsunternehmen Société des Trolleybus Urbains de Belfort (STUB) wiederum trug seine Bezeichnung von 1952 bis 1972, obwohl es ab 1958 auch Autobusse betrieb. Die Verkehrsgesellschaft der kroatischen Stadt Rijeka heißt bis heute KD Autotrolej d.o.o., obwohl dort schon seit 1971 keine Trolleybusse mehr verkehren. Ebenso nennt sich das Autobusunternehmen der rumänischen Stadt Piatra Neamț bis heute S.C. Troleibuzul S.A., wenngleich der Trolleybusbetrieb dort erst im März 2017 endete. Etymologie Oberleitungsbus ist eine Kurzform des Begriffs Oberleitungsomnibus, das sich aus Oberleitung und Omnibus zusammensetzt. Oberleitungsomnibus tauchte schon vor dem Ersten Weltkrieg auf, so zum Beispiel 1901 in einer Werbeanzeige von Siemens & Halske. Die Kurzform Oberleitungsbus wurde im September 1937 durch den Bahnausschuss des Verbands deutscher Verkehrsverwaltungen (VDV) offiziell eingeführt. Das Wort selbst ist jedoch älter, es taucht beispielsweise schon 1930 in der Zeitschrift Der Waggon- und Lokomotivbau auf. Die Abkürzung für Oberleitungsomnibus respektive Oberleitungsbus lautete zunächst Obbus und wurde später zu den heute gängigen Schreibweisen Obus bzw. O-Bus vereinfacht. Der außerhalb von Deutschland und Österreich verwendete Begriff Trolleybus ist ein Internationalismus. Während im britischen Englisch beziehungsweise im übrigen Europa manchmal auch dessen Kurzform Trolley verwendet wird, ist Trolley im amerikanischen Englisch die Kurzform für trolley car und steht dort somit für einen Straßenbahnwagen. Die Bezeichnung stammt wiederum von crane trolley ab, so wird im Englischen eine Laufkatze am Ausleger eines Krans bezeichnet. Diese hat eine große technische Ähnlichkeit zu den Kontaktwägelchen, die sowohl bei den ersten elektrischen Straßenbahnen als auch bei den ersten Trolleybussen auf der Oberleitung fuhren und mit dem Verbindungskabel hinterher gezogen wurden. Der Begriff Trolleybus kam jedoch erst in den 1920er Jahren auf, also zu einer Zeit, als die anfänglichen Systeme mit Kontaktwägelchen technisch längst überholt und größtenteils wieder stillgelegt worden waren. Sprachgebrauch In Deutschland und Österreich wird die Bezeichnung Oberleitungsbus benutzt, in der Schweiz und den übrigen Ländern wird meist Trolleybus bzw. die entsprechenden Transkriptionen verwendet. Im gesamten deutschen Sprachraum wird im Alltag ein Oberleitungsbus oft nur kurz Bus genannt. Hierbei handelt es sich um ein von Omnibus bzw. Autobus abgeleitetes Endwort. Diese Bezeichnung berücksichtigt jedoch nicht die technischen Eigenheiten und den rechtlichen Sonderstatus von Oberleitungsbussen gegenüber Omnibussen. Immer wieder tauchen im Zusammenhang mit Oberleitungsbussen außerdem die Bezeichnungen Elektrobus, E-Bus, elektrischer Bus oder Strombus auf, diese sind fachlich jedoch nicht präzise. Sie umfassen auch elektrisch betriebene Omnibusse, die ihre Energie nicht über Oberleitungen zugeführt bekommen – siehe Unterkapitel Verwandte Systeme – Abgrenzung und Gemeinsamkeiten. Deutschland und Österreich In Deutschland und Österreich werden heute meist die Bezeichnungen Oberleitungsbus oder Oberleitungsomnibus und die daraus abgeleiteten Kurzformen Obus und O-Bus verwendet. In der Frühzeit wurden Oberleitungsbusse hingegen noch anders benannt. Das 1882 von Werner Siemens vorgestellte Versuchsfahrzeug hieß Elektromote, abgeleitet aus dem englischen Begriff electric motion für elektrische Bewegung. Als Oberbegriff für derartige Fahrzeuge waren elektrische Kutsche, elektrische Droschke oder elektrischer Motorwagen gängig. Zu Beginn des 20. Jahrhunderts wurde der Obus – in Abgrenzung zur Schienenbahn aber auch zur sogenannten halbgleislosen Bahn – als gleislose, geleislose oder geleiselose Bahn respektive Straßenbahn bezeichnet. Meyers Großes Konversations-Lexikon beschreibt diese 1905 wie folgt: In Preußen hießen sie damals behördlicherseits Kraftwagen mit oberirdischer Stromzuführung. Weniger verbreitete Bezeichnungen waren Elektrischer Omnibusbetrieb mit oberirdischer Stromzuführung, Gleislose elektrische Bahn, Gleislose elektrische Straßenbahn, Gleislose Trambahn, Gleislose elektrische Stadtbahn, Elektrische Bahn ohne Schienen, Gleislose Motorbahn mit elektrischer Oberleitung, Gleislose elektrische Personenbahn, Gleislose elektrische Transportbahn, Gleislose Elektrische Bahnen mit oberirdischer Stromzuführung, Gleisloser Spurwagen, Gleislose Oberleitungsbahn, Elektrische Oberleitungsbahn, Oberleitungsbahn, Elektrische gleislose Bahn, Elektrische gleislose Motorbahn, Gleislose elektrische Motorbahn, Elektrische schienenlose Bahn, schienenlose Straßenbahn, schienenlose elektrische Straßenbahn, elektrischer Kraftwagenbetrieb mit Oberleitung, Oberleitungs-Kraftwagen, Oberleitungs-Kraftfahrzeug, Elektrischer Omnibus, Elektrisches Oberleitungs-Automobil oder Oberleitungs-Automobil. Der von 1912 bis 1914 bestehende Obus-Betrieb in Steglitz bei Berlin wurde im Volksmund als Gleislobus bezeichnet, abgeleitet von Gleisloser Omnibus. Anlässlich der 1930 erfolgten Eröffnung der Strecke zwischen Mettmann und Gruiten, des ersten neuzeitlichen Betriebs in Deutschland, entstand die Bezeichnung Fahrdrahtbus. In Berlin wurde anfangs auch der Begriff Drahtbus verwendet, die Erläuterungen zu den Vorschriften nebst Ausführungsregeln für elektrische Bahnen von 1932 verwendeten darüber hinaus die Langform Fahrdrahtomnibus. Mit den vorgenannten Begriffen sollte klargestellt werden, dass es sich um Straßenfahrzeuge und nicht um klassische Bahnen handelt. Außerdem wurde damit gewährleistet, dass das Preußische Kleinbahngesetz für Oberleitungsbusse nicht gilt. Der Hersteller Siemens-Schuckert bezeichnete die Fahrzeuge in den 1930er Jahren hingegen als Elbus, abgeleitet von Elektrischer Omnibus. Weitere Alternativbezeichnungen aus dieser Zeit sind Fahrleitungsomnibus, Fahrleitungsbus bzw. in Österreich auch Oberleitungs-Autobus. Als umgangssprachlich-mundartliche Bezeichnungen für Obusse sind in Eberswalde die Begriffe Strippenbus und Strippenexpress verbreitet. In Solingen ist er als Stangentaxi bekannt, analog dazu in Salzburg als Stanglbus. Die dazugehörigen Fahrer heißen in Salzburg Stanglkutscher. Der Oberleitungsbus München wurde seinerzeit als Stangerlbus bezeichnet – abgeleitet von Stangerlwagen für einen Straßenbahnwagen mit Stangenstromabnehmer. In Berlin hießen sie Stangenbus. In Berlin und Leipzig wurde außerdem der Ausdruck Drahtesel verwendet, die Leipziger Fahrer bezeichneten ihre Wagen ferner als Knüppeldampfer. Analog dazu hieß der Oberleitungsbus Idar-Oberstein im Volksmund de Droht, eine Kurzform des pfälzischen Worts Drohtesel, hochdeutsch wörtlich Drahtesel. In Berlin nannte man Oberleitungsbusfahrer und Schaffner auch scherzhaft Seilbahnfahrer. In Hamburg-Harburg waren von 1953 bis 1957 doppelstöckige Oberleitungsbusse im Einsatz, die damals Dobus (für doppelstöckiger Obus) genannt wurden. Die für Berlin projektierten und 1941 bestellten Doppelstock-Obusse wurden in der Planungsphase als Odobus (für Oberleitungs-Doppeldeck-Omnibus) bezeichnet. Diese Fahrzeuge wurden aufgrund der Kriegsbedingungen nie ausgeliefert. Mitunter wird bzw. wurde der Begriff Trolleybus auch in Deutschland verwendet. Belege hierfür sind etwa die Typenbezeichnung Trolleybus Solingen oder das Volkslied Trolleybus von Mettmann bis nach Gruiten. Auch im Saarland wurden sie meist Trolleybusse genannt. Ebenso bezeichnete Daimler-Benz seine Oberleitungsbusse mit einem zusätzlichen „T“ in der Typenbezeichnung, ebenso MAN beim Typ SG200TH. In der DDR lief 1964 der Kinofilm Der erste Trolleybus, 1976 erschien im Ost-Berliner Eulenspiegel-Verlag die Anthologie Die Braut aus dem Trolleybus – Humorgeschichten aus der Sowjetunion. Ferner fand der Begriff auch bei den Erfurter Verkehrsbetrieben Verwendung. Ebenso war auch der Idar-Obersteiner Betrieb unter der Bezeichnung Trolleybus bekannt. Eine Oldenburger Spezialität waren die eingedeutschten Bezeichnungen Trollibus bzw. Trolli. Ferner wurden auch die Modellspielzeuge der Unternehmen Eheim beziehungsweise Brawa unter dem Namen Trolleybus vermarktet. Schweiz In der Schweiz lautet die offizielle Bezeichnung Trolleybus. Diese Bezeichnung ist auch in der mündlichen Umgangssprache üblich. Die elektronische Fahrplanauskunft der Schweizerischen Bundesbahnen kürzte Trolleybus früher mit Tro ab. Bezogen auf die Deutschschweiz kann der Begriff Trolleybus auch als Helvetismus angesehen werden. Aus der Romandie kommend, wo 1932 in Lausanne der erste neuzeitliche Betrieb eröffnet wurde, etablierte er sich mit Beginn der 1940er Jahre auch in der Deutschschweiz, anders in der italienischen Schweiz, wo man beim Trolleybus Lugano – analog zu Italien – vom filobus sprach. Bis in die 1930er Jahre waren in der Deutschschweiz auch die Bezeichnungen g(e)leislose Bahn bzw. g(e)leislose Trambahn geläufig. Analog zum deutschen Oldenburg wurde mindestens in Winterthur zeitweise auch die eingedeutschte Form Trolli verwendet. Zürichdeutsche Ausdrücke sind Böss, Draht-Bus, Chole-Velo und Gummitram, wobei zumindest Böss auch für Autobusse verwendet wird. Weltweit In den meisten Sprachen wird wie in der Schweiz Trolleybus oder die Kurzform Trolley verwendet, teilweise entsprechend transkribiert. Trolleybus setzte sich im englischen Sprachraum erst in den 1920er Jahren durch, zuvor wurde railless car, railless trolley, railless tram, trackless trolley, trackless tram oder electric trolley vehicle without rails verwendet. In den Vereinigten Staaten und in Kanada wird der Oberleitungsbus hingegen nicht als Trolleybus, sondern überwiegend als electric trolleybus (ETB), electric bus oder seltener als trolley coach bezeichnet. Veraltete französische Bezeichnungen lauten trolley électromobile sans rails, omnibus à trolley et sans rail, autobus à moteur électrique alimenté par un trolley aérien, automobile électrique à trolley aérien, omnibus électrique und tramway routier électrique. Obwohl der Oberleitungsbus eine deutsche Erfindung ist, konnte sich das Wort Trolleybus in den 1920er Jahren vor allem deshalb weltweit verbreiten, weil die Weiterentwicklung des Systems in Deutschland mit dem Ausbruch des Ersten Weltkriegs weitgehend aufgegeben wurde. Im Gegensatz dazu wurde es insbesondere in Großbritannien auch währenddessen und danach stetig weiterentwickelt. Eine Besonderheit ist die ausschließlich in der rumänischen Stadt Timișoara gebräuchliche Bezeichnung firobuz, fir steht in der rumänischen Sprache für Faden bzw. Draht. Hierbei handelt es sich um eine Ableitung vom italienischen Begriff filobus, die ersten Oberleitungsbusse für Timișoara wurden in Italien produziert. Im Gegensatz dazu werden Oberleitungsbusse in allen anderen rumänischen Städten als troleibuz bezeichnet. In Moskau heißen Obusse wegen ihrer Stromabnehmer Gehörnte, beim Oberleitungsbus Ulaanbaatar in der mongolischen Hauptstadt werden sie aufgrund ihrer Kraft auch Ziegenwagen genannt. Weitere Bezeichnungen existieren beispielsweise in folgenden Sprachen: Fahrzeug Aufbau Schematische Darstellung anhand des tschechoslowakischen Typs Škoda 14Tr aus den 1980er Jahren, für den Oberleitungsbus relevante Teile sind fett markiert: Markantestes Unterscheidungsmerkmal eines Oberleitungsbusses sind die beiden drehbaren Stangenstromabnehmer, manchmal auch Kontaktstangen, Stromabnehmerstangen oder – vor allem in der Schweiz – Stromabnehmerruten, Rutenstromabnehmer bzw. Kontaktruten genannt. Im Rumänischen heißen sie „coarne“ für „Hörner“. Von Omnibussen unterscheiden sich Obusse äußerlich außerdem durch die Aufbauten auf dem Dach, darunter Teile der elektrischen Ausrüstung, die unter dem Wagenboden oder im Fahrgastraum keinen Platz mehr finden. Müssen im Inneren dennoch größere Schaltkästen untergebracht werden, wird teilweise auf längs angeordnete Sitze zurückgegriffen. Im Vergleich zum Unterflureinbau ist die Elektrik auf dem Dach außerdem besser vor äußeren Einflüssen wie – unter Umständen salzhaltigem – Spritzwasser oder Schneematsch sowie Steinschlag geschützt und zudem leichter zu warten. Außerdem kann auf diese Weise die Abwärme der Widerstände – aufgrund ihrer Anordnung häufig auch Dachwiderstände genannt – und der anderen elektrischen Bauteile leichter entweichen. Sie müssen somit nicht fremdbelüftet werden. Bei modernen Niederflurfahrzeugen ist die Unterbringung der elektrischen Ausrüstung auf dem Dach aus Platzgründen unverzichtbar. Häufig werden dabei sogenannte Dachcontainer verwendet, manchmal sind diese durch Dachblenden eingehaust. Im Vergleich zu Omnibussen ist die Dachkonstruktion inklusive der Fahrzeugsäulen bei Oberleitungsbussen – ebenso wie bei anderen Elektrobussen – konstruktiv verstärkt, um die zusätzliche Masse der elektrischen Bauteile und der Stromabnehmer tragen zu können. In diesem Zusammenhang sind außerdem bestimmte Fensterholme bei manchen Oberleitungsbussen breiter ausgeführt als bei vergleichbaren Omnibussen. Sie dienen außerdem als Kabelkanal zwischen den elektrischen Einrichtungen auf dem Fahrzeugdach und den unterflurig angeordneten Teilen der Traktionsausrüstung. Generell ist die Verkabelung aufwändig, bei Gelenkwagen des Typs Swisstrolley 3 sind beispielsweise in jedem Wagen über zwölf Kilometer Leitungen verlegt. Ein besonderes Augenmerk gilt dem Korrosionsschutz der Karosserien, aufgrund der längeren Lebensdauer eines Oberleitungsbusses muss diese besser gegen Durchrostung geschützt werden als bei einem Dieselbus. Vereinzelt wurden daher auch Oberleitungsbusse mit einem Aufbau aus Aluminium oder rostfreiem Stahl gebaut. Im Allgemeinen benötigen die elektrischen Antriebsaggregate eines Oberleitungsbusses weniger Platz als ein Dieselmotor mit Dieselrußpartikelfilter oder ein Gasmotor mit Katalysator. Zudem entfällt der voluminöse Kraftstofftank. Dies ermöglicht einen tiefen Wagenboden über die gesamte Fahrzeuglänge und eine niedrige Einstiegshöhe auch bei der hintersten Tür. Aus demselben Grund waren außerdem Frontlenker beim Obus deutlich früher anzutreffen als beim Omnibus. Ebenso kann auf die bei Niederfluromnibussen teilweise verwendeten Motortürme im Heckbereich weitgehend verzichtet werden. Genauso sind Low-Entry-Konstruktionen im Obus-Bereich weitgehend unbekannt, eine der wenigen Ausnahmen stellt der tschechische Typ SOR TN 12 dar. Dennoch ist ein Oberleitungsbus, bezogen auf einen Gelenkwagen, fast zwei Tonnen schwerer als ein Dieselbus. So wiegt beim Gelenkwagen-Typ Mercedes-Benz O 405 GTD allein die elektrische Ausrüstung sechs Tonnen. Insbesondere in früheren Jahren setzte man beim Obus deshalb häufig auf doppelte Hinterachsen, auch Tandemachsen genannt, Nachlaufachsen oder Doppelbereifungen. Weiterhin typisch für viele ältere Oberleitungsbusse sind am Heck angebrachte Leitern, sie ermöglichen dem Wartungspersonal, zu den Stromabnehmern und den Dachaufbauten hinaufzusteigen. Diese beginnen teilweise erst auf Höhe der Fensterunterkante, um illegale Mitfahrten – analog zum S-Bahn-Surfen – zu erschweren. Alternativ dazu wurden ausklappbare Leitersprossen verwendet, die meist auf der Türseite neben einem Einstieg zu finden waren. Auf dem Dach selbst sind ergänzend zu den Aufstiegshilfen manchmal Laufstege montiert, sie ermöglichen dem Wartungspersonal die nötige Trittsicherheit. Weiter besitzen fast alle Obus-Typen im hinteren Dachbereich Halterungen zum Arretieren der Stromabnehmer. Ergänzt werden diese häufig durch einen Querbügel, er verhindert, dass die Stangen beim Abzug unkontrolliert auf das Dach fallen. Ein weiteres typisches Unterscheidungsmerkmal sind die fehlenden Kühlergrills. An ihrer Stelle befindet sich häufig eine je nach Typ ein- oder zweiteilige Wartungsklappe, manchmal auch als Bugklappe bezeichnet. Des Weiteren fehlt bei manchen Obus-Karosserien die Aussparung für das Kraftfahrzeugkennzeichen mitsamt der dazugehörigen Beleuchtung. Ähnlich wie elektrisch angetriebene Schienenfahrzeuge entstehen Oberleitungsbusse in den meisten Fällen als Gemeinschaftsprojekt, die elektrische Ausrüstung wird dabei von einem anderen Hersteller produziert als das Fahrwerk, die Karosserie und die Innenausstattung. Mitunter teilen sich die Zulieferer auch Aufträge. Bei den 210 Wagen des Typs ÜHIIIs von Uerdingen/Henschel kamen beispielsweise gleich vier – eigentlich miteinander konkurrierende – elektrische Ausrüster zum Zug. Früher ließen sich dabei die Karosseriehersteller grundsätzlich die elektrische Ausrüstung zuliefern. Mittlerweile geht der Trend dahin, dass die Hersteller elektrischer Ausrüstungen Rohkarosserien von verschiedenen Fahrzeugbauern beziehen und dann selbst als Obus-Anbieter auftreten. Unabhängig davon gab es auch Kompletthersteller, klassische Beispiele hierfür waren viele Jahre lang Škoda und Breda. Teilweise sind Oberleitungsbusse Adaptionen von Omnibussen, insbesondere gilt dies für Kleinserien. Aktuelle Beispiele für solche Anpassungen sind die Typen Škoda 24Tr und 25Tr, die auf dem Citelis von Irisbus basieren, sowie die Modellreihe Solaris Trollino, die auf der Dieselbusvariante Solaris Urbino aufbaut. Wichtige Beispiele aus der Vergangenheit sind die vom in Deutschland entwickelten Standard-Linienbus abgeleiteten Oberleitungsbusse oder die 363 Exemplare des Daimler-Benz-Typs O 6600 T, die eine Variante des Omnibusmodells O 6600 H sind. Wegweisend in dieser Hinsicht war auch die in den 1950er Jahren nach dem Baukastenprinzip konzipierte Reihe HS 160 von Henschel & Sohn. Für die Verkehrsunternehmen ergeben sich hierbei Synergieeffekte bei der Ersatzteilversorgung, für den Hersteller geringere Entwicklungskosten. Äußerst selten sind hingegen Omnibustypen, die aus einem Obustyp abgeleitet wurden, ein Beispiel hierfür ist der Hybridbus Hess lighTram Hybrid, ein weiteres der sowjetische Omnibustyp SiU-6, der auf dem Obustyp SiU-5 basiert. Im Gegensatz zu den oben erwähnten Adaptionen sind die meisten Obus-Karosserien Sonderkonstruktionen, die nicht für Omnibusse verwendet werden. Dies betrifft insbesondere Großserien, so etwa den SiU-9, den meistgebauten Obus-Typ der Welt. In früheren Jahren typisch waren außerdem Oberleitungsbusse, deren Konstruktion sich an Schienenfahrzeuge anlehnte; Vorbilder waren beispielsweise der PCC-Straßenbahnwagen und der Uerdinger Schienenbus. Bereits recht früh konnte sich dabei im Obus-Bereich die selbsttragende Bauweise ohne Fahrgestell durchsetzen. Ursächlich hierfür: Weil der Elektroantrieb nur geringe Vibrationen verursacht, sind die Auswirkungen auf die Gerippestruktur der Fahrgastzelle vergleichsweise gering. Seit etwa 2000 geht der Trend zu Obussen, die gestalterisch an moderne Straßenbahnwagen angelehnt sind, Beispiele hierfür sind die Typen Cristalis, Metrostyle, Swisstrolley 4 und Exqui.City, wobei letzterer zusätzlich auch noch eine abgetrennte Fahrerkabine aufweist. Gelenkwagen Analog zum Gelenkomnibus kennt auch der Oberleitungsbus Gelenkwagen, auch Gelenkoberleitungsbus, Gelenkobus, Gelenktrolleybus oder Gelenktrolley genannt. Beim Gelenkobus sind die Stromabnehmer aus Gründen der Fahrdynamik meist auf dem Nachläufer montiert, bei Doppelgelenkwagen entsprechend auf dem letzten der drei Fahrzeugglieder. Der Motor wirkt entweder auf die zweite oder auf die dritte Achse; ist die dritte Achse motorisiert, so spricht man von einem Schubgelenkwagen. Teilweise werden sowohl die zweite als auch die dritte Achse angetrieben, hierbei handelt es sich um eine Antriebsform, die beim Omnibus nicht anzutreffen ist. Vorteile zweimotoriger Gelenkwagen sind das bessere Adhäsionsverhalten, der stabile Lauf, die gleichmäßige und geringere Reifenabnutzung, die bessere Traktion im Winterbetrieb, der hohe verschleißfreie und dynamische Bremsgrad sowie – bei Niederflurfahrzeugen am wichtigsten – die Schonung angetriebener Portalachsen. Nachteilig sind das größere Gewicht und die höheren Anschaffungskosten. Einer der ersten zweimotorigen Exemplare war 1957 der Typ GTr51, gleichzeitig der erste Schweizer Gelenktrolley überhaupt. Weil aus Kostengründen in der Regel nur wichtige und aufkommensstarke Linien elektrifiziert werden, ist der Anteil an Gelenkwagen beim Oberleitungsbus prozentual deutlich höher als beim Omnibus. Viele Obusbetriebe setzen aus diesem Grund sogar ausschließlich auf Gelenkwagen. So verkehren beispielsweise in Norwegen seit 1995, in Österreich seit 2003, in den Niederlanden seit 2013 und in der Schweiz seit 2014 gar keine Solo-Obusse mehr. Die meisten Gelenkobusse verkehrten früher in Shanghai, wo Mitte der 1980er Jahre die gesamte Flotte von 860 Trolleybussen aus Gelenkwagen bestand. In den Jahren 2020 und 2021 waren über 70 Prozent der produzierten Trolleybusse Gelenkwagen. Zu den weltweit ersten Gelenkoberleitungsbussen gehörte der Prototyp 501, den Stanga und TIBB 1939 an den Oberleitungsbus Mailand auslieferten. Mit einem Mailänder Fahrzeug kam während des Zweiten Weltkriegs erstmals ein dreiachsiger Gelenkobus nach Deutschland und wurde in Hannover eingesetzt. Auch der US-Hersteller Twin Coach hatte 1938 einen ersten, nur vertikal knickbaren, Gelenkomnibus entwickelt. Dieser kam ab 1940, mittlerweile zum Oberleitungsbus umgebaut, in Cleveland zum Einsatz. Auch ein 1946 gebauter zweiter Vorführwagen mit demselben Prinzip wurde ab 1948 als Oberleitungsbus bei der Chicago Transit Authority (CTA) eingesetzt. Im Gegensatz dazu kam der erste Gelenkomnibus heutiger Prägung, hergestellt von den Kässbohrer Fahrzeugwerken, erst 1952 auf den Markt. Bald darauf erhielt Neuss 1955 die ersten beiden Gelenkobusse Deutschlands, in Österreich war ab 1960 Linz Vorreiter. In den Staaten des Rats für gegenseitige Wirtschaftshilfe konnten sich Gelenkwagen – abgesehen von Prototypen und Kleinserien – hingegen erst in den 1980er Jahren behaupten. Wichtigste Vertreter sind hierbei der ungarische Ikarus 280T (ab 1976), der sowjetische ZiU-10 (Prototyp 1978, Serie ab 1986), der rumänische DAC 117 E (ab 1980) und der tschechoslowakische Škoda 15Tr (ab 1988). Eine Besonderheit im Nahen Osten sind spezielle Frauenabteile in den Nachläufern von Gelenkwagen, diese Aufteilung ist in Teheran und Riad anzutreffen. Antrieb, elektrische Ausrüstung, Steuerung und Hilfsaggregate Die elektrische Ausrüstung von Oberleitungsbussen, auch Traktionselektrik genannt, entspricht weitgehend derjenigen von elektrischen Schienenfahrzeugen. Wie bei Omnibussen erfolgt hingegen auch bei Oberleitungsbussen der Antrieb über ein Differentialgetriebe auf die Hinterachse. Meist handelt es sich dabei um einen Unterflurmotor, seltener um einen Heckmotor. Ursprünglich verwendete man beim Obus Gleichstrom-Reihenschlussmotoren, darunter (kompensierte) Einkollektormotoren, Tandemmotoren und Doppelkollektormotoren. Beim Tandemmotor, der in dieser Form bei Schienenfahrzeugen nicht verwendet wurde, liegen zwei Läufer in einem Motorgehäuse auf einer gemeinsamen Welle. Damit war es möglich, mit nur einem Motor eine Serienparallelschaltung einzurichten und damit mehr verlustfreie Dauerfahrstufen zu erhalten. Später kamen Verbundmotoren mit Nebenschlusswicklung auf, während heute Drehstrom-Asynchronmotoren mit kollektorlosem Kurzschlussläufer üblich sind. Vereinzelt verfügen Obusse heute über Wechselstrommotoren beziehungsweise Drehstrommaschinen, in diesem Fall muss die aus der Oberleitung zugeführte Gleichspannung zuvor in Wechselspannung respektive Dreiphasenwechselstrom transferiert werden. Vielfachsteuerungen sind dagegen in der Regel nicht notwendig, da Mehrfachtraktion, abgesehen von den bei einigen Obusbetrieben in der ehemaligen UdSSR eingesetzten Oberleitungsbusdoppeltraktionen, immer unüblich war. Da Elektromotoren unter Last anlaufen können – und dabei zugleich ihr höchstes Drehmoment entwickeln –, ist keine trennende Kupplung erforderlich. Auch ein Wechselgetriebe mit mehreren Gängen wird nicht benötigt, da Elektromotoren alle erforderlichen Drehzahlen mit einer festen Zahnradübersetzung bewältigen können. Im Gegensatz zum Verbrennungsmotor können sie nicht unterhalb einer bestimmten Drehzahl abgewürgt werden. Der Umstand, dass die vorteilhaften kurzzeitigen Überlastungen des Motors zu sehr hohen Drehmomenten führen, erfordert für Oberleitungsbusse einen weitaus robusteren Achsantrieb als für Dieselbusse gleicher Leistung. Anders als bei Omnibussen mit Verbrennungsmotoren, bei denen die Motorleistung früher meist in Pferdestärken angegeben wurde, verwendet man bei Oberleitungsbussen traditionell die Maßeinheit Kilowatt. Gesteuert wurden der oder die Motoren eines Oberleitungsbusses früher über einen Kontroller. Ursprünglich waren dies Hand-Fahrschalter mit wenigen Stufen, später Schaltwerke, die mit Pedalen bedient wurden. Noch später setzten sich Schützensteuerungen durch. In den 1970er Jahren kamen schließlich elektronische Gleichstromsteller auf. Heutzutage sind Drehstrom-Steuerungen mit Leistungstransistoren üblich. Laut Kenning entwickelten sich die Steuerungen beim Obus im Detail wie folgt: Der aus der Oberleitung kommende Strom wird dabei zunächst verteilt. Der Großteil fließt dabei direkt über den Fahrschalter zum Fahrmotor, während ein kleinerer Teil die Hilfsbetriebe oder Nebenverbraucher versorgt. Darunter fallen beispielsweise Heizung, Klimaanlage, Außen- und Innenbeleuchtung, Fahrerplatz, Informationsdisplays, mobile Fahrkartenautomaten oder Entwerter. Außerdem besitzen Oberleitungsbusse Kompressoren. Diese erzeugen die nötige Druckluft zum Betrieb bestimmter Komponenten, darunter Bremsen, Kneeling, Servolenkung, Luftfederung und Türen. Weitere Nebenaggregate sind Lüfter zur Kühlung der elektrischen Anlagenteile. Hilfsaggregate arbeiten teilweise auch, wenn das Fahrzeug steht, und sind dann als einzige Betriebsgeräusche wahrnehmbar. Die in der Regel verwendete Gleichspannung ist nicht transformierbar, deshalb müssen die Hilfsbetriebsspannungen für die Einrichtungen, die nicht direkt mit der Fahrleitungsspannung betrieben werden können oder sollen, durch rotierende Umformer oder statische Umrichter erzeugt werden. Oberleitungsbusse verzögern ihre Fahrt in der Regel mittels elektrischer Bremsen, dies können Wirbelstrombremsen, Elektromotorische Bremsen oder Widerstandsbremsen sein. Erst kurz vor dem Stillstand übernimmt eine Druckluftbremse diese Aufgabe. Beim Obus kann ferner die Abwärme der Widerstände zur Heizung des Fahrgastraums genutzt werden. Weil der Fahrer eines Obusses im Idealfall beide Hände zur Lenkung benötigt, bewährte sich die bei den ersten Oberleitungsbussen übliche Steuerung per handbetätigten Fahrschaltern auf Dauer nicht. Hierbei mussten Obusfahrer ihre Arbeit – wie bei Straßenbahnwagen seinerzeit üblich – im Stehen verrichten. Letztlich setzten sich fußbetätigte Kontroller durch. Damit zusammenhängend erhielten die Fahrer von Obussen Jahrzehnte vor denen von Straßenbahnzügen Sitzarbeitsplätze. Lediglich der von 1986 bis 1993 bestehende Obus-Betrieb in Hanoi wies als Besonderheit, anstelle der üblichen Pedale, einen Fahrschalter und Fahrhebel zur Geschwindigkeitsregulierung auf, die gebraucht aus ausgemusterten Straßenbahnwagen übernommen wurden. Die Hände des Fahrers konnten damit nicht immer beide gleichzeitig am Lenkrad sein. Die Anordnung von Fahr- und Bremspedal ist bei Oberleitungsbussen meist identisch wie bei Dieselbussen. Das heißt, der Fahrschalter befindet sich rechts der Bremse, beide werden mit dem rechten Fuß betätigt. Noch in den 1960er Jahren war dies umgekehrt, früher hatten Oberleitungsbusse das Fahrpedal links und das Bremspedal rechts der Lenksäule, ersteres wurde somit mit dem linken Fuß bedient. In Eberswalde war diese abweichende Anordnung noch bis in die 1990er Jahre anzutreffen, dies führte mitunter zu Irritationen beim Fahrpersonal. Erdung und Überspannungsschutz Im Vergleich zu Schienenfahrzeugen unterliegt die elektrische Ausrüstung eines Oberleitungsbusses zusätzlichen Anforderungen. So muss sie beispielsweise aufgrund der fehlenden Bahnerdung, das heißt der Schutzerdung beziehungsweise Funktionserdung über die sogenannte Bahnerde, besser elektrisch isoliert werden, weil die Bereifung im Gegensatz zu einem Eisenbahnrad nichtleitend ist. Insbesondere betrifft dies die Karosserie in den Türbereichen, um beim Ein- oder Ausstieg die Gefahr von Stromunfällen durch eine Schrittspannung beziehungsweise Berührungsspannung zu vermeiden. Dies geschieht zum Beispiel durch die Verwendung von Trittstufen aus Gummi und Handläufen aus glasfaserverstärktem Kunststoff. Häufig bestehen die Trittkästen vollständig aus nichtleitendem Material. Darüber hinaus wird die korrekte Trennung durch die isolierte Aufstellung der Schaltschränke, regelmäßige Isolationskontrollen und einen Isolationswächter gewährleistet. Für dessen Funktion ist ferner erforderlich, dass ein oder mehrere – am Fahrzeug isoliert angebrachte – leitfähige (Gummi-)Schleifseile an den Isolationswächter angeschlossen sind. Teilweise wird aber auch eine am Boden schleifende Kette als zusätzliche Erdungs- und Kurzschließeinrichtung benutzt, etwa in Budapest. Zwar stehen diese Ableiter nicht ständig in ideal leitender Verbindung zur Erde. Es reicht aber aus, wenn sie gelegentlich kurzzeitig Erdpotential führen. Dies geschieht beispielsweise bei der Passage von Schachtdeckeln beziehungsweise Gullys, Schienen oder Dehnungsfugen bei Brücken, ferner auch bei einer geschlossenen Schneedecke. Ein früher Indikator für auftretende Isolationsmängel können dabei Hunde sein, die sich scheuen, in die betreffenden Wagen einzusteigen. Ebenso muss die Elektrotechnik eines Oberleitungsbusses sorgfältiger gegen witterungsbedingte Überspannungen in der Oberleitung geschützt werden als bei Schienenfahrzeugen. Dies erfolgt mit einem Überspannungsableiter. Eine ähnliche Funktion hat der nachrangig angeordnete Überstromschnellschalter, er schützt das Fahrzeug vor Überlastungen und dient gleichzeitig als Hauptschalter. Bedingt durch die infolge von Straßenschäden oft unebene Fahrbahnoberfläche sind die elektrischen Baugruppen und ihre Befestigungen außerdem stärker durch Schwingungen bzw. Vibrationen belastet als bei Schienenfahrzeugen. Ein weiteres spezifisches Obus-Bauteil ist die sogenannte Isolierkupplung. Hierbei handelt es sich um ein elastisches Gummi- oder Kunststoffelement, das zwischen Motor und Antriebswelle angeordnet ist. Es dient dazu, die Antriebsachse – gemäß den gesetzlichen Vorschriften – doppelt vom Stromkreis zu isolieren. Stromabnehmer Stromabnehmerstangen Die beiden Stromabnehmerstangen sind in der Regel jeweils etwa sechs Meter lang, ihr Abstand beträgt – analog zum Abstand der beiden Fahrdrähte – üblicherweise etwa 60 Zentimeter. Im angelegten Zustand stehen sie in einem Winkel von etwa 30° – abhängig von der jeweiligen Fahrdrahthöhe – vom Fahrzeugdach ab. Vereinzelt sind sie am oberen Ende zur Oberleitung hin gekröpft. Die Stangen sind mechanisch unabhängig voneinander, das heißt, sie können einzeln abgezogen oder angelegt werden. Die Stromabnehmer stehen hinten etwas über das Heck des Fahrzeugs hinaus, im gesenkten Zustand bis zu 1,2 Meter. Oft sind sie deshalb in einer auffälligen Farbe – wie zum Beispiel gelb – lackiert oder mit einer weiß-rot schraffierten Warnmarkierung versehen. Die Stangen bestehen aus Stahl, Aluminium, glasfaserverstärktem Kunststoff oder glasfaserverstärktem Kunststoff mit Aluminium-Innenrohr. Sie sind elastisch ausgeführt, um Fahrbahnunebenheiten kompensieren zu können. Die Stromübertragung erfolgt mit oder ohne innengeführtem Kabel, bei letzterer Variante stehen die Stangen selbst unter Spannung. Die Stromabnehmer werden durch starke Zug-Schraubenfedern an die Oberleitungen gedrückt, diese Federn sind wie die Stangen selbst direkt auf dem sogenannten Stromabnehmerbock befestigt. Am oberen Ende der Stromabnehmerstangen beträgt die Anpresskraft bei fünf Metern Fahrleitungshöhe zwischen 0,8 und 1,5 kN. Die Stromabnehmer müssen auch größere Höhendifferenzen der Fahrleitung ausgleichen. Dabei verändert sich der Kontaktdruck an der Fahrleitung ständig. Eine Überhöhung der Fahrleitung hat einen zu geringen Kontaktdruck zur Folge, was zur Lichtbogenbildung und Kontaktunterbrechungen führen kann. Einen Sonderfall der Stromabnahme bei Oberleitungsbussen stellte das sogenannte Einstangenkontaktsystem dar, wobei die beiden Fahrdrähte einen deutlich geringeren Abstand als üblich aufwiesen. Stromabnehmerköpfe Wichtigster Bestandteil eines Obus-Stromabnehmers ist der etwa zehn Zentimeter lange Stromabnehmerkopf, auch als Stromabnehmerschuh, Stromschuhhalter(ung), Schleifschuhträger, Stromschuh, Schleifschuh, Kontaktschuh oder Gleitschuh bezeichnet. Der Stromabnehmerkopf beinhaltet wiederum den sogenannten Schleifkohle(n)einsatz, auch Kohle(n)einsatz, Gleiteinsatz, Gleitstück oder Kohle(n)schleifstück genannt. Die graphithaltige Schleifkohle mit unterschiedlichem Härtegrad stellt den Gleitkontakt her. Die Stromabnehmerschuhe müssen täglich auf Beschädigungen kontrolliert werden, die Einsätze werden aufgrund des starken Abriebs schon nach ein paar Tagen ausgewechselt. Denn anders als bei den im Schienenverkehr üblichen Bügelstromabnehmern erfolgt der elektrische Kontakt ständig über dieselben relativ kleinen Kontaktstellen, was zu einer hohen Kontaktbelastung und damit zu einem höheren Verschleiß führt. Die Abnutzung der Kohleeinsätze ist außerdem witterungsabhängig. Bei trockenem Wetter erfolgt der Austausch nach 700 bis 1000 Kilometern, bei regnerischem Wetter schon nach 300 bis 400 Kilometern – das heißt im Extremfall sogar mehrmals täglich. Teilweise wird dies durch das Fahrpersonal mit Hilfe eines kleinen Hammers – der zur Fahrzeugausrüstung gehört – an Endstellen erledigt, ansonsten im Depot. Schleifschuhe und -kohlen sind hinten schmaler als vorne und leicht konisch. Dadurch können sie während der Fahrt nicht herausgedrückt werden. Um die Einsätze leichter zu tauschen, können manche Stromabnehmerköpfe seitlich am Wagen vorbei etwa bis auf Brusthöhe herabgezogen werden. In Kapfenberg stand an der Endstelle Schirmitzbühel alternativ eine spezielle Stehplattform zur Verfügung, die über eine Leiter bestiegen werden konnte. Zur Prüfung des Abnutzungsgrads der Kohleneinsätze existieren an manchen Endstellen, beispielsweise in Solingen, spezielle Prüfgeräte. Diese automatischen Messanlagen sind in die Oberleitung integriert. Dabei werden die Stromabnehmer bei der Einfahrt in die Wendeschleife geprüft, anschließend wird dem Fahrer per Lichtzeichen der Zustand der Kohlen übermittelt. Sind sie noch in Ordnung, leuchtet rechts ein kleiner Punkt auf. Müssen sie hingegen kontrolliert werden, wird dies durch einen größeren Punkt im linken Teil der Anzeige signalisiert. Um dies zu ermöglichen, besitzen die Kohlen – ähnlich einer Reifenverschleißanzeige – eine Einkerbung, bis zu der sie noch benutzt werden können. Ist die Markierung erreicht oder unterschritten, muss gewechselt werden. Die Ersatzkohlen werden entsprechend im Wagen mitgeführt. Alternativ zu den Kohlen verwendeten etwa die Dresdner Verkehrsbetriebe in den 1950er Jahren Einsätze aus Gusseisen. Seitliche Abweichung Da sowohl Stromabnehmerstangen als auch Stromabnehmerköpfe drehbar ausgeführt sind, ist es den Fahrzeugen möglich, nach links oder rechts mehrere Meter von der durch die Oberleitung bedingten Ideallinie abzuweichen. Außerdem sind die Köpfe auch horizontal beweglich ausgeführt, das heißt, sie sind kippbar. Die maximal mögliche seitliche Abweichung hängt dabei von der Länge der Stromabnehmer ab. Mit 6200 Millimeter langen Stangen kann bis zu 4500 Millimeter abgewichen werden, mit 5500 Millimeter langen Stangen immer noch 4000 Millimeter. Diese Werte gelten für gerade Strecken, in Kurven ist die mögliche Abweichung entsprechend geringer. Zudem gilt: Je weiter ein Obus von der Ideallinie abweicht, desto langsamer muss er fahren, damit die Stangen an der Leitung bleiben. Weicht der Fahrer zu stark von der Fahrleitungsmitte ab, leuchtet im Führerstand eine Lampe auf bzw. ertönt kurz vor Erreichen der maximalen Abweichung ein Signalton. Durch die seitliche Abweichung können einerseits Haltestellenbuchten angefahren werden, andererseits Hindernisse wie Taxis, Müllwagen, Radfahrer, Unfallstellen, kleinere Baustellen oder Falschparker problemlos passiert werden. Gleiches gilt für andere Oberleitungsbusse, die auf Grund von Defekten oder Unfällen liegen geblieben sind, vorausgesetzt, diese haben ihre Stromabnehmer abgezogen. Ebenso können Oberleitungsbusse entgegenkommenden Fahrzeugen ausweichen. Weiter ist es möglich, mit nur einer Oberleitung zwei oder in Ausnahmefällen auch drei parallel verlaufende Fahrstreifen abzudecken. Ferner können auf diese Weise Oberleitungsbusse in den Depots oder an Endstellen platzsparend abgestellt werden, also leicht versetzt nebeneinander statt hintereinander. Ein weiterer Vorteil der seitlichen Abweichung: Die Oberleitung muss nicht zwangsläufig mittig über dem Fahrstreifen verlaufen. Ragen Balkone, Erker oder Baumkronen ins Lichtraumprofil, kann sie zur Fahrbahnmitte hin verschoben werden. Auch S-Kurven müssen nicht exakt wiedergegeben werden, dadurch sind weniger Fahrdrahtaufhängungen erforderlich. Im Bereich von Haltestellenbuchten wird die Oberleitung auf Höhe des Fahrbahnrands reguliert, das heißt an der Grenze zwischen allgemeiner Verkehrsfläche und dem Sonderbereich für den Oberleitungsbus. Damit ist in jedem Fall ein dynamischer Lauf der Stromabnehmer gewährleistet, unabhängig davon, ob die betreffende Station bedient wird oder ob mangels Bedarfs durchgefahren wird. Stangenentdrahtung, Fangseile und Retriever Wenn ein oder beide Stromabnehmer von den Leitungen springen, wird dies als Stangen- oder Stromabnehmerentdrahtung bezeichnet. Alternativ spricht man, analog zur Entgleisung von Schienenfahrzeugen, von einer Stangen- oder Stromabnehmerentgleisung. Mit der zunehmenden Verbesserung der Straßenverhältnisse, der Stromabnehmerköpfe mitsamt den Schleifstücken und der Oberleitungstechnik sind diese Vorfälle selten geworden. In früheren Jahren geschah dies im Fahrbetrieb noch regelmäßig. Potentiell anfällig für Entdrahtungen sind hingegen auch heute noch besonders enge Kurvenradien, Fahrleitungskreuzungen und Luftweichen. Ursächlich für letzteres Problem ist entweder menschliches Versagen (Fahrer biegt falsch ab) oder technisches Versagen (Weiche war falsch gestellt). Der zweite Fall taucht vor allem auf, wenn zwei Wagen verschiedener Linien an einer Verzweigung dicht aufeinander folgen und die Weiche nicht mehr rechtzeitig umspringt. In der Regel prüft der Fahrer nach einer Abzweigung deshalb durch den Rückspiegel, ob er weiterhin unter dem richtigen Fahrdraht fährt. Modernere Fahrzeuge besitzen hierzu eine Kameraüberwachung, mit deren Hilfe der Lauf der Stromabnehmer auf einem Monitor im Armaturenbereich beobachtet werden kann. In Zürich beispielsweise wird die Weichensteuerung ferner durch die Black Box aufgezeichnet. Dennoch ist etwa in Solingen – bei 50 im Einsatz befindlichen Fahrzeugen – durchschnittlich eine Stangenentdrahtung täglich zu verzeichnen. Eine weitere typische Gefahr für Stangenentdrahtungen besteht durch Fahrer, die sowohl als Obus- als auch als Omnibusfahrer eingesetzt werden, wenn diese aus Gewohnheit einer nicht-elektrifizierten Omnibus-Linienführung folgen, obwohl sie gerade einen Obus lenken. Der Spannungsabfall infolge einer solchen Entdrahtung wird dem Fahrer unverzüglich mittels eines akustischen oder optischen Signals im Führerstand mitgeteilt. Der Fahrer oder – falls vorhanden – der Schaffner muss dann aussteigen und, bekleidet mit Arbeitshandschuhen und einer Warnweste, die Stromabnehmer mit den am Heck des Oberleitungsbusses angebrachten Fangseilen wieder in die Fahrleitung einfädeln. Diese bestehen aus paraffingetränkten Flachsfasern und werden auch Leinenfänger, Fangleinen, Fängerleinen, Abzugsleinen oder Rutenseile genannt. Sind keine Fangseile vorhanden, so wird in der Regel eine mitgeführte Teleskopstange oder eine zusammensteckbare Stange verwendet. Diese Hilfsstangen sind aus Holz oder Kunststoff und verfügen zudem über einen isolierten Haken an der Spitze. Die Fangseile verhindern außerdem, dass die Stangen bei einer Entdrahtung nach oben oder seitlich ausbrechen und durch das harte Anschlagen die Oberleitung, sonstige Leitungen, Hausfassaden, Stellläden oder Fensterscheiben beschädigen. Sie sind meistens in außen am Wagenkasten montierten Stahlbehältern aufgerollt. Diese funktionieren ähnlich einer Kabeltrommel und werden Trolley-Retriever, Trolley-Catcher oder Trolley-Fänger genannt. Das Trommelgehäuse enthält eine Fliehkraft-Sperrklinke mit Spiralfederwerk, so werden die leichten Auf- und Abbewegungen der Kontaktstange infolge schwankender Fahrdrahthöhe während der Fahrt durch den Leinenfänger nicht beeinflusst. Die innen auf einer Welle aufgerollte und nur leicht gespannte Abzugsleine löst beim Abspringen vom Fahrdraht und Hochschlagen einen, der Wirkungsweise eines Auto-Sicherheitsgurts ähnlichen, abrupten Bremseffekt aus, wobei der Fahrdraht geschont wird. Bei modernen Typen sind die Retriever in den Wagenkasten integriert und von außen nicht sichtbar. Einige Betriebe verzichten auf ihre Verwendung, unter anderem um im Winter Probleme durch Vereisung der aufgewickelten Seile zu vermeiden. Ein weiterer Nachteil von Retrievern ist, dass das Heck des Fahrzeugs nicht maschinell per Waschanlage gereinigt werden kann. Werden Retriever verwendet, sind die Fangseile vorgespannt, werden keine verwendet, so hängen sie lose herunter. Bei neueren Obussen werden die Stromabnehmer pneumatisch in eine definierte Position gedrückt. Die Erkennung erfolgt meist über einen induktiven Näherungssensor, der die Stangen ab einer eingestellten Höhe in die gewünschte Position zurückholt. Dies wird als pneumatische Schnellabsenkung bezeichnet. Eine weitere Erkennungsmöglichkeit besteht über Beschleunigungssensoren. Sie erkennen eine anomale Beschleunigung und führen die Stromabnehmer ebenfalls in die gewünschte Position zurück. Zusätzlich sind auf dem Wagendach oder direkt an den Stromabnehmerstangen manchmal Scheinwerfer installiert. Sie beleuchten die Stromabnehmerköpfe und erleichtern dem Personal das Eindrahten bei Dunkelheit. Ferner muss der Fahrer nach einer Stangenentdrahtung die Oberleitung per Sichtkontrolle auf Beschädigungen untersuchen und den Vorfall an die Betriebsleitung melden. Muss der Obus stark von der Ideallinie der Oberleitung abweichen, besteht die Gefahr, dass die Fangleinen in das Lichtraumprofil parkender, überholender oder entgegenkommender Lastwagen hineinragen. Um dies zu verhindern, besitzen manche Trolleybusse etwas unterhalb der Dachkante ein spezielles Gestänge, welches das übermäßige seitliche Ausbrechen der Fangseile verhindert. In Italien verfügen die meisten Oberleitungsbusse aus dem gleichen Grund am Heck links oben zusätzlich über eine weiß-rote Warntafel. Ab- und Andrahten Traditionell erfolgt das Abziehen – auch Abdrahten genannt – und Anlegen – auch Andrahten, Aufdrahten oder Eindrahten genannt – der Stromabnehmer manuell. Das Personal benutzt dazu wie bei einer Stangenentdrahtung die Fangseile beziehungsweise die mitgeführte Hilfsstange. Die Stromabnehmerstangen werden im gesenkten Zustand in den Halterungen im hinteren Dachbereich arretiert. Man unterscheidet dabei zwischen hakenförmigen Halterungen, in die die Stangen von unten eingeklemmt werden (die Haken zeigen dabei meistens nach außen, seltener nach innen), und Y-förmigen Halterungen, in die die Stangen von oben einrasten. Bei moderneren Typen können die Stromabnehmer auch vom Fahrerplatz her automatisch abgesenkt werden. Es existieren Systeme mit beiden Varianten der oben beschriebenen Halterungen. Bei den hakenförmigen Halterungen ist der Absenkvorgang dabei komplizierter, die Halterungen müssen dabei während des Absenkvorganges seitlich weggedreht werden. Sind die Stromabnehmer abgebügelt, werden sie wieder zurückgedreht. Bei einigen Betrieben gibt es an bestimmten Stellen im Netz außerdem so genannte Einfädel(ungs)trichter aus Metall oder Acrylglas, auch Eindraht(ungs)trichter oder Eindraht(ungs)hilfe genannt. In diesem Fall können die Stromabnehmer auch automatisch, das heißt vom Fahrerplatz aus, angelegt werden. Der Fahrer richtet dabei die Stromabnehmer meist mit einer Art Joystick aus. Spezielle Bodenmarkierungen zeigen ihm, wo er halten muss, um die Trichter nutzen zu können. Diese automatischen Eindrahtsysteme kommen in der Regel in Verbindung mit alternativen Fortbewegungsmethoden zur Anwendung, siehe Unterkapitel ergänzende Antriebskonzepte. Damit der fließende Verkehr während des Andrahtvorgangs nicht behindert wird, sind die Trichter in der Regel im Bereich von Haltestellenbuchten montiert. Das automatische Anlegen der Stromabnehmer dauert üblicherweise zwischen zehn und fünfzehn Sekunden. Erfolgt das Abziehen automatisch, das Anlegen manuell, wird dies als halbautomatisches Stromabnehmersystem bezeichnet. Erfolgt beides automatisch, so handelt es sich um ein vollautomatisches System. Besitzt der jeweilige Oberleitungsbus eine zusätzliche Speicherbatterie als Hilfsantrieb, kann der Abdrahtvorgang sogar bei laufender Fahrt erfolgen. Allerdings ist es beispielsweise in Polen gesetzlich vorgeschrieben, dass die Wagen beim Umschalten stehen. Planmäßig abgedrahtet werden Oberleitungsbusse beispielsweise in vielen Depots, dadurch müssen nicht alle Abstellplätze mit einer Oberleitung überspannt werden. Ebenso drahten pausierende Kurse häufig ab, um andere Wagen passieren zu lassen, typischerweise an Endhaltestellen ohne Überholmöglichkeit. Ebenfalls notwendig ist das Abdrahten, falls es auf einspurigen Strecken zu Begegnungen kommt. Höchstgeschwindigkeit In der Regel erreichen heutige Oberleitungsbusse eine bauartbedingte Höchstgeschwindigkeit zwischen 50 und 70 km/h. Ursächlich für diese Limitierung ist die Stromabnahme mittels Kontaktstangen, höhere Geschwindigkeiten würden – insbesondere bei unebener oder welliger Fahrbahn – zu häufigen Stangenentdrahtungen führen. Um dies zu verhindern, müssten die Stromabnehmerstangen mit einem höheren Anpressdruck gegen die Fahrleitung gedrückt werden, was zu einem hohen Materialverschleiß führen würde. Außerdem müsste die Fahrleitungskonstruktion stabiler sein, um der Belastung dauerhaft standzuhalten. Kommen leistungsstärkere Motoren zum Einsatz, werden diese in der Regel bei den oben genannten Maximalwerten elektronisch abgeregelt. Zumindest ist dies bei Fahrzeugen neuerer Bauart der Fall. Damit sind Oberleitungsbusse prinzipbedingt langsamer als Omnibusse, für die ein gesetzliches Tempolimit von 80 bzw. 100km/h gilt – das von den meisten Bauarten auch erreicht wird. Ferner können Oberleitungsbusse nicht auf Kraftfahrstraßen und Autobahnen eingesetzt werden. Da sie überwiegend innerorts verkehren – wo für gewöhnlich ein gesetzliches Tempolimit von 50km/h gilt –, wirkt sich die begrenzte Höchstgeschwindigkeit im praktischen Betrieb nicht nachteilig aus, zumal Obusse Dieselbussen in der Beschleunigung meist überlegen sind, was im Stadtverkehr einen größeren Vorteil darstellt. Anders stellt sich die Situation hingegen auf den seltenen Obus-Überlandstrecken dar, wo die Fahrzeuge mitunter ein Verkehrshindernis darstellen. Fallweise wird dort auch schneller gefahren, so erreichten beispielsweise die von Verona ausgehenden Überland-Obusse teilweise Geschwindigkeiten von 80 km/h. Sie galten als die weltweit schnellsten Obusse im planmäßigen Linieneinsatz, erleichtert wurde dies durch die ungewöhnlich hohe Fahrdrahtspannung von 1200 Volt. Bei Testfahrten ohne Fahrgäste werden mitunter noch höhere Geschwindigkeiten erreicht, so beispielsweise in Teheran 85 km/h. Oberleitung und sonstige Infrastruktur Standardoberleitung Die Trolleybus-Oberleitung – auch Fahrleitung, Fahrdraht oder bildhaft Schienen am Himmel genannt – ist zweipolig und wird mit Gleichspannung gespeist. Ein Draht dient als Pluspol, der andere als Minuspol. Damit übernimmt der zweite Draht die Funktion der Rückleitung, also die Aufgabe, die bei Straßenbahnen oder anderen elektrifizierten Bahnen die Schienen haben. Die beiden Rillenfahrdrähte sind aus Kupfer, wobei in Kriegszeiten aufgrund fehlender Rohstoffe auch Eisendraht verwendet wurde, und verlaufen bei den meisten Betrieben in einem Abstand von 60 Zentimetern parallel zueinander. Sie haben meist eine Querschnittsfläche zwischen 80 und 120 Quadratmillimetern, die aber selbst innerhalb eines Netzes variieren kann. In St. Gallen beträgt sie beispielsweise im innerstädtischen Verkehr 85 und auf den Außenstrecken 107 Quadratmillimeter. Die beiden rillenförmigen Einkerbungen dienen der Aufhängung mittels Fahrdrahthaltern, auch Halteklemmen genannt. Anders als bei Bahnen – die heute in der Regel Schleifleisten verwenden – sind diese Klemmen schmaler. Sie dürfen nicht seitlich über den Fahrdraht hinausstehen, damit der Lauf des Stromabnehmerkopfs nicht behindert wird. Aufhängung Im Normalfall werden die Leitungen etwa alle 20 bis 25 Meter an Oberleitungsmasten aus Stahl, Schleuderbeton oder früher auch Holz abgespannt. In Ausnahmefällen können auch Bäume der Aufhängung dienen, in Einzelfällen fanden auch schon ausgesonderte Bahnschienen Verwendung. Bei den Stahlmasten unterscheidet man ferner zwischen Stahlrohrmasten und Stahlgittermasten. Die Gittermasten wiederum sind als einfache Flachmasten oder aber als etwas stabilere Winkelrohrmasten mit quadratischem Querschnitt anzutreffen, wobei letztere auch in Längsrichtung belastbar sind. Die Abspannung der Fahrdrähte erfolgt entweder mit Auslegern vom Straßenrand aus oder mit Hilfe von Querdrähten. Bei letzteren sind auf beiden Straßenseiten Masten erforderlich, diese Ausführung kommt überwiegend auf breiteren Straßen zur Anwendung. Die Querdrähte sind etwas dünner als die Fahrdrähte, sie weisen Querschnitte zwischen 35 und 50 Quadratmillimetern auf und dienen teilweise auch der Aufhängung allgemeiner Verkehrsschilder oder zum Aufhängen von Flaggen. Selten sind Mittelmasten mit Auslegern. Diese können nur verwendet werden, wenn die Richtungsfahrbahnen einer Straße baulich voneinander getrennt sind, beispielsweise durch einen schmalen Mittelstreifen. Mittelmasten sind günstiger im Bau, weil deutlich weniger Fundamente erforderlich sind. In dichter bebauten Straßenzügen wird die Oberleitung aus räumlichen Gründen (kein Platz zur Aufstellung von Masten) oder aus optischen Gründen (Masten werden als unästhetisch empfunden) meist mit Hilfe von Wandrosetten an den umliegenden Gebäuden befestigt. Diese stammen bei vielen Betrieben noch von der ehemaligen Straßenbahn, die der Obus ablöste. Die Querdrähte beziehungsweise Ausleger stehen selbst nicht unter Spannung, dies wird durch die Verwendung von Isolatoren gewährleistet. Eine besondere Situation besteht im Wuppertaler Stadtbezirk Vohwinkel, dort ist die Obus-Oberleitung am Traggerüst der Wuppertaler Schwebebahn angebracht. Im polnischen Gdynia verwendet man teilweise Gittermasten aus den Beständen der polnischen Staatsbahn Polskie Koleje Państwowe. Generell bedingt die doppelpolige Obus-Fahrleitung wesentlich stärkere Aufhängungen als bei der Straßenbahn. In St. Gallen haben einzelne Masten ein Zuggewicht bis zu 2600 Kilogramm zu tragen. Um auf Abschnitten mit großen Abständen zwischen den Aufhängungen ein Zusammenschlagen der beiden Fahrdrähte zu verhindern, bauen manche Betriebe zusätzlich starre Abstandhalter ein. Durch den Anpressdruck des Schleifkontaktes und durch das seitliche Abschwenken des Trolleybusses wird die Fahrleitung in Schwingungen versetzt, das Fahrzeug schiebt dabei immer eine Welle vor sich her. Aus Idar-Oberstein ist überliefert, dass unter den an der Haltestelle wartenden Fahrgästen die typische Antwort auf die Frage „ob der Obus bald komme“ lautete: „der Draht wackelt schon“. Weil dabei auch die Unebenheiten der Fahrbahn weitergegeben werden, sind diese Schwingungen deutlich stärker ausgeprägt als bei Schienenfahrzeugen und wirken sich daher negativ auf den elektrischen Kontakt aus. Zudem nutzen sich die Kohleschleifstücke der Stromabnehmer umso stärker ab, je mehr die Fahrleitung mitschwingt. Um dies auszugleichen, werden Obus-Fahrleitungen teilweise flexibel montiert. Hierbei handelt es sich um die sogenannte vollelastische Schrägpendelaufhängung nach dem System des Schweizer Unternehmens Kummler+Matter, diese wurde in den 1930er Jahren entwickelt. Der Vorteil der elastischen Fahrdrahtaufhängung gegenüber der starren besteht im Auf- und Abschwingen der pendelnden Stützpunkte in Abhängigkeit vom Anpressdruck. Es muss deshalb mittels eines Draht-Parallelogramms dafür gesorgt werden, dass der Fahrdraht in jeder Pendellage senkrecht steht. Ferner ermöglicht die Schrägpendel-Aufhängung höhere Fahrgeschwindigkeiten in Kurven. Im Bereich von Schilderbrücken, Fußgängerbrücken oder Auslegern von Ampelanlagen sind die beiden Fahrdrähte meist von oben her mittels U-förmiger Kunststoffprofile eingehaust. Dieser spezielle Schutz verhindert Kurzschlüsse, die beiden Drähte können so auch bei stärkeren Schwingungen die genannten Objekte nicht berühren. Gleichfalls wird dadurch verhindert, dass Passanten von oben metallische Gegenstände direkt auf die Drähte werfen können. Mitunter ist die Oberleitung außerdem direkt mit der ÖPNV-Bevorrechtigung verknüpft. Statt der vom Omnibus bekannten Funkbaken-Systeme können die Lichtsignalanlagen beim Trolleybus mittels Oberleitungskontakten direkt auf Grün geschaltet werden. Zick-Zack-Aufhängung und Gewichtsnachspannung Ähnlich der Oberleitung bei schienengebundenen Bahnen sind auch Obus-Fahrleitungen meist in einem leichten Zick-Zack verlegt. Anders als bei Bahnen hat dies nichts mit der gleichmäßigeren Abnützung der Schleifstücke zu tun. Bei Oberleitungsbussen dient diese Bauweise vielmehr dazu, die Wärmeausdehnung infolge von Temperaturschwankungen zu kompensieren, denn Obus-Fahrleitungen sind mit Fahrdrahtklemmen endlos verbunden. Im Allgemeinen entsprechen sie dabei der sogenannten Einfachfahrleitung im Bahnbereich. Wird hingegen auf die Zick-Zack-Aufhängung verzichtet, muss die Fahrleitung, analog zu modernen Hochketten-Oberleitungen im Schienenverkehr, mit einem mittigen oder zwei parallel geführten Tragseilen sowie speziellen Gewichten nachgespannt werden. Beim Oberleitungsbus Offenbach am Main waren die dazu notwendigen Gegengewichte beispielsweise verdeckt im Inneren der Stahlrohrmasten angeordnet. Die Gewichtsnachspannung ist in Oberleitungsbusnetzen deutlich aufwändiger als bei Bahnennetzen mit Bügelstromabnehmern, weil die Schleifschuhe der Stangenstromabnehmer, die den Fahrdraht umgreifen, nicht einfach vom Fahrdraht eines Spannfeldes auf den des nächsten überlaufen können. Fahrdrahthöhe Auf neuen Streckenabschnitten wird die Oberleitung laut Europäischer Norm in einer Standardhöhe von 5,5 bis 5,6 Metern über der Fahrbahnoberkante angebracht. Als maximale Höhe werden 6,5, als minimale Höhe 4,7 Meter definiert. Letzterer Wert entspricht auch der in Deutschland vorgeschriebenen Mindesthöhe gemäß BOStrab. Diese Höhe ergibt sich aus dem Lichtraumprofil der Straßenverkehrs-Ordnung – dieses ist mit 4,5 Metern festgelegt – zuzüglich eines Sicherheitsabstands von 20 Zentimetern. In Ausnahmefällen wie Unterführungen, Hausdurchfahrten oder Tunnelstrecken hängen die Fahrdrähte aber teilweise auch tiefer, die BOStrab erlaubt hierbei – bei entsprechender Kennzeichnung – eine Mindesthöhe von 4,2 Metern. Andernorts sind noch niedrigere Werte zulässig, so sind es beispielsweise im Zuge der Dinghoferstraße in Linz nur 3,9 Meter. In Berlin betrug die Fahrdrahthöhe bei der Unterführung Albrechtstraße sogar nur 3,76 Meter. Um Beschädigungen der Oberleitung beziehungsweise Kurzschlüsse durch verbotswidrig passierende hohe Fahrzeuge zu vermeiden, ist es bei niedrig hängenden Fahrdrähten üblich, diese mit speziellen Holztrögen einzuhausen. Alternativ werden zwei Stahlprofile verwendet. Im Gegenzug muss die Oberleitung beim Einsatz von Doppeldeckern entsprechend höher angeordnet sein, in Hamburg wurde hierfür beispielsweise eine Höhe von 6,0 Metern gewählt. Um die Durchfahrtshöhe niedriger Unterführungen nicht zusätzlich einzuschränken, verlaufen die Oberleitungen teilweise seitlich verschwenkt über dem Gehweg. Beispiele für diese Praxis sind beziehungsweise waren die Baselstrasse sowie die Brüelstrasse in Luzern, der Tunnel unter dem Rollfeld des Salzburger Flughafens und die ebenfalls in Salzburg gelegene Nelböckunterführung, die Passage der Bahnstrecke Bologna–Ancona in Rimini, die Durchfahrt unter dem Eisenbahnviadukt Podul Băneasa 1 in Bukarest sowie das Eisenbahnviadukt im Verlauf der Hungária körút in Budapest. Bei letzterer Unterführung verliefen die beiden Fahrdrähte ursprünglich um eine ganze Fahrbahnbreite voneinander getrennt, das heißt links und rechts potentiell störender Lastwagenaufbauten. In Biel hängen die Fahrdrähte im Zuge der Unterführung Madretschstrasse seitlich über den Radfahrstreifen, für die Trolleybusse ist dort aufgrund der Abweichung eine Höchstgeschwindigkeit von 20 km/h vorgeschrieben. Trennung von Betrieb und Infrastruktur Nicht immer gehört die Oberleitungsinfrastruktur auch der Gesellschaft, die Inhaberin der entsprechenden Personenbeförderungskonzession ist. Hierbei ergeben sich Parallelen zum Schienenverkehr, wo zwischen Eisenbahninfrastrukturunternehmen und Eisenbahnverkehrsunternehmen differenziert wird. Im Zuge der zunehmenden Liberalisierung auf dem Verkehrsmarkt, mitsamt der damit verbundenen Ausschreibungen, ist diese Aufteilung in den letzten Jahren auch im Obusbereich verstärkt zu beobachten: In São Paulo war zeitweise bei beiden Teilnetzen eine Trennung von Betrieb und Infrastruktur gegeben. Das Fahrleitungsnetz der Vorortlinien wird von der in öffentlicher Hand befindlichen Verkehrsgesellschaft Empresa Metropolitana des Transportes Urbanos gebaut und unterhalten, den Fahrbetrieb besorgt die private Gesellschaft Metra im Rahmen einer Konzession. Bei den Stadtlinien São Paulos war die Situation von 1985 an genau umgekehrt. Der private Stromversorger Eletropaulo war für die Infrastruktur zuständig, das städtische Verkehrsunternehmen São Paulo Transportes (SPTrans) übernahm die Bedienung der Strecken. Mit der Privatisierung von Eletropaulo begannen jedoch anhaltende Probleme mit dem Unterhalt des Netzes, Investitionen unterblieben. 1994 privatisierte die Stadt schließlich auch den Fahrbetrieb und teilte die Trolleybusse auf die drei neuen privaten Betreiber Imperial (später Viação Santo Amaro), Transbraçal und Eletrobus (später Himalaia) auf. Erst die 2009 erfolgte Rücküberführung der Fahrleitungs- und Versorgungsinfrastruktur in öffentlichen Besitz bildete die Basis für eine durchgreifende Modernisierung. Beim niederländischen Oberleitungsbus Arnhem gingen die Oberleitungsanlagen 2008 im Vorfeld einer Ausschreibung vom Verkehrsunternehmen Connexxion in die Trägerschaft der öffentlichen Hand über. Anschließend gewann das Verkehrsunternehmen Novio den Wettbewerb, so dass Connexion gar nicht mehr in den Obusbetrieb involviert ist. Noch komplizierter ist die Aufteilung beim schwedischen Oberleitungsbus Landskrona. Dort ist die Oberleitungsinfrastruktur im Besitz der Stadt, das Rollmaterial gehört der Nahverkehrsgesellschaft Skånetrafiken, und mit der Betriebsdurchführung wird das Verkehrsunternehmen Swebus beauftragt. In Neapel verkehren die Überlandtrolleybusse der Compagnia Trasporti Pubblici di Napoli im Zentrum unter den Fahrleitungen der städtischen Gesellschaft Azienda Napoletana Mobilità, die beiden Unternehmen teilen sich außerdem ein gemeinsames Depot. Im russischen Rostow am Don wurde die Trolleybuslinie 6 (ehemals 22), als einzige eines neun Linien umfassenden Netzes, zwischen 2001 und 2010 vom Privatunternehmen Rostov-Auto betrieben. Für die Infrastruktur und die übrigen Linien war hingegen stets die städtische Verkehrsgesellschaft Ruseltrans verantwortlich, die nach dem Konkurs von Rostov-Auto auch wieder die Linie 6 bedient. Ähnlich im ukrainischen Czernowitz, wo zwischen 1995 und 2008 das Privatunternehmen CHATP die Linien 2 und 4 betrieb. In Schaffhausen sind seit dem 1. Mai 2010 nicht mehr die Verkehrsbetriebe Schaffhausen, sondern das Elektrizitätswerk des Kantons Schaffhausen für den Unterhalt der Fahrleitungen zuständig. Da die Konzession nicht teilbar ist, bleiben die Rechte und Pflichten der Trolleybusgesetzgebung bei den Verkehrsbetrieben Schaffhausen. Auch in Shanghai wird die Oberleitungsinfrastruktur von einer Fremdfirma gewartet. Ebenso gehören in Esslingen die Oberleitungen im Zuge der Linien 119 und 120 dem Städtischen Verkehrsbetrieb Esslingen am Neckar, die Linien selbst waren hingegen zu Zeiten des elektrischen Betriebs auf die damalige END Verkehrsgesellschaft konzessioniert. Bereits zwischen 1944 und 1954 verkehrten in Wilhelmshaven die Oberleitungsbusse des Privatunternehmers Theodor Pekol, er betrieb eine Überlandlinie nach Jever, im Stadtbereich unter den Fahrdrähten der Stadtwerke-Verkehrsgesellschaft Wilhelmshaven. In der Schweiz war zwischen 1949 und 1969 der Trolleybus Neuenburg in Valangin mit dem ehemaligen Trolleybus Val de Ruz verknüpft. Es verkehrte eine Gemeinschaftslinie von Neuenburg nach Cernier. Zwischen Neuenburg und Valangin fuhren dabei VR-Trolleybusse unter TN-Fahrleitung, im Abschnitt Valangin–Cernier entsprechend TN-Wagen unter VR-Infrastruktur. Nach dem gleichen Muster betrieben die Kreis Moerser Verkehrsbetriebe und die Duisburger Verkehrsgesellschaft in den 1950er und 1960er Jahren die Gemeinschaftslinien 4 und 5 des Oberleitungsbus Moers. Beim ehemaligen Oberleitungsbus Stockholm existierte neben dem städtischen Netz der AB Stockholms Spårvägar (SS) eine private Linie nach Kvarnholmen, die von der Transport AB Stockholm–Kvarnholmen (TSK) betrieben wurde. Mit der Trennung von Betrieb und Infrastruktur ist fallweise auch die Entrichtung von Benutzungsgebühren an den jeweiligen Besitzer der Oberleitungsinfrastruktur verbunden. Hierbei bestehen Analogien zur sogenannten „Schienenmaut“, etwa dem deutschen Trassenpreissystem (TPS). In Esslingen am Neckar beispielsweise müsste ein künftiger privater Obusbetreiber jährlich eine Million Euro Trassengebühren an die Stadt bezahlen. Polarität In Ländern mit Rechtsverkehr ist in der Regel der in Fahrtrichtung gesehen linke – und von den Gebäuden abgewandte – Fahrdraht der positive Pol. Der rechte Fahrdraht übernimmt die Funktion des negativen Pols. In manchen Städten ist die Polarität der elektrischen Spannung auch umgekehrt. Falls Teile der elektrischen Infrastruktur – zum Beispiel Gleichstromsteller oder Umrichter – auf die Polarität empfindlich sind, erfolgt fahrzeugseitig der Anschluss des Motors in der Regel über eine Gleichrichterbrücke, auch Eingangsgleichrichter genannt. Somit kann sich die Verpolung nicht negativ auswirken, Schäden durch falsches Anlegen der Stromabnehmer werden verhindert. Bei älteren Fahrzeugen mit Widerstandssteuerung und Reihenschlussmotor ist hingegen keine Umschaltung erforderlich. Bei ihnen ändern Feld- und Ankerstrom die Polarität, womit die Drehrichtung gleich bleibt, ein Eingangsgleichrichter wird nicht benötigt. Somit ist es bei Oberleitungsbussen prinzipiell möglich, anlässlich von Betriebsstörungen ausnahmsweise die Fahrleitung der Gegenrichtung zu benutzen – etwa wenn die Regelfahrleitung beschädigt ist oder bedingt durch Hindernisse nicht benutzt werden kann. Ist der Minuspol nicht geerdet, kann das Gleichstromnetz potentialfrei betrieben werden. Um dem für die Wartung bzw. Reparatur der Oberleitung zuständigen Personal die Arbeit zu erleichtern, markieren manche Betriebe die Leitungselemente im Bereich von komplizierteren Fahrleitungsanlagen farbig. Hierbei steht Rot für den Pluspol und Blau für den Minuspol. Kurvenschienen und Deckenstromschienen In Kurven werden sogenannte Kurvenschienen verwendet. Ein längerer Bogen ist dabei in mehrere abrupte Fahrtrichtungsänderungen unterteilt, das heißt, einer vergleichsweise kurzen Kurvenschiene folgt stets ein längeres Stück Standardoberleitung. Die Länge der Kurvenschienen ist dabei vom Kurvenradius bzw. von der Fahrdrahtabweichung abhängig. Solche festen Schienen kommen mitunter ebenso in niedrigen Unterführungen, Tunnelstrecken oder Wagenhallen zur Anwendung, das heißt überall dort, wo nach oben hin kein Raum zur Aufhängung der Oberleitung zur Verfügung steht, ähnlich der Deckenstromschiene im Bahnverkehr. Wendeanlagen Schleifen Oberleitungsbusse sind fast immer Einrichtungsfahrzeuge. An den Linienendpunkten steht daher meist eine Wendeschleife zur Verfügung – speziell beim Oberleitungsbus auch Oberleitungsschleife, Fahrleitungsschleife oder Fahrleitungskehre genannt. Man unterscheidet dabei zwischen rechtsdrehenden Schleifen im Uhrzeigersinn (bei Rechtsverkehr mit Fahrleitungskreuzung) und linksdrehenden Schleifen entgegen dem Uhrzeigersinn (bei Rechtsverkehr ohne Fahrleitungskreuzung). Wird eine Schleife von mehreren Linien benutzt, so ist diese häufig zweispurig ausgeführt oder besitzt zumindest partiell eine zusätzliche Abstellspur. Dadurch können an den Linienendpunkten pausierende Fahrzeuge überholt werden. Teilweise sind die Abstellspuren nicht mit der Regelfahrleitung verbunden, in diesem Fall müssen die Stromabnehmer manuell umgelegt werden. Dadurch wird gewährleistet, dass die Nebenverbraucher – wie zum Beispiel die Heizung – auch bei längeren Pausen mit Strom versorgt werden. Alternativ verfügen manche Typen hierzu über Batterien. Eine Obus-typische Besonderheit sind Wendeschleifen, die ähnlich einer Wäschespinne um einen einzigen Oberleitungsmast herumgeführt werden, manchmal auch Wendemast genannt. Darüber hinaus eignen sich auch Kreisverkehre als Wendemöglichkeit für Oberleitungsbusse. Führt eine Schleifenfahrt durch mehrere Straßenzüge, so spricht man von einer Häuserblockschleife, Blockschleife oder Blockumfahrung. Dreiecke Seltener werden Wendedreiecke verwendet, auch Y-Kehre, Dreieckskehre oder Fahrleitungsdreieck genannt. Sie waren früher unter anderem in Braga, Dresden, Czernowitz, Insterburg, Marseille, München, Porto und Timișoara anzutreffen. Bei diesen Anlagen mussten die Oberleitungsbusse nach dem Prinzip des Wendens in drei Zügen zweimal die Fahrtrichtung wechseln und zudem ein kurzes Stück rückwärts fahren. Als weitere Besonderheit wurden dabei ausnahmsweise auch Luftweichen im Rückwärtsgang passiert. Y-Kehren wurden vor allem dort angelegt, wo kein Platz zur Errichtung von Kehrschleifen war bzw. der Radius der Fahrleitung zu eng gewesen wäre. Jedoch verhinderten sie den Anhängerbetrieb, weshalb sie beispielsweise in Insterburg schon nach wenigen Jahren durch Schleifen ersetzt wurden. Zwischen 2014 und 2016 wendeten wiederum in Budapest zwei Linien per Dreieckskehre, da die Blockumfahrung am Parlament stillgelegt wurde. Da dort allerdings keine Luftweichen zur Verfügung standen, wurden die Stangen von örtlichem Personal manuell umgehängt. Drehscheiben Eine Kuriosität des Solinger Betriebes ist die planmäßig von 1959 bis 2009 betriebene Drehscheibe Unterburg. Sie ist die letzte von weltweit fünf Obus-Drehscheiben. Infolge der Verlängerung der Linie 683 wird die Drehscheibe seit Mitte November 2009 nicht mehr benötigt, soll aber dauerhaft museal erhalten bleiben. Zwei weitere Anlagen dieser Art befanden sich in Großbritannien. Hierbei handelte es sich zum einen um die Drehscheibe Christchurch (1936 bis 1969), zum anderen um die Drehscheibe Longwood bei Huddersfield (1939 bis 1940). Die vierte Obus-Drehscheibe existierte von 1982 und 1983 beziehungsweise von 1985 bis 1988 im Obus-Tunnel von Guadalajara, Mexiko. Die beengten Platzverhältnisse im Untergrund ließen dort keine andere Lösung zu. Die fünfte Anlage diente ab 1914 der ersten Obuslinie in Shanghai als Wendemöglichkeit. Umkehren per Schwungfahrt Eine Sonderform des Wendevorgangs ist das Umkehren per Schwungfahrt. Sie wird in Ausnahmefällen angewandt, wenn keine ortsfeste Wendeanlage und kein Hilfsantrieb zur Verfügung steht. Auf flachen Streckenabschnitten steigt dazu der Schaffner oder ein anderer Mitarbeiter des Verkehrsbetriebs – teilweise auch zwei Personen gleichzeitig – auf die hintere Stoßstange des Oberleitungsbusses der gewendet werden soll oder läuft diesem ein Stück hinterher. An einer vorbestimmten Stelle zieht das genannte Begleitpersonal dann die beiden Stromabnehmerstangen von der Oberleitung, unmittelbar danach lenkt der Fahrer scharf nach links (bei Rechtsverkehr) und rollt mit Schwung unter die auf der anderen Straßenseite befindliche Oberleitung der Gegenrichtung. Dort wird anschließend wieder manuell eingedrahtet, damit das Fahrzeug die Rückfahrt antreten kann. Voraussetzung für dieses Verfahren ist jedoch eine ausreichend breite mehrspurige Straße, die Anlage der Oberleitungen über den äußeren Fahrspuren, eine für den Moment des Wendevorgangs freie Straße sowie mit Fangseilen ausgestattete Stromabnehmerstangen. Eine alternative Möglichkeit, Trolleybusse mittels Schwungfahrt zu wenden, ist die Ausnutzung von Gefällen. Dabei wird von der elektrifizierten Strecke aus in eine abzweigende und ansteigende Seitenstraße abgebogen. Befindet sich die elektrifizierte Strecke, von der gewendet werden soll, in einem Gefälle, so können die Stromabnehmer im Stand abgezogen und das Fahrzeug anschließend in die Seitenstraße gerollt werden. Anschließend rollt der Wagen – analog zu einem Wendedreieck – rückwärts aus der Seitenstraße heraus wieder zurück auf die Hauptstrecke. Diese Art des Wendens wurde in den Anfangsjahren des Trolleybus Winterthur praktiziert. Alternativ ist es auch möglich, mittels während der Fahrt abgezogener Stromabnehmer wie in der ersten Variante in die Seitenstraße zu gelangen. Luftweichen Die Weichen der Obus-Oberleitung werden als Luftweichen bezeichnet, seltener auch als Oberleitungsweichen, Fahrleitungsweichen oder Fahrdrahtweichen. Es wird dabei zwischen spitz befahrenen Auslaufweichen (bei denen sich die Oberleitung aufteilt) und stumpf befahrenen Einlaufweichen (mit deren Hilfe zwei Oberleitungen zusammengeführt werden) unterschieden. Wegen der Schleifschuhe der Obus-Stromabnehmer, die die Fahrdrähte auf beiden Seiten umgreifen, funktionieren Fahrdrahtweichen für den Obus-Betrieb wie auch in Straßenbahnnetzen mit Stangenstromabnehmern nach dem Prinzip der Schleppweiche. Der Antrieb einer Auslaufweiche wird heute per Fernsteuerung vom Fahrzeug aus gestellt. Dies geschieht entweder mittels Funksignalübertragung, auch Weichenfunk genannt, oder durch eine induktive Weichensteuerung – letztere meist unter Zuhilfenahme von im Boden eingelassenen Induktionsschleifen. In der Regel ist die Weichensteuerung mit dem rechnergestützten Betriebsleitsystem (RBL) gekoppelt und erfolgt somit vollautomatisch. Steht kein RBL zur Verfügung, muss der Fahrer die gewünschte Fahrtrichtung per Knopfdruck anwählen. Einige Luftweichen, die in der Regel nur in einer Lage befahren werden, aber trotzdem ferngestellt sein müssen, haben eine Vorzugslage, in die sie nach dem Befahren selbsttätig zurückkehren. Sie müssen nur dann umgestellt werden, wenn statt der standardmäßig eingestellten die abweichende Richtung befahren werden soll. In Athen wird dies dem Fahrer beispielsweise durch rote (Weiche stellen) bzw. blaue Pfeile (Weiche nicht stellen) signalisiert. Früher konnte die Weichensteuerung auch über einen vom Fahrer ausgelösten veränderlichen Stromverbrauch erfolgen, ähnlich dem System der Oberleitungskontakte bei der Straßenbahn. Dieses Prinzip wird auch Stellkontakt genannt. Ursprünglich wurden Luftweichen manuell gestellt. Hierzu musste der Schaffner aussteigen und ein isoliertes Zugseil bedienen. Später setzten manche Betriebe auf Druckknöpfe, die an Schaltkästen angebracht waren. Die Einlaufweichen werden hingegen in aller Regel gar nicht gestellt. Sie funktionieren nach dem Prinzip der Rückfallweiche oder besitzen keine beweglichen Teile. Außerdem wird zwischen Weichen mit beweglichem, polarisierbarem Herzstück (in diesem Fall ist in beiden Fahrtrichtungen ein durchgehender Fahrstrom gewährleistet) und solchen ohne bewegliches Herzstück (hierbei ist der Fahrstrom in beiden Fahrtrichtungen jeweils kurz unterbrochen) differenziert. Ferner gibt es konventionelle symmetrische Weichen und etwas modernere Schnellfahrweichen. Erstere führen in beiden Fahrtrichtungen zu einer Ablenkung der Stromabnehmer. Um Stangenentgleisungen zu vermeiden, werden sie deshalb in der Regel mit geringerer Geschwindigkeit befahren. In Esslingen ist für symmetrische Weichen beispielsweise eine Höchstgeschwindigkeit von 25km/h vorgeschrieben. Schnellfahrweichen können konstruktionsbedingt mit bis zu 60 km/h nur in der so genannten Vorzugsrichtung passiert werden, in der der Stromabnehmer nicht abgelenkt wird. Im Gegensatz zu den symmetrischen Weichen werden Schnellfahrweichen zwischen Rechtsfahr- und Linksfahrweichen unterschieden. Prinzipiell befinden sich Obus-Weichen bereits einige Meter vor einer Kreuzung, das heißt in der Regel dort, wo ein Abbiegefahrstreifen beginnt. Hierbei spricht man von einer Vorsortierung, die nach Fahrtrichtung getrennten Oberleitungen werden ein Stück weit parallel geführt. Im argentinischen Mendoza wurden Luftweichen teilweise mittels einer übergespannten Zeltplane vor Witterungseinflüssen geschützt. Mitunter wird bei selten befahrenen Abzweigstellen, wie Zwischenendstellen oder im Regelverkehr nicht genutzten Verbindungskurven, aus Kostengründen gänzlich auf Luftweichen verzichtet. In diesem Fall müssen die Stromabnehmerstangen vom Personal manuell umgesetzt werden. Ein Beispiel hierfür war die Zwischenwendeschleife Boldtstraße in Eberswalde, sie wurde zuletzt nur zweimal täglich planmäßig befahren und Ende 2011 schließlich abgebaut. Kreuzungen Vergleichsweise kompliziert aufgebaut sind Obus-Obus-Kreuzungen beziehungsweise Obus-Straßenbahn-Kreuzungen oder Obus-Eisenbahn-Kreuzungen. Problematisch ist hierbei die elektrische Isolation zwischen Plus- und Minuspol. Ähnlich wie bei einer Trennstelle zwischen zwei Speisebereichen beziehungsweise beim Herzstück einer Weiche sind die beiden kreuzenden Oberleitungen jeweils zweimal kurz unterbrochen, das heißt, der Kreuzungsbereich muss mit Schwung überwunden werden. Werden beide Strecken mit Stangenstromabnehmern befahren, sind Herzstücke, bei zwei zweipoligen Fahrleitungen auch Doppelherzstücke unverzichtbar. In beiden Fällen ist aber bei einer Vorzugsfahrtrichtung eine unterbrechungslose Spannungsversorgung realisierbar. In Rumänien existierten Kreuzungen mit durchgängiger Fahrleitung für den Obus, während die Straßenbahntriebwagen abbügeln mussten. Ferner sind solche Kreuzungen anfällig für Stangenentdrahtungen, insbesondere wenn die zu querenden Schienenköpfe nicht plan mit der Straßenoberfläche liegen. Einfacher realisierbar sind schiefwinklige Kreuzungen von Obus- und Straßenbahnfahrleitungen, sofern im Straßenbahnnetz keine Stangenstromabnehmer genutzt werden. Mit etwas höher liegenden Obusfahrdrähten und Überleitstücken in der Straßenbahnfahrleitung kommen derartige Kreuzungen ohne spannungslose Stellen aus. Verwendet werden sie unter anderem in Bern und Lausanne, dort an den Kreuzungsstellen mit der Lausanne–Echallens–Bercher-Bahn. Vereinzelt kommt es vor, dass die Spannung der zu kreuzenden Bahn höher ist als beim Obus. So beispielsweise im slowakischen Prešov, wo an zwei Stellen die mit 3000 Volt Gleichspannung elektrifizierte Eisenbahnstrecke Kysak–Muszyna gequert wird, die Züge passieren diese mit gesenktem Stromabnehmer. Außerdem dreimal in Salzburg, dort beträgt die Spannung beim Obus 600 Volt, bei den Strecken Salzburg–Lamprechtshausen sowie Salzburg Hbf–Salzburg Itzling aber 1000 Volt. Weitgehend unbekannt sind hingegen Kreuzungen zwischen Oberleitungsbussen und mit Einphasenwechselstrom betriebenen Eisenbahnstrecken. Aufgrund der hohen Spannungen ist eine gegenseitige Isolation nur bedingt möglich. Wegen der möglichen Funkenstrecken von etwa einem Zentimeter pro Kilovolt erfordern derartige Kreuzungen eine umschaltbare Speisung des Kreuzungsbereiches oder eine dauerhaft spannungslose Schutzstrecke für das Wechselstromsystem. Eine der wenigen Kreuzungen dieser Art existiert beim Trolleybus Zürich zwischen der Linie 32 und der Uetlibergbahn. Diese hatte bei Einrichtung der Kreuzung im Jahr 1952 noch eine Fahrleitungsspannung von 1200 Volt Gleichspannung, wurde 2022 aber auf 15 kV Einphasenwechselspannung mit 16,7 Hz umgestellt, wozu ein aufwändiges Kreuzungsbauwerk in Form eines 33 Meter langen Starkstrombogens errichtet werden musste. Der ehemalige Oberleitungsbus Innsbruck wiederum kreuzte in der Bienerstraße das Gleis der früher mit 15 kV elektrifizierten Schlachthof-Schleppbahn. Eine weitere solche Kreuzung bestand im bulgarischen Plowdiw, dort sogar mit 25 kV Spannung bei der Eisenbahn. Im Gegenzug untersagten die Schweizerischen Bundesbahnen aus Sicherheitsgründen eine geplante Kreuzung der Zürcher Linie 62 mit ihrer Fahrleitung. Ebenso verhinderte die Bundesbahndirektion Essen in den 1950er Jahren eine Kreuzung der geplanten Obusstrecke nach Heidhausen mit der damals noch nicht elektrifizierten Ruhrtalbahn, weil die Staatsbahn ihrerseits die Elektrifizierung derselbigen beabsichtigte. Häufig führte daher in der Vergangenheit die Elektrifizierung von Bahnstrecken zur Einstellung von Obuslinien oder ganzen Betrieben. Beispielsweise fiel das Potsdamer Obus-Netz Mitte der 1990er Jahre unter anderem der Elektrifizierung des Abschnittes Berlin-Wannsee–Seddin der Berlin-Blankenheimer Eisenbahn am Bahnhof Potsdam Medienstadt Babelsberg (damals Bahnhof Drewitz) zum Opfer. Zwar wurden für den dortigen Wegübergang Fahrleitungskreuzungen entwickelt und sowohl im Fernbahn- als auch im Obus-Netz erprobt, zum Einbau kam es jedoch nicht mehr. Im tschechischen Teplice wiederum existiert eigens zur Vermeidung einer niveaugleichen Kreuzung mit der Bahnstrecke Ústí nad Labem–Chomutov eine nur von Obussen benutzte Unterführung im Zuge der Betriebsstrecke ins Depot. Kreuzungsweichen Eine Mischung aus Weichen und Kreuzungen sind die sogenannten Kreuzungsweichen, bei ihnen werden Weichen und Kreuzungen auf engstem Raum miteinander kombiniert. Man unterscheidet zwischen einfachen Kreuzungsweichen (EKW) mit zwei Weichenzungen und doppelten Kreuzungsweichen (DKW) mit vier Weichenzungen. Eine einfache Kreuzungsweiche besteht aus einer Auslaufweiche, einer Kreuzung und einer Einlaufweiche, eine doppelte Kreuzungsweiche entsprechend aus zwei Auslaufweichen, einer Kreuzung und zwei Einlaufweichen. Kreuzungsweichen sind zwar teurer als die entsprechende Kombination aus Einzelelementen, bringen aber eine erhöhte Betriebssicherheit, weil sie einen dynamischeren Lauf der Stromabnehmer ermöglichen. Eine besonders aufwendige Kreuzungsanlage existiert beispielsweise seit dem 2. Mai 2006 in Salzburg. Bei der Anlage an der Kreuzung der Linzer Bundesstraße mit der Sterneckstraße handelt es sich um eine so genannte Vollkreuzung, im englischen Sprachraum als grand union bekannt. Diese ermöglicht es, aus allen vier Zufahrten in drei Richtungen weiterzufahren. Für ihren Betrieb sind acht Einlaufweichen sowie sechzehn Kreuzungsweichen notwendig. Fahrspannung Als Fahrspannung ist bei Oberleitungsbussen – wie bei den meisten Straßenbahnsystemen – traditionell eine Gleichspannung von 550 oder 600 Volt üblich. Erst Ende der 1980er Jahre ging man dazu über, bei einzelnen Neuanlagen die von vielen Stadtbahnnetzen bekannte höhere Fahrspannung von 750 Volt zu verwenden. Dies betrifft Nancy 1982, Essen und Sibiu 1983, Banská Bystrica 1989, České Budějovice 1991, Teheran 1992, Kopenhagen und Košice 1993, Žilina 1994, Chomutov und Quito 1995, Genua 1997, Landskrona 2003 sowie Riad 2012. Außerdem wurden die Betriebe in Modena (1990er Jahre) und Chieti (2009) nachträglich umgestellt, ebenso Neapel, wo man in den Jahren 2001 bis 2003 sowohl bei der Straßenbahn als auch beim Oberleitungsbus gleichzeitig von 600 auf 750 Volt erhöhte. Eine diesbezügliche Besonderheit stellt der Betrieb in Bologna dar. Dort verkehrt die 1991 eröffnete Linie 13 noch mit 600 Volt, die 2002 beziehungsweise 2012 eröffneten Linien 14, 32 und 33 aber schon mit 750 Volt. Obwohl die beiden Liniengruppen in der Innenstadt zusammentreffen und teilweise dieselben Straßenzüge bedienen, sind sie elektrisch voneinander getrennt. In den Anfangsjahren wurden ebenso geringere Spannungen gewählt, so kam die Gleislose Bahn Blankenese–Marienhöhe beispielsweise mit nur 440 Volt aus. Selten anzutreffen sind hingegen höhere Spannungen. So ist in Rumänien – mit Ausnahme des älteren Betriebs in Timișoara – eine Spannung von 850 Volt üblich. Auch der ehemalige Oberleitungsbus Moers war mit 850 Volt elektrifiziert. Ebenso konnte man solche hohen Spannungen in der Schweiz antreffen. So verwendete der Trolleybus Altstätten–Berneck im Kanton St. Gallen von 1940 bis 1977 eine Spannung von 1000 Volt, dies war der weltweit erste Betrieb mit einer derart hohen Spannung. Die Überlandlinie Thun–Beatenbucht verwendete zwischen 1952 und 1982 sogar eine Spannung von 1100 Volt. Aus Sicherheitsgründen besaßen die dort eingesetzten Wagen eine Erdungskralle, diese senkte man vor der Türöffnung auf die Straße. Wie im St. Galler Rheintal resultierte die ungewöhnlich hohe Spannung auch in diesem Fall aus der Übernahme der elektrischen Anlagen der zuvor dort verkehrenden Bahn. Eine weitere diesbezügliche Ausnahme stellte von 1954 bis 2001 der Trolleybus Lugano dar. Er verwendete – wie die frühere Straßenbahn – ebenfalls 1000 Volt Fahrspannung. Ursächlich hierfür waren in beiden Fällen die Berührungspunkte mit der Ferrovia Lugano–Tesserete und der Ferrovia Lugano–Cadro–Dino, dadurch vermied man Spannungsprobleme. Zudem konnte auf diese Weise in den drei genannten Schweizer Betrieben die Umstellung von der Bahn zum Trolleybus sukzessive erfolgen, das heißt innerhalb einer mehrere Jahre dauernden Umstellungsphase. Außerdem errichteten Schweizer Ingenieure im marokkanischen Tétouan ebenfalls eine Hochspannungsanlage. Dort verkehrten zwischen 1950 und 1975 mit 1100 Volt betriebene Trolleybusse mit einer elektrischen Ausrüstung von BBC. Und auch in Norditalien gab es früher Überlandlinien mit einer Spannung von 1100 Volt, diese gingen von Turin (1951 bis 1979) und Verona (1958 bis 1980) aus. Nach einer anderen Quelle wurden die Veroneser Strecken sogar mit 1200 Volt betrieben. Unterwerke, Speisebereiche, Streckentrenner und Querkupplungen Obus-Netze sind wie elektrische Bahnen in verschiedene Speisebereiche aufgeteilt, auch Speiseabschnitt oder Speisebezirk genannt. Jedem dieser Teilbereiche ist ein Unterwerk, auch Unterstation, Gleichrichterwerk oder Gleichrichterunterwerk (GUW) genannt, als einspeisende Stromversorgungsquelle zugeordnet. Ein Unterwerk kann dabei aus Kostengründen mehrere Speisebereiche versorgen, im Regelfall steht es deshalb an der Grenze zweier Speisebereiche und versorgt dadurch zwei benachbarte Abschnitte auf einmal. Bei zweispurigen Strecken gehören die beiden Richtungsfahrleitungen dabei grundsätzlich zum selben Speisebereich. Typischerweise stellt auch der Depotbereich einen eigenen Speisebereich dar. Die Stelle, an der die vom Unterwerk kommenden Kabel an die Oberleitung angeschlossen sind, nennt man Speisepunkt. Die Verbindung zwischen Unterwerk und Speisepunkt nennt man Speiseleitung, mitunter muss eine solche Leitung auch größere Entfernungen überwinden. Überspannungsableiter – sogenannte Metal Oxide Varistoren – schützen die Unterwerke ferner vor Schäden durch Blitzeinschläge. Um Synergieeffekte nutzen zu können, versorgen Unterwerke idealerweise Straßenbahn und Oberleitungsbus gemeinsam. Steht das Unterwerk abseits einer Obus-Strecke, so kann die Stromrückleitung dorthin auch über die Straßenbahnschienen erfolgen. Dies ist beispielsweise in Zürich der Fall. Die Länge der Speiseabschnitte variiert dabei von Netz zu Netz, sie ist abhängig von der Bauart und der Leistungsfähigkeit der zugeordneten Unterwerke sowie der Struktur des Netzes. In der Schweiz geht man davon aus, dass pro vier Kilometer Fahrleitung eine Einspeisung notwendig ist. In Solingen wird das 98,7 Kilometer lange Fahrleitungsnetz von 20 Unterwerken gespeist, in Esslingen sind es fünf Unterwerke für 27,1 Fahrleitungskilometer, in Eberswalde drei Unterwerke für 44,6 Kilometer Fahrleitung. Heutige Obus-Unterwerke leisten Dauerstromstärken von 1000 bis 1500 Ampere. Die einzelnen Speisebereiche müssen dabei durch kurze Phasentrennstellen in der Oberleitung voneinander abgegrenzt werden. Bei manchen Betrieben wird dabei nur der Plusfahrdraht unterbrochen, bei den übrigen hingegen beide Drähte. Diese stromlosen Schutzstrecken bestehen aus austauschbaren Kunststoff-, Holz-, Keramik- oder Glasfiberstäben. Die Isolierstäbe sind in der Regel etwa 300 Millimeter lang und helfen Kurzschlüsse zwischen zwei Leitungsabschnitten zu vermeiden. Sie werden beim Oberleitungsbus Streckentrenner oder kurz Trenner genannt und sind so angeordnet, dass sie an Stellen liegen, an denen ein Halten der Fahrzeuge unwahrscheinlich ist. Ungeeignet ist beispielsweise der Stauraum vor einer Ampel. Um zu vermeiden, dass ein liegengebliebener Obus eine Kreuzung blockiert, sollten sie gleichfalls nicht in Kreuzungsbereichen liegen. Die Trenner müssen stromlos passiert werden, weil sonst ein Funkenflug entsteht und diese verzundern. Das heißt, es bildet sich eine leitfähige Oberfläche, die zu Bränden führen kann. Aus dem gleichen Grund müssen die Isolierstäbe von Zeit zu Zeit ausgewechselt werden. Da die Oberleitung eine Plus- und eine Minusleitung hat, kommt es außerdem vor, dass auf demselben Fahrdraht ein Polwechsel eintritt. Hierfür sind ebenfalls Streckentrenner notwendig. Eine modernere Variante der Streckentrenner sind die sogenannten Diodentrenner. Bei ihnen ermöglichen über Dioden gespeiste Kontaktflächen eine Passage ohne Fahrstromunterbrechung, der Stromabnehmer erhält den Strom von einem der beiden Speiseabschnitte. Passiert der Stromabnehmer die Mitte des Trenners, sind kurzzeitig beide Speiseabschnitte galvanisch verbunden. Es fließt dabei kein Kreisstrom, da die Dioden in den Plus- und Minuspolen der Spannungsquellen gegensinnig in Reihe geschaltet sind. Der Fahrstrom fließt während dieses kurzen Moments vom Unterwerk mit der höheren Speisespannung. An bestimmten Stellen sind die beiden nach Fahrtrichtung getrennten Oberleitungen außerdem durch sogenannte Querkupplungen miteinander verbunden. Sie verbinden jeweils den Pluspol mit dem gegenüberliegenden Pluspol beziehungsweise den Minuspol mit dem gegenüberliegenden Minuspol. Dies dient dem Potentialausgleich der unterschiedlichen elektrischen Belastungen der Fahrleitung zwischen Hin- und Gegenrichtung. Somit kann der Strom einen kürzeren Rückweg zum Unterwerk nehmen, dadurch werden zu starke Spannungsabfälle vermieden. Leichtere Spannungsschwankungen lassen sich nicht vermeiden, so können bei einer Nennspannung von 600 Volt in der Praxis Spannungsschwankungen im Bereich zwischen 450 Volt und 750 Volt auftreten. Mitunter gehören auch Verteilerkästen zur Infrastruktur entlang einer Obus-Strecke. Signalisierung Die für Oberleitungsbusse relevanten Sondersignale, die sogenannten Fahrleitungssignale, werden in der Regel direkt an den Querdrähten der Oberleitung befestigt. Alternativ werden sie mittels einer Fahrdrahtklemme auf einen der beiden Drähte aufgepflanzt oder als Bodenmarkierung auf die Fahrbahn aufgetragen. In Deutschland und Österreich werden beispielsweise Besonderheiten im Fahrleitungsnetz auf blauen Tafeln mit weißer Schrift angezeigt. Geschwindigkeitsbeschränkungen, sofern diese unter der jeweils zulässigen Höchstgeschwindigkeit liegen, werden durch gelbe Tafeln mit schwarzer Schrift signalisiert. Die Zeichen in Deutschland sind dabei den Straßenbahnsignalen gemäß BOStrab entnommen, sie sind in gleicher Weise auch bei den meisten deutschen Straßenbahnbetrieben zu finden. Im Gegensatz zu diesen wird bei Obussen beispielsweise auf die Vorankündigung beziehungsweise das Ende einer Geschwindigkeitsbeschränkung verzichtet. Auf die Stellrichtung einer Luftweiche wird mit LED-Lichtsignalen hingewiesen, auch Weichenampel genannt. In der Schweiz hat jeder Betrieb eigene Signalisierungen. Einige Städte sind dabei nahe am deutschen System, sie verwenden gelbe Signaltafeln mit schwarzer Schrift. Andere Städte wiederum kennen für die stromlos zu befahrenden Stellen der Fahrleitung und die Weichenkontakte nur Bodenmarkierungen. Geschwindigkeitssignale sind bei letzteren Betrieben hingegen nicht bekannt. Turmwagen und sonstige Wartungsfahrzeuge Für die Wartung der Oberleitung verwendet die zuständige Fahrleitungsmeisterei in der Regel sogenannte Turmwagen, auch Oberleitungswagen, Fahrleitungswagen oder Fahrdrahtwagen genannt. Meistens handelt es sich dabei um selbstfahrende Lastkraftwagen mit speziellen Aufbauten, den sogenannten Hubarbeitsbühnen, seltener um Anhänger. Die isolierte Plattform dieser Sonderfahrzeuge erlaubt es, Arbeiten an der Oberleitung durchzuführen, ohne diese abschalten zu müssen. Problematisch ist bei Arbeiten an Obusfahrleitungen jedoch die unmittelbare Nähe beider Polaritäten im direkten Arbeitsbereich. Auch von isolierten Arbeitsbühnen aus sind Instandhaltungsarbeiten an der Fahrleitungsanlage von Obussen deshalb, wie Arbeiten unter Spannung, mit den isolierenden Körperschutzmitteln und isolierten Werkzeugen durchzuführen. Da dies nicht immer ausreichend ist, erfordern Arbeiten an der Obus-Oberleitung – in mehr Fällen als bei einpoligen Fahrleitungen – dennoch häufig eine Abschaltung. Alternativ müssen die Fahrleitungsmonteure die jeweils anders gepolte Leitung zu ihrem Schutz mit einer Matte abdecken, so wie dies etwa in Dresden früher der Fall war. Weitere Wartungsfahrzeuge für Oberleitungen sind Anhängeleitern und sogenannte Kabel(transport)anhänger für den Transport von Kabeltrommeln. Manche Betriebe verwenden zudem spezielle Fahrleitungsschmierwagen. In Lyon etwa existierte hierzu früher ein zweiachsiger Anhänger mit Spezialstromabnehmern, die dazu dienten eine Graphitschicht auf die Oberleitung aufzutragen. Dies erfolgte mittels elektrischer Pumpe, die vom Zugfahrzeug – einem gewöhnlichen Trolleybus – gespeist wurde. Damit beugte man der zunehmenden Kontaktverschlechterung durch den Abrieb der damals metallischen Schleifkontakte vor. Unverzichtbar für Obus-Betriebe außerdem ein Abschleppwagen, diese Aufgabe kann auch ein ausreichend motorisierter Turmwagen, ein anderer Oberleitungsbus oder ein Omnibus übernehmen. Meist handelt es sich dabei um nicht mehr im Planbetrieb verwendete Wagen. Die Wartungsfahrzeuge des Obusbetriebes übernehmen teilweise auch andere kommunale Aufgaben, so helfen sie beispielsweise bei der Schneeräumung. Ein weiteres Spezialfahrzeug ist der Unfallhilfswagen. Er wird insbesondere benötigt, wenn die Oberleitung auf die Fahrbahn fällt und eine Gefahr für Passanten besteht. Deshalb darf er in Deutschland, analog zu den Einsatzfahrzeugen bei Straßenbahnbetrieben, ebenfalls mit Sondersignalen ausgestattet sein, das heißt, er genießt, anders als die Einsatzfahrzeuge von reinen Omnibusbetrieben, das sogenannte Wegerecht. Depots Obus-Depots unterscheiden sich für gewöhnlich kaum von klassischen Omnibus-Depots. Nicht selten werden Oberleitungsbusse und Omnibusse gemeinsam untergebracht. Prinzipiell ist die witterungsgeschützte Abstellung von Oberleitungsbussen von höherer Bedeutung als bei Omnibussen, zum Beispiel damit die störanfälligen elektrischen Anlagen nach Starkregen getrocknet werden können. Nicht immer ist ein Obus-Depot dabei mit dem Obus-Fahrleitungsnetz verbunden, dies gilt insbesondere bei Nutzung von bestehenden Omnibus- oder Straßenbahn-Betriebshöfen. In solchen Fällen müssen die Obusse – sofern sie keinen Zweitantrieb besitzen – von und zur Wagenhalle geschleppt werden oder einen Bügelwagen auf Straßenbahngleisen benutzen. Auf dem Depotgelände selbst können für Rangierfahrten auch Schleppkabel zur Anwendung kommen. Obus-Betriebshöfe sind in der Regel so gestaltet, dass die Abstellplätze über eine Schleifenfahrt erreichbar sind. Das heißt, die Einfahrt in die Wagenhalle erfolgt meistens auf der einen Seite des Gebäudes, die Ausfahrt auf der gegenüberliegenden Seite. Dadurch wird das beim Omnibus oft übliche Wenden in drei Zügen vermieden, welches beim Obus prinzipbedingt nicht möglich ist. Ziel eines ideal aufgebauten Obus-Depots ist es daher, zwischen Ein- und Ausfahrt die Reinigungs- und Unterhaltungsarbeiten so einzuordnen, dass die Fahrzeuge ohne Umrangierung abgefertigt werden können. Außerdem existiert in vielen Obus-Depots die Möglichkeit, im Kreis zu fahren, ohne das Betriebsgelände verlassen zu müssen. Dies ermöglicht Testfahrten mit reparierten, umgebauten oder neuen Wagen, die unter Umständen noch keine Zulassung für den öffentlichen Straßenverkehr besitzen. Die Verkehrsbetriebe Zürich betreiben hierfür auf dem Gelände ihrer Zentralwerkstätte beispielsweise eine eigene Prüfstrecke, diese ist nicht mit dem restlichen Trolleybusnetz verbunden. In Obus-Depots häufig anzutreffen sind außerdem Arbeitsbühnen zur besseren Erreichbarkeit der Dachaufbauten und der Stromabnehmer. Außerdem müssen die Decken einer Obus-Wagenhalle ausreichend hoch sein und die Einfahrtstore über eine Aussparung für die beiden Fahrdrähte verfügen. Die Verwendung von Rolltoren scheidet daher aus. Fahrleitungsvereisung Probleme bereiten die Obus-Oberleitungen mitunter im Winter, wenn durch Vereisung ein hoher elektrischer Übergangswiderstand entsteht. Störender Raureif bildet sich, wenn die Temperatur unter den Gefrierpunkt fällt und die Luftfeuchtigkeit hoch ist. In Luzern werden Enteisungsfahrten deshalb bei unter zwei Grad Celsius und über 70 Prozent Luftfeuchtigkeit durchgeführt. In Winterthur findet eine Enteisung bei Temperaturen unter Null Grad Celsius und mehr als 80 Prozent Luftfeuchtigkeit statt. Der Raureif kann ohne Enteisung zum Ausfall einzelner Kurse bis hin zu einer vollständigen Betriebseinstellung führen. Oberleitungsbusse mit klassischer Steuerung und ohne Spannungsüberwachung konnten hingegen auch bei Minusgraden mit geringerer Geschwindigkeit weiterfahren, wenngleich der Verschleiß durch den Abbrand am Gleitstück des Stromabnehmers stark zunahm. Besondere Schwierigkeiten verursacht die Vereisung beim Einsatz modernerer Oberleitungsbusse mit empfindlicher Steuerungselektronik. Diese sind anfälliger gegenüber Spannungsunterbrechungen und der daraus resultierenden Lichtbogenbildung, im Schienenverkehr umgangssprachlich Bügelfeuer genannt. Außerdem bringen die Lichtbögen das in den Leitungen enthaltene Kupfer zum Verdampfen und beschleunigen so deren Abnutzung. Ferner kann der Fahrdraht durch starke Eisbildung infolge extremer Witterung durch Zugspannungserhöhung durch das Eisgewicht auch reißen. Im Gegensatz zu Obus-Stromabnehmern berührt der einpolige Bügelstromabnehmer eines Schienenfahrzeugs die Oberleitung punktuell und flach. Seine Schleifleiste erzeugt auf kleiner Fläche einen hohen Anpressdruck mit guter Schabewirkung und die Eispartikel können nach unten abfallen. Stangenstromabnehmer hingegen erzeugen nur eine deutlich geringere Anpresskraft, die U-förmigen Gleiteinsätze – mit ihrer im Vergleich zu Bügelstromabnehmern größeren Kontaktfläche – verringern den Anpressdruck weiter. Das Eis kann sich zudem im Kontaktschuh, der etwas breiter ist als der Fahrdraht, anlagern und deshalb nicht nach unten abfallen. Fahrleitungsenteisung Aus den oben genannten Gründen müssen Obus-Fahrleitungen in der kalten Jahreszeit aufwändig enteist werden. Viele Betriebe benutzen dazu Sonderfahrzeuge mit speziellen Fahrdrahtsprüh-Einrichtungen, auch Enteisungsstromabnehmer genannt. Mit ihnen wird ein Frostschutzmittel auf die Fahrleitung gesprüht. Typischerweise besteht dieses Enteisungsgemisch zu gleichen Teilen aus Wasser, Ethanol und Glycerin. In Esslingen wird Isopropanol benutzt. In Schaffhausen besprüht der sogenannte Frostiwagen die insgesamt 15 Kilometer lange Fahrleitung des dortigen Netzes innerhalb einer Stunde mit etwa 30 Litern Frostschutz. In der Regel reicht es aus, jeden Abschnitt einmal vorbeugend zu bearbeiten, bevor dieser einfrieren kann. Um eine gründliche Besprühung der Fahrdrähte zu gewährleisten, darf jedoch beim Enteisen eine maximale Geschwindigkeit von 25 bis 30 km/h nicht überschritten werden. Zudem dürfen Luftweichen nicht unnötig mit Frostschutz besprüht werden, da diese sonst verkleben können. Meist erfolgt der Einsatz der Arbeitswagen in den frühen Morgenstunden, das heißt in der nächtlichen Betriebspause, wenn der Regelverkehr nicht und der übrige Individualverkehr – der mit einer gelben Rundumkennleuchte auf die Langsamfahrt aufmerksam gemacht wird – nur geringfügig behindert wird. Außerdem muss das Frostschutzmittel eine Zeit lang einwirken, weil es sonst von den folgenden Regelwagen wieder entfernt würde. Gleichzeitig ist darauf zu achten, dass die Fahrleitungen vor Beginn der Enteisung nicht zu stark vereist sind. Die Reiffahrt beginnt daher oft kurz nach Betriebsschluss – unabhängig von der Dauer der eigentlichen Enteisungsfahrt. In Schaffhausen beispielsweise um 1:45 Uhr und in Luzern um 1:00 Uhr. Ob die Enteisung notwendig ist, wird dabei mitunter auch mit den hereinkommenden Fahrern des Spätdienstes abgesprochen. Bezüglich der auch Reifwagen genannten Fahrzeuge, die mit den oben genannten Spezialstromabnehmern ausgerüstet werden, können folgende Varianten beobachtet werden: Pritschenlastkraftwagen Kleintransporter mit offener Ladefläche Lastwagenanhänger reguläre Oberleitungsbusse nicht mehr im Personenverkehr eingesetzte Oberleitungsbusse reguläre Dieselbusse nicht mehr im Personenverkehr eingesetzte Dieselbusse Duo-Busse im Dieselmodus Kommen Oberleitungsbusse zum Einsatz, bewegen diese sich während des Enteisungsvorgangs teilweise mit ihrem Hilfsantrieb fort. Dies ist zum einen bei starker Vereisung der Fahrleitung notwendig, weil diese den Stromkreis zwischen Fahrzeug und Oberleitung unterbricht. In anderen Fällen, wie in Esslingen, kommen Spezialstromabnehmer für die Enteisung zum Einsatz, die nicht für die Stromübertragung geeignet sind, weil sie statt der elektrischen Kabel die Leitungen für das Frostschutzmittel enthalten. In Lausanne setzte man zeitweise einen Oberleitungsbus mit zwei Stromabnehmerpaaren ein, um gleichzeitig die Enteisung und die Stromzufuhr zu gewährleisten. Manche Städte setzen aus Umweltschutzgründen auf eine mechanische Enteisung. Hierbei werden die Kohleschleifstücke bei der ersten morgendlichen Fahrt durch solche aus Bronze ersetzt; mit ihrer Hilfe wird die Oberleitung freigekratzt. In Esslingen verwendete man hierzu zeitweise Kohlen mit drei eingelegten Kupferstücken, in Leipzig Schleifeinsätze aus Temperguss. Stehen keine speziellen Enteisungsmöglichkeiten zur Verfügung, muss das Netz nachts permanent von regulären Wagen abgefahren werden – vergleichbar den sogenannten Spurfahrten bei der Straßenbahn. Tagsüber müssen die Fahrdrähte nicht mehr enteist werden, in der Regel fahren die Obusse so häufig, dass sich dann kein Eis mehr ansetzt – anders zum Beispiel in Eberswalde, dort verkehren die Oberleitungsbusse am Wochenende so selten, dass bei starker Vereisung im Ersatzverkehr mit Omnibussen gefahren werden muss. Bereits in früheren Jahren experimentierte man ferner mit beheizbaren Fahrdrähten, so beispielsweise in Nürnberg, Berlin und Eberswalde in den 1930er und 1940er Jahren. In St. Gallen ist dies bis heute nur im Bereich der Eishalle im Lerchenfeld der Fall. Dort herrscht situationsbedingt eine besonders hohe Luftfeuchtigkeit. Bei der Beheizung der Oberleitung nutzt man den Innenwiderstand des Fahrdrahts als großen sich erwärmenden Widerstand. Da solche sehr aufwändigen Schaltungen nicht mit allen Gleichrichtern möglich sind, kann eine solche Beheizung nicht überall durchgeführt werden. In Salzburg wird die Oberleitung bei starker Vereisung mittels eines kontrollierten Kurzschlusses in allen Unterwerken aufgetaut. Auf den Leipziger Überlandlinien B nach Markranstädt und C nach Zwenkau wurde die Fahrleitung ebenfalls durch das gezielte Schalten von Kurzschlüssen an den Enden der Speisebereiche über dafür eingebaute besondere Mastschalter abgetaut. Unabhängig davon existieren auch bei Oberleitungsbusfahrleitungen Weichenheizungen. Wirtschaftliche Aspekte Allgemeine Betrachtungen und Vorteile Moderne Obusse haben eine maximale Leistungsaufnahme von über 700 Kilowatt und erreichen Beschleunigungen, die teilweise über denen von Personenkraftwagen liegen. Dies wirkt sich positiv auf die Umlaufplanung aus, es können kürzere Fahrzeiten zwischen zwei Haltestellen und somit auch kürzere Reisezeiten erzielt beziehungsweise mehr Zwischenstationen bedient werden. Auf langen Linien mit vielen Ampel-Aufenthalten beziehungsweise Haltestellen können im Vergleich zum Dieselbusbetrieb mitunter Kurse eingespart werden. Sind die Fahrpläne auf langsamere Omnibusse ausgelegt, ermöglichen Oberleitungsbusse einen pünktlicheren und somit stabileren Betrieb. Weiter erlaubt die hohe Anfahrgeschwindigkeit Oberleitungsbussen ein problemloseres und somit sichereres Einfädeln in den fließenden Verkehr, als dies bei Omnibussen der Fall ist. Dies ist insbesondere beim Anfahren aus Bushaltebuchten, aber auch an Vorfahrtsstellen von Vorteil. Nicht zuletzt entsteht bei Oberleitungsbussen im Stillstand kein Energieverlust. Außerdem sind sie im Winter im Allgemeinen auch bei Minusgraden startbereit, weil das Problem der Versulzung entfällt. Zudem erhöht sich die Wohnqualität in den durchfahrenen Straßenzügen. Ebenso sind Oberleitungsbusse problemlos in topografisch schwierigen Gegenden einsetzbar und bieten auch dort Vorteile gegenüber Omnibussen. Gleiches gilt für den Einsatz bei winterlichen Straßenverhältnissen, insbesondere zweimotorige Obusse sind hierbei im Vorteil. Zudem ermöglichen Obusse auch auf sehr steilen Streckenabschnitten einen elektrischen Betrieb, während Adhäsionsbahnen nur selten Steigungen höher als 100 Promille überwinden. So befahren die Trolleybusse der Linie 24 in San Francisco beispielsweise eine 228 Promille steile Passage. Sie wurde zusammen mit einer weiteren Steigungsstrecke in den 1980er Jahren elektrifiziert, nachdem es dort zu Problemen im Omnibusbetrieb kam. Nicht zuletzt erreichen Oberleitungsbusse auf Bergstrecken größere Höchstgeschwindigkeiten als Omnibusse. Außerdem können sie im Vergleich zu Straßenbahnen engere Kurvenradien befahren. Dies wirkt sich insbesondere bei der Trassierung in engbebauten Altstädten – wo leise und emissionsfreie Verkehrsmittel besonders gefragt sind – positiv aus. Ein spezieller Vorteil gegenüber Dieselbussen ergibt sich in besonders hoch gelegenen Städten, wo der Wirkungsgrad von Verbrennungsmotoren aufgrund der sauerstoffärmeren Luft geringer ist. Ein weiterer Vorteil gegenüber schienengebundenen Nahverkehrssystemen ist die schnellere Realisierungszeit. Während beim Trolleybus für Planung und Bau einer neuen Route zwischen zwei und vier Jahren veranschlagt werden, vergehen beim Bau einer Straßenbahnstrecke zwischen den ersten Voruntersuchungen und der Fertigstellung in der Regel zehn bis zwanzig Jahre. Der Oberleitungsbus Landskrona wurde beispielsweise in nur sechs Monaten errichtet. Zudem entstehen beim Bau kaum Infrastruktur-Behinderungen, da nur die Oberleitung aufgehängt werden muss und keine Schienen auf der Straße verlegt werden müssen. Damit bleibt gerade in Einkaufsstraßen während der Bauphase die Zugänglichkeit zu den Geschäften gewährleistet. Ferner ergeben sich für Oberleitungsbusse Vorteile bei der Besteuerung. So beträgt etwa in Schweden der jährliche Steuersatz für einen Dieselbus 20.400 Schwedische Kronen, während für einen Obus nur 930 Schwedische Kronen anfallen. In Deutschland sind Oberleitungsbusse schon seit dem 1. Mai 1955 gänzlich von der Kraftfahrzeugsteuer befreit. Aufgrund der geringeren Unfallgefahr sind zudem die Prämien für die Haftpflichtversicherung von Trolleybussen nur halb so hoch wie diejenigen von Dieselbussen. Gegenüber Batteriebussen ergibt sich der spezielle Vorteil, dass unterwegs keine Zwangsaufenthalte durch Nachladen der Speicher entstehen. So kann ein Oberleitungsbus – beispielsweise im Verspätungsfall – nach Erreichen seiner Endhaltestelle sofort wieder zurückfahren. Investitionskosten Fahrzeug Im Gegensatz zu einem Dieselbus sind die Anschaffungskosten bei Oberleitungsbussen deutlich höher. So ist der Neupreis eines Oberleitungsbusses etwa doppelt so hoch wie der eines vergleichbaren Standardlinienbusses. Bei Solowagen ist dieser Faktor tendenziell höher als bei Gelenkwagen, weil die elektrische Ausrüstung – bis auf den schwächeren Motor – weitgehend identisch ist. So wurde in Landskrona im Vorfeld der Obus-Einführung ermittelt, dass ein Solo-Obus 2,4 mal so teuer ist wie ein Solo-Dieselbus. In Winterthur kam man sogar auf einen Faktor von 3,0. Erschwerend hinzu kommen bei den Fahrzeugkosten die typischerweise kleineren Stückzahlen bei Obus-Serien, nicht selten handelt es sich dabei um Sonderanfertigungen für bestimmte Betriebe. Die Kaufpreise für neue Trolleybusse variieren – je nach gewählter Ausstattung, anvisierter Lebensdauer und dem Produktionsland – erheblich. Die Bandbreite für einen Gelenkwagen liegt dabei zwischen 400.000 und 750.000 Euro. Für Salzburg wird der Preis eines Gelenkwagens mit 550.000 Euro angegeben, davon entfallen 50.000 Euro auf den optionalen Hilfsmotor. In St. Gallen wurden die Kosten für einen neuen Gelenktrolley 2007 sogar mit 1,2 Millionen Schweizer Franken angegeben, das heißt nach damaligem Kurs knapp 800.000 Euro. Die Solaris Trollino 18 in Eberswalde kosteten etwa 800.000 Euro, während die Dieselbusvariante Solaris Urbino 18 nur 240.000 Euro kostet. Ausgleichend zu den erhöhten Investitionskosten liegen die Laufleistung und die Lebensdauer eines Oberleitungsbusses deutlich über denen von Dieselbussen. Ursächlich hierfür ist in erster Linie der geringere Verschleiß beim Antriebssystem. So wird ein Dieselbus im Regelfall bereits nach 10 bis 14 Jahren ausgemustert, während ein Trolleybus im Normalfall eine Abschreibungsdauer von 15 bis 20 Jahren erreicht. Oft bleiben sie sogar dreißig Jahre und länger im Einsatz, dabei sind Laufleistungen von über einer Million Kilometer keine Seltenheit. Besonders bemerkenswert ist diesbezüglich Valparaíso in Chile, dort stehen bis heute Wagen aus den 1940er Jahren im täglichen Planeinsatz. In der nordkoreanischen Hauptstadt Pjöngjang weisen die ältesten Trolleybusse Tachostände von über zweieinhalb Millionen Kilometern auf. Mitunter werden außerdem die elektrischen Komponenten eines Oberleitungsbusses noch in nachfolgende Fahrzeuggenerationen eingebaut. So beispielsweise beim ehemaligen Oberleitungsbus Wellington, wo bei der letzten Wagengeneration 25 Jahre alte E-Ausrüstungen erneut verwendet wurden. Aufgrund der sehr unterschiedlichen technischen Parameter der einzelnen Netze – darunter Fahrleitungsspannung, Polarität, Weichensteuerung und Nutzbremsung – können die Fahrzeuge nicht beliebig zwischen den einzelnen Verkehrsnetzen ausgetauscht werden. Aus diesem Grund besteht beim Oberleitungsbus nur ein beschränkter Markt für Gebrauchtfahrzeuge. Oft sind ausgemusterte Wagen unverkäuflich; finden sie dennoch einen Abnehmer, ist der erlöste Verkaufspreis vergleichsweise gering. So wurden seit 1990 zahlreiche Fahrzeuge nach Osteuropa abgegeben, insbesondere nach Bulgarien und Rumänien. Investitionskosten Infrastruktur Die Investitionskosten für die Oberleitung sind abhängig von den jeweiligen topografischen und städtebaulichen Bedingungen. Am günstigsten sind dabei Fahrleitungen in geraden Häuserschluchten, wo Wandbefestigungen statt Oberleitungsmasten verwendet werden können. Am kostspieligsten sind kurvige Strecken und Strecken in coupiertem freiem Gelände, beispielsweise auf Überlandabschnitten. Bei entsprechender Planung können in bebauten Gebieten die Oberleitungsmasten mit den Lichtmasten der öffentlichen Straßenbeleuchtung kombiniert werden, wobei erstere generell etwas stabiler ausgeführt sein müssen. Mitunter dienen solche universell verwendbare Masten auch als Bauvorleistung für potentielle Trolleybusstrecken. So ist beispielsweise die Hochstraße in Schaffhausen im Hinblick auf eine mögliche Elektrifizierung der Autobuslinie 3 bereits seit den 1990er Jahren mit Fahrleitungsmasten ausgestattet, die aber bis heute nur der Beleuchtung dienen. Umgekehrt kann eine Obusstrecke auch als Bauvorleistung für eine spätere Straßenbahnstrecke dienen, im Idealfall können Oberleitungsmasten, Oberleitungsrosetten und Unterwerke weiterverwendet werden. Ein weiterer variabler Kostenfaktor beim Obus ist die Länge der Speiseleitungen – nicht immer können die Unterwerke dort errichtet werden, wo dies aus elektrischen Gesichtspunkten sinnvoll wäre. Neue Obus-Fahrleitungen amortisieren sich dabei im Durchschnitt erst nach 22 Jahren. Buchhalterisch wird eine Fahrleitung über 25 Jahre linear abgeschrieben. Generell sind Obus-Fahrleitungen recht langlebig, sie können eine Lebensdauer von vierzig bis fünfzig Jahren erreichen. Ein großer Vorteil ergibt sich im Vergleich zur Straßenbahn. So belaufen sich die Investitionskosten einer Obus-Linie nur auf zehn bis fünfzehn Prozent der Kosten für eine Straßen- oder Stadtbahnlinie. Die Kosten, die bei der Neuerrichtung eines Trolleybusbetriebs anfallen, sind der Tabelle rechts zu entnehmen. Die Angaben dienen lediglich der Veranschaulichung der Größenordnung und sind daher als Richtwerte zu verstehen. Davon entfallen etwa zwei Drittel auf die Arbeitskosten und ein Drittel auf die Materialkosten. Als Faustregel rechnet man beim Trolleybus mit einer Million Euro Baukosten je Kilometer Neubaustrecke. In der Schweiz kalkulierte man 2008 mit Kosten zwischen 700.000 und 1.000.000 Schweizer Franken pro Kilometer. Betriebskosten, Energieverbrauch und Rekuperation Bei Oberleitungsbussen sind die Betriebskosten höher als bei Omnibussen, sie liegen etwa zehn bis zwanzig Prozent über denen bei reinem Dieselbusbetrieb. Lässt man die Personalkosten unbetrachtet – sie sind bei beiden Systemen identisch, machen aber mit etwa drei Vierteln den größten Anteil bei den Betriebskosten aus –, so ist der Obusbetrieb sogar um fünfzig bis hundert Prozent teurer als der Dieselbusbetrieb. Ursächlich für diese höheren Kosten sind in erster Linie die Oberleitungen und Unterwerke, deren Instandhaltung, Erneuerung und regelmäßige Inspektion einen zusätzlichen Ausgabenfaktor darstellt. Darin inbegriffen ist unter anderem auch die Vorhaltung von Turmwagen samt Mannschaft im Bereitschaftsdienst, der permanente Austausch der Schleifkohle-Einsätze sowie die aufwändige Fahrleitungsenteisung im Winter. Darüber hinaus ist die Wartung der Fahrzeuge teurer als bei Omnibussen. Zwar ist ein Trolleybusmotor prinzipiell wartungsfreundlicher als derjenige eines Dieselbusses, unter anderem weil der Aufwand für die Wartung der Abgasfilter entfällt und kein Ölwechsel erforderlich ist. Ebenso kommt der Antriebsstrang mit weniger mechanischen Teilen aus. Jedoch ist der Aufwand für die Wartung der Elektronik und der Mechanik der Stromabnehmer größer. Zudem ist im Störungsfall die Fehlerdiagnose bei Elektromotoren deutlich aufwändiger als bei Dieselmotoren. Aus diesen Gründen können Wartungs- und Reparaturarbeiten in der Regel nicht an externe Werkstätten ausgelagert werden, wie dies bei Omnibussen teilweise üblich ist. Zudem können Oberleitungsbusse ohne Hilfsmotor auswärtige Werkstätten nicht aus eigener Kraft erreichen. Der reine Energieverbrauch ist beim Oberleitungsbus – trotz der höheren Fahrzeugmasse – deutlich geringer als beim Dieselbus, da der Wirkungsgrad durch die Elektromotoren besser ist. Der Energieverbrauch ist bezogen auf den Personenkilometer aufgrund des höheren Rollwiderstandes aber generell etwa ein Drittel höher als bei einer Straßenbahn. Insbesondere auf Linien mit langen Gefällestrecken oder einer Vielzahl von Bremsvorgängen können moderne Oberleitungsbusse außerdem ihre Bremsenergie – analog zu elektrisch betriebenen Bahnen – in die Oberleitung zurückspeisen. Hierbei spricht man von einer Nutzbremse beziehungsweise einer elektromotorischen Bremse, beide basieren auf dem Rekuperationsprinzip. Diese Methode wird bei Oberleitungsbussen seit den 1980er Jahren angewandt und wurde seither stetig verbessert. Bei heutigen Antrieben liegt der Rückspeisegrad bei bis zu dreißig Prozent der aufgenommenen Energie. Durch die Stromrückspeisung können in Einzelfällen sogar Kostenvorteile gegenüber dem Dieselbusbetrieb erzielt werden. Ein Forschungsbericht der Fachhochschule Köln kam in der ersten Hälfte der 1990er Jahre – bezogen auf die vergleichsweise hügelige Stadt Solingen – zu folgenden Ergebnissen beim Energieverbrauch der damals dort eingesetzten Oberleitungsbusse: Modernere Typen verfügen zwar über energieeffizientere Motoren, die heute aus Kundensicht geforderte Klimatisierung sowie moderne digitale Fahrgastinformationssysteme kompensieren diesen Effekt aber wieder. Prinzipiell sind die Verbrauchswerte zwischen einzelnen Typen beziehungsweise Betrieben nur bedingt miteinander vergleichbar. Sie werden durch Faktoren wie die Topografie der jeweiligen Linien, den Haltestellenabstand, die Verkehrsdichte, Tempolimits, die Art des Motors, das Masse-Leistungs-Verhältnis, den Besetzungsgrad, das Gewicht des Hilfsantriebs, die Fahrplankalkulation und nicht zuletzt durch den Fahrstil des Personals beeinflusst. Darüber hinaus ist außerdem der Gesamtstromverbrauch im Winter um rund ein Drittel höher als im Sommer, unter anderem weil in der kalten Jahreszeit mehr Personen öffentliche Verkehrsmittel benutzen. Auch der Rekuperationsgrad ist sehr stark von den topografischen Verhältnissen abhängig. So speisen die Oberleitungsbusse auf der durchgehend flachen Strecke in Landskrona nur 16 Prozent der aufgenommenen Energie wieder in die Oberleitung zurück. Weitere Einflussgrößen sind die Aufnahmefähigkeit des Fahrleitungsnetzes, die Länge der Speisebezirke und die Anzahl der Querkupplungen. Weiterhin sind nicht alle Unterwerke rückspeisefähig. Damit wird die Rekuperation auch fahrplanabhängig, denn die Bremsenergie eines talwärts fahrenden Wagens kann nur genutzt werden, wenn sich im selben Speisebezirk zur selben Zeit ein Obus auf Bergfahrt befindet. Dieser Nachteil kann kompensiert werden, indem zwischen den einzelnen Unterwerken Überleitungen eingebaut oder an der Strecke Kondensatoren zur Zwischenspeicherung platziert werden. Sogenannte bidirektional gekoppelte Unterwerke wiederum ermöglichen alternativ die Rückspeisung von Bremsenergie in das reguläre Stromnetz des örtlichen Stromversorgers. Die aus dem Energieverbrauch resultierenden tatsächlichen Energiekosten sind sowohl beim Oberleitungsbus als auch beim Dieselbus vom jeweiligen Strom- oder Ölpreis abhängig und unterliegen daher ständigen Schwankungen. Prinzipiell ist der Obus deutlich weniger von den jeweils geltenden Rohstoffpreisen abhängig als der Dieselbus. Zudem ist der Dieselpreis seit 1991 um ein Vielfaches stärker gestiegen als die Strompreise. In der Schweiz erhöhte er sich beispielsweise zwischen 1996 und 2006 im Schnitt um drei Prozent jährlich. Beispielhaft für die Obus-Betriebskosten in ihrer Gesamtheit (ohne Personalkosten) eine Analyse der Innsbrucker Verkehrsbetriebe aus dem Geschäftsjahr 2003. Sie gingen bei den Betriebskosten ihrer Oberleitungsbusse von folgenden Kostensätzen aus, die Angaben gelten je gefahrenen Betriebskilometer: Ein weiterer Kostenfaktor: Aufgrund des höheren Fahrzeuggewichts und des stärkeren Drehmoments ist bei Oberleitungsbussen auch die Straßenunterhaltung teurer als bei Dieselbussen. Dies gilt insbesondere, falls die Achslasten über das gesetzliche Maximum erhöht werden. Nicht zuletzt muss das Lichtraumprofil der Fahrleitung aus Sicherheitsgründen immer wieder freigeschnitten werden, analog zur Vegetationskontrolle bzw. Fahrwegpflege an elektrifizierten Bahnstrecken. Nach DIN VDE 0105 (Deutschland) beziehungsweise DIN EN 50110 (Betrieb von elektrischen Anlagen) ist bei 600 oder 750 Volt Fahrleitungsspannung ein Mindestabstand von einem Meter vorgeschrieben. Die Zusatzkosten bei der Ausbildung des Fahrpersonals können hingegen weitgehend vernachlässigt werden, sie fallen im Verhältnis zu den übrigen Betriebskosten nicht weiter ins Gewicht. Fahrgastzuspruch und Sympathiebonus Passagiere schätzen die ruck- und vibrationsarme Fahrweise eines Oberleitungsbusses sowie die stufenlose Beschleunigung. Infolge der Bindung an die Oberleitung ergibt sich zwangsläufig ein Fahrstil mit geringeren Querbeschleunigungen in Kurven. Zudem erlaubt die Elektrotraktion feinere Bremsmanöver. Außerdem entfällt der mitunter wahrzunehmende Abgasgeruch im Innenraum. In diesem Zusammenhang stellte man beispielsweise im französischen Lyon fest, dass – bei freier Auswahl des Fahrzeugs und gleichen Voraussetzungen bezüglich Linienführung und Fahrplan – sechzig Prozent der Fahrgäste den Trolleybus statt des Omnibusses wählen. Statistiken verschiedener Verkehrsbetriebe zeigen, dass der Auslastungsgrad auf Trolleybuslinien zwischen zehn und zwanzig Prozent höher ist als auf vergleichbaren reinen Dieselbuslinien. So stiegen etwa im niederländischen Arnheim die Passagierzahlen nach der 1998 erfolgten Umstellung der Linie 7 um rund zehn Prozent. In Zürich geht man ebenfalls von einem Nachfragezuwachs von rund zehn Prozent infolge einer Elektrifizierung aus. Im schwedischen Landskrona wurde im Vorfeld der Umstellung auf Obus-Betrieb sogar eine Fahrgaststeigerung von 25 Prozent prognostiziert. Ferner ist in diesem Zusammenhang auch die sichtbare Linienführung bei Oberleitungsbussen von Vorteil: So ist für Fahrgäste stets ersichtlich, wo eine Linie verläuft und in welcher Richtung sie die nächste Haltestelle des Öffentlichen Personennahverkehrs finden. Man spricht hierbei von einer ständigen visuellen Präsenz im öffentlichen Raum. Schließlich zeichnen sich Oberleitungsbusse durch ihre klare Linienstruktur aus, während die Fahrroute bei Omnibuslinien im Tagesverlauf oder von Kurs zu Kurs typischerweise oft wechselt. Der sogenannte Trolleybus-Bonus gilt – im Gegensatz zum Schienenbonus – als umstritten bzw. ist statistisch oft nicht nachweisbar. So wird er in Salzburg mit nur fünf Prozent angegeben, bei den Betrieben in Innsbruck, Kapfenberg und Linz konnte hingegen gar kein derartiger Effekt nachgewiesen werden. Darüber hinaus gilt der Oberleitungsbus vielerorts als Sympathieträger mit Identifikationswirkung in der Bevölkerung. Viele Städte versuchen außerdem mit dem Betrieb eines Obus-Netzes ihren Charakter als ökologisch und nachhaltig handelnde Gemeinde hervorzuheben. Insbesondere in Ländern mit wenigen Obus-Betrieben gilt ein solcher deshalb häufig als werbewirksames Alleinstellungsmerkmal gegenüber anderen Städten. In Chile wurde beispielsweise der Oberleitungsbus Valparaíso – der einzige Betrieb des Landes – vom Staat als besonders erhaltenswertes Kulturgut eingestuft. Ökologische Aspekte Geräuscharmer Betrieb Der geräuscharme Betrieb ist ein wichtiges ökologisches Argument für den Trolleybus. In einer 1997 erschienenen Studie des Schweizer Dienstes für Gesamtverkehrsfragen (GVF) wird beispielsweise von einer Verringerung der Schallemissionen um 55 Prozent gesprochen. In Arnhem wurden, laut einer Veröffentlichung des örtlichen Trolleybusunternehmens, beim Trolleybus 72 Dezibel gemessen, bei einem gleich schnell fahrenden Dieselbus hingegen 78 Dezibel. In Esslingen am Neckar und in Schaffhausen ermittelte man beim Dieselbus sogar einen um neun Dezibel höheren Lärmwert, dies entspricht einer achtfachen Lärmerhöhung. Weiter stellte man fest: auf Straßen mit einem Verkehrsaufkommen von unter 10.000 täglichen Fahrzeugen, das heißt in typischen Wohngebieten, verursacht der Dieselbusbetrieb 30 Prozent der Lärmemissionen. Die Verkehrsbetriebe der Stadt St. Gallen machten in diesem Zusammenhang die Erfahrung, dass aus den Quartieren regelmäßig Reklamationen kommen, wenn auf Trolleybuslinien wegen Störungen oder Straßenbaustellen befristete Umstellungen auf Autobusbetrieb vorgenommen werden müssen. Darüber hinaus sind auch die Innengeräusche eines Oberleitungsbusses geringer, ursächlich hierfür ist vor allem die schwächere Vibration der Inneneinrichtung. Im Vorteil ist der Oberleitungsbus diesbezüglich aber auch gegenüber Straßenbahnen, weil der Schienenverkehrslärm respektive das Rad-Schiene-Geräusch und insbesondere das Kurvenquietschen entfällt. Trotz des weitgehend geräuscharmen Betriebs können – abhängig vom jeweiligen Obus-Typ – die Nebenaggregate auch im Stand für eine permanente Geräuschentwicklung sorgen, darunter beispielsweise die verwendeten Druckluftkompressoren (Kolben- oder Schraubenkompressoren), die Klimaanlage und insbesondere auch die Ventilatoren zur Kühlung der elektrischen Anlagenteile. Anders als bei Dieselbussen – die ihre Motoren bei längeren Aufenthalten abschalten – kann sich dies insbesondere an Obus-Endhaltestellen in Wohngebieten negativ bemerkbar machen. Der Lärmpegel variiert dabei von Typ zu Typ und sorgt mitunter für Beschwerden der betroffenen Anwohner. In Deutschland unterliegen Oberleitungsbusse als einzige Straßenfahrzeuge im Zulassungsverfahren nach Kraftfahrt-Bundesamt nicht der Standgeräuschs-Messung und entsprechender Begrenzung. Nach der geltenden Rechtsprechung sind bei Aufenthalten an Endhaltestellen die in der TA Lärm festgelegten Grenzwerte anzuwenden, sie können je nach Hersteller des Fahrzeugs fallweise deutlich überschritten werden. Emissionsfreiheit Der abgasfreie Betrieb gilt als entscheidender Vorteil von Oberleitungsbussen. Lässt man die Schallemission, den Reifenabrieb und den Schleifkohlenverschleiß außer Acht, so ist der Oberleitungsbus ein emissionsfreies Fahrzeug. In einem Forschungsbericht der Fachhochschule Köln über die Energie-, Kosten- und Emissionsbilanz von Oberleitungsbussen wurde zusammenfassend festgestellt, dass moderne Oberleitungsbusse „die Atmosphäre mit erheblich geringeren Schadstoffen als eine gleichgelagerte Dieselbusflotte belasten“. Besonders bei lokal und emissionsfrei erzeugtem Strom ist der Neubau von Obus-Strecken eine geeignete Maßnahme zur Verbesserung der Luftqualität. Im Vergleich zu schienengebundenen Bahnen entfällt bei den allermeisten Obussen der bei Glätte und starken Bremsungen gestreute Bremssand, der von den Rädern zermahlen wird. Laut einer Studie des Österreichischen Vereines für Kraftfahrzeugtechnik würde in Wien gesetzt der Annahme, dass der von Schienenfahrzeugen als Gleitschutz verwendete Quarzsand zu einem nicht abschätzbaren Teil zu Feinstaub zermahlen würde, ein entsprechender Anteil an der Feinstaubbelastung durch den Schienenverkehr verursacht. Der Fahrleitungs- und Schleifkohlenverschleiß bei Oberleitungsbussen könne weitgehend vernachlässigt werden, da die daraus resultierenden Partikelemissionen deutlich weniger gesundheitsgefährdend als Abgaspartikel aus Verbrennungsmotoren sind. Allerdings handelt es sich beim Fahrleitungsabrieb vorwiegend um relativ grobe Kupferpartikel mit einem Durchmesser von zirka einem Mikrometer. In Luzerner Stadtgebiet betragen die zusätzlichen Abriebemissionen des Trolleybusses gegenüber dem Dieselbus beispielsweise rund 380 Kilogramm jährlich, dies sind knapp zwei Prozent der totalen Abriebemissionen des Straßenverkehrs. Laut der Schweizer Studie Umweltverträglichkeit und Energieeffizienz des Trolleybusses – externe Kosten schneidet der Oberleitungsbus im Vergleich mit den konkurrierenden Verkehrsmitteln Omnibus und Straßenbahn wie folgt ab: Zu vergleichbaren Ergebnissen kommt W. Hendlmeier von der Universität München. Laut seinen Angaben spart der Oberleitungsbus – verglichen mit einem Dieselbus – auf je 100 Platzkilometern folgende Umweltbelastungen ein: 4,8 Gramm Kohlenstoffmonoxid (CO) 17,9 Gramm Stickoxide (NOx) 3,3 Gramm Schwefeldioxid (SO2) 11,1 Gramm Kohlenwasserstoff (CH) 0,68 Liter Dieselkraftstoff Unfallstatistik Bedingt durch ihre Fahrleitung und die Stromabnehmer sind Oberleitungsbusse auch im dichten Stadtverkehr für alle Verkehrsteilnehmer gut erkennbar. Dies führt – verglichen mit Dieselbussen – zu einer niedrigeren Unfallhäufigkeit. In der Schweiz wurde statistisch nachgewiesen, dass es bei Trolleybussen je Personenkilometer weniger Verletzte als im Verkehr mit Dieselbussen gibt, zudem fallen die Verletzungen leichter aus. Die Verkehrsgesellschaft Salzburg AG geht sogar von einer im Schnitt fünfmal niedrigeren Unfallhäufigkeit von Trolleybussen gegenüber Dieselfahrzeugen aus. Die Verkehrsbetriebe Zürich stellten fest, dass das Sicherheitsgefühl der Fahrgäste in den Trolleybussen aufgrund der Oberleitungsbindung besser ist als in den Autobussen. Im Gegensatz dazu gilt der Obus bei Fußgängern oder Radfahrern aufgrund seines geräuscharmen Betriebs als Gefahr im Straßenverkehr, weil er von diesen mitunter nicht rechtzeitig wahrgenommen wird. Im Englischen Sprachraum war er deshalb früher auch unter den Spitznamen Silent Death für stiller Tod beziehungsweise Whispering death für flüsternder Tod bekannt. In Oldenburg machten sich die Obusse deshalb früher an den Haltestellen mit Glocken bemerkbar. In Bern müssen die ruhigen Trolleybusse beim Durchfahren der Spitalgasse und der Marktgasse ein Warnsignal anschalten, um die zahlreichen Fußgänger zu warnen. Zudem stellt die Oberleitungsinfrastruktur selbst mitunter eine gewisse zusätzliche Unfallgefahr dar. So kollidierte 2016 im tschechischen Otrokovice ein Obus frontal mit einem Mast, knickte diesen in Schräglage und rutschte an ihm hinauf. Hierbei wurden 13 Menschen verletzt, davon fünf schwer bis lebensgefährlich. Kritik und Nachteile Bereits seit seiner Einführung steht der Oberleitungsbus in direkter Konkurrenz zu Omnibussen einerseits sowie zu Straßenbahnen andererseits. Mitunter wird in diesem Zusammenhang kritisiert, dass der Obus die Nachteile beider Systeme miteinander verbindet. Vor allem in kleineren Städten wird außerdem der Betrieb zweier elektrischer Verkehrsmittel – in der Regel Obus und Straßenbahn – häufig als unwirtschaftlich kritisiert. So bleibt dem Obus nur eine vergleichsweise überschaubare Marktnische auf Linien mit einem Fahrgastaufkommen, auf denen sich der Bau einer Straßenbahn noch nicht lohnt, ein Omnibusbetrieb aber bereits unwirtschaftlich ist. Die Investitionen in die Obus-Infrastruktur sind damit nur auf Hauptlinien mit dichten Taktintervallen und hoher Nachfrage zu rechtfertigen. Nachteile gegenüber dem Omnibus Häufigster Kritikpunkt am Obus sind die höheren betriebswirtschaftlichen Kosten gegenüber diesel- oder gasbetriebenen Omnibussen. Aufgrund der hohen Anschaffungskosten für die Fahrzeuge sowie der Kosten für Oberleitungen und Unterwerke ist er dem Omnibus betriebswirtschaftlich unterlegen. Mit Bahnen teilt sich der Oberleitungsbus die Abhängigkeit von einer fest definierten Streckenführung. Dadurch sind Umleitungen und kurzfristige Linienänderungen nicht möglich. Ohne zusätzliche Fahrleitungsinfrastruktur ebenso ausgeschlossen sind abweichende oder verkürzte Linienführungen in Nebenverkehrszeiten, so wie dies beim Omnibus etwa in den Abendstunden, im Nachtverkehr und an Wochenenden in vielen Städten üblich ist. In Solingen etwa werden die sechs regulären Obuslinien nachts durch sechs Nachtexpress-Omnibuslinien ersetzt, die alle eine vom Tagverkehr abweichende Strecke bedienen. Auch die gesonderte Bedienung von Schulen zu Unterrichtsbeginn und -ende beziehungsweise von Industriebetrieben zum Schichtwechsel scheidet aus, sofern diese abseits der regulären Linienwege liegen. Ferner ist auf Busbahnhöfen die Bedienung der einzelnen Halteplätze nur mittels aufwändiger Fahrleitungskonstruktionen möglich, dies führt in der Regel dazu, dass nicht alle Bussteige elektrifiziert werden können. In anderen Fällen müssen Oberleitungsbusse mitten auf der Fahrbahn halten, weil die Fahrleitungsgeometrie ein Heranfahren an den Bordstein nicht zulässt. In diesem Fall müssen die Fahrgäste zum einen einen größeren Höhenunterschied beim Ein- und Ausstieg überwinden, zum anderen wird der Fahrgastwechsel unter Umständen durch den Individualverkehr behindert. Ein weiterer Nachteil der Spurgebundenheit: Oberleitungsbusse können einander im laufenden Betrieb nicht überholen, wie dies bei Omnibussen üblich ist, damit wird auch der Einsatz von Schnellkursen erschwert oder verhindert. Alternativ müssen an bestimmten Zwischenstationen Überholspuren geschaffen werden. Eine solche existierte beispielsweise von 2003 bis 2014 an der Salzburger Christian-Doppler-Klinik. Sie wurde ursprünglich für die 2009 aufgegebene Expresslinie X4 eingerichtet, bewährte sich jedoch nicht. Ebenso können ins Depot einrückende beziehungsweise aus dem Depot ausrückende Leerfahrten oft nicht den schnellsten Weg wählen. Das heißt, sie können zum Beispiel keine Ortsumgehungen benutzen, sondern müssen dem regulären Linienweg folgen. Um dies zu vermeiden, werden mancherorts Betriebsstrecken – in der Schweiz auch Dienstfahrleitung genannt – eingerichtet. Diese wiederum sind in der Unterhaltung vergleichsweise teuer, weil sie nur selten befahren werden und keine Fahrgeldeinnahmen erwirtschaften. Auch ein lastrichtungsabhängiger Verkehr – beispielsweise morgens auf dem Regelweg in die Stadt hinein und anschließend als Leerfahrt schnellstmöglich wieder zurück zum Endpunkt, nachmittags entsprechend umgekehrt – ist mit Oberleitungsbussen ohne aufwändige Infrastruktur nur erschwert möglich. Ein Beispiel hierfür ist die Zürcher Linie 46, deren Verstärkerkurse mit Dieselbussen gefahren werden. Zudem können Oberleitungsbusse im Störfall nicht an jeder beliebigen Stelle im Netz drehen. Im Gegensatz dazu kann ein Omnibus auf jeder größeren Kreuzung wenden. Ferner können Obuslinien bei Großveranstaltungen nicht durch den Einsatz von Verstärkerobussen beliebig verdichtet werden, weil die Kapazität der Unterwerke meist nur für den Regelbetrieb ausgelegt ist. So musste etwa in St. Gallen eigens ein neues Unterwerk errichtet werden, als die dortigen Verkehrsbetriebe flächendeckend Doppelgelenktrolleybusse einführten. Zudem kann auch aus technischen Gründen nicht jede Omnibuslinie elektrifiziert werden: Sind niveaugleiche Kreuzungen mit elektrifizierten Eisenbahnstrecken oder besonders niedrige Unterführungen zu passieren, scheidet ein Obus-Betrieb ohne Hilfsantrieb aus. Ein Beispiel ist die Unterführung beim Bahnhof Wuppertal-Vohwinkel, dort scheiterte die Verlängerung der Oberleitung der Solinger Linie 683 an der notwendigen Tieferlegung der Fahrbahn, die rund vier Millionen Euro gekostet hätte. Gleiches gilt, wenn Teilabschnitte über Autobahnen oder Kraftfahrstraßen führen, wo eine vorgeschriebene Mindestgeschwindigkeit von 60 km/h oder sogar 80 km/h gefordert wird. Um Stangenentdrahtungen vorzubeugen, müssen Oberleitungsbusse zudem Knotenpunkte mit Luftweichen und Fahrleitungskreuzungen sowie enge Kurven oft langsamer passieren als die übrigen motorisierten Verkehrsteilnehmer. So existiert beispielsweise in Genf eine Wendeschleife mit einer Geschwindigkeitsbegrenzung von zehn Kilometern in der Stunde, in Sankt Petersburg sind auf den Klappbrücken sogar nur fünf Kilometer in der Stunde erlaubt, weil die Fahrdrähte in Brückenmitte kurz unterbrochen sind. Damit werden Oberleitungsbusse stellenweise zum Hindernis für den fließenden Verkehr. Außerdem verlängern sich die Reisezeiten gegenüber dem Omnibusbetrieb. Kommt es dennoch zu einer Stangenentdrahtung, blockieren Obusse mitunter ganze Kreuzungen. Zudem können beschädigte und dadurch herabhängende Oberleitungsdrähte Passanten und andere Verkehrsteilnehmer gefährden. Besonders unrentabel ist es, teure Obusse für den Schülerverkehr vorzuhalten. In diesem Fall werden sie nur ein- oder zweimal am Tag eingesetzt. Dies ist vor allem nachteilig, weil Trolleybusse auch nicht als Kombibus verwendet werden können, das heißt, sie können außerhalb des Liniendienstes keine Klassenfahrten, Vereinsausflüge oder ähnliches durchführen und bringen dem Betreiber somit keine Zusatzeinnahmen im Gelegenheitsverkehr. Ein weiterer Kostenfaktor ist die Vorhaltung von Omnibussen als Betriebsreserve, um bei Störungen auf Obus-Linien einen Notbetrieb aufrechterhalten zu können. Immer wieder kommt es außerdem dazu, dass der jeweilige Energieversorger aufgrund ausstehender Zahlungen seitens der Verkehrsbetriebe eine Stromsperre verhängt und damit – zum Nachteil der Fahrgäste und teilweise ohne Vorankündigung – den kompletten Obusbetrieb temporär oder dauerhaft stilllegt. Dies geschah beispielsweise 2002 in Valparaíso, 2008 in Astana, Bischkek, Chudschand und Kathmandu, 2014 in Pernik, 2015 in Astrachan, Kamensk-Uralski, Kurgan und Nischni Nowgorod sowie 2017 in Rostow am Don. Setzen Verkehrsbetriebe sowohl Oberleitungsbusse als auch Omnibusse parallel zueinander ein, so ist die Personaldisposition entsprechend aufwändiger. Es müssen getrennte Dienstpläne für Fahrer mit und ohne Obusfahrberechtigung aufgestellt werden. Dies kann unter Umständen dazu führen, dass ersatzweise Omnibusse zum Einsatz kommen müssen, weil nur Fahrer ohne Obus-Lizenz zur Verfügung stehen. Möchten die Verkehrsunternehmen ihre Mitarbeiter dennoch flexibel einsetzen, so muss trotz der damit verbundenen Zusatzkosten das gesamte Fahrpersonal auf Obusse geschult werden. Dies ist beispielsweise beim Städtischen Verkehrsbetrieb Esslingen der Fall, obwohl dieser deutlich mehr Omnibusse als Obusse im Bestand hat. |} Ebenso ist es mit klassischen Oberleitungsbussen nicht möglich, mehrere selten verkehrende Linien aus rural geprägten Vororten – wo sich die teure Fahrleitungsinfrastruktur nicht lohnt – im Stadtzentrum zu einem häufig bedienten Korridor zu bündeln. Hält man im Kernbereich trotzdem am Oberleitungsbus fest, führt dies für die Fahrgäste aus den Vororten zu einem Umsteigezwang am Stadtrand. Diese sogenannten gebrochenen Verkehre bei einem Mischbetrieb mit anderen Verkehrsmitteln führen zum Attraktivitätsverlust des Obusses. Eine Veranschaulichung dieser Problematik zeigt die Grafik rechts, die fiktive Obus-Relation ist blau dargestellt. Ähnliches gilt für einzelne Linien, die an der Peripherie seltener fahren als im Zentrum. Oberleitungsbusse gelten nur dann als umweltfreundlich, wenn der verwendete Strom aus erneuerbaren Energiequellen stammt. Wird er hingegen von Kohlekraftwerken, Dampfkraftwerken, Ölkraftwerken, Gasturbinenkraftwerken oder Müllverbrennungsanlagen bezogen, so werden die Emissionen lediglich an andere Stelle verlagert. Ist die Stromquelle ein konventionelles Kohlekraftwerk, fällt die CO2-Bilanz von Oberleitungsbussen sogar schlechter aus als für Dieselbusse. Auch eine gemeinsame Studie der Verkehrsbetriebe Winterthur und des schweizerischen Bundesamts für Energie bestätigt dies, danach ist die Ökobilanz eines Oberleitungsbusses bei „europäischem Strom“ nicht eindeutig besser als bei einem Dieselbus, was die um 24 Prozent höheren Betriebskosten nicht rechtfertige. Wird der Strom mit Kernenergie erzeugt, sinkt in vielen Gesellschaftsteilen die Akzeptanz des Trolleybusses. Zudem fallen beim Atomstrom andernorts radioaktive Abfälle an. Maßgeblich für den Aspekt der Umweltfreundlichkeit ist somit der jeweils gültige Energiemix. Ein negatives Beispiel ist hierbei der Oberleitungsbus Tallinn, noch 2004 wurden in Estland 63 Prozent des Primärenergieverbrauchs aus Ölschiefer gewonnen. Als zusätzlicher Nachteil gilt die Umweltschädlichkeit der bei der Fahrleitungsenteisung verwendeten Chemikalien. Ein weiterer Kritikpunkt am Oberleitungsbus ist der – angeblich mit seinem Betrieb verbundene – sogenannte Elektrosmog. Dieser ist jedoch bei Gleichstrombetrieb vernachlässigbar, da – beispielsweise in der Schweiz – für Tram und Trolleybus nicht einmal ein Grenzwert definiert ist. Zwar entstehen statische elektrische und magnetische Gleichfelder, für die die Verordnung zum Schutz vor nicht ionisierender Strahlung (NISV) einen Immissionsgrenzwert von 40.000 Mikrotesla festlegt. Dieser wird jedoch erfahrungsgemäß mit großer Reserve eingehalten, für die im Alltag auftretenden Gleichfelder gibt es seitens der Forschung keinerlei Hinweise auf potenzielle Gesundheitsrisiken. Die Elektrosmog-Belastung durch das eigene Handy, das man auf sich trägt, ist somit wesentlich größer, als der Einfluss durch die Trolleybusfahrleitung. Unabhängig davon sind zudem Dieselbusse im Laufe der Jahrzehnte umweltfreundlicher geworden, so etwa durch strengere Abgasnormen – wie zum Beispiel die Euro-Norm in der Europäischen Union – und eine verbesserte Lärmkapselung des Antriebs. Dadurch hat der Oberleitungsbus einen Teil seines ökologischen Vorteils eingebüßt. Auch für die Zukunft ist infolge der weiteren Verschärfung der Normen auch beim Dieselbus ein markanter Rückgang der motorischen Schadstoffemissionen zu erwarten. Zudem ist der Beitrag des Verkehrsmittels Oberleitungsbus zum globalen Klimaschutz verschwindend gering. So kommen weltweit auf etwa 600 Millionen Kraftfahrzeuge nur etwa 40.000 Oberleitungsbusse. Subjektiv wird außerdem die Oberleitung manchmal als unästhetisch empfunden, vor allem in historischen Ortskernen. Dies gilt insbesondere für komplizierte Oberleitungsanlagen im Bereich von Verzweigungen oder Kreuzungen, ebenso für die oft massiven Oberleitungsmasten, vor allem wenn diese mitten auf dem Bürgersteig angeordnet werden müssen. Hierbei spricht man manchmal auch von einer visuellen Umweltverschmutzung. Oberleitungsanlagen im öffentlichen Straßenraum stellen für Feuerwehr, Rettungsfahrzeuge und Rettungshubschrauber eine Gefahrenquelle dar und müssen in deren Einsatzkonzepten berücksichtigt werden. So existieren beispielsweise – speziell für doppelpolige Obus-Fahrleitungen entwickelte – Aufsätze für Erdungsstangen, etwa der sogenannte Trolley-Kurzschliesser Typ TKS70. Ferner erschwert die Obus-Infrastruktur in engen Häuserschluchten die Verwendung von Drehleitern ebenso wie die Aufstellung von Kranen. Bei Straßenumbauten müssen die Obus-Fahrleitungen stets an die neue Verkehrslage angepasst werden. Selbst wenn nur Fahrstreifen ummarkiert werden, ist dies oft mit hohen Kosten verbunden. Im Fall einer Straßenverbreiterung muss das Obus-Unternehmen zusätzlich die Versetzung der Oberleitungsmasten bezahlen. Wird ein an der Strecke liegendes Gebäude abgerissen, müssen daran angebrachte Oberleitungsrosetten auf Kosten des Verkehrsunternehmens dauerhaft oder temporär durch Masten ersetzt werden. In letzterem Fall kommen dabei provisorische Masten zum Einsatz, die nicht im Boden verankert, sondern mit einem massiven Betonsockel beschwert werden. Beim Bau neuer Strecken entstehen außerdem hohe Prozessrisiken durch einzelne Anlieger, die die Erstellung der notwendigen Infrastruktur nicht akzeptieren. Dies gilt insbesondere bei Landbedarf für Fahrleitungsmasten. So reichten etwa die Bürger in Villeneuve 250 Petitionen gegen eine drei Kilometer lange Trolleybus-Verlängerung ein und verhinderten diese somit. Aufgrund der höheren Lebensdauer von Oberleitungsbussen können Innovationen im Fahrzeugbau nicht so schnell umgesetzt werden wie bei Omnibussen. So verkehren in vielen Städten noch Hochflur-Oberleitungsbusse, während die Omnibusflotte längst auf Niederflurwagen umgestellt wurde. Die lange Fahrzeuglebensdauer kann dabei der Akzeptanz der Fahrgäste abträglich sein. Zudem liegen die Unterhalts- und Betriebskosten bei einem älteren Fahrzeug höher als bei einem neueren. Um den veränderten Anforderungen von Fahrgästen und Verkehrsbetrieben gerecht zu werden, müssen Oberleitungsbusse daher häufig für ihre letzten Einsatzjahre modernisiert werden, auch Retrofit genannt. Mit zunehmendem Alter immer problematischer wird dabei die Beschaffung von Ersatzteilen für die oft schon nach wenigen Jahren veraltete Elektronik. Damit erreichen heutige Obusse nicht mehr die Lebensdauer der technisch einfacheren, aber robusten Fahrzeuge aus dem Zeitalter der klassischen Steuerungen. Damit verringert sich ein weiterer Vorteil gegenüber dem Omnibus. Im Gegensatz dazu sind Omnibusmotoren im Laufe der Jahrzehnte deutlich zuverlässiger geworden. Gleichzeitig nahmen auch der motorisierte Individualverkehr (MIV) und die damit verbundene Staugefahr stark zu, auch die Durchschnittsgeschwindigkeit beim Obus sank. Dieser ist dadurch auch im Stadtverkehr nicht mehr zwangsläufig schneller als der Omnibus. So betrug beispielsweise in Salzburg die mittlere Geschwindigkeit beim Obus 1950 noch 17,5 km/h, während er 2011 – trotz wesentlich modernerer Fahrzeuge und besserer Straßen – nur noch knapp 13 km/h erreichte. Des Weiteren wirkt sich das höhere Leergewicht eines Oberleitungsbusses auf die maximal zugelassene Stehplatzanzahl aus, weil es voll auf die zulässige Gesamtmasse angerechnet wird. In Deutschland darf ein dreiachsiger Gelenkwagen beispielsweise nicht schwerer als 28 Tonnen sein. So konnten etwa die Stadtwerke Offenbach bei ihren 1963 gelieferten Gelenkwagen – trotz vollständiger Übereinstimmung im wagenbaulichen Teil – bei den 600 Kilogramm schwereren Obussen nur 104 Stehplätze ausweisen, bei der Dieselbusvariante waren es hingegen 114. Bedingt durch die hohen Spannungen und Ströme, die für den Antrieb des Oberleitungsbusses notwendig sind, kann es zu Bränden in der elektrischen Anlage kommen. Eine gewisse Gefährdung besteht auch durch Überspannung infolge von Blitzeinschlägen in die Oberleitung. Nicht selten kommt es daher bei Gewittern zu erheblichen Betriebsstörungen. Hierbei können sowohl stationäre elektronische Bauteile – wie beispielsweise Weichensteuerungen – als auch alle im betroffenen Speisebereich befindlichen Fahrzeuge beschädigt werden. Mit steigenden Rohstoffpreisen für Buntmetalle steigt zudem die Gefahr des Oberleitungsdiebstahls während der nächtlichen Betriebsruhe oder baustellenbedingten Bedienungspausen. Dies kann zu länger andauernden Streckenunterbrechungen führen und verursacht zusätzliche Reparaturkosten. Ferner sind Obuslinien anfälliger für Kriegseinwirkungen als Omnibuslinien. Beispiele für vollständig kriegszerstörte und nie wieder aufgebaute Anlagen sind Budapest (1944), Kaliningrad und Tschernjachowsk (1945), Zchinwali (1990), Kabul (1992), Grosny (1994) sowie Wuhlehirsk (2014), wobei allerdings Budapest 1949 und Kaliningrad 1975 gänzlich neue Obussysteme erhielten. Des Weiteren können Obusse im Verteidigungsfall nicht militärisch als Truppentransporter eingesetzt werden. Der Einsatz von Schneeketten ist bei Oberleitungsbussen üblicherweise nicht möglich, da durch diese ein geschlossener Stromkreis zwischen Oberleitung und dem Schnee auf der Straße oder anderen stromleitenden Elementen im Straßenraum entstehen und die Elektrik im Fahrzeug beschädigen könnte. Stattdessen verfügen – insbesondere in der schneereichen Schweiz – viele Oberleitungsbusse über einen Sandstreuer vor der Antriebsachse, um die Traktion auf glatter Fahrbahn zu erhöhen. Diese Einbauten lassen sich auf schneefreier Straße – beispielsweise bei Laubfall – einsetzen, sind aber weniger effektiv als Schneeketten. Viele Verkehrsbetriebe setzen deshalb vermehrt auf zweimotorige Gelenkwagen, die bessere Fahreigenschaften auf Schnee haben. Einmotorige Trolleybusse müssen hingegen an Tagen mit Schneefall auf kritischen Linien mit steilen Abschnitten zum Teil gezielt außer Betrieb genommen werden. Ersatzweise kommen dabei zweimotorige Gelenktrolleys oder Soloomnibusse mit und ohne Schneeketten zum Einsatz. Nachteile gegenüber der Straßenbahn Mit Omnibussen gemeinsam hat der Oberleitungsbus die im Vergleich zu einem Schienenfahrzeug geringe Beförderungskapazität, so kann selbst ein Gelenkwagen nur etwa 150 Personen befördern. Im Gegensatz dazu kann ein 75 Meter langer Straßenbahn- oder Stadtbahnzug bis zu 500 Passagiere gleichzeitig transportieren. Beim Oberleitungsbus sind Mehrfachtraktionen hingegen nur sehr eingeschränkt möglich, in einigen Ländern, beispielsweise in Deutschland, sind sie unzulässig. Dies erhöht im Vergleich zu Bahnen den Personalbedarf. Ein weiterer gemeinsamer Nachteil von Omnibussen und Oberleitungsbussen gegenüber der Straßenbahn ist der höhere Platzbedarf für Busfahrstreifen zur Entkopplung vom motorisierten Individualverkehr aufgrund der größeren Breite als bei einer spurgeführten Straßenbahn auf Eigentrasse. Außerdem ist der Fahrleitungsbau beim Trolleybus deutlich aufwändiger, aber auch im laufenden Betrieb stellt die zweipolige Oberleitung permanent eine potenzielle Fehlerquelle dar. Auch in bestimmten Störfällen ist der Oberleitungsbus unflexibler als eine Bahn, wo auch Einrichtungszüge im Ausnahmefall mittels Hilfsführerstand rückwärts bis zum nächsten Gleiswechsel oder Gleisdreieck fahren können. Zudem benötigen Oberleitungsbusse an den Endstellen grundsätzlich platzintensive Wendeschleifen, die bei Zweirichtungswagen entfallen können. Bezüglich des Fahrkomforts ist der Obus gegenüber der Straßenbahn ebenfalls im Nachteil. Zwar ähnelt sein Fahrverhalten in der Horizontalen einem Schienenfahrzeug, jedoch weist er die Vertikalerschütterungen eines Dieselbusses auf. Ergänzende Antriebskonzepte Hilfsantrieb Um die infrastrukturell bedingte Unflexibilität eines Oberleitungsbusses zu kompensieren, besitzen die meisten Obus-Typen heute zusätzlich einen Hilfsmotor, auch Notfahrgruppe, Notfahraggregat, Hilfsaggregat, Hilfsantrieb, Hilfsdieselmotor oder Hilfsdiesel genannt. Dieser ermöglicht es, mit verminderter Geschwindigkeit sowie mit begrenzter Reichweite ohne den Strom aus der Oberleitung weiterzufahren. Benutzt wird er: beim Rangieren im Depot, wo ansonsten besonders aufwändige Fahrleitungsanlagen benötigt würden bei Fahrten vom und zum Depot, sofern dieses nicht an einer elektrifizierten Strecke liegt bzw. um das Depot auf direktem Weg durch nicht-elektrifizierte Straßenzüge erreichen zu können bei Umleitungen aufgrund von Baustellen, Verkehrsunfällen, Demonstrationen, Sportveranstaltungen, Straßenfesten, Rohrbrüchen oder Hochwasser falls bei Bauarbeiten, Revisionen oder Feuerwehreinsätzen die Oberleitung aus Sicherheitsgründen abgeschaltet werden muss bei Schäden an der Oberleitung oder an Unterwerken wenn sich an windigen Tagen Fremdkörper wie Äste, Schirme, Leintücher oder Luftballons in den Fahrdrähten verfangen im Falle eines unbeabsichtigten Stromausfalls wenn die Oberleitung bei Sturm aus Sicherheitsgründen präventiv abgeschaltet werden muss, um Passanten vor Unfällen mit herabhängenden stromführenden Drähten zu schützen im Falle des Liegenbleibens an einer stromlosen Stelle wie Trenner, Weiche oder Kreuzung bei Störungen der Elektrik am Fahrzeug bei Überführungsfahrten, etwa in externe Werkstätten um im Falle einer bevorstehenden Evakuierung Gefahrenbereiche wie Tunnel, Kreuzungen, Brücken oder Bahnübergänge verlassen zu können wenn Verstärkerkurse in Hauptverkehrszeiten respektive kurzlaufende Kurse in Nebenverkehrszeiten an selten bedienten Zwischenendhaltestellen ohne Umkehrmöglichkeit wenden müssen falls an provisorischen Endhaltestellen, die nur vorübergehend bis zu einer bereits projektierten Verlängerung als solche betrieben werden, die Oberleitung stumpf endet um an Bahnübergängen elektrifizierte Eisenbahnstrecken queren zu können, auch wenn keine Oberleitungskreuzung eingerichtet werden konnte um besonders niedrige Unterführungen zu passieren, wo aus Sicherheitsgründen keine Oberleitung angebracht werden kann um aus Kostengründen aufwändige Fahrleitungskreuzungen mit Straßenbahnstrecken zu vermeiden um an größeren Straßenkreuzungen auch solche Abbiegebeziehungen nutzen zu können, die nicht über eine durchgehende Oberleitung verfügen – zum Beispiel bei abweichenden Linienführungen im Nachtverkehr bei starker Vereisung der Fahrleitung um in historischen Altstädten beziehungsweise auf markanten innerstädtischen Plätzen aus optischen Gründen auf die Oberleitung verzichten zu können wenn im Bereich von Flughäfen aus Sicherheitsgründen keine Oberleitungen installiert werden dürfen, um die startenden und landenden Flugzeuge nicht zu gefährden Dauert eine Unterbrechung länger an, wird oft stationäres Personal abgestellt, oder es werden vorübergehend Einfädeltrichter montiert. Dies nimmt den Fahrern das Abdrahten und Wiederanlegen der Stromabnehmer ab und hilft größere Verspätungen zu vermeiden. Vor Einführung des Hilfsantriebs wurden Oberleitungsbusse im Rahmen der oben geschilderten Fälle häufig mit Pferden, Traktoren, Elektrokarren, Unimogs, Lastkraftwagen, Straßenbahnen, anderen Oberleitungsbussen, Omnibussen, Tiefladern, per Schleppkabel, mit der Muskelkraft der Fahrgäste, mit Schwung oder unter Ausnutzung eines Gefälles fortbewegt, so wie dies bei Typen ohne Hilfsmotor bis heute der Fall ist. Selbst auf ebenen Strecken erreichen die Oberleitungsbusse mit dem vergleichsweise leistungsschwachen Hilfsantrieb jedoch nur geringe Geschwindigkeiten, weshalb Einsätze im Fahrgastbetrieb eher selten sind. Zudem kann mitunter die Klimaanlage ohne Stromzufuhr per Oberleitung nicht ihre volle Leistung erbringen, alternativ müssen Heizung und Lüftung aufgrund ihres hohen Stromverbrauchs sogar ganz abgeschaltet werden. Dennoch geht der Trend etwa seit dem Jahr 2000 immer mehr dazu, den Hilfsantrieb abschnittsweise auch im regulären Fahrgastbetrieb einzusetzen. Auf diese Weise sind Linienverlängerungen möglich, ohne dass neue Fahrleitungsanlagen installiert werden müssen. Dies wird vorrangig bei selten bedienten Linienabschnitten bzw. auf Abschnitten, wo keine Oberleitungen installiert werden können oder sollen, praktiziert. In der tschechischen Sprache bezeichnet man einen Trolleybus mit Hilfsantrieb als parciální trolejbus, das heißt Teil-Trolleybus. Rechtlich gelten auch Wagen mit Hilfsantrieb in aller Regel als Trolleybusse. So ist in den meisten Staaten, die für Trolleybusse generell kein Kraftfahrzeugkennzeichen vorschreiben, auch für Fahrzeuge mit Zusatzantrieb keines erforderlich. Beim Oberleitungsbus Prag beispielsweise ist die Linie 58 komplett als Trolleybuslinie konzessioniert und beschildert, obwohl nur zwischen zwei der insgesamt acht Haltestellen ein Fahrdraht vorhanden ist, die Wagen also zum überwiegenden Teil nicht spurgebunden fahren. Eine besondere Situation ergab sich in der venezolanischen Stadt Barquisimeto. Nachdem der ursprünglich geplante Aufbau eines Obusbetriebs über einen kurzen Probebetrieb in den Jahren 2012 und 2013 nicht hinauskam, setzt die Stadt einen Teil der dafür beschafften Fahrzeuge seit 2015 im reinen Dieselbetrieb ein. Trotz des – mit einer Leistung von 200 Kilowatt gegenüber 240 Kilowatt beim Elektroantrieb – vergleichsweise starken Hilfsantriebs, ist ihre Leistung dadurch bei Dauergeschwindigkeit und Beschleunigung um 40 bis 50 Prozent geringer. Verbrennungsmotor Die meisten Hilfsantriebe für Oberleitungsbusse sind Verbrennungsmotoren, die nach dem dieselelektrischen Prinzip als Stromerzeugungsaggregat für den regulären Elektromotor fungieren. Sie werden heute meistens mit Dieselkraftstoff betrieben, früher kamen auch Benzinmotoren zum Einsatz. Grund dafür war neben dem niedrigeren Gewicht von Benzinaggregaten auch, dass Dieselmotoren den Treibstoff mittels Selbstzündung verbrennen, wodurch bei kalten Temperaturen Vorglühen notwendig ist, was dazu führt, dass das Hilfsaggregat nicht unmittelbar nach dem Einschalten mit voller Leistung genutzt werden kann. Durch die Verkürzung der Vorglühzeiten ist dies heute kaum noch problematisch, was dazu führt, dass Dieselaggregate mit ihrem höheren Wirkungsgrad und niedrigeren Kraftstoffverbrauch bevorzugt werden. Selten sind hingegen Hilfsantriebe, die per Getriebe direkt auf eine der Achsen wirken. Ein Beispiel einer solchen Lösung sind die 100 Gelenkwagen des Typs O405GTZ, bei ihnen wirkt der Hilfsmotor auf die zweite, der Elektromotor hingegen auf die dritte Achse. Vorteil dieses Prinzips: im Winterbetrieb kann das Notfahraggregat ergänzend zum Elektromotor hinzugeschaltet werden, so dass auch bei glatten Straßen eine ausreichende Traktion besteht. Im Vergleich zu einem Dieselomnibus verfügen die Hilfsantriebe bei Oberleitungsbussen üblicherweise über einen relativ kleinen Kraftstofftank. Bei den Volvo-Gelenkwagen des Trolleybus Biel/Bienne hatte dieser beispielsweise eine Füllmenge von nur 20 Litern. Die ersten Obusse mit Verbrennungsmotor-Hilfsantrieb waren die Wagen des Typs ÜHIIIs, die ab 1952 beim Oberleitungsbus Rheydt – wo die Zufahrt zum Depot nicht elektrifiziert war – eingesetzt wurden. Zum Einsatz kam dort ein benzinbetriebener, 13 Kilowatt starker Volkswagen-Industriemotor, der bei leerem Wagen und ebener Strecke Geschwindigkeiten bis zu 20 km/h erlaubte. Beim oben erwähnten Typ O405GTZ leistet der Hilfsmotor 72 Kilowatt, gegenüber 205 Kilowatt beim Serienmotor. In Esslingen ist die Hilfsaggregat-Leistung des dort eingesetzten Typs AG300T so bemessen, dass Steigungen von acht Prozent, mit mindestens 30 km/h über einen Zeitraum von fünfzehn Minuten befahren werden können. Zudem sind Dieselhilfsmotoren typischerweise sehr laut. Eine Vorreiterrolle beim Einsatz des Dieselhilfsantriebs im regulären Fahrgastverkehr spielte der Oberleitungsbus Minden, wo ab 1953 die Endstelle beim Dom und ab 1954 auch die Endstelle Porta mit dem Hilfsmotor bedient wurden. Rund um den Dom durften aus ästhetischen Gründen keine Fahrleitungen verlegt werden, in Porta vermied man dadurch eine Fahrleitungskreuzung mit der Straßenbahn Minden. Beim Oberleitungsbus Saarbrücken mussten die Wagen der Linie nach Wadgassen ab 1960, in Folge der Elektrifizierung der Bahnstrecke Völklingen–Thionville, den Bahnübergang an der Ortsgrenze zu Hostenbach per Hilfsgenerator passieren. Für das An- und Abdrahten war der Schaffner zuständig. Ebenso mussten die Obusse in Rheydt ab 1968 an insgesamt drei Bahnübergängen zwei damals neu elektrifizierte Strecken der Deutschen Bundesbahn mit dem Hilfsmotor überqueren. In diesem Zusammenhang entwickelten die Stadtwerke Rheydt zusammen mit dem Unternehmen Kiepe bereits 1965 die weltweit erste automatische Anlege- und Abzugsvorrichtung für Stangenstromabnehmer. Beim ehemaligen Oberleitungsbus Kapfenberg verkehrte von 1986 bis 2000 die Linie nach Winkl planmäßig unter Zuhilfenahme 55 Kilowatt starker Zusatzantriebe. Sie bediente im Zuge einer Schleifenfahrt insgesamt sieben Haltestellen per Hilfsmotor. In Limoges verkehrten in den 1990er Jahren einige Trolleybusse auf der Linie 5 über die Wendeschleife François Perrin hinaus mit dem Hilfsantrieb bis Roussillon, ehe 2001 auch die Oberleitung dorthin erweitert wurde. Seit Mitte der 2000er Jahre erfreut sich diese Betriebsform – insbesondere in Mittelosteuropa – zunehmender Beliebtheit, wobei tendenziell immer stärkere Hilfsmotoren verwendet werden. Bei Gelenkwagen leisten diese Zusatzantriebe dabei mittlerweile bis zu 100 Kilowatt. Diesel-Hilfsmotoren im planmäßigen Einsatz findet man unter anderem in Hradec Králové (Linie 1 seit 2001), Pilsen (Linie 13 seit 2005 und Linie 12 seit 2006), Bratislava (Linie 33 seit 2006), Opava (Linie 221 seit 2006), Marienbad (Linien 6 und 7 seit 2007), Zlín (Linie 3 seit 2007 und Linie 11 seit 2009), Riga (Linien 9 und 27 seit 2009) und Solingen (Linie 683 seit 2009). Eine weitere Möglichkeit, Oberleitungsbusse ohne Hilfsantrieb und ohne Oberleitung fortzubewegen, sind sogenannte Generatoranhänger, wenngleich solche derzeit nirgendwo auf der Welt planmäßig verwendet werden. Batteriespeisung Batterienotfahrt Als früher Vorläufer heutiger Obusse mit zusätzlicher Batteriespeisung gilt der 1898 gebaute Elektrische Straßenbahn-Omnibus von Siemens & Halske. Bei diesem Fahrzeug handelte es sich jedoch nicht um einen Obus, sondern um eine Mischung aus Straßenbahn und Batteriebus, das heißt um ein Zweiwegefahrzeug im Perambulatorbetrieb. Aus Italien stammte die erstmalige Ausstattung von Obussen mit einer Batterie-Notfahreinrichtung ab den 1930er Jahren, italienisch marcia di emergenza ad accumulatori genannt. Mit dieser auch kurz Batterienotfahrt genannten Schaltung konnten die entsprechend ausgerüsteten Obusse im Notfall – bei reduzierter Geschwindigkeit – noch etwa 500 bis 750 Meter aus eigener Kraft zurücklegen. Vor allem die großen dreiachsigen Obusse der Typen Alfa Romeo 110AF, Alfa Romeo 140AF und FIAT 672 waren serienmäßig mit Akkumulatoren ausgestattet – ganz gleich, ob die elektrische Ausrüstung von der Compagnia Generale di Elettricità (CGE), der Tecnomasio Italiano Brown Boveri (TIBB), von Magneti Marelli oder von Ansaldo stammte. Die Batterie-Notfahreinrichtung dieser italienischen Obusse bestand aus einer Gruppe von sechs Blei-Säure-Akkus mit je 12 Volt Nennspannung, die in Reihe geschaltet waren und somit nominell 72 Volt lieferten. Die Akkus besaßen eine Nennladung – auch ungenau als Kapazität bezeichnet – von 120Ah. Fortschrittlich war auch die weitere Ausstattung mit einem Ladeumformer (LOV) für eine konstante Ladespannung von 14,2 Volt und eine Prüfeinrichtung für den Isolationswiderstand. Solche oder ganz ähnliche Notfahreinrichtungen waren zum Teil auch bei kleineren zweiachsigen Obussen aus italienischer Herstellung auf Wunsch lieferbar und waren daher auch zum Teil bei diesen zu finden. Einige Obus-Betriebe in Italien verzichteten in den 1950er Jahren auf diese Notfahrhilfe, so dass sie in manchen Fällen wieder entfernt wurde. Das Konzept der Batterienotfahrt wurde später auch andernorts aufgegriffen. So statteten beispielsweise die Berliner Verkehrsbetriebe (BVG) ihre sieben Mitte der 1950er Jahre beschafften Gaubschat-Obusse mit einer solchen Einrichtung aus. Noch heute werden Oberleitungsbusse mit Batterienotfahreinrichtung hergestellt, etwa durch das russische Unternehmen Trolsa. Deren Batterien ermöglichen es, 800 Meter ohne den Strom aus der Fahrleitung weiterzufahren. Ausnahmsweise auch im regulären Fahrgastbetrieb eingesetzt wurde die Batterienotfahrt in Salzburg. Dort befuhren die Obusse der Linie 7 bereits ab dem 7. Juni 1983 den – Obus-seitig nicht elektrifizierten – Bahnübergang im Zuge der Aigner Straße im Stadtteil Aigen mittels Batteriespeisung im Planverkehr. Hierzu stand den Obussen je Fahrtrichtung eine eigene äußere Fahrspur links und rechts der regulären Fahrbahn zu Verfügung, damit diese beim Ab- und Andrahten den übrigen Verkehr nicht behinderten. Dieses Verfahren bewährte sich jedoch aufgrund technischer Probleme und der Gefahr des Liegenbleibens auf den Schienen nicht. Zeitweise war dort sogar eigens ein Schubfahrzeug postiert, das im Notfall havarierte Obusse aus dem Gleisbereich drücken sollte. Aufgrund dieser Probleme endete die Linie 7 bereits ab dem 25. Januar 1986 vor dem Bahnübergang. Dort mussten die Fahrgäste auf die damals eingerichtete Autobus-Anschlusslinie 7A umsteigen. Erst der Bau einer Unterführung beendete schließlich 1995 diesen gebrochenen Verkehr. Batteriehilfsantrieb Nachdem der Versuch mit drei Oberleitungsbussen mit starker Zusatzbatterie in Esslingen am Neckar (1974 bis 1981) scheiterte, griff man die Idee in den 2000er Jahren neu auf. Ursächlich für diese Renaissance ist vor allem die kontinuierliche Fortentwicklung der Batterietechnik im Laufe der Jahre. Von Vorteil gegenüber Dieselhilfsantrieben ist dabei insbesondere die Emissionsfreiheit. Im spanischen Castellón de la Plana dürfen beispielsweise die älteren Wagen mit einem Dieselhilfsantrieb nach Euro-3-Abgasnorm den fahrdrahtlosen Abschnitt in der Innenstadt nicht befahren, dies bleibt ausschließlich den jüngeren Fahrzeugen mit Traktionsbatterie vorbehalten. Teilweise werden daher sogar vorhandene Dieselhilfsantriebe durch neue Batteriehilfsantriebe ersetzt, so rüsteten etwa die Verkehrsbetriebe Zürich ihre älteren Fahrzeuge entsprechend um. Hauptmerkmal heutiger Batterie-Zusatzantriebe ist das sogenannte In-Motion-Charging (IMC), auch dynamische Aufladung genannt. Dabei erfolgt das Aufladen der Batterien während der Fahrt durch die gewöhnliche Oberleitung statt durch stationäre Ladeeinrichtungen wie etwa beim Batteriebus. Einer der Vorreiter war hierbei die Volksrepublik China, wo diese Technik schon mindestens seit 1985 angewendet wird. So überquerten beispielsweise die Oberleitungsbusse in der Hauptstadt Peking schon 2009 den fahrleitungslosen Tian’anmen-Platz im Batteriebetrieb, auch in Guangzhou und Jinan setzte man schon vergleichsweise früh auf diese Betriebsform. In Europa erreichen die Oberleitungsbusse im schwedischen Landskrona schon seit 2003 ihr abseits der Strecke gelegenes Depot im Batteriemodus, die Reichweite der dort verwendeten Nickel-Metallhydrid-Akkumulatoren beträgt – bei einer Geschwindigkeit von 30 km/h und ohne Passagiere – vier Kilometer. In Rom verkehrt die 2005 eröffnete Expresslinie 90 auf einem Teilstück im Batteriemodus und mit Fahrgästen. Der fahrleitungslose Abschnitt zwischen der Endstation Termini und der Porta Pia ist dabei rund 1½ Kilometer lang. Grund für diese Lösung war unter anderem eine Großbaustelle in diesem Bereich, sie hätte häufige Änderungen der Fahrleitung zur Folge gehabt. Mittlerweile sind batteriegespeiste Hilfsantriebe, in Solingen beispielsweise als Batterie-Oberleitungsbus (BOB) bezeichnet, auch in vielen weiteren Städten weltweit anzutreffen. Sie verfügen mittlerweile schon über Reichweiten von bis zu 20 Kilometern. Teilweise dient die Batterie dabei – auch während des Betriebs unter Oberleitung – dazu, Spannungsabfälle auszugleichen, Lastspitzen abzufedern und eine Überlastung der Unterwerke zu verhindern. Befahren Oberleitungsbusse längere Abschnitte im Batteriemodus, müssen sie mitunter während des Aufenthalts an den Endstellen nachgeladen werden. Im polnischen Gdynia sind einige Fahrzeuge hierzu mit speziellen Steckdosen ausgerüstet. Von Nachteil ist bei leistungsfähigen Traktionsbatterien vor allem deren höheres Gewicht. Abgesehen von der höheren Eigenmasse wirkt sich dies auch auf die zulässige Fahrgastzahl aus. So dürfen beispielsweise die Solaris-Gelenkwagen des Typs Trollino 18AC in Salzburg – deren Batterie nur 345 Kilogramm wiegt – 145 Personen befördern, während derselbe Typ in Esslingen am Neckar – bei einem Batteriegewicht von 1300 Kilogramm – nur für maximal 111 Fahrgäste zugelassen ist. Ein anderes Problem ist die schnelle Batterientladung auf Steigungsstrecken, insbesondere wenn auch noch in der Steigung angefahren werden muss. Eine weitere Variante der Batteriespeisung bei Oberleitungsbussen sind sogenannte Batterieanhänger, wenngleich solche derzeit nirgendwo auf der Welt verwendet werden. Schwungradspeicher Ein neuartiges Konzept ist die Nutzung der Schwungradspeicherung als Hilfsantrieb. Anders als beim erfolglosen Gyrobus – wo das Schwungrad als Hauptantrieb diente – wird heutzutage lediglich die Verwendung als Notfahraggregat forciert. Zu den ersten Trolleybussen mit einem solchen System gehörten die Basler Neoplan-Gelenkwagen, die heute im bulgarischen Ruse im Einsatz stehen. Ferner war 2006 in Eberswalde vorgesehen, einen Obus probeweise mit einem solchen Schwungradhilfsantrieb auszurüsten. Gespeist sollte das Schwungrad aus der beim Bremsen freiwerdenden elektromotorischen Energie werden. Aufgrund technischer Probleme mit dem Schwungradantrieb kam es jedoch nicht dazu. Duo-Bus Der Duo-Bus besitzt wie ein Oberleitungsbus mit Hilfsantrieb zwei unabhängige Antriebe. Anders als der leistungsschwache Hilfsmotor fungiert der Zweitantrieb bei Duo-Bussen als vollwertiger Alternativmotor mit ähnlich dimensionierter Leistung und meist eigenem Antriebsstrang. Die Fahrzeuge können somit die jeweiligen Vorteile beider Antriebsarten nutzen. Sie werden teils auf Strecken mit gemischtem Betrieb eingesetzt, teils als flexibel einsetzbare Reservefahrzeuge. Bisher wurden weltweit etwas mehr als 400 Duo-Busse gebaut. Die aufwändigere Konstruktion und das erhöhte Gewicht gehen jedoch zu sehr zu Lasten der Wirtschaftlichkeit. Daher schieden die Duo-Busse bei den meisten Betrieben schon nach vergleichsweise kurzer Zeit wieder aus dem Bestand. Verwandte Systeme – Abgrenzung und Gemeinsamkeiten Eng mit dem Oberleitungsbus verwandt sind zahlreiche weitere Systeme, bei denen Omnibusse mittels Elektromotoren angetrieben werden. Die größte Verwandtschaft besteht dabei zum oben erwähnten Gyrobus, er bezieht seinen Strom ebenfalls über Stromabnehmer, die Stromabnahme erfolgt jedoch nur stationär bei Aufenthalten an bestimmten Haltestellen. Zwischen den Aufladepunkten erhält er seine Energie von einem Schwungrad zugeführt. Gyrobusse werden manchmal ebenfalls den Oberleitungsbussen zugerechnet, der Begriff der Fahrleitung ist dabei weiter zu verstehen. So waren einerseits auch die Schweizer Gyrobusse seinerzeit im Verzeichnis des Rollmaterials der schweizerischen Privatbahnen aufgeführt, benötigten andererseits aber Kontrollschilder. 2005 wurde die Idee des Gyrobusses in modifizierter Form beim Konzept AutoTram wieder aufgegriffen. Alternativ dazu existieren Batteriebusse, die nach dem Prinzip des Elektroautos mit Akkumulatoren beziehungsweise Batterien betrieben werden, hierbei erfolgt die Stromabnahme ebenfalls stationär – meist an den Endstellen. Zum Teil verwendet man dabei sogenannte Supercaps, hierbei kann die Stromzuführung auch unterwegs bei Haltestellenaufenthalten erfolgen. In Shanghai wurde 2009 die Obus-Linie 11 auf Supercap-Betrieb umgestellt, die Umstellung der Linie 26 befindet sich in Vorbereitung. Manche Batteriebusse besitzen zum nachladen auch Stromabnehmer, hierbei kommen verschiedenste Bauformen zum Einsatz. Das Konzept STREAM – kurz für „Sistema di TRasporto Elettrico ad Attrazione Magnetica“ – verfolgte das Ziel, statt der aufwändigen zweipoligen Oberleitung, eine spezielle Stromschiene als Unterleitung in die Fahrbahn zu integrieren. Das Projekt kam jedoch über eine kurze Testphase auf der Buslinie 9 in Triest im Jahr 2000 nicht hinaus. Im Versuchsbetrieb werden seit 1979 Hybridantriebe für Busse getestet. Ähnlich den Duo-Bussen mit vollwertigem Dieselantrieb werden auch Hybridbusse dieselelektrisch betrieben. Sie sind komplett unabhängig von Oberleitungen, der oder die Elektromotoren werden ausschließlich vom Stromerzeugungsaggregat gespeist. Dieses Prinzip wird serieller Hybrid genannt. Typisch ist bei Hybridbussen vor allem auch die Speicherung der Bremsenergie in Supercaps oder Batterien, dadurch kann der Schadstoffausstoß der Fahrzeuge noch weiter gesenkt werden. Weiter können manche Hybridbusse kürzere Strecken im rein elektrischen Betriebsmodus zurückzulegen. Alternativ zum seriellen Hybrid gibt es auch die Variante des parallelen Hybrids, der zum Beispiel im Solaris Urbino 18 Hybrid Verwendung findet. Dabei wirken Elektromotor und Dieselmotor gleichzeitig auf den Antriebsstrang. Auch hier ist bei hinreichender Größe der Traktionsbatterie ein begrenzter, rein elektrischer Betrieb möglich. Die Unterscheidung zwischen einem Oberleitungsbus mit starkem Hilfsmotor, einem Duo-Bus und einem Hybridbus ist nicht immer eindeutig möglich, denn bei allen drei Systemen wird hauptsächlich auf einen Antrieb nach dieselelektrischem Prinzip gesetzt. Was heute von den Herstellern Hybridbus genannt wird, ist in einigen Fällen eine Weiterentwicklung von Oberleitungsbustechnik; darunter beispielsweise die Möglichkeit, mit der beim Bremsen entstehenden Energie die Stromspeicher aufzuladen statt sie ins Fahrleitungsnetz zu rekuperieren. Die jüngste Entwicklung im Bereich dieser alternativen Antriebstechnologien für Omnibusse sind Brennstoffzellenbusse, deren Brennstoffzellen-Elektroantrieb basiert dabei auf dem Wasserstoffantrieb. Sonderformen Ersatzverkehr Analog zum Schienenersatzverkehr bei Bahnen müssen auch Oberleitungsbusse fallweise ersetzt werden, hierbei spricht man vom Obusersatzverkehr, Trolleybusersatzverkehr, Omnibusersatzverkehr, Autobusersatzverkehr, Dieselbusersatzverkehr oder Dieselersatzverkehr. Typische Beispiele für Störungen, die einen solchen Notverkehr erfordern, sind: Revisionsarbeiten an der Oberleitung Umbauten der Oberleitung Externe Baustellen Dritter größere Verkehrsunfälle Stromausfälle Höhere Gewalt durch Blitzeinschläge, starke Vereisung oder Sturmschäden an der Oberleitung fahrlässige Beschädigungen der Oberleitung durch unaufmerksame Bagger- oder Kranführer respektive Lastwagen mit Lademaßüberschreitung eine geschlossene Schneedecke, die den Einsatz von Schneeketten erfordert Stromeinsparung In La Chaux-de-Fonds beispielsweise gab es in den letzten Betriebsjahren jährlich 15 Ereignisse, die einen solchen Ersatzverkehr verursachten. Steht keine ausreichende Betriebsreserve zur Verfügung, müssen gegen entsprechendes Entgelt Omnibusse von anderen Verkehrsunternehmen angemietet werden. Dies wiederum ist oft nicht kurzfristig möglich und kann zu längeren Bedienungseinschränkungen auf Obus-Linien führen. Wird hingegen nur eine Teilstrecke einer Linie im Ersatzverkehr betrieben, ist dies mit einem Umstiegszwang für die Fahrgäste verbunden. Eine Alternative zum Ersatzverkehr ist die durchgehende Bedienung einer Linie mit dem Hilfsmotor. Dies ist jedoch meist mit entsprechenden Fahrzeitverlängerungen verbunden und wird zudem durch die vergleichsweise geringe Reichweite des Zusatzantriebs begrenzt. Mischbetrieb mit Omnibussen Bei zahlreichen Obus-Betrieben ist ein permanenter Mischverkehr mit Omnibussen üblich. Meist wird dies praktiziert, weil nicht genügend Oberleitungsbusse zur Verfügung stehen, um auch in Spitzenzeiten alle Umläufe elektrisch zu bedienen. Zu unterscheiden ist dabei, ob planmäßig nicht auf Omnibusse verzichtet werden kann oder ob nur bei einem außergewöhnlich hohen Obus-Schadbestand auf Omnibusse zurückgegriffen werden muss. Ein Beispiel für erstere Variante ist Bologna, dort standen 2012 für die bis zu 80 Kurse auf den vier Trolleybuslinien nur 46 Gelenktrolleybusse und einige Solotrolleybusse zur Verfügung, so dass der Einsatz von Autobussen unabdingbar ist. Weitere Beispiele für Omnibuseinsätze auf Obus-Linien: Beim Trolleybus Bern müssen aufgrund einer fehlenden Zwischenwendemöglichkeit am Wyleregg die Verstärkerkurse der Linie 20 mit Autobussen bestückt werden. Beim Oberleitungsbus Sanremo wird die Linie 2 nach Ventimiglia etwa zur Hälfte mit Dieselbussen bestückt, weil ein Unterwerk nach der Zerstörung durch eine Überschwemmung nicht mehr hergerichtet wurde. Beim Trolleybus Neuenburg verkehrten zwischen 2004 und 2010 teilweise niederflurige Autobusse, weil im Trolleybuswagenpark damals nur Hochflurwagen zur Verfügung standen – man den Fahrgästen aber zumindest einzelne, im Fahrplan gekennzeichnete, barrierefreie Fahrten anbieten wollte. Beim Trolleybus Vevey–Villeneuve verkehrten bis 2010 zusätzliche Schnellkurse, die nur einige ausgewählte Zwischenhaltestellen bedienten. Weil dabei planmäßig die regulären Trolleybusse überholt wurden, mussten diese Fahrten mit Autobussen durchgeführt werden. Aus dem gleichen Grund beschafften die Verkehrsbetriebe der Stadt St. Gallen 1957 anlässlich der Umstellung der letzten Tramlinie auf Trolleybusbetrieb eigens neue Autobusse, um fortan auch Schnellkurse anbieten zu können. Ebenso verkehrten in Bern auf den damaligen Trolleybuslinien 13 und 14, die heute als Tram betrieben werden, sowie auf der noch bestehenden Trolleybuslinie 20 früher zusätzliche Eilkurse mit Dieselbussen. Auf der Linie 14 existierten darüber hinaus sogenannte Direktkurse, die den regulären Linienweg abkürzten. Ähnlich in Leipzig, wo zwischen 1972 und 1975 auf der Schnelllinie BS nach Markranstädt Dieselbusse, auf der regulären Linie B aber noch Obusse fuhren. Die Eillinie BS bediente allerdings die Ortslage Miltitz nicht, sondern umfuhr sie auf der Lützner Straße (F 87), die in diesem Abschnitt nie mit Fahrleitung überspannt war. Die Verkehrsgesellschaft Transports publics de la région lausannoise verlängerte bereits 2009 ihre Trolleybuslinie 8 um 3,3 Kilometer nach Grand-Mont, begann aber erst Anfang 2011 mit der Verlängerung der Fahrleitung. Bis zur Fertigstellung im Dezember 2011 verkehrte daher jeder zweite Kurs – die Verlängerung wurde nur alle 20 Minuten bedient, während auf der Stammstrecke ein Zehn-Minuten-Takt galt – als Autobus. Im mittlerweile stillgelegten Betrieb in La Chaux-de-Fonds galten am Wochenende abweichende Linienführungen, die mit der bestehenden Fahrleitungsinfrastruktur nicht bewerkstelligt werden konnten. So verkehrten dort zuletzt statt der regulär drei Linien des Trolleybus La Chaux-de-Fonds – die unter der Woche von acht Autobuslinien ergänzt wurden – am Wochenende nur eine Trolleybuslinie und vier spezielle Wochenend-Autobuslinien. Letztere ersetzten mittels größerer Schleifenfahrten die beiden Trolleybuslinien und die acht regulären Autobuslinien. Wenn bestimmte Kurse auf Obus-Linien umlaufbedingt mit Omnibuslinien verknüpft sind, können diese ebenfalls nicht elektrisch bedient werden. Im Falle einer bevorstehenden Stilllegung einer Obus-Strecke oder eines ganzen Obus-Netzes setzen Verkehrsunternehmen oft schon lange vorher Omnibusse ein, deren Anteil sich dann meist sukzessive erhöht. Dadurch vermeidet man, zum Stichtag auf einen Schlag viele neue Omnibusse auf einmal beschaffen und diese gleichzeitig in Betrieb nehmen zu müssen. Im Gegenzug müssen defekte Oberleitungsbusse nicht mehr repariert werden, weil die betreffenden Wagen bereits vorzeitig ausgemustert werden können. Im russischen Blagoweschtschensk bestand dabei ab 1. Mai 2015 die besondere Situation, dass auf der Ringlinie 2К (gegen den Uhrzeigersinn) bereits Autobusse zum Einsatz kamen, während auf der Ringlinie 2В (im Uhrzeigersinn) noch bis zur endgültigen Betriebseinstellung im Juli 2016 Trolleybusse fuhren. Möchte ein Verkehrsbetrieb auf einer Obus-Linie regelmäßig oder fallweise Omnibusse einsetzen, so ist dies in den meisten Staaten von der jeweiligen Konzessionsbehörde gesondert zu genehmigen. In Deutschland ist diese Genehmigung nicht erforderlich, wenn bei Notständen und Betriebsstörungen im Verkehr nur vorübergehend Kraftfahrzeuge eingesetzt werden. Wenn die Störungen allerdings länger als 72 Stunden dauern, müssen Art, Umfang und voraussichtliche Dauer eines solchen Einsatzes unverzüglich der Genehmigungsbehörde mitgeteilt werden. Grundsätzlich besteht somit eine Betriebspflicht, gemäß Konzession auch tatsächlich Oberleitungsbusse einzusetzen, sofern dem keine betrieblichen Gründe entgegenstehen. Dennoch ersetzen einige Verkehrsgesellschaften ihre Oberleitungsbusse am Wochenende komplett durch Omnibusse. Dies ist möglich, da letztere dann mangels Bedarfs von anderen Linien abgezogen werden können und auch auf den Obus-Linien selbst weniger Kurse benötigt werden. Aktuelle Beispiele hierfür sind Bologna, Coimbra, Debrecen und Valparaíso. Auch in Kaiserslautern und Kapfenberg war in den letzten Betriebsjahren Obusersatzverkehr am Wochenende üblich, meist schon ab Samstag Mittag, außerdem beim Oberleitungsbus Esslingen am Neckar in den 1970er Jahren und bei vielen französischen und italienischen Netzen. Im rumänischen Târgu Jiu wiederum fahren täglich zwischen 13 und 14 Uhr alle Trolleybusse ins Depot – ersatzweise rücken Omnibusse aus, die den Verkehr bis zum Betriebsschluss übernehmen. Die zuständige Gesellschaft Transloc weist dabei ausdrücklich auf die gemischte Bedienung der beiden betreffenden Linien hin. Vorteile eines solchen planmäßigen Ersatzverkehrs: Wartungsarbeiten an der Fahrleitung müssen nicht nachts durchgeführt werden, wodurch Personalkosten eingespart werden können. Ferner müssen die Verkehrsbetriebe keine Turmwagen-Mannschaften im Bereitschaftsdienst vorhalten, im Winter kann außerdem die Fahrleitungsenteisung entfallen. Wird ein solcher Mischverkehr regelmäßig durchgeführt, so müssen die Fahrpläne auf die etwas langsameren Dieselbusse abgestimmt werden. Erfolgt dies nicht, ist mit Verspätungen, einem erhöhten Kraftstoffverbrauch und einem größeren Verschleiß bei den eingeschobenen Dieselbussen zu rechnen. Einsatz von Oberleitungsbussen auf Omnibuslinien Wesentlich seltener als der Einsatz von Omnibussen auf Oberleitungsbuslinien ist der umgekehrte Fall, das heißt der Einsatz von Oberleitungsbussen als Ersatz für Omnibusse: In Essen, Landshut, Leipzig und München verkehrten in den 1950er, 1960er und 1970er Jahren jeweils anlässlich Einstellung des elektrischen Betriebs in den Hauptverkehrszeiten weiterhin Oberleitungsbusse als Verstärker, weil zum Stichtag der Umstellung nicht genügend Dieselbusse zur Verfügung standen. Allerdings geschah dies in drei der vier Städte unter einem eigenständigen E-Liniensignal, das heißt AE statt A in Leipzig, E40 statt 40 in Essen und E58 statt 58 in München. In Leipzig war der Grund, dass die Endstrecke Ostplatz–Lipsiusstraße nicht mehr elektrisch befahrbar war. Auf der Linie AE wurden zu diesem Zeitpunkt fallweise auch Dieselbusse eingesetzt. Beim Oberleitungsbus San Francisco richtete die örtliche Verkehrsgesellschaft San Francisco Municipal Railway aufgrund einer Dieselbus-Knappheit bereits Anfang der 1980er Jahre vorübergehend die Obus-Shuttlelinie 82 ein. Seit dem 23. April 2016 wird die Omnibuslinie 2 in den Hauptverkehrszeiten durch Trolleybusse verstärkt. Infrastrukturell bedingt müssen diese allerdings schon vorzeitig an der Kreuzung der California Street mit der Presidio Avenue umkehren. In Cambridge befand sich das Depot an der Massachusetts Avenue abseits der drei ehemaligen Obuslinien 71, 72 und 73. Es war zwar durch eine Betriebsstrecke mit dem Stammnetz verknüpft, jedoch über die Autobuslinie 77 an das öffentliche Verkehrsnetz angebunden. Daher rückten die Obusse ebenfalls unter dem Liniensignal 77 aus und ein, wobei sie aufgrund der Kurzführung teilweise abweichend als Linie 77A beschildert wurden. Im schwedischen Landskrona fährt seit 2013 ein spezieller Obus mit starkem Batteriehilfsantrieb planmäßig auf den Autobuslinien 4 und 5. Hierbei besteht ein Umlaufverbund mit der einzigen Obuslinie 3, das heißt nach jeweils einer Fahrt auf einer der beiden genannten Linien fährt der Wagen wieder einen Kurs auf der reinen Obuslinie 3, um dabei seine Batterien mit dem Strom aus der Fahrleitung wieder aufzuladen. Im polnischen Lublin verkehrten zwischen 2014 und 2016 aufgrund eines Überhangs beim elektrischen Wagenpark sowie Problemen mit einem privaten Autobusunternehmen teilweise Oberleitungsbusse auf den Autobuslinien 1, 2, 9, 15, 19, 20, 30, 40, 42 und 56, wobei die fahrleitungslosen Abschnitte dieser Linien jeweils mit dem Hilfsantrieb überbrückt werden mussten. Überlandstrecken Seinem Charakter nach ist der Oberleitungsbus ein klassisches städtisches Verkehrsmittel. Er bedient Relationen innerhalb der Stadtgrenzen, verkehrt bis in die jeweiligen Vororte oder verbindet benachbarte Städte innerhalb von Agglomerationen beziehungsweise Metropolregionen. Abweichend davon existieren – analog zu Überlandstraßenbahnen bzw. zum Regionalbusverkehr – auch gemeindeübergreifende Obus-Überlandstrecken. Die bekannteste und derzeit längste Oberleitungsbusstrecke der Welt befindet sich in der Ukraine, sie wird von Krymskyj trolejbus betrieben. Die 86,5 Kilometer lange Route verläuft auf der Halbinsel Krim und verbindet seit 1959 bzw. 1961 die Regionshauptstadt Simferopol im Norden mit der Küstenstadt Jalta im Süden, unter anderem verläuft sie über den 752 Meter hohen Angarskyi-Pass. Wichtigste Zwischenstation ist Aluschta, auf diese Weise werden drei städtische Obus-Netze miteinander verbunden. Besondere Merkmale der dort eingesetzten Fahrzeuge sind – ähnlich wie bei Überlandomnibussen – der hohe Sitzplatzanteil mit 2+2-Sitzteiler, das verstärkte Bremssystem, die Nebelscheinwerfer und die Gardinen. Zudem bestand bis zum 1. August 2009 eine Platzreservierungspflicht. Weitere außergewöhnlich lange Überlandstrecken sind: Obus-Überlandlinien spielen heute nur noch eine untergeordnete Rolle, der Großteil der früher vorhandenen Strecken wurde im Laufe der Jahre aufgegeben. Problematisch ist neben der weiter oben erwähnten begrenzten Höchstgeschwindigkeit – die die Obusse auf Außerortsstraßen mitunter zum Verkehrshindernis werden lässt – die fehlende Wirtschaftlichkeit. Ursächlich hierfür: typischerweise werden Überlandstrecken seltener befahren als Stadtlinien – der Unterhaltungsaufwand für Oberleitungen und Unterwerke steht damit in einem ungünstigeren Verhältnis zum Nutzen als bei urbanen Linien. Außerdem können keine Wandrosetten verwendet werden, stattdessen muss auf die teurere Fahrleitungsaufhängung mittels Masten zurückgegriffen werden. Dies wiederum birgt eine höhere Unfallgefahr für Kraftfahrer, ähnlich der Problematik auf Alleen. Infolge ihrer größeren Höchstgeschwindigkeit ermöglichen Omnibusse auf Überlandlinien zudem kürzere Reisezeiten, aufgrund der großen Haltestellenabstände und der wenigen Ampelaufenthalte kann der Obus seinen Vorteil der schnellen Beschleunigung hier nur bedingt ausspielen. Drei- und vierspurige Strecken Abgesehen von den früher üblichen einspurigen Strecken sind Obus-Strecken meist zweispurig, das heißt, es steht jeder Fahrtrichtung eine Oberleitung zur Verfügung. Eine Ausnahme stellen bzw. stellten die drei- bzw. vierspurigen Abschnitte in Lyon, Peking, Philadelphia, Simferopol und Teheran dar. Im Lyoner Großraum steht den Linien C1 und C2 im Vorort Caluire-et-Cuire auf einem Teilabschnitt in der Straßenmitte ein zusätzlicher reiner Busfahrstreifen zwischen den regulären Fahrstreifen zur Verfügung – gelegen ist dieser Streifen in der Straße Montée des Soldats, zwischen der Brücke über die Rhone und dem Place Maréchal Foch. Der Busfahrstreifen ist aus Platzgründen einspurig ausgeführt und wird in Lastrichtung genutzt, das heißt bis 13:00 in Richtung Lyon und ab 13:00 Uhr aus Richtung Lyon. Weil die Spur baulich von der regulären Fahrbahn getrennt ist, besitzt sie ein eigenes Fahrleitungspaar. In Peking teilt sich die 2017 eingerichtete beschleunigte Linie BRT2 Streckenabschnitte mit den regulären Linien 112 und 115. Letztere benutzen jedoch nicht die neue Fahrleitung der Linie BRT2, sondern verlaufen auf Parallelfahrspuren und schwimmen damit im allgemeinen Verkehr mit. In Philadelphia verkehren auf der Linie 66 in der Hauptverkehrszeit Expresskurse, denen auf der Frankford Avenue zwischen den Haltestellen Comly Street und Cottman Avenue stadteinwärts eine eigene Oberleitung zur Verfügung steht. Im Stadtgebiet von Simferopol haben die Überlandlinien des Krymskyj trolejbus abschnittsweise ein zusätzliches mittiges Fahrleitungspaar. Dadurch können sie die Kurse der Stadtlinien problemlos überholen. Nach dem gleichen Schema existierten in Teheran zeitweise die Expresslinien 2 und 3. Sie verkehrten parallel zu den Linien 1, 4 und 5, bedienten aber nicht alle Zwischenhaltestellen und besaßen deshalb ebenfalls eine eigene Oberleitung. Einspurige Strecken Bei modernen Oberleitungsbus-Systemen steht jeder Fahrtrichtung eine Oberleitung zur Verfügung. In den Anfangsjahren dieses Verkehrsmittels war hingegen aus wirtschaftlichen Gründen oft nur eine Oberleitung für beide Fahrtrichtungen üblich. Begegneten sich zwei Kurse, musste einer von ihnen die Stromabnehmerstangen abziehen. In anderen Fällen wurden Fahrleitungs-Ausweichen eingebaut. Auf manchen wenig frequentierten Außenästen – in der Regel Überlandabschnitte – waren einspurige Strecken in Europa noch in jüngerer Zeit anzutreffen, beispielsweise im tschechischen Hradec Králové bis Mitte der 1990er Jahre. Die letzte einspurige Oberleitungsbus-Strecke Deutschlands war Teil des Zwickauer Netzes und führte von Lichtentanne nach Stenn. Sie wurde 1977 gemeinsam mit dem restlichen Zwickauer Obusverkehr aufgelassen. Die letzte einspurige Strecke in der Schweiz führte bis 1984 von Saint-Martin nach Villiers. In Österreich traf dies auf die überwiegend einspurige Strecke der Grazer Oberleitungsbus-Linien 3 und 4 zu, diese wurde 1964 aufgelassen, in China auf die 1,5 Kilometer lange Werkstrolleybuslinie im chinesischen Xin`mi, die abgesehen von den beiden Endschleifen durchgehend einspurig war. Unabhängig davon werden beziehungsweise wurden zwei japanische und ein neuseeländischer Tunnelabschnitt einspurig befahren, weil in den Röhren kein Platz für die Aufhängung eines zweiten Oberleitungspaares zur Verfügung steht bzw. stand. Fortbewegung mittels Straßenbahnoberleitung In bestimmten Fällen können Oberleitungsbusse auch mit Hilfe einer gewöhnlichen Straßenbahnoberleitung fortbewegt werden, vorausgesetzt, es handelt sich um einen Streckenabschnitt mit in der Straßenfahrbahn verlegten Rillenschienen. In Brüssel und in Groningen wurde hierfür früher der linke Stromabnehmer an den Straßenbahnfahrdraht angelegt (Pluspol), die Ableitung erfolgte über eine spezielle Kontaktvorrichtung, die in der Rille der linken Straßenbahnschiene hinterhergezogen wurde (Minuspol). In anderen Städten setzte man hingegen auf die sogenannten Bügelwagen, die den gleichen Zweck erfüllten. Vereinzelt gibt es auch Fahrleitungskonstruktionen, bei denen sich Oberleitungsbus und Straßenbahn einen Fahrdraht teilen (den Plusleiter), während der zweite Fahrdraht (der Minusleiter) nur durch den Oberleitungsbus benutzt wird, so beispielsweise in San Francisco im Zuge der Straßenbahnlinie F Market & Wharves. Voraussetzung dafür ist, dass entweder der Minusleiter etwas höher liegt als der Plusleiter, damit er nicht vom Schleifbügel der Straßenbahn berührt wird, oder die Straßenbahn nur mit Stangenstromabnehmern fährt. In Cincinnati fuhren auch die früheren Straßenbahnen unter einer zweipoligen Oberleitung, so dass diese von den dortigen Oberleitungsbussen problemlos mitbenutzt werden konnte. Alternativ dazu wurde in Erfurt seinerzeit zwischen die beiden Richtungsfahrdrähte der Straßenbahnlinie 4 ein geerdeter Zusatzfahrdraht für den Obus gespannt. Durch diese 2,5 Kilometer lange Sonderkonstruktion konnten die Erfurter Oberleitungsbusse ihren Betriebshof an der heutigen Magdeburger Allee erreichen. Eine gleichartige Anlage, also ebenfalls mit zusätzlichem Minusdraht, existierte in Berlin-Spandau. Dort konnten aus- und einrückende Oberleitungsbusse in der Klosterstraße und in der Pichelsdorfer Straße die Fahrleitungen der Straßenbahn mitbenutzen. Bis zur Installation des Minusdrahts dienten auf der Spandauer Betriebsstrecke von und zur Obus-Linie, über die Eisenräder eines kleinen Anhängers, die Straßenbahngleise als Minuspol. In Kiel wurde der Minusdraht seitlich zur eingleisigen Straßenbahnstrecke durch die Kaistraße und die Bahnhofstraße montiert. So konnte dieser Abschnitt gemeinsam mit der Straßenbahnlinie 7 benutzt werden. Die Mitbenutzung erfordert eine Anpassung des gemeinsam genutzten Fahrdrahtes. Er muss einerseits eine für die Bügelstromabnehmer ausreichende Zickzackführung aufweisen, zum anderen dürfen die Ablenkungen an den Stützpunkten nicht zu groß für die Stangenstromabnehmer werden. Letztere benötigen Luftweichen, diese müssen, sofern sie nicht aus dem Arbeitsbereich der Bügelstromabnehmer herausverlegt werden können, mit seitlichen Gleitstücken für die Schleifleisten passierbar gemacht werden. Die gemeinsame Benutzung der Fahrleitung mit Bügel- und Stangenstromabnehmern ist grundsätzlich seit den 1920er Jahren gelöst, sie macht den Fahrleitungsbau jedoch aufwändig. Anhängerbetrieb Analog zu Omnibusanhängern existierten auch Anhänger hinter Oberleitungsbussen, auch Personenanhänger oder Anhängewagen genannt. Sie erlaubten einen wirtschaftlicheren Betrieb, weil die Gesamtkapazität eines solchen Gespanns höher ist als bei einem Gelenkwagen. Außerdem wurde auf diese Weise auch im Zusammenspiel mit älteren Hochflur-Obussen ein barrierefreier Einstieg gewährleistet. Ferner konnten die Anhänger bedarfsgerecht eingesetzt werden, das heißt nur in den Hauptverkehrszeiten. Allerdings war dieser Vorteil mit einem erhöhten Rangieraufwand verbunden und erforderte geeignete Abstellplätze neben der Strecke, weshalb die Anhänger oft über die ganze Betriebszeit mitgeführt wurden. Rechtlich betrachtet waren die Anhänger Teil des Gesamtsystems Trolleybus, so benötigten sie beispielsweise in der Schweiz ebenfalls keine Kontrollschilder. Die weltweit letzten Anhänger hinter Trolleybussen waren bis Mai 2021 beim Trolleybus Lausanne anzutreffen. Außerdem verwendet wurden Anhänger bis 2017 beim Trolleybus Luzern, bis 1991 beim Trolleybus St. Gallen und bis Mitte der 1990er Jahre beim Trolleybus Vevey–Villeneuve. Viele weitere Städte hatten einzelne Anhänger, das letzte amtliche Trolleybusverzeichnis der Schweiz von 1966 verzeichnete zwölf Anhänger bei den Städtischen Verkehrsbetrieben Biel, zwei bei der Compagnie des Transports en commun La Chaux-de-Fonds, 13 bei der Compagnie genevoise des tramways électriques, 28 bei den Transports publics de la Région Lausannoise, zwei bei den Tramways de Neuchâtel, zwei bei den Rheintalischen Verkehrsbetrieben, 27 bei den Verkehrsbetrieben der Stadt St. Gallen, fünf Personen- und zwei Postanhänger bei den Verkehrsbetrieben Steffisburg–Thun–Interlaken, sechs bei Vevey–Montreux–Chillon–Villeneuve und einen bei den Verkehrsbetrieben der Stadt Winterthur. Die Postanhänger auf der Überlandlinie Thun–Beatenbucht befanden sich dabei im Eigentum der Schweizerischen Post und waren von 1952 bis 1982 in Betrieb. Über die Schweiz hinaus waren solche Anhänger – sowohl bei Oberleitungsbussen als auch bei Omnibussen – bis in die 1960er Jahre auch in vielen anderen Staaten verbreitet. Obus-Anhänger fand man unter anderem in Westdeutschland, der DDR, Italien, Schweden, Ungarn, der Tschechoslowakei und in Österreich – dort zuletzt 1974 in Salzburg – und in der Volksrepublik China. In der Sowjetunion verkehrten einst Anhänger, die aus alten MTB-82-Obussen umgebaut wurden, so in Leningrad, Minsk, Moskau, Riga, Schytomyr und Tiflis. Hierbei handelte es sich um Eigenumbauten der jeweiligen Verkehrsbetriebe. Einzelne Obus-Anhänger aus St. Gallen gelangten noch 1992 gebraucht nach Warschau, wo sie bis zur Einstellung des Betriebs 1995 im Einsatz waren. Neun weitere kamen in den Jahren 2003 und 2004 von Lausanne ins rumänische Sibiu, wo aber 2009 ebenfalls der Obusbetrieb eingestellt wurde. Manche Verkehrsunternehmen verwendeten die gleichen Fahrzeuge flexibel mal hinter Oberleitungsbussen und mal hinter Omnibussen, so etwa die Berliner Verkehrsbetriebe, die Krefelder Verkehrs-AG, die Stadtwerke Osnabrück, die Städtischen Verkehrsbetriebe Bern, die Verkehrsbetriebe der Stadt St. Gallen, die Verkehrsbetriebe STI oder die Wiener Stadtwerke – Verkehrsbetriebe. In der Schweiz hatten hierzu zahlreiche Trolleybusanhänger ein Kontrollschild, um sie auch hinter Autobussen einsetzen zu können. Später gab man den Anhängerbetrieb fast überall zugunsten von Gelenkfahrzeugen auf. Teilweise ist die Personenbeförderung mit Anhängern auch gesetzlich verboten worden, so beispielsweise in Westdeutschland gemäß der Straßenverkehrs-Zulassungs-Ordnung seit dem 1. Juli 1960. In der DDR war dies ab 1978 der Fall, lediglich in Eberswalde verkehrten aufgrund einer Ausnahmegenehmigung noch bis 1985 Obus-Anhänger. Die Anhänger wurden analog zur Straßenbahn manchmal auch als Beiwagen bezeichnet, im Gegensatz dazu nannte man die eigentlichen Oberleitungsbusse früher oft Triebwagen oder Motorwagen. Zusammen bildete ein solches Gespann einen sogenannten Obus-Zug, auch Obus-Anhängerzug bzw. Obus-Hängerzug genannt. In der Schweiz sprach man von einer Anhängerkomposition. Bei den Rheintalischen Verkehrsbetrieben verkehrten bis 1977 sogar Dreiwagenzüge, bestehend aus einem Trolleybus, einem Beiwagen und einem einachsigen Gepäckanhänger. Eine Sonderform stellte der LOWA ES6 dar, bei diesem in der DDR entwickelten Prototyp war der Anhänger als Sattelauflieger ausgeführt. In Deutschland, Österreich und der Sowjetunion kennzeichnete man den Motorwagen eines Obus-Zugs üblicherweise mit einem Anhängerdreieck. In Italien und Österreich wurden die Nachläufer von Gelenkwagen früher rechtlich ebenfalls als Anhänger eingestuft. In gewisser Weise problematisch war beim Obus-Anhängerbetrieb die sogenannte Schleppkurve. Ursächlich hierfür ist die Position der Stromabnehmer bei einem solchen Gespann. Sie war – anders als etwa beim Gelenkwagen – vergleichsweise weit vorn angeordnet. Um eine Stangenentdrahtung zu vermeiden, konnte der Fahrer eines Obus-Zugs beim Abbiegevorgang nicht so weit ausholen, wie dies aus fahrdynamischen Gründen sinnvoll gewesen wäre. Deshalb war ein Einsatz derartiger Kompositionen bei engen Kurvenradien schwierig bzw. erforderte eine entsprechende Anpassung der Fahrleitungsanlage. Kompensiert wurde das Problem außerdem durch gelenkte Hinterachsen sowie Abschrägungen im Heckbereich, ähnlich den sogenannten Hechtwagen im Schienenverkehr. Doppeltraktionen In der Sowjetunion beziehungsweise in ihren Nachfolgestaaten verkehrten von 1966 bis 2013 Oberleitungsbusdoppeltraktionen bestehend aus jeweils zwei angetriebenen Solo-Obussen der Typen MTB-82, Škoda 9Tr oder ZiU-9. Diese permanent miteinander gekuppelten Obus-Züge waren bis zu 25 Meter lang, zusammen existierten etwa 750 Einheiten. Aus fahrdynamischen Gründen waren dabei nur die Stromabnehmer eines Wagens angelegt. Das Fahrzeug ohne Kontakt mit der Oberleitung bezog seinen Fahrstrom aus einem Verbindungskabel zwischen den beiden Wagen, die Sollwertgeber beider Obusse waren parallel geschaltet. Die Lenkung des geführten Fahrzeugs erfolgte im Gegensatz dazu rein mechanisch mittels der Kupplungsstange, vergleichbar einer Deichsel. Die für den Einsatz in Doppeltraktionen modifizierten Obusse konnten nicht einzeln eingesetzt werden, ähnlich den Zwillingstriebwagen bzw. geführten Triebwagen bei der Straßenbahn. Der Vorteil der Doppeltraktionen lag in der um circa ein Drittel höheren Beförderungskapazität gegenüber einem Gelenkfahrzeug sowie dem geringeren Personalbedarf gegenüber zwei einzeln fahrenden Wagen. Nachteile der Gespanne waren die geringere Wendigkeit, der größere Energieverbrauch und der erhöhte Wartungsaufwand. Außerdem mussten sie aus Sicherheitsgründen mit gedrosselter Geschwindigkeit verkehren. Mischformen zwischen Gelenkwagen, Anhängerzügen und Doppeltraktionen Eine Sonderform stellte der Gelenkwagen dar, der zwischen 1954 und 1968 auf der Überlandstrecke Ancona–Falconara im Einsatz war. Bei diesem filotreno des Typs Alfa Romeo 140AF Macchi-Baratelli war der Nachläufer zweiachsig, de facto handelte es sich um einen Anhänger, der mittels Faltenbalgübergang mit dem Vorderwagen verbunden war – die Stromabnehmer befanden sich auf dem Nachläufer. Nach dem gleichen Konstruktionsschema stellte der rumänische Hersteller Uzina Autobuzul București 1988 einen zweimotorigen Prototypen mit der Bezeichnung TANDEM 318ET her. Bereits 1964 gab es außerdem in Warschau eine aus zwei Škoda 8Tr bestehende Doppeltraktion, bei der zusätzlich die beiden Wagenkästen durch einen Faltenbalg verbunden wurden. Dazu wurden das Heck des führenden und die Front des geführten Wagens abgetrennt. Der hintere Wagen trug die Kontaktstangen auf dem Dach. Spurgeführte Oberleitungsbusse Spurgeführte Oberleitungsbusse sind mit einer automatischen Spurführung ausgerüstet und können daher auf einer vom allgemeinen Straßenverkehr abgetrennten Sondertrasse fahren, beispielsweise in engen U-Bahn-Tunnelstrecken. Ferner ermöglichen sie den reibungslosen Einsatz längerer Einheiten, darunter mehrgliedrige Gelenkwagen bzw. Mehrfachtraktionen. Außerdem können spurgeführte Wagen enge Kurvenradien besser bewältigen. Des Weiteren benötigen sie – zumindest bei durchgehender Spurführung – statt der üblichen zweipoligen nur eine einfache einpolige Oberleitung. Vorreiter war hier das Unternehmen Daimler-Benz, es unterhielt bereits Anfang der 1980er Jahre auf dem Mercedes-Benz-Werksgelände in Rastatt unter Ausschluss der Öffentlichkeit eine elektrifizierte Spurbus-Versuchsanlage. Dort verkehrten auf derselben Strecke sowohl reguläre Einrichtungs-Oberleitungsbusse mit zwei Stromabnehmerstangen als auch ein Zweirichtungs-Versuchsfahrzeug mit Straßenbahn-typischen Einholmstromabnehmern. Bei letzterem Wagen floss Rückstrom über die seitliche Spurführung ab. Die zweipolige Hochketten-Oberleitung war höhenversetzt ausgeführt, der Einholmstromabnehmer des Zweirichtungsfahrzeugs berührte somit den Minusdraht der Einrichtungsfahrzeuge nicht. Der 24 Meter lange Wagen mit frei schwebendem Mittelteil wurde als Typ O305GG bezeichnet, er basierte auf dem einfachen Gelenkbus O305G. Auf die Rastatter Versuche aufbauend verkehrten ab Mai 1983 auf einer 1,0 Kilometer langen Pilotstrecke in Essen-Stadtwald zunächst zwei spurgeführte Duo-Busse im planmäßigen Fahrgastbetrieb. Ab 1986 erweiterte man diesen Betrieb zu einem Großversuch, hierzu beschaffte man 18 weitere Duo-Busse. Das Essener Konzept bewährte sich nicht, der elektrische Betrieb wurde im September 1995 aufgegeben. Spurgeführte Omnibusse hingegen werden in Essen bis heute eingesetzt. Ein weiteres Projekt dieser Art verfolgte ab 1997 die brasilianische Stadt São Paulo. Unter den Produktbezeichnungen Veículo Leve sobre Pneus (VLP) bzw. fura-fila sollten dort spurgeführte Doppelgelenk-Obusse ähnlich einer Hochbahn auf aufgeständerten Trassen verkehren. Das Konzept kam allerdings über den Bau eines Prototyps und einer am 30. September 2000 eröffneten 2,8 Kilometer langen Pilotstrecke nicht hinaus. Schon Anfang 2001 stellte die Stadt das Vorhaben ein, auf der betreffenden Strecke verkehren heute Omnibusse. Einige Jahre später wurde die Idee spurgeführter und mehrteiliger Oberleitungsbusse in Frankreich wieder aufgegriffen und modifiziert, jetzt mit mittiger statt seitlicher Spurführung. Maßgeblich hierfür war das Unternehmen Bombardier Transportation mit dem System Transport sur Voie Réservée (TVR), das seit 2001 partiell in Nancy anzutreffen ist. Dort fahren die Oberleitungsbusse in der Innenstadt sowie im Bereich der beiden Wendeschleifen als Straßenbahn auf Gummirädern, außerhalb der genannten Abschnitte hingegen als klassischer frei gelenkter Oberleitungsbus. Aus Marketinggründen wird jedoch das gesamte System vom Betreiber als Straßenbahn bezeichnet. Ein weiteres TVR-System existierte in Caen, dieses kam jedoch mit einer einpoligen Oberleitung aus und hatte daher nur noch wenig Gemeinsamkeiten mit dem Oberleitungsbus. Ebenfalls spurgeführt verkehrt der 2008 eröffnete Oberleitungsbus Castellón de la Plana in Spanien; dort kommt ein optisches System in Form von auf die Fahrbahn aufgemalten Leitlinien zur Anwendung. Diese werden von einer Kamera über der Frontscheibe der Wagen gescannt, das Prinzip wird unter der Bezeichnung CiVis vermarktet. Im Gegensatz dazu ist der Aufbau eines gleichartigen Systems beim Oberleitungsbus Bologna gescheitert, obwohl hierfür bereits entsprechende Fahrzeuge beschafft wurden. Eine Weiterentwicklung des TVR-Prinzips stellt das ausschließlich spurgeführte System Translohr von Lohr Industrie dar. Dieses wird jedoch in der Regel als Straßenbahn auf Gummirädern respektive Straßenbahn auf Gummireifen klassifiziert, in der Schweiz spricht man von einem Pneu-Tram. Doppelgelenkwagen ohne Spurführung Analog zu Doppelgelenkomnibussen entstanden vereinzelt auch dreiteilige Oberleitungsbusse ohne Spurführung, in der Schweiz auch Megatrolley(bus), DGT für Doppelgelenktrolley(bus) oder Longo genannt. Größter Vorteil dieses Konzepts ist die höhere Kapazität bei gleichbleibendem Personalbedarf, Investitionen in die Spurführung entfallen. Problematisch sind bei Doppelgelenkwagen ohne Spurführung hingegen die Wendigkeit und die Länge der Fahrzeuge. Für den planmäßigen Einsatz mussten beispielsweise in Zürich einzelne Haltestellen umgebaut werden. Den weltweit ersten Doppelgelenktrolleybus testete in den 1980er Jahren die Verkehrsgesellschaft der rumänischen Hauptstadt Bukarest. Hierbei handelte es sich um den 1988 in den eigenen Werkstätten entstandenen Prototyp mit der Typenbezeichnung MEGA, der aus einem 1980 gebauten gewöhnlichen zweiteiligen Gelenkwagen entstand. Er trug die Betriebsnummer 7091 und ging 1999 außer Betrieb. Während sich das Prinzip in Rumänien nicht durchsetzen konnte, setzten später andere Länder auf solche Fahrzeuge: Entsprechende Pläne des Unternehmens Škoda – die Arbeitstitel dieser Projektstudien lauteten 19Tr, 20Tr und 23Tr – wurden hingegen nicht verwirklicht. Tunnelstrecken In manchen Städten verkehren Oberleitungsbusse im Tunnel, ähnlich einer U-Bahn beziehungsweise Unterpflasterstraßenbahn. Von Vorteil ist hierbei der abgasfreie Betrieb im Vergleich zu Dieselbussen, insbesondere, wenn Tunnelhaltestellen passiert werden, an denen Fahrgäste warten. Ebenso vorteilhaft ist das problemlose Bezwingen von Tunnelrampen. Bei der Essener Verkehrs-AG (EVAG) verkehrten die Duo-Busse auf den beiden CityExpress-Linien CE 45 und CE 47 vom 9. November 1991 bis zum 24. September 1995 spurgeführt durch die unterirdische Ost-West-Spange und bedienten dort auch die vier Zwischenstationen. Der Gleiskörper war entsprechend mit Holzbohlen ausgestattet. Das System erwies sich als anfällig für Betriebsstörungen, immer wieder übertrugen sich die durch die Belastung der Bohlen hervorgerufenen Schwingungen auf die Stromabnehmer. Dies wiederum führte zum Abreißen der Fahrdraht-Aufhängungen, damit war der Tunnel auch für die dort verkehrenden Bahnen unpassierbar. Der Oberleitungsbus Cambridge und der Oberleitungsbus Boston in den Vereinigten Staaten besaßen respektive besitzen ebenfalls je einen Streckenabschnitt im Tunnel mit einer bzw. drei Tunnel-Stationen. Während der etwa zwei Kilometer lange Tunnel in Boston 2004 eigens für Oberleitungsbusse eröffnet wurde, war der sogenannte Harvard Bus Tunnel ein ehemaliger Straßenbahntunnel, der zuletzt gemeinsam von Oberleitungsbussen und Omnibussen befahren wurde. Und auch in Seattle existierte von September 1990 bis September 2005 eine 2,1 Kilometer lange Obus-Tunnelstrecke mit drei unterirdischen Zwischenstationen, Downtown Seattle Transit Tunnel genannt. Dieser wird aktuell nur noch von Omnibussen und der Stadtbahn Seattle passiert. Im Gegensatz zum Essener Spurbus-Tunnel setzte man in Seattle auf Rillenschienen, die eine geschlossene Fahrbahndecke für die Oberleitungsbusse ermöglichten. Ein weiterer Trolleybustunnel mit fünf Tunnelstationen bestand von 1976 bis 1988 im mexikanischen Guadalajara. Hierbei handelte es sich um eine Notlösung – der etwa fünf Kilometer lange Tunnel war ursprünglich für eine U-Bahn vorgesehen, diese konnte aus Kostengründen nicht realisiert werden. Seit 1988 wird die Anlage von einer Stadtbahn genutzt. Ferner verkehrt der letzte japanische Obus-Betrieb komplett im Tunnel. Analog dazu war auch die, 2018 eingestellte, Oberleitungsbusstrecke Ogizawa–Kurobedamu fast komplett unterirdisch trassiert, nur die Abfahrtsstelle selbst lag nicht im Tunnel. In beiden Fällen handelt bzw. handelte es sich dabei um bergmännisch aufgefahrene Tunnel im Gebirge. Erwähnenswert ist in diesem Zusammenhang außerdem noch der 388 Meter lange Hataitai-Tunnel in Wellington. Er wurde 1907 als Straßenbahntunnel eröffnet und ab 1963 nur noch von Trolleybussen und Omnibussen benutzt, seit 2017 allerdings nur noch von letzteren. Die beiden Tunnelbetriebe in Japan gehören bzw. gehörten ferner zu den weltweit letzten einspurig betriebenen Obus-Strecken. Der Tunnel in Neuseeland wiederum wies aus Profilgründen als Besonderheit eine aus drei Fahrdrähten für beide Fahrtrichtungen bestehende Oberleitungskonstruktion auf, dabei teilten sich beide Richtungen den mittleren Draht. Bussteige und Sondertrassen Analog zu den sogenannten Bus-Rapid-Transit-Systemen, abgekürzt BRT, setzen auch einige Obus-Betriebe auf erhöhte Bussteige. Diese ermöglichen – vergleichbar den Hochbahnsteigen im Schienenverkehr – selbst bei älteren Hochflurwagen einen schnellen und barrierefreien Fahrgastwechsel. Der Ein- und Ausstieg erfolgt somit, ähnlich wie bei einer Stadtbahn, stufenlos. Solche Systeme existieren bzw. existierten: in Ecuador beim Oberleitungsbus Quito in Venezuela beim Oberleitungsbus Mérida, im Juni 2016 auf Dieselbusbetrieb umgestellt in der Türkei beim Oberleitungsbus Malatya in der Volksrepublik China bei den Linien BRT1, BRT2 und BRT3 in Peking sowie bei der Linie 71 in Shanghai Alle diese Betriebe verwenden ausschließlich erhöhte Bussteige. Ein weiteres solches System entstand im ebenfalls venezolanischen Barquisimeto, dieses kam jedoch über einen kurzen Probebetrieb in den Jahren 2012 und 2013 nicht hinaus und wurde letztlich als reines Dieselbussystem realisiert. Teilweise handelt es sich bei den Haltestellen um mittige Bussteige in Insellage, vergleichbar den Mittelbahnsteigen im Schienenverkehr. Deshalb verkehren die Trolleybusse bei manchen BRT-ähnlichen Systemen – komplett oder zumindest abschnittsweise – im Linksverkehr, das heißt entgegen der üblichen Fahrordnung in den betreffenden Ländern. Dies erfolgt auf eigenen Sonderspuren und somit unabhängig vom übrigen Straßenverkehr. Ferner verfügen die Haltestellen dieser Systeme in der Regel über spezielle Zugangssperren zur Fahrkartenkontrolle. Zusätzlich sind – analog zu vielen U-Bahn-Systemen – Schiebetüren zwischen Bussteig und Fahrzeug vorhanden, die sich erst bei Ankunft eines Fahrzeugs öffnen. Darüber hinaus bedienten früher auch die Oberleitungsbusse der EVAG in Essen, der MBTA in Cambridge und der SPT in São Paulo vereinzelt erhöhte Bussteige in Insellage. Hierzu besaß ein Teil der Wagen in den drei Städten zusätzliche linksseitige Einstiege ohne Trittstufen. Radnabenmotoren Bereits in der Frühzeit des Oberleitungsbusses waren Radnabenmotoren bei den Systemen Mercédès-Électrique-Stoll (ab 1907) und Lloyd-Köhler (ab 1910) Standard. Die letzten derartigen Wagen verkehrten 1938 in Wien. In jüngerer Zeit griff der Hersteller Neoplan dieses Konzept in Basel (ab 1992) und in Lausanne (ab 1999) wieder auf. Ebenso Mercedes-Benz mit dem 1996 vorgestellten Prototyp O405GNTD sowie die Firma Irisbus mit dem vergleichsweise weit verbreiteten Typ Cristalis. Der Grund dafür, dass diese Technik heute wieder eingesetzt wird, ist, dass Radnabenmotoren durch ihre sehr kompakte Bauweise Fahrzeuge mit hohem Niederfluranteil und wenigen oder gar keinen Podesten ermöglichen. Dabei können bei einem Gelenkwagen bis zu vier Radnabenmotoren gleichzeitig zum Einsatz kommen, welche die zweite und die dritte Achse antreiben. Dadurch lassen sich die Fahrzeuge relativ stark motorisieren. Dies war beispielsweise bei den Basler Trolleybussen der Fall. Diese Antriebstechnik ist allerdings mit Problemen verbunden und konnte sich daher bislang nicht flächendeckend durchsetzen. Zu den wesentlichen Nachteilen gehören die hohe Energiedichte, die zu Kühlungsproblemen führt, sowie die hohen Drehzahlen, die eine höhere Geräuschentwicklung zur Folge haben. Ferner sind Radnabenmotoren teurer und wartungsintensiver als gewöhnliche Elektromotoren, außerdem verbrauchen sie mehr Energie. Umbauten aus Dieselbussen Trotz ihrer konstruktiven Ähnlichkeiten werden Dieselbusse nur vergleichsweise selten zu Oberleitungsbussen umgebaut. Hauptgrund hierfür ist die fehlende Wirtschaftlichkeit solcher Vorhaben. Die geringe Restlebensdauer einer Dieselbus-Karosserie rechtfertigt nur in den seltensten Fällen die aufwändigen Umbauten, darunter die Verstärkung der Karosserie und der Dachkonstruktion, den Umbau des Motorträgers, die Verkabelung sowie die Isolation der Fahrgastzelle – insbesondere der Einstiege – außerdem die Anpassung der Antriebsachse, der Bremsanlage, der Servolenkung, der Heizung, der Lüftungsanlage, der Bordnetzversorgung und der Fahrzeugelektronik. Dennoch bauen die Verkehrsbetriebe in der polnischen Stadt Gdynia und in der ungarischen Stadt Szeged seit 2004 in Eigenregie Dieselbusse zu Oberleitungsbussen um. Begünstigt wird dies durch die vergleichsweise geringen Lohnkosten in den beiden Ländern sowie das gute Know-how der betreffenden Werkstätten. In beiden Fällen handelt es sich um Fahrzeuge des Herstellers EvoBus, der selbst keine Oberleitungsbusse mehr anbietet, darunter bisher 28 O405N und zwei Citaro O530 in Polen sowie sechs Citaro O530 in Ungarn. Ferner baute man in Szeged schon 2004 einen Volvo-Solobus zu einem Obus um. Die Betriebe erhoffen sich davon Einsparungen bei der Ersatzteilbevorratung – diese kann gemeinsam mit den gleichartigen Dieselbussen der Spenderbaureihen erfolgen – sowie geringere Anschaffungskosten gegenüber serienmäßig hergestellten Oberleitungsbussen. Zudem kann auf diese Weise zeitgemäße Niederflurtechnik mit altbrauchbaren E-Ausrüstungen kombiniert werden. In Polen hat der Umbau von Dieselbussen in Obusse eine gewisse Tradition. Bereits Anfang der 1990er Jahre entstanden auf diese Weise 13 Gelenk-Obusse, die auf dem Dieselbus des Typs Ikarus 280 basierten. Sie bekamen die Baureihenbezeichnung 280E und verkehrten in Gdynia (neun), Lublin (vier) und Słupsk (einer). Aus ähnlichen Gründen bauten die Stadtwerke Kaiserslautern schon im Jahr 1978 einen 1970 beschafften Dieselbus des Typs Mercedes-Benz O 305 in einen Oberleitungsbus um. Man entschied sich danach gegen einen serienmäßigen Umbau weiterer Wagen, ebenso die Stadtwerke Pforzheim, die 1965 einen Büssing Präfekt in einen Obus umbauten, sowie die Hamburger Hochbahn, bei der schon 1952 auf Basis eines Büssing 5000T ein Eigenbau-Obus entstand. Bemerkenswert in diesem Zusammenhang auch die Bukarester Verkehrsbetriebe: diese bauten zwischen 1995 und 2000 gleich 22 Genfer Saurer-Omnibusse der Baujahre 1968 bis 1970 zu Oberleitungsbussen um. Für Cluj-Napoca wandelte das Unternehmen Astra aus Arad 2011 15 gebraucht aus Paris übernommene Gelenkbusse des Typs Agora L in Oberleitungsbusse um. Umbauten in Dieselbusse Auch Umbauten von Oberleitungsbussen in Dieselbusse kommen aufgrund des hohen Aufwands und der damit verbundenen Kosten nur in Ausnahmefällen vor. Im Idealfall kann dabei eine langlebige Obus-Karosserie mit preisgünstigen und serienmäßig hergestellten Dieselbuskomponenten kombiniert werden. Von Nachteil ist hingegen der höhere Kraftstoffverbrauch, bedingt durch die schwerere Karosserie. So bauten die Stadtwerke Osnabrück in den Jahren 1967 und 1968 gleich 24 Oberleitungsbusse der Baujahre 1959 bis 1961 in Dieselbusse um. Hierzu waren folgende Arbeiten notwendig: Ausbau der elektrischen Ausrüstung, Einbau von Dieselmotor, Getriebe, Kardanwellen, Tank, Kraftstoffleitungen und Auspuffanlage sowie Umbauten im Fahrgastraum. Ursächlich hierfür: angesichts der 1968 erfolgten Stilllegung des Betriebs wollte man nicht auf die noch vergleichsweise neuen Fahrzeuge verzichten. Aus dem gleichen Grund adaptierten auch die Stadtwerke Trier zwischen 1967 und 1972 ihre sechs jüngsten Gelenk-Obusse des Typs HS 160 OSL-G entsprechend, ebenso die Niederrheinischen Verkehrsbetriebe 1968 elf Büssing/Emmelmann/SSW-Gelenkwagen des Baujahrs 1964 und die Stadtwerke Hildesheim 1969 sechs Büssing-Solowagen des Baujahrs 1963. Stadtrundfahrten Vergleichsweise selten sind touristische Stadtrundfahrten mit Oberleitungsbussen. Ursächlich hierfür ist vor allem die Tatsache, dass in der Regel nicht alle Sehenswürdigkeiten an elektrifizierten Strecken liegen beziehungsweise bestimmte Abbiegemöglichkeiten oder sonstige Verknüpfungen im Netz fehlen. Dennoch wird etwa in Lublin eine Touristiklinie „T“ mit einem historischen ZiU-9-Obus betrieben. Darüber hinaus setzte Mendoza bis Anfang 2009 einen Obus des Typs Trolleybus Solingen für Stadtrundfahrten ein. Hierzu besaß dieser eine veränderte Inneneinrichtung und eine Sonderlackierung. Weltweiter Überblick Am 31. Dezember 2021 waren weltweit nur noch weniger als 24.000 Oberleitungsbusse in Betrieb, davon knapp 5000 in der Europäischen Union, der Schweiz und Norwegen. Außer in Ozeanien, wo der letzte am 31. Oktober 2017 in Wellington verkehrte, fahren sie auf allen Kontinenten. Ende 2019 existierten dabei weltweit 2200 Obus-Linien, davon 526 in der Europäischen Union, der Schweiz und Norwegen. Global betrachtet befindet sich das Verkehrsmittel seit der politischen Wende der Jahre 1989/1990 aus unterschiedlichen Gründen auf dem Rückzug. So wurden allein in den 2000er Jahren um die 60 Betriebe eingestellt, aber nur zehn neue eröffnet – von denen zwei bereits wieder stillgelegt sind. Trotz weiterer vereinzelter Neueröffnungen setzte sich dieser Trend in den 2010er Jahren fort. Die meisten Einstellungen waren in den kleineren Nachfolgestaaten der Sowjetunion zu verbuchen, darunter Armenien, Aserbaidschan – wo zwischen 2003 und 2006 sogar alle fünf Netze aufgelassen werden mussten –, Kasachstan und Usbekistan, ebenso in Georgien, dort wurden zwischen 2003 und 2010 zehn der einst zwölf georgischen Obus-Betriebe eingestellt. Die einzelne Linie in Zchinwali wurde bereits Ende 1990 im Bürgerkrieg um Südossetien zerstört, so dass nur noch der Oberleitungsbus Sochumi erhalten blieb. Er befindet sich in der international nicht anerkannten Republik Abchasien und konnte nur mit russischer Hilfe überleben. Ursächlich für diese Entwicklung waren hauptsächlich fehlende finanzielle Mittel – oft konnten nicht einmal die Stromrechnungen beglichen werden –, ebenso die verschlissene Technik aus Sowjetzeiten sowie die Konkurrenz durch die parallel verkehrenden Marschrutkas. Auffällig viele Netzaufgaben waren außerdem in der Volksrepublik China und in Rumänien zu beobachten. Ein italienisches Phänomen ist die mehrere Jahre andauernde vorübergehende Einstellung von Betrieben, um Fahrleitung und Fahrzeuge zu erneuern. Dies betraf Bologna (unterbrochen von 1982 bis 1991), La Spezia (1985 bis 1988), Chieti (1992 bis 2009), Modena (1996 bis 2000) und Genua (2003 bis 2007). In Cremona ist hingegen eine Wiedereröffnung des Betriebs Ende der 2000er Jahre gescheitert, die seit 2002 nicht mehr verwendete Oberleitung bleibt weiterhin ungenutzt. Anders in Bari, dort ist weiterhin geplant, den schon 1988 eingestellten Betrieb wieder aufzunehmen. Obwohl dazu bereits 1999 und 2009 neue Wagen beschafft wurden, die bislang nicht zum Einsatz kamen, war der Betrieb allerdings auch 2021 immer noch nicht wiedereröffnet. Außerdem begann bereits 2009 in Avellino der Aufbau eines weiteren neuen Obus-Systems, das letztlich aber erst 2023 in Betrieb ging. Ein weiteres geplantes System ist der Oberleitungsbus Pescara, an dem schon seit 2010 gebaut wird. Größte Betriebe Die Stadt mit den weltweit meisten Trolleybussen ist die belarussische Hauptstadt Minsk mit knapp 900 Trolleybussen und 63 Linien (Stand Mai 2017). Einst trug die russische Hauptstadt Moskau diesen Titel, dort reduzierte das Verkehrsunternehmen Mosgortrans den Betrieb jedoch bis August 2020 schrittweise auf eine einzige verbliebene Linie. Größter Betrieb in Asien ist die chinesische Hauptstadt Peking mit mehr als 500 Fahrzeugen und 26 Linien (Stand 2017), der größte Betrieb auf dem amerikanischen Kontinent liegt in der mexikanischen Hauptstadt Mexiko-Stadt mit 379 Fahrzeugen (Höchststand 1986 mit 1045) und acht Linien (Stand 2017). Besonderheiten In manchen Städten bestehen Teilnetze, die nicht mit dem jeweiligen Hauptnetz verbunden sind. So hat die Linie 33 in Bratislava seit ihrer Eröffnung keinerlei Verbindung zu den übrigen Linien. Ebenso besteht das Bukarester Obus-Netz aus zwei autonomen Bereichen. Beim nordkoreanischen Oberleitungsbus Ch’ŏngjin haben sogar alle drei vorhandenen Linien keine Fahrleitungsverbindung untereinander. In Esslingen konnten 1990 beim Oberleitungsbau auf der Vogelsangbrücke die Masten aus statischen Gründen nicht wie geplant im Fundament der Brücke gesetzt werden. Sie wurden deshalb in wesentlich stärkerer Ausführung an beiden Ufern des Neckars aufgestellt. Der Mastabstand von 98 Metern gilt als Weltrekord bei der Fahrleitungsabspannung für Oberleitungsbusse. Die Oberleitungsbusstrecke Murodō–Daikanbō in Japan ist die letzte weltweit, die im Linksverkehr betrieben wird – wenngleich sie nicht im öffentlichen Straßenraum verläuft. In allen anderen Ländern mit existierenden Oberleitungsbusnetzen wird hingegen rechts gefahren. Als Zubehör für Modelleisenbahnen fertigte die Firma Eheim ab 1950 voll funktionsfähige Oberleitungsbusse in der Nenngröße H0, das heißt im Maßstab 1:87. 1963 wurde die Modellbausparte von Eheim durch die Firma Brawa übernommen, die dann 1967 auch ein Programm in Nenngröße N herausbrachte. Die Produktion von Modell-Oberleitungsbussen wurde schließlich im Jahr 2000 eingestellt. Das Trolleybusunternehmen in der nordkoreanischen Hauptstadt Pjöngjang unterhält, wie auch die Nordkoreanische Eisenbahn und die U-Bahn Pjöngjang, einen eigenen Radiosender. In der Sowjetunion existierten zu Zeiten der Perestroika zu Verkaufswagen beziehungsweise Verkaufsfahrzeugen von privaten Handelskooperativen umfunktionierte Trolleybusse, so etwa 1989 in Charkiw und Poltawa. Sie hatten bestimmte Halteplätze, an denen – rechts neben der Oberleitung für die Linienwagen – eine separate Standspur für die Stromversorgung der mobilen Läden montiert wurde. Mangels Luftweichen mussten die Stromabnehmerstangen dabei manuell umgelegt werden. Im russischen Orenburg verbindet die Trolleybuslinie 10 Europa mit Asien. Im Nordwesten Tschechiens unterhielt das Unternehmen Škoda von 1963 bis 2004 eine eigene Werksteststrecke für Obusse. Sie war 6,1 Kilometer lang, bis zu zwölf Prozent steil und führte von Dolní Žďár nach Jáchymov. In São Paulo operieren zwei verschiedene Obus-Gesellschaften parallel zueinander: Die São Paulo Transportes (SPT) betreibt 14 Linien im Stadtbereich, und die Empresa Metropolitana des Transportes Urbanos (EMTU) weitere sechs Linien in die Vororte. Die beiden Netze treffen zwar am Umsteigeknoten Terminal São Mateus aufeinander, sind jedoch physisch nicht miteinander verbunden. Während der COVID-19-Pandemie kamen in der moldauischen Hauptstadt Chișinău Trolleybusse als mobiles Impfzentrum zum Einsatz In Anspielung an den ehemaligen Oberleitungsbus Kapfenberg (1944–2002) in der nordöstlichen Nachbarstadt von Bruck an der Mur wird der Rufbus (2017–2022) in den westlichen Stadtteil Oberaich O-Bus genannt. In Chicago dienten früher mit einem Schneepflug ausgestattete Oberleitungsbusse dem Winterdienst. Siehe auch Liste der Hersteller von Oberleitungsbussen Autoscooter, Oberleitungsboot und Oberleitungsfähre – ebenfalls nicht-spurgeführte Fahrzeuge mit Stromabnehmern und Oberleitung Literatur Ashley R. Bruce: Lombard-Gerin and Inventing the Trolleybus. Trolleybooks (UK), 2017, ISBN 978-0-904235-25-8 (englisch). Frank Dittmann: Eine Nischentechnik in der Systemauseinandersetzung. Obusse in beiden deutschen Staaten. In: Technikgeschichte, Bd. 64 (1997), H. 2, S. 103–124. Felix Förster: 20 Jahre Blütezeit. Obusse in Deutschland ab 1930. In: Straßenbahn Magazin 01/2019, GeraMond, S. 58–62. Felix Förster: Zukunft dank Duo-Lösungen. Obusse in Deutschland heute und in Zukunft. In: Straßenbahn Magazin 03/2019, GeraMond, S. 28–31. Felix Förster: Wie die „gleislose Bahn“ das Rollen lernte. Obusse in Deutschland 1882 bis 1928. In: Straßenbahn Magazin 12/2018, GeraMond, S. 66–70. Ludger Kenning, Mattis Schindler: Obusse in Deutschland. Band 1: Berlin – Brandenburg – Mecklenburg-Vorpommern, Schleswig-Holstein – Hamburg – Bremen – Niedersachsen, Sachsen-Anhalt – Thüringen – Sachsen, Frühere deutsche Ostgebiete. Kenning, Nordhorn 2009, ISBN 978-3-933613-34-9. Weblinks Einzelnachweise Elektrokraftfahrzeug Wikipedia:Artikel mit Video
Q5639
162.332883
259588
https://de.wikipedia.org/wiki/Gilan
Gilan
Gilan (; englisch auch Guilan) ist eine von 31 Provinzen Irans. Die Hauptstadt ist Rascht. In der Provinz leben 2.530.696 Menschen (Volkszählung 2016). Die Provinz in Nord-Iran am Kaspischen Meer umfasst 14.042 Quadratkilometer und hat eine Bevölkerungsdichte von 180 Einwohnern pro Quadratkilometer. Geographie Gilan zeichnet sich durch ein feuchtes Klima aus, liegt im Norden Irans und grenzt im Norden an das Kaspische Meer, im Westen an die Provinz Ardabil, im Osten an die Provinz Mazandaran sowie im Süden an die Provinzen Zandschan und Qazvin. Gilan enthält nach der letzten administrativen Einteilung 1996 die Städte Astara, Astane-ye Aschrafiye, Bandar-e Anzali, Rascht, Rudbar, Rudsar, Some'e-sara, Fuman, Lāhidschān, Langerud, Talesch und Schaft. Bevölkerung Von den Einwohnern wohnten 1996 46,8 % in Städten und 53,2 % auf dem Land. Die meisten Einwohner sprechen Gilaki als Erstsprache. Außerdem wird im Nordwesten der Provinz (Talesch) Taleschi gesprochen. Seit einigen Jahrzehnten dominiert in einigen Räumen Taleschs jedoch Azeri, die mit dem Türkischen verwandte Sprache der aserbaidschanischen Bevölkerung aus dem Nordwestiran (die Provinzen Ardebil sowie West- und Ost-Aserbaidschan). Kleinere Minderheiten sprechen Galeschi, Kurdisch, Tati und Domari (Roma). Geschichte Das eisenzeitliche Gräberfeld von Amlasch liegt in der Provinz Gilan. Im Zuge des Russisch-Persischen Krieges (1722–1723) besetzten im Spätherbst 1722 russische Truppen die Stadt Rascht, angeblich um sie zu beschützen. Im Februar 1723 versicherte der Gouverneur der Stadt, dass die persischen Truppen selbst für Sicherheit sorgen könnten und dass die Russen bitte abziehen mögen. Das Versprechen, ihre Truppen zurückzuziehen, brachen die Russen jedoch; sie wurden deshalb in ihrer Kaserne belagert. Ende März 1723 brachen die russischen Truppen aus, was mehr als 1000 persische Soldaten das Leben kostete und den persischen Schah Tahmasp II. zu Verhandlungen zwang. Sein Botschafter Ismail Beg musste im September 1723 den erniedrigenden Vertrag von Sankt Petersburg unterschreiben. Zu den Bestimmungen dieses Vertrages gehörte, dass Gilan an Russland abgetreten würde. Der russische Kaiser Peter der Große wollte die neu erworbenen Gebiete permanent an Russland angliedern. Er ließ die Burgen Derbent und Heiligkreuz ausbauen und sich Informationen über die wirtschaftlichen Grundlagen der eroberten Regionen senden. Im Mai 1724 schrieb er an den russischen Kommandeur von Rascht, er solle Armenier und andere Christen nach Gilan und Mazandaran einladen und sie ansiedeln, während die Zahl der Muslime in aller Stille, so dass sie es nicht merken, reduziert werden sollte. Die russische Okkupation richtete in der Praxis jedoch große wirtschaftliche Schäden an. Die Seidenproduktion ging stark zurück und erholte sich viele Jahre nicht, weil die Seidenhersteller aus der Provinz geflohen waren. Für Russland war die Besetzung der persischen Provinzen teuer; mehr als die Hälfte der Soldaten kehrte vom Feldzug nicht zurück. Die Nachfolger von Peter dem Großen entschieden sich, mit Persien Frieden zu schließen, selbst wenn dafür die besetzten Provinzen zurückgegeben werden müssten. Im Vertrag von Rascht von 1732 wurde festgelegt, dass Gilan an Persien zurückgegeben wird. Danach waren Gilan und seine Hauptstadt Rascht noch 1909/11–12, 1915–18 (Gilan als russische Marionettenrepublik), 1920–21 und 1941–46 von Russland bzw. der Sowjetunion besetzt. Hier wurde die Iranische Sowjetrepublik errichtet. Verwaltungsgliederung Die Provinz Gilan gliedert sich in 16 Verwaltungsbezirke (Schahrestan): Amlasch Astara Astane-ye Aschrafiye Bandar-e-Anzali Fuman Lāhījān Langrud Masal Rascht Rezvanshahr Rudbar Rudsar Schaft Siahkal Some'e-sara Talesch Sehenswürdigkeiten Die Hafenstadt Bandar-e Anzali Das Dorf Masuleh Die Ausgrabungsstätten von Talesch Hochschulen (englisch) University of Gilan Islamic Azad University of Astara Islamic Azad University of Bandar Anzali Islamic Azad University of Rasht Islamic Azad University of Lahijan Islamic Azad University of Talesh Gilan University of Medical Sciences Institute of Higher Education for Academic Jihad of Rasht Technical & Vocational Training Organization of Gilan Siehe auch Verwaltungsgliederung des Iran Iranische Sowjetrepublik Kaspischer Hyrcania-Mischwald Gandsch Par, altpaläolithischer Fundort am Sefid Rud Marlik, archäologischer Fundort Literatur Yukako Goto: Die südkaspischen Provinzen des Iran unter den Safawiden im 16. und 17. Jahrhundert. Klaus Schwarz Verlag, Berlin 2011, ISBN 978-3-87997-382-8. Nasrollah Kasraian, Ziba Arshi: Our Homeland Iran. Sekké Press, Iran 1990; 10. Auflage ebenda 1998, ISBN 964-6194-91-5, Foto-Nr. 88–95. Weblinks Gilan Eintrag in der Encyclopædia Iranica Guilan University of Medical Sciences Health Information Center Gilan Cultural Heritage Organization (An excellent source of info in Persian) Guilan Province Office of Tourism Einzelnachweise Iranische Provinz
Q928828
219.209756
27403
https://de.wikipedia.org/wiki/Ellipse
Ellipse
Ellipsen sind in der Geometrie spezielle geschlossene ovale Kurven. Sie zählen neben den Parabeln und den Hyperbeln zu den Kegelschnitten. Eine anschauliche Definition verwendet die Eigenschaft, dass die Summe der Abstände eines Ellipsenpunktes von zwei vorgegebenen Punkten, den Brennpunkten, für alle Punkte gleich ist. Sind die Brennpunkte identisch, erhält man einen Kreis. Jede Ellipse lässt sich in einem geeigneten Koordinatensystem durch eine Gleichung oder Parameterdarstellung beschreiben. Hieran erkennt man, dass man eine Ellipse als einen an der x-Achse um und an der y-Achse um gestreckten Einheitskreis auffassen kann. Die Ellipse (von ‚Mangel‘) wurde von Apollonios von Perge (etwa 262–190 v. Chr.) eingeführt und benannt, die Bezeichnung bezieht sich auf die Exzentrizität . Ellipsen treten nicht nur als ebene Schnitte eines Kegels auf. Auch auf Zylindern, Ellipsoiden, Hyperboloiden und elliptischen Paraboloiden gibt es Ellipsen. In der Natur treten Ellipsen in Form von ungestörten keplerschen Planetenbahnen um die Sonne auf. Auch beim Zeichnen von Schrägbildern werden häufig Ellipsen benötigt, da ein Kreis durch eine Parallelprojektion im Allgemeinen auf eine Ellipse abgebildet wird (siehe Ellipse (Darstellende Geometrie)). Definition einer Ellipse als geometrischer Ort Es gibt verschiedene Möglichkeiten, Ellipsen zu definieren. Neben der üblichen Definition über gewisse Abstände von Punkten ist es auch möglich, eine Ellipse als Schnittkurve zwischen einer entsprechend geneigten Ebene und einem Kegel zu bezeichnen (siehe 1. Bild) oder als affines Bild des Einheitskreises. Eine Ellipse ist der geometrische Ort aller Punkte der Ebene, für die die Summe der Abstände zu zwei gegebenen Punkten und gleich einer gegebenen Konstante ist. Diese Konstante wird üblicherweise mit bezeichnet. Die Punkte und heißen Brennpunkte: Um eine Strecke auszuschließen, setzt man voraus, dass größer als der Abstand der Brennpunkte ist. Falls die beiden Brennpunkte zusammenfallen, ist ein Kreis mit Radius . Dieser einfache Fall wird in den folgenden Überlegungen oft stillschweigend ausgeschlossen, da die meisten Aussagen über Ellipsen im Kreisfall trivial werden. Der Mittelpunkt der Strecke heißt Mittelpunkt der Ellipse. Die Gerade durch die Brennpunkte ist die Hauptachse und die dazu orthogonale Gerade durch die Nebenachse. Die beiden Ellipsenpunkte auf der Hauptachse sind die Hauptscheitel. Der Abstand der Hauptscheitel zum Mittelpunkt ist und heißt die große Halbachse. Die beiden Ellipsenpunkte auf der Nebenachse sind die Nebenscheitel, und ihr Abstand zum Mittelpunkt ist jeweils die kleine Halbachse . Den Abstand der Brennpunkte zum Mittelpunkt nennt man die lineare Exzentrizität und die numerische Exzentrizität. Mit dem Satz des Pythagoras gilt (siehe Zeichnung). Die Gleichung kann man auch so interpretieren: Wenn der Kreis um mit Radius ist, dann ist der Abstand des Punktes zum Kreis gleich dem Abstand des Punktes zum Brennpunkt : heißt Leitkreis der Ellipse bzgl. des Brennpunktes . Diese Eigenschaft sollte man nicht verwechseln mit der Leitlinieneigenschaft einer Ellipse (s. unten). Mit Hilfe Dandelinscher Kugeln beweist man: Jeder Schnitt eines Kegels mit einer Ebene, die die Kegelspitze nicht enthält, und deren Neigung kleiner als die der Mantellinien des Kegels ist, ist eine Ellipse. Aufgrund der Leitkreis-Eigenschaft ist eine Ellipse die Äquidistanz-Kurve zu jedem ihrer Brennpunkte und dem Leitkreis mit dem anderen Brennpunkt als Mittelpunkt. Ellipse in kartesischen Koordinaten Gleichung A. Führt man kartesische Koordinaten so ein, dass der Mittelpunkt der Ellipse im Ursprung liegt, die -Achse die Hauptachse ist, und die Brennpunkte die Punkte , die Hauptscheitel sind, so ergibt sich für einen beliebigen Punkt der Abstand zum Brennpunkt als und zum zweiten Brennpunkt . Also liegt der Punkt genau dann auf der Ellipse, wenn die folgende Bedingung erfüllt ist: Nach Beseitigung der Wurzeln durch geeignetes Quadrieren und Verwenden der Beziehung (s. o.) erhält man die Gleichung oder nach aufgelöst sind die Nebenscheitel. Aus der Beziehung erhält man die Gleichungen und Daraus ergeben sich noch die Beziehungen Ist , so ist und die Ellipse ein Kreis. Ist , so ist , und man nennt die Ellipse eine gleichseitige Ellipse oder Ellipse schönster Form. Diese entsteht z. B., wenn man einen Drehzylinder mit einer gegen die Zylinderachse um 45° geneigten Ebene schneidet: Die Länge der kleinen Halbachse der Ellipse ist dabei gleich dem Radius des Zylinders. B. Die Ellipse in A. lässt sich auch mithilfe einer Bilinearform als Lösungsmenge der Gleichung auffassen. Hierbei werden die Vektoren und mit dem gleichen Punkt identifiziert. Bei Einführung kartesischer Koordinaten ist die Matrix , ein Zeilenvektor und ein Spaltenvektor. C. Eine Ellipse mit dem Mittelpunkt im Ursprung und den Brennpunkten auf der -Achse heißt auch in 1. Hauptlage. Wenn hier die obige Ellipsengleichung erwähnt wird, wird immer angenommen, dass und damit die Ellipse in 1. Hauptlage ist, was im „realen Leben“ aber nicht sein muss. Da kann durchaus auch vorkommen, was bedeutet, dass die Ellipse sich in 2. Hauptlage befindet (die Brennpunkte liegen auf der -Achse). Aufgrund der Definition einer Ellipse gilt: Eine Ellipse ist symmetrisch zu ihren Achsen und damit auch zu ihrem Mittelpunkt. (Die Symmetrieeigenschaft lässt sich auch leicht an der hier abgeleiteten Gleichung einer Ellipse erkennen.) Halbparameter Die halbe Länge einer Ellipsensehne, die durch einen Brennpunkt geht und zur Hauptachse senkrecht verläuft, nennt man den Halbparameter, manchmal auch nur Parameter oder auch semi-latus rectum (die Hälfte des latus rectum = ) der Ellipse. Mit Hilfe der Gleichung einer Ellipse rechnet man leicht nach, dass gilt. Der Halbparameter hat noch die zusätzliche Bedeutung (s. unten): Der Krümmungsradius in den Hauptscheiteln ist . Tangente A. Für den Hauptscheitel bzw. hat die Tangente die Gleichung bzw. . Die einfachste Weise, die Gleichung der Tangente in einem Ellipsenpunkt zu bestimmen, ist, die Gleichung der Ellipse implizit zu differenzieren. Hiermit ergibt sich für die Ableitung und damit die Punkt-Steigungs-Form der Tangente im Punkt : Berücksichtigt man , so erhält man als Gleichung der Tangente im Punkt : Diese Form schließt auch die Tangenten durch die Hauptscheitel ein. Letzteres gilt auch für die Vektorform . B. Die in A. eingeführte Tangentengleichung lässt sich auch ohne Differentialrechnung als Spezialfall einer Polarengleichung einführen (s. u. Herleitung der Lagebeziehungen von Pol und Polare, D.). Sie entspricht einer Normalenform mit dem Normalenvektor . Von diesem lässt sich ein dazu rechtwinkeliger Richtungsvektor von ablesen. Da nur bis auf einen Skalar eindeutig ist, hat er die Formen ; dies liefert den Richtungsvektor der in A. angegebenen Vektorform und auch die Steigung der dort angegebenen Punktsteigungsform. Eine zeichnerische Bestimmung von Ellipsentangenten findet man im Artikel Ellipse (Darstellende Geometrie). Gleichung einer verschobenen Ellipse Verschiebt man die obige Ellipse so, dass der Mittelpunkt der Punkt ist, ergibt sich die Mittelpunktsform einer Ellipse, deren Achsen parallel zu den Koordinatenachsen sind: Parameterdarstellungen Standarddarstellung Die übliche Parameterdarstellung einer Ellipse verwendet die Sinus- und Kosinus-Funktion. Wegen beschreibt die Ellipse Verschiedene Möglichkeiten, den Parameter geometrisch zu interpretieren, werden im Abschnitt Ellipsen zeichnen angegeben. Rationale Parameterdarstellung Mit der Substitution und trigonometrischen Formeln erhält man und damit die rationale Parameterdarstellung einer Ellipse: Die rationale Parameterdarstellung hat folgende Eigenschaften (s. Bild): Für wird der positive Hauptscheitel dargestellt: ; für der positive Nebenscheitel: . Übergang zur Gegenzahl des Parameters spiegelt den dargestellten Punkt an der -Achse: . Übergang zum Kehrwert des Parameters spiegelt den dargestellten Punkt an der -Achse: . Der negative Hauptscheitel kann mit keinem reellen Parameter dargestellt werden. Die Koordinaten desselben sind die Grenzwerte der Parameterdarstellung für unendliches positives oder negatives : . Rationale Parameterdarstellungen der Kegelschnitte (Ellipse, Hyperbel, Parabel) spielen im CAD-Bereich bei quadratischen rationalen Bezierkurven eine wichtige Rolle. Tangentensteigung als Parameter Eine Parameterdarstellung, die die Tangentensteigung in dem jeweiligen Ellipsenpunkt verwendet, erhält man durch Differentiation der Parameterdarstellung : Mit Hilfe trigonometrischer Formeln ergibt sich Ersetzt man in der Standarddarstellung und , erhält man schließlich Dabei ist die Tangentensteigung im jeweiligen Ellipsenpunkt, die obere und die untere Hälfte der Ellipse. Die Punkte mit senkrechten Tangenten (Scheitel ) werden durch diese Parameterdarstellung nicht erfasst. Die Gleichung der Tangente im Punkt hat die Form . Der -Abschnitt ergibt sich durch Einsetzen der Koordinaten des zugehörigen Ellipsenpunktes : Diese Hauptform der Tangentengleichung ist ein wesentliches Hilfsmittel bei der Bestimmung der orthoptischen Kurve einer Ellipse. Bemerkung: Die Hauptform der Tangentengleichung und die Koordinaten von lassen sich auch ohne Differentialrechnung und ohne trigonometrische Formeln herleiten, indem die Tangente als Spezialfall einer Polare aufgefasst wird (s. u. Herleitung der Lagebeziehungen von Pol und Polare, D.) Verschobene Ellipse Eine verschobene Ellipse mit Mittelpunkt wird durch beschrieben. Eine Parameterdarstellung einer beliebigen Ellipse ist in dem Abschnitt Ellipse als affines Bild des Einheitskreises enthalten. Eigenschaften Brennpunkteigenschaft Die Verbindungslinie zwischen einem Brennpunkt und einem Punkt der Ellipse heißt Brennlinie, Leitstrahl oder Brennstrahl. Ihren Namen erhielten Brennpunkte und Brennstrahlen aufgrund der folgenden Eigenschaft: Der Winkel zwischen den beiden Brennstrahlen in einem Punkt der Ellipse wird durch die Normale in diesem Punkt halbiert. Anwendungen Der Einfallswinkel, den der eine Brennstrahl mit der Tangente bildet, ist gleich dem Ausfallswinkel, den die Tangente mit dem anderen Brennstrahl bildet. Ein Lichtstrahl, der von einem Brennpunkt ausgeht, wird demnach an der Ellipsentangente so reflektiert, dass er den anderen Brennpunkt trifft. Bei einem ellipsenförmigen Spiegel treffen sich demnach alle von einem Brennpunkt ausgehenden Lichtstrahlen in dem anderen Brennpunkt. Da alle Wege von einem zum anderen Brennpunkt (entlang zusammengehöriger Brennstrahlen) gleich lang sind, wird z. B. Schall durch konstruktive Interferenz „verstärkt“ übertragen. Die Tangente im Ellipsenpunkt ist die Winkelhalbierende des Außenwinkels. Da Winkelhalbierenden leicht zu konstruieren sind, bietet die Brennpunkteigenschaft eine einfache Methode, die Tangente in einem Ellipsenpunkt zu konstruieren (Eine weitere Tangentenkonstruktion wird in Ellipse (Darstellende Geometrie) beschrieben.). Zwei Ellipsen mit denselben Brennpunkten nennt man konfokal. Durch jeden Punkt, der nicht zwischen den Brennpunkten liegt, gibt es genau eine Ellipse mit den Brennpunkten . Zwei konfokale Ellipsen haben keinen Schnittpunkt (s. Definition einer Ellipse). Beweis der Brennpunkteigenschaft Da die Tangente senkrecht zur Normalen verläuft, ist die obige Behauptung bewiesen, wenn die analoge Aussage für die Tangente gilt: Der Außenwinkel der Brennstrahlen in einem Ellipsenpunkt wird von der Tangente in diesem Punkt halbiert (s. Bild). Es sei der Punkt auf der Geraden mit dem Abstand zum Brennpunkt ( ist die große Halbachse der Ellipse). Die Gerade sei die Winkelhalbierende der Außenwinkel der Brennstrahlen . Um nachzuweisen, dass die Tangente ist, zeigt man, dass auf kein weiterer Ellipsenpunkt liegen kann. Anhand der Zeichnung und der Dreiecksungleichung erkennt man, dass gilt. Dies bedeutet, dass ist. Wenn ein Punkt der Ellipse wäre, müsste die Summe aber gleich sein. Bemerkung: Ein Beweis mit Mitteln der analytischen Geometrie befindet sich im Beweisarchiv. Natürliches Vorkommen und Anwendung in der Technik: Die Decken mancher Höhlen ähneln einer Ellipsenhälfte. Befindet man sich – mit den Ohren – in einem Brennpunkt dieser Ellipse, hört man jedes Geräusch, dessen Ursprung im zweiten Brennpunkt liegt, verstärkt („Flüstergewölbe“). Diese Art der Schallübertragung funktioniert in einigen Stationen der Pariser Métro sogar von Bahnsteig zu Bahnsteig. Das gleiche Prinzip der Schallfokussierung wird heute zur Zertrümmerung von Nierensteinen mit Stoßwellen verwendet. Auch im lampengepumpten Nd:YAG-Laser wird ein Reflektor in Form einer Ellipse verwendet. Die Pumpquelle – entweder eine Blitzlampe oder eine Bogenlampe – wird in dem einen Brennpunkt positioniert, und der dotierte Kristall wird in den anderen Brennpunkt gelegt. Direktrix Für eine echte Ellipse, d. h. , bezeichnet man eine Parallele zur Nebenachse im Abstand als Direktrix oder Leitlinie. Für einen beliebigen Punkt der Ellipse ist das Verhältnis seines Abstands von einem Brennpunkt zu dem Abstand von der Direktrix auf der entsprechenden Seite der Nebenachse gleich der numerischen Exzentrizität: Es ist Beweis: Mit sowie und den binomischen Formeln ist . Die Umkehrung dieser Aussage gilt auch und kann zu einer weiteren Definition einer Ellipse benutzt werden (ähnlich wie bei einer Parabel): Für einen Punkt (Brennpunkt), eine Gerade (Leitlinie) nicht durch und eine reelle Zahl mit ist die Menge der Punkte (geometrischer Ort), für die der Quotient der Abstände zu dem Punkt und der Geraden gleich ist, eine Ellipse: Die Wahl , also die Exzentrizität eines Kreises, ist in diesem Zusammenhang nicht erlaubt. Man kann als Leitlinie eines Kreises die unendlich entfernte Gerade auffassen. Beweis: Es sei und ein Punkt der Kurve. Die Leitlinie hat die Gleichung . Mit und der Beziehung ergibt sich und Die Substitution liefert Dies ist die Gleichung einer Ellipse () oder einer Parabel () oder einer Hyperbel (). All diese nicht-ausgearteten Kegelschnitte haben den Ursprung als Scheitel gemeinsam (s. Bild). Für führt man neue Parameter und ein; die obige Gleichung wird dann zu was die Gleichung einer Ellipse mit Mittelpunkt , der -Achse als Hauptachse und den Halbachsen ist. Allgemeiner Fall: Für den Brennpunkt und die Leitlinie erhält man die Gleichung Die rechte Seite der Gleichung benutzt die Hessesche Normalform einer Geraden, um den Abstand eines Punktes von einer Geraden zu berechnen. Konstruktion der Leitlinie: Wegen sind der Punkt der Leitlinie (siehe Bild) und der Brennpunkt bezüglich der Spiegelung am großen Scheitelkreis (im Bild grün) invers. Damit kann wie im Bild gezeigt aus mit Hilfe des großen Scheitelkreises konstruiert werden. Eine weitere Begründung für die Konstruktion liefert die Tatsache, dass der Brennpunkt und die Leitlinie sowohl bezüglich der Ellipse als auch bezüglich des großen Scheitelkreises ein Pol-Polare-Paar (siehe unten) bilden. Konjugierte Durchmesser Betrachtet man zu einem beliebigen Ellipsendurchmesser (einer Ellipsensehne durch den Ellipsenmittelpunkt) alle parallelen Sehnen, so liegen deren Mittelpunkte ebenfalls auf einem Ellipsendurchmesser . Man nennt den zu konjugierten Durchmesser. Bildet man zum konjugierten Durchmesser erneut den konjugierten Durchmesser, so erhält man wieder den ursprünglichen. In der Zeichnung stimmt also der zu konjugierte Durchmesser mit dem ursprünglichen Durchmesser überein. Die Tangenten in den Endpunkten eines Durchmessers (etwa ) sind parallel zum konjugierten Durchmesser (im Beispiel ). Haupt- und Nebenachse sind das einzige Paar orthogonaler konjugierter Durchmesser. Ist die Ellipse ein Kreis, so sind genau die orthogonalen Durchmesser (auch) konjugiert. Sind konjugierte Durchmesser nicht orthogonal, so ist das Produkt ihrer Steigungen . Seien , konjugierte Durchmesser. Dann ist . (Satz des Apollonius) Für die Ellipse mit der Gleichung und der Parameterdarstellung gilt: ( Vorzeichen: (+,+) oder (−,−) ) ( Vorzeichen: (−,+) oder (+,−) ) liegen auf konjugierten Durchmessern und es ist Im Fall eines Kreises gilt Konjugierte Durchmesser (erstrangig von Ellipsen) werden auch auf einer eigenen Wikipedia-Seite behandelt, ebenso der Satz des Apollonius (samt Beweis). Ein analytischer Gesamt-Beweis sämtlicher hier aufgeführter Aussagen, der von der gemeinsamen Bilinearform zweier Ursprungsgeraden ausgeht, findet sich im Beweisarchiv. Dieser Beweis benötigt weder trigonometrische Funktionen noch Parameterdarstellungen noch eine affine Abbildung. Eine Anwendungsmöglichkeit im Bereich des technischen Zeichnens besteht in der Möglichkeit, den höchsten Punkt einer Ellipse oder eines Ellipsenbogens beliebiger Lage über einer Linie zu finden – nützlich z. B. für korrekte 2D-Darstellungen nicht-orthogonaler Ansichten zylindrischer Körper oder abgerundeter Kanten ohne Verwendung von 3D-Programmen. Wichtig ist dies für den sauberen Anschluss tangential von der Ellipse weg laufender Linien. Hierzu sind in die Ellipse oder den Ellipsenbogen zwei Sehnen parallel zur gewünschten Tangentenrichtung und die durch die Mittelpunkte der beiden Sehnen definierte Linie des zugehörigen konjugierten Durchmessers einzuzeichnen. Der Schnittpunkt dieser Linie mit der Ellipse oder dem Ellipsenbogen definiert den Anschlusspunkt der Tangente (und normalerweise den Endpunkt des Ellipsenbogens). Orthogonale Tangenten Für die Ellipse liegen die Schnittpunkte orthogonaler Tangenten auf dem Kreis . Diesen Kreis nennt man die orthoptische Kurve der gegebenen Ellipse, es ist der Umkreis des Rechtecks, das die Ellipse umschreibt. Pol-Polare-Beziehung Führt man kartesische Koordinaten so ein, dass der Mittelpunkt der Ellipse im Ursprung liegt, so kann eine beliebige Ellipse mit der Gleichung beschrieben werden (s. o. Abschnitt Gleichung). Weiter ordnet für eine vorgegebene Ellipse eine Funktion je einem Punkt die Gerade zu. Bezüglich heißt Pol, die zugeordnete Gerade Polare. ist eine Bijektion; die inverse Funktion bildet je eine Polare auf einen Pol ab. Der Ellipsenmittelpunkt ist in keiner so definierten Polare enthalten, entsprechend existiert zu keine Polare. Die angegebene Gleichung der Polare lässt sich als Normalenform mit dem zugehörigen Normalenvektor auffassen. Eine solche Beziehung zwischen Punkten und Geraden, die durch einen Kegelschnitt vermittelt wird, nennt man Pol-Polare-Beziehung oder einfach Polarität. Pol-Polare-Beziehungen gibt es auch für Hyperbeln und Parabeln, siehe auch Pol und Polare. Zu Pol und Polare gelten folgende Lagebeziehungen: Der Brennpunkt und die Leitlinie sind polar zueinander. Da beide auch polar bezüglich des Scheitelkreises sind, lässt sich die Leitlinie auch mit Hilfe von Zirkel und Lineal konstruieren (siehe hierzu auch Kreisspiegelung). (1) Genau dann, wenn der Pol außerhalb der Ellipse liegt, hat die Polare zwei Punkte mit der Ellipse gemeinsam (s. Bild: ). (2) Genau dann, wenn der Pol auf der Ellipse liegt, hat die Polare genau einen Punkt mit der Ellipse gemeinsam (= die Polare ist eine Tangente; s. Bild: ). (3) Genau dann, wenn der Pol innerhalb der Ellipse liegt, hat die Polare keinen Punkt mit der Ellipse gemeinsam (s. Bild: ). (4) Jeder gemeinsame Punkt einer Polare und einer Ellipse ist Berührpunkt einer Tangente vom zugehörigen Pol an die Ellipse (s. Bild: ). (5) Der Schnittpunkt zweier Polaren ist der Pol der Geraden durch die Pole. (6) Herleitung der Lagebeziehungen von Pol und Polare; alternative Herleitung einer Tangenten- und einer Ellipsengleichung A. Ist eine Polare parallel zur -Achse, so hat sie auch die Form . Mit dem zugehörigen Normalenvektor ist der zugehörige Pol Insbesondere folgt für die Polarität (1) von Brennpunkt und Direktrix. Einsetzen der betrachteten Polare in die Mittelpunktform einer Ellipse ergibt für die Ordinate eines beliebigen Schnittpunkts die Bedingung ; die Diskriminante dieser quadratischen Gleichung in hat bis auf einen positiven Faktor die Form . B. Ist eine Polare nicht parallel zur -Achse, so hat sie die Hauptform . Wegen lässt sich diese in die Normalenform umformen. Vergleich mit der Normalenform ergibt als Darstellung Koordinaten des Pols mit den Parametern der Hauptform: . Einsetzen der Hauptform in die Mittelpunktform einer Ellipse ergibt für die Abszisse eines beliebigen Schnittpunkts die Bedingung ; die Diskriminante dieser quadratischen Gleichung in hat bis auf einen positiven Faktor die Form C. Insgesamt erlaubt der Term bzw. für eine beliebige Polare folgende Unterscheidung paarweise disjunkter Fälle: Für hat die Polare mit der Ellipse keinen Punkt gemeinsam, und der Pol liegt innerhalb der Ellipse. Hieraus folgt (2). Für hat die Polare mit der Ellipse genau einen Punkt gemeinsam, und der Pol liegt auf der Ellipse. Also ist die Polare eine Tangente an die Ellipse, der Pol ihr Berührpunkt (s. Bild: ). Hieraus folgt (3). Für hat die Polare mit der Ellipse zwei Punkte gemeinsam, und der Pol liegt außerhalb der Ellipse. Hieraus folgt (4). D. Ist eine Tangente nicht senkrecht, so ergibt Auflösung der Gleichung nach und Einsetzen von die Hauptform der Tangente: ; Einsetzen von in die Koordinaten des Berührpunkts ergibt die Koordinaten der Parameterdarstellung einer Ellipse mit der Steigung als Parameter: ; diese Parameterdarstellung erfasst die Hauptscheitel nicht. E. Ausgehend von der im Abschnitt „Gleichung“, B. aufgeführten Bilinearform der Ellipse hat die Polare zum Punkt die Normalenformen mit dem Normalenvektor und mit dem Normalenvektor . Ist ein Punkt der Ellipse, so beschreiben auch diese Gleichungen eine Tangente. Diese koordinatenfreie rechnerische Darstellung der Polare eignet sich für Beweise. Mit den Koordinatendarstellungen und sowie den im Abschnitt „Gleichung“ angegebenen Matrizenkoordinaten für entsteht durch Auswertung der Matrizenprodukte wieder die im Abschnitt Pol-Polare-Beziehung angegebene Gleichung . Beweis von (5) („Jeder gemeinsame Punkt einer Polare und einer Ellipse ist Berührpunkt einer Tangente vom zugehörigen Pol an die Ellipse.“): Da die Ellipsenpunkte auf der Polare zu liegen, gilt und . Fasst man in diesen Gleichungen nicht , sondern bzw. als Normalenvektor auf, so besagen sie, dass die Tangenten in den Ellipsenpunkten den Punkt gemeinsam haben. Beweis von (6) („Der Schnittpunkt zweier Polaren ist der Pol der Gerade durch die Pole.“): Für einen Schnittpunkt zweier Polaren zu und gilt und . Fasst man in diesen Gleichungen nicht bzw. , sondern als Normalenvektor auf, so besagen sie, dass auf der Polare zu die Punkte , liegen. Weiter zeigt die Betrachtung der Parameterform mit die punktweise Gleichheit der Gerade mit der Polare zu . Ellipse als affines Bild des Einheitskreises Eine andere Definition der Ellipse benutzt eine spezielle geometrische Abbildung, nämlich die Affinität. Hier ist die Ellipse als affines Bild des Einheitskreises definiert. Parameterdarstellung Eine affine Abbildung in der reellen Ebene hat die Form , wobei eine reguläre Matrix (Determinante nicht 0) und ein beliebiger Vektor ist. Sind die Spaltenvektoren der Matrix , so wird der Einheitskreis auf die Ellipse abgebildet. ist der Mittelpunkt und sind zwei konjugierte Halbmesser (s. u.) der Ellipse. stehen i. A. nicht senkrecht aufeinander. D. h., und sind i. A. nicht die Scheitel der Ellipse. Diese Definition einer Ellipse liefert eine einfache Parameterdarstellung (s. u.) einer beliebigen Ellipse. Scheitel, Scheitelform Da in einem Scheitel die Tangente zum zugehörigen Ellipsendurchmesser senkrecht steht und die Tangentenrichtung in einem Ellipsenpunkt ist, ergibt sich der Parameter eines Scheitels aus der Gleichung und damit aus . (Es wurden die Formeln benutzt.) Falls ist, ist und die Parameterdarstellung schon in Scheitelform. Die 4 Scheitel der Ellipse sind Die Scheitelform der Parameterdarstellung der Ellipse ist Halbachsen Mit den Abkürzungen folgt aus den beiden Sätzen von Apollonios: Löst man nach auf, ergibt sich (s. Steiner-Ellipse) Flächeninhalt Aus dem zweiten Satz von Apollonios folgt: Der Flächeninhalt einer Ellipse ist Für Beispiel 3 ist Beispiele liefert die übliche Parameterdarstellung der Ellipse mit der Gleichung . liefert die Parameterdarstellung der Ellipse, die aus durch Drehung um den Winkel und anschließende Verschiebung um hervorgeht. Die Parameterdarstellung ist schon in Scheitelform. D. h., und sind die Scheitel der Ellipse. Die Parameterdarstellung einer Ellipse ist nicht in Scheitelform. Der Scheitelparameter ergibt sich aus zu . Die Scheitelform der Parameterdarstellung ist: Die Scheitel sind: und die Halbachsen: Implizite Darstellung Löst man die Parameterdarstellung mit Hilfe der Cramerschen Regel nach auf und verwendet , erhält man die implizite Darstellung . Für Beispiel 3 ergibt sich: Dreht man die Ellipse mit der Gleichung um den Nullpunkt (Mittelpunkt), hat ihre Gleichung die Form wobei ist. Liegt umgekehrt die Gleichung einer gedrehten Ellipse vor und man möchte die Vorteile der hier beschriebenen Parameterdarstellung nutzen, bestimmt man die Ortsvektoren zweier konjugierter Punkte. Wählt man als ersten Punkt , ergibt sich: Beispiel: Für die Ellipse mit der Gleichung sind die Ortsvektoren zweier konjugierter Punkte. Ellipse im Raum Sind die Vektoren aus dem , so erhält man eine Parameterdarstellung einer Ellipse im Raum. Peripheriewinkelsatz und 3-Punkteform für Ellipsen Kreise Ein Kreis mit der Gleichung ist durch drei Punkte nicht auf einer Geraden eindeutig bestimmt. Eine einfache Methode, die Parameter zu bestimmen, benutzt den Peripheriewinkelsatz für Kreise: Vier Punkte (s. Bild) liegen genau dann auf einem Kreis, wenn die Winkel bei und gleich sind. Üblicherweise misst man einen einbeschriebenen Winkel in Grad oder Radiant. Um die Gleichung eines Kreises durch 3 Punkte zu bestimmen, ist das folgende Winkelmaß geeigneter: Um den Winkel zwischen zwei Geraden mit den Gleichungen zu messen, wird hier der folgende Quotient benutzt: Dieser Quotient ist der Kotangens des Schnittwinkels der beiden Geraden. Peripheriewinkelsatz für Kreise: Für vier Punkte , keine drei auf einer Geraden (s. Bild), gilt: Die vier Punkte liegen genau dann auf einem Kreis, wenn die Winkel bei und im obigen Winkelmaß gleich sind, d. h., wenn: Das Winkelmaß ist zunächst nur für Sekanten, die nicht parallel zur -Achse sind, verfügbar. Die angegebene vereinfachte Formel ist aber schließlich auch für diese Ausnahmen gültig. Eine Folge des Peripheriewinkelsatzes in dieser Form ist: 3-Punkteform einer Kreisgleichung: Die Gleichung des Kreises durch die 3 Punkte nicht auf einer Geraden ergibt sich durch Umformung der Gleichung (Beseitigung der Nenner und quadratische Ergänzung): Diese Formel lässt sich durch Verwenden der Ortsvektoren, des Skalarproduktes und der Determinante übersichtlicher schreiben: Beispiel: Für ergibt sich zunächst die 3-Punkteform und schließlich Ellipsen In diesem Abschnitt werden nur Ellipsen betrachtet mit Gleichungen für die der Quotient fest (invariant) ist. Mit der Abkürzung erhält man die geeignetere Form und fest. Die Achsen solcher Ellipsen sind parallel zu den Koordinatenachsen und ihre Exzentrizität (s. oben) ist fest. Die Hauptachse ist parallel zur -Achse, falls ist, und parallel zur -Achse, falls ist. Wie beim Kreis ist so eine Ellipse durch drei Punkte nicht auf einer Geraden eindeutig bestimmt. Für diesen allgemeineren Fall führt man das folgende Winkelmaß ein: Um den Winkel zwischen zwei Geraden mit den Gleichungen zu messen, wird hier der folgende Quotient benutzt: Peripheriewinkelsatz für Ellipsen: Für vier Punkte keine drei auf einer Geraden (s. Bild) gilt: Die vier Punkte liegen genau dann auf einer Ellipse mit der Gleichung , wenn die Winkel bei und im obigen Winkelmaß gleich sind, d. h., wenn: Das Winkelmaß ist zunächst nur für Sekanten, die nicht parallel zur -Achse sind, verfügbar. Die angegebene vereinfachte Formel ist aber schließlich auch für diese Ausnahmen gültig. Der Beweis ergibt sich durch einfaches Nachrechnen. Dabei kann man im Fall „Punkte auf einer Ellipse …“ annehmen, dass der Mittelpunkt der Ellipse der Ursprung ist. Eine Folge des Peripheriewinkelsatzes in dieser Form ist: 3-Punkteform einer Ellipsengleichung: Die Gleichung der Ellipse durch die 3 Punkte nicht auf einer Geraden ergibt sich durch Umformung der Gleichung (Beseitigung der Nenner und quadratische Ergänzung): Diese Formel lässt sich (wie beim Kreis) übersichtlicher darstellen durch wobei das hier geeignete Skalarprodukt beschreibt. Beispiel: Für und ergibt sich zunächst die 3-Punkteform und schließlich . Ellipsen zeichnen Ellipsen treten in der darstellenden Geometrie als Bilder von Kreisen auf. Es ist also wichtig, geeignete Werkzeuge zur Verfügung zu haben, mit denen man Ellipsen zeichnen kann. Es gibt im Wesentlichen drei Typen von Verfahren, mit denen Ellipsen gezeichnet werden: einzelne Punkte, die man mit einem Kurvenlineal zu einer glatten Kurve verbindet, stetige Konstruktionen, die man technisch als Ellipsenzirkel realisieren kann und eine Approximation einer Ellipse mit Hilfe ihrer Scheitelkrümmungskreise und eines Kurvenlineals. Den meisten Ellipsenzirkeln liegen die unten beschriebenen zwei Papierstreifenmethoden zugrunde. Diese waren schon den Griechen (Archimedes und Proklos) bekannt, wie man auch und vieles andere mehr in dem eigenständigen Artikel Ellipsograph des Archimedes nachlesen kann. Wenn kein Ellipsenzirkel zur Verfügung steht, ist die Approximation mit Hilfe der Scheitelkrümmungskreise die schnellste und beste Methode, eine Ellipse zu zeichnen. Für jede hier beschriebene Methode ist die Kenntnis der beiden (Symmetrie-)Achsen und der Halbachsen erforderlich. Ist dies nicht der Fall, was in der darstellenden Geometrie oft vorkommt, so muss man wenigstens den Mittelpunkt und zwei konjugierte Halbmesser kennen. Mit Hilfe der Rytz-Konstruktion lassen sich dann die Scheitel und damit die Achsen und Halbachsen ermitteln. Nur die Parallelogramm-Methode (s. unten) bietet die Möglichkeit, zu zwei konjugierten Halbmessern direkt (ohne Rytz) einzelne Punkte einer Ellipse zu konstruieren. Gärtnerkonstruktion Die definierende Eigenschaft einer Ellipse – die Summe der Abstände zu zwei Punkten ist konstant – nutzt die Gärtnerkonstruktion als einfache Möglichkeit, eine Ellipse zu zeichnen. Hierzu benötigt man einen Faden der Länge und zwei Reißbrettstifte (oder Nägel, Stifte, …), um die beiden Enden des Fadens in den Brennpunkten der zu zeichnenden Ellipse zu befestigen. Führt man einen Stift mit Hilfe des gespannten Fadens (s. Bild) über die Zeichenfläche, so entsteht die durch die Länge des Fadens und die Lage der Brennpunkte definierte Ellipse. Diese einfache Methode gibt Gärtnern die Möglichkeit, ellipsenförmige Beete anzulegen, was der Methode den Namen gab. Eine Variation der Gärtnerkonstruktion zur Konstruktion konfokaler Ellipsen geht auf den irischen Bischof Charles Graves (en) zurück. Antiparallelogramm Beim Abrollen eines Antiparallelogramms zeichnet der Schnittpunkt der beiden langen Stäbe eine Ellipse (blau im Bild). Die Enden des kurzen statischen Stabs definieren die Brennpunkte der Ellipse. Durch die symmetrische Geometrie ergibt sich theoretisch auch um den kurzen umlaufende Stab eine Ellipse (im Bild grün). Diese Konstruktionsvariante ist mit der Gärtnerkonstruktion verwandt. Betrachtet man nur den Anteil innerhalb der statischen Ellipse und ersetzt die beiden inneren Teilstücke der Stäbe mit einer Schur, ergibt sich die äquivalente Gärtnerkonstruktion. Die Mechanik des bewegten Antiparallelogramms ist ein Koppelgetriebe. Die innere Ellipse entspricht der Rastpolbahn, die äußere Ellipse ist die Gangpolbahn des umlaufenden kurzen Stabs. Ellipsenzirkel des Frans van Schooten Im Jahr 1657 veröffentlichte Frans van Schooten in seinem Werk EXERCITATIONUM MATHEMATICARUM LIBRI QUINQUE in LIBER IV die Methode Gärtnerkonstruktion und ein paar Seiten weiter einen Ellipsenzirkel. Basis für den Ellipsenzirkel ist die Gärtnerkonstruktion. Anzumerken ist: In der nebenstehenden originären Darstellung Ellipsenzirkel des Frans van Schooten kann die Ellipsenlinie nicht durch den Scheitelpunkt gezogen werden, sondern nur, z. B. im Uhrzeigersinn, bis die Führungsschiene an der Zirkelnadel im Punkt der Raute anliegt. Damit der Ellipsenzirkel eine komplette Ellipsenlinie zeichnen kann (auch durch die Scheitelpunkte und ), ist es erforderlich, dass zumindest einmal die Einstechposition der Zirkelnadeln und in den Brennpunkten der Ellipse getauscht wird. Die Hauptelemente des rautenförmigen Ellipsenzirkels sind die fünf gleich langen Stäbe mit ihren Gelenkpunkt-Abständen , , , und als Führungsschiene sowie der deutlich längere Diagonalstab ab durch mit dem Klemmelement für den Spielausgleich. Die Führungsschiene mit dem Gelenkpunkt-Abstand und der Diagonalstab überkreuzen sich im Punkt und sind über Führungsnuten mithilfe eines sogenannten Gleitsteins dreh- und schiebbar verbunden. In diesem Gleitstein ist auch der Zeichenstift und ggf. der Handgriff montiert. Der zweite Gleitstein befindet sich im Gelenkpunkt . In den Gelenkpunkten und des Ellipsenzirkels sind die Zirkelnadeln befestigt. Die Länge z. B. des Stabes ist gleich der Länge der Hauptachse . Der Abstand der Gelenkpunkte und bestimmt die Länge der Nebenachse. Je kleiner dieser Abstand ist, umso mehr ähnelt die Ellipse einem Kreis. Betrachtet man eine Hälfte der Raute , d. h. das gleichschenklige Dreieck , so ist der Diagonalstab ab durch als Mittelsenkrechte des Gelenkpunkt-Abstandes erkennbar, die den Stab mit Gelenkpunkt-Abstand in schneidet. Dadurch entsteht das zweite gleichschenklige Dreieck mit den Schenkeln und . Wird nun der Ellipsenzirkel von Hand bewegt, durchläuft der Punkt den Kreis um den Punkt mit dem Radius (gleich ), dabei wirkt der Diagonalstab mit seinem Gelenkpunkt-Abstand konstant als Mittelsenkrechte der sich kontinuierlich verändernden gleichschenkligen Dreiecke und . Daraus folgt: In jeder gedrehten Stellung des Ellipsenzirkels gilt Werden in die weiter oben beschriebene Definition einer Ellipse als geometrischer Ort die Bezeichnungen der betreffenden Punkte, u. a. die Brennpunkte und , aus der Darstellung des Ellipsenzirkels eingesetzt, ergibt sich Damit wird aufgezeigt: Die mit dem rautenförmigen Ellipsenzirkel gezogenen Kurven sind Ellipsen. Um eine Ellipse zu zeichnen, sticht man zuerst zur Lagefixierung des Ellipsenzirkels die Zirkelnadeln der Gelenkpunkte und in die Brennpunkte der Ellipse und zieht anschließend mithilfe des Handgriffs oder ggf. nur mit dem Zeichenstift die Ellipsenlinie. Parameterdarstellung mit Sinus und Kosinus Die übliche Parameterdarstellung einer Ellipse verwendet die Sinus- und Kosinusfunktion. Wegen beschreibt die Ellipse Mit Hilfe dieser Darstellung lassen sich die folgenden Ellipsenkonstruktionen leicht verstehen. Punktkonstruktion nach de La Hire Die nach Philippe de La Hire (1640–1718) benannte Punktkonstruktion benutzt die beiden Scheitelkreise, das sind die Kreise um den Mittelpunkt der Ellipse mit den Halbachsen als Radien. Der Parameter wird hier als der Steigungswinkel eines von ausgehenden Strahls interpretiert. Mit der in der Zeichnung angegebenen Methode wird ein Punkt mit den Koordinaten , also ein Ellipsenpunkt, konstruiert. Dieses Konstruktionsverfahren war allerdings auch schon in der Spätantike bekannt und ging damals auf Proklos Diadochos (412–485) zurück. Papierstreifenmethoden Die beiden Papierstreifenmethoden verwenden zwei weitere Möglichkeiten der geometrischen Interpretation des Parameters der obigen Parameterdarstellung einer Ellipse. Sie liefern die Grundlagen der meisten Ellipsenzirkel. 1. Methode Die erste Methode verwendet einen Papierstreifen der Länge . Der Punkt, in dem sich die Halbachsen treffen, wird mit markiert. Wenn der Streifen nun so bewegt wird, dass die beiden Enden jeweils auf einer Achse gleiten, überstreicht der Punkt die zu zeichnende Ellipse. Der Beweis ergibt sich aus der Parameterdarstellung und der Interpretation des Parameters als Winkel des Papierstreifens mit der -Achse (s. Bild). Eine weitere technische Realisierung des gleitenden Streifens kann man auch mit Hilfe eines Paares cardanischer Kreise erreichen (s. Animation). Der große Kreis hat den Radius . Eine Variation der 1. Papierstreifenmethode geht von der Beobachtung aus, dass der Mittelpunkt des Papierstreifens sich auf dem Kreis mit Mittelpunkt und Radius bewegt. Man kann also den Papierstreifen in der Mitte (Punkt ) trennen und an dieser Stelle ein Gelenk einfügen und den zuvor auf der -Achse gleitenden Punkt in den Mittelpunkt der Ellipse verlegen. Nach dieser Operation bleibt das abgeknickte Ende des Papierstreifens fest (im Punkt ) und der unveränderte Teil des Streifens samt dem Punkt bewegt sich wie zuvor. Der Vorteil dieser Variation ist: Man benötigt nur einen technisch anspruchsvollen Gleitschuh. Auch gegenüber der cardanischen Realisierung der 1. Papierstreifenmethode ist diese Variation technisch einfacher. Man beachte, dass immer dasjenige Ende des Streifens, das auf der Nebenachse gleitet, in den Mittelpunkt verlegt wird! 2. Methode: Die zweite Papierstreifenmethode geht von einem Papierstreifen der Länge aus. Man markiert den Punkt, der den Streifen in zwei Teile der Längen und zerlegt. Der Streifen wird so auf den Achsen positioniert, wie im Bild zu sehen ist. Der Teil, der die Länge besitzt, liegt zwischen den Achsen. Das freie Ende beschreibt dann die zu zeichnende Ellipse. Der Beweis ergibt sich aus der Zeichnung: Der Punkt kann durch die Parameterdarstellung beschrieben werden. Dabei ist der Steigungswinkel des Papierstreifens. Diese Methode benötigt zu ihrer technischen Realisierung auch zwei Gleitschuhe, ist aber flexibler als die erste Papierstreifenmethode. Sie ist die Grundlage für viele Ellipsenzirkel (s. Weblink Ellipsenzirkel). Bemerkung: Auch hier ist eine Variation durch Abknicken des Streifenteils zwischen den Achsen möglich. Es ist dann, wie bei der ersten Methode, nur ein Gleitschuh nötig. Approximation mit Scheitelkrümmungskreisen Aus der Formelsammlung (s. unten) ergibt sich: Der Krümmungsradius für die Hauptscheitel ist der Krümmungsradius für die Nebenscheitel ist Die Zeichnung zeigt eine einfache Methode, die Krümmungsmittelpunkte des Scheitels und des Nebenscheitels zeichnerisch zu bestimmen: Markiere den Hilfspunkt und zeichne die Gerade . Zeichne die Gerade durch , die senkrecht zur Geraden verläuft. Die Schnittpunkte dieser Geraden mit den Ellipsenachsen sind die gesuchten Krümmungsmittelpunkte (Beweis: einfache Rechnung). Die Krümmungsmittelpunkte der restlichen Scheitel ergeben sich aus Symmetrie. Man zeichnet die beiden restlichen Scheitelkrümmungskreise. Mit Hilfe eines Kurvenlineals lässt sich dann eine gute Näherung der Ellipse zeichnen. Steiner-Erzeugung einer Ellipse (Parallelogramm-Methode) Die folgende Idee, einzelne Punkte einer Ellipse zu konstruieren, beruht auf der Steiner-Erzeugung eines Kegelschnitts (nach dem Schweizer Mathematiker Jakob Steiner): Hat man für zwei Geradenbüschel in zwei Punkten (alle Geraden durch den Punkt bzw. ) eine projektive, aber nicht perspektive Abbildung des einen Büschels auf das andere, so bilden die Schnittpunkte zugeordneter Geraden einen nichtausgearteten Kegelschnitt. Für die Erzeugung einzelner Punkte der Ellipse gehen wir von den Geradenbüscheln in den Scheiteln aus. Sei nun der obere Nebenscheitel der Ellipse und . Dann ist der Mittelpunkt des Rechtecks . Wir unterteilen die Rechteckseite in gleiche Stücke, übertragen diese Unterteilung mittels einer Parallelprojektion in Richtung der Diagonalen auf die Strecke (s. Bild) und nummerieren die Unterteilungen wie im Bild. Die benutzte Parallelprojektion zusammen mit der Umkehrung der Orientierung vermittelt die nötige projektive Abbildung der Büschel in und . Die Schnittpunkte der zugeordneten Geraden und liegen dann auf der durch die Vorgaben (3 Punkte, 2 Tangenten) eindeutig bestimmten Ellipse. Mit Hilfe der Punkte lassen sich Punkte auf dem 2. Viertel der Ellipse bestimmen. Analog erhält man Punkte der unteren Hälfte der Ellipse. Bemerkung: a) Benutzt man statt der Scheitel zwei Punkte eines anderen Durchmessers, so muss man für einen Punkt des konjugierten Durchmessers wählen und arbeitet dann mit einem Parallelogramm statt eines Rechtecks. Daher rührt auch der manchmal gebräuchliche Name Parallelogramm-Methode. b) Den Beweis dieser Methode kann man auch am Einheitskreis nachrechnen. Da Teilverhältnisse und Parallelität bei affinen Abbildungen invariant bleiben, ist der Beweis dann auch allgemeingültig. (Eine Ellipse ist ein affines Bild des Einheitskreises!) Auch für Parabel und Hyperbel gibt es Steiner-Erzeugungen. Ellipsen in der Computergrafik Besonders in der Computergrafik lohnt sich die Ableitung einer Ellipse aus einer Kreisform. Eine achsenparallele Ellipse ist dabei einfach ein Kreis, der in einer der Koordinatenrichtungen gestaucht oder gedehnt, mit anderen Worten: anders skaliert wurde. Eine allgemeine, in beliebigem Winkel gedrehte Ellipse kann man aus so einer achsenparallelen Ellipse durch Scherung erhalten, s. a. Bresenham-Algorithmus. Die Punkte werden also numerisch berechnet und gezeichnet. Beispiele Schaut man schräg auf einen Kreis (beispielsweise auf die Deckfläche eines Kreiszylinders), so erscheint dieser Kreis als Ellipse, präziser: Eine Parallelprojektion bildet Kreise im Allgemeinen auf Ellipsen ab. In der Astronomie kommen Ellipsen häufig als Bahnen von Himmelskörpern vor. Nach dem ersten Keplerschen Gesetz bewegt sich jeder Planet auf einer Ellipse um die Sonne, wobei diese in einem der beiden Brennpunkte ruht. Entsprechendes gilt für die Bahnen von wiederkehrenden (periodischen) Kometen, Planetenmonden oder Doppelsternen. Allgemein ergeben sich bei jedem Zweikörperproblem der Gravitationskraft je nach Energie Ellipsen-, Parabel- oder Hyperbelbahnen. Für jeden zwei- oder dreidimensionalen harmonischen Oszillator erfolgt die Bewegung auf einer Ellipsenbahn. So schwingt etwa der Pendelkörper eines Fadenpendels näherungsweise auf einer elliptischen Bahn, falls die Bewegung des Pendelfadens nicht nur in einer Ebene erfolgt. In der Dreiecksgeometrie gibt es Steiner-Ellipsen, Inellipsen (Steiner-Inellipse, Mandart-Ellipse). Formelsammlung (Ellipsengleichungen) Ellipsengleichung (kartesische Koordinaten) Mittelpunkt , Aufgelöst nach : Die letzte Form ist praktisch, um eine Ellipse mit Hilfe der beiden Bahnelemente, numerische Exzentrizität und große Halbachse, darzustellen. Mittelpunkt , Hauptachse parallel zur -Achse: Ellipsengleichung (Parameterform) Mittelpunkt , Hauptachse als -Achse: Mittelpunkt , Hauptachse parallel zur -Achse: Mittelpunkt , Hauptachse um bezüglich -Achse rotiert: Dabei bezeichnet den Parameter dieser Darstellung. Dieser entspricht nicht dem Polarwinkel zwischen der -Achse und der Geraden, die durch den Ursprung und den jeweiligen Ellipsenpunkt führt, sondern z. B. dem Polarwinkel zwischen der -Achse und der Geraden, die durch den Ursprung und den Punkt mit gleicher -Koordinate wie der Ellipsenpunkt jedoch auf dem Kreis mit Radius führt (vgl. Konstruktion nach de la Hire). In der Astronomie heißt dieser Parameter bei Keplerellipsen die exzentrische Anomalie, bei Meridianellipsen in der Geodäsie heißt er parametrische oder reduzierte Breite, vgl. Referenzellipsoid. Für nicht rotierte Ellipsen, also , hängt der Polarwinkel , der durch definiert ist, mit dem Parameter zusammen über: Diese Beziehung erlaubt eine anschauliche Interpretation des Parameters : Streckt man die -Koordinate eines Ellipsenpunktes um den Faktor , so liegt dieser neue Punkt auf einem Kreis mit Radius und demselben Mittelpunkt wie die Ellipse. Der Parameter ist nun der Winkel zwischen der -Achse und der Verbindungslinie : Ellipsengleichung (Polarkoordinaten bzgl. des Mittelpunkts) Hauptachse waagrecht, Mittelpunkt als Pol, Polarachse längs Hauptachse nach rechts: In kartesischen Koordinaten ausgedrückt, parametrisiert durch den Winkel der Polarkoordinaten, wobei der Mittelpunkt der Ellipse bei und ihre Hauptachse entlang der -Achse liegt: Herleitung Aus der Ellipsengleichung in kartesischen Koordinaten und der Parametrisierung der kartesischen in Polarkoordinaten und folgt: Umstellen und Radizieren liefert den Radius abhängig vom Polarwinkel. Ellipsengleichung (Polarkoordinaten bzgl. eines Brennpunkts) Hauptachse waagrecht, rechter Brennpunkt als Pol, Polarachse längs Hauptachse nach rechts (Halbparameter ): Hauptachse waagrecht, linker Brennpunkt als Pol, Polarachse längs Hauptachse nach rechts: Der Wertebereich der Radien erstreckt sich von der Periapsisdistanz bis zur Apoapsisdistanz , die folgende Werte haben: In kartesischen Koordinaten ausgedrückt, parametrisiert durch den Winkel bzw. der Polarkoordinaten, wobei der rechte Brennpunkt der Ellipse bei , der linke Brennpunkt bei liegt: Der Winkel bzw. , je nachdem, welcher Pol Bezugspunkt ist, heißt in der Astronomie die wahre Anomalie. Herleitung Man betrachtet ein Dreieck, das von den beiden Fixpunkten , und einem beliebigen Punkt auf der Ellipse aufgespannt wird. Die Abstände zwischen diesen Punkten betragen: sowie und nach der Definition der Ellipse . Der Winkel bei sei . Mit dem Kosinussatz gilt nun: Analog verläuft die Herleitung für den rechten Pol. Die Abstände lauten und und . Der Winkel bei sei , da definiert ist, wobei den rechten Hauptscheitel markiert. Alternative Herleitung Durch Gleichsetzen der zweier Darstellungen von erhält man: Dies entspricht einerseits mit und und andererseits mit und : Formelsammlung (Kurveneigenschaften) Tangentengleichung (kartesische Koordinaten) Mittelpunkt , Hauptachse als -Achse, Berührpunkt : Mittelpunkt Hauptachse parallel zur -Achse, Berührpunkt : Tangentengleichung (Parameterform) Ein (unnormierter) Tangentenvektor an die Ellipse hat die Gestalt: Die Tangentengleichung lautet in vektorieller Darstellung mit Mittelpunkt bei , Hauptachse als -Achse und Berührpunkt bei : Beziehung zwischen Polar- und Normalenwinkel Zwischen Polarwinkel und Normalenwinkel und Ellipsenparameter besteht folgender Zusammenhang (siehe nebenstehende Grafik) Herleitung Der Zusammenhang des Polarwinkels und dem Steigungswinkel der Normalen (siehe Grafik rechts) lässt sich z. B. so finden: Auflösen der Tangentengleichung nach ergibt die Tangentensteigung als Koeffizient von zu Mit erhält man den gesuchten Zusammenhang zwischen und . Normalengleichung (kartesische Koordinaten) Mittelpunkt , Hauptachse als -Achse, Berührpunkt : oder auch Normalengleichung (Parameterform) Ein (unnormierter) Normalenvektor an die Ellipse hat die Gestalt: Die Normalengleichung lautet in vektorieller Darstellung mit Mittelpunkt bei , Hauptachse als -Achse und Berührpunkt bei : Krümmungsradien und -mittelpunkte Krümmungsradius im Punkt : Mittelpunkt des Krümmungskreises, Krümmungsmittelpunkt : Krümmungsradius und -mittelpunkt in einem der beiden Hauptscheitel : Krümmungsradius und -mittelpunkt in einem der beiden Nebenscheitel : Formelsammlung (Flächeninhalt und Umfang) Flächeninhalt Mit den Halbachsen und : Ist die Ellipse durch eine implizite Gleichung gegeben, dann beträgt ihr Flächeninhalt Ellipsensektor Für eine Ellipse mit den Halbachsen und und einen Sektor, der mit der großen Halbachse den Winkel einschließt, gilt: Beschreibt man den Ellipsensektor statt durch den Polarwinkel durch den Parameter aus der Parameterdarstellung , so erhält man die Formel Umfang Formel Der Umfang einer Ellipse mit großer Halbachse und kleiner Halbachse berechnet sich zu , wobei für das vollständige elliptische Integral zweiter Art steht. Die numerische Exzentrizität berechnet sich bei Ellipsen als . Man beachte, dass bei der numerischen Berechnung elliptischer Integrale mittels Funktionsbibliotheken verschiedene Parameterkonventionen Verwendung finden. Herleitung Der Umfang einer Ellipse kann nicht exakt durch elementare Funktionen ausgedrückt werden. Er kann aber mithilfe eines Integrals dargestellt werden, das daher elliptisches Integral genannt wird. Die Formel für die Bogenlänge einer Kurve lautet . Für die Ellipse mit der Parameterdarstellung ergibt sich unter Berücksichtigung der Symmetrie für den Umfang . Ausklammern von , Verwendung von und führt zu Durch die Substitution erhalten wir die folgende Form: . Das Integral nennt man vollständiges elliptisches Integral zweiter Art. Der Umfang der Ellipse ist damit . Der Umfang hängt also von der numerischen Exzentrizität und der großen Halbachse ab. Mithilfe des nebenstehenden Diagramms kann bei gegebener Exzentrizität der Wert des Faktors für den Umfang abgelesen werden. liegt für jede Ellipse zwischen den Extremfällen (, entartete Ellipse als Linie) und (, Ellipse wird zum Kreis). Aus dieser Formel resultiert jene zusätzliche Formel für den Umfang, die sowohl für den Fall a > b als auch für den Fall a < b reell ist: . Das Integral K nennt man vollständiges elliptisches Integral erster Art. Reihenentwicklung Die numerische Exzentrizität ist gleich dem elliptischen Modul vom vollständigen Elliptischen Integral zweiter Art! Für nahe 1 konvergiert diese Reihenentwicklung extrem langsam. Es empfiehlt sich daher eine numerische Integration, z. B. nach dem Romberg-Verfahren. Eine Reihe, die schneller konvergiert, beruht auf der Gauß-Kummer-Reihe. Für eine Ellipse mit den Halbachsen und (mit ) wird der Landensche Tochtermodul von der numerischen Exzentrizität , also der Modul definiert. Dann ergibt sich: Näherungen Näherung mit Hilfe des arithmetischen Mittels der Halbachsen Genauigkeit dieser Formel Näherung mit Hilfe des quadratischen Mittels der Halbachsen Genauigkeit dieser Formel Näherungsformel nach Srinivasa Ramanujan mit Diese Näherung ist in einem weiten -Bereich von sehr genau und ergibt im ganzen Bereich stets einen etwas zu kleinen Wert, der monoton mit zunimmt. Der relative Fehler beträgt: Für erhält man statt 4 den nur geringfügig zu kleinen Wert Schriftzeichen Unicode enthält im Block Verschiedene Symbole und Pfeile vier Ellipsensymbole, die als Grafikzeichen oder Schmuckzeichen in beliebigem Text (auch Fließtext) verwendet werden können: LaTeX kennt außerdem noch eine hohle horizontale Ellipse mit Schatten rechts: \EllipseShadow. Siehe auch Steiner-Ellipse Konfokale Kegelschnitte Gabriel Lamé verallgemeinerte die Ellipse zur laméschen Kurve (Superellipse). Ellipsoid Der Rotationskörper mit einem elliptischen Querschnitt ist ein Rotationsellipsoid. Homöoid Fokaloid Feynmans verschollene Vorlesung: Die Bewegung der Planeten um die Sonne Mittlere Bewegung Weblinks mathematische-basteleien.de Berechnungen Formeln zum Ellipsenumfang mit Beispielrechnung Website zum Berechnen eines Ellipsenumfangs Tangenten und Schnitt mit einer Geraden (JavaScript) Ellipsenberechnung aus zwei Größen bzw. aus zwei, vier oder fünf Punkten; Tangenten, Normalen Konstruktion Für alle folgenden Links wird ein Java-Plug-in benötigt. Webseite mit der Möglichkeit, Ellipsenkonstruktionen interaktiv auszuprobieren Ellipsenzirkel Literatur Cornelie Leopold: Geometrische Grundlagen der Architekturdarstellung. Verlag W. Kohlhammer, Stuttgart 2005, ISBN 3-17-018489-X, S. 55–66. Peter Proff: Die Deutung der Begriffe „Ellipse“, „Parabel“ und „Hyperbel“ nach Apollonios v. Perge. In: „Gelêrter der arzeniê, ouch apotêker“. Beiträge zur Wissenschaftsgeschichte. Festschrift zum 70. Geburtstag von Willem F. Daems. Hrsg. von Gundolf Keil, Horst Wellm Verlag, Pattensen/Hannover 1982 (= Würzburger medizinhistorische Forschungen, 24), ISBN 3-921456-35-5, S. 17–34. Einzelnachweise Kurve (Geometrie)
Q40112
453.028727
167726
https://de.wikipedia.org/wiki/Joensuu
Joensuu
Joensuu [] ist eine Gemeinde und Universitätsstadt im Osten Finnlands mit Einwohnern (Stand ). Sie ist Verwaltungssitz und mit Abstand größte Stadt der Landschaft Nordkarelien. Neben dem Stadtzentrum gehört zum 2381,8 km² großen Stadtgebiet von Joensuu ein ausgestrecktes ländliches Hinterland bis hin zur russischen Grenze. Joensuu ist die dreizehntgrößte Stadt Finnlands. Geografie Geografische Lage Joensuu liegt im Zentrum Nordkareliens im Osten Finnlands, 437 km nordöstlich der Hauptstadt Helsinki. Das Stadtzentrum befindet sich an der Mündung des Flusses Pielisjoki in den Pyhäselkä-See, der Teil des Saimaa-Seensystems ist. Nach seiner Lage erhielt Joensuu auch seinen Namen, der auf Deutsch „Flussmündung“ bedeutet. Ausdehnung des Stadtgebiets Seit der Eingemeindung der Gemeinden Tuupovaara und Kiihtelysvaara im Jahr 2005 verfügt Joensuu über ein sehr unsymmetrisches Stadtgebiet. Im Westen liegt die eigentliche Stadt Joensuu. Vor der Eingemeindung hatte sie eine Fläche von 120,3 km², wovon 81,9 km² Land war. In diesem Gebiet leben über 90 % der Bevölkerung. Den Großteil des Stadtgebiets mit einer Ausdehnung von 1312,1 km² (davon 1173,4 km² Land) nimmt das sich östlich anschließende äußerst dünn besiedelte Gebiet der ehemaligen Gemeinden Tuupovaara und Kiihtelysvaara ein. Zum 1. Januar 2009 wurden auch die Nachbargemeinden Eno und Pyhäselkä eingemeindet. Damit wuchs die Gesamteinwohnerzahl auf rund 72.000. Stadtgliederung Die Stadt Joensuu besteht aus 28 durchnummerierten Stadtteilen. Die Stadtteile I bis IV bilden die Innenstadt von Joensuu. Die letzten drei Stadtteile entstanden nach der Eingemeindung aus dem Gebiet der ehemaligen Gemeinden Kiihtelysvaara und Tuupovaara. Nachbargemeinden Die Nachbargemeinden von Joensuu sind Tohmajärvi und Pyhäselkä im Süden, Liperi im Westen sowie Kontiolahti, Eno und Ilomantsi im Norden. Im Osten liegt die Staatsgrenze zu Russland. Zusammen mit den umliegenden Gemeinden Ilomantsi, Kontiolahti, Liperi, Outokumpu und Polvijärvi bildet Joensuu eine Verwaltungsgemeinschaft. Geschichte Das Gebiet von Joensuu ist schon seit Ende der letzten Eiszeit bewohnt, wie archäologische Funde in Mutala (ca. 5210 v. Chr.) und Siihtala (ca. 3860 v. Chr.) beweisen. Durch das Schmelzwasser der Gletscher stieg der Wasserspiegel des Saimaa-Sees langsam an. Schließlich war er zehn Meter höher als der heutige Wasserspiegel und fast das ganze Gebiet von Joensuu war mit Wasser bedeckt, bis sich die Wassermassen um 3000 v. Chr. mit dem Vuoksi-Fluss einen Abfluss schufen und der Wasserspiegel wieder absank. Aus der Zeit nach dem Absinken des Wassers ist ein bronze- und eisenzeitlicher Siedlungsplatz bei Varaslampi erhalten. Im Mittelalter waren die Gewässer wichtige Verkehrswege. Durch das Gebiet von Joensuu führte ein Handelsweg von Nowgorod über den Ladoga- und Saimaasee und den Pielisjoki zum Pielinen und von dort weiter in Richtung Oulujoki und Bottnischer Meerbusen der Ostsee. Im 12. bis 14. Jahrhundert verbreitete sich die Besiedlung aus den östlichen Teilen Kareliens nach Nordkarelien, doch das Gebiet von Joensuu blieb zunächst unbewohnt. Von dort weitete sich auch der orthodoxe Glaube aus. Um 1530 wurde in Kuhasalo bei Joensuu ein orthodoxes Kloster gegründet. Dieses wurde Ende des 16. Jahrhunderts in einem schwedisch-russischen Krieg zerstört. Schon während der schwedischen Herrschaft von 1618 bis 1809 hatte es an der Mündung des Pielisjoki ein kleines Dorf mit dem Namen Joensuu gegeben. Die Stadt Joensuu wurde aber erst 1848 auf Geheiß von Zar Nikolaus I. gegründet. Zugleich wurde der Joensuu-Kanal ausgehoben, um eine Stromschnelle des Pielisjoki zu umgehen. Nach der Fertigstellung des Saimaakanals in den 1850er Jahren und der Anbindung an das Eisenbahnnetz im Jahr 1894 entwickelte sich die Stadt zu einem Handelszentrum und wuchs schnell an. Zum Zeitpunkt der finnischen Unabhängigkeit 1917 war Joensuu schon die größte Stadt Nordkareliens. Joensuu war lange ein wichtiger Standort der Holz- und Forstindustrie, und besonders durch die Forstindustrie und Flößerei in der Region wurde die Stadt zu einem Industriestandort. 1918 nahm das Sägewerk Penttilä, das größte Sägewerk der Nordischen Länder, in Joensuu den Betrieb auf. Heutzutage sind andere Industriezweige wichtiger geworden. Im finnischen Bürgerkrieg stand Joensuu auf Seiten der bürgerlichen „Weißen“, in der Stadt fanden aber keine Kämpfe statt. Auch vom Zweiten Weltkrieg blieb Joensuu weitgehend unberührt. Im Jahr 1954 verdoppelte sich die Einwohnerzahl der Stadt durch die Eingemeindung von Pielisensuu. In den 1990er Jahren erlangte Joensuu zweifelhaften Ruhm als Zentrum der finnischen Skinhead-Bewegung. Auslöser dafür war die hohe Arbeitslosigkeit nach der finnischen Wirtschaftskrise und die Ansiedlung von Bürgerkriegsflüchtlingen aus Somalia. 2005 verelffachte sich die Fläche von Joensuu durch die Eingemeindung der ländlichen Gemeinden Kiihtelysvaara und Tuupovaara. Ferner wurden zum Jahresbeginn 2009 die Gemeinden Eno und Pyhäselkä in Joensuu eingemeindet. Einwohnerentwicklung Entwicklung der Einwohnerzahl 1850: 284 1900: 2.984 1910: 4.789 1920: 4.946 1930: 5.196 1940: 5.146 1950: 7.845 1960: 27.383 (nach Eingemeindung von Pielisensuu) 1970: 36.281 1980: 44.325 1990: 47.215 2000: 51.514 2004: 52.659 2005: 57.587 (nach Eingemeindung von Kiihtelysvaara und Tuupovaara) 2016: 75.848 Politik Die stärkste politische Kraft in Joensuu bleiben trotz Verlusten die Sozialdemokraten. Seit den Kommunalwahlen 2017 stellen sie mit 15 von 59 Abgeordneten die größte Fraktion. Es folgen die beiden anderen großen Parteien des Landes, die Zentrumspartei mit zwölf und die konservativ-liberale Nationale Sammlungspartei mit neun Sitzen. Die rechtspopulistischen Basisfinnen mussten Verluste hinnehmen und besetzen nun fünf Sitze. Ebenfalls im Stadtrat vertreten sind der Grüne Bund mit neun, das Linksbündnis mit sechs sowie die Christdemokraten mit drei Abgeordneten, die sich damit alle verbessern konnten. Zusammensetzung des Stadtrats nach der Wahl 2017: G/V: Gewinn oder Verlust im Vergleich zur Wahl 2012 Kultur und Sehenswürdigkeiten Stadtbild Das rechtwinklige Straßennetz der Innenstadt von Joensuu plante 1848 der Architekt Claës Wilhelm Gyldén. Das Straßennetz mit breiten Alleen entspricht den stadtplanerischen Idealen der Empire-Zeit und diente der Brandsicherheit. Die Straße Rantakatu folgt ihrem Namen („Uferstraße“) entsprechend dem Ufer des Pielisjoki-Flusses. Zwischen Straße und Fluss liegt ein Grüngebiet. Sowohl die lutherische als auch die orthodoxe Kirche liegen jeweils auf einem Hügel an den Enden der der parkähnliche Allee Kirkkokatu („Kirchstraße“). Diese wird von einer zweiten begrünten Allee, der Siltakatu („Brückenstraße“), geschnitten, die den Fluss über zwei Inseln und drei Brücken in Richtung Bahnhof überquert. Ursprünglich bestand die Bausubstanz von Joensuu aus niedrigen Holzhäusern. Dieses Ensemble blieb bis weit in die 1960er Jahre bestehen. Ab den 1970er Jahren wurden fast alle historischen Holzhäuser der Innenstadt durch moderne Hochhäuser ersetzt. Sehenswürdigkeiten Die moderne Stadt bietet relativ wenig Sehenswürdigkeiten, ist aber Ausgangspunkt für einen Besuch der orthodoxen Klöster Uusi-Valamo und Lintula. Eine gute Autostunde entfernt ist der Nationalpark Koli. Sehenswert ist auch das Nordkarelische Museum (im Fremdenverkehrszentrum „Carelicum“). Weitere Sehenswürdigkeiten in Joensuu Joensuu Areena (Mehrzweckhalle aus Holz) Metla-Haus (Bürogebäude aus Holz) Rathaus (entworfen von Eliel Saarinen) Kunstmuseum Kunst- und Handwerkerviertel Taitokortteli Botania (ehemaliger Botanischer Garten der Universität) Neogotischer Kirchenbau des Architekten Josef Stenbäck aus dem Jahr 1903 Jedes Jahr finden in Joensuu Sommerfestivals mit Rockkonzerten, z. B. Ilosaarirock, oder Theateraufführungen statt. Wirtschaft und Infrastruktur Wirtschaft Von wirtschaftlicher Bedeutung ist die Holzverarbeitung. Die Region um Joensuu zählt zu den strukturschwächeren Regionen Finnlands. 1990 betrug demnach die Arbeitslosenquote in Nordkarelien 7,5 %, bis 1995 war sie nach der Wirtschaftskrise auf 21,9 % angestiegen, während sie in Gesamtfinnland bei 3,4 % bzw. 17,2 % lag. Verkehr Die Stadt ist mit dem Zug 508 km von Helsinki entfernt. Darüber hinaus bestehen vom Flughafen Joensuu aus tägliche Verbindungen mit der finnischen Hauptstadt. Sie liegt an der Via Karelia, die entlang der finnischen Ostgrenze zu Russland von Vaalimaa im Süden nach Nellim im Norden führt. Bildung und Forschung Bedeutsam ist die 2020 gegründete Universität Ostfinnland mit über 15000 Studierenden (verteilt auf zwei Campus: in Joensuu und Kuopio). Die Vorgängerin des Campus Joensuu – die auf eine pädagogische Hochschule zurückgeht – wurde 1969 als Universität Joensuu (Joensuun yliopisto) gegründet. An der Universität besteht die einzige Möglichkeit, in Finnland orthodoxe Theologie und karelische Sprache zu studieren. Ein markanter Punkt im Stadtbild ist das Nordkarelische Zentralkrankenhaus (Pohjois-Karjalan keskussairaala), das sich auf einer Anhöhe über der Stadt befindet und für die stationäre Versorgung der Bevölkerung Nordkareliens zuständig ist (alle medizinischen Fachabteilungen, akademisches Lehrkrankenhaus). Städtepartnerschaften Hof (Saale), Deutschland (seit 1969) Linköping, Schweden (seit 1940) Ísafjörður, Island (seit 1948) Tønsberg, Norwegen (seit 1948) Vilnius, Litauen (seit 1970) Petrozavodsk, Republik Karelien, Russische Föderation (seit 1994) Persönlichkeiten Söhne und Töchter der Stadt Kaarlo Linkola (1888–1942), Botaniker Rolf Nevanlinna (1895–1980), Mathematiker Heikki Savolainen (1907–1997), Geräteturner Hannu Mikkola (1942–2021), Rallyefahrer Matti Puhakka (1945–2021), Politiker (SDP) sowie Verkehrs-, Gesundheits-, Arbeits- und Innenminister Finnlands Seppo Repo (* 1947), Eishockeyspieler Pentti Matikainen (* 1950), Eishockeyspieler, -funktionär und -trainer Lauri Mononen (1950–2018), Eishockeyspieler Riitta Myller (* 1956), Politikerin (SDP) Markku Kyllönen (* 1962), Eishockeyspieler Kirsi Hänninen (* 1976), Eishockeyspielerin Henri Häkkinen (* 1980), Sportschütze Esa Lehikoinen (* 1986), Eishockeyspieler Mari Eder (* 1987 im bis 2009 eigenständigen Eno), Biathletin und Skilangläuferin Matias Laine (* 1990), Rennfahrer Amanda Pilke (* 1990), Schauspielerin Solomon Duah (* 1993), Fußballspieler Juuso Riikola (* 1993), Eishockeyspieler ebenso: Mitglieder der Humppagruppe Eläkeläiset Mitglieder der Metalband Insomnium In Joensuu gestorben Olavi Kuronen (1923–1989), Skispringer Weblinks Offizielle Seite (englisch) Pielis.ru – travel information about North Karelia region and City of Joensuu Einzelnachweise Stadt als Namensgeber für einen Asteroiden Hochschul- oder Universitätsstadt Stadtrechtsverleihung 1848
Q186237
98.634045
4237
https://de.wikipedia.org/wiki/Orthographie
Orthographie
Die Orthographie (auch Orthografie; von , orthós „aufrecht“, „richtig“ und -graphie) oder Rechtschreibung ist die allgemein übliche Schreibweise der Wörter (bzw. Morpheme), Silben oder Phoneme einer Sprache in der verwendeten Schrift. Eine davon abweichende Schreibung wird allgemein als Rechtschreibfehler bezeichnet. Orthographie ist zudem „jede Methode, die Laute einer Sprache auf eine Menge von Schriftsymbolen abzubilden“ und wird auch als Bezeichnung für das Gebiet der Sprachwissenschaft verwendet, das sich mit diesem Gegenstand beschäftigt. Rechtschreibung in Alphabetschriften Bei der Rechtschreibung in Alphabetschriften unterscheidet man zwei grundlegend unterschiedliche Ansätze: die phonemische Rechtschreibung (flache Orthographie), die eine möglichst einfache Beziehung zwischen Lautfolge und Schriftbild anstrebt („schreibe, wie du sprichst“), wobei im Idealfall „ein“ Graphem genau „einem“ Phonem entspricht (Rechtschreibung mit 1:1-Entsprechung), und die morphophonemische Rechtschreibung (tiefe Orthographie), die grammatische und darüber hinaus auch oft sprachgeschichtliche (etymologische) Ableitungsbeziehungen zwischen verschiedenen Wörtern und insbesondere zwischen den konjugierten, komparierten oder deklinierten Formen eines Wortes sichtbar werden lässt. Der phonemische Ansatz bezieht sich gewöhnlich auf nur eine Standardvarietät der jeweiligen Sprache. In diesem Sinne überwiegend phonemisch ist die Orthographie zum Beispiel des Bulgarischen, Finnischen, Georgischen, Italienischen, Serbischen, Spanischen und Türkischen. Die Orthographie des Spanischen etwa ist für das kastilische Spanisch eher phonemisch als beispielsweise für das argentinische oder das kubanische (die sich beide freilich keineswegs als nachrangige Dialekte, sondern eben als die argentinische bzw. kubanische Hochsprache begreifen). Besonders fällt die stark etymologisch geprägte morphophonemische Orthographie des Englischen auf. Im Englischen kann eine Buchstabenfolge (z. B. ough) vier oder mehr verschiedene Aussprachen haben; umgekehrt kann eine bestimmte Lautfolge viele verschiedene Schreibweisen haben, je nachdem, in welchem Wort sie vorkommt, z. B. der Laut (stimmloser postalveolarer Frikativ, „sch“) als ocean, fish, action, sure usf. Bemüht um eine Reform der englischen Rechtschreibung haben sich unter anderem der Mönch Ormin, der im 13. Jahrhundert auf Mittelenglisch das Ormulum verfasste, und George Bernhard Shaw im 20. Jahrhundert, der ein Preisgeld für eine vereinfachte Schreibung aussetzte, das Ronald Kingsley Read 1959 mit dem sogenannten Shaw-Alphabet gewann. Auch das Französische schreibt sich entschieden etymologisch. Stellte Frankreich seine Orthographie auf eine rein phonemische Grundlage, wäre die Familienähnlichkeit des Französischen mit den übrigen romanischen Sprachen kaum mehr zu erkennen. Im Französischen kann ein Laut zahlreiche verschiedene Schreibweisen haben (z. B. die Graphemfolgen au, aud, auds, ault, aulx, aut, auts, aux, eau, eaud, eaux, haut, hauts, ho, o, ô, od, ods, oh, os, ot, ots). Prinzipien der Rechtschreibung im Deutschen Die Orthographie des Deutschen hat sowohl phonemische als auch morphophonemische Elemente (nicht dargestellte Auslautverhärtung, e/ä-Schreibweise u. a.), allerdings mit nur relativ wenigen etymologischen Schreibweisen (eine Ausnahme bilden viele neuere Fremdwörter und einige Homophone). Insbesondere bei Entlehnungen aus dem Englischen wird die Schreibweise nur selten an das deutsche Lautbild angepasst (Keks, Streik, aber nicht (Korn-)Fleks, Kompjuter, Marschmello u. ä.). Allerdings wurden mit der Rechtschreibreform von 1996 auf diesem Gebiet einige Eindeutschungen eingeführt (z. B. Ketschup, Portmonee), die aber nicht konsequent durchgeführt wurden (z. B. Butike mit e am Ende für Boutique [buˈtiːk], Orthografie mit th für Orthographie [ɔʁtoɡʁaˈfiː]), nicht konsequent fortgeführt wurden und zum Teil wieder gestrichen wurden (z. B. Ketschup). Eine Übersicht über die Rechtschreibprinzipien im Deutschen findet man unter Bezug auf die Forschungsliteratur bei Garbe, der folgende Unterscheidungen trifft: 1. phonologisches Prinzip: eindeutige Zuordnung von Graphemen und Phonemen; so werden der sogenannte Ich-Laut und der Ach-Laut beide mit der Buchstabenfolge <ch> oder <Ch> wiedergegeben, da sie das gleiche Phonem realisieren; 2. graphemisches Prinzip: Beibehaltung tradierter Schreibweisen, zum Beispiel des sogenannten Dehnungs-e; 3. morphologisches Prinzip (auch: etymologisches Prinzip genannt): Wörter, denen die gleiche Grundform zugrunde liegt, werden entsprechend gestaltet: Gast – Gäste (statt: *Geste); 4. semantisches Prinzip: Wörter, die gleich klingen, aber verschiedene Bedeutung haben, werden auch verschieden geschrieben: Lied – Lid; 5. syntaktisches Prinzip: hier wird unter anderem die Großschreibung am Satzanfang und der Substantive genannt sowie die Rolle der Interpunktion für die Satzgliederung; 6. pragmatisches Prinzip: hierher gehört die Großschreibung der Anredepronomina. Unter dem graphemischen Prinzip führt Garbe auch den Fall an, dass bei Saal – Säle im Plural die Doppelschreibung des Vokals vermieden wird, andernorts als „ästhetisches Prinzip“ angeführt. Siehe auch Großschreibung Interpunktion Kleinschreibung Kommaregeln der deutschen Sprache (Stand von 2006) Lautschrift Rechtschreibprüfung (bei Textverarbeitungsprogrammen) Literatur Helmut Glück (Hrsg.): Metzler-Lexikon Sprache. 4. Auflage. Verlag J. B. Metzler, Stuttgart/Weimar 2010, ISBN 3-476-02335-4. George A. Miller: Wörter. Streifzüge durch die Psycholinguistik. Herausgegeben und aus dem Amerikanischen übersetzt von Joachim Grabowski und Christiane Fellbaum. Spektrum der Wissenschaft, Heidelberg 1993; Lizenzausgabe: Zweitausendeins, Frankfurt am Main 1995; 2. Auflage ebenda 1996, ISBN 3-86150-115-5, S. 56–60. Michael Schlaefer: Grundzüge der deutschen Orthographiegeschichte vom Jahre 1800 bis zum Jahre 1870. In: Sprachwissenschaft. Band 5, Nr. 3, 1980. Michael Schlaefer: Der Weg zur deutschen Einheitsorthographie vom Jahre 1870 bis zum Jahre 1901. In: Sprachwissenschaft. Band 6, Nr. 4, 1981. Günther Thomé: Deutsche Orthographie: historisch, systematisch, didaktisch. 2., verbesserte Auflage. isb-Fachverlag, Oldenburg 2019, ISBN 978-3-942122-24-5. Weblinks Einzelnachweise !Orthographie Schriftlinguistik
Q43091
468.031365
166842
https://de.wikipedia.org/wiki/Whig
Whig
Die Whigs waren von den 1680er bis in die 1850er Jahre eine der beiden Parteien des britischen Parlamentarismus. Ihre Gegner waren die konservativen Torys. 1859 schlossen sich die Whigs mit gemäßigten Tories zur Liberal Party zusammen. Geschichte Bereits in der zweiten Hälfte des 17. Jahrhunderts konnte im englischen Parlament die Bildung parlamentarischer Gruppierungen beobachtet werden, die jedoch noch nicht den Charakter von Parteien hatten. Bis zur Glorious Revolution verfestigen sich die Strukturen aber zusehends: Die Whigs waren strikte Gegner der Rekatholisierungsversuche Jakobs II. und folgerichtig maßgeblich an der Einleitung der Glorious Revolution und der Absetzung Jakobs beteiligt, die allerdings auch führende Tories mit betrieben. Die Bezeichnung Whig wurde ursprünglich beleidigend von den politischen Gegnern gebraucht und bedeutet ‚Viehtreiber‘ (Whiggamore). Erstmals wurde der Begriff für eine Parlamentsgruppe während der Krise um den Popish Plot und die Exclusion Bill in den Jahren 1679–1681 verwendet. Diese versuchte erfolglos, mit einer großen antikatholischen Verschwörungstheorie Jakob, Herzog von York, als Thronfolger seines Bruders zu verhindern. Der offizielle Name der Whigs war anfangs Country Party (Landpartei), als Gegensatz zu den Tories, der Court Party (Hofpartei). Mit dem Regierungsantritt des ersten Hannoveraners auf dem britischen Thron, Georg I., im Jahr 1714 begann eine fünfzig Jahre dauernde Periode der Regierungsverantwortung der Whigs, in der die Tories auf dem politischen Parkett fast keine Rolle mehr spielten. Unter Georg III. änderte sich dies, da der König hoffte, seine Macht vergrößern zu können, wenn er sich der Whigs entledigte. Während der Regierungszeit Georgs III. hatten die radikalen Whigs (Commonwealthmen), deren Vordenker vor allem John Milton und John Locke waren, in England nur eine kleine Anhängerschaft. Dagegen waren ihre Anschauungen in den nordamerikanischen Kolonien außerordentlich populär. Die Siedler sahen sich durch sie ermutigt, sich vom Mutterland, von dem sie sich „versklavt“ fühlten, zu trennen und für unabhängig zu erklären. William Pitt der Jüngere leitete eine dreißigjährige Dominanz der Regierung durch die Tories ein, bis die Whigs mit Earl Grey 1830 wieder den Premierminister stellten. Es entwickelte sich aus einer breiten Allianz von aristokratischen Grundbesitzern eine einheitlichere Gruppe unter der Führung von Charles James Fox, deren einigender Faktor die Opposition zu William Pitt dem Jüngeren war. Generell stand die Partei für politischen und wirtschaftlichen Liberalismus, vor allem für den Freihandel, ein starkes Parlament mit Widerstandsrecht im Sinne des Aufklärers John Locke, die Abschaffung der Sklaverei und religiöse Toleranz gegenüber den so genannten Dissenters (protestantischen Denominationen, die das episkopale System der Church of England ablehnten). Ihre Anhängerschaft bestand vor allem aus dem liberalen Bürgertum. 1832 setzte die liberale Regierung von Earl Grey die erste Parlamentsreform durch, die eine Ausweitung des Wahlrechts auf breitere Schichten der Bevölkerung und eine Neueinteilung der Wahlkreise anhand der Bevölkerungszahl vorsah; im Jahr darauf wurde die Sklaverei im gesamten Britischen Empire abgeschafft. Die Anhänger der Whigs fanden sich vornehmlich in fortschrittlichen und handelsorientierten Schichten des aufstrebenden Bürgertums. Die Führungsspitze traf sich informell insbesondere im Brooks’s Club und später im Reform Club. Aus dem Zusammenschluss der Whigs und gemäßigten Tories entstand am 6. Juni 1859 die Liberal Party, die bis in die 1920er Jahre die zweite Säule des britischen Zweiparteiensystems bildete und danach in dieser Position von der sozialdemokratischen Labour Party abgelöst wurde. Die Nachfolgeorganisation der Liberal Party (seit 1988), die linksliberalen Liberal Democrats, waren von 2010 bis 2015 als drittstärkste Fraktion im britischen Parlament vertreten und Koalitionspartner der Tories unter David Cameron. Bei der Wahl vom 7. Mai 2015 erlitten die Liberal Democrats eine Niederlage: Mit 7,3 Prozent (2011: 23 %) und nur noch 8 Sitzen (vorher: 57) verloren sie ihre bisherige Bedeutung. In der politischen Krise im Zuge des Brexits konnten sie jedoch bei EU- und Kommunalwahlen 2019 zu neuer Stärke finden. Bekannte Whigs Lord Melbourne George Byng (Politiker, 1764) Charles James Fox Edmund Burke William Congreve Henry de Labouchère, Lord Taunton William Pitt, 1. Earl of Chatham Charles Seymour John Vanbrugh Robert Walpole sen. (1676–1745) John Milton John Locke Charles Grey, 2. Earl Grey Belletristik Im Barock-Zyklus von Neal Stephenson wird die Epoche von 1655 bis 1714 mit ihren politischen, gesellschaftlichen, wirtschaftlichen, kulturellen, wissenschaftlichen und technischen Umwälzungen dargestellt. Beginnend mit dem zweiten, jedoch insbesondere im dritten Band spielt sich die Handlung zunehmend vor dem Hintergrund der politischen Strömungen der Whigs und Tories in London ab. Literatur Paul Rapin de Thoyras: A Dissertation on the Rise, Progress, Views, Strength, Interest, and Characters of the tow Parties of the Whigs and Torys. First published in the year 1717. In: The history of England. Übersetzt von Nicholas Tindal. 3. Auflage. London 1743–1747. (Die Erklärung der Herkunft der Bezeichnungen Whig und Tory in Rapin de Thoyras’ Originaltext Dissertation sur les Whigs et les Torys wird in Tindals Übersetzung anhand von Gilbert Burnet korrigiert.) Jörn Leonhard: „True English Guelphs and Gibelines“. Zum historischen Bedeutungs- und Funktionswandel von „whig“ und „tory“ im englischen Politikdiskurs seit dem 17. Jahrhundert. In: Archiv für Kulturgeschichte. 84, 2002, S. 175–213 (Volltext). Leslie Mitchell: The Whig World. Hambledon & London, London 2005, ISBN 1-85285-456-1. E. P. Thompson: Whigs and Hunters. The Origin of the “Black Act”. Allen Lane/Penguin, London 1975, ISBN 0-7139-0991-9 (auch: Pantheon Books, N. Y. 1975, ISBN 0-394-40011-9) sowie TB-Ausgaben (über die Zeit um 1720 und die Bauern-Unterdrückung). Weblinks Einzelnachweise Historische liberale Partei Historische Partei (Vereinigtes Königreich) Gegründet in den 1680er Jahren Aufgelöst in den 1850er Jahren Historische Organisation (London)
Q108700
88.090997
2611
https://de.wikipedia.org/wiki/Kanal
Kanal
Kanal ist der Familienname folgender Personen: Derman Kanal (* 1965), deutscher Rechtsanwalt und Unternehmer Jerzy Kanal (1921–2015), Vorsitzender der Jüdischen Gemeinde in Berlin Kanal (von lateinisch canalis ‚Rinne‘) steht für: Kanal (Wasserbau), ein künstlich errichteter offener Wasserlauf oder Wasserverkehrsweg Kanalisation, Abwasserkanal für Oberflächen- und Nutzwässer Meerenge, eine natürliche Wasserstraße Kanal (Informationstheorie), Übertragungsweg für Information Funkkanal, festgelegter Frequenzbereich für Sender (Rundfunk, Fernsehen, Amateurfunk usw.) Kabelkanal, ein Schacht zur Unterbringung von Kabeln Tonspur, eine von mehreren zeitgleich entstehenden analogen Tonaufnahmen derselben Schallquelle YouTube#YouTube-Kanal, persönlicher Bereich in YouTube Kanal (Anatomie), eine röhrenförmige Verbindung (z. B. der Zentralkanal im Rückenmark) Ionenkanal, eine Verbindung durch eine biologische Membran hindurch Zerfallskanal, eine von mehreren Möglichkeiten spontaner Umwandlung eines physikalischen Systems ein Bereich der Ladungsträger beim Isolierschicht-Feldeffekttransistor eine Ableitung bei Elektrokardiografen, siehe Elektrokardiogramm#Ableitungen ein Wertebereich der Impulshöhe bei bestimmten elektronischen Messmethoden, siehe Vielkanalanalysator Kanal, Eigennamen: geographische Objekte: Ärmelkanal (umgangssprachlich „der Kanal“), Meerenge zwischen Großbritannien und Frankreich Kanal ob Soči, Gemeinde im Sočatal, Slowenien Kanal (Wagenplatz) in Berlin Werktitel: Der Kanal, polnischer Film von 1957 Siehe auch: Kanalisierung Vertriebskanal Canal, Channel
Q294780
988.316012
68109
https://de.wikipedia.org/wiki/Dokumentarfilm
Dokumentarfilm
Als Dokumentarfilm werden alle Non-Fiction- oder Factual-Filme bezeichnet. Die Gattung des Dokumentarfilms wird wissenschaftlich als filmische Beobachtung und Bearbeitung der Wirklichkeit definiert. Der Begriff, erstmals 1926 in einer Besprechung des Films Moana durch John Grierson nachweislich erwähnt, sollte damals eine besondere Qualität des Authentischen unterstreichen. Diese stand nicht im Widerspruch zu erkennbar narrativen Überformungen der Wirklichkeit und zu inszenatorischen Eingriffen ins vorhandene „Tatsachenmaterial“. Dokumentarfilmische Authentizität ist vor allem als Rezeptionseffekt und nicht als spezifischer Wirklichkeitseindruck zu begreifen. Es gibt eine große Bandbreite von verschiedenen Dokumentarfilmarten, die sich vom Versuch, ein möglichst reines Dokument zu erschaffen, über die Doku-Soap bis hin zum Doku-Drama erstreckt. Wahrheit und Echtheit An einen Dokumentarfilm wird der Anspruch erhoben, authentisch zu sein. Die Erwartungshaltung des Zuschauers an einen Dokumentarfilm ist anders als die Erwartung an einen Spielfilm. Bei fiktionalen Filmen erwartet der Zuschauer eine ausgedachte Erzählung – bei Dokumentarfilm erwartet der Zuschauer eine Erzählung, die auf der Wirklichkeit basiert. Bei der Darstellung (Filmprozess) empfangen Filmemacher Zeichen der Wirklichkeit, bei der Vorstellung des Films werden Symbole ausgesendet, die die Wirklichkeit vertreten. Es geht um das filmische Einfangen von realen Menschen, realen Orten und realen Geschichten: Dokumentarfilmer brauchen das Gespür, den Blick für das wahrhaftige und unverwechselbare reale Leben. Der künstlerische Dokumentarfilm unterscheidet sich formal oft von vielen eher journalistischen dokumentarischen Formaten durch das Fehlen einer allwissenden Kommentarstimme. Der experimentelle Dokumentarfilm als Untergattung des Experimentalfilms benutzt spielerisch Elemente und Konventionen des Dokumentarfilms. Geschichte Anfänge Die ersten bewegten Bilder waren per Definition Dokumentarfilme: einzelne Einstellungen, die Momente aus dem Leben auf Film bannten (Die Ankunft eines Zuges auf dem Bahnhof in La Ciotat, Das andockende Boot, Arbeiter verlassen die Lumière-Werke, siehe Brüder Lumière). Im frühen Film Ende des 19. Jahrhunderts dominierte immer noch die Darstellung von Ereignissen. Vor allem auf Grund technischer Grenzen wurden kaum Geschichten erzählt: Die großen Kameras hatten nur Platz für wenig Filmmaterial. Als Pionier des Dokumentarfilms gilt unter anderem der österreichische Ethnograph Rudolf Pöch, dem von 1901 bis 1906 sensationelle Aufnahmen der indigenen Völker Neuguineas in Bild und Ton gelangen. 1920er Jahre Arnold Fanck 1920/21 drehte Arnold Fanck den Skilehr-, Natur- und Sportfilm Das Wunder des Schneeschuhs, der mit einer Länge von 66 Minuten als weltweit erster Dokumentarfilm in Spielfilmlänge gelten darf. Oftmals wird allerdings wegen der kurzen Länge von Fancks Film auf Flahertys Film als erster abendfüllender Dokumentarfilm referiert. Flaherty Im Jahr 1922 produzierte Robert J. Flaherty den abendfüllenden Dokumentarfilm Nanuk, der Eskimo (1922), in dem Flaherty auch Inszenierung als filmisches Mittel einsetzte. Die Laiendarsteller „spielten“ Teile der Handlung für die Kamera. Flaherty bestand unter anderem darauf, dass kein Gewehr im Film vorkommt, obwohl sein Protagonist ein Gewehr besaß. Er ließ ein halbes Iglu errichten, damit die Kamera das Leben innerhalb des Iglus filmen konnte. Flaherty wurde damals für seine halbfiktionale Arbeitsweise, die Beobachtungen und Inszenierung unkommentiert mischte, kritisiert. Flahertys Film gilt bis heute als Anstoß der andauernden Diskussion um die Authentizität des Dokumentarfilms im Sinne einer unverfälschten Wiedergabe der Realität. Kulturfilm In Deutschland bildet der Kulturfilm eines der ältesten Dokumentarfilmgenres. Bereits in der Zeit der Weimarer Republik befasste sich die Ufa, die in Berlin-Steglitz ein eigenes Kulturfilmatelier besaß, mit der Herstellung von Schul- und Lehrfilmen, d. h. populärwissenschaftlichen Tier-, Natur-, Medizin- und Reisefilmen, die im Beiprogramm der Kinos vorgeführt wurden. Unter der Leitung von Wolfmar Junghans und seinem Nachfolger Ulrich K. T. Schulz entwickelte sich dieses Spezialstudio in den folgenden Jahren zum weltweit besten seiner Art. Thema Stadt Die europäische realistische Tradition konzentrierte sich auf städtische Umgebungen in Filmen wie Rien que les heures (1926) von Alberto Cavalcanti, Berlin: Die Sinfonie der Großstadt (1927) von Walter Ruttmann und Der Mann mit der Kamera (1929) von Dsiga Wertow. Mit ihrem hochartifiziellen, teilweise expressionistischen oder verfremdenden Ansatz überschreiten diese Frühformen jedoch die späteren Gattungsgrenzen des Dokumentarfilms. 1930er und 1940er Jahre Wochenschau und Propaganda Die Wochenschautradition ist eine wichtige Tradition des Dokumentarfilms. Auch die für die Wochenschau gefilmten Ereignisse wurden oft nachgestellt, aber selten frei erfunden. Zum Beispiel wurden viele Kampfszenen nachgestellt, da der Kameramann gewöhnlich erst nach der Schlacht erschien. Dsiga Wertow, der 1921 die Dokumentarfilmergruppe Kinoki gegründet hatte, produzierte ab Februar 1922 die monatlich erscheinende russische Ereignisschau Kino-Prawda. Frank Capras Why We Fight war eine siebenteilige Filmreihe, die von der Regierung der USA in Auftrag gegeben wurde, um das heimische Publikum von der Notwendigkeit zu überzeugen, Krieg zu führen. Nationalsozialismus Einige der bekanntesten deutschen Propagandafilme – z. B. Leni Riefenstahls Film Triumph des Willens und Fritz Hipplers Der ewige Jude – entstanden als Dokumentarfilme unter dem Nationalsozialismus. Die Dokumentarfilmproduktion wurde nach 1933 stärker gefördert als zuvor und gezielt ausgebaut. Die Ufa betrieb in Potsdam-Babelsberg Mitte der 1930er-Jahre unter der Leitung von Nicholas Kaufmann zwei Kulturfilmateliers mit Spezialeinrichtungen für Unterwasseraufnahmen und für die damals ganz neue Mikrofotografie. Die Produktion nichtfiktionaler, v. a. pädagogischer Filme überstieg die Spielfilmproduktion zahlenmäßig bei weitem. Abgesehen von den Filmen von Leni Riefenstahl und Walter Ruttmann sind die meisten dieser Kulturfilme filmgeschichtlich heute jedoch kaum noch interessant. Grierson In den 1930ern argumentierte der Dokumentarfilmer und Filmtheoretiker John Grierson in seinem Essay First Principles of Documentary, Robert Flahertys Film Moana (1926) habe „dokumentarischen Wert“, und etablierte eine Reihe von Prinzipien für den Dokumentarfilm. Grierson zufolge konnte das Potenzial des Kinos, das Leben zu beobachten, zu einer neuen Kunstform führen; der 'ursprüngliche' Darsteller und die 'echte' Szene seien besser geeignet die moderne Welt zu interpretieren als die Fiktion und das roh gewonnene Material sei realer als das Gespielte. Insofern stimmt Grierson teilweise mit Wertows Verachtung für den 'bürgerlichen' Spielfilm überein. In seinen Essays hatte Dsiga Wertow dafür plädiert, das Leben zu zeigen „wie es ist“, d. h. das unbeobachtete oder überraschte Leben. Grierson etablierte sich nach seinem Film Drifters (1929) als führender Dokumentarfilmer der britischen Dokumentarfilmbewegung der 1930er Jahre und leitete die GPO Film Unit. Seit dem Zweiten Weltkrieg Direct Cinema und Cinéma Vérité Die Filme Harlan County, U.S.A. (Barbara Kopple), Dont Look Back (D. A. Pennebaker), Lonely Boy (Wolf Koenig und Roman Kroitor) und Chronique d'un été (1960) (Jean Rouch) werden zum Cinéma vérité bzw. Direct Cinema gezählt. Obwohl die Ausdrücke manchmal synonym gebraucht werden, gibt es wichtige Unterschiede zwischen beiden Dokumentarfilmbewegungen, dem französischen Cinéma Vérité (Rouch) und dem amerikanischen Direct Cinema, zu dessen Pionieren Richard Leacock, Frederick Wiseman, Donn Alan Pennebaker und die Brüder Albert und David Maysles zählen. Die Regisseure nehmen unterschiedliche Haltungen ein, was den Grad der Intervention angeht. Kopple und Pennebaker zum Beispiel bevorzugen ein Minimum an Einmischung – der Idealfall wäre die reine Beobachtung – während Rouch, Koenig und Kroitor bewusst intervenieren und Reaktionen provozieren. Im Cinéma vérité wird Filmen als Forschungsprozess über das Zusammenspiel von Filmemacher, Kamera und Objekt verstanden, wobei die Kamera alle Handlungen selbst provoziert, die sie aufzeichnet. Im Direct Cinema bleibt der Filmemacher in Hintergrund und es gibt keinerlei Eingriffe in die Realität. Es wird meist so gefilmt, dass etwaige Protagonisten nicht wissen, dass sie im Moment aufgezeichnet werden. In Deutschland wurde besonders Klaus Wildenhahn vom Direct Cinema beeinflusst. Zudem entstand in den 1960er-Jahren die Stuttgarter Schule des Dokumentarfilms in der Dokuabteilung des süddeutschen Rundfunks, welche sich am Direct Cinema orientiert. Bekanntes Beispiel ist Der Polizeistaatsbesuch (1960) von Roman Brodmann, der den Besuch des persischen Schahs, die diesbezüglichen Studentenproteste sowie die Erschießung von Benno Ohnesorg verhandelt. Dokumentarfilm und Spielfilm Das Cinéma Vérité hat mit dem italienischen Neorealismus die Neigung gemein, Laien an Originalschauplätzen zu filmen, und die französische Nouvelle Vague machte häufig von nicht im Drehbuch stehenden Dialogen und in der Hand gehaltenen Kameras und synchronisiertem Ton Gebrauch. Dokumentarfilm und Politik In den 1960er- und 1970er-Jahren wurde der Dokumentarfilm oft als politische Waffe im Kampf gegen den Neokolonialismus beziehungsweise den Kapitalismus im Allgemeinen verstanden, besonders in Lateinamerika. La Hora de los hornos (1968) Die Stunde der Feuer von Octavio Getino und Fernando E. Solanas beeinflusste eine ganze Generation von Filmemachern. Auch heute noch spielt der politische Dokumentarfilm eine wichtige Rolle, seien es die Filme des österreichischen Regisseurs Hubert Sauper oder die Filme der deutschen Filmproduzentin Kathrin Lemme, deren Dokumentarfilm Eisenfresser (Regie: Shaheen Dill-Riaz) u. a. den Grimme-Preis 2010 gewann. Siehe auch: Liste politischer Dokumentarfilme Natur und Umwelt Bereits während des Zweiten Weltkrieges arbeitete der Verhaltensforscher und Tierfilmer Heinz Sielmann an ersten dokumentarischen Tierfilmen. Nach dem Krieg schuf er international beachtete Filme. Seine erste Auszeichnung erhielt er bereits 1953, den Deutschen Filmpreis mit dem Filmband in Silber, für seine Regie bei Quick – das Eichhörnchen. Er wirkte als Fotograf auch an dem semidokumentarischen Film Die Hellstrom-Chronik mit, der 1972 als bester Dokumentarfilm mit einem Oscar ausgezeichnet wurde. Erste Dokumentarfilme der Unterwasserwelt schufen sowohl der französische Meeresforscher Jacques-Yves Cousteau, als auch der österreichische Tauchpionier, Meeres- und Verhaltensforscher Hans Hass, der mit einer selbstentwickelten „Taucherlunge“ ebenfalls schon in den 1940er-Jahren Unterwasserfilme drehte. Dabei entstand schon 1942 der Film Pirsch unter Wasser und insbesondere in den 1950er- und 1960er-Jahren verschiedene vielbeachtete Unterwasserfilme und ab den 1960er-Jahren auch soziologisch-kritische Betrachtungen in der Fernsehserie Wir Menschen. Der Film Lichter unter Wasser von 1952 ist der weltweit erste farbige Unterwasserfilm. 1953 schuf James Algar mit Die Wüste lebt einen der erfolgreichsten Tierfilme. Durch seine hohe ästhetische Qualität (Schnitt, Musik) wurde dieser Film zum Ausgangspunkt eines neuen Genres von Tierfilmen, die besonders ein Familienpublikum ansprachen. Der Produzent Hans Domnick reiste von 1958 bis 1961 mit seiner Ehefrau Maria von Nord- bis Südamerika und drehte dabei den Dokumentarfilm Panamericana – Traumstraße der Welt, der so umfangreich wurde, dass er in zwei Teile gesplittet werden musste. Der Film erhielt bei der Berlinale 1961 den Silbernen Bären. Noch bekannter wurde der Zoologe Bernhard Grzimek, der zuerst mit seinem Sohn Michael Grzimek 1956 den Film Kein Platz für wilde Tiere drehte und für den Dokumentarfilm Serengeti darf nicht sterben (1959) als erster Deutscher nach dem Zweiten Weltkrieg einen Oscar erhielt. Während der Dreharbeiten verunglückte Michael Grzimek tödlich. Einige Tierdokumentationen bzw. Tierdokumentarfilme arbeiten mit dressierten Tieren. Das ist keine Dokumentation oder ein Dokumentarfilm im eigentlichen Sinn. Häufig beeinflusst das Drehteam die Szene aber auch bewusst, z. B. durch Provokation der Tiere. Hier bleibt der Charakter einer Dokumentation bzw. eines Dokumentarfilms nur gewahrt, wenn das dem Zuschauer transparent gemacht wird oder zweifellos einem typischen Ereignis (Auftauchen eines Beutetiers) entspricht. In einem berüchtigten Negativbeispiel, dem Film White Wilderness, der 1958 einen Academy Award erhielt, konstruierten Techniker der Walt Disney Company einen schneebedeckten sich drehenden Tisch, um den Eindruck von wild umherirrenden Lemmingen zu erzeugen, die sich dann über eine Klippe in das Meer stürzten. Die Täuschung prägt bis heute das populäre Verständnis von Lemmingen. Tatsächlich bewegen sie sich zwar zeitweise in Schwärmen, unterlassen aber Massenselbstmord. Subgenres Dokumentarfilme werden in verschiedene Subgenres eingeteilt. Dazu zählen Kino-Dokumentationen, Fernseh-Dokumentationen, Naturfilme, semidokumentarische Filme, Doku-Dramen, investigative Dokumentarfilme, Reportagen und Magazinbeiträge. Weitere besondere Subgenres sind: Kompilationsfilm Kompilationsfilm bezeichnet einen Film, der aus neu montiertem Archivfilmmaterial, Interviews, Spielszenen besteht. Die Pionierin war Esfir Schub mit Der Fall der Dynastie Romanov (1927). Neuere Beispiele sind Der gewöhnliche Faschismus von Michail Romm, Point of Order (1964) von Emile de Antonio über die McCarthy-Anhörungen und The Atomic Café, der vollständig aus Material erstellt wurde, das die US-Regierung produzieren ließ, um die Bevölkerung über atomare Strahlung 'aufzuklären'. Den Soldaten wurde z. B. erklärt, ihnen könne nichts passieren, selbst wenn sie verstrahlt würden, solange sie die Augen und den Mund geschlossen hielten. The Last Cigarette (1999) kombiniert Zeugenaussagen von Managern der amerikanischen Tabakindustrie mit Archivmaterial, das die Vorzüge des Rauchens anpreist. Ein modernes Beispiel ist der mit dem Grimme-Preis ausgezeichnete Dokumentarfilm Kulenkampffs Schuhe (2018) von Regina Schilling (Regie). Essayfilm Eine Grenzform des nichtfiktionalen Films ist der Essayfilm. Die im Direct Cinema verbannte Offstimme kehrt zurück, verliert aber ihren offiziösen, autoritären, pseudoobjektiven Charakter. Zu den wichtigen Essayfilmmachern zählen Guy Debord, Chris Marker, Raoul Peck und Harun Farocki. Auch Spielfilmregisseur Dominik Graf bewegt sich hin und wieder auf dem Terrain des dokumentarischen Essayfilms, spätestens seit 2000 mit München – Geheimnisse einer Stadt. Mockumentary Ein Mockumentary ist ein vorgetäuschter Dokumentarfilm, der dem Zwecke der Unterhaltung dient oder die Menschen wachrütteln soll, damit sie nicht alles glauben, was ihnen gezeigt wird. Eine Mockumentary täuscht eine Dokumentation vor, das Format ist kein reales Subgenre des Dokumentarfilms. Scripted Reality (Pseudodoku) Scripted Reality ist eine vorgetäuschte Dokumentation, bei der die Dokumentation nicht parodiert, sondern imitiert wird. Scripted Reality täuscht eine Dokumentation vor, das Format ist kein reales Subgenre des Dokumentarfilms. Modi des Dokumentarfilms Nach Bill Nichols gibt es folgende Modi des Dokumentarfilms: Poetic mode: impressionistische, experimentelle, an der Avantgarde orientierte Form des Dokumentarfilms (Beispielsweise Dsiga Vertov: Der Mann mit der Kamera, 1929) Expository mode: illustrierende, logischen und narrativen Ordnungen folgende Darstellung von sozialen Themen, Aufklärung (Beispielsweise John Grierson: Drifters, 1929) Observational mode: Tradition des direct cinema, reine Beobachtung Reflexive mode: Tradition des cinéma vérité, selbstreflexiver Stil (das Medium reflektiert sich selbst) Performative mode: subjektiv aus der Perspektive des Filmemachers erzählte Filme über die eigene Realität, Selbstversuche (Beispielsweise David Sieveking: David wants to fly, 2010, oder Vergiss mein nicht, 2012) Kommerzieller Erfolg Michael Moores Film Fahrenheit 9/11 schrieb im Juni 2004 Filmgeschichte: Niemals zuvor hatte es ein Dokumentarfilm an die Spitze der US-Kinocharts geschafft. Bereits der vorangegangene Film Moores, Bowling for Columbine (2002), spielte in den USA ein Rekordergebnis ein. Weltweit hat der Film Fahrenheit 9/11 in den Kinos rund 222 Millionen US-Dollar. eingespielt. Somit ist er der finanziell erfolgreichste Dokumentarfilm aller Zeiten. Der finanziell zweiterfolgreichste Dokumentarfilm ist zurzeit Die Reise der Pinguine mit Einnahmen von rund 127 Millionen Dollar. Insgesamt hat der Erfolg von Fahrenheit 9/11 die großen Studios dazu veranlasst, Dokumentarfilme wieder vermehrt auf die große Leinwand zu bringen und damit Geld zu verdienen. Beispiele sind Die Reise der Pinguine, Unsere Erde – Der Film und Eine unbequeme Wahrheit. Rechtliche Aspekte Dokumentarischen Film- und Fernsehberichten über aktuelle Ereignisse spricht die deutsche Rechtsprechung regelmäßig die für den Urheberrechtsschutz als Werk erforderliche Schöpfungshöhe ab. Solche Berichte sind allenfalls als Laufbilder nach und UrhG leistungsschutzrechtlich geschützt. Dokumentarfilmer nach Ländern (Auswahl) Argentinien: Fernando Birri, Raymundo Gleyzer, Pino Solanas Australien: Michael Rubbo, John Pilger Brasilien: Alberto Cavalcanti, Eduardo Coutinho China: Wang Bing, Chai Jing Chile: Patricio Guzmán Deutschland: Claudia von Alemann, Hartmut Bitomsky, Jürgen Böttcher, Heinz Emigholz, Harun Farocki, Eberhard Fechner, Hans-Dieter Grabe, Jan Haft, Thomas Heise, Peter Heller, Werner Herzog, Christoph Hübner, Barbara, Winfried Junge, Romuald Karmakar, Volker Koepp, Erwin Leiser, Helke Misselwitz, Peter Nestler, Ulrike Ottinger, Rosa von Praunheim, Helga Reidemeister, Leni Riefenstahl, Walter Ruttmann, Helke Sander, Jan Tenhaven, Andres Veiel, Andreas Voigt, Klaus Wildenhahn Frankreich: Pierre Carles, Raymond Depardon, Alice Diop, Sylvain George Georges Franju, Claude Lanzmann, Louis Malle, Chris Marker, Marie-Monique Robin, Marcel Ophüls, Jean Painlevé, Alain Resnais, Jean Rouch, Georges Rouquier, André Sauvage, Claire Simon, Agnès Varda, René Vautier, Jean Vigo Großbritannien: Black Audio Film Collective, Nick Broomfield, Humphrey Jennings, John Grierson, Isaac Julien, Richard Leacock, Paul Rotha, Peter Watkins Indien: Anand Patwardhan Israel: Amos Gitai, Avi Mograbi Japan: Kamei Fumio, Kazuo Hara, Noriaki Tsuchimoto, Shinsuke Ogawa Kanada: Denys Arcand, Michel Brault, Allan King, Alanis Obomsawin, Pierre Perrault, Anne Claire Poirier, Nettie Wild Kambodscha: Rithy Panh Kamerun: Jean-Marie Teno Kolumbien: Marta Rodríguez und Jorge Silva Kuba: Santiago Álvarez Niederlande: Joris Ivens Österreich: Ruth Beckermann, Michael Glawogger, Nikolaus Geyrhalter, Hubert Sauper, Ulrich Seidl Polen: Jerzy Bossak, Krzysztof Kieślowski, Marcel Łoziński, Paweł Łoziński, Michał Marczak Schweiz: Jean-Stéphane Bron, Richard Dindo, Thomas Imbach, Erich Langjahr, Walter Marti (Regisseur) Fredi M. Murer, Marianne Pletscher, Alexander J. Seiler, Heidi Specogna Sowjetunion: Artawasd Peleschjan, Juris Podnieks, Esfir Schub, Alexander Nikolajewitsch Sokurow, Dziga Vertov USA: Madeline Anderson, Emile de Antonio, Les Blank, Robert Flaherty, Robert Gardner, Hector Galan, Jill Godmilow, Wiliam Greaves, Barbara Kopple, Albert Maysles, David Maysles, Ross McElwee, Michael Moore, Errol Morris, Joshua Oppenheimer, D. A. Pennebaker, Ed Pincus, Laura Poitras, Lourdes Portillo, Julia Reichert, Greta Schiller, Paul Strand, Frederick Wiseman Vietnam: Trinh T. Minh-ha Festivals Dokumentarfilme werden sowohl auf allgemeinen Festivals wie der Berlinale wie auch auf speziellen Dokumentarfilmfestivals gezeigt. Deutschsprachige Internationales Leipziger Festival für Dokumentar- und Animationsfilm – seit 1955 Duisburger Filmwoche – seit 1978 Kasseler Dokumentarfilm- und Videofest – seit 1982, mit Schwerpunkt Neue Medien Internationales Dokumentarfilmfestival München – seit 1985 DokumentART in Neubrandenburg – seit 1992 Internationale (Auswahl) International Documentary Film Festival Amsterdam – seit 1988 Internationales Dokumentarfilmfestival von Yamagata – seit 1989 Visions du Réel – seit 1969 Eine umfassende Liste ist hier abrufbar: Preise Preise für Dokumentarfilme werden vor allem am Rande von allgemeinen Filmfestivals vergeben. Bekannte Preise für Dokumentarfilme sind: International Oscar/Bester Dokumentarfilm Critics’ Choice Movie Award/Bester Dokumentarfilm Chicago Film Critics Association Award/Bester Dokumentarfilm London Critics’ Circle Film Award/Bester Dokumentarfilm National Board of Review Award/Bester Dokumentarfilm British Academy Film Award/Bester Dokumentarfilm Satellite Awards/Film/Bester Dokumentarfilm Sundance Film Festival/Großer Preis der Jury – Bester Dokumentarfilm und Bester ausländischer Dokumentarfilm Deutschsprachig Deutscher Filmpreis – Bester Dokumentarfilm Phoenix-Dokumentarfilmpreis Bayerischer Filmpreis – Dokumentarfilm Filmbüro Bremen – Dokumentarfilm Förderpreis Heimatfilmfestival – Dokumentarfilmpreis der Stadt Freistadt Diagonale – Bester österreichischer Dokumentarfilm Grimme-Preis für Fernseh-Dokumentationen Vertriebswege Neben die klassischen Vertriebswege wie Filmclubs, Filmfestivals, Fernsehen, Programmkinos, Kinematheken, Videokassetten und DVDs sind in den letzten Jahren zunehmend Video-on-Demand-Angebote getreten, bei denen Dokumentarfilme gegen eine geringe Gebühr (wie bei der aus einer Zusammenarbeit europäischer Festivals hervorgegangenen Site DocAlliance) oder völlig kostenlos (wie etwa bei UBUweb) abgerufen werden können. Literatur (chronologisch geordnet) Rüdiger Steinmetz, Helfried Spitra (Hrsg.): Dokumentarfilm als "Zeichen der Zeit". Vom Ansehen der Wirklichkeit im Fernsehen. 2. Auflage. Ölschläger, München 1992, ISBN 3-88295-154-0. Erik Barnouw: Documentary. A History of the Non-Fiction Film. 2. revised edition. Oxford University Press, New York NY u. a. 1993, ISBN 0-19-507898-5 (englisch). John Barnes u. a.: Anfänge des dokumentarischen Films. Stroemfeld, Basel/Frankfurt am Main 1995, ISBN 3-87877-784-1. Europäisches Dokumentarfilm-Institut (Hrsg.): Texte zum Dokumentarfilm. Vorwerk 8, Berlin seit 1996, . Eva Hohenberger (Hrsg.): Bilder des Wirklichen. Texte zur Theorie des Dokumentarfilms. (= Texte zum Dokumentarfilm. Band 3). Vorwerk 8, Berlin 1998, ISBN 3-930916-13-4. Peter Zimmermann (Hrsg.): Geschichte des dokumentarischen Films in Deutschland. 3 Bände. Reclam, Stuttgart 2005, ISBN 3-15-030031-2. Monika Grassl: Das Wesen des Dokumentarfilms. Möglichkeiten der Dramaturgie und Gestaltung. VDM, Saarbrücken 2007, ISBN 978-3-8364-0104-3. François Niney: Die Wirklichkeit des Dokumentarfilms. 50 Fragen zur Theorie und Praxis des Dokumentarischen. Hrsg. und Übersetzung aus dem Französischen Heinz-B. Heller. Schüren, Marburg 2012, ISBN 978-3-89472-728-4. Matthias Leitner, Daniel Sponsel u. a. (Hrsg.): Der Dokumentarfilm ist tot, es lebe der Dokumentarfilm. Über die Zukunft des dokumentarischen Arbeitens. Schüren, Marburg 2014, ISBN 978-3-89472-822-9. Daniel Sponsel (Hrsg.): "Der schöne Schein des Wirklichen: Zur Authentizität im Film." ISBN 978-3-86764-019-0 Ingo Kammerer, Matthis Kepser (Hrsg.): Dokumentarfilm im Deutschunterricht. Schneiderverlag, Hohengehren, ISBN 978-3-8340-1415-3. Olaf Jacobs, Theresa Lorenz: Wissenschaft fürs Fernsehen, Dramaturgie, Gestaltung, Darstellungsformen. Springer VS, Wiesbaden 2014, ISBN 978-3-658-02422-2, S. 49–109. Thorolf Lipp: Spielarten des Dokumentarischen. Einführung in Geschichte und Theorie des nonfiktionalen Films. 2., überarbeitete Auflage. Schüren, Marburg 2016, ISBN 978-3-89472-928-8. Bill Nichols: Introduction to Documentary, Bloomington, Ind.: Indiana University Press, 3. Auflage 2017. ISBN 978-0-253-02685-9 Ian Aitken (Hrg.): The Concise Routledge Encyclopedia of the Documentary Film (Paperback), London und New York 2017, ISBN 978-1-138-10784-7, 1096 S. Elisabeth Büttner, Vrääth Öhner und Lena Stölzl: Sichtbar machen. Politiken des Dokumentarfims (Texte zum Dokumentarfilm, hrsg. von der dfi-Dokumentarfilminitiative Band 20). Vorwerk 8, Berlin 2017, ISBN 978-3-940384-96-6. Thomas Bräutigam: Klassiker des deutschsprachigen Dokumentarfilms. Schüren, Marburg 2019, ISBN 978-3-7410-0322-6. Fahle, Oliver: Theorien des Dokumentarfilms. Zur Einführung. Hamburg, Junius 2020., ISBN 978-3-96060-313-9. Peter Zimmermann: Dokumentarfilm in Deutschland. Von den Anfängen bis zur Gegenwart, Bonn, Bundeszentrale für politische Bildung 2022,398 S., ISBN 978-3-8389-7206-0 Erika Balsom, Hila Peleg und Haus der Kulturen der Welt (Hrsg.): Feminist Worldmaking and the Moving Image, MIT Press, Cambridge, Mass. 2022 Jill Godmilow: Kill the Documentary. A Letter to Filmmakers, Students and Scholars, Vorwort von Bill Nichols, Columbia UP, New York 2022, ISBN 978-0231202770 Zeitschriften: Documentary box - (1992-2007), Images documentaires - seit 1990 Dokumentarfilme zum Dokumentarfilm 5 Bemerkungen zum Dokumentarfilm. 61 Min. Drehbuch und Regie: Gisela Tuchtenhagen. Deutschland 1974. Weblinks Dokumentarfilm. In: Film-Lexikon.de Webportal Dokumentarfilm.info – Haus des Dokumentarfilms Ein Überblick über die Geschichte des Dokumentarfilms. In: AFK-Filmkreis.de Forschungsprojekt Geschichte des dokumentarischen Films in Deutschland 1945–2005. In: Dokumentarfilmgeschichte.de Herbert Heinzelmann: Wie wirklich ist die Wirklichkeit? Eine kurze Geschichte des Dokumentarfilms. In: Kinofenster.de, 28. Oktober 2007 Michael Marek: Deutsche Filmgeschichte (4): Die Dokumentarfilme. In: DW.com, 10. Januar 2012 Uli Jung, Martin Loiperdinger (Hrsg.): Geschichte des dokumentarischen Films in Deutschland. Band 1: Kaiserreich (1895–1918). Reclam, Stuttgart 2005, Klaus Kreimeier, Antje Ehmann, Jeanpaul Goergen (Hrsg.): Geschichte des dokumentarischen Films in Deutschland. Band 2: Weimarer Republik (1918–1933). Reclam, Stuttgart 2005, Peter Zimmermann, Kay Hoffmann (Hrsg.): Geschichte des dokumentarischen Films in Deutschland. Band 3: ›Drittes Reich‹ (1933–1945). Reclam, Stuttgart 2005, Einzelnachweise Journalistische Darstellungsform Filmgattung
Q93204
682.743891
4676303
https://de.wikipedia.org/wiki/UTC%2B10%3A30
UTC+10:30
UTC+10:30 ist eine Zonenzeit, welche den Längenhalbkreis 157°30' Ost als Bezugsmeridian hat. Auf Uhren mit dieser Zonenzeit ist es zehneinhalb Stunden später als die koordinierte Weltzeit und neuneinhalb Stunden später als die MEZ. Die einzige Zeitzone mit UTC+10:30 ist die ausschließlich in Australien geltende Australian Central Daylight Time (ACDT). Sie ist für South Australia die Sommerzeitzone. Im Winter gilt hier UTC+9:30. Außerdem wird sie noch als Standard-Zeit auf der Lord-Howe-Inselgruppe verwendet. Geltungsbereich Normalzeit (Südliche Hemisphäre) (nur auf der Lord-Howe-Insel) Sommerzeit (Südliche Hemisphäre) (nur Broken Hill) Siehe auch Zeitzonen in Australien Einzelnachweise UTC30.5 Geographie (Australien) es:Huso horario#UTC+10:30, K†
Q7065
2,300.716548
12915
https://de.wikipedia.org/wiki/Athene
Athene
Athene () oder Athena () ist eine Göttin der griechischen Mythologie. Sie ist die Göttin der Weisheit, der Strategie und des Kampfes, der Künste, des Handwerks und der Handarbeit sowie Schutzgöttin und Namensgeberin der griechischen Stadt Athen. Sie gehört zu den zwölf olympischen Gottheiten, den Olympioi. Ihr entspricht Minerva in der römischen Mythologie. Ihr bedeutendstes Heiligtum war der Parthenon in Athen. Auf der Akropolis standen mehrere Statuen der Athene aus der Hand des Bildhauers Phidias. Die größte Statue verkörperte die Athena Promachos (die „in vorderster Reihe kämpfende Athene“) in voller Rüstung. Ebenso berühmt war die chryselephantine (Kunstwerk aus Gold und Elfenbein) Kolossalstatue der Athena Parthenos (der „Jungfrau Athene“) im Parthenon. Name Namensformen Um eine Frühform des Namens könnte es sich beim mykenischen Atana Potinija handeln. Im Altgriechischen existierten mehrere dialektale Varianten des Namens, darunter das attische oder , das ionische , dorisch sowie das der epischen Dichtersprache. Aus der attischen Namensform gingen das lateinische und neugriechisch hervor. Im Deutschen ist neben der attischen Lautung (Athena) auch die vom Ionischen abgeleitete Form Athene gebräuchlich. Herkunft und Bedeutung Der Name Athena konnte bisher nicht auf eine indogermanische Wurzel zurückgeführt werden und gilt daher als vorgriechisch. Die Bedeutung des Namens ist unklar. Ein aus Knossos stammendes Tontäfelchen mit Linearschrift B aus mykenischer Zeit nach 1500 v. Chr. nennt (a-ta-na-po-ti-ni-ja), wobei es sich bei a-ta-na um ein Theonym oder ein Toponym handeln könnte. Der Wortbestandteil po-ti-ni-ja wird mit dem altgriechischen identifiziert und bedeutet „Herrin, Gebieterin“ oder auch „Beherrscherin“. Der Ausdruck a-ta-na-po-ti-ni-ja wurde lange Zeit als „Herrin Atana“ übersetzt, und es wurde angenommen, dass „Atana“ eine an mehreren Orten verehrte Burggöttin war. Eine alternative Übersetzung ist „Herrin von Athen“, was bedeuten würde, dass Athen der Herkunftsort der Göttin ist und sie schon in dieser Zeit eng mit der Stadt verbunden war. Beinamen Bekannte Beinamen der Athena im Griechischen sind: ; zugleich war dies der Name der mythischen Kriegerin Pallas, Tochter des Triton , eigentlich ‚helläugige Athena‘ , als Verteidigerin des Orestes , als Schutzpatronin der Handwerker und Künstler Mythos Schutzgöttin und Weggefährtin Athena ist Schutzgöttin und Namensgeberin Athens. Sie gilt als Göttin der Städte, der Weisheit und des Kampfes, so auch der Kriegstaktik und der Strategie; sie fungierte als Palast- und Schutzgöttin der mykenischen Herrscher. Athena war Schirmherrin der Künste und der Wissenschaften; als Hüterin des Wissens beschützte sie auch Spinner, Weber und andere Handwerker. Sie wurde aber auch in anderen Städten verehrt, so zum Beispiel in römischer Zeit im pamphylischen Side, wo sie auch die Schutzgöttin des städtischen Rates war. Dies dokumentiert eine Bronzemünze, auf der Athene einen Stimmstein in eine Wahlurne wirft. In den zwei größten Epen Griechenlands, der Ilias und der Odyssee von Homer, ist Athena die Schutzgöttin des Odysseus. Im Trojanischen Krieg „kämpft“ Athena auf Seiten der Griechen. Anschließend begleitet sie Odysseus bei seinen gefahrvollen Abenteuern. Athena führt Perseus bei der Enthauptung der Medusa. Familie Laut der Theogonie Hesiods, der ältesten und verbreitetsten Mythosversion von Abstammung und Geburt der Athena, war sie eine Tochter des Zeus und der Metis. Zeus hatte die von ihm mit zwei Kindern schwangere Metis verschlungen, da ihm von Uranos und Gaia prophezeit worden war, eine Tochter sei Zeus ebenbürtig, ein Sohn werde ihn jedoch stürzen. Als er danach unter großen Kopfschmerzen litt, zerschlug Hephaistos auf Zeus’ Befehl hin dessen Haupt (was er als Göttervater überstand). Daraus entsprang in voller Rüstung Athena. Sie wurde daher als eine Verkörperung des Geistes (da aus dem Kopf des Zeus = Kopfgeburt) und damit der Weisheit und Intelligenz angesehen. Der Bruder der Athena blieb in Metis (beziehungsweise in Zeus) ungeboren und unbenannt. Die Hephaistos-Episode ist nicht in allen Versionen vorhanden. In einer besonderen Version des Mythos entsprang Athena in Rüstung dem Mund des Zeus und zwang ihn, ihre verschlungenen Geschwister freizugeben. Als Schutzgöttin der Stadt Athen wurde sie daher auch oft in voller Kriegsrüstung dargestellt. Von ihrem Vater erhielt sie seine Aigis als Leihgabe, die das Haupt der später Medusa genannten Gorgo, das Gorgoneion, zierte. Dieses Antlitz schmückte auch ihren Schild. Ihr Ziehvater war der Meeresgott Triton, mit dessen Tochter Pallas sie aufwuchs. Athena tötete diese versehentlich während eines Kampfspiels mit Wurfspeeren. Zum Andenken schuf Athena eine Statue, das Palladion, und übernahm den Namen der Getöteten: . Charakter Wie viele griechische Gottheiten war Athena überaus leicht zu kränken: So verwandelte sie Arachne, die behauptete, die Göttin in der Webkunst zu übertreffen, in eine Spinne. Der Maler Diego Velázquez hat den Wettstreit zwischen Athena und Arachne in seinem monumentalen Gemälde Die Spinnerinnen dargestellt. Sie ging niemals eine Liebesbeziehung ein, daher auch der Beiname Parthenos „die Jungfräuliche“ (vergleiche auch Artemis). Doch hauchte sie auf Bitten ihres Freundes, des Titanen Prometheus, den Menschen Wissen und Weisheit ein. Nach dem Mythos stritten Poseidon und Athena um die Schirmherrschaft einer Stadt. So hielten sie einen Wettstreit ab: Wer der Stadt das nützlichere Geschenk mache, habe gewonnen. Poseidon gab einen Brunnen (oder auch eine Quelle), der jedoch nur Salzwasser spendete oder in anderen Versionen das Pferd; Athenas Gabe war der Olivenbaum und damit dessen Holz und Früchte. So wurde Athena die Schutzgöttin der Stadt, die seitdem ihren Namen trägt: – Athen. Der heilige Ölbaum stand lange Zeit exponiert auf dem Areal der Akropolis und soll laut Legende nach der Zerstörung des Tempels während der Invasion des Xerxes neu ausgeschlagen haben. Athene und die Eule Laut Homer ist Athena , was meistens mit „eulenäugig“ übersetzt wird (, ). Für das Attribut glaukōpis gibt es mehrere Deutungen. „Eulenäugig“ bedeutet möglicherweise, dass sie scharf und im Dunkeln sehen konnte. Nach einer anderen Interpretation sind mit den „Eulenaugen“ große Augen gemeint (vgl. die großen Augen der Eule auf der abgebildeten Münze). Große Augen galten in der Antike als Schönheitsideal. In ähnlicher Weise gibt es für Hera den Beinamen „die Kuhäugige“, der nicht herabwürdigend, sondern ebenfalls als Verweis auf große Augen zu verstehen ist. Eine andere Deutung leitet glaukōpis von , ab. Demnach könnte Homer die Eigenschaft „helläugig“ gemeint haben. Im alten Griechenland gab es, wie auch heute noch, sowohl helläugige als auch dunkeläugige Menschen. Es wurde argumentiert, dass Homer, wenn er auf große Augen hinweisen wollte, er Athene – wie Hera – wenigstens ab und zu auch „kuhäugig“ hätte nennen können. So nennt er aber immer nur Hera und nie Athene. Danach ist zu fragen, warum Homer für die beiden Göttinnen verschiedene Attribute verwendet hat, wenn die Bedeutung jeweils nur „großäugig“ gewesen sein soll. Diese Überlegung stützt die alternativen Deutungen „scharfsichtig“ und „helläugig“. Jedenfalls war die Eule Athena symbolisch zugeordnet und erschien auch auf den athenischen Münzen – daher die seit der Antike bekannte Redensart Eulen nach Athen tragen für „etwas Überflüssiges tun“. Auch heute ist ein Teil dieser athenischen Münze auf der griechischen 1-Euro-Münze zu sehen. Als Sinnbild der Athena und als Vogel der Weisheit galt insbesondere der Steinkauz. Sein wissenschaftlicher Name ist Athene noctua, „nächtliche Athene“. Nachwirkung Im klassischen Jahrhundert der deutschen Literatur (etwa bei Friedrich Schiller) wurde für „Athena“ oft der damals geläufigere lateinische Name „Minerva“ benutzt, so auch in Georg Wilhelm Friedrich Hegels berühmtem Zitat zu der Tatsache, dass die Erkenntnis gesellschaftlicher Verhältnisse den Ereignissen oft erst folge: „[…] die Eule der Minerva beginnt erst mit der einbrechenden Dämmerung ihren Flug.“ (Vgl. Grundlinien der Philosophie des Rechts.) Sachsen-Weimar verwendete als Münzbild die Pallas Athene auf dem Pallastaler, der 1622 und 1623 während der Kipper- und Wipperinflation vollwertig geprägt wurde. Die Nationale und Kapodistrias-Universität Athen, die Max-Planck-Gesellschaft, die Universität der Bundeswehr München und die Technische Universität Darmstadt führen den Kopf der Athena in ihrem Signet. Die deutsch-griechische Athene-Grundschule in Berlin (Europaschule) trägt diesen Namen seit 2002. Statuen und Bildnisse (Auswahl) Eine 5,5 Meter hohe Statue der Pallas Athena steht vor dem österreichischen Parlamentsgebäude in Wien. Auf dem Ehrenhof des Campus Süd des Karlsruher Instituts für Technologie steht ebenfalls eine Statue der Athena mit gesenkter Speerspitze, mit der die Universität an ihre im Krieg Gefallenen erinnert. Seit 1957 steht eine solche Statue auch vor dem altsprachlich orientierten Wilhelm-Dörpfeld-Gymnasium in Wuppertal. Als 3,4 Meter hohe Kuppelfigur von Johannes Benk sieht man Athene auf dem Kunsthistorischen Museum in Wien. Literatur Karl Kerényi: Die Jungfrau und Mutter der griechischen Religion. Eine Studie über Pallas Athene. Rhein-Verlag, Zürich 1952. C. John Herington: Athena Parthenos and Athena Polias. A study in the religion of Periclean Athens. Manchester University Press, Manchester 1955. Susan Deacy, Alexandra Villing: Athena in the Classical World. Brill, Leiden 2001. Weblinks Athene/Athena im Theoi Project (englisch) Einzelnachweise Griechische Gottheit Kriegsgottheit Weibliche Gottheit Griechische Gottheit als Namensgeber für einen Asteroiden
Q37122
172.079625
391329
https://de.wikipedia.org/wiki/Kitaky%C5%ABsh%C5%AB
Kitakyūshū
Kitakyūshū (wörtlich: „Nord-Kyūshū“; ) ist eine Großstadt in der Präfektur Fukuoka an der Nordspitze der japanischen Insel Kyūshū südlich der Kammon-Straße. Die Stadt ist zusammen mit Shimonoseki in Yamaguchi auf der anderen Seite der Straße zentraler Teil der Metropolregion Kammon[-Kitakyūshū]; diese wächst zunehmend mit der Metropolregion Fukuoka zusammen und wird zum Teil bereits als eine gemeinsame Metropolregion Kitakyūshū-Fukuoka definiert. Kitakyūshū hat unter den 29 Städten der Präfektur Fukuoka die größte Fläche (fast ein Zehntel). Kitakyūshū hat das Image einer verschmutzten Industriestadt, was in den 1960er Jahren der Fall war – aber heutzutage ist sie eine der fortschrittlichsten in Sachen Umgang mit Verschmutzung und Recycling-Technik. Geschichte Die heutige Teilstadt Kokura war am 9. August 1945 für den US-amerikanischen Major Charles Sweeney das Ziel für die von ihm im Flugzeug mitgeführte Atombombe Fat Man. Das Ziel sollte im Sichtflug angegriffen werden, jedoch verhinderten Rauchschwaden aus den am Vortag mit Brand- und Sprengbomben angegriffenen Yawata Stahlwerken in Yahata, die vom Westwind nach Kokura getrieben wurden, eine klare Sicht. Sweeney brach den Angriff nach dem 3. Versuch ab und bombardierte das Ausweichziel Nagasaki um 11:02 Japanische Normalzeit (JST). Die Stadt entstand am 10. Februar 1963 aus der Fusion der Städte Moji (, -shi), Kokura (, -shi), Tobata (, -shi), Yahata (, -shi) und Wakamatsu (, -shi). Kultur Seit 1974 gibt es mit dem Kitakyūshū Municipal Museum of Art ein Museum für japanische und westliche Kunst mit Arbeiten vom 19. Jahrhundert bis zur Gegenwart. Es befindet sich im Stadtteil Tobata im Bijutsunomori Park in einem Gebäude, das nach Plänen des Architekten Arata Isozaki errichtet wurde. Im Mai 1997 eröffnete das Center for Contemporary Art (CCA) seine Pforten. Hier haben in den darauf folgenden Jahren Ausstellungen mit Werken von bekannten internationalen Künstlern stattgefunden, so beispielsweise von Maurizio Cattelan oder Anri Sala. Schriftsteller Der Schriftsteller Matsumoto Seichō wurde in Kokura geboren. Das Matsumoto Seichō Memorial Museum befindet sich in der Innenstadt. Der Romanautor Mori Ōgai lebte hier mehrere Jahre. Sein Haus in Kokura ist der Öffentlichkeit geöffnet, dort schrieb er das Kokura Nikki (Kokuraer Tagebuch). Der Schriftsteller Hino Ashihei wurde im Stadtteil Wakamatsu geboren. Sein Geburtshaus kann besichtigt werden. Naturschönheiten Hiraodai (): Karstplateau Berg Sarakura () Kawachi (): Reservoir Politik und Verwaltung Seit 2023 ist der ehemalige MHLW-Beamte Kazuhisa Takeuchi Bürgermeister von Kitakyūshū. Er setzte sich bei der Bürgermeisterwahl im Februar 2023 mit 42,9 % der Stimmen gegen den von etablierten Parteien unterstützten (LDP, KDP, Kōmeitō, DVP, SDP) ehemaligen Naikaku-fu-Beamten Yōsuke Tsumori (38,1 %) und zwei weitere Kandidaten durch. Vorgänger Kenji Kitahashi war nach vier Amtszeiten nicht mehr angetreten und hatte ebenfalls Tsumoris Kandidatur unterstützt. Das Stadtparlament von Kitakyūshū (Kitkyūshū-shigikai) hat 57 Mitglieder und wurde zuletzt im Januar 2021 neu gewählt. Die LDP fiel um sechs auf 16 Sitze zurück, die Kōmeitō gewann unverändert 13, die KPJ unverändert 8, die KDP legte auf 7 Sitze zu, die Ishin no Kai erhielt erstmals 3 Sitze, zehn Sitze gingen an Unabhängige. Im zuletzt bei den einheitlichen Wahlen im April 2023 gewählten 87-köpfigen Präfekturparlament von Fukuoka ist die Stadt seitdem mit insgesamt 15 Abgeordneten vertreten, die Bezirke fungieren als Ein- bis Dreimandatswahlkreise. Bei Wahlen zum Unterhaus des Nationalparlaments bildet Kitakyūshū die Wahlkreise 9 und 10 der Präfektur, die bei der Wahl 2021 der Unabhängige Rintarō Ogata (nach der Wahl zur Fraktion Yūshi no kai aus ehemaligen Demokraten) und der Konstitutionelle Demokrat Takashi Kii gegen die LDP-Vorgänger gewannen. Stadtgliederung Am 1. April 1963 wurde Kitakyushyu zur „regierungsdesignierten Großstadt“ (Seirei shitei toshi) erklärt. Gleichzeitig erfolgte eine Einteilung in fünf Stadtbezirke (-ku, ), die den Namen der fusionierten Städte trugen. Am 1. April 1974 wurden die Stadtbezirke Kokura und Yahata in je zwei weitere Stadtbezirke aufgeteilt: Kokura-Kita (, Kokura-Nord) und Kokura-Minami (, Kokura-Süd) sowie Yahata-Higashi (, Yahata-Ost) und Yahata-Nishi (, Yahata-West). Der Stadtbezirk Kokura-Kita wird als Zentrum angesehen. Die westlich gelegene Stadt Nakama sollte 2005 im Zuge der Großen Heisei-Gebietsreform eingemeindet und zum achten Stadtbezirk werden, dies wurde jedoch vom dortigen Stadtrat am 24. Dezember 2004 wegen der daraus resultierenden verringerten politischen Autonomie Nakamas abgelehnt, nachdem die Bürger von Nakama-shi in der Volksabstimmung der Fusion zugestimmt hatten. Die aktuellen sieben Stadtbezirke von Kitakyūshūs sind: Wirtschaft Nippon Steel ist auch heute ein wichtiger Arbeitgeber, aber die Werke Yawata und Tobata haben gegenüber den 1960er Jahren an Bedeutung verloren. 1972 haben die letzten Kohlegruben geschlossen. Das Yawata-Werk wurde 1901 gegründet und war Japans erstes Stahlwerk. Es produzierte in den ersten Jahrzehnten 80 Prozent des japanischen Stahls. Kitakyūshū ist auch der Standort des Stammwerkes des Industrieroboter- und Elektromotorenherstellers Yaskawa (in Yahata). Verkehr Aufgrund seiner strategisch wichtigen Lage am Südufer der Kammon-Straße ist Kitakyūshū ein wichtiges Verkehrsdrehkreuz zwischen Honshū und Kyūshū und hat einen großen Hafen. Zuglinien in Kitakyūshū sind: JR Kyushu: Kagoshima-Hauptlinie, Nippō-Hauptlinie, Hitahiko-Linie Chikuhō-Hauptlinie Sanyō-Hauptlinie JR West Sanyō-Shinkansen: Der Bahnhof Kokura ist der vorletzte Halt der Shinkansen-Linie. Chikuhō-Eisenbahnlinie In der Stadt besteht der ÖPNV im Wesentlichen aus Bussen und der Einschienenbahn Kitakyūshū. Kitakyūshū ist der größte Fährhafen im westlichen Japan. Fährverbindungen gibt es zwischen Kitakyūshū und Shimonoseki, Matsuyama, Tokushima, Kōbe, Osaka, Tokio, Ulsan (Korea), Busan (Korea) und den Inseln der Stadt. Im Raum Kanmon-Kitakyūshū bestehen drei Pendlerverbindungen: Trans-Dokaiwan Ferry, The Kanmon Straits Ferry, und The Kanmon Straits Liner. Der Flughafen Kitakyūshū wurde am 16. März 2006 auf einer künstlichen Insel im Meer eröffnet. Von dort bestehen vorwiegend Inlandsverbindungen nach Tokyo, aber auch Flüge nach Shanghai. Söhne und Töchter der Stadt Oku Yasukata (1847–1930), Militär Tsuruta Tomoya (1902–1988), Schriftsteller Hino Ashihei (1907–1960), Schriftsteller Matsumoto Seichō (1909–1992), Schriftsteller Ogura Rō (1916–1990), Komponist Tetsuya Theodore Fujita (1920–1998), einer der wichtigsten Sturmforscher des 20. Jahrhunderts Leiji Matsumoto (1938–2023), Manga-Zeichner  Kenji Kimihara (* 1941), Langstreckenläufer Ohmae Kenichi (* 1943), Unternehmensberater und Autor Yōichi Masuzoe (* 1947), LDP-Politiker Shigeru Umebayashi (* 1951), Filmkomponist Yoshinori Suematsu (* 1956), Politiker Tsukasa Hōjō (* 1959), Manga-Zeichner Seiko Noda (* 1960), LDP-Politikerin Mochiru Hoshisato (* 1961), Manga-Zeichner Kazuaki Yoshinaga (* 1968), Fußballspieler und -trainer Yoshie Takeshita (* 1978), Volleyball-Nationalspielerin Masashi Motoyama (* 1979), Fußballspieler Keiko Suenobu (* 1979), Manga-Zeichnerin Mai Nakahara (* 1981), Synchronsprecherin und Sängerin Sōta Hirayama (* 1985), Fußballspieler Tsubasa Kitatsuru (* 1985), Bahnradsportler Seiya Kishikawa (* 1987), Tischtennisspieler Yatsunori Shimaya (* 1989), Fußballspieler Kōhei Uchimura (* 1989), Geräteturner Atsushi Matsuo (* 1990), Fußballspieler Arisa Murata (* 1990), Freestyle-Skierin Ryōsuke Tone (* 1991), Fußballspieler Hanae Shibata (* 1992), Fußballspielerin Yū Tamura (* 1992), Fußballspieler Kōki Shimosaka (* 1993), Fußballspieler Yūta Mishima (* 1994), Fußballspieler Norimichi Yamamoto (* 1995), Fußballspieler Takahiro Kunimoto (* 1997), Fußballspieler Naohiro Sugiyama (* 1998), Fußballspieler Yūya Fukuda (* 1999), Fußballspieler Abdul Hakim Sani Brown (* 1999), Sprinter Shoki Nagano (* 2002), Fußballspieler Städtepartnerschaften Dalian (China), seit 1979 Incheon (Südkorea), seit 1988 Norfolk, seit 1959 Tacoma (USA), seit 1959 Minamikyūshū (Japan), seit 2008 Galerie Angrenzende Städte und Gemeinden Nakama Nōgata Yukuhashi Ashiya Mizumaki Kurate Kawara Fukuchi Kanda Miyako Anmerkung Weblinks Einzelnachweise Ort in der Präfektur Fukuoka Ort mit Seehafen
Q188806
130.822154
1152479
https://de.wikipedia.org/wiki/Tscheljabinsk
Tscheljabinsk
Tscheljabinsk [] (, , wiss. Transliteration Čeljabinsk) ist eine russische Großstadt am Ural mit 1.198.858 Einwohnern (2017) und somit die siebtgrößte Stadt Russlands. Sie ist Verwaltungssitz der Oblast Tscheljabinsk. Lage Die Stadt liegt an der Grenze zwischen Mittlerem und Südlichem Ural, unweit des östlichen Fußes des Gebirges am Fluss Miass, einem Nebenfluss der Isset im Einzugsgebiet des Ob. Geschichte Tscheljabinsk wurde 1736 als Festung am rechten Ufer des Flusses Miass und Bestandteil der Orenburger Befestigungslinie gegründet. Der Name der Stadt entstammt vermutlich regional uralischen Turksprachen, Tscheljabi bedeutet dort „die Edlen“. 1743 wurde Tscheljabinsk zum Verwaltungszentrum für die Provinz Isset und erhielt 1787 den Stadtstatus. Von 1781 bis 1796 gehörte Tscheljabinsk zur Ujesd Jekaterinburg, einer Unterverwaltungseinheit im Gouvernement Perm. Danach wechselte Jekaterinburg die Zugehörigkeit zum Gouvernement Orenburg. Ende des 18. Jahrhunderts war die Stadt ein regionales Verwaltungszentrum und auch Schauplatz der Auseinandersetzungen beim Aufstand des Bauernführers Jemeljan Pugatschow gegen Katharina die Große. Bis ins 19. Jahrhundert blieb Tscheljabinsk eine Kleinstadt. Den ersten großen wirtschaftlichen Entwicklungsschub brachten ab 1891 die von Konstantin Michailowski hergestellte Eisenbahnverbindung nach Jekaterinburg sowie die Inbetriebnahme der Transsibirischen Eisenbahn, die in Tscheljabinsk ihren Ausgang nahm. Tscheljabinsk wurde zum bedeutendsten Verkehrs- und Handelszentrum im Ural und zum Hauptumschlagplatz für Tee und Getreide. In der Folge siedelten sich zahlreiche Betriebe zur Verarbeitung der Handelsware wie Ölmühlen und Gerbereien an. Nach dem Ausbruch der Oktoberrevolution und des Russischen Bürgerkrieges wurde die Stadt durch die Weißgardisten des Admirals Koltschak besetzt. Nachdem ein tschechoslowakischer Soldat beim sogenannten „Zwischenfall von Tscheljabinsk“ am 14. Mai 1918 ums Leben kam und dies zu Protesten führte, ordnete der neue sowjetrussische Kriegskommissar Leo Trotzki die Entwaffnung der Tschechoslowakischen Legionen und den Abmarsch aus Russland an. Daraufhin kam es zum Aufstand, und die Legionen eroberten unter Sergej Vojcechovskýs Befehl zweimal die Stadt. Erst am 24. Juli 1919 gelang es der Roten Armee, die Stadt zurückzuerobern. 1919 wurde im Rahmen der Russischen SFSR das Gouvernement Tscheljabinsk gebildet, das nur bis 1923 bestand. Tscheljabinsk kam anschließend zur Oblast Ural, nach deren Auflösung wurde 1934 die bis heute bestehende Oblast Tscheljabinsk gebildet. In den 1930er Jahren erfolgte im Zuge der Industrialisierung der Sowjetunion der zweite wirtschaftliche Aufschwung. Angesiedelt wurden vor allem Schwerindustriebetriebe. Während des Zweiten Weltkrieges wurden etwa 60 Industrieanlagen aus den westlichen Landesteilen nach Tscheljabinsk verlegt, die nun Rüstungsgüter herstellten. Auf dem Gebiet der Panzerproduktion nahm die Stadt den Spitzenplatz innerhalb der Sowjetunion ein. Das zur Fertigung von Kettenschleppern 1933 gegründete Traktorenwerk (heute Tscheljabinski Traktorny Sawod – URALTRAK) wurde im Zweiten Weltkrieg zu einem wichtigen Produzenten von Rüstungsgütern für die Rote Armee. Neben Raketenwerfern („Stalinorgeln“) fertigte das Werk vor allem gepanzerte Kettenfahrzeuge wie die KW-1 und T-34 Panzer sowie Selbstfahrlafetten der Typen SU-152/ISU-152. In der Zeit des Deutsch-Sowjetischen Kriegs erhielt die Stadt daher den Namen Tankograd – „Panzerstadt“. Tscheljabinsk war ein Standort innerhalb des sowjetischen Gulag-Systems. Das Tscheljabinsker ITL (Besserungsarbeitslager) bestand von November 1941 bis Oktober 1951. Inhaftiert waren bis zu 15.400 Personen, die beim Bau eines Hüttenwerks, im Industrie-, Straßen-, Zivil- und Wohnungsbau sowie bei der Förderung von Bodenschätzen eingesetzt wurden. Außerdem befand sich das Kriegsgefangenenlager 68 für deutsche Kriegsgefangene des Zweiten Weltkriegs in Tscheljabinsk. Schwer Erkrankte wurden im Kriegsgefangenenhospital 5882 versorgt. Etwa 12 km östlich der Stadt gab es ein Kriegsgefangenen-Massengrab. Seit Mitte der 1970er Jahre macht Tscheljabinsk große Fortschritte im Bereich Kultur. Gefördert wurde diese Entwicklung durch eine zentrale Skulpturenmeile in der 2004 zur Fußgängerzonen umgestalteten Kirow-Straße. Die militärische Produktion wurde im neuen Russland zugunsten einer stärkeren Gewichtung ziviler Fertigung verdrängt – so stellt das heutige URALTRAK-Werk vorwiegend Baufahrzeuge her. Im August 2007 fand auf den umliegenden Militärstützpunkten das Großmanöver „Friedensmission 2007“ im Rahmen der Shanghaier Organisation für Zusammenarbeit statt, an der neben Russland auch Streitkräfte aus Kasachstan, Tadschikistan, Kirgisien, Usbekistan und der Volksrepublik China teilnahmen. Über die Grenzen Russlands hinaus ist Tscheljabinsk durch eine ARD-Reportage für das Kinder- und Jugendgefängnis bekannt, in dem ca. 120 Kinder von 11 bis 16 Jahren wegen unterschiedlichster Straftaten von Diebstahl bis Mord einsitzen. Trotz Schulbildung in dieser Einrichtung werden ca. 90 % der Kinder rückfällig. Am 15. Februar 2013 ging ein Meteor über der Stadt nieder, wodurch mehrere hundert Menschen verletzt wurden. Bevölkerungsentwicklung Wirtschaft Tscheljabinsk hatte vor dem Bau der Transsibirischen Eisenbahn nur als administratives und regionales Handelszentrum gewisse Bedeutung. Im Jahr 1896 wurden die beiden Linien Tscheljabinsk-Ob (1432 km) und die Bahnlinie Jekaterinburg-Tscheljabinsk (226 km) fertiggestellt. Mit der Bahn kam der industrielle Aufschwung. Tscheljabinsk entwickelte sich daraufhin zu einem Rüstungs-, Industrie-, Verkehrs- und Kulturzentrum von landesweiter Bedeutung. Die metallurgischen Kombinate gehören zu den größten Russlands und Europas. In Tscheljabinsk, das auch als die „Schmiede Russlands“ bezeichnet wird, werden folgende Produkte hergestellt: Eisenlegierungen, Schleifmittel, Elektroden, Edelstähle Draht und Großrohre (bis 1220 mm Durchmesser) Rüstungsgüter (insbesondere Panzermotoren) Schwermaschinen- und Gerätebau wie zum Beispiel Werkzeugmaschinen, Diesel- und Elektrokräne, Beregnungsanlagen, Uhren (zum Beispiel die Firma Molnija), Radios, Heizgeräte, Messinstrumente Kettentraktoren und Baumaschinen aus dem Tscheljabinski Traktorny Sawod Güter der chemischen und Leicht- und Nahrungsmittelindustrie Die Stadt betreibt mehrere Wärmekraftwerke, bildet einen Eisenbahn- und Verkehrsknoten und hat einen Flughafen. Es mündet eine Erdölleitung in der Stadt beziehungsweise hat die Stadt eine Durchleitung einer Gasleitung, die von Samotlor kommt. In der Umgebung existieren Lagerstätten von Braunkohle mit einem Gehalt von etwa 1,5 Milliarden Tonnen. Außerdem gibt es weißen Marmor bei Balandino und Kojelga sowie mit „Mochalin Log“ eine Lagerstätte für Mineralien aus denen Metalle der Seltenen Erden gewonnen werden können. In der Nähe von Tscheljabinsk befindet sich die geheime Atomtestsperrzone „Tscheljabinsk 70“. Die Existenz des Testgebietes wurde 1992 öffentlich bekannt. Verkehr Nahverkehr Die Metro Tscheljabinsk wird seit 1992 gebaut, aber die Eröffnung des ersten Abschnitts wurde hauptsächlich wegen mangelnder Finanzierung immer wieder verschoben. Eine Fertigstellung ist noch nicht in Sicht. Die Hauptlast des öffentlichen Personennahverkehrs trägt aktuell ein System aus Trolleybussen, Straßenbahnen und gewöhnlichen Buslinien. Linientaxis spielen ebenfalls eine wichtige Rolle im öffentlichen Verkehr. Flughafen Der Flughafen Tscheljabinsk bietet regelmäßige Verbindungen nach Moskau, Sankt Petersburg sowie in sibirische Großstädte. Bahnhof Der Bahnhof von Tscheljabinsk (HAFAS: Cheliabinsk) wurde 2005 zum besten Bahnhof Russlands gewählt und ist bis heute ein zentraler Verkehrsknotenpunkt von überregionaler Bedeutung. Hier kreuzen sich die West-Ost-Bahntrasse durch ganz Russland von Moskau nach Wladiwostok und die Hauptstrecke von Jekaterinburg südwärts nach Qaraghandy in Kasachstan. Aus Deutschland konnte man Tscheljabinsk mit einer wöchentlich verkehrenden Kurswagenverbindung aus Berlin ohne Umstieg mit einer Fahrzeit von 72 Stunden und 18 Minuten erreichen; diese Verbindung wurde zum Fahrplanwechsel 2013 gestrichen. Die Stadt ist Verwaltungssitz der Regionaldirektion Südural der Russischen Staatsbahn. Die Direktion betreibt nicht nur alle Eisenbahnlinien samt zugehöriger Infrastruktur im Großraum Tscheljabinsk, sondern auch ein über 8000 Kilometer langes Schienennetz. Fernstraßen Über die föderale Fernstraße M5 ist Tscheljabinsk mit dem europäischen Teil Russlands verbunden. Hier beginnt die Fernstraße R254, die über Omsk (am namensgebenden Fluss Irtysch) nach Nowosibirsk verläuft. Gleichzeitig ist die Stadt Ausgangspunkt der Abzweigung A310, die in südlicher Richtung zur kasachischen Grenze führt. Umweltverschmutzung Ein mit der großen Konzentration der Schwerindustrie einhergehendes Problem ist die exorbitante Umweltverschmutzung in Tscheljabinsk sowie der Smog. Zur hohen Luftverschmutzung kommen vielfach unkontrollierte riesige Mülldeponien hinzu. Eine Bürgerinitiative, darunter vor allem Frauen, brachte Demonstrationen von mehreren Tausend Menschen zusammen und Unterschriften von 160.000 Menschen, welche gegen den Bergbau waren, der ihrer Meinung die Trinkwasserversorgung gefährdete. Ältere Frauen kamen erstmals in ihrem Leben mit der Staatsmaschinerie in Berührung, als sie verhaftet wurden, und meinten dazu: „Das ändert unsere Meinung doch nicht.“ Demographie Im Jahre 1928 lebten in Tscheljabinsk ca. 60.000 Menschen, 2004 hatte die Stadt 1.071.000 Einwohner und ist in 7 Stadtbezirke unterteilt: Kalininski Rajon – 203.200 Einwohner Kurtschatowski Rajon – 182.400 Einwohner Leninski Rajon – 189.100 Einwohner Metallurgitscheski Rajon – 142.200 Einwohner Sowjetski Rajon – 112.200 Einwohner Traktorosawodski Rajon – 157.600 Einwohner Zentralny Rajon – 84.300 Einwohner 88,5 % der Einwohner sind ethnische Russen. Bildung und Kultur Es gibt mindestens 23 Forschungsinstitute, 23 technische Zentren, 4 Theater, 1 Philharmonie, eine Bildergalerie, ein Heimatmuseum und ein Fernsehzentrum in der Stadt. Neben einer großen Zahl an Universitäten mit zahlreichen Studiengängen gibt es eine spezialisierte pädagogische Hochschule. Es gibt mehr als ein Dutzend Hochschulen in Tscheljabinsk. Die bedeutendsten Universitäten sind die Staatliche Universität Südural, Staatliche Universität Tscheljabinsk und Medizinische Akademie Tscheljabinsk. Die älteste ist die Staatliche Pädagogische Universität Tscheljabinsk, die 1934 gegründet wurde. Neben dem bekannten Theater am Revolutionsplatz befindet sich ein weiteres Theater, ein Opernhaus mit Ballett und ein Puppentheater im Zentrum. Sehenswürdigkeiten Historische Architektur vor dem 19. Jahrhundert ist in der Stadt wenig vorhanden. Wichtigste Attraktionen sind das 1903 erbaute Theater am Platz der Revolution und die 1915 entstandene Alexander-Newski-Kirche, die heute eine Konzerthalle vor allem für Orgelkonzerte ist. Am Platz der Revolution beginnt auch mit einem malerischen alten Tor die Fußgängerzone der Stadt (Kirow-Straße), an deren Rand sich eine beliebte Skulpturenmeile mit naturalistisch gestalteten, lebensgroßen Figuren befindet. Hier ist ein Zentrum des Tscheljabinsker Nachtlebens mit Restaurants, Casinos, Bars und Clubs. Die Stadt wird gitterförmig von zahlreichen breiten und oft kilometerweit schnurgeraden Boulevards durchzogen, mit bis zu vier Fahrspuren in jeder Richtung. In der Umgebung gibt es zahlreiche Seen mit Sanatorien. Ausflüge können in das Naturreservat „Ilmenski Sapowednik“ und in die nahen Uralberge unternommen werden. Freizeit und Sport In der Stadt sind die Eishockeyclubs HK Traktor Tscheljabinsk und HK Metschel Tscheljabinsk beheimatet. Traktor spielt in der Saison 2008/2009 in der Kontinentalen Hockey-Liga. Metschel vertritt die Stadt in der zweithöchsten russischen Spielklasse. Erwähnenswert als Zentrum des Sports ist eine monumentale, für die beiden Clubs nach dem Millennium erbaute Eishalle, die für das Uralgebiet auch ein Zentrum für Eiskunst- und -schnelllauf ist. Der Damen-Volleyballverein VK Dynamo-Metar nimmt an der Austragung der Volleyball-Superliga teil. Weiteres bekannte Sportteam der Stadt ist eine hochklassige Frauen-Basketballmannschaft. Der Fußballverein FK Tscheljabinsk nimmt am Spielbetrieb der dritthöchsten russischen Spielklasse teil. Der Handballverein Lokomotiv-Polyot Tscheljabinsk erreichte 1994/95 das Endspiel im EHF-Pokal bei den Männern. 2021 stieg der Verein aus der russischen Super-League ab. Vom 26. bis zum 29. April 2012 fanden in Tscheljabinsk in der Eissportarena Traktor die Judo-Europameisterschaften und vom 25. bis 31. August 2014 die Judo-Weltmeisterschaften statt. Auch die Wettkämpfe der Taekwondo-Weltmeisterschaften 2015 wurden in der Eissportarena Traktor ausgefochten. Die Eisschnelllauf-Mehrkampfeuropameisterschaft 2015 wurde in der Eissporthalle Uralskaja Molnija ausgetragen. Große Freizeiteinrichtungen abseits des Sports sind ein zentrales Vergnügungsgelände im Puschkin-Park, ein weiteres im Kulturpark und der Zirkus von Tscheljabinsk. Städtepartnerschaften Tscheljabinsk listet folgende sieben Partnerstädte auf: Klimatabelle Söhne und Töchter der Stadt Meteor von Tscheljabinsk Weblinks Tscheljabinsk auf mojgorod.ru (russisch) Stadtporträt mit kurzem Video Fotos der Stadt deutschsprachiger Film von der Skulpturenmeile Straflager in der Sowjetunion – Lage und Beschreibung der Straflager in der Sowjetunion Einzelnachweise Ort in der Oblast Tscheljabinsk Millionenstadt Ort in Asien Hochschul- oder Universitätsstadt in Russland Hauptstadt eines Föderationssubjekts Russlands Gemeindegründung 1736
Q906
145.482642
47891
https://de.wikipedia.org/wiki/Sitcom
Sitcom
Die Sitcom (Kofferwort für „Situationskomödie“, siehe auch: Comedy) ist eine Unterhaltungssendung, die auf die US-amerikanischen Comedy-Shows im Hörfunk der 1930er und 1940er Jahre (, ) zurückgeht. Das Fernsehen adaptierte das Genre, wobei es – wie früher im Radio – meist als Serie ausgestrahlt wird. Kennzeichen und Eigenarten Situationskomik bezeichnet die humorvolle Auseinandersetzung mit einer momentan vorliegenden Situation durch einen Beteiligten. Ein Kennzeichen der Sitcom ist daher die ständige, schnelle Abfolge von Gags, Pointen und komischen Momenten, allerdings im Rahmen einer dramatischen Handlung, womit sich die Sitcom von Comedyshows unterscheidet, bei denen Sketche lediglich aneinandergereiht werden. Eher selten bekommt die Serie ein bewusst dramatisches Element wie in Roseanne. Typisches äußeres Kennzeichen der klassischen Sitcom ist die Aufzeichnung im Studio: Die Darsteller agieren auf einer Guckkastenbühne, für die Handlung folgt daraus eine Beschränkung der Schauplätze auf wenige, stets wiederkehrende Orte. Häufig sind auch Außenschauplätze wie Straßenecken oder Gartenanlagen als Kulissen im Studio nachgebaut – ästhetisch ähnlich der Seifenoper. Die Bühnenwirkung kann durch das Spiel der Darsteller zur Bühnenrampe und das für das Fernsehpublikum hörbare Gelächter des Studiopublikums verstärkt werden, der sogenannte „“. Die Serien werden oft durch eingespielte Lacher untermalt (sogenannte „Lachkonserven“ oder englisch „“). In manchen, vor allem amerikanischen, Serien werden die Folgen allerdings auch vor Publikum aufgezeichnet. Da dessen Lachen für die Synchronisierung nicht mehr verwendet werden kann, werden bei der deutschen Ausstrahlung eingespielte Lacher verwendet. Da sich das Publikum in jeder Folge sofort zurechtfinden soll, darf sich das Grundprinzip der Serie nie ändern, es sei denn, Schauspieler (und damit ihre Rollen) scheiden aus oder kommen dazu. Allgemein folgt das Geschehen einer „zirkulären Dramaturgie“ – die Figuren sind am Ende der Episode so klug wie zuvor. Dies hat zur Folge, dass Sitcoms prinzipiell eine eher konservative Ausrichtung haben. Seriencharaktere dürfen daher nicht sterben oder ernsthafte bzw. tragische Ereignisse erleben (Vergewaltigung, „schmutzige Scheidung“, Mord, Selbstmord, Abtreibung). Seit den frühen 2000er Jahren weichen vermehrt Serien von diesem Prinzip ab. In der Sitcom verliert die schwangere Hauptfigur Carrie ihr Kind, in stirbt der Vater der Hauptfigur Marshall, in kämpfen die beiden Hauptfiguren gegen ihre ehemaligen Suchtprobleme. Die Rolle des Charlie Harper stirbt in der Sitcom , nachdem dessen Darsteller Charlie Sheen aufgrund von Streitigkeiten mit seinem Produzenten Chuck Lorre die Serie verließ. Nachdem Schauspieler John Ritter unerwartet starb, verstarb auch dessen Rolle als Familienvater Paul Hennessy in Meine wilden Töchter und als Vater der Hauptfigur J.D. in Scrubs – Die Anfänger, sodass jeweils die Verarbeitung des plötzlichen Todes durch die Familie thematisiert wurde. Sitcoms sind üblicherweise als halbstündiges Fernsehformat angelegt; die Netto-Laufzeit einer Folge (das heißt die Laufzeit ohne Werbeunterbrechungen) beträgt somit zwischen 20 und 24 Minuten. Der typische Aufbau einer Sitcom-Folge ist folgender: Prolog (Teaser): Eine relativ kurze Szene, die mit einem Gag endet. Hier wird meist das Thema der jeweiligen Folge bereits angerissen, manchmal aber nur eine kleine eigenständige Geschichte gezeigt. Vorspann: Die Hauptfiguren der Serie werden, untermalt durch die Erkennungsmusik der jeweiligen Sitcom, vorgestellt, wobei die Namen der jeweiligen Schauspieler eingeblendet werden. Insbesondere bei Familiensitcoms wird der Vorspann optisch regelmäßig überarbeitet, um die gewachsenen Kinderschauspieler mit aktuellem Aussehen darzustellen; dabei bleibt die Musik jedoch meist dieselbe wie früher, da sie einen hohen Wiedererkennungswert besitzt. Handlung: Das Problem der Woche wird wie oben beschrieben dargestellt. Abspann: Im Abspann läuft oft noch einmal die Musik aus dem Vorspann und neben den Credits werden gelegentlich Outtakes oder ein Standbild aus der Folge im Hintergrund gezeigt. Werbefinanzierte Fernsehsender zeigen den Abspann meist nicht, sondern ersetzen ihn durch einen ersten Werbeblock. Nachklapp (Tag): In einigen Sitcoms wird ein Nachklapp genutzt, das ist eine kurze Szene, die während des Abspanns läuft und die eine Situation oder nur eine Andeutung der Folgenhandlung aufgreift und einen Schlussgag setzt. Dieser Nachklapp hat nichts mit dem Ende der Handlung zu tun. Mit Serien wie Hör mal, wer da hämmert, Friends oder den in den USA sehr erfolgreichen Seinfeld und Frasier hatten Sitcoms ihren Höhepunkt Mitte bis Ende der 1990er Jahre. Die meisten Sitcoms werden in den USA (in Deutschland eher selten) vor Live-Publikum aufgezeichnet. Das geschieht dann meistens im Mehr-Kamera-Verfahren mit drei bis fünf Kameras, weil es zeitsparender ist. Die Kameras sind dabei auf im Studiobetrieb üblichen, sogenannten Pumpstativen („Pumpen“) montiert. Diese Stative sind mit Rollen versehen und gestatten mit Hilfe einer eingebauten Pumpe in der Mittelsäule eine rasche Höhenverstellung der Kameras. So können die Kameras zügig und frei am ganzen Set bewegt werden, was für den Produktionsfluss entscheidend ist. Ursprünge in den USA Als erste Sitcom, die das Genre prägte und quasi erfand, gilt von und mit der US-amerikanischen Schauspielerin und Komikerin Lucille Ball. 1948 war sie in einer Radiosendung als leicht verrückte Ehefrau aufgetreten und erfolgreich gewesen. CBS bat sie daraufhin, eine Fernsehsendung zu entwickeln. Da Lucille Ball und ihr Ehemann Desi Arnaz, ein kubanischer Bandleader, zusammenarbeiten wollten, konzipierten sie eine Handlung um eine leicht verrückte Ehefrau und deren Ehemann, einen Bandleader. Dieses Übergreifen der Realität in die Fernseh-Fiktion wurde ein typisches Merkmal US-amerikanischer Sitcoms (siehe auch Cybill Shepherd). Um die Sendung in den unterschiedlichen Zeitzonen der USA jeweils zur besten Sendezeit ausstrahlen zu können, wurde sie auf Film aufgenommen (Fernsehsendungen wurden damals üblicherweise im Kinescope-Verfahren aufgenommen, also von einem Bildschirm abgefilmt). Mit dieser qualitativen Verbesserung bahnte I Love Lucy auch den Weg für die Content-Syndication, die Vermarktung durch Wiederholung bei lokalen Fernsehstationen. Damit Lucille Ball ihr komisches Talent ausspielen konnte, wurde die Sendung dennoch vor einem Publikum aufgezeichnet, so dass Ball auf Lacher und Stimmungen der Zuschauer reagieren konnte. Das Lachen des Publikums war für den Fernsehzuschauer hörbar; es entstand das Gefühl, einem Live-Ereignis beizuwohnen. Dieses Setting – die Aufzeichnung auf Film vor einem Studiopublikum – behielten vor allem Drei-Kamera-Sitcom-Produktionen bei. Ansonsten geht seit Ende der 1990er auch in den USA der Trend zu Ein-Kamera-Sitcoms, die wie normale Serien und Filme gedreht werden, meist ohne Live-Publikum, wie bei 30 Rock oder Malcolm mittendrin. In seltenen Fällen wird die Sitcom zwar im Multicamera-Verfahren gedreht, allerdings ohne Live-Publikum, und die fertigen Folgen werden dann einem Publikum vorgespielt, deren Lacher aufgenommen werden, wie bei . Diese Verfahren werden vor allem dann angewendet, wenn es in der Serie viele Rückblenden gibt und durch die vielen Szenen eine Aufnahme vor Publikum zu aufwendig wäre. Die dritte Neuerung, die Desi Arnaz zugeschrieben wird, war das Drei-Kameras-Setup: Dabei befinden sich drei Kameras gleichzeitig in einem Graben zwischen Publikum und Bühne. Eine Kamera nimmt das Geschehen in einer Totalen auf, die anderen beiden konzentrieren sich auf die agierenden und reagierenden Figuren. Aus den drei Filmstreifen, die dasselbe Geschehen aus drei unterschiedlichen Perspektiven aufgenommen haben, wird später die Sendung zusammengeschnitten. Auch diese Technik ist bis heute ein Standard geblieben. Der Trend, Kino-Darstellern die Hauptrollen in Serien zu geben, gilt auch vermehrt für Sitcoms. Beispiele sind Geena Davis, James Belushi und Charlie Sheen. Umgekehrt haben viele bekannte Filmschauspieler gerade aufgrund der Sitcom ihren Durchbruch geschafft, zum Beispiel Robin Williams (Mork vom Ork); Danny DeVito (Taxi), Michael J. Fox (Familienbande) oder Will Smith (Der Prinz von Bel Air). Die Entwicklung in den deutschsprachigen Ländern Im Vorabendprogramm von ARD und ZDF wurden in den 1960er und 1970er Jahren einige amerikanische Sitcoms (z. B.: Bezaubernde Jeannie, Mini Max, Gilligans Insel) gezeigt. Da die deutsche Fernsehlandschaft bis zum Beginn des Privatfernsehens die Formatierung von Genres eigentlich nicht kannte, kann man nicht davon sprechen, dass es eine „deutsche Sitcom“ gab. Dennoch gab es Sendungen, die in der amerikanischen Produktionsweise hergestellt wurden. Die bekannteste Sendung ist Ein Herz und eine Seele von Wolfgang Menge, die wie ihre amerikanische Version All in the Family (1971–1979) eine Adaption der britischen BBC-Sitcom Till Death Us Do Part (1965–1975) ist. Die ersten Versuche Mit der Liberalisierung des Fernsehmarktes versuchten vor allem die privat-kommerziellen Fernsehsender, deutsche Sitcoms in amerikanischer Machart zu produzieren. Zu diesen Versuchen gehören zum Beispiel Ein Job fürs Leben und Hilfe, meine Familie spinnt (beide RTL, 1993) oder Die Viersteins von ProSieben (1995). Diese Sendungen waren beim Fernsehpublikum allerdings wenig erfolgreich, was vermutlich auch damit zusammenhing, dass sie zum Teil nur simple Adaptionen der Originalserien waren, die ihrerseits oft gleichzeitig parallel in deutscher Synchronisation zu sehen waren. Das ZDF produzierte mit Salto Postale (mit Wolfgang Stumph, 1993), deren Nachfolger Salto Kommunale (1997) sowie Lukas (mit Dirk Bach, 1996) klassische Sitcoms vor Publikum, die sich bis 2001 großer Beliebtheit erfreuten. Komiker als Hauptfigur RTL begann Mitte der 1990er halbstündige fiktionale Serien mit einer Betonung auf Komik und komischen Handlungen herzustellen. Diese Serien wurden nicht notwendigerweise im Studio und nicht vor Publikum gedreht; meist auch im Ein-Kamera-Verfahren. In Abgrenzung zur US-amerikanischen Sitcom nennt RTL diese Produktionen Comedyserien. Die Hauptcharaktere dieser Serien wurden mit bekannten Komikern besetzt, deren Show-Charakter bzw. eine der typischen Rollen die Grundlage für die Serien war. Zu den bekanntesten Beispielen gehört Hausmeister Krause – Ordnung muss sein (mit Tom Gerhardt, 1999) von Sat.1. Alternativ dazu entstanden Sitcoms, die auf bekannte Komödien-Schauspieler setzten, beispielsweise Das Amt (mit Jochen Busse, 1996). Komplexere Adaptionen Mit Stromberg (mit Christoph Maria Herbst, 2004 ProSieben) und Pastewka (mit Bastian Pastewka, 2005 SAT.1) entstanden Adaptionen der Serien beziehungsweise . Beiden Serien gemein ist, dass der Grundcharakter der jeweiligen Originalserie übernommen wird, aber die deutschen Eigenheiten die Grenzen der Adaption ein wenig verwischen. 2013 strahlte das ZDF mit Lerchenberg (mit Sascha Hehn) eine neue Sitcom aus. Diese gilt als ein Adaptions-Mix aus 30 Rock und Curb Your Enthusiasm. Dabei spielt mit Sascha Hehn, anders als bei den amerikanischen Originalen, kein typischer Komödien-Schauspieler die Hauptrolle. Beispiele Beispiele finden sich in der Liste von Sitcom-Serien. Siehe auch Slapstick Britcom Literatur David Grote: The End of Comedy. The Sit-com and the Comedic Tradition. Archon Books, Hamden CT 1983, ISBN 0-208-01991-X. Jürgen Wolff: SitCom. Ein Handbuch für Autoren. Tricks, Tips und Techniken des Comedy-Genres. Emons, Köln 1997, ISBN 3-924491-98-4. Daniela Holzer: Die deutsche Sitcom. Format – Konzeption – Drehbuch – Umsetzung (= Bastei-Lübbe-Taschenbuch 94001 Buch & Medien). Bastei-Verlag Lübbe, Bergisch Gladbach 1999, ISBN 3-404-94001-6. Mary M. Dalton, Laura R. Linder (Hrsg.): The Sitcom Reader. America viewed and scewed. State University of New York Press, Albany NY 2005, ISBN 0-7914-6569-1. Brett Mills: Television Sitcom. BFI, London 2005, ISBN 1-84457-087-8. Brett Mills: The Sitcom. Edinburgh University Press, Edinburgh 2009, ISBN 978-0-7486-3752-2. Weblinks Einzelnachweise Hörfunkgattung Fernsehgattung Abkürzung
Q170238
174.132243
162362
https://de.wikipedia.org/wiki/Euronews
Euronews
Euronews (Eigenschreibweise auch: euronews) ist ein paneuropäischer Fernsehsender mit Sitz im französischen Lyon. Er ging am 1. Januar 1993 mit einem Nachrichtenprogramm auf Sendung. Als gemeinschaftliches Eigentum einer Reihe von EBU-Sendern gegründet, hielt seit 2015 Media Globe Networks von Naguib Sawiris den überwiegenden Anteil an dem Sender. Im Dezember 2021 wurde bekannt, dass die portugiesische Kapitalgesellschaft Alpac Capital einen Vertrag zur Übernahme dieser Anteile Sawiris’, die 88 Prozent der Gesamtanteile des Senders ausmachen, unterzeichnet hat. Die Übernahme sollte Anfang 2022 abgeschlossen sein. Der ehemalige Europaabgeordnete Mário David ist Vater des Vorstandsvorsitzenden von Alpac Capital. Mário David ist Berater des ungarischen Premierministers Viktor Orbán. Auch finanziell hat Alpac Capital Verbindungen zur ungarischen Regierung. Programm Programmaufbau Mehrmals pro Stunde werden Nachrichten ausgestrahlt. Die frühere Untergliederung in Blöcke von Nachrichten-, Sport- und Wirtschaftsmeldungen besteht nicht mehr. Zudem gehören Magazinsendungen, Reportagen und Interviews zum Programm. Ab 2018 wurde eine moderierte Nachrichtensendung ausgestrahlt. Die deutschsprachige Version hieß „Euronews am Abend“ und wurde um 19 Uhr MEZ gesendet und mehrmals wiederholt. Die vorerst letzte Sendung war Mitte Januar 2020. Das wohl bekannteste Format von Euronews ist No Comment (ohne Kommentar), das aktuelle Bilder aus aller Welt ganz ohne gesprochenen Kommentar präsentiert und dem Zuschauer allein durch die Kraft der Bilder eine Urteilsbildung ermöglicht, wobei aber eine implizite Kommentierung durch Bildauswahl, Perspektive und Schnitt bestehen bleibt. Dieses Format wird als No Comment Live bezeichnet, wenn es live gesendet wird. No Comment ist auch als Video-Podcast verfügbar. Ergänzt wird das Programm durch Börsenkurse (markets), das Weltwetter kurz vor der halben und das Europawetter (meteo europe) vor der vollen Stunde. Außerdem gibt es das Format meteo airport (nicht zu verwechseln mit meteo world), das Wetterdaten von internationalen Flughäfen anzeigt. Wichtige Ereignisse wie Wahlen oder Eilmeldungen werden direkt übertragen. Empfang Der Sender strahlte bis zum 10. Mai 2017 sein Programm gleichzeitig auf Englisch, Französisch, Deutsch, Italienisch, Portugiesisch, Spanisch, Russisch, Arabisch, Türkisch, Persisch, Ukrainisch, Griechisch und Ungarisch aus und war bis dahin nach eigenen Angaben in rund 350 Millionen Haushalten in 155 Ländern zu empfangen. Ab dem 10. Mai 2017 wurde jedoch das bisherige Multiplexverfahren, das seit der Gründung des Senders 1993 zum Einsatz kam und bedeutete, dass es ein einziges Videosignal in mehreren Sprachen gab, aufgegeben und durch zwölf in eigener Benennung Premium-Ausgaben auf mehreren Plattformen ersetzt. Die Einblendungen sind seither in der jeweiligen Sprache zu sehen. Zu empfangen sind die zwölf unterschiedlichen Versionen auf unterschiedlichen Wegen: Auf Deutsch, Englisch (auch HD), Französisch, Griechisch, Ungarisch, Italienisch und Russisch ist Euronews sowohl via Satellit als auch über IPTV verfügbar. Die portugiesische, spanische und türkische Version wird nur über IPTV verbreitet. Eine arabische und eine persische Ausgabe werden nur online angeboten. Ab 2018 soll Euronews auch in Nord- und Südamerika über IP-Netze verfügbar sein. Der Sender strahlt sein Programm über Antenne, Kabel, Satellit, Internet via Livestream sowie über die Plattform Livestation aus. Daneben ist es über Freenet TV connect als Livestream empfangbar. Auf Satellit ist die deutsche Version von Euronews auf Astra 19,2°Ost 11376/V/22000 in SD verfügbar. Zudem unterhält Euronews mehrere sprachregionale Kanäle bei YouTube, wo regelmäßig Beiträge aus dem laufenden Programm zum Abruf bereitgehalten werden. Auch im Internetfernsehen kann Euronews über Plattformen wie Zattoo empfangen werden. Produktion Büros Euronews unterhält Büros in Athen, Berlin, Brüssel, Dubai, Johannesburg, London, Luanda, Lyon, Paris und Singapur. Eigentumsverhältnisse Gesellschafter von Euronews sind die Media Globe Networks des ägyptischen Unternehmers Naguib Sawiris mit 88 % sowie 21 Rundfunkveranstalter und drei französische Gebietskörperschaften mit zusammen 12 % der Anteile. Im Dezember 2021 gab Euronews bekannt, dass die Anteile Sawiris' von der portugiesischen Kapitalgesellschaft Alpac Capital übernommen werden sollen. Diese Übernahme soll Anfang 2022 abgeschlossen sein. Mit der Übernahme wird Alpac Capital drei Mitglieder des Redaktionsrates bestimmen, hat der Vorstandsvorsitzende Michael Peters bestätigt. Euronews versucht, auch Deutschland für eine Beteiligung zu gewinnen. Dies scheiterte bisher vor allem an der komplizierten Rechtslage. In Deutschland befindet sich der Rundfunk in der Verantwortung der Bundesländer, so dass die Länderregierungen von einem Einstieg überzeugt werden müssen. Kooperation mit der EU Ein Vertrag zwischen der EU-Kommission und Euronews sieht die Ausstrahlung EU-relevanter Beiträge von Ereignissen in den Mitgliedstaaten und EU-Beitrittskandidaten sowie in einigen anderen Ländern vor. Im Gegenzug wird Euronews von der EU jährlich mit 24,5 Millionen Euro unterstützt. Aus diesem Grunde sieht sich der Sender der Kritik ausgesetzt, er würde nicht neutral senden, sondern die EU in ein positives Licht rücken und seine Beiträge im Sinne der EU senden. Geschichte Anfänge als europäischer Nachrichtensender 1982 schuf die Europäische Rundfunkunion (EBU) zu Testzwecken einen Satellitenfernsehkanal namens Eurikon, an dem auch Deutschland beteiligt war. Hieraus ging Europa TV hervor, das von Oktober 1985 bis November 1986 über den Satelliten ECS auf Sendung war und von ARD (Deutschland), NOS (Niederlande), RAI (Italien), RTÉ (Irland) und RTP (Portugal) getragen wurde. Einen neuen Anfang machte die EBU mit Euronews, das im Juni 1992 von elf Rundfunkveranstaltern aus zehn Ländern gegründet wurde (siehe Tabelle; France Télévisions war damals noch geteilt in Antenne 2 und FR3). Zum Sitz wurde Écully bei Lyon bestimmt, das mit München und Valencia unter 15 europäischen Bewerbern in die Endausscheidung um den Standort des Nachrichtensenders gekommen war. ARD und ZDF beteiligten sich wegen Bedenken der Bundesländer nicht an Euronews und waren außerdem bereits in 3sat und Arte involviert; die BBC hatte 1991 das eigene World Service Television gestartet. Organisiert war Euronews anfangs über zwei französische Aktiengesellschaften: die redaktionelle SECEMIE (Société éditrice de la chaîne européenne multilingue d’information Euronews), deren Inhaber die Rundfunkveranstalter waren, und die operative SOCEMIE (Société opératrice de la chaîne européenne multilingue d’information Euronews), die zunächst im Alleineigentum der SECEMIE stand. Anfang 1993 ging Euronews in den fünf Sprachen Deutsch, Englisch, Französisch, Italienisch und Spanisch auf Sendung. 1995 erwarb das französische Unternehmen Alcatel Alsthom 49 % der Anteile an der SOCEMIE, und 1997 gingen diese Anteile an den britischen Nachrichtenanbieter ITN, bis sie 2003 wieder von der SECEMIE übernommen wurden. Neustrukturierung und redaktionelle Modernisierung 2009 wurde die SOCEMIE mit der SECEMIE zusammengelegt; die SECEMIE erhielt den Namen Euronews sowie Vorstand und Aufsichtsrat. Im Mai 2009 übernahm der Rumäne Lucian Sârb das Amt des Redaktionsleiters und sein Landsmann Peter Barabas im September desselben Jahres den Posten des Chefredakteurs. Seit dem 11. Januar 2011 sendet man im 16:9-Breitbild-Format. Mit der Umstellung erhielt der Sender auch einen neuen On-Air-Auftritt. Im Dezember 2011 wurde Michael Peters neuer Vorstandsvorsitzender und damit Nachfolger von Philippe Cayla, der das Amt seit 2003 ausübte. Cayla übernahm die Leitung von Euronews Development und wurde Mitglied des euronews-Aufsichtsrates. 2011 wurde erstmals eine moderierte Sendung unter dem Namen iTalk gesendet. Es handelte sich dabei um ein interaktives Format, das Zuschauern die Möglichkeit gab, Fragen zu Europa zu stellen. Die Sendung wurde in einem im Europäischen Parlament eingerichteten Studio aufgezeichnet und von Alex Taylor moderiert. Die Ende 2012 auf Sendung gegangene griechischsprachige Version wird nicht im Hauptsitz in Frankreich, sondern in Athen erstellt. Gleiches gilt für das ungarischsprachige Programm (seit 2013), welches in Budapest produziert wird. Euronews nutzte in erster Linie Agenturmeldungen der dapd Nachrichtenagentur, die jedoch im April 2013 ihren Dienst einstellte. Am 8. Oktober 2013 wurde anlässlich des 20-jährigen Bestehens von Euronews ein neues On Air Design eingeführt. Dazu wurden einige Intros überarbeitet sowie die Anzeige der Uhrzeit wieder aufgenommen (jetzt abwechselnd diverse Ortszeiten). Außerdem sollen wichtige Ereignisse nun stärker hervorgehoben werden. Übernahme durch Naguib Sawiris und Privatisierung 2015 erwarb der ägyptische Unternehmer Naguib Sawiris durch seine in Luxemburg ansässige Gesellschaft Media Globe Networks (MGN) 53 % der Anteile an Euronews. Am 19. März 2015 wurde bekannt, dass Euronews die Sendelizenz in der Ukraine von der ukrainischen Medienaufsicht entzogen wird. Als Grund wurde ein Mangel an Einflussmöglichkeiten der Behörden auf das ukrainischsprachige Programm angegeben. Ab Dezember 2015 sendete euronews wieder in der Ukraine. Im Oktober 2015 verließ der Sender seinen bisherigen Hauptsitz in Écully und zog in ein neues Sendegebäude im Lyoner Stadtteil La Confluence. Im April 2016 nahm der in Pointe-Noire (Republik Kongo) ansässige Schwestersender Africanews seinen Betrieb auf. Am 17. Mai 2016 führte der Sender ein neues Logo und Design ein. Am 10. Mai 2017 führte Euronews zwölf Versionen seines Programms ein. Dadurch wird neben den Tonspuren auch fortan das Fernsehsignal in den jeweiligen Sprachen ausgestrahlt. Dies geht zurück auf ein neues überarbeitetes Konzept von Euronews. Die deutsche Variante hat daher die Satellitenfrequenz gewechselt. Im Mai 2017 wurde der ukrainischsprachige Dienst eingestellt, den es bei Euronews seit 2009 gab. 2017 übernahm das Unternehmen ADMIC aus den Vereinigten Arabischen Emiraten die Euronews-Anteile in Höhe von zwei Prozent, die zuvor das türkische Fernsehen (TRT) gehalten hatte. 2018 baute Euronews in Folge des Eintritts des US-Medienkonzerns NBCUniversal als 25%-Anteilseigner sein englischsprachiges Programm aus; dieses wurde Euronews World getauft. Im Mai 2018 wurde die in Algerien und Tunesien aufgewachsene französisch-amerikanische Journalistin Françoise Champey neue Redaktionsleiterin und damit Nachfolgerin von Lucian Sârb. Im November 2018 wurde die Einrichtung von Euronews Albanien bekanntgegeben, der Sendebetrieb mit 150 Mitarbeitern im Hauptsitz in Tirana wurde am 21. November 2019 nach neunmonatigen Probeläufen aufgenommen, zudem richtete euronews Albanien Außenredaktionen in Skopje und Pristina ein. Mitte Juli 2019 einigte sich das zu Telekom Srbija gehörende serbische Medienunternehmen HD-WIN mit euronews auf die Übernahme des Sendernamens, um als Lizenznehmer den Nachrichtensender euronews Serbien aufzubauen. Nach demselben Prinzip der Lizenzvergabe des Namens Euronews (Media-Franchising) kam wie zuvor mit den albanischen und serbischen Konzernen ebenfalls im Juli 2019 mit dem georgischen Telekommunikationskonzern Silknet eine Vereinbarung über die Einrichtung eines Nachrichtensenders zustande (Euronews Georgien). euronews Georgien ging Mitte September 2020 auf Sendung. Im Sommer 2020 endete die Amtszeit von Redaktionsleiterin Champey. Am 20. April 2020 wurde bekannt, dass NBC seine Anteile an den Mehrheitseigner von Euronews, den Medienkonzern Media Globe Networks verkauft hat. Grund war der geplante, aber nicht erfolgte Sendestart von NBC Sky World News. Am 6. Januar 2021 wurde der Start eines Ablegers für Rumänien (Euronews Rumänien) bekannt gegeben. Die französische Tageszeitung Libération kritisierte, dass eine Medienpartnerschaft mit Dubai dazu führe, dass Werbeinhalte in einem redaktionellen Format ausgestrahlt würden, die oft nur schwer als bezahlte Inhalte zu erkennen seien, zudem sei die Berichterstattung über Dubai stark auf touristische Reisen fokussiert und Menschenrechtsverletzungen in dem arabischen Land würden nicht angesprochen. Euronews erwiderte daraufhin, es handle sich dabei um eine gemeinhin gängige Praxis zur Finanzierung des journalistischen Betriebes, dessen Kosten stets eine Herausforderung darstellten. Die redaktionelle Unabhängigkeit sei nicht gefährdet, zudem obliege Euronews der Kontrolle durch den französischen Medienrat CSA. Die Süddeutsche Zeitung sieht diese Entwicklung im Einklang mit einem generellen Wandel von Euronews von einer Sendeanstalt mit dem Ziel einer gesamt-europäischen Perspektive auf das Tagesgeschehen zu einem Privatsender mit Finanzproblemen und Interessenskonflikten. In diesem Zusammenhang betrachtet die SPD-Europaabgeordnete Petra Kammerevert auch die Finanzierung durch die EU-Kommission kritisch, weil so Geld an einen Sender fließe, der nicht mehr in europäischer Hand sei. Übernahme durch Alpac Capital Im Dezember 2021 gab Euronews bekannt, dass eine Vereinbarung zur Übernahme der Anteile Naguib Sawiris’, die sich mittlerweile auf 88 Prozent beliefen, durch die portugiesische Kapitalgesellschaft Alpac Capital unterzeichnet wurde. Diese Übernahme soll Anfang 2022 abgeschlossen sein. Die Übernahme folgt einer Zeit der ökonomischen Instabilität bei Euronews, in der Sawiris mehrfach Kapital zuschießen musste. Zu Beginn des Jahres 2021 kündigte Euronews den Abbau von 30 Stellen in Lyon an, was der Sender durch verringerte Werbeeinnahmen im Zuge der Corona-Pandemie begründete. Infolgedessen traten Mitarbeiter in den Streik. Reaktionen auf die Übernahme Der ehemalige Abgeordnete des Europaparlaments Mário David ist Vater des Vorstandsvorsitzenden von Alpac Capital, Pedro Vargas David. Mário David ist Berater des ungarischen Premierministers Viktor Orbán. 2016 zeichnete Orbán den Politiker Mário David mit einem Orden für dessen Verdienste um die Interessen des ungarischen Volkes aus und dankte ihm für seine „Unterstützung, die signalisiere, dass Ungarn einen Platz in Europa habe, entgegen der Angriffe von Kritikern“. Alpac Capital hat Gelder aus ungarischen Investionsbanken erhalten und der ungarische Außenminister Péter Szijjártó war auf einer Veranstaltung anwesend, auf der ein neuer Investment-Fonds von Alpac Capital vorgestellt wurde. Diese Nähe von Alpac Capital zur ungarischen Regierung fand in einigen Medien, wie dem Polit-Nachrichten-Magazin Politico, dem Europa-Nachrichtenportal Euractiv und dem Radio Free Europe ein kritisches Echo. Sie befürchten eine starke Gefährdung der redaktionellen Unabhängigkeit von Euronews durch den neuen Eigentümer. Politico zitiert die Direktorin der Denkfabrik Mertek Media Monitor, Ágnes Urbán, die vermutet, Euronews könne eine „pseudo-unabhängige“ Medienanstalt werden, die scheinbar unabhängig berichte, in Wahrheit aber eine Orbán-freundliche Linie vertrete. Sie sieht darin Ähnlichkeiten mit der Gründung der Medienorganisation KESMA, die in Ungarn die öffentliche Meinung kontrolliere. Der Europa-Abgeordnete der Grünen Daniel Freund sieht ebenfalls Grund zur Sorge, da Orbán bereits in der Vergangenheit Medien erworben und danach politisch beeinflusst habe. Euronews weist diese Kritik zurück und betont, die Befürchtungen jedweden Einflusses auf die redaktionelle Unabhängigkeit seien „unbegründet“. Orbán selbst bestätigte, er kenne Mário David aus der Arbeit in der EPP-Fraktion im EU-Parlament und sie seien beide in der Führung der Zentristischen Demokratischen Internationalen, das sei jedoch „alles, und nichts weiter“. Verlagerung der Sendezentrale von Lyon nach Brüssel Im März 2023 wurde bekannt, dass Euronews die Sendezentrale in Lyon verkaufen und in Erwartung von EU-Subventionen eine neue Zentrale in Brüssel eröffnen werde. Sprachversionen seit 1993: Deutsch, Englisch, Französisch, Italienisch, Spanisch seit 1999. Portugiesisch seit 2001: Russisch seit 2008: Arabisch (nurmehr Website) seit 2010: Türkisch (nurmehr Website), Persisch (nurmehr Website) 2011–2017: Ukrainisch seit 2012: Griechisch seit 2013: Ungarisch seit 2019: Albanisch (IN TV Media) seit 2020: Georgisch (Silknet) seit 2021: Serbisch (Telekom Srbija) bald: Bulgarisch (TV Europa), Rumänisch (UPB Sigma TV) Euronews radio Euronews Radio war ab 2012 ein paneuropäischer 24-Stunden-Nachrichtenradiosender. Es gab halbstündlich Nachrichtensendungen sowie Sport, Wetter und Nachrichten aus dem Wirtschafts-, Kultur- und Filmbereich. Euronews radio war in sechs Sprachen verfügbar: Deutsch, Englisch, Französisch, Italienisch, Spanisch und Russisch. Der letzte Podcast trägt das Datum 13. Juli 2021; lediglich beim albanischen Franchise gibt es weiterhin einen Podcast. Verbote Seit dem 12. April 2021 verbietet das Informationsministerium der Republik Belarus die Ausstrahlung von Euronews in Belarus. Seit dem 21. März 2022 verbietet die Medienaufsicht von Russland den Fernsehsender Euronews in Russland. Siehe auch Europäische Öffentlichkeit Europe by Satellite (EbS; TV-Informationsdienst der Europäischen Kommission) Euranet (Radionetzwerk) Euractiv (Internet-Nachrichtenportal) Weblinks Offizielle Website von Euronews in deutscher Sprache Einzelnachweise Nachrichtensender (Fernsehen) Fernsehsender (Deutschland) Fernsehsender (Vereinigtes Königreich) Fernsehsender (Türkei) Fernsehsender (Frankreich) Fernsehsender (Italien) Fernsehsender (Spanien) Fernsehsender (Portugal) Fernsehsender (Russland) Deutschsprachiger Fernsehsender Englischsprachiger Fernsehsender Französischsprachiger Fernsehsender Spanischsprachiger Fernsehsender Italienischsprachiger Fernsehsender Portugiesischsprachiger Fernsehsender Russischsprachiger Fernsehsender Türkischsprachiger Fernsehsender Unternehmen (Lyon) Europäische Öffentlichkeit Mehrsprachigkeit Sendestart 1993 Zensur (Belarus)
Q8478
110.6461
45277
https://de.wikipedia.org/wiki/Psycholinguistik
Psycholinguistik
Psycholinguistik ist – als ein Teilgebiet der Sprachwissenschaft – die Wissenschaft von der menschlichen Sprachfähigkeit. Inhalt der Psycholinguistik ist die Erforschung des menschlichen Spracherwerbs, der Bedingungen für das Produzieren und Verstehen von Sprache sowie der Repräsentation von Sprache im Gehirn. Das die Wechselwirkungen von Sprache und Denken untersuchende Fachgebiet ist eng verbunden mit anderen wissenschaftlichen Disziplinen wie Sprachpsychologie, Neurolinguistik und Kognitionswissenschaft. Psycholinguistik und Sprachpsychologie unterscheiden sich dahingehend, dass erstere aus der Sicht und mit den Methoden der Sprachwissenschaft arbeitet, während Sprachpsychologie als Teilgebiet der Psychologie auf deren Theorien aufbaut und deren Methoden benutzt. Mit zunehmender Konvergenz der beiden Herangehensweisen werden die beiden Ausdrücke sehr häufig auch synonym verstanden. Die Bezeichnung Psycholinguistik geht auf Charles E. Osgood und Thomas Sebeok zurück, die 1954 die Publikation Psycholinguistics herausgaben. Die Psycholinguistik als wissenschaftliche Disziplin Traditionell weist die Psycholinguistik drei Forschungsbereiche auf: Die Spracherwerbsforschung untersucht den Erwerb des sprachlichen Wissens sowohl in erster Linie von heranwachsenden Kindern als auch im Rahmen des Zweitspracherwerbs. Die Sprachwissensforschung fragt nach dem erworbenen Wissen, über das ein kompetenter Sprecher einer Sprache verfügen muss. Dies umfasst nicht nur die Bedeutungen einzelner Wörter und deren mentale Strukturierung, sondern auch das Verfügen über Prinzipien, diese Wörter zu übergeordneten Einheiten wie Sätzen oder Texten zusammenzufügen. Die Sprachprozessforschung untersucht die Umstände, wie das erworbene Wissen erfolgreich zur Anwendung gebracht wird, mithin die Aufgaben, die gemeistert werden müssen, um eine sprachliche Äußerung verstehen oder produzieren zu können. Psycholinguistische Hypothesen und Theorien werden anhand verschiedener sprachlicher Daten entwickelt, die systematisch erhoben werden. Diese umfassen bereits die Lautäußerungen des Brabbelns, die einige Charakteristika normaler Wörter haben, jedoch noch keine festgelegte Bedeutung aufweisen. Von großer Bedeutung sind Kindersprachdaten, die im Rahmen des Erwerbs einer Muttersprache oder auch einer Zweitsprache erhoben, aufgezeichnet und schließlich zu kindersprachlichen Korpora zusammengefasst der wissenschaftlichen Allgemeinheit zur Verfügung gestellt werden. Auch Merkmale der Sprachfähigkeiten erwachsener Menschen werden in der Theorieentwicklung berücksichtigt. Von besonderem Interesse sind dabei Fehler bei der Sprachproduktion und beim Sprachverstehen. Von erfolgreichen psycholinguistischen Theorien wird gefordert, dass sie mit neurowissenschaftlichen, besonders neuropsychologischen, Erkenntnissen übereinstimmen. Psycholinguistische Forschungsergebnisse sind auch für die Arbeiten in der Klinischen Linguistik maßgeblich. Die Psycholinguistik und ihre Nachbardisziplinen Es herrscht keine Übereinkunft darüber, ob die Psycholinguistik zur allgemeinen Linguistik oder zur angewandten Linguistik zu zählen ist, da die Termini allgemein und angewandt in diesem Zusammenhang teils unterschiedlich verstanden werden. Einerseits gilt die Psycholinguistik als „allgemeine“ Disziplin, da ihre Ergebnisse unabhängig von den einzelnen Sprechern allgemein, also für jegliche Menschen gültig sein sollen; andererseits wird Psycholinguistik als „angewandtes“ Fach gesehen, da es sich um die Erforschung von Sprache in ihrer Anwendung handelt und deren Ergebnisse im Rahmen angewandter Fächer (Klinische Linguistik, Erstellen von Sprachstandstests etc.) von Bedeutung sind. Die Psycholinguistik unterscheidet sich jedenfalls von der theoretischen Linguistik dahingehend, als sie explizit nach den psychologischen Mechanismen fragt, die die Sprachverarbeitung möglich machen. Die theoretische Linguistik untersucht hingegen die Strukturen von natürlichen Sprachen, ohne solche Vorgänge zu berücksichtigen. Die Psycholinguistik wird in der Regel auch von der Neurolinguistik unterschieden, mit der sie jedoch viele Berührungspunkte hat. Die Neurolinguistik sucht unter anderem nach neuronalen Korrelaten, also nach den Gehirnaktivitäten, die mit einzelnen sprachlichen Prozessen einhergehen, und untersucht etwa anhand der Dissoziationsmethode die Auswirkungen von einzelnen Gehirnschädigungen auf die Sprachverarbeitung. Psycholinguistische Forschung bezieht diese Daten zwar mit ein, ihr Ziel ist jedoch nicht die Lokalisierung von Gehirnregionen. Psycholinguisten schließen aus den erhobenen Daten über Sprachstörungen, Reaktionszeiten, Sprachentwicklung und Sprachproduktionsfehlern etwa, dass es verschiedene Systeme zur Worterkennung und zur Syntaxanalyse gibt. Eine solche abstrakt-psychologische Behauptung setzt aus der Warte der Psycholinguistik jedoch nicht unbedingt voraus, dass sich auch zwei verschiedene Gehirnregionen finden lassen, die jeweils für Worterkennung oder Syntaxanalyse zuständig sind. Vielmehr wird das Verhältnis von psychologischen und neurowissenschaftlichen Daten sehr kontrovers diskutiert, so wie es oft auch umstritten ist, ob die Psycholinguistik im Grunde auf die Neurolinguistik reduziert werden kann. Psycholinguistische Fragestellungen werden auch in den Nachbardisziplinen Sprechwissenschaft und Sprecherziehung behandelt. Die psycholinguistische Forschung hat weit in die Kognitionswissenschaft und auch in die Philosophie des Geistes gewirkt. Die Sprachfähigkeit spielt in diesen Disziplinen eine zentrale Rolle, da sie zum einen zahlreiche kognitive Fähigkeiten wie das Denken oder das Gedächtnis voraussetzt, zum anderen selbst wiederum konstitutiv für verschiedene kognitive Fähigkeiten ist, die zumindest in Teilen sprachlich strukturiert zu sein scheinen. Umfassende psycholinguistische Theorien enthalten daher oft auch Hypothesen etwa über das menschliche Denken oder Gedächtnis, wie sie in Jerry Fodors Idee der Sprache des Geistes zum Ausdruck kommen. Zudem besteht bei vielen Forschern die Hoffnung, dass eine umfassende psycholinguistische Theorie ein Kernstück einer allgemeinen Theorie der menschlichen Kognition werden könnte. Daher ergibt sich auch eine erhebliche Nähe des Faches zur phylogenetischen Theorie der Sprachentwicklung (Linguogenetik). Man untersucht dabei nicht vorrangig den Spracherwerb oder die Sprachstörungen eines tierischen von denen eines menschlichen Individuums, sondern fragt nach dem Verlauf des Sprachlernens der Arten in Jahrmillionen (beispielsweise durch Vergleich der sogenannten Sprachgene oder ihrer Expressionsfaktoren). Durch den Vergleich der Sprachphänomene bei Mensch und Tier ergibt sich nach Konrad Lorenz ein Blick in die die Rückseite des Spiegels – also ein tieferes Verständnis der Gewordenheit von Sprache über die Jahrmillionen. Sprachliches Wissen Überblick Die menschliche Sprachfähigkeit basiert auf Wissen, das bei jedem kompetenten Mitglied einer Sprachgemeinschaft vorhanden sein muss. Ein Beispiel: Um den Satz „Jana liebt ihren Kollegen bereits seit vielen Jahren.“ verstehen zu können, muss man über verschiedene Informationen verfügen: Zum einen muss man die Bedeutung der Wörter kennen. Allein die Wortbedeutung reicht jedoch nicht aus, um zu verstehen, dass Jana das Subjekt (die Liebende) ist und der Kollege das Objekt (der Geliebte) ist. Man muss daher zudem über grammatisches Wissen (Syntax) verfügen. In der Psycholinguistik wird dies durch die Unterscheidung zwischen einem mentalen Lexikon und der mentalen Grammatik reflektiert. Im mentalen Lexikon sind Informationen über die einzelnen Einheiten gespeichert, die mentale Grammatik gibt darüber Auskunft, wie diese Einheiten kombiniert werden können. Doch auch im mentalen Lexikon kann man wiederum zwischen verschiedenen Ebenen unterscheiden. Ein kompetenter Sprecher muss verschiedene Dinge über ein Wort wie „Sonne“ wissen. Zunächst ist es natürlich notwendig, dass der Sprecher die Bedeutung (Semantik) des entsprechenden Wortes kennt. Es ist jedoch auch notwendig, dass die syntaktischen Eigenschaften des Wortes bekannt sind, etwa, dass „Sonne“ ein Nomen und vom Genus feminin ist. Die syntaktischen und semantischen Informationen über eine Einheit im mentalen Lexikon werden in der Psycholinguistik als „Lemma“ bezeichnet. Schließlich muss auch die Ausdrucksform bekannt sein, also die Tatsache, wie man ein Wort ausspricht (Lautwissen) oder aufschreibt (graphematisches Wissen). Diese Informationen werden in der Psycholinguistik als „Lexem“ bezeichnet. Diese grobe Gliederung des sprachlichen Wissens ist plausibel, allerdings muss man sich fragen, ob den dargestellten Verarbeitungsschritten auch tatsächlich verschiedene psychische Prozesse entsprechen. Die Psycholinguistik kann sich bei der Beantwortung dieser Frage auf verschiedene Quellen stützen. Hier stehen verschiedene Experimente und Beobachtungen zur Verfügung: So kann in der Neuropsychologie etwa herausgefunden werden, dass Patienten mit gewissen Störungen auch nur Fehler bei bestimmten Verarbeitungsschritten machen, was eine getrennte Verarbeitung im Gehirn vermuten lässt. Hilfreich ist auch oft der Blick auf Versprecher, die in bestimmten Kontexten nur Vertauschungen auf einer bestimmten Ebene aufweisen. Des Weiteren kann man versuchen, in Experimenten gewisse Aspekte des sprachlichen Wissens selektiv zu beeinflussen. Ein typisches Beispiel ist das „Tip of the tongue“–Phänomen, das experimentell erzeugt werden kann. Ein solches Phänomen tritt auf, wenn einem ein Wort „auf der Zunge liegt“, man also auf die semantischen (bedeutungsgeladenen) und syntaktischen Informationen Zugriff hat, allerdings nicht über das lautliche Wissen verfügt. Dieses Phänomen spricht dafür, dass das lautliche Wissen tatsächlich anders verarbeitet wird als das syntaktische und semantische Wissen. Kompositionalität Die grundlegende Idee der psycholinguistischen Analyse von sprachlichem Wissen ist also, dass im mentalen Lexikon die grundlegenden sprachlichen Einheiten gespeichert sind, die nach Vorgaben der mentalen Grammatik zu einer komplexen sprachlichen Struktur kombiniert werden können. Nun stellt sich natürlich die Frage, wie die grundlegenden Einheiten im mentalen Lexikon aussehen. Sind es Sätze, Satzteile, Wörter, oder die kleinsten bedeutungstragenden Einheiten (Morpheme)? Es lässt sich leicht einsehen, dass Sätze nicht die grundlegenden Einheiten im mentalen Lexikon sein können. Die Zahl möglicher Sätze ist so gewaltig, dass kein Mensch sie alle schon gespeichert vorliegen haben kann. Bei genauerer Betrachtung erweist sich die Zahl der Sätze sogar als potentiell unendlich. Man kann zu Sätzen immer neue Nebensätze fügen und so immer komplexere Satzstrukturen schaffen. Ein triviales Beispiel ergibt sich aus der Verknüpfung mit dem Wort „und“: „Er ging einen Schritt und noch einen Schritt und noch einen Schritt und noch einen Schritt und noch einen Schritt …“ Da in der Sprache nicht festgelegt ist, dass nur eine gewisse Komplexität erlaubt ist, kann man schon mit solch einfachen Beispielen potentiell unendlich viele verschiedene Sätze erzeugen. Menschen können diese Sätze verstehen, können sie aber nicht alle bereits gespeichert haben. Vielmehr müssen diese Sätze aus grundlegenderen Einheiten erzeugt werden. Wenn nicht jeder Satz im mentalen Lexikon gespeichert ist, so müssen kleinere Einheiten vorhanden sein, aus deren Kombination Sätze erzeugt werden können. In der Linguistik wird dieses Phänomen unter dem Stichwort der Kompositionalität diskutiert. Das von dem Logiker und Philosophen Gottlob Frege formulierte Kompositionalitätsprinzip besagt, dass sich die Bedeutung von komplexen sprachlichen Strukturen aus der Bedeutung und Anordnung der Teile ergibt. Ein Beispiel: Die Bedeutung des Satzes „Das Haus ist grün.“ ergibt sich aus der Bedeutung und Anordnung der Begriffe „Das“, „Haus“, „ist“, „grün“ und der Anordnung dieser Wörter. Mit dem Kompositionalitätsprinzip kann man erklären, wie Menschen Sätze verstehen können, ohne die Sätze selbst im mentalen Lexikon gespeichert zu haben. Siehe auch Max-Planck-Institut für Psycholinguistik Literatur Jean Aitchison: Words in the mind. An introduction to the mental lexicon. 4. Auflage. John Wiley & Sons, Chichester 2012, ISBN 978-0-470-65647-1. Arthur L. Blumenthal: Language and Psychology. Historical Aspects of Psycholinguistics. Wiley, New York 1970. David W. Carroll: Psychology of Language. Brooks/Cole, Monterey, Calif., 1986. Ton Dijkstra, Gerard Kempen: Einführung in die Psycholinguistik. Huber, Bern 1993, ISBN 3-456-82364-9. Rainer Dietrich: Psycholinguistik. Metzler, Stuttgart 2002. Johannes Engelkamp: Psycholinguistik. 2. Auflage. Fink, München 1983 (= UTB. Band 297). M. Galliker: Sprachpsychologie. Francke/ UTB, Tübingen/ Basel 2013, ISBN 978-3-8252-4020-2. Hannelore Grimm, Johannes Engelkamp: Sprachpsychologie. Handbuch und Lexikon der Psycholinguistik. Erich Schmidt Verlag, Berlin 1981, ISBN 3-503-01671-6. Gert Rickheit, Theo Herrmann, Werner Deutsch (Hrsg.): Psycholinguistik: Ein internationales Handbuch. Walter de Gruyter, Berlin/ New York 2003, ISBN 3-11-011424-0. Theo Herrmann: Allgemeine Sprachpsychologie. Grundlagen und Probleme. Urban & Schwarzenberg, München/ Wien/ Baltimore 1985, ISBN 3-541-14241-3. Hans Hörmann: Einführung in die Psycholinguistik. Wissenschaftliche Buchgesellschaft, Darmstadt 1981, ISBN 3-534-07793-8. Hans Hörmann: Meinen und Verstehen. Grundzüge einer psychologischen Semantik. Suhrkamp, Frankfurt am Main 1994, ISBN 3-518-27830-4. Hans Hörmann: Psychologie der Sprache. 2., überarbeitete Auflage. Springer-Verlag, Berlin/ Heidelberg 1977, ISBN 3-662-02287-7. Arnold Langenmayr: Sprachpsychologie. Ein Lehrbuch. Hogrefe, 1997, ISBN 3-8017-1044-0. George A. Miller: Wörter. Streifzüge durch die Psycholinguistik. Herausgegeben und aus dem Amerikanischen (The Science of Words) übersetzt von Joachim Grabowski und Christiane Fellbaum. Spektrum Akademischer Verlag, Heidelberg 1993; Lizenzausgabe: Zweitausendeins, Frankfurt am Main 1995; 2. Auflage ebenda 1996, ISBN 3-86150-115-5. Horst M. Müller: Psycholinguistik – Neurolinguistik. Die Verarbeitung von Sprache im Gehirn. UTB, Paderborn 2013, ISBN 978-3-8252-3647-2. Gert Rickheit, Lorenz Sichelschmidt, Hans Strohner: Psycholinguistik. Die Wissenschaft vom sprachlichen Verhalten und Erleben. Stauffenburg Verlag, Tübingen 2002, ISBN 3-86057-276-8. Richard Wiese: Psycholinguistik der Sprachproduktion. In: Gerd Antos, Hans P. Krings (Hrsg.): Textproduktion. Ein interdisziplinärer Forschungsüberblick. Niemeyer, Tübingen 1989, ISBN 3-484-22048-1, S. 197–219, doi:10.1515/9783110962109. Weblinks Sprachproduktion – Grundlagen, Theorien, Modelle und Forschung. Sabine Stahl: "Wolker bis heitig" und andere Versprecher, SWR2 – „Wissen“ vom 3. April 2009 Einzelnachweise Angewandte Linguistik
Q179488
143.251758
6553
https://de.wikipedia.org/wiki/1527
1527
Ereignisse Politik und Weltgeschehen Italienische Kriege 6. Mai: Der Sacco di Roma, die Plünderung Roms durch die Söldnertruppen Karls V., der das Ende der italienischen Renaissance einläutet, beginnt mit der Einnahme des Borgo. Der Anführer der Söldner, Charles III. de Bourbon-Montpensier, kommt bei dem Angriff ums Leben, angeblich durch eine Kugel Benvenuto Cellinis. Papst Clemens VII. flieht vom Petersdom durch den Passetto di Borgo in die Engelsburg. 147 Mann der den Papst verteidigenden Päpstliche Schweizergarde fallen auf dem Petersplatz. Am nächsten Tag wird zunächst der Trastevere und dann das restliche Rom von den Söldnern eingenommen. Ohne einen von allen Truppen anerkannten Anführer gerät die kriegsübliche dreitägige Plünderung außer Kontrolle, und die Truppen rauben, vergewaltigen, foltern und töten nach Belieben. Dabei werden auch Anhänger Karls V. nicht verschont. Kirchen, Paläste und Krankenhäuser sowie der Vatikan werden geplündert und in Brand gesetzt. Zum Teil kommt es zu Kämpfen zwischen den eigentlich verbündeten Deutschen, Spaniern und papstfeindlichen Italienern um die Beute. 7. Juni: Clemens VII. kapituliert nach mehrwöchiger Belagerung der Engelsburg. Er muss die Festungen Ostia, Civitavecchia und Civita Castellana übergeben, auf die Städte Modena, Parma und Piacenza verzichten und 400.000 Dukaten sowie Lösegeld für die Befreiung der Gefangenen zahlen. Am 6. Dezember wird die Belagerung der Engelsburg aufgehoben, und Clemens VII. zieht nach Orvieto. 16./17. Mai: Filippo Strozzi der Jüngere vertreibt unter tatkräftiger Mithilfe seiner Frau Clarice, geborene de’ Medici, die Medici ein zweites Mal aus Florenz und errichtet neuerlich eine Republik. Ippolito und Alessandro de’ Medici sowie Kardinal Silvio Passerini als ihr Vormund verlassen die Stadt. Weitere Ereignisse in Europa 1. Januar: Mit der Charta von Cetingrad wählt der kroatische Sabor den österreichischen Erzherzog Ferdinand I. aus dem Haus Habsburg zum König von Kroatien als Nachfolger des im Vorjahr kinderlos gefallenen kroatisch-ungarischen Königs Ludwig II. Jagiello. Amerika und Pazifik 22. November: Im Zuge der Eroberung Guatemalas durch die Truppen Pedro de Alvarados wird die Hauptstadt nach Santiago de los Caballeros de Goathemala in der Nähe des späteren Antigua Guatemala verlegt. Der Spanier Juan Gaetano soll als erster Europäer auf Hawaii gelandet sein. um 1527: Der Inkaherrscher Huayna Cápac stirbt ebenso wie ein Großteil seiner Truppen an den von den spanischen Konquistadoren eingeschleppten Pocken. Entgegen seinem Wunsch, dass das Inkareich nach seinem Tod aufgeteilt werden soll, kommt es zwischen seinen Söhnen zu einem Erbfolgekrieg: Huáscar nimmt seinen Halbbruder Atahualpa gefangen. Der darauf folgende jahrelange Kampf schwächt das Reich und begünstigt die spätere spanische Eroberung Perus. Asien Am 22. Juni zerstören muslimische Truppen aus dem Königreich Demak unter ihrem Prinzen Fatahillah die Stadt Sunda Kelapa, den größten Hafen des hinduistischen Pajajaran-Reichs, das von portugiesischen Einheiten unterstützt wird. Anschließend errichtet Fatahillah an gleicher Stelle eine neue Stadt, die in Anspielung an den doppelten Sieg über die Streitkräfte der Portugiesen und des Königreiches Pajajaran den Namen Jayakarta (Großer Sieg) erhält. Wirtschaft Am 29. April verleihen Herzog Johann III., der Friedfertige, und Herzogin Maria von Jülich, Kleve und Berg den Barmern und Elberfeldern das Privileg der „Garnnahrung“, das heißt das Monopol zu bleichen und zu zwirnen, laut dem nirgend in herzoglichen Landen gebleicht und gezwirnt werden darf als in Barmen und Elberfeld (beide heute zu Wuppertal). Zur Verwaltung der königlichen böhmischen Finanzen wird die Böhmische Kammer gegründet. Wissenschaft und Technik 1. Juli: Landgraf Philipp I. von Hessen gründet in Marburg die Alma Mater Philippina. Gleichzeitig wird auch das Gymnasium Philippinum als protestantisches Pädagogium eingerichtet. Kultur 12. Dezember: Der Niederländer Adrian Willaert tritt sein Amt als Domkapellmeister zu San Marco in Venedig an. Das Marburger Rathaus wird nach 15-jähriger Bauzeit fertiggestellt. In Straßburg erscheint auf einem Liedblatt das deutschsprachige Kirchenlied Im Frieden dein, o Herre mein des Reformators Johannes Anglicus auf der Grundlage des biblischen Nunc dimittis. Die Melodie stammt vermutlich von Wolfgang Dachstein. Gesellschaft und Sport Mit den Statuten von Galway wird das 1367 ausgesprochene Verbot des Hurling in Irland erneuert. Duncan Campbell sichtet angeblich ein Ungeheuer im Loch Ness. Religion Die Täuferbewegung 5. Januar: Felix Manz wird wegen seines aufrührerischen Wesens, seiner Zusammenrottung gegen die Obrigkeit und weil er gegen die christliche Regierung und die bürgerliche Einheit gehandelt hat als erster Märtyrer der Zürcher Täuferbewegung in der Limmat ertränkt. 24. Februar: Auf einer Zusammenkunft der Schweizer Brüder werden in Schleitheim die von Michael Sattler ausgearbeiteten Schleitheimer Artikel angenommen. Für viele Täufer, insbesondere die Hutterer und Mennoniten, bilden die Artikel bis in die Gegenwart hinein eine wichtige Bekenntnisgrundlage ihrer Lehre. 21. Mai: Michael Sattler wird wegen Ketzerei in Rottenburg am Neckar hingerichtet. Wenige Tage später wird auch seine Ehefrau Margarete im Neckar ertränkt. Vom 20. bis 24. August findet in Augsburg eine Zusammenkunft von rund 60 Täuferführern aus dem süddeutschen Raum statt mit dem Ziel, eine Übereinkunft zwischen den Anhängern der Schleitheimer Artikel und den radikal-apokalyptischen Täufern um Hans Hut zu finden. Hut lehnt es zwar ab, seine Prophezeiungen zurückzunehmen, verspricht jedoch, fürderhin sie nicht öffentlich zu lehren sondern sie nur noch denen mitzuteilen, die privat dieses selbst herzlich begehren. Da viele Teilnehmer dieser Synode in den nächsten Jahren den Märtyrertod erleiden, wird das Treffen später unter dem Namen Augsburger Märtyrersynode bekannt. Weitere Ereignisse im Zuge der Reformation 10. Mai: In Meersburg findet der Prozess gegen den evangelisch gesinnten Frühmessner (Pfarrer) Johann Hüglin und dessen anschließende Hinrichtung statt. Hüglin wird heute als Märtyrer im Evangelischen Namenkalender der Evangelischen Kirche in Deutschland geführt. Oktober: Das Franziskanerkloster Marburg wird ebenso wie zahlreiche andere Klöster im Zuge der Reformation vom hessischen Landtag aufgehoben. Hieronymus Emser bringt eine Übersetzung des Neuen Testaments heraus. Es handelt sich um eine Gegenübersetzung zur Bibelübersetzung Martin Luthers, dem er Übersetzungslügen vorwirft. Historische Karten und Ansichten Geboren Geburtsdatum gesichert 28. Januar: Paul Dumerich, deutscher Pädagoge und Professor († 1583) 4. März: Ludwig Lavater, Schweizer reformierter Theologe, Antistes der Zürcher Kirche († 1586) 5. März: Ulrich, Herzog zu Mecklenburg und Administrator des Bistums Schwerin († 1603) 10. März: Alfonso d’Este di Montecchio, Markgraf von Montecchio († 1587) 29. März: Zaccaria Dolfin, venezianisch-österreichischer Kardinal († 1583) 14. April: Abraham Ortelius, niederländischer Geo- und Kartograph († 1598) 21. Mai: Philipp II., König von Spanien und als Philipp I. König von Portugal († 1598) 31. Mai: Agnes von Hessen, Kurfürstin von Hessen († 1555) 11. Juni: Anna Sophie, Prinzessin von Preußen und Herzogin zu Mecklenburg († 1591) 15. Juni: Jacob Runge, deutscher lutherischer Theologe und Reformator († 1595) 13. Juli: John Dee, englischer Philosoph, Mathematiker, Astrologe, Alchemist und Mystiker († 1608/09) 31. Juli: Maximilian II., Kaiser des Heiligen Römischen Reiches († 1576) 10. August: Barbara von Brandenburg, Herzogin von Brieg († 1595) 15. Oktober: Maria Manuela von Portugal, Infantin von Portugal († 1545) 16. Oktober: Johann Hermann, deutscher Mediziner († 1605) 21. Oktober: Louis I. de Lorraine-Guise, Kardinal der römisch-katholischen Kirche († 1578) 1. November: Pedro de Ribadeneira, spanischer Jesuit († 1611) 3. November: Tilemann Hesshus, deutscher lutherischer Theologe († 1588) 18. November: Luca Cambiaso, italienischer Maler († 1585) 1. Dezember: William Brooke, 10. Baron Cobham, englischer Adeliger und Politiker († 1597) 6. Dezember: Bernhard VIII., Graf zur Lippe († 1563) 23. Dezember: Hugo Donellus, französischer Jurist († 1591) 31. Dezember: Johannes Bugenhagen der Jüngere, deutscher lutherischer Theologe († 1594) Genaues Geburtsdatum unbekannt Benedictus Arias Montanus, spanischer Theologe und Orientalist († 1598) Barbara Blomberg, Geliebte Karl V. und Mutter von Don Juan de Austria († 1597) Urban Gaubisch, deutscher Buchdrucker († 1612) Bess of Hardwick, englische Adelige († 1608) Margaretha von der Marck-Arenberg, Gräfin von Arenberg († 1599) Hans Vredeman de Vries, niederländischer Maler und Architekt († 1609) Philippine Welser, Augsburger Patriziertochter und Landesfürstin von Tirol († 1580) Gestorben Todesdatum gesichert 5. Januar: Felix Manz, Zürcher Märtyrer der Täuferbewegung, durch Ertränken hingerichtet (* um 1498) 14. Januar: Stefan IV., Woiwode des Fürstentums Moldau (* 1506) 21. Januar: Juan de Grijalva, spanischer Entdecker (* 1490) 21. Januar: Jakob van Hoogstraten, Inquisitor in den spanischen Niederlanden (* um 1460) 10. Februar: Ludwig von Diesbach, Berner Staatsmann (* 1452) 10. März: Nam Gon, koreanischer Politiker sowie neokonfuzianischer Philosoph und Dichter (* 1471) 19. März: Christoph I., Markgraf von Baden (* 1453) 4. Mai: Shōhaku, japanischer Dichter (* 1443) 6. Mai: Charles de Bourbon-Montpensier, französischer Heerführer (* 1490) 10. Mai: Johann Hüglin, deutscher Pfarrer und evangelischer Märtyrer (* vor 1490) 17. Mai: Jacob Krum, Bürgermeister von St. Gallen (* 15. Jh.) 20. Mai: Hans Hergot, deutscher Buchdrucker, Buchhändler und protestantischer Autor (* 15. Jh.) 21. Mai: Michael Sattler, Persönlichkeit der ersten Täufergeneration (* um 1495) 9. Juni: Heinrich Finck, deutscher Kapellmeister und Komponist (* 1444/1445) 21. Juni: Niccolò Machiavelli, italienischer Politiker, Geschichtsschreiber und Dichter (* 1469) 28. Juli: Rodrigo de Bastidas, spanischer Eroberer (* vermutlich 1460) 3. August: Scaramuccia Trivulzio, italienischer Kardinal (* um 1465) 16. August: Leonhard Kaiser, lutherischer Theologe und Reformator (* um 1480) 6. September: Marx Treitzsaurwein, niederösterreichischer Politiker, Geheimschreiber Maximilians I. und Rat Karls V. (* um 1450) 9. September: Johann II. von Blankenfelde, Bischof von Reval und Dorpat, Erzbischof von Riga (* um 1471) 11. September: Charles I. de Croÿ, Fürst von Chimay (* 1455) 21. September: Kasimir, Markgraf von Brandenburg-Kulmbach (* 1481) 23. September: Charles de Lannoy, kaiserlicher Feldherr und Vizekönig des Königreichs Neapel (* 1487) 5. November: Maria von Tecklenburg, Äbtissin im Stift Freckenhorst 8. November: Hieronymus Emser, deutscher katholischer Theologe und Gegenspieler Martin Luthers (* 1478) 15. November: Katherine of York, englische Prinzessin (* 1479) 28. November: Thomas von Wickede, Bürgermeister der Hansestadt Lübeck (* 1470) Genaues Todesdatum unbekannt November: Hans Denck, deutscher täuferischer Theologe, Humanist, Schriftsteller und Bibelübersetzer (* um 1500) Gestorben um 1527 Huayna Cápac, König der Inka Weblinks
Q6412
151.161036
1870
https://de.wikipedia.org/wiki/Genetik
Genetik
Die Genetik (moderne Wortschöpfung zu „Abstammung“ und ) oder Vererbungslehre (früher auch Erblehre und Erbbiologie) ist die Wissenschaft von der Vererbung und ein Teilgebiet der Biologie. Sie bzw. der Genetiker befasst sich mit den Gesetzmäßigkeiten und materiellen Grundlagen der Ausbildung von erblichen Merkmalen und der Weitergabe von Erbanlagen (Genen) an die nächste Generation. Das Wissen, dass individuelle Merkmale über mehrere Generationen hinweg weitergegeben werden, ist relativ jung; Vorstellungen von solchen natürlichen Vererbungsprozessen prägten sich erst im 18. und frühen 19. Jahrhundert aus. Als Begründer der Genetik in diesem Sinn gilt der Augustinermönch Gregor Mendel, der in den Jahren 1856 bis 1865 im Garten seines Klosters systematisch Kreuzungsexperimente mit Erbsen durchführte und diese statistisch auswertete. So entdeckte er die später nach ihm benannten Mendelschen Regeln, die in der Wissenschaft allerdings erst im Jahr 1900 rezipiert und bestätigt wurden. Der heute weitaus bedeutendste Teilbereich der Genetik ist die Molekulargenetik, die sich mit den molekularen Grundlagen der Vererbung befasst. Aus ihr ging die Gentechnik hervor, in der die Erkenntnisse der Molekulargenetik praktisch angewendet werden. Etymologie Das Adjektiv „genetisch“ wurde schon um 1800 von Johann Wolfgang von Goethe in dessen Arbeiten zur Morphologie der Pflanzen und in der Folgezeit häufig in der romantischen Naturphilosophie sowie in der deskriptiven Embryologie verwendet. Man meinte damit eine Methode („genetische Methode“) der Untersuchung und Beschreibung der Individualentwicklung (Ontogenese) von Organismen. Mit dem Adjektiv charakterisierte Carl Nägeli 1865 ihre stammesgeschichtliche Entwicklung. Das Substantiv „Genetik“ gebrauchte erstmals William Bateson 1905 zur Bezeichnung der neuen Forschungsdisziplin. In Deutschland wurde bis in die zweite Hälfte des 20. Jahrhunderts der Ausdruck „Erbbiologie“ bedeutungsgleich gebraucht, zumeist zur Unterscheidung der „Erbbiologie des Menschen“ (Humangenetik) von der allgemeinen Genetik. Die Bezeichnung „Humangenetik“ war dabei in Deutschland bereits um 1940 etabliert. Damit wurde ein Rückzug auf wissenschaftlich gebotene Grundlagenforschung angezeigt, während „Rassenhygiene“ angewandte Wissenschaft darstellte. Nach 1945 verschwanden die Bezeichnungen „Erbbiologie“ sowie „Rassenhygiene“, ebenso wie „Erbarzt“ und „Erbmedizin“ allmählich aus dem wissenschaftlichen Sprachgebrauch. Teilbereiche Die von Mendel begründete klassische Genetik untersucht, in welchen Kombinationen die Gene bei Kreuzungsexperimenten bei den Nachkommen auftreten (Mendelsche Regeln) und wie das die Ausprägung bestimmter phänotypischer Merkmale beeinflusst. Zur klassischen Genetik gehört darüber hinaus die Zytogenetik, die im lichtmikroskopischen Größenbereich die Anzahl, Gestalt und Struktur der Chromosomen als Träger der genetischen Information untersucht. Die Molekulargenetik – ein Teilgebiet der Molekularbiologie – untersucht die molekularen Grundlagen der Vererbung: die Struktur der molekularen Träger der Erbinformation (gewöhnlich DNA, bei manchen Viren RNA), die Vervielfältigung dieser Makromoleküle (Replikation) und die dabei auftretenden Veränderungen des Informationsgehalts (Mutationen, Rekombination) sowie die Realisierung der Erbinformation im Zuge der Genexpression (Transkription und Translation). Zur Molekulargenetik gehört des Weiteren als angewandter Bereich die Gentechnik. Die Populationsgenetik und die Ökologische Genetik untersuchen genetische Strukturen und Prozesse auf der Ebene von Populationen und von anderen ökologischen Einheiten (z. B. ganzen Lebensgemeinschaften). Die Epigenetik beschäftigt sich mit der Weitergabe von Eigenschaften auf die Nachkommen, welche nicht auf Abweichungen in der DNA-Sequenz zurückgehen, sondern auf vererbbare Änderungen der Genregulation. Geschichte Zeittafel 1866 – Gregor Mendel veröffentlichte seine Versuche über Pflanzen-Hybriden, die aber kaum beachtet wurden. 1869 – Friedrich Miescher isolierte aus Zellkernen das „Nuclein“, dessen Aufbau und Funktion zunächst rätselhaft blieb. 1889 – Richard Altmann identifizierte die „Nucleinsäure“ und eine basische Proteinfraktion als Bestandteile des Nucleins. 1900 – Hugo de Vries, Carl Correns und Erich Tschermak bestätigten Mendels Entdeckungen. 1903 – Chromosomen wurden als Träger der Erbinformation erkannt (Walter Sutton). 1906 – William Bateson schlägt für die Erblehre das Wort Genetik vor. 1907 – Thomas Hunt Morgan wählte die Taufliege Drosophila melanogaster als Versuchstier. 1909 – Wilhelm Johannsen prägte für einen Erbfaktor die Bezeichnung Gen. 1911 – Erwin Baur veröffentlicht seine Einführung in die experimentelle Vererbungslehre. 1927 – Auslösung künstlicher Mutationen durch Röntgenstrahlung (Hermann Joseph Muller) 1928 – Erste Beschreibung der Transformation durch Frederick Griffith (Griffiths Experiment) 1931 – Zytologische Aufklärung des Crossing-over (Barbara McClintock, Harriet B. Creighton, Curt Stern) 1940 – George Beadle und Edward Tatum formulierten die Ein-Gen-ein-Enzym-Hypothese. 1943 – Das Luria-Delbrück-Experiment belegte die Zufälligkeit der Mutationen in dem Sinn, dass sie keine Reaktionen auf die Umwelt darstellen. 1944 – Oswald Avery, Colin MacLeod und Maclyn McCarty: Transformation von Bakterien durch DNA 1950 – Erwin Chargaff zeigte mit den Chargaff-Regeln, dass die vier Nukleotide in paarweise gleicher Häufigkeit in der DNA vorkommen: [A] = [T] und [C] = [G]. 1951 – McClintock berichtete erstmals über springende Gene, stieß aber auf komplettes Unverständnis. 1952 – Das Hershey-Chase-Experiment zeigte, dass die genetische Information von Bakteriophagen in der DNA gespeichert ist. 1953 – James Watson und Francis Crick postulierten die Doppelhelix-Struktur der DNA. 1957 – Nachweis der semikonservativen Replikation der DNA und des Crossing-over durch James Herbert Taylor (Taylor-Experiment) 1958 – Nachweis der semikonservativen Replikation der DNA durch Meselson und Stahl 1958 – Crick postulierte das „Zentrale Dogma“ der Molekulargenetik. 1961 – François Jacob und Jacques Monod stellten das Operon-Konzept vor 1961 bis 1965 – Dechiffrierung des genetischen Codes (Marshall Warren Nirenberg und Heinrich Matthaei) 1969 – Jonathan Beckwith gelang als erstem die Isolierung eines einzelnen Gens (aus E. coli). 1969 – Werner Arber, Daniel Nathans und Hamilton Othanel Smith entdeckten die Restriktionsenzyme. 1975 – DNA-Sequenzierung (Frederick Sanger, Allan Maxam, Walter Gilbert) 1977 – Intron-Exon-Struktur eukaryotischer Gene 1983 – Kary Mullis entwickelte die Polymerase-Kettenreaktion (PCR) zur Vervielfältigung von DNA. 1995 – Das erste prokaryotische Genom (von Haemophilus influenzae) wurde sequenziert. 1997 – Das erste eukaryotische Genom, das der Bäckerhefe Saccharomyces cerevisiae, ist sequenziert 2003 – Als Resultat des Humangenomprojektes steht die Referenzsequenz des menschlichen Genoms zum Download im Internet bereit Vorgeschichte Schon in der Antike versuchten Menschen die Gesetzmäßigkeiten der Zeugung und die Ähnlichkeiten zwischen Verwandten zu erklären, und einige der im antiken Griechenland entwickelten Konzepte blieben bis in die Neuzeit gültig oder wurden in der Neuzeit wieder aufgegriffen. So lehrte der griechische Philosoph Alkmaion um 500 v. Chr., dass die Zeugung der Nachkommen durch die Zusammenwirkung des männlichen und des weiblichen „Samens“ geschehe. Sein Postulat eines weiblichen Samens fand in der damaligen Naturphilosophie und später auch in der hippokratischen Medizin allgemeine Anerkennung. Davon abweichend behaupteten Hippon und Anaxagoras, dass nur der Mann zeugungsfähigen Samen bilde und dass der weibliche Organismus den Keim nur ernähre. Die Bildung des Samens erfolgte laut Alkmaion im Gehirn, von wo aus er durch die Adern in den Hoden gelange. Demgegenüber erklärten Anaxagoras und Demokrit, dass der gesamte Organismus zur Bildung des Samens beitrage – eine Ansicht, die als Pangenesistheorie über 2000 Jahre später von Charles Darwin erneut vertreten wurde. Auch die Überlegungen des Anaxagoras, wonach alle Körperteile des Kindes bereits im Samen (Sperma) vorgebildet seien, traten als Präformationslehre in der Neuzeit wieder auf. In der Antike wurden diese frühen Lehren weitgehend abgelöst durch die Ansichten des Aristoteles (De generatione animalium), wonach das Sperma aus dem Blut entsteht und bei der Zeugung nur immateriell wirkt, indem es Form und Bewegung auf die durch den weiblichen Organismus bereitgestellte flüssige Materie überträgt. Die Entwicklung des Keims beschrieb Aristoteles als Epigenese, wonach im Gegensatz zur Präformation die verschiedenen Organe nacheinander durch die Einwirkung des väterlichen Formprinzips ausgebildet werden. Neben der geschlechtlichen Zeugung kannte Aristoteles auch die Parthenogenese (Jungfernzeugung) sowie die (vermeintliche) Urzeugung von Insekten aus faulenden Stoffen. Der Aristoteles-Schüler Theophrastus postulierte eine transmutatio frumentorum und nahm an, dass sich Getreidearten zu ihrer Wildform zurückverwandeln können. Zudem unterschied er männliche und weibliche Pflanzen bei der Dattelpalme. Vererbung war bis in das 18. Jahrhundert ein juristischer Begriff und fand für natürliche Vorgänge keine Anwendung. Denn Ähnlichkeiten zwischen Verwandten wurden ausreichend über jeweils spezifische lokale Faktoren und die Lebensweise des Individuums erklärt: über das Klima, die Ernährung, die Art der Betätigungen usw. Wie gewisse Merkmale unter Nachkommen blieben auch diese Faktoren für die Nachkommen in der Regel konstant. Irreguläre Merkmale konnten dann entsprechend auf irreguläre Einflüsse bei der Zeugung oder der Entwicklung des Individuums zurückgeführt werden. Erst mit dem zunehmenden internationalen Verkehr und zum Beispiel der Anlage von exotischen Gärten wurde ein Wahrnehmungsraum dafür geschaffen, dass es vom Individuum und seinem jeweiligen Ort ablösbare, natürliche Gesetze geben müsse, die sowohl die Weitergabe von regulären als auch zuweilen eine Weitergabe von neu erworbenen Eigenschaften regeln. Der Begriff der Fortpflanzung oder Reproduktion, in dessen Kontext von Vererbung im biologischen Sinn gesprochen werden kann, kam erst gegen Ende des 18. Jahrhunderts auf. In früheren Jahrhunderten galt die „Zeugung“ eines Lebewesens als ein Schöpfungsakt, der grundsätzlich eines göttlichen Eingriffs bedurfte und im Rahmen des Präformismus vielfach als Teilaspekt der Erschaffung der Welt betrachtet wurde. Dabei unterschied man die Zeugung durch den Samen (Sperma) im Mutterleib von der Urzeugung, durch welche niedere Tiere (etwa Würmer, Insekten, Schlangen und Mäuse) aus toter Materie hervorzugehen schienen. Die „Samenzeugung“ betrachtete man als Eigenheit des Menschen und der höheren Tiere, welche zu ihrer Ausbildung eines Mutterleibs bedürfen. Erst gegen Ende des 17. Jahrhunderts setzte sich, vor allem aufgrund der Experimente Francesco Redis, die Einsicht durch, dass Würmer, Insekten und andere niedere Tiere nicht aus toter Materie entstehen, sondern von gleichartigen Tieren gezeugt werden. Nun betrachtete man die Zeugung nicht mehr als Schöpfungsakt, sondern verlegte diesen in die Zeit der Erschaffung der Welt, bei der, wie man annahm, alle zukünftigen Generationen von Lebewesen zugleich ineinandergeschachtelt erschaffen wurden. Die Zeugung war somit nur noch eine Aktivierung des längst vorhandenen Keims, der sich dann zu einem voll ausgebildeten Organismus entfaltete. Strittig war dabei, ob die Keime durch das weibliche oder durch das männliche Geschlecht weitergegeben werden, ob sie also im Ei oder im „Samentierchen“ eingeschachtelt sind. Beide Ansichten hatten ihre Anhänger (Ovisten und Animalkulisten), bis die Entdeckung der Jungfernzeugung bei der Blattlaus durch Charles Bonnet 1740 den Streit zugunsten der Ovisten entschied. Neben der sehr populären Präformationslehre, die 1625 durch Giuseppe degli Aromatari (1587–1660) ins Spiel gebracht worden war, gab es im 17. Jahrhundert auch renommierte Anhänger der an Aristoteles anknüpfenden Epigenesislehre, namentlich William Harvey und René Descartes. Deren Ansichten galten jedoch als antiquiert und wurden als unwissenschaftlich verworfen, da sie immaterielle Wirkprinzipien voraussetzten, während der Präformismus rein mechanistisch gedacht werden konnte und zudem durch die Einführung des Mikroskops einen starken Auftrieb erfuhr. Die Vorstellung der Präformation herrschte bis in das 19. Jahrhundert hinein vor, obwohl es durchaus Forschungsergebnisse gab, die nicht mit ihr in Einklang gebracht werden konnten. Großes Erstaunen riefen die Versuche zur Regeneration bei Salamandern, Süßwasserpolypen und anderen Tieren hervor. Polypen kann man fein zerhacken, und jedes Teilstück entwickelt sich, wie Abraham Trembley 1744 beschrieb, innerhalb von zwei bis drei Wochen zu einem kompletten Tier. In den Jahren 1744 bis 1754 veröffentlichte Pierre-Louis Moreau de Maupertuis mehrere Schriften, in denen er aufgrund von Beobachtungen bei Tieren und Menschen, wonach beide Eltern Merkmale an ihre Nachkommen weitergeben können, die Präformationslehre kritisierte und ablehnte. Entsprechende Beobachtungen publizierte auch Joseph Gottlieb Kölreuter (1761), der als Erster Kreuzungen verschiedener Pflanzenarten studierte. Und Caspar Friedrich Wolff beschrieb 1759 minutiös die Entwicklung des Embryos im Hühnerei aus völlig undifferenzierter Materie. Trotz der Probleme, die derartige Forschungen aufwarfen, geriet die Präformationslehre jedoch erst im frühen 19. Jahrhundert durch die embryologischen Untersuchungen von Christian Heinrich Pander (1817) und Karl Ernst von Baer (1828) ins Wanken, bei denen diese die Bedeutung der Keimblätter aufklärten und allgemein gültige Gesetzmäßigkeiten der Embryogenese der Tiere aufzeigten. Mit der Etablierung der von Matthias Jacob Schleiden (1838), Theodor Schwann (1839) und Rudolf Virchow (1858) entwickelten Allgemeinen Zelltheorie wurde deutlich, dass die Gründe für die Ähnlichkeit von Eltern und Nachkommen in der Zelle lokalisiert sein müssen. Alle Organismen bestehen aus Zellen, Wachstum beruht auf der Vermehrung der Zellen durch Teilung, und bei der geschlechtlichen Fortpflanzung, die bei Vielzellern der Normalfall ist, vereinigen sich je eine Keimzelle beiderlei Geschlechts zu einer Zygote, aus welcher durch fortwährende Teilung und Differenzierung der neue Organismus hervorgeht. Klassische Genetik Die Gesetzmäßigkeiten der Vererbung blieben lange im Unklaren. Schon in den Jahren 1799 bis 1823 führte Thomas Andrew Knight – wie einige Jahrzehnte später Gregor Mendel – Kreuzungsexperimente mit Erbsen durch, bei denen er bereits die Erscheinungen der Dominanz und der Aufspaltung von Merkmalen beobachtete. 1863 publizierte Charles Victor Naudin (1815–1899) die Ergebnisse seiner Kreuzungsexperimente mit zahlreichen Pflanzengattungen, wobei er das sehr gleichartige Aussehen aller Pflanzen der ersten Tochtergeneration und die „extreme Verschiedenartigkeit der Formen“ in den folgenden Generationen konstatierte und damit weitere bedeutende Aspekte der fast zeitgleichen Erkenntnisse Mendels vorwegnahm, aber im Unterschied zu Mendel keine statistische Auswertung durchführte. Der entscheidende Durchbruch gelang dann Mendel mit seinen 1856 begonnenen Kreuzungsversuchen, bei denen er sich auf einzelne Merkmale konzentrierte und die erhaltenen Daten statistisch auswertete. So konnte er die grundlegenden Gesetzmäßigkeiten bei der Verteilung von Erbanlagen auf die Nachkommen ermitteln, die heute als Mendelsche Regeln bezeichnet werden. Diese Entdeckungen, die er 1866 publizierte, blieben jedoch zunächst in der Fachwelt fast unbeachtet und wurden erst im Jahr 1900 von Hugo de Vries, Carl Correns und Erich Tschermak wiederentdeckt und aufgrund eigener Versuche bestätigt. Einen radikalen Umbruch der Vorstellungen von der Vererbung brachte die Keimbahn- oder Keimplasmatheorie mit sich, die August Weismann in den 1880er Jahren entwickelte. Schon seit dem Altertum galt es als selbstverständlich, dass Merkmale, welche die Eltern während ihres Lebens erworben haben, auf die Nachkommen übertragen werden können. Nach Jean-Baptiste de Lamarck, in dessen Evolutionstheorie sie eine bedeutende Rolle spielte, wird diese Ansicht heute als Lamarckismus bezeichnet. Doch auch Charles Darwin postulierte in seiner Pangenesistheorie, dass der ganze elterliche Organismus auf die Keimzellen einwirke – unter anderem sogar indirekt durch Telegonie. Weismann unterschied nun zwischen der Keimbahn, auf der die Keimzellen eines Organismus sich von der Zygote herleiten, und dem Soma als der Gesamtheit aller übrigen Zellen, aus denen keine Keimzellen hervorgehen können und von denen auch keine Einwirkungen auf die Keimbahn ausgehen. Diese Theorie war allerdings anfangs sehr umstritten. Mit seinem zweibändigen Werk Die Mutationstheorie (1901/03) führte de Vries den bis dahin in der Paläontologie gebräuchlichen Begriff „Mutation“ in die Vererbungslehre ein. Nach seiner Auffassung handelte es sich bei Mutationen um umfassende, sprunghafte Veränderungen, durch welche eine neue Art entstehe. Dabei stützte er sich auf seine Studien an Nachtkerzen, bei denen eine „in allen ihren Organen“ stark veränderte Pflanze aufgetreten war, deren Merkmale sich als erbkonstant erwiesen und die er daher als neue Art (Oenothera gigas) beschrieb. (Später stellte sich heraus, dass Oe. gigas im Unterschied zu den diploiden Ausgangspflanzen tetraploid war und somit – aus heutiger Sicht – der Sonderfall einer Genommutation (Autopolyploidie) vorlag.) Dieser Befund stand im Widerspruch zu der an Charles Darwin anschließenden Evolutionstheorie, die das Auftreten geringfügiger Veränderungen voraussetzte, und das war einer der Gründe, warum der „Mendelismus“ sich zeitweilig im Widerstreit mit dem damals noch nicht allgemein akzeptierten Darwinismus befand. In den Jahren um die Jahrhundertwende untersuchten etliche Forscher die unterschiedlichen Formen der Chromosomen und deren Verhalten bei Zellteilungen. Aufgrund der Beobachtung, dass gleich aussehende Chromosomen paarweise auftreten, äußerte Walter Sutton 1902 als erster die Vermutung, dass dies etwas mit den ebenfalls gepaarten Merkmalen und deren „Spaltung“ in den Untersuchungen von Mendel und seinen Wiederentdeckern zu tun haben könne. Im Anschluss daran formulierte Theodor Boveri 1904 die Chromosomentheorie der Vererbung, wonach die Erbanlagen an die Chromosomen gebunden sind und deren Verhalten bei der Meiose und Befruchtung den Mendelschen Regeln entspricht. Eine sehr folgenreiche Entscheidung war die Wahl von Taufliegen als Versuchsobjekt durch die Arbeitsgruppe um Thomas Hunt Morgan im Jahre 1907, vor allem weil diese in großer Zahl auf kleinem Raum gehalten werden können und sich sehr viel schneller vermehren als die bis dahin verwendeten Pflanzen. So stellte sich bald heraus, dass es auch geringfügige Mutationen gibt, auf deren Grundlage allmähliche Veränderungen innerhalb von Populationen möglich sind (Morgan: For Darwin, 1909). Eine weitere wichtige Entdeckung machte Morgans Team etwa 1911, als man die schon 1900 von Correns publizierte Beobachtung, dass manche Merkmale meist zusammen vererbt werden (Genkopplung), mit Untersuchungen der Chromosomen verband und so zu dem Schluss kam, dass es sich bei den Koppelungsgruppen um Gruppen von Genen handelt, welche auf demselben Chromosom liegen. Wie sich weiter herausstellte, kann es zu einem Austausch von Genen zwischen homologen Chromosomen kommen (Crossing-over), und aufgrund der relativen Häufigkeiten dieser intrachromosomalen Rekombinationen konnte man eine lineare Anordnung der Gene auf einem Chromosom ableiten (Genkarte). Diese Erkenntnisse fasste Morgan 1921 in The Physical Basis of Heredity und 1926 programmatisch in The Theory of the Gene zusammen, worin er die Chromosomentheorie zur Gentheorie weiterentwickelte. Diese Theorie war schon während ihrer allmählichen Herausbildung sehr umstritten. Ein zentraler Streitpunkt war die Frage, ob die Erbanlagen sich ausschließlich im Zellkern oder auch im Zytoplasma befinden. Vertreter der letzteren Ansicht waren u. a. Boveri, Correns, Hans Driesch, Jacques Loeb und Richard Goldschmidt. Sie postulierten, dass im Kern nur relativ geringfügige Erbfaktoren bis hin zu Artmerkmalen lokalisiert seien, während Merkmale höherer systematischer Kategorien (Gattung, Familie usw.) durch das Plasma vererbt würden. Der entschiedenste Vertreter der Gegenseite war Morgans ehemaliger Mitarbeiter Hermann Joseph Muller, der in The Gene as the Basis of Life (1929) die im Kern lokalisierten Gene als die Grundlage des Lebens überhaupt bezeichnete und die Bedeutung des Plasmas als sekundär einstufte. Muller war es auch, der 1927 erstmals von der Erzeugung von Mutationen durch Röntgenstrahlung berichtete, wodurch die genetische Forschung nicht mehr darauf angewiesen war, auf spontan auftretende Mutationen zu warten. Der von de Vries, Morgan, Muller und Anderen vertretenen Ansicht der Zufälligkeit der Mutationen stand das u. a. von Paul Kammerer und Trofim Denissowitsch Lyssenko verfochtene Postulat gegenüber, dass Mutationen „gerichtet“ und qualitativ durch Umwelteinflüsse bestimmt seien. Zur Förderung der „menschlichen Erblehre“ trugen im ersten Viertel des 20. Jahrhunderts auch Erwin Baur, Eugen Fischer und Fritz Lenz bei, ebenso mit Arbeiten zur Zwillingsforschung Wilhelm Weitz, Hermann Werner Siemens und Otmar Freiherr von Verschuer. Populationsgenetik Nach dem allgemeinen Bekanntwerden von Mendels mathematisch exakter Beschreibung des dominant-rezessiven Erbgangs im Jahr 1900 wurde die Frage diskutiert, ob rezessive Merkmale in natürlichen Populationen allmählich verschwinden oder auf Dauer erhalten bleiben. Hierzu fanden der deutsche Arzt Wilhelm Weinberg und der britische Mathematiker Godfrey Harold Hardy 1908 fast gleichzeitig eine Formel, die das Gleichgewicht dominanter und rezessiver Merkmale in Populationen beschreibt. Diese Entdeckung wurde jedoch unter Genetikern zunächst kaum beachtet. Erst 1917 führte Reginald Punnett das von ihm so genannte „Hardy-Gesetz“ in die Populationsforschung ein, was ein wichtiger Beitrag zur Begründung der Populationsgenetik als eigenständigem Forschungszweig in den 1920er Jahren war. Weinbergs Beitrag wurde sogar erst 1943 von Curt Stern wiederentdeckt, der die Formel daraufhin in „Hardy-Weinberg-Gesetz“ umbenannte. Die Grundlagen der Populationsgenetik wurden parallel von Sewall Wright, Ronald A. Fisher und J. B. S. Haldane entwickelt. Sie erkannten, dass Vererbungsvorgänge in der Natur sinnvollerweise auf der Ebene von Populationen zu betrachten sind, und formulierten dafür die theoretischen Grundlagen (Haldane: A Mathematical Theory of Natural and Artificial Selection. 1924–1932; Fisher: The Genetical Theory of Natural Selection. 1930; Wright: Evolution in Mendelian Populations. 1931). Die Erbsubstanz Seit 1889 (Richard Altmann) war bekannt, dass Chromosomen aus „Nucleinsäure“ und basischem Protein bestehen. Über deren Aufbau und Funktion konnte jedoch lange Zeit nur spekuliert werden. 1902 postulierten Emil Fischer und Franz Hofmeister, dass Proteine Polypeptide seien, also lange Ketten von Aminosäuren. Das war zu diesem Zeitpunkt allerdings noch sehr spekulativ. Als 1905 die ersten Analysen der Aminosäuren-Zusammensetzung von Proteinen publiziert wurden, erfassten diese lediglich ein Fünftel des untersuchten Proteins, und die Identifikation aller 20 proteinogenen Aminosäuren zog sich bis 1935 hin. Dagegen war bei der Nukleinsäure schon 1903 klar (Albrecht Kossel), dass sie neben Zucker und Phosphat lediglich fünf verschiedene Nukleinbasen enthält. Erste Analysen der Basenzusammensetzung durch Hermann Steudel ergaben 1906, dass die vier hauptsächlich vorhandenen Basen zu annähernd gleichen Anteilen enthalten sind. Daraus schloss Steudel (1907), dass die Nukleinsäure „ein relativ einfach gebauter Körper sei“, dem man keine anspruchsvollen Funktionen beimessen könne. Dies etablierte sich als Lehrmeinung, die bis in die 1940er Jahre gültig blieb, und auf dieser Grundlage betrachtete man nicht die Nukleinsäure(n), sondern die Proteine als „Erbsubstanz“. Zu der Einsicht, dass es sich gerade umgekehrt verhält und die Nukleinsäure DNA als Erbsubstanz angesehen werden muss, führten die Experimente der Arbeitsgruppe von Oswald Avery zur Transformation von Pneumokokken (1944) und das Hershey-Chase-Experiment von 1952 mit Bakteriophagen. Außerdem zeigte Erwin Chargaff 1950, dass die vier Nukleotide, aus denen die DNA besteht, nicht zu gleichen, sondern zu paarweise gleichen Anteilen enthalten sind. Zusammen mit Röntgenstrukturanalyse-Daten von Rosalind Franklin war das die Grundlage für die Entwicklung des Doppelhelix-Strukturmodells der DNA durch James Watson und Francis Crick 1953. Siehe auch Literatur François Jacob: La logique du vivant: Une histoire de l'hérédité. Gallimard, Paris 1971. (deutsch: Die Logik des Lebenden. Fischer, Frankfurt am Main 1972, Neuausgabe 2002) Wilfried Janning, Elisabeth Knust: Genetik. 2. Auflage. Thieme, Stuttgart 2008, ISBN 978-3-13-149801-4. William S. Klug, Michael R. Cummings, Charlotte A. Spencer: Genetik. 8. Auflage. Pearson Studium, München 2007, ISBN 978-3-8273-7247-5. Hans-Peter Kröner: Genetik. In: Werner E. Gerabek, Bernhard D. Haage, Gundolf Keil, Wolfgang Wegner (Hrsg.): Enzyklopädie Medizingeschichte. de Gruyter, Berlin/ New York 2005, ISBN 3-11-015714-4, S. 468–475. Katharina Munk (Hrsg.): Taschenlehrbuch Biologie: Genetik. Thieme, Stuttgart 2010, ISBN 978-3-13-144871-2. Eberhard Passarge: Color atlas of genetics Taschenatlas der Genetik, Georg Thieme Verlag KG, Stuttgart 2018, 5. Auflage, ISBN 978-3-13-241440-2. Hans-Jörg Rheinberger, Staffan Müller-Wille: Vererbung – Geschichte und Kultur eines biologischen Konzepts. Fischer, Frankfurt am Main 2009, ISBN 978-3-596-17063-0. Weblinks Genetic Science Learning Center – University of Utah (engl.), Gewinner des Science Prize for Online Resources in Education. Einzelnachweise Biologische Disziplin
Q7162
1,406.33039
57357
https://de.wikipedia.org/wiki/Embryologie
Embryologie
Die Embryologie (von , und -logie) ist jenes Teilgebiet der Entwicklungsbiologie, das sich mit der Entwicklung der befruchteten Eizelle und des daraus entstehenden Embryos beschäftigt. Man spricht auch von der pränatalen Entwicklungsbiologie. In Medizin und Zoologie wird von der Embryologie in der Folge auch das Wachstum des Feten behandelt. Geschichte Von griechischen Gelehrten des 5. und 4. Jahrhunderts v. Chr. stammen die ersten Theorien zur Entwicklung des Embryos. Diese waren geprägt von der Vorstellung, dass es sich dabei um einen Akt göttlicher Schöpfung handle. Aristoteles nahm an, dass durch Sperma das Menstruationsblut aktiviert werde und die Embryonalentwicklung initiiere. Die hippokratischen Schriften gehen von der, etwa auch von Alkmaion und anderen Philosophen und Naturforschern postulierten, sogenannten Zweisamentheorie aus, nach der es einen männlichen und einen weiblichen „Samen“ gebe, der bei der Zeugung und der Geschlechtsdetermination beteiligt ist. Der in Rom tätige griechische Arzt Galenos beschrieb in seinem Werk Über die Bildung des Fetus im 2. Jahrhundert n. Chr. die pränatale Entwicklung und extraembryonale Strukturen, wie die Plazenta. Diese Lehren (auch von Avicenna abgehandelt) prägten die Embryologie bis in die Neuzeit. Erste Messungen von verschiedenen Stadien der embryonalen Entwicklung nahm Leonardo da Vinci vor. Frühe wissenschaftliche Untersuchungen von Embryonen publizierte Girolamo Fabricio ab Acquapendente 1600 für Säugetier-, Reptil- und Haiembryonen (De formato foetu) und 1621 über die Bildung von Ei und Küken (De formatione ovi et pulli). Dieses Vorgehen wurde von William Harvey präzisiert, indem er Mitte des 17. Jahrhunderts unter Einsatz einfacher Vergrößerungslinsen die Entwicklung von Hühnerembryonen untersuchte. Außerdem erforschte Harvey die Entwicklung des Damhirschs, bei dem er keine frühen Embryonalstadien entdecken konnte. Daraus schloss er fälschlicherweise, dass der Uterus die Embryonen sezerniere. Widerlegt wurde er 1672 von Reinier de Graaf, der durch Verwendung der ersten Mikroskope kleine Kammern im Uterus von Kaninchen entdeckte. Er zog den Schluss, dass diese nicht aus dem Uterus stammen könnten, sondern aus anderen Organen, die er als Ovarien benannte. In diesen entdeckte er außerdem die nach ihm benannten reifen Eifollikel (Graaf-Follikel). Durch die Entdeckung eines vermeintlich vorgeformten Kükens in einem unbefruchteten Ei durch Marcello Malpighi und die Entdeckung des Spermiums kam eine Gegenthese zur bisherigen Epigenesetheorie auf. Die Vertreter der Präformationstheorie nahmen an, dass entweder in der Eizelle oder im Spermium der Mensch in winzigem Format bereits vorliege und nur noch Wachsen müsse. Die Präformationstheorie etablierte sich und wurde erst 1759 von Caspar Friedrich Wolff stark kritisiert, als dieser zeigen konnte, dass sich Embryonen aus kleinen kugelförmigen Strukturen entwickeln und die von Malpighi beschriebenen Embryonen in Hühnereiern nicht finden konnte. Wolff ging davon aus, dass durch Teilung und Differenzierung einer Zelle Keimblätter entstünden, aus denen sich dann der Embryo entwickle. Ab dem Anfang des 19. Jahrhunderts konzentrierten sich mehr Wissenschaftler auf den von Wolff eingeführten Keimblattbegriff. Dabei begründeten Étienne Geoffroy Saint-Hilaire, sein Sohn Isidore Saint-Hilaire und Johann Friedrich Meckel der Jüngere die Lehre von den Entwicklungsstörungen durch reproduktionstoxische Stoffe (Teratologie). Christian Heinrich Panders Entdeckung, dass es drei verschiedene Keimblätter gibt und Karl Ernst von Baers Entdeckung der Eizelle bestätigten den angenommenen Keimblattbegriff und die dahinterstehende Epigenesetheorie. Als Begründer der modernen Embryologie gilt der deutsche Arzt Robert Remak. Er beschrieb 1842 die drei Keimblätter Ektoderm, Mesoderm und Endoderm. Er erkannte vor Rudolf Virchow und Theodor Schwann den Zellkern als Grundstruktur der Zellteilung. Remak beschrieb die Grundstruktur des Axons und das Remak-Ganglion. Später arbeitete er auf dem Gebiet der Galvanotherapie. Der Wiener Embryologe Samuel Leopold Schenk unternahm 1878 an der Wiener Universität den ersten, noch nicht erfolgreichen Versuch einer In-vitro-Fertilisation an Samen und Eizellen von Kaninchen und Meerschweinchen. Von 1880 bis 1894 betrieb Wilhelm His ein Mitbegründer der Embryologie, seine embryologischen Studien. Entwicklungsphasen beim Menschen Zu Beginn der Entwicklung eines Menschen steht die Gametogenese. Ein Gamet ist eine aus Urkeimzellen entstandene Zelle, die einen haploiden Chromosomensatz besitzt. Trifft nun bei der Konzeption eine männliche Gametenzelle (Spermium) auf eine weibliche Gametenzelle (Eizelle, Oozyte), kann es zur Befruchtung (Imprägnation) kommen. Als Blastogenese wird die Entwicklung der Zygote in den ersten zwei Wochen nach der Befruchtung genannt. Hier erfolgt auch die Einbettung (Nidation oder Implantation) des Keims (am 6. oder 7. Tag). Im fließenden Übergang dazu steht die Embryogenese. Sie bezeichnet die Differenzierung der verschiedenen Zellschichten bis hin zum Fetus. Sie beginnt ungefähr mit der dritten Woche p.c. (post conceptionem) und kann unter anderem an der Bildung des dritten Keimblattes festgemacht werden. Als Ergebnis der Embryogenese sind fast alle Organe in Grundzügen angelegt und der uteroplazentare Kreislauf ist ausgebildet. Ab der neunten Entwicklungswoche bis zur Geburt spricht man nun von einem Fetus, statt von einem Embryo. Während der Fetogenese wachsen und differenzieren sich die während der Embryogenese angelegten Organe weiter. Siehe auch Entwicklungsbiologie Evolutionäre Entwicklungsbiologie Reproduktionsmedizin Stammzelle Kiemenbogen Morula Blastulation Gastrulation Neurulation Literatur Bruno Bloch: Die geschichtlichen Grundlagen der Embryologie bis auf Harvey. In: Nova acta. Abhandlungen der kaiserlich Leopoldinisch-Carolinischen Deutschen Akademie der Naturforscher. Band 80, Nr. 3, (Halle an der Saale) 1904, S. 215–334. Ursula Weisser: Ibn Qaiyim al-Ǧauzīya über die Methoden der Embryologie. In: Medizin-historisches Journal. 16, 1981, S. 227–239. Christian Girod: Geschichte der Embryologie. In: Illustrierte Geschichte der Medizin. Deutsche Bearbeitung von Richard Toellner u. a., Sonderauflage Salzburg 1986, IV, S. 1894–1943. Ulrich Drews: Taschenatlas der Embryologie – 176 Farbtafeln von Astried Rothenburger und Rüdiger Gay, 2. unveränderte Auflage, Thieme Verlag, Stuttgart 2006, ISBN 978-3-13-109902-0. Weblinks www.embryology.ch Online-Embryologiekurs für Studierende der Medizin Fakten und Zeitangaben zur menschlichen Entwicklung Embryo Animationen Einzelnachweise Medizinisches Fachgebiet
Q131683
330.261075
1122052
https://de.wikipedia.org/wiki/Religionskrieg
Religionskrieg
Unter einem Religionskrieg, seltener Glaubenskrieg, wird im Allgemeinen ein Krieg verstanden, der aus Gründen der Religion geführt wird. Darunter fallen etwa die Expansionskriege des Islam bis zum 8. Jahrhundert, die Kreuzzüge und die Albigenserkriege des Mittelalters. Im engeren Sinne bezeichnet man mit „Religionskrieg“ die Konfessionskriege im 16. und 17. Jahrhundert in Europa. Dazu zählen insbesondere die Hugenottenkriege Frankreichs sowie im Heiligen Römischen Reich Deutscher Nation der Schmalkaldische Krieg (1546–1547), der Aufstand der protestantischen Fürsten (1552) und vor allem der Dreißigjährige Krieg (1618–1648). Die Abgrenzung ist schwierig, da einerseits bis teilweise in die Neuzeit die meisten Kriege mit religiösen Vorstellungen oder Ausdrucksformen verbunden waren, andererseits hatten selbst die Religionskriege im engeren Sinn noch andere als nur religiöse Motive. Laut der Encyclopedia of Wars hatten von allen 1.763 bekannten/aufgezeichneten historischen Konflikten 121, d. h. 6,87 %, Religion als Hauptursache. Islamische Expansion Die Islamische Expansion bezeichnet die Eroberungspolitik der Araber von der Mitte der 630er Jahre an und die damit einhergehende Ausdehnung des Islam von der Iberischen Halbinsel bis in den Punjab bis ins 8. Jahrhundert hinein. Mit dem Beginn der Islamischen Expansion wird häufig auch das Ende der Antike angesetzt. Die Kreuzzüge Die Kreuzzüge zogen sich vom späten 11. Jahrhundert bis ins 13. Jahrhundert hin, sie umfassten dabei sowohl das Heilige Land als auch Teile Europas und Nordafrikas als Schlachtplätze. Religionskriege im Inneren Die Geschichte der Europäischen Nationen kennt indessen gerade in der Zeit der Entstehung der Nationen im engeren Wortsinne mehrere Auseinandersetzungen, die als Religionskriege ihren Ursprung nahmen oder zumindest als Religionskrieg bezeichnet wurden. Schmalkaldischer Krieg Die Gründung des schmalkaldischen Bundes, eines Verteidigungsbündnisses protestantischer Fürsten und Städte im Jahr 1531, die sich gegen die Religionspolitik des katholischen Kaisers Karl V., des Heiliges Römisches Reich richtete, führte schließlich zu einem Krieg beider Parteien in den Jahren von 1546 bis 1547, der mit der Niederlage des Bundes und seiner Auflösung endete. Die acht Hugenottenkriege Die acht Hugenottenkriege (1562 bis 1598) wurden auch zusammenfassend „vierzigjähriger Krieg“ genannt. Im 16. Jahrhundert zerfiel Frankreich in zwei religiöse Lager: die überwiegende Mehrheit der Bevölkerung blieb katholisch; eine starke Minderheit schloss sich der Reformation an. Ein friedliches Zusammenleben der beiden Konfessionen erwies sich als unmöglich, wodurch es zu kriegerischen Auseinandersetzungen kam, welche gerade in Gebieten mit gemischten Glaubensgruppen oft als Bürgerkriege auftraten. Die acht offenen Kriege wurden nur von wenig tragfähigen Friedensvereinbarungen unterbrochen. Erst das Edikt von Nantes (30. April 1598) brachte wirklich Frieden; es verordnete eine begrenzte religiöse Toleranz. Die konfessionelle Koexistenz wurde im 17. Jahrhundert zugunsten der Katholiken eingeschränkt und 1685 durch das Edikt von Fontainebleau beseitigt, mit dem das Edikt von Nantes widerrufen wurde. (Siehe auch Bartholomäusnacht). Der Publizist Klaus Harpprecht schrieb zu Religionskriegen mit Blick auf die Hugenottenkriege: Der Dreißigjährige Krieg Der Dreißigjährige Krieg (1618-1648) wurde durch die gegenreformatorischen Bestrebungen des Kaisers Ferdinand II. ausgelöst. Gegen diese schlossen sich mehrere protestantische Staaten und Herrscher zusammen. Innerhalb des Reichs ging es zum einen um die Durchsetzung der Gegenreformation innerhalb der Habsburgischen Erblande und die Auslegung des Augsburger Religionsfriedens zugunsten der protestantischen oder katholischen Konfession, im Hintergrund standen politische Interessen der Reichsfürsten und der europäischen Nachbarstaaten, ihre jeweiligen Herrschafts- und Einflusssphären auszuweiten. Dabei unterstützte zum Beispiel das katholische Frankreich unter der Führung des Kardinals Richelieu unter Ludwig XIII. aus Machtinteresse die protestantische Seite. Der Westfälische Friede, der mit dem Dreißigjährigen auch den Achtzigjährigen Krieg beendete, trug zur längerfristigen Stabilität in Europa bei. Schweiz Der Erste und Zweite Kappeler Krieg waren Kriege in der Schweiz zur Zeit der Reformation. Der Sonderbundskrieg war der letzte Krieg auf Schweizer Territorium und war im Wesentlichen ebenfalls durch die Religion begründet. Russland In den Begründungen des russischen Regimes und seiner Propaganda handelt es sich beim Russischen Überfall auf die Ukraine 2022 um einen Krieg gegen «Okkultisten und Atheisten», respektive um einen tausendjährigen Krieg gegen den „kollektiven Westen“, der den orthodoxen Glauben zu zerstören trachte. Von Beginn an, wie auch schon in der verklausulierten Kriegserklärung Putins vorhanden, war die Religion ein wichtiger Teil aller Kriegsbegründungen, Russland führe in der Ukraine einen „heiligen Krieg“, einen „gerechten Kampf“ gegen das Böse. Verbindung von Religion und (Außen-)Politik In großen Teilen der Welt gab und gibt es Religionen, die den Charakter einer allgemein verbindlichen Staatsreligion annehmen. Die Verbindung zwischen Staat und Religion wurde in der Geschichte vor allem dann aggressiv, wenn sich religiöser Eifer und imperialistische staatliche oder gesellschaftliche Tendenzen trafen. Als klassisches Beispiel dienen hierbei die Kreuzzüge, die aufgrund des päpstlichen Aufrufs im Mittelalter von verschiedenen europäischen Herrschern und Staaten gegen den Islam geführt wurden, ebenso wie die Eroberungszüge, die von Herrschern und Staaten von der Zeit des frühen und Hochmittelalters bis in die Neuzeit hinein geführt wurden. Im Falle der Kreuzzüge wurde als Motivation vornehmlich die „Befreiung“ des „heiligen Landes“ von der Herrschaft der Ungläubigen propagiert, gleichzeitig standen auch konkrete politische und ökonomische Interessen auf dem Spiel, wie zum Beispiel die Handelsinteressen der Republik Venedig im westlichen Mittelmeerraum. Es ist heute schwer, zu entscheiden, ob bei diesen genannten Beispielen die Religion oder politisch-ökonomische Interessen im Vordergrund gestanden haben. Religion als Mittel der Kriegsführung In Religionskriegen dient die Religion nicht nur als Mittel der Propaganda, sondern religiöse Versprechungen werden von den kriegsführenden Staaten auch zur Motivation des eigenen Volkes, insbesondere der am Kampf teilnehmenden Soldaten eingesetzt. Materielle Opfer des Krieges werden dem religiösen Opfer gleichgesetzt, was eine höhere Bereitschaft zur Hinnahme materieller Nachteile (Verknappung von Lebensmitteln etc., Erhöhung von Steuern und Abgaben) bewirkt. Insbesondere den Kämpfern werden religiöse Vorteile versprochen. Beispielsweise versprach die Katholische Kirche für die Teilnahme an einem Kreuzzug den sog. vollständigen Ablass; islamische Autoritäten versprechen bis heute den unmittelbaren Eintritt in das Paradies, sollte man während des Kampfes für Gott und den Islam (Dschihad) sterben. Nicht mit dieser Instrumentalisierung von Religion durch kriegführende Staaten oder sonstige Mächte vergleichbar ist die seelsorgerische Betreuung von Religionsangehörigen durch Feldgeistliche. Diese Betreuung wurde im Militär des Warschauer Paktes abgeschafft, ist aber in den neuzeitlichen Kriegen in Europa wieder üblich geworden; sie dient dazu, Soldaten und anderen Streitkräfteangehörigen die Ausübung ihrer Religion (z. B. Beichte, Sonntagsgottesdienst) zu ermöglichen. Die Stellung der Hochreligionen zu Krieg und Frieden eruiert Helmuth von Glasenapp in seiner Schrift über Glaube und Ritus der Hochreligionen. Siehe auch Augsburger Religionsfrieden Heiliger Krieg Virtuelles Museum des Protestantismus Literatur Friedrich Beiderbeck: Zwischen Religionskrieg, Reichskrise und europäischem Hegemoniekampf. 1. Auflage. Berliner Wissenschafts-Verlag, 2006, ISBN 3-8305-0024-6. Christian Mühling: Die europäische Debatte über den Religionskrieg (1679-1714). Konfessionelle Memoria und internationale Politik im Zeitalter Ludwigs XIV. (Veröffentlichungen des Instituts für Europäische Geschichte Mainz, 250) Vandenhoeck&Ruprecht, Göttingen 2018, ISBN 978-3-525-31054-0. Tariq Ali: The Clash of Fundamentalisms, Crusades, Jihads and Modernity. Verso, London / New York 2002 (Rezension: asmz.ch). Konrad Repgen: Was ist ein Religionskrieg? In: Zeitschrift für Kirchengeschichte, 97, 1986, 3, S. 334–349. Mirjam Pressler: Nathan und seine Kinder. Einzelnachweise Kriegsart Politik und Religion !
Q1827102
94.355408
450167
https://de.wikipedia.org/wiki/H%C3%A4molymphe
Hämolymphe
Die Hämolymphe kommt bei einigen Tiergruppen als zirkulierende Körperflüssigkeit vor. Ein hoch entwickeltes Atmungssystem ermöglicht eine fast vollständige Reduzierung des Blutgefäßsystems. Dieses Phänomen kann man bei einigen Gliederfüßern, wie den Krebstieren (Kiemenatmungssystem) oder Insekten (Tracheensystem), beobachten. Bei diesen kommt es zu einer Verschmelzung der sekundären Leibeshöhle (Coelom) und der primären Leibeshöhle zum sogenannten Mixocoel. Im Mixocoel liegen die Nieren, die von einer meist farblosen Flüssigkeit umspült werden. Da ein offenes Blutkreislaufsystem vorliegt, kommt es zu einer Vermengung der Mixocoelflüssigkeit mit dem ursprünglichen Blut. Daher wird die Hämolymphe oft auch als „Blut der Insekten“ oder „Blut der Krebstiere“ bezeichnet. Funktion Die Hämolymphe enthält keine roten Blutkörperchen und ähnelt einer Mischung von Blutplasma und Lymphflüssigkeit. Die meist farblose Flüssigkeit ist unter anderem Transporteur von Nährstoffen, Hormonen und Stoffwechselprodukten. Die Hämolymphe vermittelt den Temperaturausgleich und hat bei der Abwehr von Krankheitserregern oder dem Wundverschluss eine ähnliche Funktion wie das menschliche Blut. Hämolymphtransport Allgemein Das Herz ist ein stark verkürzter Schlauch, das in einem dorsal gelegenen Teil der Leibeshöhle, dem Perikardialsinus, liegt. Die Hämolymphe tritt durch segmentale, seitlich liegende Ostien (Öffnungen mit Ventilklappen) in das Herz ein, das sie durch Kontraktion der quergestreiften Herzmuskulatur in ein System aus offenen und geschlossenen Arterien drückt. Früher oder später mündet die Hämolymphe in das Mixocoel. Es liegen keine Venen vor, die Hämolymphe dringt durch den entstehenden Unterdruck im Herzen durch die Ostien wieder ins Herz ein. Bei ganz kleinen Vertretern der Arthropoden kommt es sogar zur völligen Zurückbildung des Blutkreislaufsystems und einer veränderten Funktion der Hämolymphe. Bei Crustacea Die Hämolymphe wird bei den Krebstieren ebenfalls vom Herzen durch Arterien ins Mixocoel gepresst. Dort sammelt sich die sauerstoffarme Hämolymphe in Bluträumen, die durch bindegewebige Septen begrenzt sind. Von dort dringt sie in die Kiemen vor und wird mit Sauerstoff angereichert und durch Gefäße dem Perikardialsinus zugeleitet. Bei Insekten Das Herz liegt bei den Insekten im Abdomen und ist röhrenförmig. Vom Herz zieht sich eine kopfwärts anschließende Aorta (vergleichbar mit Rückengefäß der Anneliden). Die Kontraktion der quergestreiften ringförmigen Herzmuskulatur führt zu einer von hinten nach vorne fortschreitenden Verengung des Herzlumens. Dabei schließen sich die Ostien. Klappenartige Ventile im Herzmuskel verhindern das Zurückfließen des Blutersatzes. Die Hämolymphe tritt durch die Systole aus dem Herzen aus und durchfließt das Mixocoel, teilweise auch in diskreten Bahnen, und sammelt sich wieder im Perikardialsinus. Durch die Ostien gelangt die Hämolymphe wieder ins Herz. Alternativ zu einem röhrenförmigen Herz kann die Pumpbewegung auch durch ein Ineinanderschieben von Abdominalsegmenten stattfinden, es können auch zusätzlich zum Herz Bein- oder Flügelherzen ausgeführt sein. Die Hämolymphe zahlreicher Insekten enthält das Disaccharid Trehalose. Siehe auch blauer Blutfarbstoff Hämocyanin (Analogon zum Hämoglobin, dem roten Blutfarbstoff) Literatur Volker Storch, Ulrich Welsch: Kükenthal Zoologisches Praktikum. 26. Auflage. Spektrum Akademischer Verlag, Heidelberg 2009, ISBN 978-3-8274-1998-9, Kapitel Arthropoda Einzelnachweise Anatomie (Wirbellose) Blut
Q485675
96.310211
50048
https://de.wikipedia.org/wiki/Tennessee
Tennessee
Tennessee (engl. Aussprache ; Cherokee: Ta-Na-Si) ist ein Bundesstaat der Vereinigten Staaten von Amerika und zählt zu den Südstaaten. Der Name Tennessee kommt von Tanasi, dem Namen einer Indianersiedlung am Little Tennessee River. Einer der Beinamen Tennessees lautet Volunteer State – „Staat der Freiwilligen“. Er stammt aus der Zeit des Britisch-Amerikanischen Krieges, in dem zahlreiche Bürger Tennessees als Freiwillige für ihr Land kämpften. Tennessee ist berühmt für den Blues, die Entstehung des Rock ’n’ Roll (Memphis) und die Country-Musik (Nashville) sowie für seinen Whiskey (Jack Daniel’s und George Dickel). Geschichte Vor 12.000 Jahren besiedelten Paläo-Indianer das Gebiet des heutigen Tennessee. Neben Projektilspitzen fand man das Skelett eines Mastodonten im Williamson County mit für diese früheste Periode typischen Schnittspuren. Aus der Archaischen Periode (ca. 8000–1000 v. Chr.) stammt die archäologische Fundstätte Icehouse Bottom südlich von Fort Loudoun im Monroe County, die sich auf die Zeit um 7500 v. Chr. datieren ließ. Weitere Fundstätten dieser Periode, jedoch wesentlich jünger sind Rose Island, nur wenige Kilometer flussabwärts von Icehouse Bottom, und die Eva site im Benton County. Sie wird der Big Sandy culture zugerechnet und war zwischen 2000 und 1000, möglicherweise 500 v. Chr. bewohnt. Aus der Woodland-Periode (1000 v. Chr.–1000 n. Chr.) wurden die Pinson-Mounds im Madison County und Old Stone Fort im Coffee County ausgegraben, die beide in der ersten Hälfte des 1. Jahrtausends n. Chr. entstanden. Dabei zählen die Pinson Mounds zu den größten Mounds der Mittleren Waldlandperiode im Südosten der USA. Zu diesem Bauwerk gehören mindestens 12 Mounds. Die Stätte Old Stone Fort ist eine ausgedehnte zeremonielle Stätte mit einem komplizierten Zugangsweg. Sie lag seinerzeit auf einer kaum zugänglichen Halbinsel. Aus der Ära der Mississippi-Kultur (um 1000–1600) stammen Dörfer an den meisten Flussläufen des Bundesstaates, darunter Chucalissa bei Memphis, Mound Bottom im Cheatham County, die Shiloh Mounds im Hardin County und die Toqua site im Monroe County. Ausgrabungen an der McMahan Mound Site im Sevier County – dort fand sich ein Mound mit einer Breite von 73 m aus der Zeit um 1200 bis 1500 – und bei Townsend im Blount County – dort förderten Archäologen eine Dorfpalisade aus der Zeit um 1200 zutage – präzisierten das Bild von diesen Mound-Buildern in Tennessee. Von 1539 bis 1543 durchzog der spanische Entdecker Hernando de Soto das Gebiet östlich des Mississippi River. Welchen Stämmen die archäologischen Überreste des 16. und 17. Jahrhunderts zuzuordnen sind, ist umstritten. Im 18. Jahrhundert lebten nur die Cherokee permanent in Tennessee. Die Chickasaw kontrollierten zwar den Westen des heutigen Bundesstaates, doch gibt es keinerlei Hinweise darauf, dass sie dort mehr unternahmen, als zu jagen. Die Shawnee und Creek besetzten kurzzeitig einige Gebiete, doch es gibt praktisch keine archäologischen Spuren. Zu Beginn der Besiedlung durch europäische Kolonisten wurden die meisten Ureinwohner nach Süden und Westen verdrängt, insbesondere die Stämme der Muskogee und Yuchi. Bis zur Gründung des Staates stand das Gebiet unter der Verwaltung von North Carolina und war als Südwest-Territorium bekannt. Das Südwest-Territorium galt sehr lange Zeit als gesetzloses Gebiet, da die Regierung von North Carolina es nicht schaffte, eine ausreichende Verwaltung zu etablieren. 1785 bis 1788 wurde der erste Versuch unternommen, einen Bundesstaat der USA zu gründen. Im Osten des heutigen Tennessee wurde der Staat Franklin gegründet. Nach fünf Jahren des Streits mit der Regierung von North Carolina und häufiger Indianerüberfälle brach die Regierung in Greeneville zusammen, und das Gebiet geriet wieder unter die Kontrolle von North Carolina. Am 1. Juni 1796 trat Tennessee den Vereinigten Staaten durch eine vom Senat gebilligte Gründung als 16. Staat bei. Von 1838 bis 1839 wurden die restlichen verbliebenen ca. 17.000 Cherokee in den Westen von Arkansas deportiert. Dieser Gewaltmarsch, bei dem etwa 4000 Indianer zu Tode kamen, ist unter dem Namen Pfad der Tränen (Trail of Tears) bekannt. Am 8. Juni 1861 löste sich Tennessee nach einer im zweiten Anlauf erfolgreichen Volksabstimmung als letzter der Südstaaten aus der Union und trat am 2. Juli den Konföderierten Staaten von Amerika bei. Es gab in bestimmten Gegenden eine klare Mehrheit von Sezessionsgegnern, die nach dem Referendum auf einer Versammlung in Greeneville den Verbleib Osttennessees in den Vereinigten Staaten beschlossen, ohne sich gegen Nashville durchsetzen zu können. Während des Krieges fanden mehrere Schlachten auf dem Boden Tennessees statt, so zum Beispiel die Schlacht von Chattanooga, die Schlacht von Nashville und die Schlacht von Franklin. Nach dem Amerikanischen Bürgerkrieg gab sich der Staat am 22. Februar 1865 eine neue Verfassung, durch die die Sklaverei abgeschafft wurde, und ratifizierte am 18. Juli 1866 den 14. Zusatzartikel zur US-amerikanischen Verfassung. Tennessee war damit der erste der abtrünnigen Staaten, der den Vereinigten Staaten wieder beitrat (am 24. Juli 1866). Im 20. Jahrhundert erlebte Tennessee einen enormen Wirtschaftsaufschwung. Insbesondere das Oak Ridge National Laboratory machte Tennessee zu einem bedeutenden Industriestandort der USA. In den 1960er und 1970er Jahren war der Staat ein Brennpunkt der Bürgerrechtsbewegung, die gegen die damals vorherrschende Rassentrennung kämpfte. Tennessee war dabei aus Sicht der Kämpfer für die Gleichberechtigung einer der rückständigsten Staaten. Erst 1967 wurde Tennessee durch den Obersten Gerichtshof dazu gezwungen, als einer der letzten Staaten der USA das Verbot der Mischehen aufzuheben. 1975 erklärte der Oberste Gerichtshof der Vereinigten Staaten ein Gesetz Tennessees für illegal, das anordnete, dass der Pseudowissenschaft Intelligent Design und der Evolutionstheorie im Biologieunterricht an Tennessees staatlichen Schulen der gleiche Anteil an Zeit eingeräumt werden müsse. Geografie Nachbarstaaten Tennessee wird im Norden durch die Staaten Kentucky und Virginia, im Osten durch North Carolina und im Süden durch Georgia, Alabama und Mississippi sowie im Westen durch Arkansas und Missouri begrenzt. Damit ist Tennessee (gemeinsam mit Missouri, das ebenfalls an acht Staaten grenzt) der US-Bundesstaat mit der größten Zahl an Nachbarstaaten. Durch den Bundesstaat fließt der Tennessee River. Gliederung Tennessee besteht landschaftlich wie auch in kultureller und wirtschaftlicher Hinsicht aus drei unterschiedlichen Großregionen, welche auch im Verwaltungsaufbau des Staates an verschiedenen Stellen eine Rolle spielen, den so genannten „Grand Divisions“ von Osttennessee (East Tennessee), Mitteltennessee (Middle Tennessee) und Westtennessee (West Tennessee). Während Osttennessee durch die Appalachen dominiert wird, weist Mitteltennessee sanfte Hügellandschaften und fruchtbare Flusstäler auf, auch befindet sich die Hauptstadt Nashville in Mitteltennessee. Westtennessee, zwischen dem Tennessee River und dem Mississippi gelegen, gehört geographisch bereits zur Golfküstenebene. Jede der drei „Divisions“ umfasst ungefähr ein Drittel des Staatsgebiets. Die Großregionen sind landesrechtlich definiert, der Tennessee Code benennt die einzelnen Counties einer jeden „Division“. Rechtliche Bedeutung haben die Regionen beispielsweise, sofern ein bestimmter Proporz zwischen ihnen bei der Besetzung von Richterposten (etwa am Tennessee Supreme Court) oder in Verwaltungsräten eingehalten werden muss. Symbolisch sind die drei „Divisions“ (auch die „drei Tennessees“ genannt) in den drei Sternen der Staatsflagge repräsentiert. Liste der Countys in Tennessee Bevölkerung Das United States Census Bureau schätzte die Einwohnerzahl per 1. Juli 2011 auf 6.456.243 – ein Anstieg um 1,7 Prozent im Vergleich zum Vorjahr, als der United States Census 2010 genauere Erhebungsdaten lieferte. Der Bevölkerungsmittelpunkt Tennessees liegt in der Stadt Murfreesboro im Rutherford County. 20 Prozent der Einwohner Tennessees wurden (Stand: 2008) außerhalb der Südstaaten geboren, 1990 waren es lediglich 13,5 Prozent. Vor allem aus den nördlichen und westlichen USA sind Menschen nach Tennessee gezogen, angezogen in erster Linie durch den boomenden Gesundheitssektor und die Automobilbranche, hier vor allem die Nordamerika-Zentrale des japanischen Autoherstellers Nissan in Nashville, das zu jenem Zeitpunkt eine der am stärksten wachsenden Metropolregionen der Vereinigten Staaten war. Beim Zensus 2010 gaben die Befragten die folgende Herkunft (im engl. Original: „racial“, etwa „rassische“) an: 77,6 % Weiße Amerikaner (davon 2,0 % Hispanic) 16,7 % Afroamerikaner 0,3 % Indianer Nordamerikas und Ureinwohner Alaskas 1,4 % Asiatische Amerikaner 0,1 % Ureinwohner Hawaiis und andere Pazifische Insulaner 5,3 % andere In jenem Jahr gaben 4,6 % der Einwohner an, sich Hispanics oder Latinos (gleich welcher Hautfarbe) zugehörig zu fühlen. 2011 gehörten 36,3 % der Unter-Einjährigen in dem Bundesstaat einer der Minoritäten an, definiert als: Hispanic, Afroamerikaner, asiatische Amerikaner, Indianer oder Ureinwohner Alaskas oder Hawaiis. 2000 waren die fünf am häufigsten genannten Ethnien Amerikanisch (17,3 %), Afroamerikanisch (13,0 %), Irisch (9,3 %), Englisch (9,1 %) und Deutsch (8,3 %). Die meisten derjenigen, die „amerikanisch“ als Herkunft nannten, sind englischer oder „schottisch-irischer“ Herkunft, wobei letztere allerdings auch calvinistische Emigranten aus anderen Teilen Europas umfassen kann. Nach einer anderen Schätzung sind etwa 21–24 % der Einwohner Tennessee mehrheitlich englischer Abstammung. Beim Zensus 1980 hatten noch 45 % der Einwohner angegeben, mehrheitlich englischer Abstammung zu sein. Größte Städte Die Bevölkerung Tennessees konzentriert sich vor allem in drei Korridoren: zum einen um Memphis im Westen herum, zum anderen um Nashville im Zentrum und zum dritten entlang des Tennessee River mit Chattanooga ganz im Süden sowie Knoxville im Osten des Bundesstaates. Liste der Ortschaften in Tennessee Religionen Die wichtigsten Religionsgemeinschaften im Jahr 2020 waren: 1.310.341 Southern Baptist Convention, 335.322 United Methodist Church, 660.498 nicht-konfessioneller Protestantismus, 275.494 Katholische Kirche, 197.908 Mitglieder von Churches of Christ, 149.362 National Missionary Baptist Convention of America, über 109.695 Pfingstbewegung. Es gibt viele andere, vor allem protestantisch geprägte Konfessionen. Bildung Universitäten (Auswahl) Austin Peay State University Cumberland University (privat) East Tennessee State University Middle Tennessee State University Tennessee State University Tennessee Technological University University of Memphis University of Tennessee System Vanderbilt University (privat) Politik Tennessee war in den 1960er Jahren der Mittelpunkt der schwarzen Bürgerrechtsbewegung, die ihren Höhepunkt 1968 durch das Attentat auf Martin Luther King in Memphis erreichte. Die politische Landschaft Tennessees änderte sich früher als in den anderen Südstaaten. Durch die Tennessee Valley Authority war eine frühere Industrialisierung und damit auch eine modernere Gesellschaftsordnung eher möglich als zum Beispiel in Mississippi oder Alabama. Die konservativen Demokraten der Südstaaten verloren ihre Machtstellung hier bereits in der Zeit der Bürgerrechtsbewegung. Die Etablierung der Republikaner begann mit der Präsidentschaftswahl 1952. Seither gewannen die Demokraten nur 1964, 1976 sowie mit Bill Clinton 1992 und 1996. Der Heimatstaat von Al Gore, der heute maßgeblich vom Bible Belt beeinflusst ist, gilt als überwiegend konservativ. Er kann daher mittlerweile als Red State bezeichnet werden. Im Electoral College stellt Tennessee elf Wahlmänner. 1980 waren es noch zehn. Im US-Senat wird der Staat von den beiden Republikanern Marsha Blackburn und Bill Hagerty vertreten. Die Delegation Tennessees im Repräsentantenhaus des 117. Kongresses besteht aus sieben Republikanern und zwei Demokraten. Gouverneur ist seit Januar 2019 der Republikaner Bill Lee, der seinen Parteifreund Bill Haslam ablöste. Gouverneure Liste der Gouverneure von Tennessee Liste der Vizegouverneure von Tennessee Tennessee General Assembly Die Tennessee General Assembly besteht aus: Senat von Tennessee Repräsentantenhaus von Tennessee Mitglieder im 117. Kongress Liste der US-Senatoren aus Tennessee Liste der Mitglieder des US-Repräsentantenhauses aus Tennessee Todesstrafe In Tennessee gab es seit 1976 mindestens acht Hinrichtungen, zuletzt im Februar 2020. Im Januar 2016 waren 73 zum Tod Verurteilte inhaftiert. Gouverneur Bill Haslam ist ein Befürworter der Todesstrafe. Nachdem es zu Lieferengpässen beim Medikamentencocktail für die letale Injektion (der aktuell in Tennessee verwendeten Hinrichtungsmethode) gekommen ist, unterzeichnete Haslam am 22. Mai 2014 ein Gesetz, das den elektrischen Stuhl wieder zur Primärmethode erklärt, für den Fall, dass die Hinrichtung per Giftspritze aufgrund von Medikamentenmangel nicht vollstreckt werden kann. Kultur und Sehenswürdigkeiten Parks State Parks in Tennessee Sport Der Bundesstaat Tennessee beheimatet Teams in drei der großen Sportligen. Die Tennessee Titans (National Football League) tragen ihre Heimspiele im Nissan Stadium in Nashville aus. In der Bridgestone Arena spielt das NHL-Eishockeyteam der Nashville Predators. Das NBA-Basketballteam der Memphis Grizzlies ist im FedExForum zu Hause. Wirtschaft und Infrastruktur Das reale Bruttoinlandsprodukt pro Kopf (engl. per capita real GDP) lag im Jahre 2016 bei USD 49.430 (nationaler Durchschnitt der 50 US-Bundesstaaten: USD 57.118; nationaler Rangplatz: 35). Die Arbeitslosenrate lag im Februar 2023 bei 3,5 % (Landesdurchschnitt: 4,1 %). Entscheidende Wirtschaftsimpulse gingen von der Tennessee Valley Authority aus, die zum Ausbau der Elektrizitätsgewinnung, der Infrastruktur und Industrialisierung führte. Die wichtigsten Wirtschaftszweige sind Chemische Industrie Maschinen- und Kraftfahrzeugbau Textilindustrie Holzindustrie Anbau von Tabak, Baumwolle, Sojabohnen, Mais Forstwirtschaft Bergbau (Kohle, Pyrit, Zinkerz, Phosphat) Tourismus (v. a. Great-Smoky-Mountains-Nationalpark) Unternehmen Zu den bekannteren Unternehmen mit Sitz in Tennessee gehören der Frachtdienstleister FedEx und der Papierhersteller International Paper, die ebenso ihren Sitz in Memphis haben wie der zweitgrößte After Sales-Autoteilelieferant AutoZone mit 1200 Beschäftigten in seiner Zentrale. Die Kinokette Regal Entertainment Group ist in Knoxville beheimatet, das aus Kodak abgespaltete Chemieunternehmen Eastman Chemical in Kingsport. Der Baugerätehersteller Caterpillar ist in Nashville mit dem Sitz seiner Finanzsparte vertreten, der Versicherungskonzern Unum mit seiner Zentrale in Chattanooga und der japanische Autohersteller Nissan mit seiner Nordamerika-Zentrale in Franklin. In dem Bundesstaat hat zudem Volkswagen 2008 ein Montagewerk eröffnet, in dem der VW Passat produziert wird. International bekannt sind darüber hinaus die beiden Whiskey-Hersteller Jack Daniel’s und George Dickel, deren Destillerien sich in Tennessee befinden. Verkehr Straßen Der Interstate 40, der von Barstow (Kalifornien) nach Wilmington (North Carolina) führt, durchquert den Bundesstaat in west-östlicher Richtung und verbindet dabei die Metropolregionen Memphis, Nashville und Knoxville. Diese Magistrale kreuzen kleinere Interstates: Der I 240 in Memphis, I-440 in Nashville, I-140 von Knoxville nach Alcoa und I-640 in Knoxville. I-24 ist eine Ost-West-Verbindung innerhalb des Bundesstaates und verläuft von Chattanooga nach Clarksville. I-26 verläuft von Kingsport (Tennessee) in südöstlicher Richtung nach Charleston (South Carolina), dient in Tennessee aber zunächst als Nord-Süd-Querung. Interstate 22 ist ein noch in Planung bzw. im Bau befindliches Projekt, das Memphis mit Birmingham (Alabama) verbinden soll. In Nord-Süd-Richtung verlaufen die Interstates 55 (von Chicago nach LaPlace (Louisiana), in Tennessee entlang des Mississippi nahe Memphis), 65 (von Gary (Indiana) nach Mobile (Alabama), in Tennessee nahe Nashville), 75 (von Miami zur kanadischen Grenze im Bundesstaat Michigan, in Tennessee als Verbindung von Chattanooga nach Knoxville) und 81, der an der I-40 bei Dandridge (Tennessee) beginnt und in nordöstlicher Richtung zur kanadischen Grenze im Bundesstaat New York führt. I-155 ist ein Zubringer aus Richtung Missouri, der nördlich von Memphis endet, während I-275 ein Zubringer des I-75 in Knoxville ist. Der I-75 trägt in Tennessee den offiziellen Namen Albert Arnold Gore Sr. Memorial Highway nach dem Politiker der Demokraten. Eisenbahn Memphis und Newbern werden vom Amtrak-Zug City of New Orleans angefahren, der auf der Strecke von Chicago nach New Orleans verkehrt. Luftverkehr Die beiden Flughäfen mit internationalen Verbindungen sind der Nashville International Airport und der Memphis International Airport. Im nationalen Flugverkehr sind darüber hinaus der McGhee Tyson Airport in Knoxville, der Chattanooga Metropolitan Airport, der Tri-Cities Regional Airport im äußersten Nordosten des Bundesstaats sowie der McKellar-Sipes Regional Airport in Jackson von Bedeutung. Der Flughafen von Memphis dient als Luftfahrt-Drehkreuz für FedEx und ist der weltgrößte Frachtflughafen (Stand: 2012). Wasserstraßen Wichtige Wasserstraßen sind der Mississippi und der Tennessee River. Trivia Tennessee ist Namensgeber des radioaktiven chemischen Elements Tenness, das 2010 erstmals künstlich hergestellt werden konnte und im Juni 2016 nach diesem Bundesstaat benannt wurde. Damit ist Tennessee der zweite Bundesstaat der Vereinigten Staaten von Amerika – Kalifornien war der erste –, nach dem ein chemisches Element benannt wurde. Weblinks Offizielle Website des Staates Tennessee (englisch) Einzelnachweise Bundesstaat der Vereinigten Staaten Namensgeber für ein chemisches Element
Q1509
2,009.939668
39614
https://de.wikipedia.org/wiki/Vajrayana
Vajrayana
Vajrayana ( („diamantenes Fahrzeug“) Dorje Thegpa, auch Wadschrajana, Mantrayana („Mantrafahrzeug“), Tantrayāna („Tantrafahrzeug“) ), ist eine ab dem 4. Jahrhundert in Indien entstandene Strömung des Mahayana-Buddhismus, die insbesondere die buddhistischen Traditionen des Hochlands von Tibet, den Buddhismus in Tibet (Lamaismus) und den Buddhismus in der Mongolei prägte. In geringerem Maße fand der Vajrayana auch Verbreitung im chinesischen und im japanischen Buddhismus. Der Begriff ist aus Sanskrit vajra („hart“, „mächtig“, daraus „Donnerkeil“, mythische Waffe des Gottes Indra) und yana („Fahrzeug“) zusammengesetzt. Geschichte Der Legende nach wurde der Buddhismus von König Srongtsan Gampo, der zwei buddhistische Frauen hatte, im 7. Jahrhundert in Tibet eingeführt. Im 8. Jahrhundert wurde die buddhistische Lehre von Padmasambhava und dem indischen Mönch Shantirakshita weiter verbreitet. Padmasambhava soll die Lehren des Tantra und des Yogacara nach Tibet gebracht haben. Unter König Ralpacan (817–836) wurden viele Werke aus dem Sanskrit ins Tibetische übersetzt. Nachdem dann die Bön-Priester den Buddhismus zunächst wieder verdrängten, gab es ab dem 11. Jahrhundert einen neuen Aufschwung. Atisha führte das Kalachakra-System ein und schuf die Anfänge der Kadampa-Schule. Marpa gründete die Kagyüpa-Schule und Milarepa wurde der berühmteste Asket und Dichter Tibets. Gleichfalls im 11. Jahrhundert entstand die Schule der Sakya, deren Werk die Vollendung des Kangyur (buddhistischer Kanon) war. Im 14. Jahrhundert waren dann die beiden Sammlungen Kangyur und Tangyur abgeschlossen. Gleichfalls im 14. Jahrhundert trat Tsongkhapa auf, der als großer Reformator angesehen wird. Er gilt als Begründer der „Neuen Kadampa“, die Gelugpa genannt wird, und führte die strenge Klosterdisziplin wieder ein. Der dritte Großlama der Gelugpa ist der Dalai Lama. Tibet gilt in der Geschichte als größter Mönchs- und Kirchenstaat, den es jemals gab. Philosophische Grundlagen Das Vajrayana stützt sich mit der „Lehre des Mittleren Weges“ (Madhyamaka) auf die philosophischen Grundlagen des Mahayana. Im Tibetischen Buddhismus werden die verschiedenen buddhistischen „yanas“ (wörtlich: Fahrzeuge) anhand der Ziele oder der Methoden unterschieden. Das heißt, zwischen dem allgemeinen Mahayana und dem Vajrayana liegt der Unterschied nicht im Ziel – die Buddhaschaft –, sondern in der Art und Weise, wie dieses Ziel erreicht werden soll. Das Vajrayana wird deshalb auch „Pfad des Resultats“ genannt, während das Sutra-System des Mahayana als „Pfad der Ansammlung“ bezeichnet wird und der Theravada als „Pfad der Entsagung“. Der Leidenskreislauf des Samsara Aus der Sicht des Vajrayana begehen „fühlende Wesen“ (vgl.: Sechs Daseinsbereiche) anders als erleuchtete Wesen einen grundlegenden Fehler bei der Wahrnehmung der Phänomene. Zwar ist die subtilste Schicht geistiger Prozesse uranfänglich erleuchtet (vgl.: Buddha-Natur), dies wird vom wahrnehmenden Geist aber nicht erkannt. Die „fühlenden Wesen“ nehmen die von Natur aus nichtdual erscheinenden Phänomene als von sich selbst und voneinander getrennt wahr. Den Phänomenen wird irrig eine wirkliche Existenz zugeschrieben, obwohl sie von ihrem eigentlichen Wesen „leer von innewohnendem Sein“ sind (s. Shunyata). Aufgrund dieser Zuschreibung entsteht die Vorstellung eines unabhängig von anderen Phänomenen existierenden „Ich“. Mit dieser „Ich-Vorstellung“ treten die drei sogenannten „Wurzel-Geistesgifte“: Grundlegende Unwissenheit, Anhaftung und Abneigung auf. Leidverursachende Handlungen, die mit Körper, Rede und Geist aufgrund dieser Geistesgifte ausgeführt werden, erschaffen Karma („Ursache und Wirkung“). Karma kann als Ursache von geistigen Eindrücken beschrieben werden, die durch geistesgiftbedingte Handlungen entstanden sind, und die als Resultat leidvolle Erfahrungen in der Zukunft bewirken. Die karmischen Spuren im Geist eines unerleuchteten „fühlenden Wesens“ verursachen demnach das Aufkommen der individuellen Lebenswirklichkeit, wie die verschiedenen Bereiche der Götter, Halbgötter, Menschen, Tiere, hungrigen Geister und Höllenwesen, die an den Leidenskreislauf (Samsara) aus wiederholter Geburt, Alter, Krankheit und Tod gebunden sind. Methoden Buddhistische Praxis hat insbesondere im Vajrayana zum Ziel, diesen Prozess des Aufkommens der Existenz und der Bindung der fühlenden Wesen an den Leidenskreislauf aufzuheben. Dazu gibt es im Vajrayana bezüglich der höchsten Lehren zwei verschiedene methodische Ansätze: Mahamudra (Das große Siegel/Symbol) als Pfad zur stufenweisen Erleuchtung Dzogchen (Die große Vollkommenheit) als Pfad der spontanen Erleuchtung Tantrische Praktiken Zu den besonderen tantrischen Mitteln gehören neben der Meditation und Visualisierung auch das Rezitieren von Mantras und weitere Übungen, zu denen Rituale, Einweihungen und Guruyoga (Einswerden mit dem Geist des erleuchteten Lehrers) gehören. Besonders im tibetischen Buddhismus wird dabei großer Wert auf direkte Übertragung und Unterweisung von Lehrer zu Schüler gelegt. Wichtig ist bei diesen Praktiken eine solide Kenntnis der buddhistischen Lehre als Ausgangsbasis. Ohne ein echtes Verständnis von Mitgefühl und der rechten Ansicht ist es nicht möglich, diese Methoden anzuwenden. Daher sind die ethischen Regeln des edlen achtfachen Pfades, wie sie von Buddha gelehrt wurden, Grundlage des gesamten buddhistischen Weges, auch des Vajrayana. Darüber hinaus ist die Motivation des Mahayana, „zum Nutzen aller fühlenden Wesen Erleuchtung zu erlangen“, beständig zu kultivieren. Der tibetische Tantra geht nicht auf sexuelle Praktiken ein. Es handelt sich hier vorwiegend um den geistigen Aspekt des Tantra, also der Vereinigung der männlichen und weiblichen Aspekte des Geistes im Bewusstsein (z. B. Ratio und Intuition). Dies entspricht generell der Tradition des tibetischen Buddhismus, der wenig auf körperliche Aspekte eingeht. Bis auf Niederwerfungen und die fünf Vajra-Stellungen (extreme Yoga-ähnliche Positionen) sind kaum andere rituell-meditative Körperübungen bekannt. Ganz anders im indischen Tantra, bei dem die körperlichen Sinnesreize eine wesentliche Rolle spielen. Sexuelle Praktiken sind z. B. Karmamudrā (Sanskrit, „Handlungssiegel“, tibetisch las-kyi phyag-rgya), eine sexuelle Praxis mit einem visualisierten oder körperlichen sehr weit fortgeschrittenen, gegengeschlechtlichen Konsorten bzw. einer Konsortin. Lama, Yidam und Khandro Im Vajrayana sind Lama (Sanskrit Guru), Yidam (Sanskrit Deva, Meditationsgottheit) und Khandro (Sanskrit Dakini) wichtig. Sie sind im Vajrayana auch Objekte der Zuflucht. Lama Da dem Lama (Guru) im Vajrayana eine zentrale Bedeutung zukommt, wurde diese Form des Buddhismus auch mit dem von den Mandschu-Herrschern des späten 17. Jahrhunderts geprägten Begriff Lamaismus (lamajiao) bezeichnet. Auf dem Pfad des Vajrayana ist ein richtig verstandenes und angemessenes Vertrauen in den spirituellen Lehrer (Lama) wichtig, daher muss man bei der Wahl des Lehrers sehr sorgsam vorgehen und sollte diese wichtige Verbindung nicht vorschnell eingehen. Ein guter spiritueller Lehrer handelt immer aufgrund einer altruistischen Motivation und niemals aufgrund egoistischer Motive. Im Tantra-Netz der Illusion heißt es: „Einer, der stabil, ruhig, intelligent, geduldig, ehrlich (offen), ohne List oder Falschheit ist und die Praxis der geheimen Mantras und Tantras kennt, die Aktivität des Mandalazeichnens ausübt, tüchtig in den Zehn Grundsätzen ist, allen Lebewesen Furchtlosigkeit verleiht und immer Freude am großen Fahrzeug hat: Solch einer wird als Meister bezeichnet.“ Die Selbständigkeit des Schülers steht im Vajrayana im Vordergrund, daher sollten alle Tendenzen zur Abhängigkeit des Schülers vermieden werden. Natürlich muss auch der Schüler qualifiziert sein. Ihn müssen Unparteilichkeit, Intelligenz (falsche von richtigen Lehren unterscheiden zu können) und eine stabile Geisteshaltung des Bodhicitta auszeichnen. Der Lama, dem er sich anvertraut, sollte ihn wirklich inspirieren und ihn auf der tiefsten Ebene des Herzens und nicht nur oberflächlich berühren. Der Titel des Lama wird in der Regel vom Lehrer an den Schüler verliehen. Je nach Tradition ist im Tibetischen Buddhismus hierfür ein traditionelles 3-Jahres-Retreat die Regel, dies ist jedoch – insbesondere in der bedeutenden Laien- und Yogitradition der Nyingma-Linie – nicht zwingend. Im Unterschied zu einem Geshe muss Lama nicht zwangsläufig einen Gelehrten des Buddhismus bezeichnen. Yidam Yidam sind Meditations-Gottheiten (vgl. Visualisierung). Sie werden im Vajrayana entgegen dem europäischen Kontext nicht als Schöpfergott/-götter oder vom Praktizierenden unabhängige Wesenheiten verstanden. Sie unterscheiden sich auch von den Devas (weltlichen Göttern) der indischen Tradition. Es handelt sich hierbei vielmehr um die Form des Freudenzustandes (Sambhogakaya) verwirklichter Wesen. Mit Hilfe von Meditations- und Visualisationspraktiken in Verbindung mit diesen Gottheiten ruft der Praktizierende die ihm innewohnende erleuchtete Natur wach. Khandro Meist wird in Übersetzungen an Stelle des tibetischen Wortes Khandro das sanskritische Wort Dakini verwendet. Wörtlich bedeutet Khandroma (mkha' 'gro ma) „Himmelswandlerin“. Schon in den Jatakas, den Legenden über die früheren Geburten Shakyamunis, gibt es Hinweise auf eine Klasse von Wesen, die durch die Luft gehen. Dakinis werden häufig als feenhafte Wesen beschrieben, die (dank ihrer Verwirklichung) übernatürliche Fähigkeiten und Kräfte besitzen. Indem sie dem Praktizierenden spirituelle Weisheit übermitteln, unterstützen sie ihn auf dem Weg zur Erleuchtung. Mönchs- und Laiengemeinschaften In den Schulen des Vajrayana hat es neben den Mönchsgemeinschaften auch immer Laiengemeinschaften praktizierender Yogis gegeben. Daher gibt es neben vielen gelehrten Meistern, die aus den Mönchsschulen hervorgegangen sind, auch eine große Zahl bedeutender Meister und Siddhas, die den Pfad des Yogis verwirklicht haben. Ursprünglich wurden viele der Vajrayâna-Praktiken in Indien und angrenzenden Ländern von Yogis weitergegeben. Es ist im Vajrayana letztendlich nicht wesentlich, ob jemand als Mönch (oder Nonne) ordiniert ist, sondern ob er/sie in der Lage ist, die vom eigenen Geist fälschlich aufrechterhaltene Bindung an Samsara aufzuheben. Im Vajrayana ist und war es weitgehend anerkannt, dass Frauen ebenso wie Männer Erleuchtung erlangen können. Die vier großen Schulen des tibetischen Buddhismus stehen heutzutage Frauen in gleichem Umfang offen wie Männern. Große verwirklichte Meisterinnen, deren Leben für viele Vajrayana-Praktizierende beispielhaft sind, waren unter anderem Prinzessin Mandarava und Prinzessin Yeshe Tsogyal, beide Gefährtinnen von Guru Rinpoche, dem Begründer der Nyingma-Schule. Weiterhin Niguma, eine Schülerin Naropas, die in der Shangpa-Kagyü-Schule von großer Bedeutung ist, und Machig Labdrön, die durch die Einführung der Chöd-Lehren in Tibet berühmt wurde. Verbreitung Die Lehre hat sich ursprünglich im tibeto-mongolischen Raum in die Mongolei bis hin nach Burjatien und Tuwinien verbreitet. Aus Indien wurde sie weitestgehend vertrieben, ist jedoch in den hinduistischen Advaita-Vedanta-Lehren mit einigen Unterschieden erhalten geblieben. Auch in China und Japan sind tantrische Lehren eingeführt worden. In Bhutan ist der Vajrayana-Buddhismus Staatsreligion. Ein traditionell lamaistisch geprägtes Volk – wenn auch mit deutlichen Unterschieden – lebt in Europa: die Kalmücken. Seit den 1970er und 1980er Jahren verbreiten sich Vajrayana-Gemeinschaften zunehmend im Westen. Insbesondere die tibetischen Schulen sind inzwischen in Europa und den USA etabliert, nicht wenige davon in Deutschland, Österreich und der Schweiz. Schulen des tibetischen Vajrayana Der Buddhismus in Tibet gliedert sich in verschiedene Schulen und Übertragungslinien, von denen die Nyingma-, die Kagyü-, die Sakya- und die Gelug-Schule die wichtigsten sind. Auch wenn äußerlich betrachtet eine Aufteilung der tibetischen Form des Buddhismus in verschiedene Schulen entstanden ist und auf die Besonderheit der jeweiligen Schulen von ihren Anhängern immer wieder großen Wert gelegt wird, hat doch ein intensiver Austausch von Lehren und Praktiken zwischen diesen Schulen stattgefunden. Man kann daher wohl sagen, dass trotz aller Unterschiedlichkeit im Entstehen, die Gemeinsamkeiten untereinander überwiegen. Nyingma Die Nyingma-Tradition („Rotmützen“) ist die älteste der vier großen Schulen des tibetischen Buddhismus. Sie geht auf den tantrischen Meister Padmasambhava zurück. Diese Tradition ist aus der ersten Übersetzungsphase buddhistischer Schriften, aus dem Sanskrit ins Tibetische, im 8. Jahrhundert entstanden, die die Grundlage für die Verbreitung der Lehren Buddhas in Tibet legte. In ihr sind die Lehren des Dzogchen von großer Bedeutung. Kadam Nach der Verfolgung des Buddhismus in Tibet unter König Lang Darma entstand im 11. Jahrhundert die Tradition der Alten Kadam-Meister. Die Kadam-Tradition ist eine Vorläuferin der drei neueren Hauptschulen des tibetischen Buddhismus, die aus der zweiten Übersetzungsphase tantrischer Lehren, von Indien nach Tibet, hervorgegangen sind. Sie selbst ist als eigenständige Schule nicht erhalten geblieben. Kagyü Die Kagyü-Schulen des tibetischen Buddhismus gehen auf Marpa den Übersetzer (1012–1097) zurück, der die Mahamudra-Übertragungslinie von Tilopa und Naropa weiterführte. Kagyü bedeutet „mündliche Übertragung“ und es wird besonderer Wert auf Meditation gelegt. Sakya Sakya ist der Name eines von Khön Könchog Gyalpo (1034–1102) begründeten Klosters Hauptsitz nahe Shigatse in Südtibet. Die tantrischen Lehren der Sakyapa wurden von Bari Lotsawa im elften Jahrhundert aus dem Sanskrit übersetzt. Die Sakya-Tradition wurde daraufhin von den „fünf ehrwürdigen höchsten Meistern“ gegründet. Sie führen die Mahamudra-Tradition des indischen Meisters Virupa fort. Gelug Die Gelug („Gelbmützen“) werden auch als die „Schule der Tugendhaften“ bezeichnet. Ihr Gründer Tsongkhapa (1357–1419) vertrat die Ideale der früheren Kadampa-Schule und strich die Bedeutung der Vinayaregeln heraus. Deshalb legen die Gelug auf Mönchsdisziplin und Zölibat großen Wert. Der Kern der Übertragungen der Gelug liegt in den Lehren der alten Kadampa. Rime Im 19. Jahrhundert entstand die sogenannte „Rime-Bewegung“, die gruppenübergreifende Lehren aus allen Gegenden Tibets und von Meistern aller Traditionen sammelte. Ziel war es, die in Tibet verbreitete „Konkurrenz“ (Sektierertum) der Schulen zu überwinden. Bön Im Kontext des tibetischen Buddhismus findet sich mit der Tradition des Bön eine weitere Tradition, die dem Vajrayâna nahesteht. Sie haben in ihren Praktiken und Lehren Gemeinsamkeiten mit der Nyingma-Schule. Bön war die ursprüngliche vorbuddhistische Religion in Tibet. Schulen in China und Japan Vajrayana wurde im späten 8. Jahrhundert von Indien aus auch nach China übertragen. Es gibt aber kulturell bedingte Unterschiede zwischen den Vajrayana-Formen in China und Japan einerseits und Tibet andererseits. In China etablierte sich Vajrayana-Buddhismus als Mizong (). Seine heutige, moderne Gestalt entwickelte sich vor allem unter der Herrschaft der durch den mongolischen Buddhismus geprägten Yuan-Dynastie. Im 9. Jahrhundert gelangte der Vajrayana-Buddhismus von China nach Japan und wurde dort als Mikkyō (jap. ) insbesondere von den Schulen Tendai-shū und Shingon-shū bekanntgemacht. Siehe auch Anuttarayoga-Tantra Tonglen Literatur deutsch Alexander Berzin: Zwischen Freiheit und Unterwerfung. Chancen und Gefahren spiritueller Lehrer-Schüler-Beziehungen. Theseus Verlag, März 2002, ISBN 3-89620-179-4. Andreas Gruschke: Tibetischer Buddhismus. Diederichs, Kreuzlingen, München 2003, ISBN 3-7205-2391-8. Wulf Köpke, Bernd Schmelz (Hrsg.): Die Welt des Tibetischen Buddhismus. Museum für Völkerkunde Hamburg, Hamburg 2005, ISBN 3-9809222-4-3. Chagdud Tulku: Tore in die Freiheit – Der buddhistische Weg zum Glück. Theseus Verlag, Berlin 2000, ISBN 3-89620-154-9. Dagyab Rinpoche: Achtsamkeit und Versenkung. Lamrim – die tibetische Meditation. Hugendubel (Diederichs), 2001, ISBN 3-7205-2264-4. Dagyab Rinpoche: Buddhistische Orientierungshilfen. Chödzong Publikationen, ISBN 3-931442-02-0. Dalai Lama: Einführung in den Buddhismus. Die Harvard-Vorlesungen. Herder, Freiburg, ISBN 3-451-04946-5. Dilgo Khyentse: Das Herzjuwel der Erleuchteten. Theseus Verlag, Berlin 1996, ISBN 3-89620-102-6. Gampopa: Der kostbare Schmuck der Befreiung. Theseus Verlag, ISBN 3-89620-081-X. Padmasambhava: Die Geheimlehre Tibets. Kösel Verlag, München 1998, ISBN 3-466-20439-9. Karin Brucker, Christian Sohns: Tibetischer Buddhismus – Handbuch für Praktizierende im Westen. O. W. Barth Verlag, Bern 2003, ISBN 3-502-61083-5. Longchen Rabjam, Tulku Thondup: Buddha-Natur – Dzogchen in der Praxis. Opus Verlag, Leopoldshöhe 2010, ISBN 978-3-939699-04-0. Namkhai Norbu: Dzogchen der Weg des Lichts – Die Lehren von Sutra, Tantra und Ati-Yoga. Diederichs, 1998, ISBN 3-424-01462-1. Ole Nydahl: Wie die Dinge sind. ISBN 3-426-87234-X. Padmasambhava: Die Legende vom großen Stupa. Dharma Publishing Deutschland, Münster 1993, ISBN 3-928758-04-7. Patrul Rinpoche: Die Worte meines vollendeten Lehrers. Arbor Verlag, Freiamt 2001, ISBN 3-924195-72-2. Tsültrim Allione: Tibets weise Frauen. Zeugnisse weiblichen Erwachens. Theseus Verlag, Berlin 2001, ISBN 3-89620-162-X. Yeshe Tsogyal: Der Lotosgeborene im Land des Schnees. Wie Padmasambhava den Buddhismus nach Tibet brachte. Fischer Taschenbuch, Frankfurt am Main 1996, ISBN 3-596-12975-3. Friedrich Heiler: Die Religionen der Menschheit. Stuttgart, Reclam 1980. englisch Jamyang Khyentse Rinpoche: The Opening of the Dharma. Library of Tibetan Works and Archives, Dharamsala 1974. Keith Dowman: Skydancer. The Secret Life and Songs of the Lady Yeshe Tsogyal. Snow Lion Publ., Ithaca-New York 1996, ISBN 1-55939-065-4. Longchen Rabjam: The Practice of Dzogchen. Snow Lion Publications, Ithaca, New York 1996, ISBN 1-55939-054-9. Ngawang Zangpo: Guru Rinpoché. His Life and Times. Snow Lion Publications, Ithaca, New York 2002, ISBN 1-55939-174-X. Ringu Tulku: A Study of the Buddhist Lineages of Tibet. The Ri-Me Philosophy of Jamgon Kongtrul the Great. Shambhala Publications, 2006, ISBN 1-59030-286-9. Snellgrove, David L.: Indo-Tibetan Buddhism. Indian Buddhists and Their Tibetan Successors. London: Serindia, 1987. französisch Gabriele Goldfuss: Vers un bouddhisme du XXe siècle, Paris, De Boccard, 2001, ISBN 2-85757-059-7. Louis Frédéric: Les dieux du bouddhisme, Paris, Flammarion, 2001, ISBN 2-08-010654-6. Gilles Béguin: Les peintures du bouddhisme tibétain, Paris, Éd. de la Réunion des Musées Nationaux, 1995, ISBN 2-7118-3037-3. Weblinks Loden Sherab Dagyab: Tantra. info-buddhismus.de ratna.info Craig Hamilton: Ein Interview mit Miranda Shaw, wie.org Einzelnachweise Buddhistische Schule Buddhismus in Tibet Mahayana Bön Tantra
Q172175
169.354498
93110
https://de.wikipedia.org/wiki/Akbar
Akbar
Dschalāludin Mohammed Akbar, genannt Akbar der Große und meist einfach Akbar (im englischsprachigen Raum Jalaluddin Muhammad Akbar, , geb. 15. Oktober 1542 in Umarkot, Sindh; gest. 27. Oktober 1605 in Agra), war von 1556 bis 1605 Großmogul von Indien und gilt neben Ashoka als einer der beiden bedeutendsten Herrscher in der Geschichte des Landes. Er festigte als hervorragender Diplomat und Militärstratege seine neu gewonnenen Gebiete durch eine Politik religiöser Toleranz im Dialog mit Vertretern der wichtigsten Glaubensrichtungen. Akbar heiratete als erster Mogul-Herrscher eine Hindu, eine Rajputen-Prinzessin aus Amber, und schaffte die den Nichtmuslimen auferlegten Sondersteuern ab. Indem er – oft durch Eheschließungen – die Loyalität lokaler Fürsten gewann, gelang es ihm, ein effizientes Steuer- und Herrschaftssystem einzuführen. Leben Akbar folgte mit 13 Jahren seinem Vater Nasir ud din Muhammad Humayun auf den Thron und unterstand zunächst der Regentschaft von Bairam Khan. Zu dieser Zeit befand sich das Mogulreich in einer tiefen Krise und kontrollierte nur noch Delhi und wenige umliegende Ortschaften. Akbar und sein Vormund siegten in der zweiten Schlacht von Panipat gegen Hemu, einen Heerführer und ersten Minister der Suriden, der im Oktober 1556 Delhi besetzt und sich unabhängig gemacht hatte. Im Jahr 1560 entmachtete er den Regenten Bairam Khan und 1561 die Gegenpartei, indem er seinen Milchbruder Adham Khan zu Tode stürzen ließ. Von nun an regierte er selbst. Akbar unternahm eine Vielzahl kleinerer Eroberungszüge, u. a. auch auf dem Dekkan-Hochland in Mittelindien. In diesen Feldzügen setzte er Kriegselefanten und schnelle, leichte Reiterei, genauso wie Kanonen, Musketiere und Pionierkorps ein. Seine Truppen wurden in Friedenszeiten durch Treibjagden in Übung gehalten. Mitunter kämpfte Akbar unter Einsatz seines Lebens selbst, es gibt viele Beispiele für seinen großen persönlichen Mut. Akbars Strategie war es, geschlagene Gegner großzügig zu behandeln und sie damit an sich zu binden. Das gleiche Ziel verfolgte er mit seiner weit gespannten persönlichen Heiratspolitik – er hatte mehr als 30 Ehefrauen. Auf der Seite der Rajputen waren die Ranas Udai Singh II. (reg. 1537–1572) und dessen Sohn Pratap Singh (reg. 1572–1597) von Mewar die Haupt-Gegenspieler. Als Akbar in den Jahren 1567/8 Chittorgarh angriff, verließ Udai Singh die Stadt und gründete Udaipur. Als Akbar Chittor nach langer Belagerung eroberte, ließ er dort ein Massaker anrichten (1568). Obwohl der harte Kern der Rajputen nie kapitulierte, gelang es Akbar, einen Teil von ihnen (z. B. den Raja von Amber) auf seine Seite zu ziehen. Bis etwa 1580 gelang ihm die Errichtung eines stabilen Großreiches in Nordindien, das von Kabul bis Bengalen reichte. Auf dem Dekkan jedoch konnte er seine Macht nie dauerhaft etablieren. Zwei größere Aufstände des muslimischen Adels afghanischer und turkomongolischer Herkunft bedrohten seine Herrschaft. Beide wollten Akbars Halbbruder Hakim, den Fürsten von Kabul, zum Herrscher machen. Einer davon fand 1580/1 statt: In Bengalen rief der afghanische Adel Hakim zum Herrscher aus, und Akbar eroberte daraufhin 1581 persönlich Kabul. Es scheint, dass hier Einflussverschiebungen im Interesse der Zentralregierung nicht nur unter religiösen, sondern auch unter ethnischen Gesichtspunkten stattfanden und sich die Benachteiligten erhoben. Akbar schaffte die religiösen Steuern (Dschisja 1564 und 1580) für Nichtmuslime ab, erlaubte Teile der Hindu-Riten (Feste, Kleidung) bei Hofe und heiratete im Jahr 1562 Hira Kunwari (auch Harkha Bai, Jodhaa Bai), die Tochter von Raja Bharmal von Amber. Sie trat unter dem Namen Mariam-uz-Zamani zum Islam über und wurde Mutter von Salim. Hindus wurden nicht nur als kleine Beamte, sondern mitunter auch als höchste Würdenträger eingesetzt. Wenn z. B. ein Hindu namens Man Singh der Statthalter (subahdar) von Kabul wurde, so minderte das auch das Risiko einer Loslösung dieser Provinz. Der Verwaltungs- und Steuerreformer Todar Mal war z. B. ein Hindu aus einfachsten Verhältnissen. In den letzten drei Jahrzehnten Akbars entstand so eine hindu-muslimische Mischkultur, in der auch Hindu-Werke übersetzt (der orthodoxe Muslim Badauni musste z. B. das Mahabharata übersetzen) und bei Hofe gefeiert wurden. Die Hofsprache war Persisch. Vor seinem Tod kam es zu Rivalitäten unter den Prinzen, bzw. zwischen Akbar und seinem ältesten Sohn Salim. Salim, der spätere Kaiser Jahangir, brachte den Minister Abu 'l-Fazl um und zog schon gegen Agra, als die Frauen des Hofes eine Versöhnung erreichten (1602/03). Akbar hätte Salim gern von der Thronfolge ferngehalten, doch blieb ihm zuletzt nur die Wahl zwischen Salim und dessen Sohn Khusrau, da seine beiden anderen Söhne bereits verstorben waren. Verwaltungsreformen und Landesausbau Akbar war ein Verwaltungsreformer, der mit Hilfe seiner Minister (Abu 'l-Fazl, Todar Mal und andere) eine zentrale Verwaltung organisierte, die angesichts der Größe des Reiches durchaus effektiv war, besonders wenn man sie mit der seiner Nachfolger vergleicht. Die Aufteilung der obersten Verwaltungsebene unter zwölf Ministern nach Sachgebieten war eine der Neuerungen, die Akbar einführte. In der Praxis mussten beispielsweise vier Beamte und ein Minister eine Soldanforderung für einen Offizier signieren, bevor dafür überhaupt ein Konto eingerichtet wurde. Dann brauchte es noch der Zustimmung des Herrschers, der von drei Ministern und sechs Beamten, bevor der Sold ausgezahlt wurde. Seine Verwaltung schaffte die pauschale Besteuerung von Dörfern ab und ließ die Steuern stattdessen nach dem Ertrag berechnen; eine in Indien zuvor noch nie praktizierte Vorgehensweise. Um direkten Zugriff auf die Steuern zu haben, schaffte er die untergeordnete Verwaltungsgliederung in Länder ab und erklärte das gesamte Reich zu königlichem Besitz. Königliche Beamte trieben die Steuern ein, nicht mehr Bevollmächtigte der lokalen Fürsten. Die Steuern wurden den Bauern zunehmend in Geldform abverlangt. Mit diesem Geld stellte Akbar ein stehendes Heer auf. Umgekehrt wurden Bauern für Ernteausfälle entschädigt, die das Heer verursachte. Der Staat bemühte sich weiterhin um eine Vergrößerung der Anbaugebiete, die Sicherung der Straßen und um die Verbesserung des Postwesens. Unter Akbar etablierte sich ein neues Währungssystem. Die von Sher Shah Suri eingeführte Rupie wurde zur Hauptsilbermünze des Reiches, dazu führte Akbar den goldenen Mohur ein. Sie lösten ältere, im Wertverfall befindliche Münzeinheiten ab. Auch Maße und Gewichte sollten vereinheitlicht werden. Dazu kam eine Straffung der Justizverwaltung, wobei allerdings, nach heutigen Maßstäben, grausame Urteile bis hin zur Todesstrafe weiterhin verhängt wurden. Viele von Akbars Maßnahmen gab es schon unter früheren Herrschern, aber seine lange, verhältnismäßig ruhige Regierungszeit festigte sie in besonderem Maße oder verschaffte ihnen überhaupt erst Geltung. Auf sozialem Gebiet ging er gegen Kinderheiraten, Witwenverbrennungen (sati) und Glücksspiel vor und beschränkte die Prostitution. Er war ein großer Förderer der Wissenschaft, Malerei und Literatur, insbesondere der persischen Sprache – der Hofsprache der Moguln. Trotz allem blieb er selbst ein Analphabet. Kulturelles Wirken Religionspolitik Akbar war auch ein Philosoph und Denker, der sich sein Leben lang mit der Suche nach einem „wahren“ Glauben beschäftigte. In der ersten Periode seiner Herrschaft (ca. bis 1573/75) vertrat Akbar öffentlich den sunnitischen Islam hanafitischer Richtung. Privat war er Anhänger des Sufismus und verehrte besonders den Heiligen Salim Chishti, der ihm die Geburt seines Thronfolgers vorausgesagt hatte, und andere Heilige des muslimischen Chishti-Ordens. Mit der Eroberung Gujarats (1573) umspannte das Mogul-Reich beinahe ganz Nordindien. Damit stand Akbar vor der Aufgabe die vielfältigen Religionen und Völker seines Reiches (mit ihren jeweiligen Rechtsformen) gleichermaßen zu verwalten. 1575 ließ er dazu in Fatehpur das „Ibadat-hana“, eine Disputationshalle für religiöse Fragen, errichten. Über religiöse Fragen konnte von nun an ergebnisoffen disputiert werden und die bis dato praktizierte Rechtsauslegung Taqlid wurde zugunsten des uneingeschränkten Idschtihād abgelöst. 1579 brach Akbar schließlich mit der orthodoxen Ulama, indem er eine Urkunde (mahdar) unterzeichnete, die es ihm unter anderem erlaubte, vor dem Hintergrund des Korans uneingeschränkt Gesetze zu erlassen. In der Folgezeit lud Akbar Vertreter verschiedener Religionen an seinen Hof, darunter auch portugiesische Jesuiten aus Goa (u. a. Rodolfo Acquaviva). Von diesem Austausch angeregt und unter dem Einfluss des Gelehrten Shaikh Mubarak-i Nagauri entstand eine neue religiöse Bewegung: der Din-i ilahi. Dass es sich bei dieser Bewegung um eine neue Religion handelt lässt sich aus folgendem Grund allerdings verwerfen: Zwar setzte Akbar bei seiner Ausübung des Islam andere Akzente als zuvor, legte den Grundstein aber auf die Strömungen der Zeit, speziell den Neuplatonismus, der zur Zeit Akbar als „allgemeine Standardlehre“ angesehen war und sich zusammen mit dem Aristotelismus und den Traditionswissenschaften zur höheren Gelehrsamkeit zusammensetzten. Theologisch lehnte er den Taqlid ab und übernahm den Idschtihad, d. h. eine auf Vernunft basierende Auslegung des Islam. Ein weiterer wichtiger Bestandteil des Din-i ilahi war die Sonnenmetaphorik und -verehrung. Die Sonne wurde dabei nicht direkt als Gott, sondern vielmehr als „Licht Gottes“ verehrt. Im Rückgriff auf den Neuplatonismus wurde die Sonne dabei als erste Emanation Gottes betrachtet, aus der in weiteren Schritten die Welt hervorging. In diesem Sinne war es dem Gläubigen möglich, in der Sonne das ewige Licht Gottes zu erkennen und in ihrem Anblick Gott selbst im Jenseits zu schauen. Aber auch im Kontext bestehender Traditionen wurde die Sonnenverehrung etabliert. So führte Akbar das traditionelle Nauruz-Fest wieder ein, das er als Sonnenfest auffasste. Außerdem sah sich Akbar selbst in einer unmittelbaren Beziehung zu Gott und führte das ursprünglich hinduistische Ritual des darshan ein, das hauptsächlich darin bestand, jeden Morgen vor seinen Untertanen auf dem Balkon seines Palastes zu erscheinen. Darshan ist auch das segenbringende Betrachten von Hindugöttern im Tempel, so dass Akbar sich als Repräsentant Gottes auf Erden darstellte. Orthodoxe Muslime (z. B. Badauni) und jesuitische Missionare warfen Akbar aufgrund dieser Entwicklungen vor, vom Islam abgefallen zu sein. Diese Einschätzung könnte jedoch auch auf ihre kontextbedingte parteiische Sichtweise zurückgeführt werden. Rückblickend kann der Din-i ilahi als eine langsam aus dem Islam herauswachsende Bewegung verstanden werden, da einerseits traditionelle Elemente vorhanden blieben, diese jedoch mit rationalistischem Gedankengut verbunden wurden. Zwar nahm Akbar in seine neue pantheistische Glaubensrichtung nur einen kleinen Kreis ausgesuchter Höflinge auf, ihm haftete jedoch das Verdienst religiöser Toleranz und annähernder Gleichberechtigung von Muslimen und Hindus an, was auch zur Stabilisierung des Mogulreiches beitrug. An seinem Hof beschäftigte er Miyan Tansen (Hindu, 1562 berufen), einen legendären Musiker, dem Wunderdinge, wie z. B. der Regenzauber, nachgesagt wurden. Bauten Akbar war ein großer Bauherr, der sich und seinen Hof in den Jahren 1569 bis 1576 mit Fatehpur Sikri eine – in architektonischer Hinsicht ungewöhnliche – neue Hauptstadt erbauen ließ, die er angesichts ständiger Ortswechsel aber kaum bewohnte. Im Jahr 1585 verließ er die Stadt und hielt sich aus Sorge vor einem Usbeken-Einfall dreizehn Jahre in Lahore auf, abgesehen von drei Abstechern ins geliebte Kaschmir. Heute ist nur noch ein kleiner Teil Fatehpur Sikris bewohnt. Hinzu kamen der Bau des Roten Forts in Agra und das Mausoleum seines Vaters Humayun in Delhi, die ihn als erfindungsreichen Bauherren kennzeichnen. Auch sein Grabmal in Sikandra (Akbar-Mausoleum), dessen Planungen wohl zum Teil noch auf ihn selbst zurückgehen, beschreitet in architektonischer Hinsicht neue Wege. Malerei Die von Humayun gegründete Malschule der Moghulkaiser erfuhr unter Kaiser Akbar ihre erste Blütezeit. Er ließ literarische und historische Werke, darunter seine eigene Regierungsgeschichte, das Akbar-nāma, kunstvoll illustrieren und sein Hof übte auch auf Dichter wie Ḥusain Ṯanāʾī Mašhadī große Anziehungskraft aus. Auch sein Sohn und Nachfolger förderte die Malerei. Rezeption Innerhalb der Religionswissenschaften wird über die Frage debattiert, ob Akbar als Synkretist gelten kann oder nicht. Weiterhin wird zunehmend der Frage nachgegangen, auf welchen Islam sich Akbar konkret bezieht und worauf seine religiösen Bestrebungen zurückgeführt werden können. Für den Indologen Heinrich von Stietencron, der Akbar nach dem aktuellen Forschungsstand darstellt, gilt Akbar in Bezug auf seine Religionspolitik als Synkretist und Rationalist: „Akbar versuchte, die wesentlichen Elemente der ihm zugänglichen Religionen zu erkennen und, soweit sie ihn überzeugten, in ein den Islam fortschreibendes und weiterentwickelndes System zu integrieren.“ „Akbar hielt am Islam, vor allem an dessen Monotheismus fest. Aber die religiösen Dispute bestärkten ihn auf dem Weg eines konsequenten Rationalismus.“ Laut Stietencron stehen im Hintergrund Akbars Religionspolitik Rationalisierungsprozesse, die aus dem, ihm zugehörigen Islam selbst stammen. Der Religionswissenschaftler Michael Bergunder dagegen lehnt den Synkretismusbegriff ab und betont, dass Akbar seine rationalistische Religionspolitik, wie auch weitere Herrscher des Mogulreichs aus den rationalen Wissenschaften bzw. aus dem Neuplatonismus des Islam ableite. Gerald Grobbel wiederum führt Akbars religiöse Bestrebungen auf den Sufismus zurück. Indizien dafür sieht er in dem Verhältnis Akbars zu seinen Schülern, das dem sufischen Gedanken einer Schüler-Lehrer-Beziehung nahekommen solle. Akbar fungiere hier als Wegbereiter und -weiser zur einzigen Gotteserkenntnis, durch seine besondere Rolle als Mittler der Sonne sei er im Besitz der wahren Lehre. Trotz etwaigen Brüchen mit einigen islamischen Konzeptionen sieht Grobbel die Kontinuität der Denkspezifika gewährleistet, wenn auch zum Teil in abgewandelter Form – die Pointe Akbars Lehre sieht Grobbel in deren Begründung durch die Vernunft statt der Tradition. Siehe auch Mogul-Architektur Humayun-Mausoleum Akbar-Mausoleum Literatur Arnold Hottinger: Akbar der Große (1542–1605). Herrscher über Indien durch Versöhnung der Religionen, Wilhelm Fink Verlag, München 1998, ISBN 978-3-7705-3335-0. Heike Franke: Akbar und Gahangir. Untersuchungen zur politischen und religiösen Legitimation in Text und Bild. Schenefeld 2005, ISBN 978-3-936912-34-0. Bamber Gascoigne: Die Grossmoguln. Glanz und Größe mohammedanischer Fürsten in Indien. Prisma, Gütersloh 1987, ISBN 3-570-09930-X. Sri Ram Sharma: The Religious Policy of the Mughal Emperors. London, 2. Aufl. 1962, ISBN 978-0-210-33935-0. Gerald Grobbel: Der Dichter Faidi und die Religion Akbars. Berlin 2001, ISBN 978-3-87997-287-6. Weblinks Biographie Akbars Einzelnachweise Mogul Herrscher (16. Jahrhundert) Herrscher (17. Jahrhundert) Geboren 1542 Gestorben 1605 Mann
Q8597
193.256505
31240
https://de.wikipedia.org/wiki/PhyloCode
PhyloCode
Der International Code of Phylogenetic Nomenclature (ICPN), auch bekannt als „PhyloCode“, ist ein in Entwicklung befindliches Regelwerk zur Erstellung einer neuen biologischen Nomenklatur, die auf der Benennung monophyletischer Gruppen innerhalb der Kladistik basieren soll. Die Idee zu einem neuen, nichtlinnéischen System wurde 1998 an der Harvard University entwickelt. Ein Kernmerkmal des Phylocodes ist, dass Namen für Organismen nicht mehr einen Gattungsnamen verwenden, sondern nur noch einen Artnamen. Aus Homo sapiens (aus der Gattung Homo) würde z. B. nur noch sapiens. Das wird damit begründet, dass Gattungen oder auch andere Kategorien wie Familie oder Unterfamilie willkürliche Klassifikationen darstellen, der keine objektive Wirklichkeit entspricht. Trotz seiner Vorteile wurde der Phylocode von Taxonomen oder Biologen jedoch bisher weitgehend ignoriert oder gar abgelehnt. Die Version 4c des Phylocodes wurde 2010 veröffentlicht., im Jahre 2014 folgte die Version 5 und 2019 die Version 6. Einzelnachweise Literatur Kevin de Queiroz, Philip D. Cantino: International Code of Phylogenetic Nomenclature (PhyloCode). CRC Press, Juni 2020, ISBN 9781138332829 Kevin de Queiroz, Philip D. Cantino, Jacques A. Gauthier: A Companion to the PhyloCode. CRC Press, Juni 2020, ISBN 9781138332935 Siehe auch Phylogenese Systematik (Biologie) Weblinks International Society for Phylogenetic Nomenclature Taxonomie
Q1189395
110.450611
13690
https://de.wikipedia.org/wiki/Multitasking
Multitasking
Der Begriff Multitasking [] (engl.) bzw. Mehrprozessbetrieb bezeichnet die Fähigkeit eines Betriebssystems, mehrere Aufgaben (Tasks) (quasi-)nebenläufig auszuführen. Im Allgemeinen bietet der Prozessor hierzu auch unterstützende Hardware-Strukturen. Die verschiedenen Prozesse werden in so kurzen Abständen immer abwechselnd aktiviert, dass der Eindruck der Gleichzeitigkeit entsteht. Multitasking ist somit eine Variante eines Zeit-Multiplexverfahrens. Besitzt ein Computer mehrere CPU-Kerne, so dass er mehrere Aufgaben echt-gleichzeitig ausführen kann, so spricht man von Multiprocessing. In modernen Computern werden beide Verfahren kombiniert eingesetzt. Zweck des Multitasking Multitasking kann bei verschiedenen Anforderungen nützlich sein, insbesondere bei der Optimierung der Auslastung und für eine je nach Zielsetzung ausgeglichene oder prioritätsbasierte Ressourcenverteilung. Der Grundgedanke hinter der „Optimierung der Auslastung“ ist der, dass in einem durchschnittlichen Rechner der überwiegende Teil der Rechenzeit nicht genutzt werden kann, weil häufig auf verhältnismäßig langsame, externe Ereignisse gewartet werden muss (beispielsweise auf den nächsten Tastendruck des Benutzers). Würde nur ein Prozess laufen (zum Beispiel die wartende Textverarbeitung), so ginge diese Wartezeit komplett ungenutzt verloren (siehe „aktives Warten“). Durch Multitasking kann jedoch die Wartezeit eines Prozesses von anderen Prozessen genutzt werden. Ist ein Rechner bzw. seine Rechenzeit demgegenüber größtenteils ausgelastet, beispielsweise durch einzelne rechenintensive Prozesse, so können dennoch mehrere Benutzer oder Prozesse anteilige Rechenzeit erhalten, anstatt auf das Ende eines anderen Prozesses warten zu müssen. Dies kommt insbesondere auch der Interaktivität zugute. Da das System zugleich für die verschiedenen Prozesse Prioritäten berücksichtigen kann, ist eine entsprechende Gewichtung möglich, je nach Zielsetzung. Ein Server kann zum Beispiel die Dienste bevorzugen, welche er anbieten soll, jedoch direkte Benutzer-Interaktionen niedrig priorisieren. Ein Desktop-PC wird umgekehrt vor allem die Ein- und Ausgaben von/an den Benutzer bevorzugen, und dafür Hintergrund-Prozesse etwas zurückstellen. Vorläufer und Entwicklung Multiprogrammierung und TSR-Programme Vorläufer des Multitasking ist die Multiprogrammierung mit dem Ziel einer höheren CPU-Auslastung im Gegensatz zur sequenziellen Ausführung der Aufgaben bei Stapelverarbeitung. Bei der Multiprogrammierung findet der Kontextwechsel der Programme mit dem Zugriff auf periphere Geräte statt, da dabei zwangsläufig Wartezeit entsteht. Erste Ansätze basieren auf dem Konzept von Christopher Strachey aus dem Jahr 1959. Praktisch umsetzen ließen sich solche Konzepte aber erst mit leistungsfähiger Hardware, bei der mit der Interruptsteuerung die Entwicklung von TSR-Programmen möglich wurde. Allgemeiner Ablauf Der technische Ablauf beim Multitasking ist im Prinzip immer gleich. Als wichtige Grundvoraussetzung des Multitaskings gilt im Allgemeinen, dass ein Prozess, der zugunsten eines anderen unterbrochen wird, nichts über diesen anderen (oder ggf. auch mehrere andere) „wissen“ muss. Dies wird meist erreicht, indem jeder Prozess einen eigenen sogenannten Prozesskontext besitzt, der seinen Zustand beschreibt. Ein Prozess ändert immer nur seinen eigenen Prozesskontext, niemals den eines anderen Prozesses. In der Regel wird der gesamte Prozesskontext (der Zustand des Prozesses) beim Unterbrechen gespeichert, z. B. auf dem Stapelspeicher (). Er bleibt so lange gespeichert, bis der betreffende Prozess wieder Rechenzeit erhalten soll. Unmittelbar bevor dieser Prozess wieder aktiv wird, wird der gespeicherte Zustand wieder geladen, sodass es für den Prozess so erscheint, als sei er überhaupt nicht unterbrochen worden; unabhängig davon, ob, wie viele und was für Prozesse in der Zwischenzeit ausgeführt worden sind. Dieses Umschalten zwischen einzelnen Prozessen wird als „Taskwechsel“ bezeichnet. So kann ein Prozess bei der weiteren Ausführung nach der Unterbrechung wieder seine definierte Umgebung vorfinden, auch wenn zwischenzeitlich andere Prozesse ausgeführt wurden. Beim kooperativen Multitasking ähnelt der Taskwechsel stark dem Aufruf von Prozeduren bzw. Funktionen in der prozeduralen Programmierung. Kooperatives Multitasking Beim „kooperativen Multitasking“ wird das Multitasking durch eine zentrale Prozessverwaltung im Systemkernel realisiert: ein einfacher, sogenannter Scheduler. Der Scheduler sichert den Prozesskontext des gerade unterbrochenen Tasks, wählt den nächsten Prozess aus, der Rechenzeit erhalten soll, stellt dessen Prozesskontext her und gibt den Prozessor dann an diesen neuen Prozess ab. Der Scheduler kann Listen mit verschieden priorisierten Tasks führen, und niedrig priorisierte entsprechend selten aufrufen. Dabei kann auch die bereits verbrauchte Rechenzeit eines Tasks berücksichtigt werden. In der Regel werden Betriebssystem-interne Aufgaben zuerst erledigt, bevor ein neuer Task den Prozessor erhält. Es ist jedem Prozess selbst überlassen, wann er die Kontrolle an den Kern zurückgibt; in der Regel wird zumindest jede Dienst-Anforderung an das Betriebssystem mit einem Taskwechsel verbunden. Vorteil dieser Methode ist, dass viele Systemfunktionen (z. B. die Ausgabe) nicht wiedereintrittsfähig sein müssen und daher nicht synchronisiert sein müssen, was eine erhebliche Vereinfachung für den Hersteller bedeutet. (Unterbrechungsroutinen müssen jedoch stets dieses Problem lösen.) Diese Form des Multitasking hat ebenso wie das TSR-Konzept den Nachteil, dass Programme, die nicht kooperieren, das restliche System zum Stillstand bringen. Gründe für solches Programmverhalten können sein: im Programm enthaltene Fehler; durch den Programmierer gewollte Fehlfunktion eines Systems; gewollte (vorteilhafte) „Alleinherrschaft“ des Programms, zum Beispiel für eine zeitkritische Anwendung wie ein Computerspiel. Das Konzept wurde zum Beispiel eingesetzt beim Apollo Guidance Computer bei Windows 3.x: Unter diesem System wird Multitasking nur teilweise unterstützt, da nur die jeweiligen Speicherbereiche nebeneinander existieren und die Anwendungen im Hintergrund zugunsten des aktiven Programms einfach angehalten werden. bei vielen Heimcomputern wie zum Beispiel dem Atari ST. in grafischen Oberflächen für MS-DOS und dazu kompatibles DOS. System 5 – Mac OS 9 (eingeschränkt) in erweiterten TSR-Programmen für PC-kompatibles DOS. Diese Form des Multitasking ist prinzipiell schnell und ressourcenschonend sowie technisch verhältnismäßig einfach realisierbar. Für multiuserfähige Großrechner war es nie eine praktikable Alternative und wurde z. B. unter Unix nie eingesetzt, da ja ein Benutzer mittels unkooperativem Programm alle anderen blockieren könnte. Auch in den neueren Windows-Betriebssystemen der NT-Linie und in Mac OS X wird diese inzwischen als veraltet geltende Technik nicht eingesetzt. Teilweise unterstützen sie ähnliche Funktionalität begrenzt zum Beispiel als User Mode Threads, jedoch in jedem Fall nur eingebettet in präemptivem Multitasking. Präemptives Multitasking Basis der heutzutage standardmäßig angewendeten Methode ist das präemptive Multitasking: Der gerade laufende Prozess wird nach einer bestimmten Abarbeitungszeit (seinem „Zeitschlitz“, auch Zeitscheibe, engl. time slice) durch den Interrupt eines Hardware-Timers unterbrochen. Die Interrupt Service Routine (Teil des Betriebssystems) unterbricht den Prozess und sichert seinen Prozesskontext – der Prozess wird „schlafen gelegt“; dann übergibt sie an den Scheduler – das Betriebssystem hat (wieder) die Kontrolle erlangt. Sofern kein Betriebssystem-eigener Ablauf ansteht, wählt der Scheduler nun einen rechenbereiten Prozess aus (ggf. denselben, der gerade unterbrochen wurde), stellt dessen Prozesskontext wieder her, startet den Hardware-Timer und übergibt dann an den Prozess. Meist wird jedem Prozess eine „absolute“ Zeitscheibe zugewiesen (alle Zeitscheiben haben die gleiche, feste Dauer; üblicherweise wenige Millisekunden); alternativ wird ihm pro definierter Zeiteinheit ein bestimmter Prozentteil dieser Zeiteinheit zugewiesen (z. B. abhängig von seiner Priorität), den er höchstens nutzen kann (die Länge der Zeitscheibe wird also jedes Mal neu bestimmt). Sollte er bereits vor Ablauf seiner Zeitscheibe eine Funktion des Betriebssystems benötigen, so wird er sogleich angehalten und als „nicht rechenbereit“ markiert, bis das Betriebssystem den gewünschten Dienst erbracht hat. Nur als „rechenbereit“ markierte Prozesse erhalten Prozessorzeit-Zuteilungen. Auswahl des nächsten Prozesses Eine beliebte Umsetzung des präemptiven Multitaskings ist die Verwendung einer Vorrangwarteschlange in Verbindung mit der Round-Robin-Scheduling-Strategie. Es gibt auch die Prozessorzuteilung abhängig von der Taskpriorität, vor allem bei Echtzeitsystemen z. B. MicroC/OS-II. Für das Multitasking spielt das nur eine untergeordnete Rolle, da präemptives Multitasking die Kernel- bzw. Prozessorkontrolle über die Prozesse beschreibt. Notwendige Hardware-Unterstützung Hardwareseitig benötigt präemptives Multitasking im Gegensatz zur kooperativen Variante (vergl. TSR-Programm als Vorläufer) zwingend einen Interrupterzeuger (meist ein Zeitgeber) im geeigneten Prozessor, da das System softwareseitig keine Möglichkeit hat, Prozessen die Kontrolle über den Prozessor zu entziehen. Der Zeitgeber sendet regelmäßig oder nach Ablauf einer eingestellten Zeit ein Signal (Interrupt) an die CPU, was sie zur Unterbrechung des aktuell laufenden Tasks und zur Ausführung der Betriebssystem-Interrupt-Service-Routine veranlasst. Speicherschutz Moderne Betriebssysteme arbeiten darüber hinaus mit einem Speicherschutz, der verhindert, dass verschiedene Prozesse sich im Speicher gegenseitig beeinflussen oder gar überschreiben. Diese Schutzfunktion übernimmt im PC die Memory Management Unit (MMU), welche die Virtualisierung des Hauptspeichers und verschiedene Berechtigungslevel (Ringe) oder auch Modi (Kernel-Mode versus User-Mode) ermöglicht und so dem Betriebssystem erlaubt, verschiedene parallele Prozesse innerhalb des Rechners voneinander strikt abzukapseln. Im PC kam die MMU erstmals in Rechnern mit i286-Prozessoren von Intel zum Einsatz. Diese Technik ist aber für Multitasking im engeren Sinne nicht zwingend notwendig. Geschichte Die ersten weit verbreiteten Computersysteme, die präemptives Multitasking beherrschten, waren der Sinclair QL (1984) und der Commodore Amiga (1985) im Heimbereich (beim Amiga ohne Speicherschutz/Privilegierung und somit „aushebelbar“), sowie zuvor die unter Unix betriebenen Großrechenanlagen. Windows beherrscht erstmals in den 3.x-Versionen teilweise präemptives Multitasking, dort allerdings nur für DOS-Programme und das auch nur dann, wenn sie auf einem System mit einem i386-kompatiblen Prozessor ausgeführt werden, da dieser in solchen Fällen hardwareseitige Virtualisierung ermöglicht. Moderne Betriebssysteme, die präemptives Multitasking vollständig unterstützen, sind Windows NT (und alle Nachfolger), QNX, BeOS und alle auf Unix basierenden Systeme wie Linux, HP-UX, Solaris, macOS u.v.m. Abgrenzung zum Time-Sharing Außerdem muss man zwischen Time slicing (Zeitscheiben-Verfahren) und Time-Sharing unterscheiden, letzteres gestattet mehreren Benutzern bzw. deren Prozessen (z. B. auf Datenbankservern oder Großrechnern mit Terminalzugriff) sich automatisch anteilig die verfügbare Rechenzeit zu teilen. Während sich also beim Multitasking mehrere Prozesse eines einzelnen Users die Rechenzeit teilen können, wird beim Time-Sharing die Zeit eines Prozesses auf mehrere Benutzer verteilt. Präemptibles Multitasking Eine Sonderform des präemptiven Multitasking ist das weniger bekannte Präemptible Multitasking (englische Schreibweise Preemptible Multitasking), das erstmals im Betriebssystem OS/2 implementiert wurde. Viele Betriebssystem-eigene Kernel-Routinen werden als Scheduler-Threads geführt; somit können Anwendungsprozesse auch Zeitschlitze erhalten, während eigentlich eine Betriebssystem-Aktion ausgeführt wird (mit Ausnahmen für atomare OS-Prozesse). Das Konzept ermöglicht schnellere Reaktionszeiten. Mit Version 2.6 hat es auch in den Linux-Kernel Eingang gefunden. Siehe auch Multithreading Hyper-Threading Literatur C. Strachey: Time Sharing in Large Fast Computers. Proceedings of the International Conference on Information Processing. UNESCO, 1959. Klaus D. Thies: Echtzeit-Multitasking: Der Kernel – Elementare Einführung in die parallele Systemprogrammierung. Shaker-Verlag, Aachen, ISBN 978-3832248673. Weblinks Einzelnachweise Betriebssystemtheorie Parallelverarbeitung
Q192969
86.363233
71762
https://de.wikipedia.org/wiki/Artrock
Artrock
Artrock (englisch: art rock oder art pop, deutsch eigentlich: Kunst-Rock bzw. Kunst-Pop) ist eine Stilrichtung der Rockmusik, die eng mit dem Progressive Rock verwandt ist. Die Grenzen zwischen diesen beiden Stilrichtungen sind fließend und umstritten. Ein Unterscheidungsmerkmal ist, dass der Progressive Rock sich stärker an den Kompositionsweisen der klassischen Musik orientiert, während Artrock den Ansatz hin zu anspruchsvollen Produktionsweisen, großen Formen und neuen visuellen Darstellungen repräsentiert. Auch Bands, die streng genommen keinen Progressive Rock spielen, aber progressive Elemente in ihr musikalisches und textliches Konzept aufgenommen haben, können zum Artrock gezählt werden. Artrock kann man als Versuch verstehen, die Pop- und Rockmusik der 1960er Jahre zu einer Kunstmusik vergleichbar mit der klassischen Musik zu entwickeln. Die Wurzeln des Artrock sind in den späten 1960er Jahren zu suchen. Zahlreiche Bands zwischen 1969 und 1977 können dieser Musikrichtung zugeordnet werden. Komplexes Songwriting, oft sehr lange Stücke mit einer Spieldauer von bis zu über 40 Minuten, ausgedehnte Instrumental- bzw. Soloteile, akustische Effekte aller Art und der ausgeprägte Hang zu Konzeptalben charakterisieren diesen Musikstil. Dabei waren Konzeptalben der Beach Boys und Beatles ebenso einflussreich wie die von Barockmusik und Blues inspirierte Musik von Procol Harum, Inspirationen durch den Psychedelic Rock der frühen Pink Floyd, die Verbindung von Rock und Klassik durch The Moody Blues, instrumentale Virtuosität von Cream und Jimi Hendrix. Eine in Westdeutschland entstandene Variante des Artrock wird als Krautrock bezeichnet. Für diesen ist gegenüber dem britischen Artrock vor allem kennzeichnend, dass er fast gänzlich frei von Einflüssen von Blues und klassischer Musik ist und die Musiker frühzeitig und intensiv mit den Mitteln der elektronischen Musik arbeiteten. Wichtige Vertreter dieser Stilrichtung sind unter anderem Amon Düül, Can, Faust, Kraftwerk und Tangerine Dream. Krautrock hat auch die Musikszene der späten 1980er und der 1990er Jahre nachhaltig beeinflusst, etwa beim Drum and Bass oder Techno. Auch in der DDR war Artrock in der zweiten Hälfte der 1970er Jahre populär. Auf die wichtigsten Gruppen und Stile wird im Artikel zum Progressive Rock eingegangen. Wichtige Vertreter Wichtige Vertreter des Artrocks sind: Stilrichtung der Rockmusik Progressive Rock
Q217467
90.023341
36767
https://de.wikipedia.org/wiki/Keynesianismus
Keynesianismus
Unter Keynesianismus [] wird in den Wirtschaftswissenschaften ein auf John Maynard Keynes zurückgehendes Theoriegebäude verstanden, in dem die gesamtwirtschaftliche Nachfrage die entscheidende Größe für Produktion und Beschäftigung ist. Der Keynesianismus beruht vor allem auf seinem im Februar 1936 erschienenen Buch Allgemeine Theorie der Beschäftigung, des Zinses und des Geldes. Allgemeines Zum Keynesianismus gehören wirtschaftspolitische Ansätze, die darauf ausgerichtet sind, die Nachfrage nach Gütern und Dienstleistungen zu steuern und bei Bedarf die Wirtschaft durch vermehrte Staatsausgaben und durch expansive Geldpolitik zu beleben. Als Hochphase des Keynesianismus weltweit gilt die Zeit nach dem Zweiten Weltkrieg (in Deutschland ab 1967) bis in die 1970er Jahre. Nach der monetaristischen Gegenrevolution (siehe Abschnitt 4.9) und dem Auftreten der Stagflation verlor die Theorie von Keynes ihre Dominanz. Heute herrscht in der Makroökonomie die im von N. Gregory Mankiw 1991 herausgegebenen Werk präsentierte Richtung vor, worin aber nur die wirtschaftspolitischen Empfehlungen mit Keynes vereinbar sind, nicht die theoretische Grundlage (s. Abschnitt 3.10). In Deutschland wies das Stabilitäts- und Wachstumsgesetz aus dem Jahr 1967 der Bundesregierung, damals mit Karl Schiller (SPD) als Wirtschaftsminister, die Aufgabe zu, die gesamtwirtschaftliche Nachfrage zu steuern. Die konkreten Ziele waren eine reale Zuwachsrate des Sozialprodukts von 4 %, eine Arbeitslosenquote von unter 0,8 % und eine Inflationsrate von unter 1 %. Grundlage war das Konzept der Globalsteuerung, mit Hilfe keynesianischer Wirtschaftspolitik die volkswirtschaftliche Entwicklung von Konjunkturschwankungen unabhängiger zu machen und einen hohen Beschäftigungsstand zu sichern. Begriffsinhalt Keynesianismus kann bezeichnen: die politische Philosophie, die vom Ende des Zweiten Weltkrieges bis zur Mitte der 1970er Jahre in allen westlichen Staaten dominierte. Als wesentliche Merkmale nennen Backhouse und Bateman (2008) die gesamtwirtschaftlich gesteuerte Volkswirtschaft und den Wohlfahrtsstaat. Wirtschaftspolitische Maßnahmen, die durch Variation von Staatsausgaben und Staatseinnahmen sowie durch geldpolitische Maßnahmen versuchen, Schocks aufzufangen mit dem Ziel, Arbeitslosigkeit gering zu halten (so besonders in politikwissenschaftlichem oder soziologischem Kontext). die Wirtschaftstheorie von John Maynard Keynes. die keynesianische Wirtschaftstheorie in verschiedenen Strömungen und Schulen (vor allem Post- und Neokeynesianismus), die sich auf Keynes berufen. Zwischen Keynesscher Theorie (3.), der keynesianischen Wirtschaftstheorie (4.) und den gesellschaftsphilosophischen und wirtschaftspolitischen Bedeutungen (1. und 2.) bestehen deutliche Unterschiede. Manche Autoren benutzen deshalb für diese (1. und 2.) die Bezeichnung Interventionismus. Für die unterschiedlichen wirtschaftstheoretischen Strömungen des Keynesianismus besteht keine einheitliche Terminologie. Zu unterscheiden sind (zumindest): Keynes’sche Theorie Nachdem Leijonhufvud herausgearbeitet hatte, wie sehr sich die keynesianische Theorie durch die neoklassische Vereinnahmung von der Theorie von Keynes entfernt hatte, begann eine Rückbesinnung auf Keynes. Tobin, einer der prominentesten Streiter für diese Rückkehr zu Keynes, bezeichnet sich als „Old Keynesian“ Neoklassischer Keynesianismus Durch die „Neoklassische Synthese“ (s. Abschnitt 4.4) wurde die Theorie von Keynes von der Neoklassik vereinnahmt und die resultierende „Neoklassisch-keynesianische Theorie“ lieferte Ergebnisse, die der Theorie von Keynes entgegengesetzt war. Das gilt insbesondere für seine These, dass flexible Preise und Löhne nicht geeignet sind, zur Vollbeschäftigung zu gelangen. Postkeynesianismus Die Bezeichnung wurde sporadisch (so von Joan Robinson) schon in den 1950er Jahren gebraucht, um rein chronologisch theoretische Arbeiten unter dem Einfluss der Allgemeinen Theorie zu beschreiben. Zur inhaltlichen Abgrenzung einer bestimmten keynesianischen Lehrmeinung von der neoklassischen Synthese kristallisierte sich die Bezeichnung erst nach dem Aufsatz An Essay on Post Keynesian theory: a new paradigm in economics von Alfred S. Eichner und J. A. Kregel (Journal of Economic Literature, Vol. 65, 1975) heraus und verfestigte sich mit dem Erscheinen des Journal of Post Keynesian Economics 1978 (in diesem Sinne soll sie im Weiteren verstanden werden). Vereinzelt wird sie immer noch im rein chronologischen Sinne gebraucht. Neokeynesianismus oder auch Neukeynesianismus Der Begriff trat erstmals in den 1960er Jahren auf und wurde zunächst in unterschiedlicher Weise benutzt. Seit den 1990ern wird Neokeynesianismus als deutsche Bezeichnung für die New Keynesian Economics gebraucht. Abweichend davon unterscheidet Thomas Palley zwischen New Keynesian Economics und Neo-Keynesianismus für das Werk von Autoren der neoklassischen Synthese. Lehren (Überblick) Merkmale der keynesianischen Schule, die von allen selbst bezeichneten Keynesianern akzeptiert werden, lassen sich nicht ganz einfach ausmachen. Besonders für die postkeynesianischen Schulen sind gemeinsame schulbildende Merkmale ihrer Wirtschaftstheorie nur schwer in klar abgrenzbarer Form zu ermitteln. Zum Teil wird ihre Abgrenzung nach soziologischen (im Sinne Joseph Schumpeters), philosophischen (im Sinne Thomas S. Kuhns oder Imre Lakatos’) oder rein geographischen (so Terence Hutchinson) Gesichtspunkten vorgenommen. A.P. Thirlwall machte „sechs Kernbotschaften der Keynesschen Vision“ („six central messages of Keynes’ vision“) aus, die in wirtschaftstheoretischer Hinsicht gut die Kernlehren der keynesianischen Schulen beschreiben: Produktion und Beschäftigung werden über den Gütermarkt, nicht über den Arbeitsmarkt gesteuert, unfreiwillige Arbeitslosigkeit ist möglich, eine Erhöhung der Ersparnisse führt nicht zu einer gleich großen Erhöhung der Investitionen; vielmehr bestimmen die Investitionen das mögliche Sparvolumen in der Volkswirtschaft, Investitionen sind also nicht davon abhängig, dass vorher gespart wird. Vielmehr können die Banken Kredite durch Kredit- und Geldschöpfung vergeben. eine Geldwirtschaft unterscheidet sich von einer Tauschwirtschaft, die Quantitätstheorie des Geldes gilt nur bei Vollbeschäftigung, in Marktwirtschaften werden Investitionsentscheidungen auch von den animal spirits (etwa ‚Instinktverhalten‘) der Unternehmer bestimmt. Merkmale der gegensätzlichen neoklassischen Synthese dagegen sind: das IS-LM-Modell, erweitert um einen neo-klassischen Arbeitsmarkt, neo-klassische Wachstumsmodelle, die langfristig senkrechte Phillips-Kurve. Theoriegeschichte und -entwicklung Vorläufer und Umfeld John Maynard Keynes verweist in seiner Allgemeinen Theorie selbst auf Einflüsse, die von der Scholastik, dem Merkantilismus und Malthus ausgingen. In der französischen Ausgabe nennt er Montesquieu, der in seiner ökonomischen Bedeutung für Frankreich Adam Smith gleichkäme. Überraschende Übereinstimmungen bestehen zwischen Keynes’ Kritik an der Neoklassik und der Kritik, die Friedrich von Hayek, durch den die Österreichische Schule in Großbritannien rezipiert wurde, an der Walras-Pareto-Gleichgewichtsanalyse und an der fehlenden Berücksichtigung der Zeit übte. Diese Kritik wirkte später über die LSE-Studenten Nicholas Kaldor, Abba Lerner und G. L. S. Shackle auch auf den Postkeynesianismus ein. Der Ökonom J. A. Hobson entwickelte ab 1889 (und 1928 davon unabhängig auch William Trufant Foster und Waddill Catchings) die Idee, dass ein Mangel an Nachfrage für Wirtschaftskrisen verantwortlich sei, gebrauchte dafür aber den Ausdruck underconsumption (wörtl. etwa: Unternachfrage). Dies befand sich jedoch zu dieser Zeit außerhalb des wirtschaftswissenschaftlichen Mainstreams. Ein Auseinanderfallen von gesamtwirtschaftlicher Spar- und Investitionsquote hielt bereits Knut Wicksell für möglich. Gunnar Myrdal beschreibt den Einfluss, den Wicksell bereits auf Keynes' Buch von 1930 hatte: Andere Ökonomen der Schwedischen Schule, so besonders Erik Lindahl, Bertil Ohlin und Erik Lundberg, hatten bereits in den 1920er und frühen 1930er Jahren den Einfluss der gesamtwirtschaftlichen Nachfrage herausgestellt. Gleiches gilt für den Polen Michał Kalecki, der dies unter Rückgriff auf Karl Marx und Rosa Luxemburg ausgearbeitet hatte. 1936: Keynesianische Revolution John Maynard Keynes (1883–1946): Allgemeine Theorie der Beschäftigung, des Zinses und des Geldes (1936) Die keynesianische Revolution hat ihren Ursprung in John Maynard Keynes’ Werk Allgemeine Theorie der Beschäftigung, des Zinses und des Geldes (kurz: Allgemeine Theorie oder General Theory) aus dem Jahre 1936. Keynes war zur Zeit seiner Veröffentlichung bereits 53 Jahre alt und ein international hoch angesehener Ökonom. Die ersten Gedanken für seine Allgemeine Theorie gehen wohl auf die frühen 1930er Jahre zurück, kurz nachdem er seinen Treatise on Money 1930 veröffentlicht hatte; mit diesem, damals als sein opus magnum angesehenem Werk, war er schon nach Veröffentlichung unzufrieden, verwarf jedoch den Gedanken, es umzuarbeiten. Ab 1930 beschäftigten er und sein Schülerkreis sich intensiv mit der effektiven Nachfrage. Inwieweit diese in ein Walrasianisches Modell eingearbeitet werden können oder tatsächlich revolutionär sind, ist umstritten. Keynes selbst kam bald zu dem Ergebnis, dass seine neu gewonnenen Erkenntnisse einer intellektuellen Revolution und einem radikalen Bruch mit der neoklassischen Theorie gleichkämen: Grundelemente seiner Theorie Keynes Hauptwerk, die Allgemeine Theorie der Beschäftigung, des Zinses und des Geldes, gilt als schwer verständliches Werk. Deshalb haben die Herausgeber der 11. Auflage (2009) in deutscher Sprache dem Buch eine Erklärung zu seinem Aufbau vorangestellt. Für Keynes und den Keynesianismus ist die gesamtwirtschaftliche Nachfrage die entscheidende Determinante für die Höhe von Produktion und Beschäftigung. Dabei ist die gesamtwirtschaftliche Nachfrage höchst instabil. Grund dafür ist vor allem die stark schwankende Nachfrage nach Investitionsgütern. Diese Nachfrage ist von der erwarteten Rendite abhängig, die wegen der Unsicherheit der Zukunft starken und plötzlichen Änderungen unterworfen ist. Soll das in einer Periode erwirtschaftete Einkommen vollständig nachfragewirksam werden, müssen sämtliche Ersparnisse – vermittelt über das Bankensystem – reinvestiert werden. Vereinfacht ausgedrückt bedeutet Keynesianismus, dass im marktwirtschaftlichen System aus strukturellen Gründen immer eine Nachfragelücke existiert, die für die Arbeitslosigkeit verantwortlich ist. Keynes sah also die inhärente Ungewissheit der Zukunft als Ursache von stark schwankenden privaten Investitionen. Verstärkt über den Multiplikator führt dies zu schwankender Produktion und Arbeitslosigkeit. Der Multiplikator besagt, dass ein Rückgang der Investitionen auch negativ auf den privaten Konsum einwirkt. Die Schließung einer Fabrik führt nicht nur zur Entlassung der Arbeitenden in dieser Fabrik und zu Entlassungen bei den Zulieferfirmen, vielmehr führt das rückläufige Einkommen der entlassenen Arbeitskräfte auch zu deren Konsumeinschränkung, was wieder Entlassungen in der Konsumgüterindustrie zur Folge hat. Wie dieser Multiplikatorprozess abläuft, hatte Richard Kahn bereits 1931 gezeigt (s. nächsten Abschnitt). Diese Schwankungen einzudämmen erfordert ein antizyklisches Verhalten des Staates, um die Schwankungen gering zu halten (antizyklische Geld- und Finanzpolitik). Durch staatliche Geld- und Fiskalpolitik soll die gesamtwirtschaftliche Nachfrage gesteuert (Globalsteuerung) werden. Man müsse also versuchen, die Gesamtnachfrage möglichst auf einem stabilen Niveau zu halten. Dies ermöglicht eine ausreichende Kapazitätsauslastung und eine stabile Volkswirtschaft. Expansive Geld- und Fiskalpolitik führe die Wirtschaft an die Vollbeschäftigung heran. Keynes erklärte das Saysche Theorem für ungültig, wonach sich jedes Angebot seine Nachfrage schaffe. Dazu wäre es notwendig, dass sämtliche Ersparnisse – vermittelt über das Bankensystem – zu Investitionen genutzt werden. Keynes betont dagegen, dass jede zusätzliche Ersparnis zunächst und in erster Linie einen Nachfrageausfall bedeutet. Dieser verringert die Kapazitätsauslastung bei den betroffenen Unternehmen, sodass diese weniger Anreiz haben zu investieren. Keynes wandte sich auch gegen die klassische Geldlehre und die von der neoklassischen Theorie behaupteten Zusammenhänge auf dem Arbeitsmarkt. Er argumentierte gegen die (neo-)klassische Theorie, der zufolge eine Senkung der Löhne gegen Unterbeschäftigung helfe. Zwar sinken dadurch die Lohnkosten, aber die Lohnsenkungen führen zur Abnahme der Kaufkraft des Großteiles der Konsumenten (= reale Lohnsenkung) und damit zu einer Verringerung der Nachfrage. Begünstigt werden dagegen die Exporte. Über Lohnsenkungen die Beschäftigung erhöhen zu wollen, sei eine fragwürdige Politik, die überdies versucht, inländische Nachfrageprobleme durch Außenhandelsüberschüsse, also zu Lasten des Auslands, zu kompensieren. Vielfach wird Keynes auf eine antizyklische Nachfragepolitik reduziert. Demnach soll der Staat, über Rücklagen oder durch Kreditaufnahme finanziert, fiskalpolitische Maßnahmen ergreifen. Die Zentralbank soll dies geldpolitisch unterstützen. Das Zusammenspiel soll der Abschwächung der Auswirkungen von Rezessionen und Booms dienen. Wenn der Staat in der Rezession kurzfristig Schulden aufnimmt, liegt ein so genanntes Deficit spending vor (dieser Begriff wurde von Abba P. Lerner geprägt). Idealerweise sollten diese bei einem Wirtschaftsaufschwung durch Steuermehreinnahmen beglichen werden. Mitstreiter der „keynesianischen Revolution“ Ein wichtiger Diskussionspartner von Keynes war Roy Harrod (1900–1978), der in Oxford studierte und lehrte. Zwischendurch hörte Harrod die Vorlesungen von Keynes in Cambridge, dessen Mitstreiter und Freund er wurde. Keynes schickte ihm die Druckfahnen der „General Theory“ und Harrod versuchte vergeblich, deren Attacken auf die (neo)klassische Theorie abzumildern. Harrod versuchte wenig später, Keynes’ Theorie zu dynamisieren („An Essay in Dynamic Theory“, 1939) und daraus eine Wachstumstheorie zu entwickeln. 1951 schrieb er im Auftrag des Bruders von Keynes dessen offizielle Biographie („The Life of John Maynard Keynes“, London 1951). Großen Anteil an der Entstehung von Keynes Allgemeine Theorie hatte Richard Kahn. Kahn war Keynes’ Lieblingsschüler und sein engster Mitarbeiter und, wie Joan Robinson halb scherzhaft bemerkte, schon vor Keynes Keynesianer. Kahn präsentierte in seinem Aufsatz The Relation of Home Investment to Unemployment (1931) das Multiplikator-Modell, das die Wirkung einer exogenen Ausgabenerhöhung in Abhängigkeit von der marginalen Konsumquote gemäß der Formel aufzeigte und von Keynes in der Allgemeinen Theorie aufgegriffen wurde. Auch darüber hinaus hatte Kahn an deren Entstehen überragenden Anteil: Er leitete zum einen den Cambridge Circus, in dem er, wie Teilnehmer später ironisch berichteten, die Rolle des „himmlischen Boten“ zwischen „Gott Keynes“ und den „sterblichen Diskutanten“ spielte; zum andern übernahm er am Manuskript selbst den gesamten mathematischen Apparat. Zu vielen Problemen unterbreitete er Lösungsvorschläge. Joseph Schumpeter schreibt ihm gar die Ko-Autorschaft zu: Zitiert nach L. Pasinetti (2007), S. 81. Auf den S. 65–68 stellt Pasinetti Leben und Werk von R. Kahn vor. Kahn folgte nach Keynes’ Tod ihm in fast allen Positionen nach, nahm jedoch eher die Rolle der grauen Eminenz wahr. Eine wichtige Mitstreiterin in „Cambridge Circus“ war Joan Robinson (1903–1983), mit der Keynes intensiv korrespondierte. Sie hatte in Cambridge bis 1935 studiert und lehrte dort von 1931 bis 1977. Nach dem Erscheinen der „Allgemeinen Theorie“ schrieb sie eine gut verständliche „Introduction to the Theory of Employment“ (London 1937) und sorgte dafür, dass die Keynes’sche Theorie in Studienplänen gebührend verankert wurde. James Meade (1907–1995) studierte und lebte zunächst in Oxford, in der Entstehungsphase der „General Theory“ jedoch in Cambridge, wo er an den Treffen des „Circus“ teilnahm. 1937 veröffentlichte er „A Simplified Model of Mr. Keynes' System“ (Review of Economic Studies, Vol. 4). 1957–1963 war er Professor in Cambridge. Unmittelbare Rezeption Keynes’ Allgemeine Theorie wurde sofort sehr kontrovers diskutiert. Besonders junge Ökonomen begeisterten sich für den neuen Ansatz, der endlich eine Erklärung der hohen und andauernden Arbeitslosigkeit bot: Schroffe Ablehnung erntete Keynes’ Werk in England besonders von Arthur Cecil Pigou, Dennis Holme Robertson, Ralph Hawtrey, Lionel Robbins, Friedrich August von Hayek, in den USA von Frank Knight, Joseph Schumpeter und Jacob Viner. Im Gegensatz zu Keynes nahm sein Londoner Gegenspieler Friedrich August von Hayek an, staatliche Organisationsformen entwickelten ein starkes Eigenleben, was häufig zu einer aufgeblähten Verwaltung führe, die selbst einen Großteil der Staatsausgaben für ihren Selbsterhalt benötige. Weiterhin nahm Hayek an, dass es in demokratischen Prozessen sehr aufwendig bis nicht durchführbar sei, in der Vergangenheit gewährte Subventionen bzw. Vergünstigungen aller Art wieder rückgängig zu machen. Zuletzt seien wirtschaftliche Prozesse zu komplex, als dass sie zentralisiert gesteuert werden könnten. Auf Grund dieses nur sehr bedingt zur Verfügung stehenden Steuerungswissens sei es nicht möglich, „antizyklische“ Prozesse durch den Staat anzuregen. Dieses Wissensdefizit der öffentlichen Hand gepaart mit der dem staatlichen Handeln unterstellten inhärenten Tendenzen zum Selbsterhalt der Verwaltung sowie der fortschreitenden Bürokratisierung führen nach Hayek zu einem vermehrten Einnahmebedarf des Staates, der die wirtschaftliche Entwicklung erheblich erschwere. Demzufolge seien „antizyklische“ Maßnahmen der öffentlichen Hand mit Sicherheit zum Scheitern verurteilt. Andere Kritiker stützen sich auf die von Keynes angegriffene Neoklassische Theorie. Diese Theorie geht davon aus, dass ein volkswirtschaftliches System „inhärent“, d. h. von sich aus stabil ist und nach Störungen wieder zum Gleichgewicht bei Vollbeschäftigung zurückfindet. Staatliche Maßnahmen seien daher überflüssig. Sie können sogar zu unerwünschten Schwankungen der Konjunktur führen. Daher vertreten Anhänger der neoklassischen Theorie die Ansicht, der Staat solle seine Ausgaben möglichst begrenzen. Dem Staat käme nur eine „allokative“ Aufgabe zu, während er sich ansonsten möglichst aus der Wirtschaft heraushalten soll. Diese Kritik wird später von Milton Friedman aufgegriffen und zu einer „monetaristischen Gegenrevolution“ ausgebaut (s. unten Abschnitt 3.8). Milton Friedman und Anna Schwartz (1963) interpretierten in ihrem Werk A Monetary History of the United States die Weltwirtschaftskrise nicht als Ergebnis der freien Märkte, sondern einer falschen Politik der Notenbank, die in den USA zwischen den Jahren 1929 und 1933 die Geldmenge um 30 % verringerte. Dabei ist unstrittig, dass die Geldmenge in jenen Jahren stark zurückging. Strittig ist, ob die Zentralbank dies bewirkte oder nicht verhindern konnte. Tatsächlich warnte Keynes bereits 1925 vor den Folgen einer Notenbankpolitik, die aufgrund des Goldstandards gezwungen ist, die Geldmenge prozyklisch zu reduzieren, und warnte vor daraus resultierender Arbeitslosigkeit. 1937: Interpretation durch das IS-LM-Modell von Hicks John R. Hicks entwarf schon 1937 das IS-LM-Modell in seinem Artikel Mr. Keynes and the Classics: A Suggested Interpretation, um Keynes’ Allgemeine Theorie der neoklassischen Theorie gegenüberzustellen. Hicks unterschied einen klassischen, einen mittleren und den keynesianischen Bereich der Liquiditätsfalle und beschränkte Keynes’ Theorie fälschlicherweise auf den letztgenannten Bereich. Auf die Ausbreitung und Interpretation von Keynes’ Theorie hatte dieser Artikel einen nachhaltigen und zwiespältigen Einfluss. Die Gegenüberstellung von „Mr. Keynes“ und „the Classics“ bezieht sich auf das Vorgehen von Keynes, alle Ökonomen, die in der neoklassischen Tradition schreiben, als „Klassiker“ zu bezeichnen, darunter auch Arthur Pigou und sein damals erst kurz zuvor erschienenes Buch The Theory of Unemployment (1933). Hicks konfrontiert diese „klassische Ökonomie“ mit der Theorie von Keynes, indem er beide in Gleichungen fasst und für ihre graphische Darstellung das berühmte IS/LM-Diagramm entwickelt, das man heute – mit modifiziertem theoretischen Hintergrund – in allen Lehrbüchern der Makroökonomie findet. Die für Keynes so wichtige Instabilität der Investitionstätigkeit und die zentrale Rolle der (unsicheren) Erwartungen für die wirtschaftliche Entwicklung bleiben jedoch außen vor. Mit dem IS/LM-Diagramm bestimmt Hicks diejenige Kombination von Zinssatz und Volkseinkommen, bei der auf dem Gütermarkt (bzw. bei Hicks auf dem Konsumgüter- und auf dem Investitionsgütermarkt) und auf dem Geldmarkt Gleichgewicht von Angebot und Nachfrage herrscht. Auf dem Gütermarkt besteht Gleichgewicht, wenn die zinsabhängigen Investitionen genau der einkommensabhängigen Ersparnis entsprechen; auf dem Geldmarkt wird das Gleichgewicht bei Übereinstimmung der vorgegebenen Geldmenge (des „Geldangebots“) mit der vom Zins und vom Einkommen abhängigen gewünschten Kassenhaltung („Nachfrage“ nach Geld) erreicht. Der Arbeitsmarkt bleibt außer Betracht. Die wichtigste Neuerung von Keynes besteht für Hicks (s. dort Abschnitt III) in der Analyse der Geldnachfrage (der Nachfrage nach Liquidität), die sich im gekrümmten Verlauf der LM-Kurve niederschlägt: Diese verläuft bei sehr niedrigem Zinssatz (i) und Einkommen (Y) fast horizontal, bei sehr hohem Einkommen und Zinssatz dagegen fast vertikal. Bei hohen Werten von Y und i wird der gesamte vorhandene Geldbestand zur Finanzierung der Transaktionen benötigt. Zusätzliche Güternachfrage führt dann nicht zu mehr Produktion, sondern nur zu höherem Zinssatz. Dies ist der klassische Bereich. Im anderen Extrembereich ist es umgekehrt: Eine Erhöhung der Geldmenge verändert den Zinssatz nicht; zusätzliche Güternachfrage dagegen führt zu mehr Produktion und Beschäftigung, ohne dass der Zinssatz steigt: „We are completely out of touch with the classical world“, betont Hicks. Den gesamten mittleren Bereich, in dem eine höhere Nachfrage sowohl die Produktion als auch den Zinssatz ansteigen lässt, während eine höhere Geldmenge zu einem niedrigeren Zinssatz und damit zu höherer Produktion führt, weist Hicks nun allerdings dem klassischen Bereich zu („the classical theory will be a good approximation“), so dass für Keynes nur der Extrembereich der horizontalen LM-Linie übrig bleibt. Im Gegensatz dazu hatte Keynes in seinem Buch betont, in der Regel sei die Beziehung zwischen Geldnachfrage und Zinssatz so, dass der Zinssatz fällt, wenn die Geldmenge steigt. Der Bereich der horizontalen LM-Linie dagegen stelle die Ausnahme dar: „But whilst this limiting case might become practically important in the future, I know of no example of it hitherto“. Die dagegen verstoßende Zuordnung des Normalbereichs der LM-Kurve zur „Klassik“ veranlasst Hicks, den Abschnitt III mit dem falschen, aber berühmt gewordenen Satz zu schließen: „So the General Theory of Employment is the Economics of Depression“ (S. 155). Der Beitrag von Hicks zur Verbreitung der Theorie von Keynes ist daher zweischneidig. Einerseits hat das von ihm entwickelte IS/LM-Diagramm erheblich dabei geholfen, aus dem schwierigen Buch von Keynes den statischen Kern seiner Theorie herauszuarbeiten und verständlich zu machen. Andererseits hat er eine Grundlage für die Keynes verfälschende Tendenz gelegt, dessen Theorie auf den empirisch wenig relevanten Extremfall der waagerechten LM-Kurve (der Liquiditätsfalle) zu reduzieren. Dies hat dann später zu der verbreiteten, aber schon mit dem Titel der „General Theory“ nicht zu vereinbarenden Praxis geführt, Keynes zu unterstellen, für ihn sei nur die Fiskalpolitik relevant, da die Geldpolitik im Bereich der Liquiditätsfalle wirkungslos bleibt, und anschließend die Keynesianer als „Fiskalisten“ abzustempeln. Ab 1944: Neoklassische Synthese Hicks ebnete mit seinem IS/LM-Diagramm auch den Weg zur Neoklassischen Synthese. Franco Modigliani (1944) war der erste, der an dieses Diagramm einen neoklassischen Arbeitsmarkt anhängte und dann unter Heranziehung des Pigou-Effekts und des Zinseffektes ableitete, dass – im krassen Gegensatz zu Keynes’ Theorie – Lohnsenkungen zu mehr Beschäftigung führen. Damit wurde Keynes von der Neoklassik vereinnahmt. Keynes selbst hatte sich während der Diskussionen mit seinem Schülerzirkel immer gegen ein solches Vorgehen ausgesprochen. In einem Brief an Roy Harrod schreibt er 1935 zu solchen Versuchen der Versöhnung: CW, Vol. 13, S. 548 zitiert nach Pasinetti (2007), S. 31. Er äußerte sich aber nach seinem Herzinfarkt (1937) und später wegen anderer aktueller Probleme und Aufgaben (Kriegsfinanzierung, Bretton-Woods-Verhandlungen) kaum zu Syntheseversuchen. Ab 1945: Cambridge School of Post-Keynesians Während des Entstehens der Allgemeinen Theorie hatte sich – wie schon in Abschnitt 3.2.3 beschrieben – ab 1930 um Keynes ein Kreis von Schülern in Cambridge gebildet, der als Cambridge Circus bekannt wurde und wöchentlich über Keynes diskutierte, zu Beginn vor allem über seinen Treatise on Money. Zu ihm gehörten Richard Kahn, Joan Robinson, Austin Robinson, Piero Sraffa und James Meade. Diese Diskussionen trugen erheblich zum Entstehen der Allgemeinen Theorie bei. Bedingt durch einen Herzinfarkt Keynes’ 1937, den aufkommenden Zweiten Weltkrieg und die Beratungsaufgaben Keynes’ für die britische Regierung kam der regelmäßige intellektuelle Austausch zwischen ihnen zum Erliegen. Nach dem Zweiten Weltkrieg und Keynes’ Tod 1946 formierte sich unter starker Beteiligung einiger dieser ehemaligen Schüler eine neue Gruppe, die sich als Keynes’ legitime Erben mit der Fortführung seines Werkes beauftragt sah. Sie sah sich vor allem in starkem Gegensatz zum neoklassischen Modell: Das IS-LM-Modell lehnten sie strikt ab und betonten den Bruch im ökonomischen Denken seit Keynes. Deswegen bezeichnete sie Coddington (1956) in seinem Artikel Keynesian Economics. The Search for first Principles (Journal of Economic Literature, S. 1283) als Fundamentalisten. Innerhalb dieser Gruppe, die sich als Postkeynesianer bezeichneten, bestand jedoch keinesfalls Konsens über viele Fragen; ihre schulbildende Außenwirkung verdankte sie eher gemeinsamen Abneigungen als gemeinsamen Konzepten. Wichtige britische Keynesianer in Cambridge (von ihnen ist nur Joan Robinson als Postkeynesianer im engeren Sinne zu bezeichnen): Richard Ferdinand Kahn (1905–1989). Unter seiner Führung wurde das wirtschaftswissenschaftliche Studium in Cambridge nach dem Zweiten Weltkrieg neu organisiert und der Cambridge Circus als Secret Seminar oder Tuesday Group in seinen Räumen fortgeführt. Er publizierte in dieser Zeit drei bedeutende Schriften: 1954 eine Ausarbeitung der Liquiditätspräferenz-These (Some Notes on Liquidy Preference), in den späten 1950er Jahren grundlegende Artikel zur keynesianischen Kapitaltheorie sowie 1976 mehrere Aufsätze über Zusammenhänge zwischen Inflation und Vollbeschäftigung insbesondere wegen steigender Grenzkosten. Joan Violet Robinson (1903–1983) war in der Fachwelt schon bekannt, weil sie bereits vor der Allgemeinen Theorie ihr Werk The Economics of Imperfect Competition (1933) veröffentlichte, von dessen Analyse des unvollständigen Wettbewerbs sie sich jedoch später distanzierte. Unmittelbar nach dem Erscheinen der „General Theory“ schrieb sie eine gut verständliche „Introduction to the Theory of Employment“ (London 1937). Sie beschäftigte sich ferner mit marxistischer Wirtschaftstheorie (An Essay on Marxian Economics (1942)) und verhalf Marx somit zu einer neuen Phase einer weniger ideologisch geprägten Rezeption. Sie wandte sich dann der langfristigen Theorie zu und veröffentlichte 1956 „The Accumulation of Capital“ (London/New York), in der sie eine komplizierte Abfolge von Gleichgewichtssituationen konstruierte (Golden Age etc.). Sie war eine scharfe Kritikerin der „neoklassischen Synthese“ und war später zentral an der Cambridge-Kapitalkontroverse beteiligt. Ebenfalls in Cambridge lehrte und forschte Nicholas Kaldor (1908–1986). Er war zunächst Student an der LSE bei Friedrich von Hayek, wurde nach der Veröffentlichung der Allgemeinen Theorie jedoch bald einer der ersten Konvertiten. Er wurde 1950 fellow am King’s College in Cambridge und wurde zuerst bekannt durch seine Arbeiten zur Verteilungstheorie. Dabei entwickelte er seine Kreislauftheorie der Verteilung, die er – sehr unkeynesianisch – für eine Situation der Vollbeschäftigung formulierte. Zur Begründung führte er an (S. 94), Keynes’ Anwendung des Multiplikators auf die Beschäftigung gelte für die kurze Frist, die Anwendung auf das Preisniveau und die Verteilung gelte langfristig. Post-Keynesianer im engeren Sinne war er nicht. Ähnliches gilt für Piero Sraffa (1898–1983), den Keynes nach Cambridge geholt hatte. Er ist vor allem der Begründer der Neoricardianischen Schule und wurde für seine Theorie der Produktionspreise bekannt. Er war maßgeblich an der Cambridge-Kapitalkontroverse beteiligt. Näheres zu diesen Autoren (und zu Goodwin) ist bei Pasinetti (2007) im 2. Teil (S. 59–248) nachzulesen. Ab 1945: Keynesianische Theorie in den Vereinigten Staaten Nach dem Zweiten Weltkrieg wurde die keynesianische Theorie zur herrschenden makroökonomischen Theorie, allerdings nur bis zur Stagflation der 1970er Jahre, wo sie dann von der „Monetaristischen Gegenrevolution“ in die Defensive gedrängt wurde. Zu ihren bedeutendsten Vertretern zählen Alvin Hansen, Paul Samuelson, James Tobin und Robert Solow. Zur Ausbreitung des Keynesianismus in den USA siehe im Einzelnen Colander/ Landreth 1996. Alvin Hansen (1887–1975) wurde 1937 an die Harvard University als Professor für politische Ökonomie berufen und lehrte dort bis 1957. Er trug erheblich zur Ausbreitung der Theorie von Keynes in den USA bei, vor allem durch seinen „Guide to Keynes“ (New York, 1953). Paul A. Samuelson (1915–2009) gehört zu den einflussreichsten Ökonomen des 20. Jahrhunderts. Sein Lehrbuch Economics: An Introductory Analysis (1. Aufl. 1948, 19. Aufl. 2009) ist das meistverkaufte ökonomische Lehrbuch überhaupt. Auf Samuelson geht auch die Wortschöpfung neoklassische Synthese zurück (s. dort, 6. Aufl., 1964, S. 590). Er meinte damit allerdings etwas anderes: Wie Keynes war er der Ansicht, dass nach Erreichen der Vollbeschäftigung durch keynesianische Wirtschaftspolitik wieder die alten (Neo-)klassischen Gesetze gelten würden, weil dann nicht mehr gesamtwirtschaftliche Nachfrage die Produktion begrenzt, sondern – wie in der Klassik – die vorhandenen Ressourcen an Arbeit und Sachkapital. Dabei hätte er inhaltlich Keynes zitieren können, der in seiner „Allgemeinen Theorie“ geschrieben hatte (S. 378, in der deutschen Übersetzung, 11. Aufl., Berlin, 2009, S. 319): Samuelson studierte zunächst an der Universität Chicago, bevor er an die Harvard University wechselte, um bei Alvin Hansen zu studieren. Nachdem ihm dort keine Stelle angeboten wurde, wechselte er an das Massachusetts Institute of Technology in Cambridge, das bislang in den Wirtschaftswissenschaften kaum auffällig geworden war. 1947 analysierte er als Erster das Zusammenwirken von Multiplikator und Akzelerator, aus dem sich Konjunkturverläufe mit abnehmenden oder zunehmenden Amplituden ergeben können. Das diente dann Hicks als Grundlage für seine Contribution to the Theory of the Trade Cycle (Oxford 1950). Der Schwerpunkt seiner Forschung lag in der mathematischen Darstellung ökonomischer Theorien; empirische Forschung interessierte ihn weniger. Zu seinen bekanntesten Beiträgen zählen die komparative Statik und die Theorie der offenbarten Präferenzen. Als erster amerikanischer Ökonom erhielt er 1970 den Nobelpreis. James Tobin (1918–2002) studierte und promovierte an der Harvard University. 1950 wechselte er an die Yale-Universität, wo er bis zu seinem Tode blieb. 1981 erhielt er den Nobelpreis für seine Arbeiten auf dem Gebiet der Portfoliotheorie. Tobin war 1961/62 Mitglied von Kennedys „Council of Economic Advisors“. Tobin attackierte die monetaristische Gegenrevolution und bekannte sich als „Old Keynesian“, nachdem die „New Keynesians“ Economics ab 1991 (siehe unten Abschnitt 3.10) zwar das Keynes’sche Instrumentarium verwendete, aber seine theoretische Grundlage neoklassisch uminterpretierten. Robert Solow (1924) wurde zunächst durch seine neoklassische Wachstumstheorie (Solow, 1956) bekannt, mit der er die in Harrods dynamischer Theorie vorhandene kurzfristige und langfristige Instabilität („Wachstum auf des Messers Schneide“) widerlegen wollte. Die kurzfristige (konjunkturelle) Instabilität schloss er durch die neoklassische Annahme aus, die gesamtwirtschaftliche Ersparnis bestimme das Investitionsvolumen. Die langfristige Stabilität wurde durch die Entwicklung seiner Produktionsfunktion mit substituierbaren Produktionsfaktoren erreicht. Für seine Beiträge zur Wachstumstheorie erhielt Solow 1987 den Nobelpreis. Mit Samuelson entwarf er die modifizierte fallende Philippskurve (negativer Zusammenhang zwischen Arbeitslosenquote und Inflationsrate). Damit näherte er sich keynesianischen Positionen an; er setzt sich heute vehement für eine Wirtschaftspolitik ein, die auch die Nachfrageseite berücksichtigt (s. z. B. seinen Beitrag zu Schettkat/ Langkan (2007) mit dem Titel: Die Beschränktheit der makroökonomischen Diskussion überwinden). Ab 1960: US-amerikanischer Post-Keynesianismus Als Gründervater des US-amerikanischen Postkeynesianismus gilt Sidney Weintraub. Weitere wichtige Vertreter sind Hyman P. Minsky und Paul Davidson. Keynesianismus in Deutschland Auch in Deutschland traf die Verbreitung der Theorie von Keynes auf erhebliche Hürden. Widerstand leisteten unter anderem die Ordoliberalen, auch als Freiburger Schule bezeichnet. Sie plädierten zwar für einen „starken Staat“, der den Wettbewerb mit Annäherung an das Ideal der vollständigen Konkurrenz zu sichern hatte, lehnten direkte staatliche Eingriffe in den Wirtschaftsprozess aber grundsätzlich ab. Das war wohl einerseits eine Reaktion auf die falsche deutsche Wirtschaftspolitik während der Weltwirtschaftskrise, andererseits aber auch auf die von Keynes inspirierten, kurzzeitig erfolgreichen, aber finanzpolitisch fragwürdigen „Konjunkturprogramme“ in den Anfangsjahren des NS-Staates. Vorreiter für die Verbreitung der Theorie von Keynes an den Universitäten war das Lehrbuch von Erich Schneider „Einführung in die Volkswirtschaftslehre“, insbesondere Teil III: Geld, Kredit, Volkseinkommen und Beschäftigung. (1. Aufl. Tübingen, 1952). Auch in Deutschland entging die Theorie von Keynes nicht der Vereinnahmung durch die neoklassische Synthese. Großen Einfluss hatte Keynes' Theorie auf das „Stabilitäts- und Wachstumsgesetz“ (StabG) von 1967, das ein halbes Jahr nach dem Start des Kabinett Kiesinger I vom Bundestag verabschiedet wurde. Wirtschaftsminister Karl Schiller (SPD) hatte das Gesetz sehr befürwortet. Das Nullwachstum des Jahres 1967 setzte sich 1968 nicht fort; ob oder in welchem Maße das StabG zur Belebung der Wirtschaft beitrug, ist nicht belegbar. Ein Marxist kritisierte, Keynes versuche den Kapitalismus zu stabilisieren, wodurch er jedoch (sofern er Erfolg habe) die eigentlich erwünschte Abschaffung des Kapitalismus verhindere. 1970er Jahre: Inflation und Anstieg der Arbeitslosenquote / Kritik des Monetarismus Zu den Kernelementen der Theorie von Keynes gehört die Abhängigkeit des Konsums vom aktuellen Einkommen. Kritiker bestreiten die von Keynesianern meistens angenommene eindeutige Beziehung zwischen den Konsumausgaben eines Haushaltes und seinem jeweiligen verfügbaren Einkommen. Die Haushalte bestimmten vielmehr die Höhe ihrer Konsumausgaben in Abhängigkeit von ihren langfristigen Einkommenserwartungen. Friedman habe mit den Untersuchungen in seinem Werk A Theory of the Consumption Function gezeigt, dass dieser von Keynes behauptete Zusammenhang statistisch nicht nachweisbar sei. Kurzfristige Einkommensänderungen würden meistens ignoriert (dies setzt allerdings voraus, dass die Haushalte ihren Konsum notfalls über Kredite finanzieren können und wollen). Daher könnten staatliche Maßnahmen zur Änderung der Nettoeinkommen nicht so viel an Konsumnachfrage stimulieren, wie von den Keynesianern angenommen. Noch vehementer ist die folgende Kritik am keynesianischen Politikansatz: Das Konzept eines Konjunkturanschubs durch kreditfinanzierte Staatsausgaben führe langfristig zu Inflation und bleibe auf Dauer ohne Wirkung auf die Beschäftigung. Diese Kritik geht implizit von einer Situation aus, in der es nur strukturbedingte Arbeitslosigkeit gibt, und argumentiert, dass eine darüber hinaus steigende Nachfrage zu höheren Preisen führt. Die Arbeitnehmer erkennen wegen adaptiver Erwartungen nur verzögert, dass ihre gestiegenen Nominallöhne vom Preisanstieg entwertet wurden. Sobald sie es aber merken, werden sie nicht länger mehr arbeiten – die Geldillusion halte also nicht unbegrenzt an. Die Volkswirtschaft findet sich gemäß dieser Argumentation in einem Gleichgewicht mit höherer Inflationsrate bei unverändertem realen Volkseinkommen wieder. Als Indiz für das Scheitern keynesianischer Wirtschaftspolitik werden die ansteigenden Arbeitslosenquoten der 1970er Jahre bei gleichzeitiger Zunahme der Inflationsraten angeführt. In diesem Jahrzehnt widerfuhren den Industriestaaten zwei exogene Schocks in Form von Ölkrisen. Dies führte zu importierter Inflation. Die Reaktion der Gewerkschaften bestand oft in einer expansiven Lohnpolitik und verursachte eine Lohn-Preis-Spirale. Diese von der Angebotsseite ausgelösten Fehlentwicklungen waren in der keynesianischen Theorie kaum behandelt, obwohl Keynesianer die Theorie der Anbieterinflation entwickelt hatten. Weder die ursprünglichen Überlegungen von Keynes noch die keynesianisch-neoklassische Synthese behaupteten, dass nachfrageseitige Maßnahmen der Wirtschaftspolitik langfristig zu besseren Ergebnissen führen können, wenn sie nicht zu höheren Investitionen und damit zu einem höheren Sachkapitalbestand führen. Die wirtschaftspolitischen Empfehlungen Keynes’ zielten vor allem auf die Überwindung akuter Krisen, insbesondere die Verhinderung eines sich aus psychologischen Gründen selbst verstärkenden Abschwungs bzw. die Verhinderung eines stabilen Depressionszustandes mit dem Ergebnis niedrigerer Investitionen. Weitere Kritik wird mit dem so genannten Verdrängungseffekt (Crowding-out) begründet, nach welchem staatliche Investitionen private Investitionen durch höhere Zinsen verdrängen, die effektiver wären. Im Extremfall des vollständigen Crowding-out steigt die Güternachfrage nicht an. Je stärker die Kapitalmärkte weltweit verflochten sind, desto weniger ist allerdings dieser Zinseffekt relevant. Auch gibt es Kritik in der Art, dass sich die Wirtschaftsteilnehmer auf die Hilfe des Staates einstellen und sich immer mehr zu „risikofreudig“ verhielten, dadurch die Gesamtwirtschaft immer stärker gefährdeten und so die Staatseingriffe immer stärker werden müssten (Moral Hazard). Die Diagnose der keynesianischen Theorie, dass die Volkswirtschaft nicht von alleine zu einem Gleichgewicht zurückfindet bei voll ausgelasteten Produktionsfaktoren, ist heute Teil der Mehrheitsmeinung in der modernen Wirtschaftswissenschaft. Die nachfrageseitige Krisenüberwindung sollte nach Meinung der meisten Wirtschaftswissenschaftler Teil des wirtschaftspolitischen Instrumentariums sein. Ab 1980: Neukeynesianismus In den 1980er Jahren entwickelte sich der Neukeynesianismus zur Abgrenzung von der „Neuen klassischen Makroökonomie“. Neukeynesianer arbeiten mit neoklassischen Modellen, bauen darin aber beschränkte Informationen, (Preis-)Rigiditäten und unvollständige Konkurrenz ein. Einige Vorreiter dieser Theorieschule, nämlich Joseph Stiglitz, George Akerlof und Michael Spence erhielten 2001 den Nobelpreis für ihre Arbeiten über asymmetrische Informationen. Dass der Neukeynesianismus tatsächlich noch als keynesianische Strömung aufzufassen ist, wird von Anhängern der Keynes’schen Theorie (Altkeynesianer) bezweifelt und von Postkeynesianern bestritten. Der Postkeynesianer Paul Davidson wirft den Neukeynesianern vor, dass sie die „General Theory“ als einen Klassiker behandeln, den jeder zitiert, aber niemand liest. Andernfalls könnten sie sich nicht als (Neu-)Keynesianer bezeichnen. Ende der 1980er: Circuit-Schule in Frankreich und Italien Ende der 1980er Jahre entwickelte sich besonders in Frankreich und Québec, aber auch in Italien die circuit-Schule, die sich hauptsächlich auf Problemstellungen der Geldwirtschaft konzentriert. Wichtige Vertreter sind Alain Parguez, Frédéric Poulon, Bernard Schmitt und Marc Lavoie. Literatur Primärliteratur Keynes’sche Revolution Neoklassische Synthese (Bastard-Keynesianismus) Ein gutes Beispiel für die Interpretation des Keynesianismus im Sinne der neoklassischen Synthese bietet das Lehrbuch „Makroökonomik und Neue Makroökonomik“ von Bernhard Felderer / Stefan Homburg (Berlin etc. (Springer)). Dort ist die „Keynes’sche Theorie“ nur mit einem Satz erwähnt (S. 99), aber nicht behandelt. Für den englischen Sprachraum sei auf Henry G. Johnson, Money, Trade and Economic Growth (London, Urwin, 1962), Teil II, hingewiesen. Diese Abschnitte veranlassten Joan Robinson, von „Bastard Keynesianismus“ zu sprechen (siehe Einzelnachweis 1). Keynesianismus in den USA Cambridge School of Post-Keynesians Keynesianismus in Deutschland New Keynesian Economics Sekundärliteratur Zur Entstehung Zur Rezeption a) Kritiker b) Sympathisierende Darstellungen Website der Keynes-Gesellschaft Zur Weiterentwicklung des Keynesianismus Mit Schwerpunkt Postkeynesianische Ökonomie Weblinks Keynes-Gesellschaft Dieter Suhr: Keynesianismus Einzelnachweise Volkswirtschaftslehre Staatsphilosophie
Q83937
184.703536
64758
https://de.wikipedia.org/wiki/Jeju-do
Jeju-do
Jeju-do ist eine Provinz in Südkorea um die subtropische Vulkaninsel Jejudo südlich der Koreanischen Halbinsel. Jejudo ist die größte südkoreanische Insel. Ihr Gebiet wurde 1946 verwaltungstechnisch von der Provinz Jeollanam-do abgetrennt und bildet seitdem zusammen mit einigen weiteren Inseln wie Udo und den Chuja-Inseln die kleinste Provinz (seit 1. Juli 2006 Sonderautonomieprovinz) Südkoreas. Namen Die Insel war früher auch unter dem Namen Quelpart bekannt. Auf koreanisch heißt do sowohl Insel als auch Provinz, nur die Hanja unterscheiden sich. In der romanisierten Form wird die Provinz, die wie gesagt auch noch weitere Inseln umfasst, mit einem Bindestrich geschrieben, die Insel selbst jedoch nicht. *seit 1. Juli 2006 Geschichte Bis ins 12. Jahrhundert herrschte das Tamna Königreich (Japanisch: Tanimora) über Jeju-do. Es wird angenommen, dass bis ins Jahr 700 Alt-Japanisch auf Jeju gesprochen wurde, was nach und nach von koreanischen Einwanderern aus Silla und Baekje verdrängt wurde. Noch heute gibt es manche Lehnwörter aus dem Japanischen. Jeju-do kam erst 938 unter die Herrschaft eines koreanischen Reiches. Während der Goryo- (935–1392) und der Joseon-Dynastie (1392–1910) diente die Insel oft als politisches Exil. Der holländische Seefahrer Hendrik Hamel (1630–1692) war 1666 der erste bekannte Europäer, der über Korea berichtete. Er strandete 1653 auf einer Fahrt von Japan zu einer holländischen Kolonie in Indonesien mit 35 Gefährten, die den Schiffbruch überlebten, auf Jeju-do und nannte die Insel Quelpart. Sie wurden dank der von den Mandschu erzwungenen Abschottungspolitik und ihrer Herkunft vom „Erzfeind“ Japan auf dem koreanischen Festland gefangengehalten. Ein anderer Holländer (Jan Weltevree), der damals bereits 26 Jahre dort gefangengehalten worden war, übersetzte zunächst. Hamel konnte erst 13 Jahre später mit sieben anderen Seeleuten nach Japan fliehen. Seine Erlebnisse schilderte er in einer in ganz Europa gelesenen Reiseschilderung. Erste Karten dieser Meeresregion weisen den Mt. Halla auch als Mt. Auckland aus. Kurz nach dem Zweiten Weltkrieg und vor Einsetzung einer rechtsgerichteten Lokalregierung durch die US-amerikanische Militärregierung in Seoul, kam es auf Jeju am 3. April 1948 zu einem Aufstand. Polizei und Armee schlugen – unter den Augen der USAMGIK – mit großer Brutalität zurück. Nach offiziellen koreanischen Angaben wurden bei dem genozidähnlichen Jeju-Massaker zwischen April 1948 und August 1949 270 von insgesamt 400 Dörfern auf der Insel ausgelöscht und mehr als 27.000 Personen getötet. Andere Schätzungen schwanken zwischen 30.000 und 60.000 Menschen oder mehr – bei einer Gesamtbevölkerung von etwa 300.000 Menschen. Während der Fußball-Weltmeisterschaft 2002 war die deutsche Mannschaft in Seogwipo untergebracht, in dessen Stadion drei Spiele stattfanden. Seit einigen Jahren ist eine große Kontroverse um den laufenden Bau der weitläufigen Marinebasis Gangjeong auf einem Teil der Insel entbrannt. Trotz massiven Widerstandes der lokalen Bevölkerung, die eine starke Zerstörung der einmaligen Natur der Insel befürchtet, wird der Bau weitergetrieben. Geographie Die Insel selbst liegt in der Koreastraße, südwestlich von Jeollanam-do. Die Provinz umfasst auch 26 kleine Inseln, die in der Nähe der Hauptinsel liegen. Die Hauptstadt der Provinz ist Jeju-si im Norden der Insel. Die Insel besteht aus vulkanischen Materialien, welche vom Berg Hallasan, mit 1950 Meter der höchste Berg in Südkorea, stammen. Dieser ruhende Vulkan liegt in der Mitte der Insel und hat einen Kratersee. Der Berg und die Umgebung ist ein Nationalpark. Hunderte von vulkanisch geformten Hügeln mit vielen Lavatunneln geben der Landschaft eine eigene Atmosphäre. Jeju-do hat auch den einzigen Wasserfall in Asien, der direkt ins Meer fällt. Administrative Aufteilung Die die ganze Insel umfassende Sonderautonomieprovinz Jeju-do ist in zwei Städte unterteilt: Jeju-si (, ; nimmt die Nordhälfte der Insel ein) Seogwipo-si (, ; nimmt die Südhälfte der Insel ein) Bis zum 30. Juni 2006 gab es außerdem die Landkreise Bukjeju-gun (, ; jetzt zur Stadt Jeju; bestand aus zwei westlich und östlich davon gelegenen Gebieten in der Nordhälfte der Insel) Namjeju-gun (, ; jetzt zur Stadt Seogwipo; bestand aus zwei westlich und östlich davon gelegenen Gebieten in der Südhälfte der Insel) Infrastruktur Schifffahrt Obwohl die Insel strategisch günstig liegt, waren die Häfen bislang nicht ausgebaut. Dies lag an den flachen Stränden mit Unterwassersteinen, welche für die Schifffahrt gefährlich sind. Der wichtigste Hafen der Insel liegt in der Stadt Jeju-si im Norden. Seit 2011 ist jedoch die Marinebasis Gangjeong in Bau. Stromversorgung Seit 1996 existiert zur Insel Jeju eine Seekabelverbindung vom südkoreanischen Festland her, die HGÜ Haenam–Cheju. Wirtschaft und Tourismus Das subtropische Klima macht Jeju auch für die koreanische Landwirtschaft bedeutsam. Besonders Mandarinen, Pilze und Tee werden exportiert. Der Tourismus entwickelt sich seit den 1970er Jahren und wird zunehmend zur Haupteinnahmequelle. Die subtropische Insel zieht viele nationale Touristen an und ist besonders beliebt als Ziel für Hochzeitsreisen (siehe auch Love Land). Besucher der südkoreanischen Ferieninsel werden am Meer gelegentlich von einem Pfeifton überrascht, der dem Pfeifen einer Lokomotive in der Ferne ähnlich tönt. Es handelt sich dabei um den sogenannten Sumbisori, den die Haenyeo ausstoßen, wenn sie aus dem Meer auftauchen und die vor dem Abtauchen eingeatmete Luft auspusten. Haenyeo („Meerfrauen“) werden die fast sechstausend Inselbewohnerinnen genannt, die heute noch auf Jeju dem traditionellen Gewerbe des Tauchens nach Meeresfrüchten nachgehen. Sie holen Algen, Schnecken, Muscheln und andere Schalentiere sowie Seeigel und Seegurken vom Meeresboden. Dazu tauchen sie ohne Atemgerät, nur mit einem Neoprenanzug, Tauchmaske und Flossen, bis zu 20 Meter tief. Als ein für die Insel wichtiges Kulturerbe gelten die Steinmauern von Jeju-do, die sich als Batdam () einem Spinnennetz gleich über 22.100 km über die gesamte Insel erstrecken, als Wondam () bezeichnet an flacheren Stellen der Küste im Meer zum Fischfang errichtet wurde und als Sandam () Gräber der Verstorbenen einfrieden und schützen. Religionen Die traditionellen Schamanen-Religionen haben sich bis heute auf der Insel erhalten. Immer noch sollen hier rund 18.000 verschiedene Gottheiten angebetet werden. Schwesterprovinzen Jeju hat vier Schwestergebietskörperschaften, die alle ebenfalls Inseln sind: Hainan, Volksrepublik China Hawaii, USA Sachalin, Russland Bali, Indonesien. Wahrzeichen Die Blume der Provinz ist der Rhododendron Rhododendron weyrichii (Chamkkot). Der Baum der Provinz ist der Kampferbaum Cinnamomum camphora siebold (Noknamu). Der Vogel der Provinz ist der Weißrückenspecht Dendrocopos leucotos quelpartensis. Wahrnehmung in Korea Die Koreaner sind stolz auf die Insel Jeju, betrachten sie doch die Insel als ein Juwel. Die Insel gilt den Koreanern als geheimnisumwitterte, mythische Insel. Bis vor etwa 100 Jahren war das 85 Kilometer südlich des koreanischen Festlands gelegene Eiland weitgehend von der Außenwelt abgeschnitten. Den wichtigsten Kontakt nach außen stellten Verbannte dar, die vor allem aus politischen Gründen nach Jeju abgeschoben worden waren. Einzelnachweise Literatur Siegfried Genthe: Korea. Reiseschilderungen. 1905, Neuauflage 2005 Gari Ledyrad: The Dutch Come To Korea. Royal Asiatic Society, Korea Branch, Seoul 1971 Edward Belcher: Narrative of the H.M.S. Samarang. During the years 1843–46. Benham and Reeve, London 1848 C. Chaille-Long: From Corea to Quelpart Island. In the footprints of Kublai-Khan. Bulettin (Journal) of the American Geographical Society. 22, 2 (1890) S. 218–266 William Franklin Sands: Undiplomatic Memories. 1930 Weblinks Webseite der Provinz (englisch) Jeju-do auf der Webseite der Korea Tourism Organization Jeju Island: Attractions auf Visit Seoul (englisch) Zu den Unruhen nach dem Zweiten Weltkrieg Jeju 4·3 Research Institute (koreanisch) Südkoreanische Provinz Autonome Verwaltungseinheit
Q41164
113.660833
1022736
https://de.wikipedia.org/wiki/Arafurasee
Arafurasee
Die Arafurasee ist ein tropisches Meer, das zwischen dem australischen Kontinent und der Insel Neuguinea liegt. Geographie Sie ist ein Nebenmeer des Pazifischen Ozeans, wird aber wegen ihrer Lage gelegentlich auch als Teil des Indischen Ozeans betrachtet und umfasst eine Fläche von etwa 650.000 km². Die Arafurasee bildet einen Teil des Australasiatischen Mittelmeeres. Sie grenzt im Westen an die Timorsee und im Osten über die Torres-Straße an die Korallensee. Die nördliche Abgrenzung bilden im Westteil die zu den indonesischen Molukken gehörenden Tanimbar- und Aru-Inseln, die die Arafurasee von der Bandasee und von der Seramsee trennen. Weiter östlich stellen die Südküsten der indonesischen Provinz Papua und Papua-Neuguineas den Rand des Meeres dar. Die südlichen Küsten der Arafurasee gehören zum australischen Bundesstaat Queensland und zum Northern Territory. Sie werden durch die beiden großen Halbinseln Kap York und Arnhemland markant gegliedert. Der tief in den australischen Kontinent eingeschnittene Bereich zwischen den beiden Halbinseln heißt Golf von Carpentaria. Das Meer liegt zum größten Teil auf dem Arafura-Sockel und hat eine durchschnittliche Tiefe von 150 m. Die verhältnismäßig geringe Tiefe erklärt sich daraus, dass die Arafura-See in der letzten Eiszeit zusammen mit Neuguinea und Australien den Kontinent Sahul bildete. Über die damalige Landmasse konnten die Ureinwohner Australiens von Asien einwandern. Die tiefste Stelle bildet mit 3.680 m das Arutief. Die Wasseroberfläche ist das ganze Jahr über sehr warm. Nutzung Die Arafurasee ist ein bedeutendes Fischfanggebiet für die angrenzenden Regionen, mittlerweile jedoch durch Überfischung und Schadstoffeintrag stark gefährdet. Gefangen werden hauptsächlich Thunfisch, Makrele, verschiedene Sardinenarten und Garnelen, die auch exportiert werden. Unter dem Schelf werden reiche Vorkommen von Erdöl und Erdgas vermutet. Zum Schutz der Gewässer und der darin lebenden Organismen hat sich 2003 ein Zusammenschluss staatlicher und nichtstaatlicher Organisationen unter dem Namen The Arafura and Timor Seas Experts Forum (ATSEF) gebildet, der die Forschung und Zusammenarbeit zwischen den Staaten Australien, Indonesien, Papua-Neuguinea und Osttimor koordiniert. Nach der Arafurasee sind die Arafura Games benannt. Weblinks IHO-Karte mit den Grenzen der Arafurasee IHO-Beschreibung der Grenzen der Arafurasee: 48. East Indian Archipelago (Indonesia), (h) Arafura Sea (PDF; 994 kB) Einzelnachweise Meer (Australasiatisches Mittelmeer) Gewässer in Australien Gewässer in Indonesien Grenze zwischen Australien und Indonesien
Q128880
221.405442
165292
https://de.wikipedia.org/wiki/Profit
Profit
Profit (Aussprache: []) ist im deutschsprachigen Raum ein politisches Schlagwort, mit dem – meist abwertend – der Gewinn als Überschuss des Ertrags über den Aufwand bezeichnet wird. Etymologie Seinen Ursprung hat das Wort in der Bedeutung „vorwärtskommen, gewinnen, bewirken“ (), was sich aus („für, voran, voraus“) und („tun, machen“) zusammensetzt, wobei für „Fortgang, Zunahme, Vorteil“ steht. In der deutschen Sprache ist das Wort überwiegend negativ konnotiert („Profitgier“ für „überzogenes Gewinnstreben“, „Profiteur“ für „Nutznießer aus einer Situation“). Eher neutral sind Worte wie „profitabel“ („gewinnbringend“) und „Profitabilität“ („Rentabilität“). Bei Anglizismen wie Profitcenter oder Non-Profit-Organisation ist das Wort nicht negativ konnotiert. Im Deutschen wird der Begriff vor allem in der Umgangssprache benutzt, in anderen Sprachen auch als Fachbegriff der Wirtschaftswissenschaft. Im englischsprachigen Raum dagegen steht ausschließlich neutral für den Gewinn; so heißt die Gewinn- und Verlustrechnung dort . Seine heutige negative Konnotation im deutschsprachigen Raum ist auf die Kapitalismuskritik von Karl Marx zurückzuführen, der den Profit des Unternehmers als das Ergebnis der Ausbeutung der Arbeiter ansah. Begriffsgeschichte Im englischsprachigen Raum gibt es nach dem Webster’s Dictionary den aus dem französischen stammenden Begriff, der auf die lateinischen Wörtern profectus und proficere zurückgehe, seit dem 14. Jahrhundert. Erich Fromm wies 1976 darauf hin, dass "Profit … in der Bibel und auch noch bei Spinoza, 'Gewinn für die Seele' bedeutete". Das Grammatisch-kritische Wörterbuch der Hochdeutschen Mundart von 1798 führte den Begriff Profit dagegen auf den lateinischen Begriff Proficuum zurück, und definiert Profit als „der Gewinn, besonders der zufällige Gewinn. Profit bey einer Sache haben, Gewinn. Dabey ist kein Profit, kein Nutzen, kein Gewinn. Das Profitchen, ein kleiner Gewinn, im gemeinen Leben, wo man auch das Zeitwort profitiren hat, Gewinn bey einer Sache haben, und in weiterer Bedeutung, Nutzen von etwas haben.“ Das Pierer's Universal-Lexikon von 1861 definiert Profit als „Gewinn, Vortheil …“ Ähnlich das Große Meyers Konversations-Lexikon von 1908: „Vorteil, Gewinn; profitieren, Vorteil ziehen; profitabel, vorteilhaft“; wie auch das Kleine Konversations-Lexikon von Brockhaus 1911: „Gewinn, Vorteil; profitieren, Nutzen haben; profitābel, gewinnbringend.“ Die Etymologie geht heute davon aus, dass das Fremdwort auf „vorwärts kommen, gewinnen, bewirken“ () beruht. Der Begriff wurde in der Politischen Ökonomie verwendet und findet sich schon bei James Steuart oder Adam Smith. Der englische und französische Begriff profit entspricht dem deutschen Gewinn. Über denglische Wortbildungen hat er auch Eingang in Schlagworte wie „Profitcenter“ oder „Non-Profit-Organisation“ gefunden. Ebenso wurde er in Buchtiteln wie „Profit für alle“ (Norbert Bolz) mit neutraler Konnotation ins Deutsche importiert. Laut Duden wird in der deutschen Sprache der Ausdruck oft abwertend verwendet. Im Sprachgebrauch der Deutschen Demokratischen Republik wurde ab den 1960er Jahren das Wort „Profit“ dem Wort „Gewinn“ gegenübergestellt. Profit wurde dabei mit der Konnotation „geldgierig“, „kapitalistisch“ verwendet – eine derartige Unterscheidung zwischen Profit und Gewinn findet sich hingegen bei Marx nicht. Ebenso wird der Begriff in der Kapitalismuskritik in Form einer maßlos überhöhten Bedeutung bzw. als Motiv für Ausbeutung und Raubbau mit negativem Wertakzent belegt. Frühe politische Ökonomie (1662–1776) Die Physiokraten kannten Mehrwert nur als Mehrprodukt in Naturalform, nämlich als die Lebensmittel, die der Landarbeiter über das zu seiner eigenen Existenzsicherung erforderliche Maß hinaus produziert. Die Physiokraten gingen also von der Annahme aus, dass Arbeit in der Landwirtschaft die Basis des nationalen Reichtums bildet, und andere Gewerbe den landwirtschaftlichen Reichtum nur umformen und in ihrem Umfang abhängig davon sind. Der Profit des Kapitalisten war für die Physiokraten lediglich eine Art Unternehmerlohn, im Grunde eine Abzweigung aus dem in der Landwirtschaft hergestellten Überschuss. Für Ronald L. Meek war die Entwicklung einer Profittheorie wie sie bei den Klassikern Smith und Ricardo zu finden ist, mit einigen Problemen verbunden, die mit der noch keimhaften Entwicklung des entstehenden Kapitalismus verbunden waren. Die ersten Theoretiker hätten Probleme gehabt den Kapitalprofit als eine eigenständige Einkommensquelle von der Rente, dem Zins und dem Lohn zu unterscheiden, sofern sie den Profit nicht einfach als „Veräußerungsprofit“ fassten, der durch billigen Kauf und teuren Verkauf zustande kam. Veräußerungsprofit James Steuart würde beispielsweise in seiner politischen Ökonomie dazu tendieren, den Begriff Profit als bloßes Synonym für Gewinn zu begreifen. Der Preis eines Gutes setzt sich für ihn aus dem „wirklichen Wert“ und dem „Veräußerungsprofit“ zusammen. Der wirkliche Wert bzw. Herstellungspreis wäre bestimmt durch die Arbeit die für die Ware aufgewendet werden muss, den Wert zur Erhaltung der Arbeitskraft und den Materialwert. Die Differenz zwischen Herstellungspreis und Verkaufspreis wäre der Veräußerungsprofit. Durch die Konkurrenz werde der Profit auf ein „vernünftiges“ oder „geeignetes“ Maß reduziert. Bei einem ausgewogenen Verhältnis zwischen Angebot und Nachfrage eines Gutes „findet man die Preise in einem adäquaten Verhältnis zu den wirklichen Ausgaben, die zur Herstellung erforderlich waren, einschließlich eines kleinen Zuwachses an Profit für den Hersteller und Händler.“ Vermengung des Profits mit den Einkommensquellen Rente, Zins und Lohn Im wirklichen Produktionsprozess des Frühkapitalismus waren die Einkommensquellen oft noch kombiniert und nicht in reiner Form vorzufinden, der Grundbesitzer war auch Unternehmer; der zum Unternehmer werdende Handwerksmeister leitete weiter den Produktionsprozess usw. Mit der Pacht entstand die Differenzierung zwischen der Klasse der Grundbesitzer und der Pächter. Während der Grundbesitzer (Landlord) für das Zur-Verfügung-Stellen seines Landes eine Rente kassierte, betrachtete der unternehmerische Pächter sein Reineinkommen als Profit, den er auf sein vorgeschossenes Kapital für Löhne, Saatgut, Vieh, Werkzeuge und andere Hilfsmittel bezog. Die Unterscheidung zwischen Profit und Zins wurde erst mit dem Aufkommen einer Klasse von Händlern schlagend, durch die die qualitative Differenz zwischen aktiver und passiver Anlage des Geldkapitals immer deutlicher wurde. Unternehmer die sich aus dem Kreis der unmittelbaren Produzenten heraushoben, hatten ihren Profit dagegen oftmals als einen höheren Lohn für ihre größeren Anstrengungen oder ihre größere Verantwortung begriffen, die sie in gehobener Position leisteten. Selbst wenn sie sich letztlich vom unmittelbaren Produktionsprozess zurückzogen und nur noch Aufsichtpositionen übernahmen, so begriffen sie weiterhin ihren Profit als einen „Lohn für die Oberaufsicht“. Übergang zur klassischen politischen Ökonomie Erst ab einer gewissen historischen Entwicklung des Kapitalismus bildeten sich neue, eigenständige und klar voneinander unterscheidbare gesellschaftliche Gruppen im Produktionsprozess heraus, die von ebenso klar unterscheidbaren Einkommensformen mit eigenen Gesetzmäßigkeiten lebten, und von Adam Smith für Meek mit großer historischer Voraussicht in das System der politischen Ökonomie eingearbeitet wurden: „Es war das Aufkommen des Kapitalprofits als einer neuen Kategorie des Klasseneinkommens gewesen, klar unterschieden von anderen Formen des Einkommens, das den Weg zur endgültigen Entwicklung der klassischen politischen Ökonomie freigemacht hat. … Der Profit konnte nicht länger unter der Rubrik Rente abgehandelt werden, wozu Petty tendiert hatte; er konnte nicht mehr mit dem Lohn in eins gesetzt werden, wie bei Cantillon und Hutcheson; und seine Entstehung konnte nicht länger in der Zirkulationssphäre gesucht werden, wo Steuart sie zu finden behauptet hatte. Das Verhältnis zwischen Kapital und Lohnarbeit wurde das beherrschende sozio-ökonomische Verhältnis in der westlichen Gesellschaft, und diese Tatsache implizierte eine vollständige Revision einiger fundamentaler ökonomischer Begriffe und die Forderung nach einer neuen sozialen Grundstruktur.“ Klassische politische Ökonomie Adam Smith Adam Smith unterschied erstmals wirkmächtig die Einkommensquellen Kapitalprofit, Lohnarbeit und Grundrente qualitativ voneinander. Der Kapitalprofit war für ihn ein Einkommen, wie Meek schreibt, „das allein an den Gebrauch von Kapital zur Beschäftigung von Lohnarbeit gebunden war“; die Kapitalbesitzer waren für Smith die führende ökonomische Klasse und die Triebfeder des Wirtschaftens. Für ihn stellt der Profit das Einkommen einer bestimmten Klasse dar. Der Wohlstand der Nationen wäre durch das jährliche Produkt bestimmt, welches Boden und Arbeit einer Nation hervorbringen. Der Wert dieses jährlichen gesellschaftlichen Produkts lässt sich zurückführen auf die geleistete Arbeit, spaltet sich jedoch in die den gesellschaftlichen Gruppen entsprechenden Einkommens-Formen: Grundrente, Arbeitslohn und Kapitalprofit. Den Einkommensquellen entsprechen die drei großen gesellschaftlichen Gruppen oder Klassen, die eine zivilisierte Gesellschaft konstituieren: Grundbesitzer (Landlords), Lohnarbeiter und Unternehmer – zu letzteren gehören auch die Pächter von Land (Landwirte). Der Wert, den der Arbeiter produziert, teilt sich in zwei Teile: Den Lohn, den er für seine Arbeit bekommt, und den Profit, den der Unternehmer bekommt, der Material, Maschinen usw. zur Verfügung stellt. Obwohl der Kapitalbesitzer fast frei von jeglicher Arbeit ist oder sein kann, erwartet er trotzdem einen Profit entsprechend der eingesetzten Kapitalgröße proportioniert. Der Kapitalprofit ist nach Smith daher von gänzlich anderen Prinzipien reguliert als der Arbeitslohn. Das Kapital wird in Erwartung und zum Zwecke des Profits eingesetzt und im Zuge dessen einen Großteil der nützlichen Arbeit einer Gesellschaft in Kraft gesetzt. Die Profitmaximierung und damit verbundene Kapitalakkumulation stellt für Smith ein wesentliches Element des Wohlstands der Nationen dar. Entgegen der Grundrente und den Löhnen würde die Profitrate mit der Entwicklung des Wohlstands nicht steigen, sondern fallen. David Ricardo Auch für David Ricardo wird das gesellschaftliche Produkt, welches durch gemeinschaftliche Anwendung von Arbeit, Maschinerie und Kapital entsteht, zwischen den drei gesellschaftlichen Klassen – den Landherren, den Kapitalisten und den Arbeitern – in Form von Rente, Profit und Lohn aufgeteilt. Kritik Adam Smith wie David Ricardo werden von Marx mangelnde theoretische Stringenz bei der Erfassung der unterschiedlichen Wertformen vorgeworfen. Denn sie verwechseln besondere Formen wie Profit oder Rente mit der Form des Mehrwerts, welcher nach Marx auf einer höheren Abstraktionsebene der theoretischen Betrachtung liegt. Ricardo betrachtet laut Marx nirgendwo den Mehrwert gesondert und begrifflich getrennt von seinen besonderen Formen Profit (Zins) und Rente. Marxistische Theorie Karl Marx arbeitete seine Arbeitswerttheorie sowie seinen besonderen Profitbegriff in Auseinandersetzung mit der klassischen Nationalökonomie aus, wie insbesondere in seinen Theorien über den Mehrwert deutlich dargestellt ist. Für Karl Marx war der Begriff des Profits ein Zentralbegriff seiner Theorien. Danach ist der Profit Resultat der Aneignung eines Teils des gesamtgesellschaftlichen, in Geld verwandelten Mehrwerts durch die Unternehmer. Für ihn ist er der Überschuss über die Herstellkosten, während die Profitrate das Verhältnis zwischen beiden Größen darstellt. Quelle für Profit ist die Arbeit der Unternehmen, weil der Gebrauchswert der Arbeitskraft ein Wertprodukt schafft, das den mit dem Lohn diktierten Wert der Arbeitskraft übersteigt. Der Kapitalismus weist für Marx eine tendenziell sinkende Profitrate aus. Das „eigentliche Produkt des Kapitals“, Ziel und Ergebnis des kapitalistischen Produktionsprozesses, sei der Profit. Für Marx ist er „die kapitalistische Produktionsweise spezifisch charakterisierende Form des Mehrwerts“. „Ohne Erkenntnis des Mehrwerts“ wäre daher „keine Theorie des Profits möglich“. Der Kapitalist, der den Mehrwert aus unbezahlter Arbeit exploitiert, sei „zwar der erste Aneigner, aber keineswegs der letzte Eigentümer dieses Mehrwerts. Er hat ihn hinterher zu teilen mit Kapitalisten, die andere Funktionen im Großen und Ganzen der gesellschaftlichen Produktion vollziehen, mit dem Grundeigentümer usw. Der Mehrwert spaltet sich daher in verschiedene Teile. Seine Bruchstücke fallen verschiedenen Kategorien von Personen zu und erhalten verschiedene, gegeneinander selbständige Formen, wie Profit, Zins, Handelsgewinn, Grundrente usw“. Marxens Theorie von Profit und Mehrwert findet sein grenznutzentheoretisches Gegenstück bei Eugen Böhm von Bawerk in dessen „Theorie des Kapitalzinses“. Unternehmerprofit bei Schumpeter Joseph A. Schumpeters Vision des Kapitalismus ist dynamisch und krisenhaft. Das traditionelle Bild des Preiswettbewerbs hält er für unrealistisch. Typisch hingegen für die Entwicklung des Kapitalismus ist die „schöpferische Zerstörung“ durch Einführung von Innovationen in den Wirtschaftsprozess. Dabei ist zu unterscheiden zwischen der Rolle und Funktion des Kapitalisten einerseits und des Unternehmers andererseits. Der Unternehmer führt die Innovationen ein, wofür er im Begriffsgebrauch von Schumpeter einen „Unternehmerprofit“ einstreicht. „Ein Kapitalist verfügt über eine Summe von ökonomischen Werten (Kapital), die er planmäßig dazu einsetzt, um eine größere Summe als zuvor eingesetzt zurückzuerhalten. Für den entsprechenden Investitionsprozess trägt er selbst das wirtschaftliche Risiko. Ein „Unternehmer“ hingegen ist die Funktion, neuartige Kombinationen von Produktionsfaktoren in den Wirtschaftsprozess einzuführen.“ Siehe auch Profitrate Lohn, Preis und Profit Literatur Karl Marx: Das Kapital. Band 3, online S. 33–79, MEW 25, Dietz Verlag, Berlin 1983 [1894]. David Ricardo: On the Principles of Political Economy and Taxation. London 1821. Adam Smith: Der Wohlstand der Nationen. London 1776. K. P. Hensel, U. Wagner, K. Wessely: Das Profitprinzip. Seine ordnungspolitischen Alternativen in unterschiedlichen Wirtschaftssystemen. Stuttgart 1971. Konrad Fritze, Eckhard Müller-Mertens, Johannes Schildhauer: Zins, Profit, ursprüngliche Akkumulation. Böhlau, Weimar 1981. Heinz-Peter Spahn: Marx – Schumpeter – Keynes: Drei Fragmente über Geld, Zins und Profit. Jahrbücher für Nationalökonomie und Statistik, Band 199, 1984. S. 237–253. Bala Chakravarthy, Peter Lorange: Profit oder Wachstum?: Beides ist möglich! Pearson Education, 2008. ISBN 3827373433, ISBN 9783827373434. James P. Andrew, Harold L. Sirkin: Wenn Innovationen Profit bringen sollen., In: Harvard Business Manager, September 2004, S. 66–75. Eric Toussaint: Profit oder Leben. Neoliberale Offensive und internationale Schuldenkrise. ISP, Köln 2000, ISBN 3929008475, ISBN 9783929008470. Viviane Forrester: Die Diktatur des Profits. aus dem Französischen von Tobias Scheffel, Hanser, München 2001 ISBN 3-446-19998-5. Erich Fromm: Haben oder Sein Seite 16, DTV 1976 Stuttgart, übersetzt von Brigitte Stein, orig. To Have or to Be, 1976 Harpers&Row, NY. S. Weblinks Einzelnachweise Betriebswirtschaftslehre Kapitalismus Marxistische Wirtschaftstheorie Volkswirtschaftslehre Politisches Schlagwort pt:Superávit sv:Profit
Q2112073
102.617388
12351
https://de.wikipedia.org/wiki/DJ
DJ
Als DJ [] (Abkürzung von , Discjockey bzw. Diskjockey, Kompositum aus Disc bzw. Disk „Scheibe“ beziehungsweise „Schallplatte“ und Jockey „Reiter“) wird eine Person bezeichnet, die auf Tonträgern gespeicherte Musik in einer individuellen Auswahl vor Publikum abspielt, wofür allgemein der Begriff „Auflegen“ (von Schallplatten auf das Abspielgerät, ursprünglich „Plattenspieler“) verwendet wird. Für weibliche Discjockeys kam Mitte der 1990er Jahre in der Jugendsprache im deutschen Sprachraum das Neulexem DJane auf, das zum Teil von Musikerinnen kritisiert und als Bezeichnung zurückgewiesen wird. In der Schweiz wird manchmal der Begriff She-DJ verwendet. Begriff Trotz gleicher Aussprache und Etymologie unterscheidet sich DJ vom jamaikanischen Deejay. Wie Discjockey sind auch die Begriffe Lightjockey (LJ), Visual Jockey (VJ) und Video Jockey (VJ), die die eng mit einer DJ-Performance verbundenen Tätigkeiten visueller Unterstützung bezeichnen, abgeleitet vom Wort „Jockey“. Geschichte Discjockey (DJ), auch Diskjockey oder Disk Jockey, (aus englisch disc „Scheibe“, umgangssprachlich: „Schallplatte“, und jockey „Jockey, Handlanger“) war ursprünglich die Bezeichnung für einen Rundfunkmoderator, der im Radio Tonträger präsentiert. Der Begriff wurde im Rahmen des Top40-Radio in den USA ab 1940 geprägt (siehe: Airplay), dehnte sich später durch Verlagerung auf andere Medien auch auf Fernsehmoderatoren und Diskothekenansager aus. Bereits Weihnachten 1906 kam bei der ersten Radioübertragung an der amerikanischen Ostküste eine Schellackplatte zum Einsatz. Als erster Vollzeit-DJ gilt Elman B. Meyers in New York (1911), als erster Star-DJ ebendort Martin Block (um 1935). Radio-Discjockeys wie Alan Freed verhalfen um 1951 dem Rock ’n’ Roll zum Durchbruch. Freeds illegale Aktivitäten waren es, die die Anfälligkeit der Musikindustrie für jede Art von Bestechung aufdeckten. Freed war sowohl beim Cut In beteiligt als auch maßgeblich in die Payola-Affäre verwickelt. Nach der Erfindung der Langspielplatte (LP) 1948 wurde aus Tonträgern ein kreatives Medium (John Cage: 33 1/3, 1969) und aus DJs ein Mythos der Popkultur (George Lucas: American Graffiti, 1973). Mit dem Discotrend der siebziger, dem Rap/Hip-Hop der achtziger und Techno der neunziger Jahre des 20. Jahrhunderts emanzipierten sich DJs als Klangkünstler (DJ-Culture) und Produzenten. Scratching, Sampling, Remixe und Computertechnik machten Tonträger zur beliebig veränderbaren Rohmasse für Metamusik. DJs wurden zu Stars (Sven Väth, Paul van Dyk), Experimentatoren (Tricky, Coldcut) oder gar Philosophen (DJ Spooky). Für die Musikindustrie sind die Discjockeys bei Radiostationen nach wie vor von großer Bedeutung, weil durch deren Programmgestaltung die Verkaufszahlen von einzelnen Musiktiteln bzw. Künstlern beeinflusst werden. DJs im Rundfunk Die Entwicklung der DJ-Kultur nahm ihren Anfang mit dem Aufkommen von Musiksendungen im Rundfunk. Als einer der ersten gilt der Brite Christopher Stone, der 1927 bei der BBC eine Unterhaltungssendung mit Schallplatten startete. Einer der bedeutendsten Pioniere war der Amerikaner Alan Freed, der als erfolgreichster DJ der Rock-’n’-Roll-Ära gilt und den Begriff selbst entscheidend mitgeprägt hat. Deutschlands erste Hörfunk-DJs waren z. B. Rudi Rauher, der bei der damaligen WERAG (Westdeutsche Rundfunk AG), später Reichssender Köln, dem Vorläufer des heutigen WDR, ein flottes Vormittagsprogramm mit Schallplatten fuhr, die er selbst hinterm Mikrofon auflegte. Nach dem Zweiten Weltkrieg waren es Günter Discher und der Engländer Chris Howland: Dieser legte einmal die Woche im Radio auf und ist auch heute noch unter seinem Spitznamen, Mr. Pumpernickel, bekannt. In den 1950er Jahren erklang seine Erkennungsmelodie „Melody Fair“ von Robert Farnon aus dem UKW-Studio des WDR. Millionen Menschen saßen vor dem Radio und lauschten dieser beliebten Sendung, in der locker geplaudert wurde und hemdsärmelig das gewisse Etwas auf den Hörer übersprang. Chris Howland galt wegen seiner natürlichen Art als Vorreiter. Hunderte Funk-Disc-Jockeys folgten ihm im Laufe der Jahre. Die damals „Großen“ im deutschsprachigen Bereich – mit Rundfunk- und teilweise auch Fernsehkarriere – waren Camillo Felgen, Chris Howland, Mal Sondock, Dieter Thomas Heck, Manfred Sexauer, und der seit den 1980er-Jahren bis heute (2023) im Radio aktive Frank Laufenberg. Der wohl weltweit bekannteste und einflussreichste Radio-DJ war der Brite John Peel. DJs im Rundfunk gibt es heute noch bei Spezialsendungen. Bei 1 Live gab es vor ein paar Jahren den mittlerweile eingestellten „Partyservice“ mit Piet Blank und Mike Litt. Der Dance-Sender sunshine live hat auch heute noch Sendungen, wo „richtige“ DJs, z. B. Klubbingman und Felix Kröcher, auflegen. Auch die Autorensendungen 1 Live Fiehe (Eins live; früher Raum und Zeit) und Schwarzmarkt (eldoradio) werden von DJs moderiert, wobei diese hier nur nach ihren eigenen Geschmäckern und nicht nach Redaktionsvorgaben auflegen. Als „richtiger“ Discjockey beim Hörfunk galt eigentlich nur, wer seine Platten im Studio selbst auflegte. Dazu hatten z. B. die ARD-Anstalten spezielle Discjockey-Studios eingerichtet, in denen dem DJ ein Pult mit mindestens zwei Plattenspielern zur Verfügung stand und der Tontechniker lediglich unterstützende Arbeit leistete, bis in den 1980er Jahren die autarken „Selbstfahrerstudios“ (zuerst bei den privaten und kleineren Sendern und später auch beim österreichischen Hörfunk) aufkamen. In denen mischt der Radio-DJ die Musik ohne Techniker in das laufende Programm. Ebenso „fährt“ er dazu die Jingles, Drop-Ins, Pre- und Backseller. Bei einigen DJs im Rundfunk, die heute als Moderatoren bezeichnet werden, beschränkt sich die Tätigkeit lediglich auf das Ansagen, während ein Techniker das Einspielen der Musik erledigt. Besondere Beispiele Der rumänische Radiodiscjockey Cornel Chiriac (* 9. Mai 1942, Uspenca (Sarata) (Ukraine); † in der Nacht vom 4. auf 5. März 1975 in München) wurde von seinen Fans auch als der einflussreichste, bekannteste und gleichzeitig einsamste Radiodiscjockey der Welt bezeichnet. Anfang Januar 2023 starb im Alter von 98 Jahren in Hongkong der im Guinness-Buch der Rekorde seit dem Jahr 2000 als der „ausdauerndste DJ der Welt“ aufgeführte Reinaldo Maria Cordeiro (* 1924 Hongkong, auch Uncle Ray). Über seine mehr als 70 Jahre beim Radio interviewte er zahlreiche Stars wie Ella Fitzgerald, Elvis Presley oder Frank Sinatra, dazu Bands wie die Bee Gees und The Beatles. DJs in Diskotheken Definiert man eine Diskothek als einen Raum, in dem sich Menschen für Geld und zu Tanz-Zwecken von einem schallplattenauflegenden DJ mit aufgenommener Musik unterhalten lassen, so gab es die erste Diskothek im nordenglischen Leeds, und zwar bereits 1943. Hauptinitiator und DJ für den Abend war Jimmy Savile. Die frühen Jahre Mitte der 1960er begannen die ersten DJs, sich von der Funktion des reinen Plattenauflegers zu emanzipieren. Hatten sie bis dahin ein Stück nach dem anderen aufgelegt und zwischendurch moderiert, war es insbesondere Terry Noel, der 1965 im Arthur in New York City auflegte, der begann, das musikalische Repertoire des DJs zu erweitern und selbst neue Musik zu schaffen. Noel begann, persönlich die Kontrolle über die Lichtanlage zu übernehmen, baute ein Soundsystem auf, das ihm erlaubte, einen Sound quer durch den Raum wandern zu lassen und begann sich bis dato unbekannte Freiheiten im Mixen von Stücken zu erlauben. Er legte mehrere Stücke übereinander, um neue Sounds zu kreieren und aus Schallplatten eine Musik zu erzeugen, die so nicht auf einer Schallplatte aufzufinden war. In Deutschland gab es 1963 etwa zehn, 1965 bereits 50 (zum Teil reisende) DJs. Die erste berufsständige Organisation für DJs wurde 1963 in Aachen gegründet. 1971 grenzte sich der Musikredakteur im Jugendfunk des RiAS Kai Bloemer von DJs ab: „Diskjockeys sind eigentlich Menschen, die mehr oder weniger banale Äußerungen zu Platten machen.“ DJs in der DDR In der DDR wurden DJs zur Vermeidung des englischen Begriffes Diskjockey gesetzlich als Schallplattenunterhalter oder kurz als SPU bezeichnet. Es existierte jedoch auch die Bezeichnung Diskjockei. Es gab auf Grundlage der Anordnung über Diskothekveranstaltungen vom 15. August 1973 (Gbl. der DDR Teil I Nr. 38 vom 27. August 1973) frei- oder nebenberuflich tätige Schallplattenunterhalter. Jeder zukünftige SPU musste dazu einen Eignungstest bestehen und einen einjährigen speziellen Grundlehrgang mit anschließender staatlicher Prüfung bei dem dafür zuständigen Kreis- bzw. Stadtkabinett für Kulturarbeit durchlaufen. Anschließend wurde eine Spielerlaubnis erteilt. Nur der „staatlich geprüfte Schallplattenunterhalter“ durfte Tonträger vor einem größeren Publikum spielen und musste regelmäßig an Weiterbildungsveranstaltungen, sogenannten Monatskonsultationen, teilnehmen. Alle zwei Jahre erfolgte eine Neueinstufung durch die Einstufungskommission. Eine weitere Besonderheit in der DDR bestand in zahlreichen Vorschriften und Empfehlungen, zu deren Einhaltung der SPU verpflichtet war. Die wohl bekannteste Regelung der „Anstalt zur Wahrung der Aufführungs- und Vervielfältigungsrechte auf dem Gebiet der Musik“ (AWA) war die 60/40-Regelung, die SPU dazu verpflichtete, 60 Prozent der Programmfolge mit Musikproduktionen aus der DDR und dem sozialistischen Ausland zu gestalten. Zeitweilig waren SPU verpflichtet, vor jedem Auftritt Titellisten an die AWA einzureichen. Obwohl die SPU mit Kontrollen und Lizenzentzug rechnen mussten, sah die Praxis in den meisten Diskotheken anders aus. Ende der 1970er Jahre wurden in der DDR 6000 Schallplattenunterhalter gezählt. In den 1980er Jahren wurden die Begriffe „Diskotheker“ und „Disko-Moderator“ geprägt. Die Revolution der 1970er Jahre In den 1970er Jahren, mit dem Aufkommen der Disco-Musik in den USA, veränderten sich bald die Techniken der DJs. Statt der Ansagen wurden rhythmische Elemente bestimmend, es entstanden die ersten Club-Mixe, die verlängerte Versionen der Songs waren. Die DJs begannen, die Beats der verschiedenen Songs mit derselben Geschwindigkeit, also kaum merklich, ineinanderzumixen, was in der Szene der Elektronischen Tanzmusik bis heute gängig ist. Auch die Kultur des Hip-Hop hatte einen großen Einfluss auf diesen Wandel. Die Plattenspieler verwandelten sich vom bloßen Abspielgerät zum Musikinstrument, der Backspin und das Scratching entwickelten sich zu neuen Möglichkeiten in der DJ-Technik, die maßgeblich die neuen Musikrichtungen beeinflussten. Der Backspin bietet z. B. die Möglichkeit, eine einzige rhythmische Passage beliebig oft zu wiederholen, so dass Plattenspieler als günstige Alternative zu Samplern eingesetzt werden können. Tätigkeitsfelder Aufgaben Die Aufgaben eines DJ sind vielfältig und unterscheiden sich je nach Musikgenre und Arbeitsstelle erheblich. Es gibt einerseits den klassischen Pop-DJ, wie man ihn aus Radiosendungen und Discos kennt. Er verdient oft seinen Lebensunterhalt mit dieser Tätigkeit und spielt Musik, je nach Geschmack des Publikums, aus einem breiten Spektrum von Genres und kennt im Idealfall die Charts der letzten Jahre. Pop-DJ Die Hauptaufgabe des Pop-DJ ist es, dem Publikum angenehme Musik zu bieten und es gut zu unterhalten. Daher legt er großen Wert darauf, eine ausgewogene Mischung beliebter Musik zu spielen und zu jeder Platte eine möglichst passende Folgeplatte zu finden, die sein Programm interessant hält. Technisch gesehen beschränkt sich seine Arbeit darauf, rechtzeitig die nächste Platte parat zu haben und einen fließenden Übergang zu dieser zu gestalten. Doch wichtiger als das technische Können ist bei diesem DJ-Typ die Fähigkeit, den Geschmack des Publikums zu treffen bzw. die Stimmung des Publikums zu beeinflussen. Event-DJ Dieser spezielle DJ-Typ entstand aus den zuletzt gestiegenen Ansprüchen von Sport-, Geschäfts- oder Lifestyleveranstaltungen. Neben einer guten Moderation will das Publikum durch angepasste und an die Dramaturgie der Veranstaltung ausgerichtete Musik animiert und begleitet werden. Im Gegensatz zu einem Pop-DJ ist der Event-DJ nicht alleiniger Unterhalter, sondern agiert in enger Zusammenarbeit mit dem Moderator und den verschiedenen Protagonisten einer Veranstaltung. Der Event-DJ nimmt die Stimmung der Akteure, des Publikums und der Gäste auf und kann mit Hilfe einer umfassenden Musikauswahl thematisch und situationsangepasst auf das Veranstaltungsgeschehen eingehen und die Emotionen der Zuschauer verstärken. Die Besonderheit des Event-DJs ist die Arbeitsweise. Neben der notwendigen Fähigkeit, den musikalischen Geschmack der Zuschauer erkennen und Platten auflegen zu können, arbeitet der Event-DJ zusätzlich mit zugeschnittenen Musikjingles, die passend zu den Ereignissen eingespielt werden. Dabei handelt es sich um vorproduzierte Ausschnitte von Liedern, die das Publikum entweder zum Mitklatschen, Mitsingen oder Mittanzen animieren sollen und vom Event-DJ schnell und auf die Situation abgestimmt eingespielt werden können. Besonders im Bereich von Sportereignissen findet der Event-DJ aufgrund der flexiblen Arbeitsweise und der an das Veranstaltungsgeschehen ausgerichteten Musikauswahl sein Hauptaufgabengebiet; ideal dafür sind Sportarten mit häufigen kürzeren Unterbrechungen wie z. B. Rugby oder Beachvolleyball. Eine besondere Form des Event-DJs ist der Hochzeits-DJ. So ist seit Anfang 2005 zu beobachten, dass sich diese nicht mehr nur mit der musikalischen Unterhaltung der Hochzeitsgesellschaft beschäftigen, sondern auch einen großen Teil der Planung übernehmen. Die enge Verbundenheit der DJs mit Besitzern entsprechender Lokalitäten, Tontechnikern, Event-Fotografen und Caterern hat dazu geführt, dass Hochzeits-DJs als eine Art Vermittler zwischen den Branchen und ihren Kunden, dem Hochzeitspaar auftreten können. Dadurch ergeben sich für diese im Speziellen besondere finanzielle und organisatorische Vorteile. Zudem ist die Unterhaltung einer Hochzeitsgesellschaft immer auch eine delikate Aufgabe, geht es hier doch neben der Moderation und Unterhaltung auch stets darum, die Stimmung zu lenken, die Gäste und deren Einlagen sowie den Ablauf der Hochzeitsfeier individuell zu planen und zu lenken. Die besondere Herausforderung ist dabei, flexibel und spontan reagieren zu können sowie als DJ selbst dabei im Hintergrund zu bleiben. DJ-Team Ein DJ-Team besteht meist aus zwei Personen, welche sich oft speziell dafür einen bestimmten Team-Namen geben, während sie als „Solokünstler“ ihre individuellen Namen trotzdem behalten. Der Vorteil (für Veranstalter, Publikum & DJ) hierbei ist, dass sich beide gegenseitig antreiben. Weiterhin kann ein breiteres Spektrum an Musikstilen gespielt werden, weil jeder seinen eigenen individuellen Geschmack besitzt. Die Art der Performance entwickelt sich nach gewisser Zeit. Einige mögen es lieber in Blöcken zu spielen. Dabei wechseln sich die DJs nach 3–5 Titeln ab. Bei einem perfekten Zusammenspiel bedienen jedoch beide gleichzeitig die Regler. DJs spezieller Musikrichtungen Einen anderen Typ DJ findet man auf Techno-, House-, Goa- oder Jungle-Partys, sowie in einigen nicht-elektronischen Musikrichtungen wie Salsa und Jazz: Er ist Spezialist für einen bestimmten Musikstil. Dieser DJ zielt darauf ab, die hypnotische Wirkung der von ihm gespielten Musik durch ein fließendes Ineinandermischen von einzelnen Tracks zu maximieren. Als Referenzschallplattenspieler werden von vielen Vinyl-DJs die seit den 70er-Jahren produzierten Plattenspieler von Technics angesehen, die wegen ihrer Haltbarkeit und der hohen Qualität bei DJs sehr beliebt sind. DJs des Turntablism und Hip-Hop Wieder ein völlig anderer Typus von DJ ist vor allem im Umfeld des Hip-Hop (und Nu Metal), besonders des sog. Turntablism zu finden – die Grenzen sind fließend. Hier wird das Auflegen vor allem als kreatives Ausdrucksmittel angesehen und viel Wert auf technische Beherrschung des Instruments Plattenspieler gelegt. Besonders Beatjuggling und Scratching stehen hoch im Kurs. Die DJ-Tätigkeit ist ein zentraler Bestandteil der Hip-Hop-Kultur und gilt als eines der vier Elemente des Hip-Hops (DJing, MCing, B-Boying und Writing). Ein wichtiger Faktor der Motivation der DJs in diesem Bereich ist der Wettbewerb (Competition). Auf sogenannten DJ-Battles treffen sich DJs, um unter den Augen einer Jury ihr Können zu beweisen. Eine rege Szene beschäftigt sich damit, selbst aufgenommene Mixes, Cuts und Scratches über das Internet auszutauschen und sich untereinander zu messen. Bei Hip-Hop-DJs ist es üblich, die Plattenspieler um 90 Grad nach links gedreht, also mit dem Tonarm hinten, aufzustellen, damit der Tonarm beim Scratchen nicht stört. Dieses wird üblicherweise als Battle-Mode bezeichnet. Resident-DJs Ein Resident-DJ ( „Bewohner“, „Anwohner“) oder Stamm-DJ spielt regelmäßig in einer bestimmten Diskothek bzw. einem Club, bei einer bestimmten Veranstaltungsreihe oder bei einem bestimmten Rundfunk-Sender. Residents prägen einen Club oder eine Veranstaltungsreihe maßgeblich mit und sorgen damit für Publikumsbindung. In Clubs spielen die Residents oft vor und nach den eingeladenen, als Headliner bezeichneten bekanntesten DJs des Abends. Technik und Techniken Technik Die wichtigsten Werkzeuge des DJ sind Musikabspielgeräte wie Plattenspieler, Musik-Player oder auch Laptop und Controller und das Mischpult. Wie alle Plattenspieler für den DJ-Bereich sind sie pitchbar (d. h. die Geschwindigkeit ist stufenlos verstellbar), bei Technics in einem Bereich von −8 bis +8 % (etwas mehr als ein Halbton). Durch Veränderung der Geschwindigkeit wird auch zwangsläufig die Tonhöhe des Musikstücks verändert. Durch den kräftig motorisierten Direktantrieb sind die Geräte in der Lage, eine abgebremste Platte in kurzer Zeit wieder auf die eingestellte Geschwindigkeit zu beschleunigen. Diese Eigenschaften sind für einen professionellen DJ unentbehrlich. Mit der Zeit wurden immer mehr digitale Medien wie CD sowie später (bzw. mittlerweile hauptsächlich) PC, bzw. Laptop von DJs eingesetzt. Dies fing in den 2000er Jahren unter anderem mit den CDJ-Playern von Pioneer an, die auf Musik von CDs zurückgreifen können. Später erschienen immer mehr Computerprogramme, welche mittels DJ-Controller gesteuert werden können. Mittels Digital Vinyl System lassen sich auch so genannte Timecode-Schallplatten zur Steuerung verwenden. Traktor Scratch, VirtualDJ, Final Scratch oder Rane Serato Scratch sind wichtige Vertreter dieser Spielart. Die Hersteller von DJ-Bedarf forschen auch verstärkt an CD-Spielern, die immer mehr die Eigenschaften von Plattenspielern teilen. So gibt es inzwischen scratchfähige CD-Spieler wie den Vestax CDX-05, der z. B. einen Vinyl-Filter enthält, mit dem CDs wie alte Platten klingen sollen. Aber auch der Wandel hin zu MP3 wird für die DJs weiterentwickelt. So erschienen reine MP3-Player wie der Cortex HDTT-5000 & der Denon DN-HD2500, die ohne mechanische Verschleißteile auskommen. Diese Art der MP3-Player sind zusätzlich mit Sampler, Effekt-Prozessor und weiteren Funktionen ausgestattet, dass sie viele Aufgaben eines Mischpultes übernehmen können. An den Mischer werden von DJs besondere Anforderungen gestellt, die allerdings je nach Mixstil (und damit meistens auch musikabhängig) deutlich variieren. Eine Vorhörmöglichkeit ist unabdingbar. Allgemein erwünscht sind auch leichtgängige Fader und wegen der hohen Abhörlautstärke Rausch- und Störarmut. Bekannte Mixer sind die DJM-Serie von Pioneer, die Xone-Serie von Allen&Heath und bei den Hip-Hop-Mixern die PMC-Serie von Vestax, HAK von Ecler oder die TTM-Serie von RANE. Bei Techno und House wird Wert auf einen sauber frequenzdiskriminierenden Equalizer gelegt, so dass beispielsweise eine Bassdrum komplett ausgeblendet werden kann. Der Standard ist hierbei der 3-Band-Equalizer (Bässe-Mitten-Höhen). Der Hersteller Allen&Heath hat hierbei mit dem X:one 62 den ersten DJ-Mixer auf den Markt gebracht, welcher auch ein 4-Band-Equalizer (Bässe-Tiefe Mitten-Hohe Mitten-Höhen) hat, die normalerweise nur im Profisegment verbaut werden. In diesem Bereich sind Mixer mit recht vielen Features – wie beispielsweise einem Beatcounter bzw. eingebauten Effektgeräten – gefragt. Zudem wird vereinzelt der Rotary Mixer verwendet. Es sind von Grund auf sehr einfache Mischpulte, die sich allerdings von der Soundqualität deutlich von der Konkurrenz abheben. Sie sind zudem auch von der Ausstattung auf dem Niveau der 1970er und 1980er Jahre, der entscheidende Unterschied besteht darin, dass Rotary Mixer nicht wie im Allgemeinen Fader (Schiebregler) haben, sondern meist große Drehregler (daher auch Rotary = rotierend). Man hat dadurch einen längeren Weg und somit auch mehr Spiel für einen weichen Übergang. Beim Hip-Hop ist dagegen wichtig, dass der Mixer robust ist und möglichst wenig Verschleiß zeigt. Die Hip-Hop-Mixer werden im Allgemeinen als Battle-Mixer bezeichnet, da das Scratchen, Juggeln usw. aus dem Turntablism kommt, wobei zwei DJs im Battle genannten Duell gegeneinander scratchen. Bis vor wenigen Jahren hat man den Equalizer vernachlässigt, womit fast alle älteren Battle-Mixer nur ein 2-Band-Equalizer (Bässe-Höhen) besitzen. Der Trend bei den neueren Battle-Mixer geht seit ca. 2–3 Jahren dahin, dass der Equalizer nicht mehr mit Drehpotis, sondern mit Schiebepotis ausgestattet ist. In der oberen Preisklasse gibt es vor allem bei den Crossfader immer neuere Entwicklungen, da es das meistgenutzte Instrument am Battle-Mixer ist. Es gibt hier einmal die mechanischen und die digital-elektronischen Fader. Die mechanischen Fader sind im Normalfall nach intensivem Gebrauch nach einigen Monaten verschlissen, wobei es hierbei sehr große Unterschiede von Hersteller zu Hersteller gibt. Die elektro-digitalen Fader sind im Normalfall erst in der Klasse ab 500 € zu finden. Sie zeichnen sich dadurch aus, dass sie meist einen geringeren Widerstand besitzen und durch den beinahe verschleißfreien Betrieb eine deutlich längere Haltbarkeit haben. Hierbei sind die Technologien von Hersteller zu Hersteller unterschiedlich, viele Hersteller geben meist eine extra Garantie auf ihre Crossfader, der Hersteller Ecler gibt beispielsweise auf seine Eternal Fader fünf Jahre Garantie oder 20 Millionen Zyklen. Die neueste Technik sind DJ-Controller, die einem Verbund aus zwei Playern und einem Mischer zum Verwechseln ähnlich sehen, aber nur deren Bedienelemente und keine eigene Technik aufweisen. Derartige Controller sind Fernbedienungen für Computerprogramme und können somit auch nur gemeinsam mit einem Computer betrieben werden. Techniken Backspinning – das Zurückziehen oder -drehen einer Platte Beatjuggling – die Benutzung einer Platte als Rhythmuseinheit Beatmatching – das Synchronisieren zweier Platten Scratching – die Benutzung einer Platte als Solo-Instrument Rechtliches In Deutschland zahlen Techno-DJs als Künstler einen verringerten Umsatzsteuersatz, wenn ihre Arbeit als „Konzert“ eingestuft werden kann. Literatur Boris Alexander Pipiorke-Arndt, Digital DJ-ing (DJing): Tipps, Tricks & Skillz für Discjockeys. Quickstart, Seeheim 2009, ISBN 3-940963-05-4. Ralf Niemczyk, Torsten Schmidt: Das DJ Handbuch. Zweite Auflage, Kiepenheuer & Witsch, Köln 2000 (= KiWi 573), ISBN 3-462-02909-6. Laurent Garnier, David Brun-Lambert: Elektroschock. Hannibal, 2005, ISBN 3-85445-252-7. Ulf Poschardt: DJ Culture. Diskjockeys und Popkultur. Überarbeitete und erweiterte Neuausgabe. Rowohlt Taschenbuch, Reinbek bei Hamburg 1997, ISBN 3-499-60227-X. Bill Brewster, Frank Broughton: How to DJ Right. The Art and Science of Playing Records. Grove Press, 2003, ISBN 0-8021-3995-7. Stephen Webber: Turntable Technique. The Art of the DJ. Hal Leonard, 2000, ISBN 0-634-01434-X. Hörspiele DJ killed the Popstar, WDR-Hörspiel, 2016 Weblinks Hörfunk-Feature, 30min., über 40/60 Prozent Vorgabe in der DDR zum Nachhören auf MDR KULTUR Einzelnachweise Musikberuf Schallplatte Compact Disc
Q130857
367.57585
691424
https://de.wikipedia.org/wiki/Max-Planck-Gesellschaft
Max-Planck-Gesellschaft
Die Max-Planck-Gesellschaft zur Förderung der Wissenschaften e. V., kurz Max-Planck-Gesellschaft oder MPG, ist eine der führenden deutschen Institutionen im Bereich der Grundlagenforschung. Der gemeinnützige Verein mit satzungsgemäßem Sitz in Berlin unterhält 85 Forschungseinrichtungen, die meisten sind Max-Planck-Institute. Die Generalverwaltung in München wird von einem oder mehreren Generalsekretären geleitet. Die Max-Planck-Gesellschaft ging 1948 aus der Kaiser-Wilhelm-Gesellschaft zur Förderung der Wissenschaften hervor und setzt gemäß § 1 der Satzung deren Tradition fort. Die Finanzierung erfolgt überwiegend aus öffentlichen Mitteln von Bund und Ländern. Die Max-Planck-Gesellschaft widmet sich vorwiegend der natur-, sozial- und geisteswissenschaftlichen Grundlagenforschung. Die Arbeit ihrer Forschungseinrichtungen ergänzt die Forschung an Hochschulen und anderen Forschungsorganisationen, indem Schwerpunkte in Forschungsbereichen gesetzt werden, die aufgrund ihrer Transdisziplinarität oder der hohen notwendigen Ressourcen nicht von anderen Einrichtungen der Grundlagenforschung erschlossen werden können. Die Max-Planck-Gesellschaft kooperiert mit zahlreichen Universitäten und anderen Partnern. Die Forschungsergebnisse dienen der Allgemeinheit. Die Max-Planck-Gesellschaft genießt seit mehreren Jahrzehnten weltweite Anerkennung. Als nicht-universitäre Forschungseinrichtung hat die MPG mit aktuell 31 Nobelpreisträgern die drittmeisten Nobelpreisträger weltweit und die meisten in Europa hervorgebracht. Geschichte Gründung (1948) Nach der Stunde Null im Mai 1945 wurde begonnen, das System der deutschen Forschung neu zu ordnen. So wurde von Göttingen aus unter der Führung von Ernst Telschow die Kaiser-Wilhelm-Gesellschaft (KWG) wieder aufgebaut, deren kommissarischer Präsident Max Planck wurde, der Mitbegründer der Quantenphysik. Nach seiner Rückkehr aus der englischen Internierung trat Otto Hahn am 1. April 1946 dessen Nachfolge an. Am 11. September 1946 wurde in Bad Driburg auf Initiative der britischen Besatzer eine neue Forschungsgesellschaft unter dem Namen „Max-Planck-Gesellschaft“ in der britischen Zone gegründet, da die Briten auf einem anderen Namen für die KWG bestanden. Der damals 88-jährige Max Planck wurde Ehrenpräsident. Der Militärgouverneur der amerikanischen Besatzungszone, General Lucius D. Clay, plante indessen die KWG vollständig aufzulösen. Erst Ende 1947 rückte er von diesem Plan ab. Die heutige Max-Planck-Gesellschaft wurde in der Folge am 26. Februar 1948 in der britischen und amerikanischen Besatzungszone unter der Präsidentschaft von Otto Hahn und der Leitung von Generalsekretär Ernst Telschow als Nachfolgeorganisation der Kaiser-Wilhelm-Gesellschaft (KWG) in Göttingen gegründet. Am 24. Februar 1948 war die erste, nur in der britischen Zone tätige Max-Planck-Gesellschaft aufgelöst worden, um der Neugründung Platz zu machen. Zu dieser neu gegründeten Max-Planck-Gesellschaft gehörten zunächst nur die Institute der zu diesem Zeitpunkt noch bestehenden britischen und amerikanischen Besatzungszone, der sogenannten Bizone. Erst im November 1949 traten die in der französischen Besatzungszone gelegenen früheren KWG-Institute der Max-Planck-Gesellschaft bei und 1953 auch die ehemaligen Berliner Institute, die zwischenzeitlich zur Stiftung Deutsche Forschungshochschule zusammengefasst worden waren. Die in der sowjetischen Besatzungszone befindlichen Institute der KWG wurden unter Robert Havemann der Akademie der Wissenschaften (später: Akademie der Wissenschaften der DDR) zugeschlagen. Vereinbarungen zur Finanzierung Zunächst wurde jedes Institut im Rahmen der Kulturhoheit jeweils alleine von dem Land finanziert, in dem es seinen Sitz hatte. Noch vor der Gründung der Bundesrepublik Deutschland kam es am 24. März 1949 zum Staatsabkommen über die Finanzierung wissenschaftlicher Forschungseinrichtungen, dem sogenannten Königsteiner Staatsabkommen, in dem die länderübergreifende Finanzierung festgelegt wurde. Dieses Staatsabkommen stellte die unmittelbare Finanzierung der Max-Planck-Gesellschaft sicher. Das Abkommen wurde zunächst auf fünf Jahre abgeschlossen und dann erst bis 1959 und dann noch mehrmals bis Ende 1969 verlängert. Bis 1964 haben die Länder die investiven Ausgaben nur in einem eingeschränkten Umfang finanziert. Bereits seit Ende der 1950er Jahre wurden vom Bund die baulichen Investitionen auf der Basis von Zuwendungen nach § 64a Reichshaushaltsordnung finanziert. Ab 1964 wurde zwischen Bund und Ländern ein Verwaltungsabkommen geschlossen, das die paritätische Mitfinanzierung der Länder bei den Investitionen und des Bundes bei den laufenden Betriebsausgaben vorsah. Da der Bund seine Zuwendungen via Verwaltungsakt – Zuwendungsbescheid mit Bewilligungsbedingungen – bewilligte und die Länder aufgrund des Königsteiner Staatsabkommens durch die hierfür eingerichtete Geschäftsstelle (Vorläufer der BLK-Geschäftsstelle und jetzt GWK-Geschäftsstelle), war die Bewilligung der Bund-Länder-Mittel nicht einheitlich und unterschiedlich geregelt. Auf Drängen der Rechnungshöfe kam es daher 1968 erstmals zu Bewirtschaftungsregelungen, die von Bund und Ländern einheitlich zugrunde gelegt worden sind. Diese Finanzierungsregelungen wurden im Laufe der nächsten Jahre immer weiter verfeinert. Mit der Budgetierung erfolgte im Bereich der Stellenbewirtschaftung, der Deckungsfähigkeit und der Mehreinnahmenverwendung eine erhebliche Flexibilisierung. Mit der Neuordnung des Haushaltsrechts im Jahr 1969 auf Seiten des Bundes und Länder und die Einfügung des GG wurde die Grundlage gelegt, für die 1975 unterzeichnete Rahmenvereinbarung Forschungsförderung sowie die Ausführungsvereinbarung Max-Planck-Gesellschaft, welche die Finanzierungsgrundlagen und notwendigen Abstimmungsverfahren zwischen Bund und Ländern regelt. Nach der Wiedervereinigung Deutschlands (1990) Nach dem Fall der Berliner Mauer startete die Max-Planck-Gesellschaft ein „Sofortprogramm“ für Wissenschaftler in Ostdeutschland: Sie richtete 27 Arbeitsgruppen an ostdeutschen Universitäten (befristet bis 1998) und vorübergehend zwei Außenstellen von Max-Planck-Instituten ein. Nach der Wiedervereinigung Deutschlands 1990 begann der eigentliche „Aufbau Ost“ mit der Gründung neuer Max-Planck-Institute in Ostdeutschland. Bis 1998 wurden 18 neue Institute in den neuen Ländern gegründet. Die Zahl der Max-Planck-Institute erhöhte sich dadurch um rund ein Drittel. Im gleichen Zeitraum mussten in den alten Bundesländern aufgrund des „föderalen Konsolidierungsprogramms“ 740 Stellen abgebaut werden. Die Forschungseinrichtungen der vormaligen DDR wurden großenteils in die Leibniz-Gemeinschaft überführt. 1992 verlegte die Max-Planck-Gesellschaft ihren juristischen Sitz von Göttingen nach Berlin. 1998 feierte sie ihr 50-jähriges Bestehen. 2006 zog das 1994 in Berlin-Mitte gegründete Max-Planck-Institut für Wissenschaftsgeschichte in sein neues Gebäude in Berlin-Dahlem um. Damit war der „Aufbau Ost“ abgeschlossen. Im Jahr 1997 wurde vom damaligen Präsidenten der MPG Hubert Markl die Kommission „Geschichte der Kaiser-Wilhelm-Gesellschaft im Nationalsozialismus“ eingesetzt. Sie stand unter Vorsitz von zwei Historikern, die der Max-Planck-Gesellschaft nicht angehören: Reinhard Rürup (Technische Universität Berlin) und Wolfgang Schieder (Universität zu Köln). Das Forschungsprogramm Geschichte der Kaiser-Wilhelm-Gesellschaft im Nationalsozialismus wurde im 1999 mit einer internationalen Konferenz eröffnet. Mit diesem Projekt bekannte sich die Max-Planck-Gesellschaft dazu, dass sie im Blick auf Institute, Personal und Aufgaben in der direkten Nachfolge der Kaiser-Wilhelm-Gesellschaft steht. Auch deren Beziehungen zum NS-Regime sind Teil der Vergangenheit der Max-Planck-Gesellschaft. Das Projekt war organisatorisch am Max-Planck-Institut für Wissenschaftsgeschichte angesiedelt. Die Kommission arbeitete bis Ende 2005. Die Ergebnisse des Projekts sind in der Buchreihe Geschichte der Kaiser-Wilhelm-Gesellschaft im Nationalsozialismus dokumentiert. Sie umfasst 17 Bände, die in den Jahren 2000 bis 2008 erschienen. Im Jahr 2003 initiierte die Max-Planck-Gesellschaft die Berliner Erklärung über offenen Zugang zu wissenschaftlichem Wissen und konzipierte in der Folge ein elektronisches Archiv für Publikationen der Mitarbeiter der MPG, den eDoc-Server, der zurzeit gut 21.000 Volltexte umfasst, wovon 9.000 öffentlich zugänglich sind. Von Juni 2014 bis Ende 2022 lief am Berliner Max-Planck-Institut für Wissenschaftsgeschichte ein Forschungsprogramm zur Geschichte der Max-Planck-Gesellschaft im Zeitraum 1948 bis 2002. Die Leitung hatten Jürgen Renn (Berlin), Carsten Reinhardt (Bielefeld) und Jürgen Kocka (Berlin) sowie als operativer Projektleiter Florian Schmaltz. Die Ergebnisse werden beim Verlag Vandenhoeck & Ruprecht in der Reihe Studien zur Geschichte der Max-Planck-Gesellschaft sowie als Preprints auf der Website des Forschungsprogramms veröffentlicht. Im Jahr 2023 feiert die Max-Planck-Gesellschaft ihr 75-jähriges Jubliäum, unter anderem mit einem Festakt im Deutschen Museum in München am 26. Februar 2023. Kennzahlen Das Wachstum der Max-Planck-Gesellschaft wird anhand folgender Daten deutlich: 1948 (Gründungsjahr): 25 Institute und Forschungsstellen. Haushaltsvolumen rund 7 Millionen DM (kaufkraftbereinigt in heutiger Währung: rund  Millionen Euro). 1960: 40 Institute und Forschungseinrichtungen. Rund 2.600 Mitarbeiter, davon 750 Wissenschaftler. Jahresetat knapp 80 Millionen DM (kaufkraftbereinigt rund  Millionen Euro). 1998: 80 Institute und Forschungseinrichtungen. Rund 11.000 Mitarbeiter, davon 2750 Wissenschaftler. Jahresetat (1997) knapp 2 Milliarden DM (kaufkraftbereinigt knapp  Milliarden Euro). Im Zeitraum 1990–1998 waren 18 neue Institute in Ostdeutschland hinzugekommen („Aufbau Ost“). 2017: 84 Institute und Einrichtungen, davon fünf im Ausland. Rund 22.000 Mitarbeiter. Jahresetat knapp 1,8 Milliarden Euro. Personen Präsidenten 1948–1960 Otto Hahn (zuvor ab 1946 der letzte Präsident der Kaiser-Wilhelm-Gesellschaft) 1960–1972 Adolf Butenandt 1972–1984 Reimar Lüst 1984–1990 Heinz A. Staab 1990–1996 Hans F. Zacher 1996–2002 Hubert Markl 2002–2014 Peter Gruss 2014–2023 Martin Stratmann 2023– Patrick Cramer (seit Juni 2023) Generalsekretäre Die Generalsekretäre wurden anfangs als Generaldirektor und Geschäftsführendes Mitglied des Verwaltungsrats bezeichnet. 1946–1960 Ernst Telschow (zuvor ab 1937 der letzte Generalsekretär der Kaiser-Wilhelm-Gesellschaft) 1950–1961 Otto Benecke (gemeinsam mit Telschow) 1962–1966 Hans Ballreich 1966–1976 Friedrich Schneider 1976–1987 Dietrich Ranft 1987–1995 Wolfgang Hasenclever 1995–2010 Barbara Bludau 2010–2017 Ludwig Kronthaler 2017–2022 Rüdiger Willems 2022– Simone Schwanitz (seit Februar 2022) Nobelpreisträger Die Max-Planck-Gesellschaft betrachtet jene Nobelpreisträger als Nobelpreisträger der MPG, die zum Zeitpunkt der Preisvergabe Wissenschaftliche Mitglieder der Max-Planck-Gesellschaft waren – oder Wissenschaftliche Mitglieder ihrer Vorgängerorganisation, der Kaiser-Wilhelm-Gesellschaft. Insgesamt sind dies bisher 31 Nobelpreisträger (Stand 3. Oktober 2023), damit hat die Max-Planck-Gesellschaft nach der University of California und der Harvard University die drittmeisten Nobelpreisträger weltweit und die meisten Nobelpreisträger in Europa hervorgebracht. 16 Nobelpreise entfielen dabei auf den Bereich Chemie, acht auf den Bereich Physik und sieben auf den Bereich Medizin. Diese teilen sich zeitlich wie folgt auf: 23 Nobelpreisträger, die den Preis in der Zeit der Max-Planck-Gesellschaft erhielten: Acht Nobelpreisträger, die den Preis in der Zeit der Kaiser-Wilhelm-Gesellschaft erhielten: Die Max-Planck-Gesellschaft hebt ferner acht Nobelpreisträger hervor, die zum Zeitpunkt der Nobelpreis-Vergabe zwar keine Wissenschaftlichen Mitglieder waren, aber als Forscher oder in der Administration eine wichtige Rolle in der Max-Planck-Gesellschaft oder der Kaiser-Wilhelm-Gesellschaft spielten. Seit dem Bestehen der Max-Planck-Gesellschaft waren dies zwei: Georges Köhler (Medizin 1984) und Ada Yonath (Chemie 2009). In der Zeit der Kaiser-Wilhelm-Gesellschaft waren es sechs Nobelpreisträger: Max von Laue (Physik 1914), Max Planck (Physik 1918), Otto Meyerhof (Medizin 1922), James Franck (Physik 1925), Werner Heisenberg (Physik 1932) und Hans Spemann (Medizin 1935). Organisation Generalverwaltung Die Generalverwaltung in München führt die laufenden Geschäfte der Gesellschaft und unterstützt die Organe der Gesellschaft sowie insbesondere die Institute bei der Wahrnehmung ihrer Verwaltungsaufgaben. Sie wird von einem oder mehreren Generalsekretären geleitet. Die Generalverwaltung zählt zu den zentralen Einrichtungen der Gesellschaft. Organe Laut § 10 der Satzung hat die Max-Planck-Gesellschaft fünf Organe. Dies sind: der Präsident. Amtszeit: sechs Jahre; höchstens zwei Amtszeiten durch Wiederwahl. Der Präsident ist Vorsitzender des Senats, des Verwaltungsrats und der Hauptversammlung. Er repräsentiert die Max-Planck-Gesellschaft nach außen. der Senat. Ihm gehören mindestens 12 und höchstens 32 Wahlsenatoren an, außerdem Amtssenatoren (der Präsident und weitere Funktionsträger) und Ehrensenatoren. Die Wahlsenatoren und die Ehrensenatoren werden von der Hauptversammlung gewählt. Der Senat wählt den Präsidenten und die weiteren Mitglieder des Verwaltungsrats. Er beschließt beispielsweise die Gründung oder Schließung von Instituten und Abteilungen und entscheidet unter anderem über die Berufung Wissenschaftlicher Mitglieder und der Institutsdirektoren. der Verwaltungsrat. Ihm gehören der Präsident, mindestens zwei Vizepräsidenten, der Schatzmeister und zwei bis vier weitere Mitglieder an. Amtszeit: sechs Jahre. Der Verwaltungsrat stellt den Gesamthaushaltsplan, den Jahresbericht und die Jahresrechnung auf. die Hauptversammlung (die Versammlung aller Mitglieder). Zu ihren Aufgaben gehören die Wahl von Senatoren und die Genehmigung der Jahresrechnung. Die Hauptversammlung kann mit Zweidrittelmehrheit Änderungen der Satzung beschließen. der Wissenschaftliche Rat und seine Sektionen. Der Wissenschaftliche Rat besteht aus den Wissenschaftlichen Mitgliedern und den Leitern der Institute bzw. Forschungseinrichtungen, ferner gehören ihm jene wissenschaftlichen Institutsmitarbeiter an, die in die Sektionen gewählt wurden. Der Wissenschaftliche Rat tagt in der Regel einmal, bei Bedarf zweimal im Jahr. Er berät über gemeinsame Anliegen der Sektionen; er kann Anträge an den Senat und Empfehlungen an die Sektionen richten. Emeritierte und auswärtige Wissenschaftliche Mitglieder können an den Sitzungen als Gäste mit beratender Stimme teilnehmen. Die Aufgaben der Organe, ihre Zusammensetzung, Wahlen, Amtszeiten und dergleichen sind in der Satzung festgelegt. Laut § 17 der Satzung bilden der Verwaltungsrat und der Generalsekretär (oder die Generalsekretäre, siehe unten) den Vorstand im Sinne des Gesetzes. Weitere Gremien Zur Organisation der Max-Planck-Gesellschaft gehören auch Fachbeiräte und Kuratorien. Diese Gremien sind den Max-Planck-Instituten zugeordnet. Beispielsweise soll es an jedem Institut ein Kuratorium geben. Die Fachbeiräte „stellen das zentrale Instrument der selbstgetragenen wissenschaftlichen Evaluation der Institute der Max-Planck-Gesellschaft dar“. Die Kuratorien der Max-Planck-Institute sollen dagegen die „Verbindung zur Öffentlichkeit“ herstellen. Ein aktuelles Verzeichnis der Kuratorien der Max-Planck-Institute mit allen Mitgliedern ist als PDF verfügbar. Mitglieder Als Verein hat die Max-Planck-Gesellschaft Mitglieder. Zum einen sind dies die Wissenschaftlichen Mitglieder, die in die Max-Planck-Gesellschaft berufen wurden und in der Regel zugleich Direktoren einer Abteilung an einem Max-Planck-Institut sind. Zu auswärtigen Wissenschaftlichen Mitgliedern können Wissenschaftler berufen werden, die eng mit einem MPI kooperieren. Dazu kommen die Fördernden Mitglieder, die sich in Persönlich Fördernde Mitglieder und Korporativ Fördernde Mitglieder (etwa Firmen, Verbände und Kommunen) aufteilen. Weiterhin gibt es Mitglieder von Amts wegen und schließlich die Ehrenmitglieder. Sektionen Die Forschungsrichtungen beziehungsweise die Max-Planck-Institute und ihre Wissenschaftler werden bei der Max-Planck-Gesellschaft drei Sektionen zugeordnet. Laut Satzung sind es Sektionen des Wissenschaftlichen Rates. Die Biologisch-Medizinische Sektion besteht aus 27 Max-Planck-Instituten und sieben Forschungseinrichtungen (Stand März 2023), die die Lebenswissenschaften in „ihrer gesamten Breite“ widerspiegeln. Trotz dieser Vielfalt besteht als „übergeordneter Forschungsschwerpunkt“ die Neurobiologie, an der zwölf Institute beteiligt sind. Die Chemisch-Physikalisch-Technische Sektion umfasst 33 Max-Planck-Institute (Stand März 2023). Die Grundlagenforschung widmet sich unter anderem den Strukturen der Materie, von Elementarteilchen bis zu Sternen, Galaxien und dem Universum. Außerdem werden zahlreiche technische Fragen bearbeitet, beispielsweise zu Metallen oder Polymeren (Kunststoffe, Fasern, Lacke, Klebstoffe u. a.). Auch die Klimaforschung gehört zu dieser Sektion. Die Geistes-, Sozial- und Humanwissenschaftliche Sektion umfasst 22 Max-Planck-Institute (Stand März 2023). Dazu zählen neun juristische Institute, von denen vier Rechtsfragen im Zusammenhang mit Themen der Wirtschaft bearbeiten. Satzung und Verfahren Der Betrieb der Max-Planck-Gesellschaft funktioniert im Rahmen einer Vielzahl von internen Regeln und Verfahren. Dazu gehören unter anderem: die Satzung. Die Satzung regelt die Aufgaben und Befugnisse der Organe und der weiteren Gremien. Nach § 1 Absatz 2 der Satzung betreiben die Institute der Gesellschaft die „wissenschaftliche Forschung frei und unabhängig“. Auch alle Institute sollen nach § 28 Absatz 2 über eine Satzung verfügen. ein Verhaltenskodex, ergänzt durch Hinweise für verantwortliches Handeln („LeitPLANCKen“) Bestimmungen zur Governance (dazu ein Kommentar von Wolfgang Schön aus dem Jahr 2015) Regeln zur Sicherung guter wissenschaftlicher Praxis (im Jahr 2000 vom Senat verabschiedet, 2009 geändert, später erweitert) Regeln zum verantwortlichen Umgang mit Forschungsfreiheit und Forschungsrisiken eine Verfahrensordnung bei Verdacht auf wissenschaftliches Fehlverhalten Verfahren zur Evaluation Leitlinien zum Datenschutz und zur IT-Sicherheit Regeln zum Berufungsverfahren Wahlordnungen Richtlinien zur Einsetzung von Ombudspersonen Regelungen für das Fachbeiratswesen und die Kuratorien der Max-Planck-Institute Emblem und Motto Von ihrem Vorgänger, der Kaiser-Wilhelm-Gesellschaft, hat die Max-Planck-Gesellschaft den Kopf der Minerva als ihr Emblem übernommen. Minerva war eine altitalische Göttin der Weisheit und der Künste, die als Hüterin des Wissens und Beschützerin der Dichter und Lehrer verehrt wurde. Die Minerva ziert auch das Abzeichen der Mitglieder der Max-Planck-Gesellschaft. Die Max-Planck-Gesellschaft nutzt als eine Art Motto häufig ein Zitat von Max Planck: „Dem Anwenden muss das Erkennen vorausgehen.“ Das Zitat steht beispielsweise am Anfang eines Kurzporträts der Max-Planck-Gesellschaft auf deren Website. Es ist auch der Titel eines Sammelbandes zur Geschichte der Kaiser-Wilhelm-Gesellschaft und der Max-Planck-Gesellschaft von Dieter Hoffmann, Birgit Kolboske und Jürgen Renn. Das Motto stammt aus dem Vortrag „Das Wesen des Lichts“, den Max Planck auf der Hauptversammlung der Kaiser-Wilhelm-Gesellschaft am 28. Oktober 1919 hielt. Er formulierte damals diese „alte Wahrheit“ (Planck) innerhalb eines längeren Satzes, in dem er die „Gründung und Erhaltung naturwissenschaftlicher Forschungsinstitute“ als die „vornehmste Aufgabe“ der Kaiser-Wilhelm-Gesellschaft bezeichnete. Einrichtungen Forschungseinrichtungen Max-Planck-Gesellschaft betreibt 85 wissenschaftlich eigenständige Forschungseinrichtungen, die sich in Max-Planck-Institute, Forschungsstellen und Arbeitsgruppen gliedern (Stand: Januar 2023). Diese Einrichtungen sind rechtlich nicht selbständig. Ausnahmen sind die Stiftung Max-Planck-Institut für Kohlenforschung und das Max-Planck-Institut für Eisenforschung als eigenständige juristische Personen. Fünf Max-Planck-Institute befinden sich im Ausland: die Bibliotheca Hertziana in Florenz und das Kunsthistorische Institut in Florenz, das Max-Planck-Institut für Psycholinguistik in Nijmegen, das Max Planck Florida Institute for Neuroscience in Jupiter (Florida) und das Max Planck Institute Luxembourg for International, European and Regulatory Procedural Law in Luxemburg. Im Zentrum der Max-Planck-Institute stehen weltweit führende Forscher, die ihre Themen selbst bestimmen, optimale Arbeitsbedingungen erhalten und ihre Mitarbeiter aussuchen können. Dieses sogenannte Harnack-Prinzip gilt als Merkmal der Max-Planck-Gesellschaft und als wesentlicher Faktor ihrer Erfolge. Weitere zentrale Einrichtungen Das Archiv der Max-Planck-Gesellschaft (Name bis 2006: Archiv zur Geschichte der Max-Planck-Gesellschaft) ist ein 1975 gegründetes Archiv in Berlin-Dahlem. Es sammelt und erschließt die Akten der Max-Planck-Gesellschaft und ihrer Vorgängereinrichtung, der Kaiser-Wilhelm-Gesellschaft. Das Berliner Büro der Max-Planck-Gesellschaft, das sich im WissenschaftsForum Berlin befindet, koordiniert die Kontakte der MPG mit Politik und anderen Wissenschaftsorganisationen und ist Teil der Generalverwaltung. Die Max Planck Digital Library unterstützt Wissenschaftler aller Max-Planck-Institute mit einem breiten Portfolio an Services in den Feldern Informationsversorgung, Publikationsdienstleistungen und Forschungsdatenmanagement. Aufgabe der MPDL ist es, Forschern der MPG einen optimalen Zugang zu wissenschaftlichen Informationen zu ermöglichen, eine nachhaltige Infrastruktur für das wissenschaftliche Informationsmanagement bereitzustellen und die MPG in ihrer Open-Access-Politik zu unterstützen. Die MDPL gehört zu den größten Beziehern von wissenschaftlicher Information in Europa. Sie organisiert den Zugang zu verschiedensten wissenschaftlichen Zeitschriften, E-Books, Fachdatenbanken und umfangreichen Open-Access-Publikationsdienstleistungen. Gemeinsam mit den Bibliotheken an den Max-Planck-Instituten stellt sie die Versorgung mit wissenschaftlichen Informationen und Publikationsmöglichkeiten sicher. Die Max Planck Computing & Data Facility (MPCDF) in Garching bei München betreibt zwei State-of-the-Art-Supercomputer und mehrere Servercluster und stellt damit Infrastruktur und Expertise für wissenschaftliche Berechnungen und (Daten-)Dienste für andere Max-Planck-Einrichtungen zentral zur Verfügung. Die Einrichtung ging 2015 aus dem Institut für Plasmaphysik (IPP) hervor und firmierte zuvor als Rechenzentrum Garching (RZG). Das Halbleiterlabor (HLL) der Max-Planck-Gesellschaft in München ist auf die Entwicklung, Herstellung und Bereitstellung von kommerziell nicht erhältlichen, neuartigen Halbleiter-Strahlungsdetektoren für Experimente spezialisiert. Seit 2013 ist es eine zentrale Einrichtung der der Max-Planck-Gesellschaft. Die Informationsvermittlungsstellen der MPG (IVS-BM und IVS-CPT) sind verantwortlich für die wissenschaftliche Informationsvermittlung für Mitarbeiter und Gäste der MPG. Die Tagungsstätten der Max-Planck-Gesellschaft: das Harnack-Haus in Berlin-Dahlem, Schloss Ringberg am Tegernsee, das Max-Planck-Haus in Heidelberg und das Max-Planck-Haus in Tübingen. Finanzierung 2019 betrug der Gesamthaushalt der Max-Planck-Gesellschaft 2,498 Milliarden Euro. Zuwendungen von Bund und Ländern Die Max-Planck-Gesellschaft wird zum größten Teil (2006: ca. 82 %) institutionell durch Zuwendungen von Bund und Ländern auf der Basis der Ausführungsvereinbarung MPG gefördert. Hierbei sind die aus der mit öffentlichen Mitteln finanzierten Tätigkeit erzielten Einnahmen (aus Gutachten, Geräteverkäufen, Lizenzverwertung – siehe Max-Planck-Innovation GmbH), zuwendungsmindernd im Gesamthaushalt der MPG zu veranschlagen. Die MPG sowie die beiden rechtlich selbständigen Max-Planck-Institute bilden eine sogenannte Antragsgemeinschaft und der Gesamthaushalt besteht aus drei rechtlich getrennten Teilhaushalten, für die jeweils eigene Bewirtschaftungsgrundsätze gelten. Über diese institutionelle Förderung der Antragsgemeinschaft hinaus können der Bund und die mitfinanzierenden Länder sogenannte Sonderfinanzierungen bewilligen, die jedoch wegen möglicher Folgelasten der Zustimmung des Bundes und der übrigen Länder bedürfen. Bund und Länder teilen sich diese Zuschüsse seit 1965 zu gleichen Teilen. Die Höhe der Zuschüsse wird seit 2008 durch die Gemeinsame Wissenschaftskonferenz (bis 2007 durch die Bund-Länder-Kommission für Bildungsplanung und Forschungsförderung) aufgrund des von der MPG vorzulegenden Gesamthaushaltsplans festgelegt. Dieser entspricht rechtlich einem Antrag auf institutionelle Förderung (vgl. §§ 23, 44 BHO). Weitere Einnahmen Weitere Einnahmen sind Zuwendungen zur Umsetzung von sogenannten Drittmittelprojekten, die vom Bund, von Ländern und der Europäischen Union auf der Basis standardisierter Bewilligungsbedingungen sowie im Rahmen der sogenannten steuerbegünstigten Auftragsforschung auch durch Zuwendungen der Industrie finanziert werden. Das sogenannte Private Vereinsvermögen der MPG wird im Rahmen des Gesamthaushalts haushaltstechnisch wie ein Betrieb nach § 26 BHO abgebildet, ohne ein solcher zu sein. Die eingehenden Spenden, Nachlässe, Erbschaften, die rechtlich unselbständigen Stiftungen sowie die Tagungsstätten der MPG Schloss Ringberg und das Harnack-Haus werden innerhalb des Vereinsvermögens bewirtschaftet. Eine Ausnahme ist das Max-Planck-Institut für Plasmaphysik, das seit seiner Gründung nur durch den Freistaat Bayern, den Bund und aus Euratom-Mitteln finanziert wird. Es war bis 1970 eine GmbH, bevor es vermögenslos gestellt und in die MPG überführt wurde. Planungssicherheit durch kontinuierliche Etatsteigerungen ist mit dem Pakt für Forschung und Innovation gegeben. Seit dem Jahr 2006 existiert die Max-Planck-Förderstiftung, die ihre eingeworbenen Mittel ausschließlich für Forschungsvorhaben der Max-Planck-Gesellschaft verwendet. Rechnungsprüfung Wegen der fast vollständigen Finanzierung aus öffentlichen Mitteln wird die Max-Planck-Gesellschaft durch die für die rechtlich unselbständigen Max-Planck-Institute aufgrund ihres Sitzlandes zuständigen Landesrechnungshöfe und die Generalverwaltung, die sogenannt zentral veranschlagten Mittel und das Private Vermögen durch den Bayer. Obersten Rechnungshof und den Bundesrechnungshof aufgrund der §§ 91 BHO, BayHO geprüft. Die staatlichen Rechnungshöfe sind bei ihrer Prüfungstätigkeit als Hilfsorgane der Parlamente tätig und kontrollieren durch ihre Tätigkeit eigentlich die Exekutive, d. h. die Wissenschaftsministerien, welche die staatlichen Gelder an die MPG bewilligen. Die Rechnungshöfe der BRD haben zur Vermeidung von Doppelprüfungen eine Prüfungsvereinbarung für die MPG geschlossen. Kooperationen Internationale Zusammenarbeit Laut der Max-Planck-Gesellschaft sind ihre Institute an mehr als 3000 Projekten mit über 6000 internationalen Partnern in über 120 Ländern beteiligt. Ein Beispiel sind die sogenannten Max Planck Center. Diese „virtuellen Exzellenzzentren“ sind auf jeweils fünf Jahre angelegt (mit einmaliger Verlängerungsoption). Derzeit gibt es 16 Max Planck Center in neun Ländern in Europa, Nordamerika, Asien und Australien (Stand Februar 2023). Eine andere Form der Zusammenarbeit sind die sogenannten Partnergruppen, die der weltweiten Förderung von Nachwuchswissenschaftlern dienen. Ein Max-Planck-Institut kann eine Partnergruppe im Ausland einrichten, wenn zuvor exzellente Nachwuchsforscher aus dem betreffenden Land an dem Institut gearbeitet haben. Die Laufzeit dieser Projekte beträgt maximal fünf Jahre. Derzeit gibt es mehr als 90 Partnergruppen in zahlreichen Ländern; besonders viele wurden in Indien gegründet (Stand Februar 2023). Schon seit 1974 arbeitet die Max-Planck-Gesellschaft mit der Chinesischen Akademie der Wissenschaften zusammen. Die Zusammenarbeit begann mit dem Besuch einer vom damaligen MPG-Präsidenten Reimar Lüst angeführten Delegation in Peking. 1999 wurde die Einrichtung von Partnergruppen beschlossen. Von 2004 bis 2020 gab es ein Partnerinstitut für Bioinformatik in Shanghai. Heute kommen etwa 10 Prozent aller ausländischen Nachwuchs- und Gastwissenschaftler an den Max-Planck-Instituten aus China (Stand 2023). China ist unter den Herkunftsländern der Gastwissenschaftler führend – und zwar in allen Forschungsbereichen der Max-Planck-Gesellschaft. 2011 wurde das Partnerinstitut CONICET in Buenos Aires gegründet, das sich mit biomedizinischer Forschung beschäftigt. Für ihre internationale Zusammenarbeit wurde die Max-Planck-Gesellschaft 2013 mit dem Prinz-von-Asturien-Preis ausgezeichnet. Gesellschaft für wissenschaftliche Datenverarbeitung Die 1970 gegründete Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen (GWDG) ist eine gemeinsame Einrichtung der Universität Göttingen und der Max-Planck-Gesellschaft. Max-Planck-Forschungsgruppen an Universitäten Die „Max-Planck-Forschungsgruppen“ an Universitäten sind befristete, transdisziplinäre Arbeitsgruppen, die der stärkeren Vernetzung der Max-Planck-Institute mit den Universitäten dienen sollen. Es handelt es sich nicht um Forschungseinrichtungen der Max-Planck-Gesellschaft, sondern um Forschungseinheiten der Universitäten. Die Leiter und das Personal werden von den Universitäten angestellt. Die Finanzierung erfolgt in der Regel paritätisch durch die MPG und die Universität. Die Berufung des Leiters und die Evaluierung erfolgen nach den strengen Regeln der MPG. Nach dem Ablauf der Mitförderung durch die MPG soll die Forschungsgruppe in die jeweilige Universität integriert oder aufgelöst werden. Es ist jedoch möglich, dass aus ihr ein Max-Planck-Institut oder eine Max-Planck-Forschungsstelle entsteht, wie in diesen beiden Fällen: Max-Planck-Forschungsgruppe Optik, Information und Photonik an der Universität Erlangen-Nürnberg (2004–2008), danach umgewandelt in das Max-Planck-Institut für die Physik des Lichts Max-Planck-Forschungsgruppe für strukturelle Dynamik an der Universität Hamburg (2008–2012), danach umgewandelt in das Max-Planck-Institut für Struktur und Dynamik der Materie Derzeit (2023) gibt es folgende Forschungsgruppen: Forschungsgruppe für Marine Geochemie (ICBM-MPI Brückengruppe) an der Universität Oldenburg Max-Planck-Forschungsgruppe Marine Isotopengeochemie an der Universität Oldenburg Max-Planck-Forschungsgruppe für Systemimmunologie an der Universität Würzburg Max Planck Schools Die Max Planck Schools sind ein gemeinsames Graduiertenprogramm von derzeit 24 Universitäten und 34 Instituten der außeruniversitären Forschungseinrichtungen (Stand Februar 2023). In den Max Planck Schools sollen sich jeweils bis zu 50 führende Forscher vernetzen, um hochqualifizierten Doktoranden frühzeitig Zugang zur interdisziplinären Spitzenforschung zu bieten. Partner, die in der Pilotphase (2018–2025) „eine herausgehobene Rolle spielen“, sind laut der Website der Max-Planck-Gesellschaft: die Max-Planck-Gesellschaft, die Fraunhofer-Gesellschaft, das DWI – Leibniz-Institut für Interaktive Materialien in Aachen, das Karlsruher Institut für Technologie sowie Universitäten in Berlin, Düsseldorf, Erlangen-Nürnberg, Göttingen, Heidelberg, Jena, Leipzig und München. Die drei Max Planck Schools sind nach ihrem jeweiligen Forschungsgebiet benannt: Max Planck School of Cognition (Wissen und Kognition), Max Planck School Matter to Life (Erforschung und Nachbildung lebendiger Systeme mit Ansätzen aus Biologie, Chemie, Physik und den Ingenieurwissenschaften), Max Planck School of Photonics (Photonik). Munich Quantum Valley Der Verein „Munich Quantum Valley“ wurde am 27. Januar 2022 mit dem Ziel gegründet, wettbewerbsfähige Quantencomputer in Bayern zu entwickeln und zu betreiben. Gründungsmitglieder sind die Max-Planck-Gesellschaft, die Fraunhofer-Gesellschaft, das Deutsche Zentrum für Luft- und Raumfahrt, die Bayerische Akademie der Wissenschaften sowie drei Universitäten: die Friedrich-Alexander-Universität Erlangen-Nürnberg, die Ludwig-Maximilians-Universität München und die Technische Universität München. Die Max-Planck-Gesellschaft ist mit drei Einrichtungen beteiligt: dem Max-Planck-Institut für die Physik des Lichts, dem Max-Planck-Institut für Quantenoptik und dem eigenen Halbleiterlabor. Allianz der Wissenschaftsorganisationen Die Max-Planck-Gesellschaft ist durch ihren jeweiligen Präsidenten in der sogenannten Allianz der Wissenschaftsorganisationen vertreten, in der die Spitzen der deutschen Forschungsorganisationen sich regelmäßig beraten und austauschen. Tochtergesellschaften Max-Planck-Innovation GmbH Für die Patentierung und Verwertung der Forschungsergebnisse wurde von der Max-Planck-Gesellschaft 1970 eine Verwertungsgesellschaft gegründet, die 2008 in Max-Planck-Innovation GmbH umbenannt wurde. Diese ist eine kommerzielle GmbH und 100%ige Tochter der MPG und verwertet die Erfindungen aus dem Bereich der Max-Planck-Institute auf Kommissionsbasis (in eigenem Namen, aber auf Rechnung der MPG). Sie erhält ihre Verwertungsaufwendungen einschließlich eines steuerlich angemessenen Gewinns von der MPG auf Basis eines Kommissionsvertrages von 1980, geändert 2002, ersetzt. Daneben hat die MPG der Max-Planck-Innovation GmbH seit 1995 wegen der Synergieeffekte auch die Patentverwaltung übertragen, die bis dahin in einem Patentreferat der Generalverwaltung angesiedelt war. Hierfür erhält die Max-Planck-Innovation ebenfalls ein Entgelt in Form des Aufwendungsersatzes. Pro Jahr werden durchschnittlich 130 Erfindungen bewertet, von denen schließlich 80 bis 100 zu einer Patentanmeldung führen. Minerva Stiftung Die Minerva Stiftung fördert den wissenschaftlichen Austausch zwischen Deutschland und Israel. Von 2008 bis 2019 vergab sie den Arches Award („Award for Research Cooperation and High Excellence in Science“) an herausragende Forscher und exzellente Projekte in deutsch-israelischer Kooperation. Max-Planck-Stiftung für Internationalen Frieden und Rechtsstaatlichkeit Anfang 2013 wurde mit der Max-Planck-Stiftung für Internationalen Frieden und Rechtsstaatlichkeit die dritte Tochtergesellschaft gegründet. Die Stiftung führt juristische Beratung und Fortbildungen in Konfliktgebieten und Transformationsstaaten durch. Publikationen MaxPlanckForschung Die Max-Planck-Gesellschaft gibt seit dem Jahr 1999 ein vierteljährlich erscheinendes, kostenloses Forschungsmagazin mit dem Titel MaxPlanckForschung heraus. Die Druckauflage liegt bei 75.000 Exemplaren, die der englischen Ausgabe MaxPlanckResearch bei 10.000 Exemplaren (Stand Januar 2023). Beide Magazine werden außerdem als App und als E-Paper angeboten. Vorgänger der MaxPlanckForschung waren die Zeitschriften MPG-Monatsspiegel (1972–1973) und MPG-Spiegel (1973–1998). Die „Max-Reihe“ Mit den vierseitigen Informationsbroschüren Biomax, Geomax und Techmax erscheint die „Max-Reihe“, die Unterrichtsmaterialien für naturwissenschaftliche Fächer im Schulunterricht der Oberstufe bereitstellt und „aktuelle Forschungsergebnisse in den Unterricht“ einbringen soll. Die Broschüren sind – ergänzt um zusätzliches Text- und Bildmaterial – über die Seite „max-wissen“ online zugänglich. „Forschungsperspektiven“ In den Jahren 2000, 2005 und 2010 legte die Max-Planck-Gesellschaft Publikationen zu den Forschungsperspektiven in ausgewählten Wissenschaftsgebieten vor: die Forschungsperspektiven 2000+ (260 Seiten), die Forschungsperspektiven 2005+ (130 Seiten) und die Forschungsperspektiven 2010+. Bei der letzteren Ausgabe verfassten mehr als 120 Max-Planck-Direktoren detaillierte englische Texte zu 36 Themenfeldern; daneben erschienen Broschüren mit kürzeren Texten auf Deutsch und Englisch, die ebenso wie die englischen Langtexte online gestellt wurden. Geldgeber für eLife Die Max-Planck-Gesellschaft ist einer der Sponsoren der Open-Access-Zeitschrift eLife. Weitere Geldgeber von eLife sind der britische Wellcome Trust, das US-amerikanische Howard Hughes Medical Institute und die schwedische Stiftung von Knut und Alice Wallenberg. Preisverleihungen Forschungspreis Von 1990 bis 2016 wurde der Max-Planck-Forschungspreis vergeben. Der Preis war seit 2004 mit 750.000 Euro dotiert und wurde seitdem an zwei Forscher vergeben, von denen einer in Deutschland und einer im Ausland tätig war. Danach wurde der Preis umbenannt und die Vergabe geändert. Seit 2018 wird der Max-Planck-Humboldt-Forschungspreis an einen einzelnen Preisträger vergeben. Der Preisträger ist stets eine Person aus dem Ausland. Über die Vergabe wird gemeinsam mit der Alexander von Humboldt-Stiftung entschieden. Das Preisgeld in Höhe von 1,5 Millionen Euro wird vom Bundesministerium für Bildung und Forschung zur Verfügung gestellt. Weitere Auszeichnungen Für besondere Verdienste um die Max-Planck-Gesellschaft verleiht die MPG die Harnack-Medaille, die schon 1924, zu Zeiten der Kaiser-Wilhelm-Gesellschaft, gestiftet wurde. Für besondere Leistungen in der neurologischen Grundlagenforschung wird seit 1990 der Zülch-Preis verliehen. Für Projekte aus der Grundlagenforschung, die erfolgreich in der Praxis angewandt werden, vergibt die Gesellschaft seit 1998 gemeinsam mit dem Stifterverband für die Deutsche Wissenschaft einen „Stifterverbandspreis“. Darüber hinaus werden mehrere Auszeichnungen für Nachwuchsforscher vergeben, darunter die Otto-Hahn-Medaille. Karriereförderung Die Max-Planck-Gesellschaft unterhält diverse Programme zur Karriereförderung von Wissenschaftlern. Sie werden einer Broschüre dargestellt. Speziell für die Karriereförderung von Frauen wurde ein Mentoring-Netzwerk names „Minerva-FemmeNet“ eingerichtet. Es wurde im Mai 2001 am MPI für Biophysik in Frankfurt gegründet und 2009 institutionalisiert. Bis April 2010 schlossen sich dem Netzwerk weitere 49 Max-Planck-Institute an. Das Mentoring-Programm, das heute am Max-Planck-Institut für europäische Rechtsgeschichte koordiniert wird, steht auch ehemaligen Institutsangehörigen offen. Im Netzwerk arbeiten rund 270 ehrenamtliche Mentorinnen mit, Teilnehmerinnen können zugleich Mentorin und Mentee sein. Die Mitglieder vernetzen sich über regelmäßige Treffen („Stammtische“) in verschiedenen Regionen Deutschlands und organisieren in regelmäßigen Abständen öffentliche Veranstaltungen wie etwa Podiumsdiskussionen. Doktoranden Allgemeines Die meisten Doktoranden der Max-Planck-Gesellschaft sind einem Max-Planck-Institut zugeordnet. Künftige Doktoranden können sich aber auch an einer International Max Planck Research School bewerben, etwa ein Drittel entscheidet sich für diesen Weg. Bewerbungen sind auch bei den drei Max Planck Schools sowie den drei Max Planck Graduate Centern möglich. 2003 wurde das Max Planck PhDnet gegründet, das deutschlandweite Doktoranden-Netzwerk der Max-Planck-Gesellschaft. Im PhDnet wird vorwiegend englisch gesprochen. Das PhDnet ist Mitglied im Netzwerk N2. Kritik an der Bezahlung von Doktoranden Im Dezember 2003 klagte der italienische Physiker Andrea Raccanelli, damals Doktorand am Max-Planck-Institut für Radioastronomie in Bonn, beim Arbeitsgericht Bonn dagegen, dass ausländische Promovierende an Max-Planck-Instituten in der Regel mit einem Stipendium und somit ohne Sozialversicherungsbeiträge, deutsche Doktoranden hingegen sozialversicherungspflichtig beschäftigt wurden. Im Mai 2004 wandte er sich außerdem an die Europäische Kommission. Diese sah keine Verletzung von EU-Recht, nachdem die Max-Planck-Gesellschaft interne Richtlinien formal geändert hatte. Das Verfahren vor dem Arbeitsgericht Bonn endete 2008 mit einem Urteil gegen Raccanelli. Medien berichteten im Jahr 2012 über zunehmende Klagen darüber, dass sich die Vergabe von Stipendien erheblich ausgeweitet habe, was kontrovers bewertet wurde. Die Gewerkschaft Erziehung und Wissenschaft teilte mit, dass der Anteil der Doktoranden an Max-Planck-Instituten, die über ein Stipendium finanziert werden, von 36 % im Jahr 2004 auf 60 % gestiegen sei. Dies laufe auf eine Hinterziehung von Sozialversicherungsbeiträgen hinaus. MPG-Präsident Peter Gruss wies die Kritik zurück. Im März 2015 kündigte die Max-Planck-Gesellschaft an, ab Juli 2015 alle Doktoranden mit einem Max-Planck-Fördervertrag auszustatten. Im Endausbau sollten damit die Mittel für die Nachwuchsförderung um 50 Millionen Euro angehoben werden, was Mehrausgaben für den Nachwuchs von 40 % entspreche. Zugleich hat die Max-Planck-Gesellschaft im Jahr 2015 Leitlinien für die Ausbildung von Doktorandinnen und Doktoranden verabschiedet und veröffentlicht. Siehe auch Hochschulen und Forschungseinrichtungen in Berlin Deutsche Forschungsgemeinschaft Fraunhofer-Gesellschaft Helmholtz-Gemeinschaft Deutscher Forschungszentren Literatur (Chronologisch) Rudolf Vierhaus, Bernhard vom Brocke (Hrsg.): Forschung im Spannungsfeld von Politik und Gesellschaft. Geschichte und Struktur der Kaiser-Wilhelm-/Max-Planck-Gesellschaft. Deutsche Verlags-Anstalt, Stuttgart 1990, ISBN 3-421-02744-7. Bernhard vom Brocke, Hubert Laitko (Hrsg.): Die Kaiser-Wilhelm-/Max-Planck-Gesellschaft und ihre Institute. Studien zu ihrer Geschichte: Das Harnack-Prinzip. Walter de Gruyter, Berlin/ New York 1996, ISBN 3-11-015483-8. 50 Jahre Max-Planck-Gesellschaft zur Förderung der Wissenschaften. (Im Auftrage des Präsidenten Hubert Markl bearb. im Archiv zur Geschichte der MPG). 2 Bände. Duncker & Humblot, Berlin 1998, ISBN 978-3-428-09068-6. Teil I: Chronik der MPG 1948–1998. Mit einem Geleitwort von Hubert Markl. Teil II: Wissenschaftliche Mitglieder der MPG im Bild. Zusammengestellt von Eckart Henning und Dirk Ullmann. Mit einem Geleitwort von Wolf Singer. Max-Planck-Gesellschaft (Hrsg.): Forschung an den Grenzen des Wissens: 50 Jahre Max-Planck-Gesellschaft 1948–1998. Dokumentation des wissenschaftlichen Festkolloquiums und der Festveranstaltung zum 50jährigen Gründungsjubiläum am 26. Februar 1998 in Göttingen. Vandenhoeck & Ruprecht, Göttingen 1998, ISBN 3-525-86127-3. Gretchen Vogel: Aufbau Ost: Max Planck’s East German Experiment. In: Science. Band 326, 6. November 2009, S. 788–791, Vorschau bei science.org. Eckart Henning, Marion Kazemi: 100 Jahre Kaiser-Wilhelm-/Max-Planck-Gesellschaft zur Förderung der Wissenschaften. Teil I: Chronik der Kaiser-Wilhelm-/Max-Planck-Gesellschaft zur Förderung der Wissenschaften 1911–2011. Daten und Quellen. Duncker & Humblot, Berlin 2011, ISBN 978-3-428-13623-0. Teil II: Handbuch zur Institutsgeschichte der Kaiser-Wilhelm-/Max-Planck-Gesellschaft zur Förderung der Wissenschaften 1911–2011. Daten und Quellen. Max-Planck-Gesellschaft, Berlin 2016. 2 Teilbände. Teilband II-1: Institute und Forschungsstellen A–L (PDF; 74 MB). Teilband II-2: Institute und Forschungsstellen M-Z (PDF; 74 MB). Peter Gruss, Reinhard Rürup (Hrsg.): Denkorte. Max-Planck-Gesellschaft und Kaiser-Wilhelm-Gesellschaft. Brüche und Kontinuitäten 1911–2011. Sandstein Verlag, Dresden 2011, ISBN 978-3-942422-01-7. Richard E. Schneider: Ein (Wieder)Aufbau unter ungewissen Vorzeichen: Die Gründungsgeschichte der Max-Planck-Gesellschaft. In: Deutschland-Archiv. 8/2011, 15. August 2011 (online) Weblinks Web-Präsenz der Max-Planck-Gesellschaft Satzung der Max-Planck-Gesellschaft (PDF; 412 kB) max-wissen Website der Max-Planck-Gesellschaft für Schulen mit Unterrichtsmaterialien Youtube-Kanal der Max-Planck-Gesellschaft (deutsche und englische Filme) Daniela Wakonigg: 26. Februar 1948 – Max-Planck-Gesellschaft wird gegründet WDR ZeitZeichen vom 26. Februar 2023 (Audio, 14:45 Min.) Eintrag im Lobbyregister des Deutschen Bundestages Belege Forschungsorganisation (Berlin) Wissenschaftliche Organisation (Deutschland) Verein (Berlin) Gegründet 1948 Max Planck Eingetragen im Lobbyregister des Deutschen Bundestags
Q158085
104.002875
173347
https://de.wikipedia.org/wiki/Redensart
Redensart
Redensarten gehören zu den feststehenden sprachlichen Wendungen (Phraseologismen). Meistens sind es bildhafte Ausdrücke. Dennoch werden die beiden Begriffe häufig synonym verwendet. Grammatische Merkmale Der Sprachwissenschaftler Lutz Röhrich bezeichnet sprichwörtliche Redensarten als Wortgruppen-Lexeme. Sie stehen nicht für sich allein und müssen zur Verwendung innerhalb eines Satzes noch ergänzt werden. Es fehlt ihnen mindestens das Subjekt, wie z. B. bei der Wendung „mit dem Zaunpfahl winken“. Redensarten sind keine Sätze, sondern prädikative Wortgruppen. In Sammlungen werden sie stets in Infinitivform aufgeführt, z. B. „im Trüben fischen“. Bei der Ergänzung des Subjekts werden sie entsprechend gebeugt, z. B. „Er fischt im Trüben“. Beispiele Siehe auch Idiom (Spracheigentümlichkeit) Geflügeltes Wort (mit Liste geflügelter Worte) Liste deutscher Redewendungen Redewendung Literatur Wilhelm Borchardt: Die sprichwörtlichen Redensarten im deutschen Volksmund nach Sinn und Ursprung erläutert. J. A. Brockhaus, Leipzig 1925, 6. Auflage. Vollst. neu bearb. von Georg Schoppe, Erstauflage 1888. Wolfgang Hug: Wissen, wo Barthel den Most holt. Kleine Kulturgeschichte Geflügelter Worte. Wochenschau Verlag (b|d edition), Schwalbach 2009, ISBN 978-3-941264-05-2. Rudolf Köster: DUDEN Redensarten. Herkunft und Bedeutung. Bibliographisches Institut & F. A. Brockhaus, Mannheim 2007, ISBN 3-411-70502-7. Kurt Krüger-Lorenzen: Deutsche Redensarten und was dahinter steckt, mit Zeichnungen von Franziska Bilek, Wilhelm Heyne Verlag, München 2001, 2. Auflage, ISBN 3-453-18838-1. Lutz Röhrich: Das Lexikon der sprichwörtlichen Redensarten. Digitale Bibliothek, Band 42 (CD-ROM). Directmedia Publishing, Berlin 2004, ISBN 3-89853-442-1. Walter Schmidkunz: Waschechte Weisheiten – Bairisch-bäurische Sprichwörter und Redensarten., verlegt, gedruckt, gebunden zu Erfurt 1936, Gebr. Richters Verlagsanstalt, . Matthias Zimmermann: Sprich mit meinem Arsch, mein Kopf ist krank!: Die schmutzigsten Redensarten und fiesesten Flüche unserer europäischen Nachbarn , be.bra Verlag, Berlin 2013, , ISBN 978-3-86124-667-1. Weblinks Wörterbuch für Redensarten, Redewendungen, idiomatische Ausdrücke und feste Wortverbindungen Deutsche Sprichwörter und Redewendungen Englische und deutsche Redensarten Biblische Redensarten Etymologie der Redensarten redensarten.net Redensarten und Redewendungen als Würze einer Sprache Das Lexikon der Redensarten Einzelnachweise !Redensart
Q184511
142.507074
4743694
https://de.wikipedia.org/wiki/UTC%2B11
UTC+11
UTC+11 ist eine Zonenzeit, welche den Längenhalbkreis 165° Ost als Bezugsmeridian hat. Auf Uhren mit dieser Zonenzeit ist es elf Stunden später als die koordinierte Weltzeit und zehn Stunden später als die MEZ. Geltungsbereich Ganzjährig Am 4. Oktober 2015 wurden die Uhren auf der Norfolk-Insel um 02:00 Uhr auf 01:30 Uhr zurückgestellt. nur in den Ulussen Abyj, Allaicha, Moma, Nischnekolymsk, Srednekolymsk und Werchnekolymsk Sommerzeit (Südliche Hemisphäre) (ausgenommen Broken Hill, aber einschließlich der Lord-Howe-Insel) Einzelnachweise UTC31 es:Huso horario#UTC+11:00, L
Q7069
3,134.129164
109117
https://de.wikipedia.org/wiki/Como
Como
Como (früherer deutscher Name: Chum) ist eine Stadt in der italienischen Region Lombardei mit Einwohnern (Stand ) und Hauptort der Provinz Como. Die Stadt liegt 45 Kilometer nördlich von Mailand, am gleichnamigen See und an der Grenze zum Kanton Tessin (Schweiz). Geografie Como liegt am Fuß der italienischen Voralpen, am Südwestende des Comer Sees, der sich auf der Höhe von Menaggio nach Süden in zwei Arme (Lago di Como und Lago di Lecco) teilt. Weil der Abfluss des Comer Sees, die Adda, den See bei Lecco verlässt und der andere Arm des Sees keinen Abfluss hat, wird zu Zeiten der Schneeschmelze und besonders starker Niederschläge, ganz besonders bei Nordwind, der das Wasser gegen Como staut, die Stadt fast jährlich von Hochwasser heimgesucht. Die Stadt liegt verkehrsgünstig an der Eisenbahnlinie Mailand–Zürich und an der Autostrada A9, die sich in der Schweiz als A2 fortsetzt, was zur Ansiedlung vieler Industriebetriebe geführt hat. Como ist die größte Stadt der schweizerisch-italienischen Metropolregion Tessin, die insgesamt mehr als 500.000 Einwohner hat. Die Nachbargemeinden sind: Blevio, Brunate, Capiago Intimiano, Casnate con Bernate, Cavallasca, Cernobbio, Grandate, Lipomo, Maslianico, Montano Lucino, San Fermo della Battaglia, Senna Comasco, Tavernerio, Torno, Chiasso (CH-TI) und Vacallo (CH-TI). Klima Der Winter in Como wird durch den mildernden Einfluss der Wassermassen des Sees relativ stark beeinflusst. Die Tiefsttemperaturen im November, Dezember, Januar, Februar und manchmal auch im März können in der Regel unter den Nullpunkt sinken und gehen meist mit einer hohen Luftfeuchtigkeit einher. Der Nebel, der für die nahe gelegene Brianza und die Poebene charakteristisch ist, fehlt hingegen völlig und ist nur teilweise jenseits der Hügel südlich des so genannten „Convalle“, d. h. des Stadtzentrums, vorhanden. Schneefall ist relativ häufig, wenn auch je nach Winter unregelmäßig, wobei die durchschnittlichen jährlichen Schneemengen vom Tal (ca. 20/30 cm pro Jahr) bis zu den Vorstädten (ca. 40/50 cm pro Jahr) ansteigen. Die letzten bedeutenden Schneefälle waren am 24. und 25. Februar 2013, am 13., 14. und 15. Dezember 2012, am 31. Januar, 1. und 2. Februar 2012, am 17. Dezember 2010, am 21. und 22. Dezember 2009, am 2. Februar und 6. und 7. Januar 2009 sowie am 26., 27. und 28. Januar 2006. Im Februar 2012 blieb der Schnee aufgrund der sehr niedrigen Temperaturen länger liegen, mit Höchstwerten unter Null sogar im Zentrum für fast eine Woche. Der Sommer ist relativ heiß, auch wenn die Spitzenzeiten relativ kurz sind (nicht mehr als zwei aufeinanderfolgende Wochen). Gelegentlich können die Temperaturen 35 bis 36 °C erreichen. Die Niederschlagsmenge ist mit durchschnittlich 1500 mm pro Jahr recht hoch und liegt in den nördlichsten Bezirken noch höher. Das Gebiet hat eine starke Neigung zu Unwettern. In der Gemeinde gibt es Unterschiede bei den nächtlichen Mindestwerten zwischen den Vierteln, je nachdem, ob sie nächtlichen Brisen ausgesetzt sind oder nicht. Während der Sommersaison sind die Temperaturen in den am See gelegenen Bezirken aufgrund der Seebrise am Morgen oft niedriger als in den Bezirken im Landesinneren, doch gleichen sich die Temperaturen am Nachmittag aufgrund der Drehung des Windes oft aus. Geschichte Das Gebiet auf den Hügeln südlich des Comer Sees wies seit dem 10. Jahrhundert vor Christus eine dichte dörfliche Besiedlung auf. Nach einer Blütephase im 5. Jahrhundert vor Christus kam es nach den Einfällen der Kelten zu einem Niedergang. Laut dem älteren Cato soll Comum (wie die Römer Como nannten) vom Stamm der Orobier gegründet worden sein. Iustinus gibt an, dass Comum eine Gründung der Gallier war, nachdem diese Norditalien erobert hatten; allerdings spezifiziert Iustinus den diesbezüglichen gallischen Stamm nicht näher. Die Siedlung wird nur einmal während der Kriege zwischen Römern und Galliern 196 v. Chr. erwähnt, als der Konsul Marcus Claudius Marcellus Comenses (Name der Einwohner von Comum) und Insubrer besiegte und Comum eroberte. Nach der Unterwerfung von Gallia cisalpina dürfte sich eine Anzahl römischer Siedler in Comum niedergelassen haben. Doch diese erlitten durch Einfälle der benachbarten Räter immer wieder Schäden. Um 89 v. Chr. schickte Gnaeus Pompeius Strabo beträchtlich mehr Siedler nach Comum und machte es zu einer Kolonie latinischen Rechts, die bald darauf um weitere 3000 Kolonisten verstärkt wurde. Gaius Iulius Caesar siedelte 59 v. Chr. 5000 weitere Kolonisten, darunter 500 angesehene Griechen, in der Stadt an. Diese bekam nun den Namen Novum Comum. Kurz vor Ausbruch des Bürgerkriegs zwischen Caesar und Pompeius suchten die Feinde Caesars diesen dadurch zu treffen, dass sie Comum den privilegierten Status einer Kolonie latinischen Rechts wieder entziehen lassen wollten. Nach Caesars erfolgreichem Vormarsch nach Italien verlieh er aber 49 v. Chr. den Einwohnern von Comum zusammen mit jenen der übrigen Gemeinden der Gallia Transpadana das römische Bürgerrecht. Seit augusteischer Zeit war die Stadt ein municipium und wurde allgemein nur Comum genannt. Der Ort war wohlhabend; er hatte eine wichtige Eisenindustrie und die Ufer des Sees waren mit Villen übersät. Er war der Ausgangspunkt für die Überfahrt über den See, um zum Splügenpass und zum Septimerpass zu kommen (siehe auch Chiavenna). Como war der Geburtsort sowohl Plinius des Älteren als auch Plinius des Jüngeren. Letzterer gründete hier Bäder und eine Bibliothek und spendete Geld zur Unterstützung von Waisen. Im späten Kaiserreich gab es einen praefectus classis Comensis und Comum wurde als starke Festung betrachtet. Noch heute zeigt die Stadt den planimetrischen Grundriss des römischen castrum. Reste der römischen Umfassungsmauer verlaufen unterirdisch parallel zu den noch sichtbaren mittelalterlichen Stadtmauern. Como litt erheblich unter den frühen germanischen Invasionen. Viele der Einwohner nahmen auf der Isola Comacina bei Sala Zuflucht, kehrten aber in der langobardischen Zeit zurück. In dieser Zeit begannen die Magistri Comacini eine privilegierte Zunft der Architekten und Steinmetze zu gründen, die auch in anderen Teilen Italiens beschäftigt wurden. Como kam dann unter die Herrschaft der Erzbischöfe von Mailand, gewann gegen Ende des 11. Jahrhunderts aber seine Freiheit wieder. Zu Beginn des 12. Jahrhunderts brach zwischen Como und Mailand Krieg aus, nach zehn Jahren wurde Como eingenommen und seine Befestigungen wurden 1127 geschleift. 1154 zog es aus der Ankunft Friedrich Barbarossas Vorteil und blieb ihm während des ganzen Krieges mit dem Lombardenbund treu. Im Jahre 1169 verwüstete Como die Isola Comacina, die von Mailand gegen Como befestigt worden war. 1183 erhielt Como im Konstanzer Frieden wie alle lombardischen Kommunen die Unabhängigkeit. Im 13. Jahrhundert wurde Como Zeuge der erbitterten Kämpfe zwischen den Vittani (Guelfen) und den Rusconi (Ghibellinen). Nach häufigen Kämpfen mit Mailand fiel Como von 1335 bis 1447 unter die Macht der Visconti. Nach einer kurzen Zeit der Unabhängigkeit als Repubblica di Sant’Abbondio unterwarf sich Como 1450 Francesco Sforza, dem Herzog von Mailand. 1521 wurde Como von den Spaniern belagert und geplündert und fiel wie der Rest der Lombardei unter die spanische Herrschaft. Im Frieden von Rastatt kam Como zusammen mit dem Gebiet Mailands 1714 an Österreich, später zur Cisalpinischen Republik, zum napoleonischen Königreich Italien und wieder zu Österreich. In der napoleonischen Ära war es die Hauptstadt des Départements Lario. Seine Seidenindustrie und die Lage am Eingang der Alpenpässe verliehen ihm selbst da einige Bedeutung. Como trug in den „Fünf Tagen“ im März 1848 (Cinque giornate) zusammen mit Mailand wesentlich zu den nationalen Aufständen gegen die österreichische Garnison bei. 1859 empfing Como Giuseppe Garibaldi nach dem Sieg von San Fermo als Befreier von der österreichischen Herrschaft. 1885 wurden die Gemeinden Camerlata und Monte Olimpino eingemeindet. Bevölkerung Kultur und Sehenswürdigkeiten Dom zu Como Mit dem Bau der Kathedrale wurde 1396 begonnen, die Fassade stammt aus der zweiten Hälfte des 15. Jahrhunderts, als eigentlich schon die Renaissance begonnen hatte. Aber diese Fassade hat deutlich noch gotische Züge. Das liegt unter anderem daran, dass Norditalien in viel höherem Maße unter dem deutschen Einfluss des nördlichen Reiches stand, und das gilt besonders für Como. Como hatte in seiner Architektur Beziehungen vor allem zum Rheinland (S. Fedele). Die Lombardei ist nach dem germanischen Stamm der Langobarden benannt. In der lombardischen Architektur können die Flechtbänder auf ihren Einfluss zurückgeführt werden. Daneben spielt in der Lombardei noch das byzantinische, aus der Spätantike stammende Erbe eine Rolle. An der Domfassade sieht man diese alte Tradition an den vier senkrechten Bändern, die die Fassade in drei Felder unterteilen. Auf der Grundlage dieses lombardischen Flechtband- und Rankenmotives des frühen Mittelalters haben sich auch die figürlichen und pflanzlichen Ornamente entwickelt. Diese spezielle Dekorationskunst der Lombardei hat sich stark ausgebreitet, bis hinauf nach Skandinavien. Man sieht diese Schmuckformen hier am Comer Dom an der Nahtstelle zwischen Dom und Gerichtshalle. Die Schmuckbänder, die in ihrer ursprünglichen Form mit abstrakten Motiven gefüllt waren, sind hier nach einem ganz ähnlichen Prinzip mit Figuren gefüllt. Der plastische Schmuck des Comer Domes wurde von Tommaso Rodari und seinen Brüdern um 1500 herum geschaffen, der deutlich zur Renaissance gehört. Um den außergewöhnlich hohen Anteil von plastischen Kunstwerken an dieser Fassade vor den Verunreinigungen vor allem der insgesamt rund 120.000 Tauben zu schützen, hat man von weitem kaum sichtbar ein Gitter davor gespannt. Zu beiden Seiten des Hauptportals sind, ungewöhnlich genug für eine christliche Kirche, zwei heidnische Schriftsteller verewigt: Plinius der Ältere und sein Neffe Plinius der Jüngere, die im 1. und 2. nachchristlichen Jahrhundert in Como geboren wurden. Damit ist zur Zeit des italienischen Humanismus den beiden römischen Literaten und Naturkundlern ein Denkmal gesetzt und gleichzeitig das Ende des „dunklen“ Mittelalters betont worden, indem man an der Fassade der Stadtkirche zwei Nichtchristen lebensgroß abgebildet hat. Der Chorbereich zeigt im Gegensatz zur Fassade klare Renaissanceformen. Er wurde ab 1513 wiederum von Tommaso Rodari begonnen. Die Kuppeln wurden erst im 18. Jahrhundert vollendet. Damit gehört der Comer Dom zu den vielen bedeutenden Kirchen, an denen jahrhundertelang gebaut wurde, insgesamt von 1396 bis 1744. San Fedele und der Dreikonchenchor San Fedele liegt nicht weit weg vom Dom an derselben Straße. Erbaut wurde diese Kirche im ausgehenden 12. Jahrhundert. Sie ist schwer als solche zu erkennen. Sie wird zu beiden Seiten von Wohnhäusern flankiert, die direkt an die Kirche angrenzen. Die Fassade ist 1914 rekonstruiert worden. Es geht bei der Bedeutung von San Fedele für die Architekturgeschichte um ihren ungewöhnlichen Chor-Grundriss, bei dem man in der Forschung zum Teil annimmt, er habe sein Vorbild bei der bedeutenden Kirche St. Maria im Kapitol von Köln aus dem 11. Jahrhundert. Und damit, mit diesem Abhängigkeitsverhältnis Köln-Como, hätte man einen Nachweis für die ungewöhnliche mittelalterliche Beziehung dieser norditalienischen Stadt zum Rheinland. Es geht um die Grundrissform des Chores, einen sogenannten Drei-Konchen-Chor, der zu Beginn des 11. Jahrhunderts in Köln entwickelt wurde und den San Fedele aufzugreifen scheint. Es könnte, was diese Frage angeht, noch weiter gehen, denn San Fedele baute auf den Grundmauern eines karolingischen Bauwerkes auf, das möglicherweise ebenfalls einen solchen Dreikonchenchor gehabt haben könnte, und dann wäre Köln vielleicht eine Kopie von Como. Diese Beziehung wird in der Forschung aber nicht allgemein akzeptiert. Für andere Teile der Forschung scheint es sehr viel wahrscheinlicher, dass – vorausgesetzt, dass überhaupt eine Verbindung besteht – ein umgekehrtes Verhältnis vorliegt, dass also Köln den Rang des Gründungsbaues für diese Chorlösung in Como behält. Die Beziehungen zwischen der Lombardei und dem Rheinland sind sehr umstritten. Die wahrscheinliche Lösung ist die, dass auf den Straßen der kaiserlichen Italienzüge ein ständiger Austausch von Ideen und Baumeistern stattgefunden hat. Bis zum 11. Jahrhundert waren in der Architektur anscheinend Sachsen und das Rheinland tonangebend, während im 12. Jahrhundert Norditalien die Führung übernahm. Um solche Fragen zu klären, ist es wichtig, herauszubekommen, wie denn der Vorgängerbau einer solchen Kirche ausgesehen hat, und deshalb werden manchmal Grabungen im Inneren einer Kirche durchgeführt. Von der mittelalterlichen Dekoration der Kirche sind noch einige Reste erhalten, und das wichtigste Werk, das Nordportal, liegt direkt zu der Straße, an der auch der Dom liegt. Ganz links ist Daniel in der Löwengrube dargestellt, darüber Habakuk mit einem Engel. Das geflügelte Tier rechts wird teilweise als kämpfender Drache gedeutet, manchmal aber auch als geflügelter Löwe. Dann hätte dieses Symbol apotrophäische Bedeutung, wie viele andere dämonisch aussehende Bestien, die an mittelalterlichen Kirchen, vor allem an Fenster und Türöffnungen, angebracht worden sind, um eindringende Geister abzuwehren. Sant’Abbondio Sant’Abbondio ist älter als der Dom. Ihr Langhaus wurde von 1065 bis 1095 errichtet, also zur Zeit der Ottonen, als wieder Recht und Ordnung in Oberitalien eingezogen waren. Die Ähnlichkeit mit deutschen romanischen Gebäuden ist offensichtlich. Die Ornamentik erinnert stark an die des Domes zu Speyer, der gleichzeitig gebaut wurde, so dass man hier von der gleichen Bauschule sprechen kann. Die beiden Türme weisen ebenfalls auf nordeuropäische Vorbilder hin, denn italienische Kirchen hatten zu dieser Zeit längst Campanile, also getrennte Glockentürme neben der Kirche. Auch der (1863–1888 wiederhergestellte) Innenraum mit seinen auffallenden Rundstützen wirkt sehr un-italienisch. Seine Vorbilder stammen aus Tournus in Frankreich. Typisch für Italien sind lediglich der offene Dachstuhl und der Verzicht auf Querhäuser. Der Grund für diese auffallende Übernahme von Vorbildern aus dem europäischen Norden liegt darin, dass Italien nach der frühchristlichen Zeit zunächst immer bedeutungsloser in der Architektur wurde, weil es zu sehr an seiner alten Tradition hing. Erst in der Begegnung mit dem Norden begann Oberitalien, sich schöpferisch hervorzuheben. Der Chor dieser Kirche wurde über 100 Jahre nach dem Langhaus gebaut. Sein umfangreiches Freskenprogramm stammen aus der Mitte des 14. Jahrhunderts. Die Themen des Freskenzyklus sind das Leben Christi und das der Apostel Petrus und Paulus. Diese Malerei erinnert in ihrer Technik und in ihrer klaren Räumlichkeit an die Giottos in der Toskana und in Umbrien, und tatsächlich werden diese Fresken einem Sieneser Meister zugeschrieben, der um 1350 die neue Malerei Giottos und seiner Schüler hier in den Norden gebracht hat. Giotto selber hatte um 1305 ebenfalls im italienischen Norden, in Padua, seine berühmte Arenakapelle ausgemalt. Weitere Sehenswürdigkeiten Antike Stadtmauer Historischer Stadtkern Wohnhaus Pelandini Broletto Villa Olmo Tempio Voltiano (Museum seit 1927 zum Gedenken an Alessandro Volta) Passeggiata di Villa Olmo (Verbindungsweg am südwestlichen Seeufer zwischen der Villa Olmo und dem Tempio Voltiano) mit vielen von außen zu betrachtenden Villen Casa del Fascio (1932/1936) (heute: Casa del Popolo), Architekt: Giuseppe Terragni Castello Baradello Standseilbahn Como–Brunate, Standseilbahn von Como nach Brunate, einem Bergdorf Barockisierte Basilika San Giorgio im Stadtteil Borgo Vico Mittelalterliche Kirche San Giacomo Romanische Kirche Santi Cosma e Damiano Kirche Santi Giuliano e Ambrogio Kirche Santi Filippo e Giacomo, im Ortsteil Quercino Musei Civici in Palazzo Volpi Monumento alla Resistenza europea (Denkmal für den europäischen Widerstand) (The) Life Electric, Skulptur von Daniel Libeskind zu Ehren Alessandro Voltas, 2015 eingeweiht. Sport Como diente seit dem Jahr 1962 bereits 35 Mal als Zielort der Lombardei-Rundfahrt, die eines der fünf Monumente des Radsports darstellt und somit zu den wichtigsten Eintagesrennen zählt. Auch im Jahr 2022 ging das bedeutende italienische Radrennen erneut in Como auf der Lungo Lario Trieste zu Ende. Des Weiteren trug die Stadt auch zehn Mal den Start des Rennens aus. Mit dem Anstieg zum Stadtteil Civiglio (613 m), befindet sich zudem einer der bekanntesten Anstiege des Rennens in Como. Der Giro d’Italia machte 1937 erstmals in Como halt. Seither fanden sieben Etappenankünfte und sechs Etappenstarts in Como statt. Mit Como 1907 ist in der Stadt ein Fußballzweitligist ansässig. Bildung Die 1998 gegründete staatliche Universität Insubria ( Università degli Studi dell’Insubria) hat ihren Sitz in Varese und Como. Wirtschaft Comos Wirtschaftsleben basiert hauptsächlich auf Tourismus und Industrie. Die Stadt besitzt unter anderem eine weltbekannte Seiden-Manufaktur. Die im Jahr 1940 von Toblach nach Como verlegte elektrotechnische Produktionsgesellschaft UNDA von Max Glauber kam wegen zu schneller Ausweitung der Produktion nach dem Krieg in Zahlungsschwierigkeiten, wurde verkauft und 1962 definitiv geschlossen. Verkehr Die Stadt liegt direkt an der Grenze zur Schweiz; die Grenze befindet sich im unmittelbar benachbarten schweizerischen Chiasso. Straßenverkehr Unmittelbar nördlich von Como geht die A9 (Autostrada dei Laghi), deren Ausfahrt Como-Nord als „ultima uscita per l’Italia“ (letzte Ausfahrt in Italien) beschildert ist, hinter dem Grenzübergang Brogeda als schweizerische A2 weiter. Schienenverkehr Como besitzt drei Haupt- und mehrere kleinere Bahnhöfe. Im von der RFI betriebenen Durchgangsbahnhof San Giovanni halten nebst Regional- und S-Bahn-Zügen der TILO (in die Schweiz) und Trenord (nach Mailand) auch die Fernverkehrszüge in Richtung Basel SBB/Zürich Hauptbahnhof–Milano Centrale. Im Stadtzentrum befindet sich der Kopfbahnhof Como Lago, der zweitgrößte Bahnhof in Como. Der Bahnhof liegt nur wenige Meter von dem Seeufer entfernt und ist auch der Endpunkt der Ferrovienord. Von dem Bahnhof aus verkehrt halbstündlich ein Regionalzug zum Bahnhof Mailand Cadorna. Der drittgrößte Bahnhof der Stadt, Albate-Camerlata, liegt an der Verzweigung der Bahnstrecke Chiasso–Milano und der Bahnstrecke Como–Lecco. Er ist Endpunkt der grenzüberschreitenden S10 der S-Bahn Tessin aus Bellinzona. Am Rand des Stadtkerns befindet sich der kleine Durchgangsbahnhof Como Borghi, der in der Nähe des Hauptstandorts der Universität Insubrien liegt. Der fünfte Bahnhof in Como ist der Durchgangsbahnhof Como Camerlata. Flugverkehr Die nächstgelegenen Flughäfen sind Mailand-Malpensa, Bergamo-Orio und (in der Schweiz) Lugano, alle sind in etwa einer Stunde erreichbar. Im Comer See gibt es einen Landeplatz für Wasserflugzeuge. Städtepartnerschaften Como hat Städtepartnerschaften geschlossen mit , Deutschland (seit 1960) , Japan (seit 1975) , Palästina (seit 1998) , Israel (seit 2004) Persönlichkeiten Literatur Mina Gregori: Pittura a Como e nel Canton Ticino: dal Mille al Settecento. Cariplo, Milano 1994. Luciano Vaccaro, Giuseppe Chiesi, Fabrizio Panzera: Terre del Ticino. Diocesi di Lugano. Editrice La Scuola, Brescia 2003. Weblinks Offizielle Website der Stadt Como (italienisch, englisch) Como auf lombardiabeniculturali.it architetture. Como auf lombardia.indettaglio.it, abgerufen am 9. Januar 2016. Como auf comuni-italiani. Como auf tuttitalia.it/lombardia. Renzo Dionigi: Kirche Sant’Abbondio, Fresken Einzelnachweise Ort in der Lombardei Provinzhauptstadt in Italien
Q1308
85.141482
1586769
https://de.wikipedia.org/wiki/Dramedy
Dramedy
Dramedy (Kofferwort aus den Begriffen Drama und Comedy) beziehungsweise Comedy-Drama, Dramatic Comedy oder eingedeutscht Dramödie ist ein Begriff für Fernseh- und Filmproduktionen, deren Inhalt sich durch einen ausgewogenen Anteil von Humor und Ernsthaftigkeit kennzeichnet. Der Begriff Dramedy wird vor allem für Fernsehserien verwendet. Das Format behandelt oft sozialkritische Themen oder beschäftigt sich mit Randgruppen bzw. der Sozialisation einzelner Figuren. Das Mitte der 1980er Jahre entstandene Hybrid- oder Fusionsgenre enthält sowohl Elemente des thematisch ernsten Fernsehdramas als auch humoristische Aspekte der Fernsehkomödie (Sitcom). Eine genretypische Fernsehserie war die sehr erfolgreiche Dramedy-Serie Ally McBeal (USA 1997–2002). In der Typisierung der Sitcom ist die Dramedy neben der handlungsorientierten Sitcom (Action comedy, selten auch: Actcom) und der Familienkomödie (Domestic comedy, selten auch: Domcom) die dritte Untergruppe. Themen sind Krieg, Tod, Arbeitslosigkeit, Sexismus oder Rassismus. Die humorvolle Darstellung ist oft Ausdruck von Satire. Beispiele sind All in the Family (USA 1971–1979) und M*A*S*H (USA 1972–1983). Kennzeichnend ist auch das Fehlen einer sogenannten „Lachkonserve“, die in Sitcoms typischerweise darauf hinweist, dass etwas Lustiges gesagt wurde. Siehe auch Tragikomödie – ähnlich wie bei einer Dramedy werden ernsthafte und komische Momente eng verwoben, wobei der Begriff Tragikomödie mehr auf Theaterstücke, literarische Werke und Kinofilme, aber nur selten auf Fernsehserien verwendet wird. Weblinks Dramedy – The Museum of Broadcast Communications. (englisch) Einzelnachweise Fernsehgattung Kofferwort
Q859369
129.176693
32191
https://de.wikipedia.org/wiki/Phylogenetik
Phylogenetik
Die Phylogenetik (retronymes Kofferwort aus gr. ‚Stamm‘, ‚Clan‘, ‚Sorte‘ und ‚Ursprung‘) ist eine Fachrichtung der Genetik und Bioinformatik, die sich mit der Erforschung von Abstammungen beschäftigt. Eigenschaften Die Phylogenetik verwendet heutzutage Algorithmen zur Bestimmung von Verwandtschaftsgraden zwischen verschiedenen Arten oder zwischen Individuen einer Art aus DNA-Sequenzen, die zuvor per DNA-Sequenzierung ermittelt wurden. Dadurch kann ein phylogenetischer Baum erstellt werden. Die Phylogenetik wird unter anderem zur Erzeugung von Taxonomien herangezogen. Als Algorithmen werden unter anderem Parsimony, die Maximum-Likelihood-Methode (ML-Methode) und die MCMC-basierte Bayesische Inferenz verwendet. Vor der Entwicklung der DNA-Sequenzierung und von Computern wurde die Phylogenetik aus Phänotypen über eine Distanzmatrix abgeleitet (Phänetik), jedoch waren die Unterscheidungskriterien teilweise nicht eindeutig, da Phänotypen – selbst über einen kurzen Zeitraum betrachtet – von vielen weiteren Faktoren beeinflusst werden und sich verändern. Geschichte Im 14. Jahrhundert entwickelte der franziskanische Philosoph Wilhelm von Ockham das Abstammungsprinzip lex parsimoniae. Im Jahr 1763 wurde Pastor Thomas Bayes’ Grundlagenwerk zur Bayesschen Statistik veröffentlicht. Im 18. Jahrhundert führte Pierre Simon Laplace, Marquis de Laplace, eine Form des Maximum-likelihood-Ansatzes ein. 1837 publizierte Charles Darwin die Evolutionstheorie mit einer Darstellung eines Stammbaums. Eine Unterscheidung der Homologie und der Analogie wurde erstmals 1843 von Richard Owen getroffen. Der Paläontologe Heinrich Georg Bronn publizierte 1858 erstmals das Aussterben und Neuauftreten von Arten im Stammbaum. Im gleichen Jahr wurde die Evolutionstheorie erweitert. Die Bezeichnung Phylogenie wurde 1866 von Ernst Haeckel geprägt. Er postulierte in seiner Rekapitulations-Theorie einen Zusammenhang zwischen der Phylogenese und der Ontogenese, der heute nicht mehr haltbar ist. Im Jahr 1893 wurde Dollo’s Law of Character State Irreversibility veröffentlicht. Im Jahr 1912 verwendete Ronald Fisher die maximum likelihood (Maximum-Likelihood-Methode in der molekularen Phylogenie). 1921 wurde die Bezeichnung phylogenetisch von Robert John Tillyard bei seiner Klassifizierung geprägt. Im Jahr 1940 führte Lucien Cuénot den Begriff der Klade ein. Ab 1946 präzisierten Prasanta Chandra Mahalanobis, ab 1949 Maurice Quenouille und ab 1958 John Tukey das Vorläufer-Konzept. Im Jahr 1950 folgte eine erste Zusammenfassung von Willi Hennig, im Jahr 1966 die englische Übersetzung. 1952 entwickelte William Wagner die Divergenzmethode. 1953 wurde der Begriff Kladogenese geprägt. Arthur Cain und Gordon Harrison verwendeten ab 1960 die Bezeichnung kladistisch. Ab 1963 verwendeten A. W. F. Edwards und Cavalli-Sforza die maximum likelihood in der Linguistik. Im Jahr 1965 wurde von J. H. Camin und Robert R. Sokal die Camin-Sokal parsimony und ein erstes Computerprogramm für kladistische Analysen entwickelt. Im gleichen Jahr wurde die character compatibility method gleichzeitig von Edward Osborne Wilson sowie von Camin und Sokal entwickelt. Im Jahr 1966 wurden die Begriffe Kladistik und Kladogramm geprägt. 1969 entwickelte James Farris die dynamische und sukzessive Wichtung, auch erschien die Wagner parsimony von Kluge und Farris und der CI (consistency index). sowie die paarweise Kompatibilität der Clique-Analyse von W. Le Quesne. Im Jahr 1970 generalisierte Farris die Wagner parsimony. 1971 veröffentlichte Walter Fitch die Fitch parsimony und David F. Robinson veröffentlichte den NNI (nearest neighbour interchange), zeitgleich mit Moore u. a. Auch wurde 1971 die ME (minimum evolution) von Kidd und Sgaramella-Zonta publiziert. Im folgenden Jahr entwickelte E. Adams den Adams consensus. Die erste Anwendung des maximum likelihood für Nukleinsäuresequenzen erfolgte 1974 durch J. Neyman. Farris publizierte 1976 das Präfix-System für Ränge. Ein Jahr später entwickelte er die Dollo parsimony. Im Jahr 1979 wurde der Nelson consensus von Gareth Nelson veröffentlicht, sowie der MAST (maximum agreement subtree) und GAS (greatest agreement subtree) von A. Gordon und der bootstrap von Bradley Efron. 1980 wurde PHYLIP als erste Software für phylogenetische Analysen von Joseph Felsenstein publiziert. Im Jahr 1981 wurde der majority consensus von Margush und MacMorris, der strict consensus von Sokal und Rohlf und der erste effiziente Maximum-Likelihood-Algorithmus von Felsenstein. Im folgenden Jahr wurden PHYSIS von Mikevich und Farris sowie branch and bound. von Hendy und Penny veröffentlicht. 1985 wurde, basierend auf Genotyp und Phänotyp, die erste kladistische Analyse von Eukaryoten durch Diana Lipscomb publiziert. Im gleichen Jahr wurde bootstrap erstmals für phylogenetische Untersuchungen von Felsenstein verwendet, ebenso wie jackknife von Scott Lanyon. 1987 wurde die neighbor-joining method von Saitou und Nei publiziert. Im Jahr darauf wurde Hennig86 in der Version 1.5 von Farris entwickelt. Im Jahr 1989 wurde der RI (retention index) und der RCI (rescaled consistency index) von Farris und die HER (homoplasy excess ratio) von Archie publiziert. 1990 wurde der combinable components (semi-strict) consensus von Bremer sowie das SPR (subtree pruning and regrafting) und die TBR (tree bisection and reconnection) von Swofford und Olsen veröffentlicht. Im Jahr 1991 folgte der DDI (data decisiveness index) von Goloboff. 1993 wurde das implied weighting von Goloboff publiziert. Im Jahr 1994 wurde der decay index von Bremer veröffentlicht. Ab 1994 wurde der reduced cladistic consensus von Mark Wilkinson entwickelt. 1996 wurde die erste MCMC-basierte Anwendung der Bayesschen Inferenz unabhängig von Li, Mau sowie Rannalla und Yang entwickelt. Im Jahr 1998 wurde die TNT (Tree Analysis Using New Technology) von Goloboff, Farris und Nixon publiziert. 2003 wurde das symmetrical resampling von Goloboff veröffentlicht. Anwendungen Evolution von Krebs Seit der Entwicklung von Next Generation Sequencing kann man die Evolution von Krebszellen auch auf molekularer Ebene verfolgen. Wie im Hauptartikel Karzinogenese beschrieben, entsteht ein Tumor zuerst durch eine Mutation in einer Zelle. Unter bestimmten Bedingungen häufen sich weitere Mutationen an, die Zelle teilt sich unbeschränkt und schränkt ihre DNA-Reparatur weiter ein. Es entwickelt sich ein Tumor, der aus verschiedenen Zellpopulationen besteht, die jeweils unterschiedliche Mutationen haben können. Diese Tumor-Heterogenität ist gerade für die Behandlung von Krebspatienten von enormer Bedeutung. Phylogenetische Methoden erlauben es, den Stammbaum für einen Tumor zu bestimmen. An diesem kann man ablesen, welche Mutationen in welcher Subpopulation des Tumors vorhanden sind. Linguistik Cavalli-Sforza beschrieb erstmals die Ähnlichkeit der Phylogenetik von Genen mit der Evolution von Sprachen aus Ursprachen. Die Methoden der Phylogenetik werden daher auch zur Bestimmung von Abstammungen von Sprachen verwendet. Dies führte unter anderem dazu, die sogenannte Urheimat der indoeuropäischen Sprachfamilie in Anatolien zu verorten. In der Wissenschaft ist diese Anwendungsübertragung der Phylogenetik jedoch grundsätzlich umstritten, da die Verbreitung von Sprachen nicht nach biologisch-evolutionären Mustern verläuft, sondern eigenen Gesetzmäßigkeiten folgt. Literatur David Williams: The Future of Phylogenetic Systematics. Cambridge University Press, Cambridge 2016, ISBN 978-1-316-68918-9. Donald R. Forsdyke: Evolutionary Bioinformatics. 3. Auflage. Springer, Cham 2016, ISBN 978-3-319-28755-3. Einzelnachweise Genetik Bioinformatik Kofferwort
Q171184
1,247.353556
10527371
https://de.wikipedia.org/wiki/Paradies
Paradies
Das Paradies ist nach jüdischer und daraus abgeleitet christlicher und islamischer Vorstellung der Ort, wo die Menschen zu Anfang ihrer Existenz gelebt haben, bis sie daraus verstoßen wurden. Etymologisch kommt das Wort aus der altiranischen awestischen Sprache; pairi daēza steht für eine eingezäunte Fläche. Verwandt ist hebräisch pardēs (in späteren biblischen Texten für „Baumgarten“ oder „Park“ bzw. „ein von einem Wall umgebener Baumpark“). Die alternative Bezeichnung ist ‚Garten Eden‘, hebr. – Gan Eden, bzw. in Pluralform . Eine ähnliche Vorstellung gab es auch in der griechischen Mythologie unter der Bezeichnung Elysion. Außer dem rückwärts gewandten Bild gibt es insbesondere in Christentum und Islam auch eine vorwärts gewandte Vorstellung vom Paradies, nämlich als das Himmelreich, in das die Gottgefälligen nach dem Tode kommen werden; vgl. Jesu Worte an den einsichtigen Mitgekreuzigten: „Heute wirst du mit mir im Paradiese sein.“ . Der Islam hat diese Vorstellung stärker differenziert, darin ist das Paradies, , die höchste Stufe des insgesamt als Dschanna (, wörtlich „Garten“) bezeichneten Himmelreichs. Der Garten Eden kommt darin auch vor, aber als eine der mittleren Stufen. Eine Art Paradies stellt auch der in der mittelpersischen Literatur genannte garodman dar. Quellen Meyers großes Universallexikon, Bd. 10. 1984, S. 451. Duden: Herkunftswörterbuch 2006, S. 583. Kluge: Etymologisches Wörterbuch der deutschen Sprache. 24. Auflage 2002, S. 679. Schmid: Schöpfung im Alten Testament. 2012, S. 92. Einzelnachweise Jüdische Theologie Christliche Theologie Islamische Theologie Eschatologie
Q3363340
91.470636
149647
https://de.wikipedia.org/wiki/Karatschi
Karatschi
Karatschi (, , ) ist die größte Stadt Pakistans und Hauptstadt der Provinz Sindh; bis 1959 war sie die pakistanische Hauptstadt. Mit 14,9 städtischen Millionen Einwohnern (2017) ist Karatschi eine der größten Städte der Welt. In der Agglomeration leben 19,1 Millionen Menschen (2023). In Pakistan existiert keine Behörde zur Registrierung des Wohnsitzes von Personen; die angegebenen Einwohnerzahlen stellen daher Hochrechnungen auf Basis der Volkszählungsergebnisse dar. Das Verwaltungsgebiet Karatschis ist kein zusammenhängendes Stadtgebiet, sondern – mit seiner außerhalb der Kernstadt dominierenden ländlichen Siedlungsstruktur – eher mit einer kleinen Provinz vergleichbar. Das gesamte Verwaltungsgebiet der Stadt hatte bei der Volkszählung 2023 knapp 20,4 Millionen Einwohner. Die Stadt ist Wirtschafts-, Handels- und Produktionszentrum, Verkehrsknoten, Kulturzentrum mit zahlreichen Universitäten, Hochschulen, Forschungseinrichtungen, Museen, Galerien und Baudenkmälern sowie der größte Hafen des Landes. Eine der bedeutendsten Sehenswürdigkeiten ist Mazar-e-Quaid, das Mausoleum des Begründers von Pakistan, Muhammad Ali Jinnah (1876–1948), der in der Stadt geboren wurde und dort auch begraben ist. Geographie Geographische Lage Karatschi liegt am westlichen Rand des Mündungsdeltas des Indus in das Arabische Meer in einer Ebene, die von Hügeln an den westlichen und nördlichen Grenzen der städtischen Agglomeration umgeben ist, durchschnittlich 22 Meter über dem Meeresspiegel. Zwei Flüsse fließen durch die Stadt, der Malir vom Nordosten bis zum Zentrum und der Liari vom Norden bis zum Süden. Viele andere kleinere Flüsse und die Abwässer fließen von den westlichen und nördlichen Stadtteilen in Richtung Süden. Der Hafen Karatschis liegt in einer geschützten Bucht im Südwesten der Stadt. Das gesamte Verwaltungsgebiet Karatschis hat eine Fläche von 3527 Quadratkilometern. Das entspricht dem Anderthalbfachen der Bodenfläche des Saarlandes. Davon gehören 591 Quadratkilometer (17 Prozent) zur Kernstadt (hohe Bebauungsdichte und geschlossene Ortsform). 2936 Quadratkilometer (83 Prozent) bestehen aus Vorstädten und Gebieten mit ländlicher Siedlungsstruktur. Geologie Das breite Indus-Ganges-Tiefland trennt die Gebirgsumwallung von der Scholle des Dekkan und bildet eine von mächtigen jungen Sedimenten aufgeschüttete Vortiefe des Faltengebirges. Die Stadt Karatschi befindet sich im trockenen unteren Indusgebiet, dem letzten Glied der Tieflandzone. Die einzigen Wasserläufe sind hier die kurzen Flüsse der westlichen Randgebiete, deren Wasser von kleinen, voneinander getrennt liegenden Bewässerungsoasen völlig aufgezehrt wird, und der Indus selbst, in dessen Tal sich eine bis 40 Kilometer breite Flussoase hinzieht. Während an der Küste des Indischen Ozeans östlich des Indusdeltas ein großer zeitweise überfluteter Salzsumpf, der Rann von Kachchh, landwirtschaftlich nicht genutzt werden kann, ist das Indusdelta selbst bis nahe an die mangrovenreiche, sumpfige Küste gut bebaut. Das Indusgebiet ist zu einem der wichtigsten Baumwollanbaugebiete Südasiens geworden. Hauptausfuhrhafen ist Karatschi westlich der Indusmündung, ein bedeutender Knotenpunkt der internationalen Fluggesellschaften. Stadtgliederung Karatschi gliedert sich in folgende 18 Stadtbezirke (Volkszählung 1998): SITE ist die Abkürzung für Sindh Industrial Trading Estate. Klima Die Stadt befindet sich am Rand der tropischen Klimazone. Die Höchsttemperaturen betragen 35 bis 38 Grad Celsius bei stetigem Wind im Sommer aus Südwest und im Winter aus Nordost und wenig Regen. Die monatlichen Durchschnittstemperaturen schwanken zwischen 19,1 Grad Celsius im Januar und 30,7 Grad Celsius im Juni; die Jahresdurchschnittstemperatur beträgt 26 Grad Celsius. Nur der Monat Juli ist humid, insgesamt fallen nur 167,6 Millimeter Niederschlag im Jahr, da der Süden Pakistans nur noch randlich von den Ausläufern des Sommermonsuns gestreift wird. Der meiste Niederschlag fällt im Monat Juli mit durchschnittlich 66,4 Millimeter, kein Niederschlag fällt im Monat Mai. Geschichte Ursprung Auf dem Gebiet der heutigen Stadt lag ursprünglich eine Gruppe kleiner Dörfer einschließlich der Ortschaft Eekalachi-jo-kun und der Festung Manora. Nearchos, Admiral Alexanders des Großen, segelte 326 v. Chr. zum Ende von dessen Eroberungsfeldzug nach Indien zu einem vermutlich an der Stelle Karatschis gelegenen Ort mit Namen Krokola. Als Muhammad ibn al-Qasim im Jahr 712 bis in den Sindh kam, eroberte er die Ortschaft Debul, die wahrscheinlich ebenfalls auf dem heutigen Stadtgebiet von Karatschi lag. Im Jahr 1729 wurde die Siedlung Kolachi-jo-goth („Kolachis Teich“) gegründet, benannt nach einem Fischer aus der Gegend. Aus dem Fischerdorf entwickelte sich bald eine Handelsniederlassung für den Warenaustausch mit Maskat und Bahrain. Die Befestigung bestand aus Erdwällen, die Arbeiter aus Arabien gebaut hatten. Die Kanonen wurden aus Maskat geliefert. Die Siedlung hatte zwei Zugänge, einer mit Blick zum Meer, genannt kharadar („brackiges Tor“), und einer mit Blick zum Lyari-Fluss, genannt mithadar („süßes Tor“). Die erste schriftliche Erwähnung stammt von einem Gesandten Nadir Schahs, der 1742 von seinem Aufenthalt in der Stadt berichtete. 1795 wurde die Stadt vom Khan von Kalat an den Talpur-Herrscher von Sindh übertragen. Karatschi erlangte eine Position als Haupthafen und wurde infolgedessen eine wichtige Stadt. Britische Kolonialzeit Die Bedeutung von Indus und Sindh bewog die Briten, die Stadt am 3. Februar 1839 zu erobern. Damit begann eine Ära ausländischer Herrschaft und kolonialer Unterordnung, die ihr Ende erst 1947 fand. Ein berühmtes Zitat über Karatschi, das General Charles Napier (1782–1853) zugerechnet wird, lautet: „would that I could come again to see you in your grandeur!“. Napiers Zitat prophezeite, dass Karatschi unter britischer Herrschaft, nach dem Ausbau seines Hafens, der 1854 begann, wachsen würde. Am 10. September 1857 schwor die 21. Infanteriedivision, die aus Einheimischen bestand und in Karatschi stationiert war, dem Kaiser Bahadur Schah Zafar (1775–1862) die Gefolgschaft und beteiligte sich am Indischen Aufstand von 1857. Sie wurde von den Briten geschlagen, die die Kontrolle innerhalb weniger Tage wiedererlangten. Während des nordamerikanischen Bürgerkriegs war Karatschi auch Hauptausfuhrhafen für Baumwolle. Die Cholera trat hier wiederholt (1866, 1868 und 1870) mit großer Heftigkeit auf. 1858–1861 wurde die Eisenbahnlinie von Karatschi nach Kotri erbaut, die den Indus quert. Im 19. Jahrhundert erlangte die Stadt wegen der starken Zunahme des Weizenanbaus in den nordwestlichen Provinzen eine kommerzielle Bedeutung und rivalisierte in dieser Hinsicht mit Bombay. Karatschi entwickelte sich infolge der Aktivitäten der British East India Company zu einer Stadt mit gepflasterten Straßen, Gerichten und kommerziellen Zentren. Der Hafen, am Nordende des Indusdeltas gelegen, nahm infolge der Versandung des Hafens von Schah Bandar einen schnellen Aufschwung. Im Jahre 1881 hatte Karatschi 73.560 Einwohner, davon 5.228 in Cantonment. Viele der Gebäude waren in klassischem britischen Stil gebaut und kontrastierten mit dem „Mughal Gothic“ in Lahore. Einige dieser alten Gebäude stehen immer noch und sind interessante Ziele für Besucher. 1876 wurde der Gründer Pakistans, Mohammed Ali Jinnah, in der Stadt geboren und nach seinem Tode 1948 auch begraben. Die Eisenbahn verband Karatschi seit den 1880er Jahren auch mit den anderen Teilen von Britisch-Indien. 1899 galt Karatschi als größter weizenexportierender Hafen in Osten. 1911, als die Hauptstadt nach Delhi verlegt worden ist, bekam Karatschi die Bedeutung eines Tors nach Indien. Karatschi wurde 1936 zur Hauptstadt der neugeformten Provinz Sindh erklärt und dabei der traditionellen Hauptstadt Hyderabad vorgezogen. Unabhängigkeit Am 14. August 1947 entstand der Staat Pakistan aus den überwiegend muslimischen Teilen von Britisch-Indien und Karatschi, das zu jener Zeit 425.000 Einwohner hatte, wurde Hauptstadt des Staates. Im Zuge der Teilung und nach Ausbruch des Ersten Indisch-Pakistanischen Krieges am 22. Oktober 1947 verließen zahlreiche Muslime das heutige Indien. Die Bevölkerungszahl der Hauptstadt explodierte wegen der großen Zahl von Flüchtlingslagern. 1959 löste Islamabad Karatschi als Hauptstadt des Landes ab. 1965 warfen im Zweiten Indisch-Pakistanischen Krieg indische Flugzeuge Bomben auf Karatschi. Über der Stadt fanden Luftkämpfe statt, bei denen von der pakistanischen Luftabwehr mehrere indische Flugzeuge abgeschossen wurden und in Wohngebiete stürzten. Zahlreiche Menschen kamen ums Leben, viele Gebäude wurden zerstört. Im Dritten Indisch-Pakistanischen Krieg von 1971 kam es erneut zu Angriffen der indischen Luftwaffe auf Karatschi. Ziele waren vor allem Militäranlagen und strategisch wichtige zivile Infrastrukturen. Die indische Marine griff den Hafen mit Raketen an. Dabei wurden Hafenanlagen und mehrere Schiffe zerstört. Seit den 1970er Jahren ist Karatschi weiter gewachsen und hatte bei der Volkszählung 1998 etwa 9,3 Millionen Einwohner. Es ist eine Stadt mit sehr unterschiedlichen Wohngegenden, sie reichen von den hochwertigen Gegenden Clifton und Defense zu zahlreichen Slums (bastis), die Wohnorte der großen Zahl von Migranten sind, die nach Karatschi geströmt sind auf der Suche nach Zukunftschancen. Während der sowjetischen Intervention in Afghanistan wurde Karatschi in den frühen 1980er Jahren ein zentraler Versorgungsort für die Mudschahidin mit Waffen für den Kampf gegen die Rote Armee. Viele der Rüstungsgüter blieben jedoch in der Stadt und gelangten in die Hände des organisierten Verbrechens oder studentischer Aktivisten, die sich im bewaffneten Arm der Islami Jamiat-e-Talaba organisierten und zur islamistischen Organisation Jamaat-e-Islami gehörten. In die Gegenrichtung wurde Karatschi einer der Handelspunkte für den Export von afghanischem Heroin, was erhebliche Auswirkungen auf den gesellschaftlichen Zusammenhalt der Stadt hatte. Aktuelle Probleme Karatschis sind die steigende Kriminalität und zahlreiche ethnische Konflikte, die Pakistan erschüttern. Karatschi ist das Epizentrum zahlreicher Unruhen seit den 1980er Jahren und ist weiterhin Schauplatz religiöser Gewalt zwischen Sunniten und Schiiten. Der erste große ethnische Konflikt im April 1985 zwischen Slumbewohnern der Muhajirs und Biharis auf der einen und bewaffneten Pathanen auf der anderen Seite um die Vorherrschaft in bestimmten Wohngebieten (mohallas) forderte mindestens 100 Menschenleben. Die Größe Karatschis brachte auch viele Terroristen dazu, hier ihre Basis aufzuschlagen und infolgedessen sind Anschläge von militanten, mit al-Qaida verbundenen Gruppen gegen Ausländer verübt worden. 2003 wurde ein al-Qaida-Mitglied mit Namen Tawfiq bin Attash in Karatschi verhaftet. Am 27. Juli 2003 lief der mit 40.000 Tonnen geladene Öltanker „Tasman Spirit“ vor der Küste von Karatschi auf Grund. Nach dem Auseinanderbrechen des Schiffes am 14. August 2003 liefen etwa 12.000 Tonnen Öl ins Meer. Dabei wurden mehrere Küstenabschnitte verseucht und das Ökosystem der nahen Mangrovenwälder geschädigt. Tausende Vögel, Fische und Meeresschildkröten starben. Bei einem Bombenanschlag am 11. April 2006 auf einen Gottesdienst sunnitischer Muslime im Nischtar-Park starben nach Angaben des pakistanischen Innenministeriums 57 Menschen. Unter den Toten war die gesamte Führung der Partei Sunni Tehrik und zwei andere prominente religiöse Führer. Die Folge waren mehrere Tage andauernde Streiks und Ausschreitungen. Informationsminister Sheikh Rashid bezeichnete den Anschlag als einen Destabilisierungsversuch „von antistaatlichen und antiislamischen Elementen“. Am 18. Oktober 2007 kehrte die frühere Premierministerin von Pakistan, Benazir Bhutto, nach acht Jahren Exil wieder in ihre Heimatstadt Karatschi zurück, gegen den Widerstand von Präsident Pervez Musharraf. Die Rückkehr Bhuttos aus dem Exil war stark umjubelt, doch die Feiern wurden durch einen der blutigsten Anschläge in der pakistanischen Geschichte abrupt beendet. Kurz nach Mitternacht des 19. Oktober 2007 explodierten zwei Sprengsätze in unmittelbarer Nähe des Konvois Bhuttos. Ihre Wagenkolonne befand sich zu diesem Zeitpunkt auf halbem Weg vom Flughafen zum Mausoleum von Staatsgründer Jinnah in Karatschis Innenstadt. Bei dem Selbstmordanschlag wurden 135 Menschen getötet, Bhutto selbst blieb unverletzt. Bhutto machte Anhänger des früheren Militärmachthabers und Präsidenten Mohammed Zia ul-Haq für den Anschlag verantwortlich. Sie wurde wenige Wochen später, am 27. Dezember 2007, bei einem Attentat in Rawalpindi getötet. Am 11. November 2010 starben bei einem Bombenanschlag auf die Zentrale der Kriminalpolizei 15 Menschen. Die Taliban bekannten sich zu dem Attentat. Ethnische Unruhen 2011 Im Juli 2011 kamen bei politischen Zusammenstößen mehr als 300 Menschen ums Leben, davon 44 in den letzten drei Tagen des Monats. Es wurden Handgranaten und Raketenwerfer eingesetzt. Der genaue Grund der Auseinandersetzungen ist nicht restlos geklärt, es werden aber ethnische Gründe und die Feindschaft zwischen der Muttahida-Qaumi-Bewegung (MQM) und der Awami-Nationalpartei (ANP) als treibende Kräfte vermutet. Vom 30. Juli bis zum 2. August starben bei den Unruhen trotz massivem Einsatz der Sicherheitskräfte 30 Menschen. Außerdem wurden mindestens zwei Busse und ein Straßenrestaurant angezündet. Nach dem Mord an Ahmed Karimdad, einem früheren Abgeordneten der PPP, am 17. August eskalierte die Gewalt erneut. Innerhalb von 24 Stunden kamen bei Kämpfen, bei denen auch Handgranaten und Panzerfäuste eingesetzt wurden, mindestens 42 Menschen ums Leben. Am 19. September fand ein Selbstmordanschlag auf den leitenden Kriminalbeamten von Karatschi, Chaudhry Aslam, statt. Dabei starben acht Menschen. Aslam blieb unverletzt. Die Tehrik-i-Taliban Pakistan bekannte sich zu dem Anschlag. Am 10. Januar 2014 fiel Aslam einem Anschlag mit einer Autobombe zum Opfer. Flugunfall 2020 Am 22. Mai 2020 ereignete sich nahe Karatschi ein Flugunfall, bei dem rund 100 Passagiere ums Leben kamen. Die Passagiermaschine der Pakistan International Airlines war wenige Minuten vor der Landung in einem Wohngebiet abgestürzt. Bevölkerung Einwohnerentwicklung Die Bevölkerung der Stadt ist in einer enormen Rate gewachsen. Sie hat sich seit Mitte der 1950er Jahre verzehnfacht. Karatschi gehört gegenwärtig zu den größten Städten der Welt. Infolgedessen sieht sich Karatschi Problemen gegenüber, die für viele sich entwickelnde Metropolen zentral sind: Landflucht, Überbevölkerung, Verkehr, Terrorismus, Kriminalität. Das gesamte Verwaltungsgebiet Karatschis hat 20,3 Millionen Einwohner (2023). Die Bevölkerungsdichte beträgt ca. 5.800 Einwohner je Quadratkilometer. In Berlin sind es zum Vergleich 3.800. Im Ballungsgebiet leben 19 Millionen Menschen (2022). Für 2050 wird mit einer Bevölkerung von über 31 bis 37 Millionen Menschen im Ballungsraum gerechnet. Die Bevölkerungsverteilung laut Volkszählung von 1998: Männer bilden 53,7 Prozent der Einwohner Karatschis. 37,6 Prozent der Einwohner sind unter 15 Jahre. 4,4 Prozent sind älter als 50 Jahre. 22,1 Prozent sind Immigranten. Die Alphabetisierungsrate in den Jahren 2014/15 bei der Bevölkerung über 10 Jahren liegt bei 82 % (Frauen: 78 %, Männer: 85 %) und damit deutlich über dem nationalen Durchschnitt von 60 %. Die folgende Übersicht zeigt die Einwohnerzahlen der Stadt (ohne Vororte). Bis 1998 handelt es sich um Volkszählungsergebnisse, 2005 und 2009 sind Hochrechnungen. 2017 und 2023 sind wieder Volkszählungsergebnisse. Ethnische Zusammensetzung Ein erheblicher Teil des Bevölkerungswachstums wird seit Beginn der kolonialen Entwicklung durch Zuwanderung verursacht. Die Zuwanderer kamen, entsprechend der internationalen und überregionalen Bedeutung der Stadt, nicht nur aus dem angrenzenden Hinterland, sondern aus ganz Pakistan und den benachbarten Staaten. Das Ergebnis ist ein Konglomerat von Menschen mit unterschiedlichem ethnischen und sprachlichen Hintergrund. Vor 1947 besaß Karatschi Gemeinden von Sindhis, Belutschen, Parsen, Hindus, Christen, Juden, Goans, Armeniern, Chinesen, Briten, Libanesen und Gujaratis. Nach der Unabhängigkeit von Pakistan flohen eine große Zahl von Sindhi-Hindus und Sindhi-Sikhs aus der Stadt nach Indien und wurden durch muslimische Flüchtlinge, auch bekannt als Muhajirs, ersetzt. Die Muhajirs migrierten aus verschiedenen Teilen Indiens, jedoch sprach die Mehrheit von ihnen Urdu. Nach dem pakistanischen Bürgerkrieg 1971 kamen Tausende von Biharis und Bengalen aus Bangladesch in die Stadt, gefolgt von Flüchtlingen aus Myanmar und Uganda. Seit 1979, aufgrund der sowjetischen Invasion in Afghanistan und weiteren Veränderungen im Land, floss ein stetiger Strom von afghanischen Flüchtlingen in die Stadt, die auch einen ständigen Wohnsitz in und um Karatschi haben. Diese Flüchtlinge mit mehr als 1,5 Millionen Menschen umfassen eine Reihe von ethnischen Gruppen, vor allem Paschtunen und Tadschiken, Hazaras, Usbeken, Nuristani und Turkmenen. Viele andere Flüchtlinge aus Iran, Tadschikistan, Bangladesch, Myanmar und afrikanischen Staaten leben auf Dauer in der Stadt. Mit 3,5 Millionen ethnischen Paschtunen besitzt Karatschi eine der größten Populationen von Paschtunen in der Welt. Sprachen Der Volkszählung von 1998 zufolge sind die Sprachen folgendermaßen verteilt: Urdu 48,52 Prozent; Panjabi 13,94 Prozent; Paschtu 11,42 Prozent; Sindhi 7,22 Prozent; Belutschisch 4,34 Prozent; Seraiki 2,11 Prozent; Andere 12,4 Prozent. Die anderen Sprachen schließen Gujarati, Brahui und Bengalisch ein. Urdu und Englisch sind Amtssprachen. Englisch wird vor allem als Geschäfts- und Bildungssprache an den Universitäten Karatschis verwendet, während Urdu die Verkehrssprache des Großteils der Bevölkerung ist. Standard-Urdu wird in der überwiegenden Mehrzahl der Schulen (auf primärem und sekundärem Niveau) als Unterrichtssprache verwendet. Drei weitere wichtige Sprachen sind ebenfalls indo-arische Sprachen, die mit dem Urdu verwandt sind: Panjabi, Sindhi und Siraiki – wird manchmal als Panjabi-Dialekt betrachtet. Nur Sindhi wird in größerem Umfang als Schriftsprache verwendet. In Karatschi leben aus dem Raum Mumbai (ehem. Bombay) stammende Bevölkerungsgruppen, die immer noch Gujarati sprechen. Religionen Der Volkszählung von 1998 zufolge sind die Religionen in Karatschi folgendermaßen vertreten: Muslime 96,45 Prozent (1941 waren es 42,0 Prozent); Christen 2,42 Prozent; Hindus 0,83 Prozent (1941 waren es 51,0 Prozent); Ahmadiyya 0,17 Prozent, Unberührbare Kasten 0,03 Prozent, Andere 0,13 Prozent. Die anderen Religionen schließen Parsen und Buddhisten ein. Der überwiegende Teil der Bewohner praktiziert traditionell eine orthodoxe Form des Islam. Religiöse Minderheiten, beispielsweise Hindus, werden stark unterdrückt und dürfen ihren Glauben in der Öffentlichkeit nicht zeigen. In der Mehrheit sind die Muslime Sunniten. Der sunnitische Islam präsentiert sich jedoch nicht als Einheit. Vielmehr teilt er sich in mehrere Denkschulen auf. Die Deobandis sind in Karatschi stark vertreten. Sie sind Hanafiten, vertreten eine strikte Auslegung des islamischen Rechts und lehnen im Gegensatz zu den Barelwis Gräber- und Heiligenverehrung ab. Bei den Christen Karatschis handelt es sich meist um Nachfahren von Unberührbaren, die während der britischen Kolonialzeit zum Christentum konvertierten. Andere stammen jedoch von Goanern ab, die zu jener Zeit oft als Bedienstete der Kolonialherren tätig waren. Die römisch-katholische Kirche und die aus mehreren britischen protestantischen Denominationen entstandene Church of Pakistan sind etwa gleich stark, hinzu kommen einige von US-amerikanischen Missionen gegründete Kirchen. Karatschi ist Sitz des katholischen Erzbistums Karatschi. Politik Stadtregierung Die Stadt wird von der Bezirksregierung Karatschis (CDGK) verwaltet. Die CDGK hat einen gewählten Stadtrat, der das CDGK überwacht. Mustafa Kamal, der 2010 den World Mayor Prize gewann, war von Oktober 2005 bis Oktober 2010 Bürgermeister (Nazim) der Stadt. Er löste Naimatullah Khan in seinem Amt ab, der zwischen dem 14. August 2001 und Mai 2005 die Stadt regierte. Jeder Stadtbezirk hat einen eigenen Bezirksrat und Bürgermeister. Das gegenwärtige Stadtregierungssystem wurde im Jahre 2000 eingerichtet. Das hat einige Spannungen zwischen der Stadtregierung und den bestehenden Amtsgewalten und Stadtbehörden hervorgerufen, infolge leichter Verwirrung betreffend die Verteilung der Macht. Städtepartnerschaften Karatschi unterhält mit folgenden Städten Partnerschaften: Kultur und Sehenswürdigkeiten Museen Das Nationalmuseum, das Mohatta-Palastmuseum, das Pakistanische Luftwaffenmuseum und das Pakistanische Marinemuseum katalogisieren die Geschichte des heutigen Pakistans und Südasiens. Das Nationalmuseum beherbergt zahlreiche Ausstellungsstücke der Induskultur wie auch Gebrauchs- und Kunstgegenstände über die buddhistische und islamische Kultur. Herausragend sind beispielsweise Skulpturen der buddhistischen Gandhara-Kultur (um 500 v. Chr.). Die Geschichte des Landes seit 1947 ist in Bild- und Textdokumenten erfahrbar. Weitere bedeutende Museen Karatschis sind das Mazar-e-Quaid-Museum, das Aga Khan-Museum, das MagnifiScience Centre und das Karachi Expo Centre. Bauwerke Eine der wichtigsten touristischen Sehenswürdigkeiten der Stadt ist Mazar-e-Quaid, das Mausoleum des Begründers von Pakistan, Mohammed Ali Jinnah (1876–1948). Das Gebäude wurde in den 1960er Jahren aus weißem Marmor gebaut. Aus dem umgebenden Park wird das Mausoleum in der Nacht mit starken Scheinwerfern angestrahlt. Zu besonderen Anlässen werden dort Zeremonien abgehalten. Auch besuchen zahlreiche Staatsgäste aus dem Ausland diesen Ort. Dreimal täglich findet eine Wachablösung statt. Die Masjid-e-Tooba ist eine weitere Attraktion. Die 1969 aus weißem Marmor errichtete Moschee hat einen Durchmesser von 72 Metern und besitzt ein Minarett mit einer Höhe von 70 Metern. Das Dach ruht auf einer niedrigen Außenwand ohne zentrale Stützpfeiler. Die zentrale Gebetshalle hat eine Kapazität von 5.000 Personen. Alte Gebäude wie die Wazir Villa und Hindu Gymkhana sind ebenso touristische Attraktionen. Bekannte Kirchen sind die St. Patrick’s Cathedral, das St. Joseph’s Convent, die St. Anthony’s Church und die Trinity Church. Die Frere Hall, Denso Hall und Khaliqdina Hall sind eine Gruppe alter Gebäude mit interessanter Architektur und Geschichte. Die Frere Hall wurde 1865 zu Ehren von Henry Bartle Edward Frere (1815–1884) im britischen Kolonialstil erbaut. Frere war ein Förderer der wirtschaftlichen Entwicklung Karatschis und ließ den Hafen erweitern. Das Gebäude steht im Zentrum der Stadt nahe der US-amerikanischen Botschaft und dem Hotel Marriott. Der Merewether Memorial Tower entstand zwischen 1884 und 1892. Das Denkmal befindet sich nahe der I. I. Chundrigar Road und M. A. Jinnah Road und trägt den Namen von General William L. Merewether, „Commissioner-in-Sindh“ zwischen 1868 und 1877. Das Jehangir Kothari Parade befindet sich am Strand von Clifton. Das terrassenförmige Gebäude im Stil der Kolonialzeit trägt den Namen von Jehangir H. Kothari, einem Förderer der Entwicklung von Freizeiteinrichtungen in Karatschi. Die Grundsteinlegung erfolgte vom Gouverneur von Bombay, George Lloyd, am 10. Februar 1919 und die Eröffnung von Lady Lloyd am 5. Januar 1920. Der nach ihr benannte Lady Lloyd Pier wurde am 21. März 1921 eröffnet. 1923 war das Bauensemble mit der Eröffnung des Jehangir Kothari Pavilion fertiggestellt. Einzigartig sind die unzähligen Grabmäler des Chaukhandi-Gräberfeldes östlich von Karatschi. Obwohl sie zwischen dem 16. und 18. Jahrhundert entstanden, zeigen sie keinerlei Ähnlichkeit zur Mogul-Architektur. Die Steinmetzarbeiten zeigen vielmehr typisch sindhische, wahrscheinlich auf vorislamische Zeit zurückgehende Motive wie Blumen. Parks Karatschi beherbergt zahlreiche Gärten und Parks. Einer der bekanntesten Parks ist der Gandhi Garden. 1843 erwarb die Regierung ein Stück Land, das anschließend landwirtschaftlich genutzt wurde. 1869 begann man dort einen Garten anzulegen und 1893 wurde der Zoo eröffnet. 1960/1961 errichtete man am Rand des Parks Gebäude mit Geschäften und Büros. Weitere Parks sind der Burns Garden an der Court Road, der Hill Park in Jamshed Town, der Aziz Bhatti Park in Gulshan-e-Iqbal und der Zamzama Park in Clifton. 1996 eröffnete der Aladdin Park, ein Unterhaltungspark für die ganze Familie. Er besitzt einen Wasserpark mit olympischem Schwimmbecken, Kinderschwimmbecken und Wellenbad, ein Einkaufszentrum und mehrere Restaurants. Weitere Unterhaltungsparks sind das Dream World Resort am Super Highway, der Safari Park an der University Road und Jibes Playland, Finland and Bowling Allay in New Clifton. Sport Cricket ist Nationalsport in Pakistan, und so ist in Karatschi fast ständig ein Spiel zu sehen. Fußball und Hockey werden beim Publikum immer beliebter. Im Stadion und auf vielen anderen Sportplätzen der Stadt kann man sich Spiele ansehen; auch Polo wird viel gespielt. Im Winter werden in Karatschi Pferderennen veranstaltet. Auch Boxkämpfe und Squash finden ein zunehmendes Interesse beim Publikum. In Karatschi befinden sich mit National Stadium und Southend Club Cricket Stadium zwei Test-Cricket-Stadien. In der Stadt bestreitet die Pakistanische Cricket-Nationalmannschaft regelmäßig Heimspiele gegen andere Nationalmannschaften. Im National Stadium fanden unter anderem Spiele bei den Cricket World Cups 1987 und 1996 statt. In der Stadt gibt es mehrere Golfklubs. Viele Sportklubs haben Tennisplätze. Wie beim Golf muss man auch beim Tennis durch ein Mitglied in den Klub eingeführt werden oder durch die Pakistan Tourism Development Corporation eine vorübergehende Mitgliedschaft beantragen. Die größten Klubs in Karatschi sind: Karachi Gymkhana, Sindh Club, Karachi Club, Muslim Gymkhana, Creek Club und DHA Club. Wassersport kann an den Stränden und in den Swimming Pools der Klubs und größeren Hotels betrieben werden. Es besteht die Möglichkeit, Keamari-Segel- oder Motorboote zu mieten. Auch nächtliches Angeln auf dem Meer bietet sich an. Folgende Sportstadien befinden sich in Karatschi: Für Cricket (National Stadium, UBL Sports Complex, A. O. Cricket Stadium, KCCI Cricket Ground, Karachi Gymkhana Field und DHA Cricket Stadium), für Hockey (Hockey Stadium of Pakistan und UBL Hockey Ground), für Boxen (KPT Sports Complex), für Squash (Jehangir Khan Squash Complex) und für Fußball (Peoples Football Stadium und Polo Grounds). Freizeit und Erholung Der Strand von Clifton in Karatschi befindet sich am Arabischen Meer und bietet zahlreiche Möglichkeiten der Unterhaltung für Familien und Touristen. Dazu gehören unter anderem das Pferde- und Kamelreiten, der Besuch von Freizeitparks und Gaststätten. Suppenschildkröten sind in Hawkesbay Beach zu besichtigen, wenn sie ihre Eier in den von der Sonne erwärmten Sand legen. Weitere Strände, die der Erholung der Bevölkerung Karatschis dienen, sind Sandspit Beach, French Beach, Russian Beach und Paradise Point (ein Sandstein-Felsen mit einem natürlichen Bogen). In den Buchten besteht die Möglichkeit zu baden, Bootstouren zu unternehmen und mit dem Kamel zu reiten. Nahe der Strände ist in den letzten Jahren viel investiert worden, wodurch unter anderem eine Reihe neuer Bürogebäude und Hotels entstand. Wirtschaft und Infrastruktur Wirtschaft Karatschi besitzt eine vielseitige Industrie. Die Wirtschaft der Stadt konzentriert sich auf Eisengewinnung, Zementwerke, Getreidemühlen und Schiffbau, aber auch Stahl, Textilien, Chemikalien, raffiniertes Erdöl, Schuhe, Maschinen und Nahrungsmittel werden in der Stadt erzeugt. Die Stadt erwirtschaftet 60 Prozent der Steuereinnahmen des Landes und 70 Prozent der Steuern der Provinz Sindh. Karatschi ist die reichste Stadt Pakistans und deren wirtschaftliches Zentrum. Das Pro-Kopf-Einkommen ist dort etwa vier- bis fünfmal höher als im Landesdurchschnitt. Das größte pakistanische Mineralölunternehmen Pakistan Petroleum hat seinen Hauptsitz in Karatschi. Die Stadt ist Standort eines Kernkraftwerkes, vieler großer Banken und besitzt mit der Karachi Stock Exchange (KSE) die größte Börse des Landes. Da Afghanistan keinerlei Küstenhafen besitzt, wird sein Handel ebenso wie ein Großteil des pakistanischen Seehandels, dazu gehören unter anderem Baumwolle und Weizen, über den modernen Seehafen von Karatschi auf der Insel Kiamari abgewickelt. Karatschi ist Sitz aller großen Fernsehstationen in Pakistan (KTN, Sindh TV, CNBC Pakistan, Kashish TV, Geo television, Ary Digital und Aaj TV). Die nationale und internationale Fluggesellschaft Pakistan International Airlines (PIA) hat ebenfalls ihren Sitz in der Stadt. Der wirtschaftliche Aufschwung seit Anfang des 21. Jahrhunderts in Pakistan hat einen plötzlichen Wachstumsschub in Karatschi geschaffen, so dass auch die Zahl der Arbeitsplätze zunimmt und die Infrastruktur sich im Laufe der Zeit verbessert. Probleme bereitet neben der Luftverschmutzung der Industriebetriebe und des Autoverkehrs auch die Verseuchung einiger Küstengebiete. So befindet sich in Karatschi einer der weltweit größten Schiffsschrottplätze. Zahlreiche große Schiffe (Frachter, Öltanker und Passagierschiffe) aus aller Welt werden dort in ihre Bestandteile zerlegt. Viele Materialien enthalten Asbest, Dioxine, Schwermetalle, Polychlorierte Biphenyle (PCB) und andere giftige Inhaltsstoffe in hohen Konzentrationen. Zusammen mit Altöl und anderem Giftmüll wird dieses Material ins Meer geworfen oder am Strand verbrannt. Ohne Schutzbekleidung und Schutzbrillen sind die Arbeiter den giftigen Substanzen ausgesetzt. Sicherheitsvorkehrungen sind nicht vorhanden. So kommt es fast täglich zu Erkrankungen, Verletzungen und tödlichen Unfällen. In einer Rangliste der Städte nach ihrer Lebensqualität belegte Karatschi im Jahre 2018 den 205. Platz unter 231 untersuchten Städten weltweit. Verkehr Fernverkehr Durch ein gut ausgebautes Straßen- und Schienennetz wurde die Stadt an das internationale Verkehrssystem angeschlossen und besitzt mit dem Jinnah International Airport einen modernen großen Flughafen, der von internationalen Fluglinien zum Auftanken angeflogen wird. Der 1929 eröffnete Flughafen ist Luftfahrt-Drehkreuz für den Flagcarrier Pakistan International Airlines (PIA) und weitere kleinere Gesellschaften. Flughafenbetreiber ist die Pakistan Civil Aviation Authority. Jährlich werden sechs Millionen Passagiere abgefertigt. Die erste Eisenbahnlinie auf dem Gebiet des heutigen Pakistans, die Scinde Railway, nahm am 13. Mai 1861 den Betrieb zwischen Karatschi und Kotri bei Hyderabad auf. Heute hat die Hafenstadt Eisenbahnverbindungen zu allen großen Städten des Landes. Ungefähre Fahrzeiten von Karatschi: nach Lahore 16 Stunden; nach Rawalpindi 28 Stunden und nach Peschawar 32 Stunden. Am 17. Februar 2006 wurde die seit dem Zweiten Indisch-Pakistanischen Krieg von 1965 stillgelegte Eisenbahnstrecke zwischen Karatschi und Jodhpur in Indien wiedereröffnet. Der Güterumschlag im Überseeschiffsverkehr findet fast ausschließlich in Karatschi statt. Karatschi ist damit Dreh- und Angelpunkt des pakistanischen Außenhandels. Zur Entlastung des durch den Karachi Port Trust verwalteten Karachi Port, des einzigen Naturhafens des Landes, wurde in den 1970er Jahren ein zweiter Hafen, der Port Muhammad Bin Qasim, etwas außerhalb von Karatschi angelegt. Beim Eisenbahnunfall von Karatschi im Jahr 2016 starben 22 Menschen. Nahverkehr Die erste Dampfstraßenbahn eröffnete am 20. April 1885. Sie wurde ein Jahr später durch eine Pferdestraßenbahn abgelöst und 1909 durch Benzinstraßenbahnen ersetzt. Diese waren bis 30. April 1975 in Betrieb. 1964 eröffnete die Ringbahn Karatschi (Karachi Circular Railway) ihren Betrieb. Der Verkehr musste 1999 wegen Korruption und politischer Einflussnahme der sogenannten „Transportmafia“ vorübergehend eingestellt werden. Am 8. März 2005 kam es auf der Linie Karachi City Station nach Malir Cantonment zur Wiedereröffnung eines 29 Kilometer langen Teilabschnittes. Eine vollständige Revitalisierung der 58 Kilometer langen Ringbahnstrecke ist geplant. Das gesamte Streckennetz soll bei seiner Fertigstellung eine Länge von 86,6 Kilometern haben. In der Stadt existiert heute kein leistungsfähiges öffentliches Verkehrssystem mit hoher Kapazität, wie eine U-Bahn, Stadtbahn oder Straßenbahn, das die Straße entlasten würde. Die Hauptlast des Öffentlichen Personennahverkehrs (ÖPNV) wird von dieselbetriebenen Omnibussen bewältigt. Das Bus- und Minibusnetz ist gut ausgebaut, die Fahrzeuge sind jedoch meist überfüllt. Ein weiteres Verkehrsmittel sind die zahlreichen Taxis, die aber während des Ramadan meist nur tagsüber fahren. Außerdem gibt es Autorikschas. Karatschi sieht sich einem schweren Verkehrskollaps gegenüber. Die Anzahl der Autos ist zu groß für die Straßen. Das macht das Fahren in der Stadt gefährlich und verursacht hohe Zeitverluste infolge von Staus. Viele innerstädtische Straßen sind in schlechtem Zustand, was das Verkehrsproblem nur noch vergrößert. Die Luftverschmutzung infolge von Auto- und Industrieabgasen ist sehr hoch. Im Bau befindet sich das Schnellbahnnetz Karatschi Metrobus. Bildung In Karatschi befinden sich die bedeutendsten Bibliotheken des Landes: die Liakat Memorial Library, die Central Secretariat Library und die Universitätsbibliothek. Die Stadt ist Sitz zahlreicher Universitäten und Hochschulen wie der NED University of Engineering and Technology (1922 eröffnet) und der Universität Karatschi (1951 eröffnet). Weitere hervorragende Universitäten sind: Aga Khan University, Baqai Medical University, National University of Computer and Emerging Sciences (NUCES), Bahria University, Mohammad Ali Jinnah University, Dow University of Health Sciences, Sir Syed University of Engineering and Technology, Hamdard University und Jinnah University for Women. Weitere bedeutende Bildungs- und Forschungseinrichtungen sind: Institute of Business Administration (IBA), Indus Valley Institute of Art and Architecture, Textile Institute of Pakistan, Shaheed Zulfiqar Ali Bhutto Institute of Science and Technology (SZABIST), H.E.J Research Institute of Chemistry, Applied Economics Research Centre (AERC), Institute of Business and Management (IBM), Dawood College of Engineering and Technology sowie das [PAF-KIET] Pakistan Air Force-Karachi Institute of Economics and Technology. Persönlichkeiten Söhne und Töchter der Stadt Alibhoy Mulla Jeevanjee (1856–1936), indischer Kaufmann und Unternehmer und zugleich kenianischer Politiker Muhammad Ali Jinnah (1876–1948), Politiker in Britisch-Indien, gilt als Gründer des Staates Pakistan Aga Khan III. (1877–1957), religiöser Anführer der Ismaeliten Margaret Lockwood (1916–1990), britische Schauspielerin June Thorburn (1931–1967), britische Schauspielerin Nasreen Mohamedi (1937–1990), indische Künstlerin Bapsi Sidhwa (* 1938), pakistanisch-amerikanische Schriftstellerin Arif Alvi (* 1949), pakistanischer Politiker Benazir Bhutto (1953–2007), pakistanische Premierministerin Asif Ali Zardari (* 1955), pakistanischer Politiker und von 2008 bis 2013 Präsident Pakistans Muhammad Zubair Umar (* 1956), pakistanischer Politiker Sami Solanki (* 1958), Schweizer Astronom Chris Van Hollen (* 1959), US-amerikanischer Politiker Syed Murad Ali Shah (* 1962), pakistanischer Politiker und Bauingenieur Jahangir Khan (* 1963), Präsident des Weltsquashverbandes und erfolgreichster Squashspieler aller Zeiten Patrick Chappatte (* 1967), Schweizer Karikaturist Nergis Mavalvala (* 1968), pakistanisch-US-amerikanische Physikerin Tamsin Causer (1974–2006), britische Weltmeisterin und Weltrekordhalterin im Fallschirmspringen Sabeen Mahmud (1975–2015), pakistanische Menschenrechtlerin Iqbal Khan (* 1976), Schweizer Bankmanager Dilshad Vadsaria (* 1985), US-amerikanische Schauspielerin Rubin Okotie (* 1987), österreichischer Fußballspieler Mehwish Hayat (* 1988), Schauspielerin, Synchronsprecherin, Sängerin und Model Iman Vellani (* 2002), pakistanisch-kanadische Schauspielerin Persönlichkeiten, die vor Ort gewirkt haben Shaista Suhrawardy Ikramullah (1915–2000), pakistanische Politikerin, Diplomatin und Autorin Joseph Cordeiro (1918–1994), römisch-katholischer Erzbischof von Karatschi und Kardinal Hakim Said (1920–1998), indisch-pakistanischer Pharmazeut, Medizinhistoriker, Philanthrop und Förderer des Hochschulwesens Agha Hasan Abedi (1922–1995), pakistanischer Bankier und Philanthrop Shaukat Siddiqi (1923–2006), pakistanischer Schriftsteller Abdul Sattar Edhi (1928–2016), pakistanischer Philanthrop Ruth Pfau (1929–2017), deutsche römisch-katholische Ordensschwester und Lepraärztin in Pakistan Sadequain (1930–1987), Maler und Kalligraf Ahmed Rushdi (1934–1983), pakistanischer Playbacksänger des Urdu-Films Obaidullah Aleem (1939–1998), urdusprachiger Dichter Taqi Usmani (* 1943), islamischer Gelehrter Shahid Afridi (* 1975), pakistanischer Cricketspieler Siehe auch Karatschi Ost (Distrikt) Karatschi Süd (Distrikt) Karatschi West (Distrikt) Karatschi Zentrum (Distrikt) Liste der Städte in Pakistan Literatur Alexander F. Baillie, Yasmeen Lari: Kurrachee: Past, Present and Future (Oxford in Asia Historical Reprints), Oxford University Press Pakistan, 1998, ISBN 0-19-577586-4. E. van Donzel: Karāčī. In: C. E. Bosworth u. a. (Hrsg.): The Encyclopaedia of Islam. New Edition. Vol. 4, E.J. Brill, Leiden 1997, S. 597f. Herbert Feldman: Karachi Through a Hundred Years: The Centenary History of the Karachi Chamber of Commerce and Industry, 1860–1960, Oxford University Press, 1971, ISBN 0-19-636056-0. Ann Frotscher: Banden- und Bürgerkrieg in Karachi, Nomos-Verlag, Baden-Baden, 2005, ISBN 3-8329-1100-6. Laurent Gayer: Karachi: Ordered Disorder and the Struggle for the City. Oxford University Press, Oxford 2014, ISBN 978-0-19-935444-3. Yasmeen Lari, Mihail S. Lari: The Dual City: Karachi During the Raj, Oxford University Press Pakistan, 1998, ISBN 0-19-577735-2. Inis Schönfelder: Engel über Karachi. Wie Menschen Unmögliches möglich machen, Quell-Verlag, Stuttgart, 1996, ISBN 3-7918-1991-7. Klaus P. Strohmeier (Hrsg.), Götz Köhler (Hrsg.), Ulrich Laaser (Hrsg.): Pilot Research Project on Urban Violence and Health. Determinants and Management. A Study in Jakarta, Karachi and Conurbation Ruhrgebiet, Hans-Jacobs-Verlag, Lage (Westf.), 2002, ISBN 3-932136-82-9. Weblinks Karatschi (Regierungsseite) (englisch) Deutsches Generalkonsulat Karatschi Goethe-Institut Karatschi Karatschi Börse (englisch) Karachi International Airport (englisch) Karatschi Hafen (englisch) Südasiatische Metropolen: Karachi (Fotoserie zu Karachi bei suedasien.info) Brief aus Karatschi – Hani Yousuf für Le Monde diplomatique, Ausgabe März 2012 (Stimmungsbild der Stadt) Jan Breman: The Undercities of Karachi, New Left Review 76, Juli/August 2012. Einzelnachweise Ort in Sindh Ort mit Seehafen Millionenstadt Ehemalige Hauptstadt (Pakistan) Hochschul- oder Universitätsstadt
Q8660
442.275999
55030
https://de.wikipedia.org/wiki/Oaxaca
Oaxaca
Oaxaca (), offiziell Freier und Souveräner Staat Oaxaca (), ist einer der 31 Bundesstaaten von Mexiko. Er liegt im Süden des Isthmus von Tehuantepec. Name Der Staat ist benannt nach seiner Hauptstadt Oaxaca de Juárez (siehe dort zur Herkunft des Wortes). In der Kolonialzeit wurde das Gebiet der Talregion als Las Cuatro Villas bezeichnet, weil es aus vier voneinander räumlich getrennten Kleinstädten bestand, die administrativ als Besitzungen des von 1521 bis 1530 als Generalgouverneur von Neuspanien eingesetzten Hernán Cortés zusammengefasst waren. Der Name Oaxaca wurde später auf den Staat übertragen. Geographie Auf dem Gebiet Oaxacas kreuzen sich drei Bergketten: Die Sierra Madre Oriental, die Sierra Madre del Sur und die Sierra Atravesada. Die einzigen Ebenen stellen ein schmaler Streifen an der Pazifikküste, die zentralen Hochtäler sowie im Norden ein Stück an der Grenze zu Veracruz dar. Die durchschnittliche Höhe beträgt 1500 Meter über dem Meeresspiegel. Im Nordwesten grenzt der bergige Staat an Puebla, im Nordosten an Veracruz, im Westen an Guerrero und im Osten an Chiapas. Im Süden grenzen ihn rund 600 km Küste von dem Pazifik ab. Seine Fläche beträgt etwa 94.000 km², womit er 4,8 % der Fläche Mexikos einnimmt. In Oaxaca leben 3,51 Millionen Menschen. Es beherbergt über 16 verschiedene Volksgruppen und ist daher einer der kulturell vielfältigsten Bundesstaaten. Der Bundesstaat hat einen hohen indigenen Bevölkerungsanteil. Genauso wie andere Staaten Mexikos besitzt Oaxaca eine eigene Verfassung, ein Strafgesetzbuch und ein eigenes Wappen. Der wichtigste Fluss Oaxacas ist der Río Papaloapan, der von den Flüssen Río Tomellín und Río Santo Domingo gespeist wird. Der höchste Berg ist der Cerro Nube (Quie Yelaag auf Zapotekisch). Er liegt in der Sierra Madre del Sur und sein Gipfel ist mit 3750 Metern der elfthöchste in Mexiko. Klima Durch seine vielgestaltige Geographie umfasst Oaxaca unterschiedliche Klimazonen: kühle, pinienbewachsene Bergrücken, heiße, trockene, kakteenbestandene Täler und feuchtheiße Dschungel in den tiefergelegenen Regionen am Papaloapan und an der Pazifikküste. Bevölkerung und Sprachen Oaxaca ist der mexikanische Bundesstaat mit der größten ethnischen und linguistischen Diversität. Es gibt über 60 indigene Bevölkerungsgruppen mit 1,2 Millionen aktiven Sprechern indigener Sprachen. Die Zapoteken – seit etwa 1400 v. Chr. im zentralen Tal von Oaxaca als Ackerbauern ansässig – bilden mit mindestens 400.000 meist zweisprachigen Personen die größte dieser Gruppen. Das Zapotekische ist eine große Sprachfamilie mit zahlreichen Varianten; insgesamt sprechen ca. 34 % der Einwohner der Bundesstaates Zapotekisch. Die in sprachlicher Hinsicht den Zapoteken nahestehenden Mixteken (Ñuu sávi) bilden mit etwa 267.000 Personen die zweitgrößte Gruppe. Mixtekisch sprechen etwa 22 % der Einwohner des Staates. Die drittgrößte Gruppe stellen die mit den Mixteken ethnisch und sprachlich verwandten rund 180.000 Mazateken (Ha shuta enima) dar, gefolgt von etwa 115.000 Mixes (Ayuukjä'äy) in der Sierra norte, die eine mit den Maya-Sprachen verwandtes Idiom sprechen, etwa 110.000 Chinanteken (Tsa ju jmí’) und 50.000 Chatinos. Etwa 5 % der Einwohner Oaxacas sind afrikanischer Abstammung; sie leben vor allem in der Küstenregion. Bevölkerungsentwicklung Obwohl Oaxaca eine der höchsten Geburtenraten in Mexiko hat, liegt das Bevölkerungswachstum nicht über dem Durchschnitt des Landes. Grund dafür ist die Abwanderung in andere Bundesstaaten Mexikos und das Ausland. Viele Zapoteken sind in die USA ausgewandert. Geschichte Erste Spuren menschlicher Besiedlung in Oaxaca lassen sich auf ca. 11.000 v. Chr. datieren. In einer Höhle mit dem Namen Guilá Naquitz in der Nähe der Stadt Mitla fand man Reste kultivierter Pflanzen von etwa 8000 bis 7000 v. Chr. Die ersten Siedlungen in den fruchtbaren zentralen Hochtälern Oaxacas bei San José Mogote werden mittels Radiokohlenstoffdatierung auf ca. 1500 v. Chr. datiert. Lehmziegelbauten wurden ab etwa 850 v. Chr. errichtet. Diese frühe zapotekische Kultur wurde von den Olmeken beeinflusst. Spuren zapotekischer Hieroglyphen finden sich seit 600 v. Chr. Um 500 v. Chr. ging die Bedeutung von San José Mogote zurück. In der Zeit danach wurde der Berggipfel von Monte Albán (weißer Berg) abgetragen, die ersten Tempel wurden darauf errichtet. Zwischen 200 v. Chr. und 300 n. Chr. dehnten die Zapoteken ihren Einfluss auf ganz Oaxaca aus. Zwischen 300 und 700 war Monte Alban auf ihrem Höhepunkt angelangt. Die Zapoteken beherrschten von dort aus ein ganzes Reich in Mittelamerika. Daneben spielte das benachbarte Mitla eine Rolle als Kultort. Nachdem die Zapoteken aus unbekannten Gründen um 950 Monte Albán verlassen hatten, wurde Oaxaca von den Mixteken übernommen. 1458 besetzten die Azteken unter Moctezuma I. Oaxaca. Der Nachfolger Moctezumas I. errichtete einen Militärposten und die gesamte Region geriet in die Tributpflicht der Azteken. Der spanische Eroberer Hernán Cortés nahm 1521 das Tal von Oaxaca ein und bekam es 1528 vom spanischen König Karl V. geschenkt. Damit wurde Cortés, der fortan den Titel Marqués del Valle de Oaxaca trug, zu einem der reichsten Adligen Spaniens. Im Jahre 1544 wurde mit dem Bau der Kathedrale in Oaxaca-Stadt begonnen. Im Jahre 1812 wurde Oaxaca durch die Rebellen um José María Morelos eingenommen. Von 1847 bis 1852 war der spätere mexikanische Präsident Benito Juárez Gouverneur von Oaxaca. Sein bedeutendstes Zitat lautet „El respeto al derecho ajeno es la paz“, was so viel bedeutet wie „Der Respekt gegenüber dem Recht des Nächsten garantiert den Frieden“. Dieser Satz ist in überdimensionalen Lettern auch auf einem Berg der Hauptstadt angebracht. 2006 entwickelte sich aus einem Protest der Lehrergewerkschaft in Oaxaca-Stadt ein landesweiter Aufstand. Im Zusammenhang damit wurde die Hauptstadt des Bundesstaates fünf Monate lang von Aufständischen besetzt gehalten. Politik Exekutive Die Exekutive wird vom Gouverneur des Staates ausgeübt. Er hat das Recht, den Regierungsgeneralsekretär und „…alle anderen Sekretäre sowie öffentliche Organe der Regierung des Staates zu benennen…“ und der Legislative Gesetzesinitiativen vorzustellen. Die Amtszeit beträgt sechs Jahre. Innerhalb dieser Periode besteht außer im Todesfall keine Möglichkeit der Abwahl. Die Legislative wird vom Kongress des Staates mit 42 Abgeordneten gebildet. Davon werden 25 nach dem Mehrheitswahlrecht und 17 nach dem Verhältniswahlrecht bestimmt. Die Legislaturperiode beträgt drei Jahre, eine Wiederwahl ist nicht möglich. Die Judikative wird vom Obersten Gerichtshof, von den Richtern der ersten Instanz und den Geschworenen ausgeübt. Der Oberste Gerichtshof wird von Justizbeamten und Richtern geleitet. Die Justizbeamten werden vom Gouverneur des Staates ernannt. Die Amtszeit beträgt fünfzehn Jahren und sie können wiedergewählt werden. Kommunalstruktur In Mexiko ist das Municipio die unterste Ebene der dreiteiligen politischen Territorialverwaltung; darüber stehen die Staaten und die Föderation. In Mexiko gibt es derzeit insgesamt 2448 Municipios, davon befinden sich in Oaxaca 570 (fast 25 %), die hier meist kleiner sind als in anderen Staaten. Der Gemeinderat und die lokalen Amtsträger werden entweder über Parteien gewählt oder nach traditionellem Gewohnheitsrecht (usos y costumbres) durch die Gemeindeversammlung bestimmt. Oaxaca ist zudem in 30 Distrikte (Distritos electorales, Wahlbezirke) gegliedert, jeder Distrikt hat einen eigenen Richter und eine Steuerverwaltung. Diese Distrikte wiederum sind zu acht Regionen gruppiert. Das Gewohnheitsrecht der indigenen Bevölkerung Von den 570 Gemeinden von Oaxaca verwalten sich 418 selbst nach dem traditionellen Gewohnheitsrecht (usos y costumbres) und nur 152 nach dem im Rest der Republik üblichen Parteiensystem. Das Gewohnheitsrecht wird von der Gemeindeversammlung (asamblea) ausgeübt. Die Gemeindevertreter gehören keiner Partei an, werden meist für relativ kurze Zeit (1–3 Jahre) gewählt, verrichten ihren Dienst an der Gemeinschaft ohne Bezahlung und können jederzeit durch die Gemeindeversammlung abberufen werden. Trotz dieser basisdemokratischen Elemente sind Frauen als Gemeindevertreterinnen noch die Ausnahme. Die Gemeindeämter sind Teil des Cargo-Systems, einer Hierarchie von religiösen und weltlichen Funktionen innerhalb der Dorfgemeinschaft die in der Pubertät mit der Übernahme von Boten- und Polizeiaufgaben durch „topile“ beginnt und in fortgeschrittenem Alter mit dem Richteramt des „alcalde“ endet. Eng hiermit verknüpft ist das Tequio, ein unentgeltlicher Dienst, der an Wochenenden gemeinsam mit anderen Gemeindemitgliedern beispielsweise mit Instandhaltungsarbeiten an der durchs Dorf führenden Straße verbracht wird. Obwohl die Ursprünge des indigenen Gewohnheitsrechts weit vor der Eroberung durch die Spanier liegen, entstammen viele seiner Elemente der Kolonialzeit. Weitere kamen mit den Verwaltungsstrukturen für kollektiven Landbesitz hinzu, die sich mit der in der mexikanischen Revolution erreichten Landreform etablierten. Wirtschaft Oaxaca gehört zu den ärmsten Bundesstaaten Mexikos: Nach dem Index der menschlichen Entwicklung belegte Oaxaca 2015 mit einem Wert von 0,687 den vorletzten Platz unter den 31 nationalen Bundesstaaten. Der Hauptwirtschaftsfaktor ist die Landwirtschaft. In Oaxaca werden Zuckerrohr, Zitronen, Apfelsinen, Luzerne, Gerste, Mais, Avocado, Pinienzapfen, Reis, Melonen, Aloe, Kaffee und Tabak angebaut. Oaxaca ist der primäre Ursprungsstaat des Mezcal. Oaxaca ist unter den mexikanischen Bundesstaaten führend im Ausbau der Windenergie: mit Stand Oktober 2021 sind in Oaxaca 2.749 MW Windkraftwerksleistung installiert, das sind 38,4 % der mexikanischen Gesamtleistung von 7.154 MW. Der Bergbau in Oaxaca gewinnt zunehmend an Wichtigkeit, nachdem vor allem kanadische Minenkonzerne sich die Schürfrechte für weite Teile des Landes gesichert haben. Ein weiterer, wichtiger Wirtschaftsfaktor ist der Tourismus. Dieser wird in vier Teilgebiete untergliedert: Strände und natürliche Sehenswürdigkeiten: Bahías de Huatulco, Puerto Escondido, Santa María del Tule, Hierve el Agua, Guilá Naquitz, Gheo Shih usw. Öko-, alternativer und Abenteuertourismus: Boot- und Kajakfahren, Sportfischen, Camping, Bergradsport, Abseilen, ländlicher Tourismus usw. Feste und Feiern: Semana Santa, Guelaguetza, Velas Istmeñas, Todos Santos, Noche de Rábanos, Virgen de Juquila, Virgen de Guadalupe, Virgen de la Soledad, Santo Cristo de Tlacolula etc. Archäologische Zonen: Monte Albán, Mitla, Yagul, San José Mogote, Dainzú, Yucuita, Yucuñudahui und Zaachila Kultur- und Naturerbe Die UNESCO hat am 11. Dezember 1987 die Altstadt von Oaxaca de Juárez und die Ruinen von Monte Albán in die Liste des Weltkulturerbes aufgenommen. Neben dem Weltkulturerbe hat die UNESCO auch weite Teile des Bundesstaates als Biosphärenreservat anerkannt. Im Gebiet von Oaxaca gibt es etwa 200 Arten von Reptilien, 2204 Pflanzenarten, 530 Arten von Vögeln, 212 Arten von Säugetieren und 93 Arten von Amphibien. Persönlichkeiten Benito Juárez (1806–1872), Präsident, geboren in San Pablo Guelatao Porfirio Díaz (1830–1915), mexikanischer Präsident José Vasconcelos (1882–1959), Philosoph Rufino Tamayo (1899–1991), Maler Francisco Gutiérrez Carreola (1906–1945), Maler und Grafiker Andrés Henestrosa (1906–2008), Politiker Gustavo Olguín (1925–2018), Wasserballspieler und Maler Francisco Toledo (1940–2019), Maler Ruth Nivon Machoud (* 1990), mexikanisch-schweizerische Triathletin María José Portillo Ramírez (* 1999), Tennisspielerin Sehenswertes In Oaxaca befinden sich 4000 archäologische Stätten, wovon allerdings bisher nur 800, wie zum Beispiel Monte Albán, Mitlá und Yagul, untersucht wurden. Weitere Sehenswürdigkeiten bietet unter anderem die Hauptstadt des Bundesstaates. Weblinks Homepage des Bundesstaates (spanisch) Tourismusbüro des Staates (spanisch) Information zu den Ausgrabungsstätten in Oaxaca vom Ministerium für Archäologie und Geschichte (spanisch) Einzelnachweise Mexikanischer Bundesstaat
Q34110
538.101403
12823
https://de.wikipedia.org/wiki/Sex
Sex
Sex (Lehnwort aus der englischen Sprache, von lateinisch sexus „Geschlecht“) bezeichnet die praktische Ausübung von Sexualität als Gesamtheit der Lebensäußerungen, Verhaltensweisen, Empfindungen und Interaktionen von Lebewesen in Bezug auf ihre Geschlechtlichkeit. Alltagssprachlich bezieht sich Sex auf sexuelle Handlungen zwischen zwei oder mehreren Sexualpartnern (auch Intimpartner), insbesondere den Geschlechtsverkehr und vergleichbare Sexualpraktiken, und schließt im weiteren Sinne auch die Masturbation ein (Sex mit sich selber). Biologische Funktion Als evolutionärer Grund für die sexuelle Reproduktion werden Fitnessvorteile gegenüber der ungeschlechtlichen Vermehrung als sehr wahrscheinlich angenommen. Die Durchmischung der Gene würde demnach zum Beispiel eine Reduktion des Risikos nachteiliger Mutationen sowie die Reduktion der Anfälligkeit für Infektionskrankheiten bewirken. Sexueller Kontakt unter Tieren wird für gewöhnlich Begattung genannt. Bei Säugetieren ist die häufigste sexuelle Praktik der vaginale Geschlechtsverkehr – meist in der a-tergo- oder „Missionarsstellung“. Auch oraler Kontakt mit den Geschlechtsteilen und dem Afterbereich des Partners sowie homosexuelle Praktiken kommen vor. Psychosoziale Aspekte In der Regel handelt es sich bei Tieren um rein instinktgesteuertes Verhalten, das ausschließlich der Fortpflanzung dient. Beim Menschen ist Sex kein reines Instinktverhalten mehr, sondern unterliegt auch bewussten Entscheidungsprozessen. Bei einer Reihe von Arten, etwa den Bonobos und Delfinen, ist der Sex ähnlich wie beim Menschen auch Teil der sozialen Interaktion und spielt über die Fortpflanzungsfunktion hinaus eine wichtige Rolle für Intimität, Paarbindung und Wohlbefinden sowie auch körperliche und psychische Gesundheit. Über einen Kinderwunsch hinaus liegt die direkte Motivation für sexuelle Interaktion meist in der Befriedigung eines – im Idealfall beiderseitig vorhandenem – sexuellen Verlangen und Appetenz: Sex befriedigt die Libido und wird von den meisten Menschen als lustvoll erlebt. Die Bereitschaft zur sexuellen Interaktion ist jedoch nicht ausschließlich durch inneres Verlangen getrieben: gerade beim Menschen spielen oftmals (vermeintliche) soziale und kulturelle Erwartungen und Wünsche des Partners bezüglich Häufigkeit und Ausgestaltung des Sex eine gewichtige Rolle. Aus biochemischer Sicht entspricht dem mit dem Sex einhergehenden Lustgefühl die Freisetzung von Endorphinen, körpereigenen Opiaten und Dopamin. Der begleitende Zustand ist in der Regel von Erregung beziehungsweise Arousal gekennzeichnet und geht in eine angenehme Entspannung über, wobei der Grad der Ausprägung abhängig von der Person und der Situation ist. Darüber hinaus drückt Sex in der Regel als wichtige Form der sozialen Interaktion Gefühle der Zärtlichkeit, Zuneigung und Liebe aus. Besonders in Liebesbeziehungen kann das Sexualleben eine zentrale Rolle als Ausdruck der Verbundenheit der Partner spielen. Hierfür sind wiederum auf biopsychologischer Ebene die Neuropeptide Oxytocin und Vasopressin mit verantwortlich, welche beim Sex ausgeschüttet werden und die für die Ausformung zwischenmenschlicher Bindung wesentlich sind. Interessanterweise finden zahlreiche biochemische und physiologische Reaktionen auch primär beim partnerschaftlichen Sex statt und nicht, oder in weit geringerem Ausmaß, bei der Masturbation. Obgleich der Orgasmus oftmals als Ziel des Sex sowie als natürlicher Abschluss des Sexualaktes betrachtet wird, ist er für das Erleben von Lust und Befriedigung bei beiden Geschlechtern keine notwendige Voraussetzung und kann für die Bindungsfunktion des Sex sogar abträglich sein, bei der Praktik des Karezza soll der Orgasmus beispielsweise aktiv vermieden werden. Einer der wichtigsten Prädiktoren für die Zufriedenheit beider Partner mit Häufigkeit, Dauer und Ausgestaltung des Sex ist die offene Kommunikation über Wünsche und Bedürfnisse. Da Sex in vielen Kulturen mit zahlreichen Tabus belegt ist, ist für viele Menschen sowohl das Gefühl für die eigenen Vorlieben, als auch Sprache und Kommunikation darüber eingeschränkt. Die Überwindung dieser Einschränkungen, wie beispielsweise im Rahmen einer Paartherapie durch Abbau von Ängsten und Einübung kommunikativer Fähigkeiten, ist eine wichtige Voraussetzung für ein erfüllendes Sexualleben. Sexualpraktiken Eine Sexualpraktik ist jede Handlung, die subjektiv der sexuellen Befriedigung dient. Dies sind nicht nur Stimulationen der Geschlechtsorgane, sondern alles, was als erregend empfunden werden kann, etwa ein Zungenkuss oder auch sexuelle Handlungen ohne sexuelle Berührungen. Da beim Menschen Sex durch die Entkopplung von der Fortpflanzung einen eigenen Sinn und Zweck innehat, entwickelte dieser eine große Vielfalt von sexuellen Praktiken, die einerseits Ausdruck seiner Kreativität und der Freude am körperlichen Miteinander sind, andererseits auch ganz praktische Hintergründe haben, etwa wenn heterosexueller Analverkehr häufig zur Empfängnisverhütung praktiziert wurde – auch wenn dies eine höchst unsichere Methode ist. Sexuelle Praktiken ohne Verkehr Sexuelle Praktiken, die nicht auf eine Person beschränkt sind, umfassen erotische Massagen, die Reizung der erogenen Zonen (unter anderem der Brustwarzen und Ohrläppchen) und des gesamten Körpers, das heißt Necking und Petting. Darüber hinaus gibt es jedoch noch eine Reihe von Praktiken, die von der Gruppe der Beteiligten als sexuell stimulierend empfunden werden: Rollenspiele, Verkleidungen, Verzögerungen oder Beschleunigungen sexueller Handlungen, sexuelle Handlungen an einem bestimmten Ort, der gemeinsame Konsum erotischer oder pornografischer Materialien, aber auch stärkere Reize wie Schmerz (Sadomasochismus) oder Elektrostimulation. Fast alle Dinge oder Handlungen können sexuell aufgeladen werden. Geschlechtsverkehr „Geschlechtsverkehr“ („Beischlaf“) bezeichnet die sexuelle Vereinigung zweier Sexualpartner, die in der Penetration oder intensiven Stimulation der Geschlechtsorgane bei sexuellen Kontakten – gleich welcher Art – besteht. Beim partnerschaftlichen Sex wird durch das zärtliche Vorspiel (siehe Petting), den intimen Austausch von Zärtlichkeiten die beiderseitige Lust gesteigert. Eine Penetration kann dabei im Eindringen von Penis, Hand, Fingern oder Sexspielzeug in eine Körperöffnung des Partners oder der Partnerin bestehen. Unter „heterosexuellem Geschlechtsverkehr“ wird in der Regel das Einführen des Penis in die Vagina mit nachfolgendem Vor- und Zurückbewegen verstanden. Durch diese Gleitbewegung wird der Mann meist soweit stimuliert, dass er zum Orgasmus kommt und ejakuliert. Hingegen kann nur ein geringerer Prozentsatz der Frauen, auch wenn sie normalerweise hierbei ebenfalls erregt werden, ausschließlich durch Vaginalverkehr allein einen Höhepunkt erreichen (siehe dazu auch Orgasmus der Frau: Forschungsstand). Gewöhnlich ist sowohl beim Vorspiel als auch nach der Penetration eine zusätzliche – direkte oder indirekte – Stimulation der Klitoris erforderlich, die beispielsweise durch geeignete Körperbewegungen der Partner oder mit der Hand erfolgen kann. Diese Art von Sex kann in verschiedenen „Stellungen“ praktiziert werden, etwa der Missionarsstellung, Hündchenstellung, Reitstellung oder 69. Beim Oralverkehr findet der Geschlechtsverkehr mit Mund und Zunge statt, wobei die Kombination Mund-Penis als „Fellatio“, die Kombination Mund-Vulva als „Cunnilingus“ bezeichnet wird. Eine gleichzeitige gegenseitige orale Stimulierung wird bildlich auch „Neunundsechzig“ genannt. Auch anale Stimulation kann oral erfolgen, wenn der hoch empfindliche Damm oder der äußere Schließmuskel mit Mund und Zunge berührt werden (Anilingus). Beim Analverkehr wird der Penis in den Anus der Partnerin oder des Partners eingeführt. Auch Analverkehr kann in verschiedenen Stellungen praktiziert werden; darüber hinaus wird er auch mit den Fingern oder mit dafür geeigneten Gegenständen ausgeübt. Sonstige Praktiken Neben diesen Praktiken gibt es auch das gegenseitige Aneinanderreiben der Geschlechtsteile (Tribadie), das Einführen der ganzen Hand oder des Unterarms in eine Körperöffnung des Partners oder der Partnerin (Fisting), den Sex zwischen den Brüsten einer Frau (Mammalverkehr), den Verkehr zwischen den Schenkeln (Schenkelverkehr), den Pobacken oder in den Achselhöhlen. Besondere Formen des Geschlechtsverkehrs sind unter anderem BDSM, der schnelle Sex (Quickie), der Sex zu dritt (Triole: Flotter Dreier) oder in der Gruppe (Gruppensex, Gang Bang). Ohne körperlichen Kontakt (Sexualkontakt) kommt das sexuelle und obszöne Sprechen aus (Verbalerotik, Telefonsex, Cybersex), sowie das reine Beobachten der Sexualität anderer Menschen (Voyeurismus) und das Vorzeigen der eigenen Sexualität (Exhibitionismus). Paraphilien Zu den Paraphilien oder sexuellen Abweichungen werden unter anderem gezählt: Fetischismus: Fixierung auf Objekte oder Handlungen, etwa auf Füße oder Kleidungsstücke Objektsexualität: sexuelle Anziehung von Menschen zu unbelebten Objekten sexueller Sadismus und sexueller Masochismus (falls das B-Kriterium des DSM-IV-Kataloges vorliegt) Saliromanie: Praktiken zur Befriedigung des „Besudelungstriebs“, etwa Gesichtsbesamung, Urophilie, Koprophilie Selbstbefriedigung Autosexualität oder „Selbstbefriedigung“ umfasst alle sexuellen Praktiken, die eine einzelne Person an sich ausübt. Die Masturbation wird mit der Hand durchgeführt, kann im Allgemeinen aber auch unter Zuhilfenahme der verschiedensten Gegenstände stattfinden. Sexuelle Orientierung und Sexualpräferenz Sexuelle Orientierung Als „sexuelle Orientierung“ oder „Geschlechtspartner-Orientierung“ wird das hauptsächliche Interesse bezüglich des Geschlechts des gewünschten Partners bezeichnet. Es setzt sich aus einer komplexen Mischung von emotionaler und sexueller Anziehung, Erleben, tatsächlichem Sexualverhalten und persönlicher Identität zusammen, die sprachlich durch drei Bezeichnungen ausgedrückt werden: Heterosexualität: eine tendenziell eher gegengeschlechtliche Orientierung Homosexualität: eine tendenziell eher gleichgeschlechtliche Ausrichtung Bisexualität: Interesse an beiden Geschlechtern Von Asexualität wird gesprochen, wenn Personen keinerlei sexuelle Anziehung gegenüber anderen Menschen verspüren oder einfach nicht sexuell interagieren. Sexualpräferenz Als „Sexualpräferenz“ werden weitere Neigungen oder Vorlieben bezüglich Partner, Praktiken oder Sexualobjekte zusammengefasst, so beispielsweise bezüglich Alter und Anzahl der Partner. Sexuelle Neigungen, die deutlich von der empirischen Norm abweichen, werden als Paraphilie bezeichnet. Entsprechend tabuisiert und teilweise verboten sind oftmals: sexuelle Erregung durch Objekte (Fetischismus), Sex mit Kindern (Pädophilie) oder Tieren (Zoophilie), und sexuelle Handlungen mit Toten (Nekrophilie). Sexualverhalten In einer repräsentativen Befragung wurde das Sexualverhalten von 2524 Menschen in Deutschland untersucht, die mindestens 14 Jahre alt waren. Die Daten wurden auf die deutsche Bevölkerung standardisiert. Hierbei gaben 83 % der Männer und 78 % der Frauen an, bisher nur gegengeschlechtliche Sexualkontakte gehabt zu haben, 5 % der Männer oder 8 % der Frauen hatten gleichgeschlechtliche Sexualkontakte. Mindestens einmal Vaginalverkehr im bisherigen Leben hatten 88 % der Männer und 89 % der Frauen, mindestens einmal passiven Oralverkehr 56 % der Männer und 48 % der Frauen, aktiven Oralverkehr 51 % der Männer und 45 % der Frauen. Mindestens einmal aktiver Analverkehr wurde von 19 % der Männer angegeben, passiver Analverkehr von 4 % der Männer und 17 % der Frauen. Für das Jahr vor der Befragung gaben die Männer im Mittel 32,7-mal Vaginalverkehr an, Frauen 25,2-mal. In dieser Zeit hatten Männer im Mittel 13,6-mal aktiven Oralverkehr, Frauen 8,7-mal (davon 1,4-mal bei Männern, 7,3-mal bei Frauen). Jemals sexuellen Verkehr neben der festen Partnerschaft hatten 21 % der Männer, 15 % der Frauen, mit im Mittel 3,7 anderen Partnern. Neben der aktuellen festen Partnerschaft wurden Außensexualkontakte von 8 % der Männer und 6 % der Frauen angegeben, bei den Männern mit im Mittel 4 Prostituierten (dies wurde für Frauen nicht erfasst). Über die bisherige Lebenszeit hatten Männer im Mittel 10,2 verschiedene Sexualpartner, Frauen im Mittel 5,5 Partner. Sexuelles Fehlverhalten Wenn sexuelle Handlungen, als sich im Sexuellen ausdrückendes Sozialversagen, die Integrität und Individualität eines anderen Menschen durch einen sexuellen Übergriff direkt verletzen, bezeichnet man dies als dissexuelles Verhalten. Eine Paraphilie kann, muss aber diesem Verhalten nicht zugrunde liegen. Physiologische Prozesse während Sex und Erregung Sexuelle Appetenz Sex wird in der Psychologie als Appetenzverhalten gewertet, dessen treibende Kraft der Sexualtrieb, auch Libido genannt, ist. Solange keine sexuelle Befriedigung erfahren wird, baut sich „sexuelle Appetenz“ (vergleiche Appetit) auf, der Wunsch nach sexueller Betätigung wird verstärkt (siehe auch Sexuelle Appetenzstörung). Physiologisch betrachtet ist die Libido abhängig von der Produktion der Sexualhormone, also Testosteron bei Männern und Östrogen bei Frauen. Viele Frauen berichten von Schwankungen der Libido im Laufe des weiblichen Zyklus. Sexuelle Erregung ist zunächst eine Reaktion des limbischen Systems im Gehirn auf bestimmte sensorische Reize, die unwillkürliche körperliche Reflexe zur Folge haben können, die dann vielleicht zur Einleitung des Paarungsverhaltens führen. Reaktionszyklus beim Sex Der Ablauf der Vorgänge beim Sex – mit oder ohne Partner oder Partnerin – wird sexueller Reaktionszyklus genannt und meist in vier Phasen eingeteilt: Während der Erregungsphase steigen Puls und Blutdruck an: der sex flush setzt ein. Bei der Frau schwellen Klitoris, Schamlippen und Brustwarzen an, beim Mann der Penis. Diese Erektionen sind ein natürlich ablaufender Vorgang bei sexueller Erregung, der durch die Anstauung des Blutes in den dazugehörigen Schwellkörpern dieser Organe (allerdings nicht bei den Brustwarzen) hervorgerufen wird. Sie wird normalerweise durch das Erektionszentrum im unteren Rückenmark ausgelöst, etwa durch reflektorische mechanische Reizung, erotische Gedanken, erotisierende sinnliche Wahrnehmungen oder Vorstellungen, auch direkt durch fremde Liebkosung oder eigene Manipulationen. Gleichzeitig ist die Erektion beim Mann eine der Voraussetzungen für die Penetration, das heißt, den Koitus, obwohl ein aktives und erfülltes Liebesleben auch ohne eine solche möglich ist. Während der Plateauphase wird einige Zeit lang ein individuell unterschiedliches Erregungsniveau gehalten, wobei die Muskelanspannung intensiviert wird und Puls und Blutdruck weiter ansteigen. Die äußeren Schamlippen der Frau schwellen an und ein vaginales Transsudat, das Vaginalsekret tritt aus; die Bartholinschen Drüsen geben ihre klare Flüssigkeit erst spät in dieser Phase ab, während Männer ein Sekret aus den Cowperschen Drüsen absondern. In der dritten Phase, dem Orgasmus, wird die Lust für einige Sekunden am stärksten empfunden. Die Durchblutung der Haut erhöht sich auf ein Maximum, die Frequenz des Herzschlags kann sich verdoppeln, der Blutdruck steigt und die Atmung beschleunigt sich, was sogar zu einem kurzen Bewusstseinsverlust führen kann. Währenddessen kommt es zu unwillkürlichen, rhythmischen Muskelkontraktionen in der Genital- und Analregion. Ein durchschnittlicher Orgasmus der Frau besteht aus etwa 5 bis 15 Muskelkontraktionen der „orgastischen Manschette“, das sind einige Muskeln im Unterleibsbereich. Dabei kann manchmal bei der weiblichen Ejakulation eine klare Flüssigkeit aus dem G-Punkt-Drüsenzentrum (Prostata feminina) abgegeben werden. Viele Frauen haben eine langsamere und flachere Erregungskurve als Männer und benötigen daher mehr Zeit, um einen sexuellen Höhepunkt erreichen zu können. Der Mann stößt beim Orgasmus mit der Ejakulation dank koordinierter Kontraktionen des Nebenhodengangs, des Samenleiters, der Bläschendrüse, Prostata und Harnröhre sowie mithilfe der Kontraktionen der Beckenbodenmuskulatur in der Regel etwa zwei bis sechs Milliliter Sperma aus. Orgasmus und Ejakulation können jedoch auch unabhängig voneinander auftreten. Die letzte Phase ist die Refraktärperiode, in der nach dem sexuellen Höhepunkt Erektionen zurückgehen und sich die Herz-Kreislauf-Funktion wieder normalisiert. Dies geschieht bei der Frau in der Regel erheblich langsamer als beim Mann. Es kommt bei Männern oftmals zur postkoitalen Müdigkeit. Die meisten Männer brauchen dann einige Minuten oder auch erheblich länger (mit zunehmendem Alter auch mehrere Tage), bis sie den sexuellen Reaktionszyklus wiederholen können. Sex und Gesundheit Verhütung Als „Verhütung“ kann die Verhinderung einer Empfängnis, andererseits auch die sexualhygienische Prophylaxe von Krankheiten verstanden werden. Das wichtigste Verhütungsmittel ist das Kondom, welches normalerweise aus einer Latex-Hülle besteht, die über den erigierten Penis abgerollt wird, um sowohl Schwangerschaften als auch die Ansteckung mit sexuell übertragbaren Krankheiten zu vermeiden. Kondome für Frauen – Femidome und Lecktücher – haben noch keine weite Verbreitung gefunden. Bei richtiger Anwendung ist die Sicherheit eines Kondoms sehr hoch, wenn auch nicht so sicher wie hormonelle Verhütungsmittel; es ist jedoch das einzige Verhütungsmittel, das auch eine Ansteckung mit HIV, Gonorrhoe und Hepatitis B weitgehend verhindern kann. Das bekannteste Mittel zur Verhütung einer Schwangerschaft ist die Antibabypille („die Pille“), die seit 1960 in den Industrienationen am häufigsten als Kontrazeptivum verwendet wird. Das regelmäßig oral einzunehmende Hormonpräparat, das die weiblichen Hormone Östrogen und Gestagen enthält, bietet bei korrekter Anwendung einen sehr hohen Schutz. Die Hormone unterdrücken die Eireifung, die Ovulation, und verschließen die Gebärmutter gegenüber Spermien, indem dem weiblichen Körper sozusagen eine Schwangerschaft vorgetäuscht wird. Ein Schutz vor Ansteckung mit Krankheiten, insbesondere AIDS, ist durch die Pille nicht gegeben und wird nur durch die zusätzliche Benutzung eines Kondoms erreicht. Darüber hinaus existieren eine Vielzahl weiterer Verhütungsmethoden und Verhütungsmittel. Sexuell übertragbare Krankheiten Diejenigen Krankheiten, die vorwiegend durch sexuelle Aktivitäten übertragen werden und mit denen sich die Venerologie beschäftigt, werden als sexuell übertragbare Krankheiten bezeichnet. Die Ursache für diese Krankheiten sind Infektionen durch Einzeller, Bakterien oder Viren. Die in früherer Zeit weit verbreiteten „klassischen Geschlechtskrankheiten“ wie die Syphilis, Gonorrhoe („Tripper“), Lymphogranuloma venereum („venerische Lymphknotenentzündung“) und Ulcus molle (der „weiche Schanker“) sind heute in ihrer Bedeutung zurückgetreten. Die größte Gefahr geht von AIDS/HIV, Hepatitis B, Herpes genitalis, Chlamydien- und Trichomonaden-Infektionen sowie verschiedenen humanen Papillomviren aus, die unter anderem das Zervixkarzinom bei der Frau, aber auch „gutartige“ Tumoren wie Feigwarzen auslösen können. In ganz Europa wird eine drastische Zunahme aller Geschlechtskrankheiten festgestellt, da inzwischen weite Bevölkerungsteile glauben, dass diese Krankheiten ausgerottet seien. Da die HIV-Infektion noch immer als Randgruppenproblem betrachtet wird, verzichten viele Menschen leichtsinnigerweise auf den Schutz durch ein Kondom (siehe unten). Da eine Ansteckung niemals zu 100 Prozent ausgeschlossen werden kann, stellen sexuell übertragbare Krankheiten ein unausweichliches Grundrisiko eines sexuell aktiven Menschen dar, das dieser akzeptieren muss. Der konsequente Gebrauch von Kondomen verringert dieses Risiko drastisch, jedoch wird die Hepatitis B auch bei sogenannten hochvirämischen Trägern durch Oralverkehr übertragen. Die Hepatitis-B-Impfung kann das Risiko einer Infektion mit Hepatitis B deutlich mildern. Jährlich sterben mehr Menschen an Hepatitis B als an allen anderen sexuell übertragbaren Erkrankungen zusammengenommen. Bei dem Verdacht einer möglicherweise erfolgten Ansteckung durch HIV steht für 24 Stunden nach dem Ereignis mit der postexpositionellen Prophylaxe ein nachträglich vorbeugender, aber auch sehr unsicherer Behandlungsversuch zur Verfügung, der mit der längerfristigen Einnahme von antiretroviralen Medikamenten einhergeht. Auswirkung von Sex auf die psychische Gesundheit Sexuelle Aktivität kann den Blutdruck und das allgemeine Stressniveau senken, unabhängig vom Alter. Sie löst Spannungen, hebt die Stimmung und kann ein tiefes Gefühl der Entspannung hervorrufen, besonders in der postkoitalen Phase. Aus biochemischer Sicht verursacht Sex die Freisetzung von Endorphinen und erhöht den Gehalt an weißen Blutkörperchen, die das Immunsystem stärken. Der Einfluss von sexueller Aktivität auf die Stressresistenz konnte in wissenschaftlichen Studien bestätigt werden: Versuchspersonen, die in der vergangenen Nacht Sex hatten, konnten am nächsten Tag besser auf Stresssituationen reagieren, sie zeigten signifikant niedrigere negative Stimmung und Stress und höhere positive Stimmung. Wenn eine Person regelmäßig sexuell aktiv ist, kann sie besser mit Stresssituationen zurechtkommen. Sexuelle Störungen Die Sexualmedizin („Sexologie“), die eng mit der Sexualforschung verknüpft ist, beschäftigt sich mit der Erhaltung und Förderung der sexuellen Gesundheit. Teilgebiete sind, neben den Störungen der Geschlechtsidentität (Probleme mit der sexuellen Orientierung, Transsexualität) und des soziokulturell determinierten Sexualverhaltens (Paraphilien), vor allem die Bereiche der sexuellen Funktionsstörungen und der sekundären sexuellen Störungen. Letztere haben ihre Ursache in somatischen Primärerkrankungen wie Stoffwechselerkrankungen, Krebserkrankungen oder neurologischen Erkrankungen (zum Beispiel Multiple Sklerose). Zu den sexuellen Funktionsstörungen von Mann und Frau werden vor allem die erektile Dysfunktion, die Anorgasmie und der Vaginismus gerechnet. Die häufigste sexuelle Störung des Mannes ist der vorzeitige Samenerguss (lat. Ejaculatio praecox), wenn dieser unfähig ist, den Zeitpunkt der Ejakulation beim Geschlechtsverkehr selbst zu steuern. Die Ejaculatio praecox ist gekennzeichnet durch einen frühzeitigen Samenerguss, meistens kurz nach der Einführung des Penis in die Vagina, oft jedoch auch bereits davor, da bei diesen Männern bereits ein Erregungsniveau erreicht ist, in dem eine Kontrolle nicht mehr möglich ist. Etwa 20 % aller Männer geben an, unter diesem Problem zu leiden. Bei der Behandlung von leichten Formen stehen etwa das Miteinbeziehen der Partnerin oder des Partners, die Minimierung des Erfolgsdrucks (zum Beispiel durch ein vorläufiges Verbot des Geschlechtsverkehrs) oder – bei jungen Männern – die verzögerte Ejakulation nach einem kürzlich vorangegangenen Orgasmus im Mittelpunkt. Die erektile Dysfunktion („Impotenz“) bezeichnet das langfristige Misslingen oder Erhalten der penilen Erektion. In der überwiegenden Mehrzahl ist dieses schwerwiegende Leiden organisch verursacht. Ursachen können Rauchen, Alkoholkonsum, Zuckerkrankheit, Bluthochdruck, Operationen oder Verletzungen am Schwellkörper sein. Potenzmittel wie Viagra, Levitra und Cialis können hier in bestimmten Fällen die Beschwerden und die psychische Belastung der Betroffenen lindern. Mangelnde Libido wird auch als Frigidität bezeichnet, die insbesondere durch eine Reihe von Krankheiten und als Nebenwirkungen von Medikamenten verursacht werden kann. Neben somatischen Krankheiten wie Leberzirrhose, Hypogonadismus, Eunuchismus oder Testosteronmangel des Mannes sind auch viele psychische und psychosomatische Erkrankungen wie Depressionen oder Anorexie für eine Libidominderung ursächlich. Gesteigerten Sextrieb verursachen manchmal eine Manie, eine leichte Hyperthyreose, eine Sexsucht und die Nymphomanie. Sex und Gesellschaft In allen Gesellschaften sind sexuelle Kontakte mit moralischen Vorstellungen verbunden. Das gilt besonders für den Geschlechtsverkehr, der nicht zuletzt auch den Fortbestand einer Gesellschaft durch die Zeugung neuer Generationen leisten muss. Die Gesamtheit der sozialen Normen und Wertvorstellungen, die ebenso vom jeweiligen Volk und von der Kultur wie auch von der Gesellschaft und ihrer Epoche abhängig sind, wird als „Sexualmoral“, die Reflexion darüber wird als „Sexualethik“ bezeichnet. Moralische Aspekte Die Ethik der westlichen Gesellschaft ist nachhaltig durch den christlichen Glauben geprägt. Seit dem Mittelalter dominierten im westeuropäischen Raum die katholischen Institutionen, später auch andere christliche Kirchen die öffentliche Meinung von Sexualität. Freude an der Sexualität galt weithin als sündhaft, nur die im Sakrament der christlichen Ehe eingebundene Zeugung und Fortpflanzung wurde moralisch befürwortet und gefördert, wenngleich die Praxis anders ausgesehen haben mag. Zudem wurde Geschlechtsverkehr gemäß der mittelalterlichen Humoralpathologie (mit ihrer Vier-Säfte-Lehre) auch als heilsam und Enthaltsamkeit auch als krankmachend angesehen. Nach einer Phase der bejahenden Einstellung zur Sexualität veränderte sich im 18. Jahrhundert die Einstellung durch die sich durchsetzende bürgerliche und protestantische Sexualmoral, verschiedene Verhaltensweisen sexueller Art galten als „krank“: Selbstbefriedigung wurde als gesundheitlich schädlich angesehen, ebenso die kindliche Sexualität. Mit der fortschreitenden Säkularisierung der westlichen Welt im 20. Jahrhundert fanden seitdem mehr und mehr sexuelle Aktivitäten und Verhaltensweisen Akzeptanz. Die Tabuisierung des Sexuellen ist jedoch oft bis heute wirksam: Öffentlich „zelebrierte“ sexuelle Tabubrüche, zum Beispiel im Fernsehen, sind hier ebenso ein Indiz wie die oftmals noch praktizierte Doppelmoral. Die meisten Menschen, die in westlichen Gesellschaften aufgewachsen sind, können drei moralische „Mindestregeln“ für den Sex akzeptieren: Die sexuellen Handlungen werden von den Sexualpartnern einvernehmlich vorgenommen, das heißt, jeder Partner stimmt diesen Handlungen in vollem Bewusstsein über die Konsequenzen und in freier Entscheidung – das heißt: ohne Zwang – zu. Die Sexualpartner müssen zudem ein Mindestalter (oft 14 oder 16 Jahre) erreicht haben. Durch die sexuelle Betätigung sollten keine bleibenden körperlichen oder seelischen Schäden weder bei den Partnern noch bei Dritten hervorgerufen werden. Durch die sexuelle Betätigung sollten nur dann Kinder gezeugt werden, wenn die Beteiligten imstande sind, die Verantwortung und die Pflichten voll zu übernehmen, die damit einhergehen. Normative und kulturelle Unterschiede in der Sexualmoral bestehen bezüglich der formalen Beurteilung von Ehe, Sex vor und außerhalb der Ehe (Ehebruch), der Formen des Zusammenlebens (Monogamie, Polygamie, Polyamoryie, Polyandrie), der Haltung zur Prostitution, des Alters der Ehefähigkeit, der Zeiten und Ausführungen des Geschlechtsverkehrs usw. Weitgehende soziokulturelle Übereinstimmung besteht hingegen bezüglich der Ausübung des Geschlechtsverkehrs nur im Privaten, der Ächtung von Vergewaltigungen und dem Inzesttabu. Rechtliche Konflikte Die jeweiligen moralischen und/oder religiösen Vorstellungen finden sich regelmäßig auch in den entsprechenden rechtlichen Bestimmungen wieder. Weltweit gestattet ist der Geschlechtsverkehr zwischen Ehegatten, wobei schon bestimmte Sexualpraktiken dennoch verboten sein können. Generell sind auch Vergewaltigung und sexuelle Nötigung strafbar, in einigen Ländern wird hier noch weiter differenziert, so dass dort auch die Tatbestände sexuelle Handlungen mit Kindern (sexueller Missbrauch von Kindern) oder geistig Behinderten und anderen widerstandsunfähigen Personen bestehen. Sehr große Unterschiede in der rechtlichen Gestaltung bestehen beim Verkehr zwischen Unverheirateten, bei gleichgeschlechtlichem Sex sowie beim Beischlaf unter sehr nahen Verwandten (Inzest), bei dem belästigenden Exhibitionismus durch Männer, sexuellen Handlungen in der Öffentlichkeit („Erregung öffentlichen Ärgernisses“) und der Sodomie. Teilweise sind auch Handlungen verboten, die die Ausübung von geschlechtlichen Handlungen ermöglichen oder dulden (Kuppelei). Deutschland Hier sind gleichgeschlechtliche Handlungen nicht mehr strafbar. Zoophilie ist seit einer Reform des Tierschutzgesetzes 2013 wieder verboten, wenn das Tier dadurch zu artwidrigem Verhalten gezwungen wird. Die Tat wird nun aber nur noch als Ordnungswidrigkeit geahndet. Es gilt der Grundsatz, dass alle sexuellen Praktiken und Formen gestattet sind, die im Einvernehmen zwischen den Beteiligten geschehen, soweit diese zustimmungsfähig und in der Lage sind, die Folgen zu überblicken. Kritisch sind dabei aber dennoch die Bereiche des BDSM, bei denen es zu bleibenden Schäden kommen kann, da hier – trotz Einwilligung – beispielsweise sämtliche Akte mit Todesfolge strafrechtlich relevant bleiben (siehe auch Körperverletzung). Auch sexuelle Handlungen mit und zwischen Minderjährigen unterliegt Restriktionen. So sind sexuelle Handlungen mit Kindern unter 14 Jahren auch bei beidseitigem Einverständnis untersagt (Sexueller Missbrauch von Kindern, ). Die Strafbarkeit der Kuppelei wurde stark eingeschränkt. Österreich Geschlechtliche Handlungen ist nicht strafbar, wenn beide Partner 14 Jahre oder älter sind und wenn beide Seiten einwilligen. Außerdem ist der Geschlechtsverkehr (Beischlaf oder dem Beischlaf gleichzusetzende Handlung) mit 13-Jährigen erlaubt, solange der Altersunterschied zum Partner nicht mehr als drei Jahre beträgt (§ 206 Strafgesetzbuch). Geschlechtliche Handlungen, die nicht den Geschlechtsverkehr beinhalten, sind mit 12- und 13-jährigen erlaubt, wenn der Altersunterschied nicht mehr als vier Jahre beträgt (§ 207 Strafgesetzbuch). Die genannten Ausnahmen gelten nur, wenn die 12- bzw. 13-jährige Person durch die Tat weder längere Zeit in einen qualvollen Zustand versetzt noch in besonderer Weise erniedrigt wird und die Tat weder eine schwere Körperverletzung noch den Tod zur Folge hat. Geschlechtsverkehr unter homosexuellen Männern war bis August 2002 erst unter volljährigen Personen (vollendetes 18. Lebensjahr) erlaubt (§ 209 Strafgesetzbuch a. F.). Diese Diskriminierung von homosexuellen Personen wurde im Juni 2002 vom österreichischen Verfassungsgerichtshof aufgehoben, wobei der österreichische Nationalrat bereits zwei Wochen später mit den Stimmen von ÖVP und FPÖ eine verfassungskonforme Nachfolgeregelung beschloss, die verschärfte Bedingungen für sexuelle Handlungen im Alter zwischen 14 und 16 Jahren vorsieht und wegen ihrer nur ungenügend klaren Formulierung von den Oppositionsparteien als „Gummiparagraf“ kritisiert wurde (§ 207b Strafgesetzbuch). Die restlichen Regelungen sind ähnlich wie die Bestimmungen in Deutschland. Schweiz Sexuelle Handlungen mit Personen unter 16 Jahren sind strafbar, es sei denn, der Altersunterschied beträgt weniger als drei Jahre (Schweizerisches Strafgesetzbuch, Art. 187). Es wird nicht zwischen homo- und heterosexuellen Beziehungen unterschieden. Sex und Sprache Für alle Arten von Sex, auch für den Geschlechtsverkehr, hat sich umgangssprachlich eine Vielzahl von Ausdrücken eingebürgert. Definition von „Sex haben“ Bei welchen Sexualpraktiken und unter welchen Umständen eine Person „Sex hat“, unterscheidet sich individuell, wobei kulturelle Faktoren mitspielen, das Alter vor allem bei Männern und die sexuelle Orientierung. Das Geschlecht jedoch ist durchschnittlich nicht statistisch signifikant. Einzelne Untersuchungen gibt es dazu vor allem aus dem englischen Sprachraum, wo es um die Formulierung geht. Die bekannteste Episode ist die Lewinsky-Affäre, als Monica Lewinsky beim damaligen Präsidenten Bill Clinton Oralverkehr praktiziert hatte und dieser Anfang 1999 sagte: Kurz darauf veröffentlichte das Kinsey-Institut eine schon 1991 durchgeführte Studie mit 599 Studenten aus 29 Bundesstaaten. Für 59 % der Teilnehmer fiel oral-genitaler Kontakt nicht unter die Bezeichnung „Sex haben“. Ebenso sahen es 19 % bei penil-analem Verkehr. Der daraus gezogene Schluss war, dass die Amerikaner verschiedene Ansichten über das Thema haben. Die Entscheidung, diese Studie zu diesem Zeitpunkt zu veröffentlichen, kostete George D. Lundberg, den Chefredakteur des Journal of the American Medical Association, den Job. In der Folge entstanden weitere Studien, meist mit Schülern und Studenten, manchmal auch mit jungen Erwachsenen, einige wurden als Tiefeninterviews oder offene Fragebögen durchgeführt. Bei einigen drehte es sich um Verlust der Jungfräulichkeit und Abstinenz. Das Kinsey-Institut befragte für eine Anfang 2010 veröffentlichte Untersuchung 204 Männer und 282 Frauen zwischen 18 und 96 Jahren in Indiana per Telefon. Die Fragestellung war: Unter den Männern haben jene der jüngsten und der ältesten Altersgruppe generell signifikant öfter bestimmte Verhaltensweisen nicht als „Sex haben“ betrachtet, bei Frauen gab es keine signifikanten Altersunterschiede. Als „Sex haben“ definierten 94,8 % penil-vaginalen Verkehr ohne weitere Angabe, 93,3 % penil-vaginalen Verkehr mit Kondom, 92,7 % penil-vaginalen Verkehr ohne weiblichen Orgasmus, 89,1 % penil-vaginalen Verkehr ohne männliche Ejakulation. Nur 77,3 % der ältesten Männergruppe (65+) betrachteten penil-vaginalen Verkehr als Sex. Durchschnittlich betrachteten 80,8 % penil-analen Verkehr als Sex, 79,5 % penil-analen Verkehr ohne männliche Ejakulation. Bei Männern in der jüngsten Altersgruppe (18–29) definierten es 77 % als Sex, bei Männern der ältesten Altersgruppe (65+) 50 % und bei Frauen der ältesten Altersgruppe 67 %. 73 % betrachteten erhaltenen oral-genitalen Verkehr als Sex, 71 % gegebenen oral-genitalen Verkehr. Bei der jüngsten Männergruppe (18–29) betrachteten nur 40 % erhaltenen oral-genitalen Verkehr als Sex, und 33,3 % gegebenen oral-genitalen Verkehr, was beides in der nächsten Altersgruppe (30–44) auf über 80 % emporschnellt und bei fast 60 % in der ältesten Altersgruppe endet. 48,1 % betrachteten empfangenen manual-genitalen Verkehr als Sex, 44,9 % gegebenen manual-genitalen Verkehr. In der jüngsten Männergruppe betrachten nur 16,7 % empfangenen manual-genitalen Verkehr als Sex, und gar nur 9,7 % gegebenen manual-genitalen Verkehr, was in der nächsten Altersgruppe beides auf über 50 % emporschnellt und bis zur ältesten Männergruppe auf um die 40 % zurückgeht. Im Sommer 2010 wurde die nächste Studie veröffentlicht, für die 180 sich selbst als schwul identifizierende Männer zwischen 18 und 56 Jahren aus dem Vereinigten Königreich und 190 ebenso schwule Männer zwischen 18 und 74 Jahren aus den Vereinigten Staaten befragt wurden. Die Fragen wurden zwischen 2005 und 2007 auf Papier (UK) oder 2007 Online (US) beantwortet. Die Fragestellung war in UK: mit Verhaltensweisen und jeweils einer fünfstufigen Zustimmungsskala (bei der Zusammenführung dann zusammengefasst als: 1–2 Zustimmung, 3–5 keine Zustimmung). In den USA lautete die Frage mit einer Ja/Nein-Auswahl. Fast alle definierten empfangenden penil-analen Verkehr als „Sex haben“ (US: 96,3 %; UK: 94,9 %) ebenso wie gebenden penil-analen Verkehr (US: 94,7 %; UK: 94,4 %) Interessanterweise definierten weniger penil-vaginalen Verkehr als Sex (US: 84,6 %; UK: 86,6 %). Wie bei heterosexuell dominierten Umfragen wurden weitere Verhalten weniger oft als Sex angesehen. Bei den Daten unterschieden sich die Antworten für gebende und empfangene Aktivitäten bei den einzelnen Kategorien nicht wesentlich, bis auf die orale Bruststimulation in UK. Britische Schwule geben bei einigen Aktivitäten signifikant öfter als amerikanische Schwule an, dass diese unter „Sex haben“ fielen: Bei gebender oral-genitale Stimulation (UK: 84,9 %; US: 71,6 %), empfangende oral-genitale Stimulation (UK: 84,2 %; US: 72,6 %), ausführende und bekommende orale Analstimulation (UK: 78,4 %; US: 61,2 %), ausführende und bekommende Stimulation mit Sexspielzeugen (UK: 77,1 %; US: 55 %) und ausführender und bekommender manueller Analstimulation (UK: 70,9 %; US: 53,4 %). Bei den weiteren Aktivitäten gab es geringe Unterschiede: Manuelle Stimulation der Genitalien (aktiv: US: 50,5 %, UK: 47,5 %; passiv: US: 50,0 %, UK: 48,6 %), orale Stimulation der Brust (aktiv: US: 23,7 %, UK: 30,3 %; passiv: US: 21,6 %, UK: 19,0 %; dies ist die einzige Ausnahme, wo sich in den UK-Daten aktiv und passiv signifikant unterscheiden), manuelle Stimulation der Brust (aktiv: US: 19,5 %, UK: 21,2 %; passiv: US: 20,5 %, UK: 20,0 %) und intensives Küssen (US: 16,3 %; UK: 17,3 %). Im Vergleich zu früheren Studien mit überwiegend heterosexuellen Teilnehmern tendieren Schwule öfter dazu manuelle, orale, anale Stimulation und jene durch Sexspielzeug in ihre Definition von „Sex haben“ aufzunehmen. Dies zeigt, dass in der Sexualforschung spezifische Begriffe verwendet werden sollten statt „Sex haben“, denn dies beeinflusst die Anzahl der angegebenen Sexualpartner und die angegebene Häufigkeit sexueller Aktivität, was wichtige Informationen für Forscher, Gesundheitspersonal und Verhaltensspezialisten sind, etwa bei der Risikoeinschätzungen für Geschlechtskrankheiten. Auch sollten Forscher, Vortragende und Gesundheitspersonal vorsichtig sein und nicht ihre eigenen Definitionen von „Sex haben“ bei anderen automatisch voraussetzen. Kinsey beispielsweise fragte bei seiner Untersuchung von 1938 bis 1953 einzelne Sexualpraktiken, Orgasmen und Emotionen ab. Standardannahme war dabei, dass jeder alles gemacht hatte. War dem nicht so, musste verneint werden. Siehe auch Bundeszentrale für gesundheitliche Aufklärung Sex und Jugend: sexuelle Aufklärung, Sexualkunde, Sexualangst Sex im Alter: Alterssexualität Literatur Alenka Zupančič: Was ist Sex? Psychoanalyse und Ontologie. Turia & Kant, Wien 2019, ISBN 978-3-85132-962-9. Ruth Westheimer: Sex für Dummies. Was Sie schon immer über Sex wissen wollten. 3. Auflage. MITP, Bonn 2001, ISBN 3-8266-2947-7. Jürgen Brater: Lexikon der Sex-Irrtümer. 500 intime Richtigstellungen von Aufklärung bis Zungenkuss. Ullstein, Berlin 2005, ISBN 3-548-36721-6. Geoffrey Parrinder: Sexualität in den Religionen der Welt. Patmos, Düsseldorf 2004, ISBN 3-491-69114-1. (Kulturell-religiöse Unterschiede beim Sex, Schwerpunkt in Asien, aber auch in Afrika, im Islam, Judentum und Christentum) Michael Miersch: Das bizarre Sexualleben der Tiere. Ein populäres Lexikon von Aal bis Zebra. Eichborn, Frankfurt am Main 1999, ISBN 3-8218-1519-1. (Liebespraktiken, Balzrituale, skurrile Genitalien und verblüffendes Verhalten der Tiere.) Thomas Hecken: Gestalten des Eros. Die schöne Literatur und der sexuelle Akt. Westdeutscher Verlag, Opladen 1997, ISBN 3-531-12901-5. (Darstellung von Sex in der abendländischen Literatur von früher bis heute.) Judith Mackay: The Penguin Atlas of Human Sexual Behavior. Sexuality and Sexual Practice around the World. Penguin, New York 2000, ISBN 0-14-051479-1. (Verschiedene Sexpraktiken auf der Welt) Siehe auch die Literaturhinweise im Artikel Sexualität Weblinks Informationen für Jugendliche und junge Erwachsene bei der Bundeszentrale für gesundheitliche Aufklärung (BZgA) Artikelsammlung zum Thema Sex bei Lifeline Magnus-Hirschfeld-Archiv für Sexualwissenschaft Einzelnachweise Sexualität des Menschen
Q608
128.572258
134438
https://de.wikipedia.org/wiki/Ajaccio
Ajaccio
Ajaccio ( [], [], []) ist eine französische Gemeinde mit Einwohnern (Stand ) und die Hauptstadt der Mittelmeerinsel Korsika. Innerhalb der Gliederung Frankreichs ist Ajaccio Hauptstadt der Region Corse (Korsika) sowie Sitz der Präfektur des Départements Corse-du-Sud (Südkorsika). Napoleon Bonaparte wurde 1769 in Ajaccio geboren. Ajaccio ist Gründungsmitglied des Bundes der europäischen Napoleonstädte. Geographie Lage Ajaccio liegt an der Westküste Korsikas am Nordufer des Golfes von Ajaccio. Verkehrsverbindungen Ajaccio verfügt über den größten Flughafen der Insel (Ajaccio Napoléon Bonaparte, auch Campo dell'Oro genannt). Der Handelshafen ist nach dem von Bastia der zweitgrößte der Insel. Fähren verbinden Ajaccio ganzjährig mit Marseille, Toulon und Nizza. Zur Saison gibt es außerdem innerkorsische Fährverbindungen nach Calvi und Propriano. Schiffe zahlreicher Kreuzfahrt-Reedereien laufen Ajaccio an. Der Bahnhof Ajaccio ist Endpunkt der 157 km langen Bahnstrecke Bastia–Ajaccio der Chemins de fer de la Corse (CFC). Bis 1993 bestand ein Gleisverbindung in den Hafen von Ajaccio. Der öffentliche Busverkehr in der Stadt wird von der Gesellschaft Muvistrada betrieben. Das Einheitsticket kostet pro Fahrt und Person 1 € (Stand Mai 2018). Beispielsweise fährt der Bus der Linie 5 von der zentral gelegenen Place Charles de Gaulle die Küste entlang 10 km in westlicher Richtung zum Ausflugsziel Pointe de la Parata am Ende der Route des Sanguinaires. Klimatabelle Geschichte Zur Zeit der Ptolemäer war die Küstenregion bereits besiedelt, zur römischen Zeit gab es den Hafenort Adiacium. Das heutige Ajaccio wurde 1492 von den Genuesen gegründet. 1553: Die Franzosen bemächtigen sich der Stadt und errichten die Zitadelle. 1559: Der König von Frankreich übergibt Korsika den Genuesen, aufgrund der Vollstreckung und Einhaltung des Vertrages von Cateau-Cambresis. 1575: Die Ligurische Republik bewilligt Ajaccio einen Stadtwappen: Azurblau, mit einer silbernen Säule in der Mitte, überragt vom Wappenschild der Republik Genua, umrahmt von einem silbernen Hund auf jeder Seite mit der Inschrift in lateinischer Sprache: Dies sind die Bürger Ajaccios und ihre Beziehung zur Republik Genua. 1656: Die Stadtherren von Ajaccio stellen die Stadt unter den Schutz der Heiligen Jungfrau von Savona, die die Stadt vor der Pest bewahren soll. Sie ist seit damals die Schutzpatronin und wird jährlich am 18. März gefeiert. 1729: Während des 40-jährigen Krieges errichtet Pasquale Paoli im Königtum Korsikas demokratische Institutionen. 1739: Lucas von Ornano versucht sich der Stadt zu bemächtigen, jedoch ohne Erfolg. 1763: Paoli versucht auf eigene Verantwortung an die Macht zu gelangen, aber sein Versuch misslingt. 1768: Die Franzosen bemächtigen sich Korsikas. Die Insel wird unter die Krone Frankreichs gestellt und seither ist ihre Geschichte eng mit der Frankreichs verknüpft. 1769: Geburt von Napoleon Bonaparte in Ajaccio 1793: Ajaccio wird Sitz des Départements Liamone 1811 Sitz des Départements Corse (Korsika). 1801: Die Stadtmauern von Ajaccio werden niedergerissen und neue Viertel bilden sich um den verbesserten Hafen. 5000 Einwohner zählte die Stadt damals, die innerhalb von zwei Jahrhunderten auf über 60.000 heranwuchs. 1811: Sitz des Départements Corse (Korsika) Das korsische Regionalparlament (Assemblée de Corse) ist hier seit seiner Gründung im Jahre 1982 beheimatet. Die Gründung dieses Parlamentes erfolgte im Zuge der Regionalisierung Frankreichs unter Staatspräsident François Mitterrand. Bevölkerungsentwicklung Wappen Blasonierung: In Blau eine auf grünem Schildfuß stehende silberne Säule mit darüber schwebender dreispitziger silberner Krone, beiderseits gehalten von zwei aufrechten zugewandten goldenen Löwen, den jeweils hinteren Fuß auf der Säulenbasis ruhend. Bis 1768 gehörte Korsika zur Republik Genua im heutigen Italien. Deshalb weist auch das Wappen von Ajaccio Bezüge zu Italien auf: Die Säule mit der Krone stammt aus dem Wappen des römischen Geschlechts Colonna, die ursprünglichen Wappentiere – Hunde – wurden durch Löwen ersetzt. Sehenswürdigkeiten Stadtbild Die Innenstadt ist von schmalen, schattigen Gassen mit mehrstöckigen alten Häusern geprägt. In den umliegenden Vierteln finden sich großzügige Boulevards mit prachtvollen Villen. Die Fassaden der Häuser sind meist in warmen Rot-, Orange- und Gelbtönen gehalten. Die Westseite der Stadt ist von Häfen geprägt: Zwischen zwei Yachthäfen liegt der Gare Maritime mit Anlegern für große Fähren und Kreuzfahrtschiffe. Die Zitadelle Ajaccio an der Südwestspitze trennt als markante Landmarke das westliche vom südlichen Meeresufer der Stadt. Das südliche Ufer ist geprägt von einem Boulevard, der sich 10 km bis über die Stadt hinaus zur Landspitze Pointe de la Parata zieht. Das gesamte südliche Ufer ist gesäumt von sandigen Badestränden. Innenstadt Die genuesische Altstadt mit ihren engen Gassen ist stark touristisch geprägt. Sie erstreckt in mit einem Durchmesser von rund 250 m nordwestlich der Zitadelle. Vor der Zitadelle liegt der vornehmste Yachthafen, der Port de Plaisance Tino Rossi. Innerhalb dieses Yachthafens liegt der Fischereihafen Port Abri im Schatten der Zitadelle. Die Spitze der Jetée de la Citadelle auf der Außenmole des Yachthafens bietet einen Ausblick auf Hafen, Stadt und die Bucht von Ajaccio. Die Zitadelle selbst kann nur im Rahmen einer organisierter Führungen des Tourismusbüros besichtigt werden. Nördlich an die Altstadt schließt sich die Place Maréchal Foch, auch Place des Palmiers genannt, mit dem von vier Löwen geschmückten Denkmal für Napoléon Bonaparte an. An der Avenue Serafini, die die Nordseite des Platzes begrenzt, liegt das Rathaus der Stadt. Auf dem Platz findet mehrmals wöchentlich ein Markt statt, auf dem korsische Produkte, insbesondere korsische Wurst und korsischer Käse angeboten werden. Jeden Donnerstag im Juli und August veranstaltet dort die Association du 2e Régiment des chasseurs à pied de la garde eine Parade in den Originaluniformen der napoleonischen Zeit. Nördlich an den Platz schließt sich das lebhafte Einkaufsviertel um die Fußgängerzone Rue du Cardinal Fesch an. Historische Bauten und Denkmäler Für eine Liste der historischen Bauwerke und Denkmäler siehe Liste der Monuments historiques in Ajaccio. Napoleon Bonaparte ist in seiner Heimatstadt Ajaccio allgegenwärtig. Neben dem erwähnte Denkmal auf der Place Maréchal Foch steht oberhalb der Stadt an der Place d`Austerlitz eine monumentale Statue. Auf der Schräge unterhalb sind Eckdaten seines Lebenslaufs eingraviert. Von der Statue aus hat man durch den Cours Général Leclerc und den Cours Grandval eine Sichtachse durch den neueren Teil der Innenstadt bis zum Hafen. In der Altstadt befindet sich das Geburtshaus Napoleons Maison Bonaparte. Eine Statue von Napoleon in Gestalt eines römischen Konsuls, das Monument à Napoléon Ier et ses frères, steht auf der großen freien Place Charles de Gaulle unmittelbar westlich der Altstadt. Um die Statue Napoleons gruppieren sich Statuen seiner Brüder Joseph, Lucien, Louis und Jérôme. An der südöstlichen Seite des Platzes steht ein an die Weltkriege erinnerndes Kriegerdenkmal. Mit der Büste von Napoleon II. besteht in der Stadt auch ein kleines Denkmal für Napoleon II. Vor dem Palais Fesch erinnert das Fesch-Denkmal an Kardinal Fesch. Eine Büste des Freiheitskämpfers, demokratischen Verfassungsgebers und Bonaparte-Gegners Pasquale Paoli, das Paoli-Denkmal, ist am Boulevard Danielle Casanova zwischen Altstadt und Zitadelle aufgestellt. In Ajaccio befinden sich mehrere historische Kirchen, darunter die Kathedrale Notre-Dame-de-l’Assomption, das 1565 errichtete Oratoire Saint-Jean-Baptiste, das 1599 entstandene Oratoire Saint-Roch, die 1622 gebaute Saint-Erasme und die 1885 erbaute Kirche Saint-Roch. Besonders bemerkenswert ist die 1801 von Lucien Bonaparte gegründete Stadtbibliothek Ajaccio. Der Sitz der Regionalregierung befindet sich im Palais Lantivy. Friedhof Am südlichen Uferboulevard liegt am Rande des Innenstadtbereichs der Cimetière d`Ajaccio mit vielen, teils monumental gestalteten Familiengrabkapellen. Hier befindet sich auch eine kleinere Grabkapelle für den im Ort geborenen Sänger Tino Rossi. Außerhalb des Friedhofs liegt eine Reihe besonders großer Kapellen, die Sept Chapelles. Pointe de la Parata Die westliche Landspitze Pointe de la Parata wird von einem genuesischen Wachturm überragt. Der Turm selbst kann nicht betreten werden. Dessen Anhöhe und die Landspitze unterhalb bieten einen Rundblick in die erweiterte Bucht von Ajaccio, in die Berg- und Küstenlandschaft südlich davon, hinüber zu der Inselkette der Îles Sanguinaires, hinaus aufs offene Meer und hinüber zu den nördlichen Küstenabschnitten. Mit Booten kann man sich zu den Inseln übersetzen lassen. Eine Wanderpfad führt über die Klippen und durch die Macchia Richtung Norden bis hin zu abgelegenen Badestränden und zum Capo di Feno mit seinem Leuchtturm. Veranstaltungen Journées Napoléoniennes d’Ajaccio vom 12. bis 15. August. Umzüge, Konzerte, Schauspiel und Ausstellungen. Les Régates Imperiales – Ende Mai/Anfang Juni versammeln sich Segeloldtimer im Golf von Ajaccio Frühling in der Region Ajaccio – Mitte April bis Anfang Mai. Das reichhaltige Programm reicht von Sportereignissen, Kultur und Freizeitaktivitäten bis zu festlichen und kulinarischen Rendezvous in den Dörfern der Umgebung von Ajaccio. Sport In der Gemeinde sind die Fußballvereine AC Ajaccio und Gazélec FCO Ajaccio beheimatet. Städtepartnerschaften La Maddalena auf Sardinien (Italien) Larnaka (Zypern) Palma auf Mallorca (Spanien) Persönlichkeiten Giuseppe Maria Buonaparte (1713–1763), Politiker und Großvater des französischen Kaisers Napoleon I. Carlo Buonaparte (1746–1785), Vater von Joseph Bonaparte und Napoleon Bonaparte Laetitia Ramolino (1750–1836), Ehefrau von Carlo di Buonaparte und Mutter Napoléon Bonapartes Pascal Antoine Fiorella (1752–1818), General der Infanterie Félix Baciocchi (1762–1841), Herzog von Lucca (1805–1814/15) Joseph Fesch (1763–1839), Kardinal Napoleon Bonaparte (1769–1821), Kaiser der Franzosen Lucien Bonaparte (1775–1840), Bruder des französischen Kaisers Napoleon I. Louis Bonaparte (1778–1846), König von Holland, Bruder Napoléon Bonapartes Pauline Bonaparte (1780–1825), Herzogin von Parma; Lieblingsschwester von Napoleon Bonaparte Caroline Bonaparte (1782–1839), Schwester von Napoléon Bonaparte, Königin von Neapel Jérôme Bonaparte (1784–1860), Bruder Napoléon Bonapartes, König von Westfalen, Marschall von Frankreich Philippe-Antoine d’Ornano (1784–1863), General Flaminia zu Salm-Salm (1795–1840), Adlige Jérôme-Eugène Coggia (1849–1919), Astronom François Coty (1874–1934), Parfümeur Irène Bordoni (1885–1953), französisch-amerikanische Schauspielerin und Sängerin Tino Rossi (1907–1983), Sänger und Schauspieler Danielle Casanova (1909–1943), Kommunistin und Angehörige der Résistance Pierre du Bourguet (1910–1988), Ägyptologe und Kunsthistoriker Achille Peretti (1911–1983), Angehöriger der Résistance, Bürgermeister von Neuilly-sur-Seine Jean-Toussaint Desanti (1914–2002), Philosoph François-Xavier Ortoli (1925–2007), Politiker, Präsident der Europäischen Kommission Michel Giacometti (1929–1990), Ethnologe Paul Vecchiali (1930–2023), Filmregisseur Jean-Jean Marcialis (1937–2013), Fußballspieler François Duprat (1940–1978), rechtsextremer Denker Michel Ferracci-Porri (* 1949), Schriftsteller François Alfonsi (* 1953), Politiker (PNC) Yvan Colonna (1960–2022), korsischer Nationalist César Nativi (* 1962), Fußballspieler Nicolas Ivanoff (* 1967), Kunstflugpilot Nathalie Santamaria (* 1973), Sängerin Salim Sdiri (* 1978), Weitspringer Laurent Marcangeli (* 1980), Politiker Alizée (* 1984), Sängerin Yannick Cahuzac (* 1985), Fußballspieler Rémy Cabella (* 1990), Fußballspieler Wahbi Khazri (* 1991), tunesisch-französischer Fußballspieler Claude Gonçalves (* 1994), portugiesisch-französischer Fußballspieler François-Joseph Sollacaro (* 1994), Fußballspieler Adama Diakhaby (* 1996), Fußballspieler Vincent Marchetti (* 1997), Fußballspieler Evann Guessand (* 2001), französisch-ivorischer Fußballspieler Ghjuvanni Quilichini (* 2002), Fußballspieler Bischöfe: Siehe: Liste der Bischöfe von Ajaccio Literatur Wilhelm Brüschweiler: Eine Skizze aus dem Süden. (Ajaccio als Winterstation) In. Bericht über die Thätigkeit der St. Gallischen Naturwissenschaftlichen Gesellschaft, Bd. 18, 1876, S. 70–97 (Digitalisat). Weblinks Office Municipal du Tourisme d’Ajaccio – offizielle Touristeninformation (frz./engl./deu./ita.) Ajaccio bei korsika.fr (deutsch) Frankreich-Süd Gemeinden in Frankreich Einzelnachweise Ort auf Korsika Hauptstadt einer französischen Region Präfektur in Frankreich Gegründet 1492 Stadt in Frankreich Weinbauort in Frankreich Ort mit Seehafen
Q40104
87.26332
11043
https://de.wikipedia.org/wiki/Ober%C3%B6sterreich
Oberösterreich
Oberösterreich ist ein Bundesland der Republik Österreich. Die Landeshauptstadt ist Linz. Oberösterreich ist mit 11.982 Quadratkilometern flächenmäßig das viertgrößte und mit rund 1,5 Millionen Einwohnern bevölkerungsmäßig das drittgrößte Bundesland. Es grenzt an Bayern (Deutschland), Südböhmen (Tschechien) sowie innerösterreichisch an Niederösterreich, die Steiermark und das Land Salzburg. Der Name des Landes leitet sich ab vom Namen des Vorgängerterritoriums, des Erzherzogtums Österreich ob der Enns, eines der habsburgischen Erblande. Geologie und Geographie Granit- und Gneishochland Nördlich des Donautales und im Sauwald befindet sich die Böhmische Masse (auch Böhmisches Massiv), die geologisch älteste Landschaft Österreichs. Sie ist ein altes Faltengebirge und besteht im westlichen Teil aus dem Moldanubikum, im östlichen Teil (außerhalb von Oberösterreich) aus dem Moravikum. Die Böhmische Masse stellt den Sockel eines abgetragenen, einstigen Hochgebirges (Grundgebirge genannt) dar, das im Zuge der Variszischen Orogenese (Gebirgsbildung) im Paläozoikum entstand. Weitere Reste dieser Gebirgsbildung in Mitteleuropa sind die deutschen Mittelgebirge. Es dominieren saure Plutonite wie Granite und Gneise. Das an sich zur Gänze abgetragene Gebirge wurde vermutlich im Zuge der alpidischen Gebirgsbildung in Schollen gebrochen und etwas gehoben, wodurch seine heutige Topographie eines Hügellandes resultiert (Rumpflandschaft). Oberösterreichische Alpen Südlich der variszischen Gebirgskette erstreckte sich damals die Tethys, die beim Auseinanderdriften der Kontinentalplatten gegen Ende des Paläozoikums immer größer wurde. Unter tropischen bzw. subtropischen Bedingungen wurden hier während des Mesozoikums jene Sedimente abgelagert, die dann später bei der alpidischen Gebirgsbildung, die gegen Ende der Kreide einsetzte, überschoben und nach Norden transportiert wurden. So entstanden die Süd-Nord-Abfolge von Decken, die nördlichen Kalkalpen, die Flyschzone und die Subalpine Molasse, wobei auch noch Reste der Helvetischen Decke erhalten sind. Der in der Trias in der Tethys entstandene Kalk ist reich an Fossilien, die man heute besonders im Dachsteingebirge und um Hallstatt findet. Besondere Fundorte für Ammoniten sind die Berge um Gosau, westlich des Dachsteins. Während sich die Alpen zunächst als Inselkette aus der Tethys erhoben und immer weiter anwuchsen, setzte zur selben Zeit bereits der Abtragungsprozess des jungen Gebirges ein, der jedoch das Maß der Hebung nicht ausgleichen konnte. Molassezone Zwischen diesen beiden sehr unterschiedlichen Gebirgen befindet sich eine Sedimentationszone, die durch die Ablagerungen der Erosion in den Alpen entstanden ist, die sogenannte Titenzone. Das nach Norden hin transportierte Material der Abtragung wurde zunächst in den flachen und immer schmaler werdenden Arm der Tethys zwischen den Alpen im Süden und dem Kontinent im Norden abgelagert (Molassebecken). So wurde bei gleichzeitig andauernder Hebung der Alpen und nordwärts gerichteter Bewegung der afrikanischen Platte der Meeresarm zugeschüttet (Süßwassermolasse) und es entstand das heutige Bild der geologischen Dreiteilung Oberösterreichs in die Böhmische Masse, das Tertiärhügelland als Ablagerungsgebiet für die klastischen Sedimente der alpinen Erosion in der Mitte und den Nördlichen Kalkalpen im Süden. Eiszeitliche Überprägung Der unserem heutigen Zeitalter, dem Holozän, vorangegangene Teil der Erdgeschichte, das Pleistozän oder Eiszeitalter, hat das heutige Landschaftsbild Oberösterreichs in den Alpen und im Alpenvorland am deutlichsten geprägt. Es war dies die Zeit der bis heute letzten großen Vereisungsphase in den Alpen, in welcher das Gebirge zu den größten Teilen von Eismassen bedeckt war, die mit gewaltigen Gletscherzungen weit ins Vorland hinaus vorstießen. Neben dem Dachsteingletscher stieß der Salzachgletscher ins heutige Oberösterreich vor und übertraf diesen an Größe beträchtlich. Gespeist von den Eismassen der Zentralalpen wälzte sich der Gletscher mindestens viermal (so die klassische Quartärstratigraphie) durch das Salzachtal und das Salzburger Becken nach Norden, um sich dann in ein verzweigtes, fächerförmiges System an Seitengletschern auszubreiten. Während Hausruck und Kobernaußerwald nördlich der Traun nicht erodiert wurden, sind die benachbarten Regionen im Salzburger und dem Südinnviertler Seengebiet vom Salzachgletscher überfahren worden. Flora und Fauna, Naturschutzgebiete Durch die Gliederung in Höhenstufen (von 239 bis 2995 Meter) sowie in die drei biogeographischen Regionen (Böhmische Masse, klimatisch begünstigter Zentralraum und Kalkalpen) beherbergt Oberösterreich eine für mitteleuropäische Verhältnisse artenreiche Flora von etwa 1800 Gefäßpflanzen. Wie überall in Mitteleuropa sind weite Teile der Landschaft stark durch den Menschen geprägt. Für den Erhalt von natürlichen und naturnahen Lebensräumen befinden sich in Oberösterreich 156 Schutzgebiete in Natur- und Landschaftsschutz, davon 24 Europaschutzgebiete (Natura-2000-Gebiete und andere, teils überlappend mit den 164 landesrechtlichen Gebieten), der Nationalpark Kalkalpen, 109 Naturschutzgebiete, 16 Landschaftsschutzgebiete (darunter 2 Naturparks), 7 geschützte Landschaftsteile, und 562 Naturdenkmale. In Oberösterreich wurden in freier Natur bisher 75 Arten von Säugetieren festgestellt. Davon sind Manguste und Nutria Gefangenschaftsflüchtlinge; Mufflon und Alpenmurmeltier wurden ausgesetzt. In den letzten 100 Jahren wurden im Gebiet 361 Vogelarten nachgewiesen, viele jedoch nur ein einziges Mal. 163 Vogelarten brüten in Oberösterreich. Des Weiteren wird das Gebiet von sieben Arten von Schwanzlurchen, zwölf Froschlurcharten und elf unterschiedlichen Arten von Reptilien als Lebensraum bewohnt. Großlandschaften Oberösterreich hat Anteil an drei großen Naturräumen. Von Norden nach Süden findet man in Oberösterreich eine geologisch-landschaftliche Dreiteilung, die sich westlich bis nach Bayern einerseits und östlich bis nach Niederösterreich andererseits fortsetzt. Das Mühlviertel nördlich der Donau und vier Abschnitte südlich des Stromes gehören zum Granit- und Gneishochland (Böhmische Masse) und ist eine typische Mittelgebirgslandschaft mit nordwärts zunehmenden Höhen. In der Nähe der Nordwestgrenze Oberösterreichs, in der Umgebung des Dreiländerecks Deutschland-Tschechien-Österreich, hat das Land Anteil am Böhmerwald mit dem 1378 m hohen Plöckenstein. Südlich der Donau hat Oberösterreich Anteil am nördlichen Alpenvorland (Oberösterreichisches Alpenvorland), einer teils flachen, teils hügeligen Wald- und Wiesenlandschaft mit intensiver Landwirtschaft. Sie nimmt den größten Teil der Landesfläche ein. Im Westen des Bundeslandes liegt der Hausruck, eine teils bewaldete Hügelkette (maximal 801 Meter); westlich schließt sich der Kobernaußer Wald an, der im Gegensatz zum Hausruck noch sehr dicht bewaldet ist. Der Alpenanteil gliedert sich in die Oberösterreichischen Alpen (den Anteil an den Salzburger-Oberösterreichischen Alpen, die sich zwischen Salzach und Enns erstrecken), und den Anteil an der Eisenwurzen von der Enns ostwärts (Ybbstaler Alpen), und liegt in zwei wichtigen Regionen, dem Salzkammergut und der Region Pyhrn-Eisenwurzen Den Nordrand der Alpen bildet die Flyschzone, ein aus Ton- und Sandsteinen aufgebauter, teils stärker bewaldeter Mittelgebirgsstreifen. Die größte Breite erreicht sie zwischen Mondsee und Traunsee. Die südlich anschließenden Nördlichen Kalkalpen bestimmen das Landschaftsbild des Salzkammergutes und der Pyhrn-Eisenwurzen-Region. Die Kalkalpen gliedern sich in Oberösterreich in: Die Oberösterreichischen Voralpen: Salzkammergutberge mit dem Höllengebirge und zahlreichen anderen Gruppen; Sengsengebirge und dem Reichraminger Hintergebirge und die Anteile an den Kalkhochalpen: Dachsteingebirge mit dem Dachsteinmassiv; Totes Gebirge; Anteile an den Ennstaler Alpen am Pyhrn Höchster Punkt des Landes ist der Hohe Dachstein (2995 Meter) an der Südspitze Oberösterreichs, mit dem einzigen Gletschergebiet des Landes. Da die Grenze zur Steiermark am Kalkalpen-Hauptkamm liegt, ist der höchste Berg, der sich vollständig auf oberösterreichischem Boden befindet, der Große Priel mit 2515 Metern. Der tiefste Punkt des Landes ist dort, wo die Donau endgültig nach Niederösterreich wechselt, östlich des Machlands am Eingang in den Nibelungengau. Flüsse Ach, Ager, Aist, Alm, Antiesen, Aschach, Donau, Enknach, Enns, Große Gusen, Kleine Gusen, Gusen, Inn, Krems, Mattig, Große Mühl, Kleine Mühl, Naarn, Pram, Rodl, Salzach, Steyr, Trattnach, Traun, Vöckla; Seen Praktisch alle großen oberösterreichischen Seen liegen im Salzkammergut, so der Almsee, Attersee, die Gosauseen, Hallstätter See, Irrsee, Langbathseen, Mondsee, Offensee, Traunsee und der Wolfgangsee. Klima Oberösterreich befindet sich klimatisch in der Zone des mitteleuropäischen Übergangsklimas. Aufgrund der Lage am Nordrand der Alpen ist das Wetter deutlich atlantisch beeinflusst. Der Zentralraum zeigt kühlgemäßigt-vollfeuchten Typus (Buchenklima, Cfb nach Köppen/Geiger) mit vorherrschendem Nordwestwindwetter. Der Süden liegt in der Zone eines ausgeprägten Nordstaus und hat mithin die höchsten Niederschläge Österreichs aufzuweisen. Es kommt auch des Öfteren zu Föhn (Alpenklima, nördlicher Randalpentypus). Das wärmste Gebiet in Oberösterreich ist das Linzer Becken mit einem Jahresmittel von rund neun Grad Celsius. Mit Ausnahme der Gebirge liegen die Durchschnittstemperaturen der restlichen Landesteile wie Alpenvorland, Eferdinger Becken und Traun-Enns-Platte im Bereich von sechs bis acht Grad Celsius (Jahresmittel von 1961 bis 1990). In 2000 Metern Höhe beträgt die Jahresdurchschnittstemperatur etwa ein Grad. Die niederschlagsärmsten Gebiete mit Jahresniederschlagsmengen zwischen 750 und 800 Millimetern liegen im östlichen Mühlviertel (Feldaistsenke) und im Eferdinger Becken. Die höheren Bergregionen des Mühlviertels und des Sauwaldes sowie das Alpenvorland werden von der 1000 Millimeter Isohyete umschlossen. Im Gebirgsbereich sind die Niederschlagsmengen aufgrund der Stauwirkung der Wolken jedoch viel höher. In Höhen oberhalb von 1500 Metern Seehöhe werden Jahresniederschläge von 2000 Millimetern und mehr (im Dachsteingebirge 3000 Millimeter) erreicht. Mittelpunkt Der Mittelpunkt des Bundeslandes Oberösterreich liegt in der Gemeinde Gunskirchen (Bezirk Wels-Land) (). Verwaltungsgliederung Die Viertel Oberösterreichs Oberösterreich wird traditionell in vier Teile eingeteilt, das Hausruckviertel, das Innviertel, das Mühlviertel und das Traunviertel. Dies entsprach auch der Kreiseinteilung der Habsburgermonarchie Mitte des 18. bis Mitte des 19. Jahrhunderts, wo es dementsprechend einen Hausruck-, Inn-, Mühl- und Traunkreis gab. 1867 wurden die Kreise durch das System der Politischen Bezirke ersetzt, seither haben sie keine politische Bedeutung mehr und sind reine Landschaftsbezeichnungen. Die Viertel fungieren auch als territoriale Einheiten der Raumplanung, in diesem Zusammenhang gibt es allerdings eine zusätzliche Einheit: der Bereich zwischen den Städten Linz, Eferding, Wels, Steyr und Enns wird – als „fünftes Viertel“ – Oberösterreichischer Zentralraum genannt. Diese fünf Regionen bilden auch ungefähr die statistischen NUTS-3-Einheiten Oberösterreichs, wobei aber das Hausruckviertel aufgeteilt ist, um den Ansprüchen statistisch etwa gleich großer Areale nachzukommen: AT311 Innviertel: Bezirke Braunau am Inn, Grieskirchen, Ried im Innkreis, Schärding (Innviertel und nordwestliches Hausruckviertel) AT312 Linz-Wels: Bezirke Linz-Stadt, Linz-Land, Wels-Stadt, Wels-Land, Eferding, Teile vom Bezirk Urfahr-Umgebung (Zentralraum und östliches Hausruckviertel) AT313 Mühlviertel: Bezirke Freistadt, Perg, Rohrbach, Teile vom Bezirk Urfahr-Umgebung (Mühlviertel ohne Stadtregion Linz) AT314 Steyr-Kirchdorf: Steyr, Bezirk Kirchdorf, Bezirk Steyr-Land (südöstliches Traunviertel) AT315 Traunviertel: Bezirk Gmunden, Bezirk Vöcklabruck (westliches Traun- und Hausruckviertel) Bevor 1779 das Innviertel ein Teil Oberösterreichs wurde, gab es folgende Vierteleinteilung: Mühlviertel, Schwar(t)zviertel oder Machlandviertel, Haus(ruck)viertel, Traunviertel. Mit der Eingliederung des Innviertels wurden Machland- und Mühlviertel unter letzterem Namen zusammengefasst, um weiterhin die Vierteilung aufrechtzuerhalten. Die heutige Abgrenzung zwischen den NUTS-einheiten Traun- und Hausruckviertel orientiert sich an den Bezirksgrenzen jüngeren Datums und entspricht somit nicht mehr der historischen Grenze, welche durch die Traun gebildet wurde. Die Viertel Oberösterreichs haben in ihren ursprünglichen Grenzen heute neben ihrer volkstümlich-identitätsstiftenden Bedeutung nur mehr den Zweck, Wahlkreise zu definieren. Bezirke, Gemeinden und Statutarstädte Nach der heutigen Verwaltungseinteilung gliedert sich das Bundesland in: 3 Statutarstädte: Linz, Wels, Steyr 15 politische Bezirke: Braunau am Inn, Eferding, Freistadt, Gmunden, Grieskirchen, Kirchdorf, Linz-Land, Perg, Ried im Innkreis, Rohrbach, Schärding, Steyr-Land, Urfahr-Umgebung, Vöcklabruck, Wels-Land 438 politische Gemeinden: 255 (Orts-)gemeinden, 150 Marktgemeinden, 30 Stadtgemeinden und 3 Statutarstädte. Geschichte Im Mittelalter gehörte ein großer Teil Oberösterreichs lange Zeit zum Herzogtum Steiermark. König Ottokar Přemysl von Böhmen trennte den zur Steiermark gehörenden Traungau 1254 im Frieden von Ofen und 1261 im Frieden von Wien von dieser ab und gestaltete das Land zum Fürstenthum ob der Enns aus. Julius Strnadt bezeichnet mit historischer Wahrscheinlichkeit das Jahr 1260 als Geburtsjahr des Landes ob der Enns. Im Jahre 1264 wurde der Name supra anasum (‚Ob(erhalb) der Enns‘) erstmals urkundlich erwähnt, und Konrad von Summerau wird in einer Urkunde als Landrichter der Provinz Oberösterreich bezeichnet, obwohl die Bezeichnung Austria superior („Oberösterreich“) zu diesem Zeitpunkt noch für Tirol und Vorderösterreich galt. Nach 1490 erlangte das Gebiet als Teilfürstentum Österreich ob der Enns eine gewisse Selbstständigkeit im Heiligen Römischen Reich und die Stände hielten eigene Landtage in Linz ab. Neben Herren, Rittern und Prälaten spielten dabei auch die landesfürstlichen Städte eine wichtige Rolle. Ab 1520 öffnete sich das Land der Reformation, 30 Jahre später waren die Oberösterreicher mehrheitlich evangelisch. Bei der Habsburgischen Länderteilung von 1564 fiel Oberösterreich zusammen mit Niederösterreich und den böhmischen Ländern an den römisch-deutschen Kaiser Maximilian II. Nach 1600 setzte unter Kaiser Rudolf II. und seinem Nachfolger Matthias die Gegenreformation ein. Deshalb gingen die Stände in Oberösterreich 1619 ein Bündnis mit den aufständischen Ständen in Böhmen ein. Im Auftrag Kaiser Ferdinands II. bekämpften und besiegten die Truppen des baierischen Kurfürsten Maximilian I. 1620 die Aufständischen. Für einige Jahre kam das Fürstentum unter die Herrschaft des Kurfürsten. Der evangelische Adel bekam die Wahl, zu konvertieren oder das Land zu verlassen. 1779 kam im Frieden von Teschen das vorher zum Herzogtum Baiern gehörende Innviertel zu Oberösterreich. Während der Napoléonischen Kriege wurde Oberösterreich mehrfach von französischen Truppen besetzt. Die Landeshauptstadt Linz verwaltete von 1816 bis 1854 auch das Land Salzburg. 1918, nach dem Ersten Weltkrieg und dem Untergang des Vielvölkerstaates Österreich-Ungarn, wurde von der neuen Republik Deutschösterreich „Oberösterreich“ als offizieller Name der Region festgelegt. Ein Jahr nach dem Anschluss Österreichs an das Deutsche Reich am 13. März 1938 wurde zum 1. Mai 1939 auf dem Gebiet Oberösterreichs der Reichsgau Oberdonau gebildet, der auch die deutsch besiedelten südböhmischen Gebiete gemäß dem Münchner Abkommen einschloss, sowie das von der Steiermark abgetrennte Ausseer Land. Nach dem Zweiten Weltkrieg wurden diese Gebiete 1945 wieder rückgegliedert, Oberösterreich südlich der Donau wurde inklusive des Ausseer Landes bis 1955 US-amerikanische Besatzungszone, nördlich der Donau war es bis 1955 sowjetisch besetzt. Bevölkerung Am wohnten im Land Menschen, davon 107.318 (7,17 %) EU/EWR/CH/UK-Bürger und 96.623 (6,46 %) Drittstaatsangehörige. Der Großteil der in den letzten Jahrzehnten zugewanderten Bevölkerung stammt aus Deutschland, Südosteuropa und Anatolien, wobei 1,77 % aus Deutschland, 1,48 % aus Bosnien und Herzegowina, 1,19 % aus Serbien, Montenegro und dem Kosovo und 1,03 % aus der Türkei stammen. Durch die große Flüchtlingswelle seit dem zweiten Halbjahr 2015 ist die Zahl der Menschen aus Afghanistan auf 6.721 (0,45 %) und aus Syrien auf 6.023 (0,4 %) angestiegen. Das Mühlviertel wird schon seit dem Mittelalter von einigen Hundert Sinti bewohnt, die wenigsten davon bekennen sich bei Zählungen tatsächlich zu ihrer Volksgruppe. Oberösterreich ist historisch christlich geprägt: Laut den Daten der letzten Volkszählung gehörten im Jahr 2001 noch mehr als 84 % der Oberösterreicher einer christlichen Religionsgemeinschaft an, bei der letzten Erhebung im Jahr 2021 bekannten sich noch 73,4 % der Menschen zum Christentum, rund 7,4 % zum Islam und 17,3 % waren bereits ohne Bekenntnis. Bis Ende 2022 ist der Anteil der Katholiken auf 58,9 % zurückgegangen, der entsprechende Anteil der Evangelischen A.B. beträgt aktuell rund 3 % der oberösterreichischen Bevölkerung. Die Entwicklung der Bevölkerungszahlen nach den Angaben des österreichischen Statistikamtes wurden auf den heutigen Gebietsstand Oberösterreichs umgerechnet. Die in der Tabelle angegebenen Zahlen bis 1700 wurden gerundet. Zwischen 1754 und 1857 zählte man nur die anwesende Zivilbevölkerung. Ab 1869 wurden Volkszählungen in zehnjährigen Abständen durchgeführt. Bis 1923 wurde weiterhin nur die anwesende Zivilbevölkerung gezählt und erst ab 1934 bis 1981 die Wohnbevölkerung. Die Zahlen von 1982 bis 2001 weisen die Jahresdurchschnittsbevölkerung aus; diese Zahlen wurden 2002 rückwirkend ermittelt. Seit 2002 werden die Hauptwohnsitze auf der Grundlage des Zentralen Melderegisters zur Bevölkerungsermittlung herangezogen. In Oberösterreich wird hauptsächlich der mittelbairische Dialekt gesprochen. Bevölkerungsentwicklung Politik Oberösterreich ist ähnlich wie die Steiermark ein Swingstate, der bei bundesweiten Wahlen meist Signalcharakter besitzt. Die ÖVP dominiert in den ländlich geprägten Gebieten, die SPÖ hat ihre Hochburgen in den Städten Linz, Enns und Steyr oder im Bahnknoten Attnang-Puchheim, aber auch die FPÖ ist traditionell stark verbreitet, z. B. im Innviertel. Die Oberösterreichische Landesverfassung definiert Oberösterreich als ein selbständiges Bundesland der demokratischen Republik Österreich. Oberösterreich bekennt sich in seiner Verfassung zudem zu einem geeinten Europa, das demokratischen, rechtsstaatlichen, sozialen und bundesstaatlichen Grundsätzen sowie dem Grundsatz der Subsidiarität verpflichtet ist, die Eigenständigkeit der Regionen wahrt und deren Mitwirkung an europäischen Entscheidungen sichert. Oberösterreich definiert seine Stellung in Europa in der Landesverfassung als eigenständige, zukunftsorientierte und selbstbewusste Region, die an der Weiterentwicklung eines geeinten Europas selbst mitwirkt. Legislative Die Legislative wird vom Oberösterreichischen Landtag ausgeübt. Seine Hauptaufgabe liegt in der Gesetzgebung für Oberösterreich. Des Weiteren wählt der Landtag die Landesregierung und er kann diese mittels Misstrauensvotum entlassen. Zudem bewilligt der Landtag das Landesbudget und hat das Recht, schriftliche und mündliche Anfragen an die Landesregierung zu stellen. Derzeit bestehen in Oberösterreich rund 170 Landesgesetze. Diese können auf Vorschlag der Regierung, einem Landtagsausschuss, dreier Abgeordnete oder auf Initiative der Landesbevölkerung in den Landtag eingebracht werden. Der Landtag tritt mindestens einmal pro Monat zu einer öffentlichen Sitzung im Linzer Landhaus zusammen. Die Abgeordneten werden alle sechs Jahre durch Wahlen bestimmt. Die ÖVP erreichte bei den Landtagswahlen seit 1945 fast durchgehend die Mandatsmehrheit, mehrfach bestimmte sie den Landtag auch mit einer absoluten Mandatsmehrheit, zuletzt 1979 bis 1991. Lediglich 1967 konnte die SPÖ die ÖVP bei den Landtagswahlen stimmenmäßig überholen und an Mandaten mit der ÖVP gleichziehen. Seit 1967 verlor die SPÖ kontinuierlich an Stimmen, gewann jedoch bei der Landtagswahl 2003 massiv Stimmen von der FPÖ, die 1997 ihren Höchststand erreicht hatte, im Jahr 2003 wieder Wählerstimmen verlor und sogar von den Grünen überholt wurde. Die Landtagswahl 2009 brachte leichte Gewinne für die ÖVP und starke Verluste für die SPÖ. Die Grünen konnten mit minimalen Gewinnen ihr Landesrats-Mandat verteidigen, wurden aber aufgrund deren starker Zugewinne wieder durch die FPÖ überholt. Nach der Landtagswahl 2009 war die ÖVP mit 28, die SPÖ mit 14, die FPÖ mit 9 und die Grünen mit 5 Mandaten im Landtag vertreten. Nach der Landtagswahl 2015 lautet die Mandatsverteilung im Landtag: 21 ÖVP 18 FPÖ 11 SPÖ 6 Grüne Exekutive Die Exekutive wird im Land von der Oberösterreichischen Landesregierung ausgeübt. Diese besteht aus dem Landeshauptmann, zwei Stellvertretern und sechs Landesräten. Die Zusammensetzung der Landesregierung erfolgt als „Konzentrationsregierung“ nach dem Proporzsystem, d. h. alle Parteien mit einer bestimmten Anzahl von Abgeordneten im Landtag sind durch mindestens einen Sitz in der Regierung vertreten. Die Wahl der Landesregierung erfolgt durch den Landtag. Die Landesregierung vollzieht als oberstes Vollzugsorgan der Landesverwaltung die Landesgesetze und verwaltet das Landesbudget. An der Spitze steht der Landeshauptmann, der die Regierung nach außen vertritt und den Vorsitz in den wöchentlichen, nichtöffentlichen Sitzungen im Landhaus führt. Nach der Geschäftsordnung der Oberösterreichischen Landesregierung behandelt die Landesregierung in ihren Sitzungen kollegial Regierungsvorlagen an den Landtag, Rechtsverordnungen und bestimmte Verwaltungsverordnungen, (verfassungs)gesetzlich an eine kollegiale Beschlussfassung gebundene Angelegenheiten und Entscheidungen über das Landesvermögen von besonderer Bedeutung wie Förderungen über 20.000 Euro. Sämtlich anderen Entscheidungen trifft das jeweilige Regierungsmitglied selbstständig, die Landesregierung kann jedoch monokratische Entscheidungen an sich ziehen und einer kollegialen Beschlussfindung zuführen. Die ÖVP stellt seit 1945 durchgehend den Landeshauptmann. Ab dem 2. März 1995 hatte Josef Pühringer diese Funktion inne. Nach der Landtagswahl 2003 ging Pühringer eine Regierungsvereinbarung mit den Grünen ein und bildete in Österreich die erste Schwarz-Grüne Koalition auf Länderebene. Während die FPÖ ihre Sitze in der Landesregierung verlor, zogen die Grünen erstmals in die Landesregierung ein. Nach den Landtagswahlen 2015 wurde am 23. Oktober 2015 erstmals eine Landesregierung mit einem schwarz-blauen Arbeitsübereinkommen im Rahmen einer Proporzregierung gewählt und angelobt. In der Landesregierung Pühringer V waren vier ÖVP- sowie drei FPÖ-Regierungsmitglieder vertreten, die SPÖ und die Grünen stellen je einen Landesrat. Neben Landeshauptmann Pühringer wurde die ÖVP in der Regierung von Landeshauptmann-Stellvertreter Thomas Stelzer und den Landesräten Michael Strugl und Maximilian Hiegelsberger vertreten. Am 6. April 2017 wurde Thomas Stelzer Landeshauptmann, die Landesregierung Stelzer I folgte der Landesregierung Pühringer V nach, neue Landesrätin wurde Christine Haberlander, Landeshauptmann-Stellvertreter Michael Strugl. Die FPÖ wird durch Landeshauptmann-Stellvertreter Manfred Haimbuchner und die Landesräte Elmar Podgorschek und Günther Steinkellner vertreten. Für die SPÖ sitzt Landesrätin Birgit Gerstorfer in der Regierung, für die Grünen Landesrat Stefan Kaineder, der am 30. Jänner 2020 Rudi Anschober nach dessen Wechsel in die Bundesregierung nachgefolgt ist. Nach der Landtagswahl 2021 wurde die Landesregierung Stelzer II gebildet, am 23. Oktober 2021 wurde Thomas Stelzer in der konstituierenden Sitzung der XXIX. Gesetzgebungsperiode erneut zum Landeshauptmann gewählt. Judikative Oberösterreich ist der Sitz des Oberlandesgerichts (OLG) Linz, einem der vier Oberlandesgerichte in Österreich. Neben Oberösterreich betreut das OLG Linz auch das Nachbarbundesland Salzburg. An den Standorten Linz, Ried im Innkreis, Steyr und Wels verfügt Oberösterreich zudem über vier Landesgerichte. Die unterste Ebene des Gerichtswesens wird in Oberösterreich von den 28 Bezirksgerichten gebildet. E-Government Das Land Oberösterreich bietet für die einfachere Bewältigung von Behördenwegen E-Government-Lösungen an. Mit diesen Online-Formularen können Bürger u. a. Anträge auf Beihilfen und Förderungen, die OÖ Familienkarte oder auch die Anerkennung einer Photovoltaikanlage als Ökostromanlage stellen. Dabei wird der Formularserver AFORMSOLUTION (AFS) des österreichischen IT-Dienstleisters aforms2web verwendet. Wappen, Flagge, Hymne und Landespatrone Landessymbole sind die Farben (Fahne und Flagge) des Landes Oberösterreich, das Landeswappen, das Landessiegel und die Landeshymne. Das Oberösterreichische Wappen besteht aus einem, mit dem österreichischen Erzherzogshut gekrönten, gespaltenen Schild. Der Schild zeigt heraldisch rechts einen goldenen Adler mit roter Zunge und roten Krallen auf schwarzem Grund und ist heraldisch links dreimal von Silber und Rot gespalten. Es kann in Farbe oder Schwarz-Weiß dargestellt werden. Das Wappen wurde 1930 festgelegt und geht auf das Wappen der Herren von Machland zurück. Die Farben des Landes Oberösterreich sind Weiß-Rot. Die Oberösterreichische Flagge besteht aus zwei gleich breiten waagrechten Streifen, wobei der obere Streifen in der Farbe Weiß und der untere Streifen in der Farbe Rot gehalten ist. Das Verhältnis der Höhe der Flagge zu ihrer Länge beträgt 2:3. Die Flagge wurde offiziell am 25. April 1949 eingeführt. Das Lied Hoamatgsang wurde vom oberösterreichischen Landtag am 29. November 1952 zur oberösterreichischen Landeshymne erklärt. Der Text wurde 1841 von Franz Stelzhamer geschrieben, die Musik komponierte 1884 Hans Schnopfhagen. Von den ursprünglich acht Strophen sind die ersten zwei und die letzte Strophe Teil der Landeshymne. Die Landespatrone von Oberösterreich sind gleichrangig der heilige Florian und der heilige Leopold. Wirtschaft und Infrastruktur Im Vergleich mit dem Bruttoinlandsprodukt der Europäischen Union, ausgedrückt in Kaufkraftstandards, erreichte Oberösterreich einen Index von 132 (EU-28: 100 Österreich: 129). Oberösterreich ist eines der Zentren der österreichischen Industrien. Mit Direktexporten im Wert von 18,9 Milliarden Euro (2006) erwirtschaftet das Bundesland 26,5 Prozent der österreichischen Exporte. Etwa 70 Prozent der Exporte gehen in den Euro-Raum. 68.626 Gewerbeunternehmen erwirtschaften mit 576.203 Beschäftigten ein Bruttoregionalprodukt von 32,6 Milliarden Euro. Die höchsten Beschäftigtenzahlen haben die Wirtschaftszweige (nach ÖNACE-Klassifizierung) Sachgütererzeugung mit 28 %, Handel mit 18 % und unternehmensbezogene Dienstleistungen mit 11 %. Wichtige Wirtschaftszweige sind: Metallerzeugung (voestalpine, AMAG) Fahrzeugbau und Zulieferfirmen (BMW-Motorenwerk Steyr, KTM, Bombardier-Rotax, Miba, Reform-Werke, Rosenbauer, FACC) Chemie und Papier (Lenzing AG, DSM, Borealis AG, Papierfabrik Nettingsdorf, AMI) Maschinen- und Anlagenbau (Engel, Trumpf Maschinen Austria, Siemens-VAI, Plasser & Theurer, Wacker Neuson) Nahrungsmittel (Berglandmilch, Brau Union, S. Spitz, Vivatis) Tourismus (die Tourismus- und Freizeitwirtschaft leistet 15,2 Prozent Beitrag zum Brutto-Regionalprodukt des Landes) Rohstoffe Im Gebiet des Hausrucks wurde bis 1995 Braunkohle gefördert (etwa in Ampflwang, Thomasroith (Ottnang) und Wolfsegg). Im Alpenvorland werden geringe Mengen Erdöl gefördert, (so in Lohnsburg am Kobernaußerwald, Voitsdorf und Sattledt). Erdgas wird z. B. bei Puchkirchen, Pfaffstätt, und Atzbach gefördert. Historisch bedeutend ist das Salzbergwerk bei Hallstatt. Weiters wird auch in Bad Ischl das Steinsalz zur Sole gelöst, durch die Soleleitung in die Saline in Ebensee transportiert, um daraus Salz zu gewinnen. Bei Tragwein wird Kaolin im Tage- und Grubenbau gefördert. In St. Georgen an der Gusen wird Quarz abgebaut und veredelt. Gipsabbau wird bei Spital am Pyhrn betrieben. Verkehr Oberösterreich ist durch internationale Verkehrswege gut erschlossen. Wichtige Straßenverbindungen sind die West Autobahn A 1, Mühlkreis Autobahn A 7, Innkreis Autobahn A 8 und Pyhrn Autobahn A 9. Die Verlängerung der Mühlkreisautobahn als Mühlviertler Schnellstraße S 10 nach Tschechien und die Linzer Autobahn A 26 sind wichtige Straßenbauprojekte der Zukunft. Im Jahr 2017 lag der Motorisierungsgrad (Personenkraftwagen pro 1000 Einwohner) bei 622. Mit der Westbahn führt eine der wichtigsten österreichische Eisenbahnstrecken durch Oberösterreich. Weitere wichtige Bahnstrecken sind die Bahnstrecken Linz–Gaisbach-Wartberg und St. Valentin–České Budějovice (Summerauer Bahn) sowie die Pyhrnbahn. Bedeutende Bahnhöfe befinden sich in Linz, Wels und Attnang-Puchheim. Weitere Verkehrsknoten sind zwei große Donauhäfen in Linz und Enns sowie der Flughafen Linz. Medien Auflagenstärkste Tageszeitung Oberösterreichs sind die Oberösterreichischen Nachrichten. Die Oberösterreichische Rundschau publiziert wöchentlich drei Ausgaben (Regionalausgabe am Donnerstag, Sonntagsrundschau und Korrekt-Kleinanzeiger). Weiters erscheint wöchentlich die Tips. Der Österreichische Rundfunk (ORF) ist mit einem Funkhaus in Linz vertreten. Größter privater Fernsehsender ist LT1. Er sendet zusammen mit HT1 europaweit unverschlüsselt über den Fernsehsatelliten Astra 1H. Seit Juni 2010 sendet der nichtkommerzielle Fernsehsender DORF TV in weiten Teilen des Bundeslandes. Neben den staatlichen ORF-Radioprogrammen kämpfen verschiedene Privatsender um den Radiomarkt: Life Radio, Welle 1, Radio Arabella und KroneHit. Als nichtkommerzielle Privatradios konnten sich Radio FRO im Großraum Linz, Freies Radio Freistadt und Freies Radio Salzkammergut etablieren. Energieversorgung Die Energieversorgung Oberösterreichs wird hauptsächlich durch die landeseigene Energie AG gewährleistet. Diese betreibt 34 Wasser- und zwei thermische Kraftwerke in Riedersbach und Timelkam sowie Photovoltaikanlagen in Eberstalzell und am Loser. Sechs der Wasserkraftwerke befinden sich in Salzburg, ein Wasser- und das Solarkraftwerk in der Steiermark. Die Verbund Hydro Power AG betreibt die fünf Donaukraftwerke in Oberösterreich. Die Energie-AG-Tochter AVE betreibt zwei Müllverbrennungsanlagen (Wels und Lenzing). Das Linzer Kommunalunternehmen Linz AG besitzt drei Fernheizkraftwerke, die auch zur Stromerzeugung genutzt werden. Daneben betreibt die Linz AG auch vier Wasserkraftwerke. Bildung Oberösterreich verfügt über vier Universitäten, die sich alle in Linz befinden. Mit circa 19.300 Studierenden ist die staatliche Universität Linz (Johannes Kepler Universität Linz) die größte Bildungseinrichtung. Sie bietet akademische Ausbildung im Bereich Sozial- und Wirtschaftswissenschaften, Rechtswissenschaften, Technik und Naturwissenschaften, sowie Medizin an. Zweite staatliche Universität ist die Universität für künstlerische und industrielle Gestaltung Linz (Kunstuniversität). Neben diesen befinden sich noch die Katholisch-Theologische Privatuniversität Linz (KTU) und die Anton Bruckner Privatuniversität im Land. Die FH Oberösterreich bietet an vier Standorten (Hagenberg, Linz, Steyr und Wels) Bildung in unterschiedlichen Bereichen (Technik, Wirtschaft und Soziales) an. Derzeit nehmen ungefähr 5900 Studenten an diesen Bildungseinrichtungen die angebotenen Ausbildungsmöglichkeiten wahr. Seit 1. Oktober 2007 ebenfalls als Hochschule geführt werden die vormaligen Pädagogischen Akademien. Beide derartige Einrichtungen in Oberösterreich befinden sich in Linz: die staatliche Pädagogische Hochschule Oberösterreich und die katholische Pädagogische Hochschule der Diözese Linz. Kultur und Sehenswürdigkeiten Neben der Kulturförderung betreibt das Land Oberösterreich auch selbst einige Kultureinrichtungen wie etwa das Oberösterreichische Landesmuseum oder das Landestheater in der Landeshauptstadt Linz. Initiiert vom ORF-Oberösterreich und vom Linzer Brucknerhaus findet seit 1979 alljährlich in der Landeshauptstadt die Ars Electronica, das größte internationale Festival für digitale Kunst, statt. Stifte, Klöster und Kirchen In Oberösterreich bestehen zahlreiche Stifte und Klöster, die seit jeher Zentren der Kultur sind. Die bekanntesten sind Stift Sankt Florian, Stift Wilhering und Stift Kremsmünster, weiters die Stifte Schlägl, Schlierbach, Reichersberg, Engelszell und Lambach. Die berühmtesten Kirchen sind der 1862 bis 1935 erbaute neugotische Linzer Mariä-Empfängnis-Dom, dies ist die größte Kirche Österreichs; die Linzer Martinskirche, eine der ältesten Kirchen Österreichs; die Wallfahrtskirchen Pöstlingbergkirche, Wallfahrtsbasilika Maria Puchheim und Wallfahrtskirche Stadl-Paura; die Stadtpfarrkirche Braunau mit dem dritthöchsten Kirchturm Österreichs; die Kirchen in St. Wolfgang, Gampern, Hallstatt und Kefermarkt mit ihren Flügelaltären. Die Pfarrkirchen von Niederkappel und Aigen stellen bedeutende Bauwerke des Historismus dar. Bemerkenswert ist auch die Pfarrkirche Ebelsberg mit der einzigen Jugendstileinrichtung in Oberösterreich. Bedeutende Kirchenbauten der Moderne sind die Linzer Friedenskirche und die Pfarrkirche Attnang. Burgen und Schlösser Bekannte Burgen in Oberösterreich sind die Burg Clam, die Otto von Machland 1149 errichten ließ, weiters die Burg Altpernstein und Wildberg sowie die Ruinen Schaunburg, Scharnstein und Waxenberg. Die bedeutendsten Schlösser sind das Linzer Schloss, Schloss Ort in Gmunden, Schloss Ennsegg in Enns, Schloss Hartheim in Alkoven, Schloss Lamberg in Steyr, Schloss Parz bei Grieskirchen, Schloss Starhemberg in Eferding, Schloss Greinburg, Schloss Weinberg und das Wasserschloss Aistersheim. Theater und Musik Das größte Theater in Oberösterreich ist das Landestheater Linz mit den Spielstätten Musiktheater und dem Schauspielhaus. Es bietet die Sparten Oper, Operette, Musical, Ballett und Schauspiel an. Eng mit dem Theater und dem Brucknerhaus verbunden ist auch das Bruckner Orchester Linz als größtes Symphonieorchester Oberösterreichs und eines der besten Orchester in Österreich. Bekannt sind auch die Stadttheater in Wels, Grein und Bad Hall sowie das Lehár Festival Bad Ischl mit seinen berühmten Operettenaufführungen. Bemerkenswert ist auch die Tradition der Blasmusik in Oberösterreich. Es existieren mehr Musikkapellen als das Land Gemeinden zählt. Diese sind vereinsmäßig organisiert und spielen großteils auf hohem musikalischen Niveau. Es gibt auch zahlreiche Musikgruppen, die die traditionelle Volksmusik pflegen. Museen Das größte Museum ist das Linzer Schlossmuseum der Oberösterreichischen Landesmuseen. Bekannt sind auch die Landesgalerie, das Lentos Kunstmuseum Linz, das Nordico-Stadtmuseum Linz, das Ars Electronica Center Linz, das Museum Arbeitswelt Steyr, das Mühlviertler Schlossmuseum Freistadt, das Museum Angerlehner in Thalheim bei Wels und das Kubin-Haus in Zwickledt. Des Weiteren existieren zahlreiche kleinere Museen in den Gemeinden. Parkanlagen In Oberösterreich bestehen derzeit vier historische Gartenanlagen, die seit dem 1. Jänner 2000 in die rechtliche Kompetenz des Bundes fallen und unter Denkmalschutz gestellt wurden. Zu den geschützten historischen Garten- und Parkanlagen gehören der Park der Kaiservilla Bad Ischl, die Gartenanlage der Villa Toscana in Gmunden, der Jugendstilpark am Linzer Bauernberg und der Park von Schloss Neuwartenburg (Timelkam). Darüber hinaus bestehen in Oberösterreich rund 160 historische Gartenanlagen, insbesondere als Teil von Schlossanlagen. Eine besonders hohe Anzahl historischer Parks besteht in der Landeshauptstadt Linz sowie in den Zentren der Sommerfrische des 19. Jahrhunderts in Bad Ischl und Gmunden. Seit dem Jahr 2005 werden in Oberösterreich alle zwei Jahre Landesgartenschauen veranstaltet. Zielsetzung der Landesgartenschauen sind die Schaffung von Lebensräumen und Grünzonen unter umweltpolitischen und ökologischen Gesichtspunkten in den oberösterreichischen Gemeinden. Die Landesgartenschauen sollen dabei Gestaltungsmöglichkeiten in der Grünraum- und Siedlungsgestaltung sowie in der Gartenkultur aufzeigen. Die Auswahl der veranstaltenden Gemeinde erfolgt durch einen Fachbeirat. Landesgartenschauen wurden 2007 in Vöcklabruck, 2009 in Bad Schallerbach, 2011 in Ansfelden/Ritzlhof, 2015 in Bad Ischl („Des Kaisers neue Gärten“), 2019 in Aigen-Schlägl durchgeführt. Weitere Sehenswürdigkeiten Bedeutende industrielle Baudenkmäler sind das von Mauriz Balzarek entworfene Jugendstilkraftwerk Steyrdurchbruch, das an der Grenze zu Bayern errichtete Donaukraftwerk Jochenstein und die im Stil der Neuen Sachlichkeit erbaute Tabakfabrik Linz. Erwähnenswert sind auch die in der NS-Zeit in Linz erbauten Brückenkopfgebäude mit der Nibelungenbrücke und die zahlreichen Wohnsiedlungen dieser Zeit, sogenannte Hitlerbauten, in den Linzer Stadtteilen Urfahr, Bindermichl und Spallerhof sowie in Steyr-Münichholz. Kinos In Oberösterreich gab es im Jahr 2012 27 Kinos mit 87 Kinosälen und rund 2,7 Millionen Kinobesuchen. Nach einem langjährigen Rückgang dieser Zahlen mit einem Tiefpunkt im Jahr 1992 mit nur 1,2 Millionen Kinobesuchen bzw. 1994 mit nur 60 Kinosälen stiegen die Zahlen seither wieder an und halten nun einen Wert, der ungefähr jenem vom Anfang der 1970er Jahre entspricht. Die Struktur hat sich jedoch zugunsten von Megaplex-Kinos und auf Kosten von Kleinkinos mit ein und zwei Sälen verändert, von denen es 2012 nur noch 16 gab. Demgegenüber stehen sieben Kinos mit drei bis fünf Sälen und vier Kinos mit mehr als sechs Sälen. Digitalprojektion wurde 2012 in 19 Kinos eingeführt. Varia Aus dem alten Namen Oberösterreichs – Land ob der Enns – hat sich im Ungarischen die Beginnphrase von Märchen entwickelt. So wie im Deutschen die meisten Märchen mit „Es war einmal …“ beginnen, steht am Anfang der ungarischen Märchen meist „Messzi, messzi földön, még az operencián is túl“ (in einem fernen, fernen Land, jenseits von Ob der Enns). Auch kommt in ungarischen Märchen immer wieder das „operenciai tenger“ (das ob-der-Enns'ische Meer) vor, damit sind die Seen im Salzkammergut gemeint. Siehe auch Ergebnisse der Landtagswahlen in Österreich Liste der Städte in Österreich Hoamatgsang Literatur Oberösterreicher. Lebensbilder zur Geschichte Oberösterreichs. Hgg. vom Oberösterreichischen Landesarchiv. 8 Bände OÖLA, Linz 1981–1994. Alfred Havlicek/Reinhold Gruber: Oberösterreich, Edition Oberösterreich – Styria, Wien – Graz – Klagenfurt 2008, online Weblinks Website der Oberösterreichischen Landesregierung Offizielle Website für Tourismus und Urlaub in Oberösterreich Website der Standortagentur des Landes Oberösterreich Oberösterreichische Wirtschaftskammer Einzelnachweise Bundesland in Österreich NUTS-2-Region Österreichisches Kronland Verwaltungseinheit als Namensgeber für einen Asteroiden
Q41967
242.697699
172671
https://de.wikipedia.org/wiki/M%C3%A4ander
Mäander
Mäander ist die Bezeichnung einer Flussschlinge in einer Abfolge weiterer Flussschlingen, wie sie sich in unbefestigten Fließgewässerabschnitten mit sehr geringem Sohlgefälle und gleichzeitig transportiertem, feinkörnigem Geschiebe auf natürliche Weise bildet. Man unterscheidet sogenannte „freie“ Mäander in Lockergesteinen (Sediment) und „festgelegte“ Mäander oder Talmäander in Festgesteinen. Entsprechende Flussabschnitte werden als mäandrierende Flüsse bezeichnet. Mäander greifen mit der Zeit durch Erosion an der Kurvenaußenseite (Prallhang) und Sedimentation an der Kurveninnenseite (Gleithang) immer weiter seitlich aus, bis es an den Enden der Schlinge zu einem Durchbruch kommt. Danach wird der Mäander zum Altarm und verlandet schließlich. Die Intensität des Mäandrierens eines Fließgewässers hängt von der Beschaffenheit des Untergrundes und der Fließgeschwindigkeit ab. Als einfaches Maß dient das als Sinuosität bezeichnete Verhältnis von Gewässerlänge zu Luftlinie. Etymologie Das Wort Mäander stammt vom griechischen Namen Maiandros für die heute den Namen Menderes tragenden Flüsse in der westlichen Türkei (Großer Mäander und Kleiner Mäander, der Kleine Mäander trug jedoch in der Antike ursprünglich einen anderen Namen). Bereits in der Antike waren die genannten Wasserläufe bekannt für ihre zahlreichen Flussschlingen. Mäanderentwicklung Entstehung Ursache der Mäandrierung ist eine durch die Bodenreibung des Wassers verursachte Querzirkulation, die entlang des Flussbodens von der kurvenäußeren Seite zur kurveninneren Seite und an der Flussoberfläche zurück zur kurvenäußeren Seite führt. Diese Querzirkulation entsteht folgendermaßen: Eine zufällige Unregelmäßigkeit im Flussbett bewirkt Unterschiede in der Strömungsgeschwindigkeit, durch die höhere Erosion entsteht eine leichte Ausbuchtung auf der Seite mit der schnelleren Strömung. Schließlich bildet sich eine Kurve, durch die Zentrifugalkraft besitzt sie einen höheren Wasserstand an der Außenseite. Hierdurch entsteht für alle Wasserteilchen eine Druckgradientkraft in Richtung des Kurveninneren (Zentripetalkraft). Der Wasserstand ist somit zunächst eine Äquipotentialfläche aus dem Potential der Gravitation und der Zentrifugalkraft. Damit alleine hat man eine Gleichgewichtsströmung um die Kurve, die keine Querzirkulation verursacht. In der Nähe des Flussbettes entsteht Reibung, welche die Fließgeschwindigkeit mindert und die Zentrifugalkraft abschwächt. Die Druckkraft dagegen bleibt gleich, weil die Statik der Wasseroberfläche unverändert besteht. In der Summe erfahren die bodennahen Wasserteilchen an der Kurvenaußenseite dadurch eine Querbeschleunigung in Richtung des Kurveninneren. In der Folge entsteht an der Oberfläche aus Gründen der Massenerhaltung eine Komponente der Strömung in Richtung Kurvenäußeres. Diese wird balanciert durch den höheren Wasserstand an der kurvenäußeren Seite. Aus dieser Querzirkulation und der Gewässerströmung entsteht in der Summe längs des Flusskörpers eine helicale Strömung, die am Gewässerboden Richtung Kurveninnenseite strömt. Weil die Strömungsgeschwindigkeit zum Kurveninnern abnimmt, wird die helicale Strömung nach innen hin ebenfalls langsamer und die Sedimentfracht sinkt wieder zu Boden. Somit befördert die helicale Strömung Sedimente vom Prallhang zum Gleithang, wodurch der Kurvenradius des Mäanders immer größer wird. Verlagerungsaktivität und Durchbruch In Lockergesteinen (Sediment) können sich freie Mänder erheblich schneller verändern, als dies bei Talmäandern in Festgesteinen der Fall ist. Beobachtungen an der Mulde (Fluss) in Sachsen zeigen, dass neben der Verlagerung nach außen (angeströmtes Ufer) auch eine Bewegung der Flussschlinge tal- bzw. gefälleabwärts erfolgt. Berühren sich zwei benachbarte Flussschlingen, bricht der Fluss durch und fließt künftig durch die Abkürzung. Zurück bleibt ein bogenförmiger Altarm (engl. oxbow lake), der immer weniger durchflossen wird. Zunehmender Eintrag von Sediment bei Hochwasser sowie der Laubeintrag führen dazu, dass das stehende Altwasser immer weiter verlandet. An der Durchbruchstelle kann sich durch den Höhenunterschied zwischen Mäanderbogenein- und -auslauf eine Stromschnelle entwickeln, was in der Regel eher bei Festgesteinen der Fall ist. Durch rückschreitende Erosion findet dann ein Gefälleausgleich flussaufwärts statt, so dass das oberhalb befindliche Flussbett nach einiger Zeit entsprechend tiefer liegt. Der Altarm ist davon nicht betroffen, weshalb es in diesem Fall zu einer sehr raschen Abkopplung vom Fließgeschehen kommt. Talmäander Von den sogenannten freien Mäandern der Schwemmebenen zu unterscheiden sind Talmäander. Dies sind tief eingeschnittene, windungsreiche Flusstäler, die in ihrer Gestalt den Mäandern frei fließender Flüsse ähneln. Für ihre Entstehung werden verschiedene Modelle diskutiert. Einerseits kann sich ein Fluss bei nachträglicher Geländehebung unter Beibehaltung der im Flachland erworbenen Schlingenform tief ins Gebirge einschneiden. Solche Zwangsmäander verändern jedoch häufig nachträglich ihre Gestalt, meist sind sie langgestreckter. Ebenso sind bei Talmäandern die äußeren Talhänge (Prallhänge) vom Flussbett unterschnitten und steil, während die inneren Talhänge (Gleithänge) flacher geneigt sind. Abweichend von diesem Modell wird in vielen Fällen eine Bildung von Talmäandern für solche Täler diskutiert, bei denen sich ein Fluss in sich hebende, nahezu ebene anstehende Hartgesteine eingeschnitten hat. Hier können die Mäanderböden erst infolge der Hebung entstanden sein, d. h., sie gehen nicht direkt auf frühere Flussschlingen zurück. Beispiele dafür sind der Mittelrhein oder die Moselbögen. Eine Schlingenbildung unter solchen Bedingungen setzt voraus, dass die seitliche (laterale) Erosion des Flusstals im Verhältnis zur Tiefenerosion hoch ist. Beobachtungen in Ostasien deuten darauf hin, dass die Bildung von Talmäandern durch relativ weiche anstehende Gesteine, bevorzugt beim Vorhandensein einzelner härter Lagen, und durch klimatische Verhältnisse mit häufigen Starkregen-Ereignissen gefördert werden. Ausgedehnte Talsedimente, die die Talsohle gegen Erosion schützen, während die Hangbereiche frei liegen, können den Prozess verstärken, aber nicht allein auslösen. Beim Durchbruch der Schlinge eines Talmäanders wird der vom Talabschnitt des Altarms, dem Umlauftal, umgebene Erosionsrest der Hochfläche als Umlaufberg bezeichnet. Aus dem Umlauftal kann sich ein Sonderfall des Trockentals entwickeln. Auswirkungen auf den Menschen Politische Auswirkungen Bei Flüssen, in denen Landesgrenzen verlaufen, wird in der Regel ihr Talweg in Grenzverträgen als Grenzlinie verwendet, so dass selbst die Zugehörigkeit von Flussinseln eindeutig geregelt werden kann. Ist ein Gewässerverlauf erst einmal geodätisch definiert, können Änderungen im Flussverlauf zur Bildung von Flächen führen, die zwar nach wie vor Teil einer Gebietseinheit sind, von dieser jedoch durch den neuen Flussverlauf abgetrennt und somit oft schlecht zugänglich sind. Mitunter kommt es in diesen Fällen zum Gebietstausch; ferner bieten sich solche Bereiche auch als Naturreservat oder Retentionsfläche an. Wirtschaftsfaktor Wegen der höheren Fließgeschwindigkeit standen historische Wassermühlen bevorzugt an jüngeren Mäanderdurchbrüchen. Stark mäandrierende Flüsse, wie der Mississippi oder der Rhein, sind vielfach durch Flussbegradigung schiffbar gemacht worden. Der Rhein wurde allein durch die von Johann Gottfried Tulla zwischen 1817 und 1819 eingeleitete Begradigung von Karlsruhe bis Mannheim von 135 Kilometer auf 86 Kilometer verkürzt. Eine solche Flussbegradigung hat eine Absenkung des Grundwasserspiegels und durch die erhöhte Fließgeschwindigkeit eine stärkere Erosion des Flussbettes zur Folge, damit besteht eine höhere Hochwassergefahr für nachfolgende Flussabschnitte. Die landwirtschaftliche Nutzbarkeit der anliegenden Flächen und die Wasserversorgung anliegender Waldflächen wird verändert. Die physikalischen Gewalten des Mississippi, die im Laufe der Zeit zu überlagernden Mäanderverläufen geführt haben, sind Teil der amerikanischen Folk-Mythologie. In den 1940er Jahren wurde eine große Studie vom Geologen Harold Fisk durchgeführt. Fisk untersuchte mit einem Team von Geologen und Geographen die Flussläufe des Mississippi: seine Haupt- und Nebenströme, die toten Seitenarme und die trocken gefallenen Flussbette sowie das Schwemmland. Naturschutz Die negativen Auswirkungen des Flussbaus der vergangenen Jahrzehnte führten zur europäischen Wasserrahmenrichtlinie, aufgrund derer die Uferbefestigungen von begradigten Fließgewässern mancherorts wieder zurückgebaut werden. Dies bezeichnet man als Renaturierung, in der Folge bilden sich in den Fließgewässern auf natürlichem Weg erneut Mäander. Bevorzugt renaturiert werden Oberläufe, die nicht der Schifffahrt dienen, beispielsweise die Nidda bei Bad Vilbel oder der Main bei Unterbrunn. Abgrenzung Eine einzelne Flussschlinge in einem Flusslauf wie beispielsweise die Saarschleife wird nicht als Mäander bezeichnet, ebenso wenig eine als Flussknie bezeichnete Flussschlinge mit anschließend markant veränderter Fließrichtung. Im Zuge von wasserbaulichen Maßnahmen zum naturnahen Umbau vorher begradigter Fließgewässer wird von diesem Sprachgebrauch allerdings häufig abgewichen und jedes windungs- oder kurvenreiche Gewässerbett „mäandrierend“ genannt, auch dann, wenn die Kurven durch Befestigung festgelegt sind und nicht der natürlichen Gewässerbettdynamik unterliegen. Siehe auch Flussmorphologie Weblinks Bernhard, Karl-Heinz: Teetassen-Zyklonen und Flußmäander – Einstein klassisch. In: Sitzungsberichte der Leibniz-Sozietät. 78/79(2005), S. 81–95 und Quellenangaben hierin. Harold N. Fisk, Alexander Trevi (Hrsg.): Geological Investigation of the Alluvial Valley of the Lower Mississippi River, Part II. Kartenauszüge von 1944 und weiterführende Links Egon Specht: Alte Flussschleifen der Ahr bei Altenburg und Mayschoß – Kreis Ahrweiler. Einzelnachweise Maander (Flussschlinge) Maander (Flussschlinge) Wikipedia:Artikel mit Video
Q180537
321.851039
21368
https://de.wikipedia.org/wiki/Violoncello
Violoncello
Das Violoncello [], kurz Cello, ist ein aus verschiedenen Holzarten gefertigtes Streichinstrument aus der Viola-da-braccio-Familie. Das Instrument entstand nach 1535 in Norditalien. Das Violoncello wird mit einem Bogen gestrichen. Im Gegensatz zur Violine und Bratsche hält der Cellist das Instrument aufrecht (mit dem Hals nach oben) zwischen den Beinen (daher auch: Stehgeige). Es steht heute meist mit einem ausziehbaren Stachel auf dem Boden. Es war das Instrument des Jahres 2018. Bezeichnungen Die Bezeichnung Violoncello (Abkürzung Vc) ist aus dem Italienischen entlehnt. Ein Violoncello ist wörtlich ein „kleiner Violone“, wobei der Violone wörtlich eine „große Viola“ ist. Das Instrument wird meist kurz Cello genannt. Der Cellospieler wird in der Regel Cellist genannt und nur selten Violoncellist. Auch in Wortzusammensetzungen ist die Kurzform üblich, z. B. Cellokonzert (Beispiel) oder Cellosonate (Beispiel). Der Plural lautet in der Fachsprache der Musiker Violoncelli bzw. Celli; laut Duden ist die Pluralform Violoncellos bzw. Cellos aber ebenfalls korrekt. Ursprünglich lautete die Bezeichnung des Instruments Bassvioline, Bassgeige oder kleine Bassgeige, französisch basse de violon bzw. italienisch basso di viola da braccio oder auch violone. Die Diminutivform violoncino tauchte nur gelegentlich auf. In den Zwölf Triosonaten des italienischen Komponisten Giulio Cesare Arresti aus dem Jahre 1665 erscheint schließlich, in gleicher Bedeutung wie violoncino, erstmals die Diminutivform violoncello. Die seit 1739 belegte eingedeutschte Wortform Violoncell (Plural Violoncelle oder Violoncells) ist heute nicht mehr gebräuchlich. Die Kurzform Cello ist seit 1813 belegt. Aufbau und Funktion Teile und Materialien Für den Bau eines Violoncellos verwendet man verschiedene Arten von Klangholz, die auch beim Bau von Violinen und Violen genutzt werden. Die Decke des Korpus und die Klötze im Inneren bestehen in der Regel aus Fichtenholz. Für den Boden des Korpus, die Zargen, den Hals und den Wirbelkasten wird meist Ahorn verwendet (selten ein anderes Hartholz wie Kirsche, Birne, Nuss oder auch Pappel). Die Saiten verlaufen von den Wirbeln über den Obersattel und den Steg bis zum Saitenhalter im unteren Drittel des Korpus. Griffbrett, Wirbel und Saitenhalter werden aus Ebenholz hergestellt, seltener aus anderen Harthölzern wie Buchsbaum oder Palisander. Der Steg ist ein flaches, oft kunstvoll gefertigtes Holzplättchen mit Einkerbungen für die vier Saiten, das in der Mitte des Korpus mit zwei Füßen senkrecht auf der Korpusdecke aufgesetzt ist. Im Inneren des Korpus befinden sich der Stimmstock und der Bassbalken. Der Aufbau des Violoncellos entspricht damit weitgehend dem Aufbau der Violine. Abgesehen von den verschiedenen Maßen, ist der wesentliche Unterschied der ausziehbare Stachel, mit dem das Violoncello auf dem Boden steht. Er besteht meist aus Metall, seltener aus Holz oder kohlenstofffaserverstärktem Kunststoff. Die frühere Bezeichnung Perno für den Stachel ist heute nicht mehr üblich. Bau Das Violoncello wird vom Geigenbauer hergestellt. Aus handwerklicher Sicht ist der Violoncellobau dem Bau der Violine sehr ähnlich. Für die Herstellung eines Violoncellos benötigt der Geigenbauer aber etwa dreimal so viel Zeit wie für den Bau einer Geige. Zu Baubeginn bestehen Decke und Boden aus massiven, im Schnitt keilförmigen Holzplatten, die zunächst in der Mitte gefugt werden. Dabei übersteigt die Dicke in der Mitte mindestens etwas die Höhe der späteren maximalen Wölbung. Erst nach vollkommener Fertigstellung der Außenwölbung mit verschiedenen Werkzeugen wird die Innenwölbung begonnen. Im Gegensatz zu Decke und Boden werden die Zargen, die zusammen mit den vier Eckklötzen sowie dem Ober- und Unterklotz den Zargenkranz bilden, zunächst als plane Streifen auf die richtige Stärke gehobelt. Danach erfolgt mit Dampf und Druck auf einem speziell dafür geformten Eisen (Biegeeisen) ihre Biegung in die richtige Form. Die Klötze, an denen die Zargen festgeleimt sind, dienen als Gerüst. In den Oberklotz wird später der Hals eingelassen und eingeleimt. Maße und Proportionen Typische Maße: Korpuslänge: 750–760 mm Zargenhöhe: 111 mm Halslänge: 255 mm Schwingende Saitenlänge (Mensur): 690 mm Saitendurchmesser: 0,8–2,0 mm Der Saitendurchmesser variiert je nach Hersteller und Material. Er hängt auch davon ab, ob die Saite mit Metall umsponnen ist oder nicht. Bei gleichem Material ist der Durchmesser tieferer Saiten größer. Bogenlänge: 710–730 mm Das Violoncello entspricht etwa der Bauform der Violine und der Viola, besitzt aber abweichende Proportionen. Während der Korpus des Violoncellos knapp die doppelte Länge der Geige hat, haben die Zargen die vierfache Höhe. Das erweitert den Resonanzraum und gleicht die Tatsache aus, dass das Violoncello, gemessen an seiner Stimmung, eigentlich viel größer sein müsste, wollte man die Proportionen der Violine beibehalten. Die Saiten sind eine Duodezime tiefer gestimmt als die der Violine bzw. eine Oktave tiefer als die der Viola. Entsprechend vergrößert hätte der Korpus die dreifache Länge eines Geigenkorpus, was zu einem Instrument von den Dimensionen des Kontrabasses führen würde. Die hohen Zargen bewirken, dass im Klangspektrum bestimmte Teiltöne, insbesondere der 1. Oberton, verstärkt werden. Daraus entsteht die charakteristische warme Klangfarbe des Violoncellos. Weiterhin besitzt das Violoncello ein anderes Mensurverhältnis – der Begriff bezeichnet den Abstand zwischen Sattel und oberem Deckenrand im Verhältnis zum Abstand zwischen Deckenrand und Steg – als die Geige: Während bei der Violine das Mensurverhältnis 2:3 beträgt, ist es beim Violoncello mit 7:10 geringfügig größer. Der gesamte Abstand zwischen Sattel und Steg und damit die Länge der schwingenden Saite wird als Mensur bezeichnet. Die Mensuren variieren beim Violoncello stärker als bei der Violine, sind aber weniger variabel als bei der Viola. Saiten und Stimmung Das Violoncello ist heute mit vier Saiten im Quintenabstand bespannt, die leer, das heißt ungegriffen, auf die Tonhöhen C-G-d-a gestimmt sind, somit eine Oktave tiefer als die der Viola. Merksprüche für die Grundstimmung sind „ach du Großes Cello“ oder, mit der tiefsten Saite beginnend, „Cello Geht doch auch“. Die folgende Tabelle zeigt die Frequenzen der vier Saiten in Hertz (Hz), abhängig von zwei gebräuchlichen Tonhöhen des Kammertons a′ und für den Fall der reinen Einstimmung der Saiten. Die Saiten bestehen im Kern meist aus Stahl, Wolfram, Nylon oder Darm. Sie sind in der Regel mit einem feinen Draht zum Beispiel aus Silber, Aluminium oder Kupfer umsponnen. Tonerzeugung Der Ton entsteht beim Violoncello, wie bei allen Streichinstrumenten, durch die Schwingung der Saiten. Sie werden meist durch Anstreichen mit dem Bogen in Schwingung versetzt, können aber auch mit den Fingern gezupft werden (Pizzicato). Der Steg überträgt die Schwingungen der Saiten auf die Korpusdecke, der Stimmstock leitet sie zwischen Decke und Boden weiter. Der gesamte Korpus wirkt als Resonanzkörper, der den Ton verstärkt. Er bringt die Luft zum Schwingen und strahlt dabei den Schall sowohl nach außen als auch ins Innere des Korpus ab. Durch die beiden seitlichen Schalllöcher (f-Löcher) auf der Korpusdecke wird in erster Linie die Beweglichkeit und Resonanzfähigkeit der Decke erhöht. Zwar dringt auch Schall aus dem Inneren durch die f-Löcher nach außen, dessen Anteil an der gesamten Lautstärke des Instruments ist jedoch gering. Durch Niederdrücken der Saite mit einem Finger der linken Hand kann ihr schwingender Teil verkürzt werden. Das bewirkt eine höhere Schwingungs-Frequenz und somit eine Veränderung der Tonhöhe. Auf dem Griffbrett befinden sich keine Bünde wie etwa bei der Gambe. Der Cellist muss deshalb die richtige Stelle auf dem Griffbrett präzise treffen; er muss dafür sein Haltungs- und Bewegungsgedächtnis ausgiebig schulen, zumal er das Greifen der Saiten nicht visuell kontrollieren kann. Ein gut gebildetes Gehör hilft dabei. Klang Tonumfang Der Tonumfang reicht (in bequem spielbaren Positionen) vom großen C bis zum dreigestrichenen g (g’’’) und umfasst damit mehr als vier Oktaven; als Flageolettton wird sogar das viergestrichene a (a’’’’) erreicht. Charakteristisch für das Violoncello sind vor allem die Töne im Bereich der männlichen Stimme (Bass und Tenor). Es erreicht aber eine größere Tiefe als eine menschliche Bassstimme und geht in der Höhe über den üblichen Tonumfang eines Soprans hinaus. Es klingt „dunkel und kraftvoll in der Tiefe, samtig lyrisch in der Tenorlage; in den höheren Lagen verzaubert es durch strahlende Brillanz“. Anders als auf dem Klavier, der Harfe und der Orgel, die einen noch größeren Tonumfang haben, kann der Cellist zudem mit den Mitteln der Bogenführung und des Vibratos jeden nicht allzu kurzen Ton individuell gestalten. Aufgrund seiner reichen Palette an Registern und Klangqualitäten gilt das Violoncello als eines der vielseitigsten Instrumente. Es wird eingesetzt: als Bassinstrument in der Barockmusik (Basso continuo), häufig gedoppelt durch den Kontrabass, der dieselbe Basslinie eine Oktave tiefer spielt als Bassinstrument in der Kammermusik (Streich- und Klaviertrio, - quartett, -quintett) als Bassinstrument im barocken und klassisch-romantischen Orchester, sekundiert in der 16'-Lage durch den Kontrabass als Soloinstrument, meist mit Schwerpunkt auf den höheren Klangregistern (Sololiteratur, Kammermusik, Solo-Instrumentalkonzerten) Akustische Eigenschaften Der Klang eines Musikinstruments wird aus physikalisch-akustischer Sicht hauptsächlich durch den Teilton, bzw. Obertonaufbau, die Formantverteilung (Frequenzbereiche, in denen die Teiltöne unabhängig von der Lage des Grundtons hervortreten), den Ein- und Ausschwingvorgang, Geräuschanteile sowie die Dynamik bestimmt. Diese Eigenschaften sind baulich stark von den Materialeigenschaften, der Konstruktion und sogar von der individuellen Spieltechnik abhängig, weshalb nur ungefähre Aussagen möglich sind. Das Violoncello hat, ähnlich der Violine, aufgrund der komplizierten Resonanzeigenschaften des Resonanzkörpers einen sehr unregelmäßigen Teiltonaufbau sowie ausgeprägte Formantgebiete. Darauf beruht zum Teil der ihm oft zugeschriebene kantable Charakter. Die Grundtöne der tiefsten Töne sind gegenüber den Teiltönen sehr schwach ausgeprägt und liegen circa 15 Dezibel (dB) unter den stärksten Obertönen. Auch oberhalb von 3000 Hertz (Hz) sind die Teiltöne, die bis ungefähr 8000 Hz reichen können, relativ schwach ausgeprägt. Charakteristische Formantgebiete des Violoncello liegen bei 230 Hz, zwischen 300 und 500 Hz sowie zwischen 600 und 900 Hz. Typisches Kennzeichen des Violoncelloklangs ist eine Formantsenke zwischen 1000 und 1200 Hz, in einem Bereich, in dem die Violine ihren stärksten Formanten besitzt. Das ist einer der Gründe für den unterschiedlichen Klangcharakter der beiden Instrumente. Instrumente, die einen Formanten zwischen 2000 und 3000 Hz besitzen, zeichnen sich durch einen hellen Klang aus. Manche Instrumente besitzen beim Spiel auf der A-Saite im Bereich um 1500 Hz einen Formanten, der das Instrument etwas in Richtung Viola (die oft einen Formant bei circa 1600 Hz besitzt) klingen lässt. Die Einschwingzeit des Violoncellos liegt bei circa 60 bis 100 Millisekunden (Violine 30–60 ms, Kontrabass 100–500 ms). Sie kann aber durch entsprechende Bogenführung auf 300 ms verlängert werden, wodurch ein weicherer Klang erreicht wird. Da der Grundton später als die Teiltöne anspricht, kann bei schnellen Tonfolgen der Klang etwas „spitz“ werden. Der gegenüber der Violine etwas längeren Einschwingzeit entspricht ein längeres Ausklingen. Der Einschwingzeit analog ist der Geräuschanteil in diesem Zeitabschnitt. Weitere (erwünschte) Geräuschanteile nach dem Einschwingungsvorgang entstehen durch das Streichen des Bogens auf der Saite. Der Dynamikbereich der Streichinstrumente liegt circa 10 dB unter dem der Holzbläser. Das Violoncello deckt ungefähr einen Dynamikbereich von 35 dB ab und liegt damit knapp über der Violine mit 30 dB. Die Richtcharakteristik des Violoncelloklangs, die allerdings nur im Nahbereich (zum Beispiel bei der Mikrofonaufnahme) von Bedeutung ist, unterscheidet sich dadurch von den anderen Streichinstrumenten, dass sie sich zwischen 2000 und 5000 Hz bevorzugt in zwei Zonen (zum Boden und senkrecht nach oben) aufteilt. Spieltechnik Das Violoncello wird heute fast ausschließlich im Sitzen gespielt. Man stabilisiert es an vier Punkten: Mit dem Stachel auf dem Boden, mit den Zargen an den Innenseiten der Knie, mit dem oberen Ende des Korpus am Brustbein. Es wird etwas geneigt, so dass sich der Hals mit dem Griffbrett über der linken Schulter befindet und der Spieler aufrecht sitzen kann. Die linke Hand greift die Tonhöhen auf den Saiten, die rechte führt den Bogen. Schon vom 16. bis zum 18. Jahrhundert wurde das Violoncello von einigen Musikern im Stehen gespielt, wobei das Instrument auf einem Schemel abgestützt werden musste. Bei Umzügen wurde auch im Gehen gespielt und das Instrument dabei durch ein Band am Körper gehalten. Im 20. Jahrhundert wurde dann der Arnold Cello Stand entwickelt, der ein Spielen im Stehen ermöglicht. Die rechte Hand Wurde der Bogen in der Frühzeit des Violoncellos noch sehr oft im Untergriff gespielt (wie bei den Gamben und wie auch auf nebenstehender Grafik der jüdischen Hochzeit ersichtlich), so hat sich der Obergriff (wie bei der Violine und Bratsche schon lange üblich) im Hochbarock durchgesetzt. Doch noch Charles Burney berichtet von seiner italienischen Reise 1770, dass „Violonschellspieler den Bogen nach der alten Art halten, mit der Hand am Haare und den Daumen am Holze, wie bey dem Gambenspieler noch geschieht“. Sogar im Juli 1800 ist im Weimarer Journal des Luxus und der Moden ein Reisebericht aus Wien zu lesen, in dem bemerkt wird: „Herr Albrechtsberger selbst spielt mit einer Delikatesse und Präcision Violoncello, die man desto mehr bewundert, da er den Bogen wie der Violinspieler führt.“ Der Bogenführung kommt eine wichtige Rolle zu: sie bestimmt über Lautstärke, Klangfarbe, Artikulation und Rhythmus. Der Bogen wird abwechselnd nach rechts gezogen (Abstrich) und nach links geschoben (Aufstrich). Der Abstrich wird aus klanglichen und spieltechnischen Gründen eher für betonte Taktteile verwendet, der Aufstrich eher für unbetonte, insbesondere für Auftakte. Das gilt seit dem Barock. Allerdings sind die klanglichen Unterschiede zwischen Abstrich und Aufstrich beim Spiel mit modernem Instrument und Bogen minimal. Wenn der Cellist mehrere Töne mit demselben Ab- oder Aufstrich spielt, erklingen sie verbunden (Legato). Das Spiel mit ständigem Bogenwechsel zwischen allen Noten nennt sich Détaché. Sehr kurze Töne (Staccato) erklingen, wenn der Cellist die Saite mit dem Bogen nur anreißt. Daneben gibt es weitere Stricharten. Das Zupfen der Saiten mit den Fingern (Pizzicato) ermöglicht zusätzliche Klangeffekte. Der Cellist muss Druck, Geschwindigkeit und Strichstelle (Abstand der Kontaktstelle vom Steg) des Bogens unter Kontrolle haben. Dafür ist eine subtile Koordination zwischen Arm, Hand und Fingern erforderlich. Die Kraftübertragung vom Arm auf den Bogen geschieht durch eine Pronation des Unterarmes, wodurch der Zeigefinger Druck auf die Bogenstange ausübt. Den notwendigen Gegendruck dazu liefert der Daumen, der sich an der Kante des Frosches abstützt. Der kleine Finger dient der Kontrolle des Verkantungswinkels der Bogenhaare zur Saite und der Balance des Bogens beim Abheben des Bogens von der Saite. Bis in die 1930er Jahre wurde die Achse der Bogenhand oft horizontal fixiert gehalten; heutzutage wird eine flexible Haltung der Handinnenfläche bevorzugt: Beim Wechsel zum Abstrich minimal nach innen gedreht (Supination), beim Wechsel zum Aufstrich minimal nach außen (Pronation), das ist biomechanisch günstiger. Die linke Hand Applikatur und Positionen (Lagen) Die Tonhöhe jeder Saite kann durch die Verkürzung ihrer schwingenden Länge verändert werden. Je kürzer die schwingende Saite, desto höher die Frequenz und damit die Tonhöhe. Das geschieht durch Aufsetzen eines beliebigen Fingers an der gewünschten Stelle der Saite. Mit Percussion bezeichnet man den weichen bis härteren Anschlag der Finger auf dem Griffbrett. Es beschleunigt die Tonansprache und unterstützt die Klarheit der Artikulation. Vier-Finger-Positionen: In der ersten Lage schließt der erste Finger (Zeigefinger) ganz am Oberende des Griffbretts einen Ganzton über der Tonhöhe der leeren Saite an. Die übrigen Finger liegen meistens im Halbtonabstand daneben (enger Griff), so dass der vierte (kleine) Finger die Quarte des Saitengrundtons erreicht, auf der C-Saite ist es das F. Als zweite Möglichkeit wird der „weite Griff“ verwendet, mit Abspreizung des Zeigefingers, zwischen erstem und zweitem Finger entsteht dann ein Ganztonschritt. Jede folgende Lage bringt die Hand um eine Stufe der diatonischen Tonleiter weiter. Mit dem ersten Finger eine Quinte über dem Grundton der Saite ist die vierte Lage erreicht. Drei-Finger-Positionen: Von der fünften bis zur siebten Lage bleibt der Daumen meistens als stabilisierendes Gegenlager noch in der Halskehle. Wegen der größeren Streckung des Unterarms wird der vierte Finger hier nur selten verwendet. Auch bedingt durch die kleiner werdenden Abstände der Finger-Aufsetzpunkte sind nun Halb- oder Ganztonschritte zwischen allen Fingern möglich. Daumenpositionen: Auch der Daumen kann zum Greifen von Tönen gebraucht werden (Daumenaufsatz, Daumenlage), üblicherweise ab der 7. Lage. Als Orientierung dienen dann nur noch die Armposition und der Sekundabstand Daumen - erster Finger. Lagenwechsel: Veränderungen der Position der gesamten linken Hand auf dem Griffbrett. Die Lage bestimmt auch die Klanggestaltung eines Stücks, da der gleiche Ton (auf verschiedenen Saiten gespielt) unterschiedliche Partialtonstrukturen (Klangfarben) erhält. Doppelgriffe Doppelgriffe sind beim Violoncello wie bei allen Streichinstrumenten gebräuchlich. Der Bogen streicht dabei zwei benachbarte Saiten gleichzeitig, und die linke Hand greift auf einer oder auf beiden Saiten Töne. Drei- und Vierklänge können gleichzeitig nur relativ laut oder nacheinander als Arpeggio ausgeführt werden. Eine seltene Ausnahme wäre die Verwendung eines Rundbogens. Vibrato Beim Vibrato wiegt sich der Grifffinger periodisch um seinen Aufsetzpunkt, ohne diesen zu verlassen. Die entstehenden Tonhöhenschwankungen beleben den Ton. Flageolett Das Flageolett entsteht durch leichtes Auflegen eines Fingers auf einen Knotenpunkt der harmonischen Teiltöne der Saite. Dadurch entsteht ein weich und zart klingender, hoher Ton. Diese Flageolette bezeichnet man als die sogenannten „natürlichen“ Flageolette, da sie sich immer auf die entsprechende leere Saite beziehen und die natürlichen Obertöne der jeweiligen Saite angesprochen werden. So entspricht das auf der A-Saite an der Stelle von e’ gespielte Flageolett genau der Tonhöhe eines (eine Oktave höher liegenden) e’’, ein bei d’ gespieltes Flageolett hingegen entspricht a’’, das von der leeren Saite aus zwei Oktaven höher liegt. Die natürliche Obertonreihe lässt Naturflageolette in folgender Reihenfolge zu (jeweils vom vorhergehend Ton aus): Oktave – Quinte – Quarte – große Terz – kleine Terz. Viele der weiteren Partialtöne, die auf dem Cello durchaus noch zu produzieren sind, weisen Intonationsabweichungen von der reinen und der gleichstufigen Stimmung auf. Identische Flageolette lassen sich sowohl in Richtung Steg (hohe Lage) als auch in Richtung Sattel (tiefe Lage) spielen. Paradebeispiele für Naturflageolette beim Cello sind Schostakowitsch, Cellosonate op. 40/ 2. Satz ab den Takten 76 /112 oder das Ende des zweiten Satzes von Maurice Ravels Klaviertrio. Im Gegensatz zu den natürlichen Flageoletts stehen die sogenannten „künstlichen“. Dabei wird die leere Saite durch einen fest gegriffenen (meist mit dem ersten Finger oder dem Daumen) Ton ersetzt und (meist im Quart oder Terzabstand) ein weiterer Finger leicht aufgelegt. Dadurch lassen sich Flageolette in jeder beliebigen Reihenfolge und Tonhöhe spielen (Beispiele: Schostakowitsch Klaviertrio, 1. Satz, 1. Cellokonzert, 2. Satz, Messiaen Quatuor pour la fin du temps, 1. Satz.). Ein Profi muss diese Techniken beherrschen, insbesondere die Kenntnis über die Lagen der entsprechenden Flageolette. Vielfach lassen sich nämlich ungünstig notierte Flageolette (besonders Terz-Flageolette in tiefen Lagen, die selten gut ansprechen) durch entsprechende, besser spielbare Quart-Flageolette ersetzen. So ergibt zum Beispiel ein auf der G-Saite notiertes Terz-Flageolett a-cis, ausgeführt als Quartflageolett cis-fis dieselbe Tonhöhe, jedoch mit weniger Risiko. Ein weiterer Aspekt zum Flageolett-Spiel betrifft die Position des Bogens zwischen Griffbrett und Steg. Fälschlicherweise wird oft geraten, insbesondere bei künstlichen Flageoletten in hoher Lage nahe am Steg zu spielen. Das ist nur bedingt richtig: Der beste Effekt wird erzielt, wenn sich der Bogen zumindest in der Nähe eines dem gerade gespielten Flageolett entsprechenden Knotenpunkts der Obertonreihe befindet. Herkunft und bauliche Entwicklungen Das Violoncello ist der Bass der Viola-da-braccio-Familie, einer Gattung von Streichinstrumenten, die sich im 15. und 16. Jahrhundert parallel zu den Gamben entwickelt hatte. Zu dieser Familie gehören auch die heutigen Violinen und Violen. Alle diese Instrumente hatten drei oder vier in Quinten gestimmte Saiten. Ab etwa der Mitte des 16. Jahrhunderts waren vier Saiten häufig. Typische Stimmungen für das Bassinstrument waren F-c-g, B¹-F-c-g und C-G-d-a. Die Stimmung vom B¹ aus hielt sich in Frankreich und England nach Michel Corrette bis etwa 1715–1720, in Bologna war bis 1700 die Stimmung C-G-d-g üblich. Ab etwa 1730 überwog die Quintstimmung auf dem Ton C in ganz Europa. Manchmal wurden die frühen Bassgeigen bei Prozessionen getragen. Im Boden von alten Instrumenten findet man mitunter in der Nähe des Halses zwei kleine Löcher, durch die vermutlich eine Schnur gezogen und dann mit einem Tragegurt um die Schulter verbunden wurde. Das ermöglichte es den Musikern, auch im Stehen und Laufen zu spielen. Bekannte Geigenbauer des 16. Jahrhunderts, die bereits solche Instrumente anfertigten, sind u. a. Andrea Amati (ca. 1505–1577), Gasparo da Salo (1540–1609) und Giovanni Paolo Maggini (1581–1632). Im 17. Jahrhundert ist Antonio Stradivari (etwa 1644–1737) hervorzuheben, der den Schallkörper etwas verkleinerte und so die bis heute gültigen Maße festlegte, aber auch beispielsweise Domenico Montagnana und Matteo Goffriller. Neben den herkömmlichen Viersaitern entstanden in der Frühzeit des Violoncellos um 1700 auch fünfsaitige Modelle. Michael Praetorius kennt bereits 1619 eine fünfsaitige Bas-Geig de bracio in der Stimmung F1-C-G-d-a. Auf vielen zeitgenössischen Gemälden finden sich „Violoncelli“ mit einer fünften Saite. Ein solches auf 1717 datiertes Instrument aus Gent befindet sich im Musée Instrumental, Brüssel. Auch J. S. Bach komponierte seine Sechste Suite für Violoncello solo D-Dur (BWV 1012) für ein Violoncello mit einer fünften Saite, auf e′ gestimmt. Solche Instrumente werden heute Violoncello piccolo genannt, ein Begriff, der historisch jedoch fragwürdig ist. Anders als die Gambe erhielten einige Violoncelli schon kurz nach 1600 einen Stachel an der Unterseite des Korpus. Der Stachel wurde im Orchester ab etwa 1820 zunehmend verwendet; Solisten spielten jedoch häufig noch bis etwa 1850 „stachelfrei“. Der Stachel läuft durch eine Holzbirne, die in den Unterklotz eingelassen ist. Ab etwa 1860 setzte sich die Verwendung einer Feststellschraube für den Stachel durch. Grund für diese bauliche Veränderung war der häufigere Einsatz des Vibrato und der hohen Lagen. Die Größe der Violoncelli war im Barock nicht einheitlich. Es gab Instrumente in mehreren Größen, die der Bass-, Bariton- und Tenorlage entsprachen. Die kleineren Violoncelli wurden oft eine Quarte oder Quinte höher gestimmt. Die frühen Instrumente wurden teilweise mit Bünden versehen. Johann Joachim Quantz erwähnt diese Praxis noch in seinem Versuch. Eine besondere Bauform sind Reisecelli, zerlegbare Instrumente, bei denen der Korpus manchmal gleichzeitig als Transportbehälter für die demontierten Teile des Instruments und den Bogen diente. Solche Instrumente wurden verschiedentlich auch von Soldaten in den Schützengräben des Ersten Weltkriegs gespielt und sind daher heute teilweise auch als Trench Celli (Graben-Celli) bekannt, zusammen mit Instrumenten, die direkt an der Front gebaut wurden. Verwendung in der Musik Notation Der verwendete Notenschlüssel ist in erster Linie der Bassschlüssel. Hohe Passagen werden auch im Tenorschlüssel oder im Violinschlüssel notiert. In älteren Notenausgaben findet sich etwa bei Dvořák, Beethoven, Bruckner auch eine Notation im nach unten oktavierenden Violinschlüssel. Die Transposition des Violinschlüssels gilt dann regelhaft bei Verwendung unmittelbar nach dem Bassschlüssel oder zu Beginn eines Stückes (nicht dagegen nach einer Passage im Tenorschlüssel). In Ausgaben, die den Tenorschlüssel für mittelhohe Passagen einsetzen, ist der Violinschlüssel fast nie oktavierend zu verstehen. In Partituren wird die Cellostimme unten über der Stimme des Kontrabasses notiert. Fehlt diese, nimmt sie selbst den untersten Platz ein. Solistische Verwendung 17. Jahrhundert Durch die Einführung der Umspinnung der tiefen Saiten mit Metalldraht in der zweiten Hälfte des 17. Jahrhunderts konnten die vormals größeren Bassgeigen verkleinert werden und klangen in den tiefen Registern dennoch genügend laut und klar. Damit entstand das Violoncello, welches dann bis zum Ende des 18. Jahrhunderts die wichtige Rolle eines „Generalbass“-Instrumentes (zusammen mit Cembalo, Orgel oder Laute) einnahm. Die Melodie oblag zunächst hohen Instrumenten oder Stimmen, etwa in Violinsonaten, Flötensonaten, Arien usw. Allerdings gab es nach 1600 auch Solokompositionen (Sonaten, Canzoni, Suiten) für tiefe Instrumente, und zwar viele für die Viola da Gamba die größere Bassgeige oder den Dulzian, weniger für das Violoncello. Das Violoncello wird erstmals 1665 als Soloinstrument in den Sonate a due e a tre con la parte di violoncello a beneplacito op. 4 von Giulio Cesare Arresti erwähnt. Erste Solomusik für das Violoncello entstand am Ende des Jahrhunderts in Bologna und Modena. Hier waren die Cellisten Domenico Gabrielli (1689), Domenico Galli (1691), Giuseppe Maria Jacchini (1692) und Antonio Maria Bononcini (1693) die ersten, die ihr Instrument mit Kompositionen bedachten. 18. Jahrhundert Den Typus des solistischen Instrumentalkonzerts prägte entscheidend Antonio Vivaldi. Von ihm sind 27 Cellokonzerte erhalten. Vor allem er führte die Dreisätzigkeit (schnell-langsam-schnell) und die Ritornellform als gängige Kompositionsmethode ein. Letztere kennzeichnet fast alle ersten Sätze seiner Solokonzerte und meistens auch den letzten Satz. Johann Sebastian Bach, der regen Anteil an den instrumententechnischen Entwicklungen seiner Zeit nahm, widmete um 1720 dem Violoncello die bedeutenden sechs Suiten für Violoncello solo (BWV 1007–1012). Seit dieser Zeit setzte sich das Violoncello allmählich gegen die Gambe durch und bekam über den Generalbass hinaus eine eigene musikalische Bedeutung. Die Gambe kam bald darauf völlig außer Gebrauch. Um 1750 gab es außerhalb von Kirche und Hof eine lebendige bürgerliche Musikkultur. Kompositionen wurden oft nur einmal aufgeführt; das Publikum war vor allem an Neuem interessiert. So konnten die Werke der zahlreichen Komponisten häufig keinen größeren und längerfristigen Bekanntheitsgrad erreichen. Manches hat aber auch überdauert, etwa die mehr als 40 Cellosonaten, die Luigi Boccherini (1743–1805) komponierte. Außerdem sind von ihm zwölf Violoncellokonzerte bekannt. Diese ragen mit ihrem melodischen Glanz und ihrer spieltechnischen Brillanz auch unter den Cellokonzerten anderer italienischer Musiker aus dem letzten Drittel des 18. Jahrhunderts (u. a. Giovanni Battista Cirri, Luigi Borghi, Domenico Lanzetti) heraus. Die beiden Cellokonzerte von Joseph Haydn in C-dur (um 1762–1765) und D-dur (1783) zählen heute zu den meistgespielten Werken. Etwa ab 1770 etablierte sich das Violoncello in den entstehenden Formen der Kammermusik. Im Streichquartett, im Klaviertrio und den davon abgeleiteten Besetzungen (-quintett, -sextett usw.) war es seitdem regelmäßig vertreten. Der Sonatentypus für ein Melodieinstrument und Klavier, den wir heute als „klassisch“ bezeichnen, wurde vor allem von Ludwig van Beethoven weiterentwickelt. Nach dem Vorbild seiner fünf bedeutenden „Sonaten für Klavier und Violoncello“ schufen Komponisten im 19. Jahrhundert und in der ersten Hälfte des 20. Jahrhunderts über 150 Sonaten. 19. Jahrhundert Die Mehrzahl der bedeutenden Komponisten des 19. Jahrhunderts widmeten sich vor allem Violine und Klavier als konzertanten Instrumenten. Dennoch gibt es eine Reihe von Kompositionen für Violoncello und Orchester, die bis heute einen unangefochtenen Platz im Konzertrepertoire einnehmen. Dazu zählen vor allem die Violoncellokonzerte von Robert Schumann, Camille Saint-Saëns und Antonín Dvořák sowie die Rokokovariationen von Pjotr Iljitsch Tschaikowski. Von Beethoven gibt es außerdem ein „Tripelkonzert für Klavier, Violine und Violoncello“. Johannes Brahms komponierte zwei „Sonaten für Violoncello und Klavier“ sowie ein „Doppelkonzert für Violine und Violoncello“, das von Beethovens Tripelkonzert inspiriert ist. Der dritte Satz seines 2. Klavierkonzerts ist ebenfalls von einem Solocello dominiert, ohne dass dies jedoch außerhalb des Orchesters platziert und gesondert genannt wird, obwohl das Klavier und der Rest des Orchesters in diesem Satz eher begleitende Aufgaben übernehmen. Auch Camille Saint-Saëns schrieb zwei Cellosonaten. Des Weiteren hat das Violoncello in seiner Orchestersuite Le carnaval des animaux: fantaisie zoologique einen Auftritt als Le cygne, der Schwan. Zur Gruppe wichtiger Violoncellokomponisten zählen außerdem noch Felix Mendelssohn Bartholdy, Édouard Lalo, Eugen d’Albert, Edward Elgar sowie Max Bruch und Ferdinand Thieriot. 20. Jahrhundert Von den Komponisten des 20. Jahrhunderts ist das Violoncello als Soloinstrument reichlich bedacht worden. Viele Kompositionen, die es in seiner ganzen Vielfalt umfassen, wurden von den großen Virtuosen dieses Jahrhunderts inspiriert und sind diesen gewidmet. Allen voran sind wohl Pau Casals (oft: Pablo Casals) und Emanuel Feuermann, Mstislaw Rostropowitsch, Pierre Fournier, Jacqueline du Pré, Yo-Yo Ma, Mischa Maisky, Gregor Piatigorsky und, insbesondere als Interpret zeitgenössischer Musik, Siegfried Palm zu nennen. Für Rostropowitsch schrieb Dmitri Schostakowitsch zwei Konzerte; außerdem gibt es Konzerte und andere Solowerke u. a. von Kalevi Aho, Henri Dutilleux, Giorgio Federico Ghedini, György Ligeti, Witold Lutosławski, Krzysztof Penderecki, Sergei Prokofjew, Bernd Alois Zimmermann und Firəngiz Əlizadə, von denen einige für Palm komponiert wurden. Von dem tschechischen Komponisten Bohuslav Martinů wurden zwei Cellokonzerte und zahlreiche Sonaten für Violoncello verfasst. Der Zwölftontechnik in Violoncello-Kompositionen bedienten sich unter anderen Ernst Krenek und Hans Werner Henze. Im 20. Jahrhundert begann man auch in der Cellomusik zu experimentieren. Technische Neuerung machten das Speichern der Musik auf Tonträgern möglich, die elektronisch verändert und bearbeitet werden konnten. So befassten sich im 20. Jahrhundert erstmals Komponisten mit dem Violoncello in Verbindung mit Elektronik und Tonband, aber auch mit elektrisch verstärkten Violoncelli und ähnlichen Neuerungen. Eine Vielzahl spieltechnischer Erweiterungen wurden zum Beispiel in Helmut Lachenmanns Stück Pression für einen Violoncellisten komponiert. Die bis dahin ungewöhnlichen Spieltechniken wie Streichen mit Überdruck hinter dem Steg oder auf dem Saitenhalter, Klopfen und Reiben mit den Fingern auf der Korpusdecke, Streichen der Saiten von unten oder Flageolett-Glissandi produzieren eine große Palette von Klängen mit hohem Geräuschanteil. Die Werke ONE8 von John Cage und Mit diesen Händen von Dieter Schnebel entstanden unter Mitarbeit des Cellisten Michael Bach und beziehen mehrstimmige Klänge ein, die mit dem Rundbogen erzeugt werden. Im Orchester Obwohl J. S. Bach bereits um 1720 mit den „Sechs Suiten für Violoncello solo“ die Virtuosität des Cellospiels demonstrierte, gelangten die Violoncelli im Orchester auch in den folgenden Jahren nicht über ihre Funktion in der Bassführung hinaus. In den Partituren wurden die Violoncelli oft gar nicht namentlich erwähnt, sondern mit den Kontrabässen und anderen Instrumenten im untersten Notensystem als bassi zusammengefasst. Auch nach der Ablösung des Generalbasses in der Frühklassik änderte sich in der Wiener Klassik zunächst nichts an der Bassrolle der Violoncelli im Orchester. Schon Joseph Haydn aber trennte in seinen Sinfonien die Violoncelli zeitweise von den Kontrabässen und komponierte für sie eigene Stimmen. Ludwig van Beethoven führte diese Idee weiter und betraute die Violoncelli auch mit der Melodieführung, so zu Beginn seiner 3. Sinfonie oder im 2. Satz seiner 5. Sinfonie, in dem die Celli, unisono mit den Bratschen, das erste Thema anstimmen. Der Schriftsteller und Musikkritiker E. T. A. Hoffmann (1776–1822) äußerte sich 1812 in seiner Rezension der Coriolan-Ouvertüre von Beethoven über die neue Rolle der Violoncelli im Orchester: Seit Beethoven wurde das Violoncello neben seinen harmoniefüllenden Funktionen oft als Melodieinstrument in der Tenorlage verwendet. Eines der ersten Beispiele dafür ist das zweite Thema im 1. Satz von Schuberts Unvollendeter. Zu den schönsten Orchestersoli für die Violoncelli zählt der dritte Satz der Sinfonie Nr. 3 in F-Dur, op. 90 von Johannes Brahms. Auch Pjotr Iljitsch Tschaikowski (zum Beispiel im 2. Satz der Symphonie pathétique), Antonín Dvořák (8. Sinfonie, Anfang), Claude Debussy (eine Passage im ersten Satz von „La Mer“) und viele andere Komponisten haben dem Instrument dankbare Aufgaben zugedacht. Im Ballett „Le sacre du printemps“ von Igor Strawinski (1882–1971) haben die Violoncelli im zweiten Stück „Die Vorboten des Frühlings – Tänze der jungen Mädchen“ mit ihren Staccatorhythmen einen markanten Auftritt. Moderne Verwendungen Das Violoncello spielt wegen der Vielfalt seiner klanglichen Möglichkeiten auch außerhalb der klassischen Orchestermusik eine Rolle: Beim argentinischen Tango Nuevo wird häufig auch ein Violoncello eingesetzt. Im Jazz wurde das Violoncello durch den Cellisten und Kontrabassisten Oscar Pettiford populär. Ihm folgten Jazzmusiker wie Ron Carter, Dave Holland, Abdul Wadud, Hank Roberts und David Baker. Der Celloklang wurde zum Teil auch elektronisch verstärkt, verzerrt oder – wie im Falle von Zoë Keating – vervielfacht. Siehe auch → Jazzcello Ein komplett elektrisches Cello, also E-Cello, hat keinen Resonanzkörper und ist dadurch kleiner und leichter als ein normales. Unverstärkt ist es beim Spielen nahezu lautlos. Die Band Rasputina verwendet in ihrer Musik fast ausschließlich Cello, damit prägte die Band auch den Musikstil „Cello Rock“. Seit dem Ende der 1960er Jahre begegnet man dem Violoncello in der Rockmusik. Schon die Beatles experimentierten auf ihren Studioalben mit Celloklängen. Als Vorreiter führte Roy Wood, der vor allem mit dem Electric Light Orchestra assoziiert wird, das Violoncello als festen Bestandteil eines Ensembles in die Bühnenpraxis von Rock ’n’ Roll und Popmusik ein. Außerdem schrieb einer der wohl bekanntesten zeitgenössischen Komponisten, Andrew Lloyd Webber, ein modernes Album für Celli, welches sich aus Variationen eines Themas von Paganini zusammensetzt Im Jahr 1996 begannen vier finnische Cello-Studenten der Sibelius-Akademie in Helsinki, Lieder ihrer Lieblingsband, der Metal-Formation Metallica, auf dem Cello zu spielen. Als Prüfung an der Akademie wählten sie daraus vier Stücke aus. Daraus entstand die finnische Cello-Rock-Gruppe Apocalyptica, die Instrumentalmusik mit elektronisch verstärkten und veränderten Celloklängen praktiziert. Während das erste Album Plays Metallica by Four Cellos lediglich auf Cello gespielte Metallica-Stücke enthielt, beinhalteten die nachfolgenden Alben neben Coverversionen von unter anderem Metallica, Slayer, Sepultura und Rammstein auch stets Eigenkompositionen. Im Verbund mit dem Flamenco-Gitarristen Pedro Bacàn öffnete Ramón Jaffé dem Violoncello das Tor zum Flamenco. Den Weg beschreitet Jaffé nach dem Tode Bacàns mit seinem eigenen Ensemble. Auch die Band Coppelius benutzt das Cello anstelle der E-Gitarre. Das Duo 2Cellos, bestehend aus Luka Šulić und Stjepan Hauser, ist im klassischen, überwiegend aber im Rock-verwandten Genre sowie in der Filmmusik unterwegs. Sie nutzen das gesamte Klangpotenzial ihrer Instrumente und bauen es in Arrangements mit Tontechnik ein. Der Rockmusiker Peter Gabriel setzte zuletzt bei seinen Alben Orchesterelemente ein. Bei seinen Tourneen Back to Front Tour von 2012–2014 begleitete ihn Linnea Olsson und bei der I/o The Tour 2023 Ayanna Witter-Johnson am Violoncello. Pädagogik Kleine Violoncelli Für Kinder, die das Instrument erlernen, gibt es neben dem normalen 4/4-Cello (Korpuslänge etwa 750 mm) auch Instrumente in kleineren Ausführungen. 1/16-Cello 1/8-Cello – Korpuslänge 510 mm 1/4-Cello – Korpuslänge 590 mm 1/2-Cello – Korpuslänge 655 mm 3/4-Cello – Korpuslänge 690 mm 7/8-Cello – Korpuslänge 720 mm Aus der Bruchzahl lässt sich nicht direkt auf die Größe des Instruments schließen. So beträgt die Größe eines 3/4-Cellos etwa 90 % eines 4/4-Cellos, die eines 1/8-Cellos noch 65 %. Unterrichtswerke für das Cellospiel Vor 1900 Michel Corrette: Méthode, théorique et pratique. Pour apprendre un peu de tems le Violoncelle dans sa perfection. (1741) Jean-Louis Duport: Essai sur le doigté du Violoncelle et sur la conduite de l’archet. (zwischen 1806 und 1819?) Friedrich August Kummer: Violoncelloschule für den ersten Unterricht op. 60. (1839) Bernhard Romberg: Violoncell-Schule. (1840) Sebastian Lee: Violoncell-Schule op. 30. (1845) Friedrich Dotzauer: Celloschule. Nach 1900 Louis R. Feuillard: La technique du violoncelle. Joachim Stutschewsky: Das Violoncellspiel. Systematische Schule vom Anfang bis zur Vollendung. (1932–1937) Folkmar Längin: Praktischer Lehrgang für das Violoncellospiel. 5 Bände. (? 1950–1960) Susanne Hirzel: Violoncelloschule. (1959). Mit Originalbeiträgen von Bohuslav Martinů. Doris und Hans-Peter Linde: Violoncellofibel. 2 Bände. (1978?) Antal Friss: Schule für Violoncello. Egon Saßmannshaus: Früher Anfang auf dem Violoncello. (neu 2008) Gerhard Mantel: Cello mit Spass und Hugo. Michael Bach: Fingerboards & Overtones, Bilder, Grundlagen und Entwürfe eines neuen Cellospiels. (1991) Walter Mengler: Mit dem Cello auf Entdeckungsreise: die andere Celloschule. 3 Bände. Bosworth Verlag, (1995–1998), [vermutlich digital] ISBN 978-3-936026-08-5. Julia Hecht: Cello spielen – Eine Einführung für neugierige Erwachsene. Edition Peters EP11057A/B, 2 Bände (2007–2009) Gabriel Koeppen: Celloschule. (2012) Siehe auch Liste von Cellisten Theremincello Literatur Michael Bach: Fingerboards & Overtones, Bilder, Grundlagen und Entwürfe eines neuen Cellospiels. edition spangenberg, München 1991, ISBN 3-89409-063-4. Julius Bächi: Berühmte Cellisten. Porträts der Meistercellisten von Boccherini bis zur Gegenwart. Atlantis Verlag, Zürich 1998, ISBN 3-254-00121-4. Harald Eggebrecht: Grosse Cellisten. Mit zwei Exkursen über große Bratschisten und 69 Abbildungen. Geleitwort von Janos Starker. Piper, München /Zürich 2007, ISBN 978-3-492-04669-5. Albert E. Kahn: Pablo Casals: Licht und Schatten auf einem langen Weg. Erinnerungen. Fischer Taschenbuch, Frankfurt am Main 1979, 1995, ISBN 3-596-21421-1. Maria Kliegel: Mit Technik und Fantasie zum künstlerischen Ausdruck. Mainz 2006, ISBN 3-7957-0562-2 (mit 2 DVDs). Gerhard Mantel: Cellotechnik. Köln 1972 (Überarbeitete Auflage: Schott Music, Mainz u. a. 2011, ISBN 978-3-7957-8749-3). Gerhard Mantel: Cello üben. Schott, Mainz 1999, ISBN 3-7957-8714-9 (Eine Methodik des Übens, nicht nur für Streicher). Gerhard Mantel: Intonation. Schott, Mainz 2005, ISBN 3-7957-8729-7. Klaus Marx: Die Entwicklung des Violoncells und seiner Spieltechnik bis J. L. Duport (1520–1820). Gustav Bosse Verlag, Regensburg 1963. Winfried Pape, Wolfgang Boettcher: Das Violoncello. Bau, Technik, Repertoire. 2. Auflage. Schott, Mainz 2005, ISBN 3-7957-0283-6 (Standardwerk zu Geschichte, Technik und Repertoire). Gregor Piatigorsky: Mein Cello und ich und unsere Begegnungen. dtv, München 1998, ISBN 3-423-20070-7 (humorvoll erzählte Autobiografie des berühmten Cellisten). William Pleeth: Das Cello. Ullstein, Frankfurt am Main 1985, ISBN 3-7163-0198-1 (Philosophie des Cellospiels, Spieltechnik, Geschichte und eine Liste weniger bekannter Werke). Ralf Schnitzer: Die Entwicklung der Violoncellpädagogik im frühen 20. Jahrhundert. Peter Lang Verlag, Frankfurt am Main 1995, ISBN 3-631-48708-8. Brunhard Böhme: Entwicklung und Aspekte des Vibratos auf dem Violoncello. (ESTA-Bulletin 1984). Weblinks Internet Cello Society (englisch) Instrument des Jahres 2018: Das Cello Webseite der Initiative Instrument des Jahres Ludwig Frankmar: Über die Frühen Violoncelli (2019) Joshua Propst: Evolution of the Cello in Music (pdf, 2017) Einzelnachweise Streichinstrument Chordophon
Q8371
261.171245
13889
https://de.wikipedia.org/wiki/Bluetooth
Bluetooth
Bluetooth [] ist ein in den 1990er Jahren durch die Bluetooth Special Interest Group (SIG) entwickelter Industriestandard für die Datenübertragung zwischen Geräten über kurze Distanz per Funktechnik (WPAN). Dabei sind verbindungslose sowie verbindungsbehaftete Übertragungen von Punkt zu Punkt und Ad-hoc- oder Piconetze möglich. Der Name „Bluetooth“ leitet sich vom dänischen König Harald Blauzahn (dänisch Harald Blåtand, ) ab, der Teile von Norwegen und Dänemark unter seiner Herrschaft vereinte. Das Logo zeigt ein Monogramm der altnordischen Runen ᚼ (H wie Hagalaz) und ᛒ (B wie Berkano). Die Funkverfahren für Bluetooth wurden ursprünglich in wesentlichen Teilen durch den Niederländer Jaap Haartsen und den Schweden Sven Mattisson für Ericsson entwickelt. Andere Teile wurden vor allem von Nokia und Intel ergänzt. Bluetooth bildet eine Schnittstelle, über die sowohl mobile Kleingeräte wie Mobiltelefone und PDAs als auch Computer und Peripheriegeräte miteinander kommunizieren können. Hauptzweck von Bluetooth ist das Ersetzen von Kabelverbindungen zwischen Geräten. Sollen zwei Geräte über Bluetooth verbunden werden, muss dies auf mindestens einem der Geräte aktiv durch einen Nutzer angestoßen werden, wozu es in der Praxis – unter anderem abhängig von den Gerätetypen – unterschiedliche Verfahren gibt. Der Prozess des Verbindens heißt Koppeln oder Pairing (engl.), die Geräte sind nach dessen Erfolg gekoppelt. Technischer Hintergrund Geräte nach den Standards der Bluetooth SIG senden als Short Range Devices (SRD) in einem lizenzfreien ISM-Band (Industrial, Scientific and Medical Band) zwischen 2,402 GHz und 2,480 GHz. Sie dürfen weltweit zulassungsfrei betrieben werden. Störungen können aber zum Beispiel durch WLANs, Schnurlostelefone (DECT-Telefone in Europa haben ein anderes Frequenzband) oder Mikrowellenherde verursacht werden, die im selben Frequenzband arbeiten. Um Robustheit gegenüber Störungen zu erreichen, wird ein Frequenzsprungverfahren (frequency hopping) eingesetzt, bei dem das Frequenzband in 79 Kanäle im 1-MHz-Abstand eingeteilt wird, die bis zu 1600-mal in der Sekunde gewechselt werden. Es gibt jedoch auch Pakettypen, bei denen die Frequenz nicht so oft gewechselt wird (Multislot-Pakete). Am unteren und oberen Ende gibt es jeweils ein Frequenzband als Sicherheitsband (engl.: „guard band“) zu benachbarten Frequenzbereichen. Theoretisch kann eine Datenübertragungsrate von 706,25 kbit/s beim Empfang bei gleichzeitigen 57,6 kbit/s beim Senden erreicht werden (asymmetrische Datenübertragung). Ab der Version 2.0 + EDR können Daten mit EDR (Enhanced Data Rate) maximal etwa dreimal so schnell übertragen werden, also mit rund 2,1 Mbit/s. Bereits ab Version 1.1 kann ein Bluetooth-Gerät gleichzeitig bis zu sieben Verbindungen aufrechterhalten, wobei sich die beteiligten Geräte die verfügbare Bandbreite teilen müssen (Shared Medium). Bluetooth unterstützt die Übertragung von Sprache und Daten. Allerdings können die meisten Geräte während der notwendigerweise synchronen Übertragung von Sprache lediglich drei Teilnehmer in einem Piconet verwalten. Eine Verschlüsselung der übertragenen Daten ist ebenfalls möglich. Klassen und Reichweite Die tatsächlich erzielbare Reichweite hängt außer von der Sendeleistung von einer Vielzahl von Parametern ab. Hierzu zählen beispielsweise die Empfindlichkeit eines Empfängers und die Bauformen der auf Funkkommunikationsstrecken eingesetzten Sende- und Empfangsantennen. Auch die Eigenschaften der Umgebung können die Reichweite beeinflussen, beispielsweise Mauern als Hindernisse innerhalb der Funkkommunikationsstrecken. Auch die Typen der Datenpakete können wegen Unterschieden in Länge und Sicherungsmechanismen Einfluss auf die erzielbare Reichweite haben. Um höhere Übertragungsraten über das weltweit verfügbare 2,45-GHz-ISM-Frequenzband zu ermöglichen, spezifizierte die Bluetooth SIG die Alternate-MAC/PHY-Bluetooth-Erweiterung; hierbei wird Bluetooth um die PHY- und MAC-Schicht der IEEE-802.11-Spezifikationen (WLAN-Standards) erweitert. Diese wurde mit Bluetooth 5.3 wieder verworfen. Abhör- und Eindringsicherheit Als abhörsicher oder sicher gegen unbefugtes Eindringen gelten Bluetooth-Übertragungen nur dann, wenn sie als Verbindung mit mehrstufiger dynamischer Schlüsselvergabe betrieben werden. Bei statischer Schlüsselvergabe ist die Sicherheit eingeschränkt. Bei Übertragung des Schlüssels ist genau dieser Teil der Kommunikation besonders gefährdet, da erst der erfolgreiche Schlüsselaustausch eine Verbindung schützt. Bluetooth gilt nur dann nicht mehr als sicher, wenn der PIN-Code zu kurz gewählt ist (etwa vier Dezimalziffern oder weniger). Die israelischen Forscher A. Wool und Y. Shaked beschrieben in ihrem Artikel vom Frühjahr 2005 ein Verfahren, mit dem Lauscher eine vorhandene, abhörsichere Verbindung unterbrechen und unter Umständen in eine neue Verbindung einbrechen können. Dieses Daten-Phishing beruht darauf, eine bestehende Verbindung durch entsprechende Störsignale zu unterbrechen und die Teilnehmer dazu zu bewegen, erneut eine authentifizierte Verbindung aufzubauen. Dabei müssen die Angegriffenen erneut ihre PIN bei den verwendeten Geräten eingeben. Die daraufhin stattfindende Authentifizierung mit Neuaushandlung des Verbindungsschlüssels kann dann mit einfach erhältlicher Spezialhardware abgehört und bei schlecht gewählter (weil zum Beispiel achtstellig-numerischer) PIN durch Ausprobieren geknackt werden. Dieser Brute-Force-Angriff kann durch FPGA-Boards weiter beschleunigt werden. Dies ist kein rein akademischer Angriff, und zum Beweis existiert ein frei zugängliches Programm namens BTCrack. Der Angreifer befindet sich nach erfolgreichem Angriff im Besitz des geheimen Verbindungsschlüssels und kann beliebige Verbindungen zu den angegriffenen Geräten aufbauen. Jedoch muss der Angreifer die Bluetooth-Adresse eines verbundenen Bluetooth-Moduls kennen. Dies kann, entgegen weitläufigen Meinungen, nicht durch den „Unsichtbarkeitsmodus“ unterbunden werden. Dieser Angriff ist dann möglich, wenn der Angreifer die Kommunikation während des Pairing-Prozesses abhört, der Angegriffene eine Neu-Authentifizierung vornimmt und er eine zu kurze PIN verwendet. Für Geräte, die die Schlüssel permanent speichern, besteht demnach keine Gefahr, da nach Verbindungsstörungen oder manuellem erneuten Verbindungsaufbau keine erneute PIN-Authentifizierung ausgelöst wird, sondern auf den auf beiden Geräten gespeicherten Schlüssel zurückgegriffen wird. Als Schutz vor solchen Angriffen empfehlen die Autoren daher, Gegenstellen möglichst selten mit PIN-Eingabe anzumelden. Sicherer sei es, einmal erkannte Gegenstellen dauerhaft in den jeweiligen Authentifizierungslisten zu speichern und eine Reauthentifizierung per PIN zu deaktivieren. Außerdem sollten Benutzer PINs mit deutlich mehr als acht Zeichen Länge verwenden, falls die verwendete Software dies gestattet. Das Bluetooth-Protokoll sieht bis zu 16 beliebige Zeichen (128 Bit) vor. Darüber hinaus sollte eine unerwartete Aufforderung zur erneuten Authentifizierung hellhörig machen und zur Vorsicht mahnen. Fehlerbehandlung Bluetooth kennt bis zur Version 2.0 zwei elementare Arten der Fehlerbehandlung (sofern verwendet): 1/3- und 2/3-FEC-Blockcodierung; ermöglicht Fehlerkorrektur beim Empfänger ARQ (Automatic Repeat Request), ermöglicht Fehlererkennung beim Empfänger. Bei Fehlern wird das entsprechende Paket neu angefordert. Systemarchitektur Ein Bluetooth-Netzwerk (Piconet) besteht aus bis zu acht aktiven Teilnehmern, welche über eine 3-Bit-Adresse angesprochen werden können. Alle nicht aktiven Geräte können im Parkmodus die Synchronisation halten und auf Anfrage im Netz aktiviert werden. Für den Parkmodus gibt es eine 8-Bit-Adresse, welche 255 Teilnehmer („slaves“) ansprechen kann. Darüber hinaus kann über die 48-Bit-Geräteadresse die Anzahl der passiven Teilnehmer nochmal erhöht werden. Der „Master“ steuert die Kommunikation und vergibt Sende-Zeitspannen (engl. „slots“) an die „Slaves“ (Zeitmultiplexverfahren). Ein Bluetooth-Gerät kann in mehreren Piconetzen angemeldet sein, allerdings nur in einem Netz als Master fungieren. Bis zu zehn Piconetze bilden ein Scatternet (von to scatter = ausstreuen), wobei die Teilnehmer untereinander in Kontakt treten können. Jedes Piconet wird durch eine unterschiedliche Frequency-Hopping-Folge identifiziert. Die Datenrate leidet in diesem Scatternet jedoch meist erheblich. Solche selbstorganisierenden Funknetzwerke – Scatternet – werden proprietär implementiert, bis heute ist keine allgemeine Lösung standardisiert. Das ist dadurch begründet, dass kein Algorithmus definiert werden kann, der allen Anforderungen an ein Scatternet gleichzeitig gerecht wird und hinreichend schlank und damit schnell bleibt. Bluetooth-Basisband Es werden zwei unterschiedliche physische Datenkanäle zur Verfügung gestellt. Die synchrone Datenübertragung ist zur Übertragung von Sprachdaten mit einer Datenrate von 64 kbit/s gedacht. Dieses Verfahren heißt leitungsvermittelte oder synchrone Verbindung (Synchronous Connection-Oriented – SCO). Die andere Übertragungsform ist die Paketvermittlung oder asynchrone Verbindung (Asynchronous Connectionless – ACL), die ein speicherndes Verhalten des Übertragungsgerätes voraussetzt – wie bei der Internet-Technik. Alles außer Sprache wird über ACL übertragen, neben allen Arten von Daten insbesondere auch Musik. Das Bluetooth-Protokoll unterstützt einen asymmetrischen Datenkanal mit Datenraten in der Version 1.2 von maximal 732,2 kbit/s in eine Richtung und 57,6 kbit/s in die Gegenrichtung, oder eine symmetrische Datenverbindung mit 433,9 kbit/s in beide Richtungen. In der EDR-Version sind höhere Datenraten erzielbar. Bis zur Version 1.2 gibt es für die SCO-Übertragung nur HV1-, HV2- und HV3-Pakete mit guter Fehlerkorrektur (HV1) bis zu keiner (HV3). Diese Pakete enthalten Audiodaten für 1,25 ms, 2·1,25 ms oder 3·1,25 ms und werden dementsprechend alle 1,25 ms, 2·1,25 ms und 3·1,25 ms gesendet. HV1 kann benutzt werden, wenn keine anderen Daten gesendet werden müssen. Allerdings hat diese Betriebsart den höchsten Stromverbrauch, weswegen fast alle Geräte HV3-Pakete nutzen. Dies hat den Vorteil, dass man nur ein Drittel der Bandbreite für Audio benötigt und den Rest der Bandbreite für ACL-Verbindungen zum selben oder zu anderen Geräten zur Verfügung stellen kann. Mit der Version 1.2 wurde ein erweiterter synchroner Übertragungsmodus (enhanced SCO, eSCO) eingeführt. Dazu wurden neue Pakettypen und eine flexiblere Einteilung der Übertragungsperiode eingeführt. Ebenso ermöglicht dies, andere Audio-Formate zu übertragen wie z. B. der SBC-Codec, der auch in der HFP-Version 2.0 eingeführt werden soll. Werden gerade keine synchronen Datenpakete versandt, kann Bluetooth die asynchrone Übertragung anbieten. Hierüber werden alle Dienste, sowohl das Versenden von Nutzdatenpaketen als auch die Übermittlung von Steuerinformationen, zwischen zwei Bluetooth-Stationen abgewickelt. Bluetooth-Datenpakete bestehen aus einem 72-Bit-Zugriffscode, einem 54-Bit-Header sowie einem variablen Nutzdatenfeld von 0 Bit bis 2745 Bit (Pakettyp DH5) Länge. Für Bluetooth 2.0 °+ EDR sind bis zu 8168 Bit Nutzdaten pro Paket (3-DH5) möglich. Verbindungsaufbau Der Aufbau einer Verbindung erfolgt immer unter der Protokollarchitektur nach Bluetooth V2.1 usw. (Neu ist ab Standard Bluetooth V3.0 und mit dem Protokoll Bluetooth V4.0 Low Energy ein verbindungsloser Betrieb in Sende- und Empfangsrichtung möglich). Eine Verbindung kann von einem beliebigen Gerät ausgehen, das sich dadurch zum „Primary“ über die antwortenden „Secondary“ erhebt. Sobald Bluetooth-Geräte in Betrieb gesetzt werden, identifizieren sich die einzelnen Bluetooth-Controller innerhalb von zwei Sekunden über eine individuelle und unverwechselbare 48 bit lange MAC-Adresse. Im Bereitschafts-Modus lauschen unverbundene Geräte in Abständen von bis zu 2,56 Sekunden nach Nachrichten (Scan Modus) und kontrollieren dabei 32 Hop-Frequenzen. Der Kontakt zu den Secondary wird durch eine Inquiry-Nachricht (von = Erkundigung) und danach durch eine Page-Message (von (engl.) = (per Lautsprecher) ausrufen, (engl.) = Nachricht) hergestellt, falls die Hardware-Adresse der Geräte unbekannt ist. Bei bekannter Adresse fällt der erste Schritt weg. Im Page-Zustand sendet der Master 16 identische Page-Telegramme auf 16 unterschiedlichen Hopping-Frequenzen, die für die Slaves bestimmt sind. Danach befinden sich die Stationen im Status verbunden. Durchschnittlich wird eine Verbindungsaufnahme innerhalb des halben Scanintervalls, z. B. 2,56/2 Sekunden (1,28 Sekunden), erreicht. Findet der Primary keinen Secondary innerhalb einer eingestellten Zeit, so werden auf weiteren 16 Hopping-Frequenzen Page-Telegramme gesendet. Diese Gruppierung soll bei bekannter „Slave Clock“ einen zügigen Verbindungsaufbau gewährleisten. Beim adaptiven Hopping werden die Frequenzen ausgelassen, die bereits durch andere Primary belegt sind. Seit 2005 kann zum Verbindungsaufbau zweier Bluetooth-Geräte optional Near Field Communication (NFC) genutzt werden. Dieses zusätzliche RF-Protokoll unterstützt Bluetooth insbesondere beim erstmaligen Pairing von Bluetooth-OBEX. Bluetooth-Protokollarchitektur Die Bluetooth-Spezifikation wurde von der Bluetooth Special Interest Group (SIG) entwickelt. Sie enthält Protokolle in einer hierarchischen Ordnung (Protokollstapel, engl. protocol stack), mit denen interaktive Dienste und Anwendungen möglich werden, die über mobile Funkverbindungen kommunizieren. Diese stellen das Regelwerk dar, nach dem sich alle Bluetooth-Geräte richten müssen und werden mit Hilfe von Funkmodulen hergestellt. Sie sind verbindungslos oder verbindungsorientiert. Sie lässt sich aufteilen in eine obere Schicht, die jenen auf dem Bluetooth-Modul entspricht, und eine untere Schicht, welche auf dem Host-Gerät angesiedelt ist und in ihrer Gesamtheit für die Bereitstellung und Sicherung sowie Sicherheit der Verbindung zuständig ist. Die Bluetooth Special Interest Group (SIG) hat zudem auch verschiedene Einsatzmodelle der Bluetooth-Technik entworfen. Die Spezifikation beinhaltet eine Beschreibung der Protokolle, mit denen diese Einsatzmodelle implementiert werden können. Spezielle Zusammenstellungen nach diesen Modellen werden mit den Profilen benutzt. Mit Bluetooth Low Energy wird kein Energiesparmodus bezeichnet, sondern ein spezieller Protokollstapel, der sich vom zuvor bekannten Protokollstapel unterscheidet, ihn aber nicht ersetzt, sondern neue Möglichkeiten für geringen Energieverbrauch eröffnet. Energiesparmodi Wenn keine Daten zu übertragen sind, kann eine Verbindung zwischen einem Primary und einem Secondary in einen Energiesparmodus versetzt werden. Es gibt drei Energiesparmodi: Der HOLD-Modus wird zur asynchronen Abwesenheit eingesetzt. Zum Beispiel kann ein Secondary mitteilen, dass er ab einem gewissen Zeitpunkt für 200–500 ms nicht zuhört. Der Primary adressiert dann den Secondary für die angegebene Zeit nicht, und der Secondary hört dann auch nicht auf Primary-Pakete. Beide Geräte können dann die Zeit für andere Aktivitäten nutzen (scanning, scatternet etc.). Der SNIFF-Modus (von (engl.) = schnüffeln) wird zur reduzierten periodischen Aktivität eingesetzt. Es kann z. B. ein Secondary oder Primary mitteilen, dass er nur noch alle 50 ms für einige Zeitfenster („slots“) zuhört. Der SNIFF-Modus wird bei fast allen Geräten, die Energieverbrauch senken sollen, eingesetzt. Der PARK-Modus wird eingesetzt, um ein Gerät synchronisiert zu halten. Das Gerät kann aber nicht aktiv am Datenverkehr teilnehmen. Der Park-Modus wird zwar von fast allen Chipsätzen unterstützt, aber trotzdem kaum angewendet. Details zur Reduzierung des Energieverbrauchs zwecks geringerer Belastung kleiner Batterien sind bei allen bisherigen und neuen Modi von der jeweiligen Abstimmung von Primary und Secondary abhängig. Sicherheitsmodi Der Bluetooth-Standard definiert folgende drei Sicherheitsstufen, von der unsichersten angefangen hin zur sichersten: Modus 1 (Non-Secure Mode): In diesem Modus gibt es keine Sicherheitsmechanismen. Die Geräte wechseln nur fortlaufend die Frequenz, um das Abhören zu erschweren. Modus 2 (Service-Level Enforced Security): In diesem Modus liegt es bei den benutzten Diensten, auf dem Application Layer Sicherheitsmechanismen durchzusetzen. Dienste können für alle Geräte offen sein, nur eine Authentifizierung vorsehen oder noch zusätzlich eine Autorisierung erfordern. Modus 3 (Link-Level Enforced Security): In diesem Modus findet schon beim Verbindungsaufbau eine Authentifizierung auf dem Link Layer statt. Verschlüsselung ist optional. Viele Mobiltelefone können per Bluetooth Daten übertragen. Böswillige Angreifer können unter Umständen per Bluetooth durch unvorsichtig konfigurierte Geräte oder fehlerhafte Implementierungen des Bluetooth-Protokolls in den Geräten hohen finanziellen Schaden durch den Anruf kostenpflichtiger Telefon- und SMS-Dienste verursachen, private Nutzerdaten lesen, Telefonbucheinträge schreiben und die Liste angerufener Nummern zwecks Vertuschung manipulieren. Allgemeine, geräteunabhängige DoS-Angriffe auf Netzwerkprotokollebene sind mit einfachen Mitteln möglich (z. B. „Ping“-Anforderungen mit großen Paketen). Bluetooth-Protokollstapel Bluetooth-Protokollstapel sind Softwarepakete mit Treibern, die eine Verbindung mit Bluetooth-Geräten ermöglichen und Dienste zur Verwendung unterschiedlicher Bluetooth-Profile enthalten. Welchen Stack man benutzen kann, hängt vom Treiber und vom verbauten Chip ab. Die bekanntesten Protokollstapel bzw. deren Hersteller sind: Affix BlueFRITZ! von AVM (Entwicklung eingestellt) BlueSoleil von IVT BlueZ (Standard unter Linux) In The Hand lwBT Microsoft Stollmann Toshiba Widcomm von Broadcom Bluetooth-Stack ist auch eine Bezeichnung für Softwarepakete, die für die Entwicklung von Java-Anwendungen mit Bluetooth-Funktionalität benötigt werden. Soll beispielsweise eine J2ME-Anwendung mit einem J2SE-Server kommunizieren können, wird neben einem Bluetooth-Treiber (s. o.) ein Bluetooth-Stack als Schnittstelle zwischen dem Treiber (z. B. Widcomm) und Java benötigt. Bluetooth-Stacks für Java sind beispielsweise: Avetana BlueCove Bluetooth-Profile Daten werden zwischen Bluetooth-Geräten gemäß sogenannten Profilen ausgetauscht, die für die Steuerung bestimmter Dienste als Schicht über der Protokollschicht festgelegt sind. Sobald eine Bluetooth-Verbindung aufgebaut wird, wählen die Geräte das jeweils benutzte Profil aus und legen damit fest, welche Dienste sie für die jeweiligen anderen Partner zur Verfügung stellen müssen und welche Daten oder Befehle sie dazu benötigen. Ein Headset fordert beispielsweise von einem Bluetooth kompatiblen Mobiltelefon einen Audiokanal an und steuert über zusätzliche Datenkanäle die Lautstärkeeinstellung oder -regelung. Geschichte 1940 entwickelte Hedwig Eva Maria Kiesler, international besser als Filmschauspielerin unter dem Namen Hedy Lamarr bekannt, eine Funkfernsteuerung für Torpedos, die sie zum Patent anmeldete. Diese sollte durch selbsttätig wechselnde Frequenzen schwer anzupeilen und weitgehend störungssicher sein. Das von ihr dabei früh zur praktischen Anwendung gebrachte Frequenzsprungverfahren (englisch frequency-hopping) ging später als ein Grundbaustein in die Entwicklung unter anderem von Bluetooth ein. Für ihre Erfindung erhielt Lamarr 1997 den Electronic Frontier Foundation Pioneer Award. Seit den späten 1980er Jahren gibt es verschiedene Bestrebungen, das Kabelgewirr rund um eine Computerinstallation durch Funkperipherie (z. B. Funktastaturen, Drucker mit Infrarotschnittstelle etc.) zu vermeiden. Verschiedene Unzulänglichkeiten (hoher Stromverbrauch, gegenseitige Störungen usw.) und vor allem fehlende Standards verhinderten den Durchbruch dieser Anfänge. Damals war neben der Funktechnik die Infrarottechnik sehr beliebt, und es sah so aus, als ob sich letztere durchsetzen würde. Um ein herstellerübergreifendes Protokoll zu entwickeln, schlossen sich im August 1993 ca. 30 Unternehmen zusammen (darunter HP, IBM, Digital) und gründeten die Infrared Data Association (IrDA). Ziel war es, ein einheitliches Protokoll für die Datenübertragung per Infrarot zu schaffen. Zahlreiche Erkenntnisse aus der IrDA-Entwicklung flossen später auch in den neugewonnenen Bluetooth-Funkstandard ein. Doch hatte die IrDA-Technik mit einem zentralen Nachteil zu kämpfen: Dem erforderlichen Sichtkontakt zwischen Sender und Empfänger. Daher wurde 1994 die Firma Ericsson mit einer Machbarkeitsstudie beauftragt, die einen funkbasierten Ersatz für Kabelverbindungen finden sollte. Die Studie lieferte ein positives Ergebnis, und 1998 gründeten Ericsson, Nokia, IBM, Toshiba und Intel die Bluetooth Special Interest Group (SIG) zur Ausarbeitung eines Standards, der verbindliche Spezifikationen festlegte. Als erste endgültige Spezifikation veröffentlichte die SIG Version 1.0a im Juli 1999, Version 1.0b folgte im Dezember desselben Jahres. Erst im Februar 2001 wurde der Standard in der Version 1.1 vorgelegt. Dieser galt als die erste solide Basis für marktgerechte Produkte, da die Vorversionen eine Reihe von Ungenauigkeiten und Fehlern aufwiesen. Die Namensgebung „Bluetooth“ ist eine Hommage an den dänischen Wikingerkönig Harald Blauzahn, der für seine Kommunikationsfähigkeit bekannt war. Ihm gelang es im 10. Jahrhundert, Dänemark weitgehend zu vereinen und zu christianisieren. Der Name „Bluetooth“ war ursprünglich ein Codename für die entwickelte Technik, der später mangels guter Alternativen auch als Markenname verwendet wurde. Die Wahl eines skandinavischen Namensgebers erfolgte wegen der hohen Beteiligung der Firmen Ericsson und Nokia an der Bluetooth-Entwicklung. Versionen bis Bluetooth 3.0 Eine Auswahl wichtiger Eigenschaften der bisherigen Bluetooth-Versionen, die allesamt nicht mehr dem Überarbeitungsstand der Version 4.0 vom Dezember 2009 (s. o.) entsprechen, sind: Bluetooth 1.0 und 1.0B (Juli 1999) Enthielten Sicherheitsprobleme durch Bluetooth Hardware Device Address Transmission (BD_ADDR); Geräte unterschiedlicher Hersteller waren nicht interoperabel; maximale Datenübertragungsrate von 732,2 kbit/s Bluetooth 1.1 (Februar 2001) Indikator für die Signalstärke hinzugefügt Received Signal Strength Indication (RSSI); Probleme mit Verbindungsabbrüchen im Zusammenspiel mit WLAN-Netzen; maximale Datenübertragungsrate von 732,2 kbit/s Bluetooth 1.2 (November 2003) Weniger empfindlich gegen statische Störer (zum Beispiel WLAN) durch Adaptive Frequency-Hopping spread spectrum (AFH); neue Pakettypen für synchrone Übertragung (eSCO); maximale Datenübertragungsrate von 1 Mbit/s Bluetooth 2.0 + EDR (November 2004) Etwa dreifache Datenübertragungsgeschwindigkeit durch Enhanced Data Rate (EDR) mit maximal 2,1 Mbit/s; abwärtskompatibel, d. h., es können gleichzeitig EDR- und Nicht-EDR-Verbindungen bedient werden. Bluetooth 2.1 + EDR (auch Lisbon Release genannt, August 2007) Neue Funktionen wie Secure Simple Pairing (SSP), Quality of Service (QoS), Extended Inquiry Response (EIR). Bluetooth 3.0 + HS (auch Seattle Release genannt, April 2009) Für diese Version ist die Unterstützung eines zusätzlichen Highspeed (HS)-Kanals auf Basis von WLAN und UWB verfügbar. Die Nutzung von WLAN ist dabei lokal deutlich eingeschränkt. Die Kommunikation funktioniert zwischen einzelnen Geräten (Peer-to-Peer) und nicht durch Verteilung (Multicast). Dafür braucht sich der Nutzer auch nicht anzumelden, die L2CAP-Protokollschicht wurde erweitert, um neben dem Standard-Bluetooth-Kanal zusätzlich diesen Highspeed-Kanal zu unterstützen (UnicastConnectionless Data (UCD)). Damit kann eine theoretische Übertragungsrate von 24 Mbit/s erreicht werden. Bei UWB (Ultrabreitband) als physikalische Übertragungsart (basierend auf der Spezifikation ECMA-368) und WiMedia MAC als Protokollschicht waren bis zu 480 Mbit/s geplant. Auf dieser Spezifikation hätten auch andere Protokolle wie WUSB und IP aufgesetzt werden sollen. Die Spezifikation wurde im Oktober 2009 aufgegeben. Zudem wurden Enhanced Power Control (EPC) eingeführt. Bluetooth 3.0 + EDR „EDR“ steht für „Enhanced Data rate“. Bluetooth 4.0 Die Spezifikation 4.0 wurde am 17. Dezember 2009 verabschiedet. Mit diesem Standard wurde erstmals der Protokollstapel Low Energy verfügbar und neue Profile zu Low Energy kamen seitdem laufend hinzu. Entsprechende Chips waren in kleinen Stückzahlen bereits ab dem 4. Quartal 2010 verfügbar, weitere Hinweise ließen mit Bluetooth 4.0 ausgestattete Mobiltelefone ab dem 1. Quartal 2011 erwarten. Im Juni 2011 schließlich waren Bluetooth-4.0-konforme Chips bereits von Atheros, CSR, Nordic Semiconductor, Texas Instruments, Toshiba sowie EM Microelectronic Marin verfügbar. Der Standard 4.0 ist abwärtskompatibel mit allen Vorgänger-Versionen. Für Verbindungen mit den bisherigen Protokollen kommt eine verbesserte Fehlerkorrektur zum Einsatz, für das erforderliche Maß an Sicherheit soll eine AES-Verschlüsselung mit 128 Bit verwendet werden. Bluetooth Low Energy/Smart ist ein Teil des 4.0-Standards, bietet allerdings keine Abwärtskompatibilität. Dafür ist es möglich, in weniger als fünf Millisekunden eine Übertragung aufzubauen und diese bis zu einer Entfernung von 100 Metern aufrechtzuerhalten. Der wichtigste Vorteil bei Einsatz von Bluetooth Low Energy in neuen Endgeräten ist die Reduzierung des Stromverbrauchs durch Optimierungen wie die kürzere Aufbauzeit für eine Übertragung oder die Schlafphasen zwischen den synchronisierten Sendezyklen. Allerdings können dadurch keine Audiodaten mehr übertragen werden. Hybride Geräte, die sowohl Bluetooth Classic als auch Bluetooth Low Energy unterstützen, werden „Smart Ready“ genannt. Ankündigungen zur Verfügbarkeit von Endgeräten mit Bluetooth 4.0 blieben bis Mitte 2011 spekulativ und ohne Bestätigung der Lieferbarkeit. Seitdem sind eine Vielzahl verschiedener Endgeräte unterschiedlicher Hersteller auf dem Markt, die den Bluetooth-4.0-Standard unterstützen. Da Android Bluetooth 4.0 erst in der Mitte 2013 erschienenen Version 4.3 unterstützt, kam es zwischenzeitlich zu der Situation, dass manche Mobiltelefone zwar hardwareseitig Bluetooth 4.0 unterstützten, dies aber mangels entsprechenden Bluetooth-Protokollstapels nicht nutzen konnten. Bluetooth 4.1 Im Dezember 2013 wurde Version 4.1 (rein softwareorientiertes Update) der Bluetooth-Spezifikation veröffentlicht. Seit dieser Version wird seitens Kleinstgeräten kein Vermittler mehr benötigt, da alle Geräte sowohl im Host- als auch im Clientmodus arbeiten können. Daraufhin wurden umgehend erste Geräte mit dem neuen Standard angekündigt, z. B. das Samsung Galaxy Note 4 und das Nexus 6. Bluetooth 4.2 Smart Im Dezember 2014 wurde der Bluetooth-4.2-Standard vorgestellt. Hauptaugenmerk bei der Entwicklung waren erweiterte Sicherheitsmerkmale, eine höhere Übertragungsgeschwindigkeit und ein noch sparsamerer Bluetooth-Low Energy-Modus. Des Weiteren umfassten die generellen Verbesserungen kleinere Datenpakete und längere Akkulaufzeiten. Außerdem werden seither lediglich Verbindungen mittels ESS und AES-CMAC zugelassen. Geräte wie das Samsung Galaxy Note 5 und das Apple iPhone 6 unterstützen diesen Standard. Bluetooth 5 Am 16. Juni 2016 wurde Bluetooth 5 offiziell angekündigt. Demnach sollte die Reichweite vervierfacht (100 m) und die Datenrate verdoppelt (2 Mbit/s brutto ohne EDR) werden; zusätzlich sollten neue Dienste wie Standortübermittlung eingeführt werden. Die endgültige Verabschiedung fand am 6. Dezember 2016 statt. Das Samsung Galaxy S8 war das erste Smartphone, in welches Bluetooth 5 implementiert worden war. Seit Anfang 2020 ist der überwiegende Teil der angebotenen Smartphones mit Bluetooth 5 ausgerüstet. Wie angekündigt können Datenraten von bis zu 2 Mbit/s, unter Verwendung von EDR sogar bis zu 3 Mbit/s, erreicht werden. Reichweiten von sogar bis zu 200 Metern werden jedoch nur mit Geräten der 5.x-Versionen erzielt. Neben der Einführung der Übermittlung standortbezogener Informationen (unter anderem zwecks Navigation) wurde außerdem das sogenannte Periodic Advertising eingeführt; mittels diesem sind Clients in der Lage, den Host zu informieren, wann das nächste Datenpaket gesendet wird, sodass in der inaktiven Zeit die Verbindung abgeschaltet und somit Energie gespart werden kann. Bluetooth 5.1 Anpassungen aus den Jahren 2019 und 2020 dienten der Optimierung der Version 5.0; dennoch brachten beide nennenswerte neue Funktionen auf den Markt. Bei Version 5.1 betrifft dies das sogenannte Direction Finding, welches es Mobilgeräten ermöglicht, die Richtung von Objekten sehr präzise zu erkennen. Weitere Schritte für eine Verbesserung der Standortdienste werden in der Spezifikation angekündigt. Bluetooth 5.2 Version 5.2 bietet insbesondere Verbesserungen im Audio-Bereich. Mit LE-Audio wird ein neuer Audio-Stack eingeführt, der unter anderem deutlich energiesparendere Übertragung ermöglicht, was insbesondere sehr kleinen kabellosen Kopfhörern zugutekommt, aber auch Hörgeräte mit Bluetooth ermöglichen soll. Broadcast-Audio ermöglicht das Senden eines Audio-Streams an beliebig viele Empfänger. Mit Bluetooth 5.2 wird der Low Complexity Communications Codec (LC3) als neuer Standard-Codec eingeführt und löst damit den SBC-Codec ab. LC3 ermöglicht neben Übertragungen mit geringer Verzögerung erstmals auch die Audio-Übertragung mit hoher Qualität, ohne auf optionale Codecs zurückgreifen zu müssen. Bluetooth 5.3 Version 5.3 enthält mehrere Funktionserweiterungen, die den Herstellern von IoT-Geräten und Anwendungsentwicklern Verbesserungen in Bezug auf Zuverlässigkeit, Energieeffizienz und Benutzerfreundlichkeit bieten soll. Unter anderem wurde die Kontrolle der Verschlüsselungsschlüsselgröße verbessert, indem der Host eine Mindestlänge des Verschlüsselungsschlüssels festlegen kann, die der Controller akzeptieren muss. Bluetooth 5.4 Die Bluetooth SIG hat am 7. Februar 2023 die Bluetooth Core Specification Version 5.4 veröffentlicht. Diese neue Version fügt die folgenden Funktionen hinzu: Periodic Advertising with Response (PAwR) Encrypted Advertising Data LE GATT Security Levels Characteristic Advertising Coding Selection Einsatzbereiche Computer Zum Betrieb von Bluetooth am PC ist spezielle Hardware erforderlich. Manche Computer (zumeist Notebooks) haben diese bereits integriert, ansonsten sind auch kleine, an der USB-Schnittstelle angeschlossene Geräte oder PCMCIA-Karten für diesen Zweck erhältlich. Außerdem spielt das verwendete Betriebssystem eine entscheidende Rolle. Unter Microsoft Windows ist es seit Windows XP SP2 dank des mitgelieferten Microsoft Bluetooth-Stacks nicht mehr erforderlich, einen speziellen Treiber zu installieren. Eine größere Auswahl an unterstützenden Profilen hat man jedoch mit den Bluetooth-Stacks anderer Hersteller. Auch aktuelle Linux-Distributionen und Apple-Macintosh-Modelle unterstützen Bluetooth durch eigene, jeweils zertifizierte Bluetooth-Stacks. Wer einen PC mit Bluetooth zur Verfügung hat, kann außerdem mit der passenden Software andere Bluetooth-Geräte in Reichweite aufspüren und, je nach Funktionsumfang der Software, eine detaillierte Auflistung der offenen Dienste einsehen. Solche Software wird als Bluetooth-Scanner bezeichnet. Bluetooth-Anwendungen am Computer SCO-Audio: synchroner Headset-Betrieb (Skype, SIP usw.) AV- oder A2DP-Audio: HiFi-Musikwiedergabe geeignet zum Anschluss eines oder mehrerer Kopfhörer Mobiltelefon-Synchronisation (Kontakte, Musikdateien, mobiler Internetzugang usw.) HID: Eingabegeräte wie Maus und Tastatur Motion Capturing: Übertragung von Bewegungsdaten an den Auswertungscomputer (zum Beispiel Xsens MVN) Zwei-Faktor-Authentifizierung nach dem U2F-Standard der FIDO-Allianz Freisprechanlagen, Headsets und Lautsprecher Viele Autoradios fungieren als Freisprechanlage, indem sie das Mobiltelefon über Bluetooth einbinden, so dass auf die Installation spezieller Handy-Halterungen im Auto verzichtet werden kann. Über Bluetooth kann nicht nur ein Anruf entgegengenommen werden, sondern auch gewählt und navigiert werden. Sinnvolle Zusatzinformationen wie Nummer des Anrufers bzw. dessen Namen werden ebenfalls vom Handy-Adressbuch per Bluetooth an das Autoradio übertragen. Auch Freisprechanlagen außerhalb des Autos funktionieren über Bluetooth. Headsets, die über Bluetooth verbunden werden, können oft über eine entsprechende Taste auch eingehende Anrufe entgegennehmen. Die Unterstützung solcher Steuerfunktionen (z. B. Aktivierung des Sprachassistenten am Smartphone) variiert stark mit den verwendeten Geräten und ist abhängig von den Hersteller-Chips, resp. deren Programmierung gemäß den Möglichkeiten der entsprechenden Bluetooth-Protokollstapel. Seit etwa den späten 2010er Jahren bekamen zudem über Bluetooth etwa mit dem Smartphone koppelbare, transportable und robuste Lautsprecherboxen mit integriertem Audioverstärker zunehmend Bedeutung zum Musikhören unterwegs oder in der Natur. Spielgeräte Die Spielzeugindustrie verwendet diese Technik, um Puppen und Spielzeugtiere untereinander kommunizieren und interagieren zu lassen. Auch die Controller der Spielkonsolen Wii / Wii U / Switch / PlayStation 3 / PlayStation 4 / PlayStation 5 / Xbox One S / Xbox One X, Lego Mindstorms EV3 und der Ouya nutzen Bluetooth zur Kommunikation mit der Konsole. Kommunikation Bluetooth-Hotspots als Funkzelle ermöglichen einen schnurlosen Zugriff auf ein Netzwerk, wie das Internet oder ein Unternehmens-LAN. Audiogeräte ohne Bluetooth, insbesondere ältere Mobiltelefone und Festnetztelefone, können über einen angeschlossenen Adapter eingeschränkt um Bluetooth erweitert werden. Speziell für Motorradsprechanlagen wird in den letzten Jahren von vielen Herstellern vermehrt Bluetooth eingesetzt, mit Reichweiten bis zu 1,6 km. Besondere Vorteile sind sehr kleine Baugrößen und der Verzicht auf störende Kabel. Über Bluetooth können auch universelle zusätzliche Faktoren für die Zwei-Faktor-Authentifizierung mit Betriebssystemen oder Webbrowsern kommunizieren, wie zum Beispiel Security-Tokens für den offenen U2F-Standard der FIDO-Allianz. Industrie Aufgrund des eingesetzten adaptiven Frequenzsprungverfahrens (AFH) bietet Bluetooth eine sehr zuverlässige und störungsresistente Funkverbindung. Dieser Vorteil von Bluetooth gegenüber anderen Funktechniken wurde frühzeitig von verschiedenen Herstellern für Automatisierungsprodukte (z. B. Phoenix Contact, WAGO Kontakttechnik GmbH & Co. KG, Schildknecht AG) erkannt. Daraufhin wurden Bluetooth-basierende Industrieprodukte entwickelt, die in verschiedensten Bereichen der Industrie eingesetzt werden, um kabellos zwischen verschiedenen Komponenten in Maschinen zu kommunizieren. Mittlerweile hat die PROFIBUS Nutzerorganisation e. V. (PNO) Bluetooth neben WLAN als Trägerverfahren für kabellose Übertragung von PROFINET-Datenpaketen auf der Feldbus-Ebene definiert. Auf der Sensor/Aktor-Ebene wurde im PNO-Standard WSAN-FA ebenfalls 802.15.1 als Trägertechnologie verwendet, jedoch mit einem anderen Protokollstack. Auch die Vereinigung CAN in Automation (CiA) plant die Spezifikation eines auf Bluetooth basierenden Systems für die kabellose Übertragung von CAN-Telegrammen. Insgesamt untermauern die Standardisierungsbestrebungen die Tauglichkeit von Bluetooth für die industrielle Automation. Haustechnik Im Bereich Hausautomation und Alarmsysteme gibt es Produkte, welche Bluetooth 2.0 nutzen. Eine weitere Anwendung ist Bluetooth als Schlüssel, wofür jedes Bluetooth-fähige Gerät als Schlüssel eingesetzt werden kann. Es ist hierfür keine weitere Software auf den Geräten (Mobiltelefone) notwendig. Medizintechnik In der Orthopädietechnik wird Bluetooth zur Einstellung moderner Arm- und Beinprothesen verwendet. Einstellungen wie Standphasendämpfung und Maximallast lassen sich per Bluetooth vornehmen. Hörgeräte in höheren Preisklassen sind ebenfalls mit Bluetooth-Empfängern erhältlich. Damit lassen sich die Signale von Mobiltelefonen und Audio-Geräten selektiv über einen Transponder ohne umgebungsbedingte Verzerrungen auf das Hörgerät übertragen. Der Transponder kommuniziert über Bluetooth und überträgt die Informationen in den Funkbereich der Hörgeräte. Bei einigen Insulinpumpen dient Bluetooth als Schnittstelle zur Kommunikation mit einem Blutzuckermessgerät, einer Fernbedienung oder einem Personalcomputer. Beim kontinuierlichen Glukosemonitoring übermittelt der Sensor die Daten per Bluetooth an ein Empfangsgerät oder Smartphone. Auch hierbei kann eine Insulinpumpe per Bluetooth eingebunden werden. Auch gibt es EKG-Geräte, die für die Übertragung der aufgezeichneten Daten Bluetooth verwenden. Anmerkungen „HID Proxy Mode“ für Computer ohne Bluetooth-Unterstützung Üblicherweise stehen die Bluetooth-Eingabegeräte erst dann zur Verfügung, wenn das Betriebssystem und dessen Bluetooth-Stack geladen sind. Dadurch ist es nicht möglich, mit einer Bluetooth-Tastatur z. B. vor dem Laden des Betriebssystems Einstellungen im BIOS oder im UEFI-Einstellungsmenü vorzunehmen oder den PC per „Wake up on Keyboard“-Funktion aus dem S4-Ruhezustand zu wecken oder aus dem ausgeschalteten Modus einzuschalten. Zudem ist bei einigen Systemen das Nachrüsten einer Bluetooth-Schnittstelle aus verschiedenen Gründen nicht problemlos möglich. Dazu gehören viele Smart-TVs, viele Microcontroller-Boards, NAS-Systeme, Rack-Server. Einige Bluetooth-Adapter überwinden diese Probleme durch den „HID Proxy Mode“. Durch einen Mikrocontroller stellen solche Adapter selbst einen Bluetooth-Stack für Bluetooth-Eingabegeräte zur Verfügung. Diese Geräte können sich mit dem Bluetooth-Adapter vor dem Laden des Betriebssystems verbinden und somit für die Wake-Up-on-Keyboard-Funktion oder Änderungen im BIOS oder im UEFI-Einstellungsmenü verwendet werden. Der Bluetooth-Adapter gibt sich dabei dem BIOS und der UEFI-Firmware gegenüber als normales USB-HID-Eingabegerät aus. Er übergibt die BT-Funktionalität an das Betriebssystem, sobald dessen Bluetooth-Treiber und Bluetooth-Stack geladen sind, womit dann neben Bluetooth-Eingabegeräten auch andere Bluetooth-Geräte verwendet werden können. Die UEFI-Firmware könnte auch selbst einen Bluetooth-Stack für Bluetooth-Eingabegeräte zur Verfügung stellen, so dass Bluetooth-Eingabegeräte auch ohne HID-Proxy-Mode-Unterstützung bereits im UEFI-Menü verwendet werden können. Eine konkrete Implementierung eines Bluetooth-Stacks für die UEFI-Firmware gibt es jedoch bislang nur bei Apple-Rechnern. Siehe auch Bluebugging Bluejacking Bluesnarfing Toothing WiMAX ZigBee Literatur Martin Sauter: Grundkurs Mobile Kommunikationssysteme. Von UMTS und HSDPA, GSM und GPRS zu Wireless LAN und Bluetooth Piconetzen. 3., erweiterte Auflage. Vieweg, Wiesbaden 2008, ISBN 978-3-8348-0397-9. Andreas Merkle, Anestis Terzis: Digitale Funkkommunikation mit Bluetooth. Theorie und Praxis, Bluetooth-Simulator, konkurrierende Systeme. Franzis, Poing 2002, ISBN 3-7723-4654-5. Ralf Gessler, Thomas Krause: Wireless-Netzwerke für den Nahbereich. Springer Vieweg, Wiesbaden 2015, ISBN 978-3-8348-1239-1. Weblinks Offizielle Website der Bluetooth-SIG Bluetooth 1.0 / 1.1 / 1.2 (IEEE 802.15) im Elektronik-Kompendium CRE 169 Ein Blick in Struktur und Sicherheit des Bluetooth Protocol Stacks, Tim Pritlove und Martin Herfurt über Bluetooth (Podcast) Einzelnachweise
Q39531
221.229709
6009
https://de.wikipedia.org/wiki/1838
1838
Ereignisse Politik und Weltgeschehen Die Auflösung der Zentralamerikanischen Konföderation 30. April: Nicaragua löst sich aus der Zentralamerikanischen Konföderation und erklärt sich für unabhängig. nach dem 23. Mai: Auf dem Pfad der Tränen, englisch Trail of Tears, erfolgt die Ermordung und Vertreibung von Cherokee-Indianern (USA, Vertrag von New Echota, Präsidenten Jackson und Martin Van Buren) 26. Oktober: Honduras scheidet aus der zentralamerikanischen Konföderation aus. 5. November: Endgültige Konstituierung von Honduras als unabhängiger Republik. Neue Hauptstadt wird Comayagua 14. November: Costa Rica tritt aus der Zentralamerikanischen Konföderation aus Der Kuchenkrieg 27. November: Im Kuchenkrieg beschießt die französische Flotte das mexikanische Fort San Juan de Ulúa und die nahe Stadt Veracruz. 30. November: Im Kuchenkrieg verkündet Mexiko gegenüber Frankreich nach dem Angriff von dessen Flotte auf Veracruz den Kampf. Weitere Ereignisse in Lateinamerika 13. Januar: Die Truppen des konservativen Militärs José Rafael Carrera Turcios erobern das von Liberalen regierte Guatemala-Stadt. Die Soldaten beginnen mit Plünderungen, Morden und Vergewaltigungen. 6. August: Chile bricht den Friedensvertrag von Paucarpata mit Peru und eröffnet neue Kämpfe im Peruanisch-Bolivianischen Konföderationskrieg. Chilenische Truppen landen in der Stadt Ancón, die Flotte blockiert den Hafen Callao. Yucatán erklärt seine Unabhängigkeit von Mexiko Ozeanien 30. November: Auf Pitcairn wird das erste nachhaltige Frauenwahlrecht eingeführt. Asien 1. Oktober: Manifest von Shimla – der britische Generalgouverneur von Indien, Lord Auckland, erklärt den afghanischen Emir Dost Mohammed für abgesetzt, Auslöser des Ersten Anglo-Afghanischen Kriegs. Afrika 16. Dezember: Die Buren besiegen die Zulu in der Schlacht am Bloodriver. Europa 20. Mai: Josef Niederer gründet in Genf den Grütliverein. Mai: In Großbritannien wird die People's Charter mit Forderung nach politischen und sozialen Reformen in Glasgow öffentlich verkündet. 28. Juni: Victoria wird in einer feierlichen Zeremonie zur Königin von Großbritannien und Irland gekrönt. Kniebeugestreit in Bayern Die portugiesischen Cortès verabschieden eine liberale Verfassung für das Königreich. Die Gemeinde Maulbronn wird gegründet. Wirtschaft Geldpolitik 30. Juli: Im Dresdner Münzvertrag wird der Doppeltaler als gemeinsame Münze des Deutschen Zollvereins geschaffen. 5. September: Die Leipziger Bank wird als private Notenbank Sachsens gegründet. Unternehmensgründungen 3. November: Als The Bombay Times and Journal of Commerce wird in Britisch-Indien die heutige Tageszeitung The Times of India gegründet. Die Zeitschrift Historisch-politische Blätter für das katholische Deutschland wird gegründet. Gründung der Maschinenbauanstalt und Eisengießerei Schweffel & Howaldt, heute Howaldtswerke-Deutsche Werft GmbH (HDW) Die Preußische Rentenversicherungsanstalt wird eröffnet. Verkehr 8. April: Die Great Western, das größte Dampfschiff seiner Zeit, läuft im englischen Bristol zu seiner Jungfernfahrt nach New York aus. 23. April: Im Hafen von New York trifft das erste Dampfschiff aus Europa ein. Beginn eines planmäßigen Dampfschiffverkehrs über den Nordatlantik zwischen England und New York. Gegenüber einem Segelschiff reduziert sich die Reisezeit um die Hälfte. 22. September: Die Stammbahn, die erste Eisenbahnlinie Preußens, geht auf der Teilstrecke Potsdam–Zehlendorf in Betrieb. 29. Oktober: Die Bahnstrecke der Berlin-Potsdamer Eisenbahn ist fertiggestellt und wird als erste Eisenbahnlinie Preußens eröffnet. 1. Dezember: Die Herzoglich Braunschweigische Staatseisenbahn wird eröffnet, die erste staatliche Eisenbahn in Deutschland. Wissenschaft und Technik Naturwissenschaften Friedrich Bessel berechnet durch Parallaxenmessung die Entfernung zu einem Stern. Mathias Schleiden erklärt die Zelle als Grundbaustein aller Pflanzengewebe. Als erster Band der von Charles Darwin herausgegebenen The Zoology of the Voyage of H.M.S. Beagle erscheint Fossil Mammalia. Lehre und Forschung Die Duke University in North Carolina wird gegründet. Sonstiges 6. Januar: Die Erfinder Samuel F. B. Morse und Alfred Vail führen einen modifizierten Schreibtelegrafen vor. Wiederentdeckung der Stadt Xanthos durch Charles Fellows Kultur Bildende Kunst Das Centraal Museum Utrecht wird gegründet. Literatur Veröffentlichung des Märchen Gockel, Hinkel, Gackeleia von Clemens Brentano Der Roman Oliver Twist von Charles Dickens wird veröffentlicht. Musik und Theater 30. Januar: Die Uraufführung der Oper Maria de Rudenz von Gaetano Donizetti findet am Teatro La Fenice in Venedig statt. Das Libretto stammt von Salvatore Cammarano. Literarische Grundlage sind die Werke La nonne sanglante von Anicet-Bourgeois, Cuvelier und Maillan sowie The Monk von Matthew Gregory Lewis. Schon nach der zweiten Aufführung wird das Werk wieder aus dem Programm genommen. 5. März: Uraufführung der Oper Guido et Ginevra ou La peste de Florence von Fromental Halévy in Paris 6. März: Das Lustspiel Weh dem, der lügt! Franz Grillparzer wird am alten Wiener Burgtheater am Michaelerplatz uraufgeführt. Grillparzer entnahm den Stoff der Historia Francorum von Gregor von Tours. Das Stück stößt beim Publikum auf Unverständnis und löst nach der Aufführung einen Skandal aus, der Grillparzer bewegt, sich von der Öffentlichkeit zurückzuziehen. 10. März: Glück, Mißbrauch und Rückkehr, eine Posse mit Gesang von Johann Nestroy, wird am Theater an der Wien bei Wien uraufgeführt und mit Begeisterung aufgenommen. 10. Juni: Uraufführung der Oper Le comte de Saint-Mégrin (La duchesse de Guise) von Friedrich von Flotow in Royaumont 19. Juli: Uraufführung der Oper Falstaff von Michael William Balfe in London 24. September: Uraufführung der komischen Operette Die Verjüngerungs-Essenz von Conradin Kreutzer am Theater am Kärntnertor in Wien 1. November: Uraufführung der komischen Oper Der Schöffe von Paris von Heinrich Dorn in Riga 15. November: Uraufführung der komischen Oper Lady Melvil von Friedrich von Flotow am Théâtre de la Renaissance in Paris Gesellschaft 26. Februar: In Mainz findet der erste Rosenmontagszug statt. 27. November: Großherzog August stiftet den Oldenburgischen Haus- und Verdienstorden. Oktavian Graf Kinsky, tschechischer Fürst, begründet die Kinsky-Pferdezucht. Religion 27. Oktober: Der Gouverneur im US-Bundesstaat Missouri verfügt die Ausweisung aller Mormonen aus seinem Staat. 12. Dezember: In München wird der Ludwigs-Missionsverein gegründet, der mit Förderung des Königs Ludwig I. die römisch-katholische Kirche in Nordamerika und in Asien unterstützt. Historische Karten und Ansichten Geboren Januar/Februar 2. Januar: Jules Brunet, französischer Offizier († 1911) 5. Januar: Henri Dubois, Schweizer evangelischer Geistlicher und Hochschullehrer († 1928) 5. Januar: Marie Ennemond Camille Jordan, französischer Mathematiker († 1922) 6. Januar: Max Bruch, deutscher Komponist und Dirigent († 1920) 7. Januar: Vilmos Győry, ungarischer Schriftsteller und Übersetzer († 1885) 8. Januar: Eleonore de Ahna, deutsche Opernsängerin († 1865) 11. Januar: Giovanni Cagliero, Kardinal der römisch-katholischen Kirche († 1926) 13. Januar: Ernst Christian Achelis, evangelischer Theologe († 1912) 13. Januar: Joseph Higgins, römisch-katholischer Bischof († 1915) 14. Januar: Ulrich Meister junior, Schweizer Förster und Politiker († 1917) 16. Januar: Franz Brentano, deutscher Philosoph und Psychologe († 1917) 19. Januar: Carl Alexander von Martius, deutscher Chemiker († 1920) 21. Januar: George H. Hoffman, US-amerikanischer Politiker († 1922) 24. Januar: Johan Cesar Godeffroy, deutscher Kaufmann und Hanseat († 1912) 28. Januar: Abraham Kuhn, elsässischer Arzt und Professor († 1900) 28. Januar: James Craig Watson, US-amerikanischer Astronom († 1880) 29. Januar: Edward W. Morley, US-amerikanischer Chemiker († 1923) 4. Februar: Tomaso Benvenuti, italienischer Komponist († 1906) 6. Februar: Eduard Hitzig, deutscher Hirnforscher († 1907) 6. Februar: Henry Irving, britischer Schauspieler († 1905) 7. Februar: August von Miaskowski, deutscher Nationalökonom († 1899) 7. Februar: Carl Mendelssohn Bartholdy, deutscher Historiker († 1897) 12. Februar: Kaspar Kögler, deutscher Maler und Schriftsteller († 1923) 14. Februar: Philipp Johann Berdellé, deutscher Architekt († 1903) 15. Februar: Ludwig Brill, deutscher Lehrer und Dichter († 1886) 16. Februar: Henry Adams, Historiker und Schriftsteller († 1918) 17. Februar: Fjodor Fjodorowitsch Beilstein, deutsch-russischer Chemiker († 1906) 18. Februar: Ernst Mach, österreichischer Physiker und Philosoph († 1916) 19. Februar: Lydia Thompson, britische Tänzerin († 1908) 23. Februar: Johanna Willborn, deutsche Pädagogin und Schriftstellerin († 1908) 24. Februar: Eracle Arion, rumänischer General († 1903) 26. Februar: Wendelin Weißheimer, deutscher Komponist, Kapellmeister und Musikschriftsteller († 1910) 27. Februar: Josefine Gallmeyer, österreichische Schauspielerin († 1884) 28. Februar: Hugo von Bilimek-Waissolm, österreichischer Feldmarschallleutnant († 1896) 28. Februar: Maurice Lévy, französischer Mathematiker, Physiker und Ingenieur († 1910) März/April 3. März: George William Hill, US-amerikanischer Astronom und Mathematiker († 1914) 5. März: Karl Friedrich Ebert, deutscher Industrieller und Reichstagsabgeordneter († 1889) 6. März: Szymon Winawer, polnischer Schachspieler († 1919) 7. März: Carlos Otto, deutscher Chemiker und Unternehmer († 1897) 9. März: Heinrich Lanz, deutscher Erfinder und Hersteller von Landmaschinen († 1905) 9. März: Ludwig Gumplovicz, polnischer Jurist; einer der Gründungsväter der europäischen Soziologie († 1909) 11. März: Ōkuma Shigenobu, japanischer Premierminister († 1922) 12. März: William Henry Perkin, britischer Chemiker und Industrieller († 1907) 15. März: Karl Juljewitsch Dawidow, russischer Komponist und Dirigent († 1889) 17. März: Robert J. Reynolds, US-amerikanischer Politiker († 1909) 19. März: Anton Anno, deutscher Schauspieler, Regisseur, Theaterdirektor und Dramatiker († 1893) 23. März: Wilhelm Pailler, österreichischer Theologe und Volkskundler († 1895) 27. März: Hubert Stier, deutscher Architekt († 1907) 29. März: Louis Joseph Nicolas André, französischer General und Kriegsminister († 1913) 30. März: Paul Adolphe Tièche, Schweizer Architekt und Politiker († 1912) 2. April: Léon Gambetta, französischer Staatsmann der Dritten Republik († 1882) 2. April: Josef Kalousek, tschechischer Historiker († 1915) 4. April: James Black Groome, US-amerikanischer Politiker († 1893) 7. April: Ferdinand Thieriot, deutscher Komponist († 1919) 10. April: Gustav Droysen, deutscher Historiker († 1908) 10. April: Johann Hinrich Fehrs, deutscher Erzähler und Lyriker († 1916) 10. April: Eduard Kremser, österreichischer Komponist, Arrangeur und Dirigent († 1914) 10. April: Nicolás Salmerón, spanischer Politiker und Universitätsdozent († 1908) 11. April: Hermann Vogelsang, deutscher Geologe († 1874) 12. April: Karl Julius Späth, Erfinder und Konstrukteur, Uhrmacher († 1919) 12. April: John Butler Smith, US-amerikanischer Politiker († 1914) 13. April: Rudolf Falb, österreichischer Forscher und Meteorologe († 1903) 16. April: Ernest Solvay, belgischer Chemiker und Amateurforscher († 1922) 17. April: Antoinette Charlotte Marie Josephine Karoline Frida von Sachsen-Altenburg, Herzogin von Anhalt († 1908) 18. April: Paul Émile Lecoq de Boisbaudran, französischer Chemiker († 1912) 21. April: John Muir, schottisch-US-amerikanischer Naturforscher, Naturphilosoph und Naturschützer († 1914) 24. April: Jules Levy, US-amerikanischer Komponist und Kornettist († 1903) 26. April: Carl Wilhelm Heine, Mediziner, Chirurg und Präsident der deutschen Ärzteschaft in Prag († 1877) 28. April: Tobias Asser, niederländischer Jurist und Politiker († 1913) 30. April: Albert Kündig, Schweizer Unternehmer und Politiker († 1908) Mai/Juni 10. Mai: John Wilkes Booth, US-amerikanischer Schauspieler, Mörder Abraham Lincolns († 1865) 11. Mai: Friedrich Imhoof-Blumer, Schweizer Numismatiker († 1920) 12. Mai: James McMillan, US-amerikanischer Politiker († 1902) 15. Mai: Nicolae Grigorescu, rumänischer Maler († 1907) 23. Mai: Alfred Kirchhoff, deutscher Geograph († 1907) 24. Mai: Paul Laband, deutscher Germanist und Staatsrechtslehrer († 1918) 24. Mai: Sigismund von Zedlitz und Neukirch, deutscher Jagdkynologe und Jagdschriftsteller (Hegewald) († 1903) 28. Mai: Otto Keller, deutscher Altphilologe († 1927) 31. Mai: Henry Sidgwick, englischer Philosoph († 1900) 3. Juni: Moritz Thausing, böhmischer Kunstschriftsteller († 1884) 4. Juni: John Grigg, neuseeländischer Hobby-Astronom und Kometenjäger († 1920) 5. Juni: Barnabé Akscheislian, Bischof der Armenisch-Katholischen Kirche († 1898) 6. Juni: Adolf Karl Ludwig Claus, deutscher Chemiker († 1900) 8. Juni: John Naylor, englischer Organist und Komponist († 1897) 11. Juni: Marià Fortuny, spanischer Maler († 1874) 13. Juni: Wilhelm Reiß, deutscher Forschungsreisender und Vulkanologe († 1908) 14. Juni: Wilhelm Girardet, deutscher Buchbinder, Buchdrucker, Verleger und Unternehmer († 1918) 14. Juni: Aritomo Yamagata, japanischer Militärführer, Nationalheld und Premierminister († 1922) 15. Juni: Carl Kundmann, österreichischer Bildhauer († 1919) 16. Juni: Otto Galama Houtrouw, deutscher reformierter Theologe und Heimatforscher († 1933) 19. Juni: Julius Henrik Lange, dänischer Kunsthistoriker und Ästhetiker († 1896) 22. Juni: Ferdinand Hartzer, deutscher Bildhauer († 1906) 24. Juni: Gustav von Schmoller, deutscher Ökonom, gilt als Hauptvertreter der sogenannten historischen Schule († 1917) 24. Juni: Jan Matejko, polnischer Maler († 1893) 27. Juni: Peter-Paul Mauser, deutscher Waffenkonstrukteur († 1914) Juli/August 1. Juli: Robert Beyschlag, deutscher Genremaler († 1903) 1. Juli: William Paine Lord, US-amerikanischer Politiker († 1911) 8. Juli: Ferdinand Graf von Zeppelin, deutscher General und Luftschiffkonstrukteur († 1917) 9. Juli: Philip Paul Bliss, US-amerikanischer Komponist und Textdichter von Erweckungsliedern († 1876) 11. Juli: Wojciech Kętrzyński, polnischer Historiker († 1918) 11. Juli: John Wanamaker, US-amerikanischer Kaufmann und ehemaliger Postminister der USA († 1922) 11. Juli: Urban A. Woodbury, US-amerikanischer Politiker († 1915) 15. Juli: Samuel Plattner, Schweizer Jurist, Journalist und Bühnenautor († 1908) 16. Juli: Frédéric de Rougemont der Jüngere, Schweizer evangelischer Geistlicher und Entomologe († 1917) 19. Juli: Joel Asaph Allen, US-amerikanischer Zoologe und Ornithologe († 1921) 20. Juli: George Trevelyan, 2. Baronet, britischer Historiker und Staatsmann in der Regierung William Gladstone († 1928) 23. Juli: Édouard Colonne, französischer Dirigent († 1910) 28. Juli: John I. Mitchell, US-amerikanischer Politiker († 1907) 30. Juli: Eugen Richter, deutscher Politiker († 1906) 1. August: Ludwig von Neapel-Sizilien, Graf von Trani und Prinz von Neapel-Sizilien († 1886) 1. August. Jules Léotard, französischer Artist († 1870) 6. August: José María Justo Cos y Macho, Erzbischof von Valladolid und Kardinal († 1919) 12. August: Warner Miller, US-amerikanischer Politiker († 1918) 16. August: Marina Krebs, deutsche Schriftstellerin († 1910) 23. August: Franz Deym, österreichischer Diplomat († 1903) 24. August: Sanford Christie Barnum, US-amerikanischer Zahnarzt, Erfinder des Kofferdam († 1885) 29. August: John F. Appleton, US-amerikanischer Jurist und General († 1870) 30. August: Alexander von Prittwitz und Gaffron, russischer Generalmajor († 1915) September/Oktober 2. September: Liliuokalani, hawaiische Königin († 1917) 3. September: Josef Hötte, deutscher Pelzhändler und Mäzen († 1919) 8. September: Carl Weyprecht, deutscher Marineoffizier, Arktisforscher und Geophysiker († 1881) 9. September: Bonifaz Krug, italienischer Benediktinerabt deutscher Abstammung († 1909) 11. September: Adam Asnyk, polnischer Lyriker und Dramatiker († 1897) 12. September: Arthur Auwers, deutscher Astronom († 1915) 13. September: Otto Benndorf, deutscher Archäologe († 1907) 13. September: Marius Nygaard, norwegischer Philologe († 1912) 20. September: Friedrich Keller, deutscher Vizekonsul in der Templerkolonie in Haifa († 1913) 20. September: Theodor Reuter, Königlich Preußischer Schuldirektor († 1909) 23. September: Victoria Claflin Woodhull Martin, US-amerikanische Finanzmaklerin († 1927) 27. September: José Arechavaleta y Balpardo, spanischer Botaniker († 1912) 27. September: Wilhelm Ferdinand Arndt, deutscher Historiker und Paläograf († 1895) 27. September: Marie Delaporte, französische Schauspielerin († 1910) 1. Oktober: Joseph Clay Stiles Blackburn, US-amerikanischer Politiker († 1918) 3. Oktober: Otto Devrient, deutscher Schauspieler und Dramatiker († 1894) 6. Oktober: Giuseppe Cesare Abba, italienischer Schriftsteller und Freiheitskämpfer († 1910) 6. Oktober: Sophie Wörishöffer, deutsche Jugendbuchautorin († 1890) 8. Oktober: Jan Gebauer, tschechischer Sprachwissenschaftler und Literaturhistoriker († 1907) 8. Oktober: John Hay, US-amerikanischer Politiker († 1905) 8. Oktober: Montagu Corry, 1. Baron Rowton, britischer Politiker und Philanthrop († 1903) 18. Oktober: Nicolae Teclu, rumänischer Chemiker und Architekt († 1916) 19. Oktober: Philippine von Edelsberg, österreichische Opernsängerin († 1917) 20. Oktober: Christian Horne, Landwirt und Lehrer († 1912) 21. Oktober: Otto Stockmayer, deutscher Professor, Pfarrer und Evangelist († 1917) 22. Oktober: August zu Eulenburg, preußischer General der Infanterie sowie Minister des königlichen Hauses († 1921) 24. Oktober: Emil Frey, Schweizer Politiker († 1922) 25. Oktober: Georges Bizet, französischer Komponist († 1875) 27. Oktober: John D. Long, US-amerikanischer Politiker († 1915) 30. Oktober: George Ainslie, US-amerikanischer Politiker († 1913) 31. Oktober: Heinrich Ernst Göring, deutscher Jurist und Diplomat († 1913) 31. Oktober: Ludwig I., portugiesischer König († 1889) November/Dezember 5. November: Konrad Furrer, Schweizer evangelischer Geistlicher und Palästinaforscher († 1908) 7. November: Auguste Villiers de L’Isle Adam, französischer Schriftsteller († 1889) 8. November: Caroline Amalie Meldahl, dänische Malerin († 1906) 11. November: Karl von Fritsch, deutscher Geologe und Paläologe († 1906) 13. November: Anna Marie Geibelt, deutsche Stifterin mildtätiger Organisationen († 1923) 13. November: Joseph F. Smith, Präsident der Kirche Jesu Christi der Heiligen der Letzten Tage († 1918) 18. November: Karl Schäfer, deutscher Orgelbauer († 1922) 20. November: William Painter (Erfinder), amerikanischer Erfinder († 1906) 21. November: Ernst Basch, deutscher Zauberkünstler und Unternehmer († 1908) 23. November: Giuseppe Gatti, italienischer Archäologe und Epigraphiker († 1914) 23. November: Georg Albert, Fürst von Schwarzburg-Rudolstadt und preußischer General († 1890) 25. November: Elisabeth Bürstenbinder, deutsche Schriftstellerin († 1918) 26. November: Jakob Berthieu, französischer Jesuit, Missionar und Seliger der römisch-katholischen Kirche († 1896) 1. Dezember: Carl Arendt, deutscher Sinologe († 1902) 2. Dezember: Thomas Annandale, britischer Chirurg († 1907) 3. Dezember: Cleveland Abbe, US-amerikanischer Astronom und erster Meteorologe († 1916) 3. Dezember: Wilhelm Mohr, deutscher Journalist und Schriftsteller († 1888) 3. Dezember: Luise Marie Elisabeth von Preußen, badische Großherzogin († 1923) 4. Dezember: Melisio Morales, mexikanischer Komponist († 1908) 5. Dezember: Leopold Auspitz, österreichischer Generalmajor und Schriftsteller († 1907) 9. Dezember: Otto Schill, Jurist und Kommunalpolitiker in Leipzig († 1918) 11. Dezember: Emil Rathenau, deutscher Großindustrieller (Gründer der AEG) († 1915) 11. Dezember: Whitney Eugene Thayer, US-amerikanischer Organist und Komponist († 1889) 15. Dezember: Gustav Neumann, deutscher Schachspieler († 1881) 19. Dezember: Wilhelm Oncken, deutscher Historiker († 1905) 20. Dezember: Edwin Abbott Abbott, englischer Schuldirektor, Theologe und Schriftsteller († 1926) 21. Dezember: Wilhelm Maurenbrecher, Reformationshistoriker († 1892) 22. Dezember: Florian Kindle, liechtensteinischer Komponist und Priester († 1909) 24. Dezember: Thorvald Nicolai Thiele, dänischer Mathematiker und Astronom († 1910) 26. Dezember: Clemens Winkler, deutscher Chemiker († 1904) 27. Dezember: Lars Oftedal, norwegischer Pfarrer, Redakteur und Politiker († 1900) 27. Dezember: Paul Pogge, deutscher Afrikareisender († 1884) 29. Dezember: Walter Magnus Runeberg, Bildhauer († 1920) 30. Dezember: Émile Loubet, französischer Staatspräsident 1896–1906 († 1929) 31. Dezember: Jules Dalou, französischer Bildhauer († 1902) Genaues Geburtsdatum unbekannt Sayyid Dschamal ad-Din al-Afghani Sayyid Muhammad ibn Safdar al-Husaini, persischer politischer Aktivist und Theoretiker († 1897) He Dog, indianischer Häuptling der Oglala-Lakota-Sioux († 1936) Gestorben Januar bis April 2. Januar: Jakob Salentin von Zuccalmaglio, deutscher Jurist und Politiker (* 1775) 3. Januar: Maximilian von Sachsen, Sohn des sächsischen Kurfürsten Friedrich Christian und designierter Kronprinz von Sachsen (* 1759) 7. Januar: Josef Mathias Grassi, österreichischer Historien- und Porträtmaler (* 1757) 13. Januar: Ferdinand Ries, deutscher Klavierspieler und Komponist (* 1784) 20. Januar: Osceola, Führer der Seminolen (* 1804) 21. Januar: Carl Gustav Ludwig von Moltke, deutscher Gutsherr, Oberjägermeister und Kammerherr (* 1754) 29. Januar: Sigismund August Wolfgang von Herder, deutscher Geologe, Mineraloge (* 1776) 1. Februar: José Gregorio Salazar Lara, Präsident der Zentralamerikanischen Konföderation (* 1773) 4. Februar: Michael Oestreich, deutscher Orgelbauer (* 1802) 6. Februar: Pieter Retief, burischer Voortrekker (* 1780) 10. Februar: Albert Friedrich Bach, deutscher Politiker (* 1761) 12. Februar: Uwe Jens Lornsen, deutscher Patriot und Publizist (* 1793) 18. Februar: Francisco Javier Venegas, spanischer Offizier, Kolonialverwalter und Vizekönig von Neuspanien (* 1754) 19. Februar: Maria Anna Moser, österreichische Malerin (* 1758) 20. Februar: Karl Friedrich Heinrich, deutscher Altphilologe (* 1774) 21. Februar: Antoine-Isaac Silvestre de Sacy, französischer Orientalist (* 1758) 26. Februar: Hermann von Fels, Schweizer Kaufmann und Politiker (* 1766) 1. März: Michael Friedrich Adams, deutsch-russischer Botaniker und Naturwissenschaftler (* 1780) 2. März: Ludwig Abeille, deutscher Pianist und Komponist (* 1761) 3. März: John Stevens, US-amerikanischer Erfinder und Ingenieur (* 1749) 7. März: Paine Wingate, US-amerikanischer Politiker (* 1739) 13. März: Meinrad Dreher, deutscher Orgelbauer (* 1763) 16. März: Nathaniel Bowditch, US-amerikanischer Mathematiker, Astronom und Physiker (* 1773) 26. März: Andreas Alois Ankwicz von Skarbek-Poslawice, Erzbischof von Lemberg und von Prag (* 1777) 26. März: William Henry Ashley, US-amerikanischer Pelzhändler, Unternehmer und Politiker (* 1778) 27. März: Ludwig Georg von Winter, badischer Beamter und badischer Innenminister (* 1778) 28. März: Thomas Attwood, englischer Komponist und Organist (* 1765) 30. März: Joseph Maria Christen, Schweizer Bildhauer (* 1767) 30. März: Frédéric-César de La Harpe, Schweizer Politiker (* 1754) 1. April: Johann Ernst Daniel Bornschein, deutscher Dramatiker u. Romanautor (* 1774) 3. April: Francesco Antommarchi, französischer Arzt (* 1780) 3. April: Georg Dubislav Ludwig von Pirch, preußischer Generalleutnant (* 1763) 4. April: Johann Friedrich Ludwig Wachler, deutscher Literaturhistoriker (* 1767) 6. April: José Bonifácio de Andrada e Silva, brasilianischer Mineraloge und Staatsmann (* 1763) 6. April: Friedrich Lennig, deutscher Dialektdichter (* 1796) 12. April: Johann Adam Möhler, römisch-katholischer Theologe (* 1796) 16. April: Johanna Schopenhauer, deutsche Schriftstellerin (* 1766) 23. April: Michele Arditi, italienischer Jurist und Klassischer Archäologe (* 1746) 29. April: Joseph von Henikstein, österreichischer Bankier und Kunstmäzen (* 1768) Mai bis August 4. Mai: Christine Englerth, Besitzerin von Steinkohle-Bergwerken im Raum Aachen, Eschweiler (* 1767) 5. Mai: Johann Baptist Heinrich, deutscher Politiker und Oberbürgermeister von Mainz (* 1774) 11. Mai: Ignaz von Rudhart, bayerischer Politiker und Ministerpräsident von Griechenland (* 1790) 11. Mai: Jędrzej Śniadecki, polnischer Chemiker und Arzt (* 1768) 17. Mai: Charles-Maurice de Talleyrand-Périgord, französischer Diplomat (* 1754) 17. Mai: René Caillié, französischer Afrikaforscher (* 1799) 19. Mai: Heinrich Gotthelf Schaufuß, Porzellanmaler der Meißner Manufaktur (* 1760) 23. Mai: Jan Willem Janssens, Gouverneur der Kapkolonie und Generalgouverneur von Niederländisch-Indien (* 1762) 30. Mai: Martin Anwander, österreichischer Orgelbauer (* 1780) 4. Juni: Anselme Gaëtan Desmarest, französischer Zoologe und Schriftsteller (* 1784) 7. Juni: Laure-Adelaide Abrantès, Hofdame und Schriftstellerin (* 1784) 14. Juni: Maximilian Josef Montgelas, bayrischer Minister unter König Maximilian I. von Bayern. (* 1759) 15. Juni: Karl Joseph Beck, deutscher Mediziner und Hochschullehrer (* 1794) 27. Juni: Peter Irving, US-amerikanischer Schriftsteller (* 1772) 28. Juni: Friedrich Accum, deutscher Chemiker (* 1769) 5. Juli: Jean Itard, französischer Arzt und Taubstummenlehrer (* 1774) 9. Juli: Robert Grant, britischer Politiker (* 1780) 12. Juli: Ezra Butler, US-amerikanischer Politiker (* 1763) 17. Juli: Karl Christian Palmer, deutscher evangelischer Theologe (* 1759) 19. Juli: Pierre Louis Dulong, französischer Physiker und Chemiker (* 1785) 19. Juli: Thomas Blaikie, schottischer Gartenarchitekt (* 1751) 19. Juli: Frédéric Duvernoy, französischer Hornist, Komponist und Musikpädagoge (* 1765) 21. Juli: Johann Nepomuk Mälzel, Erfinder und Hochstapler (* 1772) 24. Juli: Frédéric Cuvier, französischer Zoologe und Physiker (* 1773) 26. Juli: Wilhelm Anton von Klewiz, preußischer Politiker und Verwaltungsbeamter (* 1760) 16. August: Yohannan VIII. Hormizd, Patriarch von Babylon und Chaldäer (* 1760) 17. August: Lorenzo da Ponte, italienischer Dichter und Librettist (* 1749) 21. August: Adelbert von Chamisso, deutscher Dichter und Botaniker (* 1781) 26. August: Johanna Elisabeth Bichier des Ages, französische Ordensgründerin und Heilige (* 1773) September bis Dezember 1. September: William Clark, US-amerikanischer Soldat und Entdecker (* 1770) 5. September: Charles Percier, französischer Architekt (* 1764) 7. September: Johann Georg Heine, deutscher Orthopädiemechaniker und Arzt (* 1771) 9. September: Joseph Konradt, deutscher Orgel- und Klavierbauer (* um 1773) 11. September: Christoph Wilhelm Gatterer, deutscher Kameralist und Forstwissenschaftler (* 1759) 15. September: Alexandra Branicka, russische Adlige (* 1754) 23. September: Gerhardus Marthinus Maritz, burischer Unternehmer und Voortrekker-Anführer (* 1797) 28. September: Cay Wilhelm von Ahlefeldt, Propst des Damenstifts Kloster Preetz (* 1753) 3. Oktober: Black Hawk, Häuptling der Sauk- und Fox-Indianer (* 1767) 6. Oktober: Pierre Martin Rémi Aucher-Éloy, französischer Botaniker und Forschungsreisender (* 1792) 17. Oktober: Nathan Sanford, US-amerikanischer Politiker (* 1777) 27. Oktober: Isaac Anderson, US-amerikanischer Politiker (* 1760) 9. November: Friedrich Carl Gröger, deutscher Porträtmaler und Lithograf (* 1766) 10. November: Iwan Kotljarewskyj, ukrainischer Dichter (* 1769) 27. November: Georges Mouton de Lobau, französischer General, Marschall von Frankreich (* 1770) 6. Dezember: Otto von Woringen, deutscher Jurist und Sänger (* 1760) 11. Dezember: Pietro Rossi, Schweizer Politiker (* 1765) 11. Dezember: Isaac Tichenor, US-amerikanischer Jurist und Politiker (* 1754) 12. Dezember: Carl Philipp von Wrede, bayerischer Militär und späterer Feldmarschall (* 1767) 20. Dezember: Kaspar Maria von Sternberg, böhmischer Theologe und Naturforscher (* 1761) 26. Dezember: Franciszek Lessel, polnischer Komponist (* um 1780) 26. Dezember: Philippe-Antoine Merlin, französischer Politiker (* 1754) 31. Dezember: Philipp Friedrich von Hetsch, deutscher Maler (* 1758) Genaues Todesdatum unbekannt Christian Graf von Aicholt, österreichischer Adeliger (* 1754) Akaitcho, Häuptling der Yellowknife (* um 1786) Weblinks Digitalisierte Zeitungen des Jahres 1838 im Zeitungsinformationssystem (ZEFYS) der Staatsbibliothek zu Berlin
Q7612
509.847171
14700
https://de.wikipedia.org/wiki/Kohlens%C3%A4ure
Kohlensäure
Kohlensäure (H2CO3) ist eine anorganische Säure und das Reaktionsprodukt ihres Säureanhydrids Kohlendioxid (CO2) mit Wasser. Sie wird in Erfrischungsgetränken verwendet. Die Salze der zweiprotonigen Säure sind die Carbonate und Hydrogencarbonate. Ihre Ester werden ebenfalls Carbonate oder Kohlensäureester genannt. Technische Bedeutung haben die Polyester, die als Polycarbonate bezeichnet werden. Das Gas CO2 ist im Vergleich zu O2 und N2 relativ gut löslich in Wasser und reagiert zu einem geringen Anteil (etwa 0,1 %, je nach Temperatur und Druck) zu Kohlensäure: Das Gas CO2 wird umgangssprachlich oft ungenau als Kohlensäure bezeichnet. Tatsächlich werden in der Wasserchemie gelöstes CO2 und die eigentliche Säure H2CO3 üblicherweise gemeinsam als freie Kohlensäure zusammengefasst. Sie steht der Summe von Carbonat und Hydrogencarbonat als gebundene Kohlensäure gegenüber. Kohlensäure spielt eine wichtige Rolle im Säure-Basen-Haushalt sowohl des Wassers als auch des Blutes und der Körperflüssigkeiten. Geschichte Die Natur der Kohlensäure als gelöstes Kohlendioxid erkannte 1741 William Brownrigg. Für die Erfindung des Sodawassers ist allerdings Joseph Priestley bekannt (in seiner Zeit als Priester in Leeds ab 1767, wo ihm genug Kohlendioxid aus einer nahen Brauerei zur Verfügung stand). Vorkommen in der Natur Im Regenwasser gelöstes Kohlendioxid bildet Kohlensäure, die Kalkgestein unter Bildung von Calciumhydrogencarbonat zu lösen vermag: CaCO3 + CO2 + H2O <=> Ca(HCO3)2 Tropft solches Wasser in einen unterirdischen Hohlraum, so scheidet sich aus dem hängenden Tropfen durch Ausgasen von Kohlendioxid aus der Hydrogencarbonatlösung das schwerlösliche Calciumcarbonat als Stalaktit ab; fällt der Tropfen zu Boden, wird am Boden weiteres Calciumcarbonat abgeschieden und es entsteht ein Stalagmit: Ca(HCO3)2 <=> CaCO3 + CO2 + H2O Dissoziationsgleichgewicht Gelöstes Kohlenstoffdioxid steht in wässriger Lösung im Gleichgewicht mit Kohlensäure:   (1) Die Erlenmeyer-Regel beschreibt die Instabilität von Molekülen mit zwei Hydroxygruppen am selben Kohlenstoff-Atom. Daher liegt das Gleichgewicht sehr weit auf der Seite des Anhydrids; der Anteil des Säuremoleküls liegt in wässriger Lösung bei nur rund 0,2 %. Dieser Anteil ist mäßig von der Temperatur abhängig. In Organismen wird die Reaktion durch das Enzym Carboanhydrase beschleunigt. Die vergleichsweise langsam erfolgende Hydration von CO2 wird durch das Enzym katalysiert, wodurch physiologisch ausreichende Geschwindigkeiten der Austauschprozesse erreicht werden. Ein Enzymmolekül katalysiert dabei die Umwandlung von etwa 36 Millionen CO2 in H2CO3-Moleküle pro Minute. Die Kohlensäure ist eine zweiprotonige Säure. Sie gibt daher ihre Protonen in zwei Dissoziationsstufen an Wasser oder andere Basen ab:   (2) Der pKs-Wert der ersten Säurekonstante kann lediglich berechnet werden. Er liegt mit temperaturabhängigen Abweichungen eigentlich bei ca. 3,6. Kohlensäure ist damit eine mittelstarke Säure vergleichbar mit Essigsäure (pKs 4,76) und Ameisensäure (pKs 3,77). Da aber der Anteil der Kohlensäure gemäß Gleichung (1) schlecht zu bestimmen ist, werden die Reaktionen (1) und (2) zu (3) zusammengefasst:   (3) und ergeben den (fast immer genannten und experimentell bestimmbaren) Wert von ca. 6,5 für den pKs-Wert. Freie Kohlensäure ist damit eine schwache Säure. Reaktionsprodukt ist das Hydrogencarbonat-Ion HCO3−.   (4) Der pKs-Wert für die zweite Säurekonstante liegt um 10,5. Reaktionsprodukt ist das Carbonat-Ion CO32−. Die Konzentrationen der drei (eigentlich vier) Kohlensäure-Spezies, also der freien Kohlensäure (H2CO3 und gelöstes CO2), des Hydrogencarbonats und des Carbonats sowie der Oxoniumionen stehen miteinander durch das Massenwirkungsgesetz in einem berechenbaren Zusammenhang. Die Konzentration der Oxoniumionen wird durch den pH-Wert ausgedrückt. Bei einem gegebenen pH-Wert ist somit das Mengenverhältnis der Spezies festgelegt. pH-Indikation Wasser Bei pH 4 liegen über 99 % als Kohlendioxid/Wasser-Mischung vor. (z. B. in Mineralwasser) Bei einem pH-Wert von 6,5, der also gleich ist dem pKs der ersten Säurekonstante, liegt daneben gleich viel Hydrogencarbonat vor; der Anteil des Carbonats ist noch weit unter 1 %. Bei ca. pH 7,5 in Leitungswasser bestimmt das enthaltene Hydrogencarbonat in Verbindung mit wenig gelöstem Kohlendioxid den Säurehaushalt. (menschliches Blut mit pH 7,4 enthält Kohlendioxid und Hydrogencarbonat im Verhältnis 1 : 24) Etwa bei pH 8,3 liegt der maximale Anteil an Hydrogencarbonat mit ca. 98 % vor; je knapp 1 % sind Kohlendioxid und Carbonat. Dies ist der typische pH-Wert von Natrium- oder Kaliumhydrogencarbonat in Wasser. Auch abgekochtes Trinkwasser zeigt diesen pH, da gelöstes Kohlendioxid ausgetrieben wurde. Bis fast zur Trockene eingekochtes Trinkwasser zeigt einen pH von bis zu 9, da sich hierbei ein geringer Hydrogencarbonat-Anteil in Carbonat umwandelt (siehe Kesselstein-Bildung). Bei einem pH gleich dem pKs der zweiten Säurekonstante von 10,5 liegen gleiche Mengen Hydrogencarbonat und Carbonat sowie ein verschwindend geringer Anteil an Kohlendioxid vor. Bei pH 12,5 hat das Carbonat einen Anteil um 99 %, Hydrogencarbonat liegt bei knapp 1 %. Dies ist der typische pH-Wert von Natrium- oder Kaliumcarbonat in Wasser. Diese Eckwerte spiegeln die Zusammenhänge im vielfach genutzten Bicarbonat-Puffer wider. Verwendung Kohlensäure wird für unzählige Produktionsprozesse weltweit eingesetzt, wobei sie dem Endverbraucher wohl am ehesten aus Erfrischungsgetränken bekannt sein dürfte. Jacob Schweppe entwickelte im späten 18. Jahrhundert ein Verfahren, mittels dessen sich Wasser mit Kohlenstoffdioxid versetzen lässt. Im 19. Jahrhundert begann man, Mineralwasser Kohlenstoffdioxid beizumischen, um dieses haltbar zu machen. Siehe dazu Verwendung von Kohlenstoffdioxid in der Lebensmitteltechnologie. Kohlensäure als Reinstoff Durch Entwässern einer CO2-Lösung (Verdampfen oder Gefrieren des Wassers) lässt sich die mit Kohlendioxid im Gleichgewicht stehende Kohlensäure H2CO3 = C=(OH)2 ebenso wenig wie die Orthokohlensäure H4CO4 = C(OH)4 oder die Dikohlensäure H2C2O5 = (HO)OC—O—CO(OH) isolieren, da hierbei wegen der Überschreitung der Löslichkeit das Anhydrid CO2 entweicht. Auch die Peroxomono- und -dikohlensäure H2CO4 = CO(OH)(OOH) und (HO)OCCO(OH) lassen sich als solche nicht aus konzentrierten wässerigen Lösungen isolieren. Im Labor gelang es, Kohlensäure (im engeren Sinn) als reinen (vermutlich kristalliner) Reinstoff zu erzeugen, wobei sie in zwei unterschiedlichen Modifikationen existiert. Die α-Form der Kohlensäure wird bei der Synthese in Methanol erhalten. Die β-Form der Kohlensäure wird durch Bestrahlung von festen Mischungen aus Kohlendioxid und Wasser mit Protonen oder durch Protonierung von Carbonat mit Bromwasserstoff-Hexahydrat bei −73 °C gebildet. Dies hat derzeit jedoch (außer dem möglichen Auftreten als Bestandteil stratosphärischer Wolken der oberen Atmosphäre, in interstellaren Eispartikeln, auf Kometen, in extrasolarer Körper sowie auch auf der Marsoberfläche oder Marsatmosphäre) keine praktische Bedeutung. Bei tiefen Temperaturen und unter absoluter Abwesenheit von Wasser oder Metallionen (beide katalysieren stark die Zersetzungsreaktion zu Kohlenstoffdioxid und Wasser) kann die Kohlensäure H2CO3 als Reinstoff dargestellt werden. In absoluter Reinheit hat die Verbindung bei Raumtemperatur eine Halbwertszeit von 180.000 Jahren. Die Zugabe eines einzigen Wassermoleküls zum Kohlensäuremolekül erhöht durch Autokatalyse die Reaktionsgeschwindigkeit um einen temperaturabhängigen Faktor von 107−109, d. h., die Halbwertszeit wird auf 10 Stunden bei 300 K erniedrigt. Die Zugabe eines weiteren Wassermoleküls beschleunigt die Reaktion um einen weiteren Faktor 100 bis 1000, was zu einer Halbwertszeit von 119 Sekunden bei 300 K führt. Das ist der Grund, aus dem die meisten Chemiker „Kohlensäure“ für instabil halten. Statt Kohlensäure meinen sie jedoch Kohlendioxid in Wasser gelöst (was zu einem Gleichgewicht von 1 % H2CO3 und 99 % schwach hydratisiertem CO2 sowie saurem Verhalten wegen des H2CO3/HCO3-Säure-Base-Paares führt). Kristalline und amorphe Kohlensäure sind damit in einer Eis-Matrix bei 225 K kinetisch bemerkenswert stabil darstellbar. Diese Stabilität auch im gasförmigen Zustand in Abwesenheit von Wasser lässt Schlüsse auf deren Bildung und Nachweisbarkeit im Weltall zu. Feste Kohlensäure bildet sich nicht nur durch Protonenbestrahlung von festen CO2/H2O-Gemischen, sondern auch von reinem, festen CO2. Sie besteht aus einem Netzwerk miteinander über H-Brücken verknüpfter H2CO3-Moleküle. Gasförmige Kohlensäure liegt in einer Mischung aus H2CO3-Monomeren und Dimeren vor, deren Mischungsverhältnis von der Temperatur abhängt. Eine Hochdruck-Kristallstruktur der Kohlensäure wurde an der deuterierten Substanz mittels Neutronenbeugung bei einem Druck von 1.85 GPa in einer Hybridzelle (Russische Legierung neben Cu-Be) bestimmt. D2CO3 kristallisiert im monoklinen System mit der Raumgruppe P21/c und nur einem symmetrieunabhängigen Molekül mit anti-anti-Gestalt. Benachbarte Moleküle bilden Dimere aus, die über H-Brückenbindungen verknüpft sind. C-O-Einfach- und -Doppelbindungen fallen wegen eines hohen π-Bindungsanteils kürzer bzw. länger aus als üblich. Die bei Normaldruck präparierte Kohlensäure zeigt keinerlei Beugungsmuster, ist also vollständig amorph und bildet keine Kristallstruktur aus. Derivate der Kohlensäure Darüber hinaus sind organische Derivate der Kohlensäure bekannt, so verschiedene Kohlensäureester. Sie sind leicht zugänglich durch die Reaktion von Phosgen mit Alkoholen. Polyester der Kohlensäure sind die Polycarbonate. Eine andere Stoffgruppe sind die Amide der Kohlensäure. Ihre Stammverbindung ist der Harnstoff, ein Diamid der Kohlensäure; als Beispiel seien die Urethane (von Urea, Harnstoff) genannt. Es sind substituierte Ester des Monoamids der Kohlensäure, der Carbaminsäure; diese sind die Stammverbindungen überaus wichtiger Kunststoffe, der Polyurethane. Aggressive Kohlensäure und Verwandte Eine weitere Gruppe von Trivialnamen, die nicht chemisch unterschiedliche Spezies, sondern Mengenanteile bezeichnen, stammt aus dem Bereich der Wasserchemie für kalkhaltige Wässer. Es sei darauf hingewiesen, dass die folgenden Begriffe jeweils Mengenanteile der sogenannten freien Kohlensäure betreffen, bei denen zwischen Kohlenstoffdioxid und der Kohlensäure im engeren Sinn nicht unterschieden wird. Entsprechend dem Kalk-Kohlensäure-Gleichgewicht sind die Konzentrationen von Calcium und Kohlensäure voneinander abhängig. Man unterscheidet die Menge der zugehörigen Kohlensäure von der Menge der überschüssigen und der (kalk-)aggressiven Kohlensäure. Zugehörige Säure hält im Mengengleichgewicht der Kohlensäurespezies den pH-Wert gerade so niedrig, dass die hiervon abhängige Konzentration des Carbonates multipliziert mit der des Calciums gerade noch nicht das Löslichkeitsprodukt des Calciumcarbonats überschreitet. Darüber hinaus vorhandene freie Kohlensäure gilt als überschüssig. Davon wiederum ein Teil könnte weiteren Kalk in Lösung bringen, ist also (kalk-)aggressiv; der Rest des Überschusses würde danach als zusätzliche zugehörige Kohlensäure benötigt. Mit steigenden Werten für die Carbonathärte steigt der Anteil der zugehörigen freien Kohlensäure überproportional an. Beispielsweise beträgt dieser Wert bei 5,1 °dH 1,83 mg/l CO2 und bei 10,2 °dH 11,67 mg/l CO2. Dies führt bei der Mischung von Wässern zu einem Mischwasserproblem. Die Mischung von Wässern mit unterschiedlicher Carbonathärte ergibt Mischwässer mit aggressiver Kohlensäure, selbst wenn die Ausgangswässer im Kalk-Kohlensäure-Gleichgewicht waren. Die mathematischen Zusammenhänge sind in der Tillmansschen Gleichung zusammengefasst, mit der die zugehörige „freie Kohlensäure“ für jeden Gehalt an Calcium berechnet werden kann. Nachfolgend die Kurzfassung dieser Gleichung: Die Elemente der Gleichung bedeuten: = Konzentration der zu berechnenden zugehörigen freien Kohlensäure (CO2) in mol/kg = Tillmanssche Konstante = Quadrat der Konzentration der Hydrogencarbonate (HCO3) in mol/kg = Konzentration des Calciums in mol/kg Weitere Einzelheiten hierzu unter Tillmanssche Gleichung. Für die Aufbereitung und Entkarbonisierung von Wässern ist die genaue Kenntnis dieses Gleichgewichtes und seiner Einstellgeschwindigkeit von großer Bedeutung. So wird bei der Trinkwasseraufbereitung das Rohwasser über halbgebranntes Dolomit (Calciummagnesiumcarbonat, CaMg(CO3)2) geleitet, damit es keine überschüssige „freie Kohlensäure“ enthält, da Eisen oder andere Metalle mit dieser reagieren und so beispielsweise Rohrleitungen aus Stahl korrodieren würden. Auch diese Reaktionen sind konzentrationsabhängig im Gleichgewicht mit entsprechenden Carbonaten. Deshalb spricht man dann z. B. von „Eisen-aggressiver Kohlensäure“. Dolomit wird verwendet, weil in Anwesenheit von Magnesiumionen die Einstellgeschwindigkeit des Tillmans’schen Gleichgewichtes erheblich beschleunigt wird, was mit reinem Calciumcarbonat viel zu lange dauern würde. Bei manchen Anwendergruppen, z. B. in der Fischerei, werden die hier genannten Mengenbegriffe oft so missverstanden, als ob z. B. die „aggressive Kohlensäure“ besonders schädlich wäre, etwa für die Fische. Da aber Fische nicht aus Kalk bestehen, richtet sich die aggressive Kohlensäure nicht in anderer Weise gegen sie als der Rest der Kohlensäure. Für die Atmung der Fische ist vielmehr die gesamte gelöste CO2-Konzentration ausschlaggebend, für eine allfällige sauere Verätzung ausschließlich der pH-Wert des Wassers. Die „zugehörige Kohlensäure“ wird dort so missverstanden, als ob sie in besonderer Weise an das Hydrogencarbonat gebunden und deshalb nicht durch Wasserbelüftung auszutreiben oder durch Photosynthese von Algen zu verbrauchen wäre. Tatsächlich steht beiden Vorgängen die gesamte „freie Kohlensäure“ zur Verfügung, so dass es zu einer Steigerung des pH-Wertes, dadurch zu einer Verschiebung des Mengengleichgewichts hin zu mehr Carbonat und dadurch schließlich zu einer Überschreitung des Löslichkeitsproduktes des Kalkes, also zu einer Kalkfällung kommt. Siehe dazu auch Kalk-Kohlensäure-Gleichgewicht. Literatur Ulrich Kölle: Rund um Kohlensäure. In: Chemkon.10, Nr. 2, 2003, S. 66–68. Th. Loerting, Chr. Tautermann, R. T. Kroemer: On the Surprising Kinetic Stability of Carbonic Acid. In: Angew. Chem. Int. Ed. 39, Nr. 5, 2000, S. 891–894.deutsch: Th. Loerting, Chr. Tautermann, R. T. Kroemer: Zur überraschenden kinetischen Stabilität von Kohlensäure. In: Angew. Chem. 112, 2000, S. 919–922 (). Kurt Bauer: Zur Bedeutung der Kohlensäure in Karpfenteichen. In: Österreichs Fischerei 44, 1991, S. 49–64. Julius Pia: Kohlensäure und Kalk – Einführung in das Verständnis ihres Verhaltens in den Binnengewässern. In: Die Binnengewässer. Bd. XIII, Schweizerbart, Stuttgart 1933, ISBN 978-3-510-40713-2. H. E. Hömig: Physikochemische Grundlagen der Speisewasserchemie. 2. Auflage, Vulkan-Verlag, Essen 1963, Kap. 2.25–2.30. Weblinks Einzelnachweise Anorganische Säure Kohlenstoffverbindung Sauerstoffverbindung
Q104334
88.452641
81630
https://de.wikipedia.org/wiki/Averroes
Averroes
Abū l-Walīd Muhammad ibn Ahmad Ibn Ruschd (), kurz Ibn Ruschd, latinisiert Averroes – auch Averroës oder Averrhoës – (geboren am 14. April 1126 in Córdoba, ; gestorben am 10. Dezember 1198 in Marrakesch, ), war ein andalusischer Philosoph, muslimischer Gelehrter, Jurist, Arzt und arabischsprachiger Schriftsteller. Er war Hofarzt der berberischen Dynastie der Almohaden von Marokko. Averroes verfasste eine medizinische Enzyklopädie und fast zu jedem Werk von Aristoteles einen Kommentar. In der christlichen Scholastik des Mittelalters, auf die er großen Einfluss ausübte, wurde er deshalb als „der Kommentator“ bezeichnet (italienisch il commentatore, geprägt von Dante), so wie Aristoteles gelegentlich nur „der Philosoph“ genannt wurde. Averroes war derart bedeutend, dass Raffael eine Darstellung des Averroes in sein Fresko Die Schule von Athen aufnahm. Averroes sah in der Logik die einzige Möglichkeit des Menschen, glücklich zu werden. Die aristotelische Logik lieferte für ihn die Möglichkeit, aus den Daten der Sinne zur Erkenntnis der Wahrheit zu kommen. Die Logik war für ihn das Gesetz des Denkens und der Wahrheit. Leben und Wirken Averroes wurde 1126 in Córdoba in eine Juristenfamilie geboren. Er studierte Recht, Medizin und Philosophie und war auch darüber hinaus ein sehr gebildeter Mensch. Im Jahre 1168 oder 1169 soll er von Ibn Tufail dem Fürsten Abu Yaqub Yusuf I. vorgestellt worden sein, welcher ihn in einem Gespräch fragte, was denn die Ansicht der Philosophen über die Ewigkeit des Himmels sei. Averroes aber war eingeschüchtert und behauptete, sich nicht mit Philosophie zu beschäftigen. Also begann der Fürst ein Gespräch mit Ibn Tufail und zeigte dabei seine große Kenntnis der islamischen Philosophie und ihrer Fragestellungen. Averroes begann sich dann doch in das Gespräch einzumischen und bekam schließlich den Auftrag, alle Werke von Aristoteles neu zu ordnen und zu kommentieren, um dem Islam »rein und vollständig die Wissenschaft« zu geben. Er führte ein vielfältiges, auch die Beschäftigung mit Politik nicht aussparendes Leben, so war er 1169 Richter in Córdoba und Sevilla und 1182 wurde er Leibarzt des mittlerweile zum Kalifen gewordenen Abu Yaqub. Jedoch hielt er auch diese Stellung nur kurz und wurde wieder Richter in seiner Heimatstadt. Wie für alle spanisch-arabischen Philosophen waren auch für Ibn Ruschd die politischen Verhältnisse jener Zeit ungünstig. Die islamischen Herrscher bedurften eher der Unterstützung durch Theologen. Averroes’ Aufforderungen an die Menschen, ihre Vernunft zu gebrauchen, brachten ihn in Konflikt mit den Sichtweisen der islamischen Orthodoxie. Unter Kalif Yaʿqūb al-Mansūr (1184–1199), dem Sohn und Nachfolger von Abu Yaqub, stand Averroes zunächst in der Gunst des Herrschers, doch 1195 fiel er in Ungnade. Der Kalif, der sich auf einem Feldzug in Spanien befand, meinte auf die Unterstützung orthodoxer Kräfte angewiesen zu sein. Daher wurde Averroes nach Lucena, einer Kleinstadt südlich von Córdoba, verbannt; seine Werke wurden verboten und ihre Verbrennung angeordnet. Averroes durfte erst 1197 nach Marrakesch zurückkehren, wo er im Jahr 1198 verstarb. Er wurde erst in Marrakesch begraben, später wurde sein Leichnam zum Familiengrab nach Córdoba gebracht. Werk und Philosophie Averroes war ein offener und kritischer Geist seiner Zeit. In seiner Beschäftigung mit Aristoteles ging er so systematisch wie nur möglich voran und interpretierte ihn wie niemand zuvor. Er schrieb Kommentare in mehreren Abstufungen, kürzere, mittlere und größere und machte sich als Kommentator von Aristoteles einen Namen. Sogar Dante erwähnt ihn in dieser Funktion in seiner Göttlichen Komödie. Aristoteles ist dabei für Averroes der vollkommenste Mensch, der im Besitze der unfehlbaren Wahrheit gewesen sei und sich den Menschen aber nur einmalig gezeigt habe. Er sei die inkarnierte Vernunft gewesen. Seine eigene Philosophie baut sehr auf Logik auf, wie es von einem großen Aristoteliker auch nicht anders zu erwarten wäre. Sie beginnt zunächst mit der Frage, ob man überhaupt philosophieren dürfe, ob es vom religiösen Gesetz her erlaubt, verboten, empfohlen oder notwendig sei. In Koranversen wie „Denkt nach, die ihr Einsicht habt!“ findet Averroes nicht nur die Aufforderung an die Muslime, über ihren Glauben nachzudenken, sondern auch, die bestmögliche Beweislage für ihr Denken zu finden, und diese sieht er eindeutig in der Philosophie und zumal in der aristotelischen Beweisführung gegeben. Aber auch Averroes schränkt ein, dass nicht alle Menschen sich mit Philosophie beschäftigen können, sondern nur jene, die einen starken Intellekt besitzen. In Reaktion auf al-Ghazālī teilt er den Koran und dessen Exegese in seinem Werk „Die entscheidende Abhandlung“ in drei Gruppen ein: Klare und evidente Verse, die direkt und für jedermann verständlich sind (etwa „Es gibt keinen Gott außer Gott“) In ihrer Aussage klare Verse, die aber darüber hinaus auch von Personen mit starkem Intellekt interpretiert und reflektiert werden können (etwa „Der Barmherzige hat sich auf dem Thron zurechtgesetzt“, für „Einfache“ so zu verstehen, dass Gott wie ein König auf dem Thron sitze, während „Personen mit starkem Intellekt“ hier schon einen Machtanspruch Gottes erkennen) Verse, bei denen nicht klar ist, ob sie wörtlich oder im übertragenen Sinne zu verstehen sind und bei denen folglich auch die Meinung der Gelehrten abweichen kann (etwa Verse über die Auferstehung oder Ähnliches) Noch viel direkter greift er al-Ghazālī dann aber in seiner Schrift Die Inkohärenz der Inkohärenz an, der Titel ist in Anlehnung an al-Ghazālīs Die Inkohärenz der Philosophen gewählt. Dort hatte al-Ghazālī die Philosophen vor allem deswegen angegriffen, da sie Unglauben auf Grund von drei Dingen lehrten: Die Urewigkeit der Welt Das Wissen Gottes um die Einzeldinge nur auf allgemeine Weise Die mögliche Auferstehung des Menschen nur mit der Seele, nicht aber dem Leibe Averroes antwortete auf diese drei Punkte folgendermaßen: Der Koran sage nirgends, dass die Welt aus dem Nichts geschaffen und in der Zeit entstanden sein soll. In den sechs Tagen der Schöpfung schwebte Gottes Thron dem Koran nach sogar „über dem Wasser“, wonach davon auszugehen ist, dass die Welt schon existiert haben könnte. Solche Verse ordnet Averroes der dritten Gruppe der Koranverse zu, wegen deren Interpretation niemand des Unglaubens bezichtigt werden dürfe. Die Philosophen behaupten gar nicht, dass Gott kein Wissen um die Einzeldinge hätte. Sie betonen aber, dass es anders sei als das Wissen der Menschen und dass die Menschen also gar nicht wissen könnten, was Gott alles weiß. Ihr Wissen entstehe Schritt für Schritt, während Gottes Wissen von Ewigkeit her alle Dinge umfasse und daher eine Voraussetzung dafür sei, dass die Einzeldinge nacheinander entstehen. Auch leugnen die Philosophen die Auferstehung nicht und lehren nichts, was im Widerspruch zum Koran stünde. Auch jene Verse ordnet er der dritten Gruppe der Koran-Verse zu. Also dürfe niemand aufgrund einer „anderen“ Interpretation des Unglaubens bezichtigt werden. Hier setzt sodann sein eigenes philosophisches System an. Allerdings gibt es hier keine eigenständigen Werke mehr, sondern seine Lehre erstreckt sich auf seine zahlreichen Kommentare und Kompendien zu griechischen Autoren, wiewohl er nicht des Griechischen mächtig war. Die Wahrheit sei nach Aristoteles verloren gegangen. Avicenna (Ibn Sina) und anderen wirft er vor, Philosophie mit Theologie verbunden zu haben und somit die Philosophie für Leute wie al-Ghazālī überhaupt erst angreifbar gemacht zu haben. Auch Averroes beschäftigte sich – wie fast alle islamischen Philosophen – mit dem Intellekt bzw. der Vernunft. So habe nicht jeder Mensch seinen eigenen individuellen potenziellen Intellekt, der ihm die Glückseligkeit ermögliche. Denn es gebe nur einen universalen potenziellen Intellekt. Das Individuum verfüge aber nur über jene Tätigkeiten, die mit der körperlichen Existenz zusammenhängen, die von einer Seele koordiniert würden, einer Seele, die mit dem Körper verbunden sei und mit ihm vergehe. Die geistige Erkenntnis gehöre also nicht in den Bereich des Individuellen. Jacob Anatoli (um 1194–1256) übersetzte die Werke des Averroes aus dem Arabischen ins Hebräische. Medizinisches Werk In seinen von der Philosophie durchdrungenen medizinischen Werken setzte sich Averroes mit der Fieberlehre Galens und Avicennas auseinander. In kleineren Werken befasste er sich zudem mit Arzneimitteln und der Pharmakologie. Das bedeutendste medizinische Werk ist sein Kitāb al-kullĩyāt fī'ț-țibb (wörtl. Das Buch der gesammelten Werke über die Heilkunde, ins Lateinische als Liber universalis de medicina übersetzt). Die Wirkungsgeschichte dieses Buch war weitreichend. Es hat die Medizin des Abendlandes entscheidend beeinflusst. Averroes befasste sich hier mit Anatomie, mit der Physiologie und der Pathologie. Auch Nahrungsmittellehre, Heilmittellehre, Hygiene und Therapeutik wurden behandelt. An vielen Stellen wurde Kritik an Galen deutlich, so nicht nur in der Fieberlehre, sondern auch in einem Traktat über Elemente und Krankheitssymptome. Er zitierte Galen auch häufig kritisch in seinem Theriak-Traktat (Maqāla fī't-tiryāq), der sich auch theoretisch mit Dosierungen befasst und dessen Rezeption Grundlage war für eine komplex quantifizierende Pharmazie. Ehrennamen Carl von Linné benannte ihm zu Ehren die Gattung Averrhoa der Pflanzenfamilie der Sauerkleegewächse (Oxalidaceae). Der Mondkrater Ibn-Rushd wurde nach ihm benannt. Die von Seyran Ateş gegründete Ibn-Rushd-Goethe-Moschee in Berlin-Moabit wurde nach ihm benannt. Anis Ahmed Dehlavi, Vater des Schriftstellers Salman Rushdie, nahm den Namen „Rushdie“ aus Bewunderung für den Philosophen an. Siehe auch Averroismus Ibn-Ruschd-Preis Textausgaben und Übersetzungen arabisch (zum Teil mit Übersetzungen) Maroun Aouad (Hrsg.): Averroès (ibn Rušd): Commentaire moyen à la Rhétorique d'Aristote. 3 Bände, Vrin, Paris 2002, ISBN 2-7116-1610-X (kritische Ausgabe mit französischer Übersetzung und Kommentar) Charles E. Butterworth (Übers.): Averroes’ Three Short Commentaries on Aristotle’s „Topics“, „Rhetoric“, and „Poetics“. State University of New York Press, Albany 1977, ISBN 0-87395-208-1 (kritische Ausgabe mit englischer Übersetzung) Heidrun Eichner (Hrsg.): Averroes: Mittlerer Kommentar zu Aristoteles’ De generatione et corruptione. Schöningh, Paderborn 2005, ISBN 3-506-72899-7 (kritische Ausgabe mit Kommentar). Alfred L. Ivry (Hrsg.): Averroës: Middle Commentary on Aristotle’s De anima. Brigham Young University Press, Provo (Utah) 2002, ISBN 0-8425-2473-8 (kritische Ausgabe mit englischer Übersetzung) Colette Sirat, Marc Geoffroy: L’original arabe du grand commentaire d’Averroès au De anima d'Aristote. Prémices de l’édition. Vrin, Paris 2005, ISBN 2-7116-1749-1 (mit französischer Übersetzung) David Wirmer (Hrsg.): Averroes: Über den Intellekt. Auszüge aus seinen drei Kommentaren zu Aristoteles’ De anima. Arabisch, Lateinisch, Deutsch. Herder, Freiburg 2008, ISBN 978-3-451-28699-5. Rüdiger Arnzen (Hrsg.): Averroes on Aristotle’s Metaphysics. An Annotated Translation of the So-called Epitome (= Scientia Graeco-Arabica. 5). De Gruyter, Berlin 2010 (books.google.de). deutsch Patric O. Schaerer (Übers.): Averroes: Die entscheidende Abhandlung. Die Untersuchung über die Methoden der Beweise. Reclam, Stuttgart 2010, ISBN 978-3-15-018618-3. Helmut Gätje: Die ‚Parva Naturalia‘ des Aristoteles in der Bearbeitung des Averroës. Untersuchungen zur arabischen Philosophie. Dissertation, Tübingen 1955. Helmut Gätje: Die Epitome der ‚Parva Naturalia‘ des Averroës. Harrassowitz Verlag, Wiesbaden 1961. Frank Griffel (Übers.): Muḥammad ibn Aḥmad ibn Rushd: Maßgebliche Abhandlung Faṣl al-Maqāl. Verlag der Weltreligionen, Berlin 2010, ISBN 978-3-458-70026-5. Max Horten (Übers.): Die Metaphysik des Averroes (1198 †) nach dem Arabischen übersetzt und erläutert. Minerva, Frankfurt a. M. 1960 (Nachdruck der Ausgabe von 1912). Max Horten (Übers.): Die Hauptlehren des Averroes nach seiner Schrift: Die Widerlegung des Gazali. Marcus und Webers Verlag, Bonn 1913. Marcus Joseph Müller (Übers.): Philosophie und Theologie von Averroes. VCH, Weinheim 1991, ISBN 3-527-17625-X (Nachdruck der Ausgabe München 1875; enthält: al-Kashf'an Manabij al-Adilla fi'Aqa'id al-Milla; Fasl al-Maqal; al-Daminah, Faksimiles bei archive.org). Simon van den Bergh (Übers.): Die Epitome der Metaphysik des Averroes, übersetzt und mit einer Einleitung und Erläuterungen versehen. Brill, Leiden 1970 (Nachdruck der Ausgabe von 1924). englisch Charles E. Butterworth (Übers.): Averroes’ Middle Commentary on Aristotle’s Poetics. Princeton University Press, Princeton 1986, ISBN 0-691-07302-3. Charles E. Butterworth (Übers.): Averroes’ Middle Commentaries on Aristotle’s Categories and De Interpretatione. Princeton University Press, Princeton 1983, ISBN 0-691-07276-0. Helen Tunik Goldstein (Übers.): Averroes’ Questions in Physics. Kluwer Academic Publishers, Dordrecht 1991, ISBN 0-7923-0997-9. Simon van den Bergh (Übers.): Averroes’ Tahafut al-tahafut (The Incoherence of the Incoherence). Cambridge University Press, Cambridge 1987, ISBN 0-906094-04-6 (Nachdruck der Ausgabe 1954; zwei Bände in einem). französisch Laurence Bauloye (Übers.): Averroès: Grand commentaire (Tafsīr) de la Métaphysique. Livre Bêta. Vrin, Paris 2002, ISBN 2-7116-1548-0. Ali Benmakhlouf, Stéphane Diebler: Averroès: Commentaire moyen sur le De interpretatione. Vrin, Paris 2000, ISBN 2-7116-1441-7. Aubert Martin (Übers.): Averroès: Grand commentaire de la Métaphysique d'Aristote. Livre Lam-Lambda. Les Belles Lettres, Paris 1984, ISBN 2-251-66234-0. lateinisch (mittelalterlich und humanistisch) Averrois Cordubensis colliget libri VII. Cantica item Avicennae cum eiusdem Commentariis. In: Die medizinischen Kompendien des Averroes und Avicenna (= Aristoteles: Opera Band 10), Minerva, Frankfurt am Main 1962 (Nachdruck der Ausgabe Venedig 1562) [humanistische Übersetzung]. Bernhard Bürke (Hrsg.): Das neunte Buch (Θ) des lateinischen großen Metaphysik-Kommentars von Averroes. Francke, Bern 1969. Francis James Carmody, Rüdiger Arnzen, Gerhard Endress (Hrsg.): Averrois Cordubensis commentarium magnum super libro De celo et mundo Aristotelis. 2 Bände, Peeters, Leuven 2003, ISBN 90-429-1087-9 und ISBN 90-429-1384-3 (books.google.de). Gion Darms (Hrsg.): Averroes: In Aristotelis librum II (α) metaphysicorum commentarius. Die lateinische Übersetzung des Mittelalters auf handschriftlicher Grundlage mit Einleitung und problemgeschichtlicher Studie. Paulusverlag, Freiburg (Üechtland) 1966. Francis H. Fobes (Hrsg.): Averrois Cordubensis commentarium medium in Aristotelis de generatione et corruptione libros. Mediaeval Academy of America, Cambridge (Mass.) 1956 (medievalacademy.org PDF). Marc Geoffroy, Carlos Steel (Hrsg.): Averroès: La béatitude de l’âme. Vrin, Paris 2001, ISBN 2-7116-1519-7 [unechtes Werk, dem Averroes fälschlich zugeschrieben; enthält Lehren des Averroes, stammt aber von einem jüdischen Philosophen] Roland Hissette (Hrsg.): Commentum medium super libro peri hermeneias Aristotelis. Translatio Wilhelmo de Luna attributa. Peeters, Leuven 1996, ISBN 90-6831-859-4. Roland Hissette (Hrsg.): Commentum medium super libro praedicamentorum Aristotelis. Translatio Wilhelmo de Luna adscripta. Peeters, Louvain 2010, ISBN 978-90-429-2282-2. Ruggero Ponzalli (Hrsg.): Averrois in librum V (Δ) metaphysicorum Aristotelis commentarius. Francke, Bern 1971. Horst Schmieja (Hrsg.): Commentarium magnum in Aristotelis physicorum librum septimum (Vindobonensis, lat. 2334). Schöningh, Paderborn 2007, ISBN 978-3-506-76316-7. Emily L. Shields, Harry Blumberg (Hrsg.): Averrois Cordubensis compendia librorum Aristotelis qui parva naturalia vocantur. Mediaeval Academy of America, Cambridge (Mass.), versio Hebraica 1949 (medievalacademy.org PDF); versio Arabica 1972 (medievalacademy.org PDF) Frederick Stuart Crawford (Hrsg.): Averrois Cordubensis commentarium magnum in Aristotelis de anima libros. Mediaeval Academy of America, Cambridge (Mass.) 1953 (medievalacademy.org PDF). Beatrice H. Zedler (Hrsg.): Averroes’ Destructio Destructionum Philosophiae Algazelis in the Latin Version of Calo Calonymos. Marquette University Press, Milwaukee 1961 mehrsprachige Digitale Edition Digital Averroes Research Environment Literatur André Bazzana, Nicole Bériou, Pierre Guichard: Averroès et l'averroïsme, XIIe–XVe siècle, un itinéraire historique du Haut Atlas à Paris et à Padoue: actes du colloque international organisé à Lyon, les 4 et 5 octobre 1999. Presses universitaires de Lyon, Lyon 2005, ISBN 2-7297-0769-7. Jameleddine Ben Abdeljelil: Ibn Ruschds Philosophie interkulturell gelesen. Traugott Bautz, Nordhausen 2005, ISBN 3-88309-163-4. Emanuele Coccia: La trasparenza delle immagini. Averroè e l'averroismo. Mondadori, Milano 2005, ISBN 88-424-9272-8. Michael Fisch: „Die Religion macht die Beschäftigung mit der Philosophie zur Verpflichtung.“ Muhammad ibn Ahmad ibn Rushds fasl al-amaqal. In: Michael Fisch: „Siehe der Mensch ist wahrlich in Verlorenheit.“ Beiträge zu Qur'ân- und Islam-Forschung (2011-2019). Weidler, Berlin 2019, S. 177–185, ISBN 978-3-89693-741-4. Raif Georges Khoury: Averroes (1126–1198) oder der Triumph des Rationalismus. Winter, Heidelberg 2002, ISBN 3-8253-1265-8. Anke von Kügelgen: Averroes und die arabische Moderne. Ansätze zu einer Neubegründung des Rationalismus im Islam. Brill, Leiden/ New York/ Köln 1994 (= Islamic Philosophy, Theology and Science. Texts and Studies. Band 19), ISBN 90-04-09955-7. Thomas Kupka, Averroes als Rechtsgelehrter, in: Rechtsgeschichte 18 (2011), 214–216 (papers.ssrn.com PDF). Oliver Leaman: Averroes and his Philosophy. Clarendon Press, Oxford 1988, ISBN 0-19-826540-9. Hermann Ley: Ibn Ruschd. In: Philosophenlexikon. Dietz Verlag, Berlin 1982, S. 421–426 (mit Bibliografie). S. Gómez Nogales: La psicología de Averroes. Comentario al libro sobre el alma de Aristóteles. Madrid 1987. Ernest Renan: Averroès et l’Averroïsme. Paris 1852; 3. Auflage ebenda 1866. Markus Stohldreier: Zum Welt- und Schöpfungsbegriff bei Averroes und Thomas v. Aquin. Eine vergleichende Studie. Grin, München 2009, ISBN 978-3-640-34740-7 (freidok.uni-freiburg.de). Dominique Urvoy: Le monde des Ulémas andalous du V/XIe au VII/XIIIe siècle. Genf 1978. Dominique Urvoy: Averroès - Les ambitions d'un intellectuel musulman. Paris 2008. Markus Zanner: Konstruktionsmerkmale der Averroes-Rezeption – ein religionswissenschaftlicher Beitrag zur Rezeptionsgeschichte des islamischen Philosophen Ibn Ruschd. Lang, Frankfurt am Main 2002, ISBN 3-631-36629-9. Weblinks Nordrhein-Westfälische Akademie der Wissenschaften und der Künste, Arbeitsstelle im Thomas-Institut: Averroes-Latinus Islamic Philosophy Online – Philosophia Islamica: Kurzporträt, Texte und Sekundäres (in englischer und arabischer Sprache) The Philosophy and Theology of Averroes. Tractacta, translated from the Arabic by Mohammad Jamil-Ub-Behman Barod (Baroda: Manibhai Mathurbhal Gupta, 1921). (In Physicam 20, In De Anima 5 und 20) (in lateinischer Sprache) Bibliographie zu Averroës Digital Averroes Research Environment: Manuskripte, Inkunabeln und Volltexte Werke von Averroes in der Nationalbibliothek von Portugal Anmerkungen Philosoph (islamisches Mittelalter) Islamischer Theologe (12. Jahrhundert) Logiker Universalgelehrter Arabische Medizin Mediziner des Mittelalters Sufi Person als Namensgeber für einen Mondkrater Namensgeber für eine Pflanzengattung Person (al-Andalus) Araber Geboren 1126 Gestorben 1198 Mann
Q39837
180.217494
22274
https://de.wikipedia.org/wiki/Soziologe
Soziologe
Ein Soziologe oder eine Soziologin (zu „sozial“, über französisch social von lateinisch socialis, „gesellschaftlich“) befasst sich wissenschaftlich mit dem Zusammenleben der Menschen in der Gesellschaft (Soziologie). Gegenstand Soziologen untersuchen Strukturen menschlicher Gesellschaften, erheben und analysieren soziologische Daten, erkunden soziale Phänomene wie Erziehung, politische Willensbildung, Kriminalität, Arbeitslosigkeit, untersuchen die Strukturen sozialer Gebilde und Institutionen, wie Betriebe, Familien, Parteien, Religionsgemeinschaften. Je mehr wirtschaftliche und soziale Probleme in einer Gesellschaft sichtbar werden, desto wichtiger wird soziologisches Fachwissen, um Erklärungsansätze zu gewinnen und Strategien zu entwickeln, wie diese Probleme analysiert und bearbeitet werden können. Allerdings, so mahnt beispielsweise der politische Autor Helmut Dahmer seine Zunft, ist die seiner Beobachtung nach vorherrschende Soziologie unfähig, relevante Probleme der Gesellschaft lösungsorientiert zu elaborieren: „Der typische Soziologe von heute ist ein politisch desengagierter Spezialist, selbst wenn er gelegentlich mit ‚Politikberatung‘ Geld verdient. So verkennt die gegenwärtige Soziologie sich selbst und verfehlt ihren Beruf.“ Soziologen können ihre Kenntnis sozialer Phänomene, deren Entstehung und Wechselwirkungen und vor allem auch ihre Kenntnisse in der sozialwissenschaftlichen Datenerhebung und -auswertung in unterschiedlichen Bereichen nutzen – im Personalwesen und Sozialwesen, in Weiterbildungseinrichtungen von Wirtschaft und Verwaltung, in der Marktforschung und Meinungsforschung, im Marketing und in der Unternehmungsberatung. Soziologe als Beruf Übliche Berufsbezeichnungen neben „Soziologe“ sind auch „Sozialwissenschaftler“, seltener „Gesellschaftswissenschaftler“. Tätigkeitsbereiche In Meinungsforschungsinstituten In Marktforschungsinstituten In großen Industrieunternehmen und Handelshäusern In der öffentlichen Verwaltung In Parteien, Interessenverbänden und Kammern In der universitären oder kommerziellen Sozialforschung Im Bereich der Massenmedien – vom Buchmarkt bis zum Fernsehen In der Entwicklungshilfe Häufige Berufe Dozenten an Volkshochschulen und Fachakademien der Alten- und Krankenpflege Lehrbeauftragte an Fachhochschulen, Universitäten und in der postgradualen Weiterbildung Unternehmensberater oder Public Relations-Berater Journalisten Hochschullehrer und -forscher Arbeitswissenschaftler Bildungsforscher Dozenten, Forschungsreferenten Konjunkturforscher Leiter Betriebliche Aus- u. Weiterbildung Marktforscher Mediator Meinungsforscher PR-Manager und Pressesprecher Personalberater/Personalentwickler/Personalleiter Redakteure Wirtschafts- u. Sozialstatistiker Wissenschaftliche Mitarbeiter an Hochschulen und Forschungseinrichtungen Lehrer und Bildungsplaner im Rahmen der Erwachsenenbildung Wissenschaftliche und berufliche Organisationen Die nationalen Fachorganisationen der Soziologen im deutschsprachigen Raum sind die Deutsche Gesellschaft für Soziologie, die Österreichische Gesellschaft für Soziologie und die Schweizerische Gesellschaft für Soziologie. Berufstätige Soziologen sind im Berufsverband Deutscher Soziologinnen und Soziologen (BDS) beziehungsweise in den Gewerkschaften ihres Tätigkeitssbereichs organisiert. Ethikkodex Die Deutsche Gesellschaft für Soziologie (DGS), die Deutsche Gesellschaft für Soziologie Ostdeutschland und der Berufsverband Deutscher Soziologinnen und Soziologen (BDS) beschlossen 1992 einen gemeinsamen Ethikkodex für Soziologen. Darin werden Soziologen u. a. zur Objektivität, Neutralität und wissenschaftlichen Unabhängigkeit verpflichtet. Bei Verstößen sind zunächst Schiedsverfahren, aber auch standesrechtliche Ahndungen vorgesehen. Hierfür amtet eine ständige gemeinsame Ethikkommission der beiden noch bestehenden Verbände DGS und BDS. Für Soziologen, die als Statistiker arbeiten, sind diese Maßgaben im Bundesstatistikgesetz festgehalten (Paragraph 1). Fehlverhalten kann zu schwerwiegenden Konsequenzen führen. Literatur Wilhelm Bernsdorf, Horst Knospe (Hrsg.): Internationales Soziologenlexikon. 2 Bände. 2. Auflage. Enke, Stuttgart 1980, ISBN 3-432-82652-4 (Band 1) und ISBN 3-432-90702-8 (Band 2). Wolfram Breger (Hrsg.): Was werden mit Soziologie. Berufe für Soziologinnen und Soziologen. Das BDS-Berufshandbuch. Lucius & Lucius, Stuttgart 2007, ISBN 978-3-8282-0402-7. Carl Brinkmann (Hrsg.): Soziologie und Leben. Tübingen/Stuttgart 1952. Kerstin Jürgens: Mit Soziologie in den Beruf – Eine Handreichung. transcript-Verlag, Bielefeld 2021, ISBN 978-3-8252-5738-5. Weblinks DGS – Deutsche Gesellschaft für Soziologie (siehe insbesondere: Geschichte) BDS – Berufsverband Deutscher Soziologinnen und Soziologen ÖGS – Österreichische Gesellschaft für Soziologie Einzelnachweise Hochschulberuf
Q2306091
118.527439
21213
https://de.wikipedia.org/wiki/Polyvinylchlorid
Polyvinylchlorid
Polyvinylchlorid (Kurzzeichen PVC) ist ein thermoplastisches Polymer, das durch Kettenpolymerisation aus dem Monomer Vinylchlorid hergestellt wird. PVC ist nach Polyethylen und Polypropylen das drittwichtigste Polymer für Kunststoffe. Die PVC-Kunststoffe werden in Hart- und Weich-PVC unterteilt. Hart-PVC wird beispielsweise zur Herstellung von Fensterprofilen, Rohren und Schallplatten verwendet. Weich-PVC enthält Weichmacher, die zu einem elastischen Verhalten des Materials führen. Es wird beispielsweise für Kabelummantelungen, Spanndecken und Bodenbeläge verwendet. Geschichte Der französische Chemiker Henri Victor Regnault war 1835 der erste, der im Gießener Laboratorium von Justus von Liebig Vinylchlorid herstellte und bemerkte, dass sich daraus bei längerer Einwirkung von Sonnenlicht ein weißes Pulver – Polyvinylchlorid – bildete, konnte die Bedeutung seiner Entdeckung jedoch nicht erkennen. 1912 entwickelte Fritz Klatte bei der Chemischen Fabrik Griesheim-Elektron die Synthese von Vinylchlorid aus Ethin und Chlorwasserstoff. Auch er setzte Glasgefäße mit Vinylchlorid und verschiedenen Zusätzen dem Sonnenlicht aus. Er legte damit die Grundsteine für die Herstellung von PVC. 1913 patentierte Klatte die „Polymerisation von Vinylchlorid und Verwendung als Hornersatz, als Filme, Kunstfäden und für Lacke“. Marktfähige Produkte wurden jedoch nicht entwickelt. Mit der Rohstoffknappheit während und nach dem Ersten Weltkrieg wurden die Anstrengungen verstärkt, PVC als Rohstoff zu nutzen, um teure Rohstoffe durch kostengünstige Materialien zu ersetzen. Es kam jedoch erst Ende der 1920er Jahre zu weiteren Anwendungen. 1928 erfolgte die großtechnische Ausweitung durch Produktion in den USA und 1930 in Rheinfelden (Baden) durch die BASF; 1935 nahm die I.G. Farben die PVC-Produktion auf. 1935 gelang in Bitterfeld (D) die Herstellung von Weich-PVC. Ein Warenzeichen dieser Zeit war Igelit. Erste PVC-Produkte waren Folien und Rohre. Letztere wurden 1935 in Bitterfeld und Salzgitter (D) verlegt. Nach 1945 war PVC der meistproduzierte Kunststoff der Welt. Im Jahr 1948 wurden schließlich Schallplatten aus PVC hergestellt, das den Schellack endgültig ablöste. Mit dem Wachstum der chemischen Industrie wurde Natronlauge in immer größeren Mengen benötigt. Natronlauge wird über eine Chloralkali-Elektrolyse aus Natriumchlorid gewonnen. Koppelprodukt ist dabei Chlor. Die Entwicklung der Chlorchemie beruht unter anderem auf dem kostengünstigen Koppelprodukt, was auch die Produktion und Vermarktung von PVC begünstigte. Von Kritikern wird PVC als „Chlorsenke“ für das Koppelprodukt der Chloralkali-Elektrolyse betrachtet. In den Vereinigten Staaten wurde der Werkstoff in den 1960er Jahren zu nachchloriertem PVC (Chloriertes Polyvinylchlorid) weiterentwickelt, welches nach DIN mit „PVC-C“, im Ausland auch mit „CPVC“ abgekürzt wird. Der Massenanteil von Chlor in PVC-C liegt über den 56,7 % von PVC und kann bis 74 % aufweisen. Bei höheren Temperaturen ist es korrosionsbeständiger und hat bessere mechanische Eigenschaften als PVC, sodass es sich auch zur Herstellung von Rohren für die Warmwasserversorgung und mit Einschränkungen sogar für Heizungskreisläufe eignet. Handelsnamen PVC wurde oder wird unter den Namen Ekadur, Decelith, Gölzalith, Vinidur, Trovidur, Hostalit, Lucalor, Corzan, Glastoferan (PVC-C) und Ekalit, Dekelith, Mipolam, Barrisol (Weich-PVC für Spanndecken), Igelit (Weich-PVC) und Piviacid (Faserstoff-PVC der DDR) vermarktet. Herstellung Polyvinylchlorid wird durch radikalische Kettenpolymerisation aus dem Monomer Vinylchlorid (H2C=CHCl) erzeugt: Im Wesentlichen sind drei verschiedene Polymerisationsverfahren üblich. Die Taktizität der Wiederholeinheiten ist bei allen Verfahren hauptsächlich ataktisch. Der bis etwa 10%ige kristalline Anteil des Polymers hat eine syndiotaktische Struktur. E-PVC Das älteste Verfahren ist die Emulsionspolymerisation (erstmals 1929). Man erhält das sogenannte E-PVC. Mit Hilfe von Emulgatoren wird Vinylchlorid als kleine Tröpfchen in Wasser eingerührt. Als wasserlösliche Initiatoren werden zum Beispiel Wasserstoffperoxid oder Kaliumperoxodisulfat verwendet. Bei erhöhter Temperatur bilden sich aus den Monomertröpfchen Polyvinylchloridteilchen. Diesen Primärteilchen werden bei Unterdruck die nicht umgesetzten Monomere entzogen. Im Produkt verbleiben die eingesetzten Emulgatoren. Das Verfahren kann sowohl kontinuierlich als auch diskontinuierlich durchgeführt werden. Polymerdispersionen aus diesem Verfahren werden u. a. für Klebstoffe oder Beschichtungsmittel verwendet. S-PVC In einem Autoklaven wird Vinylchlorid unter Druck verflüssigt und mit Wasser versetzt. Durch intensives Rühren wird eine Suspension von sehr kleinen Vinylchloridtröpfchen in Wasser erzeugt. Als Polymerisationsinitiator werden im Monomer lösliche organische Peroxide oder bestimmte aliphatische Azoverbindungen, wie beispielsweise Azobis(isobutyronitril) (AIBN), verwendet. Es handelt sich dabei um eine Suspensionspolymerisation und das entstehende Produkt wird S-PVC genannt. In sehr kleinen Mengen werden Schutzkolloide zugesetzt, um ein Verkleben der Tröpfchen im Verlauf der Polymerisation zu vermeiden. Die Körner werden entgast, um nicht umgesetzte Monomere und Wasser zu entfernen. Etwa 90 % der PVC-Herstellung erfolgt auf diesem Weg. M-PVC Bei der Massepolymerisation wird die Polymerisation direkt in flüssigem Vinylchlorid mit einem darin löslichen Initiator, meist einem organischen Peroxid, durchgeführt. Das Produkt wird M-PVC genannt. Der Umsatz wird nur bis etwa 80 % geführt und das nicht umgesetzte Monomer bei Unterdruck entfernt. M-PVC hat im Vergleich zu E- und S-PVC eine sehr hohe Reinheit. Die eng verteilte Korngröße liegt bei ca. 100 µm. Bei Anwendungen, in denen eine hohe Transparenz gefordert wird, wird bevorzugt M-PVC eingesetzt. Gleiches gilt für Sterilisationsfolien. Hart-PVC und Weich-PVC PVC wird in Hart-PVC (Kurzzeichen PVC-U, wobei U für engl. unplasticized steht) und Weich-PVC, (Kurzzeichen PVC-P, wobei P für engl. plasticized steht) unterteilt. Aus Hart-PVC werden Rohre, Profile zum Beispiel für Fenster und Pharmazie-Folien hergestellt. Weich-PVC spielt als Kabelisolator eine große Rolle und findet auch in Fußbodenbelägen, Schläuchen, Schuhsohlen und Dachabdichtungen Anwendung. Weich-PVC enthält bis zu 40 Prozent Weichmacher; Hart-PVC enthält grundsätzlich keinen Weichmacher. Additive Das an sich spröde und harte PVC wird mit Additiven, in erster Linie Stabilisatoren und Schlagzäh-Modifier, an die verschiedensten Einsatzgebiete angepasst. Die Additive verbessern die physikalischen Eigenschaften wie die Temperatur-, Licht- und Wetterbeständigkeit, die Zähigkeit und Elastizität, die Kerbschlagzähigkeit, den Glanz und dienen der Verbesserung der Verarbeitbarkeit. Die Additive sollen in möglichst geringer Konzentration eine hohe Wirkung haben, die Herstellungsprozesse für das Kunststoffformteil nicht beeinträchtigen und dem Produkt die gewünschte Gebrauchsdauer verleihen. Als Schlagzäh-Modifier werden in der Regel Acrylatpolymere oder chloriertes Polyethylen verwendet. Durch Modifier wird auch die Verarbeitung von PVC verbessert, so wird eine schnellere Plastifizierung von PVC erreicht. PVC ist ein thermoplastisches Polymer, das im Temperaturbereich von 160 bis 200 °C verarbeitet wird. Bei diesen Temperaturen beginnt ein Zersetzungsprozess unter Abspaltung von Chlorwasserstoff (HCl). Der Zusatz von Thermostabilisatoren (siehe auch Thermostabilität (Biologie) ist notwendig, zugleich verbessern sie die Witterungs- und Alterungsbeständigkeit. Wenn das PVC bei der Weiterverarbeitung erhöhten Temperaturen ausgesetzt ist (zum Beispiel durch Heizelementschweißen bei 260 °C), muss das Additivpaket darauf abgestimmt sein. Dazu werden Verbindungen, beispielsweise Stearate oder Carboxylate auf Basis von Schwermetallen wie Blei, Cadmium, Zinn, Barium/Zink, Calcium/Zink und Calcium/Aluminium/Zink wie Cadmiumstearat oder Bleistearat, eingesetzt. (die Metalle fangen im Aufschmelzprozess als „Säurefänger“ freiwerdendes Chlor ab und bilden Metallchloride). Cadmiumverbindungen als Stabilisator wurden 2001 von der EU verboten, seit 2015 werden in der EU keine Blei-Stabilisatoren mehr verwendet (freiwilliges Minderungsziel). Derartige metallhaltige Thermostabilisatoren können durch synthetische Mineralien als Säurefänger wie z. B. Hydrotalcit (ein Magnesium-Aluminium-Hydroxycarbonat) ersetzt werden. Weich-PVC erhält seine charakteristische Eigenschaften durch die eingesetzten Weichmacher. Daneben kann Weich-PVC noch Antioxidantien, Wärmestabilisatoren (unterstützen die Formgebung) wie beispielsweise Organozinnstabilisatoren und Flammschutzmittel (beispielsweise Antimontrioxid) als Zusatzstoffe enthalten. Phthalate, Bisphenol A und die in manchen PVC-Artikeln enthaltenen Organozinnverbindungen gelten als endokrin (hormonell) wirksam, derartige Substanzen beeinflussen die Fortpflanzungs- und Überlebensrate von Amphibien und sogar das Rufverhalten von Fröschen „und zwar so spezifisch, dass alle Substanzen nach ihren Wirkmechanismen klassifiziert und in umweltrelevanten Konzentrationen nachgewiesen werden konnten.“ Die meist (bei Teichfolien) verwendeten Additive (Phthalate, Bisphenol A, Organozinnverbindungen etc.) sind nur gering wasserlöslich, doch es entstehen entsprechend der jeweiligen Löslichkeit geringe Konzentrationen im Wasser. Aus dem Wasser werden sie wieder zum Teil herausextrahiert, indem sie bei Kontakt mit biogenen Feststoffen an diesen adsorbiert und dann gemeinsam mit Teichschlamm entsorgt werden. Abgesaugter Bodenschlamm wird üblicherweise der Flächenkompostierung als Mulch zugeführt. Der Kompost kann dann höhere Gehalte an Weichmachern und sonstige Additive (Bisphenol A, Tributylzinn) enthalten als das Wasser. Werden die Additive aus dem Wasser herausextrahiert, so kann das Wasser als Lösungs- und Extraktionsmittel wieder Additive aufnehmen und weiterhin aus der Folie herauslösen. Dadurch stellt sich ein (physikalisches) Gleichgewicht ein. Weichmacher Der Zusatz von Weichmachern verleiht dem Polymer plastische Eigenschaften, wie Nachgiebigkeit und Weichheit. Als Weichmacher werden vor allem Phthalsäureester eingesetzt. Weniger Bedeutung haben Chlorparaffine, Adipinsäureester und Phosphorsäureester. Die Weichmacher lagern sich bei der thermoplastischen Verarbeitung zwischen die Molekülketten des PVC ein und lockern dadurch das Gefüge. Die nicht chemisch gebundenen Weichmacher, die „bis zu über 50 % der Gesamtmasse“ ausmachen können, können aus einer Folie herausgelöst werden, was auch die Versprödung der Folien nach etwa 10 Jahren bewirkt. Gebrochene PVC-Folie bei alten Folienteichen und Schwimmbecken ist ein Indikator, dass ursprünglich enthaltene Weichmacher durch Elution (Auswaschung) oder Migration (Weiterwanderung in andere Kunststoffe, Feststoffe oder Mikroorganismen) oder Verdampfung in die Umwelt gelangt sind. Weichmacher und Additive können auch (bei Folienteichen) vom PVC in die Kunststoffe der Unterlagsvliese migrieren. Deutlich wirkt sich die Migration bei Schwimmbecken aus, die (zur besseren Wärmedämmung) aus betongefüllten Formstücken von expandiertem Polystyrol aufgebaut sind, In solchen Fällen verlangen die Folienlieferanten, dass ein Geotextil-Vlies zwischen PVC-Folie und Polystyrol eingebracht wird (weil sonst Garantieansprüche verlöschen). Diese Einlagerung ist eine physikalische Aufdehnung der Struktur, sodass trotz der geringen Flüchtigkeit eine Migration und Gasabgabe erfolgt. Dadurch kommt es je nach Anwendungszweck zu einer sorbierten Oberflächenschicht oder auch zur Wanderung des Weichmachers in angrenzende Materialien oder auch durch den Luftraum in benachbarte Substanzen. Produkte auf anderer Basis, die auf Grund wesentlich niedrigerer Dampfdrücke langsamer migrieren, sind deutlich teurer, werden aber zunehmend in Europa eingesetzt. Dazu zählen beispielsweise Acetyltributylcitrat und 1,2-Cyclohexandicarbonsäurediisononylester. Pulvermischungen aus PVC mit eingearbeiteten Weichmachern und Additiven werden Dry-Blends genannt. Bei Verwendung als Teichfolie wird als Alternative EPDM-Folie eingesetzt, die völlig weichmacherfrei und trotzdem gut dehnbar, kältetolerant und widerstandsfähig ist (weitere Vorteile siehe EPDM-Dichtungsbahn#Eigenschaften und Verwendung). Deren Nachteile sind beispielsweise, dass sie nur in schwarz (mit Füllstoff Ruß) oder weiß (nur im englischsprachigen Raum als „EPDM Rubber white“) erzeugt wird und die Fügetechnik der Vulkanisation für Laien nicht so einfach ist wie etwa das Warmgasschweißen von PVC. Eigenschaften PVC lässt sich gut einfärben und nimmt kaum Wasser auf. Es ist beständig gegen einige Säuren und Laugen und bedingt beständig gegen Ethanol, Öl und Benzin. Angegriffen wird PVC unter anderem von Aceton, Diethylether, Tetrahydrofuran (THF), Benzol, Chloroform und konzentrierter Salzsäure. Hart-PVC lässt sich gut, Weich-PVC schlecht spanabhebend verarbeiten. Bei Temperaturen von 120 bis 150 °C kann es spanlos verformt werden. Verbindungen können mit Klebstoffen (Lösungsmittelklebstoffe, Zweikomponentenklebstoffe) oder durch Kunststoffschweißen (verschiedene manuelle und maschinelle Schweißverfahren) hergestellt werden. Lösungsmittelklebstoffe (sog. Quellschweißmittel) sind meist auf der Basis von THF, dem zur Erhöhung der Viskosität 10 bis 20 % PVC-Pulver (ggf. nachchloriertes PVC) zugesetzt sind. Weich-PVC wird auch mit PU-Klebstoffen verklebt, die als Lösungsmittel häufig Methylethylketon, Aceton, Ethylacetat und Methylacetat enthalten. Für gewöhnliches Hart-PVC (PVC-U) sind eine Anzahl Klebstoffe verfügbar, während für PVC-C nur wenige spezielle Klebstoffe wie Tangit PVC-C und Griffon HT 120 angeboten werden. Häufig wird die vorherige Reinigung der Klebefächen mit einem zugehörigen lösemittelhaltigen Reinigungsmittel empfohlen. PVC brennt mit gelber, stark rußender Flamme und erlischt ohne weitere externe Beflammung schnell. Aufgrund des hohen Chlorgehalts ist PVC im Gegensatz zu anderen technischen Kunststoffen wie beispielsweise Polyethylen oder Polypropylen schwer entflammbar. Bei Bränden von PVC-Kunststoffen entstehen allerdings Chlorwasserstoff, Dioxine und auch Aromaten. PVC ist ein guter Isolator. Die Ausbildung von Dipolen und deren ständige Neuausrichtung im elektrischen Wechselstrom-Feld führt im Vergleich zu den meisten anderen Isolatoren zu hohen Dielektrizitätsverlusten. Wegen der hohen Festigkeit des Kabelmantels und der guten Isoliereigenschaften sind PVC-Niederspannungskabel für die Verlegung unter Putz oder im Freien sehr gut geeignet. Verwendung Der Vorteil von PVC ist seine Haltbarkeit. Sonnenlicht zersetzt es nicht (sofern genug UV-Stabilisatoren eingearbeitet sind), die mechanischen Eigenschaften werden nicht beeinträchtigt. Wasser (auch salziges Meerwasser) und Luft können PVC wenig bis gar nicht zerstören. Deshalb kommt PVC vor allem bei langlebigen Produkten zum Einsatz. Die Produkte sind in den verschiedensten Farben und Dekors herstellbar. PVC ist sehr preisgünstig, denn der Rohstoff Chlor ist ein bei der Herstellung von Natronlauge, die wiederum eine der am häufigsten verwendeten Labor- und Industriechemikalien ist und in der chemischen Industrie für so eine Vielzahl von Verfahren benötigt wird (siehe dazu Natronlauge#Verwendung), dass der Bedarf nicht gedeckt werden kann. Chlor wird also im Überschuss produziert und steht (seit dem Niedergang der Chlorkohlenwasserstoffe als Lösungsmittel) im Rang eines billigen Abfallprodukts. Unter anderem der günstige Preis führte zum Boom von PVC-Produkten. Massives PVC wird beispielsweise bei Garten- und Campingmöbeln und Fensterrahmen eingesetzt. PVC-Rohre setzen sich aufgrund der glatten Innenfläche weniger zu, Fensterprofile sind pflegeleicht, wartungsarm und witterungsbeständig. PVC-Folien haben verschiedene Anwendungen, z. B. für Wasserkerne von Wasserbetten, als Kunstleder oder für Folienblätter/-taschen in Briefmarkenalben, als Teichfolien und Dachbahnen im Bausektor und für Bodenbeläge. Kreditkarten u. ä. bestehen meist aus PVC. PVC wird oft als schwerentflammbare Kabel-Ummantelung (Isolationsmaterial für Elektro-Kabel), als Elektro-Gerätedose und als Einziehrohr für Kabel verwendet. Geschäumtes PVC in Plattenform wird als Trägermaterial für Werbemedien, wie ausgeplottete Schriftzüge, Bilder und Grafiken verwendet, vor allem wegen des geringen Gewichts und der einfachen Verarbeitung. Spezielle Präparationen finden ihren Einsatz bei künstlerischen Installationen und Events. Stark weichgemachte PVC-Folien werden als rutschfeste Unterlagen angeboten. PVC-Hartschaum findet in der Faserverbundtechnologie Verwendung als Sandwichwerkstoff. Anwendungsgebiete sind Sportboote und der Waggonbau. PVC kommt auch in der Pyrotechnik zum Einsatz; genauer gesagt meist als sogenannter 'Chlordonator'''. Durch die molekulare Freisetzung von Cl-Ionen wird bei einem pyrotechnischen Satz so die Farbwirkung intensiviert – meist bei blauen Mischungen. Teils wird PVC in der Pyrotechnik auch als Bindemittel eingesetzt. In einigen Anwendungsbereichen werden auch andere Kunststoffe wie Polypropylen (PP) und Polyethylen (PE) mit dem Vorteil eingesetzt, dass die aus Weich-PVC ausdünstenden (typischer Plastik-Geruch) und gesundheitsschädlichen Stoffe wegfallen. Auch die dem PVC zugeschriebene Säure-, Öl- und Seewasser-Beständigkeit ist oft nicht erforderlich. Einige Umweltverbände raten, den Einsatz von PVC auf wenige Spezialanwendungen einzuschränken. Wirtschaft Vorwiegend werden Fenster mit PVC-Rahmen exportiert. Häufig wird PVC für Rohre in Kabeltrassen und für Membrandächer eingesetzt, auch für Bodenbeläge. Im Jahr 2001 erbrachten in Deutschland 150.000 Beschäftigte in 5.000 Unternehmen einen Umsatz von 20 Milliarden Euro, das ist etwa ein Viertel der gesamten Kunststoffbranche. Umweltaspekte, Entsorgung und Recycling Deponierung Bis zum Jahr 1989 deponierte man etwa 70 Prozent des Abfallvorkommens. Hart-PVC zersetzt sich nicht und schadet weder Wasser noch Luft, allerdings nimmt es gerade deswegen auf der Müllhalde viel Platz ein. Weiterhin kann keine Prognose getroffen werden, ob das Hart-PVC nicht doch irgendwann durch Mikroorganismen oder chemische Vorgänge angegriffen werden kann. Von den Inhaltsstoffen des Weich-PVC kann man aber mit großer Sicherheit annehmen, dass diese aufgrund ihres Weichmacheranteils das Sickerwasser und somit die Umwelt verschmutzen. Die Deponierung von Siedlungsabfällen mit Brennwert ist in mehreren europäischen Ländern, wie beispielsweise Deutschland, Österreich und der Schweiz nicht mehr zulässig. Energetische Verwertung Aus dem Verbrennungsprozess lässt sich Energie gewinnen. Der Brennwert mit 26,9 MJ/kg ist im Vergleich zu anderen Kunststoffen wie Polypropylen (PP) mit 52,6 MJ/kg relativ klein. Wird PVC verbrannt, bildet sich ätzender, gasförmiger Chlorwasserstoff. In Müllverbrennungsanlagen wird dieser beispielsweise mit Kalk in den Rauchgasreinigungsanlagen neutralisiert. Die entstehenden Rückstände sind als gefährliche Abfälle eingestuft. Eine Gefahr geht von schwermetallhaltigen Stabilisatoren wie etwa Bleidistearat aus. Aus diesem Grund werden bei Müllverbrennungsanlagen aufwendige Filtertechniken eingesetzt, die die schädlichen Emissionen filtern. Damit stehen der Gewinnung von Energie hohe Ausgaben für ökologischen Schutz gegenüber. Recycling Der Recycling-Code von Polyvinylchlorid ist 03. Beim Recycling unterscheidet man zwischen einer Werkstoff- und einer Rohstoffrecycling-Methode. Für PVC existiert ein Rücknahmesystem; gesammelt werden vor allem Fußbodenbeläge, Dachbahnen, Fensterprofile, Elektrokabel und PVC-Rohre. Der Auf- und Ausbau von Recyclingstrukturen basiert auf einer Selbstverpflichtung der PVC-Branche (VinylPlus). Werkstoffliches Recycling Thermoplaste lassen sich, einmal zu einem Werkstück geformt, wieder einschmelzen und zu einem neuen Produkt formen. Die Abfolge von Wärmebehandlungen führt allerdings zu einem fortschreitenden Qualitätsverlust des Materials (Downcycling). Ein Beispiel für ein solches minderwertiges Endprodukt ist der Bakenfuß (die Halterung, in die rot-weiße Straßenabsperrungen gesteckt werden). Die werkstoffliche Verwertung wird daher zurzeit fast ausschließlich dort eingesetzt, wo große Mengen eines sortenreinen Materials zur Verfügung stehen. Das größte Problem bei der Wiederaufbereitung stellen Verunreinigungen dar. Kabelabfälle, bei denen das Kupfer entfernt wurde, sind noch stark verschmutzt und müssen gereinigt werden, um wieder in einen echten Kreislauf zu gelangen und die Qualität eines Neumaterials zu erlangen. Mit dem Verfahren Vinyloop lassen sich mit dem Lösemittel Methylethylketon aus PVC-haltigen Verbundwerkstoffen die PVC-Moleküle und die Weichmacher herauslösen. Nach Ausfällung und Trocknung lässt sich die Mischung aus den Polymeren und Weichmachern zur Herstellung beliebiger PVC-Produkte verwenden. In Europa bestand hierfür nur eine Anlage in Ferrara (Italien), die 2018 stillgelegt wurde. Rohstoffliche Verwertung Durch Pyrolyse lassen sich Kunststoffe in petrochemisch verwertbare Stoffe wie Methanol oder Synthesegas spalten. Diese Verfahren werden naturgemäß vor allem für die Verwertung von Mischkunststoffen genutzt, die sich nur unter großem Aufwand trennen lassen würden. Gesundheitliche Gefahren Der Ausgangsstoff für PVC, Vinylchlorid, gilt beim Menschen als krebsauslösend und wirkt erbgutverändernd. Als erste Arbeiter in der PVC-Produktion an Deformationen der Fingerendgliedmaßen erkrankten, der sogenannten Akroosteolyse, oder schwere Leberschäden bis hin zu Leberkrebs (Hämangioendothelsarkom) aufwiesen, wurde der Arbeitsschutz bei der Herstellung und Weiterverarbeitung von PVC verbessert. Die Vinylchlorid-Krankheit wurde von den Berufsgenossenschaften als Berufskrankheit anerkannt. Auch andere Ausgangsstoffe der PVC-Herstellung sind bedenklich. Die maximale Arbeitsplatzkonzentration für PVC in der Atemluft beträgt 0,3 mg/m³. In der Schweiz liegt der Wert dagegen bei 3 mg/m3 (gemessen als alveolengängiger Staub). Bei Verbrennung Bei Verbrennung von chlorhaltigen Kunststoffen wie PVC in Gegenwart von Metall und Kohlenstoff (z. B. bei Anwesenheit von Holz oder Stäuben) kann das Giftgas Phosgen entstehen. Durch enthaltene Weichmacher Weich-PVC ist durch die enthaltenen Weichmacher je nach Einsatzbereich physiologisch bedenklich. Für Spielzeuge ist der Einsatz von Weich-PVC problematisch, obwohl es wegen seines günstigen Preises und der Eigenschaften verbreitet ist. Trotz des geringen Dampfdrucks können Weichmacher über Speichel, Hautkontakt oder die Atemwege in den kindlichen Körper gelangen. Die Phthalatweichmacher sind zum Teil leber- und nierenschädigend und stehen im Verdacht, krebserzeugend zu wirken. Dies ergaben mehrere Untersuchungen, bei denen sich deutliche Spuren im Blut fanden. Diethylhexylphthalat (DEHP) wurde durch eine EU-Arbeitsgruppe im Jahr 2000 als frucht- und fruchtbarkeitsschädigend eingestuft. Weich-PVC mit Phthalatweichmachern wurde in der EU im Jahre 1999 für Kleinkinderspielzeug verboten. In Lebensmittelverpackungen ist Weich-PVC problematisch, wenn nicht durch Sperrschichten das Einwandern in die Lebensmittel verhindert wird. Für fetthaltige Lebensmittel sollte Weich-PVC unbedingt vermieden werden, da Weichmacher gut vom Fett aufgenommen werden. Elution, Migration und Sorption von Weichmachern und anderen Stoffen Bei der „Wanderung“ von Weichmachern und sonstigen Additiven sind Migration in andere Stoffe (Flüssigkeiten, benachbarte Kunststoff-Folien und -Vliese), die Sorption (Aufnahme von Substanzen in das Polymer) und die Permeation (Transport einer Substanz durch das Polymer) zu berücksichtigen. Nach dem Fickschen Diffusionsgesetz stellt sich ein Gleichgewicht bei Diffusion aus dem oder in das Polymer ein. Beispielsweise kommt es zu Interaktion zwischen Arzneimittel (häufig organisch, in wässriger Lösung) und Infusionsschlauch aus PVC: Während des Kontakts der Infusionslösung mit dem Schlauch geht Arzneimittel in das PVC über. Mit zeitlich und längs der Schlauchlänge fortschreitender Sättigung einer spezifischen Schichtdicke innen im Schlauch reduziert sich dieser Arzneimittelverlust während der Durchleitung. Das kann dazu führen, dass erst nach einer gewissen Zeit die gewünschte Arzneimittelkonzentration beim Patienten ankommt. Styropor in wärmegedämmten Wänden eines Schwimmbeckens kann in Kontakt mit PVC-Folie dem PVC Weichmacher entziehen, was zu Versprödung und vorzeitigem Bruch der Folie führen kann. Bei der Verarbeitung Ein Vorteil vom PVC-Teichfolien ist die leichte Schweißbarkeit von (neuen) PVC-Folien, das Verbinden von einzelnen Bahnen durch Warmgasschweißen können auch Laien und ungelernte Hilfsarbeiter schnell erlernen. Dass dabei gesundheitlich gefährliche Chlordämpfe oder Dioxine, Benzol, Naphthalin, Phosgen, Toluol oder Xylol und Phthalate entweichen, wird (bei Arbeiten im Freien) häufig ignoriert. Bei einer Studie bezüglich Chlorwasserstoff- und Phthalatexposition beim Warmgasschweißen von PVC-Folien auf 72 Baustellen im Freien wurde keine Arbeitsplatzgrenzwert-Überschreitung festgestellt, bei solchen Arbeiten in geschlossenen Räumen (bei anderen Untersuchungen) schon. Bestimmung Bei einer Brennprobe riechen die Gase nach Chlorwasserstoff. Beim Verbrennen auf Kupfer färbt sich die Flamme grün (siehe Beilsteinprobe). Bei beiden Verfahren entstehen gesundheitlich bedenkliche chlororganische Verbindungen. Deshalb sollen für eine Brennprobe oder Beilsteinprobe (außerhalb der Untersuchungslabore) nur Kleinstmengen benutzt werden. Siehe auch Polyvinylidenchlorid Literatur Schrader, Franke: Kleiner Wissensspeicher Plaste. Zentralinstitut für Schweißtechnik Halle (ZIS). Technisch-wissenschaftliche Abhandlung. Bd. 61. VEB Deutscher Verlag für Grundstoffindustrie, Leipzig 1970. Charles Levinson: PVC zum Beispiel. Krebserkrankungen bei der Kunststoffherstellung. Rowohlt, Reinbek 1985, ISBN 3-499-11874-2. Robert Hohenadel, Torsten Rehm, Oliver Mieden: Polyvinylchlorid (PVC). Kunststoffe, 10/2005, S. 38–43 (2005). Andrea Westermann: Plastik und politische Kultur in Westdeutschland''. Chronos, Zürich 2007, ISBN 978-3-0340-0849-5, doi:10.3929/ethz-a-005303277. Horst Pohle: PVC und Umwelt: Eine Bestandsaufnahme. Springer-Verlag 1997. ISBN 978-3-642-59083-2. Helmuth Kainer: Polyvinylchlorid und Vinylchlorid-Mischpolymerisate – Chemie und chemische Technologie. Springer-Verlag, Berlin/Heidelberg/New York 1965, ISBN 978-3-540-03266-3. Weblinks Selbstverpflichtung der europäischen PVC-Industrie Polyvinylchlorid ohne Weichmacher – Umfangreiche Materialinformationen und Bilder auf Materialarchiv.ch Einzelnachweise Polymer Thermoplast Chloralkan Baustoff Isolierstoff Packstoff
Q146368
123.249337
41835
https://de.wikipedia.org/wiki/Energieniveau
Energieniveau
Ein Energieniveau eines Quantensystems (etwa eines Atoms, Moleküls oder Atomkerns) ist die Energie eines stationären oder metastabilen quantenmechanischen Zustands des Systems. Im Allgemeinen wird dieser Begriff nur für Zustände verwendet, deren Energien nicht kontinuierlich, sondern diskret verteilt sind, die also mit gewissen Abständen aufeinander folgen. Eine Messung der Energie ergibt immer, dass das System eins dieser Energieniveaus besetzt, andere Werte sind ausgeschlossen. Das tiefste Energieniveau wird als Grundzustand bezeichnet, alle anderen Niveaus heißen angeregte Zustände oder angeregte Niveaus. Von einem Energieniveau gelangt das System in ein anderes durch einen quantenmechanischen Übergang, früher als „Quantensprung“ bezeichnet. Die grafische Darstellung erfolgt in einem Niveauschema, das für jedes Energieniveau einen horizontalen Strich in einer der Energie entsprechenden Höhe über dem Strich für den Grundzustand zeigt. Für die theoretische Betrachtung mithilfe eines geeigneten Modells stellt man diese Zustände und ihre Energien als Eigenzustände bzw. Eigenwerte des Hamilton-Operators dar. Daraus können weitere Eigenschaften des Energieniveaus gefolgert werden, die auch experimentell überprüfbar sind. Beispiele sind Drehimpuls, Parität, innerer Aufbau u.s.w. Diese Eigenschaften sind ebenfalls charakteristische Kennzeichen des Energieniveaus und werden gegebenenfalls durch eigene Quantenzahlen in einem Termsymbol angegeben. Als Eigenzustände des im Modell zugrundegelegten Hamiltonoperators sind die Energieniveaus vollkommen stabil. Spontane Änderungen wie zum Beispiel Übergänge, Zerfall oder Teilchenemission werden nur durch Erweiterung des Hamiltonoperators um zusätzliche Glieder erklärt, die oft als Wechselwirkung oder Störung bezeichnet werden. Dadurch erhält die vorher scharf definierte Energie eine bestimmte Unschärfe, die als Niveaubreite oder natürliche Linienbreite bezeichnet wird. Gehören mehrere quantenmechanische Zustände zu einem Niveau, wird das Niveau als entartet bezeichnet. Hat beispielsweise ein Niveau einen nicht-verschwindenden Drehimpuls und ist keine bestimmte Richtung des Raums energetisch ausgezeichnet, dann sind alle Zustände, die verschiedenen Orientierungen des Drehimpulses entsprechen, miteinander entartet. Wenn weiter so ein System ein magnetisches Moment besitzt, dann hebt ein zusätzliches Magnetfeld diese Entartung auf und das Niveau spaltet sich je nach magnetischer Quantenzahl in Unterniveaus auf (Zeeman-Effekt). Literatur Atomphysik Kernphysik Energie
Q669532
112.380204
1195526
https://de.wikipedia.org/wiki/Thomismus
Thomismus
Als Thomismus wird eine philosophisch-theologische Lehrrichtung bezeichnet, die sich im Spätmittelalter und in der Neuzeit an die Werke des Thomas von Aquin (1225–1274) anschloss. Ihre Anhänger werden Thomisten genannt. Im 19. und beginnenden 20. Jahrhundert erfuhr der Thomismus eine bedeutende Förderung, vor allem durch den Heiligen Stuhl. Dieses unterstrichen auch die von Papst Leo XIII. (1878–1903) veröffentlichte Enzyklika Aeterni patris (1879) sowie die Entwicklung der Neuscholastik und des Neuthomismus. Geschichte Der Kirchenlehrer Thomas von Aquin (1225–1274) war Dominikaner, Philosoph, Theologe und Scholastiker. Er war ein analytischer Denker und hinterließ Werke, die ihn zu einem der bedeutendsten katholischen Kirchenlehrer machten. Zu seinen bekanntesten Werken gehören das Lehrbuch der Theologie (Summa theologiae) und das Lehrbuch gegen die ungläubigen Völker (Summa contra gentiles), darüber hinaus verfasste er Kommentare zur Bibel und zu Aristoteles. Zu seinen Frühwerken zählt zum Beispiel die sehr bekannte Abhandlung De Regime principum, „Über die Fürstenherrschaft“. Er verstand es, mit seinen Schriften der Theologie den Charakter einer Wissenschaft zu verleihen und darzulegen, dass sich Glaube und Vernunft nicht widersprechen. Papst Pius V. (1566–1572) erhob ihn 1567 zum Doctor ecclesiae und Papst Leo XIII. (1878–1902) erklärte 1879 die Lehre Aquins, den „Thomismus“, zur offiziellen Philosophie der Kirche. Mit dieser Erklärung verpflichtete Leo XIII. die katholischen Priesterseminare, der Methode und den Prinzipien der Theorie des Thomismus zu folgen. Eine weitere philosophische Grundlage schuf Thomas von Aquin mit der Grundlagenforschung zum Naturrecht. Seine Tugendlehre, in der er die Kardinaltugenden als Angeln zum Glauben bezeichnet, gilt in der Moraltheologie als ein Maßstab des menschlichen Miteinanders. Zeitabschnitte des Thomismus Thomas von Aquin war eine umstrittene Person, er trug durch die damalige Meinungsfreiheit zur Förderung des Thomismus bei. Die eigentliche Entwicklung des Thomismus erlebte unterschiedliche Zeitabschnitte. Der erste Zeitabschnitt bestand in der Abwehr der Kritik und durchzog das 13. und 14. Jahrhundert. Ihm folgte die Zeit der Kommentierung und Verteidigung zwischen dem 15. und 16. Jahrhundert. Der nächste Zeitabschnitt lag in der Epoche der Gegenreformation um das 16./17. Jahrhundert und führte zur größten Verbreitung der thomistischen Lehre. Erst im 19. Jahrhundert, nach dem Entstehen der Neuscholastik, erfuhr der Thomismus – als Neuthomismus – einen weiteren Aufschwung, so auch im Jahre 1879 mit der Ernennung des Thomismus zur offiziellen Kirchenphilosophie. 13./14. Jahrhundert Gegen den Thomismus wandte sich der schottische Franziskaner Johannes Duns Scotus (1266–1308). Er stellte den Willen über den Intellekt, weil er dem intellektuellen Interesse erst die Richtung weise. Damit stand Scotus dem augustinischen Christentum näher als dem kühlen Thomismus. Während die Dominikaner schon früh die thomistische Konzeption durchsetzten, entwarfen besonders Denker der Franziskaner wie Roger Bacon (1214–1294), der die Scholastik vollständig ablehnte, Alternativen. In Deutschland zählte Meister Eckhart (1260–1328) zu den Kritikern des Thomismus, er übersprang die gesamte Weltordnung des Thomas von Aquin und stützte sich auf das Gottes- und Seelenverhältnis. Mit Wilhelm von Ockham (1288–1349) trat ein weiterer englischer Franziskaner gegen die thomistische Konzeption an und führte mit seinen modernen Ideen zum Idealismus der Neuzeit. Ihm folgten Nicolaus von Autrecourt (gest. 1350) und Nikolaus von Oresme (1320–1382). Neben den aufgeführten Franziskanern machte sich aber auch in der dominikanischen Ordensgemeinschaft Kritik breit. Sie wurde vom französischen Dominikaner Durandus von St. Pourçain (gest. 1334) angeführt, der einen antithomistischen Kommentar verfasste, mit dem er sich der Kritik des Wilhelm de la Mare´s (gest. um 1290) anschloss. 15./16. Jahrhundert Neben anderen Verteidigern des Thomismus trat der Thomist Johannes Capreolus (gest. 1444) mit seinem Werk „Defensiones Theologiae D. Thomae de Aquino“ in den Vordergrund. Die Kommentare und Verteidigungsschriften zum Thomismus führten die Werke „Summa theologiae“ und „Summa contra gentiles“ zu universitären Lehr- und Lesebüchern. Als weitere Befürworter der Aquinaten entwickelten sich die italienischen Dominikaner an deren Spitze Kardinal Thomas Cajetan (1469–1534) und der Ordensgeneral Franciscus de Sylvestri standen. Sie verfassten ebenfalls beachtenswerte Kommentare, die ihren Eingang in die sogenannte Editio Leonina fanden. 16./17. Jahrhundert In Spanien erlebte der Thomismus im 16. Jahrhundert einen Aufschwung, wobei die „Schule von Salamanca“, zu der Dominikaner und Karmeliten zählten, federführend war. Ihr Ziel war dabei die Harmonisierung des Thomismus mit der neuen Ordnung der Zeit. Die Impulse der Gegenreformation und des Trienter Konzils (1545 und 1563) führten schließlich dazu, dass Thomas von Aquin 1567 zum Doctor ecclesiae (Kirchenlehrer) erhoben wurde. Der Thomismus der spanischen Scholastik hatte auf die Entwicklung der praktischen Philosophie und des europäischen Völkerrechts gewirkt, letzteres insbesondere vorangetrieben durch Hugo Grotius. Als bedeutende Befürworter und Kommentatoren galten in dieser Phase der Dominikaner Domingo Báñez (1528–1604), der im Gnadenstreit mit dem Jesuiten Luis de Molina (1535–1600) die thomistische Position führend vertrat, und der Dominikaner Bartolomé de Medina (* 1527, ✝ 1580). Sie verfassten richtungweisende Kommentare zu Thomas von Aquino, während sich die Jesuiten gegenüber dem Thomismus weiterhin distanziert verhielten. 17./18. Jahrhundert Als bedeutendste Thomisten des 17. Jahrhunderts sind vor allem Johannes a Sancto Thoma (1589–1644) mit seinen Schriften Cursus philosophicus und Cursus theologicus sowie Jean Baptiste Gonet (1616–1681) mit seinem Clypeus theologiae thomistae contra novos eius impugnatores zu nennen. Im 17. und 18. Jahrhundert erlangte die im deutschsprachigen Raum angesiedelte Benediktineruniversität Salzburg hinsichtlich der Verbreitung des Thomismus größere Bedeutung. Verantwortlich dafür waren insbesondere die Werke von Paul Mezger (Theologia thomisitico-scholastica Salisburgensis) und Ludwig Babenstuber (1660–1726; Philosophia thomistica Salisburgensis). „Sie dokumentieren […] einen Thomismus, der den programmatischen Anschluß an die Tradition der spanischen, italienischen und zeitgenössisch-französischen Dominikanerschule, an die streng thomistische spanische Scholastik und an die Thomasrezeption der Unbeschuhten Karmeliten sucht“ und in weiterer Folge als Salzburger Thomismus bekannt wurde. Ab 19. Jahrhundert Nun begannen, in der Epoche des Neuthomismus, auch die Jesuiten, sich der Lehre des Thomas von Aquin zuzuwenden. Der Neuthomismus wurde zum Kern der Neuscholastik und hatte seine ersten Ansätze in Frankreich und Belgien. Die Zuwendung zum Thomismus war in der Würdigung durch Papst Leo XIII. zu finden, der den Thomismus, wie bereits erwähnt, zur offiziellen Philosophie der Kirche eingesetzt hatte und der die Werke des Gründers in die Editio Leonina aufgenommen hatte. Mit dem Neuthomismus begann eine „Philosophie nach Immanuel Kant“, in der auch auf die frühen Werke des Aquinaten wie zum Beispiel De ente et essentia („Über das Seiende und das Wesen“) zurückgegriffen wurde. Lehrinhalte des Thomismus Den Thomismus macht eine Verbindung von Theologie und Philosophie aus, die ursprünglich in der Scholastik beheimatet ist. Einzelne Religionsphilosophen fassen die thomistischen Interessen, Methoden und Thesen als Analytischen Thomismus zusammen, zu ihnen gehören Alvin Plantinga (* 1932) und Josef Pieper (1904–1997). Thomistische Philosophie Die Philosophie des Thomas von Aquin versuchte, an die Philosophie und die Lehre des Aristoteles anzuschließen und diese Elemente mit der Lehre der römisch-katholischen Lehre zu verknüpfen. In der Summa theologica legte er eine Synthese vor, mit der er eine Gesamtdeutung der Wirklichkeit zwischen Religion und Philosophie belegen wollte. Die Werke des Aristoteles wurden im 13. Jahrhundert zu universitären Grundlagen, die von Albertus Magnus (um 1200–1280) und seinem Schüler Thomas von Aquin verbreitet wurden. Die thomistische Philosophie war einer der bekanntesten Vertreter einer Korrespondenz- oder Adäquationstheorie der Wahrheit. In den Quaestiones disputatae de veritate findet sich die Formulierung zur Wahrheit als eine „Übereinstimmung der Sache mit dem Verstand“: In der späteren Philosophie des Thomismus wird beim Seinsverständnis zwischen einem univoken und einem analogen Verständnis unterschieden. Philosophisch-theologische Merkmale Das Hauptwerk des scholastischen Theologen Petrus Lombardus (um 1095/1100–1160) sind die vier Bücher „Sententiae“, die dort verfassten Sentenzen sind eine Darstellung der Kirchenväter und Kirchenlehrer zur Gesamtheit der Theologie. Sie fanden Einzug in den Thomismus und wurden später, von Capreolus, zur Kommentierung dessen genutzt. Seit dem 13. Jahrhundert gehörte sein Werk zum Standard des theologischen Studiums und wurde neben Albertus Magnus auch von Thomas von Aquin kommentiert. Als Hauptwerk des Thomas von Aquin wird die „Summa theologiae“ aus der Zeit von 1265 bis 1273 bewertet. In ihr werden die philosophisch-theologische Gotteslehre, die Moral- und Tugendlehre – auch als Kardinaltugenden bekannt – des Weiteren die Christologie und die Sakramente behandelt. Dieses analytische, mit vielen philosophischen Elementen versehene, Werk ist für den Thomismus in so weit von Bedeutung, da in ihm die Offenbarung Gottes dargelegt werden soll und durch eine natürliche Theologie nach Konsequenzen gesucht wird. Philosophisch umspannt es die Bereiche der Metaphysik, Anthropologie und Moralphilosophie. Es geht bei der Summe der Theologie nicht nur um die Beantwortung von theologischen Fragen, sondern auch um die Darlegung philosophischer Voraussetzungen und Bedingungen. Gottesbeweis Im Thomismus liegt der Gottesbeweis in der Notwendigkeit zwischen Vernunft und Glaube. In ihnen wird die Auffassung vertreten, dass mit der Vernunft die Existenz Gottes einsichtig sei. Für die thomistische Lehre ist die Welt eine planvoll durchschaubare Einrichtung, durch welche die Dinge eine höhere Vollkommenheit erreichen. Der thomistische Gottesbeweis geht von einer Weltenlenkung aus (gubernatio rerum), nach dem an allerhöchsten Stelle ein Wesen steht, welches in der Lage ist Ziele vorzugeben, „und das heißen wir Gott“ sagt Thomas von Aquin. Ontologie des Thomas von Aquin Die Lehre vom Sein und seinen Prinzipien – als Ontologie bezeichnet – bei Thomas von Aquin lässt sich folgendermaßen darstellen: Ein Kernelement der thomistischen Ontologie ist die Lehre von der „analogia entis“, das bedeutet, dass der Begriff des Seins nicht eindeutig, sondern analog ist. Im Großen und Ganzen nehmen diese Überlegungen zum „Sein“ im Thomismus einen kleinen Platz ein, vielmehr ist sie eine logische Auffassung darüber, wie wir die unterschiedliche Bedeutung des Begriffs „Sein“ betrachten sollen. Eine weitere wichtige Unterscheidung ist die von Materie und Form. Thomismus und Inquisition Der Dominikanerorden stellte seit der Einführung der Inquisition zu Beginn des 13. Jahrhunderts im päpstlichen Auftrag Inquisitoren zur Aufspürung und Verfolgung von Häretikern. Neben Inquisitoren aus den Reihen anderer Orden, etwa der Franziskaner, wirkten Dominikaner als Inquisitoren während des gesamten Mittelalters, vor allem in Frankreich, Italien und im Heiligen Römischen Reich. Die theoretischen Grundlagen für die Inquisition lieferte der Thomismus. Für Häretiker forderte Aquin in seiner Summa theologica die Exkommunikation und die Todesstrafe. Thomistische Bildungseinrichtungen (Auswahl) Heute gibt es weltweit mehrere Bildungseinrichtungen und Institute, in denen die Methoden und Lehren des Thomas von Aquin gelehrt und wissenschaftlich erarbeitet werden. Sie werden, wenn sie in kirchlicher Hand sind, überwiegend von Dominikanern geleitet. Die Päpstliche Universität Heiliger Thomas von Aquin, auch Angelicum genannt, ist eine päpstliche Universität in Rom. Die Hochschule lehrt im thomasischen Sinne die Fächer Theologie, Kirchenrecht, Philosophie und Sozialwissenschaften, zu ihren bekanntesten Studenten zählte Karol Wojtyla, der spätere Papst Johannes Paul II. (1978–2005). Die Angelicum entstammt dem „Studium generale“ welches 1222 von den Dominikanern gegründet wurde und 1265 unter der Leitung von Thomas von Aquin stand. Die Päpstliche und Königliche Universität des heiligen Thomas von Aquin in Manila in Manila ist eine private katholische Universität. Sie wurde 1611 gegründet und zählt somit zu einer der ältesten Universitäten Asiens. Die Päpstliche Akademie des hl. Thomas von Aquin hat ihren Sitz im Vatikan und widmet sich der Lehre und Forschung des Thomismus. Sie veranstaltet internationale Thomistenkongresse. Die Universität des Nordens Heiliger Thomas von Aquin ist eine Katholische Universität in San Miguel de Tucumán (Argentinien). Die ersten Vorlesungen in thomasianischer Philosophie begannen bereits 1949 im Kloster von Santo Domingo, während die Universität erst im Jahre 1965 gegründet wurde. Das Thomas von Aquin-Institut für Philosophie, Theologie und Geschichte wurde im Jahre 1991 als ein Kolleg der Katholischen Kirche in Moskau gegründet. 2006 erhielt es das Hochschulprivileg und darf staatlich anerkannte Abschlüsse verleihen. Das Thomas-Institut in Köln ist ein Forschungsinstitut mit dem Hauptschwerpunkt in der philosophischen Mediävistik. Das Institut wurde 1948 gegründet und ist mit dem Philosophischen Seminar der Universität zu Köln verbunden. Literatur Emmanuel Bauer: Thomistische Metaphysik an der alten Benediktineruniversität Salzburg. Darstellung und Interpretation einer philosophischen Schule des 17./18. Jahrhunderts. Innsbruck-Wien (Tyrolia) 1996, ISBN 3702220267. David Berger, Jörgen Vijgen (Hrsg.): Thomistenlexikon, Nova & Vetera, Bonn 2006, ISBN 978-3-936741-37-7. David Berger: Thomismus: Große Leitmotive der thomistischen Synthese und ihre Aktualität für die Gegenwart, Books on Demand, Köln 2001, ISBN 3831116202. Jan Bor, Errit Petersma (Hrsg.): Illustrierte Geschichte der Philosophie. Scherz Verlag, Bern/München/Wien, 1. Auflage 1995, ISBN 3-502-15057-5. Romanus Cessario: A Short History of Thomism, The Catholic University of America Press, Washington, D.C. 2005.Rezensionen von J. Holmes, A. Freddoso (PDF; 82 kB) Etienne Gilson: Le Thomisme. Introduction à la philosophie de Saint Thomas d'Aquin, Coll. Etudes de philosophie médiévale, 1, Librairie J. Vrin, Paris 1948. Leonard A. Kennedy: A catalogue of Thomists, 1270 - 1900, Center for Thomistic Studies, Univ. of St. Thomas, Houston, Texas 1987, ISBN 0-268-00763-2. Ralph McInerny: Thomism in an age of renewal, University of Notre Dame Press, Notre Dame, London 1968. Craig Paterson (Hrsg.): Analytical Thomism : traditions in dialogue, Aldershot : Ashgate 2006, ISBN 978-0-7546-3438-6. Fernand van Steenberghen: Le Thomisme, Que sais-je? Bd. 587, Presses Universitaires de France, Paris 1983, ISBN 2-13-037749-1. Zeitschriften Revue thomiste, revue doctrinale de théologie et de philosophie, herausgegeben von den Dominikanern in Toulouse . Doctor Angelicus, internationales thomistisches Jahrbuch . The Thomist, a Theological and Philosophical Quarterly, herausgegeben von den Dominikanerpatres der St. Josephsprovinz, USA . Divus Thomas. Diese italienische Ausgabe Zeitschrift (Bologna) war die erste der Welt, die sich ausschließlich dem hl. Thomas widmete . Ciencia Tomista, spanische Ausgabe (Salamanca) einer thomistischen Schrift . Weblinks Bibliothek der Kirchenväter, Thomas von Aquin, Summe der Theologie (lateinisch und deutsch) Schlagwort Nr. 28057, Scholastische Philosophie und Theologie / Scholastik / Neuscholastik, in: 'Kritische Online-Edition der Nuntiaturberichte Eugenio Pacellis (1917-1929)', URL: <www.pacelli-edition.de/Schlagwort/28057> (Datum: 26. November 2013) Einzelnachweise Philosophie des Mittelalters Katholische Theologie Philosophische Strömung Thomas von Aquin
Q328945
121.831823
87647
https://de.wikipedia.org/wiki/Nahrungskette
Nahrungskette
Eine Nahrungskette ist ein Modell für die linearen energetischen und stofflichen Beziehungen zwischen verschiedenen Arten von Lebewesen, wobei jede Art Nahrungsgrundlage einer anderen Art ist, ausgenommen die Art am Ende der Nahrungskette. Man spricht auch von trophischen Beziehungen (abgeleitet von griechisch trophein „sich ernähren“). Am Beginn von Nahrungsketten stehen Vertreter der Produzenten (vor allem Pflanzen), dann folgen Konsumenten (Pflanzenfresser und Fleischfresser). Am Ende einer solchen Kette steht oft ein Spitzenprädator. Nahrungsketten werden in der Ökologie untersucht und sind auch in der Ökotoxikologie von Bedeutung. Nahrungsketten sind vereinfachte Modelle. Die meisten Pflanzen- und Tierarten dienen mehreren anderen Arten als Nahrung und die meisten Konsumenten ernähren sich von mehreren anderen Arten. Allesfresser ernähren sich sowohl von Pflanzen als auch von Tieren. Spitzenprädatoren sind nach ihrem Tod Nahrungsgrundlage für Aasfresser oder Destruenten – ebenso viele Organismen der anderen Stufen. Die trophischen Beziehungen in realen Ökosystemen sind daher wesentlich komplexer und werden als Nahrungsnetz bezeichnet. Trophieniveaus Nahrungsketten werden häufig gedanklich nach Trophieniveaus strukturiert. Ein Trophieniveau umfasst alle Organismen (bzw. Arten) mit gleicher Position in der Nahrungskette. Das unterste Trophieniveau sind die Produzenten, die sich gar nicht von anderen Organismen ernähren, aber solchen selbst als Nahrung dienen können (in der Regel grüne Pflanzen). Alle Organismen, die keine Produzenten sind, kann man als Konsumenten zusammenfassen, die zur Ernährung andere Organismen benötigen. Meist werden Konsumenten gegliedert in Primärkonsumenten, d. h. Pflanzenfresser (auch Herbivoren oder Phytophagen genannt), und Sekundärkonsumenten, also „Räuber“ (auch Carnivoren, Prädatoren, Zoophagen oder Beutegreifer genannt). Prädatoren, die Sekundärkonsumenten erbeuten, werden als Tertiärkonsument bezeichnet. Das oberste Trophieniveau sind Spitzenprädatoren (oder Top-Prädatoren), die nicht oder nur ausnahmsweise anderen Organismen als Nahrung dienen. Die „zwischen“ den Phytophagen und den Top-Prädatoren liegenden Organismen ernähren sich selbst von anderen Organismen (sie sind also Konsumenten), dienen selbst aber ebenfalls als Nahrung für andere. Je nach Komplexität umfassen Ökosysteme unterschiedlich viele Trophieniveaus, aber nicht unbegrenzt viele. Während die Position der Herbivoren noch relativ eindeutig zu definieren ist, ist die Rolle der Prädatoren schwieriger zu fassen, weil sie sich in der Regel von verschiedenen Organismen ernähren, die durchaus unterschiedliche Position in der Nahrungskette haben können. Zum Beispiel können Habichte Tauben erbeuten (Tauben sind Samenfresser, also Phytophagen). Die Nahrungskette umfasst dann drei Glieder, mit dem Habicht in dritter Position. Zu ihrem Beutespektrum gehören aber auch Meisen; diese sind Insektenfresser, also ihrerseits Prädatoren. Hier wäre der Habicht in vierter Position (Pflanze > Insekt > Meise > Habicht), oder sogar in fünfter, wenn das von der Meise erbeutete Insekt ebenfalls bereits ein Prädator war. Eine Art kann also mehr als eine Trophiestufe besitzen. Das Trophieniveau wird in der Regel nach der gemittelten Bedeutung der Nahrungsbeziehungen für die betreffende Art bestimmt. Problematisch für die Bestimmung des Trophieniveaus sind außerdem die Allesfresser („Omnivoren“), sie ernähren sich sowohl von Pflanzen als auch als Prädatoren. Problematisch sind ferner kannibalistische Arten, bei denen Alttiere zum Beispiel Jungtiere derselben Art fressen. Meist werden auch Parasiten bei der Definition der trophischen Ebenen außer Acht gelassen. Nahrungsnetze Eine Nahrungskette in einem Ökosystem ist in der Regel eine gedankliche Abstraktion, weil sich Arten von mehreren Beutearten ernähren können und auch selbst verschiedenen Arten von Räubern zum Opfer fallen können. Nahrungsketten sind deshalb in der Regel verzweigt, man spricht vom Nahrungsnetz. Die Untersuchung von Nahrungsnetzen realer Ökosysteme ist wegen der extremen Komplexität, die bereits in artenarmen Ökosystemen auftreten kann, ein schwieriges Problem der Ökologie. Zudem sind alle Populationen im Ökosystem ständigen Schwankungen unterworfen, die sich über die Abhängigkeiten im Nahrungsnetz direkt oder indirekt auf die Populationen mehrerer anderer Arten auswirken und deren Nahrungsauswahl beeinflussen. Eine mathematische Beschreibung der Populationsdynamik, wie sie für einzelne Räuber-Beute-Beziehungen in den Lotka-Volterra-Gleichungen möglich ist, lässt sich nur begrenzt auf Nahrungsnetze anwenden. Neben vereinfachenden Annahmen kommen auch Untersuchungen in künstlich vereinfachten Ökosystemen, den sogenannten Mesokosmen, zur Anwendung. Unterschieden wird zwischen „kumulativen“ Netzen, die alle Arten umfassen, von denen trophische Beziehungen bekannt sind, und Netzen zu jeweils bestimmten Zeitpunkten. Diese sind regelmäßig viel kleiner als kumulative Netze, aber schwieriger zu erfassen. Kumulativ ermittelte Netze neigen dazu, die Stärke der Interaktionen zwischen den beteiligten Arten (die „Koppelungsdichte“) zu überschätzen. Saprophagen- und Lebendfresser-Subsysteme Ein Großteil der pflanzlichen Biomasse in realen Ökosystemen wird nicht von Herbivoren konsumiert, sondern bleibt bis zum Tod der Pflanze oder ihrer Organe erhalten. Beispielsweise fällt in einem Waldökosystem der größte Teil der Produktion als Falllaub oder Totholz an. Diese tote Substanz wird ebenfalls von darauf spezialisierten Konsumenten gefressen, die als Saprophagen bezeichnet werden. Letztlich wird die tote Biomasse (von geringen, möglicherweise dauerhaft gespeicherten Resten abgesehen) von Bakterien und Pilzen, den Destruenten, wieder zu anorganischen Bestandteilen abgebaut (mineralisiert). Da die Destruenten energiereicher sind als die Pflanzenstreu selbst, sind sie für die Ernährung der Saprophagen meist von entscheidender Bedeutung. Auch die Saprophagen und Destruenten haben ihre Prädatoren. In realen Ökosystemen existieren dadurch in der Regel zwei unterschiedliche Nahrungsketten, die beide von den Produzenten ausgehen, aber ansonsten nicht direkt gekoppelt sein müssen. Typisch für das Saprophagensystem sind enge Zyklen oder Schleifen, die dadurch entstehen, dass dieselbe Biomasse von verschiedenen Saprophagen mehrfach hintereinander gefressen werden kann (dies ist dadurch möglich, weil energetisch entscheidend ja die darin enthaltene Biomasse der Destruenten ist). Die von den Herbivoren und den Saprophagen ausgehenden Nahrungsketten können durch gemeinsame Räuber gekoppelt sein. Man beobachtet z. B. in Wäldern, dass insektenfressende Vögel wie Meisen sich überwiegend von Insekten wie z. B. Mücken ernähren, die (über ihre Larven) dem Saprophagensystem angehören. Bei Massenvermehrung von Schmetterlingsraupen (Herbivoren) schwenken sie aber auf diese als Hauptnahrung über. Bei der Bestimmung der Länge einer Nahrungskette wird in der Regel streng zwischen den Subsystemen unterschieden, obwohl auch die tote Biomasse von Herbivoren und Prädatoren letztlich (z. B. durch Aasfresser) in die Saprophagenkette eingeht. Hauptgrund dafür ist, dass Herbivoren und ihre Prädatoren direkt auf die grünen Pflanzen und damit auf die Produktion des Ökosystems einwirken können. Saprophagen hingegen können die Menge der anfallenden toten Biomasse (wie z. B. der Pflanzenstreu) nicht beeinflussen. Man spricht hier von „donor-kontrollierten“ Systemen. Energie- und Stoffumsätze Die trophischen Beziehungen in Nahrungsketten bewirken Stoff- und Energieumsätze, die letztlich auf dem primären Aufbau organischer Substanz (Biomasse) durch die Produzenten beruhen (Netto-Primärproduktion). Der über die Nahrungsketten ablaufende Teil des Energieumsatzes eines Ökosystems wird daher durch die Produktion des Ökosystems begrenzt. Da die Konsumenten mit der aufgenommenen Energie ihren Stoffwechsel aufrechterhalten (siehe Respiration, „Veratmung“), geht dem System bei jedem Umsatzschritt entlang der Nahrungskette ein Teil der nutzbaren Energie in Form von Wärme oder energiearmen Abfallprodukten verloren. Aus chemischer Sicht ist darauf hinzuweisen, dass im Allgemeinen als „energiereich“ bezeichnete Stoffe nicht per se Energie speichern. Die Fähigkeit eines Organismus, durch den Verzehr von Stoffen wie Zucker oder Zellulose Arbeit verrichten, d. h. ihren Stoffwechsel antreiben zu können (siehe Definition von Energie), hängt gleichermaßen an der Verfügbarkeit von Elektronenakzeptoren. In vielen Land- und Wasserökosystemen spielt der molekulare Sauerstoff O2 diese Rolle. Nur bestimmte (Archae-)Bakterien können unter Luftabschluss und Sauerstoffmangel andere Elektronenakzeptoren nutzen (Anaerobie). Ein Beispiel ist die Carbonatatmung der Methanbildner, bei der Kohlenstoffdioxid (CO2) als ultimativer Elektronenakzeptor fungiert. Entlang der Nahrungskette nehmen die Konsumenten auch den weit überwiegenden Teil der Nährstoffe auf, die sie zum Aufbau ihrer eigenen Biomasse benötigen. Der Kohlenstoffumsatz ist dabei direkt an den Energieumsatz gekoppelt. Stickstoff muss als Bestandteil der Proteine aufgenommen werden. Phosphor wird für zahlreiche lebenswichtige biologische Funktionen benötigt, größere Mengen z. B. zur Synthese von DNA und RNA. Eine ausgewogene Aufnahme dieser Elemente kann etwa für einen Pflanzenfresser ein Problem sein. Holz enthält beispielsweise viel grundsätzlich nutzbare Energie in Form des reduzierten Kohlenstoffs der Zellulose, aber in der Regel nur wenig nutzbaren Stickstoff oder Phosphor. Für die reine Funktion des einfachsten denkbaren Ökosystems wären Produzenten (die Biomasse aufbauen) und Destruenten (die sie wieder mineralisieren) ausreichend. Die Anwesenheit von Konsumenten kann Produktion und viele weitere Strukturparameter eines Ökosystems stark beeinflussen und unter Umständen „steuern“. Art und Ausbildung von Nahrungsketten können dadurch eine Schlüsselrolle für Ausprägung der Struktur und der Funktion eines ökologischen Systems sein. Die Suche nach Regeln und Regelmäßigkeiten solcher Beeinflussung ist ein wesentliches Feld ökologischer Forschung. Je nach Fragestellung der Forschung kann daher der Energie- und Stoffumsatz selbst, oder die Beziehungen und das Gefüge der am Nahrungsnetz beteiligten Organismen und Arten im Zentrum des Interesses stehen. Im einfachsten Fall wird nur die trophische Beziehung der verschiedenen Arten betrachtet (meist graphisch als verbindender Strich oder Pfeil gezeichnet). In diesem Fall kann man erkennen, welche Arten sich von welchen anderen Arten ernähren. Über Bedeutung und Auswirkungen der Beziehung ist so noch nichts bekannt. Nahrungsketten und Nahrungsnetze in dieser einfachsten Form werden topologische Netze genannt. Steht der Energieumsatz im Zentrum des Interesses, versucht man, die mit den verschiedenen Beziehungen verbundenen Umsatzraten quantitativ zu bestimmen. Ergebnis könnte z. B. sein, dass eine Pflanze zwar von 20 Herbivoren befressen wird, dass aber eine Art für den überwiegenden Teil des Fraßes verantwortlich ist. Für ein solches energetisches Nahrungsnetz muss die Umsatzrate jeder einzelnen Verbindung des Netzes bestimmt werden, in der Praxis eine fast unlösbare Aufgabe. Meist beschränken sich die Forscher darauf, die Stärke einiger weniger Verbindungen zu ermitteln, nachdem sie mit Voruntersuchungen und Plausibilitätsüberlegungen vorher versucht haben, die vermutlich wichtigsten Verbindungen im Netz abzuschätzen. In der Darstellung eines energetischen Nahrungsnetzes kann z. B. die Umsatzrate durch unterschiedliche Strichdicke dargestellt sein. Schlüsselarten in einem energetischen Netz sind diejenigen Arten, über die ein Großteil des Energieumsatzes abläuft. Bei besonderem Interesse nicht an den Gesamtumsätzen, sondern an den einzelnen Arten selbst, wird versucht, die Interaktion der am Netz beteiligten Arten durch die Modellierung ihrer Populationsgrößen zu fassen. So kann man die unterschiedliche Rolle verschiedener Arten, den Einfluss der Artenvielfalt u. ä. abzuschätzen versuchen. Ein so modelliertes Nahrungsnetz wird als Interaktionsnetz bezeichnet. Dabei stellt es sich regelmäßig heraus, dass Beziehungen, die bei energetischer Betrachtung vernachlässigbar erscheinen, funktional von sehr hoher Bedeutung sein können. Wichtig für Interaktionsnetze sind insbesondere Schleifen und Rückkoppelungen. So kann z. B. ein bestimmter Pflanzenfresser in einem System nur deshalb von geringer Bedeutung sein, weil seine Dichte durch einen Prädator stark begrenzt wird. Entfällt der Einfluss des Prädators (z. B. durch Bejagung), können völlig andere Stoffflüsse im System die Folge sein. Je nach Fragestellung werden anstelle der gespeicherten und in der Nahrungskette weitergegebenen Energie im Rahmen von Energieflussmessungen, auch einzelne Stoffe bzw. Stoffflüsse (Kohlenstoff, Stickstoff usw.) untersucht. Durch die Destruenten (Pilze, Bakterien, aber auch an der mechanischen Zersetzung beteiligte Würmer, Gliedertiere usw.), die ihre Nahrung allen übrigen Trophieniveaus entnehmen und dabei die Stoffe aus der Nahrungskette zurückführen, ergibt sich für die Stoffe keine Kette, sondern ein Stoffkreislauf (vgl. z. B. Stickstoff- und Kohlenstoffkreislauf). Energetische und allometrische Beschränkungen von Nahrungsketten und Nahrungsnetzen Grundlegend für die energetische Betrachtung von Nahrungsketten sind der englische Zoologe Charles Sutherland Elton und der amerikanische Limnologe Raymond Laurel Lindeman. Auf Elton geht das Konzept der Nahrungspyramide (Elton’schen Zahlenpyramide) zurück, die als Energiepyramide die verschiedenen Trophieniveaus eines Ökosystems charakterisiert. Durch die mit jedem Konsumtionsvorgang unvermeidlichen Verluste an Energie steht für jede trophische Ebene weniger Energie als für die darunter liegende zur Verfügung, meist wird als Faustformel ein übrig bleibender Anteil von 10 % angenommen (d. h. ein Verlust von 90 %), der in der Größenordnung durch zahlreiche Studien bestätigt worden ist. Durch diesen exponentiellen Energieverlust ist die Länge der möglichen Nahrungsketten begrenzt, weil irgendwann nicht mehr genügend Energie für ein weiteres trophisches Niveau übrig bleibt. Weiterhin sollte die Länge der Ketten von der Produktivität des betrachteten Ökosystems abhängig sein. In tatsächlich untersuchten Ökosystemen liegt die typische Länge der Nahrungsketten (im oben definierten Sinn!) zwischen zwei und fünf, fast immer entweder bei drei oder vier. Beziehungen zur Produktivität konnten im Großen und Ganzen bestätigt werden. Die genannte Form der Energiepyramide gilt in dieser Form nur für die tatsächliche Produktion eines Ökosystems bzw. seiner einzelnen trophischen Ebenen. Betrachtet man anstelle der Produktion die (viel leichter messbare) vorhandene Biomasse, werden die Zusammenhänge komplexer. Als (wahrscheinlicher) Hauptgrund hat sich der Einfluss der Größenverhältnisse der beteiligten Organismen herausgestellt. Die Zwänge, denen ein größer werdender Organismus aus rein physikalischen und physiologischen Gründen unterliegt, werden als Allometrie bezeichnet. Empirisch gefundene Zusammenhänge bei zunehmender Größe (Skalengesetze, am bekanntesten ist Kleibers Gesetz) sind durch neuere Forschungen in die ökologische Theorie integriert worden. Ist ein trophisches Niveau aus großen Organismen zusammengesetzt, steigt die Biomasse bei gleich bleibender Produktionsrate an, und zwar nicht linear, sondern exponentiell (über die tatsächliche Größe des Exponenten gibt es noch keine Einigkeit). Da größere Organismen pro Einheit Körpermasse die Energie langsamer umsetzen (und umsetzen müssen), ändert sich die (pro Fläche betrachtete) Produktivität des Systems als Ganzes dabei fast gar nicht. Die großen Organismen haben also zwar mehr Biomasse, ihre Produktion liegt aber nicht höher. Dieser Zusammenhang wurde über mehr als 12 Größenordnungen bestätigt (z. B.: planktische Algen zu Waldbäumen). Er gilt naturgemäß für Konsumenten in gleicher Weise (z. B. weidende Huftiere gegenüber Schmetterlingsraupen). Die gleich bleibende (und nur durch die Ressourcen und die zur Verfügung stehende Energie begrenzte) Produktivität von Ökosystemen, unabhängig von den sie zusammensetzenden Arten, wurde bereits früher festgestellt (ein Beispiel sind die genau untersuchten Ökosysteme des Solling-Projekts), konnte aber damals noch nicht erklärt werden. Durch diese Zusammenhänge gibt es „umgedrehte“ Pyramiden für die Individuenzahl, wenn die Organismen des höheren trophischen Niveaus kleiner sind als die des darunter liegenden; für die Biomasse, wenn die Organismen des höheren trophischen Niveaus größer sind als die des darunter liegenden. Umgedrehte Pyramiden für die Produktivität selbst sind unmöglich. Da die Einflüsse der Körpergröße sich pro Fläche betrachtet aufheben, ist die Länge der Nahrungsketten in einem Ökosystem hingegen nicht von der Größe der beteiligten Organismen abhängig. Muster und Prozesse in realen Nahrungsnetzen Die großen Fortschritte im Verständnis der Funktion zahlreicher Ökosysteme haben gezeigt, dass der über Nahrungsketten und Nahrungsnetze vermittelte Effekt auf Systeme extrem komplex und zwischen verschiedenen Systemen sehr unterschiedlich ist. Unterschiede zwischen aquatischen und terrestrischen Nahrungsnetzen Dominierende Produzenten im Meer und in Süßwasserseen sind einzellige Algen (Phytoplankton). Terrestrische Systeme beruhen in der Regel auf Gefäßpflanzen, am häufigsten Bäume (Wälder) oder Gräser (Savannen, Steppen, Tundren, vom Menschen geschaffenes Weideland). Daraus ergeben sich u. a. folgende Unterschiede: Größenstruktur: In aquatischen Nahrungsnetzen steigt die Körpergröße mit der Position im Nahrungsnetz an (z. B. Kieselalge – Ruderfußkrebs (Copepode) – planktonfressender Fisch – Hai). In terrestrischen Systemen gilt diese Regel nicht. Verhältnis Produktion zu Biomasse: Phytoplankter haben bei vergleichbarer Produktivität pro Fläche eine viel geringere Biomasse als Landpflanzen. Nährstoffinbalanzen: Landpflanzen bestehen zu großen Teilen aus Stützgeweben wie Holz und Fasern, die arm an Nährstoffen sind und von Phytophagen deshalb schlecht nutzbar sind. Abwehrmittel gegen Phytophage: Landpflanzen haben ein reiches Repertoire an „sekundären“ Pflanzenstoffen zur Fraßabwehr (z. B. Alkaloide und Glycoside) oder mechanische Abwehrmittel wie Dornen. Dies ist in aquatischen Systemen viel seltener. Die meisten planktischen Algen sind von allen Planktivoren gleich nutzbar (mit Ausnahme von Größeneffekten). Heterogenität: Landlebensräume sind in der Regel räumlich stärker gegliedert und bestehen meist aus zahlreichen Kompartimenten (Untersysteme mit jeweils eigenen Lebensbedingungen). Insgesamt ergibt sich aus diesen Unterschieden, dass der Einfluss der Phytophagen auf die Produzenten in aquatischen Systemen tendenziell höher ist (es gibt zahlreiche Ausnahmen und Gegenbeispiele!). Vermutlich sind mehr aquatische Systeme entscheidend durch den Einfluss der Phytophagen und der auf sie einwirkenden Prädatoren geprägt und mehr terrestrische Systeme von den Produzenten. Vor allem in Waldökosystemen erwies sich der Einfluss der Pflanzenfresser vielfach als überraschend gering. Trophische Kaskaden Trophische Kaskade nennt man den indirekten Effekt, den Prädatoren auf Primärproduzenten ausüben können, indem sie die Bestandsdichte der Herbivoren (Phytophagen) begrenzen. Ist in einem Ökosystem eine solche trophische Kaskade wirksam, ist die Produktion an pflanzlicher Biomasse hoch und die Phytophagendichte ist relativ gering. Dies liegt aber nicht daran, dass Letztgenannte die Wachstumsraten ihrer Populationen nicht zu steigern vermögen, sondern ist darauf zurückzuführen, dass ihre Bestandsdichte von den Prädatoren gering gehalten wird. Dies wird deutlich, wenn die Prädatoren (z. B. experimentell) entfernt werden: Die Herbivorendichte steigt stark an und die Primärproduktion sinkt stark ab. Ist eine trophische Kaskade wirksam, wird also über die Nahrungskette die tatsächliche Struktur des Ökosystems determiniert. Trophische Kaskaden sind in etlichen Ökosystemen nachgewiesen worden. Trotzdem besteht über ihre generelle Bedeutung keine Einigkeit. Das Meinungsspektrum reicht von „Kernthese der Ökologie“ bis „seltene Ausnahmeerscheinung.“ Schlüsselarten In einer klassischen Studie beobachtete der amerikanische Ökologe R.T.Paine an der pazifischen Felsenküste, dass sich an ansonsten identischen Stellen vollkommen verschiedene Lebensgemeinschaften einstellen können, je nachdem, ob eine räuberische Seesternart vorhanden ist oder fehlt. Diese räuberische Art ist demnach eine Schlüsselart (engl.: keystone predator) für das System. Seit dieser Studie wurde auch in anderen Systemen nach solchen Schlüsselarten gesucht und in einigen Fällen auch gefunden. In zahlreichen anderen Ökosystemen blieb die Suche nach Schlüsselarten aber erfolglos. Fallbeispiele Wölfe, Wapiti-Hirsche und Biber im Yellowstone-Nationalpark Im amerikanischen Yellowstone-Nationalpark wurden die Wölfe in den ersten Jahrzehnten des 20. Jahrhunderts verfolgt und bis 1926 ausgerottet, um die Population der Bisons zu sichern. Daraufhin wurde in dem Gebiet eine extreme Dichte von Wapiti-Hirschen beobachtet, die in manchen Regionen dicht wie Rinder auf der Weide standen. Nachdem Versuche, die Dichte der Wapitis durch Abschießen zu begrenzen, fehlgeschlagen waren, wurde der Wolf im Jahr 1995 erneut angesiedelt und unter Schutz gestellt. Nun kam es zu folgenden Effekten: Entlang der Flussufer wuchsen an manchen Stellen anstelle von Gras Dickichte aus Pappeln auf. Genauere Untersuchungen zeigten, dass es sich um unübersichtliche Stellen handelt. Diese wurden nun offensichtlich von den Wapitis gemieden, die vorher durch ihren Fraß der Sämlinge die Pappeln unterdrückt hatten. Entscheidend war hier offensichtlich gar nicht so sehr die Dichtebegrenzung der Wapitipopulation durch den Fraßdruck des Prädators Wolf (wie nach Lehrbuch zu erwarten), sondern einfach die Furcht der Wapitis vor den Wölfen, also eine Verhaltensänderung. Solche indirekten Effekte sind in zahlreichen Ökosystemen hoch bedeutsam, werden aber häufig durch die Fixierung der Ökosystemforschung auf Produktion und Energieumsatz vernachlässigt. Durch die Pappeldickichte als Nahrungsressource angelockt, begann der im Nationalpark ausgestorbene Biber wieder in das Gebiet einzuwandern und erreichte bald hohe Dichten. Es zeigte sich also, dass die Präsenz des Prädators Wolf über indirekte Effekte (quasi: um zwei Ecken herum) für das Vorkommen des Bibers entscheidend ist. Dies hätte niemand vorhersagen können. Biber und Wapiti zusammengenommen können schließlich unter Umständen die Weichholzwälder wieder unterdrücken. Huftiere in der Serengeti Der Serengeti-Nationalpark in Ostafrika ist weltberühmt für die großen Herden von Huftieren, von kleinen Gazellen bis hin zu Büffeln und Nashörnern. Die Interaktionen zwischen den großen Weidegängern und der Vegetation wird seit Jahrzehnten erforscht. Auch in der Serengeti wird die Balance zwischen Bäumen und Gräsern durch die Weidegänger geprägt. Die Baumbestände gingen z. B. nach der Wiedereinführung der Elefanten (im Jahr 1951) stark zurück. Überraschenderweise führte der Rückgang der Wildtierdichte durch die Maul- und Klauenseuche (mit Rindern eingeschleppt) nicht zu einer Ausbreitung, sondern zum Rückgang des Baumbestands. Grund war hier der Einfluss des Feuers. Durch die rückläufige Beweidung häufte sich viel tote Biomasse an, die zu stärkeren Feuern führte. Durch Ausschluss der Beweider mit Zäunen auf Versuchsparzellen zeigte sich, dass die Produktivität des Graslands mit Weidetieren höher war als ohne sie. Dies lag einerseits an den beschleunigten Nährstoffzyklen, insbesondere der schnelleren Stickstoff-Nachlieferung durch Urin und Kot (60 % Steigerung der Produktion), andererseits daran, dass ohne Weidetiere höhere Grasarten mit mehr Stützgewebe und niedrigerer Produktivität zunahmen. Die Gesamt-Produktivität der Serengeti wird aber nicht durch die Weidetiere, sondern durch die Niederschläge begrenzt. Nahrungsnetz im Hubbard Brook Experimental Forest Eine der umfangreichsten und sorgfältigsten Langzeitstudien in einem Ökosystem weltweit läuft seit 1963 im Hubbard Brook Experimental Forest im Tal des Hubbard Brook (White Mountains, New Hampshire, USA). Es handelt sich um eines der wenigen Systeme, in dem versucht wurde, alle wesentlichen Energie- und Stoffflüsse zu quantifizieren. Die Ergebnisse zeigen, dass in diesem Laubwald etwa 0,8 % der eingestrahlten Sonnenenergie photosynthetisch zum Aufbau pflanzlicher Biomasse genutzt wird. Etwa die Hälfte der aufgebauten Biomasse ging durch Atmung der Bäume direkt wieder verloren, so dass der tatsächliche Zuwachs (die Netto-Primärproduktion) etwa 0,4 % der Einstrahlung betrug. Die Produktion teilt sich in oberirdische (Blätter und Stämme) und unterirdische Produktion (Wurzeln und durch die Wurzeln abgegebene Stoffe). Da es sich um einen sommergrünen Laubwald handelt, sterben alle neu gebildeten Blätter im selben Jahr ab. Von der jährlich gebildeten Blattbiomasse wurden durchschnittlich etwa 99 % als Falllaub abgeworfen und gehen damit in die Saprobionten-Nahrungsketten ein. Ca. 1 % wurden durchschnittlich durch Phytophage genutzt, von denen Schmetterlingsraupen in diesen Wald die wichtigsten sind. Ähnliche Größenordnungen wurden in den meisten bislang untersuchten Wäldern beobachtet (z. B.). Die Hubbard Brook-Studie zeigte allerdings, dass die Verhältnisse in einzelnen Jahren erheblich von den Durchschnittswerten abweichen können. Bei einer Massenvermehrung blattfressender Schmetterlingsraupen konnte der Anteil der konsumierten Blattbiomasse bis auf 40 % ansteigen. Die Schmetterlingsraupen nehmen unabhängig vom Jahr etwa 14 % der gefressenen Blattbiomasse tatsächlich auf, der Rest geht v. a. als Kot verloren. Von den aufgenommenen 14 % werden circa 60 % im Stoffwechsel veratmet, während etwa 40 % dem Wachstum dienen. Unter den Wirbeltieren sind Singvögel die wichtigsten Fraßfeinde der Schmetterlingsraupen. Insgesamt verbrauchen Vögel etwa 0,2 % der jährlichen oberirdischen Netto-Primärproduktion in diesem Wald. Vögel als kleine, warmblütige Organismen haben einen höheren Ruhestoffwechsel als Schmetterlingsraupen. Sie verbrauchen deshalb nahezu 98 % der aufgenommenen Nahrung für ihren Stoffwechsel. Nur 2 % dienen also zum Aufbau ihrer eigenen Biomasse. Im Hubbard Brook Versuchswald leben dauerhaft etwa 15 Arten von Brutvögeln. Weitere 10–12 Arten treten unregelmäßig auf. Die weitaus meisten Arten sind Zugvögel. Die Dichte der Brutvögel betrug zu Beginn der regelmäßigen Untersuchungen Ende der 1960er Jahre ca. 20 Tiere/ha. Die Dichte ist bis Mitte der 2000er Jahre auf 7,5 bis 9 Tiere/ha abgesunken. Der Rückgang ist vor allem darauf zurückzuführen, dass 3 vorher häufige Arten verschwunden sind. Wie alle wichtigen Prädatoren in diesem Wald (z. B: Mäuse, Eich- und Streifenhörnchen, Spitzmäuse, Salamander, Hundertfüßler, Spinnen und Käfer) sind die Singvögel opportunistische, unspezialisierte Räuber, die je nach Angebot sowohl Bodentiere der Saprobiontenkette wie Pflanzenfresser erbeuten können. Zusätzlich spielen auch Samen eine Rolle, die Vögel sind also teilweise selbst Phytophage. In Jahren mit Massenvermehrung von Schmetterlingsraupen stieg die Dichte der Brutvögel sehr stark an. Auch durch experimentelle Nahrungsverknappung oder -zugabe konnte gezeigt werden, dass das Nahrungsangebot ein wesentlicher Faktor für die Vogelhäufigkeit war. Ein weiterer wichtiger Faktor war Prädation von Eiern und Nestlingen, der je nach Jahr 17 bis 42 % der Nester zum Opfer fielen. Die wichtigste Nestprädatoren waren Eichhörnchen. Da die Dichte der Eichhörnchen vom Samenangebot der Waldbäume (v. a. der Buche) abhing, sank der Bruterfolg der Singvögel in Mastjahren stark ab, obwohl die Vögel selbst teilweise Samenfresser sind. Die Prädation adulter Vögel kommt vor, ist aber aus Perspektive des Nahrungsnetzes bedeutungslos. Als Ergebnis der langjährigen Forschungen könnte man also festhalten: In diesem System sind bereits Pflanzenfresser im Hinblick auf die Stoff- und Energieflüsse von geringer Bedeutung und Räuber weitgehend bedeutungslos. Nahrungsketten mit einer Länge von mehr als drei Gliedern sind oberirdisch kaum anzutreffen bzw. unbedeutend. Dieses Urteil beruht allerdings nur auf einer quantitativ-energetischen Betrachtung des Nahrungsnetzes. Die Frage nach der Steuerung der Struktur der trophischen Beziehungen bzw. des betrachteten Ökosystems ist damit nicht beantwortet. Warum ist die Länge der Nahrungsketten limitiert? Schon der Biologe Charles Elton stellte in den 1920er Jahren fest, dass Nahrungsketten in den meisten Fällen auf eine Länge von vier bis fünf Glieder beschränkt sind, also in der Regel über nur vier bis fünf Stationen (Trophieebenen) reichen. Zur Erklärung dieser Begrenzung liegen zwei Ansätze vor: Der Energiehypothese zufolge ist der Energieverlust von Trophiestufe zu Trophiestufe der einschränkende Faktor. Da die geringe trophische Effizienz, also der zur nächsten Stufe weitergegebene in Biomasse gespeicherte Energiegehalt, nur 10 % beträgt, nimmt die Energie, die jeder Ebene zur Verfügung steht, exponentiell ab. Dadurch ist die Kette in ihrer Länge eingeschränkt. Stehen auf einem kleinen Weidegebiet 100 kg Pflanzenmasse, so reicht dies nur für die Erzeugung von 10 kg Herbivorenbiomasse und 1 kg Carnivorenbiomasse. Erhöht sich die Primärproduktion in einer Nahrungskette, so könnte die Kette, gemäß dieser Hypothese, länger werden, denn die Energie reiche aus, trotz des Verlusts, eine weitere Trophiestufe zu versorgen. Der andere Ansatz schreibt der „dynamischen Stabilität“ der Nahrungskette das einschränkende Potential zu. Je länger eine Nahrungskette ist, desto instabiler ist sie auch. Schwankungen in den unteren Stufen verstärken sich nach oben und können letztlich zur Auslöschung der Spitzenräuber führen. Ist eine Nahrungskette jedoch kürzer, so können die höheren Konsumenten leichter auf Fluktuationen, z. B. Umweltkatastrophen, reagieren, die das Nahrungsangebot auf allen Trophieebenen beeinflussen. In einem sehr variablen Nahrungsgefüge sind die Nahrungsketten demzufolge kürzer. Die neuere Forschung berücksichtigt beide Ansätze und versucht aufzuklären, welche Faktoren die Länge der Nahrungsketten in einem bestimmten Ökosystem begrenzen und wie sie zusammenwirken. An die Stelle einer monokausalen Erklärung tritt damit die fallspezifische Untersuchung verschiedener Einflussgrößen. Dazu gehören die Größe des Ökosystems, seine Zusammensetzung und seine bisherige Entwicklung, die Häufigkeit und Intensität von störenden Ereignissen (z. B. Dürreperioden oder das Eindringen neuer Arten) und die einzelnen Räuber-Beute-Beziehungen. Beispielsweise hängt die Länge der Nahrungsketten auch davon ab, ob die Räuber in der Lage sind, ihr Ernährungsverhalten dem Nahrungsangebot flexibel anzupassen. Bedeutung für die Ökotoxikologie Ins öffentliche Interesse rückte der Begriff in Zusammenhang mit der Beobachtung einer Anreicherung von Schadstoffen bei aufeinander folgenden Gliedern (Nahrungsketten- oder Trophieebenen). Die in diesem Zusammenhang am häufigsten zitierte Arbeit ist diejenige von Woodwell und Mitarbeitern aus dem Jahre 1967. Tatsächlich können sich vor allem fettlösliche und nicht oder nur langsam abbaubare Stoffe (z. B. persistente Chlorkohlenwasserstoffe, Schwermetallionen) in aufeinander folgenden Nahrungskettengliedern unter bestimmten Bedingungen anreichern. Man spricht in diesem Zusammenhang auch von Biomagnifikation. Dieser Effekt wurde zunächst als allgemein gültig betrachtet, erwies sich aber auf Basis einer Vielzahl an Untersuchungen als insbesondere für luftatmende und/oder terrestrisch lebende Organismen (Vögel, Robben usw.) bedeutsam. Auch der Mensch kann dieser Form der Schadstoffanreicherung unterliegen (z. B. in der Muttermilch). Bei primären Wassertieren (z. B. Wasserschnecken, Wasserflöhe, Fische) in rein aquatischen Nahrungsketten ist der direkte Austausch der Stoffe aus der Wasserphase über die Epithelien der Organismen (der Vorgang der so genannten Biokonzentration in den Organismus hinein und die Elimination über Kiemen oder Hautoberflächen aus dem Organismus heraus) bedeutsamer als die durch Fressen kontaminierter Nahrung hervorgerufene Biomagnifikation, wenngleich starke Unterschiede zwischen den verschiedenen Stofftypen und den einzelnen Organismengruppen auftreten. Eine nähere Analyse ist im Einzelfall nur durch Messung realer Stoffflüsse und durch Anwendung geeigneter Kompartimentmodellierung möglich. Eine wichtige Stoffeigenschaft bei fettlöslichen Stoffen ist dabei z. B. der Oktanol-Wasser-Verteilungskoeffizient; ein wichtiges Charakteristikum der untersuchten Organismen ist die Größe der Fläche sowie die Durchlässigkeit ihrer Membranen bzw. Epithelien, welche den Stoffaustausch mit der Umwelt ermöglichen. Fossile Überlieferung Das älteste fossile Zeugnis einer dreigliedrigen Wirbeltier-Nahrungskette stammt aus den 290 Millionen Jahre alten frühpermischen Ablagerungen des „Humberg-Sees“ aus dem Saar-Nahe-Becken. Im Verdauungstrakt eines Fossils des etwa 70 Zentimeter langen Xenacanthiformen Triodus, ein „Süßwasserhai“, fand sich die Larve einer temnospondylen Amphibie, die einen Stachelhai erbeutet hatte. Damit sind drei Trophieniveaus zugleich erhalten. Weblinks Einzelnachweise Theoretische Biologie Ökotoxikologie Nahrungsnetz ca:Xarxa tròfica he:מארג מזון ht:Rezo alimantè
Q159462
195.935847
11717667
https://de.wikipedia.org/wiki/Referenzzustand
Referenzzustand
Ein Referenzzustand ist in der Chemie und Thermodynamik ein Zustand, welcher durch festgelegte Eigenschaften definiert wird. Neben konkreten Eigenschaften, wie beispielsweise dem Druck, kann der Referenzzustand dabei willkürlich definierte Eigenschaften aufweisen. Beispiele für Referenzzustände sind die Normzustände und die Standardzustände (siehe Standardbedingungen). Da die Referenzzustände willkürlich gewählt werden können, werden für unterschiedliche Systeme und Anwendungen jeweils geschickte Referenzzustände gewählt. Beim Arbeiten mit tabellierten Werten, die sich auf einen Referenzzustand beziehen, ist es wichtig diesen Referenzzustand zu kennen. Standardzustand Der Standardzustand ist ein Zustand, welcher häufig als (willkürlicher) Referenzzustand benutzt wird. Für einen gelösten Stoff wird häufig der fiktive Zustand bei der Standardkonzentration 1 mol/l unter Standardbedingungen und unter der fiktiven Bedingung unendlicher Verdünnung als Standardzustand verwendet. In diesem Zustand unendlicher Verdünnung wechselwirken die gelösten Teilchen (fiktiv) nicht miteinander, jedoch wechselwirken die gelösten Teilchen mit dem Lösungsmittel. Fiktiv ist, dass die gelösten Teilchen nicht miteinander wechselwirken und dennoch bei der Standardkonzentration 1 mol/l vorliegen (bei der die gelösten Teilchen eigentlich recht starke Wechselwirkungen zeigen würden). Einzelnachweise Thermodynamik Chemische Größe Metrologie
Q1878074
186.722897
135900
https://de.wikipedia.org/wiki/NASDAQ
NASDAQ
Der Nasdaq [] mit Sitz in New York ist die größte elektronische Börse in den USA, gemessen an der Zahl der notierten Unternehmen. Der Name ist ein Akronym für National Association of Securities Dealers Automated Quotations. Die Börse wurde 1971 von der National Association of Securities Dealers (NASD) als vollelektronische Handelsplattform gegründet. Sie wird oft auch als „Technologiebörse“ bezeichnet, da sie wegen historisch geringerer Anforderungen und Kosten als die konkurrierende New York Stock Exchange (NYSE) von kleineren (und riskanteren) Firmen des Technologiesektors bevorzugt wurde. Seit Februar 2008 wird die Börse von der Nasdaq, Inc. betrieben. Aufsichtsbehörde ist die United States Securities and Exchange Commission (SEC). Konzernaufbau Der Nasdaq setzt sich aus dem Nasdaq National Market und dem Nasdaq SmallCap Market zusammen. Der Sitz der Hauptbörse ist in den USA, mit Börsen in Kanada und Japan. Es bestehen Verbindungen zu den Börsen in Hongkong und Europa. Der Sitz in New York ist in der nordwestlichen Ecke des Condé Nast Buildings am Times Square von Manhattan untergebracht. Geschichte Als der Handel am 8. Februar 1971 begann, war dies die erste elektronische Börse. Im Jahr 1998 erfolgte die Fusion mit der American Stock Exchange; seit 1999 ist es die größte amerikanische Börse, in der die Hälfte der US-amerikanischen Aktiengesellschaften gelistet ist. Die Nasdaq wurde wegen der Terroranschläge am 11. September 2001 vorübergehend geschlossen. Im Jahr 2002 führte der Nasdaq Supermontage, kurz SUMO, als elektronisches System ein. Im größten Zivilprozess der USA-Geschichte verurteilte ein Bundesgericht Dutzende von Brokerhäusern (darunter Merrill Lynch, Goldman Sachs und Salomon Smith Barney) zu Zahlungen in Höhe von 1,03 Milliarden US-Dollar an geschädigte Investoren, die mit einem groß angelegten Plan mittels Preisfixierung betrogen wurden. Am 25. Mai 2007 wurde bekannt, dass sich die Nasdaq mit der schwedischen Börse OMX zusammenschließen wird. Der NASDAQ bot 2,73 Milliarden Euro für den Börsenbetreiber OMX. Nach der Fusion, die am 27. Februar 2008 abgeschlossen war, heißt das Unternehmen Nasdaq OMX Group und besitzt eine Marktkapitalisierung von rund 7,1 Milliarden US-Dollar. Die Übernahme der London Stock Exchange (LSE) scheiterte dagegen im Jahr 2006 am Widerstand des Managements der Londoner Börse. Handel Der Nasdaq erlaubt es mehreren Marktteilnehmern, am Handel mittels des Electronic Communication Network (ECN) teilzunehmen. Das Small Order Execution System (SOES) ist ein weiteres NASDAQ-Merkmal, das 1984 eingeführt wurde, um auch bei höherem Handelsaufkommen die Ausführung aller Aufträge sicherzustellen. Am OTC Bulletin Board der NASDAQ werden die Aktien unter dem Symbol NDAQ gehandelt. Die Handelszeiten der Nasdaq sind von 9:30 bis 16:00 Uhr New Yorker Ortszeit (EST), was in der Regel 15:30 bis 22:00 Uhr deutscher Zeit (MEZ) entspricht. Im Frühjahr und Herbst kommt es zu Abweichungen, da sich die jährliche Umstellung zwischen Normal- und Sommerzeit in New York von der deutschen im Datum unterscheidet. Zusätzlich gibt es – wie oft an elektronischen Handelsplätzen – erweiterte Handelszeiten, während derer das Volumen allerdings deutlich geringer ist. Diese sind von 7:00 bis 9:30 Uhr Ortszeit („pre-market session“) sowie von 16:00 bis 20:00 Uhr Ortszeit („after-market session“). Statistik Am 17. Juli 1995 schloss der Nasdaq-Composite-Aktienindex mit 1.005,89 Punkten erstmals über der Grenze von 1.000 Punkten. Am 10. März 2000 markierte der Index mit 5.048,62 Punkten ein Allzeithoch und signalisierte den Anfang vom Ende des Dot-Com-Booms. Am 23. April 2015 erreichte der Index ein neues Allzeithoch nach mehr als 15 Jahren. Die Tabelle zeigt die Tage mit den höchsten Volumina aller gehandelten Aktien (Einfachzählung) an der Nasdaq. Indizes Nasdaq Composite NASDAQ-100 NASDAQ Biotechnology Index NASDAQ 100 Financial Index Börsensegmente NASDAQ Global Select Market NASDAQ Global Market NASDAQ Capital Market NASDAQ PORTAL Market Weblinks Offizielle Website Einzelnachweise Wertpapierbörse Computerbörse Abkürzung Gegründet 1971 Finanzdienstleister (New York City)
Q82059
216.871661
824237
https://de.wikipedia.org/wiki/Sternentstehung
Sternentstehung
Als Sternentstehung bezeichnet man allgemein jene Entwicklungsstadien, die bei der Bildung eines Hauptreihensterns aus dem kollabierenden Kern einer ausgedehnten Molekülwolke durchlaufen werden. Dabei verdichtet sich die zunächst diffus verteilte interstellare Materie um einen Faktor von etwa 1018 bis 1020. Zuletzt unterscheidet man mehrere Kollapsphasen, nämlich die Bildung eines prästellaren Kerns, eines Protosterns, und schließlich eines Vorhauptreihensterns. Während massearme Sterne auch isoliert entstehen können, findet die Bildung massereicherer Sterne vornehmlich in Sternhaufen statt. Diese unterschiedlichen Arten der Sternentstehung bestimmen wesentlich die Eigenschaften und die Entwicklung von Galaxien. Molekülwolken Voraussetzung für die Entstehung von Sternen ist das Vorhandensein vergleichsweise dichter, kalter Materiewolken, sogenannter Molekülwolken. Erste Anzeichen für diese Wolken ergaben sich bereits aus Beobachtungen im 18. und 19. Jahrhundert: Caroline Herschel berichtet, ihr Bruder Wilhelm Herschel habe eine scheinbar sternlose Region, die aus heutiger Perspektive einer solchen Molekülwolke entspricht, im Sternbild Skorpion gefunden und mit den Worten „Hier ist wahrhaftig ein Loch im Himmel“ kommentiert. Erst zu Beginn des 20. Jahrhunderts konnten großflächige Himmelsdurchmusterungen mittels fotografischer Platten nachweisen, dass diese dunklen Regionen durch interstellare Wolken verursacht werden, die dahinterliegende Sterne verdecken. Bart Bok identifizierte schließlich diese Dunkelwolken als Orte der Sternentstehung, wohingegen deren Zusammensetzung weiterhin ein Rätsel blieb. Heute ist es allgemein bekannt, dass diese Wolken zu rund 70 % aus molekularem Wasserstoff (H2) bestehen (woraus sich der Name „Molekülwolke“ ableitet), der von einer Hülle aus neutralen Wasserstoffatomen (H-I) umgeben ist. Neben H2 finden sich in diesen Wolken noch weitere Moleküle, beispielsweise Kohlenmonoxid (CO). Des Weiteren findet sich rund 1 % der Masse in Form von interstellarem Staub (Silikat- oder Graphitteilchen von der Größe 0,1 µm). In der Milchstraße finden sich Molekülwolken mit mittlerer Dichte von etwa 100 H2-Molekülen je cm³ hauptsächlich in den Spiralarmen. Einige große Komplexe können dabei Durchmesser von etwa 150 Lichtjahren und Massen von 105 bis 106 Sonnenmassen (M☉) erreichen und werden deswegen auch als Riesenmolekülwolken bezeichnet (engl.: Giant Molecular Cloud oder GMC). Es gibt jedoch auch kleinere, relativ isolierte Molekülwolken mit Massen von weniger als hundert Sonnenmassen. Beobachtung von Molekülwolken Da molekularer Wasserstoff aufgrund seiner Symmetrie kein Dipolmoment hat, hat er bei Temperaturen von 10–20 K, wie sie in Molekülwolken üblich sind, keine beobachtbaren Absorptions- oder Emissionslinien und kann somit nicht beobachtet werden. Stattdessen müssen indirekte Beobachtungsmethoden (engl. Tracer), wie entweder das Vorhandensein von Stellvertretermolekülen oder von Staub genutzt werden. Die häufigsten Methoden sind: Beobachtungen von Kohlenmonoxid Kohlenmonoxid (CO) stellt nicht nur das zweithäufigste Molekül in solchen Wolken dar, sondern hat die Eigenschaft, dass seine Rotationsübergänge – Übergänge von einem Rotationszustand in einen anderen, bei denen Infrarotlicht ausgesandt wird – selbst bei niedrigen Teilchendichten beobachtet werden können. Aus solchen Beobachtungen folgt die Verteilung auf großen Skalen sowie die Menge der CO-Moleküle. Unter der Annahme, dass das Zahlenverhältnis von CO- zu H2-Molekülen konstant ist, kann ein Umrechnungsfaktor zwischen der H2-Dichte und der Intensität bestimmter CO-Spektrallinien bestimmt werden; diesen Umrechnungsfaktor vorausgesetzt, kann aus Messungen an CO die Gesamtstruktur der Molekülwolke rekonstruiert und ihre Masse bestimmt werden. Eine weitere empirische Beziehung besteht zwischen der Ausdehnung der Wolke und der Linienbreite der CO-Linien. Beobachtungen der Wellenlängenabhängigkeit der Extinktion Blaues Licht wird stärker an den interstellaren Staubteilchen gestreut als rotes. Dieser Umstand kann genutzt werden, um Extinktionskarten zu erstellen: Hintergrundsterne, die durch eine Molekülwolke scheinen, erscheinen systematisch röter als deren intrinsische Farbe, wenn sich entlang der Sichtlinie mehr Staub befindet, und weniger rot bei geringerem Staubaufkommen. Die Rötung ist direkt proportional zur Menge an interstellarem Staub entlang der Sichtlinie. Dies erlaubt, unter der Annahme eines konstanten Massenverhältnisses von Staub zu molekularem Wasserstoff, Rückschlüsse auf dessen Verteilung und somit auf die Struktur einer Molekülwolke. Diese Methode wird hauptsächlich bei Nahinfrarotwellenlängen angewendet. Hier hat sich für Astronomen der 2MASS (Two Micron All-Sky Survey) mit Beobachtungen bei 1,2 µm, 1,6 µm und 2,2 µm als wahre Fundgrube erwiesen, da er ihnen erlaubt, sogenannte Extinktionskarten des gesamten Himmels zu erstellen. Ferninfrarotbeobachtungen Aufgrund der niedrigen Temperatur von nur rund 10 K liegt die thermische Emission der Staubteilchen in den Molekülwolken bei Wellenlängen von rund 250 µm. In diesem Wellenlängenbereich sind Molekülwolken größtenteils optisch dünn, was einen direkten Rückschluss auf die Menge an Staub entlang der Sichtlinie zulässt. Da dieser Wellenlängenbereich jedoch nicht in einem Atmosphärenfenster liegt, sind Beobachtungen nur über Satelliten, wie z. B. ISO, möglich. Das im Jahr 2009 gestartete Satellitenteleskop Herschel bietet den Astronomen bisher unerreichte Auflösung und Sensitivität und hat seither die Art und Weise, wie Astronomen Sternentstehung sehen, revolutioniert. Molekülwolkenstruktur Einfache, analytisch lösbare Sternentstehungsmodelle gehen von sphärischen Molekülwolken aus. Dies führte zur Vorhersage von deutlich zu hohen Sternentstehungsraten. Für realitätsnähere Computersimulationen der Sternentstehung muss jedoch berücksichtigt werden, dass Molekülwolken eine stark ausgeprägte, filamentäre Struktur haben. Entlang dieser Filamente befinden sich wie Perlen an einer Kette Verdichtungen, die als die Geburtsstätte von Sternen angesehen werden. Der physikalische Hintergrund dieser Struktur ist bis heute nicht vollständig verstanden. Man geht jedoch davon aus, dass ein Zusammenspiel von Gravitation und Turbulenz die Ursache ist. Die Turbulenz sorgt dabei für die lokalen Verdichtungen, aus denen sich im weiteren Verlauf Sterne bilden. Eine weitere Ursache für eine lokale Erhöhung der Gasdichte kann der Einfluss massereicher Sterne sein, die durch Sternenwinde das Material zusammenschieben und verdichten. Üblicherweise definiert man in einer Molekülwolke eine hierarchische Struktur. Obwohl diese Unterteilung vermutlich keinen physikalischen Hintergrund hat und eine Molekülwolke eher eine fraktale Struktur besitzt, ist die Einteilung in Wolke (engl. Cloud), Klumpen (engl. Clump) und Kern (engl. Core) üblich und weit verbreitet. Als Cloud wird dabei die gesamte Struktur bezeichnet, ein Clump ist eine physikalisch zusammenhängende Untergruppe und ein Core ist eine gravitativ gebundene Einheit, die üblicherweise als der direkte Vorgänger eines Protosterns gesehen wird. Erster Kollaps Kollaps von Molekülwolkenkernen Sterne entstehen aus dichten Molekülwolkenkernen, die in eine Molekülwolke eingebettet sind. Innerhalb einer solchen Molekülwolke wirken verschiedenste Kräfte. Am wichtigsten ist die Gravitation, die durch ihre anziehende Wirkung dafür sorgt, dass sich diese Kerne weiter zusammenziehen. Diesem Kollaps wirkt hauptsächlich die thermische Energie, also die Eigenbewegung der Moleküle, entgegen, die diese nur aufgrund ihrer Temperatur besitzen. Wichtig zur Stabilität können jedoch auch Magnetfelder und/oder Turbulenz sein. Stabilität und Kollaps Ein einfaches Mittel zur Stabilitätsanalyse liefert die sogenannte Virial-Analyse. Ist ein Molekülwolkenkern im Gleichgewicht, so balancieren sich (unter Vernachlässigung von Magnetfeldern und Turbulenz) die kinetische Energie der Teilchen und deren potentielle Gravitationsenergie gerade aus. Für den Fall, dass die Gravitationsenergie überwiegt, folgt unweigerlich der Kollaps dieses Kerns. Die Virial-Analyse ist für einen Kern mit homogener Dichte leicht durchzuführen, dient jedoch nur als grobe Abschätzung der Stabilität einer Molekülwolke. Damit eine reale Wolke stabil ist, muss der Druck im Inneren höher sein als in weiter außen liegenden Schichten. Wird dies in der Stabilitätsanalyse berücksichtigt, so ist das Kriterium für Stabilität ein Dichteverhältnis zwischen Zentrum und Hülle. Im Grenzfall für kritische Stabilität spricht man von einer Bonnor-Ebert-Sphäre, und das Stabilitätskriterium kann umgerechnet werden in eine sogenannte Bonnor-Ebert-Masse, die die Wolke überschreiten muss, damit ein Kollaps einsetzen kann. Überschreitet ein Molekülwolkenkern seine kritische Masse (d. h. die thermische Bewegung der Teilchen kann der Eigengravitation nichts entgegensetzen), so folgt unweigerlich der Kollaps. Dabei erfolgt die Kontraktion, sobald die Grenze zur Instabilität einmal überschritten ist, quasi im freien Fall, das heißt die nach innen stürzenden Schichten spüren nur das Gravitationspotential und fallen ungebremst (und damit insbesondere schneller als lokale Schallgeschwindigkeit) in Richtung Zentrum. Der Kollaps breitet sich dabei von innen nach außen mit Schallgeschwindigkeit aus („Inside-Out Collapse“): Die Region, die kollabiert, wird rund um die dichtesten Kernregionen immer größer, und immer mehr des zuvor statischen, dünnen Gases wird in den Kollaps mit einbezogen. Wie erwähnt, besitzt ein Kern anfänglich eine erhöhte Dichte im Zentrum, weswegen in dieser Region der Kollaps auch schneller abläuft als in der Hülle. Während dieses Kollapses wird Gravitationsenergie in thermische Energie umgewandelt und im mm-Wellenlängenbereich abgestrahlt. Da die äußeren Hüllen jedoch für Strahlung dieser Wellenlängen durchlässig sind, wird die gravitative Bindungsenergie komplett nach außen abgestrahlt. Deswegen ist diese erste Phase isotherm, die Temperatur des Kerns ändert sich also zunächst nicht. Spielen Magnetfelder eine Rolle, so wird die Situation deutlich komplizierter. Elektronen und Ionen bewegen sich wendelförmig um die Magnetfeldlinien. In deren Richtung ist ein Kollaps ungehindert möglich. Für Bewegungen senkrecht zu den Feldlinien ist die Physik komplizierter. Durch die Bindung der ionisierten Materie an das Magnetfeld behindert dieses den Kollaps, wird aber auch umgekehrt von der Materie mitgenommen. So wie die Materie sich verdichtet, verstärkt sich das Magnetfeld. Neutrales und ionisiertes Gas koppeln aneinander durch Stöße von Molekülen und Ionen und bewegen sich gemeinsam. Mit steigender Dichte fällt der Ionisationsgrad und die Kopplung wird schwächer, d. h., die Zeitskala, auf der Materie beiderlei Ladung quer zu den Feldlinien in dichtere Gebiete diffundieren kann (Ambipolare Diffusion), nimmt ab. Allerdings nimmt im freien Fall auch die verfügbare Zeit ab, und die magnetische Spannung steigt mit der Verformung der Feldlinien. Im weiteren Verlauf des Kollapses steigt die Dichte weiter an, die Hülle wird für die Strahlung optisch dick und bewirkt somit eine Aufheizung. Langsam führt diese Aufheizung zur Ausbildung eines hydrostatischen Gleichgewichts im Zentrum, welches den Kollaps verlangsamt und schließlich stoppt. Dieser sogenannte erste Kern, englisch auch First Hydrostatic Core (FHSC), der zum Großteil aus Wasserstoffmolekülen besteht, hat einen Radius von typischerweise 10 bis 20 AE, was etwa dem dreifachen Radius der Jupiterbahn entspricht. Im Zentrum ist der Kollaps nun zunächst gestoppt, die weiter außen liegenden Bereiche der Hülle stürzen jedoch weiterhin im freien Fall auf diesen ersten Kern. Das Auftreffen der Materie auf den hydrostatischen Kern führt dabei zur Ausbildung von Schockwellen, die schließlich den Kern noch zusätzlich aufheizen. Diese erste Phase der Sternentstehung vom Kollaps bis hin zur Bildung eines hydrostatischen Kerns dauert rund 10.000 Jahre und ist durch die sogenannte Freifallzeit definiert. Beobachtung von prästellaren Kernen Prästellare Kerne werden mit den gleichen Methoden wie Molekülwolken beobachtet. Zum einen schluckt der in ihnen enthaltene Staub das Licht von Hintergrundsternen, weswegen sie im optischen und nahen Infrarot als sternfreie Gebiete zu sehen sind. Zum anderen strahlen sie auch durch ihre Temperaturen von rund 10 K bei (sub-) mm-Wellenlängen und können dort durch die thermische Emission des Staubs gesehen werden. Ebenso wie Molekülwolken im Allgemeinen werden auch prästellare Kerne mit Hilfe von Moleküllinien beobachtet und nachgewiesen. Im Gegensatz zur Molekülwolke, die hauptsächlich durch CO nachgewiesen wird, macht man sich bei der Beobachtung von Kernen verschiedene Effekte zu Nutze. Zum einen ist das Zentrum eines Kerns durch dessen Hülle vom interstellaren Strahlungsfeld geschützt. Das lässt dort chemische Verbindungen entstehen, die durch diese Strahlung zerstört würden. Somit kommen in prästellaren Kernen Moleküle vor, die sich im interstellaren Medium nicht finden. Zum anderen sind die Kerne so dicht, dass diese Moleküle durch Kollisionen mit Wasserstoffmolekülen zu höheren Zuständen angeregt werden und charakteristische Spektrallinien abstrahlen. Die Chemie innerhalb eines solchen prästellaren Kerns ist heute noch Gegenstand der aktuellen Forschung, da neben chemischen Reaktionen in der Gasphase auch das sogenannte Ausfrieren von Molekülen auf Staubteilchen und die damit verbundene Chemie der Staubteilchen mit berücksichtigt werden muss. Ebenso unbekannt und bisher noch nie beobachtet ist die Übergangsphase von einem prästellaren in einen protostellaren Kern, das heißt die Beobachtung eines ersten Kerns. Allerdings sind einige Kandidaten für ein solches Objekt entdeckt worden, eine bestätigte Beobachtung ist bis heute jedoch ausgeblieben. Protosterne Zweiter Kollaps Die Aufheizung des sogenannten ersten Kerns dauert nur so lange an, bis die Temperatur ausreicht, um die Wasserstoffmoleküle in ihre Einzelatome zu spalten. Die Energie, die dabei abgegeben wird, steht jedoch nicht mehr zur Stabilisierung des Kerns zur Verfügung. Dies führt zu einem zweiten Kollaps, der erst gestoppt wird, wenn sich erneut ein hydrostatisches Gleichgewicht ausbildet. Der zweite Kern besteht jedoch hauptsächlich aus Wasserstoffatomen und hat etwa eine Ausdehnung von eineinhalb Sonnenradien. Aus einem prästellaren Kern ist schließlich ein Protostern geworden: ein Stern, der noch an Masse gewinnt und seine Leuchtkraft vor allem aus der Akkretion von außen auf das Objekt fallender Materie bezieht. Obwohl dieser Protostern bereits mit einer Temperatur von einigen 1000 K strahlt, ist er von außen durch die ihn umgebende dichte Hülle verdeckt. Seine Strahlung sorgt jedoch für eine graduelle Aufheizung der Molekülwolke von innen heraus. In den inneren Regionen steigt die Temperatur bis über 1500 K, so dass alle heißen Staubteilchen verdampfen. Dort bildet sich eine weitgehend strahlungsdurchlässige Region („opacity gap“) im Inneren des Staubmantels. Steigt die Temperatur in den Zentralbereichen der Molekülwolke über Temperaturen von rund 100 K, beginnen die Moleküle aus der Eishülle um die Staubteilchen auszudampfen und in die Gasphase überzutreten. In diesem sogenannten Hot Corino finden durch die erhöhten Temperaturen und hohen Häufigkeit von Molekülen in der Gasphase eine Vielzahl von chemischen Reaktionen statt. Die Vorgänge in diesen Regionen stehen somit im Gegensatz zu denen in den kalten Außenbereichen der protostellaren Wolke, die von ihren Bedingungen her immer noch den prästellaren Kernen ähneln. Die weiter außen liegenden Hüllenbereiche, die sich immer noch im freien Fall befinden, regnen weiterhin auf den Protostern nieder und sorgen so für einen steten Massenzuwachs. Der Großteil der Leuchtkraft wird aus diesem Akkretionsprozess gewonnen. Noch befindet sich jedoch nur rund etwa 1 % der Gesamtmasse des Molekülwolkenkerns im Zentralgestirn. Die Phase, in der der Stern durch den Einfall von Hüllenmaterial stetig an Masse zunimmt, nennt man Hauptakkretionsphase. In vereinfachender Betrachtung vollzieht sich dieser Kollaps radialsymmetrisch. Genauer betrachtet besitzen die Molekülwolkenkerne jedoch einen von Null verschiedenen Drehimpuls, sodass Staub und Gas nicht ohne Weiteres auf das Zentralgestirn fallen können. Zirkumstellare Scheibe und Jets Ein Kollaps erfordert eine Umverteilung des Drehimpulses. Dies führt häufig zur Bildung von Doppel- oder Vielfachsternsystemen, oder senkrecht zur Rotationsachse einer zirkumstellaren Scheibe. Innerhalb dieser Scheibe ist ein effektiver Transport von Drehimpuls möglich, was einerseits dazu führt, dass Partikel Richtung Zentralgestirn wandern, andererseits aber auch zu einer Ausweitung der Scheibe, da die Teilchen, die Drehimpuls aufnehmen, weiter nach außen driften. Diese Scheibe kann eine Ausdehnung von rund 100 AE haben. Neben einer zirkumstellaren Scheibe bilden diese Protosterne senkrecht dazu bipolare, stark kollimierte Jets aus. Diese werden durch ein Zusammenspiel von Rotation, Magnetfeldern und Akkretion erzeugt. Es wird angenommen, dass bereits FHSCs (erste Kerne) schwache molekulare Ausflüsse bilden können, während Jets in der späteren Evolutionsphase gebildet werden. Gefüttert werden diese durch Material aus der zirkumstellaren Scheibe. Sie stoßen dabei mit Überschallgeschwindigkeit in das umgebende Hüllenmaterial, was zur Ausbildung von Schocks führt. Diese Schocks heizen sich stark auf, und dies ermöglicht chemische Reaktionen, die zur Bildung neuer Moleküle führen können. Neben den Jets mit Geschwindigkeiten von einigen 100 km/s gibt es auch langsamere, weniger kollimierte Ausflüsse molekularer Materie mit Geschwindigkeiten von bis zu einigen 10 km/s. Dabei handelt es sich wohl um Material, das der Jet beim Durchströmen der Hülle mit sich reißt. Der Jet frisst somit langsam einen Hohlraum in die protostellare Wolke. Dieser Hohlraum ist zunächst noch sehr schmal, mit Öffnungswinkeln von nur einigen Grad, weitet sich jedoch mit fortschreitender Zeit immer weiter aus und sorgt für die Zerstreuung und Ausdünnung der Hülle in Richtung der Ausflüsse. Der Protostern selbst akkretiert weiter Materie. Sie fällt jetzt jedoch nicht mehr direkt und isotrop auf ihn ein, sondern wird hauptsächlich über die zirkumstellare Scheibe aufgenommen (weswegen diese oft auch Akkretionsscheibe genannt wird). Klassifizierung von Protosternen Zur genaueren evolutionären Klassifizierung dienen Astronomen hier sogenannte spektrale Energieverteilungen (engl. spectral energy distribution, SED), der Farbindex und insbesondere der sogenannte Spektralindex . Hierbei ist die Wellenlänge und die Flussdichte. Üblicherweise wird zur Klassifikation der Spektralindex für Nahinfrarot-Wellenlängen zwischen 2,2 und 10 μm herangezogen. Die Strahlung von protostellaren Systemen ist dominiert durch thermische Strahlung. In der Frühphase mit Temperaturen von einigen 10 K ist das Strahlungsmaximum weit im fernen Infrarot und die Strahlungsintensität steigt somit mit steigender Wellenlänge an Beim Erreichen der Hauptreihe ist die SED dominiert durch das Zentralgestirn mit Temperaturen von einigen 1000 K mit dem Strahlungsmaximum im Optischen und einem daraus resultierenden negativen Spektralindex. Beobachtung von Protosternen Im optischen und Nahinfrarot-Wellenlängenbereich unterscheiden sich protostellare Kerne kaum von prästellaren Kernen. Die dichte Hülle verschluckt das Licht dahinter liegender Sterne, weswegen sie am Himmel ebenfalls als dunkle Regionen erkennbar sind. Bei (sub-) mm-Wellenlängen sieht man ebenfalls die thermische Strahlung des Staubs in der Hülle. Unterschiede zeigen sich bei Beobachtungen in den dazwischen liegenden Wellenlängen, da die Hülle bei diesen Wellenlängen durchsichtig wird. Da diese Beobachtungen im mittleren und fernen Infrarot aufgrund der Atmosphäre nicht von der Erdoberfläche aus möglich waren, konnte erst mit Hilfe von Satellitenmissionen und voranschreitender Detektor-Technologie diese Lücke geschlossen werden. Wichtigstes Instrument zur Beobachtung dieser Frühphasen der Sternentstehung war die Satellitenmission IRAS, die den ganzen Himmel systematisch mit Breitbandfiltern mit zentralen Wellenlängen von 12 µm, 25 µm, 60 µm und 100 µm untersuchte. Klasse-0-Protosterne konnten dabei meist, abhängig von der Entfernung des Objekts, nur in den längeren Wellenlängen detektiert werden, da sie noch zu kalt sind, um bei Wellenlängen von nur einigen 10 µm stark zu strahlen. Mit dem Start des Spitzer-Weltraumteleskops im Jahre 2003 konnten durch dessen höhere Sensitivität jedoch auch bei kürzeren Wellenlängen (z. B. 24 μm) eine Reihe von Klasse-0-Protosternen in Molekülwolken entdeckt werden, die man bisher für sternenlos gehalten hatte. Diese Objekte bilden die neue Klasse der sogenannten VeLLOs (engl. Very Low Luminosity Objects) und sind Gegenstand aktueller Forschung. Neben der Wärmestrahlung der protostellaren Wolke ist es auch möglich, die bipolaren Materie-Ausflüsse zu beobachten. Hierzu beobachtet man häufig Moleküllinienübergänge von CO (und dessen Isotopen). Sie erlauben Rückschlüsse über Geschwindigkeiten in den Ausflüssen oder aber auch über Anregungsbedingungen (Dichte, Temperatur, …). Andere Moleküle, die z. B. nur in den extremen Umweltbedingungen von Jets gebildet werden können, werden häufig verwendet, um die Natur von Jets zu erforschen. Auch die Rotationssignatur der Scheibe kann mit Hilfe diverser Moleküllinienübergänge gesehen werden. Die geringe Ausdehnung dieser Scheiben erschwert jedoch eine räumliche Auflösung, weswegen oft interferometrische Aufnahmen nötig sind. Spektrale Klassifikation Sterne werden während ihrer Entstehungsphase über die spektrale Energieverteilung (SED) charakterisiert und klassifiziert. Die SED von Klasse-0-Protosternen ähnelt in ihrer Form der eines kalten Schwarzkörpers mit einer Temperatur von nur rund 20–30 K. Im Zentrum hat sich zwar bereits ein Protostern gebildet; seine Strahlung wird jedoch durch die dichte Hülle komplett absorbiert und sorgt für dessen Aufheizung. Die SED von Klasse-I-Protosternen wird immer noch durch die thermische Strahlung der kalten Staubhülle dominiert. Es zeigt sich jedoch bei kürzeren Wellenlängen die Schwarzkörperstrahlung des Protosterns im Zentrum, der bereits eine Temperatur von einigen 1000 K besitzt. Neben der thermischen Strahlung zeigen sich in der SED auch spektrale Eigenheiten des Hüllenmaterials. Das Strahlungsmaximum bei 10 µm ist auf Staub in Form von Silikaten zurückzuführen. Vorhauptreihensterne In der Frühphase der Sternentstehung bezieht der Protostern einen Großteil der Leuchtkraft aus der Akkretion von Material aus der Hülle. Im weiteren Verlauf der Evolution nimmt diese jedoch immer weiter ab, und die Leuchtkraft wird hauptsächlich durch die Eigenkontraktion des Zentralgestirns geliefert. In diesem Stadium spricht man nicht mehr von einem Protostern, sondern von einem Vorhauptreihenstern. T-Tauri-Sterne und Herbig-Ae/Be-Sterne Die astronomische Nomenklatur für Sterne in diesem Stadium richtet sich nach der Masse: Bei einer Masse von weniger als 2 Sonnenmassen spricht man von T-Tauri-Sternen, bei massereicheren Sterne mit bis zu 8 Sonnenmassen von Herbig-Ae/Be-Sternen. Bei T-Tauri-Sternen ist die Hülle bereits so weit ausgedünnt, dass sie einen direkten Blick auf das Zentralgestirn und die umgebende Scheibe erlaubt. Es zeigt sich, dass diese jungen Sterne infolge starker Magnetfelder zu einem Großteil von „Sternflecken“ bedeckt sind. Des Weiteren besitzen T-Tauri-Sterne starke Winde, sodass die weitere Akkretion, etwa 10−9 bis 10−7 Sonnenmassen pro Jahr, nur noch über die protoplanetare Scheibe geschieht, die anfangs rund 0,5 % der Masse des Zentralgestirns ausmacht. Im Laufe von rund 2 Millionen Jahren löst sich die Scheibe durch verschiedenste Prozesse (Akkretion, Jets, Photoevaporation und andere) auf. Haben T-Tauri-Sterne anfangs noch starke Emissionslinien, so nimmt deren Intensität im Zuge der Auflösung der protoplanetaren Scheibe ab. Man spricht deswegen auch von Weak T-Tauri Stars (WTTS) im Gegensatz zu den klassischen T-Tauri-Sternen (engl. classical T-Tauri Star CTTS). Mit abnehmender Gasmasse in der Scheibe sinkt auch die Jet-Aktivität. Im Hertzsprung-Russell-Diagramm (HRD) tauchen T-Tauri-Sterne über der Hauptreihe auf und wandern zunächst auf der Hayashi-Linie fast senkrecht nach unten. Im Zentrum nimmt dabei die Temperatur zu, sie reicht jedoch zunächst nur für die energetisch unerhebliche Fusion primordialen Deuteriums und Lithiums. Zunächst ist der Stern optisch dick, so dass die im Inneren freigesetzte Gravitationsenergie durch Konvektion nach außen gelangt. Sterne mit einer Masse von mehr als 0,5 Sonnenmassen bilden früher oder später eine kompakte Kernzone, deren hohe Fallbeschleunigung Konvektion unterbindet. Mit der Beschränkung auf Strahlungstransport steigt die Temperatur, auch im äußeren, konvektiven Teil der Hülle, und der Vorhauptreihenstern schwenkt im HRD auf einen fast waagrechten Evolutionspfad. Schließlich setzt die Kernfusion von Wasserstoff ein und verhindert eine weitere Kontraktion, der Stern hat die Hauptreihe erreicht. Sterne mit einer Masse von weniger als 0,5 Sonnenmassen bleiben bis zum Erreichen der Hauptreihe vollkonvektiv. Sterne mit weniger als 0,08 Sonnenmassen (in etwa 80 Jupitermassen) erreichen nicht die für das Wasserstoffbrennen nötige Kerntemperatur. Ihre Kontraktion endet mit der Entartung der Elektronen. In der Folge kühlen diese „gescheiterten Sterne“ als Braune Zwerge aus. Beobachtung von Vorhauptreihensternen Vorhauptreihensterne sind mit denselben Methoden beobachtbar wie Protosterne. Des Weiteren besteht aber auch die Möglichkeit, die protoplanetare Scheibe durch Streulicht zu beobachten. Die Physik der Streuprozesse erlaubt dabei Rückschlüsse auf die Art der streuenden Staubteilchen. Mit neuen Teleskopen (z. B. ALMA) wird es in Zukunft auch möglich sein, durch Planeten verursachte Lücken in protoplanetaren Scheiben direkt zu beobachten. Indirekte Hinweise darauf werden bisher bereits in Spektren bei Infrarotwellenlängen gefunden. In jungen Hauptreihensternen und Vorhauptreihensternen der Klasse III, in denen sich das Gas in der Scheibe quasi komplett verflüchtigt hat und sogenannte Debris-Disks übrig sind, ist es möglich, Planeten direkt zu beobachten. Spektrale Klassifikation Die spektrale Energieverteilung von T-Tauri Sternen ist dominiert durch die Schwarzkörperstrahlung des Zentralgestirns. Die protoplanetare Scheibe sorgt jedoch für einen Überschuss an Strahlung im mittleren und fernen Infrarot. Durch die verschiedenen Komponenten der Scheibe mit unterschiedlichen Temperaturen kann dieser Strahlungsüberschuss nicht durch einen Schwarzkörper mit einer einzigen Temperatur beschrieben werden. Mit dem langsamen Ausdünnen der protoplanetaren Scheibe verschwindet deren Strahlungsanteil fast vollständig und es bleibt die Strahlung des Vorhauptreihensterns. In manchen Systemen findet man jedoch noch einen kleinen Strahlungsexzess, der üblicherweise auf Debris-Disks hindeutet. Sternentstehung in Clustern Während Sterne mit niedriger Masse auch in Isolation entstehen können, formen sich massereichere Sterne nur in sogenannten Clustern, die aus größeren Molekülwolken entstehen. In solchen Sternhaufen können verschiedene Prozesse zu Abwandlungen vom klassischen Paradigma der Sternentstehung führen. Zwei Protosterne, die Material aus demselben Molekülwolkenkern akkretieren, treten zueinander in Konkurrenz und können den Massenzufluss auf den jeweils anderen Protostern stoppen; Jets und Ausflüsse können in andere protostellare Systeme vordringen, und Gezeitenkräfte können als zusätzlicher Störfaktor auftreten. Dies sind nur einige Beispiele, wie sich die Sternentstehung in Isolation von Entstehungsprozessen in Clustern unterscheiden kann. Ein weiterer Faktor, der diese beiden Schemata der Sternentstehung (Isolation vs. Cluster) voneinander unterscheidet, ist das Auftreten von massereicheren Sternen in Clustern. Im Gegensatz zur Entstehung von Sternen wie unserer Sonne, die nach rund 10 Millionen Jahren abgeschlossen ist, bilden sich massereiche Sterne mit Massen von mehr als 8 Sonnenmassen in wesentlich kürzerer Zeit. Prinzipiell werden dabei die gleichen Evolutionsstadien durchlaufen (Gravitationskollaps, Bildung einer Scheibe und Jets), jedoch zeitlich nicht so stark differenziert. Während im Zentrum bereits die Kernfusionsprozesse beginnen, ist der Stern immer noch von einer dichten Staubhülle verdeckt. Dies wirkt sich vor allem auf die Beobachtbarkeit massereicher Vorhauptreihensterne aus, die somit hauptsächlich bei Infrarot- und längeren Wellenlängen beobachtet werden können. Da massereichere Sterne höhere Oberflächentemperaturen von mehreren 10.000 K haben, besteht ihre thermische Strahlung zum Großteil aus UV- und weicher Röntgenstrahlung. Der Strahlungsdruck kann dabei so groß werden, dass er eine weitere Akkretion verhindert. Weiterhin ist diese Strahlung in der Lage, neutrale Wasserstoffatome in der Hülle zu ionisieren. Für O-Sterne kann diese sogenannte H-II-Region einen Durchmesser von rund 100 Lichtjahren haben. Die Ionisation und die darauffolgende Rekombination führen zur Emission der Wasserstoffserien, wobei die dominierende Linie die Hα-Linie der Balmerserie mit 656,3 nm ist. Ebenso schnell wie diese massereichen Sterne entstanden sind, ist ihr nuklearer Brennstoff aufgebraucht; die Sterne enden schließlich als Supernovae. Dabei werden explosionsartig durch Kernfusion entstandene Elemente an das interstellare Medium abgegeben. Von ihnen ausgehende Druckwellen können zu lokalen Verdichtungen der umgebenden Molekülwolke führen, die dadurch gravitativ instabil werden und ihrerseits wiederum neue Sterne bilden. Sternpopulationen Die vorangehenden Abschnitte schildern die am besten verstandenen Sternentstehungsvorgänge: die Sternentstehung im heutigen Universum. In der Frühzeit der kosmischen Geschichte lagen allerdings deutlich andere Bedingungen vor, und dies erfordert andere Modelle der Sternentstehung: Sterne beziehen beim Erreichen der Hauptreihe ihre Energie quasi ausschließlich aus Kernfusionsprozessen. Dies führt schließlich zur Entstehung von Helium, Kohlenstoff und weiteren schwereren Elementen bis hin zu Eisen. Über Sternenwinde oder durch gewaltige Supernova-Explosionen gelangen diese Elemente schließlich in das interstellare Medium und reichern dieses mit Metallen an (wobei in der Astronomie gemeinhin alle Elemente außer Wasserstoff und Helium als Metalle bezeichnet werden). Diese Metalle spielen in der Sternentstehung eine durchaus wichtige Rolle. Staubpartikel sorgen ebenso wie einige Moleküle (z. B. CO) für eine effiziente Kühlung von Molekülwolkenkernen, was schließlich zur gravitativen Instabilität und somit zum Kollaps führt. Sterne im frühen Universum konnten sich jedoch nur aus den leichten Elementen formen, die sich kurz nach dem Urknall bildeten. Deswegen müssen sich die Sternentstehungsprozesse fundamental von unserem Verständnis von Sternentstehung in der heutigen Zeit unterscheiden. Ein möglicher Mechanismus ist die massenweise Entstehung von Hunderten bis Millionen von Sternen in Haufen, in denen Gezeitenkräfte und komplexe Wechselwirkungen zwischen den Haufenmitgliedern eine wichtige Rolle spielen. Die metallarmen Sterne, die sich dabei bilden, sogenannte Population-III-Sterne, dürften wesentlich schwerer und somit auch heißer geworden sein als Sterne heutzutage. Die Nachfolgegeneration von Sternen, die sogenannte Sternpopulation II, hatte schon eine Anreicherung an Metallen im astronomischen Sinne, die zwar nicht die Häufigkeitsverhältnisse bei Sternen wie unserer Sonne erreichte (die zur sogenannten Population I gehört), aber bereits ein deutlich schnelleres Abkühlen der betreffenden Molekülwolken ermöglichte, so dass sich bevorzugt Sterne bilden konnten, deren Masse kleiner ist als die unserer Sonne. Während Sterne der Population III bis heute noch nicht beobachtet wurden, befinden sich im Halo unserer Milchstraße, einer Gegend mit relativ niedriger Sternentstehungsrate, metallarme Population-II-Sterne. In der Scheibe der Milchstraße selbst befinden sich hingegen hauptsächlich Population-I-Sterne. Während Population-III-Sterne der ersten Generation bisher nicht entdeckt wurden, wurde 2014 der bisher älteste Stern der Population II, mit einem Alter von rund 13,6 Milliarden Jahren, entdeckt (SMSS J031300.36-670839.3, SM0313). Sternentstehung in Galaxien Sternentstehung ist ein Schlüsselprozess bei der Entstehung und Entwicklung von Galaxien. Die zentrale Frage ist dabei, wo und wie effizient in Galaxien Gas in Sterne umgesetzt wird. Galaxien lassen sich einteilen in solche, die noch in größerem Umfang neue Sterne bilden, und solche, in denen die Sternentstehungsaktivität weitgehend zum Erliegen gekommen ist. Diese Einteilung entspricht einer charakteristischen Farbverteilung der Galaxien mit einer Gruppe von bläulichen (aktive Sternentstehung) und einer Gruppe von rötlichen (kaum Sternentstehung) Galaxien. Die Entwicklungstrends dieser beiden Galaxientypen sind eine Schlüsselbeobachtung der Galaxienentwicklung: Die Anzahl der sternbildenden Galaxien bleibt dabei pro betrachtetem (expandierenden) kosmischen Volumen weitgehend gleich, während die Anzahl der „toten“ Galaxien im Laufe der letzten rund 10 Milliarden Jahre stetig zugenommen hat. Bereits in den 1970er Jahren wurde erkannt, dass verformte Galaxien – nach heutigem Verständnis die Ergebnisse der Wechselwirkung mehrerer Galaxien miteinander – eine bläulichere Farbe haben als herkömmliche Galaxien des jeweils gleichen Typs. Der Vergleich mit Modellen zeigte, dass die Eigenschaften solcher Galaxien auf vergleichsweise kurze, nämlich nur einige zehn Millionen Jahre andauernde Phasen intensiver Sternentstehung hinweisen. Solche Galaxien heißen (auch im Deutschen) Starburst-Galaxien. In unserer Heimatgalaxie, der Milchstraße, entsteht rund eine Sonnenmasse an neuen Sternen pro Jahr. Literatur E. A. Bergin, M. Tafalla: Cold Dark Clouds: The Initial Conditions for Star Formation. In: Annual Review of Astronomy & Astrophysics. Bd. 45, 2007, S. 339–396 (, ). J. Blum, G. Wurm: The Growth Mechanisms of Macroscopic Bodies in Protoplanetary Disks. In: Annual Review of Astronomy & Astrophysics. Bd. 46, 2008, S. 21–56 (). V. Bromm, R. B. Larson: The First Stars. In: Annual Review of Astronomy & Astrophysics. Bd. 42, 2004, S. 79–118 (, ). Bradley W. Carroll, Dale A. Ostlie: An Introduction to Modern Astrophysics. 2nd Edition. Pearson, 2007, ISBN 0-321-44284-9. Bradley W. Carroll, Dale A. Ostlie: An Introduction to Modern Galactic Astrophysics and Cosmology. 2nd Edition. Pearson, 2007, ISBN 0-8053-0347-2. E. F. van Dishoeck: ISO Spectroscopy of Gas and Dust: From Molecular Clouds to Protoplanetary Disks. In: Annual Review of Astronomy & Astrophysics. Bd. 42, 2004, S. 119–167 (, ). C. P. Dullemond, J. D. Monnier: The Inner Regions of Protoplanetary Disks. In: Annual Review of Astronomy & Astrophysics. Bd. 48, 2010, S. 205–239 (, ). C. F. McKee, E. C. Ostriker: Theory of Star Formation. In: Annual Review of Astronomy & Astrophysics. Bd. 45, 2007, S. 565–687 (, ). Steven W. Stahler, Francesco Palla: The Formation of Stars. Wiley-VCH, Weinheim 2004, ISBN 3-527-40559-3. Albrecht Unsöld, Bodo Baschek: Der Neue Kosmos: Einführung in die Astronomie und Astrophysik. 7. Auflage. Springer, 2005, ISBN 3-540-42177-7. J. P. Williams, L. A. Cieza: Protoplanetary Disks and Their Evolution. In: Annual Review of Astronomy & Astrophysics. Bd. 49, 2011, S. 67–117 (, ). Helmut Zimmermann, Alfred Weigert: ABC-Lexikon Astronomie. 9. Auflage. Spektrum Akademischer Verlag, Heidelberg 1999. H. Zinnecker, H. W. Yorke: Toward Understanding Massive Star Formation. In: Annual Review of Astronomy & Astrophysics. 2007, Bd. 45, S. 481–563 (, ). Weblinks Franziska Konitzer: Früher mehr große, heute mehr kleine in Spektrum.de vom 18. Januar 2023 Einzelnachweise Stern
Q16744
147.01695
87521
https://de.wikipedia.org/wiki/Gegenwart
Gegenwart
Gegenwart ist eine Bezeichnung für ein nicht genau bestimmtes Zeitintervall zwischen vergangener Zeit (Vergangenheit) und kommender, künftiger Zeit (Zukunft). Als Synonyme dafür werden auch die Begriffe heute und jetzt verwendet. Gegenwart ist die Zeit, in der jeweils die bewusste Wahrnehmung aktiv ist. Wortherkunft Der Begriff Gegenwart ist in der deutschen Sprache bereits im Mittelhochdeutschen belegt, damals allerdings nur in der Bedeutung von „Anwesenheit“. Erst im 18. Jahrhundert erfolgte eine Bedeutungsausweitung auf eine Zeitbezeichnung. Grammatik Gegenwart in sprachwissenschaftlichem Kontext bezeichnet: allgemein die sprachliche Umsetzung von Gegenwärtigem: ein Tempus die grammatikalische Gegenwartsform (Zeitform, Tempusform) des Verbs Die deutsche Grammatik kennt nur eine Zeitform der Gegenwart für ein Verb: Präsens (Gegenwart): ich liebe; ich gehe In anderen Sprachen können formal perfektive und imperfektive Präsensformen unterschieden werden; allerdings haben grammatische Präsensformen oft keine Gegenwarts-Bedeutung (im Russischen bezeichnet das grammatische Präsens der perfektiven Verben eine zukünftige Situation). Physik Eine ausgezeichnete Gegenwart ist kein Gegenstand der Physik. Dort kann lediglich die Frage nach der Gleichzeitigkeit von Ereignissen definiert und untersucht werden. Klassische Physik Der Zeitpfeil bestimmt die Richtung der Zeit von der Vergangenheit in die Zukunft. Die Vergangenheit besteht dabei aus der Menge aller Ereignisse, die kausal mit dem als Gegenwart bezeichneten Ereignis verbunden sind, diese also beeinflussen konnten. Dieses Konzept von Gleichzeitigkeit nennt man Synchronismus. Quantenmechanik Die Heisenbergsche Unschärferelation besagt, dass die Zeit und Energie eines Quantensprungs nicht gleichzeitig beliebig genau bestimmbar sind, also exakte Gegenwart der Beobachtung nicht zugänglich ist: Das Jetzt ist demnach ein skalenabhängiger Hilfsbegriff. Relativitätstheorie Mit der Veränderung der Vorstellung der Zeit seit Einführung der speziellen Relativitätstheorie von Albert Einstein haben auch die Begriffe Vergangenheit, Gegenwart und Zukunft eine Umdeutung erfahren. Da zwei Ereignisse, die für einen Beobachter gleichzeitig stattfinden, für einen relativ dazu bewegten Beobachter unter Umständen nicht mehr gleichzeitig stattfinden (Relativität der Gleichzeitigkeit), ersetzt der Begriff der „Lichtartigkeit“ die „Gleichzeitigkeit“, während Vergangenheit und Zukunft Räume von Ereignissen darstellen, die zu einem Beobachter „zeitartig“ entfernt sind; „Raumartigkeit“ wiederum entspricht einem Verhältnis zweier Ereignisse, die in keinerlei kausaler Verbindung zueinander stehen können. Die Gegenwart lässt sich so als Koordinatenursprung eines Raumzeit­diagrammes definieren. Gehirnforschung Die Gegenwartsdauer: Neue neurologische und psychologische Studien lassen vermuten, dass das Gehirn die Gegenwart in Einheiten zu etwa 2,7 Sekunden verarbeitet. Der alltagssprachliche Begriff „Augenblick“ stellt genau diesen Sachverhalt dar. Zudem legen Untersuchungen nahe, dass 3-Sekunden-Einheiten auch in der Lyrik (wenn es etwa um die Erkennung von Reim und Rhythmus geht) und der Musik von Bedeutung sind. Soziologie Der Gegenwart stehen die Vorstellungen gegenüber, die man sich von der Vergangenheit (z. B. Erinnerung, Geschichte, Herkunft, Ursache) und der Zukunft (z. B. Hoffnung, Angst, Vision, Entwicklung) macht. Psychologie Nur in der Gegenwart ist es dem Menschen möglich, die Welt und sein Inneres, das Selbst wahrzunehmen und damit in Kontakt zu treten. Um die Gegenwart im Rahmen von Psychotherapie und Selbsterfahrung für Patienten anfassbarer zu beschreiben, wird sie das Hier-und-jetzt genannt. Philosophische Sichtweise Im Rahmen der Philosophie sind zwei Aspekte der Gegenwart von Bedeutung: Zum einen ist es der Widerspruch von bewusst wahrgenommenem Jetzt und der Unmöglichkeit, das Jetzt sinnlich zu erfassen. Das ist die Frage nach dem Wesen der Zeit an sich. Zum anderen die Bedeutung des Hier und Heute angesichts der Sterblichkeit des Menschen. Zwei prinzipiell konträre Weltanschauungen sind hier möglich: Den Moment als das einzig Wirkliche anzusehen. Ausgedrückt wird die „Nichtigkeit menschlicher Werke“ – die Vanitas – durch Sprüche wie carpe diem oder memento mori. Den Augenblick geringzuschätzen und das eigene Leben einem Ziel unterzuordnen, in der Hoffnung, der Mensch lebe darin weiter. In der Kunsttheorie spiegelt sich dieser Gegensatz etwa in der klassischen Einteilung in – momentorientierte – Darstellende Kunst und – werkbezogene – Bildende Kunst wider. Religion In vielen Religionen, wie z. B. im Zen-Buddhismus, besteht ein Ideal darin, sich selbst der Gegenwart zu öffnen. In den östlichen Religionen wie Buddhismus oder Hinduismus wird als Ort des ewigen Lebens anders als in den abrahamitischen Religionen nicht ein in der Zukunft nach dem Tode folgender Himmel, sondern der gegenwärtige Augenblick angesehen. Der katholische Kardinal Fulton John Sheen beschrieb den Himmel als das „ewige Jetzt“. Der jüdische Religionsphilosoph Martin Buber schrieb: „Gott aber, die ewige Gegenwart, läßt sich nicht haben. Wehe dem Besessenen, der Gott zu besitzen meint!“ Literatur Katrin Stepath: Gegenwartskonzepte. Eine philosophisch-literaturwissenschaftliche Analyse temporaler Strukturen. Königshausen & Neumann, Würzburg 2006, ISBN 978-3-8260-3292-9. Achim Landwehr: Geburt der Gegenwart: eine Geschichte der Zeit im 17. Jahrhundert. S. Fischer, Frankfurt am Main 2014, ISBN 3-10-044818-9. Giuseppina Cimmino/Dana Steglich/Eva Stubenrauch (Hg.): Figur(ation)en der Gegenwart. Wehrhahn, Hannover 2023, ISBN 978-3-86525-979-0. Weblinks Einzelnachweise Zeitpunkt Zeitraum Erkenntnistheorie Allgemeine Psychologie
Q193168
226.550565
1624466
https://de.wikipedia.org/wiki/Gew%C3%A4sserbett
Gewässerbett
Das Gewässerbett (manchmal auch Gerinnebett) ist der Teil eines Fließgewässers, der das fließende Wasser nach unten und zu den Seiten begrenzt. In der Hydraulik wird das Gewässerbett als Gerinne bezeichnet. Je nach Größe des Fließgewässers wird oft unterschieden ein Flussbett (für große Fließgewässer, Flüsse) und ein Bachbett (für kleine Fließgewässer, Bäche). Beschreibung Das Gewässerbett besteht aus der Gewässersohle – dem Grund des Gewässers – und dem Ufer, je nach Definition bis zur Böschungsoberkante oder bis zur Mittelwasserlinie. Das Gewässer besteht aus dem Wasserkörper (dem Wasservolumen selbst), dem Gewässerbett (der Umfassung des Wassers aus Sohle und Ufer) und dem zugehörigen Grundwasserleiter. Die Untersuchung und Beschreibung von Gewässerbetten ist Aufgabe der Hydromorphologie. Gewässerbetten bilden sich im komplexen Zusammenspiel von lokalem Klima, Geologie und Geomorphologie, Vegetation und Einflüssen der menschlichen Nutzung. Die natürlichen gewässerbettbildenden Prozesse sind Abtragung (Erosion), Transport und Auflandung von durch das fließende Wasser mitgeführten Sedimenten (Geschiebe genannt). Beschrieben werden Gewässerbetten u. a. durch Längs- und Querprofil und die Linienführung (Laufform). Wechselwirkungen bestehen zum natürlichen Überschwemmungsgebiet, der Aue. Diese wird aber nicht zum Gewässerbett gerechnet. Auch die Talform besitzt keinen direkten Zusammenhang zum Gewässerbett, oft ist sie unter völlig anderen hydraulischen Bedingungen in der geologischen Vergangenheit entstanden, während das Gewässerbett (ohne direkte menschliche Einflüsse) im Gleichgewicht zum aktuellen Abflussregime steht. Die Ausprägung des Gewässerbetts wird im angewandten Zusammenhang, vor allem bei Renaturierungen, als Gewässerstruktur umschrieben (vgl. Artikel Gewässerstrukturgüte). Für Ufer und Sohle von stehenden Gewässern ist der Begriff nicht üblich. Gewässerbettbildung Die Energie für die Bildung des Gewässerbetts liefert das der Schwerkraft folgend abfließende Wasser selbst, die am Gewässerbett angreifende Kraft wird als Schubspannung bezeichnet. Die Transportkraft des Wassers ist dabei direkt von der Strömungsgeschwindigkeit abhängig, diese steigt mit steigendem Gefälle und mit steigender Wasserführung an. Durch die bei Hochwasser stark ansteigende Wasserführung sind daher im natürlichen Zustand Hochwässer meist für die Bettbildung verantwortlich. Außerdem hängt die Transportkraft für Feststoffe stark von deren Korngröße ab. Grobes Material wird als Geschiebe auf der Gewässersohle mitgeführt, feines wird als im Wasser suspendierter Schwebstoff mitgeführt. Der tatsächliche Transport hängt außerdem davon ab, wie viel Feststoffe das fließende Wasser bereits mitführt. Je nach Strömungsgeschwindigkeit werden an Sohle und Ufer anstehende Feststoffe also abgetragen (erodiert), mit dem fließenden Wasser transportiert oder wieder abgelagert; dabei werden sie bei abnehmender Strömung nach Korngrößen sortiert. Die Sohle bremst das Wasser je nach ihrer Rauheit ab, wodurch zum Beispiel bei gleicher Wassermenge schmale und tiefe Gewässer schneller fließen als breite (bis zu einer optimalen Breite, unterhalb derer der Einfluss der Ufer bestimmend wird). Eine sehr breite Sohle bleibt allerdings nicht eben; bereits kleine Störungen führen zu Unregelmäßigkeiten, die schließlich zu Kiesbänken und Inseln anwachsen. Auch die Vegetation wirkt sich auf die Rauheit aus. Wesentlich für die natürliche Gewässerbettbildung sind also: Gefälle, Lokalklima (bestimmt Niederschlagsmenge und -verteilung und damit die Wassermenge und das Abflussregime), Geologie des Einzugsgebiets (Verwitterungsbeständigkeit der Gesteine und resultierende Korngrößen). Laufentwicklung Je nach Gefälle führt das Zusammenspiel aus Erosion und Akkumulation von Sedimenten zu einer völlig unterschiedlichen Gestalt der Gewässerbetten. gerade In sehr steilen Gewässern ist die Transportkraft so hoch, dass quasi kein Geschiebe abgelagert wird, es resultiert ein dem Talgefälle folgender, gerader Gewässerlauf (kann auch bei geringeren Fließgeschwindigkeiten auftreten, wenn die Feststofffracht sehr gering ist, zum Beispiel im Ausfluss von Seen) verzweigt Bei etwas geringerem Gefälle wird viel grobes Geschiebe mitgeführt, dass in Bereichen mit geringfügig abgesenkter Fließgeschwindigkeit wieder sedimentiert. Die Sedimente bilden Sand- oder Kiesbänke, die bei sinkendem Wasserstand als Inseln trockenfallen. Innerhalb des breiten, gerade begrenzten Hochwassergerinnes fließt das Gewässer dann in einem System untereinander verbundener Rinnen, die ein charakteristisches, rautenförmiges Muster von Inseln umfließen. Verzweigte Gerinne treten typischerweise bei Gefällen etwa zwischen 4 und 2 Prozent auf. mäandrierend Bei sehr geringem Gefälle überwiegt die Krümmungserosion außen an Biegungen des Gewässers, während die Gewässersohle kaum noch erodiert wird. Dadurch verstärken sich alle Krümmungen nach und nach von selbst, so dass das Gewässer in weiten Bögen und Schlingen schleifenförmig fließt. Dabei können sich zwei gegenüberliegende Schleifen aufeinanderzubewegen, bis das dazwischenliegende Ufer ganz abgetragen ist. Es kommt zum Mäanderdurchbruch, wobei die alten, nicht mehr durchflossenen Schlingen als Altwasser abgeschnürt werden. Zur typischen Mäanderbildung kommt es nur bei Gefälle von weniger als 2 Prozent. In der Realität sind diese idealtypischen Formen durch Mischformen und Übergänge miteinander verbunden. Viele dieser Mischformen haben eigene Namen erhalten, Beispiele wären verflochtener Fluss oder anastomosierender Fluss. Lauftypen Neben der Charakterisierung von Gewässerbetten als gerade, verzweigt oder mäandrierend sind zahlreiche weitere Typologien entwickelt worden, die eine feinere Differenzierung ermöglichen. Weite Verbreitung gefunden hat zum Beispiel die Typologie nach Montgomery und Buffington für Gebirgsbäche. Sie unterscheiden zunächst nach dem Charakter des Materials, in das das Gewässer einschneidet: anstehendes Gestein (bedrock). Gewässer mit Sohle im Anstehenden kommen in sehr steilen Gewässern vor, deren Transportkraft im Verhältnis zum Sedimentangebot hoch ist. Kolluvium. Gewässer in kolluvialen Hangsedimenten (die nicht vom Gewässer selbst abgelagert wurden) sind in der Regel kleine Quellbäche und Bachoberläufe. Alluvium. typisch für alle größeren Gewässer ist der Verlauf in von ihnen selbst abgelagerten Sedimentbetten. Die alluvialen Gewässer bilden eine Vielzahl weiterer morphologischer Typen, die vor allem vom Gefälle bestimmt werden: Kaskaden (cascade). In sehr steilen Gewässerbetten mit eingelagerten Felsblöcken mit schießendem bis turbulentem Abfluss bilden sich kaskadenartige Fließstrecken. Sohlstufen (step pool). Bei etwas geringerem Gefälle bilden sich in kleineren Gewässern hinter größeren Hindernissen wie Felsbrocken in recht regelmäßigen Abständen ruhige Fließstrecken oder sogar beckenartige Aufweitungen, die in die Kaskade eingestreut sind. ebenes Gewässerbett (plane). Wird das Gefälle etwas geringer, fließt das Gewässer turbulent über eine fast ebene Sohle aus Sand, Kies und Steinen. Die rhythmische Abfolge von Kaskaden mit schießender Strömung und ruhigen Aufweitungen fehlt. Typisch ist eine armierte Gewässersohle, bei der ein freierodiertes Pflaster aus grobem Geröll darunterlagerndes Feinmaterial vor Ablagerung schützt. Diese werden nur bei sehr starken Hochwässern noch umgelagert. Furten und Kolke (alternativ: Schnellen und Stillen) (pool-riffle): Bei noch geringerer Neigung, unterhalb ca. 1,5 Prozent Sohlgefälle, bilden die Gewässer meist keine geraden, sondern etwas gewundene Laufformen aus. Das Gewässerbett bildet eine rhythmische Abfolge aus überströmten Sand- oder Kiesbänken (Furten), in die, recht regelmäßig mit etwa fünf- bis siebenfacher Gewässerbreite Abstand, ruhige Aufweitungen, die Kolke, eingeschaltet sind. Kolke bilden sich an der Außenseite von Krümmungen oder hinter Hindernissen quer zur Gewässerachse wie Baumstämmen (Totholz). Sedimente werden bei Hochwasser von Kolk zu Kolk transportiert. Dünen und Riffeln (dune-ripple): Vor allem in langsam fließenden Gewässern mit sandiger Sohle bildet das Sediment Transportkörper mit welliger Oberfläche, die bei Abmessungen im Zentimeter- bis Dezimeterbereich Riffeln, im Dezimeter- bis Meterbereich Dünen genannt werden. Wandern sie bei höherer Fließgeschwindigkeit stromaufwärts, spricht man von Antidünen. Typischerweise kommt es bereits bei geringen Fließgeschwindigkeiten zur Umlagerung von Sediment. Tritt diese auch bei Niedrigwasserführung auf, was meist auf menschliche Störungen zurückgeht, spricht man von „Sandtreiben“. Gewässer mit Sandtreiben sind biologisch besiedlungsfeindlich. Das Material des Gewässerbetts Das Gewässerbett von alluvialen Gewässern hängt, ohne menschliche Einflussnahme, vor allem von der Fließgeschwindigkeit des Gewässers ab. Je schneller das Wasser fließt, umso gröberes Material vermag es zu transportieren. Feine Sedimente bilden allerdings Bodenaggregate, die ihre Stabilität bei Abtragung gegenüber einem Einzelkorngefüge erhöhen. Dadurch kann Material, das bei einer bestimmten Fließgeschwindigkeit abgelagert wurde, möglicherweise erst bei einer höheren Geschwindigkeit wieder mobilisiert werden. Die Transportkraft des Wassers hängt außerdem auch davon ab, wie viel Sediment es bereits mitführt. Um Tiefenerosion und andere Abtragungen zu verhindern, wird vielen Gewässern vom Menschen daher künstlich Geschiebe zugegeben (Geschiebemanagement), vor allem in Gewässern die aufgrund anderer wasserbaulicher Eingriffe (zum Beispiel Stauseen) künstlich an Geschiebe verarmt sind. Der folgende Überblick gibt eine grobe Übersicht, bei welchen Fließgeschwindigkeiten des Wassers welche Korngrößen transportiert werden können: mehr als 300 cm/s: Blockwerk, Blöcke, mehr als 80 mm Durchmesser 200 bis 300 cm/s: Steine, mehr als ca. 60 bis 80 mm Durchmesser 150 bis 200 cm/s: Grobkies, 20 bis 60 mm Durchmesser 75 bis 150 cm/s: Mittelkies, 6 bis 20 Millimeter Durchmesser 50 bis 75 cm/s: Feinkies, 2 bis 6 Millimeter Durchmesser 25 bis 50 cm/s: Grobsand, 0,6 bis 2 Millimeter Durchmesser 17 bis 25 cm/s: Mittelsand, 0,2 bis 0,6 mm Durchmesser 10 bis 17 cm/s: Feinsand, 0,06 bis 0,2 mm Durchmesser Vom Fließgewässer als Geschiebe mitgeführtes Sediment wird am Boden rollend oder hüpfend transportiert und dadurch als Geröll an den Kanten abgerundet. Noch feineres Material als Feinsand, also Schluff und Ton, wird in der Regel nicht als Geschiebe, sondern fein verteilt als Wassertrübung (Suspension) mitgeführt. Es kann auch bei sehr geringen Fließgeschwindigkeiten transportiert werden. Durch diesen Zusammenhang hängt das Material, aus dem das Gewässerbett aufgebaut ist, von der Strömungsgeschwindigkeit ab. Diese ist wiederum, neben der Wassermenge, vor allem vom Gefälle abhängig. Dadurch bilden sich in Regionen mit geringem Gefälle sandgeprägte Bäche, in Landschaften mit höherem Gefälle kiesgeprägte. Da die Fließgeschwindigkeit in der Mitte des Gerinnes meist höher ist als an den Ufern, wo sie zusätzlich auch durch die Ufervegetation gebremst wird, kann bei langsam fließenden Fließgewässern ein Großteil des Materials im Uferbereich abgelagert werden, wo es natürliche Dämme ausbilden kann (Dammuferfluss). Manchmal führt die Erosion auch dazu, dass das feine Material oben abgeschwemmt wird, so dass die Gewässersohle aus groben Steinen besteht, die darunterliegendes feines Sediment vor weiterer Abtragung schützen („gepanzerte“ Sohle). Wird diese Gewässersohle bei einem katastrophenartigen Ereignis durchbrochen, spricht man von einem Sohldurchschlag. Außer dem anorganischen Sediment ist in natürlichen Fließgewässern auch organisches Material pflanzlicher Herkunft an der Bettbildung beteiligt. In Bächen ist dies vor allem von außen kommendes Material, wie das Falllaub des jährlichen Laubfalls oder das Totholz abgestorbener Uferbäume. Besonderheiten bestehen bei Gewässern, deren Betten in aus Lockersedimenten bestehende Gesteine und Böden, wie zum Beispiel Löss, einerodiert sind; derartiges von außen kommendes Material wird als allochthon bezeichnet. In diesen Fällen wird das Sediment neben der Fließgeschwindigkeit stark vom Ausgangsmaterial bestimmt. Quellen Heinz Patt, Peter Jürging, Wener Kraus: Naturnaher Wasserbau. Springer Verlag, 1998, ISBN 3-540-61666-7. Bundesanstalt für Wasserbau (Hg.) (2014): Herausforderung Sedimenttransport - Methoden und Konzepte im Flussbau. Karlsruhe: Bundesanstalt für Wasserbau. hdl.handle.net Einzelnachweise Weblinks Flussbett Hydrologie Flussbau Limnologie
Q1429491
239.736035
199943
https://de.wikipedia.org/wiki/K-Pop
K-Pop
K-Pop (abgeleitet von englisch Korean Popular Music) ist ein Sammelbegriff für koreanischsprachige Popmusik und bezeichnet ein weit gefasstes musikalisches Genre, das sich in der koreanischen Musikwelt als Analogon zum japanischen J-Pop etablierte. In Südkorea wird der Stil auch häufig Gayo () genannt. K-Pop erreichte durch die Koreanische Welle (auch Hanlyu) vor allem in den 2010er Jahren weltweit Bekanntheit. Geschichte Die Anfänge der heutigen Musik, die diesem Genre zugeordnet wird, sind schon seit etwa Ende des 19. Jahrhunderts in der koreanischen Kultur verankert. Obwohl die koreanischen Sänger durchaus talentiert waren, war es ihnen aufgrund der Herrschaft der Japaner untersagt, sich künstlerisch auszudrücken. Der nächste entscheidende Punkt in der Entwicklung waren die ab den 1950er Jahren veranstalteten Konzerte der Streitkräfte der Vereinigten Staaten in Korea, die den Südkoreanern ein weiteres Stück moderner westlicher Kultur nähergebrachten. Infolgedessen gründeten sich viele junge Bands nach amerikanischem Vorbild. Daraus leiteten sich rasch drei verschiedene Musikstile ab: Boy- und Girlgroups, deren Mitglieder Idols genannt werden Ein technisch schwierigeres und älteres Genre: Trot, dessen Wurzeln auf die Beeinflussung Koreas durch Japan während der Kolonialzeit zurückgehen, und der ein überwiegend älteres Publikum ansprach. In den 1960er Jahren hatten viele Singer-Songwriter ihren Durchbruch und gaben in ihren Liedern persönliche Erfahrungen und Schwierigkeiten des Lebens wieder. In den frühen 1990er Jahren etablierte sich – zurückgehend auf Südkoreas Popmusiker Seo Taiji – ein viertes Genre. Die Entstehung der Gruppe Seo Taiji and Boys im Jahr 1992 gilt somit als Wendepunkt für die südkoreanische Popmusik, da die Gruppe Elemente der westlichen Musikrichtungen Rap, Rock und Techno in ihre Musik einfließen ließ. Der enorme Erfolg von Seo Taiji and Boys in Südkorea und auch anderen experimentellen Gruppen setzten den Trend für die heutige Generation von K-Pop-Gruppen und -Künstlern. Heutige Situation Nachdem der Import japanischer Popmusik (J-Pop) im Jahr 1999 erlaubt wurde, stiegen deren Verkäufe stetig an, spielen aber im Vergleich zur Koreanischen Welle nur eine untergeordnete Rolle. Im asiatischen Raum ist K-Pop weit verbreitet und in anderen Ländern teils beliebter als die Konkurrenz, was unter anderem auf die äußerliche Attraktivität der Musiker zurückgeführt wird. Insbesondere die drei großen Talentagenturen SM Entertainment, YG und JYP nehmen schon in sehr jungen Jahren Kinder unter Vertrag und bilden diese aus. Sie bekommen Fremdsprachen-, Tanz- und Gesangsunterricht sowie allgemeine Schulbildung. Außerdem lernen sie tadelloses Benehmen und den Umgang mit Fans und Journalisten. Dafür bekommen die Trainees Punkte, und diejenigen mit den höchsten Punktzahlen werden schließlich für eine Popgruppe ausgewählt. Für die so entstandenen Castingbands wurde der Begriff „South Korean Idols“ oder kurz „Idols“ geprägt. Bezüglich der Behandlung der Stars von ihren Talentagenturen kommt es in Südkorea Anfang der 2000er bis Anfang der 2010er Jahre zu Kontroversen. So unterschreiben die Trainees oftmals Knebelverträge („Sklavenverträge“), durch die die Talentagentur großen Einfluss auf das Privatleben der Personen erhält, während der Trainee/Star kaum Einfluss auf seine finanzielle Vergütung hat. Ein bekanntes Beispiel ist die Gruppe TVXQ, die 2009 SM Entertainment verklagten, da die 13-Jahres-Verträge zu lang seien und sie für ihren Erfolg kaum Geld bekämen. Das Gericht gab ihnen Recht, woraufhin drei der Mitglieder SM Entertainment verließen und JYJ gründeten. Durch den internationalen Erfolg von K-Pop und den größeren Einfluss ausländischer Unternehmen kommt es jedoch immer mehr zu einem Umdenken bei den Beteiligten, und langfristige Verträge über 13 Jahre werden immer seltener. Die Bezahlung der meisten K-Pop-Sänger bleibt jedoch weiterhin schlecht, da das Management die Ausbildung, das Tanztraining, die Choreographen, Assistenten, Songschreiber und die Unterkunft (Wohnheim) bezahlt und diese hoch angesetzten Kosten vom Gehalt der Stars abzieht. Auch wird über systematische sexuelle Ausbeutung berichtet. Das Genre und die dahinter stehende Industrie gerieten auch wegen der Selbstmorde mehrerer K-Pop-Stars in den Fokus der Medien. In Malaysia wird K-Pop immer öfter verwendet, um die kulturellen und sprachlichen Barrieren von Malaien, Chinesen und Indern zu überwinden, da diese Musikrichtung bei allen Volksgruppen populär ist. Es zeigt sich zudem, dass K-Pop-Fans stark emotional an die Musikrichtung gebunden sind. Diese nehmen die Songtexte auf und lassen sich dadurch motivieren, nicht aufzugeben. Die Fans schätzen das harte Training und die komplexen Tanzschritte und bewundern den Charakter und das Aussehen ihrer Stars. Es bewegt viele dazu, Koreanisch zu lernen und koreanisch Essen zu gehen. Mit K-Pop meint man koreanischsprachige Lieder, heutzutage auch mit vereinzelt englischen Wörtern. Sollte ein koreanischer Künstler ein Lied komplett in englischer Sprache aufnehmen, so fällt dies in die Kategorie Pop. Damit wird erklärt, dass sich der Begriff K-Pop nicht auf die Herkunft der Interpreten bezieht. Dies wird oft von Fans der Musikrichtung missverstanden, da südkoreanische Künstler immer häufiger ein japanischsprachiges Debüt geben, die Fans dies auch als K-Pop oder japanischen K-Pop bezeichnen; da K-Pop allerdings eine bestimmte Musikrichtung ist, würden japanischsprachige Popsongs, auch von südkoreanischen Interpreten, in die Kategorie J-Pop fallen. Während sich K-Pop in vielen Teilen der Welt bereits erfolgreich etablierte, spielte in Deutschland der Musikfernsehsender Viva Mitte der 2010er Jahre vermehrt K-Pop-Songs. Durch die Olympischen Winterspiele 2018, die im südkoreanischen Pyeongchang stattfanden, fand K-Pop in Deutschland erneut zunehmend Aufmerksamkeit. Die Spiele wurden von K-Pop begleitet, worauf auch die Medienberichterstattungen eingingen. Weiterhin gewann beim Eurovision Song Contest 2018 das Lied Toy der israelischen Sängerin Netta, welches stark von koreanischer Popmusik beeinflusst wurde. 2016 nahm für Deutschland die Sängerin Jamie Lee teil, die ebenfalls ein großer K-Pop-Fan ist. Ein Riesenerfolg gelang der Boygroup BTS, auch bekannt als Bangtan Boys. Mit ihrem Album Love Yourself: Tear erreichten sie 2018 Platz eins der US-amerikanischen Billboard 200 (Albumcharts). Damit sind sie die erste koreanische Band, die die Spitze der Billboard-Album-Charts erreichte. Zudem handelt es sich um das erste nicht-englischsprachige Album seit 12 Jahren auf Platz eins der US-Album-Charts. Am Erfolg dieses Genres hat sich hierzulande auch in den 2020ern nichts geändert. Auch wurden K-Pop-Cover-Gruppen beliebt, in denen die Mitglieder nicht den Gesang, sondern die Tänze der Bands nachstellen. So kam es beispielsweise zu Flashmobs, bei denen die Tänze der Gruppen und Sänger an öffentlichen Plätzen nachgetanzt wurden. Weltweit gibt es Wettbewerbe wie den Kbase Contest, in denen K-Pop-Tanzgruppen gegeneinander antreten. Vor allem in der League-of-Legends-Community führte der Auftritt der virtuellen Gruppe K/DA, vertont durch Jeon So-yeon und Cho Miyeon von (G)I-DLE, Jaira Burns und Madison Beer, bei der World Championship mit ihrem Song POP/STARS zu einer Steigerung der Popularität. 2022 waren 8 der 10 meist verkauften Musikalben weltweit Alben von K-Pop-Gruppen, nämlich von BTS, Stray Kids, Seventeen, Enhypen, Blackpink und TXT. Siehe auch Liste von K-Pop-Gruppen Koreanisches Idol Literatur Michael Fuhr: Globalization and Popular Music in South Korea. Sounding Out K-Pop. Routledge, New York 2016 Einzelnachweise Weblinks Stilrichtung der Popmusik Kpop
Q213665
149.070503
4169991
https://de.wikipedia.org/wiki/Agaricomycetes
Agaricomycetes
Die Agaricomycetes sind eine Klasse der Abteilung der Ständerpilze (Basidiomycota). Mit etwa 98 % der beschriebenen Arten bilden sie die größte Klasse innerhalb der Ständerpilze. Auf Grund der von ihnen ausgebildeten, häufig auffälligen Fruchtkörper gehören sie zu den bekanntesten Pilzen. Merkmale und Ökologie Die Agaricomycetes sind vom Lebenszyklus her typische Ständerpilze, die als filamentförmiges, hyphales Myzel, meist ohne Hefephasen im Boden wachsen. Die Hyphen sind durch Septen unterteilt, die einen tonnenförmigen Doliporus aufweisen, welcher von membrangebundenen Parenthesomen umgeben ist. Als vorherrschende Form tritt meist ein dikaryotisches Myzel auf, manche Arten weisen aber auch stabile diploide Myzele auf. Asexuelle Sporen werden nur von wenigen Arten gebildet. Die oberirdisch gebildeten Fruchtkörper reichen von millimetergroßen, becherförmigen Formen über die typischen Ständerpilze bis zu dem über 300 kg Gewicht erreichenden Fruchtkörper von Rigidoporus ulmarius. Die im Fruchtkörper gebildeten zwei bis acht, normalerweise vier Basidiosporen werden in meist ungeteilten Basidien (Homobasidien) gebildet. Wenige Arten, darunter die von Blattschneiderameisen kultivierten, wachsen als einzellige Hefen. Die meisten Arten sind Saprobionten, einige Arten treten auch als Parasiten oder Symbionten, z. B. als Ektomykorrhiza auf. Systematik Von anderen Klassen werden die Agaricomycetes vor allem durch molekularbiologische Merkmale wie rDNA-Sequenz- und Proteinsequenzanalysen unterschieden. Die Gruppe ist monophyletisch. Hibbett und Autoren (2007) gliedern die Klasse wie folgt: Unterklasse Agaricomycetidae Ordnung Champignonartige – Agaricales Ordnung Gewebehautartige – Atheliales Ordnung Dickröhrlingsartige – Boletales Unterklasse Phallomycetidae Ordnung Erdsternartige – Geastrales Ordnung Schweinsohrartige – Gomphales Ordnung Schwanztrüffelartige – Hysterangiales Ordnung Stinkmorchelartige – Phallales keiner Unterklasse zugeordnet – incertae sedis Ordnung Ohrlappenpilzartige – Auriculariales Ordnung Pfifferlingsartige – Cantharellales Ordnung Prachtrindenpilzartige – Corticiales Ordnung Blättlingsartige – Gloeophyllales Ordnung Borstenscheiblingsartige – Hymenochaetales Ordnung Stielporlingsartige – Polyporales Ordnung Stereopsidales Ordnung Täublingsartige – Russulales Ordnung Wachskrustenartige – Sebacinales Ordnung Warzenpilzartige – Thelephorales Ordnung Stachelsporrindenpilzartige – Trechisporales Quellen Einzelnachweise Weblinks Ständerpilze Basidiomycota
Q27720
662.577436
37407
https://de.wikipedia.org/wiki/Zeitpfeil
Zeitpfeil
Der Zeitpfeil steht für die Vorstellung einer eindeutigen und gerichteten Verbindung zwischen Vergangenheit und Zukunft. Jeweils verschiedene Bedeutungen verbinden sich mit dieser Vorstellung in den Wissenschaften, aber auch im Alltag. Der Ausdruck „Zeitpfeil“ (time's arrow) wurde zuerst von Arthur Stanley Eddington im Jahre 1927 geprägt (Gifford Lectures). Zeitpfeile Psychologisch Der psychologische Zeitpfeil beschreibt unsere subjektive Unterscheidung zwischen vergangenen und zukünftigen Ereignissen. Wir können uns an die Vergangenheit erinnern, aber nicht an die Zukunft. Die westliche Sichtweise des Zeitpfeiles betrachtet die Zukunft vorne (also in Sichtrichtung). Sprachlich In andinen Kulturen (z. B. Quechua, Aymara) wird die Zukunft als ‚hinter etwas‘ liegend betrachtet, was sich entsprechend in den Sprachen der Anden (Quechua, Aymara) ausdrückt, in denen das Adverb für örtlich „hinten“ (Quechua: „qhipa“) im zeitlichen Sinne „zukünftig“ bedeutet, und das Adverb für „vorn“ (Quechua: „ñawpa“) im zeitlichen Sinne „früher, vergangen“. (Das deutsche Gegensatzpaar „vor und nach“ bezeichnet hingegen serielle Relationen, im Gegensatz zum örtlichen „vor und hinter“). Kausal Danach gehen Ursachen ihren Wirkungen stets voraus. Der kausale Zeitpfeil ist ein Postulat, das das alltägliche Erleben widerspiegelt. Es ist jedoch nicht klar, ob Kausalität zwingend ist oder erst durch Wahrnehmung generiert wird. Thermodynamisch Der thermodynamische Zeitpfeil beruht auf dem 2. Hauptsatz der Thermodynamik: Die Zukunft ist die Zeitrichtung, in der die Entropie zunimmt. Ein interessanter Punkt ist, dass dieser Zeitpfeil im thermodynamischen Gleichgewicht nicht existiert: Für einen Gleichgewichtszustand gibt es keine thermodynamisch definierte Vergangenheit und Zukunft; der Gleichgewichtszustand ist sozusagen zeitlos. Kosmologisch Das Universum hat mit dem Urknall begonnen und dehnt sich seither aus. Ob es sich bis in alle Ewigkeit ausdehnen wird, ist nicht sicher bekannt. Nach den derzeit vorherrschenden Berechnungen und Theorien sieht es so aus. Somit kann man die vergangene Zeit an der Größe des Universums ablesen: Die Zukunft ist die Richtung des größeren Universums. Aber selbst wenn sich das Universum wieder zusammenzieht, sieht der alte, zusammenstürzende Kosmos anders aus als der frühe, expandierende: Er enthält ausgebrannte Sterne, die zum Teil in schwarze Löcher zusammengestürzt sind, und schwere Elemente, die in Supernova-Explosionen entstanden sind. Somit kann man auch an der Zusammensetzung des Universums sein Alter, und damit die Zeitrichtung ablesen. Die T-Verletzung und CP-Verletzung Während auf makroskopischer Ebene der Unterschied zwischen Vergangenheit und Zukunft allgegenwärtig ist, galt für die bekannten mikroskopischen Gesetze der Materie lange, dass diese zeitumkehrinvariant waren: Wenn ein Vorgang vorwärts ablaufen kann, dann kann er genauso gut auch rückwärts ablaufen, sofern nur die Voraussetzungen gegeben sind. Zum Beispiel bedeutet die Tatsache, dass ein angeregtes Atom unter Aussendung eines Photons in den Grundzustand fallen kann, dass auch der umgekehrte Vorgang, die Anregung eines Atoms im Grundzustand durch ein absorbiertes Photon, über denselben Mechanismus möglich ist. Im Jahr 1964 haben Messungen an bestimmten Elementarteilchen, den Kaonen, erstmals eine Verletzung der CP-Invarianz ergeben. Diese vorher vermutete Invarianz besagt, dass für jeden Prozess in Materie auch der (räumlich) spiegelverkehrte Prozess in Antimaterie existiert und in gleicher Weise ablaufen kann. Die Verletzung der CP-Invarianz ist an dieser Stelle interessant wegen des CPT-Theorems, welches besagt, dass für jeden Prozess mit Materie der gespiegelte und zeitumgekehrte Prozess mit Antimaterie in gleicher Form abläuft. Dieses Theorem ist grundlegender Teil jeder Quantenfeldtheorie, es wird daher erwartet, dass es exakt gilt. Wenn aber das CPT-Theorem gilt, so bedeutet eine Verletzung der CP-Invarianz auch eine Verletzung der Zeitumkehrinvarianz. Dies bedeutet nicht zwangsläufig, dass die fundamentalen Gesetze der Physik einen Unterschied zwischen Vergangenheit und Zukunft kennen, sondern nur, dass das genau zeitumgekehrte Analogon eines Prozesses auch eine Raumspiegelung und einen Tausch von Materie und Antimaterie erfordert. 2012 konnte erstmals eine direkte Verletzung der T-Symmetrie beobachtet werden. Literatur Dieter Zeh: The physical basis of the direction of time, zuerst 1984 (Die Physik der Zeitrichtung, Springer), 5. Auflage, Springer Verlag, 2010, ISBN 3-540-42081-9. P. C. W. Davies: The physics of time asymmetry, University of California Press, 1976 (sowie dessen populärwissenschaftliches Buch About Time, Penguin 1995) David Layzer: The Arrow of Time, Scientific American, Dezember 1975 Claus Kiefer: Kosmologische Grundlagen der Irreversibilität, Physikalische Blätter 1993, S. 1027 Peter Coveney, Roger Highfield: The Arrow of Time, Verlag W. H. Allen, 1990 (populärwissenschaftlich) Roger Penrose: Singularities and time asymmetry, in: Hawking, Israel (Herausgeber) General Relativity –An Einstein Centenary Survey, Cambridge 1979 (sowie seine sich an breiteres Publikum wendenden Bücher The emperors new mind, The road to reality) Ilya Prigogine, Isabelle Stengers: Das Paradox der Zeit. Verlag Piper, 1993, ISBN 3-492-03196-X. Stephen Hawking: Die illustrierte kurze Geschichte der Zeit. 3. Auflage. Reinbek bei Hamburg, Rowohlt Taschenbuch, 2010, ISBN 978-3-499-61968-7 (Originaltitel: The Illustrated A Brief History of Time, 1996), S. 182–195 (populärwissenschaftlich). Hans Reichenbach: The Direction of Time. Dover Publications 2000 (Erstausgabe 1956), ISBN 0-486-40926-0. Laura Mersini-Houghton, Rüdiger Vaas: The Arrows of Time. Springer Verlag 2012, ISBN 978-3-642-23258-9. Weblinks Einzelnachweise Zeit Thermodynamik Kosmologie
Q186559
122.776901
7676159
https://de.wikipedia.org/wiki/Wissenschaftspopularisierung
Wissenschaftspopularisierung
Wissenschaftspopularisierung bezeichnet den Prozess der Vermittlung komplexer wissenschaftlicher Erkenntnisse in allgemein verständlicher Form. Geschichtliche Einordnung Begriffsgeschichte Popularität (lat. von popularitas = Volksfreundlich, Streben nach Volksgunst) war ein primär politisch genutzter Begriff, welcher das Bestreben römischer Politiker um die Gunst der Plebejer beschrieb. Seit dem Anfang des 19. Jahrhunderts traten erstmals Formulierungen wie populäre Sprache oder populäre Vorträge auf und bedeuteten gemeinverständlich, volkstümlich oder leicht fasslich. Ab 1850 wurde Popularität als Volksmäßigkeit oder Gemeinverständlichkeit beschrieben. Sie galt vor allem in den Gebieten der Naturwissenschaften als Volksbildungsbestrebung. In dieser Zeit tauchten auch zum ersten Mal Verknüpfungen der Begriffe Wissenschaft und Popularität auf. Populärwissenschaftler wurden fortan von Fachwissenschaftlern unterschieden. Soziokultureller Hintergrund Das Phänomen der Wissenschaftspopularisierung kam erstmals Mitte des 19. Jahrhunderts auf. Gesellschaftliche Veränderung und ein Drängen des Bürgertums nach mehr Einfluss auf das öffentliche Leben führten zu einem Streben dieser Schicht nach mehr Bildung, auch abseits der damals etablierten Institutionen. Insbesondere die damals noch jungen Naturwissenschaften gerieten in den Fokus dieser Bewegung. Es entwickelte sich die Forderung nach allgemein verständlicher Vermittlung des aktuellen naturwissenschaftlichen Kenntnisstandes. Daraufhin nahmen immer mehr Zeitschriften und Zeitungen naturwissenschaftliche Artikel in ihr Programm auf, um solches Wissen zu vermitteln. Zudem gründeten sich in dieser Zeit die ersten Volkssternwarten. So entstand zum Beispiel in den 1880er Jahren die Gesellschaft Urania Berlin, in Aufbau und Programm ein Vorbild für heutige Naturkundemuseen und Planetarien. Neben dem Wunsch nach Bildung schwangen noch andere Interessen des Bürgertums mit. So wollten diese die konservativen Strukturen der Gesellschaft, welche sich auf ein starres formelles und bürokratisches System berief, auflösen und so zu mehr Einfluss gelangen. Ein wichtiger Schritt dorthin war die Abschaffung des bisherigen Bildungsmonopols der oberen Klassen in der humanistischen Bildung. Zudem wollte man die weltanschauliche Deutungshoheit der Kirche brechen, was am ehesten durch naturwissenschaftliche Erkenntnisse möglich schien. So ging es den Vorreitern der Wissenschaftspopularisierung nicht nur um die Verbesserung ihrer Bildungsmöglichkeiten, sondern es spielte sich vielmehr ein genereller sozialer Umbruch ab. Nicht verwunderlich ist es deshalb, dass der Staat und andere konservative Institutionen versuchten, die kommende Beteiligung der Öffentlichkeit an den Wissenschaften zu unterbinden. So weigerte sich der Staat Preußen zum Beispiel, den Bau der Urania Sternwarte in irgendeiner Weise finanziell zu unterstützen. Abgrenzung zur Fachwissenschaft Bei der Wissenschaftspopularisierung wird fachspezifisches Wissen für eine breite Öffentlichkeit aufgearbeitet und bereitgestellt. Wissenschaftliche Themen werden so dargestellt, dass jeder Interessierte die behandelte Thematik erfassen und verstehen kann. Deshalb wird so weit wie möglich auf Fremdwörter verzichtet. Falls Fachausdrücke verwendet werden, werden diese so erläutert, dass auch Laien dem Inhalt folgen können. Zudem findet eine Reduktion der Informationsmenge statt. Informationen, die nicht zum Verständnis des Ergebnisses beitragen, werden weggelassen. Genrespezifische Formen Bei dem Prozess der Vermittlung gelangen nur ganz bestimmte Inhalte und Aspekte an die Öffentlichkeit. Sie werden nicht auf Wissenschaftsniveau, also differenziert und kontinuierlich vermittelt, sondern in Form zufälliger Berichterstattung über Inhalte der Naturwissenschaft, Technik und Medizin mit Auffälligkeitscharakter. Wissenschaftspopulistische Artikel wenden sich nicht an ein spezialisiertes Publikum und sind überblicksartig. Die klassische wissenschaftliche Darstellung mit Fachwörtern und einförmiger, standardisierter Syntax wird durch den Verzicht auf spezifische Informationen und durch einfachere und umfangreichere Erklärungen von Informationen einem wissenschaftsinteressierten Publikum zugänglich gemacht. Die Abgrenzung zu wissenschaftsinterner Kommunikation kennzeichnet sich durch das Fehlen einer umfangreichen Bibliografie und die marginale Erwähnung von Forschungstätigkeiten. Dennoch finden Forschungsergebnisse und Beobachtungen bei Experimenten Erwähnung. Vertreter Richard Dawkins Stephen Jay Gould Brian Greene Stephen Hawking Michio Kaku Harald Lesch Marvin Minsky Richard David Precht Siehe auch Populärwissenschaft Literatur Andreas W. Daum: Wissenschaftspopularisierung im 19. Jahrhundert. Bürgerliche Kultur, naturwissenschaftliche Bildung und die deutsche Öffentlichkeit, 1848–1914. R. Oldenbourg Verlag, München 1998, ISBN 3-486-56337-8; 2., erg. Aufl. 2002. Andreas W. Daum: Varieties of Popular Science and the Transformations of Public Knowledge: Some Historical Reflections. In: Isis 100 (June 2009), 319‒332. Kitmeridis, Panagiotis: Popularisierung der Naturwissenschaften am Beispiel des Physikalischen Vereins Frankfurt. Überarbeitet und herausgegeben von Gudrun Wolfschmidt. Hamburg: tredition (Nuncius Hamburgensis; Band 44) 2018 Weblinks UNESCO Kalinga Prize for the Popularization of Science Öffentlichkeit Wissenschaftskommunikation
Q995600
104.661867
1530627
https://de.wikipedia.org/wiki/Haus
Haus
Ein Haus ist ein Begriffliche Abgrenzungen zu anderen Gebäuden Als Haus bezeichnet man ein Gebäude in der Regel, wenn dessen vorrangiger Zweck ist, Menschen regelmäßig als Unterkunft zu dienen, insbesondere zum Wohnen, Arbeiten oder für Zusammenkünfte. Eine scharfe Abgrenzung gegenüber anderen Gebäuden gibt es nicht. Neben dem oben beschriebenen Zweck sind typische, aber nicht immer zwingend erforderliche Merkmale eines Hauses: das Vorhandensein von zahlreichen Fenstern (in Abgrenzung zum Beispiel zu Bunkern oder Scheunen), Raumhöhen, die ca. 4 Meter nicht überschreiten (in Abgrenzung zum Beispiel zu Hallen, Kinos oder Theaterbauten), eine gewisse Qualität und Dauerhaftigkeit (in Abgrenzung zum Beispiel zu Hütten, Baracken, Containern oder behelfsmäßigem Unterschlupf). Dazu tragen teilweise auch andere Begriffe die Endung „-haus“ in der Bezeichnung, obwohl sie nicht zu den Häusern im eigentlichen Sinn zählen, zum Beispiel Schneckenhaus, Affenhaus. Der deutsche Begriff „Haus“ ist trotz seiner phonetischen und etymologischen Verwandtschaft deutlich weiter gefasst als das englische Wort „house“, welches typischerweise nur für Wohnhäuser für ein bis zwei Familien verwendet wird. Unterscheidungsmöglichkeiten Häuser lassen sich differenzieren unter anderem nach: Literatur Joachim Eibach, Inken Schmidt-Voges (Hrsg.): Das Haus in der Geschichte Europas. Ein Handbuch. Berlin 2015, ISBN 978-3-11-035898-8. Einzelnachweise Weblinks Bauform (Wohngebäude) Siedlungsgeographie
Q3947
653.544857
122259
https://de.wikipedia.org/wiki/Sendai
Sendai
Sendai (jap. , -shi) ist eine Großstadt und Verwaltungssitz der japanischen Präfektur Miyagi. Sendai ist die größte Stadt in der Region Tōhoku und liegt auf dem schmalen Landstreifen zwischen der Küste des Pazifiks (Sendai-Bucht) und den Bergen. Geographie Stadtgliederung Die Stadt Sendai ist in 5 Bezirke (Ku) aufgeteilt. Dieses sind: Die Stadtbezirke Miyagino-ku und Wakabayashi-ku liegen an der Küste. Der Stadtbezirk Taihaku-ku erstreckt sich über den gesamten südlichen Teil der Stadt und reicht bis zu einer Entfernung von drei Kilometer an die Küste heran. Das dicht besiedelte, urban entwickelte Gebiet der Stadt beginnt mehr als 4 km landeinwärts von der Küste, und das Stadtzentrum ist 12 km von der Küste entfernt. Bei dem Großteil des Landes, das zwischen der Küste und der Tōhoku-Autobahn (Tōhoku Expressway) liegt, die den östlichen Teil der Stadt von Norden nach Süden unterteilt, handelt es sich um landwirtschaftliche Flächen. Geschichte Sendai wurde als Burgstadt von dem mächtigen Feudalfürsten Date Masamune gegründet. Aus Gründen für einen Verteidigungsfall ließ Masamune die Burg Sendai (Aobajō/, „Burg der Grünen Blätter“) im Jahr 1601 einhundert Meter über der Stadt auf der Erhebung Aoba errichten. Neben der Erhebung fließt der Fluss Hirose. Im Jahr 1611 wurde die Burg Sendai durch das Keichō-Erdbeben, dem ein Tsunami folgte, beschädigt. In der Edo-Zeit verzeichnet die Chronologie sechs Mal den Einsturz der Steinmauern der Burg Sendai (1611, 1646, 1668, 1717, 1835 und 1855). Zudem wurden Beschädigungen der Burgstadt für die Jahre 1731, 1736, 1793 und 1861 verzeichnet. Auf das Jahr 1639 geht die St.-Ursula-Gakuin-Eichi-Grund-, -Mittel- und -Oberschule zurück. In der Meiji-Zeit wurde die aus dem Fürstentum (-han) Sendai entstandene Präfektur (-ken) Sendai bei ihrer Vergrößerung um Teile weiterer Ex-Fürstentümer/Präfekturen 1871/72 nach dem Landkreis, in dem sich ihr Verwaltungssitz befand, in Miyagi umbenannt. Der Stadtkreis Sendai (, Sendai-ku) wurde 1878 vom Landkreis Miyagi getrennt. Aus ihm entstand 1889 bei der Einführung der heutigen Gemeindeformen in der Großen Meiji-Gebietsreform die heutige kreisfreie Stadt (-shi) Sendai mit damals 86.352 Einwohnern. Weil Sendai bereits damals die größte Stadt in der Region Tōhoku war, wurde die Stadt ein Hauptort von Handel, Erziehung und Politik. Am Ort der damaligen Burg befanden sich eine Garnison und die Universität Tōhoku. Zum hundertjährigen Jubiläum der Einrichtung der Stadt Sendai wurde sie 1989 zur seirei shitei toshi, einer „Großstadt per Regierungserlass“, ernannt und damit in Bezirke unterteilt. Im Zweiten Weltkrieg wurde die Stadt im Juli 1945 mehrfach durch die United States Army Air Forces (USAAF) bombardiert. Der folgenschwerste Angriff war ein Flächenbombardement mit Napalmbomben am 19. Juli 1945. Die Angriffe zerstörten rund 22 % des Stadtgebietes und forderten 2.755 Tote und 57.321 Verletzte. Durch die Brandbomben wurden rund 13 km2 der Stadt niedergebrannt. (siehe Luftangriffe auf Japan) Der Absturz einer Cessna 208B im Pazifischen Ozean ereignete sich am 27. September 2018 in ca. 120 km Entfernung. Tsunamis Historische Tsunami-Erfahrungen Die lokale Geomorphologie der Stadt Sendai und ihrer Vorstadtgebiete ist durch ein fluviales Tiefland und eine reliefarme, durch die Flüsse Abukuma, Natori und Nanakita geformte Küstenebene gekennzeichnet, wo Tsunamiwellen teilweise weit in das Landesinnere vorstoßen können. In der Vergangenheit war es in dem Sendai-Gebiet bereits zu zahlreichen Flut- und Tsunami-Katastrophen gekommen. Wie aus dem Nihon Sandai Jitsuroku belegt ist, überflutete der Jōgan-Tsunami im Jahr 869 die Küstenebene von Sendai großflächig und tötete über 1.000 Menschen, doch sind bisher keine historischen Informationen bekannt, die die Tsunamihöhe oder die Größe der Tsunamiüberflutungsgebiete im Falle des Jōgan-Tsunamis und des Keichō-Tsunamis quantifizieren können. 1835 wurde in einer Entfernung von 5,5 km von der Küste in einem tiefliegenden Gebiet des Wakabayashi-Bezirks (仙台市若林区) der Stadt Sendai der Namiwake-Schrein (浪分神社) errichtet, um vor einem künftigen Tsunami zu „schützen“. 200 bis 300 Meter vor dem Schrein konnten Ablagerungen des Jōgan-Tsunamis aus dem Jahr 869 gefunden werden. Ursprünglich war der Namiwake-Schrein 1703 an einer anderen Stelle erbaut worden, die jedoch vom Keichō-Sanriku-Tsunami 1611, der etwa 1.700 Menschenleben gefordert hatte, überflutet worden war. Tōhoku-Katastrophe von 2011 Ausmaß der Überflutung und Schäden Während für den Fall eines Tsunamis im Sendai-Gebiet nur ein schmaler Küstenstreifen als Überflutungsgebiet erwartet worden war, drang der am 11. März 2011 durch das Tōhoku-Erdbeben ausgelöste Tsunami in der Küstenebene Sendais um ein Vielfaches tiefer – mehr als 5 km – in das Landesinnere vor, unter anderem bis kurz vor den Namiwake-Schrein in Sendai-Wakabayashi. Obwohl der Tōhoku-Tsunami 2011 stärker als erwartet ausgefallen war, überlebte der Namiwake-Schrein somit das Erdbeben und den Tsunami von 2011. Der Tsunami überflutete die gesamte Sendai-Ebene, die mit ihrem eine Million Einwohner beherbergenden urbanen Zentrum Sendai über die größte Stadt und das am stärksten besiedelte Gebiet in der Tōhoku-Region verfügte. In der Stadt Sendai überflutete er eine Fläche, in der (mit Stand von 2010) 19.580 Menschen in 6.640 Haushalten gelebt hatten, davon 12.830 Menschen in 4.720 Haushalten im Stadtteil Miyagino-ku (宮城野区) und 6.750 Menschen in 1.920 Haushalten im Stadtteil Wakabayashi-ku (若林区). Rund 18 % dieser in den Überflutungsgebieten lebenden Menschen in Sendai waren 2010 65 Jahre oder älter gewesen. Im Vergleich zu anderen, 2011 vom Tsunami überfluteten Regionen in den Präfekturen Iwate und Miyagi, war der Anteil der zuvor in Überschwemmungsgebieten lebenden Bevölkerung (in Higashimatsushima mit 67,1 % besonders hoch) in Sendai mit 1,9 % (und in Miyagino-ku mit 6,7 % bzw. in Wakabayashi-ku mit 5,1 %) weitaus geringer. Die Zahl der völlig zerstörten Wohngebäude wird mit 30.034, die der teilweise zerstörten mit 109.609 beziffert. In dem im Südosten Sendais gelegenen und nach Süden an den Fluss Natori grenzenden Stadtbezirk Wakabayashi-ku drang der Tsunami von der Küste aus mehr als 3 km landeinwärts vor, wobei die Höhe der Tsunamispuren allmählich mit der Entfernung der Tsunamiwellen von der Küste abnahm, wie dies auch in anderen zur Sendaiebene gehörenden Städten wie Natori und Watari zu sehen war. Wakabayashi-ku erlitt als Küstenregion schwere Schäden durch den Tsunami, insbesondere um den Distrikt Arahama herum. An der nach Osten an den Ozean grenzenden Küstenlinie wurden lokal 6 Offshore-Wellenbrecher eingesetzt. Die wichtigsten Küstenschutzanlagen bestanden in den Betonblock-Deckwerken entlang des Arahama-Strands. Zusätzlichen Schutz bot ein sich unmittelbar landeinwärts an die Deckwerke anschließender Kiefernwald. Die Betonschutzanlagen am Arahama-Strand versagten jedoch an mehreren Stellen, der Tsunami wusch die Sandfüllung aus und spülte Betonblöcke bis zu 100 m in den küstennahen Kiefernwald fort. Das flache Tiefland förderte das bis zu 5 km landeinwärts reichende Vordringen des Tsunamis. Arahama ist ein etwa 10 km von Sendais Stadtzentrum entfernt gelegenes, unmittelbar an der Pazifikküste beginnendes und sich etwa einen Kilometer landeinwärts erstreckendes Wohngebiet gewesen, in dem etwa 800 Haushalte mit rund 2.200 Einwohnern um den historischen Teizankanal gesiedelt hatten, der von Date Masamune gegründet worden war und in diesem Gebiet der Küstenlinie in einer Entfernung von rund 450 Metern parallel zum Meeresufer verläuft. Während sich üblicherweise zwischen dem Teizan-Kanal und der Küstenlinie Küstenwälder erstrecken, die ein gewisses Maß an Schutz bieten, dehnen sich die Häuser in Arahama über den Kanal hinaus bis ganz an das Meeresufer aus. In der Nähe der Küstenlinie wurden Überflutungshöhen von 9,32 m und 8,43 m gemessen und viel Treibholz (mit einem Durchmesser bis 70 cm) gefunden, das von den Küstenwäldern zwischen dem Teizan-Kanal und dem Meeresufer stammte. An der Mündung des Flusses Natori, an dessen Ufer sich viel Trümmer anhäuften, wurde eine Überflutungshöhe von 5,44 m gemessen. Die meisten Gebäude in Arahama wurden zerstört, mit Ausnahme weniger Häuser und der Grundschule von Arahama. Viele in Holzkonstruktion erstellte Wohnhäuser brachen völlig zusammen oder wurden später abgerissen. Unmittelbar nach dem Erdbeben entsendete die japanische Rundfunkgesellschaft NHK eine Hubschrauber-Kameracrew an die Sendai-Küste, um das Übergreifen des Tsunamis auf die Küste zu übertragen. Der Tsunami erreichte die Sendai-Küste etwa eine Stunde nach dem Erdbeben und es gelang der NHK-Crew, den Augenblick des Tsunami-Übergriffs auf die Küste zu filmen. Das Kamerateam flog dabei entlang des Flusses Natori und konnte das Vordringen und Auflaufen des Tsunamis entlang des Flusses dokumentieren. Es filmte dabei insbesondere den Tsunami links des Natori in Sendai-Fujitsuka und rechts des Flusses in Natori-Yuriage und Natori-Kozukahara. Das Video wurde weltweit vielfach ausgestrahlt und ist im Videoarchiv von NHK enthalten. Es wurde wissenschaftlich ausgewertet und bietet wichtige Informationen zu der Art und Weise des landeinwärtigen Vordringens des Tsunamis und zu seinen Fließeigenschaften bei den lokalen Überflutungen. Opfer Die Brand- und Katastrophenschutzbehörde meldete in ihrem Schadensbericht vom 19. Mai 685 Tote und 180 Vermisste. Die Zahl der Toten erhöhte sich in der späteren Schadenserfassung auf 923, während noch 27 Menschen vermisst wurden. Gemessen an der Gesamtbevölkerung Sendais, die bei der Volkszählung von 2010 mit 1.045.986 angegeben worden war, betrug die Opferrate durch die Katastrophe von 2011 0,1 %, wenn alle in dem 157. FDMA-Schadensbericht vom 7. März 2018 registrierten Toten und Vermissten berücksichtigt werden beziehungsweise 0,07 %, wenn die in dem 153. FDMA-Schadensbericht vom 8. März 2016 registrierten Opfer (923 Tote und 27 Vermisste) abzüglich der von der Wiederaufbaubehörde (Reconstruction Agency, RA) gemeldeten katastrophenbedingten Todesfälle berücksichtigt werden, wodurch sich eine Zahl von 681 Toten und Vermissten ergibt. Mit der gleichen Datengrundlage, aber allein auf das Überflutungsgebiet des Tsunamis in Sendai bezogen, das eine Fläche von 52 km2 umfasste, ergab sich eine Opferquote von 2,27 %. Allein in den Bezirken Miyagino-ku und Wakabayashi-ku starben weit über 600 Menschen. Für den Bezirk Wakabayashi wurde eine Opferrate von 4,29 % angegeben. Evakuierung Das Küstengebiet Sendais war für zwei gegensätzliche Beispiele von Evakuierungsgebäudekonstruktionen bemerkenswert: In der Nähe des Sendai-Hafens in Miyagino-ku war eine aus Betonfertigteilen bestehende Sporthalle als Evakuierungsstätte ausgeschildert. Dieses Gebäude lag 380 m von der Meeresküste entfernt an der landeinwärts gelegenen Seite des Strandes in der Nähe der kleinen (150 m breiten) Mündung (150 m breit) des Flusses Nanakita (七北田川). Eine Reihe von Deichen unterteilte einen Teil des Ästuars in einzelne Teiche und wurden durch den Tsunami durchbrochen. Das Evakuierungsgebäude erlitt durch den Tsunami keine erkennbaren Schäden an tragenden Bauteilen, doch war es aufgrund seiner Funktion als Sporthalle einstöckig und mit hoher Decke ausgestattet, so dass es im Hauptteil des Gebäudes kein Obergeschoss und im 2. Stock des Nebengebäudes nur sehr wenig Grundfläche besaß, weshalb es für eine vertikale Evakuierung ungeeignet war. Zudem fehlte bis auf eine kleine Wartungsleiter ein Zugang von außen zum Dach. Die nach den hohen, in Japan für Schulen geltenden baulichen Standards errichtete und als Evakuierungsstätte ausgewiesene Grundschule Sendai-Arahama (仙台市立荒浜小学校) war das einzige Gebäude im zum Wakabayashi-Bezirk (若林区) gehörenden Arahama auf höher gelegenem Terrain und widerstand dem Tsunami, der es bis zur Decke des zweiten Geschosses überflutete und beschädigte, obwohl sich das viergeschossige Stahlbetongebäude der 1873 gegründeten Schule, die vor der Katastrophe 91 Schüler hatte, rund 700 m entfernt von der Küstenlinie befindet. In Längsrichtung des Gebäudes (senkrecht zur Küstenlinie) drangen Trümmer und mehrere Fahrzeuge in das Gebäude ein, die innerhalb des zentralen Erdgeschosskorridors eine erhebliche Strömungsgeschwindigkeit durch den zentralen Korridor erreichten. Unmittelbar nach dem Erdbeben diente das Schulgebäude aufgrund seiner Gebäudehöhe bei gleichzeitiger Flachheit der weiteren Umgebung als ein bedeutendes Evakuierungsgebäude, in das sich viele in der Nähe wohnende Einwohner, Schüler und Schulangestellte flüchteten. Seine Zweitfunktion als Gebäude für die vertikale Evakuierung erfüllte das Schulgebäude, auf dem keine deutliche Beschilderung als vertikale Evakuierungsstätte angebracht war, während des Tsunamis gut. Das Gebäude verfügte über Dachgeländer, über direkten Zugang zum Dach über eine große, auffällig lackierte Stahltreppe an der Rückseite (Nordseite) und über zwei Dachsirenen. Während der Tsunami bis in das zweite Geschoss vordrang, gelang es allen in die Schule Evakuierten, sich auf das Dach der Schule zu retten. Indem 380 (nach anderen Angaben: 320) Menschen durch ihre Evakuierung auf das Dach der Schule überlebten, gilt die Schule als Beispiel erfolgreicher Evakuierung. Um zukünftigen Katastrophen zu begegnen, erhielt die Stadt die Ruine des Schulgebäudes als Erinnerungsstätte und öffnete es für die Allgemeinheit. Umsiedlung und Wiederaufbau Rund 57.000 Häuser wurden durch das Erdbeben und den Tsunami am 11. März 2011 beschädigt oder zerstört. Im Rahmen ihres Wiederaufbaukonzepts wies die Stadtregierung Sendai im Dezember 2011 eine Fläche von rund 1.200 ha als Tsunami-gefährdete Gebiete aus, in denen laut rechnerischer Tsunami-Simulationen bei einem weiteren Tsunami der gleichen Größenordnung wie am 11. März 2011 trotz baulicher Schutzmaßnahmen Überflutungshöhen von über zwei Meter Tiefe entstehen würden. In diesen Risikogebieten, in denen vor der Katastrophe rund 1.500 Familien gelebt hatten, wurde den Menschen durch die Stadtregierung nun die Wohnbebauung untersagt. Stattdessen förderte die Stadtregierung für diese 1.500 Familien die Umsiedlung aus diesen sogenannten Risikogebieten auf höher gelegenes und sicheres Terrain und den dortigen Wiederaufbau mit verschiedenen Programmen: Im Rahmen individueller Umsiedlung konnten die betroffenen Familien jeweils für sich sicheres Land kaufen und nach eigenen Vorstellungen bebauen, wobei ihnen die Stadtverwaltung ihre vorigen Grundstücke aus den gefährdeten Gebieten abkaufte und Zuschüsse für den Umzug sowie die Zinsbeträge für neue Wohnungsbaukredite gewährte. Im Rahmen der Gruppenumsiedlung bauen die betroffenen Menschen Häuser an von der Regierung entwickelten Standorten und werden wie im vorigen Modell unterstützt. Im Rahmen des sozialen Wohnungsbaus stellte die Regierung schließlich Einwohnern, die die Mittel zum Bau neuer Häuser nicht aufbringen können, die öffentliche Mietwohnungen zur Verfügung. Mit Stand von Mai 2013 hatten sich 49 Prozent der Familien in den Risikogebieten für eine Gruppenumsiedlung, 49 Prozent für eine individuelle Umsiedlung und 27 Prozent für Sozialwohnungen entschieden. In den an die Risikogebiete angrenzenden Gebiete, in denen laut rechnerischer Tsunami-Simulationen bei einem weiteren Tsunami der gleichen Größenordnung wie am 11. März 2011 trotz baulicher Schutzmaßnahmen Überflutungshöhen von bis zu zwei Meter Tiefe entstehen würden, unterstützte die Stadtregierung die dort lebenden 2.300 Familien durch Bereitstellung von Subventionen für Katastrophenschutzmaßnahmen wie die Erhöhung des Bodenniveaus oder die Errichtung von Erdhügelnn auf Wohngrundstücken. Alternativ stand den Menschen dort die Möglichkeit offen, ein neues Grundstück zu finden und nach eigenen Vorstellungen zu bebauen, während sie von der Stadtverwaltung durch Zuschüsse für die Umsiedlung und Zinszahlungen für neue Wohnbaukredite gefördert würden. Im Rahmen sozialen Wohnungsbaus baute die Stadtverwaltung 3.000 öffentliche Mieteinheiten für Einwohner, die keine neuen Häuser errichten können. In den hügeligen Gebieten, wo rund 5.500 Häuser durch von dem Erdbeben ausgelösten Erdrutschen schwer beschädigt und wieder aufgebaut werden mussten, plante die Stadtverwaltung, sie durch öffentliche Arbeiten oder durch Subventionen unter Beisteuerung von 90 Prozent der Kosten wieder aufzubauen. Politik und Verwaltung Sendai unterteilt sich als designierte Großstadt (seirei shitei toshi) in Stadtbezirke (-ku), namentlich: Aoba-ku, Miyagino-ku, Wakabayashi-ku, Taihaku-ku und Izumi-ku. Bürgermeisterin der Stadt Sendai (Sendai-shichō) ist die ehemalige demokratische Unterhausabgeordnete Kazuko Kōri. Sie löste 2017 Emiko Okuyama ab, die nach zwei Amtszeiten nicht mehr kandidierte. Kōri gewann die Wahl am 23. Juli mit Mitte-links-Unterstützung gegen den von Mitte-rechts-Parteien unterstützten Unternehmer Hironori Sugawara und zwei weitere Kandidaten. 2021 wurde sie gegen die ehemalige liberaldemokratische Unterhausabgeordnete Miyo Kanō (zeitweise Ōkubo) mit Vierfünftelmehrheit für eine zweite Amtszeit wiedergewählt. Die Wahlbeteiligung fiel um mehr als 15 Punkte auf 29,1 %. Das Parlament der Stadt Sendai (Sendai-shi gikai) hat regulär 55 Mitglieder aus fünf, den Stadtbezirken entsprechenden Wahlkreisen. Bei der Wahl am 30. Juli 2023 erreichte die Wahlbeteiligung mit 34,3 % ein neues Rekordtief. Die Liberaldemokratische Partei (LDP) blieb unter leichten Verlusten mit 18 Sitzen stärkste Kraft, auch die KDP verlor leicht auf elf Sitze. Die Kōmeitō erhielt unverändert neun, die KPJ unverändert sechs Sitze. Die rechte Opposition legte deutlich zu: Die Nippon Ishin no Kai gewann aus dem Stand fünf Sitze, die rechtspopulistische Sanseitō einen. Fünf Sitze gingen an Kandidaten ohne formale Parteinominierung. Ins Parlament der Präfektur Miyagi (Miyagi-ken gikai) wählen die als Wahlkreise fungierenden Bezirke der Stadt Sendai zusammen 24 der insgesamt 59 Abgeordneten: Der Siebenmandatswahlkreis Aoba-ku ist der Wahlkreis mit der präfekturweit höchsten Mandatszahl, die Bezirke Taihaku und Izumi wählen jeweils fünf Abgeordnete, Miyagino vier, und Wakabayashi drei. Bei Wahlen zum Repräsentantenhaus (Shūgiin), dem Unterhaus der Nationalversammlung, erstreckt sich die Stadt Sendai seit einer Neuordnung bei der Wahl 2017 in drei Wahlkreise der Präfektur Miyagi: Den Wahlkreis Miyagi 1 mit dem Bezirk Aoba und dem Ostteil des Taihaku-ku vertritt der Liberaldemokrat Tōru Doi (2021 43,4 % der Stimmen), den Wahlkreis 2 mit den anderen drei Stadtbezirken die Konstitutionelle Demokratin Sayuri Kamata (49,0 %). Teile des Stadtbezirks Taihaku gehören seit 2017 zum Wahlkreis 3, der den gesamten Süden von Miyagi umfasst und mit Unterbrechung seit 2003 vom Liberaldemokraten Akihiro Nishimura repräsentiert wird. Verkehr Luft Flughafen Sendai: von hier gehen internationale Flüge in die Nachbarstaaten U-Bahn In der Stadt gibt es zwei U-Bahn-Linien (siehe: U-Bahn Sendai). Zug JR Tōhoku-Shinkansen JR Tōhoku-Hauptlinie JR Senseki-Linie JR Senzan-Linie Sendai ist eine der wichtigsten Stationen auf der Strecke JR Tōhoku-Shinkansen. Straße Tōhoku-Autobahn Yamagata-Autobahn Nationalstraße 4 Nationalstraße 6 Nationalstraße 45 Nationalstraße 286 Klima Kultur In Sendai befindet sich die Universität Tōhoku. Architektonisch international bekannt und bedeutend ist die Sendai Mediatheque, entworfen vom Tokyoter Architekten Toyo Ito und 2001 eingeweiht. Zu den bekanntesten kulinarischen Spezialitäten aus Sendai gehören Gyūtan, in dünne Scheiben geschnittene und gegrillte Kuhzunge; Sasakamaboko, eine Fisch-Wurst in Blätter eingewickelt; und Zundamochi, Mochi-Kugeln mit einer hellgrünen Edamame-Paste. Im Stadtteil Taihaku befindet sich das Sendai City Tomizawa Site Museum für Archäologie, in dem u. a. 20.000 Jahre alte Waldreste zu sehen sind. Wichtigste Tageszeitung ist die Kahoku Shimpō. Die Daikannon-Statue im Norden der Stadt war bei ihrer Fertigstellung am 1. September 1991 die größte Statue von Asien. Wirtschaft und Infrastruktur Die Wirtschaft in Sendai wird von Handels- und Dienstleistungsunternehmen dominiert. Dabei haben nur wenige bedeutende Firmen dort ihren Hauptsitz, es dominieren Zweigstellen anderswo ansässiger Unternehmen. In Sendai befindet sich das Hauptquartier des Energieversorgers Tōhoku Denryoku. Universitäten und Colleges Universität Tōhoku Tōhoku-Gakuin-Universität Sport Baseball – Sendai ist die Heimat des Baseballvereins Tōhoku Rakuten Golden Eagles aus der Pacific League, dessen Spiele im Sendai-Miyagi-Stadion ausgetragen werden. Fußball – Sendai ist die Heimat des Fußballvereins Vegalta Sendai aus der J. League, dessen Spiele im Yurtec-Stadion ausgetragen werden. Sendai 89ers (Basketball) Persönlichkeiten Sendai als Namensgeber Der Asteroid des inneren Hauptgürtels (3133) Sendai ist nach der Stadt benannt. Städtepartnerschaften Acapulco, Mexiko Changchun, Volksrepublik China Dallas, Vereinigte Staaten Gwangju, Südkorea Minsk, Weißrussland Oulu, Finnland Rennes, Frankreich Riverside, Vereinigte Staaten Tainan, Republik China (Taiwan) Galerie Angrenzende Städte und Gemeinden Tagajō Natori Yamagata (Yamagata) Higashine Obanazawa Weblinks Offizielle Website der Stadt (japanisch, englisch, chinesisch, koreanisch, russisch und französisch) 10万分1浸水範囲概況図, 国土地理院 (Kokudo Chiriin, Geospatial Information Authority of Japan, ehemals: Geographical Survey Institute = GSI), www.gsi.go.jp: : Das GSI veröffentlicht an dieser Stelle eine Landkarte mit Sendai (浸水範囲概況図13), auf der die vom Tōhoku-Tsunami 2011 überfluteten Gebiete (z. B. in Miyagino-ku/宮城野区 und Wakabayashi-ku/若林区) auf Grundlage von Auswertungen von Luftbildern und Satellitenaufnahmen eingezeichnet sind, soweit dies möglich war. Einzelnachweise Anmerkungen Ort in der Präfektur Miyagi Millionenstadt Ort mit Seehafen Japanische Präfekturhauptstadt Hochschul- oder Universitätsstadt Stadt als Namensgeber für einen Asteroiden
Q46747
177.120229
528134
https://de.wikipedia.org/wiki/Sutra
Sutra
Das Sanskrit-Wort Sutra (सूत्र: sūtra, „Faden“, „Kette“; Pali: Sutta, sūtta; übertragen „Lehrrede“) bezeichnet entweder einen kurzen, durch seine Versform einprägsamen Lehrsatz in der alt- und mittelindischen Literatur oder eine Sammlung solcher Lehrsätze. Neben dem Sutra in der Sanskrit-Literatur findet sich das Sutra auch in den Lehrtexten des Buddhismus und des Jainismus, jedoch ohne den kurzen, aphoristischen Charakter. Das Sutra entsprechende Pali-Wort Sutta bezieht sich auf bestimmte Teile des für den Theravada-Buddhismus einzig als kanonisch geltenden Pali-Kanons. Merksatz-Charakter Die ältesten indischen Texte wurden mündlich überliefert und sind viel älter als die Verwendung von Schrift. Trotz exzellenter mnemotechnischer Methoden suchte man nach Möglichkeiten, komplexe Sachverhalte in komprimierter, merksatzartiger Form weiterzugeben. Dieses Streben nach Kürze ist dafür verantwortlich, dass die Inhalte heute oft schwer verständlich sind. Für die damaligen Schüler jedoch, die gleichzeitig ausführliche mündliche Erläuterungen erhielten, stellten die Sutras eine wirkungsvolle Gedächtnisstütze dar. Um also die Verfälschung des Textes beim mündlichen Weiterreichen von Generation zu Generation zu verhindern, wurde eine strenge Versform genutzt. Ein Vers, der ein bestimmtes Versmaß aufweist und sich reimt, kann sich nicht einfach verändern; Unregelmäßigkeiten, die durch Hinzufügen, Verändern oder Weglassen einzelner Worte entstehen, werden sofort bemerkt. Hinzu kam, dass die Texte auf eine Melodie gesungen oder im Singsang gesprochen wurden. Nachteile (ein Mangel an Redundanz, wie er sich auch im deutschen Wort „Dichtung“ andeutet) wurden durch Vorteile (Einprägsamkeit) offenbar mehr als ausgeglichen. Seine konsequenteste Ausprägung fand der Sutra-Stil in der Schule der Grammatiker, insbesondere bei Panini, der auf wenigen Seiten eine vollständige Systematik des Sanskrit darlegte. Von dem Grammatiker Patanjali stammt der Ausspruch, wenn ein Sutra-Autor eine halbe, kurze Silbe einsparen könne, sei er so glücklich, wie wenn ihm ein Sohn geboren werde. Fast alle philosophischen Systeme (Darshanas) der älteren Zeit fanden ihre Ausgestaltung in der Form von Sutras; auch eine umfangreiche Kommentarliteratur ist überliefert. Hinduismus Im Hinduismus heißen knappe Auszüge aus den Veden Sutras. Eine Definition für Sutra wird in Skanda-Purana gegeben: „Ein Sutra ist ein Aphorismus, der die Essenz allen Wissens in wenigen Worten ausdrückt. Er muss universal anwendbar und fehlerlos in seiner linguistischen Präsentation sein.“ Das bekannte Brahma-Sutra (auch Vedanta-Sutra genannt) wird Vedavyasa zugeschrieben. Vedanta bedeutet „Ende“ bzw. „Vollendung des Veda“. Der Hauptzweck des Sutra und der Diskussionen in den Upanishaden besteht darin, den persönlichen Aspekt der Absoluten Wahrheit herauszustellen. Im Vedanta-Sutra sind die philosophischen Einsichten der Upanishaden zusammengefasst. Die Sutras des Patanjali bilden die Grundlagen des Raja-Yoga. Einer, der die Fäden zieht: In der altindischen Lehre von Musik und Tanz Gandharva, wie sie Bharata um die Zeitenwende in seinem Werk Natyashastra zusammenfasste, ist der Sutradhara der Zeremonienmeister des Ritualtheaters, der im Vorspiel (Purvaranga) die Zuschauer begrüßt und später die Szenen erläutert. Ein solcher Theaterdirektor ist für viele indische Theaterformen bis heute charakteristisch. Buddhismus Die buddhistische Lehre wurde in Form von mündlich weitergegebenen und erst viel später aufgezeichneten Lehrreden des Buddha übermittelt, deshalb lautet die Einleitung aller Sutras: „So habe ich’s gehört“ (pali: evam me suttam). Für die Rezitation bestimmter Texte gab es Spezialisten, so genannte Bhāṇaka. Oft wendet sich der Buddha in diesen Lehrreden, die stets um ein bestimmtes Thema kreisen, an eine Gruppe von Mönchen. Ein situativer Einstieg ist charakteristisch: „So habe ich’s gehört: Zu einer Zeit weilte der Erhabene im Wildpark von Isipatana bei Varanasi. Dort nun wandte sich der Erhabene an die fünf Mönche und sprach …“ Drei große Kanon-Sammlungen existieren: der Pali-Kanon mit seinem „Korb der Lehrreden“ (Suttapitaka), der chinesische Sanzang (heute im Taishō Tripitaka standardisiert) und der tibetische Kangyur (Kanjur). In den verschiedenen Textsammlungen liegen die Sutras oft in unterschiedlicher Form vor; dies ist auf Interpretationsvarianten der verschiedenen buddhistischen Schulen (Theravada, Mahāyāna, Vajrayāna) zurückzuführen. Einen durchaus eigenen Stil weisen die Mahāyāna-Sutras auf, die auch thematisch über die im Pali-Kanon beschriebenen Befreiungswege hinausgehen. Einzelne dieser Werke sind von zentraler Bedeutung für bestimmte Schulen und Richtungen des Mahāyāna, etwa das Lotos-Sutra für die Schulen des Nichiren-Buddhismus oder das Große Sukhāvatī-Sutra für die Schulen des Reinen Landes. Verständnis und Forschung Im wörtlichen Sinn bedeutet Sutra „Faden“ oder „Kette“, häufig irrtümlich als „Leitfaden“ gedeutet. Diese Interpretation ist zwar naheliegend, denn im Sanskrit führen praktisch alle „Leitfäden“ das Wort Sutra im Titel, beispielsweise das Yoga-Sutra des Patanjali oder das im deutschsprachigen Raum bekanntere Kamasutra des Vatsyayana. Im Gegensatz zu den Ślokas handelt es sich bei den Sūtras um Prosatexte, welche äußerst knapp gehalten werden, um das Lernen zu vereinfachen. Die ersten vedischen Sutras wurden in Prakrit verfasst, einer mittelindischen Sprachform und daher einer volkssprachlichen Weiterentwicklung des Sanskrit. Pionier der Prakrit-Forschung war in der zweiten Hälfte des 19. Jahrhunderts der deutsche Professor Richard Pischel. Im Rahmen seiner Forschungstätigkeit an der Universität Halle wurde die erste moderne systematische Grammatik des Prakrit verfasst; nun konnten zahlreiche vedische Sutras übersetzt und in Dissertationen veröffentlicht werden, unter anderem die Karmapradipa durch Friedrich Schrader (1889) und Baron Alexander von Staël-Holstein (1900). Siehe auch Sutras (Auswahl) Suttapitaka Diamant-Sutra Herz-Sutra Lankavatara-Sutra Lotos-Sutra Nirvana-Sutra Kamasutra Begriffe Dharma Sutrenübersetzer (China) Buddhistischer Kanon Yitikän-Sutra Literatur Friedrich Max Müller: History of Ancient Sanskrit Literature. Oxford University Press, 1859, S. 71 ff. Arthur Anthony Macdonell: The Sutras. In A History of Sanskrit Literature. Chapter 9. 1900, S. 244 ff. Weblinks Einzelnachweise Indische Literatur Hinduismus Buddhistische Literatur Lyrische Form Ritueller Gesangsstil
Q209680
116.134131
33869
https://de.wikipedia.org/wiki/Schleimhaut
Schleimhaut
Als Schleimhaut, in der medizinischen Nomenklatur Tunica mucosa (von lat. tunica „Haut, Gewebe(schicht)“ und mucus, „Schleim“) oder kurz Mukosa genannt, wird die Schutzschicht bezeichnet, die das Innere von Hohlorganen auskleidet. Schleimhäute befinden sich in der Mundhöhle und in der Nasenhöhle. Auch die Bindehaut des Auges, die Wandungen der Vagina, die Deckschicht der Eichel der Klitoris, der Eichel des Penis sowie die Innenseite der Penisvorhaut sind Schleimhäute. Im Gegensatz zur äußerlichen Haut besitzt die Schleimhaut keine Hornschicht und keine Haare. Wesentlich (und namensgebend) für Schleimhäute ist die Produktion von Schleimstoffen, den Mucinen. Aufbau Eine Schleimhaut besteht aus einer Epithelschicht (Lamina epithelialis mucosae), einer epithelialen Muskelschicht (Lamina muscularis mucosae) und einer dazwischenliegenden Schicht aus Bindegewebe (Lamina propria mucosae). Das Epithel kann einschichtig (z. B. Darm) oder mehrschichtig (z. B. Mundhöhle) sein. Bei einigen Organen kann das Epithel oberflächlich auch eine spezifische Verhornung zeigen (z. B. Vormägen der Wiederkäuer). Häufig findet man auf den Epithelzellen Oberflächenvergrößerungen in Form von Mikrovilli, zum Teil auch Kinozilien und Stereozilien. Die Eigenschicht enthält zumeist Drüsen (Drüsenschleimhaut), die die Schleimhaut feucht halten. Sie kann aber auch drüsenlos sein (sogenannte kutane Schleimhaut, z. B. Vagina), hier übernehmen die vom Epithel abgegebene Flüssigkeit und/oder die Drüsensekrete angrenzender Abschnitte die Bildung des Flüssigkeitsfilms. Nur im Bereich des Magen-Darm-Trakts liegt in die Eigenschicht eingebettet eine schmale Muskelschicht, die Lamina muscularis mucosae. Während der Begriff „Schleimhaut“ auch für drüsenlose Auskleidungen innerer Organe in der Tieranatomie generell üblich ist, wird dies in der humananatomischen Literatur nicht einheitlich gehandhabt. Einige Autoren verzichten bei drüsenlosen Bildungen auf einen Oberbegriff für Epithel und Lamina propria. Funktion Schleimhäute dienen der mechanischen Abgrenzung der Organoberfläche. Viele Schleimhäute haben die Eigenschaft, durch aktive Transportproteine (z. B. Glucosetransporter) an der Schleimhautoberfläche Moleküle in eine bestimmte Richtung zu transportieren, und ermöglichen somit sowohl Sekretions- als auch Resorptionsprozesse. In der Eigenschicht finden sich häufig Lymphknötchen. Schleimhäute können Immunglobuline (vor allem IgA) absondern und haben so eine wichtige Schutzfunktion gegen eindringende Krankheitserreger. Diese durch das „Schleimhaut-assoziierte lymphatische Gewebe“ bzw. MALT (von engl. mucosa associated lymphoid tissue) vermittelte und durch IgA realisierte spezifische Infektabwehr wird auch als Schleimhautimmunität (engl.: mucosal immunity) bezeichnet. Beispiele Darmschleimhaut Gebärmutterschleimhaut Magenschleimhaut Mukosablock Mundschleimhaut Nasenschleimhaut Vaginalschleimhaut Krankheiten Blennorrhoe, eine eiternde Schleimhaut Spezielle Behandlungen Mukosektomie, Abtragung der Schleimhaut Weblinks Histologie
Q1219805
145.348274
438286
https://de.wikipedia.org/wiki/Radius
Radius
Als Radius (aus , wörtlich „Stab“, „Speiche“ oder „Strahl“) oder auch Halbmesser wird in der Geometrie der Abstand zwischen dem Mittelpunkt M eines Kreises und der Kreislinie bezeichnet. Allgemeiner heißt auch bei einer dreidimensionalen Kugel oder einer -dimensionalen Sphäre der Abstand zwischen Mittelpunkt und Kugelfläche bzw. Sphäre so. Gelegentlich wird auch eine Strecke, die den Mittelpunkt der Figur mit ihrem Rand verbindet, als Radius oder Halbmesser bezeichnet. Der Radius im Sinne einer Länge ist dann durch die Länge eines solchen Halbmessers im Sinne einer Strecke gegeben. In der Astronomie ist der Radius eine Messgröße. Verallgemeinert besitzt jedes geometrische Objekt mit einem kreisförmigen Querschnitt oder einer kreisförmigen Grundfläche einen Radius, also auch ein Zylinder oder ein Kegel. Geometrie Der Radius r entspricht dem halben Durchmesser d. . Zum Kreisumfang U verhält sich der Radius wie folgt: . Zur Kreisfläche A verhält sich der Radius wie folgt: . Astronomie In der Astronomie ist der Radius eines annähernd kugelförmigen oder eines (vereinfacht oder wegen ungenügender Beobachtungsdaten) als kugelförmig annehmbaren Objekts eine Kennzahl für einen typischen Abstandswert von dessen Mittelpunkt zu dessen Grenzfläche (beispielsweise der geometrische Radius einer gleichvolumigen perfekten Kugel). Die Grenzfläche ist nur bei wenigen Typen von astronomischen Objekten (beispielsweise bei atmosphärelosen trockenen Gesteinsplaneten) durch die Natur des Objekts eindeutig definiert. Bei den meisten Objekten (beispielsweise bei Sternen) muss die der Radius-Angabe zugrundeliegende Grenzfläche anhand anderer physikalischer Parameter (beispielsweise Opazität, d. h. der tatsächlich undurchsichtige Teil eines gasförmigen Himmelskörpers) definiert werden, und es können für ein Objekt somit je nach Grenzflächendefinition verschiedene Radien angegeben werden. Ähnlich kann für scheibenförmige Objekte mit einer definierten Umfanglinie ein Radius angegeben werden, beispielsweise für Galaxien oder Planetenringsysteme. Der Radius ist ein Messwert, wenn die Entfernung des Objekts bekannt ist und dessen scheinbare Größe hinreichend genau gemessen werden kann. Dies ist beispielsweise für die größeren Objekte des Sonnensystems und für zahlreiche Galaxien der Fall. Ansonsten kann für viele Objekte ein Radius aus anderen gemessenen Werten hergeleitet werden (beispielsweise bei Sternen aus Entfernung, Helligkeit und spektraler Zusammensetzung des Lichts, oder bei Exoplaneten u. a. aus der Abschwächung des Zentralstern-Lichts bei einem Transit). Weblinks Einzelnachweise Kreisgeometrie Raumgeometrie Astronomische Messgröße
Q173817
437.268494
968641
https://de.wikipedia.org/wiki/Meinungsjournalismus
Meinungsjournalismus
Als Meinungsjournalismus bezeichnet man eine Form des Journalismus, in der klar Stellung zu bestimmten Themen bezogen wird. Er unterscheidet sich damit vom interpretativen Journalismus, der mehrere Standpunkte zitiert, um dem Leser zu ermöglichen, sich seine eigene Meinung zu bilden. Eine spezifische Ausprägungsform des Meinungsjournalismus ist der anwaltschaftliche Journalismus. Der Meinungsjournalismus war die Ursprungsform des Journalismus und beherrschte bis zum Ersten Weltkrieg die Medienwelt. Heute hat er insbesondere nach dem Aufstieg des interpretativen Journalismus ab den 1950er Jahren etwas an Boden verloren, er nimmt jedoch weiterhin, nicht zuletzt durch die Abschaffung der Fairness-Doktrin in den USA, seinen Platz in den Medien ein. Merkmale des Meinungsjournalismus Der Meinungsjournalismus verwendet die argumentative Schreibweise, die auf klaren Argumenten basiert, mit denen der Journalist den Leser zu überzeugen versucht. Argumente können vielfältiger Natur sein: Daten, Entwicklungen, Zitate von Autoritäten (z. B. Experten), Statistiken oder eigene Beobachtungen. Sie werden benutzt, um die These des schreibenden Journalisten zu stützen und seine Schlussfolgerungen plausibler zu machen. In der Regel stellt der Journalist in einem Meinungsartikel zunächst seine These auf, stützt sie dann mit Hilfe von Argumenten und kommt schließlich zu einer Schlussfolgerung, die die These erweitert und inhaltlich abschließt. Ausnahmen von dieser Regel sind freiere Genres wie Chronik und Kolumne (siehe unten). Genres Das häufigste Genre des Meinungsjournalismus ist der Kommentar. Er nimmt Stellung zu einem spezifischen, aktuellen Thema und begleitet eine Nachricht oder einen Bericht. Kommentare findet man sowohl in grafischen Medien (insbesondere in Zeitungen und Online-Medien, weniger in Zeitschriften), als auch im Radio und in etwas geringeren Maße im Fernsehen, wo er meist Teil von Magazin-Sendungen ist. Der Kommentar wird von einem spezifischen Journalisten firmiert, der sich in Text oder Bild klar zu erkennen gibt. Einen kurzen, in satirisch-bissiger Sprache geschriebenen Kommentar nennt man auch Glosse. Eine Sonderform des Kommentars ist der Leitartikel, der nur in grafischen Medien vorkommt. Er gibt die Meinung der Redaktion wieder und ist normalerweise nur einmal im Medium vertreten. Leitartikel zeichnen sich dadurch aus, dass sie nicht einem bestimmten Journalisten zugeordnet werden können, aber dennoch klar Stellung zu einem Thema beziehen. Die Kolumne wiederum ist ein periodisch erscheinender Artikel eines regelmäßig schreibenden Journalisten, dem sogenannten Kolumnisten. Kolumnen nehmen oft Stellung zu Themen, die abseits der Schlagzeilen liegen, jedoch nach Meinung des Schreibenden im Interesse der Allgemeinheit stehen sollten. Sie sind in ihrer Form wesentlich freier als Kommentare und Leitartikel und haben oft eine Sprache ähnlich der in der Literatur verwendeten, sie beziehen also erzählerische, manchmal auch fiktive Inhalte mit ein. Kolumnen sind am häufigsten in grafischen Medien zu finden, seltener im Radio und in audiovisuellen Medien. Die Kritik oder Rezension bezieht sich auf ein bestimmtes Werk im kulturellen Bereich und gibt die Meinung des Journalisten dazu wieder. Besonders seit dem Aufkommen des World Wide Web in den 1990er Jahren findet man häufiger Mischformen zwischen den verschiedenen Genres des Meinungsjournalismus, die vor allem in Online-Magazinen verbreitet sind. Eine besonders aktuelle Form ist das Weblog, eine stilistisch sehr freie Mischform aus Kommentar und Kolumne, in der der Schreiber in regelmäßigen Abständen seine Sicht von aktuellen Ereignissen darstellt, ähnlich einem Tagebuch. Siehe auch Journalistische Darstellungsform Meinungsbildung Wertung Journalismus
Q156035
145.290857
81204
https://de.wikipedia.org/wiki/Athos
Athos
Der Berg Athos (, ; seit byzantinischer Zeit meist , „Heiliger Berg“) ist eine orthodoxe Mönchsrepublik mit autonomem Status unter griechischer Souveränität in Griechenland. Geographie Der Athos befindet sich auf dem gleichnamigen östlichen Finger der Halbinsel in der Region Zentralmakedonien. Das Territorium misst 43 Kilometer von Nordwest nach Südost und umfasst rund 336 km²; es zählt 1811 (mönchische) Einwohner zuzüglich Verwaltungsangestellten, Polizisten, Geschäftsbesitzern und einer saisonal wechselnden Zahl von zivilen Arbeitern. Im allgemeinen Sprachgebrauch steht der Begriff „(Berg) Athos“ entweder für die ganze Halbinsel Athos mit dem Mönchsstaat oder auch nur für den eigentlichen Berg an der Südost-Spitze der Halbinsel, der 2033 Meter hoch ist. Die maximal 8,5 km breite Halbinsel im geographischen Sinn reicht rund 6,9 bis 9 Kilometer weiter nach Westen bis zum Isthmus, der früher vom Xerxes-Kanal durchschnitten war. Die gesamte Athos Halbinsel ist als Natura 2000 Schutzgebiet Chersonisos Athos ausgewiesen. Geschichte Wenn auch gelegentlich der Beginn der Geschichte der Klöster und Mönchsrepubliken auf dem Athos bis weit in die frühchristliche Zeit zurückverfolgt wird, so lassen sich die ersten sicheren Hinweise auf mönchisches Leben auf dem Athos wohl erst zu Beginn des 9. Jahrhunderts in byzantinischer Zeit nachweisen. Die Geschichte der Athos-Klöster ist eng mit dem Streit um das rechte mönchische Leben verbunden, der in der Orthodoxie immer wieder – und eben auch auf dem Athos – heftig aufflammte: der Hesychasmus-Streit zwischen Hesychasten und byzantinischen Humanisten. Der Wortführer der hesychastischen Seite war der Athos-Mönch Gregorios Palamas (1296/1297–1359), der die vollkommene innere Ruhe (griech. ἡσυχία, hēsychía) in eremitischer Einsamkeit durch ständiges Beten des Jesusgebets als Voraussetzung sah, um das Licht der Verklärung Jesu, das sogenannte „Taborlicht“ zu sehen. Seine Theologie verschaffte der hesychastischen Praxis ihre theoretische Begründung und Rechtfertigung. Palamas verteidigte den Hesychasmus gegen die Kritik Barlaams von Kalabrien, der im Sinne eines nominalistischen Humanismus Kritik an der mystischen Praxis und ihrer Begründung durch die Schriften von Gregorios Palamas übte. Auf mehreren Konzilien in Konstantinopel fiel im Zeitraum von 1341 bis 1351 die Entscheidung der byzantinischen Kirche, zunächst die Gegner des Hesychasmus zu verurteilen und dann die theoretische Begründung des Hesychasmus durch Gregorios Palamas („Palamismus“) zur verbindlichen Kirchenlehre zu erheben. Seit dem 11. Jahrhundert hatte der Berg Athos auch für die Christen der Kiewer Rus große Bedeutung. Es entstanden Klöster für Mönche aus der Rus. Vom 15. Jahrhundert an trugen die Moskauer Fürsten zur Finanzierung der Klöster bei und gründeten eigene. Sie wurden vom 16. Jahrhundert an dem Moskauer Patriarchat unterstellt. Um die Wende zum 20. Jahrhundert, also 550 Jahre nach ersten großen Auseinandersetzungen, fand der theologische Grundsatzstreit um den Hesychasmus zwischen Realisten und Nominalisten, zwischen rationalistischen Theoretikern und den an der mystischen Praxis orientierten Theologen, eine Fortsetzung. Er ging als Streit um die Imjaslavie-Bewegung, die Verehrung des Namens Gottes, in die Geschichte des Athos und der Orthodoxie ein. Der Streit trug nicht unwesentlich zum Niedergang des „russischen Berg Athos“ bei. Da sich die Mönche gegen den Heiligen Synod, die unter staatlicher Kontrolle stehende Kirchenführung im Zarenreich, stellten, ließ der russische Botschafter in Istanbul mit Hilfe von Soldaten und Feuerwehrleuten mehr als 1000 Mönche aus ihren Klöstern vertreiben und nach Russland deportieren. Ein Immobilien-Skandal im Jahr 2008 um das Kloster Vatopedi stürzte die griechische Regierung. Der Abt des Klosters, Archimandrit Efraim, wurde am 25. Dezember 2011 von der griechischen Polizei festgenommen, das Vermögen des Klosters wurde eingefroren. Auch noch im Jahr 2022 galt laut Vasilios Makrides der unbestrittene Einfluss der russischen Kirche auf die Mönchsrepublik als erheblich und Russland versuche, den kulturellen Einfluss auf den Norden Griechenlands auszuweiten. Russische Staatsbeamte und Oligarchen versuchten mit Spenden, bestimmte Geistliche und die russische Präsenz zu stärken. Es wurde über falsche Mönche berichtet und den Kampf gegen Kriegspropaganda auf russischen Websites, welche „Vertreibungen“ russischer Mönche herbei schrieben. Weltkulturerbe Die 20 Großklöster der orthodoxen Mönchsrepublik sind Teil des UNESCO-Welterbes. Das erste Kloster, die Große Lavra, wurde 963 vom byzantinischen Mönch gegründet. Bis zu diesem Zeitpunkt siedelten auf dem Athos bereits Mönche, die sich an den Vorbildern der asketischen Mönche im Alten Ägypten orientierten. Bald gründeten bulgarische, rumänische, russische, georgische und serbische Mönche weitere Großklöster auf dem Berg Athos. Es gab auch italienische Gemeinden, z. B. die der sogenannten Amalfitaner (nach der Stadt Amalfi) südlich des Klosters Karakallou, welche jedoch im 12. Jahrhundert verlassen wurden. Heute gibt es 20 Großklöster, davon sind 17 griechisch, eines serbisch (Kloster Chílandar), eines bulgarisch (Kloster Zografou) und eines russisch (Kloster Panteleímonos). Neben den Klöstern gibt es auf dem Athos die Siedlungsform der Skiten (griechisch ), die jeweils von ihrem Mutterkloster abhängen, somit keine eigenständigen Rechte in Regierung und Verwaltung der Mönchsrepublik besitzen. Skiten, rund um einen klösterlichen Zentralbau angelegt, der in Gebäuden und Funktionen den größeren Klöstern gleicht, sind dörfliche Siedlungen, deren Bauten in (griechisch ), Wohnbauten für mehrere Mönche, und (griechisch ), Hütten für einen Bewohner, unterschieden werden. Außerdem siedeln an den schwer zugänglichen Hängen des eigentlichen Berges Athos Mönche in Eremitagen (griechisch , Hesychasterien), zumeist Kleinstbauten und Höhlen. Berühmt sind die Malerwerkstätten des Athos, deren große Tradition der Ikonenmalerei bis ins Hochmittelalter zurückreicht. Siedlungen, Klöster, Skiten und ihre Bewohner Die folgende Statistik (Zensus 2001 und 2011) zeigt, dass nach langem Niedergang in den letzten Jahren wieder verstärkter Zuzug auf den Heiligen Berg festzustellen ist. Darüber hinaus sind Umschichtungen zwischen Klöstern und Skiten erkennbar. Klöster Das Kloster Zographou ist bulgarisch-orthodox, das größte Kloster Agiou Panteleimonos (Rossikon) russisch-orthodox, das Kloster Hilandar serbisch-orthodox. Skiten und Siedlungen Lebensform Die meisten Klöster waren früher idiorhythmisch organisiert. Noch 1986 wollten die Mönche von Vatopedi diesen Lebensstil beibehalten und verweigerten die Aufnahme jüngerer Mönche aus Klöstern, die seit 1980 zum koinobitischen Lebensstil zurückgekehrt waren, ebenso wie es die klosterähnlichen Skiten (zum Beispiel , u. a.) waren. Demgegenüber leben aber die Mönche in den dorfähnlichen Skiten (zum Beispiel , u. a.) idiorhythmisch. Die Klöster folgen weiterhin dem julianischen Kalender, der gegenüber dem ab 1582 in Westeuropa und 1923 in Griechenland eingeführten gregorianischen Kalender mittlerweile um 13 Tage nachläuft. Die Stundeneinteilung orientiert sich ebenfalls am byzantinischen Vorbild: Der Tag beginnt also mit Sonnenuntergang (null Uhr) (Italienische Stunden); allein das Kloster von Iviron zählt die Stunden ab Sonnenaufgang (Babylonische Stunden). Pilgerreisen Auf dem Berg war die Fortbewegung lange Zeit nur zu Fuß oder mit Maultieren möglich. Im Jahr 1963 wurde zur 1000-Jahr-Feier die erste Schotterstraße zwischen Dafni, dem Hafen von Athos, den man per Schiffsverbindung von Ouranopolis aus erreicht, und der Hauptstadt Karyes gebaut. Inzwischen sind alle 20 Klöster des Athos an das Straßennetz angeschlossen und werden regelmäßig von Geländewagen oder Bussen angefahren. Einige Skiten im gebirgigen Südteil der Halbinsel sind aber weiterhin nur über Maultierpfade oder per Schiff erreichbar. Die Halbinsel ist für männliche Pilger, jedoch nicht für Touristen zugänglich. „Neubekehrte“ russische Oligarchen und Beamte, darunter Sergei Naryschkin bildeten in den Nullerjahren einen elitären „Athos-Klub“, worauf es zur Erstellung von Luxus-Cottages mit Resort-Infrastruktur kam. Die unermesslichen Spenden aus Russland wurden im Sommer 2022 von Griechenland blockiert, nachdem Presseberichte behaupteten, Athos würde als Aufklärungs- und Sabotagezentrum missbraucht. Zutrittsverbot für Frauen (Ávaton) Das Zutrittsverbot ist seit dem Jahr 1045 in Kraft. Seitdem dürfen Frauen keinen Fuß auf die Halbinsel setzen. Schiffe mit Frauen an Bord müssen von der Athosküste einen Abstand von 500 Metern einhalten. Der Athos heißt auch und sei im theologischen Sinne einzig und allein der obersten Heiligen der orthodoxen Kirche, Maria, vorbehalten. So ist der Zutritt zum Berg Athos Frauen grundsätzlich untersagt. Die Frau auf dem Berg Athos war im 19. Jahrhundert ein beliebtes literarisches Motiv, so in der Oper Der heilige Berg (1914) des norwegischen Komponisten Christian Sinding. Bei der Aufnahme Griechenlands in die Europäische Gemeinschaft im Jahr 1981 wurde der politisch-rechtliche Sonderstatus der Mönchsrepublik anerkannt, dennoch hat in jüngster Zeit das wiederholt zu Kontroversen mit der Europäischen Union geführt; so forderte das Europaparlament zuletzt 2003 in einem nicht bindenden Beschluss mit knapper Mehrheit dessen Abschaffung. Immer wieder wurde das Avaton von Frauen übertreten. So von Helena, der Frau des serbischen Herrschers Stefan Uroš IV. Dušan im 14. Jahrhundert: Er wollte sie der Legende nach vor der Pest schützen und brachte sie deshalb zu den Mönchen. Damit sie das Gesetz nicht brach, setzte sie angeblich keinen Fuß auf den Boden – sie wurde immer in einer Sänfte herumgetragen. Die französische Autorin Maryse Choisy war in den 1920er Jahren als Matrose verkleidet in Athos (beschrieben in ihrem Buch Ein Monat unter Männern). Das Time-Magazin berichtete 1953 von einer griechischen Schönheitskönigin, die sich als Mann ausgab und Athos besuchte. Fünf griechische Urlauberinnen betraten 1969 eigenmächtig das Gebiet des Athos. Eine deutsche Touristin verirrte sich 1989 in den Mönchsstaat. Im Januar 2008 übersprangen sechs griechische Frauen vor laufender Kamera die Grenze zum Mönchsstaat, um gegen Gebietsansprüche der Mönche außerhalb des Athos zu protestieren. Nutztierhaltung Das Verbot weiblicher Wesen auf Athos betrifft auch die Haltung von Haustieren – außer den allgegenwärtigen Katzen, die einen gewissen Schutz vor Mäusen, Ratten und Schlangen gewähren, sowie den zahlreichen Bienenvölkern. Als Lasttiere werden (männliche) Esel, Pferde und Maultiere von außerhalb bei Bedarf eingeführt. Die immer wieder kolportierte Geschichte von den Hühnern, die Eidotter für Ikonenmaler liefern, ist in den heutigen Zeiten eines gut organisierten und motorisierten Warenverkehrs auf dem Athos obsolet. Verwaltung Die Mönchsrepublik gehört völkerrechtlich zu Griechenland, genießt staatsrechtlich jedoch einen Autonomiestatus. Dadurch obliegen ihr einige innenpolitische Entscheidungen und die Verwaltung des Berges. Ebenso gehört der Berg Athos nicht zum steuerlichen Gebiet der Europäischen Union. Der Berg Athos gehört aber zum Schengen-Raum. Jedes Kloster ist innerhalb der Mönchsrepublik autonom und wird von einem auf Lebenszeit gewählten Abt geleitet. Die Macht liegt bei den 20 Großklöstern, von denen Kleinklöster , Mönchsdörfer (Skiten) und Einsiedeleien abhängen. In dem kleinen Hauptort Karyes befindet sich die Kirche des Protaton sowie das Gebäude der (‚Heilige Versammlung‘), die aus den Äbten der 20 Klöster besteht und legislative und judikative Funktionen wahrnimmt. In Karyes gibt es 19 Kellia (‚Zellen‘), in denen die Äbte untergebracht sind. Eine Ausnahme hierzu bildet das Kloster Koutloumousiou, da es in der Nähe von Karyes angesiedelt ist und demzufolge eine eigene Zelle nicht benötigt. Karyes ist der Sitz der (‚Heilige Zusammenkunft‘), des „Parlaments“, in das jedes Großkloster einen Vertreter (, Nominativ) entsendet. Der (‚der Erste‘), der jährlich neugewählte Vorsitzende der Exekutive, hat seinen Sitz ebenfalls dort. Der staatliche Gouverneur Griechenlands auf dem Athos untersteht dem griechischen Außenministerium und ist zusammen mit einigen Beamten und Polizisten für die Einhaltung der Verfassung des Athos und die Wahrung von Sicherheit und Ordnung zuständig. Post Postalisch gehört Athos zu Griechenland, auf dem Gebiet befinden sich zwei Postfilialen, die durch die Griechische Post (ELTA) betrieben werden. Mit Autorisierung durch den Weltpostverein wurden von 2008 bis 2017 für Athos eigene Briefmarken ausgegeben, die nur für Sendungen gültig waren, die dort aufgegeben wurden. Kfz-Kennzeichen Seit 1983 vergab Athos Kfz-Kennzeichen für die wenigen Fahrzeuge, die innerhalb deren Gebiets im Einsatz waren. Diese waren jedoch außerhalb nicht gültig oder anerkannt. Seit 2004 gibt es eine neue Serie. Diese Kennzeichen tragen links das griechische Banner mit GR-Kennzeichnung, aber eine eigene Nomenklatur (AO 999 99) und die in Griechenland nicht verwendete FE-Schrift. Sie sind weltweit gültig und unterscheiden sich von den übrigen griechischen Kennzeichen, da die Mönchsrepublik nicht zum steuerlichen Gebiet der EU gehört. Ultrakonservative Besetzung des Zentralgebäudes von Esfigmenou Für internationale Schlagzeilen sorgte im Dezember 2005 die Besetzung des Konáki (Sitz des Vorstandes der Mönchsrepublik) durch 20 Mönche des Klosters . Damit protestierten sie gegen den Beschluss der übrigen 19 Klöster, die Vertretung ihres Klosters in den Gremien der Mönchsrepublik nicht mehr anzuerkennen. Ausgelöst wurde der Eklat nach jahrzehntelang schwelender Krise 2003, als die Mönche von dem Oberhaupt der orthodoxen Kirche, Patriarch Bartholomäus I. von Konstantinopel „Verrat an der Orthodoxie“ vorwarfen, weil er mit der römisch-katholischen Kirche Gespräche aufgenommen hatte. Daraufhin forderte der Patriarch die Rebellen zum Verlassen der Mönchsrepublik auf. Die Mönche von ignorierten die Forderung. Im Dezember 2006 kam es zu einer gewalttätigen Auseinandersetzung, als gemäßigte Mönche versuchten, den besetzten Verwaltungskomplex zu räumen. Es gab eine Handvoll Verletzte, aber die Besetzung dauert an. Die griechische Regierung bot Polizei- und Militärhilfe an, was vonseiten der Mönche abgelehnt wurde. Im August 2008 drohten die Mönche damit, sich und ihr Kloster in die Luft zu sprengen, falls die Polizei versuche, es zu räumen. „Orthodoxie oder Tod“ ist denn auch das Motto dieser auch Zeloten genannten Mönche der GOC (Kirche der wahren orthodoxen Christen Griechenlands). Die Mönche hielten die Räumlichkeiten auch im Jahr 2022 besetzt. Auf Nachfrage der NZZ beklagte Abt Bartholomäus die klandestinen Bewegungen der Unterstützer illegal über die Landesgrenzen; niemand wisse genau, wer sich in dem besetzten Gebäude verstecke. Es sei auch unbekannt, in welchem Zustand die jahrhundertealten Reliquien, Bücher und Ikonen seien und ob sie überhaupt noch dort seien. Klosterbrand am 3./4. März 2004 Bei einem Feuer in der Nacht vom 3. zum 4. März 2004 im serbischen Kloster Hilandar wurden zwei Drittel der Klosteranlage ein Raub der Flammen. Ursache des Feuers war möglicherweise ein Schwelbrand in einem Kamin einer Mönchszelle, von wo aus der Brand zuerst auf den Gästetrakt, dann auf den Wohnbereich der Mönche übergriff. Der gesamte Gästetrakt (das sog. Archondaríki), die Magazine, Vorratsräume des Klosters und etwa 100 Mönchszellen wurden zerstört. Vor dem Wehrturm des Klosters, in dem alle wertvollen Handschriften, Ikonen und liturgischen Geräte untergebracht sind, kam das Feuer zum Stillstand. Die zentrale Klosterkirche (das sog. Katholikón) und der Speisesaal (die sog. Trápeza) blieben vom Feuer verschont. In Medienberichten wurden auch andere Brandursachen, darunter auch Brandstiftung, diskutiert. Obwohl immer noch kleinere Brände von den Feuerwehren bekämpft werden mussten, konnten die Mönche schon ab dem Abend des 5. März wieder ihre Gottesdienste im Katholikón feiern. Schon wenige Wochen nach dem Brand konnten auch wieder Pilger beherbergt werden. Der ehemalige serbische Ministerpräsident Vojislav Koštunica rief in seinem Land zu Spenden für die Wiederherstellung des Klosters auf und auch die serbisch-orthodoxe Kirche sammelte Mittel zur Restaurierung. Der Berg Athos in alpinistischer Hinsicht Die höchste Erhebung der Athos-Halbinsel ist der Berg Athos im engeren Sinne, ein kegelförmiges und auf allen Seiten steiles Bergmassiv mit nur einem einzigen deutlich ausgeprägten Gipfel (). Es ragt am südöstlichen Ende der Athos-Halbinsel direkt aus dem Meer auf und erreicht somit einen für nichtvulkanische Gebirgsmassive bemerkenswerten Höhenunterschied von über 2000 Metern auf kürzester horizontaler Distanz. Während der Berg Athos nach Norden hin mit schroffen Wänden abbricht, bietet die Südflanke eine gute Aufstiegsmöglichkeit. Von einer der Skiten im südlichen Teil der Halbinsel oder vom Kloster Megistis Lavras her kommend, führt ein durchgehend gut erkennbarer Pfad von der Wegkreuzung über die bunkerartige Kapelle (1.500 m) zum Gipfel hinauf. Er bietet keine technischen Schwierigkeiten und ist aufgrund der unterschiedlichen Vegetationszonen und der weiten Ausblicke aufs Meer hinaus abwechslungsreich und landschaftlich sehr reizvoll. Trotz der bescheidenen Höhe von 2033 m bietet der Berg Athos durchaus alpine Anforderungen, da er sehr exponiert jeden Wetterwechsel einfängt, auch im Sommer mit plötzlichem Schneefall überraschen kann, tagsüber oft in Wolken gehüllt ist und in den frühen Morgenstunden das Thermometer am Gipfel oft unter Null Celsius fällt. Diese Wetterbesonderheit ist seit dem Altertum bekannt, da geschichtlich überliefert ist, dass die Flotte der Perser beim ersten Feldzug unter Darius I. bei der Umsegelung des Athos in einen schweren Sturm geraten waren, der erhebliche Verluste verursacht hatte. Dies ist auch der geschichtliche Hintergrund für den Bau des sog. Xerxes-Kanal im Norden des Athos bei Ouranopoulos beim zweiten Invasionsversuch der Perser unter Xerxes. Auf dem Gipfel befindet sich eine kleine Kapelle, („Verklärung des Heilands“), in der einmal im Jahr, am Festtag der Verklärung Christi (am 6. August nach julianischem Kalender, am 19. August nach gregorianischem) eine Nachtwache gefeiert wird. Pilger, die den Berg besteigen wollen, können sowohl in der als auch in der Gipfelkapelle eine Notunterkunft finden. Die Besteigung des Athos erfordert keine besonderen alpinistischen Fähigkeiten. Im Sommer 2018 war die Gipfelkapelle wegen Bauarbeiten geschlossen, wobei das gesamte Gipfelplateau renoviert und gepflastert wurde. Am Gipfel tritt eine Gesteinsader eines blütenweißen sog. Carrara-Marmors zu Tage, welcher zum Teil für die Renovierung genutzt wird. Siehe auch Vertrag von Sèvres mit Griechenland Berliner Vertrag 1878 (Art. 62) Literatur Efraim Archimandrit: Das Große Kloster Vatopaedi. Ein Handbuch für den Pilger. Edition Hagia Sophia, Straelen, 2010. Costas Balafas: . Agion Oros u. a. 2006. Ernst Benz: Patriarchen und Einsiedler. Düsseldorf 1964. Rudolf Billetta: Der Heilige Berg Athos in Zeugnissen aus sieben Jahrhunderten. Fünf Bände, Mosaic-Publications, Wien-New York-Dublin 1992–1994. Rudolf Billetta: Athos. Europa erlesen. Wieser Verlag, Klagenfurt/Celovec 2000. Heinrich Brockhaus: Die Kunst in den Athos-Klöstern. Leipzig 1924. Robert Byron: . Weidenfeld & Nicholson history, 2000. Robert Byron: Der Berg Athos. Reise nach Griechenland (Die Andere Bibliothek Band 442). Aus dem Englischen von Niklas Hoffmann-Walbeck. Mit einem Nachwort von Wieland Freund. Berlin 2020, ISBN 978-3-8477-0422-5. Massimo Capuani, Maurizio Paparozzi: Athos. Die Klostergründungen; ein Jahrtausend Spiritualität und orthodoxe Kunst. München 1999. Dimitri E. Conomos: . Oxford u. a. 2005. Freddy Derwahl, Hans-Günther Kaufmann: Athos. Das Heilige berühren. Augsburg 1997. Franz Dölger: Mönchsland Athos. München 1943. Franz Dölger: Aus den Schatzkammern des Hl. Berges. München 1948. Hartmut Engel, Ulrike Engel: Chalkidiki mit Insel Thasos. 40 ausgewählte Wanderungen und Sonderteil zum Berg Athos. Ottobrunn 2000. Paul Evdokimov: Das Gebet der Ostkirche. Graz 1986. Jakob Philipp Fallmerayer: Der Hl. Berg Athos. Bozen 1978. Samir Girgis, Andreas Knoche, Karl-Heinz Knoche: Athos – Pilgerreisen zum Heiligen Berg, Bingen 2014, ISBN 978-3-939154-10-5. Alexander Golitzin: . South Canaan, Pa. 1996. René Gothóni, Graham Speake (Hrsg.): The monastic magnet. Roads to and from Mount Athos. Oxford 2008. Inhaltsverzeichnis Johann Günther: Athos-Impressionen. Unterweitersdorf 1996, ISBN 3-901279-53-9. Mit einem Beitrag von Pater Mitrophan. Ellen Hastaba u. a.: Der heilige Berg Athos. Bozen 2002. Paul Huber: Athos. Zürich 1969. Antonis Iordanoglou: . Road Editions, Greece 2005. Emil Ivanov: Das Bildprogramm des Narthex im Rila-Kloster in Bulgarien unter besonderer Berücksichtigung der Wasserweihezyklen. Dissertation. Erlangen 2002 (mit vergleichenden Beispielen zu den Athosdenkmälern). Erhard Kästner: Die Stundentrommel vom Hl. Berg Athos. Frankfurt/Main 1956. Werner Köppen: Wo die Welt vergessen wird. Mainz 1981, ISBN 978-3-7867-0869-8. Rolf Kuhlmann: Der Athos. Auf den Spuren einer Faszination. Frankfurt am Main 1998. Jean-Yves Leloup: Worte vom Berg Athos. München 1981. Philip Meyer: Die Haupturkunden für die Geschichte der Athosklöster. Amsterdam 1965 (Reprint) Andreas A. Müller: Berg Athos. Geschichte einer Mönchsrepublik. München 2005. Paul M. Mylonas: Atlas des Athos. Berlin/Athen 2000. ISBN 3-8030-1047-0 . Volker Reichert: Athos. Reisen zum Heiligen Berg 1347–1841. Stuttgart 2001. Günter Spitzing: Athos. Der Heilige Berg des östlichen Christentums. Köln 1990. (ohne Autorenangabe): Ritualbuch des Heiligen Berges. Athos-Typikon. Evangelische Verlagsanstalt, Leipzig 2005. Kurt Weitzmann: Aus den Bibliotheken des Athos. Hamburg 1963. Tasos Zembylas: Die Mönchsrepublik Athos. Eine spirituelle Gesellschaft mit beschränkter Haftung. Passagen Verlag, Wien 2010. Weblinks Athos-Seite (englisch) Enzyklopädie des Europäischen Ostens/Universität Klagenfurt Der Berg Athos – Geschichte und Mythologie Besuchen Sie den Berg Athos (englisch) Verein der deutschen Freunde des Agion Oros Athos e. V. – Informationen über den Heiligen Berg Einzelnachweise Welterbestätte in Europa Welterbestätte in Griechenland Zweitausender Berg in Europa Berg in Griechenland Ökumenisches Patriarchat von Konstantinopel Gemischte Welterbestätte
Q130321
163.344121
5017
https://de.wikipedia.org/wiki/Spielkonsole
Spielkonsole
Eine Spielkonsole (auch Videospielkonsole, umgangssprachlich auch nur Konsole genannt) ist ein elektronisches Gerät, das im Gegensatz zu Allzweck-Computern ausschließlich oder hauptsächlich zum Ausführen von Videospielen gedacht ist. Manche Konsolen sind auch für andere Zwecke wie etwa Video- und Musikstreaming verwendbar, oder es ist eine entsprechende Nachrüstung möglich. Stationäre Konsolen bestehen meist aus einer Basiseinheit mit ein oder mehreren Controllern zur Steuerung des Spiels. Zur Ausgabe der Ton- und Bildinhalte dienen dabei handelsübliche Fernseher und Monitore. Tragbare Konsolen dagegen vereinen Basiseinheit, Controller und Anzeige in einem einzigen handlichen Gerät, weswegen sie auch als Handheld-Konsolen (von englisch handheld, zu deutsch handgehalten) bezeichnet werden. Geschichte stationärer Spielkonsolen Diese kann man grob in mehrere Abschnitte bzw. sogenannte Konsolengenerationen einteilen (siehe Literatur), wobei die Zuordnung und Zählweise von Quelle zu Quelle oft variiert. Einige Angaben ignorieren beispielsweise die Anfänge vor dem sogenannten „Video Game Crash“ im Jahr 1983 und zählen die hier dritte Generation zur ersten. Die Anfänge Die erste Spielkonsole der Welt war die 1968 von Ralph Baer entwickelte Brown Box bzw. die im Jahre 1972 erschienene lizenzierte Version namens Magnavox Odyssey. Da die Geräte der ersten Generation ausschließlich für den Anschluss an handelsübliche Fernsehgeräte vorgesehen sind, wurden sie in Deutschland meist Telespiele oder Tele-Spiele genannt. Zu den ersten Konsolenspielen überhaupt gehört Pong. Die Konsolen der ersten Generation bieten nur vorgegebene Spielvarianten, austauschbare Spielmodule gab es nicht. Bei diesen Geräten handelt es sich nicht um Computer im eigentlichen Sinne; es gibt keine Programme, denn die einzelnen Spiele werden direkt durch festverdrahtete elektronische Schaltkreise erzeugt. Außerdem verfügen sie noch nicht über einen Mikroprozessor. Zu den Konsolen der ersten Generation zählen unter anderen die Home-Pong-Konsolen von Atari oder die Coleco-Telstar-Konsolen von Coleco. 8-Bit-Ära bis zum Video-Game-Crash (November 1976 bis 1982) Die Konsolen der zweiten Generation konnten einfache 2D-Grafiken darstellen, bieten im Vergleich zu späteren Konsolen nur sehr wenige Farben, besitzen keine Grafikbeschleunigung und einen nur sehr beschränkten Speicher. Es handelt sich technisch gesehen schon um richtige Computer. Als CPU kamen (abgesehen vom Intellivision) 8-Bit-Prozessoren (zuerst auch 4-Bit-Prozessoren) zum Einsatz, als Speichermedien wurden bereits Steckmodule verwendet. Im Jahr 1983 brach der Videospiele-Markt ein, die Lücke in der Spielkonsolen-Geschichte wurde durch Heimcomputer gefüllt; siehe Geschichte der Videospiele. Man prophezeite das Ende der Spielkonsolen-Ära, bis neue Konsolen, wie z. B. das Nintendo Entertainment System, einen Teil des Marktes zurückeroberten. 8-Bit-Ära nach dem Video-Game-Crash (1982 bis 1987) Die dritte Generation bot im Vergleich zur zweiten verbesserte 2D-Grafikfähigkeiten, mehr Farben, Grafikbeschleunigung und einen etwas größeren Speicher. Auch hier wurden noch 8-Bit-Prozessoren verwendet. 16-Bit-Ära (1988 bis 1993) Die vierte Generation besaß meist 16-Bit-Prozessoren, bereits umfangreiche 2D-Grafiken, rudimentäre 3D-Grafikfähigkeiten und Möglichkeiten für größere Speichermodule und Erweiterungen. Erstmals wurde auch die CD als Speichermedium verwendet. Durchbruch der 3D-Konsolen (1993 bis 1999) Die fünfte Generation bot 3D-Grafikfähigkeit, gerenderte Videosequenzen und bessere Sound-Chips. Die meisten Konsolen verwendeten ab dieser Generation CDs anstelle von Modulen als Speichermedium. Dazu kamen erstmals Vibrationsfunktionen an Controllern, Memory-Cards zum Speichern von Spielständen, das Abspielen von Audio-CDs und in Ausnahmefällen ein Online-Zugang zum Einsatz. Erweiterte Multimediafunktionen (1998 bis 2005) Die sechste Generation bot teils erweiterte Multimediafähigkeiten (Video-DVDs abspielbar, Onlinezugang, Mehrkanalton, Fernbedienung optional), teilweise optische Audio-Ausgänge, USB- und Netzwerkanschlüsse, verbesserte 3D-Grafik und einen optionalen Einbau von Festplatten. Erweiterte Onlinefunktionalitäten und Bewegungssteuerung (November 2004 bis 2010) Die Konsolen der siebten Generation sind via Dial-up, Ethernet oder WLAN onlinefähig und bieten erweiterte Multimedia-Fähigkeiten. Noch bedeutender in dieser Generation war allerdings der vermehrte Einsatz bzw. die feste Etablierung von Spielsteuerungen mittels Bewegungen. Dabei unterscheiden sich die verschiedenen Konzepte der Hersteller zur Umsetzung einer Bewegungssteuerung enorm. Microsoft und Sony entwickelten ihre Konsolen mit Xbox 360 bzw. PlayStation 3 konsequent weiter in Richtung Steigerung der Rechenleistung und Grafikfähigkeiten sowie der Wiedergabe von DVD-Nachfolgerformaten. Sony benutzte zudem einen kabellosen bewegungsempfindlichen Controller (Sixaxis), der dem ursprünglichen äußeren Design der PS2-Controller entspricht. Seit Juli 2008 sind auch aus den Vorgängermodellen bekannte Controller mit Dualshock-Funktion erhältlich. Nintendo grenzte sich dagegen deutlich von seinen beiden Mitbewerbern ab und setzte mit ihrer Konsole Wii bei kaum verbesserter Grafikleistung auf innovative Controller (Wiimote), die Bewegungssensoren und eine eingebaute infrarotempfindliche Kamera besitzen. Damit wird sowohl eine Lage- und Beschleunigungserkennung möglich wie auch die genaue Erkennung des anvisierten Punktes am Fernsehbild, ähnlich einer Maus am PC. Das 2009 erschienene Wii MotionPlus verbesserte die Bewegungserkennung zusätzlich. Mit vergleichsweise günstigem Preis und zugänglichem Spieledesign wurde versucht, zusätzliche Käuferschichten anzusprechen. Der Stromverbrauch liegt unter dem der beiden Mitbewerber. Später, im Jahr 2010, veröffentlichten auch Sony und Microsoft verbesserte Bewegungssteuerungen als Erweiterungen für ihre Konsolen. Während Sonys PlayStation Move sowohl einen bewegungsempfindlichen Controller als auch eine Kamera (PlayStation Eye), die diesen erkennt, beinhaltet, verzichtet Microsofts Kinect auf einen Controller und wird mithilfe einer Tiefensensor- und Farbkamera alleine durch Körperbewegungen gesteuert. Entertainment- und Einsteigerkonsolen (2010 bis heute) Die erste weltweit veröffentlichte Konsole der achten Generation war Nintendos Wii U, die am 18. November 2012 in Nordamerika erschien. Der Verkauf in Europa und Australien begann am 30. November 2012 und in Japan am 8. Dezember 2012. Die Konsole ist sowohl zur Software als auch zum Zubehör des Vorgängers Wii abwärtskompatibel. Technisch liegt das Gerät etwa auf dem Leistungsniveau der PlayStation 3 und Xbox 360. Hauptmerkmal ist ein Gamecontroller mit einem berührungssensitiven, integrierten Zweitbildschirm namens Wii U GamePad, der u. a. in Verbindung mit dem Spielgeschehen am Monitor/Fernseher für die Darstellung ergänzender Inhalte genutzt werden kann. Die PlayStation 4 wurde von Sony am 20. Februar 2013 der Öffentlichkeit präsentiert. Sie basiert erstmals auf einer x86-Mikroarchitektur, dem AMD Jaguar, und wurde als eine APU (Accelerated Processing Unit) realisiert. Prozessor und Grafikeinheit befinden sich somit auf einem gemeinsamen Chip. Die Auslieferung der Konsole erfolgte ab November 2013. Die Xbox One von Microsoft wurde am 21. Mai 2013 präsentiert und ebenfalls ab November 2013 ausgeliefert. Daneben präsentierten mehrere Anbieter neue Konsolenkonzepte, die häufig auf dem Betriebssystem Android für Mobilgeräte beruhen. In einem Beitrag, der sowohl auf der US-amerikanischen Branchenwebsite Gamasutra als auch vom britischen Spielemagazin Edge veröffentlicht wurde, bezeichnete Autor und Spieleentwickler Tadgh Kelly diese in Anlehnung an den Begriff Mikrocomputer für kostengünstige Heimcomputer wie den BBC Micro, den Commodore 64, den Sinclair Spectrum oder den Amiga als microconsoles (Mikrokonsole). Dabei handele es sich um nicht sonderlich große und im Vergleich zu den bisherigen Anbietern weniger leistungsfähige Geräte, die dafür wesentlich kleiner und günstiger seien und deren Spiele ebenfalls zu einem weitaus günstigeren Preis über den integrierten Onlineshop veröffentlicht würden. Laut dem US-amerikanischen Spielemagazin 1Up.com ziele außerdem keine dieser Konsolen darauf ab, mit anderen Anbietern um die Stellung als alleinige Spielemaschine zu konkurrieren. Zu den bekanntesten Vertretern dieser Mikrokonsolen zählt die mit Hilfe einer Crowdfunding-Kampagne über Kickstarter finanzierte Ouya. Mit der Auslieferung der Ouya wurde im April 2013 begonnen. Als Betriebssystem wird eine Android-Variante verwendet. Ausgerüstet mit einem Nvidia-Tegra-3-SoC (Quad-Core mit 1,4 GHz) verfügt die Konsole über 1 GB RAM und unterstützt über HDMI 1080p. Klassische Heimkonsolen Mikrokonsolen und andere Auf den ausbleibenden Erfolg der Wii U reagierte Nintendo mit der Entwicklung einer neuen Konsole. Die Nintendo Switch wurde am 20. Oktober 2016 auf YouTube sowie der offiziellen Website von Nintendo offiziell zum ersten Mal vorgestellt. Die Besonderheit der Switch ist ihre Hybridtechnik, die sie sowohl unterwegs als Handheld-Konsole als auch zuhause am Monitor als dann leistungsstärkere Heimkonsole nutzbar macht. Damit ist die Switch nicht nur als Nachfolger der Wii U, sondern de facto auch der Handheld-Konsole Nintendo 3DS. Hardwareseitig wandte sich Nintendo von IBMs PowerPC-Architektur ab, die seit dem Gamecube in den Konsolen des Unternehmens verbaut war. Allerdings blieb der stattdessen verwendete, modifizierte Tegra-X1-Prozessor von Nvidia weiterhin hinter der Leistung der Konkurrenzkonsolen von Sony und Microsoft zurück. Am 3. März 2017 wurde die Switch zum Verkauf freigegeben. Sony und Microsoft reagierten ihrerseits auf die zunehmende Beliebtheit von VR-Technik in Spielen (u. a. PlayStation VR und Nintendo Labo VR, veröffentlicht am 12. Oktober 2016) sowie die aufkommende Nachfrage nach HDR-Grafik, 4K-Bildschirmauflösung und stabileren Bildfrequenzen mit leistungsfähigeren Zwischengenerationen ihrer etablierten Konsolen, namentlich der PlayStation 4 Pro und der Xbox One X (Projektname Xbox Scorpio). Diese High-End-Versionen wurden parallel zu den bisherigen Modellen in den Verkauf gebracht. Alle Spieleveröffentlichungen blieben sowohl zu den alten als auch den neuen Konsolenversionen kompatibel, konnten auf einem Modell der Zwischengeneration jedoch möglicherweise bessere Leistungen erreichen. Die PlayStation 4 Pro erschien am 10. November 2016, die Xbox One X am 7. November 2017. Die Xbox One X wurde in dieser Konstellation gemeinhin als die leistungsfähigste Konsole bewertet. Gegenwart der Spielekonsolen (ab 2020) Die neunte Generation wurde beginnend mit Microsoft durch Ankündigung ihrer Spielekonsole unter dem Namen Xbox Series X am 9. Juni 2019 auf der Electronic Entertainment Expo in Los Angeles – damals noch mit dem Projektnamen Project Scarlett – eingeläutet. Am 8. September 2020 wurde die Xbox Series S angekündigt, eine günstigere, weniger leistungsstarke Variante ohne Disc-Laufwerk. Beide erschienen weltweit am 10. November 2020. Sony kündigte schließlich die Nachfolger-Konsole der PlayStation 4, die PlayStation 5, am 8. Oktober 2019 offiziell in einem Artikel auf dem US-amerikanischen PlayStation Blog an. Sie ist in zwei Versionen erhältlich: eine mit und eine ohne Laufwerk. Die Spezifikationen der beiden neuen Konsolen, die im November 2020 weltweit veröffentlicht wurden, sind: Trends der Konsolen dieser Generation sind u. a. schnellere Ladezeiten durch die Verwendung von Solid-State-Drives (SSDs), die Unterstützung von Raytracing, die zunehmende Anzahl an Spielen, die Bildfrequenzen von über 60 Bildern pro Sekunde unterstützen, größere Gehäuse mit besseren Kühlungs- und Belüftungssystemen und Schallschutz sowie alternative, günstigere Konsolenmodelle, die über keine Laufwerke mehr verfügen (siehe z. B. PlayStation 5 Digital Edition und Xbox Series S). Siehe auch Liste von Spielkonsolen Meistverkaufte Spielkonsolen Geschichte der Videospiele Literatur Evan Amos: The Game Console 2.0: A Photographic History from Atari to Xbox. No Starch Press, San Francisco 2021. Winnie Forster: Spielkonsolen und Heimcomputer 1972–2009. 3. Auflage, Gameplan, Utting 2009, ISBN 978-3-00-024658-6. Steven L. Kent: The Ultimate History of Video Games. 2 Bände. Crown, New York 2001 (Band 1) / New York 2021 (Band 2). Weblinks Einzelnachweise
Q8076
260.068532
457908
https://de.wikipedia.org/wiki/S%C3%BC%C3%9Fgrasartige
Süßgrasartige
Die Süßgrasartigen (lat. Poales, manchmal auch nur als Grasartige bezeichnet) sind eine Ordnung der Commeliniden innerhalb der Monokotyledonen. Grasartige Pflanzen, speziell Süßgräser (Poaceae), Sauergrasgewächse (Cyperaceae) und Binsengewächse (Juncaceae) werden im Englischen sowie einigen anderen Sprachen auch als Graminoid zusammengefasst. Beschreibung Oft sind es grasartige, krautige Pflanzen, meist ausdauernd. An den Sprossachsen stehen die Laubblätter meist zweizeilig und sie sind meist parallelnervig. Die Epidermiszellen haben oft Silikateinschlüsse. Die ursprünglichen Taxa der Poales sind überwiegend windbestäubt (Anemophilie). Die Blüten sind dreizählig. Sie haben oft unterschiedlich stark reduzierte Blüten mit spelzenartigen Blütenhüllblättern. Nektarien fehlen meist. Systematik Diese Ordnung enthält in älteren systematischen Übersichten nur eine einzige Familie, die Süßgräser (Poaceae). Molekularbiologische Untersuchungen haben ab 1998 allerdings zu einer beträchtlichen Erweiterung dieser Ordnung geführt. So werden jetzt die Familien der früheren Ordnungen Typhales, Bromeliales, Juncales, Cyperales, Restionales und noch einiger anderer Ordnungen zu den Süßgrasartigen (Poales) zusammengefasst, wodurch die Ordnung 16 Familien umfasst. Der APG III folgend umfasst die Ordnung 16 Familien: In dieser Ordnung gibt es 16 Familien mit fast 1000 Gattungen und etwa 18325 Arten: Anarthriaceae: Mit nur drei Gattungen und etwa elf Arten. Bromeliengewächse (Bromeliaceae): Mit drei Unterfamilien, 58 bis 73 Gattungen und etwa 2900 bis 3180 Arten. Centrolepidaceae: Mit nur drei Gattungen und etwa elf Arten. Riedgräser (Cyperaceae), auch Riedgras- oder Sauergrasgewächse: Mit zwei Unterfamilien, etwa 98 Gattungen und etwa 4350 Arten. Ecdeiocoleaceae: Mit zwei monotypischen Gattungen, also nur zwei Arten. Pfeifenwurzgewächse (Eriocaulaceae): Mit zwei Unterfamilien, etwa zehn Gattungen und etwa 1160 Arten. Flagellariaceae: Mit der einzigen Gattung: Flagellaria : Mit etwa vier Arten. Joinvilleaceae: Mit nur einer Gattung und zwei Arten: Joinvillea Binsengewächse (Juncaceae): Mit sieben Gattungen und etwa 430 Arten. Mayacaceae: Mit der einzigen Gattung: Mayaca : Mit etwa vier bis zehn Arten im tropischen und subtropischen Amerika und im tropischen Afrika. Süßgräser (Poaceae): Mit 13 Unterfamilien, etwa 668 Gattungen und etwas mehr als 10.000 Arten. Rapateaceae: Mit drei Unterfamilien, etwa 16 bis 17 Gattungen und etwa 80 bis 94 Arten. Seilgrasgewächse (Restionaceae): Mit etwa 58 Gattungen und etwa 520 Arten. Thurniaceae: Mit nur zwei Gattungen und nur vier Arten. Rohrkolbengewächse (Typhaceae, einschließlich Igelkolbengewächse (Sparganiaceae)) Typha : Mit etwa 27 Arten. Sparganium : Mit etwa 21 Arten. Xyridaceae: Sie ist in zwei Unterfamilien gegliedert und enthält etwa fünf Gattungen mit etwa 260 Arten. Die Unterfamilien sind: Abolbodoideae Xyridoideae. Stammbaum: Die Familien in der Ordnung der Poales: Ein Synonym für Poales ist Avenales. Quellen Die Ordnung bei der APWebsite. (englisch) Kåre Bremer: Gondwanan Evolution of the Grass Alliance of Families (Poales), in: Evolution 56(7), 2002, S. 1374–1387: Online. H. Peter Linder & Paula J. Rudall: Evolutionary History of the Poales. in Annual Review of Ecology, Evolution, and Systematics, 36, 2005, S. 107–124. Einzelnachweise Weblinks Steckbrief der Poales des Botanischen Gartens Tübingen.
Q28502
422.948284
3170
https://de.wikipedia.org/wiki/Meter
Meter
Der Meter ist die Basiseinheit der Länge im Internationalen Einheitensystem (SI) und in anderen metrischen Einheitensystemen. Ein Meter ist seit 1983 definiert als die Länge der Strecke, die das Licht im Vakuum während der Dauer von 1/299 792 458 Sekunde zurücklegt. Das Einheitenzeichen des Meters ist der Kleinbuchstabe „m“. Für dezimale Vielfache und Teile des Meters werden die internationalen Vorsätze für Maßeinheiten verwendet. Der Meter wurde ursprünglich 1799 als die Länge des Urmeters definiert, eines Prototyps aus Platin. Dessen Länge entsprach nach den damals durchgeführten Messungen dem zehnmillionsten Teil der Entfernung vom Nordpol zum Äquator. Definition Der Meter ist dadurch definiert, dass der Lichtgeschwindigkeit im Vakuum c ein fester Wert zugewiesen wurde und die Sekunde (s) ebenfalls über eine Naturkonstante, die Schwingungsfrequenz ΔνCs definiert ist. Diese Festlegung gilt seit 1983; der heute gültige Wortlaut der Definition gilt seit 2019. Definitionsgeschichte Die Längeneinheit Meter ist seit Ende des 18. Jahrhunderts in Gebrauch. Der Ursprung dieser Längeneinheit geht auf einen Beschluss der französischen Nationalversammlung zurück, ein einheitliches Längenmaß zu definieren. Dem gingen einige Vorschläge für die Definition einer Längeneinheit voraus, die anders als die traditionellen Längenmaße nicht von der Länge menschlicher Gliedmaßen (der Fingerbreite, dem Zoll, der Handbreite, der Handspanne, der Elle, dem Fuß, dem Schritt und dem Klafter) abgeleitet war. So schlug der Abbé Jean Picard 1668 als Längeneinheit das Sekundenpendel vor – also die Länge eines Pendels, das eine halbe Periodendauer von einer Sekunde hat. Im Schwerefeld von Europa hätte ein solches Pendel die Länge von etwa 0,994 m und käme der heutigen Definition des Meters ziemlich nahe. Erdfigur Maßgebend für die neue Längeneinheit wurde jedoch nicht das Sekundenpendel, sondern die Erdfigur. 1735 hatte die Pariser Akademie der Wissenschaften zwei Expeditionen zur Gradmessung in das heutige Ecuador (geleitet von La Condamine) und nach Lappland (geleitet von Maupertuis) entsandt, um die genauen Abmessungen der Erde festzustellen. Im Jahr 1793 setzte der französische Nationalkonvent – neben einem neuen Kalender – auch ein neues Längenmaß fest: Der Meter sollte den 10-millionsten Teil des Erdquadranten auf dem Meridian von Paris betragen – also den zehnmillionsten Teil der Entfernung vom Nordpol über Paris zum Äquator. Ein Prototyp dieses Meters, das mètre provisoire, basierend auf den Messungen von La Condamine und Maupertuis, wurde 1795 in Messing gegossen. Urmeter Zwischen 1792 und 1799 bestimmten Delambre und Méchain die Länge des Meridianbogens zwischen Dünkirchen und Barcelona erneut. Aus einer Kombination mit den Ecuador-Lappland-Resultaten ergab sich ein neuer Wert zu 443,296 Pariser Linien, der 1799 für verbindlich erklärt und verkörpert als ein Platinstab (mètre vrai et définitif) realisiert wurde. Dieser Prototyp wurde auch mètre des archives oder Urmeter genannt. Im 19. Jahrhundert kamen allerdings genauere Vermessungen der Erde zum Ergebnis, dass das Urmeter etwa 0,02 % zu kurz geraten war. Dennoch wurde an dem 1799 definierten Meter festgehalten – mit dem Ergebnis, dass der Erdmeridianquadrant nicht 10 000 km, sondern 10 001,966 km lang ist. Diese Länge gilt für den Meridian von Paris, andere Meridiane können andere Längen haben. Ein Nebeneffekt war, dass man erkannte, dass die Erde kein exaktes Rotationsellipsoid ist, sondern eine unregelmäßige Form hat. Die Erde hatte sich damit als ungeeignet zur Definition des Meters erwiesen. Deshalb wurde der Meter als die Länge eines konkreten Gegenstands festgesetzt – des Urmeters. Alle späteren Definitionen hatten das Ziel, dieser Länge möglichst genau zu entsprechen. Im Jahr 1889 führte das Internationale Büro für Maß und Gewicht (BIPM) den Internationalen Meterprototyp als Prototyp für die Einheit Meter ein. Dabei handelte es sich um einen Stab mit kreuzförmigem Querschnitt. Als Material wurde eine Platin-Iridium-Legierung im Verhältnis 90:10 gewählt. Die Länge des Meters wurde festgelegt als der Abstand der Mittelstriche zweier Strichgruppen auf dem auf einer konstanten Temperatur von 0 °C gehaltenen Stab. Es wurden 30 Kopien dieses Prototyps hergestellt und an nationale Eichinstitute übergeben. Wellenlänge Obgleich bei der Herstellung der Meterprototypen größter Wert auf Haltbarkeit und Unveränderbarkeit gelegt worden war, war doch klar, dass diese grundsätzlich vergänglich sind. Die Anfertigung von Kopien führte zwangsläufig zu Abweichungen und – ebenso wie regelmäßige Vergleiche der Kopien untereinander und mit dem Original – zum Risiko von Beschädigungen. Als Abhilfe schlug Albert A. Michelson zu Beginn des 20. Jahrhunderts vor, den Meter anhand der Wellenlänge von Spektrallinien zu definieren. 1951 entwickelten Ernst Engelhard und Wilhelm Kösters an der Physikalisch-Technischen Bundesanstalt in Braunschweig die Krypton-86-Spektrallampe, die orangerotes Licht mit der damals stabilsten und am verlässlichsten reproduzierbaren Wellenlänge erzeugte und die Präzision des Urmeters übertraf. 1960 wurde der Meter dann offiziell neu definiert: Ein Meter war nun das 1 650 763,73fache der Wellenlänge der von Atomen des Nuklids 86Kr beim Übergang vom Zustand 5d5 zum Zustand 2p10 ausgesandten, sich im Vakuum ausbreitenden Strahlung. Der Zahlenwert wurde dabei so gewählt, dass das Ergebnis dem bis 1960 gültigen Meter mit der bestmöglichen Genauigkeit entsprach. Das Verständnis dieser Definition setzte lediglich Kenntnisse in Atomphysik voraus. Waren diese und die nötige Ausrüstung vorhanden, so konnte die Länge eines Meters an jedem beliebigen Ort reproduziert werden. Der Meter war die erste Basiseinheit, die auf einer Naturkonstanten beruhte und unabhängig von Maßverkörperungen und Messvorschriften realisiert werden konnte. Lichtgeschwindigkeit Mit der Kryptonlampe ließ sich der Meter mit einer Präzision von 10−8 realisieren. Mit der Entdeckung des Lasers aber wurden in den folgenden Jahren immer stabilere Lichtquellen und Messmethoden entwickelt. Insbesondere ließ sich die Lichtgeschwindigkeit auf 1 m/s genau bestimmen, und die Präzision der Maßeinheit Meter wurde der limitierende Faktor. Daher wurde 1975 auf der 15. Generalkonferenz für Maß und Gewicht (CGPM) eine Neudefinition des Meters empfohlen. Für den Zahlenwert der Lichtgeschwindigkeit wurde ein empfohlener Standardwert festgelegt. Die 17. CGPM beschloss am 20. Oktober 1983, die Lichtgeschwindigkeit nicht mehr zu messen, sondern die Längeneinheit über den 1975 festgelegten Standardwert zu definieren. Der Meter wurde dadurch definiert als diejenige Strecke, die das Licht im Vakuum innerhalb des Zeitintervalls von 1/299 792 458 Sekunden durchläuft. Mit der Revision des SI im Jahr 2019 durch die 26. CGPM wurde lediglich der Wortlaut der Definition an den der anderen SI-Basiseinheiten angepasst. Gebräuchliche dezimale Vielfache Die Einheit Meter ist mit verschiedenen dezimalen Vielfachen in Verwendung, die mit den jeweiligen SI-Präfixen bezeichnet werden, beispielsweise: Zusammensetzungen mit weiteren Präfixen wie Megameter (1 Mm = 106 m = 1000 km) oder Gigameter (1 Gm = 109 m = 1 Mio. km) sind wenig gebräuchlich. Früher war der (nicht SI-konforme) Myriameter (Myr) in Verwendung, 1 Myr = 10 km, siehe Myriameterstein. Beziehung zu anderen gebräuchlichen Längeneinheiten Hinweis: Das Zeichen „=“ bedeutet eine per Definition festgelegte, exakte Entsprechung; das Zeichen „≈“ weist auf einen gerundeten Wert hin. Einführung des metrischen Systems in Deutschland Der Norddeutsche Bund beschloss am 17. August 1868 durch die Norddeutsche Maß- und Gewichtsordnung (im Gesetz: Maaß- und Gewichtsordnung für den Norddeutschen Bund) die Einführung des französischen Metersystems. Sie trat im Deutschen Reich am 1. Januar 1872 in Kraft. Deutschland gehörte 1875 zu den zwölf Gründungsmitgliedern der Meterkonvention. Sprachgebrauch Der deutsche Einheitenname Meter geht auf frz. mètre zurück [aus lat. metrum, griech. métron = (Vers)maß, Silbenmaß]. Der Einheitenname Meter war nach DIN 1301-1:2002-10 Neutrum (das Meter), analog zu den Ursprungssprachen. Mit DIN 1301-1:2010-10 wurde dagegen das Maskulinum (der Meter) als Norm festgelegt. Damit wurde die Fachsprache dem allgemeinen Sprachgebrauch angepasst, in dem das Maskulinum überwiegt. „Das“ Meter wird hingegen für die Bedeutung als Messinstrument benutzt, etwa: das Thermometer. Zur Frage, ob Meter nach Numerus und Kasus flektiert wird, kann man laut der Duden-Redaktion folgende Fälle unterscheiden: Steht das, dessen Maß angegeben wird, direkt hinter der Maßeinheit, wird – wie bei allen Maßeinheiten mit maskulinem oder neutralem Genus – die endungslose Form verwendet: in 2 Meter Höhe oder in 100 Meter Entfernung Steht das, dessen Maß angegeben wird, nicht direkt hinter der Maßeinheit, wird in der Regel die Form mit Flexionsendung verwendet (-s im Genitiv Singular, -n im Dativ Plural). Dabei ist es egal, ob das Gemessene überhaupt nicht genannt wird (in 100 Metern) oder an einer anderen Stelle im Satz steht (in einer Entfernung von 100 Metern). Die Flexionsendung wird auch verwendet, wenn vor Zahl und Maßeinheit noch ein Artikel steht: mit den 150 Metern Fußweg oder Vernachlässigung des einen Meters. Abgeleitete Maßeinheiten Vom Meter leiten sich die Flächeneinheit Quadratmeter und die Volumeneinheit Kubikmeter (und damit auch der Liter) ab. Ursprünglich definiert durch die Masse eines Liters Wasser, war auch das Kilogramm vom Meter abgeleitet. Literatur Hans-Joachim v. Alberti: Maß und Gewicht. Geschichtliche und tabellarische Darstellungen von den Anfängen bis zur Gegenwart. Akademie-Verlag, Berlin 1957. Reinhard Kreutzfeldt: Das Archivmeter – Zur Begründung des metrischen Systems vor 200 Jahren. In: Der Vermessungsingenieur. 3/99, Verlag Chmielorz, 1999, S. 156–158. Bettina Schütze, Andreas Engler, Harald Weber: Lehrbuch Vermessung – Grundwissen. 2. Auflage. Selbstverlag, Dresden 2007, ISBN 978-3-936203-07-3. Harald Schnatz: Länge – Die SI-Basiseinheit Meter. In: PTB-Mitteilungen. 1/2012, S. 7–22. (online) Weblinks – Artikel zur Definition und Realisierung, bei der PTB --> Der Meter – Artikel zur Definition (PTB) The BIPM and the evolution of the definition of the metre ZDFmediathek; Terra X: Die Jagd nach dem Urmeter (27. Januar 2016) (Dokumentarfilm über die Vermessung von Delambre und Mechain 1792–1799) Einzelnachweise MTS-Einheit Längeneinheit
Q11573
5,861.77217
902611
https://de.wikipedia.org/wiki/Xinhua
Xinhua
Xinhua (IPA: []; , kurz ) ist die Nachrichtenagentur der Regierung der Volksrepublik China und vor China News Service die größere der beiden Nachrichtenagenturen des Landes. Xinhua stellt den Massenmedien des Landes die Nachrichten im Sinne der Kommunistischen Partei Chinas und der chinesischen Zentralregierung bereit. Sie ist der Nachrichtenmonopolist der Volksrepublik und kann allen Zeitungen und Rundfunkstationen vorschreiben, welche Nachrichten veröffentlicht werden dürfen und welche nicht. Ihr Vorstand ist Mitglied des Zentralkomitees der Kommunistischen Partei Chinas, sie ist direkt dem Staatsrat untergeordnet. Xinhua ist somit die größte und einflussreichste Medienorganisation in China und betreibt mehr als 170 ausländische Büros sowie 31 Büros in China – eine für jede Provinz sowie ein Militärbüro. Sie produziert unter anderem den weltweit verbreiteten Nachrichtensender CNC World. Geschichte Xinhua wurde 1931 in der Sowjetzone von Ruijin gegründet und verlegte den Sitz später nach Peking. Xinhua wurde auch als Verlag gegründet, der heute mehr als 20 Zeitungen und ein Dutzend Zeitschriften herausgibt und in acht Sprachen veröffentlicht (Chinesisch, Englisch, Spanisch, Französisch, Russisch, Portugiesisch, Arabisch und Japanisch). Bei dem Massaker am Platz des Himmlischen Friedens 1989 bemühten sich die Mitarbeiter von Xinhua um eine „angemessene Linie“ für die Berichterstattung. Obwohl Xinhua bei der Behandlung der für die Regierung unangenehmen Themen in dieser Zeit vorsichtiger war als die People’s Daily – etwa beim Gedenken an den Tod des reformorientierten kommunistischen Parteiführers Hu Yaobang im April 1989 und die anschließenden Demonstrationen in Peking und anderswo –, berichtete Xinhua positiv über Protestler und Intellektuelle, welche die Demokratiebewegung unterstützten. Der Konflikt zwischen Journalisten und den Top-Redakteuren über die Zensur beim Vorgehen auf dem Platz des Himmlischen Friedens dauerte mehrere Tage, nachdem das Militär – die Volksbefreiungsarmee am 4. Juni die Proteste gewaltsam aufgelöst hatte. Einige Journalisten streikten und demonstrierten im Hauptquartier der Xinhua-Agentur in Peking. Nach dem Massaker nahm die Aufsicht der Regierung über die Medien zu – Redakteure in den Xinhua-Büros in Hongkong und Macau wurden durch Kandidaten ersetzt, die pekingtreu waren. Im Jahre 2020 verbreitete Xinhua als staatliche Nachrichtenagentur gezielt Verschwörungstheorien und Falschinformationen zur COVID-19-Pandemie über Facebook- und Instagram-Werbung sowie Twitter-Posts und beschuldigte den US-Präsidenten Donald Trump. Kritik Xinhua wurde von internationalen Medien wegen der Förderung von Propaganda, Rassismus sowie aufgrund von Hassreden gegen Gegner der Kommunistischen Partei Chinas kritisiert. Aufgrund der Medienzensur in China bleibt Xinhua die wichtigste Quelle für kleinere Nachrichtenpublikationen und somit besteht ein Interessenskonflikt zwischen der Kommunistischen Partei und der Nachrichtenagentur. Von Reporter ohne Grenzen wird Xinhua als größte Propaganda-Agentur der Welt bezeichnet. In einem Bericht heißt es, dass die Nachrichtenagentur „im Herzen der von der Regierung durchgeführten Zensur und Desinformation“ steht. Wenn es dazu kommt, dass eine Xinhua-Meldung nicht der von der Kommunistischen Partei Chinas vorgegebenen Sprachregelung entspricht, wird sie umgehend „aktualisiert“. In einem Interview mit indischen Medien im Jahr 2007 bestätigte der damalige Chef von Xinhua, Tian Congmin, das Problem der sogenannten „historischen Niederlagen und populären Auffassungen“. Newsweek kritisierte Xinhua als „bekannt für seine blinden Flecken“ in Bezug auf umstrittene Nachrichten in China und erwähnte z. B., dass ihre „Berichterstattung über die Vereinigten Staaten nicht fair und ausgewogen ist“. Literatur Pierre Luther: Genehm und gratis. Die chinesische Agentur Xinhua macht Nachrichten für die ganze Welt In: Le Monde diplomatique, 8. April 2011. Weblinks Offizielle Website (chinesisch, deutsch, englisch, französisch etc.) Offizielle Website – Xinhuanet.com (englisch) Francis C. W. Fung: It is important to cover good examples of harmony diplomacy Xinhua, 25. Juni 2007 Einzelnachweise Nachrichtenagentur Unternehmen (Peking) Gegründet 1931 Verlag (Volksrepublik China) Medien (Peking)
Q204839
110.01515
108297
https://de.wikipedia.org/wiki/Kamelhalsfliegen
Kamelhalsfliegen
Die Kamelhalsfliegen (Raphidioptera) sind eine Ordnung der Insekten. Gemeinsam mit den Netzflüglern (Neuroptera) und den Großflüglern (Megaloptera) bilden sie die Gruppe der Netzflüglerartigen (Neuropterida). Weltweit sind etwa 250 Arten bekannt, die alle auf der Nordhalbkugel vorkommen. Merkmale Die Körperlänge der Kamelhalsfliegen beträgt zwischen 8 und 18 mm, bei einigen wenigen Spezies darüber hinaus und in einem Fall sogar bis zu 45 mm. Das auffälligste und namensgebende Merkmal der Kamelhalsfliegen ist das stark verlängerte erste Brustsegment (Prothorax), dem ein langer, abgeplatteter Kopf aufsitzt. Sowohl dieses Segment als auch der Kopf sind auffallend beweglich, eine Modifikation, die ansonsten nur bei den Fangschrecken (Mantodea) und den Fanghaften (Mantispa spec.) zu erkennen ist. Er wird oft leicht erhoben und angewinkelt getragen. Die Vorderbeine sitzen im Gegensatz zu den Mantodea oder Mantispidae am Ende des Prothorax auf. Der Körper ist meist schwarz oder dunkelbraun (zum Teil auch mit blauer Beschichtung) und weist auch teilweise metallischen Glanz auf. Am Kopf, am Thorax und am Hinterleib (Abdomen) können gelbe, braune oder weißliche Flecken vorhanden sein. Die vorne liegenden Komplexaugen treten halbkugelig hervor und sind bei den meisten Arten ebenfalls schwarz. Zwischen ihnen sind die borstenförmigen, aus 35 bis 75 Gliedern bestehenden Fühler eingelenkt. Die Flügel sind groß und reich geädert, außerdem tragen sie ein deutliches und charakteristisches Flügelmal (Pterostigma). Das ist meist einfarbig, meist dunkelbraun bis hell gelblich, bei wenigen Arten sogar zweifarbig. In der Ruhestellung werden die Flügel dachartig auf dem Hinterleib getragen. Die Tiere haben an ihren Beinen jeweils fünf Fußglieder (Tarsen), wobei das dritte lappig vergrößert ist. Die Weibchen haben eine auffällige Legeröhre (Ovipositor), die etwa so lang ist wie der Hinterleib selbst. Dabei werden zwei paarige und zu einem Rohr verschmolzene Anhänge (Gonapophysen) des achten Hinterleibssegments von zwei Gonapophysen des neunten Segments umhüllt. Die Legeröhre ist sehr biegsam und beweglich, an der Spitze mit Tastorganen ausgestattet. Vorkommen Alle der etwa 250 bekannten Arten der Kamelhalsfliegen leben in der nördlichen Hemisphäre. Die südlichsten Vorkommen dieser Tiergruppe liegen im Süden Mexikos sowie auf Taiwan, die nördlichsten in Lappland. In Europa findet man über 80 Arten, vornehmlich in den Gebirgen Südeuropas. In Mitteleuropa leben nur 16 Arten, vor allem an sonnigen Stellen von Wäldern und Lichtungen, von der Krautschicht über die Strauchschicht bis in die Kronenschicht der Bäume. In Deutschland sind 10 Arten zu finden, 9 davon aus der Familie Raphidiidae. In der Schweiz leben 12 Arten. Lebensweise Die Flugzeit der meisten Kamelhalsfliegen liegt in den Monaten Mai bis Juni, sie sind also frühjahrsaktiv und außerdem tagaktiv. Die ausgewachsenen Tiere leben vor allem im Blattwerk verschiedener Bäume und Büsche und ernähren sich dort räuberisch von verschiedenen Insekten, vor allem Blattläusen. Sie fangen ihre Beute mit den beißenden Mundwerkzeugen vorwiegend durch optisch orientiertes, aktives Suchen an der Vegetation. Die große Beweglichkeit des Kopfes und die verlängerte Vorderbrust erleichtern den Nahrungserwerb. Die Paarfindung erfolgt vorerst wahrscheinlich chemisch über Pheromone und im Nahbereich optisch. Vor der Paarung erfolgt ein charakteristisches und entscheidendes Vorspiel, bei dem sich die Partner gegenüberstehen, um sich mit den Antennen und auch optisch sichtlich erregt zu registrieren und zu stimulieren. Das Weibchen signalisiert im günstigen Fall schließlich Paarungsbereitschaft durch leichtes Abspreizen der Flügel und Anheben des Abdomens (besonders des Ovipositors), während es sich zur Paarungsstellung vor dem Männchen wendet. Dieses schiebt sich von hinten unter das Weibchen und versucht mit dem extrem nach oben gebogenen Hinterleib das Abdomen des Weibchens zu erreichen. Wenn es gelingt, verhakt es sich mit einem paarigen Klammerorgan an der Geschlechtsöffnung des Weibchens. In der Folge hängt das Männchen während der oft lange dauernden Kopulation mit dem Rücken nach unten am Weibchen (Raphidiidae). Die Eier werden in Rindenspalten abgelegt, wobei der Ovipositor mindestens bis zur Hälfte in das Substrat eingestochen wird. Larvalentwicklung Die langgestreckten Larven leben unter der Rinde oder am Boden und ernähren sich ebenfalls räuberisch. Sie besitzen einen stark chitinisierten Vorderkörper aus Kopf und Prothorax, der restliche Körper ist eher weichhäutig. Sie sind relativ schnelle Läufer, wobei sie auch rückwärts laufen können. Sie haben sich vor allem einen Ruf als Borken- und Bockkäferjäger gemacht sowie als Vertilger der Eier von Nonnen, einer forstschädigenden Schmetterlingsart. Die Larvalentwicklung beansprucht bei den meisten Arten zwei bis drei Jahre. Bei wenigen Arten kann sie auch ein Jahr, bei anderen bis zu sechs Jahre dauern, wobei sich die Tiere 9- bis 13-mal häuten. Nach der Larvenzeit verpuppen sich einige rindenbewohnende Spezies in einer in das weichere Rindensubstrat genagten Puppenhöhle, in der die Puppe bis kurz vor Abschluss der Puppenruhe bewegungslos liegt. Diese sieht dem ausgewachsenen Insekt mit Ausnahme der noch als Anlagen vorhandenen Flügel bereits sehr ähnlich. Kurz vor dem Ende der Puppenruhe beginnt sie jedoch sich innerhalb der Höhle zu bewegen und schlüpft schließlich als fertiges Insekt aus der Puppenhülle (Exuvie). Die ausgewachsenen Tiere leben nur wenige Wochen. Systematik der Kamelhalsfliegen Die Systematik der Ordnung Kamelhalsfliegen basiert neben etlichen anderen Kriterien auch auf dem Besitz von Punktaugen (Ocelli). Dabei weisen lediglich die Raphidiidae (weltweit derzeit über 210 Arten) Punktaugen auf, bei den Inocelliidae (weltweit derzeit über 20 Arten) fehlen sie. Nachstehend werden jene Arten angeführt, die in Europa (zwischen 45 °N und 60 °N östlich bis zum Ural, einschließlich der gesamten Halbinsel Krim) bisher festgestellt wurden und den beiden einzigen rezent vertretenen Familien einzuordnen sind. Die 10 in Deutschland vorkommenden Arten sind zusätzlich mit ihren Trivialnamen angegeben: Kamelhalsfliegen – Raphidioptera Raphidiidae Atlantoraphidia maculicollis (Atlantische Kamelhalsfliege) Dichrostigma flavipes (Gelbfüßige Kamelhalsfliege) Dichrostigma mehadia Ornatoraphidia flavilabris Phaeostigma (Magnoraphidia) major (Große Kamelhalsfliege) Phaeostigma (Phaeostigma) notata (Markante Kamelhalsfliege oder Kenntliche Kamelhalsfliege) Phaeostigma (Pontoraphidia) setulosa Puncha ratzeburgi (Ratzeburgs Kamelhalsfliege) Raphidia (Raphidia) beieri Raphidia (Raphidia) euxina Raphidia (Raphidia) ligurica Raphidia (Raphidia) mediterranea Raphidia (Raphidia) ophiopsis (Otternköpfchen oder Schlangenköpfige Kamelhalsfliege) Raphidia (Raphidia) ulrikae Subilla confinis (Eichen-Kamelhalsfliege oder Eichenbusch-Kamelhalsfliege) Turcoraphidia amara Venustoraphidia nigricollis (Schwarzhalsige Kamelhalsfliege oder Schwarzhals-Kamelhalsfliege) Xanthostigma aloysiana Xanthostigma xanthostigma (Gelbgezeichnete Kamelhalsfliege) Inocelliidae Inocellia crassicornis (Dickhörnige Kamelhalsfliege) Parainocellia (Parainocellia) bicolor Parainocellia (Parainocellia) braueri Die nächsten Verwandten der Kamelhalsfliegen sind die Großflügler (Megaloptera). Ebenfalls nahe verwandt sind auch noch die Netzflügler (Neuroptera). Fotogalerie mit mitteleuropäischen Arten Fossile Belege Fossilien dieser Insektenordnung sind selten. Als ältester Nachweis gilt ein Imago der Familie Mesoraphidia aus dem Oberjura von Turkestan. Das Fossil unterscheidet sich von seinen nächsten rezenten Verwandten vor allem in der Form des Kopfes, der Länge des Prothorax und der Morphologie der Legeröhre. Fast alle anderen fossilen Imagines und Larven wurden als Einschlüsse im eozänen Baltischen Bernstein gefunden. Insekt des Jahres 2022 Die Schwarzhalsige Kamelhalsfliege (Venustoraphidia nigricollis) wurde zum Insekt des Jahres 2022 auserkoren. Literatur Ragnar K. Kinzelbach, Horst Aspöck, Ulrike Aspöck: Raphidioptera (Kamelhalsfliegen) in: Handbuch der Zoologie IV (2), Berlin 1971, ISBN 978-3-11-003566-7 Horst Aspöck, Ulrike Aspöck, Hubert Rausch: Die Raphidiopteren der Erde. Eine monographische Darstellung der Systematik, Taxonomie, Biologie, Ökologie und Chorologie der rezenten Raphidiopteren der Erde, mit einer zusammenfassenden Übersicht der fossilen Raphidiopteren. 2 Bände, Goecke & Evers, Krefeld 1991, ISBN 3-931374-27-0 Klaus Honomichl, Heiko Bellmann: Biologie und Ökologie der Insekten. CD-ROM, Gustav Fischer Verlag, Stuttgart 1998. ISBN 3-8274-0760-5 Ekkehard Wachmann, Christoph Saure: Netzflügler, Schlamm- und Kamelhalsfliegen, Beobachtung, Lebensweise. Naturbuch Verlag, Augsburg, 1997, ISBN 3-89440-222-9 Weblinks Insektenbox.de zur Kamelhalsfliege Raphidia notata Einzelnachweise Fluginsekten Nützling (Forstwirtschaft) Lebendes Fossil
Q217516
119.132979
59257
https://de.wikipedia.org/wiki/Akademie
Akademie
Akademie (von bzw. der auf den Heros Hekademos zurückgehenden älteren Form ) bezeichnet eine gelehrte Gesellschaft und deckt zudem ein breites Spektrum von öffentlich geförderten und/oder privaten (sogenannten „freien“) Forschungs-, Lehr-, Bildungs- und Ausbildungseinrichtungen ab. Allgemeiner gebräuchlich als das Substantiv Akademie ist das entsprechende Adjektiv akademisch, das sich auf alles bezieht, was mit Hochschulen in Zusammenhang steht, sowie die Ableitung Akademiker (Hochschulabsolvent). Zum Begriff Der Begriff Akademie leitet sich vom Ort der Philosophenschule des Platon (siehe Platonische Akademie) ab, die sich beim Hain des griechischen Helden Akademos in Athen befand. Sie bestand – wenn auch nicht durchgängig – bis zu ihrer Schließung durch Kaiser Justinian I. im Jahr 529 (siehe auch die 1926 gegründete moderne Akademie von Athen). Erste Nachfolger in der Neuzeit wurden die italienischen Akademien im Renaissance-Humanismus des 15. und 16. Jahrhunderts. Akademien können folgendermaßen unterteilt werden: Akademien der Wissenschaften Anstalten zur Förderung wissenschaftlicher und künstlerischer Studien Unvollständig ausgebaute Hochschulen Die ersten beiden Einrichtungen unterscheiden sich von den vielfach verwandten und verbundenen Universitäten dadurch, dass sie keine oder keine staatlichen Ausbildungsstätten sind, ihre Ausrichtung nicht auf praktische Zwecke gerichtet ist, sondern die wissenschaftliche Arbeit im Wesentlichen um ihrer selbst willen betreiben. In Ausdehnung des Wortgebrauchs auch für Studien- und Aufführungszirkel der Musik wurden zeitweise auch Veranstaltungen zur öffentlichen Musikaufführung selbst als Akademie bezeichnet. Der Ausdruck Konzert hat dies jedoch verdrängt. Sparten Akademie der Wissenschaften Akademien der Wissenschaften sind (ursprünglich private) gelehrte Gesellschaften für wissenschaftliche oder künstlerische Forschungen, die der Selbstverwaltung unterliegen. Sie betreiben Lehre allenfalls in von ihnen betriebenen Forschungsinstituten. In gemeinsamen Sitzungen ihrer Mitglieder werden die Forschungsergebnisse vorgetragen und diskutiert, die dann in Sitzungsberichten oder Abhandlungen veröffentlicht werden. Diese typischerweise staatlich unterhaltenen Selbstverwaltungskörperschaften sind in zwei bis drei Klassen unterteilt, meistens eine philosophisch-historische Klasse, eine mathematisch-naturwissenschaftliche und manchmal eine Klasse für Kunst und Literatur. Die enge Fachbegrenzung ist heute aufgehoben, sodass fast alle Disziplinen vertreten sind. Die Klassen haben etwa je 30 bis 50 ordentliche, das heißt für gewöhnlich aus dem Lande stammende Mitglieder und etwa je 80 korrespondierende, das heißt in der Regel auswärtige Mitglieder. In Österreich erhält jedes spätere ordentliche Mitglied zunächst den Status des korrespondierenden Mitgliedes. Auch Medizinische Akademien werden oft unter den Akademien der Wissenschaften subsumiert. Die ordentlichen, fast immer ehrenamtlichen Mitglieder wählen aus ihren Reihen einen Präsidenten auf Zeit. Neue Mitglieder werden kooptiert, das heißt, von ordentlichen Mitgliedern zugewählt. Die Arbeitsgebiete der Akademie der Wissenschaften sind meistens langwierige wissenschaftliche Untersuchungen wie die Herausgabe von Wörterbüchern, die Betreuung von Sammelpublikationen wie die der Monumenta Germaniae Historica, die Flora Sibirica oder die von Kaiserurkunden usw. Anstalten zur Förderung wissenschaftlicher oder künstlerischer Studien Schon früh wurden Anstalten zur Vermittlung eines bestimmten Fachwissens gegründet. Es waren dieses beispielsweise Bergakademien, Bauakademien, Kunstakademien, und vieles andere. Die Bergakademie Clausthal wurde 1775, die Bergakademie Freiberg Sachsen wurde 1765 und die Bergakademie Montanhochschule Ostrau wurde 1716 gegründet. Unter diesem Begriff finden sich auch Akademien, die sich dem Studium und der Aufführung von Musikwerken widmen, wie die 1669 gegründete Académie nationale de musique in Paris (die heutige große Oper), die 1726 in London gegründete Academy of Ancient Music, die Academies of music (Opernhäuser) 1854 in New York und 1856 in Philadelphia gegründet, die Sing- (erstmals 1791 in Berlin), Musik- und Philharmonischen Akademien. Solche Akademien betreiben neben der Forschung gleichermaßen die Lehre auf hochschulmäßiger Grundlage und sind vergleichbar mit einer Hochschulfakultät. Sie weisen häufig eine Entwicklungstendenz zur Hochschule auf. Unvollständig ausgebaute Hochschulen Darunter versteht man Kunsthochschulen, die nicht der Universität angeschlossen sind und die vor allem der Ausbildung von Künstlern dienen. Es gibt Kunsthochschulen die sich als Filmakademien, Kunstakademien und Musikakademien bezeichnen Sonstige Stätten der höheren Bildung (heute Tertiärsektor): Berufsakademien, Philosophisch-theologische Akademien, Sportakademien, Ordenshochschulen, Kriegs- bzw. Militärakademien, Militärärztliche Akademien, Staatsmedizinische Akademien zur Ausbildung von Amtsärzten, Ärztliche Fortbildungsakademien, Landwirtschaftliche Akademien, Forstakademien, Filmakademien, Pädagogische Akademien zum Zwecke der Lehrerbildung, Handelsakademien, Bauakademien, Verwaltungs- und Wirtschaftsakademien usw. Akademien zur kulturellen Bildung Dies sind Fort- und Weiterbildungseinrichtungen vor allem für Multiplikatoren in sozialen oder kulturellen Berufen, die mit staatlicher Unterstützung getragen werden. Überregionale Bedeutung haben: Die Akademie Musik & Bühne GmbH, die Akademie Remscheid für Kulturelle Bildung e. V., die Bundesakademie für musikalische Jugendbildung Trossingen, die Bundesakademie für kulturelle Bildung Wolfenbüttel, die Nordsee Akademie und Burg Fürsteneck, Akademie für berufliche und musisch-kulturelle Weiterbildung im Landkreis Fulda. Handwerker können sich bundesweit an den Akademien für Gestaltung zum Gestalter im Handwerk qualifizieren. Sonstige Außer den genannten Einrichtungen gab und gibt es Akademien auch im Militär und in der Wirtschaft, die unter Berücksichtigung sehr unterschiedlichen Kriterien gegründet wurden, beispielsweise Ritter- oder Kriegsakademien sowie Akademien zur Ausbildung der Nachwuchskräfte der Wirtschaft. Weitere Akademien sind Bildungseinrichtungen in privater oder kirchlicher Trägerschaft. Auch wenn der Begriff „Akademie“ rechtlich nicht geschützt ist, legen die Handelsregistergerichte und die sie beratenden Kammern meistens (aber nicht grundsätzlich) recht hohe Maßstäbe für die Eintragung dieses Begriffs als Namensbestandteil in das Handelsregister an. In der Regel wird darauf geachtet, dass solche Einrichtungen dem Anspruch gerecht werden, den der Akademie-Begriff weckt. Einige Beispiele hierfür sind die TÜV Rheinland Akademie, die Akademie Deutsches Bäckerhandwerk Weinheim, die Akademie der Architektenkammer NRW GmbH, die Sachverständigen Akademie Aachen GmbH, die Technische Akademie Wuppertal e. V., im künstlerischen Bereich die Akademie Musik & Bühne GmbH und andere. Als Beispiele für einen, wenn nicht unbedingt irreführenden, so doch weniger gerechtfertigten Gebrauch des Wortes Akademie seien die zahlreichen Sommerakademien angeführt. Geschichte der wissenschaftlichen Akademien Antike Die älteste Akademie im eigentlichen Sinne, also wissenschaftliche Akademie, war das von Ptolemaios II. geschaffene Museum in Alexandria. Hiermit wenig gemeinsam haben die freien Vereinigungen von Gelehrten, Denkern und Schöngeistern, die sich im arabischen Orient im 2. Jahrhundert der Hedschra bildeten und zum Teil, wie die Lauteren Brüder, zeitweilig einen weitreichenden geistigen Einfluss gewannen. Mittelalter Lediglich als ein Staatsinstitut zur Förderung der Wissenschaften war die Akademie geplant, die um die Mitte des 9. Jahrhunderts Bardas in Konstantinopel einrichtete. Im Abendland legte sich den Namen Akademie der Gelehrtenkreis bei, der am Hofe Karls des Großen in Alkuin seinen Mittelpunkt fand. Im übrigen besaßen hier während des Mittelalters Wissenschaft und Gelehrsamkeit keine Zufluchtsstätte, mit Ausnahme mancher Klöster. Die von Brunetto Latini gestiftete Akademie der schönen Künste in Florenz (1270), die von König Friedrich II. von Sizilien 1300 in Palermo begründete Gesellschaft zur Pflege der italienischen Poesie, die 1323 in Toulouse gebildete Académie des jeux floreux waren nur der Pflege der Dichtkunst gewidmet. Frühe Neuzeit Erst mit dem Wiederaufleben der klassischen Studien entstanden seit Mitte des 15. Jahrhunderts in Italien Vereinigungen gelehrter Männer mit humanistischer Tendenz, zuerst die 1433 von Antonio Beccadelli aus Palermo in Neapel begründete Akademie, die von Laurentius Valla und besonders von Giovanni Pontano gehoben und deshalb meist Academia Pontaniana genannt wird. Nur ein lockerer Gesprächskreis war die „platonische Akademie“, die angeblich in Florenz unter Cosimo de’ Medici 1438 gegründet und von Marsilio Ficino geleitet wurde. Diese Gesellschaft beschäftigte sich mit platonischer Philosophie, mit der Veredelung der italienischen Sprache und dem Studium Dantes. Viele andere Vereine dieser Art bildeten sich im Laufe des 16. Jahrhunderts in allen größeren Städten Italiens. Daneben ist zu nennen die Accademia Romana in Rom, die 1498 von Pomponio Leto ins Leben gerufen, von Papst Pius II. aber wegen Ketzerei und heidnischer Gesinnung verfolgt wurde und sich 1550 auflöste. Daneben gab es die philologische Akademie des Aldus Manutius, die 1495 in Venedig gegründet wurde und sich um die Neuausgabe antiker Schriftsteller kümmerte. Die 1563 in Florenz gegründete Accademia e Compagnia dell’Arte del Disegno widmete sich der bildenden Kunst, die 1582 ebenda gegründete Accademia della Crusca der Reinigung und Veredelung der italienischen Sprache. 1560 wurde in Neapel bereits die Academia Secretorum Naturae gegründet, die sich um die Naturwissenschaften kümmerte und bald durch die Kirche unterdrückt wurde. Zu ihren Nachfolge-Organisationen gehört die Accademia de' Lincei in Rom, die 1603 gegründet wurde. Sie ging mehrfach ein und entstand wieder neu, wurde 1870 in einen päpstlichen und einen königlichen Teil aufgeteilt. Heute ist sie als Accademia Nazionale dei Lincei aktiv. Mit den humanistischen Studien gelangten die Akademien auch in andere Länder Europas. So begründete Johann Clemens von Dalberg auf Veranlassung von Konrad Celtes 1490 die Sodalitas Celtica oder Rhenana in Worms und um die gleiche Zeit Konrad Celtes selbst die Sodalitas literaria Danubiana, die 1498 nach Wien verlegt wurde. Während die florentinische Crusca im deutschen Sprachraum des 17. Jahrhunderts Nachahmer fand, dienten die den Naturwissenschaften gewidmeten italienischen Gesellschaften der Royal Society in London und der Leopoldinisch-Karolinischen Akademie (Leopoldina) zum Vorbild. In Frankreich verwandelte Richelieu 1635 eine 1630 gegründete Privatgesellschaft in eine nationale Organisation, die Académie française, die später gemeinsam mit ihren Schwesteranstalten unter die Dachorganisation Institut de France gestellt wurde. Dieses vom Staat in hohem Maße unterstützte, aber auch von den Regierungen abhängige Institut hat einen tiefgreifenden Einfluss auf die Entwicklung der so genannten klassischen Literaturepoche Frankreichs ausgeübt. Die oft staatlich geförderten Akademien der Wissenschaften erhielten im 18. Jahrhundert ihren öffentlich-rechtlichen Status. Siehe auch Akademisch Akademiker Akademien für Gestaltung Akademismus Gelehrtengesellschaft Liste der Hochschulen in Deutschland Liste der wissenschaftlichen Akademien Musikalische Akademie Town and gown Literatur Heinz Wismann, Klaus Garber (Hg.): Europäische Sozietätsbewegung und demokratische Tradition. Die europäischen Akademien der Frühen Neuzeit zwischen Frührenaissance und Spätaufklärung. Tübingen: Niemeyer 1996, 2 Bde. ISBN 3-484-36526-9 Ingo Herklotz: Die Academia Basiliana. Griechische Philologie, Kirchengeschichte und Unionsbemühungen im Rom der Barberini ( = Römische Quartalschrift für Christliche Altertumskunde und Kirchengeschichte, Supplementband 60). Herder: Freiburg, Basel, Wien 2008. Weblinks Einzelnachweise Akademische Bildung Bildungseinrichtung
Q162633
356.162249
30966
https://de.wikipedia.org/wiki/Biodiesel
Biodiesel
Biodiesel (seltener Agrodiesel), chemisch Fettsäuremethylester, ist ein Kraftstoff, der in der Verwendung dem mineralischen Dieselkraftstoff gleichkommt. Die chemische Industrie gewinnt Biodiesel durch Umesterung pflanzlicher oder tierischer Fette und Öle mit einwertigen Alkoholen wie Methanol oder Ethanol. Biodiesel mischt sich mit Petrodiesel in jedem Verhältnis. Viele Länder verwenden daher Biodiesel als Blendkomponente für herkömmlichen Dieselkraftstoff. Seit 2009 wird in Deutschland herkömmlichem Diesel bis zu 7 % Biodiesel beigemischt, an Tankstellen als „B7“ gekennzeichnet. Durch den Rückgang der steuerlichen Förderung seit Januar 2013 sank der Absatz von Biodiesel als Reinkraftstoff in Deutschland erheblich. Im Vergleich zu Diesel auf Mineralölbasis verursacht Biodiesel weniger Emissionen, obwohl die Rohemissionen von Stickoxiden höher liegen. Er wird aus nachwachsenden Rohstoffen gewonnen, ist biologisch abbaubar und hat gute Schmiereigenschaften, was bei der Verwendung von schwefelarmem Diesel ein Vorteil ist. Biodiesel ist der Biokraftstoff, der bislang den größten Beitrag zur Versorgung des Verkehrssektors in der Europäischen Union geleistet hat. Gegen Ende des 20. Jahrhunderts gab es einen breiten gesellschaftlichen Konsens zur Einführung und Ausbau der Biodieselversorgung, da er als nachhaltig und klimaschonend galt. Der wachsende Verbrauch führte im Laufe der Jahre zu einem internationalen Biodieselhandel, der zum Teil verbunden war mit dem Ausbau landwirtschaftlicher Flächen, etwa durch Brandrodung. Die gesellschaftliche Akzeptanz eines flächendeckenden Einsatzes hängt davon ab, ob die eingesetzten Rohstoffe nachhaltig bereitgestellt werden und nicht in Nutzungskonkurrenz mit der Nahrungs- und Futtermittelproduktion geraten oder zum Aussterben von Arten führen. Nomenklatur Biodiesel besteht aus dem Begriff Diesel, einem Deonym nach Rudolf Diesel, und dem Präfix Bio. Dies weist nicht auf eine Herkunft aus ökologischer Landwirtschaft hin, sondern auf den pflanzlichen oder tierischen Ursprung, im Gegensatz zu Mineralöl. Teilweise wird deswegen der Begriff Agrodiesel verwendet, wobei eine Verwechslungsgefahr mit dem Begriff Agrardiesel besteht. Dieser bezeichnet Diesel, der in landwirtschaftlichen Fahrzeugen und Arbeitsmaschinen verwendet und teilweise steuerlich rückvergütet wird. Die Norm EN 14214 beschreibt die Mindestanforderungen an Fettsäuremethylester für die Verwendung dieser Stoffklasse als Biodieselkraftstoff. In der Norm wird zwar kein Rohstoff für die Herstellung der Fettsäuremethylester direkt vorgegeben, im Gegensatz zur US-amerikanischen Norm ASTM D 6751 limitieren jedoch die Grenzwerte für Parameter wie der Oxidationsstabilität, der Iodzahl und dem Anteil mehrfach ungesättigter Fettsäuren indirekt die Rohstoffzusammensetzung. Nach EN 14214 ist FAME nach der englischen Bezeichnung Fatty Acid Methyl Ester die übergreifende Abkürzung aller Methylester auf Basis von Pflanzen- und Tierölen. Je nach Art des verwendeten Pflanzenöls wird unterschieden in Palmölmethylester (PME), wobei Fahrzeughandbücher der 1990er Jahre die Abkürzung PME auch für Pflanzenöl-Methyl-Ester verwenden, Sonnenblumenmethylester, Rapsölmethylester (RME), auch Rapsmethylester oder Rapsdiesel genannt und Sojaölmethylester (SME). Daneben sind Methylester auf Basis von Altfetten und Tierfetten erhältlich, etwa Altfettmethylester (AME), und Tierfettmethylester (FME). Biodiesel gilt als alternativer Kraftstoff der ersten Generation, für die nur das Öl, der Zucker oder die Stärke der Frucht verwendet wird. Bei Kraftstoffen der zweiten Generation wird die vollständige Pflanze verwendet. Blends, also Mischungen von Biodiesel mit mineralischem Diesel, werden mit einem B und einer Zahl von 1 bis 99 bezeichnet, wobei die Zahl den prozentualen Anteil von Biodiesel im Blend angibt. B100 ist nach dieser Nomenklatur die Bezeichnung für reinen Biodiesel. Geschichte Die Herstellung von Biodiesel durch Umesterung von pflanzlichen Ölen mit alkoholischer Kalilauge beschrieb Patrick Duffy bereits im Jahr 1853 – Jahre bevor Rudolf Diesel den Dieselmotor entwickelte. Als Zielprodukt galt das bei der Umesterung freiwerdende Glycerin, das als Grundstoff für die Herstellung von Glycerinseife diente. Über den Einsatz von reinem Pflanzenölkraftstoff für Dieselmotoren berichtete Rudolf Diesel im Rahmen der Weltausstellung im Jahr 1900 in einem Vortrag vor der Institution of Mechanical Engineers of Great Britain: Während des Zweiten Weltkriegs untersuchten viele Nationen den Einsatz reiner Pflanzenöle als Motorkraftstoff. Belgien, Frankreich, Italien, das Vereinigte Königreich, Portugal, Deutschland, Brasilien, Argentinien, Japan und die Republik China testeten und verwendeten Pflanzenöle als Dieselersatz. Brasilien limitierte etwa die Ausfuhr von Rapsöl, China nutzte Tungöl als Kraftstoffersatz. Die japanische Marine betrieb eines ihrer größten Schlachtschiffe, die Yamato, wegen Kraftstoffknappheit teilweise mit raffiniertem Sojaöl. Der Einsatz reiner Pflanzenöle führte aufgrund der gegenüber Diesel höheren Viskosität zu motortechnischen Problemen, da die verminderte Kraftstoffzerstäubung erhöhte Rußablagerungen verursachte. Wissenschaftler und Ingenieure untersuchten verschiedene technische Lösungsansätze zur Reduktion der Viskosität wie das vorherige Erwärmen des Kraftstoffs, die Mischung des Pflanzenöls mit anderen Kraftstoffen, die Pyrolyse, das Emulgieren und die Umesterung, die schließlich zum Biodiesel führte. Die Arbeiten des Belgiers George Chavanne von der Universität Brüssel führten zur erstmaligen Nutzung von Biodiesel als Kraftstoff im Straßenverkehr. Am 31. August 1937 wurde ihm das belgische Patent 422,877 zur Umesterung von Pflanzenölen mit Ethanol und Methanol zur Verbesserung deren Eigenschaften zur Nutzung als Motorkraftstoff erteilt. Belgische Verkehrsbetriebe testeten 1938 erfolgreich einen nach diesem Verfahren erzeugten Biodiesel auf Palmölbasis beim Betrieb einer Buslinie zwischen Brüssel und Leuven. In der Nachkriegszeit geriet aufgrund der leicht erschließbaren Rohölvorkommen und der damit verbunden hohen und preiswerten Verfügbarkeit von mineralischen Kraftstoffen die Anwendung von Biodiesel jedoch in Vergessenheit. Erst im Zuge der Ölkrise der 1970er Jahre geriet die Nutzung von Pflanzenölen als Kraftstoff wieder in den Fokus. Untersuchungen zur Produktion und Verwendung von Biodiesel fanden in den 1970er Jahren in Brasilien und Südafrika statt. Im Jahr 1983 wurde der Prozess für die Produktion von Biodiesel in Kraftstoffqualität international veröffentlicht. Das Unternehmen Gaskoks in Österreich errichtete 1989 die erste kommerzielle Biodieselanlage in Europa mit einer Jahreskapazität von 30.000 Tonnen nach einem südafrikanischen Patent. 1993 erhielt Joosten Connemann der Ölmühle Connemann ein Patent für ein Verfahren, mit dem Biodiesel in einem kontinuierlichen Prozess aus Rapsöl und anderen Pflanzenölen gewonnen werden kann. Im Jahr 2007 arbeiteten die zwölf größten Anlagen weltweit nach diesem Verfahren. Seit den 1990er Jahren bauten Investoren in Europa viele Biodieselanlagen und bereits im Jahr 1998 führten 21 europäische Staaten kommerzielle Biodieselprojekte durch. Als erster Staat in den Vereinigten Staaten führte der US-Bundesstaat Minnesota im September 2005 eine Beimischungspflicht von 2 % Biodiesel zum regulären Diesel ein. Seit Mai 2012 ist dort eine zehnprozentige Beimischung Pflicht; bis 2015 ist die Anhebung auf 20 % geplant. Deutschland regelt den Einsatz von Biodiesel über die Verwendungspflicht laut Biokraftstoffquotengesetz und über Kraftstoffnormen. Ab 2007 galt in Deutschland eine Verwendungspflicht von 4,4 % Biodiesel zu herkömmlichem Diesel, seit 2009 wird gemäß der Kraftstoff-Norm EN 590 herkömmlichem Diesel bis zu 7 % Biodiesel beigemischt. Im Jahr 2010 betrug der Verbrauch in Deutschland 3,255 Millionen Tonnen Biodiesel. Weiterhin kann aber auch reiner Biodiesel (B100) auf die Biokraftstoffquote angerechnet werden. Im Zuge der politischen Bemühungen um die Senkung des Kohlenstoffdioxidausstoßes führten zahlreiche weitere Länder eine Quotenverpflichtung ein oder planen dies. Die Europäische Union verbrauchte im Jahr 2010 insgesamt 11,255 Millionen Tonnen Biodiesel. Die größten Verbraucher waren neben Deutschland Frankreich mit 2,536 Millionen Tonnen und Spanien mit 1,716 Millionen Tonnen. Herstellung Pflanzliche und tierische Fette und Öle sind Ester des Glycerins mit unverzweigten, gesättigten und ungesättigten Monocarbonsäuren, den Fettsäuren. Die Umesterung dieser Triglyceride mit Methanol, also der Ersatz des dreiwertigen Alkohols Glycerins durch den einwertigen Alkohol Methanol, ist der gebräuchlichste Prozess zur Herstellung von Biodiesel. Eins der Unternehmen, die Biodiesel in großen Mengen in Deutschland produzieren, ist die Firma Sasol im Chemiepark Brunsbüttel. Der Einsatz von Methanol erfolgt hauptsächlich aus Kostengründen, technisch eignen sich auch andere einwertige Alkohole wie Ethanol, Propanole und Butanole zur Herstellung von Biodiesel. In Brasilien wird die Umesterung etwa mit dem in großen Mengen verfügbaren Bioethanol vorgenommen. Die Fettsäurebutylester weisen einen tieferen Stockpunkt auf, was besonders beim Einsatz von tierischen Fetten von Vorteil ist. Die Umesterung wird durch Säuren und Basen katalysiert, wobei sich durch Basenkatalyse höhere Reaktionsgeschwindigkeiten erzielen lassen. Nach der Umesterung folgen als weitere Prozessschritte die Abtrennung von Glycerin und überschüssigem Methanol sowie die Aufarbeitung der Nebenprodukte, etwa die Reinigung des Glycerins. Die Wiedergewinnung von Einsatzstoffen erfolgt durch Destillation des überschüssigen Methanols und Rückführung von Restmengen nicht veresterter Fettsäuren. Rohstoffe Als Rohstoff für die Herstellung von Biodiesel eignen sich alle pflanzlichen und tierischen Fette und Öle. Die pflanzlichen Öle werden aus Ölsaaten oder anderen ölhaltigen Teilen von Pflanzen gewonnen. Je nach Klima, Niederschlagsmenge und Sonneneinstrahlung werden verschiedene Öle als Rohstoff bevorzugt. In Europa wird vorwiegend Rapsöl verwendet, das aus dem Samen von Raps (Brassica napus oleifera) gewonnen wird. Dieser Samen hat einen Ölgehalt von 40 bis 45 %. Die im Rapsöl vorliegenden Fettsäuren weisen eine enge Kohlenstoffkettenverteilung sowie einen konstanten Sättigungsgrad auf. Gewonnen wird das Öl in Ölmühlen durch Pressen des Rapssamens, als Koppelprodukte fallen Rapsextraktionsschrot oder Rapskuchen für die Futtermittelindustrie an. In Deutschland betrug die Menge an so gewonnenem eiweißhaltigen Tierfutter im Jahr 2012 etwa 3,2 Millionen Tonnen, womit rund 37,6 % des deutschen Bedarfs gedeckt wurden. In Nordamerika stellt Sojaöl den Hauptrohstoff dar, nur ein geringer Teil des Biodiesels wird dort aus Rapsöl produziert. Palmöl ist der Hauptrohstoff für Biodiesel in Südostasien, ergänzend wird dort Kokosöl verwendet. Hinzu kommen geringe Mengen aufbereiteter Pflanzenölreste und in Mitteleuropa Tierfette. Viele weitere Pflanzenöle wurden untersucht und für die Biodieselproduktion eingesetzt, wie Rizinusöl, Sonnenblumenöl und Jatrophaöl. Der im Jahr 2012 in Deutschland produzierte Biodiesel bestand zu 84,7 % aus Rapsöl, zu 10,7 % aus Altspeise- und Tierfetten und zu 3 % aus Sojaöl. Palmöl wurde in Deutschland nur zu 1,6 % verarbeitet. Die Rohstoffe oder deren Mischungen sind so zu wählen, dass die Spezifikationen nach der europäischen Norm EN 14214 beziehungsweise der amerikanischen ASTM D 6751 Norm eingehalten werden. Im Jahr 2016 betrug der Anteil Palmöl, vor allem aus Indonesien und Malaysia, rund 19 %. Dies kann zur Rodung von Regenwald beitragen. 2018 wurde der Biodiesel in Deutschland zu 57,8 % aus Rapsöl, zu 27,0 % aus Altspeisefetten, zu 8,4 % aus Sojaöl, zu 2,3 % aus Palmöl, zu 2,1 % aus tierischen Fetten und zu 2,0 % aus Fettsäuren hergestellt. Die Altspeisefette stammten 2018 jedoch nur zu rund 20 % aus Deutschland, die meisten Altspeisefette werden aus der Volksrepublik China (17,5 %), den Vereinigten Staaten (6,1 %), Indonesien (4,1 %) und Malaysia (3,2 %) importiert. Das für die Umesterung notwendige Methanol ist eine organische Grundchemikalie und ein großtechnisch hergestellter Alkohol. Die technische Herstellung von Methanol erfolgt ausschließlich in katalytischen Verfahren aus Synthesegas. Das zur Methanolherstellung notwendige Synthesegas kann durch Kohlevergasung aus fossilen Rohstoffen wie Kohle, Braunkohle und Erdölfraktionen oder durch Dampfreformierung oder partielle Oxidation von Erdgas gewonnen werden. Umesterung Im Jahr 2012 wurden weltweit etwa 20 Millionen Tonnen Biodiesel hergestellt, entsprechend einer Deckung von etwa 1 % des jährlichen Kraftstoffverbrauchs. Die Herstellung des Biodiesels erfolgt in Batch- oder kontinuierlichen Reaktoren unter saurer oder basischer Katalyse. Der erste Schritt der Herstellung ist die Umesterung unter Mischung der Methanol-, Katalysator- und Ölphase. Die Lösung wird für mehrere Stunden bei Temperaturen zwischen 50 und 70 °C gehalten, um die Reaktion zu vervollständigen. Nach der Beendigung der Reaktion liegt das Gemisch in zwei Phasen vor. Die leichtere Phase enthält Biodiesel mit Beimengungen von Methanol, die schwerere Phase hauptsächlich Glycerin, überschüssiges Methanol und Nebenprodukte wie freie und neutralisierte Fettsäuren sowie Wasser. Die Biodieselphase wird abgetrennt und in weiteren Schritten gewaschen um Spuren von Lauge sowie das Methanol zu entfernen, und schließlich durch Destillation getrocknet. Die Glycerinphase muss ebenfalls vor einer weiteren Verwendung gereinigt werden, das überschüssige Methanol wird zurückgewonnen. Die neutralisierte Fettsäure bildet eine Seife. Diese erschwert die Phasentrennung durch Bildung einer Emulsion und muss sauer gestellt werden unter Bildung freier Fettsäuren. Die Umesterung kann sauer oder basisch katalysiert werden, wobei die Reaktionsgeschwindigkeit bei basischer Katalyse höher ist als bei der Säurekatalyse. Beim Einsatz von Rohstoffen mit einem geringen Gehalt an freien Fettsäuren werden in der technischen Praxis basische Katalysatoren bevorzugt. Als basischer Katalysator eignen sich besonders Natriummethanolat (NaOCH3) und andere Methanolate, die in Methanol gelöst verwendet werden. Das Methanolat CH3-O− greift an einem der Carbonylkohlenstoffatome des Triglycerids nucleophil unter Bildung eines tetraedrischen Übergangszustands an. Unter Freisetzung des Glycerinats R1-O− bildet sich der Methylester. Das Glycerinat reagiert mit dem im Überschuss vorhandenen Methanol weiter zu Glycerin und Methanolat. Die Reaktionsschritte sind zwar prinzipiell reversibel, durch die Unlöslichkeit des Glycerins in der Methylesterphase wird die Reaktion durch Phasentrennung jedoch auf die Seite des Methylesters verschoben. Kaliumhydroxid oder Natriumhydroxid eignen sich weniger als Katalysator, da bei der Reaktion mit freien Fettsäuren oder Methanol Wasser freigesetzt wird. Das Wasser reagiert mit dem Zielprodukt Fettsäuremethylester zu freier Säure und Methanol, daher sollte auch der Rohstoff nur geringe Mengen an freiem Wasser enthalten. Rohstoffe mit einem hohen Gehalt an freien Fettsäuren, die mit einem basischen Katalysator unter Bildung von Seife reagieren, werden mit sauren Katalysatoren wie Schwefelsäure oder Toluensulfonsäure verestert. Das Methanol wird über das stöchiometrische Verhältnis von Pflanzenöl zu Alkohol hinaus zugegeben, um die Reaktion auf die Seite des Methylesters zu verschieben. In der Praxis hat sich ein etwa zweifacher stöchiometrischer Überschuss von Methanol als geeignet erwiesen. Als Zwischenprodukte bilden sich teilumgeesterte Mono- und Diglyceride, die zum Teil im Biodiesel verbleiben. Moderne Biodieselanlagen haben eine Produktionskapazität von rund 100.000 bis 200.000 Tonnen pro Jahr. Alternative Technologien und Rohstoffe Die Schwerpunkte der Forschung liegen im Bereich Rohmaterialien, Katalyse und Verfahrenstechnik. Da sich alle Fette und Öle als Rohstoffe für die Biodieselherstellung verwenden lassen, wurden zahlreiche neue Fett- und Ölquellen untersucht. So fallen jährlich etwa 10.000 Tonnen Alligatorfett an, die oft als Abfall entsorgt werden. Ein daraus hergestellter Biodiesel erfüllt die amerikanische Biodieselnorm. Auch Abfallfette aus der Hühnerverarbeitung können zu Biodiesel verarbeitet werden. Große Erwartungen knüpfen sich an Pflanzen wie Jatropha, die sich bei hohen Ölanteilen in Gebieten anbauen lassen, die ansonsten landwirtschaftlich schwer nutzbar sind und daher keine Konkurrenz zur Nahrungsmittelproduktion darstellen. Auch Algen sind aufgrund der hohen Flächenausbeuten interessant, wobei die Gewinnung der Lipide, etwa durch Extraktion, energieaufwendig ist. Ein weiterer Forschungsschwerpunkt ist die Veränderung der chemischen Struktur von Biodiesel durch Alkenmetathese, um die Siedekurve von Biodiesel der von Diesel anzupassen. Der im Motoröl enthaltene Biodiesel dampft aufgrund seiner höheren Siedetemperatur nicht ab und kann Polymere bilden, die sich als Ölschlamm ablagern. Durch Metathese kann das Siedeverhalten von Biodiesel so verändert werden, dass dieser leichter aus dem Motoröl ausdampfen kann. Ein Nachteil der derzeitigen Biodieselproduktion durch Umesterung ist die Verwendung homogener Katalysatoren, deren Abtrennung vom Endprodukt aufwendig ist und weitere Produktionsschritte erfordert. Daher wurde der Einsatz heterogener Katalysatoren, die sich leicht vom Endprodukt abtrennen lassen, eingehend untersucht. Der Einsatz von ionischen Flüssigkeiten als Katalysatorsystem wurde ebenfalls untersucht. Eine katalysatorfreie Alternative ohne Einsatz von Kalilauge bietet die Umesterung mit überkritischem Methanol in einem kontinuierlichen Prozess. In diesem Prozess bilden Öl und Methanol eine homogene Phase und reagieren spontan und schnell. Der Prozess ist unempfindlich gegenüber Wasserspuren im Rohmaterial und freie Fettsäuren werden zu Biodiesel verestert. Weiterhin entfällt der Schritt des Auswaschens des Katalysators. Der Prozess erfordert Anlagen für hohe Drücke und Temperaturen, der Gesamtenergieverbrauch ist vergleichbar mit dem herkömmlichen Prozess, da mehrere Prozessschritte entfallen. Ein Vorteil ist unter anderem der geringere Wasserverbrauch. Die Intensivierung des Mischprozesses der schlecht mischbaren Öl- und Methanolphasen durch Einsatz von Ultraschall wurde vielfach untersucht. Dadurch wurde die Reaktionszeit verkürzt und die Reaktionstemperatur herabgesetzt. Um die Mischbarkeit der Öl-, Methanol- und Katalysatorphase zu erhöhen, wurden Lösungsmittel wie Tetrahydrofuran in großen Überschüssen von Methanol eingesetzt. Dadurch gelang es, bei einer Umsetzungsrate von mehr als 98 % die Reaktionszeit signifikant zu verkürzen. Dieses Verfahren erfordert als zusätzlichen Schritt die Abtrennung des leichtentzündlichen Lösungsmittels. Ein weiterer Forschungszweig konzentriert sich auf die mikrobielle Produktion von Biodiesel, wobei Mikroorganismen wie Mikroalgen, Bakterien, Pilze und Hefen verwendet werden. Als Rohstoffe dient etwa Hemizellulose, ein Hauptbestandteil pflanzlicher Biomasse. Genetisch veränderte und metabolisch optimierte Escherichia-coli-Stämme können Biodiesel im technischen Maßstab de novo aus nachhaltigen Rohstoffen produzieren. Das entstehende Produkt enthält neben Biodiesel auch Fettsäuren und Alkohole. Enzyme katalysieren ebenfalls die Umesterung von Ölen mit Methanol. Dieses Verfahren erlaubt die Veresterung freier Fettsäuren neben der Umesterung des Öls. Eigenschaften Biodiesel ist je nach verwendetem Rohmaterial eine gelbe bis dunkelbraune, mit Wasser kaum mischbare Flüssigkeit mit hohem Siedepunkt und niedrigem Dampfdruck. Im Vergleich zu mineralischem Diesel ist er schwefelärmer und enthält weder Benzol noch andere Aromaten. Im Gegensatz zum Dieselkraftstoff ist Biodiesel unter anderem wegen des höheren Flammpunktes kein Gefahrgut und trägt deshalb keine UN-Nummer. Die Schmiereigenschaften von Rapsmethylester sind besser als von mineralischem Diesel, wodurch sich der Verschleiß der Einspritzmechanik vermindert. Das Europäische Komitee für Normung hat im Jahr 2003 für Biodiesel (Fettsäuremethylester – FAME) die Norm EN 14214 festgelegt. Diese wurde im Jahr 2010 in einer neuen Fassung vorgelegt. Damit werden Grenzwerte unter anderem für die chemische Zusammensetzung, den Gehalt an anorganischen Bestandteilen wie Wasser, Phosphor oder Alkalimetallen, die Gesamtverschmutzung sowie physikalische Parameter wie die Dichte oder die Viskosität des Biodiesels definiert. Weiterhin sind über die Norm wichtige motortechnische Parameter wie die Oxidationsstabilität, der Cold Filter Plugging Point, die Cetanzahl und der Cloud Point festgelegt. Biodiesel, der aus reinem Soja- oder Palmöl hergestellt wurde, kann die Norm EN 14214 bislang nicht erfüllen, im Gegensatz zu der in den Vereinigten Staaten von Amerika für Biodiesel gültigen Norm ASTM D 6751. Chemische Zusammensetzung Die EN 14214 legt den Gehalt an Fettsäuremethylestern, einem Maß für den Grad der Umesterung, die Reinheit und die Qualität des Biodiesels auf mindestens 96,5 % (mol/mol) fest. Der Gehalt an Fettsäuremethylestern wird nach EN 14103 mittels Gaschromatographie bestimmt. Mit derselben Methode wird auch der Gehalt an Linolensäure, einer mehrfach ungesättigten Fettsäure, bestimmt. Der Anteil an ungesättigten Fettsäuren wird außerdem über die Iodzahl ermittelt. Nach EN 14214 ist der Anteil an ungesättigten Fettsäuren auf eine Iodzahl von 120 limitiert, was der Addition von 120 Gramm Iod pro 100 Gramm Biodiesel entspricht. Der Anteil an ungesättigten Fettsäuremethylestern und strukturelle Merkmale, wie die Kettenlängenverteilung der Fettsäuremethylester, sind mit Kraftstoffeigenschaften wie der Cetanzahl und der Oxidationsstabilität verbunden. Freie Fettsäuren im Biodiesel verursachen Korrosion und bilden mit basischen Komponenten wie Alkali- oder Erdalkalisalzen Seifen. Diese können zu Verklebung und Verstopfung von Filtern führen. Der Anteil der freien Fettsäuren wird über die Säurezahl nach EN 14104 bestimmt, wobei der obere Grenzwert 0,5 Milligramm Kaliumhydroxid pro Gramm Biodiesel beträgt. Der Anteil an Partial- und Triglyceriden ist ein Maß für den Grad der Umesterung, deren Konzentration durch die Reaktionsführung beeinflusst wird. Der Anteil an Triglyceriden ist gewöhnlich am niedrigsten, gefolgt von Di- und Monoglyceriden. Nach EN 14214 darf Biodiesel maximal 0,80 % (mol/mol) Monoglyceride enthalten, die Konzentration an Di- und Triglyceriden sollte unterhalb von 0,2 % (mol/mol) liegen. Der Gehalt an freiem Glycerin sollte kleiner als 0,02 % (mol/mol) sein. Anorganische Bestandteile Der Schwefelgehalt von Biodiesel darf 10 ppm nicht überschreiten. Kraftstoffe mit einem Schwefelgehalt von weniger als 10 ppm gelten per Definition als schwefelfrei. Der Wassergehalt von Biodiesel wird mittels Karl-Fischer-Titration gemäß EN ISO 12937 bestimmt. Da Biodiesel hygroskopisch ist, steigt der Wassergehalt mit dem Transport und der Lagerdauer an. Biodiesel sollte nicht mehr als 300 ppm Wasser enthalten, denn das Wasser reagiert mit dem Methylestern unter Freisetzung von Methanol und Fettsäuren. Der Gehalt der Alkalimetalle Natrium und Kalium wird nach EN 14538 durch optische Emissionsspektrometrie mit induktiv gekoppeltem Plasma (ICP-OES) bestimmt und sollte in Summe einen Wert von 5 ppm nicht überschreiten. Die Metalle stammen aus dem basischen Katalysator des Herstellungsprozesses. Die Erdalkalimetalle Calcium und Magnesium stammen aus dem für den Waschprozess der Herstellung verwendeten Wasser. Der Grenzwert liegt in Summe ebenfalls bei 5 ppm. Der nach EN 14107 bestimmte Phosphorgehalt darf im Biodiesel laut EN 12214 einen Wert von 4 ppm nicht überschreiten. Der Phosphor stammt hauptsächlich aus natürlich im Pflanzenöl vorkommenden Phospholipiden. Die Gesamtverschmutzung, ein Maß für den Anteil an nicht filtergängigen Partikeln, wird nach EN 12662 bestimmt und muss unterhalb von 24 ppm liegen. Zur Bestimmung wird der Biodiesel filtriert und der Filterkuchen gewogen. Physikalische und anwendungsspezifische Eigenschaften Der Flammpunkt liegt über 130 °C und ist damit signifikant höher als bei regulärem Diesel. Als unterer Grenzwert sind 101 °C festgelegt. Die Dichte, der Quotient aus der Masse und dem Volumen eines Stoffes, liegt für Biodiesel bei 0,88 g/cm³, wobei die Spezifikationsunter- und -obergrenzen bei 0,86 und 0,9 g/cm³ liegen. Die Viskosität ist vergleichbar mit der von Diesel. Sie wird bestimmt nach EN 3104 und muss bei 40 °C zwischen 3,5 und 5 mm²/s liegen. Die Oxidationsstabilität ist eine Kenngröße für die chemische Stabilität des Biodiesels während der Lagerung. Oxidative Abbauprodukte können zu Ablagerungen an den Einspritzpumpen oder zum Filterversatz führen. Die Oxidation des Biodiesels erfolgt durch Luftsauerstoff, der in Radikalreaktionen mit ungesättigten Fettsäuren reagiert und zu Folge- und Abbauprodukten wie Aldehyden, Ketonen, Peroxiden und niedermolekularen Carbonsäuren führt. Die Oxidationsstabilität wird durch die Induktionszeit definiert. Dabei wird eine Biodieselprobe im Luftstrom mehrere Stunden auf einer Temperatur von 110 °C gehalten. Die organischen Bestandteile des Luftstroms werden in Wasser absorbiert, wobei die Leitfähigkeit des Absorbats gemessen wird. Ein auftretender Knickpunkt in der Leitfähigkeitskurve wird als Induktionszeit bezeichnet. Sie muss laut Norm kleiner als 6 h sein. Mit Cloudpoint wird eine Kälteeigenschaft von Dieselkraftstoff und Heizöl bezeichnet. Er ist die Temperatur in Grad Celsius, bei der sich in einem blanken, flüssigen Produkt beim Abkühlen unter definierten Prüfbedingungen die ersten temperaturbedingten Trübungen bilden. Die Grenzwerte der Spezifikation sind abhängig von der Jahreszeit und liegen zwischen −0,6 und 7,4 °C. Der Cloudpoint von Biodiesel hängt vom eingesetzten Rohmaterial ab und kann ohne Zusatz von Additiven zwischen etwa −10 °C für Rapsmethylester und +16 °C bei Tierfettmethylestern liegen. Der Temperaturgrenzwert der Filtrierbarkeit (englisch Cold Filter Plugging Point, CFPP) ist die Temperatur, bei der ein Prüffilter unter definierten Bedingungen durch auskristallisierte Stoffe verstopft und somit ein Maß für die Verwendbarkeit bei Kälte ist. Er wird nach der Methode EN 116 bestimmt. Der Parameter lässt sich durch Zusatz geeigneter Additive beeinflussen. Die Grenzwerte sind jahreszeitabhängig und liegen im Winter bei −20 °C und im Sommer bei 7,9 °C. Ein wichtiger motortechnischer Parameter ist die Cetanzahl von Biodiesel. Sie ist eine dimensionslose Kennzahl zur Beschreibung der Zündwilligkeit. Dabei wird die Zündwilligkeit durch Vergleich mit einem Gemisch von Cetan, einer älteren Bezeichnung für n-Hexadecan, und 1-Methylnaphthalin getestet, wobei der Volumenanteil von Cetan im Vergleichsgemisch der Cetanzahl entspricht. Sowohl die Norm ASTM D 6751 als auch EN 14214 erfordern zur Bestimmung der Cetanzahl einen speziellen Motor oder ein Einzylinder-CFR-Prüfverfahren. Die untere Grenze der Cetanzahl von Biodiesel liegt nach EN 14241 bei 51. Antriebs- und Fahrzeugtechnik Herkömmliche Dieselmotoren nutzen kleine Anteile von Biodiesel als Beimischung in mineralischem Diesel problemlos. Ab dem 1. Januar 2007 galt in Deutschland eine Biokraftstoffquote von 5 %, ab 2009 ist eine Quote von 7 % Biodiesel gesetzlich gefordert und wird von den Mineralölgesellschaften umgesetzt. Eine technische Freigabe der Kraftfahrzeughersteller ist hierfür nicht erforderlich. Für höhere Beimischungen und reinen Biodieselbetrieb muss der Motor biodieselfest sein, belegbar durch technische Freigaben der Fahrzeughersteller. Die mit dem Kraftstoff in Berührung kommenden Kunststoffteile wie Schläuche und Dichtungen müssen beständig gegenüber Biodiesel sein. Diesel neigt zur Sedimentbildung. Die Sedimente lagern sich im Kraftstofftank und den kraftstoffführenden Leitungen ab und sammeln sich dort an. Biodiesel hat gute Lösungsmitteleigenschaften und kann daher im Dieselbetrieb entstandene Ablagerungen aus Tank und Leitungen lösen, die den Kraftstofffilter verstopfen können. Bei grober Verschmutzung kann es zur Beeinträchtigung des Einspritzsystems kommen. In einem nicht biodieseltauglichen Fahrzeug kann er in kurzer Zeit die kraftstoffführenden Schläuche und Dichtungen zersetzen, wobei Dichtungen in der Einspritzanlage und Zylinderkopfdichtungen betroffen sein können. Bei genügend langer Einwirkdauer kann Biodiesel Autolacke angreifen. Biodiesel zeigt, speziell bei hohem Wasseranteil, eine Tendenz zu mikrobiologischer Verunreinigung. Dadurch entstehen unter anderem Proteine, die schleimige Emulsionen bilden und die Kraftstoffqualität beeinflussen. Ein Problem stellt der Biodieseleintrag ins Motoröl dar. Wie bei Normaldieselbetrieb gelangt unverbrannter Biodiesel an die Zylinderwand und damit in den Schmierkreislauf. Reiner Dieselkraftstoff beginnt bei circa 55 °C zu verdampfen. Erreicht das Motoröl im Fahrbetrieb diese Temperatur, verdampft der herkömmliche Diesel aus dem Motoröl und wird über die Kurbelgehäuseentlüftung der Ansaugluft beigemengt und verbrannt. Da Rapsmethylester erst ab etwa 130 °C zu verdampfen beginnt und das Motoröl diese Temperatur nicht erreicht, reichert sich Biodiesel im Motoröl an. Durch höhere örtliche Temperaturen im Schmierkreislauf zersetzt sich der Biodieselanteil allmählich unter Verkokung und Polymerisation, was zu festen oder schleimartigen Rückständen führt. Dies und die Verschlechterungen der Schmiereigenschaften bei hoher Biodieselkonzentration im Motoröl können zu erhöhtem Motorverschleiß führen, weswegen der Ölwechsel bei Biodieselbetrieb in kürzeren Intervallen erforderlich ist. Der Betrieb mit Biodiesel kann für moderne Abgasnachbehandlungssysteme problematisch sein, da die im Biodiesel vorhandenen Spuren von Anorganika zu Ablagerungen führen und diese Systeme schädigen können. Der Energiegehalt von Diesel liegt etwa bei 36 MJ/l, während Biodiesel einen Energiegehalt von 33 MJ/l aufweist. Wegen der geringeren Energiedichte können beim Einsatz von Biodiesel Leistungseinbußen von etwa 5 bis 10 % oder ein ebenso erhöhter Kraftstoffverbrauch auftreten. Für Biodiesel zugelassene Motoren mit Common-Rail-Technologie können die Einspritzzeit und -menge über einen Sensor optimieren, der dem Motormanagement Informationen vermittelt, welcher Kraftstoff oder welches Kraftstoffgemisch eingesetzt wird. So wird es möglich, unabhängig vom verwendeten Kraftstoff und dessen Mischungsverhältnis die Abgasnormen einzuhalten. Es wurden verschiedene Sensorsysteme auf spektroskopischer Basis oder als Leitfähigkeitsdetektor für die Detektion des Biodieselanteils im Kraftstoff erprobt. Eine Untersuchung der Darmstädter Materialprüfungsanstalt hat gezeigt, dass Korrosionsschutzschichten wie Verzinkung von Biodiesel angegriffen werden können. Kritisch war hierbei, dass Biodiesel leicht hygroskopisch wirkt und bei einem eventuellen Wassergehalt durch Esterhydrolyse freie Fettsäuren entstehen, die den pH-Wert senken und korrosiv wirken können. Durch eine Beimischung konventionellen Diesels wird dieser Effekt vollständig verhindert. Verwendung Straßenverkehr Der Verkehrssektor verbrauchte im Jahr 2005 in Deutschland etwa 20 % der Gesamtenergie, wovon wiederum 80 % auf den Straßenverkehr entfielen. Biodiesel hatte mit 70 % im Jahr 2011 den größten Anteil an erneuerbaren Energien im Verkehrssektor. Der Straßenverkehr ist der Bereich, in dem der Einsatz von Biodiesel am weitesten verbreitet ist, Blends wie B5 und B7 sind weltweit Standard. In Deutschland erreichte der Verbrauch an Biodiesel im Straßenverkehrsbereich im Jahr 2007 einen vorläufigen Höhepunkt mit einem Anteil von etwa 7 %. Die Verkehrsleistung stieg von 1992 bis 2013 im Personenverkehr um 24 % und im Güterverkehrsbereich um 60 %, wobei die Energieeffizienz im gleichen Zeitraum deutlich stieg. Für den Güterverkehr mit schweren Nutzfahrzeugen und Personenkraftwagen mit hohen Kilometerleistungen, die weitgehend mit Dieselmotoren angetrieben werden, wird weiterhin ein starkes Wachstum erwartet, einhergehend mit einem weiteren Anstieg des Anteils von Dieselkraftstoff von 66 bis 76 % am Bedarf von Flüssigkraftstoffen für Verbrennungsmotoren. Durch festgelegte Beimischungsquoten wird dementsprechend der Gesamtbedarf an Biodiesel weiter steigen. In den Jahren 2018 und 2019 lag die THG-Quote bei 4 % und stieg 2020 auf 6 %. Die Steigerung konnte vor allem durch die gesteigerte Beimischung von hydriertem Pflanzenöl (HVO) erreicht werden. In etwa auf Vorjahresniveau blieben die Mengen an UCOME (Altspeiseölmethylester) inkl. FAME aus Abfall- und Reststoffen (885.000 t) sowie PME (Pflanzenölmethylester) (1.508.000 t). Schienenverkehr Der Schienenverkehrssektor stützt sich stark auf Erdöl basierende Kraftstoffe. Daher wurde der Einsatz von Biodiesel und dessen Gemischen mit dem Ziel der Reduzierung der Treibhausgase und der Senkung des Erdölverbrauchs in vielen Ländern untersucht. Eine Lok der Virgin Voyager Gesellschaft (Zug-Nr. 220007 Thames Voyager) von Richard Branson wurde zur Verwendung eines 20-prozentigen Biodieselgemisches umgebaut. Ein weiterer Zug, der während der Sommermonate auf einer Mischung mit 25 % Biodiesel auf Rapsölbasis laufen soll, wurde im östlichen Teil des US-Bundesstaates Washington eingesetzt. Die gesamte Flotte der Prignitzer Eisenbahn GmbH fährt seit 2004 mit Biodiesel. Das davor eingesetzte Pflanzenöl konnte für die neuen Triebwagen nicht mehr genutzt werden. In Indien wurde der Einsatz von Biodiesel auf Jatropha-Basis eingehend untersucht, da diese Pflanze am besten geeignet schien, unter einer Vielzahl von klimatischen Bedingungen zu wachsen. Auch in Litauen wurde der Einsatz von Biodieselblends untersucht. Dabei zeigte sich, dass Diesellokomotiven effizient mit einem B40-Blend auf Rapsölmethylesterbasis arbeiten. Schifffahrt Die Verwendung von Biodiesel statt herkömmlichem Diesel für die Berufsschifffahrt oder Wassersportaktivitäten auf Binnengewässern, die als Trinkwasserspeicher dienen, verringert wegen der schnellen biologischen Abbaubarkeit die Gefahr einer Trinkwasserverschmutzung. So wird das Ausflugsschiff Sir Walter Scott auf dem Loch Katrine in Schottland mit Biodiesel betrieben, damit bei einem Unfall die aus diesem See gespeiste Trinkwasserversorgung von Glasgow nicht durch Kontamination mit Kohlenwasserstoffen gefährdet ist, wie dies bei Diesel der Fall wäre. Für den Bodensee soll untersucht werden, ob sich Biodiesel als alternativer Kraftstoff einsetzen lässt. Damit ließe sich ein wesentlicher Beitrag für den Gewässerschutz des Bodensees leisten. Auch das Umweltbundesamt empfiehlt die Verwendung von Biodiesel als Kraftstoff in Sportbooten unter Aspekten des Gewässerschutzes. Um die generelle Einsatzfähigkeit von Biodiesel in der Schifffahrt zu demonstrieren, wurde der Trimaran Earthrace entwickelt. Er wurde ausschließlich von Biodiesel angetrieben und umrundete im Jahr 2008 die Erde in 60 Tagen, 23 Stunden und 49 Minuten. Luftverkehr Der Einsatz von Biodiesel im Luftverkehr befindet sich noch in der Entwicklung, der Betrieb von Verkehrsflugzeugen mit niedrigen Konzentrationen von Biodiesel in Mischungen mit Kerosin scheint ohne wesentliche Änderung am Flugzeug, der Flughafeninfrastruktur oder beim Flugbetrieb technisch machbar zu sein. Die Luftfahrtindustrie verbrauchte im Jahr 2011 etwa 216 Millionen Tonnen Kerosin. Damit könnte die weltweit hergestellte Biodieselmenge etwa 7 % des Verbrauchs ersetzen. Das Unternehmen Green Flight International führte die ersten Flüge durch, bei denen für den Großteil der Strecke reines Biodiesel zum Einsatz kam: 2007 mit dem Kurzstreckenjet Aero L-29 Delfin in Nevada, im folgenden Jahr etwa 4.000 Kilometer quer durch die Vereinigten Staaten. Bisherige Versuche mit Verkehrsmaschinen vom Typ Boeing 747 verwenden Biodiesel in Mischung mit fossilem Kerosin. Mit einer Biokraftstoff-Beimischung von 20 % fand im Februar 2008 ein Testflug der Fluggesellschaft Virgin Atlantic von London Heathrow Airport nach Amsterdam statt, im Dezember 2008 führte Air New Zealand von Auckland aus einen Testflug durch, bei dem ein Triebwerk von einer Mischung aus Kerosin und 50 % Biokraftstoff aus Jatrophaöl angetrieben wurde. Der Einsatz von Biodiesel bei Bodenfahrzeugen und Flugzeugen würde außerdem die Partikelemissionen auf Flughäfen reduzieren. Heizöl Biodiesel kann im Prinzip als Bioheizöl verwendet werden, wobei aufgrund der guten Lösungsmitteleigenschaften hohe Anforderungen an die chemische Beständigkeit der verwendeten Heizanlagenkomponenten gestellt werden. Anders als bisherige Kraftstoffe wird Biodiesel als Heizölersatz nicht durch eine vergleichbare Steuerermäßigung gefördert, da Heizöl ohnehin geringer besteuert wird. Heizöl mit einer Beimischung von 5 bis 20 % Biodiesel ist in Deutschland seit 2008 auf dem Markt und kann aufgrund geeigneter Additive im Heizungsmarkt eingesetzt werden. Politische Vorgaben Die Europäische Union ist, besonders im Verkehrsbereich, abhängig von auf Mineralöl basierenden Kraftstoffen. Bereits seit der Ölkrise in den 1970er Jahren nahm die allgemeine Besorgtheit über die Abhängigkeit von Rohölimporten zu. Die Berichterstattung über die globale Erwärmung, besonders seit der Klimakonferenz in Kyoto, regte zudem vielseitige Diskussionen über den Einfluss von Kohlenstoffdioxidemissionen auf das Klima an. Europäische Union Die Nutzung von Biodiesel in der EU wird über politische Maßnahmen mit dem grundlegenden Ziel des vermehrten Einsatzes erneuerbarer Energiequellen gesteuert. Diese Politik verfolgt die EU aus ökologischen Gründen wie der Reduktion von Treibhausgasen und der Verminderung lokaler Umweltbelastungen durch Abgasemissionen, der Schaffung von Arbeitsplätzen und Einkommen und um einen Beitrag zu einer sicheren Energieversorgung zu leisten. Aus diesen Gründen formulierte die Europäische Kommission im Jahre 1997 in einem Weißbuch das Ziel, den Anteil erneuerbarer Energien am gesamten Primärenergieverbrauch bis zum Jahre 2010 auf 12 % zu verdoppeln. In einem im Jahr 2000 herausgegebenen Grünbuch legte die Kommission weiterhin eine Strategie für die europäische Energieversorgungssicherheit fest. Mit ihrer Biokraftstoffrichtlinie gab die Europäische Union einen Stufenzeitplan für die gesteckten Ziele bei der Deckung des Kraftstoffverbrauchs durch Biokraftstoffe vor. Alle Mitgliedstaaten sollten ihren Kraftstoffverbrauch im Verkehrssektor bis zum Jahr 2005 zu 2 % mit Biokraftstoffen abdecken. Ab 2010 sollten es 5,75 %, bis 2020 sollten es 10 % sein. Dies konnte durch Verwendung von Biotreibstoffen in Reinform, als Beimischung oder durch Einsatz anderer erneuerbarer Energien erfolgen. Diese Richtlinie enthielt eine Ermächtigung der Mitgliedstaaten, die Besteuerung von Biokraftstoffen in Hinblick auf deren Ökobilanz anzupassen. Daraufhin begann eine intensive Diskussion über die Ökobilanzierung von Biodiesel in Deutschland und auf europäischer Ebene. Die Internationale Organisation für Normung publizierte die dazugehörige Methodik in der Norm ISO 14044, die den Standard für eine ISO-konforme Ökobilanzierung darstellt. Des Weiteren wurde am 27. Oktober 2003 die Energiesteuerrichtlinie in Kraft gesetzt. Sie ist die rechtliche Basis für die nationalen Verordnungen und Gesetze in Bezug auf Steuervergünstigungen für Biokraftstoffe. Die Richtlinie war nur sechs Jahre gültig, konnte aber bei Bedarf zeitlich ausgedehnt werden. Den Mitgliedstaaten wurde freie steuerliche Gestaltung zugesichert, solange die umweltpolitischen Ziele erreicht wurden. Die Mitgliedstaaten meldeten den Fortschritt an die Europäische Kommission, die wiederum an das Europäische Parlament berichtete. Im Rahmen einer Politik zur Förderung erneuerbarer Energiequellen legte die Europäische Kommission im Jahr 2005 einen Aktionsplan für Biomasse vor mit dem Ziel, die Wettbewerbsfähigkeit, die nachhaltige Entwicklung und die Versorgungssicherheit zu gewährleisten und die Abhängigkeit Europas von Energieeinfuhren zu verringern. Der Aktionsplan wurde im Jahr 2006 durch eine Strategie der Europäischen Union für Biokraftstoffe ergänzt. Die Strategie diente der Förderung von Biokraftstoffen in der EU und in Entwicklungsländern, wobei die Erforschung von Biokraftstoffen der zweiten Generation einbezogen wurde. Die Erneuerbare-Energien-Richtlinie vom 23. April 2009 ersetzte die Biokraftstoffrichtlinie und hob sie auf. Mit dieser Richtlinie legten die Mitgliedstaaten der Europäischen Union verbindlich den bis zum Jahr 2020 zu erreichenden Anteil von erneuerbaren Energien am Gesamtenergieverbrauch fest. Als Ziel sollte bis zu diesem Jahr der Anteil von erneuerbaren Energien bei mindestens 20 % liegen. Tatsächlich lag der Anteil erneuerbarer Energien in der EU bereits 2019 bei 19,7 % und soll bis 2030 weiter gesteigert werden auf 32 %. Ein kontrovers diskutiertes Thema ist der Einfluss der indirekten Landnutzungsänderung (englisch: indirect Land Use Change (impacts of biofuels), iLUC). Sie bezeichnet den Effekt, dass die Anpflanzung von Biomasse, etwa zur Palmölgewinnung für Biodiesel, die Flächennutzung für die Nahrungs- oder Futtermittelproduktion verdrängt. Im Jahr 2011 forderte eine Studie des International Food Policy Research Institute (IFPRI) eine Verschärfung der Berechnung der Klimabilanz unter Berücksichtigung der indirekten Landnutzungsänderung. Der Modellansatz des IFPRI beruht auf komplexen ökonometrischen Gleichgewichten, andere Modellansätze führen zu anderen Ergebnissen. Bei Biodiesel liegt die Bandbreite der berechneten zusätzlichen Emissionen zwischen 1 und 1434 gCO2/MJ. Die meisten Modelle führen jedoch zu dem Schluss, dass sich bei Einbeziehung der indirekten Landnutzungsänderung in die Ökobilanz gegenüber den bisherigen Berechnungen höhere Emissionen ergeben. Deutschland Deutschland verpflichtete sich bereits im Jahr 1997 im Rahmen des Kyoto-Protokolls seine Emissionen in der ersten Verpflichtungsperiode von 2008 bis 2012 gegenüber 1990 um durchschnittlich 5,2 % zu reduzieren, etwa durch die Förderung von nachwachsenden Rohstoffen für energetische Zwecke. Vor dem Jahr 2003 wurden reine Biokraftstoffe wie Pflanzenöl oder Biodiesel gar nicht oder nur geringfügig durch die Mineralölsteuer belastet. Eine Änderung des Mineralölsteuergesetzes stellte zum 1. Januar 2004 Biodiesel formal dem Petrodiesel gleich, der Steueranteil auf Biodiesel betrug zunächst 0 Cent pro Liter. Ab 2003 führte der Gesetzgeber die Beimischungspflicht ein, der Beimischungsanteil von 5 % wurde ebenfalls steuerbegünstigt. Viele, vor allem gewerbliche Verkehrsteilnehmer, zogen einen wirtschaftlichen Vorteil aus dieser Regelung, der Marktanteil für Biodiesel stieg in der Folge stark an. Die daraus resultierenden Steuerausfälle führten in der Folge zur Reduzierung der steuerlichen Vorteile und zur Formulierung von erweiterten gesetzlichen Beimischungsquoten, um die Ziele bezüglich der Reduktion von Treibhausgasen einzuhalten. Das 2006 vom Bundestag verabschiedete Biokraftstoffquotengesetz schrieb vor, dass der Anteil an Biokraftstoffen bis 2010 auf 6,75 % und bis 2015 auf 8 % steigen sollte. Das Gesetz stellte Anforderungen an eine nachhaltige Bewirtschaftung landwirtschaftlicher Flächen und zum Schutz natürlicher Lebensräume und forderte bestimmtes Kohlenstoffdioxidverminderungspotenzial.() Durch das Gesetz zur Änderung der Förderung von Biokraftstoffen vom 15. Juli 2009 wurde beschlossen, diese Quote 2009 bei 5,25 % zu belassen und ab 2010 bei 6,25 % einzufrieren. Bereits seit 2004 durfte herkömmlicher Mineralöldiesel mit bis zu 5 % Biodiesel vermischt werden, seit Februar 2009 erlaubte eine neue Dieselnorm die Beimischung von bis zu 7 %. Seit dem 1. Januar 2011 wird der Anteil von Biodiesel, der aus Altspeisefetten und tierische Altfetten hergestellt wurde, gegenüber dem Anteil von Raps-, Soja- oder Palmölmethylester doppelt gewichtet auf die Biokraftstoffquote angerechnet. Der Bundestag verabschiedete am 29. Juni 2006 das Energiesteuergesetz, das die schrittweise Besteuerung von Biodiesel und Pflanzenölkraftstoff vorsah. Für beide Stoffe galt ab 2012 der volle Mineralölsteuersatz. Reiner Biodiesel wurde ab August 2006 mit neun Cent pro Liter besteuert, eine jährliche Erhöhung um sechs Cent war im Energiesteuergesetz verankert. Dies führte zu einem deutlichen Absinken des Biodieselanteils am Diesel-Gesamtbedarfsvolumen. Deswegen wurde im Juni 2009 das Energiesteuergesetz geändert. Es war weiterhin eine jährliche Erhöhung vorgesehen, jedoch griff der volle Steuersatz erst ab 2013. Bereits im Dezember 2009 wurde die Besteuerung von Biodiesel im Zuge des Wachstumsbeschleunigungsgesetzes erneut geändert. Die jährliche Erhöhung für 2011 und 2012 wurde ausgesetzt, so dass die Steuer auf Biodiesel Anfang 2013 in einem Sprung von 18,6 ct auf 45,03 ct pro Liter stieg. Da der Brennwert von Biodiesel unter dem von Mineralöl liegt, wird der volumenbezogene Steuersatz um zwei Cent unter dem Satz für fossile Kraftstoffe bleiben. Die Steuerermäßigung für reine Biokraftstoffe wird gemäß § 50 Absatz 1 Satz 5 des Energiesteuergesetzes nur für die Mengen Biokraftstoffe gewährt, welche die in § 37a Absatz 3 des Bundes-Immissionsschutzgesetzes für die Beimischung genannten Mindestanteile, die so genannte „fiktive Quote“, überschreiten. Die am 30. September 2009 erlassene Biokraftstoff-Nachhaltigkeitsverordnung dient der Umsetzung der Vorgaben der Erneuerbare-Energien-Richtlinie. Demnach dürfen Produzenten für die Herstellung von Biodiesel nur Rohstoffe verwenden, die aus einem nachhaltigen Anbau stammen. Die gewonnene Energie wird im Rahmen der Erneuerbare-Energien-Richtlinie nur dann berücksichtigt, wenn sie zu einer Minderung der Treibhausgasemissionen von mindestens 35 % beiträgt. Der Prozentsatz steigt ab 2017 auf 50 %. Akkreditierte Stellen geben Nachhaltigkeitsnachweise () aus, die bestätigen, dass die Anforderungen während des gesamten Herstellungsprozesses eingehalten wurden. Laut der Bundesanstalt für Landwirtschaft und Ernährung sparte Deutschland im Jahr 2011 durch Biokraftstoffe etwa 7 Millionen Tonnen Kohlenstoffdioxidäquivalent ein, entsprechend einer Einsparung von etwa 50 % gegenüber dem fossilen Kraftstoffen. Im Jahr 2012 teilte die EU-Kommission jedoch mit, dass es ein europäisches Zertifikat gebe und der deutsche Nachhaltigkeitsnachweis daher nicht mehr anerkannt werde. Österreich Die Biokraftstoffrichtlinie wurde in Österreich im November 2004 durch eine Novelle der Kraftstoffverordnung in nationales Recht umgesetzt und im Juni 2009 angepasst. Demnach gab es seit Oktober 2005 eine Beimischungspflicht von 2,5 % Biokraftstoffen für alle Otto- und Dieselkraftstoffe. Als Bemessungsgrundlage der Beimischungsquote dient der Energiegehalt der Kraftstoffe. Der Anteil erhöhte sich im Oktober 2007 auf 4,3 % und im Januar 2009 wurde die Beimischungsquote auf maximal 7 % erhöht. Die Umsetzung der Biokraftstoffrichtlinie wurde in Österreich im Wesentlichen durch die Beimischung von Biodiesel erreicht. Österreich verfügte 2011 über 14 Biodieselanlagen mit einer Produktionskapazität von knapp 700.000 Tonnen pro Jahr. Biodiesel und andere Heiz- und Kraftstoffe, die gänzlich oder fast zur Gänze aus biogenen Stoffen hergestellt wurden, sind von der Mineralölsteuer befreit. Schweiz Die Schweiz hat sich im Rahmen des Kyoto-Protokolls zu einer Verringerung des Kohlenstoffdioxidausstoßes verpflichtet. Biodiesel wird in der Schweiz bis sieben Prozent beigemischt, eine gesetzliche Beimischungspflicht für Biodiesel besteht jedoch nicht. Seit dem 1. Juli 2008 ist Biodiesel in der Schweiz von der Mineralölsteuer befreit, sofern er gesetzlich festgelegte ökologische und soziale Kriterien erfüllt. Die damit zusammenhängende Ökologisierung der Mineralölsteuer fördert fiskalisch umweltschonende Treibstoffe. Diese Maßnahmen sind für den Bundeshaushalt ertragsneutral, da eine höhere Besteuerung des Benzins Mindereinnahmen kompensiert. In der Schweiz sind nur erneuerbare Treibstoffe zugelassen, welche weder die Nahrungs- noch die Futtermittelindustrie konkurrenzieren (Teller-Trog-Tank-Prinzip). Markt- und Kapazitätsentwicklung Die Markt- und Kapazitätsentwicklung für Biodiesel geht einher mit den politischen Vorgaben, besonders der steuerlichen Begünstigung sowie dem vorgeschriebenen Beimischungsanteil zum Petrodiesel. Der Anteil von Biodiesel stieg für einige Jahre kontinuierlich und erreichte im Jahr 2007 den Spitzenwert von etwa 12 % am deutschen Dieselkraftstoffmarkt, wobei der Reinkraftstoff besonders von gewerblichen Verbrauchern wie Speditionen genutzt wurde. Im Jahr 2007 kauften Speditionen etwa die Hälfte des Reinbiodiesels, etwa 7 % wurde über Tankstellen verkauft und 3 % an Landwirte. Der Preisvorteil von Biodiesel verringerte sich jedoch bereits seit 2006, teils als Folge der jährlich steigenden Steuerbelastung, teils bedingt durch die Preisentwicklung auf den Pflanzenöl- und Rohölmärkten. Nach mehreren Jahren mit steigenden Absätzen ging der Verkauf von Biodiesel-Reinkraftstoff in Deutschland ab 2008 zurück. Der kraftstoffbedingte Mehrverbrauch, technische Restrisiken und gegebenenfalls Umrüstungskosten waren nur durch einen Preisvorteil für Biodiesel auszugleichen. Im Peakjahr 2007 wurden in Deutschland etwa 2,15 Millionen Tonnen B100 abgesetzt, im Jahr 2012 nur noch 100.000 Tonnen. Die Energiesteuer auf reinen Biodiesel stieg von ursprünglich 9 Cent im Jahr 2006 über 18,6 Cent ab 2010 auf 45 Cent pro Liter zum 1. Januar 2013. Dadurch kam der Verkauf von Biodiesel seit Januar 2013 in Deutschland als Reinkraftstoff praktisch zum Erliegen. Durch die obligatorische Beimischung von Biodiesel zu fossilem Diesel erhöht sich der Absatz in diesem Segment, dies glich die Verluste beim Reinkraftstoff jedoch nicht aus. Die Biokraftstoffrichtlinie von Mai 2003 forderte, dass die EU-Mitgliedstaaten ab 31. Dezember 2005 mindestens 2 % und bis zum 31. Dezember 2010 mindestens 5,75 % der zum Transport bestimmten Kraftstoffe aus erneuerbaren Quellen zu verwenden haben. Erreicht wurde eine Quote von 5,8 %. Österreich setzte die EU-Direktive früh um und ab 1. November 2005 boten Tankstellen nur noch Diesel mit 5 % Biodieselzusatz und seit Februar 2009 nur noch Diesel mit 7 % Biodieselanteil an. Der Anbau von Raps als Rohstoff für die Biodieselherstellung führte zu einer Ausdehnung der Anbauflächen, die in Deutschland zum großen Teil in den ostdeutschen Flächenländer Mecklenburg-Vorpommern, Sachsen-Anhalt, Brandenburg und Sachsen liegen. Gleichzeitig stieg auch die Herstellungskapazität für Biodiesel, allein zwischen 2004 und 2007 vervierfachte sich die Kapazität von 1,2 auf 4,8 Millionen Tonnen. Im Jahr 2011 standen bereits 22,12 Millionen Tonnen Kapazität zur Verfügung. Im Jahr 2012 produzierten in Deutschland insgesamt 51 Hersteller Biodiesel, davon waren 31 Unternehmen in den neuen Bundesländern ansässig. In der Biodieselbranche waren 2012 insgesamt 17.900 Menschen beschäftigt. Aufgrund der politischen Rahmenbedingungen und der Marktlage werden die Kapazitäten jedoch vielfach nicht ausgelastet. Lag die Anlagenauslastung im Jahr 2006 noch bei etwa 81 %, so sank sie bis 2010 auf etwa 43 %. Die Europäische Union dominierte 2012 als größter Hersteller und Verbraucher den globalen Biodieselmarkt. Dies erklärt sich aus dem Marktanteil der zugelassenen Personenkraftwagen mit Dieselmotor. Er liegt in Westeuropa bei etwa 55 %, verglichen mit einem Anteil von 2,6 % in den Vereinigten Staaten. Im Jahr 2010 stellten Deutschland und Frankreich die größten Mengen Biodiesel her, gefolgt von Spanien und Italien. Mit dem Wegfall der steuerlichen Begünstigung und der Einführung der mengendefinierten Beimischungsquoten ergab sich für die Raffinerien der Anreiz zur Beimischung von preiswerten Importbiodiesel auf Soja- und Palmölbasis. Bis zum Jahr 2009 stammte ein Großteil des importierten Biodiesels aus den Vereinigten Staaten. Der Grund lag in der 2004 vom Kongress der Vereinigten Staaten erlassenen Steuervergünstigung für Biodiesel. Sie ermöglichte es, Biodiesel in die Vereinigten Staaten zu importieren, mit weniger als 1 % Petrodiesel zu B99 zu mischen und nach Inanspruchnahme der Steuervergünstigung von etwa 1 USD pro Gallon dieses in die EU zu exportieren. Die ab März 2009 von der EU auf B99 erhobenen Zölle beendeten diese so genannte Splash-and-Dash-Praxis (‚Splash and Dash‘ bezeichnet einen aus dem Motorsport übernommenen Begriff für einen kurzen Zwischenstopp). Seit März 2009 stieg daraufhin der Importanteil von Biodiesel aus Ländern wie Kanada und Singapur. Dabei handelte es sich um US-Biodiesel, der über diese Drittländer exportiert wurde. Im Jahr 2010 exportierte Argentinien 64 bis 73 % des dort aus Sojaöl hergestellten Biodiesels in die Europäische Union. Argentinien erhebt auf landwirtschaftliche Erzeugnisse einen hohen Exportzoll, während der Zoll auf verarbeitete Produkte wie Biodiesel niedriger ist. Der Preisvorteil liegt bei etwa 140 bis 150 Euro pro Tonne Sojaölmethylester im Vergleich zu Sojaöl. Indonesien exportierte im Jahr 2010 etwa 80 % der heimischen Produktion auf Basis von Palmöl in die EU, vor allem in die Niederlande, nach Italien und Spanien. Das in Deutschland verwendete UCO wird hauptsächlich aus China importiert. Der Anstieg dieser Importe fällt zeitlich mit dem verstärkten Import von Palmöl durch China zusammen. Ökologische Aspekte Da Biodiesel aus nachwachsenden Rohstoffen hergestellt wird, ersetzt sein Gebrauch Kraftstoffe auf Erdölbasis, deren künftige Verfügbarkeit bereits mittelfristig als begrenzt angesehen wird. Zudem mindert Biodiesel als erneuerbarer Energieträger die Importabhängigkeit der deutschen Energieversorgung im Kraftfahrsektor, da momentan kein Alternativantrieb in ausreichender Menge und Effizienz zur Verfügung steht. Biokraftstoffe trugen 2011 mit 120 PJ zum Primärenergieverbrauch in Deutschland bei. Die Senkung der Kohlenstoffdioxidemissionen war das ursprüngliche Ziel des Biodieseleinsatzes. Die Ökobilanz muss neben dem mit Treibhausgasemissionen verbundenen Fremdenergieeinsatz bei der Gewinnung von Biodiesel auch die durch Landnutzungsänderung verursachten Effekte betrachten. Biologische Abbaubarkeit Die Untersuchung der biologischen Abbaubarkeit von Biodiesel und dessen Blends durch die Messung der Kohlenstoffdioxidentwicklung zeigte, dass Biodiesel verschiedener Herkunft leicht biologisch abbaubar und daher bei Leckagen weniger umweltbelastend als herkömmlicher Diesel ist. Letzterer ist als wassergefährdend in die Wassergefährdungsklasse 2 eingestuft, während Biodiesel als schwach wassergefährdend in die Wassergefährdungsklasse 1 eingestuft wurde. Reines Pflanzenöl gilt als nicht wassergefährdend. Es wurden für Biodiesel verschiedener Herkunft Abbauraten zwischen 84 und 89 % innerhalb von 24 Stunden gefunden. Die Werte sind vergleichbar mit dem Abbau von Dextrose. Reines Pflanzenöl wurde langsamer abgebaut, wobei Raten zwischen 76 und 78 % gefunden wurden. Reiner Diesel wurde zu 18 % abgebaut. Gaschromatografische Untersuchungen des Abbaus von B50 zeigten, dass sich die Abbaurate des Dieselanteils gegenüber der von reinem Diesel verdoppelte. Daher wurde Biodiesel für die Reinigung ölverschmutzter Strände in Betracht gezogen. Untersuchungen zeigten, dass sich die mikrobiologischen Gemeinschaften durch den Abbau von Biodiesel und seinen Blends auf den kontaminierten Böden veränderten. Die schnelle biologische Abbaubarkeit des Biodiesels kann sich im praktischen Einsatz in Kraftfahrzeugen als Nachteil auswirken, da sie einhergeht mit einer schlechten Alterungsbeständigkeit. Nach unsachgemäßer und langer Lagerung von Biodiesel oder dessen Blends können mikrobiologischer Befall, Oxidation und Wasseranreicherung die Eigenschaften des Biodiesels verschlechtern und zu einem biologischen Teilabbau führen. Dem kann durch Zufügen kleiner Mengen an Petrodiesel – schon 1 % Petrodiesel reicht aus – entgegengewirkt werden. Abgasemissionen Der geringe Aromaten- und Schwefelgehalt von Biodiesel reduziert den Ausstoß von Schwefeldioxid und Partikeln. Im Vergleich zu Dieselkraftstoff wird eine Reduktion der Emissionen von Kohlenwasserstoffen, Kohlenstoffmonoxid und Feinstaub gefunden. Dies wird vor allem auf den Sauerstoffgehalt von Biodiesel zurückgeführt. So wurde gefunden, dass die Emissionsrate für Kohlenwasserstoffe wie 2,2,4-Trimethylpentan, Toluol, Xylolen sowie für polycyclische aromatische Kohlenwasserstoffe beim Einsatz von Biodiesel und Blends um bis zu 90 % reduziert wird. Die Reduktion bei sauerstoffhaltigen Komponenten wie Formaldehyd oder Acetaldehyd lag bei 23 bis 67 %, wobei die Ergebnisse nicht eindeutig sind. Es wurde eine signifikante Abhängigkeit vom Anteil ungesättigter Fettsäuren im Biodiesel auf die Emissionscharakteristik festgestellt. Die Emission von flüchtigen organischen Verbindungen von Blends wie B20 lag 61 % unter der von Diesel. Demgegenüber wird in den meisten Studien über erhöhte Emissionen von Stickstoffoxiden berichtet. Neben biodieselspezifischen Faktoren wie der verwendeten Rohstoffquelle hängt das Maß der Stickoxidemissionen von motortechnischen Faktoren wie Einspritzzeitpunkt, Zündverzug oder der adiabatischen Flammentemperatur ab. Moderne Motoren mit optimierter Einspritztechnik oder Abgasrückführung sowie fortschrittliche Katalysatorsysteme reduzieren die Stickoxidemissionen erheblich. Moderne Fahrzeuge erfüllen beim Betrieb mit Biodieselblends wie B7 die Emissionsstandards für Dieselmotoren. Verringert werden kann die Rohemission durch NOx-Speicherkatalysatoren oder selektive katalytische Reduktions-Systeme. Kuppelprodukte Bei der Produktion von Biodiesel aus Ölpflanzen fallen kaum Abfälle an, da alle Kuppelprodukte verwertet werden. Rapsstroh wird gehäckselt und in den Boden als organischer Dünger eingearbeitet. Es trägt zum Erhalt des Humuskörpers und damit zur Bodenfruchtbarkeit bei. Die Produktion von Ölpflanzen im Mischfruchtanbau oder im Rahmen der Fruchtfolge kann die Auslaugung von Böden verhindern und den Ertrag an Lebensmitteln auf Dauer steigern, wodurch der Einsatz von Herbiziden verringert werden kann. Entsprechende Versuche wurden bereits in der Praxis durchgeführt und sind positiv verlaufen. Die in Deutschland hauptsächlich verwendete Biodieselquelle Raps wird etwa alle 3 bis 4 Jahre auf demselben Feld angebaut. Rapskuchen und Sojakuchen, die bei der Pressung mit einem Restölgehalt von etwa 10 % anfallen, werden als hochwertige Futtermittel genutzt. Das bei der Umesterung entstehende Glycerin kann in der chemischen Industrie weiterverwertet werden, etwa in der Kosmetik. Monomere wie 1,3-Propandiol, Epichlorhydrin, Acrylsäure und Propen können aus Glycerin hergestellt werden. Die Funktionalisierung von Glycerin führt zu Ethern, Acetalen, Ketalen und Estern, die als Kraftstoffadditiv für Ottokraftstoffe oder Diesel verwendet werden können. Mit genetisch veränderten Escherichia-coli-Stämmen lässt sich 1,2-Propandiol aus dem bei der Biodieselherstellung anfallenden Rohglycerin herstellen. Klimawirkung Die Klimaneutralität von Biodiesel ist umstritten. Der Kohlenstoffdioxidbindung beim Wachstum der Pflanze müssen nicht nur die Kohlenstoffdioxidfreisetzung bei der Verbrennung gegenübergestellt werden, ebenso sind die bei Anbau, Herstellung und Nutzung anfallenden Emissionen klimarelevanter Stoffe zu berücksichtigen. Neben Kohlendioxid spielen hier vor allem die in ihrer Höhe umstrittenen Distickstoffmonoxid-Emissionen eine Rolle, die als eine bedeutende Quelle ozonschädlicher Emissionen gelten. Für den Anbau von Raps wird ein Emissionsfaktor für Distickstoffmonoxid aus der Anwendung von Stickstoffdüngern mit 0,0125 kg N2O/kg pro Kilogramm aufgebrachten Stickstoffäquivalents angenommen. Je nach Studie wird die Klimabilanz von Biodiesel um etwa 20 bis 86 % günstiger eingeschätzt als die von Mineralöldiesel. Die US-amerikanische Umweltbehörde, die Environmental Protection Agency (EPA), veröffentlichte 2010 eine umfangreiche Studie zur Ökobilanz von Biodiesel auf Sojaöl- und Altfettbasis, die auch durch den Ölpflanzenbau verursachte Landnutzungsänderungen betrachtete. In Betracht gezogen wurden unter anderem die für die Biodieselproduktion benötigte Energie, die internationale Landnutzungsänderung, die benötigten Betriebsmittel, der Düngereinsatz, der Verbrauch mineralischer Kraftstoffe für die Distribution, die direkte Landnutzungsänderung sowie Methanemissionen. Dabei wurde eine 57%ige Reduktion der Treibhausgase gegenüber mineralischem Diesel gefunden, wobei in einem Vertrauensintervall von 95 % Werte von 22 bis 86 % ermittelt wurden. Für Biodiesel aus Altfetten wurde eine 86%ige Reduktion ermittelt. Fremdenergiebedarf Die Produktion der 1 kg Dieseläquivalent entsprechenden Menge an Biodiesel erfordert selbst erhebliche Energiemengen für die Herstellung von Methanol, Düngemitteln, Transport und den Verarbeitungsprozess. Für die Energiemengen (Gesamtenergie), (Energiebedarf der Biodieselproduktion selbst) und (tatsächlich verfügbare Energiemenge an Biodiesel) gilt: , wobei das Verhältnis k vergleichbar ist zum Carnot-Wirkungsgrad einer Wärmepumpe. Bei der Gewinnung, einschließlich der Weiterverarbeitung zu Biodiesel (Pflügen, Säen, Behandeln mit Pflanzenschutz, Düngen, Ernten, Verestern), muss eine Energiemenge von 25 MJ/kg aufgewendet werden. Demgegenüber hat Biodiesel einen Heizwert von 37 MJ/kg. Das Verhältnis k (vgl. Erdöl: k etwa 10) beträgt demnach im Gegensatz zu . Bei dieser Darstellung wird nicht berücksichtigt, dass beim herkömmlichen Diesel zusätzlich chemisch gebundene Energie (Rohöl) zugeführt werden muss, die aus einem endlichen Reservoir entnommen wird. Beim Biodiesel wird im Gegenzug die Strahlungsenergie der Sonne vernachlässigt, die sowieso vorhanden und praktisch unerschöpflich ist. Unter der Annahme k = 1,48 verdreifacht sich die benötigte Anbaufläche in etwa; es werden etwa 29,8 m² Anbaufläche für 1 kg bereitgestelltes Dieseläquivalent benötigt. Ein Grund dafür, dass die Energieausbeute verhältnismäßig gering ist, liegt darin, dass nur die Ölfrüchte verwendet werden und der verbleibende Biomassenrest (Rapsstroh und Rapsschrot) nicht energetisch genutzt wird. Bei einer alternativen Form der Kraftstoffgewinnung aus Biomasse zu Sundiesel wird die gesamte Pflanze verwendet, wodurch sich der Bruttokraftstoffertrag in etwa verdoppelt. Bei Untersuchungen des Rapsanbaus für die Biodieselerzeugung in Polen und den Niederlanden wurden für den Erntefaktor (englisch: Energy Return On Energy Invested, EROEI) Werte zwischen 1,73 bis 2,36 in Polen und von 2,18 bis 2,60 in den Niederlanden gefunden. Flächenbedarf Das Umweltbundesamt stellte in einem Bericht vom 1. September 2006 fest: In den USA würde die Verarbeitung der gesamten Sojaernte zu Biodiesel lediglich 6 % der Nachfrage decken. Bezogen auf den Weltbedarf an dieselähnlichen Kraftstoffen könnte Palmölmethylester sowohl von der Ölergiebigkeit der Pflanze als auch von der Größe des potentiellen Anbaugebiets ein wichtiger Kraftstoff werden. Die für die Herstellung von zum Beispiel 1 kg Biodiesel erforderliche Fläche ergibt sich aus folgender Rechnung: Pro Quadratmeter beträgt der Ertrag an Biodiesel etwa 0,12 bis 0,16 l Biodiesel pro Jahr. Bei einer Dichte von 0,88 kg/l sind dies etwa 0,14 kg Biodiesel/m². Im Jahr 2015 wurden in Deutschland rund 37 Millionen Tonnen Dieselkraftstoff verbraucht. Diesel hat einen Heizwert, der um etwa 9 % höher als der von Biodiesel ist. Um 1 kg Dieseläquivalent bereitzustellen, wird also der Ertrag von etwa 7,8 m² Anbaufläche benötigt. Um 37 Millionen Tonnen Dieselkraftstoff durch Biodiesel zu ersetzen würde, da Raps wegen Selbstunverträglichkeit nicht in den zwei bis drei Folgejahren angebaut werden kann, ca. 4 × 7,8 m²/kg × 37.000.000 t = 1.154.400 km² Ackerfläche benötigt. Im Jahr 2006 wurden etwa 50 % der Fläche der Bundesrepublik Deutschland von 357.121 km² für die landwirtschaftliche Produktion genutzt, also wäre mehr als das 6 fache der gesamten landwirtschaftlichen Nutzfläche von Deutschland erforderlich, um aus Raps ausreichend Biodiesel zu gewinnen. Schon 2006 überschritt der Bedarf an Pflanzenölen als Biodiesel und Pflanzenölkraftstoff mit 3,4 Millionen Tonnen den inländischen Anbau von Raps von 1,5 Millionen Tonnen, sodass der Rest importiert werden musste. Biodiversität Die Umwandlung von natürlichen Lebensräumen durch die Bevölkerungsentwicklung und die damit verbundene Ausdehnung von Siedlungsflächen und der Versorgungsinfrastruktur ist einer der Hauptfaktoren für die Reduktion der Biodiversität. Um diesen Effekt nicht durch den Anbau von Pflanzen zur Gewinnung von Biodiesel zu verstärken, müssen Flächen mit hoher Artenvielfalt geschützt werden. Eine zentrale Forderung für die nachhaltige Produktion von Biodiesel ist der Erhalt der biologischen Vielfalt (englisch: biological diversity oder biodiversity) beim Anbau von Energiepflanzen. Pflanzenöle für die Produktion von Biodiesel, der gemäß der Erneuerbare-Energien-Richtlinie als nachhaltig produziert gelten soll, dürfen nicht auf Flächen mit großer biologischer Vielfalt gewonnen werden. Dazu zählen alle nach dem Jahr 2008 nicht für Agrarzwecke umgewandelte Flächen wie Primärwälder, Naturschutzgebiete und Gebiete mit bedrohten oder gefährdeten Ökosystemen. Die Anwendung der Regeln für Biodiversität gilt als Kriterium, um gefährdete Flächen vor einer Landnutzungsänderung zu schützen. Biodiversität gilt als Schutzgut mit globaler Wirkungstiefe und kann gemäß den Regeln der Welthandelsorganisation als verbindliche Eigenschaft von Handelsgütern gefordert werden. Dabei sind sowohl in Bezug auf die angebaute Pflanze als auch auf die geografische Lage Unterschiede in Bezug auf die Entwicklung der Biodiversität erkennbar. So wurde festgestellt, dass zwischen 1990 und 2005 über 50 % der Neuölpalmenanpflanzungen in Malaysia und Indonesien in Regenwaldgebieten zu Lasten der Biodiversität erfolgte. Bei der Bepflanzung von Brachflächen mit ölliefernden, xerophytischen Pflanzen wie Jatropha curcas wird erwartet, dass dies zu einer Verbesserung der Biodiversität führt. Landnutzungsänderung Die Mengen an Ölpflanzen aus heimischer Landwirtschaft sind für die Eigenversorgung zu gering, weshalb Importe notwendig würden, um größere Mengen Treibstoff zu ersetzen. Gegen Biodiesel wird oft vorgebracht, dass seine Herstellung Auswirkungen auf Naturlandschaften und hierbei besonders auf Regenwälder habe. Der Begriff der Landnutzungsänderung bezieht sich auf die Nutzung einer Fläche vor dem Anbau von Energiepflanzen. Ein Beispiel für eine direkte Landnutzungsänderung ist die Umwandlung von Grasland in Ackerland für den Anbau von Raps oder Sojabohnen, eine indirekte Landnutzungsänderung ist die Umwandlung von Ackerland für den Anbau von Nahrungspflanzen in Ackerland für den Anbau von Energiepflanzen. Die Änderung der Pflanzenwelt durch Landnutzungsänderung beeinflusst das Kohlenstoffdioxidbindungsvermögen, wobei je nach Bewirtschaftung sowohl mehr Kohlenstoffdioxid gebunden als auch freigesetzt werden kann. Der Einfluss der direkten und indirekten Landnutzungsänderung auf die Ökobilanz wird uneinheitlich bewertet. Aufgrund der Auswirkungen auf die Treibhausbilanz als auch auf soziale Aspekte wird dieses Konzept jedoch in vielen Gesetzeswerken über Biokraftstoffe herangezogen. Die Ansätze zur Berechnung der Auswirkung sind komplex, mit Unsicherheiten behaftet und daher umstritten. Es besteht bei den meisten untersuchten Szenarien jedoch die Übereinkunft, das es von Vorteil ist, Energiepflanzen zu fördern, die geringe Landnutzungsänderungsquoten aufweisen und die Kultivierung von bereits gerodetem und brachliegenden Land zu fördern. Durch Kultivierung und nachhaltige Bewirtschaftung degradierter Flächen könnte Biodiesel eine stabile Einkommensquelle schaffen. Die Größe der in Frage kommenden Flächen wird auf 500 bis 3500 Millionen Hektar geschätzt. Eine potentielle Auswirkung der Landnutzungsänderung ist die Verknappung von Lebensmitteln. Der Anbau von Ölsaaten auf bestehenden Ackerflächen oder die Verwendung von Pflanzenölen zur Herstellung von Biodiesel kann zu einer Verknappung oder Verteuerung von Lebensmitteln führen, wobei die genauen Auswirkungen umstritten sind. In einer Studie des Jahres 2011 konnten auf europäischer und nationaler Ebene keine quantitativen Versorgungsprobleme im Bereich der Nahrungs- und Futtermittelversorgung durch die Energiepflanzenproduktion nachgewiesen werden, wobei diese aber als denkbar bezeichnet wird. Beim Rapsanbau fallen nur 40 %, beim Sojabohnenanbau nur 20 % als Öl an, die restlichen 60 bis 80 % der Pflanzen werden als Raps- und Sojakuchen für die Futtermittelproduktion genutzt. Rapsextraktionsschrot und Rapskuchen werden vermehrt für die Milchviehfütterung eingesetzt, kann aber auch in der Schweine- und Geflügelmast eingesetzt werden. Die Verteuerung von Nahrungsmitteln ist ein zentrales Problem der Biodieselgewinnung, zum Teil als Agflation bezeichnet. Die Erneuerbare-Energien-Richtlinie legte der EU-Kommission die Verpflichtung auf, die Auswirkungen der Erzeugung von Biokraftstoffen sowohl in den Mitgliedstaaten der EU als auch in Drittländern zu bewerten. Toxikologie In Studien zur Toxikologie von Biodiesel konnten keine Todesfälle und nur geringe toxische Wirkungen bei Verabreichungen von bis zu 5000 mg pro Kilogramm Körpergewicht auf Ratten und Kaninchen gefunden werden. Befürchtungen, dass die Aufnahme von Biodiesel im Körper durch Hydrolyse Methanol freisetzen und zur Schädigung von Nervenzellen durch das physiologische Abbauprodukt Ameisensäure führen könnte, wurden nicht bestätigt. Bei Verabreichung von Dosen von 5 bis 500 mg Biodiesel pro kg Körpergewicht im Tierversuch konnte auch nach Wochen kein oder nur ein minimal erhöhter Plasmaspiegel für Methanol oder Ameisensäure bei allen Versuchsgruppen gefunden werden. Literatur Philipp Dera: „Biodiesel“ – Wachstumsmarkt mit Nachhaltigkeitsgarantie? Sozioökonomische Dimensionen der Palmölproduktion in Indonesien. regiospectra, Berlin 2009, ISBN 978-3-940132-10-9. Gerhard Knothe, Jon Harlan Van Gerpen, Jürgen Krahl: The Biodiesel Handbook. AOCS Press, 2005, ISBN 1-893997-79-0. Weblinks Einzelnachweise Biokraftstoff Flüssigbrennstoff Stoffgemisch
Q167947
85.169151
11135170
https://de.wikipedia.org/wiki/Paramount%2B
Paramount+
Paramount+ ist ein US-amerikanischer Streaming-Service von Paramount Global. Bis zur Umbenennung am 4. März 2021 hieß er CBS All Access. Nach der Umbenennung begann ein internationaler Start des Diensts mit erweitertem Inhalt. Geschichte CBS All Access startete in den USA am 28. Oktober 2014 mit einer werbefreien und einer Version mit Werbung, wobei die werbefreie Version teurer war. Im Februar 2017 hatte der Service 1,5 Millionen Abonnenten. Im August 2017 gab CBS Pläne bekannt, All Access außerhalb der USA zur Verfügung zu stellen. Kanada wurde dabei als erstes Land genannt, das im Zuge der Erweiterung den Service bekommen sollte. Kurz danach wurden Pläne für Australien bekannt, was durch einen Kauf des australischen Senders Network 10 angegriffen wurde. Durch Star Trek: Discovery erreichte CBS All Access Anfang 2018 über 2 Millionen Abonnenten. Im April 2018 wurde CBS All Access in Kanada, als erstes Land außerhalb der USA, veröffentlicht. In Australien wurde der Service im Dezember 2018 als 10 All Access veröffentlicht. Nach dem erneuten Zusammenschluss von CBS Corporation und Viacom zu ViacomCBS (jetzt Paramount Global) gab CBS All Access am 25. November 2019 bekannt, dass unter anderem Programme im Besitz von Viacom, wie Nickelodeon, zur Plattform hinzugefügt werden sollen. Ab dem 7. Mai 2020 wurden weitere Filme von Paramount Pictures hinzugefügt. Weiterhin wurde bekanntgegeben, dass CBS All Access in den nächsten zwölf Monaten international starten solle. Im Mai wurde erläutert, dass Anfang 2021 eine Namensänderung geplant sei, um sich von CBS-Produkten abzugrenzen. Am 15. September wurde der neue Name Paramount+ veröffentlicht. Am 4. März 2021 ersetzte der Dienst in den USA, Kanada und Lateinamerika CBS All Access bzw. startete in diesen Ländern. Am 25. März folgten die skandinavischen Länder und Mitte 2021 Australien. Der Dienst startete pünktlich, zum kurz vorher bekannt gewordenen Starttermin, am 8. Dezember 2022 auch in Deutschland, Österreich und der Schweiz. Im deutschsprachigen Raum sowie auch im Vereinigten Königreich und Irland besteht eine Kooperation mit Sky. Der Dienst ist zusätzlich unabhängig von Sky abonnierbar und es werden zum Start finanzielle Anreize geschaffen, die für Nutzer die Kaufentscheidungsfrage für das erste Jahr erleichtern soll. Das monatliche Abo kostet zum Start 7,99 €, über Sky ist eine kostenlose Aktivierung mit per E-Mail zugesandtem einmaligen Zugangscode möglich. Der Code muss auf dem Sky-Portal angefragt werden. Internationale Veröffentlichung Siehe auch Liste der Eigenproduktionen von Paramount+ Weblinks Einzelnachweise Pay-TV Video-on-Demand-Anbieter Gegründet 2014
Q27903045
91.396123
6666797
https://de.wikipedia.org/wiki/Pinterest
Pinterest
Pinterest ist eine Online-Pinnwand für Grafiken und Fotografien mit optionalem sozialem Netzwerk inklusive visueller Suchmaschine. Der Name Pinterest ist ein Kofferwort aus den englischen Wörtern ‚anheften‘ und ‚Interesse‘. Gemeint ist damit, dass man sich nützliche Ideen, die dem eigenen Interesse entsprechen, auf Pinnwänden merken kann. Diese Vorgehensweise ist entweder öffentlich oder (seit Ende 2012) auf geheimen Pinnwänden möglich. Im Geschäftsjahr 2021 beschäftigte das Unternehmen 3225 Mitarbeiter und die Website hatte mehr als 400 Millionen Nutzer weltweit. Pinterest wird von CEO Ben Silbermann geführt und wurde 2010 von Silbermann, Evan Sharp und Paul Sciarra gegründet. Geschichte März 2010: Pinterest ging online, zunächst als Beta-Version und nur für einen geschlossenen Nutzerkreis. Herbst 2010: Versuche, einen Großinvestor oder Käufer für Pinterest zu finden, scheiterten. Frühling 2011: Silbermann und seine Mitarbeiter stellten die iPhone-App fertig, während sie weiterhin in einem kleinen Apartment arbeiteten. 16. August 2011: Das Time-Magazin listete Pinterest auf Platz 38 der „50 besten Websites“ des Jahres. Dezember 2011: Pinterest wurde mit 11 Millionen wöchentlichen Besuchern in den Top Ten der sozialen Netzwerke gelistet. 2012: Das Unternehmen stellte sich international auf und expandierte bewusst Richtung Südamerika, Europa und Asien. August 2012: Seither kann sich jeder bei Pinterest auch ohne Einladung anmelden. Die Firma sammelte Risikokapital im großen Stil ein. Oktober 2012: Pinterest schaffte die Option von Business-Accounts. 2015: Die Zahl der Pinterest-Nutzer ging Richtung 100 Millionen. Mit „Promoted Pins“ wurden kostenpflichtige Möglichkeiten angeboten. 2017: Pinterest erhöhte sein Stammkapital um 150 Millionen US-Dollar, der Wert des weiterhin privaten Unternehmens wurde auf mehr als zehn Milliarden US-Dollar geschätzt. Funktion Sinn und Zweck ist der Austausch über verschiedene Hobbys, Interessen und Einkaufstipps. Registrierte Nutzer können Pinnwände erstellen, und andere Nutzer können dieses Bild ebenfalls teilen (repinnen) und kommentieren. Das Unternehmen Pinterest hat seinen Hauptsitz im Stadtteil South of Market von San Francisco. Die visuelle Suchmaschine wird mit Hilfe von maschinellem Sehen und maschinellem Lernen betrieben. Sie baut auf einer Sammlung von mehr als 175 Milliarden mit Daten hinterlegten Bildern auf, die von Menschen auf der ganzen Welt kuratiert wurde. Nutzer können sich Bilder sowie Videos auf ihren Pinnwänden merken. 85 % der Nutzer verwenden Pinterest über die entsprechende Smartphone-App. Nutzungsbedingungen Im März 2012 passte Pinterest neben Instagram und Tumblr seine Nutzungsbedingungen an. Grund dafür waren Pro-Ana-Fotos und Beiträge, die die Erkrankung Magersucht verherrlichen. Zusätzlich zu diesem verankerten Verbot des Anpreisens von selbstverletzendem Verhalten werden auch Warnhinweise mit Hilfsangeboten in den Netzwerken angezeigt. Verbreitung Laut Alexa Internet war Pinterest Mitte 2017 auf Platz 63 der meistbesuchten Webseiten weltweit, auf Platz 24 in den Vereinigten Staaten und Platz 58 in Deutschland. Im April 2017 lag Pinterest in den Vereinigten Staaten bei 70 Millionen Nutzern. Dabei sind die Nutzer von Pinterest zu großen Teilen weiblich. Das TIME Magazine wählte Pinterest zu den „50 besten Websites“ des Jahres 2011. 2012 verursachte Pinterest ähnlich viel Datenverkehr wie Google oder Twitter. Die News-Website AllThingsD veröffentlichte im Juni 2012 eine (nicht repräsentative) Statistik des Softwareunternehmens Monetate, nach welcher das Datenaufkommen bei Pinterest 2011 um 2535 Prozent stieg (im Vergleich dazu betrug die entsprechende Rate bei Facebook 2,7 Prozent, allerdings ausgehend von einem absolut gesehen höheren Niveau). Zudem habe sich die Konversionsrate demnach bei Pinterest von 0,29 auf 0,43 Prozent und bei Facebook von 0,49 auf 0,61 Prozent erhöht. Auch im Onlinemarketing sowie in der Public Relations und im Social Media Marketing hatte Pinterest zu dieser Zeit Bedeutung gewonnen. Viele deutsche Unternehmen bezogen die visuelle Suchmaschine in ihre Marketingstrategie ein und erhielten einen signifikanten Anteil ihres Social Referral Traffics über Pinterest. Mit 840.000 Besuchern im März 2012 hatte die Plattform bereits studiVZ überholt. Das Netz hatte im Juli 2013 ca. 70 Millionen Nutzer weltweit und überschritt im September 2018 die Zahl von 250 Millionen monatlich aktiven Nutzern. Kritik Monetarisierung Das Geschäftsmodell von Pinterest ist primär auf das Anbieten von Werbe-Pins, sogenannter Promoted Pins, ausgelegt. Diese können von Werbetreibenden unter anderem über einen Self-Service-Ads-Manager gebucht und an definierte Zielgruppen ausgespielt werden. Laut Aussage des Unternehmens sei der Vorteil dieser Werbe-Pins, dass sie sich nahtlos einfügen lassen und vom Nutzer nicht als störende Werbung empfunden werden. Aktuell sind Promoted Pins in den Vereinigten Staaten, im Vereinigten Königreich und weiteren englischsprachigen Märkten erhältlich. Für Diskussion sorgte in der Vergangenheit die Art der Monetarisierung, auf die es in den Bestimmungen der Seite keinen Hinweis gab. Medienberichten zufolge wurde bei Links eine PartnerID mit übergeben, um mit den „Affiliate-Marketing-Links“ Provisionen bei nachfolgenden Einkäufen zu erhalten. Allerdings erwirtschaftet Pinterest über Affiliate-Links keine Einnahmen, sondern ausschließlich über Werbeanzeigen in den Vereinigten Staaten, Kanada, im Vereinigten Königreich und den weiteren englischsprachigen Märkten. Durch die Einführung von Rich Pins können Nutzer und Unternehmen mehr zusätzliche Informationen über eine Idee zur Verfügung stellen, als dies mit einem üblichen Pin möglich ist. Hierfür stehen drei verschiedene Arten von Rich Pins zur Auswahl: Artikel-, Produkt- und Rezept-Pins. Im Jahre 2018 führte Pinterest zahlreiche neue Nutzerfunktionen ein wie Shop the Look, Pincodes und Pinterest Lens ein. Zudem gibt es seit Februar 2018 Funktionen, die das Sortieren und Organisieren von Pins und Pinnwänden erleichtern. Urheberrecht Das abweichende Urheberrecht der Vereinigten Staaten sorgte in Europa für Urheberrechtsverletzungen, wodurch Nutzern Abmahnungen drohen. Wer Inhalte auf Pinterest teilt, trägt selbst die Haftung dafür, dass nicht gegen das Urheberrecht verstoßen wird. Urheberrechtlich geschützte Werke dürfen nur mit Zustimmung des Urhebers veröffentlicht und vervielfältigt werden. Inhalte auf Pinterest werden bewusst veröffentlicht, und somit muss als Privatperson dafür gehaftet werden. Viele der Inhalte auf Pinterest kommen von Unternehmen, die ein Interesse daran haben, ihre Inhalte einem breiten Publikum zugänglich zu machen. Pinterest bietet jedoch die Möglichkeit an, Inhalte individuell entfernen zu lassen, die gegen das Urheberrecht oder gegen weitere Richtlinien verstoßen. Einschränkungen Nicht jeder Link kann uneingeschränkt gepinnt werden. Momentan ist es wegen eines „möglichen Verweis auf unanständige Inhalte“ beispielsweise nicht möglich, Links von Lycos (USA) oder Wattpad zu speichern. Auch bei anderen Webseiten ist mitunter nur ein manuelles Hinzufügen eines Pins möglich (inklusive manuellem Hochladen eines Referenzbildes), da kein Referenzbild geparst werden konnte oder die betreffende Website keine Bilder oder nur zu kleine Bilder zu Verfügung stellt. Bilder auf Pinterest kann nur derjenige einsehen, welcher sich mit einer gültigen E-Mail-Adresse und einem Passwort registriert und jeweils anmeldet. Weblinks Offizielle Website Einzelnachweise Soziales Netzwerk Fotografie-Website Ersterscheinung 2010
Q255381
120.76183
740897
https://de.wikipedia.org/wiki/NS-Staat
NS-Staat
Als NS-Staat (kurz für nationalsozialistischer Staat) oder NS-Deutschland wird das Deutsche Reich bzw. das sogenannte Großdeutsche Reich für die Zeit des Nationalsozialismus (1933–1945) bezeichnet, in dem die Diktatur Adolf Hitlers, die von der Nationalsozialistischen Deutschen Arbeiterpartei (NSDAP) gestützt wurde, an die Stelle der demokratisch verfassten Weimarer Republik getreten war. Dieser Staat war geprägt von einem absoluten Herrschaftsanspruch über das Individuum, einem radikalen Antisemitismus, einem ausgreifenden Führerkult und zunehmendem Staatsterror. Die Errichtung der Diktatur begann unmittelbar nach der Ernennung Hitlers zum Reichskanzler am 30. Januar 1933: Mit der Verordnung des Reichspräsidenten zum Schutz von Volk und Staat vom 28. Februar 1933 und dem Ermächtigungsgesetz vom 24. März 1933 wurden wesentliche Teile der Weimarer Reichsverfassung dauerhaft suspendiert, darunter die Gewaltenteilung, die parlamentarische Kontrolle der Regierung sowie grundlegende Bürgerrechte. Der Ausnahmezustand blieb bis zum Ende des NS-Staates bestehen. Innerhalb weniger Monate schuf das NS-Regime durch die Gleichschaltung von Politik und Gesellschaft einen zentralistischen Staat nach der Ideologie des Nationalsozialismus. Die Gewerkschaften und alle politischen Parteien außer der NSDAP wurden verboten. An die Stelle der früheren Staatsordnung mit ihren klar abgegrenzten Machtbefugnissen trat ein rivalisierendes Nebeneinander sich überschneidender Kompetenzen des Staates und der NSDAP, eine Polykratie, in der Hitler stets die letzte Entscheidungsgewalt in Anspruch nahm. Mit Hilfe der Geheimen Staatspolizei (Gestapo) und Parteiorganisationen wie SA und SS verwandelte das Regime den Rechtsstaat in einen Polizeistaat mit Konzentrations- und später auch Vernichtungslagern. Holocaust und Porajmos – die systematischen Genozide an Juden sowie Sinti und Roma –, die Verfolgung und Ermordung Oppositioneller, Andersdenkender, Behinderter und Homosexueller wie auch die NS-Krankenmorde forderten mehrere Millionen Menschenleben. Als Hitler 1934 zusätzlich das Amt des Reichspräsidenten übernahm, fiel ihm auch das Beamtenernennungsrecht zu, das er sich für das höhere Beamtentum persönlich vorbehielt. Bereits unmittelbar nach der sogenannten Machtergreifung hatte sich das Regime vom Prinzip des nur dem Gemeinwohl verpflichteten, unpolitischen Beamten abgewandt. Neben der fachlichen Qualifikation mussten Anwärter auf ein Amt nun auch ihre politische Zuverlässigkeit im Sinne des Nationalsozialismus nachweisen. In Feldern, die ihm besonders wichtig waren, setzte der Diktator Staatskommissare ein, die allen Regierungs- und Verwaltungsstellen übergeordnet waren. Mit der Übernahme der Befehlsgewalt über die Wehrmacht 1938 sicherte Hitler sich auch die unmittelbare Führung des Militärs. Der NS-Staat ging in dem von ihm selbst ausgelösten Zweiten Weltkrieg unter. Die Anti-Hitler-Koalition zwang die deutsche Wehrmacht am 8. Mai 1945 zur bedingungslosen Kapitulation. Am 5. Juni 1945 übernahmen die Siegermächte USA, Großbritannien, Sowjetunion und Frankreich auch formell die Regierungsgewalt in Deutschland. In der politikwissenschaftlichen und historischen Forschung wurde und wird der NS-Staat unter anderem als faschistisch, totalitär, polykratisch, absolutistisch, modernisierend, als charismatische Herrschaft und als Gefälligkeitsdiktatur beschrieben. Leitvorstellungen nationalsozialistischer Staatsorganisation Der Nationalsozialismus verstand sich als alle Bereiche von Staat und Gesellschaft umgestaltende, revolutionäre Bewegung. Ziel war es, die parlamentarische Demokratie durch die Diktatur der NSDAP als einziger Partei – beziehungsweise durch die ihres Führers – und die grundsätzlich offene, bürgerliche Gesellschaft durch eine rassistisch definierte Volksgemeinschaft zu ersetzen. Um den Staat im Sinne des Führerprinzips und einer spezifischen Vorstellung von Volksgemeinschaft umzugestalten, galt es, die individuellen Bürgerrechte und die institutionalisierte Gewaltenteilung zwischen Reichs- und Landesregierungen einerseits sowie Legislative, Exekutive und Judikative andererseits zu beseitigen. Eine „starke Zentralgewalt des Reiches“ gehörte bereits zum 25-Punkte-Programm der NSDAP von 1920. Nach innen sollte die Idee der Volksgemeinschaft Politik, Moral und Recht zu einem unauflösbaren Ganzen zusammenschweißen. Der keiner höheren Rechtsinstanz verpflichtete „Führerwille“ sollte – von den Parteigliederungen im vorauseilenden Gehorsam erahnt – eine neue nationalsozialistische Herrschafts- und Regierungsform schaffen. An die Stelle der Verpflichtung der Staatsbeamten auf allgemeine Rechtsprinzipien trat die persönliche, durch „Führereide“ zu bekräftigende Verpflichtung. Zentraler Bestandteil der NS-Ideologie war der völkische Antisemitismus und Rassismus. Juden, aber auch Sinti und Roma sowie weitere als „nicht-arisch“ definierte Bevölkerungsgruppen, konnten demnach nicht Teil der Volksgemeinschaft sein. Gleichschaltung Die Errichtung der nationalsozialistischen Diktatur erfolgte in einer Geschwindigkeit, die Gegner und selbst Anhänger der NSDAP überraschte. Bereits am 1. Februar 1933 erwirkte Hitler von Reichspräsident Hindenburg die Auflösung des Reichstags und die Anberaumung von Neuwahlen für den 5. März. So wurde das Parlament für die Zeit bis zur Wahl als Machtzentrum ausgeschaltet. Am 4. Februar erging die Verordnung des Reichspräsidenten zum Schutze des Deutschen Volkes, die die Presse- und Versammlungsfreiheit so weit einschränkte, dass Hitlers Minderheitsregierung oppositionelle Parteien im Wahlkampf praktisch mundtot machen konnte. Ebenfalls schon im Februar leitete die Regierung Hitler Maßnahmen ein, um Demokratie und Pluralismus zu beseitigen. Sie zielten darauf ab, konkurrierende Machtzentren in Reich, Ländern und Kommunen auszuschalten und das gesamte staatliche, gesellschaftliche und kulturelle Leben der Ideologie des Nationalsozialismus unterzuordnen. Dieser Prozess der Gleichschaltung betraf neben staatlichen Institutionen alle bedeutenden Organisationen, Verbände und politischen Parteien. Diese wurden entweder verboten oder ideologisch und organisatorisch auf die Linie der NSDAP gebracht. Die sogenannte Reichstagsbrandverordnung vom 28. Februar 1933 setzte verfassungsmäßig verbürgte Grundrechte auf unbestimmte Zeit außer Kraft und begründete den Ausnahmezustand. Die linken Oppositionsparteien wurden gewaltsam unterdrückt, wobei Einheiten von Sturmabteilung (SA) und SS in Preußen als „freiwillige Hilfspolizei“ (Erlass vom 22. Februar 1933) eingesetzt wurden. Bis Herbst 1933 wurden auf Grundlage der Reichstagsbrandverordnung mehr als 100.000 politische Gegner in „Schutzhaft“ genommen. Mit dem Ermächtigungsgesetz wurde schließlich der staatsorganisatorische Teil der Weimarer Verfassung beiseite geschoben, indem die Gewaltenteilung aufgehoben und die Reichsregierung als vollwertiger Gesetzgeber mit der Autorität zu Verfassungsänderungen installiert wurde. Zwar waren die einschlägigen Bestimmungen zur Gesetzgebungskompetenz von Reichstag und Reichsrat in Kraft gelassen worden. Aber der Reichstag existierte lediglich als „Akklamationsinstanz“ Hitlers und seiner Regierung weiter. Das Ermächtigungsgesetz setzte neues Verfassungsrecht ohne Rücksicht auf geltendes Recht, zwar in den Formen der Verfassungsänderung nach der Reichsverfassung, aber ohne von deren Befugnis gedeckt zu sein. Es brach nicht nur mit der Verfassung, ohne sie außer Kraft zu setzen, sondern verabschiedete Form und Gestalt rechtsstaatlicher Verfassung gleich prinzipiell. Die Weimarer Verfassung galt hiernach nicht mehr, auch nicht in den Teilen, die, formal gesehen, vom Ermächtigungsgesetz und der Reichstagsbrandverordnung nicht berührt worden waren. Wenn dennoch einzelne Verfassungsnormen nach 1933 angewendet wurden, dann ohne Begründung oder unter Berufung darauf, dass sie dem Willen des „Führers“, der auch oberster Gesetzgeber war, nicht widersprachen. Die Weimarer Reichsverfassung war damit in ihrer rechtlichen Substanz faktisch ausgehöhlt. Auf der Grundlage des Ermächtigungsgesetzes konnte auch der Föderalismus in Deutschland aufgehoben werden. Zunächst wurden die föderalen Strukturen der Weimarer Republik aufgehoben. Die beiden dazu erlassenen Gesetze schalteten sämtliche bis dahin gewählten Minister, Abgeordneten und höheren Staatsbeamten der Länder – vor allem Süddeutschlands – und die Senate der Hansestädte aus. Das erste Gleichschaltungsgesetz vom 31. März 1933 löste die Landtage, Bürgerschaften, Kreistage und Gemeinderäte auf und ermächtigte die Landesregierungen, Gesetze auch gegen die Landesverfassungen zu erlassen. Die Selbstverwaltungskörperschaften mussten nach den Stimmverhältnissen der Reichstagswahl vom 5. März 1933 neu zusammengesetzt werden. Dadurch rückten Tausende NSDAP-Mitglieder auf freigewordene Posten nach. Das zweite Gleichschaltungsgesetz vom 7. April 1933 schuf in allen Ländern außer Preußen, in dem dies schon durch den „Preußenschlag“ 1932 geschehen war, Reichsstatthalter mit diktatorischen Vollmachten, die vom Reichspräsidenten ernannt werden durften, direkt dem Reichskanzler unterstellt und den Landesregierungen übergeordnet waren. Sie durften deren Mitglieder, sonstige Staatsbeamte und Richter ernennen und entlassen. Auch das Recht, Gesetze zu erlassen, wurde ihnen übertragen. Das Amt eines Staatspräsidenten, das einige Landesverfassungen verankerten, wurde für beendet erklärt. In der Praxis folgte Reichspräsident Paul von Hindenburg bei der Besetzung der Reichsstatthalter fast überall Hitlers Vorschlägen aus alten Gefolgsleuten und NSDAP-Gauleitern. Mit der Verfolgung der KPD ab dem 28. Februar infolge des Reichstagsbrands, dem Verbot der SPD am 22. Juni und der Selbstauflösung der übrigen Parteien bis zum Gesetz gegen die Neubildung von Parteien vom 14. Juli 1933 wurde die NSDAP zur einzigen und alleinherrschenden Partei des Reiches, was im Dezember 1933 mit dem Gesetz zur Sicherung der Einheit von Partei und Staat noch bekräftigt wurde. Damit war ein Einparteiensystem errichtet und der als Kennzeichen des verhassten „Systems“ betrachtete Parlamentarismus beseitigt. Um jede mögliche Opposition auszuschalten, zerschlug das NS-Regime unmittelbar nach dem Tag der nationalen Arbeit am 1. Mai 1933 alle Gewerkschaften, beschlagnahmte ihr Vermögen und schaffte das Streikrecht ab. Alle Arbeitnehmer- und Arbeitgeberverbände wurden am 10. Mai 1933 zwangsweise in der Deutschen Arbeitsfront (DAF) zusammengeschlossen, die ab 1934 der NSDAP unterstand. Der Reichstag hatte seine legislative und die Exekutive kontrollierende Funktion bereits mit der Zustimmung einer Zweidrittelmehrheit zum Ermächtigungsgesetz am 23. März 1933 aufgegeben. Er blieb als Institution formal bestehen, um für Hitlers Regierungserklärungen eine Staffage zu liefern und auch gegenüber dem Ausland einen demokratischen Schein zu bewahren. Er bestand nun zur Hälfte aus Parteimitgliedern, zur anderen Hälfte aus Vertretern von SA, SS und der Partei angeschlossenen Verbänden. Bis 1939 erließ er noch neun Gesetze, während die übrigen an die 5.000 Gesetze und Verordnungen von den Spitzen des NS-Regimes direkt erlassen wurden. Mit dem Gesetz über den Neuaufbau des Reichs vom 30. Januar 1934 verloren die Länder ihre staatliche Souveränität, so dass in den bis 1935 anhaltenden Gleichschaltungsverordnungen die Justiz- und Verwaltungshoheit der Länder vollständig ausgehebelt wurde, bis diese den zuständigen Reichsministerien direkt unterstellt war. Der Reichsrat, der als Ländervertretung in der Weimarer Verfassung ein Einspruchsrecht gegen alle Gesetzesvorlagen der Reichsregierung hatte, wurde am 14. Februar 1934 aufgelöst. Aufgehoben oder durch eine nationalsozialistische Verfassung ersetzt wurde die Weimarer Reichsverfassung gleichwohl nicht. Nachdem sie in wesentlichen Punkten materiell dauerhaft außer Kraft gesetzt war, musste sie das aber auch nicht mehr. Nationalsozialistische Staatsrechtslehrer wie Carl Schmitt erklärten schon 1933, die Weimarer Verfassung habe zu gelten aufgehört. Für Ernst Forsthoff war die Verfassungsfrage 1935 „erledigt“, und Ernst Rudolf Huber beschrieb die nationalsozialistische Machteroberung 1939 als „wirkliche Revolution“, welche „die Weimarer Verfassung als Gesamtsystem beseitigt“ und „zugleich die völkische Verfassung aufgerichtet“ habe. Oberste Reichsbehörden Die in der NS-Ideologie proklamierte „Einheit von Volk und Staat“ führte zur Aufhebung der Gewaltenteilung; die obersten Regierungsämter erhielten sowohl legislative wie exekutive und judikative Kompetenzen. Als das Führerprinzip in allen staatlichen Aufgabenbereichen und auf allen Staatsebenen wirksam wurde, ergab sich einerseits eine Zentralisierung der bisherigen Ressorts und Ämter, andererseits ihre oft wildwüchsige Vermehrung. Die Überschneidung von Aufgaben zentralisierter und neugeschaffener Staatsbehörden sowie oberster Parteiämter mündete in eine Fülle von Kompetenzstreitigkeiten und Rivalitäten, die dann oftmals durch eine Entscheidung Hitlers autoritativ beendet werden mussten. In der Regel wurden im Ergebnis Verwaltungsbehörden mit Parteiämtern verschmolzen. Daraus entstand eine Reihe neuer „Oberster Reichsbehörden“. Reichskanzlei Am 30. Januar 1933 wurde der Vorsitzende der Nationalsozialistischen Deutschen Arbeiterpartei (NSDAP), Adolf Hitler, zum neuen Reichskanzler ernannt. Staatsoberhaupt war bis zu seinem Tod am 2. August 1934 Reichspräsident von Hindenburg. Die Abschaffung des selbständigen Reichspräsidentenamtes hatte Hitler schon lange vorher beschlossen. Mit dem am 1. August 1934 ausgefertigten Gesetz über das Staatsoberhaupt des Deutschen Reichs ließ Hitler die Ämter des Reichspräsidenten und des Reichskanzlers vereinigen und für sich den neuen Titel Führer und Reichskanzler einführen. In pseudo-demokratischer Manier wies er eine Volksabstimmung über das Gesetz an, die am 19. August abhalten wurde. Das Gesetz markiert mit der Errichtung des Führerstaats den Abschluss der nationalsozialistischen Machtübernahme. Die unkontrollierte Vereinigung aller Staatsgewalt in der Person Hitlers war vollendet. Den Titel „Führer und Reichskanzler des Deutschen Reiches“ trug Hitler nach außen bis 1938, ab Januar 1939 ließ er sich nur noch „Führer“ nennen. Hitlers Amtssitz war die Reichskanzlei in Berlin. Diese fungierte als Behörde zur Abwicklung der laufenden Regierungsgeschäfte und zugleich als Parteizentrale der NSDAP. Für die Regierungsgeschäfte zuständig war der Staatssekretär Hans Heinrich Lammers, später Martin Bormann. In unmittelbarer Nähe zu Hitlers privatem, zum Sperrgebiet erklärten Wohnsitz auf dem Obersalzberg wurde 1937 zudem die Reichskanzlei Dienststelle Berchtesgaden, die so genannte Kleine Reichskanzlei, errichtet. Zentrales Führungsorgan der NSDAP und für die Koordination von Reichskanzlei und Ministerien zuständig war der Stab des Stellvertreters des Führers von Rudolf Heß, der im Rang eines Ministers dem Reichskabinett und dem Ministerrat für die Reichsverteidigung angehörte. Zudem hatte er ein Mitspracherecht bei wichtigen Verordnungen der Reichsministerien und bei der Ernennung hoher Staatsbeamter. Ab 1941 wurde diese Stelle unter der Bezeichnung Parteikanzlei von Bormann weitergeführt. Die als „Privatkanzlei Adolf Hitlers“ 1934 geschaffene Kanzlei des Führers der NSDAP, die von Philipp Bouhler geleitet wurde und in der auch Martin Bormanns Bruder Albert Bormann tätig war, beschränkte sich bei Parteiangelegenheiten auf Gnadengesuche und Petitionen, steuerte aber auch die „Aktion T4“. Am 12. Januar 1939 verlegte Hitler seinen Amtssitz in die von Albert Speer konzipierte Neue Reichskanzlei an der Voßstraße in Berlin. Reichsregierung Die im Kabinett Hitler fortbestehende Reichsregierung bestand aus 12 bis 15 Reichsministern mit und ohne Geschäftsbereich und weiteren Spitzenbeamten des NS-Staates. Unter dem Vorsitz des Reichskanzlers war sie hauptsächlich damit beschäftigt, Gesetzentwürfe zu beraten und zu beschließen. Hitler hielt jedoch nur bis zur Konsolidierung seiner Machtstellung und -funktionen regelmäßige Kabinettssitzungen ab. Ab 1935 tagte das Kabinett nur noch unregelmäßig und immer seltener. Es verabschiedete dann im Eilverfahren reihenweise neue Gesetze, ohne diese zu diskutieren. Die letzte gemeinsame Sitzung fand am 5. Februar 1938 statt. Indem immer mehr Kompetenzen an den Regierungschef delegiert bzw. von diesem an sich gezogen wurden, wurden Minister zunehmend zu Befehlsempfängern. Hitler regierte unmittelbar mit Verordnungen. Damit verlor das Kabinett seine gesetzgeberische Rolle und zerfiel schließlich während des Krieges in Teilressorts, die sich nur noch partiell untereinander abstimmten. Nach dem Tod Hitlers bildete der frühere Reichsfinanzminister Johann Ludwig Graf Schwerin von Krosigk im Auftrag von Großadmiral Karl Dönitz, den Hitler zu seinem Nachfolger als Reichspräsident bestimmt hatte, eine geschäftsführende Regierung. Sie versuchte, Verhandlungen mit den Alliierten über eine Verwaltung Deutschlands aufzunehmen, wurde aber von diesen am 23. Mai 1945 abgesetzt und verhaftet. Bis zur Übernahme der obersten Staatsgewalt in Deutschland durch Großbritannien, die USA, die Sowjetunion und Frankreich, die am 5. Juni 1945 in der Berliner Erklärung und in begleitenden Deklarationen verkündet wurde, existierte keine zentrale Regierung Deutschlands mehr. Der Alliierte Kontrollrat, der diese Funktion übernehmen sollte, verfügte über keine eigene Exekutive und war für die Umsetzung seiner Beschlüsse auf die Militärregierungen in den Besatzungszonen angewiesen. Reichsministerien Als Reichsministerium wurden ab 1933 folgende Behörden bezeichnet: Reichsarbeitsministerium Reichsministerium für Ernährung und Landwirtschaft Reichsfinanzministerium Reichsjustizministerium Reichspostministerium Reichsverkehrsministerium Reichswirtschaftsministerium Reichsministerium des Auswärtigen (seit 1919 übliche Langbezeichnung neben dem weiterhin verwendeten Namen „Auswärtiges Amt“) Reichsministerium des Innern Reichskriegsministerium (zuvor Reichswehrministerium; am 4. Februar 1938 beseitigt) Dabei veränderte das NS-Regime Zuschnitt und reale Kompetenzen der einzelnen Ministerien teilweise erheblich. Ab 1933 wurden folgende Ressorts neu eingerichtet: Reichsministerium für Volksaufklärung und Propaganda Reichsluftfahrtministerium Reichsministerium für Wissenschaft, Erziehung und Volksbildung Reichsministerium für die kirchlichen Angelegenheiten Reichsministerium für die besetzten Ostgebiete Reichsministerium für Bewaffnung und Munition (ab September 1942: Reichsministerium für Rüstung und Kriegsproduktion) Weitere Reichsbehörden und Spitzenämter Zu den obersten Reichsbehörden und Spitzenämtern, die keinem Reichsministerium, aber direkt der Reichskanzlei unterstellt waren oder wurden, zählten: die Dienststelle Stellvertreter des Führers (Parteikanzlei, ab Juni 1933) die Reichsgerichte der Rechnungshof des Deutschen Reiches der Reichsbauernführer (Richard Walther Darré, später in Personalunion mit dem Ernährungsminister) das Reichsforstamt (Hermann Göring, Personalunion mit dem Amt des Reichsjägermeisters) das Reichsamt für Wirtschaftsausbau die Reichsstelle für Wohnungs- und Siedlungswesen (1939–1940) der Reichskommissar für sozialen Wohnungsbau (Reichsorganisationsleiter der NSDAP, Robert Ley, ernannt am 15. November 1940) der Generalinspekteur für das deutsche Straßenwesen (Fritz Todt, ab November 1933) der Generalbauinspekteur für die Reichshauptstadt (Albert Speer, ab Januar 1937) das Rasse- und Siedlungshauptamt das Reichsamt für Wetterdienst (Februar 1933 bis November 1934: Reichsamt für Flugsicherung) das Statistische Reichsamt (bis 1940) das Reichsversicherungsamt (bis 1944) die Reichsversicherungsanstalt für Angestellte (bis 1935) das Reichsaufsichtsamt für das Versicherungswesen (bis Juni 1943: Reichsaufsichtsamt für Privatversicherung) das Reichsgesundheitsamt (bis 1938) die Reichsanstalt für Vitaminprüfung und Vitaminforschung (ab 1941/42) die Reichsanstalt für Arbeitsvermittlung und Arbeitslosenversicherung (Präsident bis Ende 1938: Friedrich Syrup, ab Januar 1939 Staatssekretär unter dem Reichsarbeitsminister) der Reichsarbeitsdienst (Konstantin Hierl, von 1935 bis 1943; danach Teil des Innenministeriums) der Generalbevollmächtigte für die Wirtschaft (1935; später für Kriegswirtschaft) der Chef des Technischen Amtes des Reichsministeriums für Rüstung und Kriegsproduktion, Hauptdienststellenleiter Karl-Otto Saur (1945 testamentarisch Rüstungsminister in spe) die Reichsstelle für Raumordnung (1935) das Reichsamt für Landesaufnahme der Reichswohnungskommissar (1942–1945) das Reichspatentamt die Reichsjugendführung (Baldur von Schirach, ab 1936) der Reichskommissar für Preisbildung (Carl Friedrich Goerdeler, ab November 1936) der Reichssportführer (ab 1936) der Beauftragte für den Vierjahresplan (Staatssekretär Erich Neumann, ab 1936) der Reichsführer SS und Chef der Deutschen Polizei (Chef der Sicherheitspolizei und des SD; Heinrich Himmler, ab 1936) der Generalgouverneur (Hans Frank, ab 1941 auch dessen ständiger Stellvertreter Staatssekretär Josef Bühler) der Generalbevollmächtigte für die Reichsverwaltung (ab 1938) der Ministerrat für die Reichsverteidigung bzw. Geheime Kabinettsrat (ab 1938) die Reichsbank (ab Juni 1939) die Reichshauptkasse (bis 1939) die Reichsschuldenverwaltung (bis 1938) die Reichsdruckerei der Reichsprotektor in Böhmen und Mähren (ab März 1939) der Reichsarbeitsführer (Konstantin Hierl, ab 1943) der Generalbevollmächtigte für den Arbeitseinsatz (Fritz Sauckel, ab März 1943) der Reichsbevollmächtigte für den totalen Kriegseinsatz (Joseph Goebbels, ab Juli 1944) Innere Verwaltung und Justiz Beamtenschaft Ein Großteil der Beamtenschaft zu Zeiten der Weimarer Republik stammte noch aus der Kaiserzeit und blieb antidemokratisch eingestellt. In Preußen waren schon ab 1930 überdurchschnittlich viele Beamte in die NSDAP eingetreten, obwohl das Beamtengesetz ihnen politische Betätigung für diese Partei – ebenso wie für die KPD – verbot. Beim Machtantritt Hitlers blieben die meisten Beamten passiv; erst nach der Reichstagswahl vom März 1933 kam es zu einer Welle von Aufnahmeanträgen in die NSDAP. Der Reichsbund der Deutschen Beamten rief seine Mitglieder dazu auf, sich der „nationalen Revolution“ anzuschließen. Proteste der Altkader in der NSDAP führten jedoch dazu, dass die als „Märzgefallene“ verhöhnten Neubewerber einen untergeordneten Mitgliedsstatus erhielten und schließlich Neuaufnahmen ganz gestoppt wurden. Zugleich entließ die neue Reichsregierung von Anfang an möglichst viele missliebige Spitzenbeamte, bei denen man politische Unzuverlässigkeit annahm. Besonders in Preußen entließ Göring viele Ober- und Regierungspräsidenten, Landräte und Polizeipräsidenten. Bis 1941 wurden dort 354 von 365 Landratsstellen mit NSDAP-Mitgliedern besetzt, darunter 201 „alte Kämpfer“. In den Kommunen vertrieb die SA oft ohne gesetzliche Grundlagen Beamte aus ihren Ämtern. Hinzu kam am 7. April 1933 das Gesetz zur Wiederherstellung des Berufsbeamtentums, das Angehörige von Linksparteien und Juden ausschließen sollte, dessen Wirkung jedoch durch das von Hindenburg eingeführte „Frontkämpferprivileg“ zunächst eingeschränkt blieb. Dennoch ließ das NS-Regime den Beamtenapparat insgesamt weitgehend unangetastet. Die NSDAP verfügte zudem nicht über genügend qualifizierte Funktionsträger, die in freigemachte Stellen hätten nachrücken können. Diese wurden vielfach weiterhin nach Befähigung und nicht vorrangig aufgrund politischer Linientreue besetzt. NSDAP-Mitglieder blieben in manchen Verwaltungsbereichen und Ressorts in der Minderheit, zum Beispiel im Reichsarbeitsministerium und im Innenministerium. So ließ das NS-Regime die vorhandene Bürokratie in der Phase der Machtübernahme vorläufig bestehen, um sie erst nach der Machtkonsolidierung in weiten Bereichen zu entmachten. Unter anderem schuf man eine Vielzahl neuer Reichsbehörden, um bestehende Verwaltungseinrichtungen zu „überwölben“. Infolgedessen kam es nach 1933 zu widersprüchlichen, mitunter lähmenden Entwicklungen in Staatsaufbau und Staatsverwaltung. Diese Polykratie, das heißt, die Konkurrenz unterschiedlicher Institutionen mit sich teilweise überschneidenden Kompetenzen, widersprach zwar der eigenen Ideologie eines starken Staates, weil sie dessen Handeln oft ineffizient machte, aber sie war durchaus gewollt, da konkurrierende Machtebenen die letztgültige Entscheidung stets dem Diktator an der Spitze überlassen mussten. Auf der Führungsebene wurde das Deutsche Beamtengesetz vom 26. Januar 1937 entworfen, das auf Weimarer Reformansätzen beruhte und 1953 durch das Bundesbeamtengesetz aufgehoben und ersetzt wurde. Es legte traditionelle Pflichten, Rechte und formale Dienstwege für die Beamten fest, um so politische Einflussnahme, Willkür und Korruption auch für NSDAP-Mitglieder einzuschränken, wobei dennoch ein „von nationalsozialistischer Weltanschauung durchdrungenes Berufsbeamtentum, das dem Führer des Deutschen Reichs und Volkes, Adolf Hitler, in Treue verbunden ist“, laut Präambel zum „Grundpfeiler des nationalsozialistischen Staates“ werden sollte. Das Gesetz konnte gegen Widerstände aus der NSDAP und Vorbehalte Hitlers, der sich verfassungsrechtlichen Grundsätzen nicht unterordnen wollte, in Kraft treten. In der Folgezeit beschnitt das NS-Regime das Eigengewicht der Bürokratie immer stärker. Bei Neubesetzungen kommunaler Ämter hatten die NSDAP-Gauleiter ein Vorschlagsrecht, bei Reichsbehörden hatte die Parteikanzlei ein Widerspruchsrecht. Dieses wurde zur regelmäßigen „politischen Beurteilung“ von Amtskandidaten genutzt, was die Anpassung der Beamten an das Regime begünstigte und vertiefte. Mit einem Führereid wurden u. a. Hochschulprofessoren zu einem Loyalitätsbekenntnis zu Hitler gezwungen; wer ihn verweigerte, verlor in der Regel sein Amt. Zusätzlich richtete die NSDAP in vielen Bereichen konkurrierende Verwaltungs- und Vollzugsorgane ein. Bei der Personalpolitik löste Martin Bormann den eher moderaten Rudolf Heß ab und setzte allmählich eine neue Generation von Hitler ergebenen und zugleich fachkompetenten NS-Spitzenbeamten durch. Am 26. April 1942 beanspruchte Hitler im Reichstag das persönliche Recht, jeden Staatsbediensteten zum Rücktritt zu zwingen oder zu entlassen, der aus seiner Sicht seine Pflichten verletzte (→ Beschluss des Großdeutschen Reichstags vom 26. April 1942). Dieses Recht nahm er vor allem nach dem 20. Juli 1944 für großflächige „Säuberungen“ auch in der Beamtenschaft in Anspruch. Damit verloren die deutschnationalen Beamten, die anfangs eine wesentliche Stütze für Hitlers Machtkonsolidierung gewesen waren, in der NS-Zeit endgültig ihre gestaltenden Einflussmöglichkeiten. Sicherheitsapparat Hitler hatte Hermann Göring im Januar 1933 zum Reichskommissar für das preußische Innenministerium ernannt. Göring nutzte dies umgehend, um die preußische Polizei zur Machtsäule des NS-Regimes umzubauen. Im Februar 1933 stellte er aus SA- und SS-Truppen eine 50.000 Mann starke Hilfspolizei auf, die dann auch in den Ländern eingeführt wurde. Ende April 1933 gründete er zudem ein Geheimes Staatspolizeiamt für Preußen mit der Aufgabe, „alle staatsgefährlichen politischen Bestrebungen im gesamten Staatsgebiet zu erforschen“. Daraus entstand die Geheime Staatspolizei (Gestapo). Diese blieb wegen einer relativ geringen Personaldecke jedoch auf Mithilfe der Bevölkerung angewiesen. Die NS-Propaganda rief die Deutschen zur Denunziation missliebiger Nachbarn, Kollegen o. ä. auf, was vielfach auf fruchtbaren Boden fiel. Die breite Denunziationsbereitschaft der Bevölkerung stellte daher die wichtigste Quelle von Informationen der Gestapo dar, die dann durch sogenannte „verschärfte Verhöre“, also Folter von Verdächtigen, erweitert wurden. Weil die Bevölkerung des NS-Staates mehrheitlich die Ziele Hitlers teilte, spricht man in der Forschung von einer „Selbstüberwachung“. Heinrich Himmler führte ab 1929 die SS, die bis zum sogenannten Röhm-Putsch von Ende Juni/Anfang Juli 1934 der SA unterstellt war. Er brachte bis 1934 die Politische Polizei und die Konzentrationslager im gesamten Reich unter die Kontrolle der SS. Per Erlass vom 17. Juni 1936 wurde er als Reichsführer SS auch zum Chef der Deutschen Polizei im Reichsministerium des Innern ernannt und leitete somit beide Organisationen in Personalunion. 1937 wurde diese Verklammerung durch die Höheren SS- und Polizeiführer (HSSPF) durchgängig auch institutionell verankert. Ihre Funktion bestand darin, einerseits die dem Chef der Polizei, andererseits die dem Reichsführer SS unterstellten Kräfte einheitlich zu führen. Himmler baute die SS fortan systematisch und erfolgreich zur Schaltzentrale und zum „Gehirn“ des NS-Systems aus. Ziel der Machtkonzentration war der Aufbau einer parallelen, auf Überwachung ausgerichteten Machtelite als „Staat im Staate“ mit starker Bindung an den „Führer“, die später überall die Führungsschicht des deutschen Großreichs bilden sollte. Als zentrale Leitungsbehörde zur Lenkung der bisher staatlichen Polizei und des parteieigenen Sicherheitsapparats wurde 1938 das Reichssicherheitshauptamt (RSHA) unter Reinhard Heydrich, später unter Ernst Kaltenbrunner gegründet. Es entstand aus der Zusammenlegung von Sicherheitspolizei (SiPo) und Sicherheitsdienst (SD). Dem RSHA unterstanden auch die Gestapo unter Heinrich Müller und ab Kriegsbeginn die Einsatzgruppen der Sicherheitspolizei und des SD. Das RSHA war zentral an der Planung und Durchführung der Judenverfolgung und des Holocaust sowie an der nationalsozialistischen Umvolkungs- und Rassenpolitik beteiligt. In den besetzten Gebieten trat die SS teilweise in Konkurrenz zu den zivilen und militärischen Verwaltungen. Justiz Wie für den Verwaltungsapparat besaß die NSDAP auch für die von ihr angestrebte Rechtsordnung kein klares Konzept. Das 25-Punkte-Programm hatte in Punkt 19 ein nicht näher definiertes „deutsches Gemeinrecht“ als „Ersatz für das der materialistischen Weltanschauung dienende römische Recht“ gefordert. Darunter verstand die NSDAP vor allem die Unterordnung der individuellen Bürgerrechte unter das angebliche Gesamtinteresse der „Volksgemeinschaft“: Recht ist, was dem Volke nützt. Als oberste Rechtsgüter wurden unklar definierte Begriffe wie Rasse, Erbgut, Ehre, Treue, Wehrhaftigkeit, Arbeitskraft, Zucht und Ordnung propagiert. Diesen Vorstellungen entsprechend verstießen schon einige der ersten Maßnahmen des NS-Regimes gegen grundlegende Prinzipien des Rechtsstaats wie die Gleichheit aller Staatsbürger vor dem Gesetz, Gewaltenteilung und nulla poena sine lege: so die „Reichstagsbrandverordnung“, das „Heimtückegesetz“ und das „Gesetz über Verhängung und Vollzug der Todesstrafe“ (Lex van der Lubbe). Das Gesetz über die Zulassung zur Rechtsanwaltschaft vom 7. April 1933 zielte auf die Ausschaltung jüdischer Rechtsanwälte, doch aufgrund der von Reichspräsident Hindenburg geforderten Ausnahmeregelung („Frontkämpferprivileg“) konnte ein von den Antisemiten unvorhergesehen großer Teil der jüdischen Anwälte ihren Beruf bis 1938 weiter ausüben. Hitlers Mordbefehle und ihre Ausführung beim angeblichen Röhm-Putsch vom 30. Juni bis 3. Juli 1934 wurden nachträglich legalisiert. Damit wurden der Wille und die ausführende Gewalt des Führers dem kodifizierten Recht und Gesetz übergeordnet. Die Gleichschaltungsgesetze und -maßnahmen hoben bis Januar 1935 auch die Justizhoheit der Länder auf. Das Reichsjustizministerium wurde dadurch zur obersten Aufsichtsbehörde über alle Gerichte, Strafvollzugsanstalten und deren Personal. Eine einheitliche Justizausbildungsverordnung sollte die Loyalität der Absolventen gegenüber dem Führerstaat gewährleisten: Sie sah für Referendare eine zweimonatige ideologische Schulung im Gemeinschaftslager „Hanns Kerrl“ und die mündliche Prüfung des Fachs „Volks- und Staatskunde im weitesten Sinn“ vor. Andererseits wurden die meisten seit dem 18. Jahrhundert entstandenen Justizbehörden beibehalten. Von den Richtern, die bis 1933 nur selten NSDAP-Mitglieder waren, wurden nur etwa 600 entlassen. Die Spitzenpositionen des Reichsjustizministers und des Reichsgerichtspräsidenten wurden deutschnationalen Vertretern überlassen und nicht neu besetzt. Dagegen betraf das Gesetz zur Wiederherstellung des Berufsbeamtentums vor allem „nichtarische“ und politisch missliebige Rechtsanwälte. Alle Anwälte mussten sich in der Reichsrechtsanwaltskammer und der Reichsnotarkammer registrieren lassen, die ihre Zulassung regelte und politische Zuverlässigkeit überwachte. Später mussten alle Richter einen persönlichen Treueeid auf den „Führer und Reichskanzler“ Adolf Hitler ablegen, der ab 30. Juni 1934 auch der „oberste Gerichtsherr des deutschen Volkes“ zu sein beanspruchte. Frauen wurden ab 1935 nicht mehr als Richterinnen, Staats- und Rechtsanwälte zugelassen. Neben dem traditionellen Gerichtswesen wurde für immer mehr Bereiche eine Sonder- und Standesgerichtsbarkeit aufgebaut. Nur für „Artgleiche“ galt annähernd gleiches Recht, für zu „Artfremden“ erklärte Bevölkerungsgruppen dagegen wurde Sonderrecht eingeführt: so für die „Asozialen“, Juden und „Fremdvölkischen“, vor allem Polen und Russen. Juden durften nur noch als „Konsulenten“ für andere Juden vor Gericht erscheinen. Für Polen und Juden im vom Deutschen Reich besetzten Polen galt ab Dezember 1941 die Polenstrafrechtsverordnung. Schon ab Juli 1933 wurden allen Amtsgerichten Erbgesundheitsgerichte angegliedert, die u. a. das Gesetz zur Verhütung erbkranken Nachwuchses mit Gesundheitszeugnissen durchführen sollten. Endgültig entscheidendes Rechtsmittelgericht war das bei den Oberlandesgerichten zu bildende Erbgesundheitsobergericht. Im bürgerlichen Recht wurden Eheverbote aus eugenischen Gründen ermöglicht. Bei rassischen „Mischehen“ wurde die Ehescheidung erleichtert und die Fortpflanzung verboten. Den Versuch, Unfruchtbarkeit als Scheidungsgrund zu legalisieren, verhinderte die katholische Kirche. Zugleich wurden unverheiratete Mütter und uneheliche Kinder rechtlich besser gestellt; „arische“ Frauen durften ab 1941 sogar gefallene Soldaten nachträglich heiraten. Die Sondergerichte für politische Delikte und der neu geschaffene Volksgerichtshof blieben zwar dem Justizministerium unterstellt, aber für dort durchgeführte Verfahren gab es keine Revisionsinstanzen. Neben sie traten ab Mai 1933 selbständige Kriegsgerichte, die ab 1936 dem neu eingerichteten Reichskriegsgericht unterstellt waren. Diese durften unter bestimmten Bedingungen auch Zivilisten verurteilen. Seit Kriegsbeginn entfielen auch dort Instanzenwege und Berufungsmöglichkeiten; die Urteile wurden nur von den jeweiligen Militärbefehlshabern bestätigt oder zur Neuverhandlung – fast immer mit dem Ziel einer Strafverschärfung – angewiesen. Himmler schuf nach dem „Röhm-Putsch“ 1934 für die SS ein eigenes Ehrengericht, aus dem sich ab Oktober 1939 eine besondere SS- und Polizeigerichtsbarkeit unter dem Hauptamt SS-Gericht entwickelte. Dessen Gerichtsherr war er selbst. Das neu geschaffene Reichsverwaltungsgericht unterstand dem Reichsinnenministerium, durfte aber keine politisch veranlassten Willkürakte vor allem der Polizei überprüfen. Sämtliche Gewaltakte der SA, Gestapo und SS blieben so der Strafverfolgung unabhängiger Gerichte entzogen. In präventive „Schutzhaft“ genommene Strafgefangene waren entrechtet. In der Strafjustiz wurden die Kriterien für Straftatbestände immer mehr von eindeutigen Tatmerkmalen auf die Gesinnung eines mutmaßlichen Täters verlagert. Den Richtern wurde dabei ein viel größerer Ermessensspielraum als bisher zugestanden. Diese Aufweichung zielte praktisch auf Strafverschärfung. Zugleich wurden viele Straftatbestände direkt mit höheren Strafen belegt, einige neu geschaffen. Die 1941 geänderten, am Täterstrafrecht orientierten Mordmerkmale wurden dennoch nach 1945 unverändert im Strafgesetzbuch beibehalten. Der Grundsatz nulla poena sine lege wurde nach punktueller Missachtung ganz aufgegeben. So erließ Hitler nach zwei Einzelfällen im Juni 1938 rückwirkend neue Strafen und Gesetze für diese und analoge Taten: Er verlangte z. B. die Todesstrafe für einen im Vorjahr begangenen erpresserischen Kindesraub und für das vorsätzliche Stellen einer „Autofalle“ (Lex Götze), die nicht näher definiert wurde. Nachdem das Reichsgericht die Angeklagten in einem Fall von „Elektrizitätsdiebstahl“ und einem Fall von „Fernsprechautomatenbetrug“ freigesprochen hatte, wurde auch das Analogieverbot im Strafrecht aufgehoben. Richter durften nun nicht ausdrücklich strafbare Taten nach ihnen vergleichbar erscheinenden Straftatbeständen „in Übereinstimmung mit dem völkischen Rechtsempfinden“ verurteilen. Die Todesstrafe, die 1933 für drei Tatbestände vorgesehen war, wurde auf zuletzt 46 Tatbestände ausgedehnt und vor allem im Krieg exzessiv angewandt. Die Kriegsgerichte bezogen Tatbestände wie „Wehrkraftzersetzung“ auch auf subjektive Einstellungen; als Kriegswirtschaftsverbrechen galten immer geringfügigere Vergehen. Die 5. Verordnung zum Kriegssonderstrafrecht vom 5. Mai 1940 erlaubte den Sonderrichtern schließlich, für jede Straftat jede Strafe bis einschließlich der Todesstrafe zu verhängen, wenn der nach Gesetzestext vorgesehene Strafrahmen „nach gesundem Volksempfinden“ für eine Sühne nicht ausreiche. Infolge dieser Rechtswillkür fällten die zivilen Sondergerichte rund 16.000 Todesurteile, 15.000 davon ab 1941; die Kriegsgerichte fällten rund 30.000 Todesurteile, davon etwa 23.000 wegen Fahnenflucht. 1942 begann das NS-Regime, die Rechtsprechung zusätzlich durch regelmäßige Richterbriefe und analoge Rechtsanwaltsbriefe zu lenken. Zudem ermächtigte Hitler den Reichsjustizminister, alle ihm erforderlich erscheinenden, auch vom bisherigen Recht abweichenden Maßnahmen zum Aufbau einer „nationalsozialistischen Rechtspflege“ zu treffen. Gewöhnliche Landes- und Oberlandesgerichte waren jedoch schon ab 1933 Teil des staatlichen Verfolgungsapparates geworden, indem sie viele Fälle von Regimekritik, Oppositionsverhalten, „Rundfunkverbrechen“ und „Rassenschande“ verurteilten. In einer Reichstagsrede im Frühjahr 1942 beschwerte sich Hitler über angeblich zu milde Urteile der Justiz. Die Gestapo wurde daraufhin bei politischen oder gewöhnlichen, aber politisierten Delikten faktisch zur Revisionsinstanz und durfte bereits Verurteilte, die ihre Strafe verbüßt hatten, nach eigenem Ermessen erneut festnehmen, wobei Folterungen mit Todesfolge in der Regel strafrechtlich nicht geahndet wurden. Die „Fremdarbeiter“ verfolgte und bestrafte sie direkt ohne Gesetzesgrundlage, Anzeige, Gerichtsverfahren und Urteil. Weitere Gerichte und Gerichtshöfe: Reichswirtschaftsgericht Reichsarbeitsgericht Reichsfinanzhof Militär Seit seinem Machtantritt setzte Hitler die unter seinen Vorgängern begonnene, zunächst noch geheimgehaltene Aufrüstung der durch den Versailler Vertrag begrenzten Reichswehr energisch fort, die er als zweite Säule des nationalsozialistischen Staates neben der Partei betrachtete. Die immer deutlicher werdende Rivalität zwischen Reichswehr und SA ließ er im Juni 1934 durch die als Niederschlagung des Röhm-Putschs getarnte Entmachtung der SA-Führung beenden, die Reichswehr wurde zum alleinigen Waffenträger der Nation erklärt. Nachdem er sich mit Hilfe des am 1. August 1934 erlassenen „Gesetzes über das Staatsoberhaupt des Deutschen Reiches“ zum Nachfolger des einen Tag später verstorbenen Reichspräsidenten Hindenburg hatte erklären lassen, übernahm er Kraft der Weimarer Verfassung den politischen Oberbefehl über die Reichswehr. Der Reichswehrminister und militärische Oberbefehlshaber Werner von Blomberg ließ in der Folge die Streitkräfte persönlich auf Hitler vereidigen. Ebenfalls 1934 begann der Aufbau der SS-Verfügungstruppe, aus der später die Waffen-SS hervorgehen sollte. Bereits im Oktober 1933 hatte Hitler den Austritt Deutschlands aus dem Völkerbund unter gleichzeitigem Rückzug von der Genfer Abrüstungskonferenz verkündet, auf der Deutschland von den anderen europäischen Mächten noch eine Rüstungsparität angeboten worden war. Am 16. März 1935 verkündete das Deutsche Reich mit dem „Gesetz für den Aufbau der Wehrmacht“ die Wiedererlangung der Wehrhoheit, die Wiedereinführung der allgemeinen Wehrpflicht und das Ziel des Aufbaus eines Heeres von 550.000 Mann. Von nun ab wurde die Armee nur noch als „Wehrmacht“ bezeichnet, die Reichsmarine wurde wenig später in „Kriegsmarine“ umbenannt. Bereits am 11. März hatte Reichsluftfahrtminister Göring die Existenz einer deutschen Luftwaffe bekanntgegeben. Von den anderen Mächten wurden diese eklatanten Verletzungen des Versailler Vertrags weitgehend hingenommen, so schloss Großbritannien im Juni 1935 das deutsch-britische Flottenabkommen ab, das Deutschland eine Aufrüstung der Kriegsmarine auf 35 % der Royal Navy erlaubte. Im März 1936 führten deutsche Truppen unter Bruch der Verträge von Locarno die Wiederbesetzung des Rheinlands durch. Kurz darauf wurde mit der Einführung des Vierjahresplanes die Herstellung der Kriegsfähigkeit des Landes und der Wehrmacht binnen vier Jahren beschlossen. Im gleichen Jahr griffen deutsche Freiwillige der Legion Condor erstmals auf Seiten der spanischen Nationalisten in den Spanischen Bürgerkrieg ein. Im Zuge der Blomberg-Fritsch-Krise setzte Hitler am 4. Februar 1938 Reichswehrminister Blomberg und den Oberbefehlshaber des Heeres Fritsch ab, löste das Kriegsministerium auf und übernahm auch den operativen Oberbefehl über das neugebildete Oberkommando der Wehrmacht (OKW), das sein persönlicher Generalstab wurde. Es war in der Spitzengliederung wie folgt besetzt: Oberkommando der Wehrmacht – Chef: Wilhelm Keitel (1938–1945) Wehrmachtführungsamt (ab 1940 Wehrmachtführungsstab) – Chef: Alfred Jodl (1938–1945) Amtsgruppe Allgemeines Wehrmachtamt – Chef: Hermann Reinecke (1939–1945) Amtsgruppe Ausland/Abwehr Wehrmacht-Zentralabteilung Wehrwirtschafts- und Rüstungsamt Justizdienststelle beim Chef OKW Die bereits zuvor bestehenden Oberkommandos der Teilstreitkräfte waren dem OKW weisungsgebunden, wahrten aber mit ihren angeschlossenen Stäben eine teilweise Selbständigkeit. Die Oberbefehlshaber und deren Stabschefs waren: Auf die Einrichtung des OKW folgten der Anschluss Österreichs und des Sudetenlandes (1938), die Einverleibung der „Rest-Tschechei“ (1939) und schließlich die Entfesselung des Zweiten Weltkriegs durch den Überfall auf Polen. Bevölkerung Einer Volkszählung zufolge lebten 1939 auf dem deutschen Reichsgebiet 79.375.281 Menschen, einschließlich der Mitarbeiter von Reichsarbeitsdienst (RAD) und Militär. Darunter fielen 38.761.645 (48,83 %) Männer und 40.613.636 (51,17 %) Frauen. Davon lebten in Großstädten 24.187.422 (30,47 %), in Gemeinden von 2.000 bis unter 100.000 Einwohnern 29.875.968 (37,64 %) und in Gemeinden von unter 2.000 Einwohnern 25.311.877 (31,89 %) Menschen. Das ehemalige Gebiet Preußens mit seinen zahlreichen Provinzen machte dabei den bei Weitem größten Bevölkerungsraum aus (40.941.155 Einwohner bzw. 51,58 %). Auf das zu diesem Zeitpunkt bereits „angeschlossene“ Österreich entfielen 6.881.457 Personen (8,67 %). Wirtschaft Territorium Länder des „Altreichs“ Das 1871 gegründete Kaiserreich war ein Bundesstaat aus 22 monarchischen Staaten, drei republikanischen Stadtstaaten und dem Reichsland Elsaß-Lothringen gewesen. In der Weimarer Republik bestand das Deutsche Reich aus 18 Ländern. Der NS-Staat behielt die Gliederung in Länder zwar bei, reduzierte deren Aufgaben jedoch auf die ausführender Organe der zentralen Reichsministerien und -behörden. Den Ministerpräsidenten der Länder wurden Reichsstatthalter übergeordnet. Neben die Länder traten die Gaue der NSDAP als konkurrierende Einheiten. Der Freistaat Preußen blieb auch in der NS-Zeit das größte Land des Reiches. Seine Verwaltungsstrukturen waren aber schon 1932 durch den Preußenschlag der Regierung Papen stark geschwächt worden. Mit der Gleichschaltung Preußens verloren seine zentralen Institutionen 1933 weiter an Bedeutung und traten gegenüber denen der Reichsregierung und Oberpräsidien der preußischen Provinzen in den Hintergrund. In manchen Provinzen wurde das Amt des Oberpräsidenten vom jeweiligen NSDAP-Gauleiter bekleidet, wie etwa in Ostpreußen von Erich Koch. Der Reichsstatthalter von Preußen war Hitler selbst, der jedoch seine diesbezüglichen Befugnisse an den preußischen Ministerpräsidenten Hermann Göring übertrug. Weitere Länder mit eigenem Reichsstatthalter waren: Baden Bayern Hamburg Hessen Sachsen Thüringen Württemberg Länder, die mit anderen von einem gemeinsamen Reichsstatthalter regiert wurden, waren: Anhalt und Braunschweig Bremen und Oldenburg Lippe und Schaumburg-Lippe Lübeck (1937 Preußen angegliedert) und Mecklenburg (ab 1934 aus Mecklenburg-Schwerin und Mecklenburg-Strelitz) Vergrößerung des Reichsgebiets Bereits vor 1939 erweiterte das NS-Regime das Reichsgebiet schrittweise durch die Eingliederung des Saargebiets (1935), Österreichs und des Sudetenlandes 1938. Dort wurden im Folgejahr Reichsgaue unter einem oder mehreren Reichsstatthaltern gebildet, die später auch im übrigen Reich eingerichtet werden sollten. Bis auf die Angliederung des Saargebiets erfolgten alle territorialen Zugewinne unter Gewaltandrohung. Mit der Zerschlagung der Tschechoslowakei im März 1939 dehnte sich das Reich erstmals auf Territorien aus, die mehrheitlich nicht von Deutschen besiedelt waren. Damit verlor es seinen Charakter als Nationalstaat. Das Reichsgebiet umfasste seit 1939 das Protektorat Böhmen und Mähren, die eroberten CdZ-Gebiete waren als „Gebiete des Großdeutschen Reiches“ vorgesehen. Nach Auskunft des Generalgouverneurs Hans Frank hatte Hitler wohl schon im Herbst 1939 beschlossen, auch das Generalgouvernement, in welchem er ein Landarbeiterreservat für das Reich sah, zu einem Teil des Großdeutschen Reiches zu machen. Allerdings, so vermutet der Historiker Martin Broszat, wollte Hitler den Rechtsstatus zugleich ungeklärt lassen, um das Generalgouvernement außerhalb völkerrechtlicher und reichsrechtlicher Verbindlichkeiten zu belassen. Hitler akzeptierte im Sommer 1940 die von Frank entwickelte Theorie vom „Nebenland des Reiches“. Bei der amtlichen Bezeichnung des Generalgouvernements wurde zwar der Zusatz „für die besetzten polnischen Gebiete“ fortgelassen. Aber das Generalgouvernement erhielt nicht den Status eines Protektorats, sondern wurde „ein zum Zwecke möglichst rechtsunverbindlicher Herrschaft ad-hoc konstruiertes reichs-exterritoriales deutsches ‚Nebenland‘ ohne Staatseigenschaft mit staatenlosen Einwohnern polnischer Volkszugehörigkeit.“ Nach dem polnischen Historiker Tomasz Szarota zeigt sich in den von Frank zitierten Äußerungen Hitlers eine „Tendenz zur Annektierung expressis verbis“, gleichwohl unter dem Aspekt der völkerrechtlichen Angliederung durch das Deutsche Reich „schon am Vorliegen einer wirklichen Inkorporationshandlung einige Zweifel bestehen“. Wie im NS-System üblich, fand die nationalsozialistische Staatsrechts- und Völkerrechtslehre keine Begriffe, um das neue Gebilde Generalgouvernement zu beschreiben. So lässt sich dessen staatsrechtliche Stellung, so Diemut Majer, „nur vom Faktischen unter Berücksichtigung der politischen Zielsetzung erklären“. Hierbei zeigt sich, dass das Generalgouvernement „trotz der weitgehenden Verwaltungs- und Rechtssetzungsautonomie grundsätzlich als Bestandteil des Reiches, als Reichsgebiet, betrachtet wurde“. In der Praxis wurden allerdings zahlreiche Ausnahmen gemacht, wenn sich dadurch eine sonderrechtliche Behandlung „Fremdvölkischer“ besser durchsetzen ließ. Zugleich war das Generalgouvernement dazu bestimmt, die „erste Kolonie des Reiches“ zu werden, was sich in einer „Politik der ökonomischen Ausbeutung, der kulturellen Niederhaltung der Polen und der Vernichtung ihrer Intelligenz“ niederschlug. Vor Kriegsbeginn eingegliedert Das nach dem Ersten Weltkrieg unter französischer Verwaltung stehende Saargebiet wurde nach Auslaufen der im Versailler Vertrag gesetzten Frist und einer Volksabstimmung am 1. März 1935 als „Saarland“ ins Reich eingegliedert. Der „Anschluss“ des österreichischen Staates an das nationalsozialistische Deutschland wurde unter Androhung von Gewalt mit dem Einmarsch der Wehrmacht am 12. März 1938 begonnen. Durch politische Erpressung oder mit militärischer Drohung wurde außerdem die Abtretung einiger Gebiete erzwungen: Die Tschechoslowakei musste die sudetendeutschen Gebiete nach dem Münchner Abkommen am 10. Oktober 1938 an das Reich abtreten. Das Memelgebiet wurde nach einem deutschen Ultimatum an Litauen im deutsch-litauischen Staatsvertrag vom 22. März 1939 an Deutschland abgetreten. Diese vor dem Zweiten Weltkrieg vorgenommenen Angliederungen wurden staatsrechtlich wirksam. Die Slowakei musste sich von der Tschecho-Slowakischen Republik unabhängig erklären (14. März 1939), erhielt eine beschränkte Selbständigkeit und den Satellitenstatus eines deutschen Verbündeten. Nach der „Zerschlagung der Rest-Tschechei“ am 15. März 1939 wurde dem Protektorat Böhmen und Mähren eine scheinbare Autonomie unter der Aufsicht eines deutschen Reichsprotektors zugebilligt; es galt als Bestandteil des Reiches, das auch die höchste Regierungsgewalt hatte. Die Bildung dieses Protektorats brach einen internationalen Vertrag und war damit ebenso wie die folgenden, durch militärische Eroberungen erreichten Erweiterungen des deutschen Hoheitsgebietes völkerrechtlich unwirksam. Im Verlauf des Krieges eingegliedert Das deutsche Reichsgebiet wurde nach dem Polenfeldzug vom Herbst 1939 über die Rückgliederung der im Friedensvertrag von Versailles an Polen abgetretenen Gebiete hinaus erweitert: Danzig-Westpreußen mit dem Danziger Korridor wurde zum Reichsgau. Das Wartheland (Posen bis Łódź) wurde als Reichsgau aus dem Großteil der früheren preußischen Provinz Posen und weiteren angrenzenden polnischen Gebieten geschaffen. Der Regierungsbezirk Zichenau wurde Ostpreußen zugeschlagen; der Landkreis Sudauen und Ostoberschlesien mit dem Olsagebiet (früher Österreichisch-Schlesien) und damit das gesamte Industrierevier kamen zu Preußen. Die übrigen Teile des in den nationalsozialistischen Machtbereich gelangten polnischen Staatsgebietes wurden als „Generalgouvernement für die besetzten polnischen Gebiete“ mit den Distrikten Krakau, Lublin, Radom und Warschau von einer Hitler direkt unterstellten Regierung verwaltet und im Zuge des Deutsch-Sowjetischen Krieges eingegliedert. Die eingegliederten Gebiete Polens waren doppelt so groß wie diejenigen, die 1919 abgetreten wurden, und verschoben die Reichsgrenze um 150 bis 200 km nach Osten. Besetztes Staatsgebiet unter deutscher Zivilverwaltung Viele von deutschen Streitkräften besetzte Staaten konnten eigene Regierungen behalten, wie es die Haager Landkriegsordnung vorsieht, aber nicht alle. Nach dem Westfeldzug 1940 wurden in einigen besetzten Gebieten zivile Behörden eingerichtet, die einem „Chef der Zivilverwaltung“ (CdZ) unterstanden, der seinerseits deutschen Reichsstellen verantwortlich war. Eupen-Malmedy, das 1919 an Belgien abgetreten worden war, wurde sofort annektiert, dabei jedoch um Gemeinden vergrößert, die vor 1920 nicht zum Deutschen Reich gehört hatten. Weitere Gebiete im Westen wurden de facto dem deutschen Staat eingegliedert, aber in keinem Fall formell annektiert. Sie wurden von den Gauleitern der angrenzenden Reichsgebiete mitverwaltet: Lothringen, Elsass, Luxemburg. In ihnen wurde eine „Eindeutschungspolitik“ betrieben. Nach dem Balkanfeldzug 1941 wurde das Königreich Jugoslawien in drei Separatstaaten (Kroatien, Serbien, Montenegro) aufgeteilt. Zwei Drittel von Slowenien wurden unter die CdZ-Verwaltung des Kärntner Gauleiters gestellt und de facto eingegliedert: Südkärnten und Krain; Untersteiermark. Nach dem Russlandfeldzug 1941 wurden weitere Gebiete einer deutschen Zivilverwaltung unterstellt: Distrikt Galizien mit Lemberg unter die Verwaltung des Generalgouvernements, Bezirk Bialystok Besetztes Staatsgebiet unter Kriegsrecht Nach dem Waffenstillstand Italiens mit den Alliierten im September 1943 okkupierte Deutschland auch Italien, und Benito Mussolini richtete in Oberitalien die Italienische Sozialrepublik (RSI) als faschistischen Satellitenstaat ein. Hier und im italienisch besetzten Jugoslawien übten die Wehrmacht, die unter die Führung der SS des Reichsgebiets gestellte Polizei und eine deutsch-italienische Zivilverwaltung in zwei Gebieten die Macht aus: „Operationszone Alpenvorland“, zu der die Provinzen Bozen (Südtirol), Trient und Belluno gehörten; „Operationszone Adriatisches Küstenland“, ein Gebiet etwa von Udine bis Laibach. Diese Operationszonen, deren Grenzen sich nicht an Staatsgrenzen orientierten, sondern an militärischen Erfordernissen, wurden durch die SS-Herrschaft und die Zivilverwaltung vom italienisch regierten Territorium getrennt, das weiterhin formell unter der Souveränität der RSI verblieb. In ihnen wurde weitgehend deutsches Recht und die deutsche Amtssprache eingeführt. Eine deutsch-italienische Zivilverwaltung war sogenannten „zivilen Beratern“ mit der offiziellen Bezeichnung Oberster Kommissar unterstellt, die sich nach persönlichen Weisungen Hitlers an die Leiter der benachbarten Reichsgaue Tirol-Vorarlberg und Kärnten Franz Hofer und Friedrich Rainer zu richten hatten. Deren Zuständigkeit erstreckte sich auch auf den 1941 von Italien besetzten Teil Sloweniens. Diese persönlichen Vollmachten bedingten eine grundsätzliche Rechtsunsicherheit der Bevölkerung in den Gebieten der Zivilverwaltung. Gebiete ohne Autonomie im deutschen Herrschaftsbereich Dem Reich angegliedert, aber nicht annektiert, waren auch zwei riesige „Reichsprovinzen“ unter deutscher Zivilverwaltung, die Reichskommissariate Ostland (baltische Staaten und Weißrussland) und Ukraine. Geplante Erweiterungen Wie weit das NS-Regime seine Eroberungsziele steckte, ist in der Forschung umstritten. Eberhard Jäckel argumentiert in Anlehnung an Hugh Trevor-Roper, Hitler habe im Wesentlichen Lebensraum im Osten erobern wollen, das heißt im europäischen Russland. Der unter der Ägide des Reichsführers SS Heinrich Himmler bis 1942 erstellte Generalplan Ost sah bereits ein neues Bodenrecht und in einem auf 25 Jahre angelegten Plan eine Besiedlung des eroberten Gebiets mit vier Millionen „germanischstämmigen“ Siedlern im „Ingermanland“ um Leningrad, im „Gotengau“ auf der Krim und im Gebiet um Cherson sowie im Einzugsbereich der Flüsse Memel und Narew vor. Dieser „kontinentalistischen“ Interpretation der nationalsozialistischen Eroberungspläne, der sich unter anderem Hans-Adolf Jacobsen und Dietrich Aigner anschlossen, wurde von verschiedener Seite widersprochen. So entfaltete das nationalsozialistische Deutschland verschiedenste Aktivitäten zur Wiedergewinnung von Kolonien, namentlich in Afrika. Wie ernst diese revisionistischen Überlegungen waren, ist in der Forschung ebenfalls umstritten. Durch das Bündnis mit Japan verzichtete das Deutsche Reich auf die ostasiatischen Kolonien der besetzten Niederlande und Frankreichs. Die bereits ab 1941 eingeschränkte Ambition zur Wiedergewinnung eines Kolonialreichs in Afrika wurde Anfang 1943 eingestellt. Auch mit Blick auf diese Afrikapläne argumentieren viele Historiker, Hitler habe letztlich die Weltherrschaft angestrebt. Geografisch-politische Lage Das Deutsche Reich hatte zur Zeit seiner größten Ausdehnung 1942 (neben der Kriegsfront zur Sowjetunion) zehn Nachbarstaaten: Im Norden grenzte es an Dänemark (67 Kilometer Grenzstrecke), im Südosten an die Erste Slowakische Republik sowie Ungarn und Kroatien, im Süden an Italien, Fürstentum Liechtenstein (35 Kilometer) und die Schweiz (550 Kilometer), im Südwesten an Frankreich (392 Kilometer), im Westen an Belgien (221 Kilometer) und im Nordwesten an die Niederlande (567 Kilometer). Von diesen Staaten waren alle außer Italien, Liechtenstein und der Schweiz von deutschen Truppen besetzt bzw. wie die Slowakei zum Vasallenstaat gemacht worden. Ende des NS-Staats Bereits vor ihrem Sieg über Deutschland hatten die USA, Großbritannien und die Sowjetunion alle Gebietserweiterungen des Reichs seit 1938 für nichtig erklärt. Die Westverschiebung Polens, im Wesentlichen auf Kosten der deutschen Ostgebiete, war seit der Konferenz von Teheran 1943 im Grundsatz beschlossen. Auf der Konferenz von Jalta gestanden die drei Mächte im Februar 1945 auch Frankreich den Status als Siegermacht zu und entschieden, Deutschland nach Kriegsende in vier Besatzungszonen und Berlin in vier Sektoren aufzuteilen. Weitergehende Pläne, Deutschland dauerhaft in mehrere Staaten aufzuteilen, wurden schon im Frühjahr 1945 fallen gelassen. Die militärische Niederlage und vollständige Besetzung Deutschlands beendete die Herrschaft der NSDAP. Auch die aufs engste mit der Partei verflochtene staatliche Verwaltung hörte weitgehend auf zu funktionieren. Deutsche Amtsträger konnten nach der Besetzung nur mit Duldung oder nach Ernennung durch die jeweilige Besatzungsmacht tätig werden. Der von Hitler testamentarisch als Reichspräsident eingesetzte Großadmiral Karl Dönitz und seine Regierung hatten noch Zugriff auf die deutschen Truppen, nicht aber auf zivile Behörden. Nachdem sie die bedingungslose Kapitulation der Wehrmacht vom 7./8. Mai 1945 unterzeichnet hatte, gestanden die Alliierten ihr keinerlei hoheitliche Aufgaben mehr zu. Vielmehr wurde die Regierung am 23. Mai 1945 für abgesetzt erklärt und verhaftet. Mit der Berliner Erklärung vom 5. Juni 1945 proklamierten die Alliierten auf Basis des Artikels 4 der Kapitulationsurkunde die Übernahme der „obersten Regierungsgewalt in Deutschland“. Oberstes Organ des Besatzungsregimes und Träger der deutschen Staatsgewalt wurde der Alliierte Kontrollrat. Bezeichnungen für den NS-Staat Neben dem Begriff NS-Staat verwenden heutige Wissenschaftler Bezeichnungen wie NS-Diktatur, NS-Regime und weiterhin auch „Drittes Reich“, letzteres meist in Anführungsstrichen, um den ursprünglich propagandistischen Charakter dieses Begriffs hervorzuheben. Um das politische System des nationalsozialistischen Deutschland zu betonen, wird es oft als „Führerstaat“ bezeichnet. Marxistische Historiker in der früheren DDR und in Westdeutschland nutzten in diesem Fall Begriffe wie „deutscher Faschismus“ oder „faschistische Diktatur“. In der Umgangssprache sind Benennungen wie „Nazi-Deutschland“, „Hitlerdeutschland“ oder ähnliche Komposita üblich. Amtliche Bezeichnungen Die zeitgenössische amtliche Bezeichnung des deutschen Nationalstaats für die Zeit von 1871 bis 1945 war Deutsches Reich. Sie wird für diesen Zeitabschnitt auch heute noch in den Staatswissenschaften verwendet. Nach dem „Anschluss“ Österreichs im März 1938 war zeitweilig die Bezeichnung Großdeutsches Reich offiziell in Gebrauch, so auch im Reichsgesetzblatt. Ein Erlass des Reichsministers und Chefs der Reichskanzlei, Hans Heinrich Lammers, vom 26. Juni 1943 an die obersten Reichsbehörden und die Hitler unmittelbar unterstellten Dienststellen machte die bis dahin inoffizielle Sprachregelung verbindlich. Mit dem auch umgangssprachlich verwendeten Begriff Großdeutschland beanspruchte das NS-Regime, die 1848 erwogene großdeutsche Lösung erreicht zu haben, die Einbeziehung der Deutschen in der Habsburgermonarchie in einen einheitlichen Nationalstaat. Zudem deutete er expansive Absichten an: Die nationalsozialistischen Europapläne sahen vor, weitere Länder, etwa Norwegen, Dänemark, die Niederlande und Belgien, in ein neu zu schaffendes „Großgermanisches Reich“ einzugliedern. Gleichfalls seit dem Anschluss Österreichs bezeichneten die deutschen Behörden das ursprüngliche Staatsgebiet, das so genannte Deutschland in den Grenzen von 1937 als Altreich. Die Unterscheidung war erforderlich, da für alle neu eingegliederten oder unter deutsche Besatzungsverwaltung gestellten Gebiete Gesetze erlassen und Verwaltungsverfahren geschaffen wurden, die sich von denen des Altreichs unterschieden. Dazu zählten neben Österreich u. a. auch das Sudetenland, das Memelland und die Freie Stadt Danzig, die alle 1938 und 1939 annektiert worden waren. Propagandistische Bezeichnungen Bereits vor 1933 war der Begriff Reich zum Kampfbegriff der Rechten und der Monarchisten gegen die demokratische Republik geworden. Das dritte Reich, wie ein 1923 veröffentlichtes Buch von Arthur Moeller van den Bruck hieß, bezog sich auf die Tradition des ersten, des Heiligen Römischen Reichs Deutscher Nation, und des zweiten, des kleindeutschen Deutschen Kaiserreichs; er meinte damit ein großdeutsches Reich. Die Idee eines „Dritten Reiches“ lässt sich bis ins 12. Jahrhundert zurückverfolgen. Der italienische Theologe Joachim von Fiore hatte seinerzeit ein drittes, tausendjähriges Zeitalter des Heiligen Geistes prophezeit, das auf die beiden Zeitalter Gottes und Jesu Christi folgen würde. Die Nationalsozialisten griffen das Schlagwort auf, weil es ihre Bestrebungen zu bündeln schien. Hitler versuchte des Öfteren, den Mythos der „tausend Jahre“ für seine Herrschaft zu vereinnahmen. Später kamen ihm zum Begriff „Drittes Reich“ Bedenken. Man hätte über ein weiteres, ein viertes Reich spekulieren und die Kontinuität des Reiches der Deutschen in Frage stellen können. Im Juli 1939 verbot Propagandaminister Joseph Goebbels die Verwendung des Begriffs „Drittes Reich“. Historisch-politologische Deutung Der Charakter des NS-Staats wird von Historikern und Politikwissenschaftlern bis heute unterschiedlich gedeutet. Konsens besteht jedoch darüber, dass es sich um eine außergewöhnlich gewalttätige, verbrecherische Diktatur handelte. Selbstdeutungen des NS-Staates wie „germanische Demokratie“ spielen im wissenschaftlichen Diskurs der Gegenwart keine Rolle. Von Marxisten wurde der NS-Staat als faschistisch und somit als Klassenherrschaft der Bourgeoisie gedeutet. Ihre kanonische Formulierung fand diese Annahme in der so genannten Dimitroff-These von 1933, wonach der Faschismus als „terroristische Diktatur der am meisten reaktionären, chauvinistischen und imperialistischen Elemente des Finanzkapitals“ definiert wurde. Sie lag den geschichtswissenschaftlichen Analysen von Forschern aus der DDR und den anderen Ostblockstaaten zugrunde, wo sie mitunter zur Agententheorie verkürzt wurden: Demnach wären Hitler und die anderen Nationalsozialisten bloße Agenten oder Marionetten der eigentlich herrschenden Kapitalistenklasse gewesen. Im Westen wurde demgegenüber von führenden Wissenschaftlern lange die Totalitarismusthese vertreten: Demnach war der Nationalsozialismus ebenso wie der Stalinismus in der Sowjetunion eine Herrschaftsform, die durch eine allumfassende, keinen Widerspruch zulassende Ideologie, eine hierarchisch organisierte Massenpartei, einen Terrorapparat, ein staatliches Monopol an Kommunikationsmitteln und Waffen sowie eine zentrale Lenkung der Wirtschaft gekennzeichnet sei. Der NS-Staat wurde dabei als „monolithischer Führerstaat“ beschrieben, in dem widerspruchsfrei von oben nach unten durchregiert wurde. Diese Position war, ähnlich wie die Anwendung des Faschismusbegriffs von Seiten des Ostblocks, deutlich zweckgerichtet in der Auseinandersetzung des Kalten Kriegs. Nach dessen Ende wird der Totalitarismusbegriff heute in differenzierter Form von Forschern wie zum Beispiel von Uwe Backes und Eckhard Jesse von François Furet und Ernst Nolte oder von Hans-Ulrich Wehler verwendet. Der Historiker Wolfgang Wippermann dagegen lehnt ihn strikt ab, weil die ihm inhärente Gleichsetzung mit anderen Diktaturen „die Singularität des Holocaust in Frage stellt und auch in Frage stellen soll“. Bereits in den frühen 1940er Jahren hatten zwei deutsche Exilanten in den USA den NS-Staat allerdings mit jeweils unterschiedlicher Schwerpunktsetzung als deutlich heterogener beschrieben, als der Topos vom monolithischen Führerstaat glauben machte: Ernst Fraenkel legte 1940/41 sein Buch Der Doppelstaat vor, in dem er die Janusköpfigkeit des NS-Staats herausarbeitete: Der Normenstaat der herkömmlichen, bürokratisch arbeitenden Behörden und Ministerien sei gekennzeichnet durch Rechtsnormen, die grundsätzlich auf Berechenbarkeit angelegt seien und der Aufrechterhaltung der privatkapitalistischen Wirtschaftsordnung dienten. Hier gälten wie in jedem ordentlichen Staat Gesetze, Gerichtsentscheidungen und Verwaltungsakte. Demgegenüber sei der Maßnahmenstaat durch die neu geschaffenen Organisationen der NSDAP geprägt und folge nicht dem Recht, sondern ausschließlich situativen Nützlichkeitserwägungen. Beide zusammen bildeten eine „Symbiose zwischen Kapitalismus und Nationalsozialismus“; im Konfliktfall setze sich aber immer der Maßnahmenstaat durch. Die Judenverfolgung sei dafür das zentrale Beispiel. 1944 beschrieb Franz Neumann in seinem Werk Behemoth den NS-Staat als einen „Unstaat“: Es sei im Grunde nur eine Allianz wechselseitig voneinander abhängiger Machtblöcke, nämlich der NSDAP mit ihren Einzelorganisationen, der Großwirtschaft und der Reichswehr. Ab 1936 sei noch die SS bzw. die Gestapo dazu gekommen. Diese Allianz sei durchaus nicht stabil, vielmehr würden sich die Machtgewichte verschieben und zwar tendenziell zugunsten der SS. Dieser Ansatz erwies sich in den 1960er und 1970er Jahren als fruchtbar: Martin Broszat, Reinhard Bollmus, Peter Hüttenberger und andere entwickelten daraus die Deutung des NS-Staates als einer Polykratie: In allen Politikfeldern habe es Institutionen mit sich überschneidenden Zuständigkeiten gegeben, die miteinander um Gestaltungsmöglichkeiten konkurriert hätten: Das Amt Rosenberg, die NSDAP/AO, die Dienststelle Ribbentrop und das Auswärtige Amt in der Außenpolitik, die Schulbehörden und die Hitlerjugend in der Beeinflussung der Jugend, das Reichswirtschaftsministerium, die Reichsbank unter Hjalmar Schacht und die Vierjahresplanbehörde in der Wirtschaftspolitik, die Wehrmacht und die Waffen-SS als Streitkräfte usw. Die ständigen Gegensätze und Streitereien zwischen diesen Institutionen habe dann zu der destruktiven Radikalisierung der nationalsozialistischen Politik hin zu Krieg und Holocaust geführt, die sich somit funktionalistisch aus der Eigendynamik der anarchischen Ämterrivalität und ohne Berücksichtigung von Hitlers „Programm“, wie er es in Mein Kampf formuliert hatte, erklären ließen. Ihm wird in diesem Ansatz nur die Rolle eines Propagandisten, eines Repräsentanten des Gesamtsystems bzw. eines Schiedsrichters zugewiesen. Hans Mommsen spitzte 1971 diesen Ansatz in dem vielzitierten Bonmot zu, Hitler sei letztlich „ein schwacher Diktator“ gewesen, „entscheidungsunwillig“ und „häufig unsicher“. Anstelle der vormaligen Forschungsstreitfrage, ob sich das NS-Herrschaftssystem besser als Monokratie oder als Polykratie fassen lasse, erkannte Magnus Brechtken „die dialektisch-komplementäre Wirklichkeit“: eine bewusst polykratische Herrschaft mit der monokratisch integrierenden Führungsfigur Hitler an der Spitze. Die Installation von immer neuen Sonderbehörden und „Beauftragten des Führers“, deren Macht allein auf dem Treueverhältnis zu ihm beruhte, habe „eine sozialdarwinistisch konkurrierende Kompetenzpolykratie“ geschaffen, die sowohl Hitlers Vorstellung vom ständigen Durchsetzungskampf entsprochen habe als auch seine Position als letzte Entscheidungsinstanz mit ausschlaggebendem Zugriff, wo immer er ihn für nötig hielt, gestärkt habe. Sozialwissenschaftler wie Ralf Dahrendorf, David Schoenbaum und Rainer Zitelmann deuteten seit den 1960er Jahren den NS-Staat zumindest in seiner Wirkung als modernisierend: Wie der italienische Faschismus habe es sich um eine Entwicklungsdiktatur gehandelt. Der NS-Staat habe langjährige Traditionsfaktoren der deutschen Geschichte wie Adel und Kirche ausgeschaltet, sei technikaffin gewesen, habe die deutsche Klassengesellschaft überwunden und die soziale Mobilität für alle Schichten erhöht. Insofern könne man davon sprechen, dass im NS-Staat eine soziale Revolution stattgefunden habe. Angesichts der antimodernen Zielsetzung des NS-Staates spricht Hans-Ulrich Thamer von der „Doppelrevolution des Nationalsozialismus“: eine „Revolution der Zwecke“ sei klar gegen die bürgerlich-industrielle Welt gerichtet gewesen, habe aber verwirklicht werden sollen durch eine „Revolution der Mittel“, die „einen bürgerlichen und industriellen Charakter hatte und die aufgehaltene Modernisierung der deutschen Gesellschaft wider Willen fortsetzte“. Diese Deutung stieß auf entschiedenen Widerspruch. Wolfgang Wippermann und Michael Burleigh charakterisieren den NS-Staat in ihrem 1991 erschienenen gemeinsamen Werk als „Rasse-Staat“: Alle seine Maßnahmen inklusive der scheinbar modernen oder revolutionären wie etwa die Verbesserung des Mutterschutzes hätten nur dem Ziel gedient, eine „barbarische Utopie“ zu verwirklichen: Die Ausrottung der Juden und die Erschaffung einer hierarchisch geordneten Gesellschaft, an deren Spitze erbgesunde Arier stehen sollten, sei, auch wenn es nie erreicht wurde, das programmatische Ziel des NS-Staats gewesen. Insofern habe Hitler als derjenige, der dieses Ziel verbindlich formulierte, durchaus keine untergeordnete oder schwache Rolle gespielt. Weil der NS-Staat anstrebte, eine Rassen- statt einer Klassengesellschaft zu werden, seien Deutungen als Faschismus, Totalitarismus oder Modernisierungsdiktatur ohne nennenswerten Erkenntniswert. Auch Wolfgang Benz glaubt, dass „der Antisemitismus, der die Rassenkonstrukte des 19. Jahrhunderts übernahm“, für den Nationalsozialismus konstitutive Bedeutung hatte. Hans-Ulrich Wehler beschreibt den NS-Staat als „Führerabsolutismus“, in der der Charismatische Herrscher Hitler das unbestrittene Recht zur letztinstanzlichen Entscheidung in allen Streitfragen innegehabt habe. Diese „Monokratie“ stehe keineswegs im Widerspruch zu der oben beschriebenen Polykratie der untergeordneten Instanzen, sondern diese sei nachgerade ihre Gelingensbedingung: Im Sinne seines Sozialdarwinismus habe Hitler seine Satrapen solange streiten lassen, bis sich der Stärkste durchgesetzt habe. Dieses Ergebnis habe er nur noch sanktionieren müssen, ohne sich selbst in die Streitereien einmischen und Widerspruch auf sich ziehen zu müssen. Dadurch habe er seinen Nimbus als „außeralltäglicher Sendbote“ behalten können, der ihm die Zustimmung der großen Mehrheit der Deutschen gesichert habe. Auf den großen Konsens in der Bevölkerung, der das Regime trug, hebt auch Götz Aly in seinem Werk Hitlers Volksstaat ab. Für ihn war der NS-Staat eine „Gefälligkeitsdiktatur“, die sich das Wohlwollen der Gesellschaft durch Überwindung der Massenarbeitslosigkeit, vor allem aber durch Umverteilung arisierter jüdischer Vermögen und nach 1939 durch rücksichtslose Ausbeutung der im Weltkrieg besetzten Gebiete sicherte. Siehe auch Literatur Götz Aly: Hitlers Volksstaat. Raub, Rassenkrieg und nationaler Sozialismus. 5. Auflage, S. Fischer, Frankfurt am Main 2005, ISBN 3-10-000420-5. Martin Broszat: Der Staat Hitlers. Grundlegung und Entwicklung seiner inneren Verfassung. dtv, Reihe Weltgeschichte des 20. Jahrhunderts (1. Auflage 1969), 12. Auflage, München 1989, ISBN 3-423-04009-2; Marix, Wiesbaden 2007, ISBN 978-3-86539-113-1. Norbert Frei: Der Führerstaat. Nationalsozialistische Herrschaft 1933 bis 1945. 6., erweiterte und aktualisierte Auflage, dtv, München 2001, ISBN 3-423-30785-4. Michael Grüttner: Das Dritte Reich. 1933–1939 (= Gebhardt. Handbuch der deutschen Geschichte. Band 19). Klett-Cotta, Stuttgart 2014, ISBN 978-3-608-60019-3. Ulrich Herbert: Das Dritte Reich. Geschichte einer Diktatur (= C.H.Beck Wissen). 3. Auflage, Beck, München 2018, ISBN 978-3-406-72240-0. Ludolf Herbst: Das nationalsozialistische Deutschland 1933–1945, edition suhrkamp, Frankfurt am Main 1996, ISBN 3-518-11285-6. Klaus Hildebrand: Das Dritte Reich. 6. Auflage, Oldenbourg, München 2003, ISBN 3-486-49096-6. Richard J. Evans: Das Dritte Reich. Band 1: Aufstieg, München 2004, ISBN 3-421-05652-8; Band 2: Diktatur, München 2007, ISBN 978-3-421-05653-5; Band 3: Krieg, München 2009, ISBN 978-3-421-05800-3. Ian Kershaw: Hitlers Macht. Das Profil der NS-Herrschaft. dtv, München 1992, ISBN 3-423-04582-5. Ian Kershaw: Der NS-Staat – Geschichtsinterpretationen und Kontroversen im Überblick. Rowohlt, Reinbek bei Hamburg 1999, ISBN 3-499-60796-4. Ernst Klee: Das Personenlexikon zum Dritten Reich. Wer war was vor und nach 1945. Edition Kramer, Frankfurt am Main 2008, ISBN 978-3-9811483-4-3; S. Fischer, Frankfurt am Main 2003, ISBN 3-10-039309-0. Wolfgang Michalka (Hrsg.): Das Dritte Reich. Dokumente zur Innen- und Außenpolitik. 2 Bände, Deutscher Taschenbuch-Verlag, München 1985. Band 1: „Volksgemeinschaft“ und Großmachtpolitik 1933–1939, ISBN 3-423-02925-0. Band 2: Weltmachtanspruch und nationaler Zusammenbruch 1939–1945, ISBN 3-423-02926-9. Rolf-Dieter Müller: Der Zweite Weltkrieg (= Gebhardt. Handbuch der deutschen Geschichte. Band 21). Klett-Cotta, Stuttgart 2004, ISBN 3-608-60021-3. Film Michael Kloft: „12 Jahre, 3 Monate, 9 Tage“ – Die Jahreschronik des Dritten Reichs, Spiegel TV, Dokumentation/Reportage, 210 Min., Deutschland 2006. Weblinks Dossier über den NS-Staat – Bundeszentrale für politische Bildung NS-Archiv, digitalisierte Dokumente zum Nationalsozialismus (private Website) Dokumentarchiv: Sammlung der in der NS-Zeit erlassenen Rechtsnormen (private Website) Einzelnachweise Geschichte der deutschen Länder
Q7318
1,933.600726
1188788
https://de.wikipedia.org/wiki/%C3%96sterreich
Österreich
Österreich (amtlich Republik Österreich) ist ein mitteleuropäischer Binnenstaat mit gut 9,1 Millionen Einwohnern. Die angrenzenden Staaten sind Deutschland und Tschechien im Norden, die Slowakei und Ungarn im Osten, Slowenien und Italien im Süden sowie die Schweiz und Liechtenstein im Westen. Österreich ist ein demokratischer Bundesstaat, im Besonderen eine semipräsidentielle Republik. Seine großteils aus den historischen Kronländern hervorgegangenen neun Bundesländer sind das Burgenland, Kärnten, Niederösterreich, Oberösterreich, Salzburg, die Steiermark, Tirol, Vorarlberg und Wien. Das Bundesland Wien ist zugleich Bundeshauptstadt und auch einwohnerstärkste Stadt des Landes. Weitere Bevölkerungszentren sind Graz, Linz, Salzburg und Innsbruck. Österreich ist ein Gebirgsland, wobei die Ostalpen etwa zwei Drittel der Fläche einnehmen, weshalb der Staat auch als Alpenrepublik bezeichnet wird. Der höchste Berg des Landes ist der Großglockner, der in den Zentralalpen im Bereich der Hohen Tauern liegt. Die wichtigsten Siedlungs- und Wirtschaftsräume sind die Flach- und Hügelländer (Alpen- und Karpatenvorland, Wiener Becken, Grazer Becken). Die Bezeichnung Österreich ist in ihrer althochdeutschen Form „Ostarrichi“ erstmals aus dem Jahr 996 überliefert. Daneben war ab dem frühen Mittelalter die lateinische Bezeichnung Austria in Verwendung. Ursprünglich eine Grenzmark des Stammesherzogtums Baiern, wurde Österreich 1156 zu einem im Heiligen Römischen Reich eigenständigen Herzogtum erhoben. Nach dem Aussterben des Geschlechts der Babenberger 1246 setzte sich das Haus Habsburg im Kampf um die Herrschaft in Österreich durch. Das als Österreich bezeichnete Gebiet umfasste später die gesamte Habsburgermonarchie sowie in der Folge das 1804 konstituierte Kaisertum Österreich und die österreichische Reichshälfte der 1867 errichteten Doppelmonarchie Österreich-Ungarn. Als älteste Stadt Österreichs bezeichnet sich nach einem Stadtrecht aus dem Jahr 1212 die Stadt Enns. Die heutige Republik entstand ab 1918, nach dem für Österreich-Ungarn verlorenen Ersten Weltkrieg, aus den zunächst Deutschösterreich genannten deutschsprachigen Teilen der Monarchie. Mit dem Vertrag von Saint-Germain wurden die Staatsgrenze und der Name Republik Österreich festgelegt. Damit einher ging der Verlust Südtirols und der Gewinn des Burgenlandes. Die Erste Republik war von innenpolitischen Spannungen geprägt, die in einen Bürgerkrieg und die Ständestaatsdiktatur mündeten. Durch den sogenannten „Anschluss“ stand das Land ab 1938 unter nationalsozialistischer Herrschaft. Nach der Niederlage des Deutschen Reiches im Zweiten Weltkrieg wieder ein eigenständiger Staat, erklärte Österreich am Ende der alliierten Besatzung 1955 seine immerwährende Neutralität und trat den Vereinten Nationen bei. Österreich ist seit 1956 Mitglied im Europarat, Gründungsmitglied der 1961 errichteten Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) und seit 1995 ein Mitgliedsstaat der Europäischen Union. Geographie Österreich erstreckt sich in west-östlicher Richtung über maximal 575 Kilometer, in nord-südlicher über 294 km. Die fünf Großlandschaften Österreichs sind: die Ostalpen (52.600 km², 62,8 % der Staatsfläche), das Alpen- und Karpatenvorland (9.500 km², 11,3 %), das Vorland im Osten, Randgebiet des Pannonischen Tieflands (9.500 km², 11,3 %), das Granit- und Gneisplateau, Mittelgebirgsland der Böhmischen Masse (8.500 km², 10,2 %) sowie das Wiener Becken (3.700 km², 4,4 %). Mehr als 70 % des Staatsgebietes sind gebirgig und haben zumeist Anteil an den Ostalpen, die sich weiter in die Gebirgszüge der Tiroler Zentralalpen, der Hohen und Niederen Tauern, der Nördlichen und Südlichen Kalkalpen sowie des Wienerwalds untergliedern lassen. Deshalb wird das Land umgangssprachlich auch Alpenrepublik genannt. Nördlich der Donau liegt in Ober- und Niederösterreich das Granit- und Gneisplateau, Teil des alten Rumpfgebirges der Böhmischen Masse, dessen Ausläufer bis nach Tschechien und Bayern reichen. Jenseits der Ostgrenze schließen die Kleinen Karpaten an. Die großen Ebenen liegen im Osten entlang der Donau, vor allem im Alpenvorland und im Wiener Becken mit dem Marchfeld, sowie in der südlichen Steiermark. Die Südsteiermark wird wegen ihrer Landschaftsähnlichkeit mit der Toskana auch Steirische Toskana genannt. Das Burgenland östlich des Alpen-Karpaten-Bogens läuft in die Pannonische Tiefebene aus und weist sowohl landschaftlich als auch klimatisch eine starke Ähnlichkeit mit dem östlichen Nachbarland Ungarn auf, zu dem es bis 1921 gehörte. Von der Gesamtfläche Österreichs mit  km² entfällt etwa ein Viertel auf Tief- und Hügelländer. Nur 32 % liegen tiefer als 500 Meter. Der tiefste Punkt des Landes liegt in Hedwighof (Gemeinde Apetlon, Burgenland) bei 114 Meter Seehöhe, 43 % der Landesfläche sind bewaldet. Klima Das Klima in Österreich wird der feucht-kühlgemäßigten Zone am Nordrand der Subtropen zugeordnet. Nach der effektiven Klimaklassifikation von Köppen & Geiger liegen die niedrigen Regionen im sommerwarmen feuchten Kontinentalklima, die montanen Höhen der Alpen im subarktischen Gebirgsklima und die Regionen über der Baumgrenze im alpinen Tundrenklima bis hin zum Eisklima. Im Westen und Norden Österreichs herrscht ozeanisch beeinflusstes, oft von feuchten Westwinden geprägtes Klima vor. Im Osten überwiegt hingegen kontinentaleres, niederschlagsarmes Klima mit heißen Sommern und kalten Wintern. Besonders in den Südalpen ist der Einfluss niederschlagsreicher Tiefdruckgebiete aus dem Mittelmeerraum spürbar. Tatsächlich ist das regionale Klima Österreichs von der alpinen Topografie stark überprägt. Nicht nur der Alpenhauptkamm fungiert als Klimascheide. Sonnenreiche Föhntäler (z. B. Inntal) stehen nebelanfälligen Beckenlandschaften (z. B. Klagenfurter Becken), niederschlagsreiche Gebirgsränder (z. B. Bregenzerwald) stehen inneralpinen Trockentälern (z. B. Ötztaler Alpen) gegenüber. Lufttemperatur Der Gesamtbereich des Jahresmittels der Lufttemperatur reicht in Österreich von über 12 °C in den inneren Bezirken Wiens bis etwa −7 °C auf den höchsten Gipfeln. In den dicht besiedelten Niederungen liegt es größtenteils bei 9 bis 11 °C. Das Flächenmittel beträgt 7,4 °C. Die Null-Grad-Isotherme liegt im Jahresmittel in einer Seehöhe von etwa 2400 m. In abgeschlossenen Becken, Tälern und Mulden unter 800 bis 1200 m Seehöhe treten im Winterhalbjahr häufig Temperaturzunahmen mit der Höhe auf (Temperaturinversion). Während im Großteil Österreichs Jänner und Juli im Durchschnitt der kälteste und wärmste Monat des Jahres sind, trifft dies im Hochgebirge auf den Februar und August zu. Das langjährige Jännermittel der Lufttemperatur liegt in den Flachlandschaften des Ostens bei 0 bis 2 °C und sinkt in rund 1000 m Seehöhe auf −3 bis −2 °C. Der tiefste Wert im Bereich der höchsten Gipfel ist rund −14 °C. Im Juli liegen die langjährigen Mittelwerte im Osten bei 21 bis 22 °C und in 1000 m bei 16 bis 18 °C. Am Großglockner wird im Hochsommer die Nullgradgrenze im Mittel knapp überschritten. Niederschlag Bei den häufigen West- bis Nordwestlagen liegen der Bregenzerwald und die gesamten Nördlichen Kalkalpen im Luv. Ähnliches gilt für die Gebirge an der Südgrenze Österreichs, die bei Anströmung aus dem Mittelmeerraum intensive Stauniederschläge erhalten. Gemeinsam mit den zentralalpinen Hohen Tauern erreichen die gemessenen Jahresniederschlagssummen in den genannten Regionen im langjährigen Durchschnitt um 2000 mm, vereinzelt an die 3000 mm. Im Gegensatz dazu erhalten das östliche Waldviertel, das Weinviertel, das Wiener Becken und das Nordburgenland weniger als 600 mm Niederschlag im Laufe eines Jahres. Als niederschlagsärmster Ort Österreichs kann Retz mit knapp unter 450 mm genannt werden. Das Flächenmittel Österreichs beträgt etwa 1100 mm für das Jahr. Auf das Sommerhalbjahr (April bis September) entfallen etwas mehr als 60 % der Jahressumme, auf das Winterhalbjahr (Oktober bis März) dementsprechend etwas weniger als 40 %. Diese Niederschlagsverteilung erweist sich in Hinblick auf die Vegetationsentwicklung als günstig. Während im überwiegenden Großteil des Landes der niederschlagsreichste Monat konvektionsbedingt (Schauer und Gewitter) auf den Juni oder Juli fällt, bildet das Kärntner Lesachtal die einzige Ausnahme: Mit einem primären Niederschlagsmaximum im Oktober ist es dem mediterranen Niederschlagsklima zuzurechnen. Der Schneereichtum ist hauptsächlich von der Seehöhe sowie von der Lage des Gebietes relativ zu den Hauptströmungsrichtungen abhängig und variiert dementsprechend stark. Während im österreichischen Flächenmittel im durchschnittlichen Jahr etwa 3,3 m Neuschnee fallen, sind es bei Krems nur 0,3 m, am Sonnblick hingegen 22 m. Berge Die höchsten Berge in Österreich sind Dreitausender, welche sich in den Ostalpen befinden. Mit 3798 Metern ist der Großglockner in den Hohen Tauern der höchste Berg. Es gibt mit Nebengipfeln fast 1000 Dreitausender in Österreich. Die Gebirgslandschaft ist von großer Bedeutung für den Tourismus, es gibt viele Wintersportgebiete, im Sommer bieten sich Möglichkeiten zum Bergwandern und Klettern. Seen In Österreich gibt es viele Seen, die als Relikte der eiszeitlichen Vergletscherungen vor allem in den Alpen und dem Alpenvorland die Landschaft prägen. Der größte See ist jedoch ein Steppensee im Osten Österreichs, der Neusiedler See im Burgenland, der mit etwa 77 % seiner Gesamtfläche von 315 km² in Österreich liegt (der Rest gehört zu Ungarn). Von der Fläche her an zweiter Stelle steht der Attersee mit 46 km², gefolgt vom Traunsee mit 24 km² in Oberösterreich. Auch der Bodensee mit seinen 536 km² am Dreiländereck mit Deutschland (Freistaat Bayern und Land Baden-Württemberg) und der Schweiz liegt zu einem kleinen Anteil auf österreichischem Staatsgebiet. Allerdings sind die Staatsgrenzen auf dem Bodensee nicht exakt bestimmt. Für den Sommertourismus in Österreich haben die Seen neben den Bergen große Bedeutung, insbesondere die Kärntner Seen und jene des Salzkammerguts. Die bekanntesten sind der Wörthersee, der Millstätter See, der Ossiacher See und der Weißensee in Kärnten. Weitere bekannte Seen sind der Mondsee und der Wolfgangsee im Salzkammergut an der Grenze zwischen Salzburg und Oberösterreich. Flüsse Ein großer Teil Österreichs wird direkt über die Donau zum Schwarzen Meer entwässert, rund ein Drittel im Südosten über die Mur, Drau, und – über andere Länder – ebenfalls über die Donau zum Schwarzen Meer, kleine Gebiete im Westen über den Rhein (2366 km²) und im Norden über die Elbe (918 km²) zur Nordsee. Die großen Nebenflüsse der Donau (von Westen nach Osten): Lech, Isar und Inn münden in Bayern in die Donau. Sie entwässern Tirol, die in den Inn mündende Salzach entwässert Salzburg (ausgenommen den Lungau und Teile des Pongaus). Traun, Enns, Ybbs, Erlauf, Pielach, Traisen, Wienfluss und Fischa entwässern die südlich der Donau (= rechtsufrig) gelegenen Gebiete Oberösterreichs, der Steiermark, Niederösterreichs und Wiens. Große und Kleine Mühl, Rodl, Gusen und Aist, Kamp, Göllersbach und Rußbach sowie Thaya an der Nord- und March an der Ostgrenze entwässern die nördlich der Donau (= linksufrig) gelegenen Gebiete Ober- und Niederösterreichs. Die Mur entwässert den Salzburger Lungau und die Steiermark, sie mündet in Kroatien in die Drau, die wiederum Kärnten und Osttirol entwässert. Die Drau mündet in Kroatien an der Grenze zu Serbien in die Donau. Der Rhein entwässert den größten Teil Vorarlbergs, durchfließt den Bodensee und mündet in die Nordsee. Die kleine Lainsitz ist der einzige österreichische Fluss, der von Niederösterreich über Tschechien zur Elbe entwässert. Flora Österreich gehört zum Großteil der mitteleuropäischen Florenregion an, nur das östliche Niederösterreich, Wien und das nördliche Burgenland sowie einige inneralpische Trockentäler als Exklaven, zählen zur pannonischen Florenprovinz, die wiederum den westlichsten Teil der südsibirisch-pontisch-pannonischen Florenregion darstellt. Beide Regionen sind Teil des holarktischen Florenreiches. In den alpinen Gebieten weicht die Flora so stark ab, dass sie einer eigenen alpischen Unterflorenregion zugerechnet wird. In einigen klimatisch warmen Gebieten ist ein deutlicher submediterraner Einfluss erkennbar. In Österreich wachsen 3.165 Vollstatus-Gefäßpflanzen-Arten, dazukommen rund 600 häufige auftretende kultivierte und eingebürgerte sowie ausgestorbene Arten. Inklusive Unterarten treten in Österreich 3.428 Elementar-Gefäßpflanzen-Taxa auf, dies sind beispielsweise um rund 300 Elementar-Taxa mehr als im flächenmäßig ungefähr viereinviertelmal so großen Nachbarland Deutschland. Begründet ist diese Artenvielfalt darin, dass Österreich einen Anteil an mehreren verschiedenen Groß-Naturräumen hat: dem Pannonischen Gebiet, der Böhmischen Masse, der Flora der Alpen, den Kärntner Becken- und Tallandschaften, dem nördlichen und südöstlichen Alpenvorland sowie dem Rheintal. 1.187 Pflanzenarten (40,2 %) stehen auf der Roten Liste. Zudem wachsen in Österreich einige hochgradig seltene Endemiten wie etwa das Dickwurzel-Löffelkraut. Insgesamt gibt es in Österreich 150 endemische Pflanzen. Insbesondere das Edelweiß, der Glocken-Enzian und die Aurikel gelten als nationale Symbole – wiewohl sie nicht für ganz Österreich typisch sind und nur im Alpengebiet auftreten – und sind auf österreichischen Münzen abgebildet. Zudem sind um die 5.000 Ständerpilzarten und um die 2.100 verschiedene Flechten heimisch. Fauna Ungefähr 54.000 Tierarten kommen in Österreich vor, wovon 98,6 % wirbellose Tiere sind, rund 40.000 Tierarten sind alleinig Insekten. 10.882 Arten wurden bisher auf eine mögliche Bestandsgefährdung bewertet, daraus resultierend wurden 2.804 Spezies auf die nationale Rote Liste gefährdeter Arten gesetzt. In Österreich sind 575 Tiere endemisch, darunter mit der Bayerischen Kurzohrmaus auch ein Säugetier. Die Verbreitung der Tiere ist von den naturräumlichen Gegebenheiten abhängig. Im Alpenraum sind Gämsen, Hirsche und Greifvögel vertreten, in der Donauebene, im Vorarlberger Rheintal und am Neusiedler See leben Storch und Reiher. Historisch waren Eurasischer Luchs, Braunbär und Waldrapp ebenfalls präsent, seit den 1960er Jahren wird verstärkt versucht, diese Arten wieder anzusiedeln. In Österreich sind zudem 29 Fledermausarten beheimatet, und mit Alpiscorpius germanus (Deutscher Skorpion), Alpiscorpius ypsilon, Euscorpius gamma (Gamma Skorpion) und Euscorpius tergestinus (Triestiner Skorpion) sogar vier Skorpionarten. Naturschutz Aufgrund der verschiedenartigen Topographie in Österreich kommt sowohl in der Flora als auch in der Fauna eine große Anzahl von Arten vor. Um diese zu schützen, wurden in den letzten Jahrzehnten sechs Nationalparks und mehrere Naturparks verschiedener Kategorien errichtet. Zudem sind Areale des Wildnisgebietes Dürrenstein und des Nationalparks Kalkalpen als Teil der staatenübergreifenden Welterbestätte Alte Buchenwälder und Buchenurwälder der Karpaten und anderer Regionen Europas als Naturerbe auf der Liste des UNESCO-Welterbes vertreten. Naturkatastrophen Österreich liegt in einem geologisch aktiven Gebiet. Im Osten und Südosten Österreichs sind heiße Quellen ein Indiz für andauernde vulkanische Aktivität. So kommt es auch immer wieder zu Erdbeben. Durchschnittlich werden pro Jahr 30 bis 60 Erdbeben in Österreich von der Bevölkerung wahrgenommen. Beben, die Gebäudeschäden verursachen, kommen in unregelmäßigen Abständen vor. Durchschnittlich und stark gerundet ereignen sich alle drei Jahre ein Erdbeben mit leichten Gebäudeschäden, alle 15 bis 30 Jahre mit mittleren Gebäudeschäden und alle 75 bis 100 Jahre ein Erdbeben, das vereinzelt auch zu schweren Gebäudeschäden führen kann. Erdbeben kommen in Österreich in bestimmten Regionen vor, speziell im Wiener Becken, Mürztal und dem Inntal. Indirekt ist der südliche Teil von Kärnten durch Erschütterungen jenseits der Grenze in Italien und Slowenien gefährdet. Aufgrund seiner Topografie kommt es in Österreich zu Lawinen, vereinzelt auch verheerenden wie 1999 bei der Lawinenkatastrophe von Galtür. Auch Bergstürze und Muren kommen vor. Durch Starkregen oder zur Zeit der Schneeschmelze können Überschwemmungen auftreten, etwa beim Alpenhochwasser 2005. Extremwetterereignisse wie Stürme, Hagel oder Starkschneefall verursachen regelmäßig folgenschwere Schäden. Bevölkerung Bevölkerungsentwicklung Entwicklung der Bevölkerungszahl (in Mio.) Die erste Volkszählung, die heutigen Kriterien entspricht, fand in Österreich-Ungarn 1869/70 statt. Seit damals stieg die Einwohnerzahl auf dem Gebiet des heutigen Österreich bis zur letzten Zählung vor Beginn des Ersten Weltkrieges, die 1913 stattfand, stetig an. Die Bevölkerungszunahme war zu einem beträchtlichen Teil auf die Binnenwanderung aus den Kronländern zurückzuführen. Nach dem Ersten Weltkrieg, 1919, war die Bevölkerung wegen Kriegsverlusten und Rückwanderung in die ehemaligen Kronländer um 347.000 Personen zurückgegangen. Danach stieg die Einwohnerzahl bis 1935 wieder kontinuierlich an. Bis 1939, als nach dem „Anschluss“ Österreichs an das Deutsche Reich die letzte Zählung vor Ausbruch des Zweiten Weltkrieges stattfand, war die Bevölkerung auf 6,65 Millionen zurückgegangen, da eine starke Auswanderung als Folge politischer Verfolgung und Antisemitismus stattfand. Als 1946 auf Basis der ausgegebenen Lebensmittelmarken die ersten Einwohnerzahlen nach Kriegsende ermittelt wurden, ergab sich eine Einwohnerzahl von rund 7 Millionen, was einen neuen Höchststand ausmachte. Die hohen Kriegsverluste waren durch Flüchtlingszustrom überkompensiert worden. Bis 1953 waren Flüchtlinge und Displaced Persons großteils in ihre Heimat zurückgekehrt oder weitergewandert, weshalb die Einwohnerzahl auf 6,93 Millionen zurückging. Danach ließen hohe Geburtenüberschüsse die Einwohnerzahl auf einen neuen Höchststand im Jahr 1974 anwachsen, als 7,6 Millionen Personen in Österreich lebten. Nach einer Phase der Stagnation begann die Einwohnerzahl Österreichs ab Ende der 1980er Jahre erneut merklich zu steigen – diesmal aufgrund verstärkter Zuwanderung, etwa wegen der Jugoslawienkriege. Zu Jahresbeginn 2012 erreichte Österreich einen Bevölkerungsstand von 8,44 Millionen. Im Durchschnitt des Jahres 2018 lebten mehr als 2 Millionen Personen (23,3 %) mit Migrationshintergrund in Österreich. Der Anteil der Bewohner mit Migrationshintergrund in Wien betrug 2018 45,3 %. Zudem herrscht eine große Bevölkerungskonzentration in der Bundeshauptstadt Wien, hier leben mehr als 20 % aller Einwohner (gut 1,98 Millionen) Österreichs. Auf Grund starken Zuzugs aus der Ukraine, in Folge des russischen Angriffskriegs, ist die Bevölkerungszahl im Zeitraum Jänner 2022 auf Jänner 2023 um 127.197 Einwohnern gestiegen (alleine in Wien um rund 51.000), während sie im gleichen Zeitfenster ein Jahr zuvor in ganz Österreich um nur rund 46.000 Einwohner stieg. Im Jahr 2022 wurde auch die Marke von 9 Millionen Einwohnern überschritten, demnach hatte Österreich am 1. Jänner 2023 erstmals 9.106.126 Einwohner. Bevölkerungsbewegung Das heutige Bundesgebiet und insbesondere Wien waren schon in den fünfzig Jahren vor dem Ersten Weltkrieg Ziel vieler Zuwanderer aus anderen Teilen der Österreichisch-Ungarischen Monarchie, besonders aus Böhmen und Mähren. Diese Zuwanderung bewirkte, dass Wien 1910 mehr als 2 Millionen Einwohner hatte. Im Ersten Weltkrieg flüchteten Bewohner Galiziens (darunter viele jüdischer Religion) vor der russischen Armee nach Wien. Mit dem Zerfall Österreich-Ungarns und der Gründung der Tschechoslowakei 1918 wanderten hunderttausende Tschechen in ihre Heimat zurück. Aus dem neuen, kleinen Österreich wanderten dann bis zum Zweiten Weltkrieg in der Regel jährlich mehr Österreicher aus, als Ausländer einwanderten. 1938/39 gab es eine Flüchtlingswelle: Nach dem „Anschluss“ Österreichs an das Deutsche Reich mussten viele Menschen, auch seit 1933 aus Deutschland gekommene, Österreich verlassen, darunter 140.000 jüdische Österreicher. Politisch bedingte Einwanderungswellen gab es um 1920 aus Ungarn (wegen bürgerkriegsartiger Auseinandersetzungen), 1933 bis 1937 aus dem Deutschen Reich (wegen der Verfolgung Andersdenkender und -gläubiger in der NS-Diktatur), 1956 aus Ungarn (nach der Niederschlagung des ungarischen Volksaufstandes durch die Sowjets), 1968 aus der Tschechoslowakei nach dem Ende des Prager Frühlings, 1993 bis 1995 wegen des Bosnienkrieges, seit den 2010er Jahren aus Vorder- und Südasien wegen politischer Unterdrückung und (Bürger-)Kriegen (Hauptherkunftsländer sind Afghanistan, Irak, Iran und Syrien). Seit dem Beginn des starken Wirtschafts- und Wohlstandswachstums, das Österreich ab den 1950er-Jahren zu einem wohlhabenden Land machte, wurden Gastarbeiter gezielt angeworben. So wurde mit der Türkei im Jahr 1964 ein Anwerbeabkommen für Arbeitskräfte abgeschlossen. Ein ähnlicher Vertrag wurde 1966 mit Jugoslawien abgeschlossen. Später erreichten Österreich immer wieder Flüchtlingsströme, etwa während der Jugoslawienkriege nach dem Zerfall dieses Staates. Die Zahl der Ausländer bei der Wohnbevölkerung lag Anfang 2016 bei 1,268 Millionen Personen, das waren 14,6 % der Bevölkerung. Anfang 2020 lag dieser Anteil bereits bei 16,7 % bzw. 1,486 Millionen Personen. 2015 lebten rund 1,813 Millionen Menschen mit Migrationshintergrund (Zuwanderer der ersten oder zweiten Generation) in Österreich, das waren 21,4 % der Gesamtbevölkerung. 2019 waren es bereits 23,7 % bzw. 2,104 Mio. Menschen. Die Wanderungsbilanz Österreichs ist insgesamt deutlich positiv. So lag etwa 2015 die Zuwanderung nach Österreich um 113.067 Personen höher als die Abwanderung aus Österreich. Diese Zahl steigt seit dem Jahr 2009 deutlich; davor war sie allerdings auch deutlich gefallen. Die positive Wanderungsbilanz ist auf die Bevölkerungsbewegungen von Nicht-Österreichern zurückzuführen, denn der Wanderungssaldo österreichischer Staatsbürger ist im langjährigen Trend leicht negativ (2015: −5.450 Personen). Der Bevölkerungsgewinn ging bis 2014 in erster Linie auf Zuzüge aus der EU zurück (2014: 67 % der Zuzüge aus der EU). Im Jahr 2015 hat sich dieses Bild stark geändert und es findet die Mehrzahl der Zuzüge aus Drittstaaten statt (2015: 68 % Zuzüge aus Drittstaaten und 37 % aus der EU). Die Zahl der Asylanträge stieg von 11.012 Anträgen im Jahr 2010 auf 88.340 im Jahr 2015, nachdem sie seit 2002 fast jedes Jahr gefallen war. Prognose Laut Prognosen der Bundesanstalt Statistik Österreich würden sich Geburten und Sterbefälle in Österreich noch für etwa 20 Jahre die Waage halten, danach die Geburten- voraussichtlich unter den Sterbezahlen liegen, was zu einem höheren Altersdurchschnitt führen würde. Durch Zuwanderung würde die Bevölkerung bis zum Jahr 2050 allerdings auf rund 9,5 Millionen anwachsen. Nur in Wien, als einzigem der neun Bundesländer, würde der Altersdurchschnitt niedriger und das Bevölkerungswachstum höher sein als im Bundesdurchschnitt. Die neueste Prognose geht von einem dreimal schnelleren Wachstum für Wien aus als zuvor angenommen (24 % statt 7 %). So wurde Wien im Herbst 2023 wieder eine Zwei-Millionen-Stadt. Es wurde prognostiziert daraus würden sich Probleme in der sozialen Infrastruktur und im Wohnbau ergeben, bereits für 2013 wurde eine jährliche Bauleistung von 10.000 Wohneinheiten als nötig erachtet. Gesundheitserwartung Die Analysen der Werte für gesunde Lebensjahre weisen auf signifikante Ungleichheiten zwischen den europäischen Ländern hin. In Österreich lag die Gesundheitserwartung 2016 mit 57,1 Jahren bei Frauen gleich um 16,2 Jahre niedriger als in Schweden mit 73,3 Jahren. Auch die Gesundheitserwartung der Männer lag 2016 mit 57,0 Jahren um 16,0 Jahre niedriger als in Schweden mit 73,0 Jahren. Lebenserwartung Die durchschnittliche Lebenserwartung in Österreich betrug 2021 insgesamt 82,07 Jahre, bei den Frauen 84,85 Jahre und bei den Männern 79,42 Jahre (1971: Frauen 75,7 Jahre, Männer 73,3 Jahre). Die Lebenserwartung in Österreich lag damit etwas höher als die Deutschlands. Die Säuglingssterblichkeit beträgt 0,36 %. Die Suizidrate in Österreich ist hoch: Etwa 400.000 Einwohner sind generell von Depression betroffen, etwa 15.000 pro Jahr versuchen, sich das Leben zu nehmen; die Zahl der Suizidenten ist in Österreich mehr als doppelt so hoch wie die der Verkehrstoten: Alle sechs Stunden stirbt ein Österreicher durch eigene Hand. Die tatsächlichen Selbsttötungen beliefen sich im Jahr 2009 auf 1273. Sprache Deutsch ist laut Artikel 8 der Bundesverfassung (Bundes-Verfassungsgesetz (B-VG) aus 1920) die Staatssprache der Republik Österreich. Das Österreichische (Standard-)Deutsch ist dabei eine hochsprachliche nationale Standardvarietät der plurizentrischen deutschen Sprache – unterscheidet sich in Wortschatz und Aussprache, aber auch durch grammatikalische Besonderheiten vom Hochdeutschen in Deutschland, aber auch der Schweiz. Das Österreichische Wörterbuch, in dem der Wortschatz zusammengefasst ist, wurde 1951 vom Unterrichtsministerium initiiert, steht seitdem als amtliches Regelwerk über dem Duden und ist für Behörden als auch den Schulunterricht bindend. Anders als in Deutschland und ähnlich wie in der Deutschschweiz ist Mutter- und Umgangssprache eines Großteils (88,6 %) der österreichischen Staatsbürger nicht Standarddeutsch, sondern einer der vielen oberdeutschen Dialekte. Sieben Millionen Österreicher sprechen einen mittel- oder südbairischen Dialekt bzw. eine von diesen Dialekten beeinflusste Umgangssprache, in Vorarlberg und dem Tiroler Außerfern herrschen alemannische Mundarten vor. Regionale Dialekte sind außerdem mit Ausdrücken aus benachbarten nichtdeutschen Sprachen durchwoben (so hatte vor allem Tschechisch – neben anderen Sprachen – einen Einfluss auf den Wiener Dialekt). Auch die Verwendung französischer Begriffe am Wiener Hof hatte Einfluss auf einige, vor allem früher benutzte Begriffe (z. B.: „Trottoir“ für Gehsteig). Die autochthonen Volksgruppen der Kroaten im Burgenland, der Kärntner Slowenen, der Slowenen in der Steiermark und der Ungarn in Österreich haben Anspruch auf muttersprachlichen Schulunterricht und Behördenverkehr. Burgenlandkroatisch und Slowenisch sind zusätzliche Amtssprachen in den Verwaltungs- und Gerichtsbezirken der Steiermark, des Burgenlandes und Kärntens mit kroatischer oder slowenischer bzw. gemischter Bevölkerung. Weiters ist in einigen Gemeinden des Burgenlandes Ungarisch neben Deutsch gleichberechtigte Amtssprache. Auch Romanes, die Sprache der Volksgruppe der Roma, ist eine staatlich anerkannte Minderheitensprache. Ebenso verhält es sich mit Tschechisch und Slowakisch. Die österreichische Gebärdensprache ist verfassungsrechtlich anerkannt. Siehe auch: Slowenen in Österreich, Burgenlandkroaten, Burgenlandungarn, Burgenlandroma, Roma in Österreich sowie Tschechen in Wien. Religionen Bei den Volkszählungen von 1951 bis 2001 wurde die Religionszugehörigkeit als Selbstangabe erhoben. Seit der Umstellung auf Registerzählungen wird die Religionszugehörigkeit nicht mehr erfasst. Im Jahr 2021 führte Statistik Austria im Auftrag des Bundeskanzleramts eine freiwillige Erhebung über „Religionszugehörigkeit der Bevölkerung in Privathaushalten“ durch. Nach der Volkszählung 2001 bekannten sich 73,6 % der Bevölkerung zur römisch-katholischen und 4,7 % zu einer der evangelischen Kirchen (Protestantismus; überwiegend Augsburger Bekenntnis, seltener Helvetisches Bekenntnis). Etwa 180.000 Christen, das sind 2,2 % der österreichischen Bevölkerung, waren Mitglieder orthodoxer Kirchen. Zur Altkatholischen Kirche bekannten sich etwa 15.000 Gläubige, das sind rund 0,2 % der Bevölkerung. Wie in Deutschland sind die Mitgliederzahlen der Volkskirchen rückläufig, Ende 2016 betrug der Anteil der Katholiken mit 5,16 Millionen von 8,77 Millionen nur mehr 58,8 % und hat damit den Zwei-Drittel-Anteil an der österreichischen Bevölkerung innerhalb weniger Jahre deutlich unterschritten. Relativ war der Rückgang bei den kleineren evangelischen Kirchen größer, nur noch 3,4 % bekannten sich im Jahr 2016 als Mitglied zu einer der evangelischen Kirchen. Die Zahl Orthodoxer Christen im Land steigt. Die größte nicht-christliche Glaubensgemeinschaft in Österreich ist der Islam, der seit 1912 anerkannte Religionsgemeinschaft ist. Bei der Volkszählung von 2001 bekannten sich rund 340.000 Personen, das waren 4,3 %, zum muslimischen Glauben – nach Angaben des Integrationsfonds waren es im Jahr 2009 515.914 Gläubige, was einem Anteil von 6,2 % an der Gesamtbevölkerung entspricht. Nach übereinstimmenden Schätzungen von Innenministerium und Österreichischem Integrationsfonds lebten Anfang 2017 rund 700.000 Muslime in Österreich. Die Zahl stieg vor allem durch Migranten, Geburten sowie Flüchtlinge aus dem arabischen Raum stark. 34,6 % der österreichischen Muslime haben laut einer Studie aus dem Jahr 2017 „hochfundamentalistische“ Einstellungen. Zum Judentum bekennen sich etwa 8.140 Menschen. Die überwiegende Mehrheit davon, rund 7.000, lebt in Wien. Nach Angaben der Israelitischen Kultusgemeinde Wien sind es österreichweit 15.000. Zum Buddhismus, der in Österreich 1983 als Religionsgemeinschaft anerkannt wurde, bekennen sich etwas über 10.000 Menschen. Zum Hinduismus, der in Österreich als „eingetragene religiöse Bekenntnisgemeinschaft“ gilt, bekennen sich laut Volkszählung 2001 3.629 Personen. 20.000 Personen sind aktive Mitglieder der Zeugen Jehovas. Ihre gesetzliche Anerkennung als Religionsgemeinschaft wurde 2009 beschlossen. Etwa 12 % der Bevölkerung (rund eine Million Personen) gehören nach der letzten Erhebung im Jahr 2001 keiner der in Österreich gesetzlich anerkannten Religionsgemeinschaften an. Schätzungen zufolge lag die Zahl der Atheisten und Agnostiker 2005 bei 18 % bis 26 % (1.471.500 bis 2.125.500 Personen). Laut einer repräsentativen Umfrage des Eurobarometers glaubten im Jahr 2005 54 % der Menschen in Österreich an Gott, 34 % glaubten, dass es eine andere spirituelle Kraft gibt. 8 % Prozent der Befragten glaubten weder an einen Gott noch an eine andere spirituelle Kraft, 4 % der Befragten waren unentschlossen. Siehe auch Geschichte des Christentums in Österreich, Anerkannte Religionsgemeinschaften in Österreich, Religionsfreiheit in Österreich Römisch-katholische Kirche in Österreich, Evangelische Kirche A.B. in Österreich, Evangelische Kirche H.B. in Österreich, Evangelische Kirche A. u. H. B. in Österreich, Altkatholische Kirche Österreichs, Baptisten in Österreich, Evangelisch-methodistische Kirche in Österreich, Judentum in Österreich, Buddhismus in Österreich, Hinduismus in Österreich Islam in Österreich Atheistische Religionsgesellschaft in Österreich Identität Aufgrund von politischen, sprachlich-kulturellen und ideologischen Bedingungen, derentwegen Österreich seit dem Mittelalter als Teil einer deutschen Identität aufgefasst wurde, vollzog sich die abschließende Entwicklung eines eigenständigen österreichischen Nationalbewusstseins erst nach dem Zweiten Weltkrieg. Bis Anfang des 19. Jahrhunderts existierte kein nationales Identitätsbewusstsein im modernen Sinn. Während für die „unteren“ Bevölkerungsschichten nur lokale Bindungen eine Rolle spielten, lagen bei den Eliten verschiedene, kaum miteinander konkurrierende Identitätsebenen in Gemengelage. Der Begriff „österreichische Nation“ hat sich als Bezeichnung für kollektive kulturelle, soziale, historische, sprachliche und ethnische Identitäten, die sich auf dem Gebiet der Republik Österreich entwickelt und die zu einem Zusammengehörigkeitsgefühl der österreichischen Bevölkerung geführt haben, eingebürgert. Erste österreichische Wir-Identitäten entstanden bereits im Frühmittelalter. Zur Zeit der Habsburgermonarchie bis 1918 konzentrierte sich die kollektive Identifikation hauptsächlich auf die Dynastie beziehungsweise den Monarchen sowie auf kulturelle Eigenschaften, die als deutsch empfunden wurden. In diesem Zusammenhang sieht Ernst Bruckmüller den Ansatz für die Entwicklung „zweier deutscher Nationen“. Dieses Dilemma führte nach dem Zusammenbruch der Monarchie schließlich zu einer „fundamentalen kollektiven Identitätskrise“, die als Mitgrund für das Scheitern der Ersten Republik verstanden wird und die schließlich auch zum „Anschluss“ an das Deutsche Reich 1938 führte. Bald nach dem „Anschluss“ und während des Krieges begann sich jedoch in manchen Gesellschaftsteilen eine österreichische Identität zu entwickeln, die vor allem durch Oppositionshaltungen zum NS-Regime und im Hinblick auf die Kriegsniederlagen zu erklären ist. Eine wichtige Identifikationsrolle bildete daher der österreichische Widerstand gegen den Nationalsozialismus. Mit Bezugnahme auf diesen Sinneswandel prägte der Berliner Politologe Richard Löwenthal den Spruch: „Die Österreicher wollten Deutsche werden – bis sie es dann wurden.“ Auf breiter Basis entwickelte sich das österreichische Nationalbewusstsein jedoch erst nach dem Kriegsende. Dazu trugen auch politische und gesellschaftliche Erfolge wie der Abschluss des Staatsvertrages und der Wirtschaftsaufschwung der 1960er Jahre bei. Heute ist das Vorhandensein einer österreichischen Nation, beziehungsweise eines österreichischen Volkes, überwiegend anerkannt. Gleichberechtigung der Geschlechter Die Gleichberechtigung von Männern und Frauen ist in der Bundesverfassung in Abs. 1 B-VG festgeschrieben. Historisch entstandene Ausnahmen sind die Wehrpflicht, die nur für Männer gilt, und die Pensionsregelung. Frauen dürfen in Österreich derzeit noch fünf Jahre früher in Altersruhestand gehen als Männer (Ausnahme: Beamtenruhestand). Da dies laut Urteil des österreichischen Verfassungsgerichtshofes dem Gleichheitsgrundsatz widerspricht, wurde beschlossen, das Pensionsantrittsalter der Frauen bis zum Jahr 2033 schrittweise an jenes der Männer (65 Jahre) anzupassen. In fast allen Bereichen ist das Durchschnittseinkommen von Frauen geringer als das Durchschnittseinkommen von Männern (Ausnahme: Beamte). Im Jahr 2020 lag der Gender-Pay-Gap bei 18,9 % und damit deutlich über dem EU-Schnitt von 13 %. Dies ist unter anderem darauf zurückzuführen, dass viele Frauen früher in Ruhestand gehen, einer Teilzeitarbeit nachgehen oder sich der Kindererziehung widmen und daher Aufstiegschancen nicht wahrnehmen. Die außerfamiliäre Kinderbetreuung ist aufgrund des Föderalismus sehr unterschiedlich und so in Teilen des Landes mit der vollen Berufstätigkeit beider Elternteile nicht immer vereinbar. So ist das Gender-Pay-Gap etwa in Vorarlberg zweieinhalb mal so hoch wie in Wien. Die Tariflöhne in Österreich sind für beide Geschlechter gleich. Im Jahr 2021 waren 76,7 % der Männer und 68,1 % der Frauen erwerbstätig, seit 2021 sind erstmals rund 40 % der Abgeordneten im österreichischen Nationalrat weiblich. Auf dem internationalen Gender Inequality Index der Vereinten Nationen von 2016 lag Österreich eher oben im geschlechtergerechten Feld auf Platz 24 und damit 19 Plätze schlechter als noch 2014. Geschichte Urgeschichte bis 15 v. Chr. Die ältesten Spuren der Anwesenheit von Menschen in Österreich gehören dem Mittelpaläolithikum, der Zeit der Neandertaler, an. Der Fundort mit den ältesten Spuren ist die Repolusthöhle in der Steiermark. Viele weitere Fundstellen liegen in Niederösterreich, die bekanntesten befinden sich in der Wachau – darunter auch die Fundorte der beiden ältesten österreichischen Kunstwerke, die figürlichen Frauendarstellungen der Venus vom Galgenberg und der Venus von Willendorf. Nach der schrittweisen Besiedelung aller Regionen Österreichs in der Jungsteinzeit, und damit des Übergangs von bis dahin bestehenden Kulturen der Jäger, Sammler und Fischer zu bäuerlichen Dorfkulturen, steht die Kupfersteinzeit im Zeichen der Erschließung von Rohstoffvorkommen, vor allem Kupfer. Aus dieser Zeit stammt der Fund der berühmten Gletschermumie Ötzi im österreichisch-italienischen Grenzgebiet. Während der Bronzezeit zwischen dem 3. und dem 1. Jahrtausend vor Christus wurden immer größere Handelszentren und auch Befestigungen, vorwiegend in Rohstoff-Abbaugebieten, errichtet. Im Umkreis von Hallstatt begann die systematische Gewinnung von Salz. Nach diesem Ort ist auch die ältere Periode der Eisenzeit, die Hallstattzeit, benannt. Die jüngere Eisenzeit, auch Latènezeit genannt, steht im Zeichen der Kelten, welche im Süden und Osten des heutigen Österreich das erste Staatsgebilde errichteten – das Königreich Noricum, eine Allianz aus dreizehn keltischen Stämmen. Der Westen wurde zu dieser Zeit von Rätern besiedelt. Römische Provinz und Völkerwanderung 15 v. Chr. bis 700 n. Chr. Der größte Teil des heutigen österreichischen Staatsgebiets wurde um 15 v. Chr. vom Römischen Reich besetzt. Der römische Kaiser Claudius richtete während seiner Herrschaft (41–54 n. Chr.) die römische Provinz Regnum Noricum ein, deren Grenzen einen Großteil des heutigen Österreich umfassten. Die östlich von Vindobona (dem heutigen Wien) gelegene Stadt Carnuntum war die größte römische Stadt, weitere wichtige Orte waren Virunum (nördlich des heutigen Klagenfurt) und Teurnia (nahe Spittal an der Drau). Im 2. Jahrhundert n. Chr. verstärkte sich die Völkerwanderung und der langsame Niedergang des römischen Reiches. Nach kontinuierlicher Bedrängung der Provinz Noricum durch die Goten und andere germanische Völker, begann ab dem 6. Jahrhundert die Besiedlung des Gebiets. Vom Osten bis zur Enns siedelten die als Khaghanat organisierten Awaren sowie im Süden die Slawen als Karantanische Fürsten. Vom Westen bis zur Enns siedelten die zunehmend christianisierten und als Stammesherzogtum unter den Franken organisierten Bajuwaren, sowie im heutigen Vorarlberg die Alamannen. Frankenreich und Heiliges Römisches Reich 700–1806 Im 8. Jahrhundert wurden zunehmend die großen Gebiete der Slawen und Awaren im Süden und Osten des heutigen Österreichs und darüber hinaus nach Pannonien, vom Frankenreich erobert. Das eroberte slawische Karantanien kam unter bairische Kontrolle, als Teil der Marcha orientalis, dem Ostland der bairischen Stammesherzöge. 805 wurden durch Karl den Großen die eroberten awarischen Gebiete als Awarenmark (Avaris) zusammengefasst und deren awarischen Fürsten dem Präfekten der Mark des bairischen Ostlandes unterstellt, mit Sitz zunächst in Lorch und später Oberpannonien der untergeordneten Donaugrafschaften unterhalb der Enns bis zur Raab (dem heutigen Niederösterreich und östlich angrenzendem Donaugebiet). 828 wurden fränkische Grafschaften anstatt des bestehenden awarischen und slawischen Fürstentum in der Mark etabliert. Das neue Gebiet wurde in Folge durch die Bajuwaren (Baiern) und Franken besiedelt, und die Christianisierung, von u. a. zu diesem Zweck 798 gegründeten Erzdiözese Salzburg sowie Diözese Passau aus, vorangetrieben und damit die Keimzelle des späteren Österreich gelegt. Allerdings ging 907 dieses Gebiet an die Magyaren verloren und erst nach der Schlacht auf dem Lechfeld 955 konnte sich das ostfränkische Reich in dem Gebiet behaupten. Damit konnte hier eine neue Welle bajuwarischer Siedlungstätigkeit beginnen. Das zurückeroberte Gebiet wurde dann 976 gefestigt durch die Gründung des ältesten Herzogtum auf dem Boden des heutigen Österreichs, dem Herzogtum Kärnten, und der Übertragung der übrigen bairischen Marcha orientalis als Markgrafschaft durch Kaiser Otto II. an Luitpold, den Stammvater der später „Babenberger“ genannten Dynastie. Die älteste bekannte schriftliche Nennung des Namens „Ostarrichi“ stammt aus einem in Bruchsal verfassten Dokument vom 1. November 996. Darin ist eine Schenkung Kaiser Ottos III. an den Bischof von Freising in Neuhofen an der Ybbs „in der gewöhnlich Ostarrichi genannten Region“ („regione vulgari vocabulo Ostarrichi“) festgehalten. Diese Urkunde wird heute im Bayerischen Hauptstaatsarchiv in München aufbewahrt. Aussprache und Schreibweise wandelten sich später zu „Österreich“. Das Gebiet wurde auch als Ostland (lat. „Austria“) oder Osterland bekannt. Die Markgrafschaft Österreich wurde am 8. September 1156 von Kaiser Friedrich I. (Barbarossa) auf dem Hoftag in Kreuzhof bei Regensburg zu einem eigenständigen, von Bayern unabhängigen Herzogtum Österreich erhoben. Damit beginnt die eigentliche Geschichte Österreichs als selbständiges Territorium innerhalb des Heiligen Römischen Reiches. Den Babenbergern folgte 1251 Ottokar II. Přemysl aus dem Geschlecht der Přemysliden, der 1282 von den Habsburgern abgelöst wurde. Um ihren Rang zu betonen und ihre Dynastie den Kurfürsten des Heiligen Römischen Reichs gleichzustellen, machte Rudolf IV. sein Herzogtum Österreich durch das gefälschte Privilegium Maius (1358/59; lat. maius „größer“, Komparativ zu magnus „groß“) zum Erzherzogtum Österreich. 1365 gründete Rudolf IV. auch die Universität Wien. Die Habsburger dehnten ihr Herrschaftsgebiet bis 1526 weiter aus und wurden zum Machtfaktor im Heiligen Römischen Reich. Schon die späten Babenberger hatten die Steiermark mit Österreich verbinden können, die Habsburger schufen davon ausgehend mit der Erwerbung Kärntens, Tirols, Krains und anderer Gebiete einen Länderkomplex in den Ostalpen, der Herrschaft zu Österreich genannt wurde. Ab 1438 besaß die Dynastie fast durchgehend die römisch-deutsche Königs- und die damit verbundene Kaiserwürde. Ein Teil des Herrschaftsgebiets waren die Vorlande oder auch Vorderösterreich genannt. Vom späten 15. Jahrhundert bis 1690 waren die habsburgischen Länder ständigen Angriffen des Osmanischen Reichs ausgesetzt, das von Ungarn aus westwärts strebte. Nach der Abwehr der Zweiten Wiener Türkenbelagerung von 1683 wurden die kriegerischen Erfolge, unter anderem des Prinzen Eugen von Savoyen, im Kampf gegen die Türken im Frieden von Karlowitz und im Frieden von Passarowitz bestätigt, darüber hinausgehende Erwerbungen wurden im Frieden von Belgrad jedoch wieder rückgängig gemacht. Die Reformation der Kirche konnte sich anfangs schnell durchsetzen, wurde aber im Laufe des 17. Jahrhunderts zurückgedrängt, was von den damaligen Habsburgern als wichtige Aufgabe gesehen wurde. 1713 wurde mit der Pragmatischen Sanktion erstmals ein für alle habsburgischen Länder gleichermaßen gültiges Grundgesetz in Kraft gesetzt. Es wurde (erstmals) festgelegt, dass nach dem absehbaren Aussterben der Herrscherdynastie in männlicher Linie die Erbfolge über die weibliche Linie zu erfolgen habe. Daraus ergab sich, dass die Tochter Kaiser Karls VI., Maria Theresia, ihm als Monarchin der Habsburgischen Erblande folgen konnte und damit den Töchtern seines älteren Bruders Joseph vorgezogen wurde. Im Österreichischen Erbfolgekrieg konnte Maria Theresia, die mit Franz I. Stephan von Lothringen das neue Haus Habsburg-Lothringen begründete, die Erbländer großteils für sich behaupten. Als Preußen und Russland im 18. Jahrhundert Polen aufteilten, erhielt Österreich Galizien zugesprochen. Franz II. gründete 1804 das Kaisertum Österreich und nahm als Franz I. den Titel Kaiser von Österreich an, um die Gleichrangigkeit mit dem neuen französischen Kaiser zu wahren. 1806 legte er dann unter dem Druck Napoleons die Kaiserkrone des Heiligen Römischen Reiches Deutscher Nation nieder, womit dieses zu bestehen aufhörte. Kaisertum Österreich (1804–1867) und Doppelmonarchie Österreich-Ungarn (1867–1918) Das neue Kaisertum Österreich war ein Vielvölkerstaat, in dem außer Deutsch auch Ungarisch, Italienisch, Tschechisch, Polnisch, Ukrainisch, Rumänisch, Kroatisch, Serbisch, Slowakisch und Slowenisch gesprochen wurde. Mit seinen vormals zum Heiligen Römischen Reich gehörenden Gebieten gehörte es ab 1815 zum Deutschen Bund, in dessen Bundesversammlung der österreichische Gesandte den Vorsitz führte. Salzburg fiel im Jahr 1816, nach mehrmaligem Besitzerwechsel, als Herzogtum an das Kaisertum Österreich, nachdem es seit 1328 ein eigenständiges geistliches Reichsfürstentum (Erzstift Salzburg) gewesen war. Leitender Politiker des österreichischen Biedermeiers war der Außenminister und spätere Staatskanzler Klemens Wenzel Lothar von Metternich. Ihm ging es darum, die Bevölkerung mit Zensur und Spitzelsystem zu kontrollieren, um mittels Restauration die alte Ordnung, die absolute Monarchie zu erhalten. Die gleichen Ziele hatten zu dem Zeitpunkt Preußen und Russland; gemeinsam gründeten diese drei Monarchien die Heilige Allianz. Andererseits fand in dieser Epoche auch die Industrialisierung Österreichs statt. 1837 verkehrte zwischen Floridsdorf bei Wien und Deutsch-Wagram die erste Dampfeisenbahn, erstes Teilstück der Nordbahn. In der Revolution des Jahres 1848 strebten die Völker der Monarchie nach Demokratie und Unabhängigkeit, Staatskanzler Metternich wurde verjagt. Nur die k. k. Armee unter Radetzky, Jelačić und Windisch-Graetz und die Hilfe der russischen Armee sicherten der Monarchie das Überleben. Am 2. Dezember 1848 löste auf Wunsch der Dynastie der 18-jährige Franz Joseph den kranken Kaiser Ferdinand I. auf dem Thron ab. Der unerfahrene neue Herrscher hielt 1849 Gericht über die aufständischen Ungarn und ließ ein Dutzend der höchsten ungarischen Heerführer hinrichten. 1851 hob er im Silvesterpatent die von ihm selbst oktroyierte Verfassung auf. Seine Popularität war in den ersten 20 Jahren seiner Regierung ausgesprochen gering. Im Kampf um die Vormachtstellung im Deutschen Bund (Deutscher Dualismus) erzwang Preußen unter Bismarck eine Entscheidung im Sinn der kleindeutschen Lösung ohne Österreich. Im Deutschen Krieg 1866 unterlag Österreich, das den Deutschen Bund anführte, den Preußen in der Schlacht bei Königgrätz. Der Deutsche Bund löste sich auf und Österreich spielte im weiteren deutschen Einigungsprozess keine Rolle mehr. Bereits 1859 hatte Österreich nach der Schlacht von Solferino die Vorherrschaft in Norditalien verloren. Mit der Niederlage im Deutschen Krieg musste es 1866 auch noch Venetien an das mit Preußen verbündete Italien abtreten. Der durch die Niederlagen politisch geschwächte Kaiser musste im Inneren tiefgreifende Reformen durchführen und seine (neo-)absolutistische Regierungsweise aufgeben. Gegen seinen zähen Widerstand erreichten seine Berater die Umwandlung in eine konstitutionelle Monarchie: mit dem auf das unzweckmäßige Oktoberdiplom 1860 folgenden Februarpatent 1861, mit dem der Reichsrat als Parlament geschaffen wurde. Der mit Ungarn erzielte Ausgleich von 1867 beendete den Boykott des Staates durch die magyarische Aristokratie und führte zur Umwandlung des bisherigen Einheitsstaates in die österreichisch-ungarische Doppelmonarchie, eine Realunion. In Cisleithanien (ein Begriff der Bürokraten- und Juristensprache), der inoffiziell meist Österreich genannten westlichen Reichshälfte, wurde dies durch die Dezemberverfassung 1867, die bis 1918 in Kraft blieb, effektuiert. Die durch den Ausgleich erfolgte Begünstigung der Magyaren, die in der Innenpolitik nun von Österreich weitestgehend unabhängig wurden, gegenüber den anderen Völkern der Monarchie heizte die Nationalitätenkonflikte weiter an. Während die Bestrebungen der tschechischen Nationalbewegung um einen Österreichisch-Tschechischen Ausgleich scheiterten, konkurrierten die slowakische Nationalbewegung und in geringerem Maße die von kroatischen Intellektuellen angeführte Illyrische Bewegung, die von Russland unterstützt wurde, mit der Magyarisierungspolitik der ungarischen Regierung. In Österreich führten die nationalen Wünsche der einzelnen Völker zu einer politisch überaus schwierigen Situation. Im Reichsrat, dessen Männerwahlrecht sukzessive demokratisiert wurde, bestanden von den 1880er Jahren an nur kurzlebige Zweckbündnisse; tschechische Abgeordnete betrieben Obstruktionspolitik. Der Reichsrat wurde vom Kaiser deshalb oft Monate lang vertagt. Die k.k. Regierungen wechselten häufig, eine Politik der kurzfristigen Aushilfen wurde zur Regel – Beobachter sprachen von Fortwursteln statt zielgerichteter Politik. Nach dem erzwungenen Rückzug aus Deutschland und Italien hatten der Kaiser und seine außenpolitischen Berater Südosteuropa als neues Einflussgebiet erkoren. Mit der 1908 erfolgten Annexion des 1878 mit Zustimmung des Berliner Kongresses besetzten Bosnien, welche die Bosnische Annexionskrise auslöste, wurde Habsburg für viele politische Aktivisten auf dem Balkan zum Feind, der den nationalen Zusammenschluss behinderte. Außerdem trat die Monarchie dort in Konkurrenz zu Russland, das sich als Schirmherr aller Slawen bezeichnete. Nach dem Attentat von Sarajevo führten die Altersschwäche des 84-jährigen Kaisers, die Selbstüberschätzung der „Kriegspartei“ in Wien und Budapest (aus späterer Sicht eine Clique von Kriegstreibern) und die parlamentslose Regierungssituation im Juli 1914 zur Kriegserklärung an Serbien, aus der auf Grund der „Automatik“ der europäischen Beistandspakte binnen einer Woche der später Erster Weltkrieg genannte Große Krieg entstand. Die Niederlage der Doppelmonarchie, die im Herbst 1918 unausweichlich wurde, führte zu ihrem Ende. Mit 31. Oktober 1918 trat das Königreich Ungarn aus der Realunion mit Österreich aus. Parallel dazu teilte sich Cisleithanien ohne Mitwirkung von Kaiser, k.k. Regierung oder Reichsrat auf: in die neuen Staaten Deutschösterreich und Tschechoslowakei; in Gebiete, die sich mit solchen außerhalb Österreich-Ungarns zu den neuen Staaten Polen und SHS-Staat konstituierten und in solche, die auf Grund des Ausgangs des Krieges anderen Nachbarstaaten (Italien, Rumänien) einverleibt wurden. Gründung der Republik 1918 Am 21. Oktober 1918 traten die Reichsratsabgeordneten der deutschsprachigen Gebiete (sie bezeichneten sich selbst als Deutsche) einschließlich jener Böhmens, Mährens und Österreichisch-Schlesiens zum ersten Mal als Provisorische Nationalversammlung für Deutschösterreich zusammen. Kriegsende und Zerfall der Monarchie waren bereits abzusehen, auch hätte das Land für einen weiteren Kriegswinter keine Ressourcen mehr gehabt. Den Vorsitz hatte der Sozialdemokrat Karl Seitz abwechselnd mit dem Christlichsozialen Johann Nepomuk Hauser und dem Großdeutschen Franz Dinghofer. Ihr Vollzugsausschuss wurde Staatsrat genannt und bestellte am 30. Oktober 1918 die erste Regierung Deutschösterreichs, deren Minister nach angelsächsischem Vorbild die Bezeichnung „Staatssekretär“ trugen; erster Staatskanzler wurde Karl Renner, der 1945 bei der Gründung der Zweiten Republik neuerlich eine wichtige Rolle spielen sollte. Erster provisorischer Außenminister war Victor Adler. Auf dem vorwiegend von Menschen mit deutscher Muttersprache bewohnten Gebiet Altösterreichs entstand so ein neuer Staat. Der Kaiser versuchte Anfang November 1918, den deutschösterreichischen Staatsrat in die Waffenstillstandsentscheidungen einzubeziehen. Der Staatsrat entschied jedoch, die Monarchie, die den Krieg begonnen habe, müsse ihn auch beenden. Der Waffenstillstand zwischen Österreich und Italien vom 3. November 1918 (die ungarischen Truppen hatten die Front bereits Ende Oktober, zum Austritt Ungarns aus der Realunion mit Österreich, verlassen) wurde somit noch von Kaiser Karl I. verantwortet. Kritik wie im Deutschen Reich, wo die zivilen Verhandler des Waffenstillstands später von rechtsgerichteten Politikern als „Novemberverbrecher“ geschmäht wurden, war daher nicht möglich. Mitglieder der k. k. Regierung, des Ministeriums Lammasch, und des Kabinetts Renner, das die Republik vorbereitete und den Zusammenprall der alten mit der neuen Staatsordnung vermeiden wollte, arbeiteten gemeinsam die Erklärung aus, mit der Karl I. am 11. November 1918 auf „jeden Anteil an den Staatsgeschäften“ verzichtete. Dies war zwar juristisch keine Abdankung, die Entscheidung über die Staatsform war damit aber de facto gefallen. Am 12. November fand die Ausrufung der Republik Deutschösterreich statt und es wurde von der Provisorischen Nationalversammlung formell beschlossen, dass der Staat Deutschösterreich eine demokratische Republik und Teil der deutschen Republik sei. Erste Republik (1918–1933) Am 18. Dezember 1918 wurde das Frauenwahlrecht für Österreicherinnen über 20 Jahre eingeführt. Dies war Teil der neuen Verfassung vom Dezember 1918. Bis 1920 blieben jedoch Prostituierte vom Wahlrecht ausgeschlossen. In den Koalitionsregierungen 1918–1920 (siehe Staatsregierung Renner I bis Renner III und Mayr I) entstanden bedeutende Sozialgesetze (etwa Schaffung der Arbeiterkammer als gesetzliche Interessensvertretung der Arbeiter und Angestellten, Acht-Stunden-Tag, Sozialversicherung). Der Adel wurde im April 1919 abgeschafft, Mitglieder der Familie Habsburg-Lothringen durften nur in Österreich bleiben, wenn sie sich als Bürger der Republik bekannten und jeden Herrschaftsanspruch aufgaben. „Der ehemalige Träger der Krone“ (wie er im Gesetz hieß) wurde, da er die Abdankung verweigerte, auf Dauer des Landes verwiesen, war aber zuvor bereits in die Schweiz ausgereist, um der drohenden Internierung zu entgehen. Die Habsburg-Lothringenschen Familienfonds, quasi Stiftungsvermögen zugunsten selbst einkommensloser Habsburger, wurden zum Staatseigentum erklärt, individuelles Privatvermögen nicht angetastet. Im Vertrag von Saint-Germain wurde 1919 der Staatsname „Republik Österreich“ vorgeschrieben und der laut Verfassung vorgesehene Beitritt zur neuen Deutschen Republik durch die Verpflichtung zur Unabhängigkeit verhindert. Dieses „Anschlussverbot“ war außerdem durch Artikel 80 des Versailler Vertrags bewirkt, welcher das Deutsche Reich zur Achtung der Unabhängigkeit Österreichs verpflichtete. Einige Gebiete, in denen die Mehrheit der Bevölkerung Deutsch sprach (Sudetenland, Südmähren, Südtirol), durften zudem wegen des entgegenstehenden Willens der Siegermächte nicht zu Österreich gelangen. Der Kärntner Abwehrkampf gegen die Truppen des SHS-Königreichs mobilisierte hingegen die internationale Öffentlichkeit und führte auf Wunsch der Siegermächte zur Volksabstimmung in Südkärnten am 10. Oktober 1920, die eindeutig für die Zugehörigkeit des Abstimmungsgebietes südlich der Drau zur Republik Österreich ausging. Am 21. Oktober 1919, als der Friedensvertrag in Kraft trat, wurde der Name in „Republik Österreich“ geändert und 1920 das neue österreichische Bundes-Verfassungsgesetz (B-VG) beschlossen, in dem unter anderem Wien als eigenes Bundesland definiert wird. (Das B-VG gilt in der Fassung von 1929, mit der das Amt des Bundespräsidenten gestärkt wurde, im Wesentlichen bis heute). Im Jahr 1921 wurde das Burgenland, der überwiegend deutsch besiedelte Teil Westungarns, als selbstständiges Land im Bund in die Republik aufgenommen. Für die natürliche Hauptstadt des Gebietes, Ödenburg (Sopron), wurde auf ungarischen Wunsch, der die Unterstützung Italiens fand, eine Volksabstimmung durchgeführt, wobei sich die Mehrheit für Ungarn entschied. In den zeitgenössischen österreichischen und ungarischen Darstellungen dieser Volksabstimmung waren Divergenzen zu bemerken. Die Bundesregierung stellten seit Herbst 1920 die Christlichsozialen und ihre Unterstützer vom rechten Flügel (siehe Bundesregierung Mayr II usw.). Die Sozialdemokraten, Mehrheitspartei im „Roten Wien“, waren nun auf Bundesebene in scharfer Opposition. Die Hyperinflation der frühen zwanziger Jahre wurde 1925 durch die Einführung der Schillingwährung beendet. Die konservative Regierung sorgte dafür, dass der Schilling stabil blieb; er wurde als Alpendollar bezeichnet. Kehrseite dieser kargen Wirtschaftspolitik war, dass in der 1929 einsetzenden Weltwirtschaftskrise kaum staatliche Maßnahmen zur Bekämpfung der enorm hohen Arbeitslosigkeit vorgesehen waren. Politische Wehrverbände (Republikanischer Schutzbund, Freiheitsbund) zogen Männer an, die als Sozialdemokraten einen Umsturz fürchteten oder in Heimwehren als Rechte die Demokratisierung ablehnten. 1927 wurde in Schattendorf im Burgenland auf waffenlos demonstrierende Schutzbündler gefeuert. Ein Invalider und ein Kind kamen zu Tode. Die Nachricht vom Schattendorfer Urteil, in dem die Täter freigesprochen wurden, führte am Tag darauf, dem 15. Juli 1927, zur Eskalation im Wiener Justizpalastbrand. Die völlig überforderte Polizei schoss wahllos in die große Menschenmenge und machte dann Jagd auf flüchtende Demonstranten. Bei der sogenannten Julirevolte waren 89 Tote zu beklagen, davon vier Polizisten. Bundeskanzler Prälat Ignaz Seipel („Keine Milde!“) verteidigte im Parlament das Vorgehen der Polizei. In den folgenden Jahren führten die schlechte Wirtschaftslage und politische Auseinandersetzungen Österreich immer tiefer in eine Krise. In diesen Zeiten gab es nun einerseits Ideen zur österreichischen Identität und zu einem österreichischen Patriotismus und andererseits eine starke Bewegung hin zu einer großdeutschen Lösung und zum Anschluss Österreichs an Deutschland. Der Austromarxismus sprach vom Endziel Diktatur des Proletariats und machte damit allen Konservativen Angst; allerdings wollte man dieses Ziel auf demokratischem Weg erreichen. Auf der rechten Seite des Parteienspektrums machte sich teilweise die Auffassung breit, die Demokratie sei zur Lösung der Probleme des Landes nicht geeignet. Benito Mussolini war dafür Vorbild. Einer der christlichsozialen Politiker, welche diese Haltung vertraten (es gab auch christlichsoziale Demokraten wie Leopold Kunschak), war Bundeskanzler Engelbert Dollfuß. Als der Nationalrat nach dem Rücktritt aller drei Präsidenten wegen einer Streitfrage um eine Abstimmung auseinanderging, verhinderte er im März 1933 dessen Wiederzusammentreten mit Polizeigewalt und verkündete die „Selbstausschaltung des Parlaments“. Eine von mehr als einer Million Menschen unterzeichnete Petition an Bundespräsident Miklas, für die Wiederherstellung des verfassungsmäßigen Zustandes zu sorgen, blieb erfolglos, obwohl Miklas die Verfassungswidrigkeit von Dollfuß’ Vorgehen klar war. Austrofaschistischer Ständestaat (1933–1938) Dollfuß nützte das nach wie vor gültige Kriegswirtschaftliche Ermächtigungsgesetz von 1917, um fortan eigenmächtig Gesetze durch Verordnungen der Bundesregierung zu ändern oder einzuführen. Am 12. Februar 1934 fanden die bis dahin schwelenden Auseinandersetzungen zwischen den regierenden Christlichsozialen (Vaterländische Front) und den oppositionellen Sozialdemokraten in von Historikern teilweise als Österreichischer Bürgerkrieg bezeichneten gewaltsamen Zusammenstößen ihren Höhepunkt. Die Regierung setzte das Bundesheer und seine Kanonen ein. Es folgten am gleichen Tag die Absetzung des Wiener Bürgermeisters Karl Seitz und das Verbot der Sozialdemokratischen Partei und ihrer Vorfeldorganisationen. Gegen Schutzbündler ergingen einige standrechtliche Todesurteile. Dollfuß proklamierte hierauf am 1. Mai 1934 in der autoritären „Maiverfassung“ den Bundesstaat Österreich auf ständischer Grundlage (Ständestaat). Es handelte sich um eine Diktatur, die schon damals (z. B. in einem Privatbrief von Bundespräsident Miklas, wie Friedrich Heer berichtet), mit dem Begriff Austrofaschismus bezeichnet wurde. Wenige Wochen danach kam es zum Juliputsch von Anhängern der in Österreich seit 1933 verbotenen NSDAP. Einigen Putschisten gelang es am 25. Juli 1934, in das Bundeskanzleramt vorzudringen, wo Dollfuß so schwer verletzt wurde, dass er kurz darauf, da ihm medizinische Hilfe verweigert wurde, im Amt verstarb. Der Putschversuch wurde innerhalb weniger Stunden niedergeschlagen. Neuer Bundeskanzler wurde Kurt Schuschnigg. Die Politik des Ständestaates zielte darauf, Österreich als den „besseren deutschen Staat“ darzustellen. In der Tat war Österreich vor dem Anschluss an das Deutsche Reich die um vieles mildere Diktatur: Mehrere von den Nationalsozialisten verfolgte Menschen, vor allem Schauspieler und Schriftsteller, suchten 1934 bis 1938 in Österreich Zuflucht. Im äußeren Erscheinungsbild kopierte das Regime (dies wurde später Konkurrenzfaschismus genannt) Elemente aus dem faschistischen Italien und aus dem nationalsozialistischen Deutschland: Aufmärsche mit einem Fahnenmeer, die Einheitsorganisation Vaterländische Front, das Führerprinzip, das Verbot der Parteien. Hatte Adolf Hitler beim Juliputsch noch den Unbeteiligten gespielt, weil Mussolini Österreich damals noch unabhängig erhalten wollte, so verstärkte sich der Druck des Deutschen Reiches auf Österreich nach 1934 von Jahr zu Jahr. Schuschnigg wurde bei Treffen von Hitler eingeschüchtert und erpresst, nationale (= deutschnationale) Minister in seine Regierung aufzunehmen. Als der Kanzler im März 1938 in einem Verzweiflungsakt eine Volksabstimmung über die Unabhängigkeit Österreichs ankündigte, erzwang Göring durch telefonische Drohungen von Bundespräsident Miklas die Einsetzung einer nationalsozialistischen Regierung unter Arthur Seyß-Inquart. Parallel zu deren Amtsantritt am 12. März 1938 fand der längst vorbereitete Einmarsch der deutschen Truppen (Unternehmen Otto) statt. Zu diesem Zeitpunkt hatten mancherorts, z. B. in Graz, die einheimischen Nationalsozialisten bereits die Macht ergriffen. Am 13. März 1938 erließ Hitler, von der Begeisterung seiner österreichischen Anhänger motiviert, das ursprünglich von ihm nicht für diesen Zeitpunkt vorgesehene Anschlussgesetz. Sofort begann der Terror gegen jüdische Österreicher, der auch in sogenannten „Arisierungen“, das heißt dem Raub an jüdischem Eigentum, seinen Ausdruck fand. Teil des Deutschen Reiches (1938–1945) Die gravierendste Folge des „Anschlusses“ war der sofort einsetzende Terror gegen jüdische Österreicher, der später im Massenmord gipfelte. Aus rassischen oder politischen Gründen unerwünschte Menschen flüchteten, sofern sie nicht bald im KZ landeten, zu Zehntausenden ins Ausland. Österreich blieb im Reich zunächst als Land erhalten, am 14. April 1939 wurden dann aber die ehemaligen Bundesländer und Wien durch das „Ostmarkgesetz“ zu nationalsozialistischen Reichsgauen umgebildet, der Name Österreich sollte verschwinden: So wurde das zunächst „Land Österreich“ genannte Gebiet kurz darauf als „Ostmark“ und ab 1942 schließlich als „Alpen- und Donau-Reichsgaue“ bezeichnet. Dabei wurde das Burgenland zwischen den Gauen Niederdonau und Steiermark aufgeteilt, Osttirol an den Gau Kärnten angeschlossen und der steirische Teil des Salzkammerguts zum Gau Oberdonau geschlagen. Die Fläche Wiens wurde auf Kosten des Umlandes verdreifacht („Groß-Wien“). Der gebürtige Österreicher Adolf Hitler führte nach seinem beruflichen Scheitern in seinem Heimatland und seiner politischen Karriere in Deutschland Österreich in die nationalsozialistische Willkürherrschaft und ließ in der Folge alle Hinweise auf eine Eigenständigkeit des Landes tilgen. An Hitlers Politik und Verbrechen beteiligten sich zahlreiche Österreicher mit großer Intensität. Bekannte Täter wie Arthur Seyß-Inquart, Ernst Kaltenbrunner und Alexander Löhr waren Österreicher. Österreicher stellten KZ-Aufseher, SS-Männer und Gestapo-Mitarbeiter. Obwohl sie nur 8 % der Bevölkerung des Großdeutschen Reiches ausmachten, waren 14 % der SS-Mitglieder, 40 % der KZ-Aufseher und 70 % von Adolf Eichmanns Stab österreichischer Abstammung. 1938 wurde das Doppellagersystem Mauthausen/Gusen errichtet, welches das KZ Mauthausen und KZ Gusen umfasste. Im Laufe der Jahre wurde diesem Lagersystem ein Netz von Außenstellen angeschlossen, das sich über ganz Österreich erstreckte. Aus ganz Europa wurden in diesen Konzentrationslagern Zwangsarbeiter unter unmenschlichen Bedingungen u. a. in der Rüstungsproduktion und im Straßenbau eingesetzt. Allein in Mauthausen kamen etwa 100.000 Häftlinge ums Leben. Der Zweite Weltkrieg in Europa endete schließlich mit der bedingungslosen Kapitulation der deutschen Wehrmacht am 8. Mai 1945 (vgl. Chronologie des Zweiten Weltkrieges). Nachkriegszeit und Zweite Republik Mit dem Kriegsende 1945, der Niederlage des Großdeutschen Reiches, wurde Österreich als unabhängiger Staat wiederhergestellt. Dies hatten die späteren Siegermächte bereits 1943 in der Moskauer Deklaration angekündigt. Bereits am 27. April 1945 trat die provisorische Staatsregierung mit Karl Renner als Staatskanzler zusammen und proklamierte die Wiedererrichtung der Republik. Bald darauf wurde die Bundesverfassung vom 1. Oktober 1920 in der Fassung von 1929 durch das „Verfassungsüberleitungsgesetz“ wieder in Geltung gesetzt. Ausnahme waren Bestimmungen, welche die Umwandlung des Bundesrates in einen Länder- und Ständerat vorsahen. Österreich gewann damit den Status einer gewaltenteilenden, repräsentativen, parlamentarischen und föderalistischen Demokratie zurück. Eines der ersten von der provisorischen Staatsregierung erlassenen Gesetze war das Verbotsgesetz, mit dem die NSDAP, ihre Wehrverbände sowie sämtliche Organisationen, die mit ihr zusammenhängen, aufgelöst und verboten wurden. Die Volkswahl des Bundespräsidenten wurde, wie schon 1932, sistiert und Karl Renner im Dezember 1945 von der Bundesversammlung einstimmig zum Staatsoberhaupt gewählt. Daraufhin, bis 1947, wurde Österreich nach dem Willen der Besatzungsmächte durch eine Allparteienregierung (ÖVP, SPÖ, KPÖ) mit Leopold Figl als Bundeskanzler regiert. Ab 19. November 1947 bildeten ÖVP und SPÖ eine große Koalition. Diese wurde bis 1966 weitergeführt. Nach Renners Tod Ende 1950 wurde Theodor Körner als Kandidat der SPÖ am 27. Mai 1951 zum Bundespräsidenten gewählt. Dies war die erste Volkswahl eines Staatsoberhauptes in der österreichischen Geschichte. Bis 1955 war Österreich, wie auch Nachkriegs-Deutschland, in Besatzungszonen aufgeteilt. Die größte Zone war die sowjetische, zu der Oberösterreich nördlich der Donau (Mühlviertel) sowie östlich der Enns, Niederösterreich in den Grenzen von 1937 (d. h. vor der Errichtung Groß-Wiens), das wieder errichtete Burgenland und in Wien die Bezirke 2, 4, 10, 20, 21 und 22 gehörten. Von der Sowjetunion wurden als Deutsches Eigentum beschlagnahmte Betriebe in einem „USIA“ genannten Konzern zusammengefasst, was gemäß den Beschlüssen der Potsdamer Konferenz Teil der von Österreich zu leistenden Reparationen war. Unter den Österreichern, sowohl der Bevölkerung wie auch der Politik, war nach 1945 und bis weit in die folgenden Jahrzehnte hinein die Ansicht weit verbreitet, Österreich sei (wie in der Moskauer Deklaration 1943 formuliert) „erstes Opfer Hitlers“ gewesen, womit die Mitschuld am Zweiten Weltkrieg und am Holocaust heruntergespielt oder geleugnet werden sollte. Der überwiegende Teil rechtfertigte sich später damit, es sei ihm nichts anderes übrig geblieben. Eine Folge dieser „Opferthese“ war die bis heute nur schleppend durchgeführte Restitution geraubten Vermögens. Mit der Unterzeichnung des österreichischen Staatsvertrages am 15. Mai 1955 durch Leopold Figl für die Bundesregierung Raab I und durch Vertreter der vier Siegermächte und mit dem formal davon unabhängigen (also im Staatsvertrag nicht verankerten) Bekenntnis zur Neutralität sowie der Verpflichtung, keinen erneuten Anschluss an Deutschland anzustreben, erlangte die Republik am 27. Juli 1955 ihre volle Souveränität. Am 26. Oktober 1955, nach dem Abzug der Besatzungssoldaten, erfolgte vom Nationalrat der Beschluss über die immerwährende Neutralität Österreichs; dieser Tag ist seit 1965 österreichischer Nationalfeiertag. Die Neutralität (heute besser: Bündnisfreiheit) ist eine militärische und bedeutete von Anfang an keine Äquidistanz zu den Wertesystemen von West und Ost. Bedingt durch die Neutralität konnten aber sowohl mit den westlichen Ländern als auch mit den damaligen Ostblockländern gute kulturelle und wirtschaftliche Bande geknüpft werden, was dem Land in der Zeit des Wiederaufbaues noch lange half. Am 14. Dezember 1955 trat Österreich der UNO bei und war 1973/74 sowie 1991/92 Mitglied des Sicherheitsrates. Bereits 1956/57 nahm die IAEO, die Internationale Atomenergie-Organisation, ihren Sitz in Wien, 1969 kam die Organisation der Vereinten Nationen für industrielle Entwicklung (UNIDO) dazu, später folgten weitere UN-Agenturen. Für die Periode 2009/10 wurde Österreich wieder als nichtständiges Mitglied in den Sicherheitsrat gewählt. Den Konflikt mit Italien wegen des mehrheitlich deutschsprachigen Südtirol, das bis 1918 zur österreichischen Reichshälfte gehört hatte und von Italien nach dem Ersten Weltkrieg annektiert worden war, brachte Österreich in den 1960er Jahren vor die UNO. Die in der Folge (1969) für die Südtiroler Bevölkerung erreichte Autonomieregelung hat sich bewährt und wurde seither noch weiter ausgebaut. 1966 bis 1970 war die Bundesregierung Klaus II die erste Alleinregierung der Zweiten Republik, gestellt von der christdemokratischen ÖVP unter Josef Klaus. 1970–1983 folgten sozialistische Alleinregierungen unter Bruno Kreisky (siehe Bundesregierung Kreisky I bis Kreisky IV). Bedeutend für Österreich war in dieser Zeit die weit gespannte Außenpolitik Kreiskys, die unter anderem durch den Bau der Wiener UNO-City und die Internationalisierung der Palästinenserfrage, die Kreisky erstmals vor die UNO brachte, symbolisiert wurde. 1978 fand die Volksabstimmung über die von der Regierung Kreisky befürwortete Inbetriebnahme des Kernkraftwerks Zwentendorf statt; sie ging negativ aus. Österreich produziert bis heute keine Kernenergie und lehnt dies auch für die Zukunft ab. 1979 wurde Wien nach der Fertigstellung seiner UNO-City offiziell dritter Amtssitz der Vereinten Nationen neben New York und Genf. Unabhängig davon siedelte sich die OPEC in Wien an. 1983 fädelte der abtretende Bruno Kreisky eine kleine Koalition der Sozialdemokraten (SPÖ) mit der damals nationalliberalen Freiheitlichen Partei (FPÖ) ein; die FPÖ hatte ihm durch Stillhalten bereits 1970 an die Macht verholfen (siehe Bundesregierung Sinowatz). Nach der Wahl des rechtspopulistischen Politikers Jörg Haider zum Parteiobmann der FPÖ 1986 beendete die SPÖ auf Betreiben von Franz Vranitzky die Koalition. Der Zerfall des Ostblocks 1989/90 ließ den Eisernen Vorhang verschwinden, der die Entwicklung Ostösterreichs 1945–1989 beeinträchtigt hatte. 1987 bis 1999 bildeten die Sozialdemokraten (SPÖ) „große Koalitionen“ mit der christdemokratischen ÖVP (siehe Bundesregierung Vranitzky I bis Vranitzky V und Bundesregierung Klima). In diesen Zeitraum fiel der Beitritt Österreichs zur Europäischen Union (1995), für den sich insbesondere Alois Mock und Vranitzky eingesetzt hatten. Bei der Volksabstimmung 1994 stimmten zwei Drittel der Teilnehmer dafür. Gegenwart Seit der Öffnung der Grenzen des früheren Ostblocks 1989/90 liegt Österreich nicht mehr an der Ostgrenze des westlich ausgerichteten Europas. Österreich wurde einer der stärksten Investoren in den Reformländern. In der ersten Hälfte der 1990er Jahre wurden Menschen aus den einander bekriegenden jugoslawischen Nationalitäten verstärkt in Österreich aufgenommen. Nach einer positiven Volksabstimmung am 12. Juni 1994 trat Österreich per 1. Jänner 1995 (gemeinsam mit Schweden und Finnland) der Europäischen Union bei. Nach dem Ende des Kalten Krieges 1991 und insbesondere nach dem EU-Beitritt 1995 wurde die Neutralitätspolitik alten Stils für Österreich obsolet. Der Begriff Neutralität ist aufgrund der unterzeichneten EU-Verträge im Wesentlichen auf Bündnisfreiheit reduziert und hat hauptsächlich identitätspolitische Bedeutung; de facto hat Österreich als Vollmitglied der EU, die eine gemeinsame Verteidigungspolitik anpeilt, diesem Vorhaben zugestimmt und kann daher nicht mehr neutral oder bündnisfrei sein. Österreich hatte in der zweiten Hälfte 1998 sowie in der ersten Hälfte 2006 den Vorsitz im Rat der Europäischen Union inne. 1999 wurde der Euro als Buchgeld eingeführt, ab 1. Jänner 2002 ersetzte der Euro auch als Bargeld den Schilling. Österreich trat 1995 den Schengener Abkommen bei. Am 1. Dezember 1997 hob es die Grenzkontrollen zu Deutschland und Italien auf; seitdem gehört es zum Schengen-Raum. In der zweiten Jahreshälfte 2018 führte Österreich zum dritten Mal den Vorsitz im Rat der Europäischen Union. Die SPÖ-ÖVP-Koalitionsregierungen 1986–2000 wurden 2000–2006 von Regierungen der Österreichischen Volkspartei (ÖVP) mit der Freiheitlichen Partei Österreichs (FPÖ) abgelöst (siehe Bundesregierung Schüssel I und Schüssel II). Die damals 14 anderen EU-Mitgliedstaaten reagierten auf die Regierungsbeteiligung der von ihnen als rechtsradikal eingeschätzten FPÖ mit einer vorübergehenden bilateralen Kontaktsperre auf Regierungsebene („EU-Sanktionen“). Nach der Spaltung der FPÖ 2005 wurde das neugegründete Bündnis Zukunft Österreich (BZÖ) Regierungspartner. 2007/2008 war nach Neuwahlen wiederum eine SPÖ-ÖVP-Koalition tätig (siehe Bundesregierung Gusenbauer). Nach der Erweiterung des Schengenraums Ende 2007 um Tschechien, die Slowakei, Ungarn und Slowenien bzw. Ende 2008 um die Schweiz und Ende 2011 um Liechtenstein ist Österreich völlig von Schengenstaaten umgeben. Von der ÖVP ausgelöste vorgezogene Nationalratswahlen im September 2008 führten zu einer Neuauflage der rot-schwarzen Koalition (Bundesregierung Faymann) unter den neuen Parteichefs Werner Faymann (SPÖ) und Josef Pröll (ÖVP). Nach dem Rücktritt Josef Prölls folgte ihm 2011 Michael Spindelegger als Vizekanzler. Nach einer 2007 in Kraft getretenen Verlängerung der Legislaturperiode des Nationalrats von vier auf fünf Jahre wurde der Nationalrat 2013 erstmals fünf Jahre nach der vorangegangenen Wahl gewählt. Bei dieser Wahl wurden die bisherigen Regierungsparteien SPÖ und ÖVP mit Verlusten wiederum stärkste und zweitstärkste Partei (zusammen 99 von 183 Mandaten im Nationalrat). 2013 bis 2017 bildeten SPÖ und ÖVP erneut eine Koalitionsregierung (Bundesregierung Faymann II, 2016/17 Bundesregierung Kern). Nach den vorgezogenen Wahlen 2017, aus denen die ÖVP als stimmenstärkste Partei hervorging, bis zur Ibiza-Affäre 2019 regierte eine Koalition aus ÖVP und FPÖ (Bundesregierung Kurz I), nach deren Abwahl im Nationalrat durch ein Misstrauensvotum amtierte 2019/20 erstmals eine Regierung unter einer weiblichen Bundeskanzlerin (Bundesregierung Bierlein), nach den Nationalratswahlen am 29. September 2019 amtiert seit Jänner 2020 erstmals auf Bundesebene eine Regierung aus ÖVP und den Grünen (Bundesregierung Kurz II). Nach dem Bekanntwerden der Inseratenaffäre erklärte Sebastian Kurz am 9. Oktober 2021 den Rücktritt von seiner Funktion als Bundeskanzler. Kurz wurde in drei Ermittlungsverfahren der Strafverfolgungsbehörde als Beschuldigter geführt. Als sein Nachfolger wurde von der ÖVP Außenminister Alexander Schallenberg vorgeschlagen. Die verbleibenden 15 Mitglieder der Regierung Kurz II wurden mit 11. Oktober 2021 in die Bundesregierung unter Alexander Schallenberg (ÖVP) übernommen. Im Dezember 2021 übernahm Karl Nehammer das Amt des Bundeskanzlers. Die Koalition mit den Grünen wurde fortgeführt. Nach der knappen Bundespräsidentenwahl 2016 hat Alexander Van der Bellen 2022 seine Wiederwahl gleich im ersten Wahlgang geschafft. Siehe auch: Österreich 2015, 2016, 2017, 2018, 2019, 2020 und COVID-19-Pandemie in Österreich. Politik Verwaltungsgliederung Österreich besteht aus neun Bundesländern, Wien als Bundeshauptstadt ist eines davon. Die Länder gliedern sich in insgesamt 79 Bezirke. Darunter ist die Gemeindeebene mit insgesamt 2093 Gemeinden, davon sind 15 Statutarstädte, welche die Bezirksverwaltung selbst ausüben (Stand 1. Jänner 2022). Städte und Ballungsräume Das mit Abstand größte Siedlungsgebiet in Österreich ist der Ballungsraum Wien mit einer Einwohnerzahl von 2,85 Millionen (Stand 2019). Damit konzentriert sich mehr als ein Viertel der Bevölkerung des Staates in der Hauptstadtregion. Weitere größere Stadtregionen umgeben die Landeshauptstädte Graz (Steiermark), Linz (Oberösterreich), Salzburg (Salzburg) und Innsbruck (Tirol). Zu den wichtigeren Städten zählen weiters (von West nach Ost) Feldkirch, Dornbirn und Bregenz (Vorarlberg), Villach und Klagenfurt (Kärnten), Wels (Oberösterreich), St. Pölten und Wiener Neustadt (Niederösterreich). Insgesamt besitzen 201 Gemeinden sehr unterschiedlicher Größe das Recht, sich Stadt zu nennen (Stadtrecht); nur bei den 15 Statutarstädten ist dies von verwaltungsrechtlicher Bedeutung. Ein großes Problem, vor allem in wirtschaftlich schwachen Gegenden, ist die Abwanderung (Landflucht) der ländlichen Bevölkerung in die städtischen Ballungsräume. Von insgesamt 2.093 Gemeinden in Österreich haben 1.834 weniger als 5.000 Einwohner. Exklaven und Enklaven Auf österreichischem Staatsgebiet findet sich mit dem Kleinwalsertal eine funktionale Enklave Deutschlands. Das Kleinwalsertal gehört zwar zu Vorarlberg und grenzt geografisch direkt an dieses, ist aber aufgrund der topografischen Lage auf Straßen nur über Deutschland zu erreichen. Eine weitere funktionale Enklave Deutschlands ist die Gemeinde Jungholz in Tirol, die von Österreich aus nicht erreichbar und nur durch den 1636 Meter hohen Sorgschrofen mit Österreich verbunden ist. Im Gegensatz zu ähnlichen funktionellen und geografischen Enklaven, wie dem Kleinwalsertal oder Jungholz, ist Hinterriß kein Zollanschlussgebiet zu Deutschland, obwohl es ebenfalls nur über Deutschlands Straßen erreichbar ist. Die Saalforste sind österreichisches Staatsgebiet, stehen aber privatrechtlich im Eigentum des Freistaates Bayern. Eine funktionale Enklave Österreichs bestand früher auf schweizerischem Staatsgebiet. Die Schweizer Gemeinde Samnaun war lange Zeit auf dem Straßenweg nicht aus der Schweiz, sondern nur über Österreich (Tirol) zu erreichen. Dies führte dazu, dass die rätoromanische Sprache im 19. Jahrhundert aufgegeben und stattdessen ein dem Tirolerischen ähnlicher Dialekt angenommen wurde. Mittlerweile gibt es zwar eine Schweizer Straße nach Samnaun, doch besteht nach wie vor eine einst errichtete Zollfreizone. Einen ähnlichen Status wie Samnaun hatte bis 1980 die Gemeinde Spiss im österreichisch-schweizerischen Grenzgebiet. Sie war lange Zeit nur über Samnaun erreichbar und hatte mit starker Abwanderung zu kämpfen, weil sie im Gegensatz zu anderen Enklaven kaum wirtschaftliche Entfaltungsmöglichkeit bot. Zudem bildet innerösterreichisch der Bezirk Lienz eine Exklave des Bundeslands Tirol; das Bundesland Wien ist als Enklave vollständig von Niederösterreich umgeben. Politisches System Österreich ist nach der Bundesverfassung von 1920 in der Fassung von 1929, die 1945 wieder in Kraft gesetzt wurde, eine föderale, parlamentarisch-demokratische Republik, bestehend aus neun Bundesländern. Staatsoberhaupt ist der Bundespräsident, der (aufgrund der Verfassungsnovelle 1929) seit 1951 für sechs Jahre direkt vom Volk gewählt wird; eine einmalige Wiederwahl ist zulässig. Da Österreich ein Bundesstaat ist, sind sowohl die Gesetzgebung als auch die Verwaltung zwischen Bund und (Bundes-)Ländern geteilt. Bund Die Bundesgesetzgebung üben der Nationalrat und der Bundesrat in der Regel gemeinsam aus (Zweikammersystem). Der Nationalrat, mit seinen 183 Abgeordneten, ist die dominierende Kammer und wird nach dem allgemeinen, gleichen, unmittelbaren und geheimen Wahlrecht von allen über 16-jährigen Staatsbürgern nach den Grundsätzen der Verhältniswahl gewählt. Seine Gesetzgebungsperiode dauert fünf Jahre, wenn sie nicht vom Nationalrat selbst oder von Bundespräsident und Bundesregierung durch Auflösung verkürzt wird, um frühere Neuwahlen zu ermöglichen. Eine 4-Prozent-Hürde verhindert eine zu große Zersplitterung der Parteienlandschaft im Nationalrat. Die Mitglieder des Nationalrats besitzen ein freies Mandat und genießen berufliche und außerberufliche Immunität. Der Bundesrat wird von den einzelnen Landtagen (den Parlamenten der Bundesländer) nach der Bevölkerungszahl beschickt und vertritt dadurch im Sinne des bundesstaatlichen Prinzips die Interessen der Länder in der Bundesgesetzgebung. Er besitzt in den überwiegenden Fällen nur ein aufschiebendes Vetorecht, das durch einen Beharrungsbeschluss des Nationalrates überstimmt werden kann. Nur in Fällen, in denen in die Rechte der Bundesländer eingegriffen wird, besitzt der Bundesrat ein absolutes Vetorecht. Da der Bundesrat nach Parteienproporz beschickt wird, wird häufig kritisiert, dass dort nicht nach Länder-, sondern nach Parteieninteressen abgestimmt werde. Die Mitglieder des Bundesrats besitzen ein freies Mandat und genießen berufliche und außerberufliche Immunität. Regierungschef ist auf Bundesebene der Bundeskanzler, der vom Bundespräsidenten ernannt wird. Üblicherweise wird nach einer Nationalratswahl der Spitzenkandidat der stimmenstärksten Partei mit der Regierungsbildung beauftragt. Dies ist aber keine Verfassungsregel. In der Folge wird die Bundesregierung, das sind Bundeskanzler, Vizekanzler und alle sonstigen Bundesminister als Kollegialorgan, vom Bundespräsidenten auf Vorschlag des Bundeskanzlers ernannt (wobei der Bundespräsident Vorschläge auch ablehnen kann). Die Bundesregierung bzw. ihre Mitglieder sind vom Vertrauen des Nationalrats abhängig (politische Verantwortlichkeit), weshalb Minderheitsregierungen bisher nur in Ausnahmefällen ernannt wurden. Land Die Landesgesetzgebung in den Bundesländern übt der jeweilige Landtag aus (Einkammersystem). Er wird von den über 16-jährigen Landesbürgern aufgrund des gleichen, unmittelbaren, persönlichen, freien und geheimen Wahlrechts nach den Grundsätzen der Verhältniswahl gewählt. Die Mitglieder der Landtage besitzen ein freies Mandat und genießen berufliche und außerberufliche Immunität. Der Landtag wählt die Landesregierung, die aus dem Landeshauptmann oder -frau, der erforderlichen Zahl von Stellvertretern und weiteren Mitgliedern (Landesräten) besteht. Die Landesregierung ist dem Landtag politisch verantwortlich. Kammern Eine Besonderheit des politischen Systems in Österreich sind öffentlich-rechtliche Interessenvertretungen mit Pflichtmitgliedschaft, gesetzlich als Kammern bezeichnet, die oft durch privatrechtliche Vereine ergänzt werden. Als „große Kammern“ gelten die Wirtschaftskammer Österreich, die Kammer für Arbeiter und Angestellte (seit 1920) und die Landwirtschaftskammer. Dazu kommen als Vereine Industriellenvereinigung, Österreichischer Gewerkschaftsbund, Rechtsanwaltskammer und Bauernbund. Wird ein Gesetzentwurf als Regierungsvorlage ausgearbeitet, so erfolgt ein Begutachtungsverfahren, bei dem die Kammern Änderungsvorschläge usw. einbringen. Die großen Interessenvertretungen werden als Sozialpartner bezeichnet, wenn sie gemeinsam nach Kompromissen in Streitfragen suchen; dadurch sind Streiks in Österreich selten geworden. Gelegentlich werden sie als nicht gewählte Nebenregierung bezeichnet, Österreich wird als Kammerstaat kritisiert. SPÖ und ÖVP haben die Kammern 2007 in Verfassungsrang gehoben, um Änderungen zu erschweren. Politische Parteien Seit der Gründung der Republik Österreich wird die Politik von zwei großen Parteien, der christlich-konservativen Volkspartei ÖVP (bis 1934 „Christlichsoziale Partei“, 1934–1938 „Vaterländische Front“) sowie der sozialdemokratischen SPÖ (seit 1991, vorher seit 1945 „Sozialistische Partei Österreichs“ bzw. 1918 bis 1933 „Sozialdemokratische Arbeiterpartei Deutschösterreichs“, davor „Sozialdemokratische Arbeiterpartei“), geprägt. Beide entstanden schon während der Monarchie und wurden nach der Befreiung Wiens am Ende des Zweiten Weltkrieges im April 1945 neu beziehungsweise wieder gegründet. 1945–1966 und 1986–1999 regierten diese beiden Parteien trotz ihrer weltanschaulichen Gegensätze in einer Großen Koalition. Die positiven Auswirkungen dieser Kooperation wurden unter dem Begriff der Sozialpartnerschaft, die negativen als parteipolitischer Proporz thematisiert. Drittes, bis in die 1990er Jahre wesentlich kleineres parteipolitisches Kontinuum ist das deutschnationale Lager, welches sich in der ersten Republik vor allem in der Großdeutschen Volkspartei, in der zweiten Republik im VdU (Verband der Unabhängigen), danach in der FPÖ, der Freiheitlichen Partei Österreichs, sammelte. In den ersten Jahren der Zweiten Republik spielte auch die Kommunistische Partei Österreichs (KPÖ) eine Rolle in der Politik des Landes, seit den 1960er Jahren ist sie jedoch als Kleinpartei auf Bundesebene bedeutungslos. Bei regionalen Wahlen, so vor allem in Graz und der Steiermark, erreicht sie auch heute noch teils beachtliche Stimmanteile. In den 1980er Jahren brach das starre, manchmal auch als „hyperstabil“ bezeichnete Parteiensystem (mit einer der höchsten Dichten an Parteimitgliedern weltweit) auf. Mit der Volksabstimmung gegen das Atomkraftwerk Zwentendorf und der Besetzung der Hainburger Au erstarkte die Umweltbewegung. 1986 gründeten sich die Grünen. Die FPÖ hingegen begann sich als rechtspopulistische Partei neu zu positionieren. Von ihr spaltete sich 1993 das Liberale Forum ab. Im Jahr 2005 erlebte die FPÖ mit der Gründung des Bündnisses Zukunft Österreich (BZÖ) ihre zweite Spaltung. Bei der Nationalratswahl in Österreich 2008 erreichten FPÖ und BZÖ in Summe etwa die Stärke der SPÖ, kamen aber weder für SPÖ noch ÖVP als Koalitionspartner in Frage. Die Parteienförderung in Österreich („Demokratiekosten“) ist im internationalen Vergleich, bezogen auf die Einwohnerzahl, nach Japan die zweithöchste – 2014 betrug sie insgesamt 205 Millionen Euro. Im Oktober 2012 wurde unter dem Namen NEOS – Das Neue Österreich eine neue Partei gegründet und trat zur Nationalratswahl in Österreich 2013 in einem Wahlbündnis mit dem Liberalen Forum an, mit welchem sie in der Folge im Jänner 2014 fusionierte. Bei der Nationalratswahl im Jahr 2013 erreichte die Partei fünf Prozent der Stimmen und zog mit neun Abgeordneten in den Nationalrat ein. 2017 entwickelten sich einige Neuheiten in der österreichischen Parteienlandschaft: die Grünen verfehlten den Wiedereinzug ins Parlament, nachdem sich eine Gruppierung rund um Peter Pilz abgespalten hatte und den Einzug in den Nationalrat schaffte. Die ÖVP tritt nunmehr mit türkiser statt schwarzer Parteifarbe auf und nennt sich „Die Volkspartei“ (Bis 2022 „Die Neue Volkspartei“). Bei der Nationalratswahl 2019 zogen die Grünen mit 13,9 % der Stimmen wieder ins Parlament ein und stellen seit dem zusammen mit der ÖVP die Regierung. Politische Indizes Staatshaushalt Der Staatshaushalt umfasste 2016 Ausgaben von umgerechnet 192,6 Milliarden US-Dollar, dem standen Einnahmen von umgerechnet 187,3 Milliarden US-Dollar gegenüber. Daraus ergab sich ein Haushaltsdefizit in Höhe von 1,3 Prozent des BIP. Die Verschuldung des Gesamtstaates einschließlich Sozialversicherung erreichte im März 2011 ihren bisher höchsten Stand mit 210,3 Milliarden Euro. Im Jahr 2008 hatte die Gesamtstaatsverschuldung noch 176,8 Milliarden Euro betragen. Dieser sprunghafte Anstieg ist vor allem auf die weltweite Finanz- und Wirtschaftskrise und den damit verbundenen staatlichen Hilfs- und Rettungspaketen für den Finanzsektor und auf Wirtschaftsförderungen zurückzuführen. Die Staatsverschuldung Österreichs sank zwischen 2001 und 2007 von 66,8 % auf 60,2 % des BIPs. Dennoch wurde das Maastricht-Ziel von höchstens 60 % niemals seit 1992 – vor dem Beitritt zur EU 1995 – erreicht. Im Zuge der weltweiten Finanz- und Wirtschaftskrise stieg die Verschuldung Österreichs auf knapp 85 % an. 2011 wurde eine sogenannte Schuldenbremse im Bundeshaushaltsgesetz beschlossen, die konkrete Beschränkungen für das Haushaltssaldo in den Jahren 2012 bis 2016 vorschreibt und ab 2017 das strukturelle Defizit auf 0,45 % des BIP beschränkt. Außen- und Sicherheitspolitik Seit dem Beitritt von Tschechien, der Slowakei, Ungarns und Sloweniens zur EU im Jahr 2004 ist Österreich, mit Ausnahme der Schweiz und des Fürstentums Liechtenstein, nur von anderen Mitgliedsstaaten der EU umgeben. Seine Sicherheitspolitik konzentriert sich daher auf Terrorabwehr und auf internationale Einsätze des Heeres im Rahmen der EU und der UNO. Im Kalten Krieg sah Österreich sich an der Schnittstelle zweier einander gegenüberstehender Machtblöcke – der Westmächte und des Ostblocks. Gemäß der Neutralität, die der Sowjetunion zur Erlangung des Österreichischen Staatsvertrages im Jahr 1955 zugesichert worden war, verhielt sich Österreich beiden Machtblöcken gegenüber formell neutral, obwohl es der Sowjetunion gegenüber von Anfang an eine westliche Ausprägung von Demokratie, Wirtschaft und Politik betont hatte. Die Außenpolitik des Landes trug oft zur Stabilität der Region und zur kooperativen Neugestaltung der Ost-West-Beziehungen bei. Wien wurde als internationaler Konferenzort attraktiv, da man weder in einem NATO-Land noch im Gebiet des Warschauer Paktes tagte. Dieses Konzept wurde allerdings mit dem Fall des Eisernen Vorhanges 1989 obsolet. Österreich trat 1995 der EU bei; innenpolitisch wurde argumentiert, man gehe „als neutrales Land in die EU“. (Dass man gegenüber anderen EU-Mitgliedstaaten schwerlich neutral sein kann, wurde öffentlich nicht erörtert.) Später hat sich Österreich dazu entschlossen, die Petersberg-Aufgaben und weitere Beschlüsse im Rahmen der gemeinsamen Sicherheits- und Verteidigungspolitik (GSVP), einem militärischen Beistandspakt der EU, sowie der gemeinsamen Außen- und Sicherheitspolitik (GASP) der EU mitzutragen und lediglich explizit militärische Bündnisse zu vermeiden. Im Jahr 2008 wurde daher mit dem neuen Artikel 23 f (seit 2010: Artikel 23 j) Bundes-Verfassungsgesetz eine rechtliche Grundlage zur Teilnahme an friedenserhaltenden Maßnahmen beschlossen. Das 1955 wieder eingerichtete Bundesheer nimmt somit am NATO-Programm Partnerschaft für den Frieden teil, das keine Beistandspflicht enthält. In der Westeuropäischen Union, die am 31. März 2010 aufgelöst wurde und die in der GSVP aufgegangen ist, hatte Österreich Beobachterstatus. Die weiteren Entwicklungen rund um GSVP und GASP in der EU sind offen und könnten zu weiteren Herausforderungen an bündnisfreie EU-Staaten wie Österreich führen. Österreich trat im Jahr 1955 den Vereinten Nationen bei. Wien wurde 1980 nach New York und Genf dritter Amtssitz des Sekretariats der Vereinten Nationen (ein weiterer Sitz wurde später in Nairobi, Kenia, errichtet) und misst diesem außenpolitischen Element traditionell großen Stellenwert bei. 1972–1981 war der später umstrittene österreichische Ex-Außenminister Kurt Waldheim Generalsekretär der Vereinten Nationen. 2009 und 2010 hatte Österreich einen nicht-ständigen Sitz im Weltsicherheitsrat inne. Insgesamt dienten bisher über 50.000 Österreicher unter der UN-Flagge als Soldaten, Militärbeobachter, Zivilpolizisten und zivile Experten in aller Welt. Neben den UN-Dienststellen bestehen in Wien Amtssitze weiterer internationaler Organisationen. Dazu gehören die Internationale Atomenergie-Organisation (IAEO, seit 1957 in Wien), die Organisation für Sicherheit und Zusammenarbeit in Europa (OSZE), der Sitz der 1960 in Bagdad gegründeten OPEC (Organization of the Petroleum Exporting Countries) sowie diverse Nichtregierungsorganisationen (NGOs). Die formelle Aufhebung des 1955 beschlossenen Bundesverfassungsgesetzes über die immerwährende Neutralität erfordert eine Zweidrittelmehrheit im Nationalrat, deren Zustandekommen als generell unwahrscheinlich gilt, da das Neutralitätsgesetz aus historischen Gründen Symbolcharakter hat. Im In- wie im Ausland ist daher vielen Beobachtern nicht klar, dass Österreich heute zwar nach wie vor militärisch bündnisfrei ist und Stützpunkte und Truppenbewegungen fremder Armeen auf seinem Gebiet nicht zulässt, die klassische Neutralität aber nicht mehr besteht. Die Bundesregierungen der letzten Jahrzehnte wählten nämlich den Weg, Einschränkungen der Neutralitätsbestimmungen nicht im Neutralitätsgesetz vorzunehmen, sondern dazu andere, unauffälligere Bundesverfassungsgesetze beschließen zu lassen. Die Ressortzuständigkeit für die Außenpolitik liegt in der österreichischen Regierung beim Bundesministerium für europäische und internationale Angelegenheiten. Amtsinhaber ist Alexander Schallenberg. Militär Das Bundesheer besteht aus etwa 25.000 Mann im Präsenzstand und rund 30.000 Mann der Miliz. Der Präsenzdienst dauerte bis zum 1. Jänner 2006 acht Monate und seither sechs Monate. Das Militärbudget ist 2021 mit rund 3,3 Milliarden Euro in absoluten Zahlen das höchste Budget in der Geschichte des Bundesheeres, gleichzeitig aber mit 0,8 % des Bruttoinlandsprodukts eines der relativ niedrigsten der Welt. Die militärische Landesverteidigung fußt auf der allgemeinen Wehrpflicht aller männlichen Staatsbürger im Alter von 17 bis 50 Jahren. Frauen können einen freiwilligen Wehrdienst ableisten. Seit 1975 können Wehrpflichtige, die einen Wehrdienst aus Gewissensgründen ablehnen, einen Wehrersatzdienst ableisten. Dieser dauert seit dem 1. Jänner 2006 neun Monate und kann auch im Auslandsdienst als Friedensdienst, Gedenkdienst oder Sozialdienst abgeleistet werden, wobei er jedoch zehn bis elf Monate dauert. Regionale Zusammenarbeit Die regionale Zusammenarbeit der Europaregionen ist eine länderübergreifende Kooperation mit den Nachbarstaaten, vor allem auf wirtschaftlicher Ebene. Die Europäische Union sowie die österreichische Bundesregierung und die jeweiligen Landesregierungen erhoffen sich neben dem Aspekt der länderübergreifenden Zusammenarbeit auch eine Stärkung der potenziell schwächeren Randregionen. Europaregionen mit österreichischer Beteiligung sind: Euregio Bodensee Raetia Nova euroregion/Nova Raetia Europaregion Tirol–Südtirol–Trentino Europaregion Adria–Alpe–Pannonia Euregio Graz-Maribor Euregio West/Nyugat Pannónia Centrope Euregio Weinviertel-Südmähren-Westslowakei/Pomoraví–Záhorie–Weinviertel euroregion Euroregion Silva Nortica Europaregion Donau-Moldau Euregio Bayerischer Wald – Böhmerwald – Unterer Inn/Euroregion Šumava – Bavorský les – Dolní Inn Euregio Unterer Inn Inn-Salzach-Euregio EuRegio Salzburg – Berchtesgadener Land – Traunstein Euregio Inntal Euregio Zugspitze-Wetterstein-Karwendel Euregio via salina Umweltpolitik Im März 2007 wurde vom Ministerrat die Österreichische Klimastrategie beschlossen, um bis 2012 die Ziele des Kyoto-Protokolls zu erreichen, die dem Klimawandel, von dem der Alpenraum in besonderem Maße betroffen ist, entgegenwirken sollen. 2020 wurden in Österreich 73,6 Mio. Tonnen Kohlendioxid-Äquivalent emittiert. Das sind 6,2 % weniger als im Kyoto-Basisjahr 1990. Die größten Emittenten sind die Sektoren Energie und Industrie, Verkehr, Gebäude und Landwirtschaft. Im Rahmen des EU-Gesetzgebungspaket von 2021 Fit for 55 muss Österreich seine Treibhausgasemissionen außerhalb des Emissionshandels um 36 % gegenüber 2005 verringern. Das Umweltbundesamt ist die Fachstelle der Republik Österreich für Umweltschutz und Umweltkontrolle. In dieser Eigenschaft unterstützt das Umweltbundesamt die Bundesregierung bei der Durchsetzung der Klimastrategie. klima:aktiv ist die Initiative des Bundesministeriums für Land- und Forstwirtschaft, Regionen und Wasserwirtschaft (BML) für aktiven Klimaschutz und Teil der Österreichischen Klimastrategie. Eine Vielzahl von klima:aktiv-Programmen gibt aktiv Impulse für Angebot und Nachfrage nach klimaschonenden Technologien und Dienstleistungen. Der Austrian Council on Climate Change (ACCC) ist der Österreichische Klimabeirat. Der ACCC stellt sich besonders als Informationsportal der nationalen und internationalen Klimapolitik und -forschung dar in Kooperation mit dem BML und dem Umweltbundesamt. Das Klimabündnis Österreich hat das Ziel, die indigenen Völker zu unterstützen. Das Klimabündnis Österreich besteht aus Gemeinden und Städten, allen neun Bundesländern, Schulen, Bildungseinrichtungen und Betrieben sowie der COICA, einem Zusammenschluss indianischer Organisationen im Amazonasraum. Die erneuerbaren Energien waren in Österreich seit Jahrzehnten das Rückgrat der Stromerzeugung. Bis 1997 kamen zwei Drittel der Stromerzeugung aus der Wasserkraft. Im Jahre 2022 hat die Stromerzeugung aus erneuerbaren Energien eine Quote von 85 % erreicht. Am 25. September 2019 rief Österreich als neuntes Land weltweit durch Stimmen von ÖVP, SPÖ, Neos und Liste Jetzt den Klimanotstand aus. Hiermit hatte man sich dazu bekannt, der Klimakrise und ihren Folgen „höchste Priorität“ einzuräumen. Der Antrag beinhaltet auch das Vorhaben, künftige Gesetze auf deren Auswirkungen auf das Klima zu prüfen. Beim Klimaschutz-Index, einer von der Organisation Germanwatch jährlich durchgeführten Evaluierung der Klimaschutzbemühungen von Staaten, erreichte Österreich im Jahr 2020 den 38. Platz von 61 Bewertungen und liegt damit im unteren Mittelfeld unter dem EU-Durchschnitt. 2022 führte das neu geschaffene Bundesministerium für Klimaschutz, Umwelt, Energie, Mobilität, Innovation und Technologie einen „Klimabonus“ in Höhe von 500 Euro ein, welcher die Kosten der zuvor beschlossenen CO2-Steuer sozial ausgleichen soll. Der Klimabonus ist teil der ökosozialen Steuerreform der Regierungskoalition von Volkspartei und Grünen. Kriminalität Wie in zumindest allen wohlhabenden Ländern der westlichen Welt gibt es seit Anfang der 1990er Jahre einen allgemeinen Kriminalitätsrückgang, vor allem bei Diebstahl und Gewaltkriminalität. Hinzu kommt eine gestiegene Sicherheit durch Waffenverbote, von denen Frauen allerdings weniger als Männer profitieren, da sie meist in Beziehungen Opfer von Gewalt werden. Für Vergleiche der Gewaltneigung über lange Zeiträume und große räumliche Distanzen hinweg wird die Rate der Tötungsdelikte als Index verwendet. Österreich kam hierbei im Jahr 2016 auf 0,7 Fälle pro 100.000 Einwohner. Ein Höhepunkt war 1991 mit 1,3 Fällen. Die heutigen 0,7 Fälle liegen unter dem Durchschnitt in Westeuropa, der bei eins liegt. Der Durchschnitt in Gesamt-Europa lag bei drei Fällen pro 100.000 Einwohner, der globale Durchschnitt bei 6,1. Ostasiatische Staaten liegen durchschnittlich bei 0,6 Fällen, Singapur bei nur 0,2 Fällen pro 100.000 Einwohner. Detaillierte, flächendeckende Daten werden seit 2001 in der österreichischen Polizeilichen Kriminalstatistik veröffentlicht. 2018 wurden erstmals weniger als 500.000 angezeigte Delikte erfasst. Die Aufklärungsquote stieg auf einen Rekord von 52,5 %. In wesentlichen Deliktsfeldern wie Einbruchsdiebstählen in Wohnungen und Wohnhäusern, Kfz-Diebstählen sowie Taschen- und Trickdiebstählen, die als Formen der Kriminalität einen wesentlichen Einfluss auf das Sicherheitsgefühl der Menschen haben, ist die Zahl der Anzeigen deutlich rückläufig. Zudem wird international von einer steigenden Anzeigebereitschaft beziehungsweise einer sich verringernden Dunkelziffer ausgegangen, vor allem bei Gewalt gegen Frauen. Deshalb kann davon ausgegangen werden, dass die Kriminalität insgesamt noch stärker zurückgeht, als aus Polizeistatistiken ersichtlich. In jüngerer Zeit werden vor allem Frauenmorde (Femizide) thematisiert, inwieweit dies ein spezifisch österreichisches Problem darstellt, wird kontrovers diskutiert. Rechtswesen Bundesverfassungsrecht Das österreichische Bundesverfassungsrecht ist zersplittert, da es im Gegensatz zu anderen Staaten kein Inkorporationsgebot gibt, dem zufolge sämtliche nach Inkrafttreten der Verfassung beschlossenen Änderungen oder Ergänzungen ausschließlich direkt in die Verfassungsurkunde selbst aufzunehmen wären und nicht in gesonderten Verfassungsgesetzen erlassen werden dürften. Verfassungsregeln finden sich daher in Österreich nicht nur im Bundes-Verfassungsgesetz selbst, sondern auch in vielen anderen Verfassungsgesetzen und in einfachen Gesetzen enthaltenen Verfassungsbestimmungen. Vom 1. Juli 2003 bis 31. Jänner 2005 tagte ein Verfassungskonvent („Österreich-Konvent“), der Vorschläge für eine Reform der österreichischen Bundesverfassung erarbeitete. Der Vorsitzende Franz Fiedler erarbeitete einen eigenen Schlussbericht, da über die zukünftige Kompetenzverteilung zwischen Bund und Ländern keine Einigung erzielt wurde. Zentrales Verfassungsdokument ist das Bundes-Verfassungsgesetz vom 1. Oktober 1920 in der Fassung von 1929 (B-VG) mit den seither ergangenen Novellen, das den „Kern“ des Bundesverfassungsrechts bildet. Ein Grundrechtskatalog fehlt im B-VG. Er wird durch mehrere in Verfassungsrang stehende Rechtstexte gebildet: das Staatsgrundgesetz über die allgemeinen Rechte der Staatsbürger vom 21. Dezember 1867, RGBl. 142/1867, in Verfassungsrang gemäß Art. 149 Abs. 1 B-VG, und die Europäische Menschenrechtskonvention (EMRK) vom 4. November 1950, ratifiziert 1958 (), in Verfassungsrang seit 1964 (). Weitere wichtige Bundesverfassungsgesetze (BVG; zur Unterscheidung von der ursprünglichen Verfassung, dem B-VG, ohne Bindestrich geschrieben) sind: das Verbotsgesetz 1947, das NS-Wiederbetätigung gerichtlich strafbar macht (am 8. Mai 1945, , erstmals publiziert), das Finanz-Verfassungsgesetz vom 21. Jänner 1948, , in der geltenden Fassung, das den Finanzausgleich zwischen „dem Bund und den übrigen Gebietskörperschaften“ (Originaltitel) regelt, das Neutralitätsgesetz vom 26. Oktober 1955, , der per 1. Jänner 1995 vom Parlament genehmigte EU-Beitrittsvertrag (), weitere Ratifizierungen von EU-Verträgen. Daneben bestehen noch mehr als 1.300 rein formelle Verfassungsgesetze und in einfachen Gesetzen als Verfassungsbestimmung bezeichnete Rechtsregeln (diese sichern sonst verfassungswidrige Ausnahmeregelungen ab) sowie Staatsverträge in Verfassungsrang. Am 4. Jänner 2008 wurde das Erste Bundesverfassungsrechtsbereinigungsgesetz (BVRBG), , publiziert. Damit wurden 71 Bundesverfassungsgesetze, 167 Verfassungsbestimmungen und 6 verfassungsändernde Staatsverträge außer Kraft gesetzt oder als nicht mehr geltend festgestellt, außerdem 24 Bundesverfassungsgesetze zu einfachen Bundesgesetzen heruntergestuft und 225 weitere Bestimmungen ihres Verfassungsranges entkleidet. Europarecht 1995 erfolgte die Übernahme des Acquis communautaire, des gemeinsamen Rechtsbestandes der EU, der durch die seit dem EU-Beitritt unter Mitwirkung Österreichs erlassenen EG-Richtlinien (Rahmengesetze) und EU-Verordnungen (direkt anwendbare Gesetze) sowie durch Letztentscheidungen des Europäischen Gerichtshofes (EuGH) ständig weiterentwickelt wird. Im Zweifelsfall hat das Gemeinschaftsrecht Vorrang. Betroffen sind insbesondere Wirtschafts-, Unternehmens- und Kapitalrecht, lediglich bei den Grundrichtlinien der Verfassung, den sogenannten Baugesetzen, zu deren Änderung eine Volksabstimmung notwendig ist, wird von der Höherrangigkeit österreichischen Rechts ausgegangen. Österreich hat – wie insgesamt 17 von 27 Mitgliedstaaten – den EU-Verfassungsvertrag ratifiziert; da die nötige Einstimmigkeit aller Mitgliedsstaaten dafür nicht zu erreichen war, wurde im Herbst 2007 der Vertrag von Lissabon abgeschlossen, der die wesentlichsten „Verfassungsbestimmungen“ enthält, ohne sie als solche zu bezeichnen, und der auf Symbole der Staatlichkeit der EU verzichtet. Auch diesen hat Österreich ratifiziert. Gerichtsbarkeit Die Gerichtsbarkeit ist in Österreich überwiegend Angelegenheit des Bundes. Sie wird in Zivilrechts- und Strafrechtssachen von Bezirksgerichten, Landesgerichten, Oberlandesgerichten und dem Obersten Gerichtshof (OGH) als höchster Instanz wahrgenommen, die alle Gerichte des Bundes sind. Die Verwaltungsgerichtsbarkeit ist seit 1. Jänner 2014 zweistufig organisiert und wird von elf Verwaltungsgerichten, von denen jedes Land ein Gericht (Landesverwaltungsgericht) und der Bund zwei Gerichte (Bundesverwaltungsgericht und Bundesfinanzgericht) betreibt, und dem Verwaltungsgerichtshof (VwGH) ausgeübt. Für die Verfassungsgerichtsbarkeit gibt es mit dem Verfassungsgerichtshof (VfGH) nur ein einziges Gericht. Soweit zu den Kompetenzen der EU zählende Materien betroffen sind, ist gemäß dem EU-Vertrag der Europäische Gerichtshof (EuGH) die Letztinstanz über den österreichischen Gerichten; in menschenrechtlichen Fragen laut Europäischer Menschenrechtskonvention der Europäische Gerichtshof für Menschenrechte (EGMR). Privatrecht Die zentrale Privatrechtskodifikation Österreichs, das Allgemeine Bürgerliche Gesetzbuch (ABGB) vom 1. Juni 1811 (in Kraft getreten am 1. Jänner 1812), ist eine Naturrechtskodifikation, die 1914–1916 unter Einfluss der Historischen Rechtsschule tiefgreifend novelliert wurde. Weit reichende Änderungen erfolgten dann erst wieder ab 1970, insbesondere im Familienrecht. Große Bereiche des Privatrechts sind allerdings außerhalb des ABGB geregelt, wobei viele dieser Sondergesetze im Zuge des „Anschlusses“ an Deutschland 1938 in Österreich eingeführt wurden und nach 1945 in gegebenenfalls entnazifizierter Fassung beibehalten wurden; so etwa das Ehegesetz (EheG), das Unternehmensgesetzbuch (UGB) und das Aktiengesetz (AktG). Strafrecht Das Österreichische Strafrecht ist in modernen Kodifikationen wie etwa dem Strafgesetzbuch (StGB) vom 23. Jänner 1974 oder der Strafprozessordnung (StPO) vom 31. Dezember 1975, 2004 mit Inkrafttreten am 1. Jänner 2008 durchgreifend geändert, geregelt. Das StGB kennt außer Strafen auch „vorbeugende Maßnahmen“. Sowohl Strafen als auch Maßnahmen dürfen nur wegen einer Tat verhängt werden, die schon zur Zeit ihrer Begehung mit Strafe bedroht war (Verwirklichung des Rückwirkungsverbotes im Strafrecht: Nulla poena sine lege, § 1 StGB). Die Todesstrafe ist im ordentlichen Verfahren seit 1950, im außerordentlichen Verfahren seit 1968 abgeschafft. Staatsziele Staatszielbestimmungen in der österreichischen Bundesverfassung (Quelle:) dauernde Neutralität Verbot nazistischer Tätigkeiten (seit 1955) der Rundfunk als öffentliche Aufgabe (seit 1974) die umfassende Landesverteidigung (seit 1975) der umfassende Umweltschutz (seit 1984) die Gleichbehandlung von Behinderten (seit 1997) die Gleichstellung von Mann und Frau (seit 1998) Ebenfalls gelten seit 2013 folgende aktualisierte Staatsziele, für deren Gewährleistung die Republik (Bund, Land und Gemeinden) zuständig ist: Nachhaltigkeit Tierschutz umfassender Umweltschutz Sicherstellung der Wasser- und Lebensmittelversorgung Forschung Wirtschaft Österreich ist mit einem Bruttoinlandsprodukt (BIP) pro Kopf von 39.990 Euro eines der wohlhabendsten Länder der EU – zum Vergleich: Deutschland 37.900 Euro (2016). Das gesamte BIP umfasst nominell 352 Milliarden Euro. Davon entfallen auf Landwirtschaft, Forstwirtschaft und Fischerei 1,2 %, Sachgüterproduktion, Bergbau, Energie- und Wasserversorgung und Bauwesen 28 Prozent und auf Markt- und marktmäßige Dienstleistungen 70,7 %. Im Fremdenverkehr, der im Gegensatz zu vielen Ländern ganzjährig stattfindet, gab es 2016 insgesamt 141 Millionen Übernachtungen (Inländer und Ausländer, davon rund 52 Millionen Übernachtungen von Gästen aus Deutschland). Der in Österreich im internationalen Vergleich hohe Anteil der Industrie ist geprägt durch einen hochentwickelten Maschinenbau, zahlreiche Kfz-Zulieferer sowie etliche große Mittelständler, die hoch spezialisiert und in ihrem Segment zum Teil Weltmarktführer sind. Im Jahre 2016 wuchs die österreichische Wirtschaft um 1,5 %. Für 2017 wird ein Wachstum von 1,64 % erwartet. Die Staatsquote liegt mit 50,7 % (2016) über dem Durchschnitt der EU-Staaten. Im Global Competitiveness Index, der die Wettbewerbsfähigkeit eines Landes misst, belegt Österreich Platz 18 von 137 Ländern (Stand 2017). Im Index für wirtschaftliche Freiheit belegt das Land 2018 Platz 32 von 180 Ländern. In Österreich waren 2011 4.167.164 Personen in 706.817 Arbeitsstätten beschäftigt. Die größte Börse in Österreich ist die CEE Stock Exchange Group mit deren Tochtergesellschaft Wiener Börse, deren für Österreich bedeutendster Index ist der ATX. Reichstes Bundesland ist die Hauptstadt Wien mit einem kaufkraftbereinigten BIP pro Kopf von 155 % des EU-Durchschnitts. Den niedrigsten Wert erreicht dagegen das Burgenland, das mit 86 % als einziges österreichisches Bundesland unter dem EU-Durchschnitt liegt. Finanzwirtschaft Die österreichischen Banken haben sich seit 1989 in den Ländern des früheren Ostblocks stark engagiert und zählen dort zu den wichtigsten Kreditgebern. Seit im September 2008 die internationale Finanzkrise schlagend geworden ist, werden das von österreichischer Seite eingegangene Kreditrisiko und die damit verbundenen Auswirkungen auf das Verhältnis zwischen Staatsschulden und wirtschaftlicher Leistungsfähigkeit des Landes daher besonders kritisch betrachtet. Die österreichischen Banken profitieren noch heute vom strengen österreichischen Bankgeheimnis. Nach dem EU-Beitritt wurde die Anonymität der Sparkonten abgeschafft. Aufrecht bleibt aber, dass Konten durch Behörden nicht ohne ausdrückliche richterliche Anordnung geöffnet werden dürfen. Größere Banken in Österreich sind die BAWAG P.S.K., Raiffeisen, Erste Bank und Sparkasse sowie die Bank Austria. Bergbau Der Bergbau hat in den letzten Jahrzehnten an Bedeutung verloren. So wurde der Blei-Bergbau in Bad Bleiberg eingestellt und 2006 endete auch der jahrhundertelange Abbau von Kohle. Bedeutsam ist der Abbau von Steinsalz. Hier ist die Fördermenge größer als der Verbrauch im Inland. Salz ist ein bundeseigener mineralischer Rohstoff, das heißt im Besitz der Republik Österreich. Der Abbau erfolgt von der privatisierten Firma Salinen Austria. Erdöl und Erdgas werden im Alpenvorland und im Wiener Becken gewonnen. War Österreich bis in die 1960er Jahre bei Erdöl noch Selbstversorger, müssen heute (Stand 2017) etwa 90 % importiert werden. Die nachgewiesenen Reserven haben sich in den letzten zehn Jahren halbiert und betragen nur noch sieben Jahresförderungen, Ähnliches gilt für das Erdgas. Hier haben sich die nachgewiesenen Reserven von 34 Milliarden Kubikmeter im Jahr 2007 auf 9 Mrd. m³ im Jahr 2016 verringert. In geringen Mengen wird noch Eisenerz in der Steiermark (Erzberg) und Eisenglimmer in Kärnten (Bezirk Wolfsberg) gewonnen. Der Abbau von Wolfram in Mittersill feierte 2016 sein 40-jähriges Jubiläum. Magnesit wird in der Steiermark und in Kärnten abgebaut. Im Jahr 2016 waren im Bergbau circa 5000 Personen beschäftigt, der Großteil davon jedoch im Bereich der Stein-, Schotter- und Sandgruben. Untertag arbeiteten 250 Personen, davon etwa die Hälfte in Salzbergwerken und je 50 im Wolfram- und Magnesit-Abbau. Land- und Forstwirtschaft Im Jahre 2007 wurden etwa 38 % der Fläche Österreichs landwirtschaftlich genutzt. Im Vergleich zu den meisten europäischen Ländern ist Österreich ökologisch gut ausgestattet, was auch Österreichs Stärke in Land- und Forstwirtschaft erklärt. Seine Biokapazität (oder sein biologisches Naturkapital) ist mehr als doppelt so hoch als der Weltdurchschnitt. Im Jahr 2016 hatte Österreich 3,8 globale Hektar Biokapazität pro Person innerhalb seiner Grenzen, verglichen mit dem Weltdurchschnitt von 1,6 globalen Hektar pro Person. Die Nutzung von Biokapazität hingegen, im selben Jahr, betrug 6,0 globale Hektar pro Kopf. Das ist Österreichs konsumbedingter ökologischer Fußabdruck. Damit beanspruchen Österreicher rund 60 Prozent mehr Biokapazität als das Land enthält. Infolgedessen weist Österreich ein Biokapazitätsdefizit auf. Österreich hat eine kleinstrukturierte Landwirtschaft. Diese versucht sich verstärkt auf Qualitätsprodukte zu spezialisieren, da aufgrund der EU-Erweiterung der Konkurrenzdruck weiter zunimmt. Die österreichischen Bauern setzen verstärkt auf ökologische Landwirtschaft: Im Jahr 2020 bearbeiten 24.000 Biobauern etwa 26 % der landwirtschaftlichen Fläche Österreichs. Mit einem Gesamtanteil von knapp 23 % hat Österreich die höchste Dichte von biologischen landwirtschaftlichen Betrieben in der Europäischen Union. Das landwirtschaftlich wichtigste Gebiet im Anbau von Feldfrüchten ist das Marchfeld in der Nähe von Wien. Wein ist ein wichtiges landwirtschaftliches Exportprodukt Österreichs. Der Hauptabnehmer des Weines ist, neben der Schweiz und den USA, zu zwei Dritteln Deutschland. Im Jahr 1985 wurde der Weinbau durch den Glykolwein-Skandal zwar stark in Mitleidenschaft gezogen, in der Zwischenzeit haben die Weinbauern ihre Qualitätsweine jedoch wieder so stark verbessert, dass wesentlich mehr Wein exportiert werden kann als vergleichsweise vor dem Skandal. Rund 4 Millionen Hektar, also 48 % der Staatsfläche Österreichs sind Wald. Die Forstwirtschaft ist ein bedeutender Faktor, die auch die verarbeitende Holz- und Papierindustrie dementsprechend beliefert. Holz als Rohstoff wird vor allem in den südeuropäischen Raum exportiert. Die Jagd ist in Österreich ein mit dem Grundeigentum verbundenes, subjektives Recht und in einem Revierjagdsystem organisiert. Das nach Wert des Wildbrets sowie aufgrund der im Wald und der Feldflur verursachten Wildschäden bedeutsamste Jagdwild sind Reh, Rothirsch, Gämse und Wildschwein. Weitere in der österreichischen Jagdstatistik zahlenmäßig stark vertretene Wildarten sind u. a. Stockente, Fasan und Feldhase. Tourismus Der Tourismus stellt in Österreich einen der wichtigsten Wirtschaftszweige dar. 2013 wurde eine direkte Wertschöpfung von 16,94 Milliarden Euro aus dem Tourismus erzielt, das entspricht 5,3 % des Bruttoinlandsprodukts. Mit indirekten Wertschöpfungseffekten kam der Bereich auf 22,87 Milliarden, 7,1 % des BIP. Der Fremdenverkehr verteilt sich gleichmäßig auf die Sommer- und Wintersaison, wobei aber ein Ost-West-Gefälle sichtbar ist, da der Osten mehr Sommer- und der Westen mehr Wintertourismus anzieht. Bedeutende Sparten sind auch der Kultur- und Städte- sowie der Kur-, Wellness- und Tagungstourismus. Österreich wurde laut Schätzungen der World Tourism Organisation 2015 von 26,7 Millionen Touristen besucht. Industrie Österreich verfügt über eine moderne und leistungsfähige Industrie. Etwa 160 österreichische Unternehmen sind derzeit (2016) Weltmarktführer in ihrer Kategorie. Die staatlichte Industrie wurde großteils privatisiert (OMV AG, Voestalpine AG, VA Technologie AG, Steyr Daimler Puch AG, Austria Metall AG). Steyr Daimler Puch wurde an den Magna-Konzern verkauft, VA Tech an die Siemens AG, die Jenbacher Werke an General Electric. Andere bekannte Marken und Unternehmen: Manner & Comp. AG, Linz Textil Holding AG, Sanochemia Pharmazeutika AG etc. Dienstleistungen Die Dienstleistungen machen in Österreich den größten Anteil der Wirtschaftsleistungen aus. Dieser wird vor allem durch den Tourismus, den Handel und die Banken erzielt. Die österreichischen Banken profitieren noch heute vom strengen österreichischen Bankgeheimnis. Nach dem EU-Beitritt wurde die Anonymität der Sparkonten abgeschafft. Aufrecht bleibt aber, dass Konten durch Behörden nicht ohne ausdrückliche richterliche Anordnung geöffnet werden dürfen. Bruttonationaleinkommen Das Bruttonationaleinkommen Österreichs betrug im Jahr 2011 419,2 Milliarden Euro. Das kaufkraftbereinigte Bruttoinlandsprodukt (BIP) wurde im Jahr 2011 mit 352,0 Milliarden Euro beziffert und entspricht einem BIP von 41.822 Euro pro Einwohner. 2014 lag der Anteil der öffentlichen Sozialausgaben am Bruttoinlandsprodukt (BIP) laut Statistik Austria bei 30,1 Prozent. Nach Berechnungsmethode der OECD waren es 28,4 Prozent. Damit lag Österreich im OECD-Ranking auf Platz sechs und über dem Durchschnitt von 21,6 %; wobei die Sozialausgaben stärker wuchsen als das Wirtschaftswachstum. Der Anteil der Sozialleistungen für ältere Menschen, wie Pensionen, lag bei 44 Prozent beziehungsweise 42,9 Milliarden Euro. Im Vergleich dazu lag der Wert 1980 bei nur 32 Prozent. Arbeitslosigkeit Per Ende Mai 2015 lag die Zahl der Arbeitslosen (vorgemerkte Arbeitslose und Schulungsteilnehmer) bei 395.518 Personen. 330.326 Arbeitslose waren beim AMS gemeldet, 65.192 Personen ohne Job besuchten eine Schulung des AMS. Die Arbeitslosenquote betrug 8,6 Prozent. Die vom Wifo um jahreszeitliche Schwankungen korrigierte erweiterte Quote inklusive Schulungsteilnehmer lag bei 10,7 %. Das ist die höchste jemals in Österreich gemessene Arbeitslosigkeit, wobei in Ostösterreich die Zuwächse stärker ausfallen als im Westen. Fast jeder Vierte der vorgemerkten Arbeitslosen war über 50 Jahre alt. Überdurchschnittlich stark stieg die Arbeitslosigkeit bei Ausländern. In den letzten Jahren konnte die Arbeitslosigkeit gesenkt werden. Die Arbeitslosenquote (laut Eurostat-Definition) lag im Juni 2018 bei 4,7 % und damit deutlich unter dem EU-Durchschnitt. Im Jahr 2017 betrug die Jugendarbeitslosigkeit 10,4 %. Wirtschaftskennzahlen Die wichtigen Wirtschaftskennzahlen Bruttoinlandsprodukt, Inflation, Haushaltssaldo und Außenhandel entwickelten sich folgendermaßen: Vermögensverteilung Trotz ausgewogener Einkommensverteilung sind die Vermögen in Österreich stark ungleich verteilt, so dass die Österreicher im Durchschnitt weniger Nettovermögen besitzen als Griechen oder Spanier. Der Grund dafür ist, dass international gesehen viele Menschen zur Miete und nur 60 Prozent im Eigentum wohnen, in Wien nur 18 Prozent. Der Immobilienbesitz jedoch stellt den Großteil des Vermögens dar, denn er ist doppelt so viel wert wie die Unternehmensbeteiligungen und dreimal so groß wie die Finanzvermögen. Der größte Wohnungseigentümer in Österreich (und Europa) ist mit 220.000 Gemeindewohnungen die Stadt Wien. Sie ist nach den Österreichischen Bundesforsten auch der zweitgrößte Grundbesitzer. Laut Credit Suisse betrug das Vermögen pro erwachsene Person 2020 in Österreich 290.348 US-Dollar (Schweiz: 673.962, Deutschland: 268.681). Infrastruktur Verkehr Die Verkehrsinfrastruktur ist geprägt einerseits durch die Lage in den Alpen und andererseits durch die zentrale Lage in Mitteleuropa. Dies gilt für Straßen- und Bahnverbindungen gleichermaßen. Die logistische Erschließung der Alpen erfordert viele Tunnel- und Brückenbauten, die extremen Witterungsbedingungen standhalten müssen. Durch die zentrale Lage und die schmale Form gilt Österreich als typisches Transitland, vor allem in Nord-Süd- und Nord-Südost-Richtung, durch die Öffnung des Eisernen Vorhangs auch in Ost-West-Richtung. Das bedeutet oft eine wesentlich größere Dimensionierung der Verkehrswege, auch in ökologisch sensiblen Gebieten, was oft zu Widerständen der Bevölkerung führt. Um diese Gratwanderung zwischen Ökonomie und Ökologie zu bewältigen, wurden oft Maßnahmen bei den Kraftfahrzeugen getroffen. Es wurde in Österreich beispielsweise vergleichsweise früh gesetzlich vorgeschrieben, in jedem Kraftfahrzeug einen Katalysator einzubauen. Ebenso wurden auf bestimmten Strecken nur lärmarme LKW zugelassen. Die folgende Tabelle zeigt die Verteilung der im Personenverkehr zurückgelegten Kilometer in Österreich, aufgeteilt auf die verschiedenen Verkehrsträger (Zahlen von 2007): Mit 81 Verkehrstoten pro Million Einwohner im Jahr liegt die Verkehrssicherheit in Österreich EU-weit im Mittelfeld, deutlich hinter Ländern wie Deutschland oder der Schweiz. Straßenverkehr Das österreichische Straßennetz umfasst (Stand: 1. Jänner 2021): 2.258 km Autobahnen und Schnellstraßen 10.241 km Landesstraßen B (früher Bundesstraßen) 23.608 km Landesstraßen L 90.250 km Gemeindestraßen 126.357 km Summe Rechtliche Rahmenbedingungen In Österreich gilt generell eine Geschwindigkeitsbeschränkung von 130 km/h auf Autobahnen, 100 km/h auf Freilandstraßen und 50 km/h in Ortsgebieten. Auf der Inntalautobahn in Tirol gilt von Zirl bis zur Grenze nach Deutschland ein Limit von 100 km/h. Das Straßennetz ist größtenteils in öffentlicher Hand. Auf Autobahnen und Schnellstraßen werden Personenkraftwagen mit Mautvignetten und die LKW kilometerabhängig (GO-Box) durch die ASFINAG bemautet. Seit 2008 ist vom 1. November bis 15. April bei winterlichen Verhältnissen Winterausrüstung (M&S-Reifen, Mitführen von Schneeketten etc.) vorgeschrieben. Lichtpflicht (Tagfahrlicht): Nur für einspurige Kfz. Vom 15. November 2005 bis 31. Dezember 2007 galt auch für mehrspurige Kraftfahrzeuge das Abblendlicht bzw. Tagfahrlicht tagsüber einzuschalten. Radverkehr Der Anteil des Radverkehrs am gesamten Verkehrsaufkommen ist in Österreich mit rund 7 % im europäischen Mittelfeld (zum Vergleich: Niederlande 27 %, Deutschland 10 %, Schweiz 9 %). Im Masterplan Radfahren 2015–2025 des österreichischen Umweltministeriums wird als Ziel angegeben, den Radverkehrsanteil im Modal Split bis 2025 auf 13 % zu steigern. Schienenverkehr Der größte Teil der Eisenbahnstrecken wird von den Österreichischen Bundesbahnen (ÖBB) betrieben, der größten österreichischen Eisenbahngesellschaft. Ein geringerer Teil sind nicht bundeseigene Eisenbahnen, teilweise privat, teilweise im Besitz der Bundesländer. Die wichtigste Bahnverbindung Österreichs, die Westbahn, wird seit 1990 zwischen Wien und Salzburg zur Hochleistungsstrecke ausgebaut. Schlüsselstellen hierbei sind der Wienerwaldtunnel (die Verbindung zwischen Wien und St. Pölten) und der Lainzer Tunnel (die Wiener Verbindung der Westbahn mit der Süd- und Donauländebahn). Auch die Südbahn wird entsprechend ausgebaut. Der dazu vorgesehene Bau des Semmering-Basistunnels wurde nach jahrelangen Einsprüchen der niederösterreichischen Landesregierung 2012 begonnen. Der Koralmtunnel in Kärnten, eine neue Bahnverbindung zwischen Graz und Klagenfurt, ebenfalls Bestandteil der neuen Südbahnstrecke, ist seit 2009 im Vortrieb. S-Bahnen gibt es in den Regionen rund um Wien und Salzburg, in der Steiermark, in Tirol, Kärnten, Vorarlberg sowie Linz. Wien ist die einzige österreichische Stadt mit einem klassischen U-Bahn-Netz. Straßenbahnen gibt es in den Städten Wien, Gmunden, Graz, Innsbruck und Linz. Die Dorfbahn Serfaus, eine unterirdische Luftkissenschwebebahn in Serfaus in Tirol, wird manchmal auch als kleinste U-Bahn der Welt bezeichnet. Schifffahrt Die bedeutendste Schifffahrtsstraße, sowohl für den Passagier- als auch für den Güterverkehr, ist die Donau (siehe Donauschifffahrt). Der Personenschiffsverkehr, der bereits in der Habsburgermonarchie mit der DDSG als damals größter Binnenreederei der Welt forciert wurde, dient heute hauptsächlich dem Tourismus (z. B. DDSG Blue Danube) und findet auch auf dem Inn und auf den größeren Seen statt. Mit dem Twin City Liner, der Wien mit Preßburg verbindet, existiert eine für Berufspendler interessante Verbindung. Meist werden die Gewässer nur im Sommerhalbjahr befahren. Im Güterverkehr wird fast ausschließlich die Donau genutzt, die durch den Bau des Main-Donau-Kanals wesentlich aufgewertet wurde und so viel Transitverkehr von der Nordsee bis ans Schwarze Meer aufnehmen kann. Hauptsächlich werden Schüttgüter befördert. Die österreichischen Güterhäfen sind Linz, Enns, Krems und Wien. Durch die Erklärung über die Anerkennung des Flaggenrechtes der Staaten ohne Meeresküste von Barcelona aus dem Jahr 1921 hätte Österreich auch die Möglichkeit, Hochseeschifffahrt unter eigener Flagge zu betreiben, übt dieses Recht aber seit 2012 nicht mehr aus. Luftfahrt Die Fluggesellschaft mit den meisten Verbindungen von Wien aus sind die Austrian Airlines. Eng mit ihr innerhalb der Lufthansa Group verbunden ist Eurowings Europe. Ihren Heimatflughafen in Wien haben ebenfalls die Fluglinien EasyJet Europe und People’s. Weitere in Österreich beheimatete Fluggesellschaften existierten teils jahrelang, sind aber mittlerweile ins Ausland verkauft worden oder in andere Gesellschaften aufgegangen. Über große Bekanntheit verfügen etwa die Luftfahrtprojekte von Niki Lauda. Aktiv sind rund ein dutzend Charterflug-Gesellschaften. Wichtigster Flughafen ist der Flughafen Wien-Schwechat / VIE, daneben haben Graz (Flughafen Graz-Thalerhof / GRZ), Linz (Flughafen Linz-Hörsching / LNZ), Klagenfurt (Flughafen Klagenfurt / KLU), Salzburg (Salzburg Airport W. A. Mozart / SZG) und Innsbruck (Flughafen Innsbruck / INN) internationale Verbindungen. Für das Bundesland Vorarlberg stehen die internationalen Flughäfen Altenrhein (CH) und Friedrichshafen (D) zur Verfügung. Von regionaler Bedeutung sind 49 Flugplätze, von denen 31 über keine asphaltierte Landebahn verfügen und von den 18 asphaltierten nur vier eine Landebahn mit über 914 Meter Länge besitzen. Geschichtlich bedeutsam ist davon der Flugplatz Wiener Neustadt, aber auch der aufgelassene Flughafen Wien Aspern. Sie waren die ersten Flugfelder Österreichs, wobei der Flughafen Aspern von seiner Eröffnung 1912 bis zum Ausbruch des Ersten Weltkrieges 1914 als größter und modernster Flughafen Europas galt. Zudem existieren noch mehrere Flugplätze der Österreichischen Luftstreitkräfte wie beispielsweise in Wiener Neustadt, Zeltweg, Aigen/Ennstal, Langenlebarn/Tulln. In Österreich wird die Kontrolle für den oberen Luftraum (ab 28.500 Fuß / 9200 Meter) als Teil des Projekts Single European Sky von derzeit acht mitteleuropäischen Staaten (Österreich, Bosnien und Herzegowina, Tschechien, Kroatien, Ungarn, Italien, Slowenien und Slowakei) zusammengefasst. Dieses CEATS (Central European Air Traffic Services) genannte Programm sieht ein Kontrollzentrum für den gesamten mitteleuropäischen oberen Luftraum (CEATS Upper Area Control Centre, CEATS UAC) vor, das in Fischamend östlich von Wien-Schwechat zu finden sein wird. Die nationalen Belange der Flugsicherung und Zivilluftfahrt erfüllt die staatliche Austro Control Gesellschaft für Zivilluftfahrt mit Sitz in Wien. Energieversorgung Elektrische Energie Elektrische Energie wird überwiegend aus Wasserkraft (knapp unter 60 %), sowohl aus Laufkraftwerken an der Donau, der Enns, Drau und vielen kleineren Laufkraftwerken als auch aus Speicherkraftwerken wie dem Kraftwerk Kaprun oder den Maltakraftwerken gewonnen. Zur Deckung von Spitzenlast werden zusätzlich zu den Speicherkraftwerken auch Gasturbinenkraftwerke betrieben. Insbesondere im Osten Österreichs wird zudem die Windenergie stark ausgebaut. Ende 2022 waren in ganz Österreich 1374 Windkraftanlagen mit einer Gesamtleistung von 3586,2 MW in Betrieb. 2022 wurden rund 12 % des Strombedarfs mit Windkraft gedeckt. Der größte Teil der Windkraftanlagen steht in den Bundesländern Niederösterreich (Ende 2022: 1861,0 MW) und Burgenland (1346,0 MW). Auch die Steiermark leistet einen Beitrag (293,8 MW). Strom aus Kernkraftwerken wird aufgrund des Atomsperrgesetzes nicht hergestellt. In den 1970er Jahren wurde zwar das Kernkraftwerk Zwentendorf errichtet, es ging aber nach einer Volksabstimmung 1978 nie in Betrieb. Die Verteilung erfolgt hauptsächlich durch neun Landesgesellschaften, die auch die letzte Meile zum Endverbraucher haben. Daneben gibt es einige kleinere Versorger, die meist auch im Besitz der öffentlichen Hand sind. Gas- und Ölversorgung Bei der Erdgasversorgung ist Österreich weitgehend vom Ausland abhängig. Zwar gibt es auch in Österreich Erdgasvorkommen, hauptsächlich im Marchfeld und Weinviertel, wo sich auch unterirdische Pufferspeicher als Sicherheitslager befinden, doch tragen diese nur rund 20 % des Jahreserdgasverbrauchs Österreichs bei. Die Hauptversorgung erfolgt aus Russland (70 % der Importe), aus dem Österreich seit 1968 als erstes europäisches Land westlich des Eisernen Vorhangs sein Erdgas bezieht. Fünf große Erdgaspipelines durchqueren Österreich, die auch große Teile West- und Mitteleuropas mit Erdgas versorgen. Hauptimportländer für Erdöl waren 2011 Kasachstan mit 29 %, Nigeria mit 17,1 % und Russland mit 16,1 % Anteil am Gesamtimport. Die einzige Raffinerie befindet sich in Schwechat und wird von der OMV AG betrieben. Die weltgrößte Binnenraffinerie wird außerdem von der Transalpinen Ölleitung und in weiterer Folge von der Adria-Wien Pipeline gespeist. Schule und Ausbildung In Österreich wird das Schulwesen größtenteils durch den Bund geregelt. Abgesehen von Schulversuchen sind deshalb sowohl Schultypen als auch Lehrpläne österreichweit einheitlich. In Österreich besteht Unterrichtspflicht für alle Kinder, die sich in Österreich dauernd aufhalten. Diese beginnt mit dem auf die Vollendung des sechsten Lebensjahres folgenden September. Die allgemeine Unterrichtspflicht dauert neun Schuljahre. Es existiert eine im Verhältnis zur Zahl öffentlicher Schulen geringe Anzahl an Privatschulen. Jene mit Öffentlichkeitsrecht stellen staatsgültige Zeugnisse aus, die Schüler der Schulen ohne Öffentlichkeitsrecht legen Prüfungen vor staatlichen Prüfungskommissionen ab. Auf die vierjährige Volksschule folgt – was in den letzten Jahren gelegentlich als unvorteilhaft kritisiert wird – bereits für zehnjährige Schüler eine wesentliche Entscheidung. Sie besuchen entweder die vierjährige Hauptschule/Mittelschule oder das achtjährige Gymnasium mit abschließender Matura. Nach der achten Schulstufe kann jedoch in eine Berufsbildende höhere Schule (BHS) oder in einen einjährigen Polytechnischen Lehrgang gewechselt bzw. von der Hauptschule kommend fortgesetzt werden. Staatliche Universitäten gibt es in Österreich in der Bundeshauptstadt Wien (8), in den Landeshauptstädten Graz (4), Linz (4), Salzburg (3), Innsbruck (3) und Klagenfurt am Wörthersee sowie in Leoben und Krems. Seit einigen Jahren sind außerdem Privatuniversitäten mit z. T. großer Spezialisierung auch an anderen Orten lizenziert worden. Die Fachhochschule ist eine alternative akademische Ausbildungsform, die in Österreich seit 1994 existiert. Die OECD kritisiert, dass Österreich im internationalen Vergleich zu wenige Akademiker ausbildet und kommt nach ihrer Definition auf 27,6 %. Nach EU-Kriterien liegt der Akademikeranteil allerdings über dem EU-Schnitt, bei 34,6 %. Im PISA-Ranking von 2015 erreichen Österreichs Schüler Platz 20 von 72 Ländern in Mathematik, Platz 26 in Naturwissenschaften und Platz 33 beim Leseverständnis. Österreich liegt im Durchschnitt der OECD-Staaten. Notrufdienste Kostenfrei erreichbar sind nur die staatlich eingerichteten dreistelligen Notrufnummern, wie unter anderen jene unterhalb angeführten. Euronotruf (Notrufnummer 112) Der Euronotruf 112 leitet in Österreich auf den Polizeinotruf 133 (siehe unterhalb) weiter. Feuerwehr (Notrufnummer 122) Das österreichische Feuerwehrsystem basiert fast vollständig auf Freiwilligen Feuerwehren. Nur in den sechs größten Städten wird der Brandschutz von Berufsfeuerwehren wahrgenommen. In manchen Betrieben wird auch behördlich eine Betriebsfeuerwehr vorgeschrieben. Aufgaben der Feuerwehren sind insbesondere der Brandschutz und über den Katastrophenhilfsdienst der Katastrophenschutz, die in die Kompetenz der einzelnen Bundesländer fallen. In der Feuerwehr waren im Jahr 2019 landesweit 341.325 aktive Feuerwehrleute organisiert, die in 5.399 Feuerwachen und Feuerwehrhäusern, in denen 16.509 Löschfahrzeuge und 323 Drehleitern bzw. Teleskopmasten bereitstehen, tätig sind. Der Frauenanteil beträgt sieben Prozent. In der Feuerwehrjugend sind 28.598 Kinder und Jugendliche organisiert. Die österreichischen Feuerwehren wurden im selben Jahr zu 278.672 Einsätzen alarmiert, dabei waren 43.370 Brände zu löschen. Der Bundesfeuerwehrverband repräsentiert die österreichische Feuerwehr im Weltfeuerwehrverband CTIF. Polizei (Notrufnummer 133) Der Bereich öffentliche Sicherheit fällt in Österreich in die Gesetzgebungshoheit des Bundes. Auch in der Vollziehung ist die Sicherheitspolizei überwiegend in der Hand des Bundesministers für Inneres als oberste Sicherheitsbehörde. Eine Ausnahme bilden die örtlichen Sicherheitswachen, die von manchen Gemeinden eingerichtet werden dürfen. Österreichweit wurde 2005 die für ländliche Gebiete zuständige Bundesgendarmerie mit den in den Städten vorhandenen Bundessicherheitswachekorps und den Kriminalbeamtenkorps zum neuen Wachkörper Bundespolizei zusammengelegt. Ziel dieser Maßnahme war, Zweigleisigkeiten in der Organisation zu beseitigen und die Effizienz zu erhöhen. Die Gemeindesicherheitswachen waren von dieser Maßnahme jedoch nicht betroffen. Aufgaben der Sicherheitspolizei sind insbesondere die erste allgemeine Hilfeleistungspflicht und die Aufrechterhaltung der öffentlichen Sicherheit und Ordnung. Daneben kann der Wachkörper Bundespolizei auch für Aufgaben anderer Behörden eingesetzt werden. Rettung (Notrufnummer 144) Das Rettungswesen fällt in Österreich in die Kompetenz der Länder, die Anforderung des verantwortlichen Rettungsdienstes erfolgt jedoch bundeseinheitlich. Wo dieser Notruf eintrifft, ist jedoch schon in den einzelnen Bundesländern verschieden. Außer in der Hauptstadt Wien haben bisher nur die Bundesländer Niederösterreich und Tirol mit einer landesweiten Alarmzentrale direkt Zugriff auf alle einzelnen Hilfsorganisationen im ganzen Land. Aufgaben der Rettungsdienste sind insbesondere der Notfall- und qualifizierte Krankentransport. Als Hilfsorganisationen unterhalten neben dem in ganz Österreich arbeitenden Roten Kreuz Organisationen wie der Arbeiter-Samariter-Bund, die Johanniter-Unfall-Hilfe, der Malteser Hospitaldienst Austria und das Grüne Kreuz Rettungswachen. Wetterdienst Wetterstationen befinden sich über das ganze Land verteilt, in größeren Städten und in allen Landeshauptstädten. Die nationale Einrichtung für meteorologische und geophysikalische Dienste ist die Zentralanstalt für Meteorologie und Geodynamik (ZAMG) mit mehreren Zweigstellen in den Bundesländern. Zusätzlich gibt es noch die Flugwetterdienste oder spezielle Systeme, wie das Blitzortungssystem ALDIS, die auch mit der ZAMG zusammenarbeiten und Daten austauschen. Zusätzlich zu den Wetterdiensten gibt es in den meisten Bundesländern bedingt durch die alpinen Lagen Lawinenwarndienste, die Informationen der meist örtlich eingerichteten Lawinenkommissionen weitergeben. Ein weiterer Dienst, der in den letzten Jahren zunehmend an Bedeutung gewinnt, ist der Hochwasserwarndienst, der vor bevorstehenden Hochwasserereignissen die betroffene Bevölkerung warnt. Er ist bei den jeweiligen Landesregierungen angesiedelt. Medien Die österreichische Medienlandschaft zeichnet sich durch hohes Ausmaß an Konzentration auf wenige Unternehmenskonglomerate und durch starken Staatseinfluss auf die den Radio- und Fernsehmarkt beherrschende öffentlich-rechtliche Radio- und Fernsehanstalt Österreichs aus. Bei der Rangliste der Pressefreiheit 2021, welche von Reporter ohne Grenzen herausgegeben wird, belegte Österreich Platz 31 von 180 Ländern. Öffentlich-rechtlich ist der Österreichische Rundfunk (ORF) mit zwei Vollprogrammen und zwei Spartenprogrammen. Die wichtigsten Privatsender in Österreich sind ATV, Puls 4 und ServusTV. Hinzu kommen einige deutsche Sender der RTL Group, deren Österreichfenster lediglich regionalisierte Werbung senden und der ProSiebenSat.1-Gruppe, letztere mit ergänzenden Sendungen nur für den österreichischen Markt. Der ORF betreibt drei österreichweit sowie neun regional je Bundesland ausgesendete Radiokanäle Ö2. Die wichtigsten und beliebtesten privaten Radiosender sind Kronehit (als einziges bundesweites Programm), Energy Wien in Wien, Radio Soundportal sowie die österreichweite Antenne-Radiokette mit Antenne Steiermark, Antenne Kärnten, Antenne Vorarlberg, Antenne Tirol und Antenne Salzburg. Der „Mediamil-Komplex“, die Kombination des „Zeitungsriesen“ Mediaprint mit der Verlagsgruppe News, gibt die auflagenstärkste Tageszeitung Österreichs, die Kronen Zeitung, die Printmedien NEWS und Profil sowie die Tageszeitung Kurier heraus und ist somit die mächtigste Mediengruppe des Landes. Weitere Tageszeitungen sind beispielsweise Der Standard, Die Presse, Salzburger Nachrichten, Tiroler Tageszeitung, Vorarlberger Nachrichten, Oberösterreichische Nachrichten, Kleine Zeitung, Österreich und die von Montag bis Freitag erscheinende Gratiszeitung Heute. Kommunikation Trotz der schwierigen topografischen Bedingungen besitzt Österreich ein gut ausgebautes Telekommunikationsnetz. Es besteht praktisch eine restlose Netzabdeckung im gesamten bewohnten Bundesgebiet von Festnetz-, Mobiltelefonie und modernen Datendiensten. Zu den größten Anbietern zählen die A1 Telekom Austria, Drei und Magenta Telekom. Durch die hohe Dichte an Anbietern sind die Tarife im Vergleich zu anderen Ländern in Österreich günstiger. Die lückenlose Netzabdeckung in Österreich begründet sich zum Teil darin, dass das Land für Mobilfunkanbieter ideale Voraussetzungen für Technologie- und Marktstudien bietet. Neue Technologien im Bereich Mobilfunk und Datenübertragung werden oftmals zuerst in Österreich eingeführt. Die Resonanz der Bevölkerung gilt als Maßstab für den Erfolg der Technologie in anderen Ländern, in welchen ein derartiger Feldversuch eine weitaus größere finanzielle Belastung erzeugen würde. Breitband-Internetzugang ist in Österreich fast flächendeckend erhältlich. Beim Glasfaser-Ausbau hingegen belegt Österreich 2021 einen hinteren Platz. Mit 5,7 % der ans Glasfasernetz angeschlossenen Haushalte liegt Österreich hinter Deutschland mit 7 %, hinter dem OECD-Durchschnitt mit 35 % und hinter Spitzenreitern wie Japan mit 87 %. Der größte österreichweite Netzbetreiber ist A1, gefolgt von Drei und Magenta. Regionale Datennetze existieren in Ballungsgebieten und häufig auch in Gemeinden oder größeren Gebietsverbänden. 2019 nutzten 88 % der Bevölkerung von Österreich das Internet. Kultur Die österreichische Kultur ist vielschichtig geprägt; es gibt im Land zahlreiche Kulturdenkmale und zwölf UNESCO-Welterbestätten. Im 18. und 19. Jahrhundert war Wien ein Zentrum des Musiklebens. Bis heute bestehen viele Opernhäuser, Theater und Orchester sowie Traditionen wie das Neujahrskonzert der Wiener Philharmoniker und mehreren Festspiele. Darüber hinaus gibt es eine vitale Kabarettszene. Auf kulinarischem Gebiet haben die Wiener Kaffeehauskultur, der Heurige sowie landestypische Gerichte eine lange Tradition. 2003 war Graz europäische Kulturhauptstadt, 2009 Linz. Zur Verbreitung der österreichischen Kultur im Ausland dient das Österreichische Kulturforum. Acht Bauten oder Landschaften Österreichs gehören zum UNESCO-Welterbe. Bräuche Regionale Bräuche werden von Vereinen in ganz Österreich aufrechterhalten. Bräuche umfassen vor allem Musik, Tanz, Theater, Dichtung, Schnitzerei und Stickarbeiten. Eine große Anzahl von lokalen Bräuchen und Riten steht in Zusammenhang mit den Jahreszeiten (z. B. Aperschnalzen, Glöckler, Kathreintanz, Kufenstechen, Mariä Lichtmess, Fasching). Eine lange Tradition hat in Österreich neben der Musik und den Tänzen die traditionsreiche Textilindustrie. Stickerei findet in der Verzierung von Trachten Verwendung wie bei Dirndl und Loden. Feiertage und Feste Aufgrund der stark katholisch geprägten Geschichte sind die meisten Feiertage auf Bundes- sowie Landesebene religiöse Feiertage, wobei in den einzelnen Bundesländern die Namenstage der Landespatrone als Landesfeiertage begangen werden. Eine Ausnahme davon ist Kärnten, wo die Volksabstimmung von 1920 auch zum gesetzlichen Landesfeiertag erklärt wurde. Zusammen mit allen Sonntagen gelten die Feiertage als Tage der Arbeitsruhe und der seelischen Erhebung. Gemeinsame Feiertage sind Neujahr, Heilige Drei Könige, Karfreitag (nur für Angehörige evangelischer Religionen), Ostermontag, 1. Mai, Christi Himmelfahrt, Pfingstmontag, Fronleichnam, Mariä Himmelfahrt, Allerheiligen, Mariä Empfängnis, Christtag und Stephanitag. Der Heilige Abend und Silvester sind keine Feiertage, aber durch kollektivvertragliche Regelungen arbeitsfrei oder teilweise arbeitsfrei. Der Nationalfeiertag findet am 26. Oktober statt, dem Tag der gesetzlichen Beschlussfassung der immerwährenden Neutralität im Jahre 1955. Länderspezifische Feiertage mit eingerechnet hat 2013 jedes Bundesland 14 gesetzliche Feiertage außer Kärnten (15 mit dem Tag der Volksabstimmung). Zudem steht es jeder religiösen Gemeinde frei, ihre eigenen Feiertage zu begehen und Angehörige lassen ihre Arbeit an dem Tag ruhen. So feiern etwa die israelitischen Kultusgemeinden Jom Kippur unabhängig davon, dass es nicht als gesetzlicher Feiertag gilt. Neben den religiös motivierten Feiertagen gibt es eine Vielzahl lokaler Feste. So haben im Sommer besonders im ländlichen Raum Zeltfeste Tradition. Auch regelmäßig stattfindende Musikfestivals der Hoch- und populären Kultur besitzen ein bestimmtes Ausmaß an Festcharakter. Einen hohen Stellenwert in der Festkultur nimmt die Ballsaison ein, die mit den Maturabällen der Mittleren Schulen oft schon im November beginnt, und wiederholt finden auch noch nach Aschermittwoch Vereinsbälle statt. Als ein Höhepunkt der Ballsaison ist besonders der traditionelle Wiener Opernball zu sehen. Musik Komponisten der klassischen und der romantischen Epoche sind etwa Wolfgang Amadeus Mozart aus Salzburg und der aus Bonn gebürtige Ludwig van Beethoven, die beide in Wien wirkten, außerdem Joseph Haydn, Franz Schubert, Anton Bruckner, Franz Liszt oder der als „Walzerkönig“ titulierte Johann Strauss (Sohn). Die Musik des 20. Jahrhunderts revolutionierten Gustav Mahler und die Komponisten der „Neuen Wiener Schule“ Arnold Schönberg, Alban Berg und Anton Webern, aber auch Josef Matthias Hauer, der die tatsächliche Erfindung der 12-Ton-Musik für sich in Anspruch nimmt, sowie Ernst Krenek oder Egon Wellesz. Dieser Tradition großer Komponisten aus dem Gebiet der k. u. k. Monarchie folgten international bedeutende Dirigenten wie Arthur Nikisch, Felix Weingartner, Franz Schalk, Erich Kleiber, Karl Böhm, Hans Rosbaud, Herbert von Karajan, Michael Gielen, Nikolaus Harnoncourt und Franz Welser-Möst. Auf dem Gebiet der zeitgenössischen Musik konnten sich György Ligeti, Friedrich Cerha oder Georg Friedrich Haas, H. K. Gruber und Bernhard Lang etablieren. In der „leichten Muse“ hat das Neujahrskonzert der Wiener Philharmoniker lange Tradition. Es wird im Rundfunk und Fernsehen in mehr als 40 Staaten übertragen; gespielt werden dabei Walzer, Polkas und Märsche, dabei regelmäßig vor allem solche von Johann Strauss (Sohn). Die Operette ist eine in Österreich ernst genommene Kunstform, und die k. u. k. Monarchie mit ihren Nachfolgestaaten hat die Mehrzahl ihrer bekanntesten Vertreter hervorgebracht: neben den Mitgliedern der Strauss-Familie, Carl Millöcker, Oscar Straus, Edmund Eysler, Nico Dostal, Fred Raymond, Robert Stolz stammen aus dem Territorium des heutigen Österreich, Franz von Suppè, Franz Lehár, Emmerich Kálmán, Leo Fall, Paul Abraham, Ralph Benatzky aus anderen Teilen der ehemaligen Monarchie. Im populären Musiksektor sind Bands und Einzelinterpreten aus dem speziellen österreichischen Genre Austropop äußerst erfolgreich, dabei besonders Interpreten wie Wolfgang Ambros, Georg Danzer, Rainhard Fendrich und Stefanie Werger sowie die Bands Erste Allgemeine Verunsicherung und S.T.S. International erfolgreich war Falco unter anderem mit Rock Me Amadeus. Eine erfolgreiche Österreicherin auf dem Chartsektor war Christina Stürmer. Udo Jürgens galt als Ikone auf dem Gebiet des deutschsprachigen Chansons, er gewann 1966 den Eurovision Song Contest, diesen Erfolg wiederholte Conchita Wurst im Jahr 2014. Joe Zawinul, der gemeinsam mit dem US-Amerikaner Miles Davis die Stilrichtung des Electric Jazz entwickelte, gilt als der bislang einzige europäische Musiker, der in der Geschichte des Jazz von stilprägender Bedeutung war. Seine Gruppe Weather Report zählt in Fachkreisen und beim Publikum als die bedeutendste Jazzformation der 1970er und 1980er Jahre. Großer Beliebtheit erfreut sich sowohl die Volksmusik mit ihren regionalen Formen als auch die volkstümliche Musik. Vertreter des letzteren Genres finden in der erfolgreichen Fernsehproduktion Musikantenstadl ein internationales Publikum. Neben dem Mainstream entwickelten sich im populären Musikbereich auch alternative Musikgruppen, die auch europaweit szenebekannt sind. Dazu zählen beispielsweise die Linzer Electroswing-Band Parov Stelar, die Linzer Hip-Hopper Texta, das Downbeat-Duo Kruder & Dorfmeister, die Songwriterin Soap&Skin oder die Metal-Bands Belphegor aus Salzburg, L’Âme Immortelle oder Summoning. Theater Das Theater als Kunstform findet in Österreich viel Anklang und auch viel öffentliche Förderung: von der Wiener Staatsoper, einem der angesehensten Musiktheater der Welt, und vom Burgtheater, als eine der besten deutschsprachigen Bühnen bezeichnet, bis zum Bauerntheater im Dorf. Zu den ständig bespielten Bühnen in Wien, Salzburg, Graz, Innsbruck, Linz, Klagenfurt, Bregenz und St. Pölten kommen Theater- und Opernfestivals von den Bregenzer Festspielen und den Salzburger Festspielen bis zu den Seespielen in Mörbisch am See im Burgenland. In Wien besteht dazu eine Szene an Kabaretts, Kleinbühnen, Kellertheatern und der Alternativkultur gewidmeten Spielstätten. In St. Pölten wurde, nachdem es 1986 zur Landeshauptstadt erhoben worden war, ebenfalls ein Theater, das Festspielhaus St. Pölten errichtet. In Wien wurde die Musicalbühne Theater an der Wien aus Anlass des Mozartjahrs 2006 zum Operntheater umgestaltet und ist seither das dritte große Opernhaus in der Stadt; weiters wurde bis 2008 das Ronacher-Theater zur Musicalbühne ausgebaut. In Linz wurde 2012 ein neues Musiktheater eröffnet. Die österreichische Theaterliteratur der letzten Jahrzehnte umfasst u. a. Peter Handkes mittlerweile legendäre „Publikumsbeschimpfung“, Wolfgang Bauers Aufreger „Silvester oder das Massaker im Hotel Sacher“, Fritz Hochwälders NS-Aufarbeitung „Der Himbeerpflücker“ und Thomas Bernhards Drama „Heldenplatz“, in dem er katholisch-reaktionäre Züge des Österreich von 1988 mit dem enthusiastischen Empfang Hitlers auf dem Wiener Heldenplatz 1938 vergleicht. Als dieses Stück 1988 unter der Regie von Claus Peymann am Burgtheater Premiere hatte, inszenierten konservative Kreise den bis heute größten Theaterskandal seit 1945. Aus Österreich stammen international bekannte Schauspieler: Christoph Waltz, Arnold Schwarzenegger, Romy Schneider, Oskar Werner, Curd Jürgens, Maria Schell, O. W. Fischer, Paula Wessely und ihre Tochter Christiane Hörbiger, Maximilian Schell, Senta Berger und Klaus Maria Brandauer. Unter den auch im Ausland geschätzten Regisseuren sind Max Reinhardt und Martin Kušej zu nennen. Als Kabarettisten wurden Karl Farkas und Helmut Qualtinger zu „Klassikern“. Eine für das Theater in Österreich wesentliche Gegebenheit ist der ständige personelle und kulturelle Austausch unter den Theatern des deutschsprachigen Raumes, insbesondere mit Deutschland. Dadurch werden für die großen Talente Österreichs die beschränkten Karrierechancen im Heimatland kompensiert. Kabarett Film Es gibt eine Reihe von international renommierten österreichischen Filmschaffenden, darunter diverse Preisträger. Zu den bekanntesten Österreichern im Filmgeschäft gehören Christoph Waltz, Arnold Schwarzenegger, Michael Haneke, Fritz Lang, Senta Berger, Franz Novotny, Hundans Weingartner. Literatur Namhafte Autorinnen und Autoren des 19. und 20. Jahrhunderts waren Franz Grillparzer, Ferdinand Raimund, Johann Nestroy, Leopold von Sacher-Masoch, Adalbert Stifter, die 1905 mit dem Friedensnobelpreis geehrte Bertha von Suttner, Marie von Ebner-Eschenbach, Peter Rosegger, Peter Altenberg, Hugo von Hofmannsthal, Rainer Maria Rilke, Georg Trakl, Franz Kafka, Karl Kraus, Ödön von Horváth, Joseph Roth, Stefan Zweig, Robert Musil, Gustav Meyrink, Franz Werfel, Egon Erwin Kisch, Alfred Kubin, Fritz von Herzmanovsky-Orlando, Leo Perutz, Alfred Polgar, Vicki Baum, Alexander Lernet-Holenia, Heimito von Doderer, Franz Theodor Csokor, Ingeborg Bachmann, Christine Lavant, Friedrich Torberg, Fritz Hochwälder, Jörg Mauthe, Thomas Bernhard, Ernst Jandl, H. C. Artmann, Hilde Spiel, Albert Drach, Wolfgang Bauer, Johannes Mario Simmel, Gert Jonke, Gertrud Fussenegger, Gernot Wolfgruber und Franz Innerhofer. Wichtige lebende Schriftsteller sind Elfriede Jelinek, Peter Handke (beide Nobelpreisträger), Felix Mitterer, Friederike Mayröcker (Büchnerpreis 2001), Christoph Ransmayr, Barbara Frischmuth, Alois Brandstetter, Peter Rosei, Norbert Gstrein, Eva Menasse, Robert Menasse, Wolf Haas, Bettina Balàka, Arno Geiger, Josef Winkler (Büchnerpreis 2008), Gerhard Roth und Daniel Kehlmann. Auf Slowenisch schreiben u. a. Gustav Januš, Janko Ferk und Florjan Lipuš, der von Peter Handke ins Deutsche übersetzt wurde. Bildende Kunst Die Malerei in Österreich erlangte nach 1700 mit Johann Michael Rottmayr, Daniel Gran, Paul Troger und Franz Anton Maulbertsch größere Bedeutung. Einen Höhepunkt erreichte sie um 1900, als Wien zu einem Zentrum des Jugendstils wurde. Zu den bedeutendsten Vertretern zählten Gustav Klimt, Koloman Moser, Oskar Kokoschka und Egon Schiele. In der zweiten Hälfte des 20. Jahrhunderts entstand die Wiener Schule des Phantastischen Realismus als eine späte Strömung des Surrealismus. In dieses Umfeld gehört auch Friedensreich Hundertwasser mit seinen abstrakt-dekorativen Bildern. In den 1960er Jahren entwickelte sich im Grenzbereich von Theater und Malerei der Wiener Aktionismus. Zu dessen bedeutendsten Vertretern zählten Valie Export, Arnulf Rainer, Günter Brus, Rudolf Schwarzkogler und Hermann Nitsch. Bedeutende Bildhauer oder Skulptoren waren Niclas Gerhaert van Leyden, Franz Xaver Messerschmidt, Fritz Wotruba, Alfred Hrdlicka und Bruno Gironcoli und Franz West. Wissenschaft und Technik Österreich war in den ersten drei Jahrzehnten des 20. Jahrhunderts eine bedeutende Wissenschaftsnation. Es brachte Denker und Forscher hervor wie: die Begründer der Quantenphysik Wolfgang Pauli und Erwin Schrödinger den Mathematiker Kurt Gödel den Physiker: Ernst Mach die Chemiker Carl Josef Bayer, Carl Auer von Welsbach, Max Ferdinand Perutz und Theodor Wagner-Jauregg den Begründer der Psychoanalyse Sigmund Freud die Psychiater Julius Wagner-Jauregg, Alfred Adler und Viktor Frankl die Ärzte der Wiener Medizinischen Schule die Philosophen des Wiener Kreises und Ludwig Wittgenstein den Begründer der modernen empirischen Sozialforschung Paul Felix Lazarsfeld den Vater der Tierpsychologie Konrad Lorenz den Philosophen Karl Popper den Automobilbauer Ferdinand Porsche die Erfinder Viktor Kaplan und Josef Ressel die Wegbereiter der Thermodynamik Josef Stefan und Ludwig Boltzmann einen der Wegbereiter der Benzol-Struktur Josef Loschmidt den Entdecker der Blutgruppen Karl Landsteiner den Retter der Mütter Ignaz Semmelweis sowie die Ökonomen Carl Menger, Friedrich August von Hayek und Eugen Böhm von Bawerk Die Kernphysikerin Lise Meitner entwickelte gemeinsam mit Otto Frisch die erste theoretische Erklärung der Kernspaltung. Das wissenschaftliche Niveau dieser Zeit wurde im Nationalsozialismus zerstört. Nach 1945 wurden nur wenige exilierte Wissenschaftler, später als Koryphäen ihrer Fächer anerkannt, zur Rückkehr nach Österreich eingeladen. Das Begabtenreservoir in Böhmen, Mähren und Ungarn, das der österreichischen Wissenschaft lang zur Verfügung gestanden war, wurde wegen des Eisernen Vorhangs nicht mehr nutzbar. In den 1950er Jahren wurde von den Ingenieuren der voestalpine das sogenannte Linz-Donawitz-Verfahren entwickelt, das die Stahlproduktion weltweit revolutionierte. Hervorzuheben sind auch die Geländefahrzeuge Haflinger und Pinzgauer, die in der Steyr Daimler Puch AG konstruiert wurden, sowie das Steyr AUG, ein Sturmgewehr, das in vielen Armeen der Welt und sogar vom US-Heimatschutzministerium eingesetzt wird. Die in Österreich entwickelte Glock-Pistole ist eine weltweit (Österreich, Deutschland, USA) verbreitete Polizeipistole. Wirtschaftlich erfolgreich haben sich Unternehmen in der produkt- bzw. anwendungsbezogenen Forschung stark spezialisiert und sind heute in der Technik weltweit erfolgreich, z. B. Rosenbauer, Wienerberger, Anton Paar, AVL List, Fronius Zwischen 1971 und 2013 bestand in Österreich ein eigenes Wissenschaftsministerium. Die Österreichische Akademie der Wissenschaften, das Austrian Institute of Technology, die Forschungsgesellschaft Joanneum Research und andere vom Staat geförderte Institutionen stimulieren und koordinieren wissenschaftliche Forschung. Seit den neunziger Jahren sind private Universitäten zugelassen. 1874 entdeckte der Astronom Johann Palisa einen Asteroiden und benannte ihn nach seinem Heimatland (Asteroid Austria). Küche Bedingt durch die österreichische Geschichte haben vor allem Kochkünste aus Ungarn, Böhmen, Italien und Frankreich Einfluss auf heute typisch österreichische Gerichte. Ergänzt wird das Angebot durch traditionelle regionale Kochkunst aus den Bundesländern. Typische Gerichte sind der Tafelspitz, das Wiener Schnitzel, Steirisches Backhendl, Brathendl, Gulasch und Fischgerichte wie Karpfen und Forelle. Weltweite Bekanntheit haben Süßspeisen erlangt, so zum Beispiel die Sachertorte, der Apfelstrudel und der Kaiserschmarrn. Die Essenseinnahme erfolgte bis vor wenigen Jahren vorwiegend zu Hause. Heute essen – vor allem in den größeren Städten – viele Menschen häufig in Gaststätten, Restaurants, Kaffeehäusern, an Würstelständen und Döner-Imbissen, in Filialen von Fastfoodketten oder auf der Straße oder in öffentlichen Verkehrsmitteln. Sich ausbreitender Hedonismus führte seit den achtziger Jahren zu verstärkter Publikation gastronomischer Führer, Tipps und Rangreihungen, zu Medienberichten über Neueröffnungen von Lokalen und zu mehr gastronomiebezogenen Fernsehsendungen als jemals zuvor. Davon erfasste Lokale sind einige Zeit „in“ und erreichen überdurchschnittliche Gästefrequenz. Davon erfasste Gastronomen erreichen beachtliche Medienpräsenz und -prominenz, beispielsweise Sissy Sonnleitner, Reinhard Gerer, Toni Mörwald und Heinz Reitbauer. Der steirische Koch Johann Lafer ist vor allem in deutschen Fernsehsendungen stark präsent. Traditionell gepflegte Kaffeevariationen bilden das Sortiment der Kaffeehäuser, die sich nach dem Muster des Wiener Kaffeehauses heute in ganz Österreich finden. Die ersten Kaffeehäuser wurden in Wien kurz nach dem Jahr 1683 eingerichtet. Heute sind sie zumeist Café-Restaurants, in denen die Kaffeehaustradition mit dem Angebot des „bürgerlichen Speisehauses“ kombiniert wird. Große Tradition hat der Weinanbau, der in Wien, Niederösterreich, der Steiermark und dem Burgenland betrieben wird. Innereuropäisch und auch in Übersee erfreut sich der österreichische Wein großer Beliebtheit, und auch im Land selbst wird mit knapp 40 Liter pro Kopf und Jahr gern Wein getrunken. War zuvor hauptsächlich Massenproduktion (im „Doppler“, der Zweiliterflasche) üblich, so haben sich seit den 1980er-Jahren viele Winzer auf die Produktion von Qualitätsweinen spezialisiert, die bei internationalen Blindverkostungen hervorragend abschneiden. Im Zuge dieser Entwicklung wurde österreichischen Rotweinen wesentlich mehr Beachtung geschenkt als früher. In den Weinbau treibenden Bundesländern hat sich im 19. Jahrhundert eine Heurigenkultur entwickelt, die bis heute für unkomplizierte, informelle Gastronomie steht und auch bei Touristen beliebt ist. Hier dominiert beim Speiseangebot das kalte und warme Buffet, beim Weinangebot der junge Wein der letzten Ernte. Bier wird medial kaum beachtet, ist aber als Alltagsgetränk in Österreich wichtig. Mit knapp 109 Litern Verbrauch pro Kopf und Jahr und mit 140 Brauereien – darunter überregionale Traditionsmarken wie Gösser, Hirter, Ottakringer, Puntigamer, Schwechater, Stiegl und Zipfer – darf sich Österreich als Biernation bezeichnen. Sport Der Sport in Österreich war und ist oft politisiert. So war Österreich die Heimat des antisemitischen Deutschen Turnerbundes und einiger der mitgliederstärksten Arbeiterturnverbände. Seit 2008 stellt Österreich den Vorsitzenden des internationalen Arbeitersports Confédération Sportive Internationale du Travail (CSIT). Wintersport Aufgrund seiner Geographie zählt Österreich in mehreren Wintersportarten zur Weltspitze, wie etwa in alpinen Ski-Bewerben, im Skispringen oder im Snowboarden. Der Wintersport genießt in Österreich einen hohen Stellenwert und dessen Fernsehübertragungen, vor allem jene der Ski-Alpin-Bewerbe, erreichen weite Teile der Bevölkerung. Bekannte Ski-Sportler der letzten Jahre sind etwa Marcel Hirscher, Benjamin Raich, Anna Veith (geborene Fenninger), Marlies Schild und Hannes Reichelt. Erfolgreiche und bekannte Skifahrer und Skifahrerinnen der Vergangenheit sind Toni Sailer, Karl Schranz, Franz Klammer, Stephan Eberharter, Annemarie Moser-Pröll, Petra Kronberger, Hermann Maier, Renate Götschl und Michaela Dorfmeister. Auch der Fernsehmoderator Armin Assinger und der Schlager-Star Hansi Hinterseer zählten einst zu der Weltspitze der Skirennläufer. Weitere erfolgreiche Wintersportler sind beispielsweise die Rodler Wolfgang und Andreas Linger und das österreichische Skisprung-Team um Gregor Schlierenzauer, Thomas Morgenstern und Andreas Kofler, das in den letzten Jahren Olympia- und Weltcup-Siege für sich verbuchen konnte. Nicht mehr aktive Skisprung-Größen wie Anton Innauer, Hubert Neuper oder auch Andreas Goldberger sind heute als Trainer und oft auch als Fernsehmoderatoren tätig. Der ehemalige Rodler Markus Prock ist jetzt als Manager für aktive Wintersportler tätig. Sommersport Auch im Sommersport, bzw. ganzjährig ausübbaren Sportarten kann Österreich immer wieder nennenswerte Erfolge für sich verbuchen, doch erreichen diese, bis auf den Fußball, bei weitem nicht die Reichweite des Wintersports, gemessen am Interesse der Bevölkerung. Bei Erfolgen im Zuge von Großereignissen wie den Olympischen Spielen oder Weltmeisterschaften gelangen diese Sportarten naturgemäß dennoch ins mediale Rampenlicht. Derartige Sportarten, in welchen Österreicher regelmäßig zu den potenziellen Siegesanwärtern zählen, sind vor allem der Segelsport (Roman Hagara, Hans-Peter Steinacher), Judo (Peter Seisenbacher, Ludwig Paischer, Sabrina Filzmoser, Claudia Heill), Triathlon (Kate Allen), Boxen (Marcos Nader, Hans Orsolics), Kickboxen (Günter Singer, Fadi Merza), Schwimmen (Mirna Jukić, Markus Rogan, Dinko Jukić), Beachvolleyball (Europameister 2003 und 2007) sowie die Formel 1 (Ex-Rennfahrer Niki Lauda, Jochen Rindt, Gerhard Berger und der Rennstall Red Bull Racing). Im Jahr 1988 konnte Peter Seisenbacher als erster Judoka seinen Olympiasieg von 1984 im Mittelgewicht (-86 kg) wiederholen. 1996 wurde Thomas Muster als erster Österreicher überhaupt Nummer 1 der Tennisweltrangliste, nachdem er ein Jahr zuvor den Titel von Paris – die French Open, ein Grand-Slam-Turnier – gewonnen hatte. Im Jahr 2003 holte Werner Schlager den Weltmeistertitel im Tischtennis, im Dezember 2005 erschwamm Markus Rogan bei den Kurzbahneuropameisterschaften über 200 m Rücken einen neuen Weltrekord, den ersten für Österreich seit 1912. Bei der Kurzbahn-WM 2008 schwamm er über dieselbe Strecke erneut Weltrekord und wurde damit Österreichs erster Schwimmweltmeister überhaupt. Die Austrian Open ist ein Golfturnier der PGA European Tour genannten Turnierserie. Vereinssport Der Vereinssport besitzt in Österreich einen hohen Stellenwert. In vielen Gemeinden und Städten sind mehr als die Hälfte der Einwohner in Vereinen sportlich aktiv. Vor allem der Fußball besitzt lange Tradition, aber auch weniger bekannte Sportarten stoßen mancherorts auf regen Zulauf. So zählt Österreich beispielsweise im Faustball (besonders Vereine aus Oberösterreich) zur Weltspitze und wurde 2007 erstmals Herren-Weltmeister, hat außerdem eine der besten American-Football-Ligen weltweit, und manche der an der Donau oder an größeren Seen gelegenen Gemeinden haben eigene Wassersportvereine. Hypo Niederösterreich zählt im Frauenhandball zurzeit ebenso zur europäischen Spitze wie die Vienna Vikings im American Football. Größte Erfolge im Fußball in jüngerer Vergangenheit waren das Erreichen des Finales im UEFA-Cup durch den SV Austria Salzburg 1994 sowie die drei Endspielteilnahmen im Europacup der Cupsieger durch die Wiener Austria 1978 und SK Rapid Wien in den Jahren 1985 und 1996. International erfolgreiche Vereine aus Österreich American Football: Vienna Vikings, Swarco Raiders Tirol, Graz Giants Eishockey: heute: EC Red Bull Salzburg, Vienna Capitals, EC KAC damals: VEU Feldkirch Faustball: FG Grieskirchen/Pötting, Union Arnreit Fußball: SK Rapid Wien, FK Austria Wien, FC Red Bull Salzburg, SK Sturm Graz Handball: Hypo Niederösterreich, HC Linz AG, SG Handball West Wien Hockey: AHTC, SV Arminen, WAC, HC Wels Tischtennis: SVS Niederösterreich, Linz AG Froschberg Volleyball: HotVolleys Wien Internationale Sportveranstaltungen Österreich war bisher dreimal Veranstalter Olympischer Spiele (Olympische Winterspiele in Innsbruck 1964 und 1976 sowie 1. Olympische Jugend-Winterspiele 2012 in Innsbruck). Insgesamt holten österreichische Sportler 71 Gold-, 88 Silber- und 91 Bronzemedaillen in der Geschichte Olympischer Winterspiele sowie 27 Gold-, 40 Silber- und 47 Bronzemedaillen bei Olympischen Sommerspielen (Stand: September 2022). Bei den Olympischen Winterspielen 2018 in Pyeongchang gewann das österreichische Team fünf Gold-, drei Silber- und sechs Bronzemedaillen. Bei den Olympischen Sommerspielen 2016 wurde durch das Segelteam Tanja Frank und Thomas Zajac eine Bronzemedaille erkämpft. Die Eishockey-Weltmeisterschaft fand 1964 in Innsbruck statt, 1967, 1977, 1987, 1996 und 2005 in Wien. Die Schwimmeuropameisterschaften fanden 1950, 1974 und 1995 in Wien statt. Die ersten Eiskunstlauf-Europameisterschaften der Sportgeschichte fanden 1892 in Wien statt, bis zum Jahr 2000 fanden acht weitere Europameisterschaften in Wien statt, die EM 1981 in Innsbruck. Vom 7. bis 29. Juni 2008 war Österreich gemeinsam mit der Schweiz Veranstalter der Fußball-Europameisterschaft 2008. Die auf Österreich entfallenden Spiele fanden in Wien, Salzburg, Innsbruck und Klagenfurt statt, das Finale war in Wien. 2010 (allein) und 2020 (gemeinsam mit Schweden und Norwegen) war man zudem Veranstalter bzw. Mitveranstalter der Handball-Europameisterschaft der Männer. 2010 spielte man in Wr. Neustadt, Graz, Linz, Innsbruck und Wien, wo auch die Finalspiele stattfanden, 2020 in Graz und Wien (die Finalspiele fanden in Stockholm statt). Siehe auch Literatur Walter Kleindel unter Mitarbeit von Hans Veigl: Das große Buch der Österreicher. 4500 Personendarstellungen in Wort und Bild. Namen, Daten, Fakten. Kremayr & Scheriau, Wien 1987, ISBN 3-218-00455-1. Elisabeth Lichtenberger: Austria – Society and Regions. Austrian Academy of Sciente Press, Wien 2000, 491 S. Ernst Bruckmüller: Sozialgeschichte Österreichs. Verlag für Geschichte und Politik, Wien 2001, ISBN 3-7028-0361-0. Friedrich Heer: Der Kampf um die österreichische Identität. Böhlau, Wien 2001, ISBN 3-205-99333-0. Ingeborg Auer u. a.: ÖKLIM – Digitaler Klimaatlas Österreichs. In: Christa Hammerl u. a. (Hrsg.): Die Zentralanstalt für Meteorologie und Geodynamik 1851–2001. Leykam, Wien 2001, ISBN 3-7011-7437-7. Elisabeth Lichtenberger; Österreich – Geographie. Geschichte, Wirtschaft Wissenschaftliche Buchgesellschaft, Darmstadt 2. überarb. A. 2002, ISBN 3-534-08422-5, 400 S. Österreichische Nationalbibliothek: Österreichische Bibliographie: Verzeichnis der österreichischen Neuerscheinungen. Wien 1946–2002. Seit 2003 Online-Ausgabe. Robert und Melita Sedlaczek: Das österreichische Deutsch. Wie wir uns von unserem großen Nachbarn unterscheiden. Ueberreuter, München 2004, ISBN 3-8000-7075-8. Richard und Maria Bamberger, Ernst Bruckmüller, Karl Gutkas (Hrsg.): Österreich-Lexikon. Verlagsgemeinschaft Österreich-Lexikon, Wien 2004, ISBN 3-85498-385-9 – Fortgeführt als Online-Ausgabe. Erwin Ringel: Die österreichische Seele: Zehn Reden über Medizin, Politik, Kunst und Religion. Neuauflage. Kremayr & Scheriau, Wien 2005, ISBN 3-218-00761-5. Harald Fidler: Österreichs Medienwelt von A–Z. Das komplette Lexikon mit 1000 Stichwörtern von Abzockfernsehen bis Zeitungssterben. Falter, Wien 2008, ISBN 978-3-85439-415-0. Geschichte Herwig Wolfram (Hrsg.): Österreichische Geschichte. 14 Bände. Ueberreuter, Wien 1994–2006. Karl Vocelka: Geschichte Österreichs. Kultur – Gesellschaft – Politik. Heyne, München 2002, ISBN 3-453-21622-9. Peter Berger: Kurze Geschichte Österreichs im 20. Jahrhundert. 2. verb. Auflage. Facultas Universitätsverlag, Wien 2008, ISBN 978-3-7089-0354-5. Ernst Bruckmüller: Österreichische Geschichte. Von der Urgeschichte bis zu Gegenwart. Wien 2019, ISBN 978-3-205-20871-6. Michael Gehler, Maximilian Graf (Hrsg.): Österreich und die deutsche Frage 1987–1990. Vandenhoeck & Ruprecht, Göttingen 2018, ISBN 978-3-525-35587-9. Peter Thaler: The Ambivalence of Identity: The Austrian Experience of Nation-Building in a Modern Society. West Lafayette, Ind.: Purdue University Press, 2001. ISBN 978-1-55753-201-5. Weblinks Informationsplattform der öffentlichen Verwaltung der Republik Österreich Offizielle Statistiken der Statistik Austria Einzelnachweise Binnenstaat Mitglied des Europarats Mitgliedstaat der Europäischen Union Parlamentarische Bundesrepublik (Staat) Region in Europa Staat in Europa Mitgliedstaat der Vereinten Nationen Mitgliedstaat der OECD Ersterwähnung 996 Verwaltungseinheit als Namensgeber für einen Asteroiden Träger des Erasmuspreises
Q40
7,715.805561
8503
https://de.wikipedia.org/wiki/Nepal
Nepal
Nepal (österreichisches Hochdeutsch: nur []; bundesdeutsches Hochdeutsch: auch []; , amtlich Demokratische Bundesrepublik Nepal) () ist ein Binnenstaat in Südasien. Er liegt zwischen der Volksrepublik China und Indien und hat mehr als 30 Millionen Einwohner, die über 100 verschiedenen Volksgruppen angehören und zu etwa 80 % Hinduisten sind. In dem ehemaligen Königreich wurde am 28. Mai 2008 die Republik ausgerufen. Die Situation bezüglich Demokratie und Menschenrechten hatte sich dadurch ein wenig gebessert, ist aber bis heute durchwachsen. 2021 erlitt Nepal eine Verfassungskrise. Geographie Lage Nepal befindet sich in Südasien und erstreckt sich ca. vom 26. bis 30. nördlichen Breiten- und vom 80. bis 88. östlichen Längengrad. Nepal umfasst eine Fläche von 147.516 Quadratkilometern, wovon etwa 143.000 Quadratkilometer Landfläche und die restlichen 4.000 Quadratkilometer Binnengewässer sind. Die Ost-West-Ausdehnung beträgt 885 Kilometer und die maximale Nord-Süd-Ausdehnung, die in Westnepal erreicht wird, rund 241 Kilometer. Nepal liegt zwischen der Region Tibet im Norden und Indien im Süden. Nepal grenzt (von West nach Ost) an die indischen Bundesstaaten Uttarakhand, Uttar Pradesh, Bihar, Westbengalen sowie an das der Indischen Union beigetretene ehemalige Königreich Sikkim an. Im Norden und im Osten liegt ein Großteil des Himalaya-Gebirges, unter anderem der Mount Everest, dessen Gipfel mit 8848 Metern den höchsten Punkt der Erde darstellt. Sieben der weiteren zehn höchsten Berge der Erde befinden sich ebenfalls in Nepal. Der tiefste Punkt dagegen liegt auf 70 Meter bei Kencha Kalan (Kechana Kawal im Distrikt Jhapa) im äußersten Südosten Nepals. Über 40 Prozent der Landesfläche liegen über 3000 Meter. Damit ist Nepal der durchschnittlich höchstgelegene Staat der Welt, während das Hochland von Tibet eine durchschnittliche Höhe von 4500 Metern erreicht. Himalaya Der Himalaya ist erdgeschichtlich mit etwa 45 Millionen Jahren ein relativ junges Faltengebirge, daher ist es weniger durch Erosion abgerundet und geglättet als andere Gebirge. Die Flüsse münden nicht alle in den Ganges, die größten entspringen aber nördlich der Himalaya-Hauptkette und haben sich während der Gebirgshebung antezedente Durchbruchstäler gegraben. Das des Kali Gandaki ist mit etwa 6000 Metern – gemessen an den sich dort gegenüberstehenden Achttausendern Dhaulagiri () und Annapurna () – das tiefste Tal der Erde. Dieses gesamte Gebiet ist kaum besiedelt und ein beliebtes Reiseziel für Trekkingtouristen und Bergsteiger. Von 1950 bis 2005 verunglückten im nepalesischen Himalaya 832 Bergsteiger tödlich, etwa jeder hundertste Expeditionsteilnehmer auf Bergen ab 6000 Meter Höhe. Gliederung des Landes Naturräumlich lässt sich Nepal in drei Hauptregionen gliedern, das südliche Terai, das Mittelland und die Hochgebirgsregion. Mit dieser Gliederung sind auch sozioökonomische, kulturelle und ethnische Aspekte verbunden. Das Terai Das Terai bildet den nepalesischen Teil der Gangestiefebene. Es hat sich in den vergangenen 50 Jahren zu einem bedeutenden Wirtschafts- und Siedlungsraum entwickelt. Obwohl das Terai nur 14 % der Landesfläche ausmacht, leben dort 47 % der Einwohner. Fruchtbare, wenig erosionsgefährdete Böden und ganzjährig frostfreies Klima sowie gute Bewässerungsmöglichkeiten machen das Terai zur landwirtschaftlich wertvollsten Region. In dieser Ebene befinden sich auch nahezu alle Industrieansiedlungen außerhalb des Kathmandutals. Durch das Terai verläuft der Mahendra-Highway als einzige Straße, die eine Ost-West-Verbindung ermöglicht. Neun Inlandsflughäfen befinden sich im Terai und bieten eine direkte Fluganbindung mit Kathmandu. Das Mittelland Die Siwaliks und die Mahabharata-Kette bilden den Übergang vom Terai zum Mittelland, das Höhen bis circa 3000 Meter erreicht. Das Mittelland hat ein sehr stark strukturiertes Relief. Faktoren wie Mikroklima, Böden und Geomorphologie variieren im Mittelland auf kleinem Raum, sodass sich auch die Bedingungen für die Besiedlung und Landwirtschaft stark unterscheiden. Dennoch stellt das Mittelland das altbesiedelte Kernland Nepals dar. Im Mittelland leben auf 30 % der Landesfläche 45 % der Bevölkerung. Durch die hohe Reliefenergie ist das Mittelland hochgradig verkehrsfeindlich. Lange Zeit verfügten nur das Kathmandu- und das Pokhara-Tal über eine Straßenanbindung, wobei Kathmandu erst in den 1950er und Pokhara in den 1970er Jahren Straßenanschlüsse erhielten, Tribhuvan Rajmarg (Nepali: त्रिभूवन राजमार्ग) und Prithvi Rajmarg (Nepali: पृथ्वी राजमार्ग). Der Mahendra Rajmarg (Nepali: महेन्द्र राजमार्ग), die erste nationale Längsverbindung von Mechinagar bis Bhim Datta entstand schrittweise im Terai ab den 1960er Jahren und wurde erst 1996 durchgängig auf gut 1000 km fertiggestellt. Weitere Landesteile des Mittellandes wurden von dieser Straße aus über Stichstraßen erschlossen, von denen der Mechi Rajmarg (Ilam), der Dharan-Dhankuta-Rajmarg, der Ratna Rajmarg (Birendranagar) und der Mahakali Rajmarg (Amargadhi) die wichtigsten sind. Zahlreiche weitere Stichstraßen folgten und die bestehenden werden stetig und mit Hochdruck nach Norden verlängert. Zurzeit entsteht eine Längsverbindung durch das Mittelland, die in zahlreichen Abschnitten, aber noch nicht durchgehend, fertiggestellt ist. Kathmandu verfügte mit dem Tribhuvan International Airport lange Zeit über den einzigen internationalen Flughafen des Landes. Mit dem Gautam Buddha International Airport in Siddharthanagar und dem Internationalen Flughafen Pokhara eröffneten 2022 und 2023 zwei weitere. Die Hochgebirgsregion In den Talflächen konzentrieren sich fast alle Siedlungen der Hochgebirgsregion. Sommersiedlungen mit Weidewirtschaft reichen bis 5000 Meter. Die extrem hohe Reliefenergie und die hohen Monsunniederschläge (über 5000 Millimeter) an den Südhängen tragen zur Bodenerosion bei und machen Landwirtschaft schwierig. Die im Regenschatten liegenden Nordseiten der Hauptkette erhalten hingegen sehr wenig Niederschlag (unter 200 Millimeter), sodass Landwirtschaft kaum möglich ist. Forst- und Waldwirtschaft sind wichtige Standbeine der bäuerlichen Subsistenzwirtschaft im Gebirge. Insgesamt ist die Hochgebirgsregion Nahrungsmitteldefizitgebiet. Die wichtigste externe Einnahmequelle ist der Tourismus. Es gibt bisher nur eine Stichstraße aus dem Süden, nämlich nach Jomsom und Muktinath, allerdings noch nicht ausgebaut. Die einzige Straße, die das Hochgebirge in Nepal durchquert und somit auch die einzige Landverbindung Nepals nach China, ist der Arniko Rajmarg (Nepali: अरनिको राजमार्ग) von Kathmandu nach Tibet; sie ist jedoch seit Jahren wegen zahlreicher Erdrutsche auf tibetischer Seite schwer passierbar. Die über die Region verteilten zahlreichen Landepisten und Flugplätze stellen eine wichtige Verkehrsverbindung mit dem übrigen Landesteil dar; die wichtigsten davon sind Jomsom, Jimikot, Dolpa und Lukla. Als Konsequenz ist das Laufen zu Fuß, wie auch im Mittelland, nach wie vor eine wichtige Fortbewegungsart. Tendenziell sind die Hochgebirgsregionen schlechter entwickelt als der Rest des Landes. Insbesondere in den westlichen Teilen der Hochgebirgsregionen ist der Index der menschlichen Entwicklung deutlich geringer als im Landesdurchschnitt. Er weicht um 15 % vom Durchschnitt ab. Hydrologie Nepal gehört überwiegend zu drei etwa gleich großen Einzugsgebieten, nämlich die der Karnali (Oberlauf der Ghaghara in Indien), der Narayani und des Koshi. Die Karnali entwässert den größten Teil des westlichen Nepal, die Narayani den mittleren Teil Nepals und der Koshi den Osten des Landes. Nicht zu diesen Einzugsgebieten gehört lediglich der Mahakali, Grenzfluss im Westen, der weitgehend die Mahakali Zone entwässert. Alle größeren Flüsse des Landes münden direkt oder indirekt in einen der drei erstgenannten Flüsse: Seti, Bheri, westlicher Rapti, Tila, Thuli Bheri, Humla Karnali, Mugu Karnali in den Karnali, Kali Gandaki, Seti Gandaki, Madi Khola, Marsyangdi, Budhigandaki, Trishuli, Bagmati und östlicher Rapti in den Narayani sowie Indrawati, Sunkoshi, Tamakoshi, Likhu Khola, Dudh Koshi, Arun und Tamor in den Koshi. Städte Die Bevölkerung Nepals ist bis heute zum größten Teil ländlich und bäuerlich geprägt. Im Jahr 2021 lebten 21 Prozent der Einwohner Nepals in Städten, womit das Land im weltweiten Vergleich einen sehr niedrigen Anteil von Stadtbewohnern hat. Die Verstädterung ist jedoch in den letzten Jahren stark angestiegen, die Zuwachsraten in diesem Bereich liegen bei 3,5 % pro Jahr und höher. Nepal wurde bis Anfang der 1990er-Jahre bis hinunter auf die lokale Ebene zentral regiert. Im Rahmen der Demokratisierung und Dezentralisierung wurden in mehreren Schüben die Kommunen in die Selbstständigkeit entlassen. Die „Stadtrechte“ mit dem Titel „Nagarpalika“, „Up-Maha-Nagarpalika“ und „Maha-Nagarpalika“ werden somit von der Regierung erteilt. Bis auf Kathmandu fehlt es in allen Städten mehr oder weniger an Ressourcen, und die Selbstverwaltung kann daher nur schwer umgesetzt werden. Darüber hinaus gibt es in der Landesverwaltung noch immer starke zentralistische Strukturen, die im Widerspruch zur angestrebten kommunalen Selbstverwaltung stehen. Je nach Größe und Finanzkraft der Kommune gibt es drei verschiedene Grade der Selbstverwaltung. Am meisten Kompetenzen erhält die Maha-Nagarpalika, von dieser Kategorie gibt es in Nepal nur eine Stadt: Kathmandu. Die nächste Stufe ist die Up-Maha-Nagarpalika, wie beispielsweise Lalitpur oder Pokhara; im Ganzen gibt es derer vier. Die unterste der drei Stufen ist die Nagarpalika. Weitere Bedingungen für die Selbstständigkeit, wie beispielsweise bestimmte infrastrukturelle Einrichtungen oder die Straßenanbindung, sind in etlichen Fällen, zumindest ganzjährig, nicht gegeben. Dass diese Kommunen in die Selbständigkeit entlassen wurden, hat regionalplanerische und politische Gründe. In diesem Lichte betrachtet kann die statistische Stadtbevölkerung Nepals getrost um etwa eine halbe Million gekürzt werden, um sich ein Bild vom tatsächlichen Grad der Verstädterung des Landes zu machen. Die drei größten Städte liegen im Gebirge, aber die Mehrzahl der Kommunen befindet sich im Terai. Bei den übrigen Kommunen in den Bergen handelt es sich vielfach um kleinste Bergstädtchen, die durch Hinzuziehung von umliegenden Dörfern annähernd auf 20.000 Einwohner kommen. Dass es sich bei einer Anzahl von ihnen nicht um städtische Zentren handelt, zeigt auch ihre vergleichsweise kleine Wachstumsrate. Neben der hohen Landfluchtrate verzeichnet Nepal eine Schwerpunktverlagerung der Bevölkerung vom Gebirge in das Terai. In diesem Flachlandstreifen entlang der Grenze zu Indien lebt bereits mehr als die Hälfte der Landesbevölkerung, dort entstehen derzeit auch die meisten neuen Städte. Größtes Bevölkerungszentrum war und ist nach wie vor das Kathmandu-Tal mit der Doppelstadt Kathmandu/Lalitpur (Patan), der kleineren Nachbarstadt Bhaktapur und einigen kleinen Städten wie Madhyapur Thimi und Kirtipur. Zu diesem Ballungsraum gehören noch einige kleinere Städte in der Nähe des Tales, nämlich Banepa, Dhulikhel und Panauti. Das Kathmandu-Tal ist weitgehend zersiedelt und die völlige, fast immer unplanmäßige Vereinnahmung als Siedlungsfläche ist abzusehen. Die Gegend um Kathmandu hat heute eine Bevölkerungszahl von etwas mehr als 1,5 Millionen. Das zweite größere Bevölkerungszentrum in den Bergen, das ebenfalls überdurchschnittliche Wachstumsraten hat, ist das Pokharatal mit den Städten Pokhara und Lekhnath, deren Bevölkerungszahl bereits die 200.000-Einwohner-Grenze überschritten hat. Ansonsten gibt es in den Gebirgsregionen verstreut nur noch einige kleinere nennenswerte Städte (von Ost nach West): Ilam Dhankuta Bhimeshwar Gorkha (vormals Prithvinarayan) Tansen Putalibazar Ghorahi (vormals Tribhuvannagar) Tulsipur Birendranagar Dipayal Silgadhi Darüber hinaus befinden sich die übrigen größeren Städte des Landes im Terai (von Ost nach West): Mechinagar Biratnagar Dharan Itahari Rajbiraj Triyuga Janakpur Birganj Hetauda Bharatpur Ramgram Butwal Siddharthanagar Nepalganj Gulariya Tikapur Dhangadhi Bhim Datta (vormals Mahendranagar) Die Namensänderungen einiger Städte in jüngerer Zeit sind darauf zurückzuführen, dass die Gebietskörperschaft mit der Inkorporation einen neuen Namen erhielt. Prominente Beispiele dafür sind der bekanntere Ort Gorkha, die Kommune hieß bis 2009 offiziell Prithivinarayan, wurde dann aber nach dem Kernort Gorkha umbenannt. Die alte Königsstadt Patan bei Kathmandu heißt heute offiziell Lalitpur. Die alten Namen sind aber weiterhin gebräuchlich. Bevölkerung Demografie Nepal hatte 2020 29,3 Millionen Einwohner. Das jährliche Bevölkerungswachstum betrug + 1,8 %. Zum Bevölkerungswachstum trug ein Geburtenüberschuss (Geburtenziffer: 20,6 pro 1000 Einwohner vs. Sterbeziffer: 7,2 pro 1000 Einwohner) bei. Die Anzahl der Geburten pro Frau lag 2020 statistisch bei 2,1, die der Region Süd-Asien betrug 2,3. Der Median des Alters der Bevölkerung lag im Jahr 2020 bei 23,2 Jahren. Im Jahr 2020 waren 30,1 Prozent der Bevölkerung unter 15 Jahre, während der Anteil der über 64-Jährigen 6,0 Prozent der Bevölkerung betrug. Bevölkerungsstruktur Nepal ist ethnisch und kulturell ein Minoritätenmosaik. Bei einer Volkszählung im Jahre 2001 wurden über 100 verschiedene ethnische Gruppen und Kasten sowie 124 verschiedene Sprachen und Dialekte gezählt (von denen die meisten vom Aussterben bedroht sind). Das nepalesische Kastensystem ist nach wie vor als gesellschaftliches Phänomen vorhanden, wenn auch die Regeln heute weniger strikt ausgelegt werden und die Diskriminierung einzelner Kasten mit der Verfassung von 1962, die von einer Hindu-Monarchie sprach, für unrechtmäßig erklärt wurde. Kastengrenzen sind teilweise durchlässig, ferner überschneiden sich die Kategorien ethnischer Zugehörigkeit und der Kasten oder hängen von der Perspektive des Betrachters ab. Das ethnische Mosaik Nepals besteht hauptsächlich aus indoarischen und tibeto-birmanischen Volksgruppen. Viele der Volksgruppen sind Nachkommen von Flüchtlingen, die sich einst nach Nepal zurückgezogen hatten. Beispielsweise wanderten die Sherpa ab den Jahren 1500 n. Chr. aus der chinesischen Provinz Sichuan aus dem Osten nach Nepal ein. Der Ursprung mancher Ethnien ist umstritten oder gar unbekannt, beispielsweise der Newar oder der Tharu. Die folgende Tabelle soll einen Überblick über die sieben größten Bevölkerungsgruppen in Nepal geben: Außerdem sind die Volksgruppen der Gurung, der Sherpa, der Limbu und der Rai erwähnenswert. 44,6 % der Gesamtbevölkerung sind laut der Volkszählung von 2011 Nepali-Muttersprachler. Weitere wichtige Sprachen sind: Maithili (11,7 %), Bhojpuri (6,0 %), Tharu (5,8 %), Tamang (5,1 %), Newari (3,2 %) und Bajjika (3,0 %). Religion Nach der Volkszählung von 2011 sind 81,34 % der Bevölkerung Angehörige des Hinduismus. Nepal war das einzige Land, in dem der Hinduismus die Staatsreligion war, bis das Parlament sich nach der Entmachtung des Königs im April 2006 zum Säkularismus bekannte. 9,04 % der Bevölkerung sind als Buddhisten ausgewiesen (insbesondere in Mustang). Das an der Grenze zu Indien gelegene Lumbini gilt der Überlieferung nach als Geburtsort Buddhas. Zu den größeren Minderheiten zählen außerdem 4,39 % Muslime und 3,05 % Anhänger der Kirant Mundhum, einer als Religion anerkannten, animistischen Glaubensrichtung. Der Anteil der Christen in Nepal lag 2011 bei 1,42 %. Hinzu kommen 0,76 % Sonstige. Zu den Christen zählen Angehörige der römisch-katholischen Kirche in Nepal (weniger als 0,1 % der Bevölkerung) und Zeugen Jehovas. Es gibt etliche christliche Schulen, vor allem im Kathmandutal, die aufgrund ihrer Qualität auch von Hindus oder anderen Religionsanhängern besucht werden. Weitere kleine Minderheiten sind Sikhs, deren Zahl 2011 über 7000 betrug, und 4350 Bahai (Zahlenangabe für 2005). In der Volksreligion finden sich archaische Glaubenselemente, die denen des klassischen sibirischen Schamanismus sehr ähnlich sind. Die heute noch praktizierenden nepalesischen Schamanen werden teils bewundert, teils gefürchtet. Ihr Kennzeichen ist die sogenannte „Zittertrance“, die jedoch weniger der schamanischen Seelenreise denn als Kampf mit den bösen Geistern verstanden wird; sie sind Heilkundige, heute jedoch in erster Linie Vortragskünstler. Als Hilfsmittel dient ihnen die Stieltrommel dhyangro. Auffallend ist ihre sexuelle Symbolik. Viele Nepalesen glauben zudem an Götter und Wesen, die weder buddhistischer noch hinduistischer Abstammung sind, sondern alte Naturgottheiten, die sich in Bäumen, Steinen, Vögeln, Schlangen und allerlei Tieren befinden, in Bergen oder im Feuer, vor allem aber im Wasser. Nepalesisches Kastenwesen Das nepalesische Kastenwesen entwickelte sich parallel zum indischen. Der Einfluss aus Indien wuchs während des Guptareiches (320 n. Chr. – 500 n. Chr.); Nepal galt zwar als „Nachbarkönigreich“, war jedoch unter Samudragupta abgabenpflichtig. Das nepalesische Kastensystem aus der Sicht eines Bahun oder Chhetri Dass in Nepal, wie auch in den meisten anderen Staaten mit Kastensystemen, die Kaste der Unberührbaren durchaus eine der Stützen der Gesellschaft ist, lässt sich leicht daran erkennen, dass allein die Kami, die Damai und die Sarki als größte Gruppen der Unberührbaren bereits mehr als 7 % der Gesamtbevölkerung ausmachen. Das Kastensystem aus Sicht der Newar Speziell die hinduistischen Newar haben ein eigenes Kastensystem, das nur die Bewohner des Kathmandutals einschließt. Dieses System wurde teilweise auch von den buddhistischen Newar übernommen. Generell ist das Kastenwesen in der egalitären Newari-Gemeinde schwach ausgeprägt und konnte sich dort nie so stark durchsetzen wie bei anderen Volksgruppen. Mehrheitliche Sicht auf das Kastenwesen Die von der Mehrheit (liberale Bahun und Chhetri, ethnische Gruppen ohne eigenes Kastenwesen) akzeptierte religiös-rituelle Sicht sieht eine Zweiteilung vor: chokho jaat (reine Kasten) und pani nachalne jaat (unberührbare Kasten) In der Praxis ist die Kastenzugehörigkeit manchmal auch an den Wohlstand gebunden, das heißt, dass ärmere Einwohner eher den unberührbaren, reichere eher den oberen Kasten zugeordnet werden. Das führt dazu, dass europäische Ausländer, die als Nicht-Hindus eigentlich Unberührbare sein müssten, meist zur Oberschicht gerechnet werden und nur bei Handlungen von starker ritueller Bedeutung als Unberührbare behandelt werden. Dazu gehören beispielsweise all jene Handlungen, die mit Wasser und der Zubereitung von Reis zu tun haben. Bildung 96.000 Studenten 3,47 Studenten je 1000 Einwohner Bildungsausgaben: 224.732.300 $ Bildungsausgaben je Einwohner: 8 $ Analphabetenquote: 35,3 % (Frauen: 44,9 %, Männer: 24,4 %) Stand 2015 Die nepalesische Regierung befindet sich im Begriff, das Bildungssystem umzustrukturieren. Dabei sollen der Zugang zur Primar- (Klasse 1 bis 8) und Sekundarschule (Klasse 9 bis 12) ausgebaut und berufsvorbereitende Qualifizierungsmaßnahmen in den oberen Klassen eingeführt werden. Sie wird bei diesen Maßnahmen durch ein EU-Kooperationsprogramm gefördert, von 2008 bis 2011 flossen Unterstützungsgelder im Wert von 43 Millionen Euro. Gesundheitswesen Die Gesundheitsausgaben des Landes betrugen im Jahr 2019 4,4 % des Bruttoinlandsprodukts. Im Jahr 2017 praktizierten in Nepal 9,1 Ärztinnen und Ärzte je 10.000 Einwohner. Im Jahr 1999 gab es insgesamt 4124 Betten in 83 Krankenhäusern. Die Kindersterblichkeit konnte stark gesenkt werden. Die Sterblichkeit bei unter 5-Jährigen betrug 2020 28,2 pro 1000 Lebendgeburten, im Jahr 1960 lag sie noch bei 325 pro 1000 Lebendgeburten. Im Jahr 2000 betrug die Müttersterblichkeit 0,8 %. Die Lebenserwartung der Einwohner Nepals ab der Geburt lag 2020 bei 69,2 Jahren (Frauen: 71,2, Männer: 67,3). Es konnten starke Fortschritte bei der Steigerung der Lebenserwartung und der Verbesserung weiterer gesundheitlicher Indikatoren gemacht werden. War die Lebenserwartung im Zeitraum 1950 bis 1955 noch durchschnittlich bei 34,0 Jahren, so erreichte sie im Zeitraum 1980 bis 1985 48,3 Jahre und 2000 bis 2005 64,0 Jahre. Geschichte Frühzeit In der Frühzeit war das Tal, in dem die heutige Hauptstadt Kathmandu liegt, ein großer Gebirgssee. Nachdem dieser durch ein Erdbeben verschwunden war, wanderten zahlreiche Menschen aus umliegenden Gebieten ein und vereinigten sich zum Mischvolk der sogenannten Newar. So entstand im siebten Jahrhundert im Kaiserreich China der von Nepalesen aus dem Kathmandutal entwickelte Pagoden-Baustil, welcher sich auch in Japan ausbreitete. Siddhartha Gautama, auch bekannt als „Buddha“, wurde der Überlieferung nach in Nepal geboren. Sein Geburtsort soll die Stadt Lumbini ca. 500 v. Chr. gewesen sein. Königreich Nachdem Nepal lange Zeit unter indischer Rajputenherrschaft gestanden hatte, gelang es im 14. Jahrhundert schließlich dem Newar Jayadharma Malla, das Tal zu einigen und zu befreien. Sein Enkel, Yakasha Malla, konnte das Herrschaftsgebiet später noch weiter ausdehnen und so in seinem Königreich für großen Wohlstand sorgen. Seine vier Söhne jedoch teilten das Land wieder unter sich auf und schwächten es so in allen Belangen. Das Teilfürstentum Gorkha dehnte sein Einflussgebiet immer weiter aus und vereinte etwa 50 Fürstentümer unter Prithvi Narayan Shah zum Königreich Gorkha (1768). Durch ihr Vordringen nach Süden trafen die Gorkhali, wie sie sich selbst nannten, auf den Machtbereich der Britischen Ostindien-Kompanie, die nach Norden drängte. Es kam zum Gurkha-Krieg (auch Anglo-nepalesischer Krieg) von 1814 bis 1816 mit der Britischen Ostindien-Kompanie. Gorkha blieb trotz der Niederlage ein unabhängiges Königreich. 1846 brachte sich dann Jang Bahadur Rana durch ein blutiges Massaker an die Macht und führte ein neues Regierungssystem ein, wonach das Amt des Ministerpräsidenten erblich war. Der König (ab 1911 Prithvi Bir Bikram Shah Devs Sohn Tribhuvan Bir Bikram Shah Dev) behielt nur nominell seine Macht, der jeweilige Ministerpräsident war alleiniger Herrscher. Anfang des 20. Jahrhunderts nahm Gorkha den Namen Nepal an, der einst nur für das Kathmandutal gebräuchlich war. 1914 stellte der damalige Ministerpräsident Chandra Shamsher den Briten, noch vor der offiziellen Kriegserklärung zum Ersten Weltkrieg, Soldaten für Gurkhaeinheiten zur Verfügung. Auch später im Anglo-Afghanischen Krieg von 1919 und im Zweiten Weltkrieg stellte das Land Truppen und machte damit seinen eigenen Status als „unabhängiger Verbündeter“ klar. König Tribhuvan konnte unter dem Einfluss Indiens wieder eine konstitutionelle Monarchie einführen. Aktives und passives Frauenwahlrecht wurden 1951 Gesetz. König Mahendra Bir Bikram Shah Dev verbot 1960 alle politischen Parteien. Bürgerkrieg und Ende der Monarchie Von 1996 bis 2006 befand sich die Kommunistische Partei Nepals (Maoistisch) in einem Bürgerkrieg gegen die Monarchie und das hinduistische Kastensystem. König Birendra Bir Bikram Shah Dev wurde im Juni 2001 bei einem mutmaßlich von seinem Sohn, Kronprinz Dipendra Bir Bikram Shah Dev, verübten Massaker ermordet. Birendras Bruder Gyanendra Bir Bikram Shah Dev wurde König. Die Aufständischen wurden nach dem 11. September 2001 als Terroristen gebrandmarkt. Innerhalb der nächsten sechs Monate starben mehr Menschen in dem innenpolitischen Konflikt als in den sechs Jahren zuvor. Am 22. Mai 2002 wurde das Parlament aufgelöst, Premierminister Sher Bahadur Deuba ließ das Mandat der gewählten Selbstverwaltungsorgane auslaufen. Am 4. Oktober 2002 entließ König Gyanendra seinen Premierminister wegen „Unfähigkeit“. Am 11. Oktober 2002 wurde eine neue Übergangsregierung ernannt. Die großen Parteien NC, CPN-UML und Teile der RPP lehnten jedoch eine Mitarbeit in der neuen Regierung ab, da die demokratische Legitimation fehlte. Der neue Premierminister Lokendra Bahadur Chand (RPP) versprach, die Konfrontation mit den Maoisten zu beenden. Ein Kompromiss war aber nicht in Sicht, da die Regierung eine Veränderung der politischen Struktur strikt ablehnte. Nur wenige Medien wie zum Beispiel die Zeitschrift Himal berichteten kritisch und informativ über beide Seiten. Es wurde oft von der Brutalität der Maoisten gesprochen; in der Tat gingen sie gegen die Armee und gegen die Polizei mit drastischen Mitteln vor. Letztere waren beim Vorgehen gegen die Maoisten auch nicht zimperlich und gingen auf Verdacht gegen Zivilisten, die als Sympathisanten oder Unterstützer der Maoisten galten, vor oder ließen sie sogar verschwinden. Schätzungsweise zwei Drittel der Toten gingen auf das Konto von Armee und Polizei. Nur wenige westliche Journalisten berichteten von den Maoisten, die zwischenzeitlich einen entscheidenden Machtfaktor im Land darstellten. Ende 2002 beherrschten sie 55 der 75 Distrikte Nepals. Bei dem Guerillakrieg kamen insgesamt mehr als 12.700 Menschen ums Leben. Die Kämpfe hatten im August 2003 wieder zugenommen. Ab 18. August 2004 hatten die Maoisten mehrfach sogar die Hauptstadt für einige Tage völlig von der Außenwelt abgeschnitten oder wichtige Überlandverbindungen unterbrochen. Nach dem Scheitern der Friedensgespräche und dem Ende des Waffenstillstands hatte es wieder mehrere hundert Tote gegeben. Touristen konnten sich allerdings relativ frei und sicher bewegen – da sie eine der wichtigsten Einnahmequellen des Landes darstellten, werden sie von allen Seiten höflich behandelt. Behördlichen Angaben zufolge wurde ein Tourist indirekt durch eine Bombenexplosion getötet. „Einheit im Kampf gegen den Terrorismus“ war die Parole der Regierung. Colin Powell besuchte im Januar 2004 Nepal und versprach Hilfe. Die nepalesische Regierung war an Waffen und Rüstungsgütern interessiert. Am 1. Februar 2005 brachte König Gyanendra wieder Bewegung ins politische Spiel. Er verhängte den Notstand und entließ die gesamte Regierung. Premierminister Deuba und andere Regierungsmitglieder wurden unter Hausarrest gestellt. Gyanendra beschuldigte Deuba, versagt zu haben, da er keine Einigung mit den Maoisten in Anbetracht der nächsten Wahlen erzielen konnte. Gyanendra versprach, innerhalb von drei Jahren für Recht und Ordnung im Land zu sorgen und die Demokratie wieder einzuführen, doch die Maoisten und ein großer Teil der Bevölkerung befürchteten, dass er seine Macht nicht so schnell wieder abgeben würde. Deuba sagte, die Handlungen des Königs verletzten die Verfassung und seien gegen die Demokratie gerichtet. Sowohl die UNO als auch die wichtigsten Verbündeten Nepals, Indien, die USA und Großbritannien, kritisierten das Verhalten des Königs. Einige Länder, darunter Deutschland und Frankreich, zogen kurzzeitig ihre Botschafter ab. Ab dem 7. April 2006 herrschte im ganzen Land ein von der Allianz aller sieben im aufgelösten Parlament vertretenen Parteien ausgerufener und von weiten Teilen des Volkes getragener Generalstreik. Nach mehr als zwei Wochen des Generalstreiks mit täglichen nepalweiten Demonstrationen von hunderttausenden Menschen mehrten sich die Zeichen, dass die Macht des Königs abnahm. Das äußerst brutale Vorgehen der Polizei gegen die friedlichen Demonstranten hatte mittlerweile mindestens 13 von ihnen das Leben gekostet, hunderte wurden verletzt und tausende inhaftiert. Durch die großen Proteste und auf internationalen Druck hin, besonders durch Indien, gab König Gyanendra am 21. April 2006 bei einer Fernsehansprache an die Nation bekannt, dass die Exekutivgewalt von ihm nun wieder in die Hände des Volkes gelegt würde. Die Sieben-Parteien-Allianz wurde ausdrücklich ermächtigt, den nächsten Ministerpräsidenten zu bestimmen. Diese lehnte das Angebot des Königs als zu wenig weitgehend ab: Sie forderte weiterhin die Wiedereinsetzung des 2002 aufgelösten Parlaments, die Einberufung einer verfassunggebenden Versammlung und die Einschränkung der absolutistischen Herrschaft des Königs und rief zu weiteren Massendemonstrationen auf. Auf Druck auch monarchistischer Kreise sowie internationalen Drucks – unter anderem fürchteten die USA eine Stärkung der Maoisten, die inzwischen nahezu 80 % Nepals kontrollierten – sah sich König Gyanendra schließlich am 24. April 2006 genötigt, in einer Fernsehansprache die unmittelbare Wiedereinsetzung des einstigen Parlamentes zu erklären. Die Opposition erklärte daraufhin den Generalstreik für beendet. Am 18. Mai beschloss das Parlament mit einer einstimmig angenommenen Resolution weitreichende Änderungen der staatlichen Ordnung: König Gyanendra verlor demnach den Oberbefehl über das Militär und nahm nur noch repräsentative Aufgaben wahr, konnte aber keinen Einfluss auf die Staatsgeschäfte mehr ausüben. Weiterhin verlor er seine Immunität vor Strafverfolgung und musste fortan Steuern zahlen. Außerdem beschloss Nepal am selben Tag, ein säkularer Staat zu werden, was bedeutet: Der Hinduismus ist nicht mehr Staatsreligion. Am 26. Mai nahm die neue Regierung unter Premierminister Girija Prasad Koirala Friedensgespräche mit den maoistischen Rebellen auf. Zuvor wurden mehrere hundert inhaftierte Rebellen freigelassen, und eine Reformierung der Verfassung wurde in Aussicht gestellt. Ziel war es, den seit zehn Jahren andauernden Bürgerkrieg zu beenden. Am 21. November 2006 wurde die Vereinbarung zum Ende des zehnjährigen Bürgerkrieges durch Premierminister Koirala und Maoistenführer Prachanda unterzeichnet. Am 28. Dezember 2007 beschloss das Parlament die Abschaffung der Monarchie und der König verlor seine Funktion als Staatsoberhaupt. Premierminister Girija Prasad Koirala bekleidete dieses Amt interimsweise. Am 28. Dezember 2007 votierte das Übergangsparlament mit mehr als zwei Drittel der Abgeordnetenstimmen für einen Zusatz zur Übergangsverfassung, der de facto die Abschaffung der Monarchie bedeutete. Eine Mehrheit von 270 der 329 Abgeordneten sprachen sich für eine föderale demokratische Republik als Staatsform aus. Eine formale Bestätigung der Entmachtung des Königs gab die verfassungsgebende Versammlung in ihrer konstituierenden Sitzung am 28. Mai 2008 ab. Mit überwältigender Mehrheit wurde von der Versammlung die Republik ausgerufen. Die Wahlen zur verfassungsgebenden Versammlung hatten zuvor am 10. April 2008 einen überraschenden Erdrutschsieg für die Maoisten ergeben, die aber die absolute Mehrheit verfehlten. Demokratische Bundesrepublik Nepal seit 2008 Am 28. Mai 2008 wurde die Republik ausgerufen und Ram Baran Yadav wurde am 23. Juli 2008 als erster Präsident der Republik vereidigt. Im Oktober 2015 wurde Bidhya Devi Bhandari seine Nachfolgerin im Amt. Trotz wiederholter Verlängerungen ihrer zweijährigen Amtszeit konnte sich diese erste verfassungsgebende Versammlung nicht auf eine neue Verfassung einigen. Die Wahlen zu einer zweiten verfassungsgebenden Versammlung fanden im November 2013 statt und 2015 wurde die neue Verfassung verabschiedet. Gemäß den Übergangsbestimmungen nahm die verfassungsgebende Versammlung am 20. September 2015 bis zu Neuwahlen die Rolle des regulären Parlaments ein. Diese fanden dann am 26. November 2017 und 7. Dezember 2017 statt. Am 25. April 2015 ereignete sich 80 Kilometer nordwestlich der Hauptstadt Kathmandu ein schweres Erdbeben. Es gilt als das schwerste in der Region seit 80 Jahren. Über mehrere Wochen folgten zahlreiche weitere teils schwere Beben. Insgesamt starben mehr als 8600 Menschen. Politik In Nepal besteht ein großes Wohlstandsgefälle zwischen der Stadt- und Landbevölkerung. Mehr als ein Drittel der ca. 30 Millionen Nepalesen sind Analphabeten. 70 % der Bevölkerung werden von dem brahmanisch beherrschten Kastensystem nicht als gleichwertig anerkannt. Die weit verbreitete Korruption der Polizeibehörden und der Staatsverwaltung trägt dazu bei, dass die Bevölkerung kein Vertrauen in die bestehende Regierung setzt und keine Hilfe erwartet. Die juristischen Mittel, wie das Zivilrecht von 1963, das alle Formen von Diskriminierung – insbesondere der Kastendiskriminierung – unter Strafe stellt, greifen im Alltag nicht. Die Weltbank und die Asiatische Entwicklungsbank übten schon mehrfach Druck auf die Regierung in Kathmandu aus, um Rechenschaft über die Ausgaben für Entwicklungsprogramme zur Armutslinderung zu erhalten, jedoch lange Zeit ohne Erfolg. Erst 1987 erklärte sich König Birendra, auf Druck aus Indien, zu Reformen bereit. Die Einführung einer neuen Verfassung verzögerte sich noch bis zum 9. November 1990. Erst massiver Druck aus mehreren Ländern, insbesondere Indien, das seine Grenzen schloss, und Massendemonstrationen der zusammengeschlossenen Oppositionsparteien, bestehend aus einem Bündnis der Kommunistischen Partei Nepals und der Kongresspartei, zeigten Erfolg. Die ersten demokratischen Wahlen fanden am 12. Mai 1991 statt. Einzige Kritikpunkte einiger Parteien an der neuen Verfassung waren die mögliche Notstandsverordnung durch den König, die erst nach drei Monaten vom Repräsentantenhaus bestätigt werden musste, und die Beibehaltung des Begriffes „Hindu-Königreich“. Binnen kürzester Zeit war die neue politische Elite in den Augen der Bevölkerung allerdings noch korrupter als die alte Regierung. Dies hing jedoch auch mit der höheren Sichtbarkeit von Korruption durch ein offeneres System mit einer verhältnismäßig freien, engagierten und kritischen Presse zusammen, die während des Panchayat-Systems stärkerer Zensur ausgesetzt war. König Birendra starb am 1. Juni 2001 bei einem von seinem Sohn, Kronprinz Dipendra, verübten Massaker (offizielle Geschichtsschreibung). Zugleich erschoss der Sohn auch seine Mutter, einige Geschwister und dann sich selbst. Ehe er nach drei Tagen seinen Verletzungen erlag, wurde er noch zum Nachfolger gekrönt. Schließlich wurde Birendras Bruder Gyanendra König von Nepal. Dieser, ein Geschäftsmann, der an sehr vielen großen Unternehmen Nepals beteiligt ist, verdreifachte seine königliche Apanage auf umgerechnet 4,5 Millionen Euro. König Birendra war, trotz seiner Widersprüchlichkeit, im Lande sehr beliebt gewesen. Die offiziellen Verlautbarungen zum Tathergang finden daher wenig Glauben, da auch zuvor bereits ganze Königsfamilien in Nepal ermordet wurden. Die Regierungskoalition, gebildet von der Sieben-Parteien-Allianz, einem Bündnis zentristischer und linksliberaler Parteien, und den Maoisten, einigte sich am 24. Dezember 2007 auf die Abschaffung der Monarchie und die Ausrufung einer Republik im Frühjahr 2008. Mit der Abstimmung im Parlament vom 28. Dezember 2007 wurden die Abschaffung der Monarchie und der Übergang zu einer „konstitutionellen demokratischen Bundesrepublik“ beschlossen. Die offizielle Ausrufung der Bundesrepublik erfolgte am 28. Mai 2008 bei der konstituierenden Sitzung der Verfassungsgebenden Versammlung Nepals. Die Verfassungsgebende Versammlung (Constituent Assembly) erhielt 2007 durch die in Kraft getretene Übergangsverfassung das Mandat, eine neue Verfassung für die neu entstandene Demokratische Bundesrepublik Nepal (Sanghiya Loktāntrik Ganatantra Nepāl) auszuarbeiten und nach öffentlicher Diskussion zu verabschieden. Der Entwurf für die neue Verfassung sollte am 28. Mai 2010 von der Verfassungsgebenden Versammlung öffentlich bekanntgegeben werden. Dieser Termin konnte jedoch nicht eingehalten werden. Vertreter der drei großen Parteien Nepals, der Maoists, des Nepali Congress und der gemäßigten Communist Party of Nepal (Unified Marxist Leninist) (CPN-UML) verständigten sich nach zähen Verhandlungen noch in derselben Nacht auf eine Fristverlängerung von einem Jahr. Diese wurde zweimal jeweils kurz vor Ablauf der Frist um weitere drei Monate verlängert sowie Ende November 2011 um ein halbes Jahr. Danach wurde eine neue Verfassung für Ende Mai 2012 erwartet, was erneut misslang und dazu führte, dass der am 28. August 2011 gewählte Premierminister Baburam Bhattarai für den 22. November 2012 Neuwahlen ankündigte. Im November 2012 rang sich die Verfassungsgebende Versammlung dazu durch, die Neuwahlen zwischen Mitte April und Mitte Mai 2013 anzusetzen. Auch dieser Zeitplan wurde nicht eingehalten. Schließlich konnten die Wahlen doch am 19. November 2013 abgehalten werden. Am 26. November 2017 (für den Norden des Landes) und am 7. Dezember 2017 (für den Süden des Landes) fanden die ersten Wahlen zum Repräsentantenhaus, dem Unterhaus des Bundesparlaments und zu den Provinzparlamenten, nach der Verabschiedung der neuen Verfassung im Jahr 2015 statt. Die Wahlen zum Repräsentantenhaus konnte die linke Allianz CPN-UML, CPN-MC klar für sich entscheiden. Nach den Wahlen zur ersten Nationalversammlung, dem Oberhaus des Bundesparlaments, am 14. März 2018, wurde als erster Ministerpräsident nach der Verfassung von 2015 der Vorsitzende der CPN-UML Khadga Prasad Oli zum Ministerpräsidenten gewählt und trat am 15. Februar 2018 sein Amt an. Parteien In der Verfassunggebenden Versammlung Nepals waren 25 Parteien vertreten. Stärkste Gruppe war die Vereinigte Kommunistische Partei Nepals (Maoistisch) mit 229 Sitzen. Sie spaltete sich 1994 von den KP Nepals (Einheitszentrum) ab. Die Partei beruft sich auf Mao Zedong und die peruanische Guerillaorganisation „Leuchtender Pfad“ (Sendero Luminoso). Zweitstärkste Kraft ist die sozialdemokratische Nepalesische Kongresspartei mit 115 Sitzen. Sie wurde 1950 gegründet und war trotz etlicher Spaltungen bei allen Parlamentswahlen bis zur Abschaffung der Monarchie stärkste Partei. Drittstärkste Kraft ist die Nepala Kamyunishta Parti (Ekikrit Marksbadi ra Leninbadi), zu deutsch „Kommunistische Partei Nepals (Vereinigte Marxisten/Leninisten)“, mit 108 Sitzen. Diese entstand 1991 aus einem Zusammenschluss zweier kommunistischer Parteien. In den 1990er Jahren bildeten sie gemeinsam mit der Kongresspartei die Regierung. Das Madhesische Volksrechteforum (MJFN) ist eine föderalistische und sozialdemokratische Partei. Sie erhielten bei der Wahl 2008 54 Sitze. 21 Sitze erhielt die तराई-मधेश लोकतान्त्रिक पार्टी (Tarai-Madhesische Demokratische Partei). Politische Indizes Außenpolitik Nepal verfolgt eine neutrale und ausgeglichene Diplomatie ohne feste Bündnispolitik. Da das Land ein Binnenstaat ist, haben die Beziehungen zu den direkten Nachbarstaaten Priorität. Von diesen ist Indien der für Nepal mit Abstand wichtigste bilaterale Partner, da die wichtigsten Versorgungslinien und Verkehrswege des Landes nach Indien führen beziehungsweise über indisches Territorium verlaufen. Beide Länder führen eine sehr enge Beziehung in wirtschaftlicher und sicherheitspolitischer Hinsicht. Nach dem verheerenden Erdbeben von 2015 sicherte Indien Unterstützung (1 Milliarde US-Dollar) für den Wiederaufbau zu. Die Beziehungen zu Indien sind deshalb sehr eng, jedoch auch von einer gewissen Unausgeglichenheit geprägt. Um zu einem besseren Gleichgewicht zu kommen, intensiviert das Land die Beziehungen mit der Volksrepublik China, das eine zunehmende Rolle als bilateraler Geber von Entwicklungshilfe und Handelspartner einnimmt. Dabei werden auch die grenzüberschreitenden Handelsrouten zunehmend ausgebaut, wobei es sogar Ideen für einen Tunnel unter dem Himalaya-Gebirge gibt, der beide Länder verbinden würde. Bei den Beziehungen zu den westlichen Industrieländern spielt vor allem die entwicklungspolitische Zusammenarbeit eine dominierende Rolle. Zudem kommt von dort ein großer Teil der Touristen im Land, die ein wichtiger Devisenbringer sind. Nepal ist Teil der Südasiatischen Vereinigung für regionale Kooperation (SAARC), deren Sitz in Kathmandu ist. Weitere wichtige multilaterale Organisationen, in denen das Land Mitglied ist, sind die BIMSTEC, die Bewegung der Blockfreien Staaten und die Vereinten Nationen in denen Nepal seit 1960 Mitglied ist. Im Rahmen der Vereinten Nationen stellen die nepalesischen Streitkräfte traditionell größere Kontingente für UN-Friedensmissionen zur Verfügung. Menschenrechtspolitik Die Diskriminierung und Ausbeutung von Minderheiten, unteren Kasten und Kastenlosen, Frauen und Kindern ist immer noch, trotz Schutzes durch die Verfassung, weit verbreitet. In Nepal werden jährlich etwa 20.000 Mädchen zwischen acht und 18 Jahren verkauft. Sie landen im Sexgewerbe, meistens in indischen Bordellen. Die geltenden Bestimmungen hingegen untersagen die systematische Unterdrückung von Frauen: Am 3. September 1981 ratifizierte Nepal die UN-Konvention zum Verbot der Diskriminierung von Frauen (CEDAW) von 1979, und gemäß der Verfassung von 1990 sind Männer und Frauen gleichgestellt. Nach der Frauenkonferenz in Peking von 1995 wurde das Ministerium Ministry of Women and Social Welfare gegründet, mit dem Ziel, die Teilhabe von Frauen an der nationalen Entwicklung zu unterstützen, und am 15. Juni 2007 ist Nepal dem Fakultativprotokoll zum CEDAW beigetreten. Nach Nepals neuer Verfassung kann die nepalesische Staatsbürgerschaft nur noch durch den Vater weitergegeben werden. Dies hat zur Folge, dass Kinder alleinerziehender nepalesischer Mütter staatenlos sind. Im Verfassungsentwurf war ursprünglich vorgesehen, dass nur Kinder zweier nepalesischer Eltern die nepalesische Staatsbürgerschaft erhalten. Die vorangehende, ab 2008 geltende Übergangsverfassung hatte hingegen bestimmt, dass ein Kind die Staatsangehörigkeit auch durch die Mutter erhalten konnte. Dies war jedoch, trotz eines im Jahr 2011 durch den Obersten Gerichtshof entschiedenen Präzedenzfalls, in der Praxis kaum umgesetzt worden. Kinder blieben damals staatenlos, wenn der Vater seine Kinder nicht anerkannte, seine Dokumente verlor, fortzog oder unbekannt war. Schätzungen zufolge waren Anfang 2015 insgesamt weit über 4 Millionen Personen in Nepal staatenlos, somit fast ein Viertel der erwachsenen Bevölkerung. Für internationale Proteste – unter anderem durch Amnesty International – sorgte in letzter Zeit das gewaltsame Vorgehen der nepalesischen Polizei gegen Homosexuelle und Transvestiten. Am 28. Juni 2023 wurde die einstweilige Öffnung der Ehe für alle Menschen angeordnet. Verwaltung Seit der Verfassung von 2015 besteht Nepal aus sieben Provinzen, die die Rolle der Bundesstaaten innerhalb des föderalen Staates einnehmen. Bis dahin war Nepal in 14 Verwaltungszonen aufgeteilt, die aus 75 Distrikten bestanden. Die Verwaltungszonen waren in fünf Entwicklungsregionen zusammengefasst. Innerhalb der Provinzen lebt die bisherige Distriktstruktur weitestgehend weiter. Die Distrikte werden weiter in Gemeinden und Ortschaften untergliedert. Neben dem weltweit verbreiteten gregorianischen Kalender findet, auch für offizielle Zwecke, ein eigener nepalesischer Kalender Anwendung. Wirtschaft Nepal gehört mit einem BIP pro Kopf von nur 733 US-Dollar (2016) zu den ärmsten Ländern der Welt. Kaufkraftbereinigt beträgt das BIP pro Kopf 2.679 Int. US-Dollar (2017). Der Hauptwirtschaftszweig ist die Landwirtschaft. Des Weiteren lebt das Land stark von Rücküberweisungen der im Ausland, vor allem in den Golfstaaten, lebenden Nepalesen. Derartige Überweisungen machen geschätzt ca. 30 % des Bruttoinlandsprodukts aus. Probleme der nepalesischen Wirtschaft sind die Binnenlage, komplizierte Bürokratie, Korruption sowie hohe Handelsbilanzdefizite aufgrund fehlender Rohstoffe. Dennoch wuchs das Land in den letzten Jahren mit Raten von über 5 % pro Jahr, bis das Erdbeben 2015 die Wirtschaft zurückwarf und die Infrastruktur stark beschädigte. Im Global Competitiveness Index, der die Wettbewerbsfähigkeit eines Landes misst, belegt Nepal Platz 88 von 137 Ländern (Stand 2017–2018). Im Index für wirtschaftliche Freiheit belegt das Land 2017 Platz 125 von 180 Ländern. Kennzahlen Alle BIP-Werte sind in Internationalen US-Dollar (Kaufkraftparität) angegeben. In der folgenden Tabelle kennzeichnen die Farben: Bergbau Bergbau ist in Nepal kaum verbreitet, denn aufgrund des ungünstigen Reliefs Nepals sowie der schlecht ausgebauten Infrastruktur können die vorhandenen Bodenschätze nicht gut abgebaut werden. Abgebaut werden Rohstoffe wie Glimmer, Kalkstein sowie Braun- und Steinkohle. Außerdem sind Vorkommen von Kupfer, Eisenerz, Ocker, Quarz, Kyanit, Quecksilber, Schiefer und Cobalt vorhanden. Es werden außerdem Vorkommen von Gold, Blei und anderen Metallen in den schlecht zugänglichen Regionen des Himalaya vermutet. Sektoren 68 % der erwerbstätigen nepalesischen Bevölkerung arbeiten in der Landwirtschaft, also im sogenannten primären Sektor. Ein so hoher Wert ist typisch für ein Entwicklungsland, da der industrielle und der Dienstleistungssektor noch schlecht entwickelt sind und auch Grundlagen erfordern, die wirtschaftlich rückständige Länder oft nicht bieten. Das Bruttonationaleinkommen liegt bei 730 Dollar pro Person (Stand 2015) im Jahr. Trotz der hohen Beschäftigung der Bevölkerung in der Landwirtschaft beträgt ihr Anteil am Bruttosozialprodukt lediglich 38 %, da in dieser Branche nicht sehr viel verdient wird. Angebaut wird zum Beispiel Reis, der mehr als 55 % der landwirtschaftlichen Nutzfläche besetzt, außerdem noch Kartoffeln, Mais und verschiedene Getreidesorten. 80 % der Exportgüter Nepals sind landwirtschaftliche Produkte. Die für die Landwirtschaft nutzbare Fläche schwindet jedoch Jahr für Jahr aufgrund verschiedener äußerer Einflüsse wie des Monsun und des gleichzeitigen Kahlschlags der Wälder, die zusammen eine starke Erosion bewirken. Dennoch ist die Produktion noch nicht gefährdet, da es im Terai noch große ungenutzte oder nicht ganz ausgenutzte Flächen gibt. Immerhin 17 % der Nepalesen sind in der Industrie beschäftigt und produzieren dort 22 % des Gesamteinkommens. Die industriellen Bedingungen sind in Nepal insbesondere aufgrund der schlechten Infrastruktur und der hohen Gefahr von Naturkatastrophen denkbar schlecht; außerdem befinden sich politische Reformen zur Unterstützung von Investoren gerade erst in der Anfangsphase. Zu diesen Reformen zählt zum Beispiel die Senkung der Steuern für Industrieunternehmen. Lediglich 3 % der Einwohner arbeiten im Dienstleistungssektor, verdienen dort aber immerhin 37 % des Bruttoinlandsprodukts. Die Gründe für die wenigen Arbeitsplätze in diesem Bereich sind der schlecht ausgebildete tertiäre Sektor und die nur in geringem Umfang vorhandenen Devisen. Mit 50 Millionen Euro bringt der Tourismus etwa 30 % der Gesamtdevisen. Jedes Jahr reisen etwa 300.000 Menschen nach Nepal. Viele Sherpas verdienen ein gutes Gehalt durch Touristenführungen in den Bergen. Der zweitstärkste Devisenbringer ist mit 25 Millionen Euro der Export von tibetischen Teppichen, der durch die UNO und Swiss Aid gefördert wird. Ein nicht geringer Teil kommt auch aus der Entwicklungshilfe durch andere Staaten. Von den über 28 Millionen Nepalesen leben fast 40 % unterhalb der Armutsgrenze, das durchschnittliche Monatseinkommen beträgt 18 Euro. Das Wachstum des Bruttosozialprodukts liegt mit 2,6 % pro Jahr nur wenig unterhalb des sehr hohen Bevölkerungswachstums, die Inflationsrate beträgt 11 %. Die Bevölkerungsdichte schwankt zwischen 25 Einwohnern pro Quadratkilometer im Hochgebirge und 1500 Einwohnern pro Quadratkilometer in Kathmandu. Lediglich 3 Prozent der Bevölkerung waren im Jahr 2017 arbeitslos. Allerdings sind die meisten Arbeitsplätze im informellen Sektor und die Unterbeschäftigungsquote ist sehr hoch. Seit 1989 besteht die General Federation of Nepalese Trade Unions. Staatshaushalt Der Staatshaushalt umfasste im Fiskaljahr 2016 Ausgaben von umgerechnet 5,45 Mrd. US-Dollar, dem standen Einnahmen von umgerechnet 4,84 Mrd. US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 2,8 % des BIP. Die Staatsverschuldung betrug 2016 27,2 % des BIP. 2006 betrug der Anteil der Staatsausgaben (in % des BIP) für Gesundheit 5,1 %, Bildung 3,4 % (2003) und Militär 1,6 %. Infrastruktur Luftverkehr Nepal verfügt über 3 internationale Flughäfen. Der erste ist der Tribhuvan International Airport in Kathmandu, der seit Jahren überlastet ist. Der zweite Flughafen ist der Siddharthanga Gautam Buddha Airport, der am 28. April 2022 für den nationalen und am 16. Mai für den internationalen Flugverkehr geöffnet wurde. Am 1. Januar 2023 wurde der internationale Flughafen von Pokhara für den nationalen Flugverkehr geöffnet, die Planung für die Öffnung gegenüber dem internationalen Flugverkehr steht noch aus (Stand 15. Januar 2023). Es gibt über 40 regionale Flugplätze. Hierzu gehören auch die sog. STOL-Flugplätze (short take off and landing) mit ihren kurzen Landebahnen. Im Sommer 2013 ordnete die Europäische Kommission durch Verordnung ein Betriebsverbot in der Europäischen Union für sämtliche in Nepal registrierten Fluggesellschaften an, das bis heute wirksam ist (Stand 2021). Bei fortlaufender Prüfung hat die Civil Aviation Authority of Nepal (CAAN) der Kommission im Jahr 2020 nicht nachweisen können, dass sie hinreichend in der Lage ist, die einschlägigen Sicherheitsstandards anzuwenden und durchzusetzen. Eisenbahn Die lange Zeit einzige Bahnstrecke Nepals von der indisch-nepalesischen Grenze bei Jaynagar/Khajuri bis nach Bijalpura wurde von 1937 bis 2014 von der Nepal Railways Corporation in 762 mm Schmalspur betrieben und war etwa 59 Kilometer lang. Nepal und Indien hatten 2014 beschlossen, die Strecke bis Janakpur als Zweigbahn von Indian Railways in 1676 mm Spurweite neu aufzubauen und sie langfristig bis Bardibas zu verlängern. Nepal stieß zwischen 2010 und 2014 Planungen für den Neubau einer Ost-West-Verbindung, der Mechi-Mahakali-Bahn, an. Erste Bauabschnitte befinden sich bereits in der Bauphase. Die Nepal Government Railway verkehrte von 1927 bis 1965 von Amlekhganj nach Raxaul in Indien. Im Frühsommer 2019 gewährte China der Nepalesischen Regierung einen Kredit im Volumen von 18 Millionen US-Dollar für Pläne zur Anbindung des Landes an das chinesische Schienennetz über Tibet. Straße Auf Grund der Landschaftsstruktur besitzt Nepal ein nur wenig ausgebautes Straßennetz. Das gesamte Land verfügt nur über etwa 10.000 km asphaltierte sowie rund 7.100 km nicht asphaltierte Straßen (Stand 2007). Die wichtigste Ost-West-Verbindung ist zugleich Teil des Asian Highway 2; die einzige Straßenverbindung nach China ist der Araniko Highway, der von Kathmandu bis zur Sino-Nepal Freundschaftsbrücke führt. In Nepal gilt Linksverkehr. Fußweg Wichtigstes Fortbewegungsmittel sind die eigenen Füße. Ein riesiges Netz an Wegen durchzieht das Land. Flüsse und Schluchten werden auf Hängebrücken überquert. Im Rahmen eines von der Schweiz geförderten Programms wurden insgesamt über 5000 Drahtseil-Hängebrücken gebaut, die längste ist die 1453 m lange Dodhara Chandani Bridge. Der Transport von Gütern erfolgt auch heute noch überwiegend durch Träger, die auf schmalen Saumpfaden hohe Pässe überwinden. Musik Musik und Tanz sind fast überall verbreitet und werden häufig bei spontanen abendlichen Treffen vorgetragen. Kinder lernen die Unterhaltungslieder durch Nachahmung und üben schon in jungen Jahren die Musik der Erwachsenen. Bei Festen wird religiöse und zeremonielle Musik von professionellen Ensembles in einem formellen Rahmen aufgeführt. Dennoch gibt es nur ansatzweise eine landesweite Musikkultur. Jede der zahlreichen ethnischen Gruppen pflegt eigene musikalische Formen, die mit bestimmten gesellschaftlichen Anlässen in Verbindung stehen. Außerdem ist das Spiel auf einer großen Zahl von Musikinstrumenten speziellen Musikerkasten vorbehalten, die für andere Kasten bei religiösen Zeremonien (nach hinduistischen, buddhistischen und naturreligiösen Praktiken zu unterscheiden), jahreszeitlichen Festen (etwa zur Zeit der Reisauspflanzung) und Übergangsfeiern (wie Hochzeiten) tätig werden. Überdies ergibt sich durch die topografische Isolation der Bergregionen eine äußerst große Bandbreite traditioneller musikalischer Formen. Erst durch die 1951 aufgenommenen Übertragungen des staatlichen Rundfunks mit seinen nationalistischen Bestrebungen, den ersten Schallplattenaufnahmen in den 1960er Jahren und durch die Verbreitung von Musik mittels Kassetten ab 1980 begann sich die Musik in den ländlichen Regionen zu verändern. Eine grobe Orientierung folgt den drei großen ethnischen Gruppen: den die größte Bevölkerungsgruppe bildenden Indo-Nepalesen (Nepali-Muttersprachlern), den Newar als den historischen Bewohnern des Kathmandutals und den Tibeto-Nepalesen (wie Sherpas und Gurung). Die Musik etlicher kleinerer Ethnien und Völker ist noch nicht oder wenig erforscht. Höfische Musik Aus der ältesten Steininschrift zur Musik vom Anfang des 7. Jahrhunderts, die im Kathmandutal gefunden wurde, geht hervor, dass es ein Ensemble mit einem Schneckenhorn und anderen Ritualinstrumenten, möglicherweise mit Trommeln, gab. Einen wesentlichen Einfluss auf die nepalesische Kultur hatte die Einwanderung hinduistischer und buddhistischer Flüchtlinge aus Nordindien im 12. und 13. Jahrhundert als Folge der muslimischen Eroberungen von den Ghuriden bis zur Gründung des Sultanats von Delhi. Unter den seit dieser Zeit bis ins 18. Jahrhundert regierenden Königen der Malla-Dynastie erlebte das Kathmandutal eine kulturelle Blüte, die Dichtkunst, Tanz und höfische Musik einschloss. Schriftquellen aus dem 17. und 18. Jahrhundert belegen, dass an den Herrscherhäusern der Malla die indische Musiktheorie (Sanskrit sangitashastra) bekannt war. Eines der frühesten Palmblattmanuskripte des Natyashastra (um die Zeitenwende entstandenes Werk zur altindischen Musiktheorie) blieb in Kathmandu erhalten, auch die im 13. Jahrhundert verfasste Musiktheorie Sangitaratnakara war im Kathmandutal bekannt. Unter König Mahindrasimha Malla (reg. 1717–1722) kamen muslimische Musiker aus Indien und führten die nordindische klassische Musik ein, die nachfolgend besonders während der von 1846 bis 1951 regierenden Rana-Dynastie der Unterhaltung am Hofe diente. Der von 1885 bis 1901 regierende Bir Shumsher Jang Bahadur Rana förderte am stärksten die klassische nordindische Musik, indem er zahlreiche Musiker aus den bekannten nordindischen Gharanas (Musiktraditionen) einlud. Nach 1951 fiel die staatliche und sonstige Förderung für die klassische indische Musik weg, die heute nur noch wenigen professionellen Musikern ein Auskommen bietet. Newar Die besonders von indischen Einflüssen geprägte Musik der Newar ist äußerst komplex, da spezielle Musikerkasten eigene musikalische Formen praktizieren, die den vielen rituellen Anlässen zugeordnet sind. Eine bis in vorislamische Zeit zurückreichende Tradition des tantrisch-buddhistischen Ritualgesangs, den die buddhistischen Priester der Newar praktizieren, ist der carya (Newari caca). Dieser nur in den für Mitglieder zugänglichen Schreinen (agamche) praktizierte Gruppengesang ist musikalisch mit dem altehrwürdigen Dhrupad-Stil der klassischen indischen Musik verbunden und soll magische Kräfte hervorrufen. Im buddhistischen Prozessionsmonat gunla (im August nach dem nepalischen Lunarkalender Nepal Sambat) gehen täglich Newar-Männer zu den buddhistischen Verehrungsorten, während sie von der devotionalen Musik gunla bajan (gulabaja) begleitet werden. Je nach Ensembletyp spielen Mitglieder der Schneiderkaste europäische Trompeten und Klarinetten oder die Kegeloboen mvali und die Blockflöten baeca. Im letztgenannten Fall gehören Männer der niedrigen Ölpresserkaste Manandhar zum Ensemble, die neun verschiedene Trommeln, Becken und Trompeten spielen. Bei buddhistischen Totenritualen soll das Büffelhorn neku den Kontakt mit den Verstorbenen herstellen und ihnen eine günstige Wiedergeburt ermöglichen. Die Schneider treten mit ihren Blasinstrumenten und in bunten Kostümen nach den Vorbildern indischer Hochzeitsbands auf. An bedeutenden religiösen Feiertagen wird der carya-Gruppengesang mit einem Ensemble aus Trommeln (darunter der Doppelkonustrommel pashchima), Becken und fünf Paar Naturtrompeten (paytah, von Sanskrit pancatala) begleitet. Ähnliche Ensembles begleiten rituelle Tanztheateraufführungen mit Maskentänzern wie Mahakali pyakhan, Navadurga pyakhan in Bhaktapur, Devi pyakhan und Kha pyakhan (eine Version des Mahabharata). Die Bauern der Newar pflegen den devotionalen Gruppengesang dapha, den sie meist mit der Fasstrommel lalakhin und in einem navabaja („neun Musikinstrumente“) genannten Ensemble mit neun verschiedenen Trommeln begleiten. Dapha stellt eine mit dem nordindischen marai kirtan verwandte emphatische Form der musikalischen Verehrung des Musikgottes Nasahdyah und anderer hinduistischer Götter dar. Die von der höfischen Kultur der Malla-Könige überlieferte Tradition wird vor allem in Bhaktapur gepflegt. Nepali sprechende Musikerkasten Die Damai sind eine von zwei sozial niedrigstehenden, zu den „Unberührbaren“ zählenden Musikerkasten, die in den mittleren Höhenlagen vorwiegend in Zentralnepal leben und Nepali sprechen. Sie sind auch Schneider, aber besonders als Musiker gefragt, die bei religiösen Festen und privaten Familienfeiern wie Hochzeiten auftreten. Das hierfür gebrauchte Ensemble heißt panche baja („fünf Musikinstrumente“) und besteht im Kern aus der Kesseltrommel damaha, von der die Damai ihren Namen haben, der kleinen Kesseltrommel tyamko, der Röhrentrommel dholaki (der indischen dholak und dholki entsprechend), der halbkreisförmig gebogenen Naturtrompete narsinga, der Kegeloboe sahanai (namensverwandt mit der indischen shehnai) und den Handzimbeln jhyali. Weitere Blasinstrumente, darunter die Langtrompete karnal können das Ensemble verstärken. Dieser Ensembletyp, der auch in Indien in der zeremoniellen Musik vorkommt, war ursprünglich ein Militärorchester um das Kesseltrommelpaar naqqara und gelangte mit den islamischen Eroberungen im Mittelalter aus dem arabisch-persischen Raum nach Südasien. Die vom Namen des persischen Kesseltrommelpaars abgeleiteten und einzeln oder paarweise verwendeten großen nagara dürfen ausschließlich Damai-Musiker bei hinduistischen Tempelfesten schlagen. Die andere „unberührbare“ Musikerkaste sind die Gaine, die als Balladensänger und Bettler durch Zentral- und Westnepal wandern. In dieser Eigenschaft sind sie seit Ende des 17. Jahrhunderts schriftlich belegt. Nach den himmlischen Musikern werden sie auch Gandharva genannt. Sie singen heroische Lieder (karkha), preisen Könige und Götter und unterhalten mit Liedern über Alltagsbegebenheiten. Dabei begleiten sie sich auf der viersaitigen Streichlaute sarangi, die nur so heißt wie die nordindische sarangi, deren Form aber mehr der sarinda entspricht. Die wandernden Gaine-Musiker, unter denen sich auch einige Frauen befinden, stammen wohl ursprünglich aus Indien. In Volksliedern (lok git) sorgt die zweifellige Zylindertrommel madal (namensverwandt mit der maddale) für den Rhythmus. Die alte Gaine-Zupflaute arbajo ist nur noch selten zu hören. Sino-Tibetisch sprechende Musiker Die in den Bergen Zentralnepals lebenden Gurung unterscheiden bei ihrer traditionellen Musik die zahlreichere Gruppe der fröhlichen Lieder (sabahim) von den traurigen Liedern (Musik für die Toten, bibhim). Der Chorgesang von Männern und Jugendlichen wird von der Trommel madal begleitet. Für Hochzeit laden die Gurung ein panche-baja-Ensemble der Damai ein. Zu den älteren Genres der Gurung-Musik gehören die Tanzstile ghantu und sorathi, die einen schamanischen Kern haben. Mädchen tanzen traditionell den Ritualtanz ghantu (ghamtu) bei einem religiösen Jahresfest zur Freude der Götter, wobei sie während des Tanzes von den angerufenen Geistwesen besessen werden und auch manche Zuschauer in einen Zustand der Trance geraten, weil sie die Anwesenheit der Götter spüren. Dazu singt – von madal begleitet – ein Männerchor, der die 100 Szenen umfassende mythische Geschichte von König Parashuram und seiner Gemahlin Ambarawati vorträgt. Touristisch abgewandelte Versionen des ghantu-Tanzes werden heute bei Kulturveranstaltungen aufgeführt. Der Tanz sorathi behandelt ebenfalls eine alte Legende der Gurung und wird von der Röhrentrommel madal begleitet. Er hat sich von einem ursprünglichen Ritual zu einem in ganz Nepal bekannten Volkstanz entwickelt. Dies fügt sich in die staatlichen Bestrebungen, die kulturellen Traditionen der nepalischen Ethnien dem Hinduismus anzugleichen. Bei einem Todesfall tanzen die Gurung-Männer vor der Leichenverbrennung im Haus des Verstorbenen den magischen serga-Tanz. Dazu werden Zylindertrommeln und das Beckenpaar jhyali geschlagen. Schamanen tragen einen heiligen Text vor, um die Geister von der Seele des Toten fernzuhalten. Bei einem weiteren, tibetisch-buddhistischen Ritual, mit dem der Seele eine glückliche Rückkehr gesichert werden soll, setzt ein Lama tibetische Instrumente ein: das Paarbecken rol-mo, die Stielhandglocke drilbu, die Klappertrommel tindar (damaru) und die Knochentrompete kangling. Die Rituale von nepalischen Heilern und Schamanen (Nepali jhankri) finden in mehreren Monaten an jeweils anderen Schreinen statt, die bevorzugt Mahadeva (Beiname des Gottes Shiva) gewidmet sind. Sie werden meistens von einer Rahmentrommel begleitet. Im Osten und Zentrum des Landes kommt hierfür die zweifellige Stieltrommel dhyangro zum Einsatz. Wesentlich seltener ist eine kleinere einfellige Rahmentrommel (regional nah, rnga, re oder ring), die etwa bei den Gurung von magischen Heilern (pucu) geschlagen wird. Popmusik und Jazz In den 1950er Jahren erstmals aufgezeichnete Volkslieder (lok git) wurden anfangs durch Sänger wie Dharmaraj Thapa (1924–2014) und seit den 1960er Jahren durch Kumar Basnet (* 1943), dem „Elvis Presley Nepals“, popularisiert. Jhalak Man Gandarbha (1922–2003) sang Volkslieder seiner Gaine-Kaste. Nepalische Volkslieder, verbunden mit Elementen aus klassischen indischen Ragas und westlichen Harmonien, bilden eine Gruppe „moderner Lieder“ (adhunik git), die ebenfalls in den 1950er Jahren eingeführt wurden. Die ersten Sänger waren Nati Kaji (1925–2003), Shiva Shankar (1932–2004) und Ambar Gurung (1937–2016). Im Stil der indischen „leichten Klassik“ sind die sich wiederholenden rhythmischen Muster, die von tabla oder madal gespielt werden. Zu den Melodieinstrumenten der „modernen Lieder“ gehören die nepalische Bambusflöte und sarangi, aus Indien sitar, santur und Harmonium sowie einige westliche Instrumente einschließlich Keyboards. Ein weiterer Popmusiksänger ist Purna Nepali (* 1954). 1974 AD ist eine 1994 in Kathmandu gegründete Rockband und die Gruppe Kutumba spielt eine Art Weltmusik mit nepalischen Instrumenten. Pushkar Bahadur, ein nepalischer Trompeter, wanderte Anfang der 1940er Jahre nach Kalkutta aus, wo er unter dem Namen George Banks westlichen Jazz in einer europäischen Band spielte. Sein Sohn Dambar Bahardur wurde als Louis Banks einer der Begründer des indischen Jazz. In den 1960er Jahren spielten beide als professionelle Musiker Jazz in Kathmandu, bevor Louis Banks 1971 nach Kalkutta zurückkehrte und dort eine eigene Band gründete. Seit 2002 findet in Kathmandu jedes Jahr das Jazzfestival Jazzmandu statt, bei dem internationale Gruppen das in Nepal wenig bekannte Genre mit nepalischen Volksmusiktraditionen verbinden wollen. Sport Fußball gilt als beliebteste Sportart in Nepal, gefolgt vom Cricket. Volleyball ist Nepals offizieller Nationalsport. Das nepalesische Cricket erfuhr in den letzten Jahren ein starkes Wachstum – vor allem Dank der geografischen Nähe und des Einflusses der südasiatischen Cricketnationen – und genießt internationale Anerkennung. Am 28. Juni 2014 vergab der International Cricket Council T20I-Status an die nepalesische Cricket-Nationalmannschaft und am 15. März 2018 ODI-Status. Nepal gelang es noch nicht, sich für einen Cricket World Cup zu qualifizieren; während der World Twenty20 2014 schied es in der Vorrunde wieder aus. In Gegensatz zu vielen anderen kleineren cricketspielenden Ländern, bei denen die Nationalmannschaften großteils aus ausländischen Cricketspielern bestehen, bietet Nepals Nationalmannschaft überwiegend einheimische Spieler auf, die das Cricketspielen daheim gelernt haben. Nepals Fußballnationalmannschaft gelang es bisher nicht, sich für eine Fußball-Weltmeisterschaft zu qualifizieren. 2015 gewann Nepal mit der SAFF U-18 Championship sein erstes internationales Turnier und 2017 gelang ihnen die Titelverteidigung. 2016 gewann Nepal außerdem den Bangabandhu Cup. Siehe auch Homosexualität in Nepal Literatur Weblinks Länderinformationen Nepal des deutschen Auswärtigen Amtes Asiatische Menschenrechtskommission – Menschenrechte in Nepal (engl.) Nepal Research. Website on Nepal and Himalayan Studies. nepalresearch.org Sprachen Nepals im Ethnologue Sprachen Nepals World Atlas of Language Structures Online Offizielle Webseite der Regierung von Bhutan Einzelnachweise Staat in Asien Binnenstaat Mitgliedstaat der Vereinten Nationen Parlamentarische Bundesrepublik (Staat) Least Developed Country Hochland von Tibet
Q837
2,938.648588
18254
https://de.wikipedia.org/wiki/Videotechnik
Videotechnik
Die Videotechnik ( ‚ich sehe‘, von ‚sehen‘), kurz Video genannt, umfasst die elektronischen Verfahren zur Aufnahme, Übertragung, Bearbeitung und Wiedergabe von bewegten Bildern sowie ggf. des Begleittons (siehe Audio). Dazu gehören ferner die eingesetzten Geräte, wie Videokamera, Videorekorder und Bildschirm. Aber auch die rein digitale Verarbeitung optischer Signale wird zur Videotechnik gezählt. Entwicklung Analoge Videosignale sind seit den 1930er Jahren bekannt. Zu dieser Zeit entstanden die Technologien, die später zur Entwicklung des Fernsehens führten. Typisch für analoge Videosignale ist die zeilenweise Abtastung (Scan) eines Bildes im Zeilensprungverfahren. Am Ende jeder abgetasteten Zeile erfolgt ein Rücksprung auf den Anfang der nächsten Zeile, am Ende des gesamten (Halb-)Bildes der Sprung an den Anfang des Abtastfeldes. Dies nennt man das Zeilensprungverfahren. Bis in die achtziger Jahre erfolgte die Abtastung eines Bildes für Videozwecke typischerweise durch die zeilenweise Ablenkung eines Elektronenstrahls über eine lichtempfindliche Schicht. Als Speichermedium der Bild- und Tondaten diente zuerst das Magnetband, meist in einer Videokassette, in analoger Form, wie im Video Home System (VHS). Seit 1996 wird zunehmend digitale Aufzeichnung eingesetzt, so im Digital-Video (DV)-System bei Camcordern. Neuerdings werden zunehmend magneto-optische Verfahren zusammen mit digitaler Kompression eingesetzt, so in DVD-Camcordern. Seit Ende der 1990er Jahre setzt dabei die digitale MPEG-Technologie die Standards. Auf ihr basiert u. a. die Video-CD, die DVD und das Digital Video Broadcasting (DVB). Sie zeichnet sich gegenüber DV durch weiter verbesserte Bildqualität aus, größere Kompatibilität im PC-Bereich, sowie durch leichtere und umfangreichere Bearbeitungsmöglichkeiten. Das MPEG-4 Format bietet gegenüber MPEG-2 wiederum eine stärkere Kompression, bedarf aber höherer Prozessorleistung bei Aufzeichnung und Wiedergabe. Auch kann es bei MPEG-4 eher zu Qualitätsverlusten durch Kompressions-Artefakte kommen. PAL-Video Das Phase Alternating Line System (PAL-System) ist der im deutschen Sprachraum verwendete Fernsehstandard. PAL wurde 1963 von Telefunken entwickelt. Es enthält 625 Rasterzeilen (Scan Lines) pro Bild (Frame), 25 Frames pro Sekunde, entsprechend einer Dauer von 40 ms/Frame. Das Bild-Seitenverhältnis beträgt 4:3, daher sind die Pixel nicht quadratisch, um der Auflösung von 720 × 576 Pixeln (5:4) entgegenzuwirken. PAL verwendet das YUV-Farbmodell. Die Darstellung erfolgt im Interlace-Modus, jedes Bild ist also in zwei Halbbilder unterteilt, eines mit den geraden und eines mit den ungeraden Rasterzeilen. Wegen der Bildwechsellücke sind nur 576 Zeilen sichtbar. PAL wird etwa in Brasilien, China, Deutschland, Österreich, Schweiz und Indien verwendet. NTSC-Video NTSC ist der 1953 vom NTSC (National Television Systems Committee) festgelegte US-Fernsehstandard. NTSC enthält 525 Rasterzeilen pro Bild, abzuspielen mit exakt 29,97 Bilder pro Sekunde, entsprechend 33,37 ms pro Bild. Ab und zu liest man 30 Bilder pro Sekunde, das ist aber unrichtig. Das Bildseitenverhältnis beträgt 4:3, die Pixel sind quadratisch. Die Darstellung erfolgt im Interlace-Modus, jedes Bild ist in zwei Halbbilder (Fields) unterteilt, eines mit den geraden und eines mit den ungeraden Rasterzeilen. Am Beginn jedes Halbbildes sind 20 Rasterzeilen reserviert, daher verbleiben maximal 485 Rasterzeilen für Bildinformation. Von diesen sind aber wiederum nur 480 sichtbar. Daher hat NTSC eine Auflösung von 640 × 480 Pixel. NTSC verwendet das YIQ-Farbmodell und wird unter anderem in Japan, USA, Kanada und Korea verwendet. Analoge Aufzeichnungsformate VHS – Video Home System – wurde Ende der 1970er Jahre von JVC entwickelt. Dank geschickter Marketingstrategie setzte es sich gegen technisch intelligentere Lösungen wie Video 2000 weltweit durch. Die Magnetbänder der VHS-Kassetten sind störungsempfindlich. Sie sind 1,27 cm breit. Videobandaufzeichnungssysteme existieren in vielen Varianten mit unterschiedlicher Signalverarbeitung und verschiedenen mechanischen und [sic!] Spurlagenparametern. Die Besonderheit im Videobereich besteht einerseits in der hohen oberen Grenzfrequenz, die mit ca. 5 MHz etwa 250-mal höher liegt als beim Audiosignal, und andererseits in der sehr niedrigen unteren Grenzfrequenz nahe 0 Hz. Eine hohe Signalfrequenz kann nur bei großer Relativgeschwindigkeit erreicht werden. Daher arbeiten Videorekorder mit rotierenden Köpfen. Digitale Videotechnik Die Ablösung der analogen Videotechnik hin zum digitalen Verfahren wurde durch die grafische Datenverarbeitung vorangetrieben. Leistungsstarke Grafikkarten ermöglichen PC-Nutzern das Rendering eigener Filme und deren Speicherung auf digitalen Systemen. Digitalsignale werden aus analogen Signalen gewonnen, indem diesen in regelmäßigen Abständen Proben (Samples) entnommen und den Werten der Proben Zahlen aus einem endlichen Zahlbereich zugeordnet werden. Formatentwicklung Die Aufzeichnungstechnik und damit die Formate haben sich grob in folgenden Schritten entwickelt: analoge Aufzeichnung auf Magnetband, analoge Verarbeitung: U-matic, VHS, Video-8; Video 2000 digitale Aufzeichnung auf Magnetband, digitale Verarbeitung: (mini-) DV und digitaler Videoschnitt; digitale Aufzeichnung auf DVD oder Festplatte mit Komprimierung, meist MPEG-2; digitale Aufzeichnung auf Speicherkarte, meist stärkere Kompression, etwa mit MPEG-4. Geschichte 1953: In Deutschland wird das erste Patent für den Prototyp eines Videorekorders erteilt. 1956: Es erscheint der erste einsatzfähige Video Tape Recorder (VTR) für Sendezwecke von der Firma Ampex. Das Format war Quadruplex. 1964: Der erste kommerzielle VTR, der Philips 3400, konnte 45 Min. in Schwarzweiß aufnehmen und kostete 6900,– DM. 1969: Das Geburtsjahr des Home-Video: Philips und Grundig stellen den ersten Rekorder mit zugehöriger Videokamera vor, sowie den ersten Video Cassette Recorder (VCR-System) mit neuer Kassettentechnik. Bislang waren die Magnetbänder auf offenen Rollen aufgespult. 1972: Sony stellt den ersten U-matic-Videokassettenrekorder vor. 1976: JVC stellt das Format Video Home System (VHS) und Sony das Format Betamax vor. 1980: Philips und Grundig stellen das Video-2000-System vor. Video-2000-Kassetten wurden im Gegensatz zu VHS und Betamax auf zwei Seiten bespielt und waren den anderen Systemen in puncto Bildqualität überlegen. Das Format konnte sich aber nicht durchsetzen, da VHS und Betamax schon zu verbreitet waren. 1984: Der erste Camcorder mit Video-8-Kassetten kommt auf den Markt. Sony ist der Entwickler. 1985: Der erste Camcorder mit VHS-Kassetten kommt auf den Markt. Ende der 1980er Jahre werden VHS zu S-VHS und Video 8 zu Hi8 weiterentwickelt. Anfang der 1990er Jahre erscheint die Video-CD mit 74 Min. Spielzeit in VHS-Qualität. 1995: Der DVD-Standard wird festgelegt. Der erste Camcorder mit Digital Video (DV) und Mini-DV erscheint. 1996: Der erste DV-Rekorder von Sony kostet 8000,– DM. 1999: Der erste DVD-Rekorder von Philips kommt auf den Markt. 2000: Der erste DVD-Camcorder von Hitachi wird vorgestellt. 2001: Die DVD überholt die VHS-Kassette im Kaufvideo-Bereich. 2003: Das Format High Definition Video (HDV) gilt als zukünftiges Heimvideo-Format, ist aber bislang nur in Japan und in den USA verbreitet. 2004: DVD-Rekorder mit Festplatte lösen den VHS-Recorder weitgehend ab. 2005: HDV wird auch in Europa erhältlich. Siehe auch Filmtechnik Fototechnik Geschichte der Video- und Audiosysteme Liste von Videofachbegriffen Videokunst Videoclip Videodatei Webvideo Musikvideo Literatur Johannes Gfeller, Agathe Jarczyk, Joanna Phillips: Kompendium der Bildstörungen beim analogen Video Hg. Schweizerisches Institut für Kunstwissenschaft. Scheidegger & Spiess 2013, ISBN 978-3-936185-34-8 Verlagsseite zum Buch (abgerufen am 6. Februar 2014) Thomas Petrasch; Joachim Zinke: Videofilm. 2. Auflage. Hanser Fachbuchverlag 2012, ISBN 978-3-446-42757-0 Ulrich Schmidt: Professionelle Videotechnik. 5. Auflage. Springer Verlag 2009, ISBN 978-3-642-02506-8 Dieter Stotz: Computergestützte Audio- und Videotechnik. 2. Auflage. Springer Verlag 2012, ISBN 978-3-642-23252-7 Weblinks Einzelnachweise
Q34508
883.359804
162963
https://de.wikipedia.org/wiki/Endhirn
Endhirn
Das Endhirn oder Telencephalon ( und ) ist ein Teil des Gehirns und damit des Zentralnervensystems. Er geht aus dem vorderen Bereich des Vorderhirns hervor und entwickelt sich bei Säugetieren (wie dem Menschen) zum größten der fünf Hirnabschnitte. Andere gebräuchliche Namen für diesen Hirnabschnitt sind auch Großhirn und Cerebrum (von , ‚Hirn‘). Cerebrum bezeichnet fachsprachlich jedoch auch das Gehirn insgesamt. Anatomie Anordnung Grauer und Weißer Substanz in Hemisphären Aus dem unpaaren Hirnbläschen des Endhirns entwickelt sich ein Paar ungefähr halbkugelförmiger Gebilde, die Hemisphärenbläschen, die je zur Großhirnhemisphäre (Hemisphaerium cerebri) einer Seite werden. Neben der unpaaren medianen Gewebebrücke (Lamina terminalis) entstehen beide Hemisphären miteinander verbindende Querbahnen, die Kommissursysteme des Endhirns wie der breite Balken (Corpus callosum). Linke und rechte Hemisphäre werden durch eine tiefe Längsfurche (Fissura longitudinalis cerebri) geschieden und umschließen je einen Seitenventrikel als inneren Liquorraum. Jede der Hemisphären enthält innen gelegene Kerngebiete als Basalganglien (Nuclei basales), die aus dem ventralen (bauchseitigen) Telencephalon entstehen. Diese werden umhüllt vom außen liegenden Hirnmantel (Pallium), der aus dem dorsalen (rückenseitigen) Telencephalon hervorgeht. Die Oberfläche des Palliums besteht als Rinde des Endhirns oder Großhirnrinde (Cortex cerebri) – ähnlich wie die Kleinhirnrinde (Cortex cerebelli) – aus Grauer Substanz mit Nervenzellkörpern in mehreren Schichten. Darunter liegt als sogenanntes Marklager aus Weißer Substanz ein dichtes Geflecht von Nervenfasern, deren Nervenzellfortsätze vielfältige Verbindungen schaffen. Als Assoziationsfasern verbinden sie unterschiedliche Areale des Cortex cerebri der Hemisphäre gleicher Seite untereinander, als Kommissurfasern mit solchen der Gegenseite und als Fasern von Projektionsbahnen stellen sie auf- oder absteigend Verbindungen von und zu verschiedenen anderen Regionen des Gehirns bzw. des zentralen Nervensystems dar. Verbindungen beider Großhirnhälften (Commissurae) Die beiden Hemisphären sind durch Fasersysteme gegenseitig miteinander verbunden, die als Kommissuren (Commissurae) die Medianebene queren; von diesen drei ist der Balken am faserreichsten: Corpus callosum (auch Balken genannt) Commissura anterior bzw. rostralis Commissura fornicis Basale Kerne (Nuclei basales) Die aus dem ventralen Telencephalon hervorgehenden subkortikalen Kerne werden auch als basale Kerne oder Nuclei basales bezeichnet bzw. als Basalganglien. Sie liegen an der Basis des Endhirns seitlich und bauchseitig eines Seitenventrikels und schließen an Bereiche des Thalamus des Zwischenhirns. Infolge der hindurchziehenden Fasern von und zur Großhirnrinde hat ein Teil der Kerne ein gestreiftes Aussehen, weshalb diese auch als Corpus striatum (Streifenkörper) bezeichnet werden. Hirnlappen (Lobi) Die Großhirnrinde einer Hemisphäre lässt sich jederseits in fünf oder sechs Hirnlappen (Lobi cerebri) einteilen. Vier davon liegen an der Oberfläche (siehe Abbildung rechts), der Insellappen wird vom Operculum verdeckt und auch der Limbische Cortex, von einigen Fachleuten als sechster Hirnlappen (Lobus limbicus) aufgefasst, liegt in der Tiefe. Bei genauerer Betrachtung zeigen die einzelnen Furchen (Sulci; Singular: Sulcus) und Windungen (Gyri; Singular: Gyrus) der verschiedenen Hirnlappen keine exakte Symmetrie im Vergleich von linker und rechter Seite der Großhirnhemisphären eines Individuums. Einige dieser neuroanatomischen Ungleichheiten der im Prinzip bilateral symmetrisch aufgebauten Hälften hängen auch damit zusammen, dass einige der cerebralen Funktionen bevorzugt in einer der beiden Großhirnhälften ausgeführt werden. Diese prozedural unterschiedliche Aufteilung wird auch als Lateralisation bezeichnet. Der oberflächliche Teil der Hemisphären beziehungsweise ihr Pallium (Hirnmantel) ist – bis auf wenige epithelial bleibende Wandbezirke – ausgebildet als nur wenige Millimeter dicke Hirnrinde, der Cortex cerebri. Das Gewebe dieses Cortex des Großhirns – oft wird der Ausdruck Pallium synonym verwendet – zeigt allerdings histologisch nicht überall den gleichen Aufbau. Weite Bereiche der Rinde sind recht ähnlich aus sechs unterschiedlich starken Schichten (Laminae) aufgebaut. Von diesem sogenannten Isocortex verschieden ist der aus zwei oder drei Schichten anders aufgebaute Allocortex. Auch unter entwicklungsgeschichtlichen Gesichtspunkten ist der Cortex cerebri nicht einheitlich und kann so in die Anteile von Paläo-, Archi- und Neocortex (bzw. -pallium) unterschieden werden. Entwicklungsgeschichtliche Einteilung Wie beim Gehirn als ganzem, so bietet sich auch beim Telencephalon eine Unterscheidung seiner Anteile unter phylogenetischer oder embryogenetischer Perspektive an. Paläocortex Der Paläocortex (bzw. das Palaeopallium oder Paläopallium) besitzt mit einem primitiven zweischichtigen Aufbau den urtümlichsten Typ einer Hirnrinde, einem „Althirn“ entsprechend. Es handelt sich hierbei um einen entwicklungsgeschichtlichen Begriff. Der Paläocortex liegt am vorderen unteren Teil der Hemisphären. Als Grenze zum Neocortex gilt der Sulcus rhinalis lateralis. Der Riechkolben (Bulbus olfactorius) erhält über die Nn. olfactorii unmittelbar Afferenzen des Geruchssinnes von den Riechzellen und stellt somit ein primäres Riechgebiet dar. Mitsamt der anschließenden zentralen Bahn und den sekundären olfaktorischen Projektionsgebieten des Paläocortex wird deshalb auch zusammenfassend vom Riechhirn oder Rhinencephalon gesprochen. Hierzu zählen als primäre Gebiete Bulbus olfactorius (Riechkolben) mit Pedunculus olfactorius (Riechstiel) und folgendem Tractus olfactorius (Riechbahn), der sich zum Trigonum olfactorium (Riechdreieck) verbreitert und dann in die Striae olfactoriae lateralis et medialis aufzweigt, zwischen denen als sekundäre Gebiete die Substantia perforata anterior jederseits (mit dem Tuberculum olfactorium) liegt; weitere Projektionen erreichen auch Gyrus ambiens und Gyrus semilunaris (im Lobus piriformis) auf der medialen Seite des Schläfenlappens als Anteile des Paläocortex Der Paläocortex wird wegen seiner histologischen Eigentümlichkeiten dem Allocortex zugerechnet (mit anderem Aufbau als der Isocortex). Archicortex Der Archicortex (oft synonym: Archipallium) kann entwicklungsgeschichtlich als ein Stadium zwischen Paläocortex und Neocortex angesehen werden. Ein über olfaktorische Projektionsgebiete hinausgehender Teil der Hirnrinde tritt andeutungsweise erstmals bei Reptilien auf und ist histologisch deutlich vom jüngeren Neocortex zu unterscheiden. Mit der späteren Entwicklung des Neocortex wird der Archikortex in seiner Ausdehnung reduziert und auf die Innenseite des Temporallappens verdrängt. Der Archicortex besteht aus Hippocampus, Gyrus dentatus und Fimbria fornicis und gehört auch zum limbischen System, dem eine Schlüsselrolle in der Verarbeitung emotionaler Inhalte zugeschrieben wird. Diese Formationen des Archicortex gehören zum sogenannten Randbogen. Durch die Kommissurenbahnen des Corpus callosum als Formation des Neocortex wird dieser Randbogen in einen inneren und äußeren Bogen unterteilt. Zum äußeren Randbogen zählt auch der Gyrus cinguli und das Indusium griseum. Letzteres stellt topographisch eine Fortsetzung des Gyrus dentatus dar. Histologisch gehören auch die meisten Areale des Archicortex zum Allocortex; der Gyrus cinguli des äußeren Bogens allerdings zeigt schon den vielschichtigen Aufbau des Isocortex. Neocortex Der Neocortex (oft synonym: Neopallium) ist der entwicklungsgeschichtlich jüngste und am meisten differenzierte Teil des Gehirns. Unter Neocortex kann man rund neun Zehntel der Großhirnrinde (Cortex cerebri) verstehen. Beide Bezeichnungen sind aber nicht identisch (siehe dazu auch die methodische Differenzierung der verschiedenen Begriffe und die histologische Zugehörigkeit des Neocortex zum Isocortex). Einzelnachweise Neurobiologie
Q75855
89.333197
121146
https://de.wikipedia.org/wiki/Kaufhaus
Kaufhaus
Ein Kaufhaus ist die Betriebsform eines Einzelhandelsgeschäfts, das Handelswaren aus einer oder wenigen bestimmten Warengruppe(n) in hoher Sortimentstiefe und Sortimentsbreite auf einer Verkaufsfläche von mindestens 1500 m² bietet. Allgemeines Kaufhäuser weisen eine Verkaufsfläche zwischen 1500 m² und 3000 m² auf, Warenhäuser sind mit einer Verkaufsfläche von mindestens 3000 m² ausgestattet und verfügen über eine höhere Sortimentsbreite und Sortimentstiefe. Typisch für Warenhäuser ist ihr Angebot auch an Lebensmitteln () und anderen Waren (), während in Kaufhäusern keine Lebensmittel geführt werden. Die große Verkaufsfläche gestattet geräumige Kontaktstrecken, die an den Waren vorbeiführen. Am stärksten verbreitet sind Kaufhäuser mit Textilien (z. B. C&A, H&M, SinnLeffers) und mit Elektrogeräten oder Elektronik. Das Kaufhaus ist eine Weiterentwicklung des Fachgeschäfts zu einem großen Einzelhandelsbetrieb. Es bietet Waren aus einer Warengruppe in vielen Ausführungen, Preislagen und Qualitätsstufen an. In der Regel bieten Kaufhäuser auch diverse Kundendienstleistungen an. Geschichte Die ersten Kaufhäuser in Deutschland waren Gemeinschaftswarenhäuser wie das im Mittelalter ab 1317 gebaute Kaufhaus am Brand in Mainz. Im 16. Jahrhundert gab es in den meisten Städten ein „Kauffhaus“, das (wie etwa das Kaufhaus in Neustadt an der Aisch) im unteren Bereich über Verkaufsbänke für Metzger, Bäcker, Weber, Kürschner usw. und im Oberstock meist über einen Saal (für Tanz- und Hochzeitsfeste oder zur Aufschüttung der in Naturalleistung entrichteten Zehnten) verfügte. Solche Kaufhäuser wurden je nach Ausstattung auch Tanzhäuser, Hochzeitshäuser, Schütthäuser oder Kauf- und Gewerbshäuser genannt. Die Geschichte der modernen privatwirtschaftlichen Kaufhäuser begann im Japan der Edo-Periode. 1673 wurde das Kaufhaus Echigoya mit dem Werbeslogan „Genkin kakene nashi“ / „Barverkauf zu Festpreisen“ gegründet, das heute unter dem Namen Mitsukoshi als die älteste moderne Kaufhauskette der Welt gilt. Schon 1611 wurde Matsuzakaya gegründet, die jedoch wie in der Edo-Periode üblich noch auf Kredit verkauften. Nur zwei Mal im Jahr, in der Obon-Jahreszeit und im Winter, wurden die Rechnungen gestellt und beglichen. Davor war Bargeld nur im niederen Schausteller- und Wandergewerbe üblich. Durch Kaufhäuser war es der Mittelschicht möglich, spontan hochwertige Güter wie Kleidung zu kaufen, ohne damit eine lange Geschäftsbeziehung einzugehen. Auch heute noch wird in Banken, Restaurants und japanischen Depātos Bargeld verschämt in einem „Karuton“/„Carton“ übergeben, und es ist unhöflich nachzuzählen. Unabhängig davon und fast gleichzeitig wurden in England und den USA die ersten Kaufhäuser gegründet. Der Eisenwarenhandel Bennett’s in Derby wurde 1734 gegründet. Das erste Vollkaufhaus Howell & Co wurde 1796 auf der Pall Mall in London eröffnet. Hier war es eher der Preisvorteil durch hohe Rabatte beim Einkauf großer Mengen aus Manufakturbetrieben und Importen und das breitere Angebot, dem diese Kaufhäuser ihren Erfolg verdankten. Daher versuchten Händler mit kleinen Ladengeschäften (Einzelhandel) von Anfang an, die Expansion der Waren- und Kaufhäuser auf gesetzlichem Wege zu behindern. In Paris entstand 1894 das Kaufhaus Galeries Lafayette. In Berlin eröffnete Rudolph Hertzog 1839 ein nach ihm benanntes Haus. In London wurde 1834 das Harrods eröffnet. Mit der Verbreitung von eigenen Fachgeschäften bzw. Franchisebetrieben der Markenhersteller, Einkaufspassagen, Discountern und Handelsketten mussten die kleineren Einzelhandelsunternehmen Umsatzeinbußen hinnehmen. In der Ära des Internets und des dadurch möglich gewordenen Preisvergleichs und Einkaufs per Computer nimmt auch der Umsatz von Kaufhäusern tendenziell ab. Es werden Lösungen für Umnutzungen gesucht, selbst für zentral gelegene bekannte Kaufhausketten wie Karstadt oder Kaufhof. Die Vermieter der Immobilien müssen dabei mit wesentlichen Mieteinbußen rechnen, da selbst vergleichsweise wenig erträgliche Logistiknutzungen geprüft werden. Abgrenzung Umgangssprachlich werden die Begriffe Warenhaus und Kaufhaus häufig begriffsgleich verwendet. In der Handelsbetriebslehre werden die beiden Betriebsformen jedoch nach der Breite der Sortimentsgestaltung unterschieden. Warenhäuser führen z. B. häufig eine Lebensmittelabteilung, Kaufhäuser nicht. Seitens der Einzelhandelsfirmen wird dies in der Namensgebung nicht einheitlich gehandhabt, so führt bspw. das bekannte Berliner Kaufhaus des Westens (KaDeWe) ungeachtet seines Namens ein Vollsortiment mit großer Lebensmittelabteilung und ist nach der wirtschaftswissenschaftlichen Definition ein Warenhaus. Die Qualität der Waren in den drei Betriebsformen lässt sich nicht allgemeingültig unterscheiden. Fachgeschäfte bieten in der Regel sehr hochwertige Artikel mit einer fachkundigen Beratung an. Kaufhäuser vertreiben eher Waren für die durchschnittlichen Ansprüche, wobei aber auch hier Ausnahmen möglich sind wie z. B. das Kulturkaufhaus Dussmann in Berlin. Waren- und Kaufhäuser haben in den letzten Jahrzehnten ihr Sortiment durch ein hochwertigeres Warenangebot aufgewertet (trading up). Auch wurden eigene Waren- und Kaufhausabteilungen durch Fachgeschäfte von Fremdanbietern ergänzt. Die Vorstufe des Kaufhauses, die Passage, wurde zum Gegenstand einer geschichtsphilosophischen Untersuchung von Walter Benjamin (Das Passagen-Werk). Film Wünsche werden wahr – Die Entstehung des Kaufhauses. Dokumentarfilm, Doku-Drama, Frankreich, 2011, 86 Min., Buch und Regie: Sally Aitken & Christine Le Goff, Produktion: arte France, Telfrance, Essential Viewing, deutsche Erstausstrahlung: 22. Oktober 2011 in arte, Filminformationen auf der Internetseite von 3sat anlässlich einer Wiederholung. Siehe auch Warenhaus SB-Warenhaus Verbrauchermarkt Supermarkt Einkaufszentrum Depāto Weblinks Einzelnachweise Unternehmensart (Handel)
Q216107
91.679994
1217
https://de.wikipedia.org/wiki/Disjunktion
Disjunktion
Disjunktion („Oder-Verknüpfung“, von lat. disiungere „trennen, unterscheiden, nicht vermengen“) und Adjunktion (von lat. adiungere, „anfügen, verbinden“) sind in der Logik die Bezeichnungen für zwei Typen von Aussagen, bei denen je zwei Aussagesätze durch ein ausschließendes oder oder durch ein nichtausschließendes oder verbunden sind: Die nicht-ausschließende Disjunktion (Alternative, Adjunktion, inklusives Oder, OR) „A oder B (oder beides)“ sagt aus, dass mindestens eine der beiden beteiligten Aussagen wahr ist. Sie ist also nur dann falsch, wenn sowohl A als auch B falsch sind. Die ausschließende Disjunktion (Kontravalenz, exklusives Oder, XOR) „(entweder) A oder B (aber nicht beides)“ sagt aus, dass genau eine der beiden beteiligten Aussagen wahr ist (wenn die Disjunktion wahr ist). Die ausschließende Disjunktion ist daher falsch, wenn entweder beide beteiligten Aussagen falsch oder wenn beide beteiligten Aussagen wahr sind. Die ausschließende Disjunktion wird auch Kontravalenz genannt und unter diesem Stichwort näher behandelt. Nur gelegentlich wird auch die nicht-ausschließende Disjunktion der Verneinungen der beteiligten Aussagen als Disjunktion von A und von B bezeichnet, das heißt die Aussage „nicht A oder nicht B (oder beides)“ beziehungsweise äquivalent „nicht (A und B)“. Diese Verbindung wird u. a. Shefferscher Strich, NAND oder Exklusion (im Sinne der Logik) genannt. Sie entspricht dem mengentheoretischen Begriff disjunkt. Seltener gebrauchte Bezeichnungen für die Disjunktion lauten Alternative, Kontrajunktion, Bisubtraktion und Alternation. Die mehrdeutige Verwendung von „Disjunktion“ etc. ist auf die verschiedenen Rollen des natürlich-sprachlichen oder rückführbar. Die Teilaussagen einer Disjunktion (Adjunktion) werden Disjunkte (Adjunkte) genannt, das die Teilaussagen verknüpfende Wort („oder“) wird als Disjunktor (Adjunktor) bezeichnet. Nicht-ausschließende Disjunktion Die nicht-ausschließende Disjunktion (Alternative, Adjunktion) ist eine zusammengesetzte Aussage vom Typ „A oder B (oder beides)“; sie sagt aus, dass mindestens eine der beiden beteiligten Aussagen wahr ist. Schreibweise In der polnischen Notation wird für die Disjunktion der Großbuchstabe A verwendet: Aab In der Notation einer Verknüpfung von Aussagen steht das Symbol (Unicode: U+2228, ∨) für die nicht-ausschließende Disjunktion als aussagenlogischen Junktor. Es ähnelt dem Zeichen für die Vereinigungsmenge und erinnert an den Buchstaben „v“, mit dem das lateinische Wort „vel“ anfängt, das für ein solches nicht-ausschließendes Oder steht. Die Wahrheitstabelle für die vel-Funktion (OR-Funktion eines Gatters) als Wahrheitswertefunktion der nicht-ausschließenden Disjunktion ist damit: Eine Disjunktion ist ein Boolescher Ausdruck, sie ist assoziativ und kommutativ. Aus dem Gesagten folgt: Ist A falsch und ist B falsch, so ist die Disjunktion falsch; in jedem anderen Fall ist sie wahr. Ist die Disjunktion falsch, so ist sowohl A als auch B falsch. Ist die Disjunktion wahr, muss eine der folgenden Möglichkeiten vorliegen: beide Disjunkte sind wahr A ist falsch und B ist wahr oder A ist wahr und B ist falsch Beispiel Die Aussage „Tom hilft beim Streichen oder Anna hilft beim Streichen“ besteht aus folgenden Teilen: der Teilaussage/dem Disjunkt A: „Tom hilft beim Streichen“ dem Disjunktor „oder“, hier nicht ausschließend aufgefasst der Teilaussage/dem Disjunkt B: „Anna hilft beim Streichen“ Keine der beiden Teilaussagen schließt hier die andere aus. Die Aussage ist falsch, wenn weder Tom noch Anna beim Streichen helfen, ansonsten wahr. Sie ist insbesondere auch wahr, wenn sowohl Tom als auch Anna beim Streichen helfen. Ausschließende Disjunktion Die ausschließende Disjunktion (Kontravalenz, XOR) ist eine zusammengesetzte Aussage, bei der zwei Aussagen mit der Formulierung „entweder – oder (aber nicht beides)“ verknüpft werden, zum Beispiel die Aussage „Anna studiert entweder Französisch oder sie studiert Spanisch (aber nicht beides).“ Damit ausgeschlossen ist der Fall, dass beide Teilaussagen wahr sind – im Beispiel also der Fall, dass Anna sowohl Französisch als auch Spanisch studiert –, eben hierin besteht der Unterschied zur nicht-ausschließenden Disjunktion. Der lateinische Ausdruck für das ausschließende Oder lautet aut – aut. Die Wahrheitstabelle für die aut-Funktion (XOR-Funktion eines Gatters) als Wahrheitswertefunktion der ausschließenden Disjunktion ist damit: Ableitungen im Kalkül des natürlichen Schließens Aus einer Aussage A kann die Disjunktion A oder B geschlossen werden. Für die durch die Disjunktion zur bereits gegebenen Aussage A hinzugefügte Aussage B müssen keine vorherigen Voraussetzungen erfüllt sein, wie die folgende Beispielableitung zeigt. Zur Auflösung einer Disjunktion muss aus beiden Teilen der Disjunktion dieselbe Aussage hergeleitet werden können. (Das Zeichen ∧ in der Tabelle bezeichnet die Konjunktion (Logik).) Mengenlehre In der Mengenlehre definiert man ein Element der Vereinigung zweier Mengen durch die Disjunktion . Siehe auch De Morgansche Regel Oder-Gatter, Exklusiv-Oder-Gatter, XNOR-Gatter Aussagenlogik Weblinks Einzelnachweise Aussagenlogik
Q1651704
85.894915
28793
https://de.wikipedia.org/wiki/V%C3%B6lkerrecht
Völkerrecht
Das Völkerrecht (Lehnübersetzung zu ) ist eine überstaatliche, aus Prinzipien und Regeln bestehende Rechtsordnung. Es regelt die Beziehungen zwischen den Völkerrechtssubjekten (meist Staaten) auf der Grundlage der Gleichrangigkeit. Die Bezeichnung Internationales Öffentliches Recht wird seit dem 19. Jahrhundert synonym verwendet, was auch auf den starken Einfluss des englischen Fachausdrucks public international law zurückzuführen ist. Wichtigste positivrechtliche Rechtsquellen des Völkerrechts sind die Charta der Vereinten Nationen und das in ihr niedergelegte allgemeine Gewaltverbot, das als Völkergewohnheitsrecht auch über die Mitgliedschaft in den Vereinten Nationen (UNO) hinaus verbindlich ist und jedem Staat etwa einen Angriffskrieg verbietet. Das supranationale Recht gilt als Besonderheit des Völkerrechts, weil es ebenfalls überstaatlich organisiert ist; allerdings weist es durch die Übertragung von Hoheitsgewalt auf zwischenstaatliche Einrichtungen einige Besonderheiten auf, die nicht vollständig mit dem Völkerrecht erklärbar sind. Allgemeines Der wesentliche Unterschied zwischen dem Völkerrecht und dem innerstaatlichen Recht besteht im Fehlen eines kompakten Kodex, eines zentralen Gesetzgebungsorgans, einer umfassenden, hierarchisch strukturierten Gerichtsbarkeit und einer allzeit verfügbaren Exekutivgewalt zur gleichförmigen Durchsetzung völkerrechtlicher Grundsätze. Das klassische Völkerrecht wird den Staaten nicht oktroyiert, sondern stellt eine Koordinationsordnung zwischen ihnen dar. Vor ihm wurden nur die „christlichen“, später die „zivilisierten“ – also die europäischen Staaten – als Völkerrechtssubjekte anerkannt, was den Kolonialismus als legal erscheinen ließ. In der heutigen Völkerrechtsordnung, die sich insbesondere in der UN-Charta widerspiegelt, sind dagegen sämtliche Staaten gleichberechtigte Subjekte. Deshalb gilt grundsätzlich das Prinzip „Ein Staat, eine Stimme.“ Zu unterscheiden ist zwischen dem Friedens- und Kriegsvölkerrecht, wobei das Friedensvölkerrecht auch die Normen umfasst, die den rechtmäßigen Einsatz militärischer Gewalt regeln (ius ad bellum), während als Kriegsvölkerrecht das im Krieg geltende Recht bezeichnet wird (ius in bello). Grundsätzlich kein Teil des Völkerrechts ist das internationale Privatrecht. Dieser Begriff erfasst vielmehr – ungeachtet eines oftmals völkerrechtlichen Hintergrunds – diejenigen staatlichen Normen, die das anzuwendende Recht bestimmen, wenn ein Sachverhalt mehrere staatliche Rechtsordnungen berührt. Je nach Anzahl der Vertragsstaaten wird zwischen „allgemeinem“, „gemeinem“ und „partikularem“ Völkerrecht unterschieden. Weiterentwicklung In den letzten Jahrzehnten gibt es Entwicklungen hin zu einer zentralen Rechtsetzung im Völkerrecht. Vorhanden war diese Tendenz bereits zuvor, sie wird vom Sicherheitsrat der Vereinten Nationen aufgegriffen, der insbesondere nach den Terroranschlägen am 11. September 2001 dazu übergegangen ist, noch nicht von allen UN-Mitgliedstaaten akzeptierte Verpflichtungen zur Terrorismusbekämpfung zu allgemein geltendem Recht mit Wirkung für und gegen alle Mitgliedstaaten zu erklären und sich dem sogenannten zwingenden Recht, dem ius cogens, zu nähern (vgl. Resolution 1373 und das Counter Terrorism Committee und Resolution 1540). Diese Entwicklung wird teilweise kritisch, teilweise gar skeptisch gesehen, weil es nicht der Konzeption des Sicherheitsrates als Exekutivorgan entspricht, der sich mit der Lösung einzelner Konflikte beschäftigen und nicht als „Weltgesetzgeber“ auftreten soll. Völkerrechtssubjekte Völkerrechtssubjekte sind in erster Linie die Staaten, welche als die „Normalpersonen“ des Völkerrechts betrachtet werden können. Konstituierend für das Vorliegen eines Staates sind nach der Drei-Elemente-Lehre Georg Jellineks die drei Merkmale Staatsgebiet, Staatsvolk und Staatsgewalt. Jedoch existieren heute auch andere Völkerrechtssubjekte wie zum Beispiel Internationale Organisationen, die von Staaten oder anderen internationalen Organisationen gegründet werden können, soweit ihre Gründungsverträge dies bestimmen. Nichtregierungsorganisationen (Non-governmental organizations, kurz NGOs, von Privatrechtssubjekten gegründet) haben grundsätzlich keine Völkerrechtssubjektivität. Zunehmend werden ihnen jedoch, wie auch multinationalen Unternehmen und Individuen, bestimmte völkerrechtliche Rechte und Pflichten zugeordnet. Aus historischen Gründen sind das Internationale Komitee vom Roten Kreuz, der Heilige Stuhl und der Souveräne Malteser Ritterorden eigenständige Völkerrechtssubjekte. Mittlerweile wird auch der individuelle Mensch zunehmend als partielles Völkerrechtssubjekt anerkannt. Gründe hierfür sind Rechte (insbesondere Menschenrechte) und Pflichten (etwa das Piraterieverbot oder das Verbot des Völkermords), welche sich aus dem Völkerrecht unmittelbar für den Einzelnen ergeben und welche er eigenständig (z. B. im Wege der Individualbeschwerde) geltend machen kann, bzw. für die er persönlich verantwortlich gemacht werden kann (z. B. vor dem internationalen Strafgerichtshof). De-facto-Regime können aus Interessen der Stabilität ebenfalls partielle Völkerrechtssubjektivität aufweisen. Dabei besitzen sie insbesondere Verantwortlichkeit für Völkerrechtsverstöße und profitieren u. a. vom Interventionsverbot sowie vom Gewaltverbot. Voraussetzung dafür ist, dass sie einen nicht nur unerheblichen Teil des Gebiets eines Staates für eine gewisse Dauer kontrollieren. Das Staatsgebiet muss umstritten, aber nicht umkämpft sein. Ob auch Völker eigenständige Rechtssubjekte im Völkerrecht sind, ist nicht geklärt. Sie tauchen in internationalen Vertragswerken meist in Bezug auf die Gleichberechtigung und das Selbstbestimmungsrecht der Völker auf, vgl. jeweils Art. 1 des Sozialpaktes und des Zivilpaktes. Problematisch sind sowohl die Definition des Begriffs Volk, als auch der genaue Inhalt des Selbstbestimmungsrechts. Jedenfalls bei Vorliegen schwerwiegender Verletzungen von Menschen- und Minderheitenrechten kann von einem äußeren Recht auf Sezession ausgegangen werden. Diese Schwelle ist weder in Bezug auf Katalonien noch auf die Krim erreicht worden, sodass ihnen völkerrechtlich gesehen kein Recht auf Sezession zusteht. Darüber hinaus erscheinen im Zuge der Globalisierung immer neue Akteure auf der Weltbühne und erfordern Beachtung vom Völkerrecht. Hierzu zählen insbesondere Nichtregierungsorganisationen, multinationale Unternehmen und Terroristen. Ihre Behandlung ist im Völkerrecht nicht geklärt. Obwohl etwa für terroristische Gruppierungen im humanitären Völkerrecht bestimmte Regeln gelten, werden diese neuen Akteure bisher überwiegend nicht als Völkerrechtssubjekte anerkannt. Quellen des Völkerrechts Das Völkerrecht kennt unterschiedliche Quellen, deren Geltung und Tragweite bisweilen stark umstritten sind. Als gefestigte Quellen gelten die völkerrechtlichen Verträge, das Völkergewohnheitsrecht und die allgemeinen Rechtsgrundsätze, welche ausweislich Art. 38 I lit. a, b, c IGH-Statut von den Richtern am Internationalen Gerichtshof zu berücksichtigen sind. Völkerrechtliche Verträge sind Vereinbarungen zweier (bilateral) oder mehrerer (multilateral) Völkerrechtssubjekte auf dem Gebiet des Völkerrechts, die von einem Rechtsbindungswillen getragen sind. Insbesondere das Merkmal des Rechtsbindungswillens macht die Abgrenzung zu bloßen Absichtserklärungen und Beschlüssen schwierig, vgl. auch Soft Law. Auch bei den Gründungsdokumenten internationaler Organisationen, wie der Vereinten Nationen oder der Welthandelsorganisation, handelt es sich um völkerrechtliche Verträge. Das Völkergewohnheitsrecht setzt sich nach allgemeiner Meinung aus zwei Elementen zusammen: Einer Rechtsüberzeugung (opinio iuris) und der hiervon getragenen staatlichen Übung (consuetudo / state pratice). Die konkreten Anforderungen, welche insbesondere an die Staatenpraxis zu stellen sind, sind umstritten und müssen jeweils im Einzelfall bestimmt werden. Es können jedoch einige Merkmale, wie etwa die Dauer der staatlichen Übung oder die Nähe des Staates zur betreffenden Rechtsmaterie, zu ihrer Bestimmung herangezogen werden (handelt es sich etwa um einen Binnenstaat, kann dieser schwerer das Seevölkergewohnheitsrecht beeinflussen). Auch das Verhalten von Staaten in Bezug auf Übereinkünfte, welche mangels Rechtsbindungswillen noch keine völkerrechtlichen Verträge darstellen, kann zur Entstehung von Völkergewohnheitsrecht beitragen. Ein Staat kann seine Bindung an noch im Entstehen begriffenes Völkergewohnheitsrecht verhindern, indem er diesem ausdrücklich und wiederholt widerspricht (persistent objector). Neuerdings wird darüber diskutiert, ob auch das Verhalten sonstiger Völkerrechtssubjekte als consuetudo unmittelbar an der Entstehung von Völkergewohnheitsrecht mitwirkt. Gewisse Normen des Gewohnheitsrecht sind zudem zwingend, das heißt von ihnen darf nicht, auch nicht durch Vertrag (vgl. Art. 53 WVK), abgewichen werden (ius cogens). Beispiele für ius cogens-Normen im Völkerrecht sind das Piraterieverbot, das Verbot der Sklaverei und das Verbot des Völkermords. Die von den Kulturvölkern anerkannten allgemeinen Rechtsgrundsätze bestehen aus Prinzipien, die allen nationalstaatlichen Rechtsordnungen gemein sind und dieselben Grenzen setzen, d. h. Grundsätzen, die jedweder Rechtsordnung immanent sind, zum Beispiel pacta sunt servanda (Verträge müssen eingehalten werden), lex specialis derogat legi generali (das speziellere Gesetz geht den allgemeineren Gesetzen vor) oder lex posterior derogat legi priori (ein späteres Gesetz geht einem vorherigen vor), venire contra factum proprium (Zuwiderhandlung gegen das eigene frühere Verhalten), Prinzipien, die auf dem speziellen Charakter des Völkerrechts beruhen, und Grundsätzen der Rechtslogik. Der in Art. 38 I IGH-Statut aufgeführte Kanon der klassischen Rechtsquellen des Völkerrechts ist, zumal er auch direkt lediglich den Internationalen Gerichtshof betrifft, nicht abschließend. Insbesondere einseitige Rechtsakte und Sekundärrecht internationaler Organisationen, wie Resolutionen des Sicherheitsrats, werden heute allgemein als rechtsverbindlich akzeptiert. Allerdings ist fraglich, inwieweit es sich dabei tatsächlich um selbstständige Rechtsquellen handelt, denn die Geltung einseitiger (unilateraler) Rechtsakte wird meist gewohnheitsrechtlich begründet und Sekundärrecht leitet sich stets vom Primärrecht der Organisation, und damit von einem völkerrechtlichen Vertrag, ab. Resolutionen der Generalversammlung der Vereinten Nationen und Abschlussberichte internationaler Konferenzen, wie etwa die KSZE-Schlussakte, stellen hingegen keine allgemeinen Rechtsquellen im Völkerrecht dar. Es sind politische Empfehlungen und als solche völkerrechtlich nicht bindend. Sie werden jedoch unter dem Gesichtspunkt von soft law diskutiert. Verhältnis zum nationalen Recht Völkerrechtliche Bestimmungen sind für alle Staaten gültig, unabhängig davon, ob sie zugestimmt haben oder nicht. Das Verhältnis zwischen Völkerrecht und nationalem Recht lässt sich nur in Zusammenschau mit der jeweiligen staatlichen Rechtsordnung beantworten. Monismus (Völkerrecht und nationales Recht bilden eine einheitliche Ordnung) und Dualismus (Völkerrecht und nationales Recht sind völlig getrennte Rechtsordnungen) stellen zwei theoretische Extreme dar, die in der Praxis nirgends in Reinform anzutreffen sind. Das untenstehende Schaubild gibt einen Überblick über die verschiedenen Ansätze. Die Frage, ob eine völkerrechtliche Norm vom innerstaatlichen Rechtsanwender zu beachten ist, entscheidet sich allein danach, ob das jeweilige innerstaatliche Recht einen Umsetzungsakt verlangt oder nicht. Allgemein lässt sich jedoch sagen, dass die innerstaatliche Anwendung von Völkerrecht eigentlich in allen Rechtsordnungen eine hinreichend bestimmt formulierte Norm voraussetzt, die nicht nur an Staaten adressiert ist. Solche Normen werden als self-executing bezeichnet (nach richtiger Auffassung ist dieser Begriff jedoch dem jeweiligen nationalen Recht, nicht dem Völkerrecht zuzuordnen). In Deutschland sind gemäß S. 1 Grundgesetz die allgemeinen Regeln des Völkerrecht unmittelbar verbindlich und stehen über den Gesetzen (→ Völkerrechtsklausel). Über das Verhältnis dieser allgemeinen Regeln zu den Vorschriften des Grundgesetzes trifft Art. 25 GG keine Aussage. Das universelle Völkerrecht umfasst die gemeingültigen Rechtsvorschriften, nicht bloß die Rechtsgrundsätze. Eine Umsetzung in nationales Recht ist nicht erforderlich. Allgemeines Völkerrecht bricht jedes innerstaatliche Recht in Bund und Ländern, nimmt aber nur einen Rang unterhalb des (Bundes-)Verfassungsrechts ein. Völkervertragsrecht bedarf der Transformation, die in der Regel mit der Ratifikation durch die gesetzgebenden Körperschaften (Vertragsgesetz nach Abs. 2 GG) zusammenfällt, wodurch es in innerstaatliches Recht umgesetzt wird. Es steht dann im Rang eines Bundesgesetzes. Verhältnis zum Völkerstrafrecht Das Völkerstrafrecht ist ein Teilgebiet des Völkerrechts und regelt die unmittelbar aus dem Völkerrecht entstehende strafrechtliche Verantwortung von Einzelpersonen für schwerste Menschenrechtsverletzungen. Im Falle von Völkerrechtsverbrechen (Völkermord, Verbrechen gegen die Menschlichkeit, Kriegsverbrechen und dem Verbrechen der Aggression) gelten die obigen Ausführungen zu den Völkerrechtssubjekten wie auch hinsichtlich des Verhältnisses zum nationalen Recht nicht bzw. nur sehr eingeschränkt. Zum einen können Einzelpersonen (und nicht Staaten) völkerstrafrechtlich zur Verantwortung gezogen werden. Zum anderen bedarf es keiner Transformation in nationales Recht. Selbst entgegenstehendes nationales Recht, z. B. Amnestiegesetze, steht einer Strafbarkeit nach Völkerstrafrecht im Grundsatz nicht entgegen. Verhältnis zum Internationalen Gerichtshof Entscheidungen internationaler Gerichte stellen keine allgemeinen Rechtsquellen im Völkerrecht dar, weil ihre Wirkung auf die Parteien des konkreten Streits beschränkt bleibt. In der Praxis allerdings haben Urteile und Gutachten des Internationalen Gerichtshofs großen Einfluss auf die Erkennung und Bestimmung völkerrechtlicher Normen. Gerichtsentscheidungen sowie Lehrmeinung renommierter Völkerrechtler werden deshalb auch als Rechtserkenntnisquellen bezeichnet und sind als solche in Art. 38 I lit. d IGH-Statut aufgeführt. Verhältnis zum Soft Law Umstritten ist der Rechtscharakter des sogenannten Soft Law, also des „weichen Rechts“, welches keine allgemeine Rechtsquelle im Völkerrecht darstellt. Hierbei handelt es sich zumeist um Erklärungen und Vereinbarungen, welche nicht unmittelbar als rechtsverbindlich klassifiziert werden können, wie etwa bloße Absichtserklärungen. Obwohl es keine unmittelbare Verbindlichkeit aufweist, hat soft law einen Einfluss auf das Völkerrecht und wirkt an seiner Entstehung mit, sei es durch die Vorbereitung internationaler Konventionen oder die Weiterentwicklung des Völkergewohnheitsrechts. Geschichte des Völkerrechts Bereits in der Antike waren Parlamentärsverhandlungen üblich, um Schlacht- und Kriegsfolgen zu mindern. Als erste „völkerrechtliche“ Vereinbarung lässt sich das Kriegsverbot zu Zeiten der Olympischen Spiele verstehen, die als panhellenischer Wettkampf verstanden wurden. Als bisher ältester „völkerrechtlicher“ Vertrag, der im Wortlaut überliefert worden ist, gilt das zur Mitte des dritten Jahrtausends vor Christus geschlossene Freundschafts- und Handelsabkommen zwischen den Königen von Ebla und Assur. Die Eroberungen Alexanders des Großen schufen eine hellenistische Welt, die durch kunstvolle Diplomatie mittelmeerische Rechtsgrundlagen schufen, die durch das Römische Reich adaptiert und entwickelt wurden und im Codex Iustinianus ihren Höhepunkt fanden. Der Jesuit Francisco Suárez kann als Mitbegründer des Völkerrechts angesehen werden. 1625 fasste Hugo Grotius in seinem Werk De jure belli ac pacis („Über das Recht des Krieges und des Friedens“) die bis dahin entwickelten Regeln zusammen. Sie wurden weiterentwickelt von Samuel von Pufendorf, Christian Wolff und anderen. Den Stand des Völkerrechts gegen Ende des 18. Jahrhunderts hat Emer de Vattel zusammengefasst. 1899 und 1907 wurden in den Haager Friedenskonferenzen kriegsvölkerrechtliche Regelungen festgelegt und der Haager Schiedsgerichtshof eingerichtet. Die Haager Landkriegsordnung wurde zur völkerrechtlichen Doktrin der zwei Weltkriege des 20. Jahrhunderts. Einer der entscheidenden Aspekte des modernen Völkerrechts, das Gewaltverbot, trat durch den Ersten Weltkrieg lange Zeit so zurück, dass es erst nach dem Ende dieses Krieges zum ersten Mal im Briand-Kellogg-Pakt (Kriegsächtungspakt) zwischen den beteiligten Staaten vereinbart wurde. Zuvor beschränkte sich das Völkerrecht, was den Krieg angeht, darauf, zu versuchen, Grausamkeiten einzudämmen und die Zivilbevölkerung zu schützen. Der deutsche General Erich Ludendorff machte die Einstellung der militärischen Elite zum Völkerrecht am Einsatz von U-Booten fest. Diese im Ersten Weltkrieg eingesetzten neuen Waffen sorgten für so große Verunsicherung, dass die deutsche Marine es als Knebelung verstand, nur noch feindliche Handelsschiffe angreifen, diese aber nicht versenken zu dürfen. Der Angriff musste mit Warnschüssen vor den Bug angekündigt, und am Ende mussten Schiffsbrüchige aufgenommen werden. Mit dem Völkerbund (gegründet 1919) und seiner Nachfolgeorganisation, den Vereinten Nationen (seit 1945), wurde erstmals eine gemeinsame internationale Ebene geschaffen, die auf die Sicherung eines für alle Staaten verbindlichen Völkerrechts abzielt. Als Meilensteine des (positiven) Völkerrechts sind zu nennen: der Westfälische Friede von 1648 der Frieden von Utrecht von 1713 die Wiener Kongreßakte vom 9. Juli 1815 die Heilige Allianz vom 26. September 1815 das Aachener Kongressprotokoll vom 21. November 1818 der Pariser Frieden vom 30. März 1856 die Genfer Konvention vom 22. August 1864 die Petersburger Erklärung vom 11. Dezember 1868 der Berliner Vertrag vom 13. Juli 1878 die Kongo-Akte vom 26. Februar 1885 die Haager Friedenskonferenzen 1899 und 1907 die Haager Landkriegsordnung vom 18. Oktober 1907 die Pariser Vorortverträge 1919 und 1920 der Briand-Kellogg-Pakt vom 27. August 1928 die Konvention von Montevideo von 1933 die Charta der Vereinten Nationen vom 26. Juni 1945 die Genfer Abkommen vom 12. August 1949 die zwei Zusatzprotokolle vom 8. Juni 1977 zu den Genfer Abkommen von 1949 das Seerechtsübereinkommen der Vereinten Nationen vom 10. Dezember 1982 der Zwei-plus-Vier-Vertrag vom 12. September 1990 das Römische Statut des Internationalen Strafgerichtshofs vom 17. Juli 1998 Diese hergebrachte Periodisierung des Völkerrechts gerät seit der letzten Jahrtausendwende zunehmend in Bewegung, indem neben den Staaten auch nichtstaatliche Akteure an Bedeutung gewinnen und rechtspluralistische Tendenzen eingreifen. Theorie des Völkerrechts Die Theorie des Völkerrechts betrifft zum einen die Frage der Normativität von Völkerrecht (mithin die Ebene der Rechtstheorie), zum anderen die Frage einer Gesamtbeschreibung des Völkerrechts, die einmal auf der höchsten dogmatischen Abstraktionsstufe (deskriptiv), ein andermal auf der Ebene der Rechtsphilosophie (normativ) erfolgen kann. Normativität des Völkerrechts Die Normativität des Völkerrechts wurde von der Naturrechtslehre aus dem göttlichen Willen abgeleitet. Voluntaristische Theorien führen sie auf den Willen der Völkerrechtssubjekte zurück, die den jeweiligen Rechtsnormen zugestimmt haben. Teilweise wurde dabei auf die Selbstbindung der Staaten (Hegel, Erich Kaufmann), teilweise auf den Konsens unter den Staaten abgestellt (Triepel, Rechtspositivismus). Hans Kelsen führte sie auf eine hypothetische so genannte Grundnorm zurück, die von anderen Autoren als reine Fiktion kritisiert wurde (Kelsen entgegnet in seiner letzten Veröffentlichung: sie ist reine Fiktion, denn die Geltung jeder Rechtsordnung beruhe auf einer praktischen Fiktion, die eben vom Willen der Teilnehmer abhänge, eine Selbstbegründung sei denk-unlogisch). Soziologische Ansätze stellen auf die soziale Natur des Menschen und die natürliche Solidarität unter den Völkern ab (Georges Scelle). Der Rechtscharakter des Völkerrechts wurde und wird von zahlreichen Autoren bestritten. Kelsen, bekennender Anhänger der Völkerrechtsidee, erkannte dem seinerzeitigen Völkerrecht vor allem wegen weitgehend fehlender Durchsetzungsmechanismen nur den Charakter von in Entstehung befindlichem Recht zu. H.L.A. Hart bestritt zwar nicht den Rechtscharakter des Völkerrechts, hielt es allerdings nur für eine Ansammlung primärer Regeln, denen es zumindest zu seiner Zeit noch an einer allgemein akzeptierten, sekundären rule of recognition fehle. Heute bestreiten vornehmlich einige US-amerikanische Autoren die Normativität des Völkerrechts und sprechen ihm die Eigenschaft ab, auf das Verhalten von Staaten einwirken zu können. Während die New Haven School noch eine begrenzte Normativität des Völkerrechts anerkennt, sehen dies manche Vertreter einer ökonomischen Analyse des Rechts wie Jack Goldsmith und Eric A. Posner anders. Nach ihnen ist das Völkerrecht rein epiphänomenal: Staaten interessierten sich vor allem für ihre Sicherheit und die Mehrung ihrer Macht. Aufgrund dieser Interessen verhielten sich Staaten in gewissen Situationen gleichförmig. Werde dieses gleichförmige Staatenverhalten nun mit dem Prädikat „Gewohnheitsrecht“ versehen, so habe dies dennoch keinen Einfluss auf das Staateninteresse. Denn sobald sich etwa die Umstände derart änderten, dass ein Staat bei abweichendem Verhalten seine Interessen besser befriedigen könne, ändere dieser Staat sein Verhalten entsprechend. An eine mögliche Beschädigung seines Rufs verschwende der Staat dabei keinen Gedanken. Andere Vertreter der ökonomischen Analyse (Joel Trachtman, Andrew Guzman) gelangen mit ihren Modellen zu dem Ergebnis, dass das Völkerrecht in gewissen Situationen durchaus Einfluss auf das Staatenverhalten haben könne, da ein potenzieller Rechtsbrecher Reputationsverluste in seine Kalkulation miteinbeziehe. Das Völkerrecht besitzt nach ihnen also eine – wenn auch begrenzte – Normativität. Teile der Critical legal studies halten Recht für ein Instrument zur Verbrämung hegemonialer Machtpolitik und bringen seiner Normativität deswegen Skepsis entgegen. In Kontinentaleuropa wird dagegen oftmals auf der Basis eines, auf den Staatenkonsens gestützten, Rechtspositivismus gearbeitet, ohne die Frage der Normativität des Völkerrechts weiter zu problematisieren. Theoretische Gesamtbeschreibung des Völkerrechts Die aktuelle Diskussion um eine theoretische Gesamtbeschreibung der Völkerrechtsordnung wird in Europa von zwei Begriffen beherrscht, dem der internationalen Gemeinschaft (oder Völkergemeinschaft) und dem der Konstitutionalisierung. Die Diskussion findet auf verschiedenen Ebenen statt und betrifft einerseits deskriptive (retrospektive/dogmatische), andererseits normative (prospektive/philosophische) Aussagen über das Völkerrecht, was gelegentlich zu Missverständnissen führt. Die Diskussion um die „internationale Gemeinschaft“ gewann durch die Verwendung dieses Begriffs in den Artikeln zur Staatenverantwortlichkeit der UN-Völkerrechtskommission von 2001 an Aktualität (Art. 33 (1) u. a.). Die Existenz einer „internationalen Gemeinschaft“ wird meist an gewissen aus der Rechtsordnung ableitbaren Gemeinschaftswerten festgemacht (Menschenrechte, Umweltschutz). Dogmatisch hat die Existenz von solchen Gemeinschaftswerten Konsequenzen u. a. für die Begründung von Normenhierarchien (z. B. ius cogens) oder für das Entstehen von Pflichten für Staaten gegen deren Willen. Dies wäre nach dem klassischen, auf zwischenstaatliche Koordination oder Kooperation ausgerichteten Völkerrecht undenkbar. Parallel dazu wird von einer Konstitutionalisierung des Völkerrechts gesprochen. Diese Diskussion stützt sich – bei allen Unterschieden im Detail – auf zwei Beobachtungen: Einerseits stellten staatliche Verfassungsdokumente aufgrund des stetig sich verdichtenden Netzes internationaler Rechtsbeziehungen, in das Staaten eingebunden sind, heute nur noch eine unvollständige Rechtsgrundlage für das Regieren in einem Staat dar. Die Verfassung eines Staats könne daher nur unter Einbeziehung der Völkerrechtsordnung begriffen werden. Andererseits erlaubten es verschiedene Entwicklungen im Völkerrecht, dort Elemente einer Verfassung auszumachen (z. B. Normenhierarchie, Frage des Verfassungscharakters der UN-Charta). Dogmatische Auswirkungen hat die Konstitutionalisierungsdebatte etwa auf die Frage, wieweit die domaine reservé eines Staats reicht, oder ob Normenkollisionen nach Wertungspräferenzen gelöst werden dürfen. Hierin zeigt sich eine gewisse Überschneidung der Diskussionen um „internationale Gemeinschaft“ und „Konstitutionalisierung“. Neben diesen beiden vor allem in Kontinentaleuropa geführten Diskussionen darf nicht über eine verbreitete und massive Skepsis unter Staatenvertretern und Völkerrechtlern hinweggesehen werden. Viele von ihnen sehen in den Staaten nach wie vor die zentralen Völkerrechtssubjekte. Sie verweisen dabei nicht nur auf die institutionelle Schwäche der „internationalen Gemeinschaft“, sondern auch auf die Gefahr der Willkür, die die Einführung von wertenden Elementen ins Völkerrecht birgt. Eine weitere Debatte beschäftigt sich mit der Frage, ob das Völkerrecht nicht auf eine zunehmende Fragmentierung zusteuert. Diese Debatte geht von zwei Beobachtungen aus: Erstens kommt es zwischen verschiedenen völkerrechtlichen Regimen immer häufiger zu Normenkollisionen (z. B. zwischen Welthandelsrecht und Umweltvölkerrecht oder zwischen Investitionsschutzrecht und den Menschenrechten). Zweitens kommt es zwischen den immer zahlreicher werdenden internationalen Gerichtshöfen und Schiedshöfen zu Überschneidungen in der Zuständigkeit, was zu Kompetenzkonflikten (z. B. zwischen dem Internationalen Seegerichtshof und dem Europäischen Gerichtshof im MOX Plant Case) oder unterschiedlichen Entscheidungen in derselben Frage (z. B. zwischen Internationalem Gerichtshof und Jugoslawientribunal in der Frage der Zurechnung des Handelns von nichtstaatlichen Akteuren – Nicaragua-Fall vs. Tadić-Entscheidung) führt. Die Fragmentierungsdiskussion kann in gewisser Weise als Kritik an der im Rahmen der Konstitutionalisierungsdebatte von manchen Autoren vertretenen These von der Einheit der Völkerrechtsordnung verstanden werden. Im Jahr 2006 verabschiedete die Völkerrechtskommission einen Bericht über den Umgang mit Normenkollisionen. Völkerrechtliche Verantwortung Die völkerrechtliche Verantwortung bezeichnet die Pflichten von Völkerrechtssubjekten, die aus der Verletzung von Völkerrecht entstehen. Verletzte Staaten haben Anspruch auf Beendigung und Nichtwiederholung von Völkerrechtsverletzungen sowie Entschädigungsansprüche (vgl. Art. 30, 31 und 34 ff. ASR). Die Völkerrechtskommission (engl. ILC) hat die „Artikelentwürfe über die Verantwortlichkeit von Staaten für völkerrechtswidriges Handeln“(ASR) herausgegeben. Diese kodifizieren zum Teil geltendes Gewohnheitsrecht, sollen aber auch das Recht weiterentwickeln. In diesem Zusammenhang wird daher von Soft Law gesprochen. Weiterhin entwirft die Völkerrechtskommission Artikel über die Verantwortlichkeit von Internationalen Organisationen. Internationale Streitbeilegung Das Gebot der friedlichen Streitbeilegung ist Völkergewohnheitsrecht. Gewöhnlich zählen Menschenrechtsschutzverfahren nicht zur internationalen Streitbeilegung. Klauseln zur Streitbeilegung sind Bestandteil der meisten Sachverträge über konkrete Materien. Die wichtigsten Methoden der internationalen Streitbeilegung finden sich in Art. 33 UN-Charta. Es gilt das Prinzip der freien Wahl der Streitbeilegungsmethode. Zwei Methoden sind zu unterscheiden. Zum einen gibt es die diplomatisch-politische Beilegung von Streitigkeiten (Beispiele: Verhandlung, Vermittlung, Vergleich). Bei dieser Methode ergeht keine rechtsverbindliche Entscheidung. Der zweite Grundtyp der Streitbeilegung ist die rechtlich-gerichtsförmige Streitbeilegung. Hierbei werden Rechtsnormen angewendet und es kommt zu einer rechtsverbindlichen Entscheidung. Diplomatisch-politische Mittel der Streitbeilegung Verhandlungen sind das üblichste Mittel der Streitbeilegung. Viele Sachverträge sehen Verhandlungen als Mittel der Streitbeilegung vor (Art. 4 WTO-DSU; Art. 283 UNCLOS). Meistens sind Verhandlungen als Vorstufe vor einer rechtlich-gerichtsförmigen Streitbeilegung vorgesehen (Art. 14 Abs. 1 Montreal-Konvention; Art. 118 NAFTA-Abkommen). Daneben gibt es die Untersuchung. Manchmal werden Ad-hoc-Untersuchungskommissionen eingesetzt (Untersuchungskommission zu den Vorkommnissen in Darfur, Sudan 2004/05; die UNO setzte eine fact-finding mission zum Gazakrieg von 2008/09 ein). Die dritte diplomatisch-politische Streitbeilegungsmethode ist die Vermittlung. Vermittlung bedeutet die Einschaltung eines unbeteiligten Dritten, der helfen soll, eine Kompromisslösung zu finden. Internationale Schiedsgerichtsbarkeit Die internationale Schiedsgerichtsbarkeit ist eine rechtlich-gerichtsförmige Streitbeilegung. Internationale Gerichtsbarkeit Die wichtigsten internationalen Gerichtshöfe sind der Internationale Gerichtshof, der Internationale Seegerichtshof und der Internationale Strafgerichtshof. Aktuelle Entwicklungen Heute heftig umstrittene und für die zukünftige Entwicklung des Völkerrechts entscheidende Gebiete sind: das ius cogens, die humanitäre Intervention als Ausnahme vom Gewaltverbot und die präventive Selbstverteidigung. Welche Normen zum ius cogens gehören, ist im Einzelnen umstritten, jedoch zählen in jedem Fall der Kern des Gewaltverbots und elementare Menschenrechte zum unabdingbaren Bestand des Völkerrechts mit absoluter Wirkung (Wirkung erga omnes). Weitere von der Völkerrechtskommission (ILC) als denkbar genannte Beispiele umfassen Handlungen wie Sklavenhandel, Piraterie und Völkermord, die Verletzung der Gleichheit der Staaten sowie des Selbstbestimmungsrechts der Völker. Humanitäre Interventionen Bei der humanitären Intervention sind nicht nur die meisten Stellungnahmen sehr politisch gefärbt, vor allem herrscht oft Begriffsverwirrung. Zunächst wird zwischen Interventionen zur Rettung eigener Staatsangehöriger und der zur Rettung anderer Menschen unterschieden. Die Intervention zur Rettung eigener Staatsangehöriger auf fremdem Gebiet wird zum Teil als völlig unzulässig angesehen und von anderen Autoren mit der Völkerrechtsverletzung (Schutzpflichten) des Staates, in dem die Ausländer festgehalten werden, oder aber mit dem Hinweis gerechtfertigt, dass die Intervention gar nicht auf eine fremde Staatsgewalt, sondern auf eine kriminelle Gruppierung abziele. Bei den humanitären Interventionen zur Rettung anderer Menschen muss wiederum zwischen den vom Weltsicherheitsrat autorisierten und den nicht von ihm autorisierten unterschieden werden. Die Charta der UNO gibt dem Sicherheitsrat die Möglichkeit, gegen ein als „Bedrohung des Weltfriedens“ qualifiziertes Verhalten eines Staates zuletzt auch militärische Sanktionen zu verhängen. Hierzu sind gewohnheitsrechtlich keine direkt dem Sicherheitsrat unterstellten Truppen erforderlich, vielmehr werden Staaten zur Gewaltanwendung ermächtigt. Es ist umstritten, ab wann innerstaatliche Vorgänge den Weltfrieden gefährden, jedoch sieht der Sicherheitsrat diesen regelmäßig als bedroht an, wenn Völkermord oder sogenannte „ethnische Säuberungen“ Fluchtbewegungen auslösen, die auf die Nachbarstaaten übergreifen. Selbst wenn sich der innerstaatlich vorangetriebene Völkermord nicht auf die Nachbarstaaten auswirkt (z. B. keine Flüchtlingsströme), kann eine Bedrohung des Weltfriedens gegeben sein. Denn nach mittlerweile herrschender Auffassung wirkt das Verbot des Völkermordes erga omnes, begründet also eine Verpflichtung gegenüber allen Staaten der internationalen Gemeinschaft. Zudem zählt das Verbot des Völkermordes zum ius cogens und ist somit eine zwingende völkerrechtliche Norm. Völkermord betrifft damit immer die gesamte Staatengemeinschaft. Gleiches gilt wohl auch für gravierende und systematische Verstöße gegen elementare Menschenrechte. Insbesondere durch das Vetorecht der ständigen Mitglieder oder politisch prekäre Konstellationen ist der Sicherheitsrat jedoch oftmals beschlussunfähig. Hier tut sich die eigentliche Fragestellung auf: Dürfen die Staaten bei Handlungsunfähigkeit des Sicherheitsrats als ultima ratio auch unilateral bzw. multilateral Gewalt anwenden? Eine Ansicht verneint dies kategorisch mit Hinweis auf das Gewaltverbot und die Missbrauchsgefahr. Die Gegenmeinung rechtfertigt auch eine humanitäre Intervention eines oder mehrerer Staaten ohne die Autorisierung durch den Sicherheitsrat im Falle eines sich gerade ereignenden Genozids, zum einen mit der naturrechtlichen Begründung, dass keine Rechtsordnung dazu verurteilen dürfe, einem Völkermord zuzusehen; zum anderen mit einer teleologischen Einschränkung des Gewaltverbots der UN-Charta; oder auch einfach mit neuem, die Charta überlagerndem Gewohnheitsrecht und dem Selbstbestimmungsrecht der Völker, das diesen partiell den Charakter von Völkerrechtssubjekten verleiht, womit diese damit andere um Hilfe bitten können. Präventive Selbstverteidigung Während die UN-Charta ein Recht auf präventive Selbstverteidigung nicht vorsieht, ist nach Völkergewohnheitsrecht eine präventive, genauer: antizipatorische bzw. neutral: vorbeugende Selbstverteidigung in gewissen Situationen (Caroline-Kriterien) möglich. Dies ist nach überwiegender Meinung jedoch nur dann der Fall, wenn ein Angriff nachweislich unmittelbar bevorsteht und ein weiteres Abwarten die Effektivität der Verteidigung untergraben würde. Nach herrschender Meinung besteht derzeit kein Recht auf eine einer vermuteten Bedrohung (um Jahre) vorgreifende Verteidigung, wie sie etwa in der National Security Strategy vom September 2002 der USA unter Berufung auf den Begriff der präemptiven Selbstverteidigung angenommen wird. Damit sich die normative Kraft des Faktischen in einem solchen Fall durchsetzen kann, müsste die dergestalt neu postulierte Regel vom überwiegenden Teil der Staatengemeinschaft durch formalen Beschluss oder durch langdauernde stillschweigende Zustimmung (acquiescence) akzeptiert werden. Das Selbstverteidigungsrecht im Völkerrecht In der völkerrechtlichen Literatur wird teilweise die Meinung vertreten, dass eine im Einklang mit der UN-Charta stehende individuelle oder kollektive Selbstverteidigung nur gegen einen Staat gerichtet sein könne, dem eine Angriffshandlung bzw. ein bewaffneter Angriff zugerechnet werden kann. Die Zurechnung von Handlungen privater Rechtssubjekte, zu denen Terroristen nach der hier vertretenen Auffassung gehören (sofern man sie nicht als eigenständige Völkerrechtssubjekte betrachtet), könne nur erfolgen, wenn der betreffende Staat diese Personen auf seine Initiative hin entsendet oder in einem solchen Maße aktiv unterstützt (z. B. durch Ausbildung, Waffenlieferung) hat, dass von einer effektiven Kontrolle gesprochen werden kann. Ferner sollten auch „organisatorische Verknüpfungen“ zwischen Staatsregierung und den von ihrem Gebiet aus operierenden Terroristen ausreichen, wenn diese einen solchen Grad erreicht hätten, dass letztere „faktisch als Teil der staatlichen Strukturen“ anzusehen wären. Strittig ist, ob die Gewährung sogenannter safe havens, also Rückzugsmöglichkeiten für Terroristen innerhalb eines Staatsgebietes, ausreichend sein könnte, um das Selbstverteidigungsrecht gegen den gesamten betreffenden Staat anzuwenden. Allerdings ist auch im Rahmen des Selbstverteidigungsrechts das Prinzip der Verhältnismäßigkeit zu beachten, das insbesondere die Eignung, Erforderlichkeit und das Übermaßverbot im Hinblick auf den Einsatz militärischer Zwangsmaßnahmen zu berücksichtigen hat. Problematik der Durchsetzung des Völkerrechts Da das Völkerrecht alle zwischenstaatlichen Abkommen umfasst, wird heute oft von zwingendem Völkerrecht gesprochen, was grundlegende Menschenrechtsnormen völkerrechtlich verbindlich macht. Zwingendes Völkerrecht ist jedoch nicht genau definiert. Meist werden die EMRK-Richtlinien, die UN-Pakte und ähnliche als Menschenrechte bekannte Verträge als zwingendes Völkerrecht verstanden. Die meisten Mitglieder der UNO haben solche Menschenrechtskonventionen unterzeichnet. Die Problematik besteht jedoch in der Durchsetzung des Völkerrechts. Eine Durchsetzung ist kaum möglich: Als historisches Beispiel war Belgien während des Zweiten Weltkriegs völkerrechtlich als neutraler Staat anerkannt und respektiert, dennoch konnte diese Neutralität bei der Verletzung durch den deutschen Angriff im Mai 1940 von niemandem gewährleistet werden. Ebenso können die Folterungen in Guantánamo betrachtet werden. Völkerrechtliche Normen können somit nur in bestimmtem Umfang durchgesetzt werden. Problematik der demokratischen Legitimation im Völkerrecht Völkerrecht wird durch Delegationen eines Landes in Kommissionen und gemeinsamer Arbeit erstellt. Die Delegationen der verschiedenen Staaten bestehen aus der Exekutive eines Staates, also Mitgliedern der Regierung. Diese erlassen Gesetze, welche sie später durchsetzen sollen. In demokratischen Ländern gilt jedoch das Prinzip der Gewaltenteilung, dabei werden Exekutive, Legislative und Judikative voneinander getrennt. Somit wäre eigentlich das Erlassen von Gesetzen Sache der Legislative. Bei der UNO sind alle Regierungen von Mitgliedstaaten bei der Beratung und Ausarbeitung von völkerrechtlichen Verträgen involviert, somit auch alle undemokratischen Elemente der Staatengemeinschaft. Die aus solchen Verträgen resultierenden Bestimmungen gelten aber wiederum für alle. Oft geschieht dies auch, ohne dass sie von einem Staatsvolk abgesegnet wurden. Problematisch wurde diese Entwicklung erst in den letzten Jahren, als es zu einem radikalen Verständniswechsel vom Völkerrecht hin zum internationalen Recht gekommen ist. Die daraus resultierenden Gesetze greifen ins Privatleben des Souveräns im Allgemeinen und des einzelnen Bürgers im Besonderen ein, ohne dass dieser die Legitimation dazu erteilt hat. Menschheit als Völkerrechtssubjekt Das Völkerrecht begründet Rechte und Pflichten grundsätzlich nur für Völkerrechtssubjekte. Völkerrechtssubjekt sind grundsätzlich nur Staaten oder von Staaten geschaffene völkerrechtliche Körperschaften, z. B. die EU, WTO usw. Die Menschheit als solche, also die Gesamtheit aller auf der Erde lebenden Menschen, hat in klassischer völkerrechtlicher Sicht keine Völkerrechtssubjektivität und folglich weder Rechte noch Pflichten. Es gibt zwar die Vereinten Nationen, aber diese sind im Rechtssinne nur ein Verein von Staaten, nicht eine Vertretung der Menschheit als solcher. Die Menschheit als solche existiert für das Völkerrecht gar nicht. Das führt, etwa im Bereich des Umweltrechts, zu Schwierigkeiten. Beispiel: Staaten, welche die Klimakonvention nicht unterschreiben, handeln grundsätzlich nicht rechtswidrig, wenn sie klimaschädliche Gase emittieren; Staaten, welche die UN-Seerechtskonvention nicht unterschreiben, können ihren Müll beliebig in internationale Gewässer versenken – denn das Klima und auch die Hohe See gehören niemandem. Neuerdings vertritt der Rechtswissenschaftler Menno Aden aber die Auffassung, dass die Menschheit Völkerrechtssubjekt sei, also als solche völkerrechtliche Rechte und gegebenenfalls auch Pflichten habe: Das Klima, die Hohe See usw. gehören nicht niemandem, sondern der Menschheit als solcher. Es ist also nach dieser Theorie auch ohne ausdrücklichen völkerrechtlichen Vertrag rechtswidrig, Gemeinschaftsgüter der Menschheit zu beschädigen oder exklusiv für sich in Anspruch zu nehmen. Zu diesen Gemeinschaftsgütern der Menschheit gehören auch übernationale Kulturgüter wie beispielsweise die Pyramiden, Anspruch auf historische Wahrheit und Informationsansprüche (beispielsweise, was sagen die Akten des Staates X über einen bestimmten historischen Vorgang usw.). Hieraus ergibt sich nach Aden: Die Menschheit hat als solche auch einen Anspruch gegen jeden Staat, dass dieser seine Rechtsordnung so einrichtet, dass jeder einzelne Mensch gleich welcher Herkunft Rechtsschutz genießt, und zwar im Rahmen gewisser unveräußerlicher Mindestgrundsätze: unparteiische Richter, Gewährung rechtlichen Gehörs, Zügigkeit des Verfahrens usw. Wenn ein Staat wegen Revolution, Krieg oder diktatorischer Regierung das völkerrechtlich bestimmte Mindestmaß an Rechtsstaatlichkeit nicht gewährleisten kann oder will, so darf ein anderer Staat nach dem Grundsatz der größten Nähe (Internationale Notzuständigkeit; Proximitätsgrundsatz) an seiner Stelle tätig werden. Weitere internationale Institutionen UN-Menschenrechtskommission UN-Menschenrechtsrat (Nachfolger der Menschenrechtskommission) Haager Akademie für Völkerrecht Organisation der nicht-repräsentierten Nationen und Völker Siehe auch Ad-hoc-Strafgerichtshof Odious debts Recht auf Entwicklung – ein Bestandteil des Völkerrechts Seevölkerrecht, Weltraumrecht Staatsrecht, öffentliches Recht UN-Konvention Literatur Deutsch Bardo Fassbender, Helmut Philipp Aust (Hrsg.): Basistexte: Völkerrechtsdenken. 1. Auflage, Nomos Verlagsgesellschaft, Baden-Baden 2012, ISBN 978-3-8252-3721-9. Stephan Hobe, Otto Kimminich: Einführung in das Völkerrecht. 9. Aufl., Tübingen 2008, ISBN 978-3-7720-8304-4. Knut Ipsen: Völkerrecht. 5. Aufl., München 2004, ISBN 3-406-49636-9. Wilhelm G. Grewe: Epochen der Völkerrechtsgeschichte. 2. Aufl., Baden-Baden 1988, ISBN 3-7890-1608-X. Nadine Grotkamp: Völkerrecht im Prinzipat. Möglichkeit und Verbreitung, Nomos Verlagsgesellschaft, Baden-Baden 2009, ISBN 978-3-8329-4826-9. Matthias Herdegen: Völkerrecht. 11. Aufl., München 2012, ISBN 978-3-406-63159-7. Hanspeter Neuhold, Waldemar Hummer, Christoph Schreuer: Österreichisches Handbuch des Völkerrechts. 4. Aufl., Wien 2005, ISBN 3-214-14913-X. August Reinisch: Österreichisches Handbuch des Völkerrechts. 5. Aufl., Wien 2013, ISBN 978-3-214-14917-8. Peter Fischer, Heribert Franz Köck: Völkerrecht. 6. Aufl., Wien 2004, ISBN 3-7073-0517-1. Wolfgang Graf Vitzthum: Völkerrecht. 5. Aufl., Berlin [u. a.] 2010, ISBN 978-3-89949-714-4. Jost Delbrück, Rüdiger Wolfrum, Georg Dahm: Völkerrecht. Berlin [u. a.] 1989. Hans Kelsen: Das Problem der Souveränität und die Theorie des Völkerrechts [zuerst 1920], 2. Aufl., Tübingen 1928 (Nachdruck Aalen 1960). Ignaz Seidl-Hohenveldern: Recht der Internationalen Organisationen einschließlich der supranationalen Gemeinschaften. 7. Aufl., Köln 2000, ISBN 3-452-24650-7. Alfred Verdross, Bruno Simma: Universelles Völkerrecht – Theorie und Praxis. 3. Aufl., Berlin 1984, ISBN 3-428-05708-2. Karl-Heinz Ziegler: Völkerrechtsgeschichte. 2. Aufl., München 2007, ISBN 978-3-406-56593-9. Bernhard Kempen, Christian Hillgruber: Völkerrecht. 2. Aufl., München 2012, ISBN 978-3-406-58988-1. Menno Aden: Völkerrecht als Grundlage des internationalen Wirtschaftsrechts. In: Internationales Privates Wirtschaftsrecht, München 2006. Josef Bordat: Annexion – Anbindung – Anerkennung. Globale Beziehungskulturen im frühen 16. Jahrhundert. Hamburg 2008, ISBN 978-3-86850-293-0. Matthias Ruffert, Christian Walter: Institutionalisiertes Völkerrecht. München 2009, ISBN 978-3-406-59530-1. Gerhard Scheit: Der Wahn vom Weltsouverän. Zur Kritik des Völkerrechts. Ça ira Freiburg i. Br. 2009, ISBN 978-3-924627-15-7. Robert Pfeffer: Das Verhältnis von Völkerrecht und Landesrecht. Tübingen 2009, ISBN 978-3-16-149976-0. Matthias Hartwig: Völkerrechtliche Praxis der Bundesrepublik Deutschland im Jahre 2007. In: Zeitschrift für ausländisches öffentliches Recht und Völkerrecht (ZaöRV), Bd. 70 (2010), S. 181 (PDF). Peter Häberle: Der kooperative Verfassungsstaat – aus Kultur und als Kultur, Vorstudien zu einer universalen Verfassungslehre. Duncker und Humblot, Berlin 2013. Markus Beham, Melanie Fink, Ralph Janik: Völkerrecht verstehen. 1. Aufl., Wien 2015, ISBN 978-3-7089-1299-8; 2. Aufl., Facultas, 2019, ISBN 978-3-7089-1787-0. Französisch Catherine Denis: Le pouvoir normatif du Conseil de sécurité des Nations Unies. Bruylant, Brüssel [u. a.] 2004, ISBN 2-8027-1943-2. Robert Kolb: Les cours généraux de droit international public de l’Académie de La Haye. Bruylant, Brüssel [u. a.] 2003, ISBN 2-8004-1327-1. Gérard Cohen Jonathan: Droit international, droits de l’homme et juridictions internationales. Nemesis, Brüssel [u. a.] 2004, ISBN 2-8027-1900-9. Nguyen Quoc Dinh, P. Daillier, A. Pellet: Droit International Public. L.G.D.J, Cedin Paris X, 6. Auflage, Paris 1999. Terry Olson, Paul Cassia: Le droit international, le droit européen, et la hiérarchie des normes. In: Droit et justice aux éditions, Presse universitaire française, ISBN 2-13-055494-6. Englisch Weblinks Charta der Vereinten Nationen Uphold International Law (englisch) Genfer Abkommen vom 12. August 1949 Zusatzprotokoll vom 8. Juni 1977 zu den Genfer Abkommen Max-Planck-Institut für ausländisches öffentliches Recht und Völkerrecht Aus Politik und Zeitgeschichte: Die Vereinten Nationen und das Völkerrecht Memorandum: Die Zukunft des Völkerrechts in einer globalisierten Welt (dt. u. engl.), hg. von der Heinrich-Böll-Stiftung 2004 (PDF; 289 kB) Ernst Benda: (zwei Vorträge, 10. November 2003) Lothar Brock: Neue Sicherheitsdiskurse: Vom erweiterten Sicherheitsbegriff zur globalen Konfliktintervention, in: Wissenschaft & Frieden, Heft 4/2005 Thomas Assheuer: Völkerrecht – Wann ist ein Krieg gerechtfertigt? (Die Zeit Nr. 01/2006, 29. Dezember 2005) Josef Bordat: (PDF; 188 kB) Deutsche Gesellschaft für Wehrrecht und humanitäres Völkerrecht e. V. Einzelnachweise Volkerrecht
Q4394526
586.058725
215961
https://de.wikipedia.org/wiki/%C3%98
Ø
Der Buchstabe Ø (Kleinbuchstabe ø) kommt im Dänischen, Norwegischen, Färöischen, Südsamischen, Altschwedischen sowie dem Altisländischen vor. Der Buchstabe und seine Aussprache entsprechen dem Ö im Deutschen, Schwedischen und Isländischen. Ø kann als Ö (z. B. ins Deutsche oder Schwedische), Œ (z. B. ins Französische) oder OE (z. B. ins Englische) transkribiert werden. Aus Marketing­erwägungen hat seine Verwendung auch Einzug in die deutsche Sprache gehalten. Alphabetische Sortierung Im Dänischen, Norwegischen und Färöischen wird das Ø am Ende des Alphabets hinter dem Z (auf Färöisch Ý) einsortiert, wobei das dänische und das norwegische Alphabet auf Æ, Ø, Å enden. Das färöische Alphabet endet auf Æ, Ø. Im Finnischen, Isländischen und Schwedischen wird das "Ø" unter "Ö" einsortiert, international unter "O". Wie das isländische und schwedische Ö wird auch das Ø nicht bei O einsortiert. Das hängt damit zusammen, dass das internationale Ö (das deutsche Ö) als eine Ligatur Œ aus O und E empfunden und entsprechend einsortiert wird, während das nordische Ø ein eigenständiger Buchstabe ist. Verwendung als Ersatzzeichen Das große Ø wird gelegentlich aus technischen Gründen anstatt der ähnlich aussehenden Zeichen für Durchmesser bzw. Durchschnitt (arithmetisches Mittel) und Leere Menge (∅) verwendet. Dies ist jedoch typografisch falsch und sollte grundsätzlich vermieden werden. Lösungsmöglichkeit ist neben Ausschreiben der gemeinten Beschreibung die Verwendung des jeweils vorgesehenen Zeichens. Buchstabieren Laut DIN 5009 ist beim Buchstabieren der Buchstabe mit dem speziellen Ansagewort schräggestrichen gefolgt von dem Ansagewort für O laut der verwendeten Buchstabiertafel anzusagen, also schräggestrichen Offenbach bzw. schräggestrichen Oscar. Darstellung auf Computersystemen Im ASCII-Zeichensatz sind die beiden Zeichen Ø und ø nicht enthalten, weshalb viele ältere Computersysteme sie nicht darstellen konnten. Dieses Problem wurde 1986 von der ASCII-Erweiterung ISO 8859-1 (auch als Latin-1 bekannt) behoben. Fast alle modernen Computer verwenden den Unicode-Standard und können so die Zeichen problemlos verarbeiten und darstellen. Weblinks Einzelnachweise O-strich O-strich O-strich O-strich Altisländische Sprache
Q28827
86.054695
9789
https://de.wikipedia.org/wiki/843
843
Ereignisse Politik und Weltgeschehen Frankenreich Juli: Das Churrätische Reichsgutsurbar, ein Verzeichnis des Besitzes des Reichsguts in Churrätien und des Klosters Pfäfers im Alpenrheintal und diesem angrenzenden Gebieten, wird fertiggestellt. 10. August: Die Söhne von Ludwig dem Frommen (Ludwig der Deutsche, Karl der Kahle und Lothar I.) teilen sein Reich im Vertrag von Verdun auf. Damit enden die innerdynastischen Kämpfe der Karolinger. November: Im Vertrag von Coulaines zwischen Karl dem Kahlen, König des Westfränkischen Reiches, und Adel und Klerus werden die Befugnisse des Königs nachdrücklich beschränkt und Rechte des Adels und des Klerus garantiert. Seine Geltung beschränkt sich auf diesen karolingischen Reichsteil, doch seine historische Bedeutung zeigt sich in seinen Auswirkungen auf die anderen Reiche im mittelalterlichen Europa. Als Nachwirkung wird im Westfränkischen Reich wie in den anderen Reichen Europas das Gottesgnadentum des Königs gestärkt. Wikingerzeit: Nordmänner stürmen die westfrankische Bischofsstadt Nantes. Sie erschlagen Geistliche, plündern Gotteshäuser und lagern ihre Beute auf der Insel Noirmoutier in der Loiremündung, wo sie einen Stützpunkt eingerichtet haben. Italien Islam in Italien: Die Araber erobern Messina auf Sizilien. Ein erster Angriff der Aghlabiden auf Rom scheitert jedoch. Britische Inseln Kenneth MacAlpin vereinigt mit seiner Krönung auf dem Stone of Scone erstmals Skoten und Pikten in einer Nation und begründet das Haus Alpin. Das gesamte Gebiet nördlich der Forth-Clyde-Linie wird von einem König regiert. Das Königreich Schottland entsteht. Byzantinisches Reich Theodora II. beendet den byzantinischen Bilderstreit und befiehlt die Vernichtung der Paulikianer. Urkundliche Ersterwähnungen Straßberg wird erstmals urkundlich erwähnt. Religion Die um 831 erbaute Missionskirche in Hamburg wird von den Wikingern zerstört. Geboren Cē Acatl Tōpīltzin Quetzalcōātl, toltekischer Priesterkönig (gest. 883 oder 895) Gestorben 19. April: Judith, zweite Gemahlin Ludwigs des Frommen (* 795) Weblinks
Q23469
92.830379
3983745
https://de.wikipedia.org/wiki/Epiglottal
Epiglottal
Epiglottal bezeichnet in der Phonetik einen Artikulationsort. Epiglottale Laute werden gebildet, indem die aryepiglottische Falte gegen den Epiglottis gedrückt wird. Das internationale phonetische Alphabet kennt drei epiglottale Konsonanten, die allesamt nicht im Deutschen vorkommen: Stimmloser epiglottaler Plosiv Stimmhafter epiglottaler Frikativ Stimmloser epiglottaler Frikativ Epiglottale Trille kommen ebenfalls vor, sind aber nicht phonemisch und haben daher keine Darstellung im internationalen phonetischen Alphabet. In der Literatur wird manchmal das Symbol [ᴙ] benutzt. Epiglottale Konsonanten kommen hauptsächlich im Kaukasus und in Kanada vor. Artikulationsort
Q907875
143.319645