id
stringlengths 2
8
| url
stringlengths 31
75
| title
stringlengths 1
29
| text
stringlengths 209
315k
| qid
stringlengths 2
10
| rank
float64 83.6
38.2k
|
---|---|---|---|---|---|
2093356
|
https://de.wikipedia.org/wiki/Akademiemitglied
|
Akademiemitglied
|
Als Akademiemitglieder (früher auch Akademiker) werden besonders verdiente Wissenschafter und Künstler bezeichnet, die in eine Akademie der Wissenschaften bzw. der Künste gewählt wurden. Dies gilt als eine der höchsten Ehrungen im akademischen Bereich.
Nicht nur Staaten, sondern auch größere Bundesländer haben Wissenschafts- und Kunstakademien.
Eine Akademie selbst kennt keine Lehre, führt jedoch oft spezielle Forschungsinstitute. Ihre Arbeit besteht in gemeinsamen Sitzungen ihrer Mitglieder, die ihre Forschungsergebnisse vortragen. Diese Referate werden periodisch in Sitzungsberichten oder Abhandlungen veröffentlicht.
Wahl von Akademie-Mitgliedern
In der Regel kann nur aufgenommen werden, wer durch zwei andere Mitglieder dafür nominiert wird und von der jeweiligen „Klasse“ (Kunst, Grund- oder Naturwissenschaften) gewählt wird. Die Zahl der Mitglieder ist meist begrenzt, um mögliche persönliche Einflussnahmen hintanzuhalten (beispielsweise beträgt diese Zahl in Sachsen 200). In diese Zahl werden allerdings ältere Akademiemitglieder ab 70 nicht mehr eingerechnet.
Zu den traditionellen Rechten ordentlicher Akademiemitglieder gehört die Möglichkeit, Wahlvorschläge für neue Akademiemitglieder zu machen, die einer von vier Kategorien angehörten: Korrespondierende (KM), ordentliche (OM), auswärtige (AW) und Ehrenmitglieder (EM).
Während in den Akademie-Versammlungen heute nur mehr in besonderen Fällen intensive wissenschaftliche Dispute üblich sind, war diese Funktion der Gelehrtengesellschaft in früheren Jahrhunderten die wichtigste – insbesondere an der berühmtesten, der Pariser Akademie. Heute liegt der Schwerpunkt der meisten Akademien in der Publikation und Förderung wissenschaftlicher Arbeiten und im Betreiben eigener Forschungsinstitute.
Die meisten Akademiemitglieder sind Hochschulprofessoren. In Ausnahmefällen ist auch die Wahl anderer, besonders verdienter Persönlichkeiten möglich. Ein spezielles Beispiel dafür war der gelernte Optiker Josef Fraunhofer, der 1823 als 36-Jähriger und ohne akademische Ausbildung in die Bayerische Akademie aufgenommen wurde.
Einzelnachweise
Akademiemitglied
Akademiemitglied
|
Q414528
| 121.008478 |
26665
|
https://de.wikipedia.org/wiki/Tripura
|
Tripura
|
Tripura (bengalisch: ) ist ein indischer Bundesstaat mit einer Fläche von 10.492 km² und etwa 3,7 Millionen Einwohnern (Volkszählung 2011). Die Hauptstadt Tripuras ist Agartala, die Landessprachen sind Bengalisch und Kokborok.
Geografie
Tripura grenzt an die Bundesstaaten Assam (Nordosten) und Mizoram sowie an Bangladesch.
Größte Städte
(Stand: Volkszählung 2001)
Bevölkerung
Demografie
Nach der indischen Volkszählung 2011 beträgt die Einwohnerzahl Tripuras 3.671.032. Damit gehört Tripura zu den kleineren Bundesstaaten Indiens: Unter den 29 indischen Bundesstaaten nimmt es den 22. Platz ein. Zwischen 2001 und 2011 wuchs die Einwohnerzahl Tripuras um 14,6 Prozent. Das Bevölkerungswachstum liegt aber etwas unter dem gesamtindischen Durchschnitt von 17,6 Prozent. Die Bevölkerungsdichte liegt mit 350 Einwohnern pro Quadratkilometer nur wenig unter dem Durchschnitt Indiens (382 Einwohner pro Quadratkilometer). 26,2 Prozent der Einwohner Tripuras leben in Städten.
Tripura hat eine der höchsten Alphabetisierungsraten Indiens: 87,8 Prozent der Bevölkerung können lesen und schreiben (Männer 92,2 Prozent, Frauen 83,2 Prozent). Dieser Wert ist nach Kerala und Mizoram der dritthöchste aller indischen Bundesstaaten und liegt weit über dem gesamtindischen Durchschnitt von 74,0 Prozent (Stand jeweils Volkszählung 2011).
Rund zwei Drittel der Einwohner Tripuras sind Bengalen. Der Rest verteilt sich auf verschiedene indigene Völker, die meist als „Stammesvölker“ (tribals) bezeichnet werden. Die indische Volkszählung 2001 klassifiziert 31,1 Prozent der Bevölkerung des Bundesstaats als Angehörige der Stammesbevölkerung (scheduled tribes).
Sprachen
Die verbreitetste Sprache Tripuras ist Bengali, das nach der Volkszählung 2001 von 67,4 Prozent der Bevölkerung als Muttersprache gesprochen wird. Während das Bengali zur Gruppe der indoarischen Sprachen gehört, sind unter der Stammesbevölkerung verschiedene tibetobirmanische Sprachen verbreitet. Deren wichtigste ist Kokborok (auch Tripuri genannt), dessen Sprecher 25,5 Prozent der Bevölkerung ausmachen.
Als Amtssprache dienen in Tripura Bengali und Kokborok. Englisch ist, wie überall in Indien, als Verkehrs- und Bildungssprache präsent.
Religionen
Die große Mehrheit der Bevölkerung Tripuras sind Hindus. Nach der Volkszählung 2011 machen sie 83 Prozent der Einwohner des Bundesstaates aus. Der Hinduismus wird sowohl von Bengalen als von Angehörigen der Stammesbevölkerung praktiziert. Eine Minderheit von knapp 9 Prozent bekennt sich zum Islam, hauptsächlich Bengalen. Unter der Stammesbevölkerung gibt es ferner Minderheiten von Christen (4 Prozent) und Buddhisten (3 Prozent). Bei den Christen handelt es sich größtenteils um Baptisten, in geringerem Umfang auch um Katholiken. Die ursprünglich aus Burma eingewanderten Stämme der Mog, Chakma und Barua praktizieren den Theravada-Buddhismus.
Geschichte
Tripura war ein Fürstenstaat zwischen Bengalen und Assam in Britisch-Indien. Das Fürstentum bestand der Sage nach seit 100 n. Chr. und wurde niemals von den Großmoguln unterworfen, verlor aber 1733 an diese die tiefer gelegenen Gebiete mit Comilla (Distrikt Tippera). Diese kamen 1760 an die Britische Ostindien-Kompanie. Die Briten bezeichneten das verbliebene Fürstentum als Hill Tippera. Der Radscha behielt aber großen Grundbesitz in den Distrikten Tippera, Noakhali und Sylhet. Von 1871 bis 1947 war Tripura britisches Protektorat. Der volle Titel der Herrscher lautete ab 1739 Bisam-Samar-Bijojee Mahamopadhyaya Pancha-Srijukta Maharaj; die Briten erkannten den Maharadscha-Titel 1919 an.
Das Land mit der Hauptstadt Agartala hatte 1941 eine Fläche von 10.660 km² und 439.000 Einwohner. In Tripura galt die eigene Tripurabda-Zeitrechnung: Jahr 1 Tripurabda = Jahr 591 n. Chr.
Nachdem Großbritannien Indien 1947 in die Unabhängigkeit entlassen hatte (siehe Geschichte Indiens) wurde Tripura zunächst unabhängig. Die Maharani Kanchan Prabha Devi, die seit 1947 für ihren minderjährigen Sohn Kirit Vikrama Manikya die Regentschaft führte, vollzog am 15. Oktober 1949 den Anschluss an Indien. Nach der indischen Verfassung vom 26. Januar 1950 wurde Tripura ein Staat der Kategorie C, der von einem von der Zentralregierung ernannten Chief Commissioner regiert wurde. Am 1. Juli 1963 wurde Tripura wegen seiner strategischen Lage an der Grenze zu Ost-Pakistan ein zentral verwaltetes Unionsterritorium und erst am 21. Januar 1972 ein Bundesstaat mit vollen Rechten.
Wirtschaftlich und politisch ist für Tripura die unter der Regierung der bangladeschischen Premierministerin Hasina Wajed seit 2008 erfolgte zunehmende Annäherung zwischen Indien und Bangladesch von Bedeutung. Bis Anfang 2019 soll Tripura bei Agartala einen Anschluss an das Eisenbahnnetz von Bangladesch erhalten, so dass der Bundesstaat dann einen direkten Zugang zum Überseehafen von Chittagong hätte.
Die Bewohner Tripuras nehmen Anteil an den Ereignissen im Nachbarland, dem sie sich sprachlich und kulturell verbunden fühlen. Ein Ausdruck dessen waren die Feiern zum 97sten Geburtstag des ersten Premierministers von Bangladesch, Bangabandhu Scheich Mujibur Rahmans am 18. März 2016 in Tripura.
Politik
Politisches System
Die Legislative des Bundesstaates Tripura besteht aus einem Einkammernparlament, der Tripura Legislative Assembly oder Tripura Vidhan Sabha. Die 60 Abgeordneten des Parlaments werden alle fünf Jahre durch Direktwahl bestimmt. Das Parlament hat seinen Sitz im Ujjayanta Palace, dem ehemaligen Palast der Maharadschas von Tripura, in Agartala. Tripura stellt zwei Abgeordnete in der Lok Sabha, dem Unterhaus des indischen Parlaments, und einen in der Rajya Sabha, dem indischen Oberhaus.
Der Chief Minister (Regierungschef) Tripuras wird vom Parlament gewählt. An der Spitze des Bundesstaats steht jedoch der vom indischen Präsidenten ernannte Gouverneur (Governor). Seine Hauptaufgaben sind die Ernennung des Chief Ministers und dessen Beauftragung mit der Regierungsbildung.
Das oberste Gericht Tripuras ist seit 2012 der Tripura High Court mit Sitz in Agartala. Vor 2012 befand sich Tripura im Jurisdiktionsbereich des Gauhati High Court.
Parteien
Tripura gehörte neben Westbengalen und Kerala lange Zeit zu den kommunistischen Hochburgen Indiens. Die Politik des Bundesstaates wurde von der Linksfront, bestehend aus den beiden kommunistischen Parteien Communist Party of India (Marxist) (CPI(M)) und Communist Party of India (CPI), dominiert. Die CPI(M) stellte seit 1993 durchgängig die Regierung Tripuras. Bei der Wahl im Februar 2013 gewann die CPI(M) 49 von 60 Wahlkreisen. Die CPI war in einem Wahlkreis erfolgreich. Die oppositionelle Kongresspartei (INC) zog mit zehn Abgeordneten in das Parlament ein. Als Ergebnis der Wahl wurde der bereits seit dem 11. März 1998 amtierende Chief Minister Manik Sarkar (CPI(M)) im Amt bestätigt.
Die Wahl am 18. Februar 2018 bedeutete für den Bundesstaat dagegen eine regelrechte Epochenwende. Die seit fast 24 Jahren ununterbrochen regierende kommunistische Linksfront wurde abgewählt. Die Bharatiya Janata Party (BJP), die bis vor wenigen Jahren noch kaum eine Rolle in Tripura spielte – bei der letzten Wahl hatte sie keinen einzigen der 60 Wahlkreise gewinnen können – gewann 35 von 59 Wahlkreisen und damit die absolute Mehrheit der Mandate. Die mit der BJP verbündete Indigenous People’s Front of Tripura (IPFT) gewann 8 Wahlkreise. Die bisher regierende CPI(M) kam auf 16 Mandate und die Kongresspartei gewann keinen einzigen Wahlkreis. Am 9. März 2018 wurde Biplab Kumar Deb als neuer Chief Minister von Tripura vereidigt. Er amtierte jedoch nur bis zum 14. Mai 2022, als er, wohl auf Betreiben der BJP-Führung in Delhi, zum Rücktritt gedrängt und durch seinen Parteikollegen Manik Saha ersetzt wurde.
Bei den letzten fünf Lok-Sabha-Wahlen war die CPI(M) in Tripura erfolgreich: Seit 1996 konnte sie bei allen Wahlen beide Wahlkreise des Bundesstaates für sich gewinnen.
Verwaltungsgliederung
Tripura ist in die folgenden acht Distrikte unterteilt:
Literatur
Imperial Gazetteer of India, 2. Aufl., 26 Bde., Oxford 1908–1931
George Bruce Malleson: An historical sketch of the native states of India, London 1875, Nachdruck Delhi 1984
Joseph E. Schwartzberg (Hrsg.): A historical atlas of South Asia, 2. Aufl., New York/Oxford 1992, ISBN 0-19-506869-6
Weblinks
Offizielle Website der Regierung von Tripura (englisch)
Einzelnachweise
Indischer Bundesstaat
|
Q1363
| 312.236684 |
320768
|
https://de.wikipedia.org/wiki/Tonstudio
|
Tonstudio
|
Ein Tonstudio ist eine Einrichtung zur Aufnahme und Bearbeitung von Schallereignissen. Dabei kann es sich zum Beispiel um Musik jeglicher Art handeln, ebenso um Sprache und Geräusche für Hörfunk- und Fernsehbeiträge, Kinofilmton oder um Klangkreationen für Computerspiele.
Zu einem Tonstudio gehört typischerweise ein Aufnahmeraum, in dem die aufzunehmenden Schallereignisse durch Künstler oder Schauspieler erzeugt werden. In einem davon akustisch weitgehend getrennten, aber optisch durch eine Glasscheibe verbundenen Regie- oder Kontrollraum für Toningenieure, Tonmeister, Regisseure oder Aufnahmeleiter befinden sich ein Mischpult und besonders präzise wiedergebende Studiolautsprecher (Monitore). Die heute fast immer digitalen Aufnahmegeräte sind meist in einem eigenen Technikraum untergebracht.
Allgemeines
Tonstudios stehen in der Wertschöpfungskette der Musikindustrie ganz vorn, denn sie stellen mit einem fertigen Master- oder Mutterband die Grundlage für die massenweise Produktion der Tonträger her. Oft fertigen sie auch die Demobänder an, mit denen sich Interpreten bei Plattenfirmen vorstellen. Deshalb lag es nahe, dass Tonträgerunternehmen sich ihre eigenen Tonstudios zulegen; so hat es musikhistorisch auch begonnen. Neben diesen firmeneigenen Tonstudios begannen sich jedoch später auch unabhängige Tonstudios zu etablieren. Während firmeneigene Tonstudios meist ausschließlich für die zugehörigen Plattenfirmen aufnehmen, sind unabhängige Tonstudios auf die Auftragsproduktion angewiesen. Hier hat sich ein Mittler zwischen Tontechnik, Klangideen und kommerziellen Fähigkeiten entwickelt – der Musikproduzent. Während in unabhängigen Tonstudios der Engpass meist bei der Kapitalbeschaffung lag (und liegt), stehen firmeneigene Tonstudios wegen der Fixkostenkontrolle unter Auslastungsdruck. Beide gemeinsam beobachten stets die Entwicklung der Aufnahmetechnik, um den neusten technischen Stand anbieten zu können.
Geschichte
Das erste Tonstudio weltweit wurde durch den Pianisten Frederick William „Fred“ Gaisberg (* 1873, † 1951) in Philadelphia/Pennsylvania Anfang 1897 über einem Schuhladen auf der 12th Street eröffnet. Auch der erste Plattenladen entstand 1897 in Philadelphia.
Gaisberg war Mitarbeiter des deutsch-jüdischen Emigranten Emil Berliner. Dieser konzentrierte sich auf Wiedergabetechnik (Grammophon, Schallplatte), doch mussten auch Anstrengungen unternommen werden, um die Vorstufe der Wiedergabetechnik, die industrielle Aufnahmetechnik, zu verbessern. Als Berliner am 16. Mai 1888 vor Mitgliedern des Franklin Institutes in Philadelphia die Tonträgerproduktion demonstrierte, war der Weg für die industrielle Tonträgerherstellung frei. Gaisberg kannte als Pianist die Perspektive des Interpreten und machte sich mit der Aufnahmetechnik vertraut. Zu jener Zeit war die Arbeitsteilung im Tonstudio gering, denn die Aufgaben des Toningenieurs, Musikproduzenten und Artists-and-Repertoire-Managers waren oft in einer Person vereinigt. Das traf auch auf Gaisberg zu, denn er kümmerte sich auch um die Entdeckung von Interpreten. Ob der am 14. Mai 1897 in Philadelphia entstandene Titel Little Kicker (Berliner #254), ein Piano-Solo mit Fred Gaisberg, die erste Aufnahme im ersten Tonstudio war, ist nicht überliefert. Denn von Gaisberg als Pianist datieren die ersten Aufnahmen bereits vom 17. November 1892 aus Philadelphia.
Im Juli 1898 errichteten Gaisberg und Joe Sanders im Londoner Cockburn-Hotel das erste europäische Tonstudio. Am 8. August 1898 entstand hier Gaisbergs erste Studioaufnahme in Europa. Dazu setzte er den Klarinettisten aus dem Orchester des Trocadero-Hotels ein. Fred Umsbach spielte Felix Mendelssohn Bartholdys Frühlingslied (Spring Song). Weitere Aufnahmen in London entstanden mit Syria Lamonte, einer australischen Sängerin, die in einem Londoner Restaurant arbeitete. Gaisberg selbst machte am 10. August 1898 Aufnahmen von seinen Piano-Soli (Berliner #5503).
Gaisberg nutzte seinen Aufenthalt in London, um ab Mai 1898 in Europa mit seinem Aufnahmegerät Stimmen aufzuzeichnen. So kam er im März 1902 nach Mailand, wo er den Tenor Enrico Caruso hörte. Am 11. April 1902 entstanden im Mailänder Grand Hotel 10 Aufnahmen mit Caruso – der erste Plattenstar war geboren.
Mitte 1898 ließ Berliner das erste Tonstudio in New York errichten. Eine der ersten Aufnahmen im New Yorker Tonstudio war der Gladiator March der Sousa’s Band vom 1./2. September 1898 (Berliner #13). Die Plattenfirma Victor Talking Machine Co. wurde im Oktober 1901 gegründet und eröffnete ihr firmeneigenes Tonstudio im Februar 1900 im Johnson Factory Building in Camden (das gegenüber von Philadelphia auf der anderen Seite des Delaware River liegt). Es wechselte im September 1901 nach Philadelphia. Bis 6. November 1907 wurden hier die meisten Victor-Aufnahmen gemacht.
Die Anforderungen an Tonstudios stiegen in dem Maße, wie sich die Plattenumsätze verbesserten. Die Umsätze der Victor Talking Machine Co. mit wenigstens 1/3 Marktanteil in den USA stiegen von 1,696 Millionen Platten 1902 auf 18,6 Millionen im Jahr 1915. In Deutschland wurden 1908 insgesamt 6,2 Millionen Platten in Hannover hergestellt. Im September 1901 zogen die Victor-Aufnahmestudios von Camden nach Philadelphia, wo sie die ehemaligen Berliner-Büros an der 420 South 10 Street nutzten. Am 8. Oktober 1904 bezieht Victor in New York ein neues Tonstudio. Als am 1. Januar 1909 Harry O. Sooy bei Victor zum Leiter des Aufnahmeteams ernannt wurde, war die Funktion des Musikproduzenten geboren. Am 2. Oktober 1917 wird in Camden erstmals das 100 Mann fassende Großstudio mit Aufnahmen vom Boston Symphony Orchestra unter Leitung von Karl Muck eingeweiht. Am 27. Februar 1918 fanden erste Aufnahmen in der Camden Trinity Church statt, einer von Victor zum Tonstudio umgebauten Kirche. Am 26. Januar 1925 werden in Camden erste Vorbereitungen für elektrische Tonaufnahmen getroffen, am 9. Februar 1925 folgen Tests, am 25. Februar 1925 die erste kommerzielle elektrische Tonaufnahme. Am 24. Juni 1925 fand die erste elektrische Tonaufnahme in Europa statt, und zwar von Jack Hyltons Feelin Kind O Blue in den HMV-Tonstudios in Hayes/Middlesex.
1923 startete der Rundfunk. Die Rundfunkanstalten trennten schon wenig später den Kontrollraum vom Aufnahmeraum ab. Zuvor standen Schauspieler und Techniker in einem Raum um das Mikrofon herum. 1929 spricht die BBC in ihrem Hand Book erstmals von „‚Mixing‘ Studios“ und erklärt den noch in Anführungszeichen gesetzten Begriff so: In längeren Rundfunkproduktionen wie zum Beispiel Hörspielen, die damals live aufgeführt wurden, gab es zwei Typen von Klangquellen – die Sprechstimmen und die Geräusche. Ursprünglich waren beide in einem Raum untergebracht, aber die Hörer beschwerten sich, bei lauten Effektgeräuschen der Erzählung nicht mehr folgen zu können. Als Konsequenz lagerte der Londoner Sender die „Noise Effects“ (Gewitter durch große Metallfolien, Pferdegalopp durch Stein auf Stein usw.) in einen gesonderten Raum aus; die Effektemacher hörten über Kopfhörer mit, was im Sprecherraum geschah.
„Die Klänge beider Studios wurden über Leitungen an ein zentrales Schaltpult übermittelt, das der leitende Produzent bediente. Dieser war dadurch in der Lage, die beiden Tonquellen in den exakt benötigten Mengen zu ‚mischen‘.“
Das Konzept war so erfolgreich, dass der Sender große Produktionen Ende der 1920er Jahre mit mehr als drei Studios fuhr. In einem saß ein Orchester, in einem anderen eine Band; auch die Schauspieler wurden in Gruppen getrennt, um verschiedene Akustiken herzustellen. Das Mischpult hieß damals noch „Switchboard“, also Schaltpult.
Als um 1930 das Schneiden von Schallplatten Standardtechnik zum Konservieren von Klängen in guter Qualität war, schossen Plattenfirmen und damit zusammenhängend Musikstudios aus dem Boden, etwa am 12. November 1931 die Abbey Road Studios in London. Das erkennbar erste unabhängige, für kommerzielle Zwecke genutzte Tonstudio entstand 1933 unter dem Namen United Sound Studio in Chicago. Bill Putnam gründete 1946 sein erstes Tonstudio unter dem Namen Universal Recording Corporation und weitete sein Imperium an Tonstudios ab 1961 kontinuierlich aus.
In Deutschland wurden von Plattenfirmen anfangs Konzertsäle, Theater, Messehallen (Köln), Singakadamie Berlin oder Kirchen für Aufnahmezwecke benutzt. Im Jahre 1900 entstand in Berlin-Mitte (Markgrafenstr. 76) ein erstes sogenanntes „Aufnahme-Atelier“ für die Deutsche Grammophon AG, aus dem die Emil Berliner Studios hervorgegangen sind. Die Aufnahmeräume waren für symphonische Aufnahmen sehr klein. Die DGG nimmt deshalb am 12. September 1913 im „Studio“ – einer kleinen DGG-Fabrikhalle in Berlin – mit den Berliner Philharmonikern unter Arthur Nikisch Beethovens Fünfte auf. Kurz nach Gründung richtete die Electrola ihr erstes Studio in Berlin ein. Fritz Kreisler spielte hier am 14. Dezember 1926 Felix Mendelssohn Bartholdys Lieder ohne Worte (Opus 62 Nr. 1) ein, Michael Raucheisen/Fritz Kreisler nahmen Robert Schumanns Romanze für Oboe und Piano (Op94) hier am 13. Dezember 1927 auf. Dem Umzug nach Köln folgte 1956 der Aufbau der Electrola-Studios auf dem Kölner Maarweg, in denen die großen Electrola-Schlager entstanden.
Die Erfindung und Einführung des Magnetophons löste in den 1940er Jahren das bis dahin praktizierte Direktschnitt-Aufnahmeverfahren für die Schallplatte ab. Kurz vor Ablösung der magnetisch-mechanischen Speicherung durch digitale Aufzeichnung, erlebte der Direktschnitt eine Renaissance.
Räumlichkeiten
Klassische Tonstudios zur Aufnahme von Musik, speziell Studios für große Klangkörper (wie Orchester, Chöre und Big Bands), bestehen in der Regel aus mehreren Räumen oder Teilräumen, welche einerseits gegen Störgeräusche von außen gut abgeschirmt sind und andererseits mit entsprechenden akustisch-dämpfenden Raumelementen ausgestattet wurden, welche für die jeweils gewünschte Akustik sorgen.
Regieraum
Benötigt wird zumindest ein Regieraum, bei Hörfunkstudios auch Kontrollraum genannt, in dem eine oder mehrere Personen (zum Beispiel inaktive Musiker, Tontechniker, Tonmeister oder ein spezialisierter Aufnahmeleiter) sitzen und die Aufnahme koordinieren. Von dort aus wird das aufgenommene Tonmaterial über Studiomonitore (Lautsprecherboxen) überwacht und beurteilt sowie später geeignet abgemischt und zusammengeschnitten. Er enthält den überwiegenden Teil der Technik, wie Mischpulte, Klangerzeuger, Effektgeräte, Tonbandmaschinen, Computer und Analog-Digital-Wandler. Von hier aus wird den Musikern und Sängern auch Tonmaterial zugespielt.
Der Regieraum benötigt eine unauffällige, möglichst neutrale Akustik. Die Nachhallzeit sollte über das gesamte Frequenzspektrum hinweg ca. 0,3 Sekunden nicht überschreiten, um eine Beurteilung der Aufnahme und der späteren Mischung zu erleichtern. Ein häufiges Einrichtungskonzept für Regieräume ist Live End Dead End (LEDE)-Prinzip; dabei wird der vordere Bereich des Regieraums stark absorbierend ausgeführt, während im hinteren Bereich Diffusoren und Reflektoren dominieren.
Aufnahmeraum
In Tonstudios gibt es einen oder mehrere Räume, die für die Aufnahme von Sprache, Gesang, Musikinstrumenten oder auch Geräuschen akustisch angepasst wurden; so gibt es beispielsweise speziell für Schlagzeuger eine Drumbooth. Die Ausgestaltung kann dabei sehr unterschiedlich sein: Klassische Musiker und Big Bands benötigen traditionell große Räume mit einer tragenden Akustik und Nachhallzeiten zwischen 1,6 bis 2 Sekunden („halbtrockene Akustik“), Bands und Sprecher dagegen eine eher reflexionsarme („trockene“) Akustik mit Nachhallzeiten zwischen 0,1 und 0,8 Sekunden, um optimal agieren zu können sowie auch die Möglichkeit zu schaffen, den Raumklang im Nachhinein elektronisch bearbeiten zu können.
Ungeachtet der akustischen Gegebenheiten können unterschiedliche Aufnahmeverfahren zur Anwendung kommen. So können Musiker und Instrumente sowohl einzeln als auch als Ensemble aufgenommen werden; je nach Bedarf mit mehr oder weniger Raumakustik. Bevor es die Möglichkeit gab, Raumklang elektronisch zu erzeugen, wurden in manchen Tonstudios Echokammern verwendet.
Technikraum
In großen Tonstudios ist der Maschinen- oder Technikraum ein kleiner, meist direkt an den Regieraum angegliederter Raum und dient zur Aufnahme der technischen Geräte, die ansonsten durch Lüfter- oder andere mechanische Geräusche die Abhörsituation im Regieraum beeinträchtigen würden. Hierzu zählen analoge Bandmaschinen, Endstufen, Computer und Festplatten. Der Maschinenraum sollte über eine ausreichende Kühlung verfügen. Kleine Studios oder Homestudios haben meist keinen ausgewiesenen Maschinenraum. Stattdessen kommen hier oft geräuschverminderte PC-basierte Arbeitsstationen (DAWs) im Regieraum zum Einsatz.
Abschirmkonzepte
Mittels Schalldämmung wird verhindert, dass Geräusche von außen nach innen oder von innen nach außen dringen. Nur so können zu jeder Tageszeit Aufnahmen gemacht werden, ohne von Verkehrslärm oder anderen Störungen betroffen zu sein oder auf Ruhezeiten in Wohngebieten oder Lärmschutzverordnungen achten zu müssen. Dies geschieht z. B. durch den Bau von Doppelwand-Systemen (Raum-in-Raum-Konzept) mit dazwischen befindlichen Dämmstoffen, wobei sich die Wände nicht berühren dürfen, um eine möglichst geringe akustische Kopplung zu erhalten. So entsteht ein innen liegender Raum mit einer zusätzlichen äußeren Schale. Auch der Boden ist bei einer solchen Anordnung weich gelagert, z. B. ein schwimmender Estrichboden auf Trittschalldämmmatten. Naturgemäß ist beim Durchtritt des Schalls durch ein Medium die Unterdrückung hoher Frequenzen, die im Bereich der Wandstärke oder darunter liegen, generell besser. Insgesamt wirken dicke und schwere Materialien stärker dämmend.
Akustikkonzepte
Mittels der sogenannten Schalldämpfung wird dafür gesorgt, dass innerhalb des akustisch aktiven Raumes die auftretenden Reflexionen der Schallsignale passend kontrolliert werden. Dies reicht von der Unterstützung einzelner Frequenzbereiche zur Förderung der musikalischen Wirkung über die Einstellung eines homogenen Frequenz- und Reflexionszeitverlaufes für Abmischung und Beurteilung bis hin zur völligen Auslöschung des Schalls für künstliche Außenaufnahmen. Erreicht wird dies durch mobile Stellwände oder fest verbaute Akustikelemente wie Absorber, Resonatoren und Diffusoren aus akustisch trägen Verbundwerkstoffen, mehrlagigen Foliensystemen und Schaummaterialien. Dabei wirken weiche Materialien wie Vorhänge, Weichschaumabsorber und Teppiche vorwiegend als Vernichter hochfrequenter Wellen ab ca. 1 kHz aufwärts. Härtere Schäume, Holz und Kunststoffelemente, aber auch Möbel z. B. reflektieren einen Teil der hohen Frequenzen und wirken insgesamt breitbandiger. Durch eine Mischung aus Resonator mit integrierter Dämmung lassen sich zudem im Bassbereich effektive Schallvernichter, sogenannte Bassfallen aufbauen. Häufig findet man hinter den Monitorlautsprechern und vor allem an der Rückwand des Regieraumes sowie Teilbereichen der Aufnahmeräume eine Reihe von Diffusoren. Diese bestehen aus unebenen Oberflächenstrukturen, die antreffende Wellen nicht als Ganzes reflektieren, sondern teilen und damit stehende Wellen, Flatterechos oder einseitige Überbetonungen einzelner Frequenzen verhindern. Eine ähnliche Wirkung haben versetzte, uneben angebrachte Mauersteine, die bereits beim Bau des Gebäudes eine ebene Wand verhindern. Oft findet man auch schräge Wandorientierungen, bei denen die vier Wände nicht in einem 90-Grad-Winkel zueinander stehen. Auch stehen Konzepte zur aktiven Reflektionsunterdrückung durch Antischall zur Verfügung.
Einraumkonzept
Die Aufteilung zwischen Regie- und Aufnahmeraum ist dann nicht zwingend erforderlich, wenn eine künstliche „Raum-in-Raum“-Lösung gewählt wird. Dabei wird auf eine (mobile) Aufnahmekabine zurückgegriffen, in der ein Solist oder ein Sprecher agieren, wodurch insgesamt nur noch ein Studioraum als Regieraum erforderlich wird. Tonstudios für reine Klanggestaltung und Tonweiterverarbeitung für Film, Hörfunk und Computerspiele besitzen sogar oft nur einen kleinen oder gar keinen Aufnahmeraum.
Ausstattung
Die tontechnische Einrichtung kann stark variieren. Studios für Popmusik besitzen meist wesentlich mehr Geräte zur Klangveränderung und Tonbearbeitung als solche für die Tonaufnahme klassischer Musik. Im Popbereich fließen die technischen Manipulationsmöglichkeiten in das Arrangement und den Gesamtklang bewusst mit ein, während es bei Aufnahmen klassischer Musik neben kleinen Korrekturen eher um eine „naturgetreue“ und räumliche Abbildung eines Klangkörpers geht.
Mikrofontechnik
Je nach Bedarf werden in Tonstudios alle bekannten Verfahren der Stereo- und Surround-Aufnahme angewendet. Das häufigste Verfahren ist die Aufnahme jedes Instruments mit einem einzelnen Mikrofon (mono), wobei der Raumeindruck (Stereo, Surround) erst später in der Mischung entsteht. Dabei werden Mikrofone unterschiedlichster Bauformen und -typen eingesetzt, die je nach Bauart entweder neutral klingen oder die Aufnahme bestimmter Instrumente oder der Stimme klanglich unterstützen. So werden bei Sprechern in der Regel Großmembran-Kondensatormikrofone – teilweise mit Röhrenverstärker – verwendet, während bei Stereoaufnahmen meist Kleinmembran-Mikrofone – ebenfalls in Kondensatortechnik – eingesetzt werden. Bei Aufnahmen von Schlagzeug und Blasinstrumenten findet man zum Teil auch dynamische Mikrofone.
Aufnahmegeräte
Bei den Aufnahmegeräten in Tonstudios handelt es sich in aller Regel um Mehrspurrekorder, die unterschiedliche Klangquellen gleichzeitig auf viele getrennte Tonspuren aufnehmen können (i. d. R. 24 Spuren und mehr) und dadurch ihre spätere Abmischung mit einem Mischpult erlauben (Overdubbing). Seit etwa 1980 wurden digitale Recorder und seit 1990 computergestützte Aufnahmesysteme verwendet (Digital Audio Workstation), wodurch analoge Mehrspurrekorder in den Hintergrund gerückt sind.
Abhörtechnik
Große Bedeutung kommt der Qualität der Abhörmonitore zu, da der Lautsprecher das qualitativ schlechteste Glied in der Signalkette darstellt. Um einen Eindruck möglicher Schallszenarien beim Endkunden zu bekommen, sind in Tonstudios generell mehrere unterschiedliche Monitorlautsprecher aufgestellt, bei denen sich einige als Referenztypen etabliert haben. In der Regel besitzen diese Lautsprecher einen besonders gleichmäßigen Frequenzgang und ein sehr homogenes Abstrahlverhalten. Es wird zwischen Nahfeld- (weniger als 2 m Distanz) und Fernfeldmonitoren unterschieden, die den gesamten Raum homogen beschallen.
Mischpult
Alle Geräte im Studio wie Monitore, Mikrofone und Effektgeräte sind mit dem Mischpult verbunden, welches die Zentrale Einheit im Studio darstellt. Hier wird die Zuspielmischung für die Musiker, Zwischenergebnisse zum Abhören im Regierraum sowie die letztliche Tonmischung als Endprodukt hergestellt. Das Mischpult kann auch rein virtuell sein; meistens gibt es dafür Controller, mit denen das vom Computer simulierte Mischpult ferngesteuert werden kann.
Virtuelle Mischpulte in digitalen Geräten wie Soundkarten und Aufnahmegeräten und der Software in PCs, haben den Vorteil, dass virtuelle Geräte, sogenannte Plugins, sehr viel einfacher und direkter integrierbar zu nutzen sind. Sie sind auch sehr viel kosteneffektiver, können aber nicht immer einfach und präzise mit Maus oder einem MIDI-Controller gesteuert werden. Daher bedienen sich professionelle Studios in der Regel großer Mischpulte, sogenannter Digitalkonsolen. Auch reine Analogkonsolen sind noch im Gebrauch.
Personen
Bei Tonaufnahmen sind der Musikproduzent, die Toningenieure (mit einer Rangordnung: erster Toningenieur usw.) und Tontechniker, sowie die Interpreten, gfs. ein Hintergrundchor und Studiomusiker anwesend. Hierbei handelt es sich um Musiker, die mit dem Tonstudio mehr oder weniger fest verbunden sind und üblicherweise bei Aufnahmesessions unterschiedlicher Künstler mitwirken. Möglicherweise nehmen noch Arrangeur und Komponist/Liedtexter teil, um während der Tonaufnahme noch notwendige Änderungen am Werk vornehmen zu können.
Fachausdrücke
Tonaufnahmen entstehen meist in einzelnen Schritten (Takes), von denen die jeweils besten ausgewählt werden. Bei einer Aufnahme können Audio-Effekte wie Kompressor, Equalizer, Hall, Chorus oder Echo eingesetzt werden. Liegen die fertigen Takes vor, können in der Nachproduktion („post production“) noch weitere technische Verbesserungen vorgenommen werden. Die verschiedenen Takes werden sodann zu einem „final mix“ (Endabmischung) zusammengefügt („editiert“), das als Mastertape für die spätere Tonträgerproduktion dient. Nicht verwendete fehlerhafte oder sonst wie nicht brauchbare Mitschnitte heißen „Outtakes“. Bei Tonträgern schließlich wird unterschieden zwischen den in Tonstudios entstandenen Produkten („Studioaufnahme“) und Livealben. Das Tonstudio fertigt ein Aufnahmeprotokoll (recording sheet), in dem alle technischen Daten der Tonaufnahmen (einschließlich aller Takes) und beteiligten Musiker festgehalten werden.Siehe auch: Liste von Audio-Fachbegriffen
Klangeigenheiten
Einige unabhängige Tonstudios haben einen charakteristischen und identifizierbaren Sound entwickelt. Ursache hierfür können die Räumlichkeiten und ihre spezifische Akustik, ein bestimmter Musikproduzent (etwa Chips Moman) oder studioeigene Sessionmusiker sein. Auch eine Kombination dieser Ursachen kann für einen bestimmten Sound verantwortlich sein. In der Popmusik sind insbesondere der „Motown-Sound“ (Sessionmusiker: The Funk Brothers), „Memphis-Sound“ (Sessionmusiker: Booker T. & the M.G.’s, Memphis Horns), „Westcoast-Sound“ (Sessionmusiker: The Wrecking Crew) oder „Philadelphia- oder Phillysound“ als Musikgenre bekannt geworden. Obwohl die mit einem bestimmten Sound verbundenen Musikstücke untereinander durchaus heterogene Eigenheiten aufweisen können, wird ihr spezifischer Sound mit einem bestimmten Tonstudio assoziiert.
Wirtschaftliche Situation
Derzeit konzentriert sich der Markt eher auf integrierte Studios, etwa bei Radiosendern oder Plattenfirmen. Durch sinkende Gerätekosten bei der Tontechnik entstehen immer mehr kleine sogenannte „Home-Recording“-Studios, in denen z. B. Amateurbands ihre Demos aufnehmen und abmischen können. Der akustisch und räumlich optimalen Gestaltung stehen jedoch meistens finanzielle Einschränkungen entgegen, da im Vorfeld keine nennenswerten Einnahmen erzielt werden können. Dennoch gibt es viele kleine Studios, die sich die Mühe machen, einen passenden Kompromiss bei der Raumakustik zu finden. Hier können durchaus professionell verwendbare Aufnahmen entstehen. Für fast alle veröffentlichten Tonträger moderner elektronischer Musik wie HipHop, R’n’B und Elektro werden die Aufnahmen heutzutage zunächst in kleinen Studios getätigt und später extern gemastert. Diese Entwicklung führte gemeinsam mit der zunehmenden Digitalisierung der letzten Jahre zur Entstehung spezialisierter Studios. Universell und technisch erstklassig ausgestattete Tonstudios müssen entsprechende Preise verlangen, wogegen ihre Kunden oft nur einen Teil der möglichen Leistungen nutzen können. Insbesondere unabhängige Tonstudios stehen unter enormem Druck, ihre hohen Fixkosten durch einen hohen Auslastungsgrad wieder einzuspielen.
Literatur
Michael Dickreiter, Volker Dittel, Wolfgang Hoeg, Martin Wöhr: Handbuch der Tonstudiotechnik, 9. Auflage. De Gruyter, Berlin/Boston, 2023. ISBN 978-3-11-075970-9.
Thomas Görne: Tontechnik. Hanser Fachbuchverlag, 2006, ISBN 3-446-40198-9.
Hubert Henle: Das Tonstudio Handbuch. GC Carstensen Verlag, 2001, ISBN 3-910098-19-3.
Christoph Reiß: Guitar Recording. Wizoo Publishing, Bremen, 2010, ISBN 978-3-934903-75-3. (mit CD)
Horst Zander: Das PC-Tonstudio. Franzis Verlag, 2001, ISBN 3-7723-5373-8.
Geoff Emerick, Howard Massey: Du machtest die Beatles! – Wie ich den Sound der Band erfand. Verlagsgruppe Random House, München 2007, ISBN 978-3-442-36746-7.
David Gelly: Wie eine Popband arbeitet. Tessloff Verlag, Hamburg 1978, ISBN 3-7886-0801-3. (Tonstudioaufnahmetechnik für Kinder erklärt)
Weblinks
Diverse Aufsätze und Artikel zur Tontechnik
Einzelnachweise
|
Q746369
| 111.277279 |
421522
|
https://de.wikipedia.org/wiki/Konsumismus
|
Konsumismus
|
Konsumismus (von – verbrauchen; auch Konsumerismus oder Konsumentismus) ist eine Lebenshaltung, die darauf ausgerichtet ist, das Bedürfnis nach neuen Konsumgütern stets zu befriedigen. Es kann zum Beispiel der gesellschaftlichen Distinktion oder dem Streben nach Identität, Lebenssinn und Glück dienen. Eine krankhafte Extremform ist die Kaufsucht. Der Begriff Konsumismus wird meist in kritischer Absicht verwendet.
Begriff
Teils durch unterschiedliche Übersetzungen von consumerism gibt es begriffliche Unklarheiten, da neben Konsumismus auch der Begriff „Konsumerismus“ üblich ist. Konsumerismus (aus dem englischen consumerism: Konsumdenken) ist ein ideologiekritischer Ausdruck aus den Sozialwissenschaften, wonach persönliches Glück mit dem Verbrauch von Wirtschaftsgütern erzielt wird. Konsumerismus beschreibt ein konsequentes Konsumdenken, wobei der Konsum zu einer Ersatzreligion wird. In diesem Sinne ist Konsumerismus gleichbedeutend mit Konsumismus.
Als „alltäglicher Konsumismus“ wird die in den deutschen Kaufsuchtstudien empirisch belegte Tendenz vieler Menschen beschrieben, sich mit Produkten oder Dienstleistungen zu identifizieren und ihr Selbstwertgefühl davon abhängig zu machen. Dabei werden Produkte mit kommerziellem Markennamen und statushebenden Versprechungen vorgezogen. Insoweit der Konsumismusbegriff als abwertend wahrgenommen wird, lehnen ihn viele Betroffene ab und ziehen es vor, ihren Konsum mit rationalen Argumenten zu rechtfertigen; sie verwerfen die Idee, sie würden „gezwungen“ zu konsumieren. Menschen, welche die Ideologie des Konsumismus bejahen, bewerten die gekauften oder konsumierten Produkte nicht als in sich wertvoll, sondern benutzen sie gezielt als gesellschaftliche Statussymbole und Signale, um sich mit gleichgesinnten Menschen zu umgeben.
Eine andere Bedeutung hat Konsumerismus in der Ökonomie. Hier wird dieser Ausdruck im Wesentlichen als Äquivalent zum deutschen Verbraucherschutz verwendet, besonders im Sinne der Verbraucherbewegung. Es geht also um die systemimmanente Verbraucherkritik an Missständen in der Versorgung mit Waren und Dienstleistungen sowie um die rechtliche Absicherung von Konsumenten in Fällen von zweifelhaften Verkaufs- und Marketingpraktiken, Markenfälschung, fehlerhafter Produktqualität, Fehlinformationen usw.
Modern Consumerism kann als „exzessiver Materialismus“ definiert werden.
Theorie
Im Jahr 1899 konstatierte der US-amerikanische Soziologe Thorstein Veblen (1857–1929) einen verbreiteten Geltungskonsum der Oberschicht der USA, der nur mehr demonstrativen Charakter habe. Unter „demonstrativem Verbrauch“ (conspicuous consumption) verstand er ein Verbraucherverhalten, das weit über die Erfüllung von Primärbedürfnissen hinausgeht und in erster Linie der Steigerung des Sozialprestiges dient. In den 1920er und 1930er Jahren bildete sich in den Vereinigten Staaten eine Konsumkultur aus: Im Zuge der Prosperität und des Fordismus bildete sich ein konsumorientierter Mittelstand heraus. Die rasante Technikentwicklung und das wachsende Angebot von Konsumartikeln (vor allem Haushaltsgeräte, Radios und Autos) ließ die Verbraucher nach immer neueren Waren streben. Durch diesen neuen „Materialismus“ wurden traditionelle Werte und Normen kleinerer Stadtgemeinschaften ausgehöhlt, wie die Soziologen Robert Staughton Lynd und Helen M. Lynd in ihren 1929 und 1937 erschienenen stadtsoziologischen Middletown-Studien nachwiesen.
Nach dem Zweiten Weltkrieg bildete sich im Zusammenhang mit der zunehmenden Individualisierung der Gesellschaft auch in Europa ein Konsummuster heraus, in dem Konsum zur Identitätskonstruktion betrieben wurde. Da die Menschen nicht mehr aus ihrer Gruppe oder ihrer Herkunft ableiten konnten, wer sie sind, definieren sie ihr Selbst durch Ansammlung und Konsum von sorgfältig ausgesuchten Produkten. In der Warenwelt wurde damit das Image eines Produkts wichtiger als der tatsächliche Gebrauchswert. Konsumiert wurde nicht so sehr das Produkt selber, als der über Massenmedien verbreitete Strom von Zeichen, der ihm anhängt.
In der Deutung der Frankfurter Schule dient auch die Kulturindustrie dazu, durch Erzeugung falscher Bedürfnisse und eines „falschen Bewusstseins“ das Klassenbewusstsein der Arbeiter zu vernebeln. Nach Adorno wird das Individuum von der Kulturindustrie auf die Konsumentenrolle reduziert. Zudem stelle der Konsumismus eine List dar, mit der diese in das kapitalistische System integriert und davon abgehalten würden, aufzubegehren.
Der französische Soziologe Jean Baudrillard formulierte 1970 die Befürchtung, dass der massenmedial produzierte Schein die Wirklichkeit „einstürzen“ lasse. Das moderne Individuum lebe in einer fiktiven „Spektakelrealität“.
Pier Paolo Pasolini vertrat 1975 die These, der Konsumismus sei eine neue Form des Totalitarismus, weil er mit dem Anspruch einher gehe, die Konsumideologie auf die gesamte Welt auszudehnen. Eine seiner Folgen sei die Zerstörung der Vielfalt sozialer Lebensformen und die Einebnung der Kulturen in einer globalen konsumistischen Massenkultur, welche die Freiheitsvorstellungen mit einer „Pflicht“ zum Konsumieren auflade und die Menschen veranlasse, mit dem „Gefühl von Freiheit“ die Konsumimperative zu erfüllen.
Die entsprechenden Dispositionen, die eine innere Leere, Langeweile, Überdruss und chronische Depressivität im Akt des Kaufens oder Konsumierens kompensierbar machten, gehörten nach Erich Fromm zum Charakterbild des modernen Menschen. Eine überspitzte Ausprägung fänden die konsumorientierten Haltungen, Leidenschaften und Verhaltensweisen des so genannten konsumistischen Sozialcharakters im Krankheitsbild der Kaufsucht.
Eine populäre Kritik des Konsumismus haben John de Graaf, David Wann und Thomas Naylor vorgelegt. Sie sprechen von „Affluenza“, der Überflusskrankheit oder der „Zeitkrankheit Konsum“; dieses Kunstwort verbindet „Influenza“ und „Affluence“ (Wohlstand, Reichtum, Überfluss). Als Symptome dieser Krankheit nennen die Autoren Schulden, eine Überproduktion von Waren, große Abfallmengen sowie Angstzustände, Gefühle der Entfremdung und Verzweiflung. Hervorgerufen sei die Krankheit durch die Gier nach immer mehr materiellen Gütern. Als Weg der Gesundung biete sich der konsequente Abschied vom konsumistischen Lebensstil – im Sinne „freiwilliger Einfachheit“ – an.
Sich von der traditionellen Konsumkritik abwendend, deuten Befürworter wie Norbert Bolz den Konsumismus als weltweites Gegengewicht zum religiösen Fundamentalismus. Dem Konsumismus wird die Rolle zugewiesen, die Welt zu befrieden, indem er seine positiven Wirkungen allen Völkern zuteilwerden lasse. Die westliche Konsumkultur werde dabei jedoch ohne Rücksicht auf die negativen ökologischen Folgen weltweit ausgedehnt. Auch wenn er letztlich gegen alle seine Feinde (religiöse Fundamentalisten, Globalisierungskritiker, Konsumismus- und Wachstumskritiker) siegreich bleiben sollte, könne der Konsumismus als „Immunsystem der Weltgesellschaft“ (Bolz) nur an sich selbst zugrunde gehen. Der Sicht von Bolz widerspricht Panajotis Kondylis, der mit der Etablierung hedonistischer Lebensweisen zwar das „Ende der Ideologien“ verbindet, nicht aber das Ende der Konflikte in der Welt.
Siehe auch
Konsumgesellschaft, Überflussgesellschaft, Wegwerfgesellschaft
Konsumkapitalismus
Konsumverweigerung, Einfaches Leben
Literatur
Kurt E. Becker (Hrsg.): Konsum. Peter Lang Verlag, Frankfurt am Main et al. 1992, Reihe Grundlagen, herausgegeben von Alphons Silbermann, ISBN 3-631-42402-7.
Benjamin Barber: Consumed! Wie der Markt Kinder verführt, Erwachsene infantilisiert und die Demokratie untergräbt, Beck, München 2007, ISBN 978-3-406-57159-6
Moritz Baßler, Heinz Drügh (Hrsg.): Konsumästhetik. Umgang mit käuflichen Gegenständen, transcript, Bielefeld 2019, ISBN 978-3-8376-4726-6.
Zygmunt Bauman: Leben als Konsum (Originaltitel: Consuming Life, übersetzt von Richard Barth), Hamburger Edition, Hamburg 2009, ISBN 978-3-86854-211-0.
Burkhard Bierhoff: Konsumismus. Kritik einer Lebensform, 2., überarbeitete Aufl., Springer VS, Wiesbaden 2016, ISBN 978-3-658-12222-5.
Norbert Bolz: Das konsumistische Manifest. Fink, München 2002, ISBN 3-7705-3744-0.
Erich Fromm: Haben oder Sein, dtv, München 2011, ISBN 978-3-423-19519-5.
Franz Hochstrasser: Konsumismus. Kritik und Perspektiven, Oekom, München 2013, ISBN 978-3-86581-326-8.
Pier Paolo Pasolini: Freibeuterschriften. Die Zerstörung der Kultur des Einzelnen durch die Konsumgesellschaft, Wagenbach, Berlin 1975, ISBN 3-8031-2317-8.
John de Graaf, David Wann, Thomas Naylor: Affluenza. Zeitkrankheit Konsum, (übersetzt von Elisabeth Liebl), Riemann, München 2002, ISBN 3-570-50026-8.
Gerhard Scherhorn: Nachhaltiger Konsum. Auf dem Weg zur gesellschaftlichen Verankerung, oekom, München 2003, ISBN 3-928244-85-X.
Alexander von Schönburg: Die Kunst des stilvollen Verarmens, wie man ohne Geld reich wird, 12., überarbeitete Auflage, rororo 61668, Reinbek bei Hamburg, 2009, ISBN 978-3-499-61668-6.
Weblinks
David Loy, Die Religion des Marktes, 1997.
Gerhard Scherhorn, Der Konsumismus hat keine Zukunft, 2003. (PDF-Datei; 153 kB)
Einzelnachweise
Weltanschauung
Kulturideologie
Konsumsoziologie
Globalisierungskritischer Begriff
|
Q89640
| 93.177433 |
8505
|
https://de.wikipedia.org/wiki/Klima
|
Klima
|
Das Klima ist der mit meteorologischen Methoden ermittelte Durchschnitt der dynamischen Prozesse in der Erdatmosphäre: als Zusammenfassung der Wettererscheinungen kleinräumiger Örtlichkeiten (Meso- beziehungsweise Regionalklima) oder bezogen auf kontinentale Dimensionen (Makroklima), einschließlich aller Schwankungen im Jahresverlauf und basierend auf einer Vielzahl von Klimaelementen. Die klimatischen Bedingungen werden nicht nur von der Sonneneinstrahlung sowie den physikalischen und chemischen Abläufen innerhalb der Atmosphäre gesteuert, sondern zusätzlich von den Einflüssen und Wechselwirkungen der anderen vier Erdsphären (Hydrosphäre, Kryosphäre, Biosphäre und Lithosphäre). Um neben allen anderen Witterungsvorgängen auch den Temperaturverlauf in einem statistisch relevanten Zeitrahmen mit ausreichender Genauigkeit darzustellen, empfiehlt die Weltorganisation für Meteorologie (WMO) die Verwendung von Referenzperioden (auch Normalperioden oder CLINO-Perioden), in denen die Monatsmittelwerte als Zeitreihe über 30 Jahre in einem Datensatz zusammengefasst werden. Bis einschließlich 2020 war die Referenzperiode der Jahre 1961 bis 1990 der gültige und allgemein gebräuchliche Vergleichsmaßstab. Dieser wurde mit Beginn des Jahres 2021 von der neuen Normalperiode 1991 bis 2020 abgelöst.
Die Gesetzmäßigkeiten des Klimas, seine Komponenten, Prozesse und Einflussfaktoren sowie seine mögliche künftige Entwicklung sind Forschungsgegenstand der Klimatologie. Als interdisziplinär geprägte Wissenschaft kooperiert die Klimatologie unter anderem mit Fachgebieten wie der Physik, Meteorologie, Geographie, Geologie und Ozeanographie und verwendet zum Teil deren Methoden beziehungsweise Nachweisverfahren.
Die Paläoklimatologie ist ein bedeutender Teilbereich sowohl der Klimatologie als auch der Historischen Geologie. Ihre Aufgabe besteht darin, anhand von Isotopenuntersuchungen und Datenreihen aus Klimaarchiven und indirekten Klimaanzeigern (Proxys) die klimatischen Bedingungen über historische oder geologische Zeiträume in Form einer Klimageschichte zu rekonstruieren und die Mechanismen vergangener Klimawandel-Ereignisse zu entschlüsseln, wie zum Beispiel den Einfluss der sich periodisch verändernden Sonneneinstrahlung aufgrund der Milanković-Zyklen auf das Erdsystem.
Obwohl das Klima heute das am genauesten untersuchte natürliche System darstellt, unterliegt der Klimabegriff aufgrund seiner globalen Komplexität zahlreichen Vereinfachungen, Vereinheitlichungen und Vergröberungen in den Modellen, die zu erheblichen Abweichungen bei den realen Verhältnissen an einem konkreten Ort führen können.
Begriff
Definition
Je nach Entwicklungsstand und Schwerpunkt der Klimaforschung gab und gibt es verschiedene Definitionen. Das Intergovernmental Panel on Climate Change (IPCC) arbeitet auf Grundlage einer weiten Begriffsbestimmung:
Diese Definition des IPCC umfasst eine tiefenzeitliche Perspektive und nimmt neben der Atmosphäre noch weitere Subsysteme (Erdsphären) mit in den Blick. Sie spiegelt die Entwicklung seit der zweiten Hälfte des 20. Jahrhunderts, in der die interdisziplinäre Erforschung der Klimadynamik, einschließlich ihrer Ursachen, möglich wurde und in den Vordergrund des Interesses rückte. Damit gewann die zeitliche gegenüber der regionalen Dimension an Bedeutung.
Der Deutsche Wetterdienst (DWD) definiert Klima enger, mit räumlichem Bezug und auf einer Zeitskala von Jahrzehnten:
In der geographischen Klimatologie wurde Klima von Joachim Blüthgen in seiner Allgemeinen Klimageographie wie folgt definiert:
In der meteorologischen Klimatologie wird Klima nach Manfred Hendl wie folgt definiert:
Die für die Klimatologie grundlegende Definition stammt vom Wiener Meteorologen Julius von Hann (1839–1921), der den Begriff verstand als Von Hann begründete damit die „Mittelwertsklimatologie“. Er griff in seiner Definition auf die das 19. Jahrhundert prägende, auf die menschliche Erfahrung eines Ortes zielende Definition Alexander von Humboldts zurück; dieser begriff Klima als .
Etymologie
Das Wort Klima (Plural: Klimate oder, näher am Griechischen, Klimata; selten (eingedeutscht) auch Klimas) ist eine Übernahme des altgriechischen Wortes κλίμα klíma, dessen erste Bedeutung (um 500 v. Chr.) in diesem Zusammenhang ‚Krümmung/Neigung [des Sonnenstandes]‘ war und zum Verb κλίνειν klínein, ‚neigen‘, ‚biegen‘, ‚krümmen‘, ‚anlehnen‘ gehört. Über das Spätlateinische clima (Verb: clinare, ‚beugen‘, ‚biegen‘, ‚neigen‘) kam der Begriff schließlich ins Deutsche.
Klima bezieht sich nicht auf die Ekliptik, also darauf, dass die Erdachse zur Ebene der Erdbahn gegenwärtig einen Neigungswinkel von ca. 23,5 Grad aufweist, sondern auf die Kugelform der Erde. Dies entspricht der Erfahrung, dass nur durch eine Fortbewegung in Nord-Süd-Richtung die Beobachtung anderer Himmelsgegenden möglich ist. Die entsprechende Eindeutschung ist das Kompositum „Himmelsstrich“, das jedoch nur noch die geographische Gegend und nicht mehr die zugehörige Witterung bezeichnet.
Im 20. Jahrhundert hat sich dabei das Begriffsverständnis von der Wettergesamtheit (E. E. Fedorov 1927) hin zur Synthese des Wetters (WMO 1979) entwickelt.
Zeitliche Dimension
Im Unterschied zu dem in einem bestimmten Gebiet auftretenden Wetter (Zeitrahmen: Stunden bis wenige Tage) und zur Witterung (Zeitrahmen: bis etwa eine Woche, seltener ein Monat oder eine Jahreszeit) werden in der Klimatologie fest definierte Zeiträume statistisch ausgewertet, vorwiegend in Bezug auf das 19. bis 21. Jahrhundert. Die Ausgangsbasis bildet dabei immer das Wettergeschehen einschließlich der meteorologisch erfassten Daten und Messwerte.
Die Weltorganisation für Meteorologie (WMO) empfiehlt in dem Zusammenhang sogenannte Klimanormalperioden mit einer Dauer von 30 Jahren. Bisheriger Standard war die Jahresreihe 1961–1990, die der üblichen Regelung entsprechend bis 2020 Gültigkeit hatte und nun durch 1991–2020 ersetzt wurde. Aus praktischen Erwägungen werden alternative Normalperioden ebenfalls benutzt. Um über ein möglichst zeitnahes Intervall zu verfügen, wurde von der österreichischen Zentralanstalt für Meteorologie und Geodynamik (ZAMG) häufig die Periode 1971–2000 herangezogen, auch im Hinblick auf die für die Alpenregion wichtigen Gletscherinventare. Zusätzlich empfiehlt die WMO ihren Mitgliedsorganisationen den Vergleichszeitraum 1981–2010, der parallel zur jeweils gültigen Referenzperiode herangezogen wird, unter anderem für MeteoSchweiz.
Daneben werden auch größere Zeiträume ausgewertet, wie die hundertjährige Säkularperiode 1851–1950, um auf diese Weise klimatische Anomalien und Trends in einem größeren zeitlichen Kontext darzustellen. Dieses Prinzip wird sowohl auf lokaler als auch auf landesweiter oder globaler Ebene angewendet. Der international anerkannte Index des Goddard Institute for Space Studies (GISS) und der NASA enthält die weltweiten Temperaturanomalien ab dem Jahr 1880 auf der Grundlage der Referenzperiode 1951–1980.
Bei Klimarekonstruktionen, die geologische Perioden und damit Zeiträume von Jahrmillionen umfassen, spielen Wettereinflüsse naturgemäß keine Rolle mehr. Stattdessen wird versucht, durch Auswertung von Sedimenten, tierischen und pflanzlichen Fossilien sowie durch Isotopenuntersuchungen eine Klimacharakteristik der jeweiligen Epochen zu erstellen, einschließlich kurzzeitiger Abkühlungs- oder Erwärmungsphasen. Durch die raschen Fortschritte der verschiedenen Analysetechniken werden auf diesem Sektor zunehmend präzisere Ergebnisse auch in der zeitlichen Auflösung erzielt.
Räumliche Dimension
Der Begriff Klima wird häufig mit dem Weltklima beziehungsweise dem globalen Klima assoziiert. Jedoch ist die globale Temperaturentwicklung nicht repräsentativ für einzelne Regionen, die sogar über einen gewissen Zeitraum eine gegenläufige Tendenz aufweisen können. Ein Beispiel hierfür ist eine „cold blob“ genannte stabile Kälteblase im subpolaren Atlantik südlich von Grönland, die sich offenbar über Jahrzehnte entwickelt hat und die ihre Existenz möglicherweise umfangreichen Schmelzwassereinträgen des Grönländischen Eisschilds verdankt. Umgekehrt kann ein lokaler Rekordsommer in global ermittelten Datenreihen „verschwinden“.
Im Hinblick auf räumliche Dimensionen hat sich eine dreistufige Einteilung bewährt:
Das Mikroklima umfasst einige Meter bis wenige Kilometer, wie eine Terrasse, eine Agrarfläche oder ein Straßenzug.
Das Mesoklima bezieht sich auf Landstriche (zum Beispiel eine Bergkette) bis zu einigen hundert Kilometern Ausdehnung.
Das Makroklima beschreibt kontinentale und globale Zusammenhänge.
Während beim Wetter eine enge Beziehung zwischen der räumlichen Dimension und der Ereignisdauer besteht, ist dieser Aspekt für klimatologische Analysen weniger relevant.
Mikroklima (oder Kleinklima)
Mikroklima bezeichnet das Klima im Bereich der bodennahen Luftschichten bis etwa zwei Meter Höhe oder das Klima, das sich in einem kleinen, klar umrissenen Bereich ausbildet (zum Beispiel an Hanglagen oder in einer urbanen Umgebung).
Das Mikroklima wird entscheidend durch die Oberflächenstruktur und die dort auftretende Bodenreibung des Windes geprägt. In diesem Umfeld treten schwächere Luftströmungen, aber größere Temperaturdifferenzen auf. Die Verschiedenheit der Böden, der Geländeformen und der Pflanzengesellschaft kann auf engem Raum große Klimagegensätze hervorrufen. Das Mikroklima ist besonders für niedrig wachsende Pflanzen von Bedeutung, da diese ihr klimaempfindlichstes Lebensstadium in der bodennahen Luftschicht durchlaufen, und spielt zum Beispiel bei den Eigenschaften einer Weinbergslage im Qualitätsweinbau eine wichtige Rolle.
Auch der Mensch ist dem Mikroklima direkt ausgesetzt. Besonders im Lebensraum einer Stadt weicht das Mikroklima durch unterschiedliche Baustoffe, architektonische Gestaltung, Sonneneinstrahlung oder Beschattung oftmals von den natürlichen Gegebenheiten ab und kann sich durch Eingriffe in die jeweilige Bausubstanz oder deren Umgebung rasch und nachhaltig ändern.
Mesoklima
Mesoklimate bestehen aus unterschiedlichen Einzelklimaten, die eine Ausdehnung zwischen einigen hundert Metern und wenigen hundert Kilometern besitzen, im Regelfall jedoch Areale im unteren Kilometerbereich umfassen. Aufgrund dieses breiten, aber lokalen Spektrums spielen hierbei viele Aspekte der angewandten Meteorologie und der Klimatologie eine große Rolle, beispielsweise das Stadtklima oder das Regenwaldklima. Generell werden alle Lokalklimate und Geländeklimate zu den Mesoklimaten gezählt, wie die Lokalklimate von Ökosystemen, wobei bei diesen der Übergang zu den Mikroklimaten fließend ist.
Regionalklima
Beim Regionalklima handelt es sich um das Klima einer Raumeinheit auf der Mesoskala. Dementsprechend weist es viele Gemeinsamkeiten mit dem Mesoklima auf. Das Regionalklima zeichnet sich dadurch aus, dass es vor allem von regionalen Gegebenheiten wie der Landnutzung abhängt. Darüber hinaus ist die regionale Geländeform ein wichtiger Einflussfaktor.
Da das Regionalklima besonders für forst- und landwirtschaftliche sowie infrastrukturelle Prozesse wichtig ist, werden hierzu regionalklimatische Karten benutzt. Normalerweise untersucht man Regionalklimate bezogen auf naturräumlich, verwaltungstechnisch oder landschaftlich abgegrenzte Gebietseinheiten.
Makroklima (oder Großklima)
Zu den Makroklimaten zählen großräumige atmosphärische Zirkulationsmuster, Meeresströmungen und Klimaregionen von mehr als 500 Kilometern Ausdehnung. Dazu gehören unter anderem die Strömungskombination der Thermohalinen Zirkulation, die vier der fünf Ozeane zu einem Wasserkreislauf vereint, sowie die periodisch auftretenden Effekte der Atlantischen Multidekaden-Oszillation. Auch die verschiedenen Windsysteme der Planetarischen Zirkulation, zum Beispiel der Monsun, der Passat oder die ozeanischen und atmosphärischen Rossby-Wellen, werden dem Makroklima zugeordnet, ebenso große Regionalklimate wie der Amazonas-Regenwald. Alle Makroklimate beeinflussen sich gegenseitig und bilden in ihrer Gesamtheit das globale Klimasystem.
Klimatyp
Abstrakte Zusammenfassungen der größtmöglichen Makroklimate auf verschiedenen Kontinenten – die sich in der Regel ungefähr über die gleichen Breitengrade bzw. Klimazonen erstrecken – werden als Klimatypen bezeichnet. So bilden etwa die Großklimate der immerfeuchten, heißen Regenwälder am Amazonas, am Kongo, in Südostasien und einigen anderen Gebieten insgesamt den Klimatyp der äquatorialen Regenwälder. Da die Vegetation der Erde in erster Linie vom Klima geprägt wird, dient die geographische Verteilung der realen terrestrischen Pflanzenfomationen (Tundren, Wälder, Steppen usw.) als Maß für die Anwendbarkeit der Klimatypen-Modelle. Je größer die Übereinstimmung, desto besser das Modell.
Klimazonen und Klimaklassifikation
Klimazonen sind grundsätzlich die in Ost-West-Richtung um die Erde (geozonal) ausgedehnte Gebiete, die aufgrund unterschiedlicher Strahlungs- oder Wärmebilanzen je nach geographischer Breite voneinander abgegrenzt werden. Die auf diese Weise definierten solar-thermischen polaren, gemäßigten und subtropischen Zonen sowie eine tropische Zone werden häufig als Grundlage für Klimaklassifikationen verwendet, mit deren Hilfe die Klimazonen durch Regionen mit gleichartigen klimatischen Bedingungen weiter untergliedert werden. Obwohl die „Klimazonen“ aufgrund fehlender hygrischer Klimaelemente strenggenommen noch keine Klimate abbilden, werden die klassifizierten Klimaregionen, Klimagebiete, Klimatypen oder Klimate oftmals auch als Klimazonen bezeichnet.
Eine der bekanntesten Klassifikationen stammt von dem Geowissenschaftler Wladimir Köppen (1846–1940). Sein 1936 veröffentlichtes Werk Geographisches System der Klimate gilt als die erste objektive Klimaklassifizierung (siehe Abbildung rechts). Es erlangte vor allem durch Köppens Zusammenarbeit mit dem Klimatologen Rudolf Geiger weite Verbreitung und besitzt auch gegenwärtig noch große Bedeutung.
Ausdehnung, Struktur und Lage der Klimazonen und -regionen sind abhängig vom Zustand und den Schwankungen des weltweiten Klimas über unterschiedlich lange Zeiträume. Laut mehreren Studien existiert seit Mitte des 20. Jahrhunderts eine deutliche Tendenz hin zur Ausbildung von wärmeren und trockeneren Klimaten. Bei Fortdauer dieser Entwicklung wird sehr wahrscheinlich eine Verschiebung bestehender und die Etablierung neuer Klimatypen eintreten.
In der Wissenschaft wird allgemein angenommen, dass bei weiter zunehmender Erwärmung beträchtliche Folgen für Flora und Fauna aller Klimazonen zu erwarten sind. So könnten bis zum Jahr 2100 knapp 40 Prozent der weltweiten Landflächen von der einsetzenden Umwandlung der bestehenden Klimate betroffen sein, mit der Gefahr von umfangreichem Artenschwund und großflächiger Entwaldung. Besonders anfällig für diesen Wechsel wären subtropische und tropische Gebiete, da sie nach paläobiologischen Analysen in den letzten Jahrtausenden nur marginalen Schwankungen unterlagen und deshalb eine gering ausgeprägte Anpassungsfähigkeit besitzen. Mit am nachhaltigsten würde der Erwärmungsprozess die arktischen Regionen beeinflussen, wenn sich der gegenwärtige Trend der Polaren Verstärkung in dieser Region fortsetzt. Temperaturänderungen haben erhebliche Auswirkungen auf die dort existierenden Biotope. Von dieser Entwicklung in hohem Maße betroffen sind bei weiterer Zunahme der anthropogenen Emissionen zudem der Mittelmeerraum sowie Teile von Chile und Kalifornien, mit der Gefahr regionaler Wüstenbildungen.
Neben der sich abzeichnenden polwärtigen Verschiebung der thermischen Klimazonen kommt es auch zu Veränderungen der Vegetationsverteilung bei im Tropengürtel liegenden Gebirgszügen. So konnte für den 6263 Meter hohen Chimborazo in Ecuador aufgrund eines Abgleichs mit früheren Aufzeichnungen festgestellt werden, dass während der letzten 200 Jahre, bedingt durch Gletscherschmelze sowie durch die zunehmende globale Erwärmung, die Pflanzendecke sich etwa 500 Meter weiter nach oben ausgebreitet hat.
Klimasystem
Das im Wesentlichen von der Solarstrahlung angetriebene Klimasystem der Erde besteht aus fünf Hauptkomponenten, auch Erdsphären genannt: Erdatmosphäre, Hydrosphäre, Kryosphäre, Biosphäre und Lithosphäre (mit dem Oberflächenbereich der Pedosphäre). Diese werden im Einzelnen wie folgt charakterisiert:
Die Erdatmosphäre ist die gasförmige, hauptsächlich aus Stickstoff und Sauerstoff bestehende Hülle der Erdoberfläche. Diese wird in mehrere Schichten unterteilt, nämlich von unten nach oben Troposphäre, Stratosphäre, Mesosphäre, Thermosphäre und Exosphäre. Das Wettergeschehen spielt sich ausschließlich in der untersten Schicht (Troposphäre) ab, deren vertikale Ausdehnung (von den Polen zum Äquator hin zunehmend) ungefähr 7 bis 17 Kilometer beträgt. Der atmosphärische Treibhauseffekt, basierend auf der Wirkung von Spurengasen wie Kohlenstoffdioxid und Methan, verhindert ein Absinken der globalen Oberflächentemperatur bis weit unter den Gefrierpunkt.
Die Hydrosphäre umfasst das gesamte Vorkommen flüssigen Wassers an oder unter der Erdoberfläche. Subsysteme sind die Ozeanosphäre (das Wasser in den Meeren) und die Limnosphäre (Binnengewässer auf dem Festland wie Seen, Flüsse oder Grundwasser). Der Wasserdampf als gasförmiger Aggregatzustand des Wassers zählt nicht zu dieser Kategorie, sondern ist Teil der Atmosphäre.
Zur Kryosphäre gehören Meereis, Schelfeis, Eisschilde, Gebirgsgletscher, Eis in Permafrostböden, Eiskristalle in Wolken sowie alle jahreszeitlich auftretenden und damit stark veränderlichen Schnee- und Eisbedeckungen. Da Eisflächen den Großteil der einfallenden Sonnenstrahlung reflektieren, beeinflusst das Wachstum oder der Schwund der Kryosphäre als elementarer Klimafaktor das Rückstrahlvermögen (Albedo) der Erde.
Die Biosphäre („Raum des Lebens“) erstreckt sich von höheren Atmosphärenschichten bis einige Kilometer tief in die Erdkruste (Lithosphäre) und wird in diesen „Randbereichen“ ausschließlich von Mikroorganismen besiedelt. Da das Leben darauf angewiesen ist, mit der unbelebten Umwelt zu interagieren und sich dieser anzupassen, entstanden im Zuge der Evolution mehrere Ökosysteme auf planetarer Ebene. Aufgrund ihrer Komplexität und ihrer intensiven Wechselwirkungen mit anderen Sphären steht die Biosphäre (zu der auch der Mensch gehört) im Mittelpunkt vieler naturwissenschaftlicher Disziplinen, vor allem der Biologie und der Umweltwissenschaften.
Die Lithosphäre bildet den Festlandsbereich der Erdoberfläche und den Ozeanboden. Da die oberste Schicht der kontinentalen Lithosphäre der Verwitterung ausgesetzt ist, gleichzeitig Luft, Wasser und organische Substanzen aufnimmt beziehungsweise speichert und vielfach Pflanzenbewuchs aufweist, existiert zwischen ihr und den anderen Erdsphären eine auf breiter Basis stattfindende Wechselwirkung.
Die innerhalb und zwischen den einzelnen Sphären ablaufenden internen Prozesse und Wechselwirkungen gehören ebenfalls zum Klimasystem. Externe, das heißt nicht zum Klimasystem gehörende Prozesse treiben das Klimasystem an, neben der Solarstrahlung sind das der Vulkanismus und menschliche Einflüsse (→ #Klimafaktoren).
Klimaelemente
Als Klimaelemente werden die messbaren Einzelerscheinungen der Atmosphäre bezeichnet, die durch ihr Zusammenwirken das Klima prägen. Es handelt sich dabei zumeist um meteorologische Größen, die mittels Wetterstationen, Wettersonden oder Satelliten erfasst werden, aber auch um Datenreihen aus der Ozeanographie und verschiedenen Disziplinen der Geowissenschaften. In der Meteorologie liegt der Schwerpunkt hierbei auf der räumlichen Datenanalyse, während in der Klimatologie die Zeitreihenanalyse im Vordergrund steht.
Die wichtigsten Messgrößen sind:
Lufttemperatur
Luftfeuchtigkeit (Taupunkt)
Luftdruck
Luftdichte
Windgeschwindigkeit und Windrichtung
Niederschlagsart
Niederschlagsmenge
Sonnenscheindauer
Bewölkung
Sichtweite
Globalstrahlung
Albedo
Die Werte werden in Monatstabellen gesammelt und für längere Zeiträume (klimatologisch mindestens im Rahmen einer 30-jährigen Normalperiode) nach Mittelwerten, Häufigkeiten, Abfolgen und Extremwerten ausgewertet.
Klimafaktoren
Klimafaktoren sind die Komponenten des Raumes, die auf physikalischer, chemischer oder biologischer Basis eine deutliche Wirkung auf das Klimasystem ausüben und es über unterschiedlich lange Zeiträume stabilisieren, prägen oder verändern. Dabei können mehrere Faktoren zusammenwirken und auf diese Weise einen Prozess verstärken oder sich als jeweils gegenläufige Einflüsse weitgehend neutralisieren.
Wichtige Klimafaktoren sind:
mittlere Niederschlagshäufigkeit (für einen bestimmten Tag)
mittlere Tagesgang des Dampfdrucks
vorherrschende Windrichtungsverteilung im Monat
mittlere Windgeschwindigkeit während eines Jahres
Geographische Breite
Topographische Lage
Höhenstrukturen,
Land-Meer-Verteilung
Meeresströmungen
Böden, (Art, Beschaffenheit, Bedeckung)
Wasserverhältnisse an der Oberfläche,
Bebauung (Stadtklima)
Klimafaktoren über die gesamte Dauer der Erdgeschichte
Die Sonne ist für das irdische Klima von primärer Bedeutung. Vor 4,6 Milliarden Jahren setzte bei ihr nach einer Phase als Protostern der Fusionsprozess ein, der den im Sonnenkern vorhandenen Wasserstoff allmählich in Helium umwandelt. Dieses Stadium dauert rund 11 Milliarden Jahre, wobei die Leuchtkraft und der Radius des Gestirns deutlich zunehmen werden beziehungsweise bereits zugenommen haben. Das bedeutet, dass die Sonne am Beginn der Erdgeschichte nur 70 Prozent ihrer gegenwärtigen Strahlungsleistung aufwies. Das Paradoxon der schwachen jungen Sonne berührt grundlegende Fragen zur Entstehung und zur Kontinuität des irdischen Lebens und ist ein zentrales Thema der Atmosphärenwissenschaften.
Der Vulkanismus ist seit Beginn der Erdgeschichte ein elementarer Klimafaktor mit sehr unterschiedlichen Erscheinungsformen (unter anderem Schildvulkane, Hotspots bzw. Manteldiapire, Magmatische Großprovinzen). Die permanente Freisetzung von Kohlenstoffdioxid durch vulkanische Ausgasungen (etwa 180 bis 440 Megatonnen jährlich) gleicht die durch Verwitterung und Sedimentation bedingte CO2-Einlagerung weitgehend aus und trug im späten Präkambrium entscheidend zur Überwindung der Schneeball-Erde-Stadien bei. Andererseits ist auch eine mehrmalige Destabilisierung der Biosphäre durch stark erhöhte vulkanische Aktivitäten eindeutig nachgewiesen.
Treibhausgase sind strahlungsbeeinflussende gasförmige Stoffe in der Atmosphäre, die den Antrieb des Treibhauseffekts bilden, unter anderem Wasserdampf, Kohlenstoffdioxid, Methan, troposphärisches Ozon und Distickstoffmonoxid. Das in seiner Gesamtwirkung stärkste Treibhausgas ist der Wasserdampf, dessen Anteil am natürlichen Treibhauseffekt zwischen 36 und 70 Prozent schwankt. Da der atmosphärische Wasserdampfgehalt unmittelbar von der Lufttemperatur abhängt, nimmt seine Konzentration bei niedrigeren Durchschnittstemperaturen ab und steigt während einer Erwärmungsphase an (Wasserdampf-Rückkopplung beziehungsweise Clausius-Clapeyron-Gleichung).
Die Plattentektonik bildet gewissermaßen den Motor für klimatische Veränderungen in geologischen Zeiträumen. Ihr Einfluss auf das Erdklima beschränkt sich dabei nicht nur auf die Entstehung vulkanischer Zonen, auch Gebirgsbildungen, Lage und Größe der Kontinente und damit verbundene Wettersysteme beziehungsweise ozeanische Strömungen stehen mit der Plattentektonik in direktem Zusammenhang. Durch Verwitterung in Kalkstein gebundener Kohlenstoff kann wieder in die Atmosphäre freigesetzt werden, wenn die entsprechenden Gesteinsschichten im Zuge plattentektonischer Verschiebungen und in Verbindung mit erhöhten vulkanischen Aktivitäten subduziert werden (vgl. Anorganischer Kohlenstoffzyklus).
Albedo ist das Maß des Rückstrahlvermögens nicht selbst leuchtender Oberflächen. Eis- und Schneeflächen besitzen eine Albedo von ungefähr 0,80 (was einer Rückstrahlung von 80 Prozent entspricht), während freie Meeresoberflächen eine Albedo von rund 0,20 aufweisen und demzufolge mehr Wärmeenergie aufnehmen als sie reflektieren. Die mittlere sphärische Albedo der Erde beträgt derzeit etwa 0,3. Sie hängt von der Ausdehnung der Ozeane, Eisschilde, Wüsten und Vegetationszonen ab (einschließlich der Wolkenbedeckung und Aerosolkonzentration) und kann sich zusammen mit der Strahlungsbilanz verändern.
Verwitterungsprozesse bewirken tendenziell eine Abkühlung und kommen in Abhängigkeit vom jeweiligen Klimazustand unterschiedlich stark zur Geltung. Aufgrund chemischer Verwitterung wird der Atmosphäre permanent Kohlenstoffdioxid entzogen und in der Lithosphäre gebunden. Ein Teil des eingelagerten CO2 wird über Millionen Jahre durch die Ausgasungen kontinentaler oder ozeanischer Vulkane der Atmosphäre wieder zugeführt. Unter den gegenwärtigen geophysikalischen Bedingungen würde ein kompletter Austausch des atmosphärischen Kohlenstoffdioxids auf der Basis des Carbonat-Silicat-Zyklus ungefähr 500.000 Jahre benötigen.
Klimarelevante Meeresspiegelschwankungen (Eustasie) beruhen auf zwei Hauptursachenː 1. Veränderungen des Meerwasservolumens durch die Bindung des Wassers in kontinentalen Eisschilden oder durch deren Abschmelzen (Glazialeustasie); 2. Veränderungen des Ozeanbeckenvolumens infolge tektonischer Prozesse, beispielsweise durch Bildung neuer ozeanischer Kruste. Dadurch sind Hebungen oder Senkungen des Meeresspiegels im Bereich von 100 bis 200 Metern möglich.
Wolkenbildungen haben einen großen Einfluss auf den Energiehaushalt beziehungsweise die Strahlungsbilanz der Erde und damit auf das Klimasystem. Die Wirkungszusammenhänge sind jedoch noch nicht vollständig geklärt. Neuere Studien gehen von der Möglichkeit aus, dass hohe CO2-Konzentrationen einen negativen Einfluss auf die Entstehung von Stratocumuluswolken ausüben könnten, was einen zusätzlichen Erwärmungseffekt bedeuten würde.
Sporadisch auftretende Einflüsse über längere Zeiträume
Magmatische Großprovinzen waren oftmals Ursache für rasch verlaufende Klimawechsel. Dabei handelt es sich um den großvolumigen Austritt magmatischer Gesteine aus dem Erdmantel, die sich mitunter über Millionen km² ausbreiteten und erhebliche Mengen an Kohlenstoffdioxid und anderen Gasen emittierten. Im Unterschied zum „normalen“ Vulkanismus bewirkten die Aktivitäten einer Magmatischen Großprovinz keine aerosolbedingte Abkühlung, sondern eine weltweite und zum Teil extreme Erwärmung mit zusätzlicher Aktivierung mehrerer Rückkopplungen. Bekannte Magmatische Großprovinzen sind der Sibirische Trapp (252 mya) und der Dekkan-Trapp im heutigen Westindien (66 mya).
Organismen, die durch Fixierung oder Freisetzung von Treibhausgasen klimawirksame Effekte hervorrufen können, wie Korallen, Methanbildner oder Pflanzen wie der Schwimmfarn Azolla, der wahrscheinlich 800.000 Jahre lang im Eozän den Arktischen Ozean „besiedelte“.
Die Eis-Albedo-Rückkopplung bezeichnet einen positiven Rückkopplungseffekt im Klimasystem, durch den im Verlauf einer globalen Abkühlung die Schnee- und Eisbedeckung (vor allem in den Polargebieten) weiter zunimmt. Die Eis-Albedo-Rückkopplung ist besonders beim Übergang von einer Warm- zu einer Kaltzeit von Bedeutung, da sie Vereisungs- und Abkühlungsprozesse beschleunigt und verstärkt.
Impaktereignisse größeren Ausmaßes können nicht nur die Biosphäre in erheblichem Umfang destabilisieren und Massenaussterben wie jenes an der Kreide-Paläogen-Grenze verursachen, sondern auch das Klima über längere Zeiträume beeinflussen (abrupt einsetzender Impaktwinter über einige Jahrzehnte, eventuell nachfolgende starke Erwärmung mit einer Dauer von mehreren 10.000 Jahren).
→ #Erdbahnparameter.
Zusätzliche und gegenwärtig wirksame Einflüsse
Sonnenfleckenzyklen korrelieren im Normalfall mit dem elfjährigen Schwabe-Zyklus und dem Hale-Zyklus mit 22 Jahren Dauer, wobei die Sonne auch jahrzehntelang in einer „Stillstandsphase“ verharren kann. In der Klimatologie herrscht breite Übereinstimmung, dass sich die Globale Erwärmung seit Mitte des 20. Jahrhunderts von der Sonnenaktivität vollständig abgekoppelt hat. Welchen Anteil die Aktivitätszyklen am Verlauf der „Kleinen Eiszeit“ und anderen Klimaanomalien hatten, ist Gegenstand einer wissenschaftlichen Diskussion.
Aerosole sind mit einem Trägergas verbundene flüssige oder feste Schwebeteilchen, die in Form von hygroskopischen Partikeln als Kondensationskerne an der Wolkenbildung beteiligt sind. Zusätzlich tragen sie je nach Konzentration, chemischer Beschaffenheit und atmosphärischer Verteilung überwiegend zu einer Abkühlung des Klimas bei, vor allem bei einem Auftreten als helle Sulfataerosole. Aerosole gelangen zum Beispiel durch Vulkanismus, Wald- und Flächenbrände sowie verstärkt seit Beginn des Industriezeitalters durch anthropogene Emissionen in die Atmosphäre.
Rossby-Wellen (auch planetarische Wellen) sind großräumige wellenförmige Bewegungen in der Atmosphäre und den Meeren (als windgesteuerter Faktor der ozeanischen Zirkulation). In der Lufthülle sind Rossby-Wellen eine mäandrierende Ausprägung des Jetstreams entlang der Grenze zwischen polaren Kalt- und subtropischen Warmluftzonen. Die in den letzten Jahren registrierte Veränderung der atmosphärischen Rossby-Wellen führt zu einer Zunahme stabiler Wetterlagen und damit zu einer Häufung extremer Witterung in den mittleren Breiten der Nordhemisphäre.
Mit der Nordatlantischen Oszillation (NAO) ist eine Veränderung der Druckverhältnisse zwischen dem Islandtief im Norden und dem Azorenhoch im Süden über dem Nordatlantik verbunden. Die NAO übt einen starken Einfluss auf die Wetter- und Klimabedingungen im östlichen Nordamerika, des Nordatlantiks und in Europa aus.
Die Atlantische Multidekaden-Oszillation (AMO) bezeichnet eine zyklische Schwankung der Ozeanströmungen im Nordatlantik mit einer Veränderung der Meeresoberflächentemperaturen des gesamten nordatlantischen Beckens.
Die El Niño-Southern Oscillation (ENSO) ist eine kurzfristige Schwankung im Klimasystem der Erde, resultierend aus einer ungewöhnlichen Erwärmung im östlichen Pazifik (El Niño) und Luftdruckschwankungen in der Atmosphäre (Southern Oscillation). Das ENSO-Phänomen ist in der Lage, die weltweite Temperaturentwicklung kurzfristig zu beeinflussen.
Globale Erwärmung ist der vielfach belegte Trend zu höheren globalen Durchschnittstemperaturen aufgrund anthropogener Treibhausgas-Emissionen, mit Folgen wie steigenden Meeresspiegeln, Gletscherschmelze, Verschiebung von Klimazonen sowie Zunahme von Wetterextremen. Aussagen über Umfang und Dauer der künftigen Temperaturentwicklung beruhen auf verschiedenen Szenarien, die deutliche Auswirkungen über Jahrtausende erwarten lassen, unter Umständen auch darüber hinaus.
Klimawandel
Im Unterschied zu regional oder hemisphärisch auftretenden Klimaschwankungen (auch Klimafluktuationen oder Klimaanomalien, mit einer Dauer von einigen Jahrzehnten oder Jahrhunderten) erfolgt ein weltweiter Klimawandel durch die markante Veränderung des Strahlungsantriebs, der das Erdsystem aus einem thermisch-radiativen Gleichgewicht in ein neues Gleichgewicht überführt. Dieser Prozess bewirkt je nach geophysikalischer Konstellation eine deutliche Abkühlung oder eine starke Erwärmung über unterschiedlich lange Zeiträume. Die gegenwärtige, durch den Menschen verursachte Globale Erwärmung ist ein Beispiel für einen rasch fortschreitenden, aber noch nicht abgeschlossenen Klimawandel, dessen bisheriger und prognostizierter Verlauf möglicherweise ein in der Klimageschichte singuläres Ereignis darstellt, für das keine Entsprechung existiert.
Die wichtigsten Komponenten eines Klimawandels auf globaler Ebene sind die variierende Sonneneinstrahlung aufgrund der Milanković-Zyklen, das Rückstrahlvermögen (Albedo) der gesamten Erdoberfläche sowie die atmosphärische Konzentration von Treibhausgasen, vorwiegend Kohlenstoffdioxid (CO2) und Methan (CH4), die wiederum auf der Basis des Treibhauseffekts die Stärke der temperaturabhängigen Wasserdampf-Rückkopplung beeinflussen. Der Klimazustand der letzten 2,6 Millionen Jahre (Quartäre Kaltzeit) war der eines Eiszeitalters und wurde hauptsächlich von den Milanković-Zyklen gesteuert, die die Sonneneinstrahlung über die Dauer von 40.000 beziehungsweise 100.000 Jahren signifikant veränderten und so den Anstoß für den Wechsel der Kaltzeiten (Glaziale) mit Warmzeiten (Interglaziale) gaben.
Nicht immer waren Kohlenstoffdioxid und/oder Methan die Hauptfaktoren eines Klimawandels. Sie fungierten im Rahmen natürlicher Klimawandel-Ereignisse manchmal als „Rückkopplungsglieder“, die einen Klimatrend verstärkten, beschleunigten oder abschwächten. In diesem Zusammenhang sind neben den Erdbahnparametern auch Feedbacks wie die Eis-Albedo-Rückkopplung, die Vegetationsbedeckung, Verwitterungsprozesse, die Variabilität des Wasserdampfgehalts sowie eine Vielzahl geologischer und geophysikalischer Einflüsse zu berücksichtigen.
Eine spezielle Form des Klimawandels sind abrupte Klimawechsel. Sie wurden in der Erdgeschichte durch Impaktereignisse, Eruptionen von Supervulkanen, großflächige Magmaausflüsse, schnelle Veränderungen von Meeresströmungen oder durch rasch ablaufende Rückkopplungsprozesse im Klimasystem ausgelöst, oft in Verbindung mit ökologischen Krisen.
Klimageschichte
Die Erde bildete sich vor 4,57 Milliarden Jahren aus mehreren Protoplaneten unterschiedlicher Größe. Ihre heutige Masse soll sie der Kollisionstheorie zufolge durch einen Zusammenstoß mit einem marsgroßen Himmelskörper namens Theia vor 4,52 Milliarden Jahren erhalten haben. Dadurch wurden Teile des Erdmantels und zahlreiche Trümmerstücke von Theia in den Orbit geschleudert, aus denen sich innerhalb von 10.000 Jahren der zu Beginn glutflüssige Mond formte. Über dieses früheste und chaotisch geprägte Stadium der Erdgeschichte sind mangels verwertbarer Klimadaten keine gesicherten Aussagen möglich. Erst ab der Zeit vor 4,0 bis 3,8 Milliarden Jahren, nach der Entstehung der Ozeane und erster Lebensformen, existieren fossile Spuren und Proxys („Klimaanzeiger“), die Rückschlüsse auf klimatische Bedingungen erlauben. Auf Basis dieser Hinweise wird angenommen, dass über weite Teile des Archaikums ein relativ warmes Klima herrschte. Diese Phase endete im frühen Proterozoikum vor 2,4 Milliarden Jahren mit dem Übergang in die 300 Millionen Jahre dauernde Paläoproterozoische Vereisung.
Gegen Ende des Präkambriums diffundierte Sauerstoff in größeren Mengen bis in die Stratosphäre, und es bildete sich auf der Grundlage des Ozon-Sauerstoff-Zyklus eine Ozonschicht. Diese schützte fortan die Erdoberfläche vor der solaren UV-Strahlung und ermöglichte so die Besiedelung der Kontinente durch Flora und Fauna. Während des Erdaltertums nahm der Sauerstoffgehalt rasch zu. Er entsprach im Umkreis der Devon-Karbon-Grenze (ca. 359 mya) erstmals der heutigen Konzentration von 21 Prozent und erreichte gegen Ende des Karbons etwa 33 bis 35 Prozent. Im weiteren Verlauf der Erd- und Klimageschichte war die Atmosphäre in Abhängigkeit von biogeochemischen und geophysikalischen Einflüssen immer wieder starken Veränderungen unterworfen. Die Sauerstoff-, Kohlenstoffdioxid- und Methan-Anteile schwankten zum Teil erheblich und spielten direkt oder indirekt eine entscheidende Rolle bei einer Reihe von Klimawandel-Ereignissen.
Bei Analyse der Klimageschichte spricht eine wachsende Zahl von Belegen für die Annahme, dass fast alle bekannten Massenaussterben oder die deutliche Reduzierung der Biodiversität mit raschen Klimaänderungen und deren Folgen verknüpft waren. Daraus resultierte die Erkenntnis, dass diese Ereignisse nicht zwangsläufig an langfristige geologische Prozesse gekoppelt sein müssen, sondern häufig einen katastrophischen und zeitlich eng begrenzten Verlauf genommen haben. Biologische Krisen korrelierten in den letzten 540 Millionen Jahren mehrmals mit einer Abkühlungsphase (mit einem weltweiten Temperaturrückgang von 4 bis 5 °C), häufiger jedoch mit starken Erwärmungen im Bereich von 5 bis 10 °C. Im letzteren Fall trug ein Bündel von Nebenwirkungen (Vegetationsrückgang, Ausgasungen von Gift- und Schadstoffen, Sauerstoffdefizite, Versauerung der Ozeane etc.) dazu bei, die irdische Biosphäre weiter zu destabilisieren.
Die im 20. Jahrhundert entwickelte radiometrische Datierung, die eine absolute Altersbestimmung magmatischer Gesteine und vulkanogener Sedimente erlaubt, führte zur Etablierung der Subdisziplinen Geochronologie und Chronostratigraphie und besitzt große Bedeutung für alle Perioden des 541 Millionen Jahre umfassenden Phanerozoikums und darüber hinaus. Gebräuchliche Methoden sind die Uran-Thorium-Datierung und die Uran-Blei-Datierung. Für genaue Datierungen eignen sich vor allem Zirkonkristalle, deren stabile Gitterstruktur eine präzise Auswertung der darin eingeschlossenen radioaktiven Nuklide erlaubt. Zusätzlich wird zur Rekonstruktion vergangener Klimate und ihrer Umweltbedingungen eine Reihe verschiedener Isotopenuntersuchungen verwendet, mit deren Hilfe beispielsweise frühere Meerestemperaturen, CO2-Konzentrationen oder Veränderungen des Kohlenstoffzyklus ermittelt werden können. Für jüngere erdgeschichtliche Abschnitte (Pleistozän und Holozän) kommen weitere Analysewerkzeuge zum Einsatz. Mit die wichtigsten sind die Dendrochronologie (Jahresring-Auswertung), die Palynologie (Pollenanalyse), die Warvenchronologie (Bändertondatierung),
Eisbohrkerne, Ozeanische Sedimente sowie Tropfsteine (Stalagmiten und Stalaktiten).
Klimaereignisse in historischer Zeit und ihre Auswirkungen auf menschliche Gesellschaften sind Forschungsgegenstand der Historischen Klimatologie beziehungsweise der Umweltgeschichte, wobei vielfach auf schriftliche Aufzeichnungen zurückgegriffen wird. Mitteleuropa verfügt über einen so reichhaltigen Fundus zeitgenössischer Berichte, dass etwa ab dem Jahr 1500 für nahezu jeden einzelnen Monat aussagekräftige Schilderungen der damaligen Witterung vorliegen. Klimaveränderungen wie die Mittelalterliche Klimaanomalie oder die Kleine Eiszeit werden dabei ebenso einer wissenschaftlichen Analyse unterzogen wie einzelne Extreme, zum Beispiel das von katastrophaler Dürre geprägte Jahr 1540.
Erdbahnparameter
Dass langfristige Schwankungen des globalen Klimas auf zyklischen Veränderungen der Erdachse und der Erdumlaufbahn beruhen könnten, wurde bereits in der 2. Hälfte des 19. Jahrhunderts vermutet. Eine erste umfassende Darstellung auf der Basis umfangreicher Berechnungen gelang dem Geophysiker und Mathematiker Milutin Milanković (1879–1958). Sein in jahrelanger Arbeit erstelltes Erklärungsmodell berücksichtigt die periodischen Veränderungen der Erdbahn (von leicht elliptisch bis fast kreisförmig), die Neigung der Erdachse sowie das Kreiseln der Erde um ihre Rotationsachse (Präzession).
Die nach Milanković benannten Zyklen beeinflussen die Verteilung und zum Teil die Intensität der Sonneneinstrahlung auf der Erde. Vor allem der die Exzentrizität steuernde Großzyklus mit einer Dauer von 405.000 Jahren bildete über weite Teile des Phanerozoikums einen stabilen kosmischen „Taktgeber“ und kann nach neueren Erkenntnissen bis in die Obertrias vor etwa 215 Millionen Jahren zurückverfolgt werden. Eine dauerhafte Wirkung entfalteten die Zyklen speziell während verschiedener Glazialphasen mit niedrigen Treibhausgas-Konzentrationen, wobei ihr Einfluss auf den Verlauf der Quartären Kaltzeit aufgrund deren zeitlicher Nähe gut nachvollzogen werden kann. Da die Milanković-Zyklen jedoch zu schwach sind, um als primärer Antrieb für die gesamte Klimageschichte in Frage zu kommen, scheinen sie im Klimasystem in erster Linie als „Impulsgeber“ zu fungieren. Bei der Modellierung von Klimaverläufen werden daher zusätzliche Faktoren und Rückkopplungseffekte mit einberechnet.
Seit ihrer „Wiederbelebung“ in den 1980er Jahren ist die Theorie in modifizierter und erweiterter Form zum festen Bestandteil von Paläoklimatologie und Quartärforschung geworden. Die Milanković-Zyklen gelten in der Klimaforschung als wichtiger Einflussfaktor und werden sowohl bei der Rekonstruktion der letzten Kaltzeitphasen als auch bei der Analyse weiterer Klimawandel-Ereignisse während des Phanerozoikums herangezogen.
Klimasensitivität
Die Klimasensitivität ist nach einer häufig verwendeten Definition jene Temperaturzunahme, die sich bei einer Verdoppelung der atmosphärischen Kohlenstoffdioxid-Konzentration einstellt. Bezogen auf die aktuelle Globale Erwärmung würde dies eine CO2-Verdoppelung von vorindustriellen 280 ppm auf 560 ppm bedeuten. Mit Stand 2019 beträgt die im Jahresverlauf leicht schwankende CO2-Konzentration ungefähr 412 ppm. Neben Kohlenstoffdioxid sind noch weitere Gase am Treibhauseffekt beteiligt, deren Beitrag in der Regel als CO2-Äquivalente dargestellt wird.
Die Eingrenzung der Klimasensitivität auf einen möglichst genauen Temperaturwert ist für die Kenntnis der künftigen Klimaentwicklung von grundlegender Bedeutung. Bei ausschließlicher Betrachtung der im Labor gemessenen Strahlungswirkung von CO2 beträgt die Klimasensitivität 1,2 °C. Zur Klimasensitivität trägt jedoch auch eine Reihe positiver Rückkopplungseffekte im Klimasystem bei, wobei zwischen schnellen und langsamen Feedbacks unterschieden wird. Wasserdampf-, Eis-Albedo- und Aerosolrückkopplung sowie die Wolkenbildung zählen zu den schnellen Rückkopplungen. Die Eisschilde, kohlenstoffbindende Verwitterungsprozesse sowie die Ausbreitung oder Reduzierung der Vegetationsfläche gelten als langsame Rückkopplungseffekte und werden der Erdsystem-Klimasensitivität zugeordnet.
Die Klimasensitivität als dynamischer Faktor hängt in hohem Maße vom jeweiligen Klimazustand ab. Beispiele aus der Erdgeschichte zeigen, dass sich die Klimasensitivität mit Zunahme des Strahlungsantriebs und der damit steigenden Globaltemperatur ebenfalls erhöht. So wird beispielsweise für die starke Erwärmungsphase des Paläozän/Eozän-Temperaturmaximums vor 55,8 Millionen Jahren eine Klimasensitivität im Bereich von 3,7 bis 6,5 °C postuliert. Ähnlich hohe Werte werden auch für den größten Teil des übrigen Känozoikums veranschlagt.
In den vergangenen Jahrzehnten wurden der Klimasensitivität sehr unterschiedliche Werte zugeschrieben. Die Sachstandsberichte des Intergovernmental Panel on Climate Change (IPCC), die den jeweils aktuellen Forschungsstand zusammenfassen, gelten hierbei als maßgebliche und zuverlässige Quelle. Im 2007 erschienenen Vierten Sachstandsbericht lag der als „wahrscheinlich“ eingestufte Temperaturkorridor zwischen 2 und 4,5 °C. Laut dem 2013 veröffentlichten Fünften Sachstandsbericht betrug die Bandbreite zwischen 1,5 und 4,5 °C. Demnach liegt der beste mittlere Schätzwert für die gegenwärtige Klimasensitivität bei rund 3 °C. Im Jahr 2019 zeigten erste Auswertungen der neuentwickelten Klimamodellreihe CMIP6, dass einige Standardtests mit 2,8 bis 5,8 °C deutlich höhere Klimasensitivitäten ergaben als frühere Modellgenerationen. Allerdings führte die Anwendung von CMIP6 mit der Modellvariante CESM2 (Community Earth System Model version 2) beim Vergleich mit paläoklimatologisch ermittelten Temperaturdaten des frühen Känozoikums zu erheblichen Abweichungen beziehungsweise unrealistischen Werten.
Klimafaktor Mensch
Seit Beginn der Industrialisierung im 19. Jahrhundert erhöhen die Menschen den Anteil an Treibhausgasen in der Atmosphäre in signifikantem Umfang. Besonders die Verbrennung fossiler Energieträger trug dazu bei, dass die Kohlenstoffdioxid-Konzentration von 280 ppm (Teile pro Million) auf (Stand 2020) 415 ppm stieg. Hinzu kommen beträchtliche Methan-Emissionen, vor allem bedingt durch intensive Tierhaltung, sowie weitere Treibhausgase wie Distickstoffmonoxid (Lachgas) oder Carbonylsulfid. Ein bedeutender Faktor ist zudem die großflächige Entwaldung insbesondere der tropischen Regenwälder.
Der Temperaturanstieg gegenüber der vorindustriellen Zeit bis zum Jahr 2018 betrug nach Angaben des Intergovernmental Panel on Climate Change (IPCC) etwa 1,0 °C. Bis zum Ende des 21. Jahrhunderts rechnet der IPCC im ungünstigsten Fall (repräsentativer Konzentrationspfad RCP 8.5) mit einem Temperaturanstieg im Bereich von 2,6 bis 4,8 °C.
Die Zunahme von Treibhausgasen und der damit gekoppelte Temperaturanstieg sind nach einhelliger wissenschaftlicher Meinung auf menschliche Aktivitäten zurückzuführen. Wenn es nicht gelingt, die anthropogenen Emissionen in hohem Umfang zu reduzieren, drohen selbst bei einer relativ moderaten Erwärmung von 2 °C zahlreiche und zum Teil schwerwiegende Folgen, zu denen steigende Meeresspiegel, zunehmende Wetterextreme und gravierende Auswirkungen auf menschliche Gemeinschaften zählen. Neuere Analysen auf der Basis umfassender paläoklimatologischer Datenreihen der letzten 12.000 Jahre kommen zu dem Ergebnis, dass die im bisherigen 21. Jahrhundert aufgetretene Erwärmung die Temperaturwerte des Holozänen Klimaoptimums (vor etwa 8000 bis 6000 Jahren) mit hoher Wahrscheinlichkeit übertrifft.
Kippelemente
Kippelemente () sind in der Erdsystemforschung Bestandteile des Klimasystems, die durch geringe äußere Einflüsse einen neuen Zustand annehmen, wenn sie einen bestimmten Kipppunkt erreichen. Diese Änderungen können abrupt erfolgen und gelten zum Teil als irreversibel. Das Konzept der Kippelemente wird vor allem in der geowissenschaftlichen Fachliteratur seit Beginn des Jahrtausends als bis dahin vernachlässigte Möglichkeit diskontinuierlicher Prozesse – vor allem im Zusammenhang mit der gegenwärtigen globalen Erwärmung – auf breiter Basis diskutiert.
In einer ersten Bestandsaufnahme wurden die folgenden potenziellen Kippelemente identifiziert:
Abschmelzen des sommerlichen arktischen Meereises
Abschmelzen des grönländischen Eisschildes
Abschmelzen des westantarktischen Eisschildes
Erlahmen der atlantischen thermohalinen Zirkulation
Veränderung der El Niño-Southern Oscillation (ENSO)
Zusammenbruch des indischen Sommermonsuns
Veränderungen im Westafrikanischen Monsunsystem mit Auswirkungen auf Sahara und Sahelzone
Verödung des tropischen Regenwaldes
Reduzierung borealer Wälder
In den folgenden Jahren wurden weitere Kippelemente benannt, darunter die Methan-Freisetzung aus den Ozeanen und aus tauenden Dauerfrostböden sowie das weltweite Absterben von Korallenriffen. Durch die Aktivierung einiger Kippelemente könnten in Form von Rückkopplungen weitere Kipppunkte überschritten werden. Damit bestünde das Risiko einer Kettenreaktion („Kaskade“), die das Klima unumkehrbar in ein Warmklima überführen würde, in etwa vergleichbar mit den Umweltbedingungen des Pliozäns oder – bei unvermindertem Emissionsvolumen – des Eozäns.
Im Hinblick auf verschiedene geochronologische Perioden gibt es eine Reihe deutlicher Hinweise, dass bei Erreichen bestimmter Kipppunkte ein abrupter Wechsel in einen neuen Klimazustand stattfand, wie zum Beispiel während des Hangenberg-Ereignisses im späten Devon vor etwa 359 Millionen Jahren.
Klimamodelle
Klimamodelle sind Computermodelle zur Berechnung des Klimas und dessen Einflussfaktoren über einen bestimmten Zeitraum und werden sowohl zur Analyse künftiger Entwicklungen als auch zur Rekonstruktion von Paläoklimaten verwendet. Die Projektionen der Klimamodelle sind naturgemäß unsicherer als die der Wettermodelle, da hierbei wesentlich größere Zeiträume in Betracht gezogen und eine Reihe zusätzlicher Parameter berücksichtigt werden müssen. Aus diesem Grund werden keine Klimaprognosen, sondern Szenarien mit bestimmten Wahrscheinlichkeitskorridoren erstellt. Ein Klimamodell basiert in der Regel auf einem Meteorologiemodell, wie es auch zur numerischen Wettervorhersage verwendet wird. Dieses Modell wird jedoch für die Klimamodellierung modifiziert und erweitert, um alle Erhaltungsgrößen korrekt abzubilden. Oftmals wird dabei ein Ozeanmodell, ein Schnee- und Eismodell für die Kryosphäre und ein Vegetationsmodell für die Biosphäre angekoppelt.
Die meisten Modelle werden an realen Klimaverläufen der Gegenwart und der Vergangenheit kalibriert, so dass sie nicht nur aktuelle Entwicklungen, sondern beispielsweise auch die Klimazyklen über mehrere 100.000 Jahre weitgehend korrekt nachbilden können. Somit wurde es möglich, den charakteristischen Ablauf der Quartären Eiszeit mit ihren Warm- und Kaltphasen, einschließlich der Milanković-Zyklen, des Treibhauseffekts und der Eis-Albedo-Rückkopplung, auf ein solides theoretisches Fundament zu stellen. Allerdings bestehen für Projektionen künftiger Klimaentwicklungen über Jahrhunderte oder länger große Unsicherheiten hinsichtlich möglicher Rückkopplungsprozesse, vor allem in Verbindung mit den Kippelementen im Erdsystem, sodass es selbst unter Einbeziehung der Klimageschichte beziehungsweise paläoklimatologisch ermittelter Daten schwierig ist, valide Resultate zu erzielen. Ebenso haben dekadische Klimamodellierungen nur eine beschränkte Aussagekraft, da kurzfristig auftretende Schwankungen einen Trend jederzeit überlagern oder verfälschen können.
Klima in Deutschland
Deutschland liegt vollständig in der gemäßigten Klimazone Mitteleuropas im Einflussbereich der Westwindzone und somit in der Übergangsregion zwischen dem maritimen Klima in Westeuropa und dem kontinentalen Klima in Osteuropa. Das für die relativ hohe nördliche Breite milde Klima wird unter anderem vom Golfstrom beeinflusst.
Der bundesweite Gebietsmittelwert der Lufttemperatur beträgt im Jahresmittel 8,2 °C (Normalperiode 1961–1990), der niedrigste Monatsdurchschnitt wird mit −0,5 °C im Januar und der höchste mit 16,9 °C im Juli erreicht. Spitzenreiter bei den Jahresdurchschnittstemperaturen ist der Oberrhein-Graben mit über 11 °C, während Oberstdorf, 800 Meter über Meereshöhe gelegen, rund 6 °C verzeichnet. Der kälteste Ort ist der Gipfel der 2962 m hohen Zugspitze mit einer durchschnittlichen Jahrestemperatur von fast −5 °C. Die mittlere jährliche Niederschlagshöhe beträgt 789 mm, die mittleren monatlichen Niederschlagshöhen liegen zwischen 49 mm im Februar und 85 mm im Juni. Die Niederschlagshöhe schwankt in einem Bereich von über 1000 mm in der Alpenregion und den Mittelgebirgen und unter 500 mm im Regenschatten des Harzes zwischen Magdeburg im Norden, Leipzig im Osten und Erfurt im Süden. Generell nimmt die Humidität von West nach Ost ab.
In den letzten Jahrzehnten verzeichnet auch Deutschland einen deutlichen Erwärmungstrend: Nach den Statistiken des Deutschen Wetterdienstes lagen in allen Jahren seit 1988 (ausgenommen 1996 und 2010) die Durchschnittstemperaturen über dem langjährigen Mittel von 8,2 °C. 2014 wurde mit 10,3 °C erstmals ein zweistelliger Jahreswert erreicht, übertroffen nur vom bisherigen Rekordjahr 2018 mit 10,5 °C. Für den Zeitraum 1881 bis 2018 ergibt sich in den Auswertungen des Deutschen Wetterdienst ein Temperaturanstieg für Deutschland um +1,5 °C (linearer Trend). Die Zunahme im Sommer betrug +1,4 °C (1881–2018), im Winter +1,5 °C (1882–2019). Dabei hat sich der Trend in den letzten Jahrzehnten verstärkt. Damit verbunden zeigen Beobachtungen der Pflanzenentwicklung eine Verschiebung der phänologischen Jahreszeiten. Beispielsweise trat die Haselnussblüte, die als Indikator für den phänologischen Vorfrühling definiert ist, im Zeitraum 1991–2010 ca. 12 Tage früher auf als im Zeitraum 1961–1990. Auch Zugvögel bleiben fast einen Monat länger in Deutschland als noch in den 1970er Jahren.
Die tiefste jemals in Deutschland gemessene Temperatur wurde am 24. Dezember 2001 mit −45,9 °C am Funtensee in den Berchtesgadener Alpen registriert. Allerdings handelt es sich hierbei um eine besonders exponierte Lage, da in der abflusslosen Senke über Schneebedeckung ein Kaltluftstau entstehen kann. Der Deutsche Wetterdienst gibt als offiziellen Rekordwert −37,8 °C an, gemessen am 12. Februar 1929 in Hüll (Ortsteil von Wolnzach, Kreis Pfaffenhofen). Nachdem am 24. Juli 2019 die bisher höchste Temperatur mit 40,5 °C im nordrhein-westfälischen Geilenkirchen gemessen wurde, setzten bereits einen Tag später die Wetterstationen Duisburg-Baerl und Tönisvorst mit jeweils 41,2 °C neue Rekordmarken. Ungewöhnlich hohe Temperaturen traten am 25. Juli 2019 auch an einer Reihe anderer Orte auf.
Die sonnigsten Regionen Deutschlands sind in den nördlichen und südlichen Randbereichen des Landes zu finden. Mit 1869 Sonnenstunden pro Jahr ist Kap Arkona auf der Insel Rügen der Rekordhalter für die aktuelle Referenzperiode 1981–2010. Im Süden befinden sich die sonnigsten Regionen am südlichen Oberrhein, in der Region um Stuttgart und im bayerischen Alpenvorland einschließlich der Landeshauptstadt München. In diesen Gebieten werden im Durchschnitt jährlich etwa 1800 Sonnenstunden gemessen. Allerdings ist deren Verteilung im Hinblick auf die Jahreszeiten sehr unterschiedlich: Während an der Ostseeküste die meisten Sonnenstunden im Frühjahr und Sommer auftreten, sind im Süden und besonders im Alpenvorland die Wintermonate deutlich sonniger als in den übrigen Landesteilen.
Witterungsbedingungen wie ausgeprägte Dürren oder Hitzewellen waren bisher aufgrund der ausgleichenden Westwindzone relativ selten, ereigneten sich jedoch im Jahresverlauf 2018 nicht nur in Deutschland, sondern fast überall in Europa, und könnten laut verschiedenen Untersuchungen künftig zunehmen. Ein gegenteiliges Extrem war eine von Ende Januar bis Mitte Februar 2012 dauernde europaweite Kältephase. In den Herbst- und Wintermonaten gibt es immer wieder einzelne Sturm- oder Orkantiefs, die meistens über die Nordsee nach Osten ziehen und vor allem Norddeutschland und die Mittelgebirge treffen, wie zum Beispiel die Orkantiefs Lothar im Dezember 1999 und Kyrill im Januar 2007. Regelmäßig ereignen sich auch Hochwasser, die nach intensiven Niederschlägen im Sommer (Oderhochwasser 1997, Hochwasser in Mitteleuropa 2002) oder nach der Schneeschmelze zu Überschwemmungen mit erheblichem Schadenspotenzial führen können. Dürren betreffen im Normalfall den eher trockenen Nordosten Deutschlands, können jedoch mitunter auf das ganze Land übergreifen, wie während der Hitzewellen 2003, 2015 und 2018.
Weitere Wetterextreme wie Gewitterstürme und Tornados entstehen vorwiegend im Früh- und Hochsommer. Während Süddeutschland schwerpunktmäßig von Hagelunwettern heimgesucht wird, nimmt die Tornadotendenz nach Nordwesten hin leicht zu. Eine Besonderheit sind hierbei die an der Nord- und Ostseeküste hauptsächlich im Spätsommer auftretenden Wasserhosen. Insgesamt ist jährlich mit 30 bis 60 Tornados zu rechnen, in manchen Jahren auch mit deutlich mehr (119 Tornados 2006).
Literatur
Begriff und Definition des Klimas
P. Hupfer: Das Klimasystem der Erde. Akad.-Verlag, Berlin 1991, ISBN 3-05-500712-3.
K. Bernhardt: Aufgaben der Klimadiagnostik in der Klimaforschung. In: Gerl. Beitr. Geophys. 96, 1987, S. 113–126.
M. Hantel, H. Kraus, C. D. Schönwiese: Climate definition. Springer Verlag, Berlin 1987, ISBN 3-540-17473-7.
M. Hogger: Climatypes. Hogger Verlag, Ainring 2007.
Christoph Buchal, Christian-Dietrich Schönwiese: Klima. Die Erde und ihre Atmosphäre im Wandel der Zeiten. Hrsg.: Wilhelm und Else Heraeus-Stiftung, Helmholtz-Gemeinschaft Deutscher Forschungszentren. 2. Auflage. Hanau 2012, ISBN 978-3-89336-589-0.
Christian-Dietrich Schönwiese: Klimatologie. 4., überarbeitete und aktualisierte Auflage. UTB, Stuttgart 2013, ISBN 978-3-8252-3900-8.
Klimageschichte und natürlicher Klimawandel
Elmar Buchner, Norbert Buchner: Klima und Kulturen. Die Geschichte von Paradies und Sintflut. Greiner Verlag, Remshalden 2005, ISBN 3-935383-84-3.
Karl-Heinz Ludwig: Eine kurze Geschichte des Klimas. Von der Entstehung der Erde bis heute. Verlag C. H. Beck, München 2006, ISBN 3-406-54746-X.
Wolfgang Behringer: Kulturgeschichte des Klimas. Von der Eiszeit bis zur globalen Erwärmung. Verlag C. H. Beck, München, ISBN 978-3-406-52866-8.
Tobias Krüger: Die Entdeckung der Eiszeiten – Internationale Rezeption und Konsequenzen für das Verständnis der Klimageschichte. Schwabe-Verlag, Basel 2008, ISBN 978-3-7965-2439-4.
Heinz Wanner: Klima und Mensch. Eine 12.000-jährige Geschichte. Haupt Verlag, Bern 2016, ISBN 978-3-258-07879-3.
Klimafaktor Mensch
Enzyklopädie der Natur. Die Geheimnisse der Natur entdecken, entschlüsseln, erklären. Orbis Verlag, 1992, ISBN 3-572-01284-8, S. 84/85.
Tim Flannery: Wir Wettermacher, Wie die Menschen das Klima verändern und was das für unser Leben auf der Erde bedeutet. Fischer Verlag, 2006, ISBN 3-10-021109-X.
Claudia Kemfert: Die andere Klima-Zukunft: Innovation statt Depression Murmann-Verlag, Hamburg 2008, ISBN 978-3-86774-047-0.
David Goeßmann: Kurs Klimakollaps. Das große Versagen der Politik. Das Neue Berlin 2021, ISBN 978-3-360-01364-4.
Weblinks
Eidgenössisches Departement für Umwelt, Verkehr, Energie und Kommunikation: Klima
Environmental Science Published for Everybody Round the Earth (ESPERE): „Klimaenzyklopädie“, „Das Klimainformationsprojekt für Schule und Bevölkerung“
bildungsserver.hamburg.de: Ausführliche Informationen zu Klima, Klimawandel, Klimafolgen, Klimaschutz und Klimaskeptikerthesen
climateanalytics.org
earth.nullschool.net: Globale Klimakarte
https://climatecharts.net/ – Webapplikation zur Erzeugung räumlich und zeitlich variabler Klimadiagramme.
mcc-berlin.net: Mercator Research Institute on Global Commons and Climate Change (MCC)
Spektrum.de: Wie Wälder das Wetter beeinflussen
Einzelnachweise
Wikipedia:Artikel mit Video
|
Q7937
| 2,079.920726 |
20114
|
https://de.wikipedia.org/wiki/Inuit
|
Inuit
|
Als Inuit (Einzahl: Inuk) bezeichnen sich die indigenen Volksgruppen, die im arktischen Zentral- und Nordostkanada sowie auf Grönland leben. Die Bezeichnung Eskimo wird als Oberbegriff benutzt, der auch die verwandten arktischen Volksgruppen der Iñupiat (in Nordalaska) und Yupik (beiderseits der Beringstraße) umfasst (jedoch nicht die entfernter verwandten Aleuten). Inuit ist deshalb kein Ersatz für den Terminus Eskimo und ist auch nicht im Wortschatz aller um den Nordpol lebenden Volksgruppen enthalten.
Inuit oder Inuit-Inupiaq wird auch die östliche Sprachgruppe der Eskimosprachen genannt, die von Nordwest-Alaska bis Grönland reicht und die in fünf Dialektgruppen unterteilt wird.
Begriffsgeschichte
Inuit ist Inuktitut und bedeutet „Menschen“; die Einzahl lautet Inuk („Mensch“), zwei Menschen (Dual) sind Inuuk. Die Bezeichnung Eskimo ist eine ursprünglich von den Ayisiniwok und Algonkin verwendete Sammelbezeichnung für die mit ihnen nicht verwandten Völker im nördlichen Polargebiet. Das Wort soll sich nach Auffassung von Ives Goddard (* 1941), einem Linguisten an der Smithsonian Institution, etymologisch aus dem Ayisiniwok-Wort aayaskimeew = ‚Schneeschuhflechter‘ (englisch: snowshoe netters) herleiten.
Da der Begriff Eskimo keine Eigen-, sondern eine Fremdbezeichnung ist, wird er manchmal als abwertend empfunden. Es gibt daher Bestrebungen, ihn generell durch Inuit zu ersetzen; die Verwendung des Begriffs Eskimo ist rückläufig, Inuit jedoch nicht gleichbedeutend und somit kein Synonym. Daher hat sich Inuit als alternative Vokabel im nordwestlichen Kanada, in Alaska und auf der Tschuktschen-Halbinsel bislang nicht durchgesetzt: Die dort lebenden Volksgruppen haben die Vokabel nicht in ihrem Wortschatz; sie bezeichnen sich zwar ebenfalls als ‚Mensch(en)‘, doch je nach Sprachgruppe mit den Wörtern Inupiat, Sugpiaq und Yupik. Die Inupiat halten beispielsweise die Bezeichnung Eskimo keineswegs für herabsetzend. Bei den im mittleren Norden und im Nordosten Kanadas lebenden Inuit sind die Auffassungen in dieser Frage dagegen unterschiedlich: Während die einen die Bezeichnung Eskimo als politisch inkorrekt einstufen und sich ausschließlich als ‚Mensch(en)‘ (Inuk/Inuit) bezeichnet sehen möchten, nennt sich die in Inuit-Besitz befindliche, international durch den Vertrieb von Inuit-Kunst bekannte Kooperative von Kinngait im Territorium Nunavut seit ihrer Gründung unverändert West Baffin Eskimo Cooperative (WBEC).
Herkunft der Inuit
Als sicher gilt heute, dass Paläo-Eskimos etwa 3000 v. Chr. (lange nach der letzten, etwa 10.000 v. Chr. endenden Eiszeit) von Asien aus über die Beringstraße nach Alaska (Nordamerika) einwanderten. Sie sind nach einhelliger archäologischer Auffassung mindestens 12.000 Jahre später als die ersten paläoindianischen Gruppen auf den amerikanischen Kontinent gelangt.
Gegen 2500 v. Chr. (das Klima der Arktis war damals wärmer als heute) wanderte ein Teil der Paläo-Eskimos von Alaska bis nach Grönland. In dieser Zeit entwickelte sich die Prä-Dorset-Kultur (mit den Independence-Kulturen I und II sowie der Saqqaq-Kultur). Später – etwa 500 v. Chr. bis 1000 n. Chr. – folgte dann die Dorset-Kultur (benannt nach der Südbaffin-Siedlung Cape Dorset, heute Kinngait, in deren Nähe archäologische Fundstücke entdeckt wurden).
Parallel dazu entwickelte sich 2000 v. Chr. bis 1000 n. Chr. im durch pazifischen Einfluss wärmeren Alaska die Neo-Eskimo-Kultur.
Etwa 1000 n. Chr. erfolgte bei wärmerem Klima als heute eine neuerliche Wanderung von Alaska-Eskimos über Nordkanada bis Grönland. Dabei handelte es sich um Träger der Neo-Eskimo-Kultur, welche weiter entwickelt und den Dorset-Eskimos in vielen Bereichen deutlich überlegen waren. In verhältnismäßig kurzer Zeit wurde die Dorset-Kultur verdrängt, teilweise vermischten sie sich vermutlich. Die neu entstandene Kultur wird nach Fundstücken nahe der nordgrönländischen Siedlung Thule als Thule-Kultur bezeichnet. Die Zeitspanne der Thule-Kultur umfasst etwa 800 Jahre (1000 bis etwa 1800, also bis gegen Ende der von etwa 1550 bis 1850 dauernden Kleinen Eiszeit). Die Thule-Eskimos sind die direkten Vorfahren der heutigen Inuit. Zeitlich bestehen fließende Übergänge: Der Zeitraum von 1500 bis 1900 wird als Inuit-Frühgeschichte aufgefasst; als Historische Periode der Inuit bezeichnet man die Zeit seit 1800.
Traditionelle Lebensweise
Die Inuit-Kultur ist – in abgelegenen Siedlungen zum Teil bis heute – eine relativ einheitliche Jagdkultur, die bis Mitte des 20. Jahrhunderts vor allem auf dem Jagen von Meeressäugern (Robben, Walrosse, Wale), aber auch von Landtieren (Karibus, Eisbären) basierte. Wichtigste Jagdwaffe war die Harpune, doch wandten die Inuit und ihnen verwandte Völkerschaften auch Pfeil und Bogen an. Außer der Jagd betrieben sie Fischfang und sammelten Früchte. Eine nomadische Lebensweise, die durch das Verfolgen jagdbarer Tiere in wildarmen Zeiten begründet war, hatten nur die Karibu-Inuit, die im Inland des früheren Keewatin-Distriktes lebten. Die Inuit der Küstenregionen waren halbsesshaft.
Die Sozialstruktur der traditionellen Inuit-Gesellschaft war weitgehend egalitär, das heißt jeder Mensch hatte prinzipiell die gleichen Zugangsmöglichkeiten zu den Ressourcen und es gab nur sehr geringe Rangunterschiede. Kam es zu ernsteren Streitigkeiten, wurden diese häufig durch öffentlichen Spott (im Rahmen einer bestimmten Etikette) geahndet. Darüber hinaus gab es öffentliche Faustkämpfe oder Gesangsduelle (die überdies als gesellschaftliche Ereignisse wahrgenommen wurden), während etwa die Todesstrafe oder gar die Spaltung der Gruppe nur in extremen Fällen von der Gemeinschaft verfügt wurde. Allerdings bestanden durchaus Unterschiede in den Sozialstrukturen, wie Untersuchungen von Erich Fromm zur Destruktivität in verschiedenen Ethnien zeigen (→: „Nichtdestruktiv-aggressive Gesellschaft“ der Ostgrönländer und „Lebensbejahende Gesellschaft“ der Nordgrönländer).
Zur Fortbewegung auf dem Wasser nutzten sie den Kajak oder den vielsitzigen Umiak (Frauenboot); auf dem Land und dem Meereis diente ihnen im Winter der von Schlittenhunden gezogene Qamutik (Schlitten) als Transportmittel. Im Sommer wurden die Hunde als Tragetiere benutzt.
Die meisten Inuit lebten als Familiengruppen in Camps – während des Winters im Qarmaq (Plural: Qarmait), einer Behausung, die je nach Region und verfügbarem Material aus Stein, Gras- und Erdsoden, niedrigem Gestrüpp, gelegentlichem Treibholz und Walknochen erbaut und mit Schnee abgedichtet wurden. Schneehäuser (Iglus) dienten in der Regel nicht als permanente Winterunterkünfte, sondern wurden auf Reisen angelegt. Im Sommer lebte man im luftdurchlässigeren Zelt, das aus Fellen mit Walknochenstangen errichtet wurde. Elemente polarer Kultur waren im Übrigen u. a. das Langhaus und die mit Öl aus dem Speck von Meeressäugern betriebene Serpentin-Öllampe (Qulliq).
Die ursprüngliche Religion war ausgesprochen animistisch, das heißt, auch alle Tiere, Pflanzen, leblose Dinge und sogar Begriffe galten als mit einer menschenähnlichen Seele ausgestattet. Die ganze Welt galt als mit verschiedenen Geistwesen bevölkert, über denen es einige gottähnliche Gestalten gab. Als Mittler zwischen den Welten spielte der Schamane eine wichtige Rolle. Die Glaubensvorstellungen der Inuit stimmen weitgehend mit den Religionen anderer Eskimovölker überein.
Kulturelle Umwälzungen
Über das Zusammentreffen der Inuit-Kultur mit der Kultur der Weißen wird im Zusammenhang mit der zunehmenden Emanzipation der Inuit viel geschrieben, und das durchaus nicht immer frei von Ideologie. Häufig werden geschichtliche Zusammenhänge auch verkürzt dargestellt, um etwa ein einzelnes Faktum hervorzuheben, worunter zwangsläufig die Gesamtschau leidet.
Seit dem Zweiten Weltkrieg unterliegt die Inuit-Kultur starken Umwälzungen: Das Nomadenleben ist seit Ende der 1960er Jahre vorbei, und die Inuit bewohnen nun im Süden Kanadas vorgefertigte Siedlungshäuser.
Schlittenhunde (anders als in Nord-Grönland heute in Nunavut eher ein Luxus) wurden durch Schneemobile, Kajak und Umiak durch fabrikgefertigte Kanus mit Außenbordmotoren abgelöst, und Sommerreisen werden nicht mehr zu Fuß, sondern mit dem ATV (All-Terrain Vehicle, Quad) unternommen. Die Jagd auf Grönlandwale findet aufgrund internationaler Schutzmaßnahmen nur noch sporadisch nach strengen staatlichen, auf einer Übereinkunft beruhenden Regeln zur Aufrechterhaltung von Tradition statt (Nunavut: fünf Grönlandwale innerhalb von zehn Jahren). Traditioneller Handel mit Robben- und Fuchsfellen sowie mit Handarbeiten aus Walross- und Narwal-Elfenbein sind infolge Boykotts durch viele Staaten (aus Tierschutzgründen) praktisch zum Erliegen gekommen. Durch die Etablierung der Grönländischen Kajakmeisterschaften werden seit 1986 die traditionellen Techniken zur Herstellung und Nutzung von Kajaks – nun zu sportlichen Zwecken – gepflegt, sowie die Seilgymnastik der Inuit.
Dafür sind jedoch seit der zweiten Hälfte der 1950er Jahre Inuit-Kunst und Inuit-Kunsthandwerk wichtige Quellen der Wertschöpfung geworden. Serpentin- und Marmorskulpturen, Kunstgrafik, Wandbehänge und -teppiche, Schmuck, Keramiken und Puppen geben heute einer großen Zahl von Inuit-Künstlern und -Künstlerinnen aller Generationen neben Jagen und Fischen eine wesentliche Lebensgrundlage.
Eine positive Entwicklung sowohl auf wirtschaftlichem wie auf kulturellem Gebiet erhoffen sich die Inuit im Nordosten Kanadas von der Bildung des Territoriums Nunavut, das seit 1. April 1999 besteht und von den Inuit selbst verwaltet wird; da es sich um ein Territorium und nicht um eine Provinz handelt, sind die rechtlichen Kompetenzen der Regierung Nunavuts allerdings eingeschränkt, und die Abhängigkeit von der Bundesregierung ist hoch. Besonderer Wert wird hier auf die Pflege von Inuit-Kultur und -Tradition gelegt.
Daneben gibt es auch staatenübergreifende Bewegungen, welche die Kultur der Inuit bewahren und ihre politischen Forderungen koordinieren sollen, z. B. das Inuit Circumpolar Council (ICC). Als sehr bedeutsames Problem wird die globale Erwärmung angesehen, die vor allem das traditionelle Leben der Inuit wesentlich verändern wird, da sich die Tier- und Pflanzenwelt dadurch verändert. Die Regierung des Territoriums Nunavut, allen voran Premierminister Paul Okalik, zeigt daher essentielles Interesse daran, wie sich das Kyoto-Protokoll weiterentwickeln und seine Ziele erreichen wird.
Autonomie und Selbstverwaltung
Mit der Dekolonisationsphase Grönlands, die etwa 1950 begann, kam es zu einer explosionsartigen Modernisierung des Landes, bei der sich die Zahl der in Grönland arbeitenden Dänen verzehnfachte; die sozialen Probleme der Inuit jedoch gleichzeitig immer größer wurden. Dies führte zu einem zunehmenden politischen Engagement der Kalaallit, wie sich die grönländischen Inuit nennen. Da sie nach wie vor mit über 90 % die Bevölkerungsmehrheit stellen und sich Dänemark als demokratisches Land, Mitglied der Europäischen Gemeinschaft und des Nordischen Rates für Autonomiebestrebungen offen zeigte, erhielt Kalaallit Nunaat (wie Grönland seither offiziell heißt) 1979 ein eigenes Parlament und eine Regierung. In den folgenden Jahrzehnten konnten die Grönländer ihre Territorialautonomie weiter ausbauen. Bis zur Jahrtausendwende verstärkten sich die sozialen Probleme im Zuge der weiterhin von Dänemark ausgehenden Urbanisierung dennoch, sodass es 2009 zur Selvstyre („Selbstverwaltung“) kam, die unter anderem das Recht an den eigenen Rohstoffen ermöglicht. Nur die Verteidigungs- und Außenpolitik ist noch in der Hand der dänischen Regierung. Darüber hinaus könnten die Grönländer heute jederzeit per Volksabstimmung ihre Unabhängigkeit beschließen.
Nach dem Vorbild Grönlands kam es auch in Kanada seit den 1980er Jahren zu Autonomiebestrebungen der Inuit. Im Laufe der Zeit wurden eine Reihe von umfassenden Landnutzungsverträgen ausgehandelt, die bis heute zu vier „Inuit-Territorien“ mit jeweils unterschiedlichen Formen und Graden regionaler Autonomie und Selbstverwaltungseinrichtungen führten. Während die Gründung des neuen Territoriums Nunavut das bekannteste Beispiel für diesen Trend ist, haben Inuit in den Regionen Nunavik (Québec), der Inuvialuit (Nordwest-Territorien) und Nunatsiavut (Labrador) ebenfalls Landrechtsansprüche als Grundlage für die Entwicklung von Institutionen der Selbstverwaltung geltend gemacht. Der Unterschied zwischen diesen Regionen und Nunavut besteht jedoch darin, dass sie territorial und politisch in bestehende Einheiten der kanadischen Föderation eingebettet sind, ohne die territoriale Integrität des Staates in Frage zu stellen. Trotz der vielen Gemeinsamkeiten und Verbindungen zwischen diesen Regionen unterscheiden sie sich in Bezug auf die Struktur und Entwicklung ihrer jeweiligen Selbstverwaltungssysteme erheblich. Bezüglich des Ausmaßes an Indigener Autonomie und Selbstverwaltung im internationalen Vergleich gelten Grönland und Nunavut als positive Vorbilder.
Soziale Probleme
Die kulturellen Umwälzungen gelten als einer der Hauptfaktoren für die vielfältigen sozialen Probleme unter den Inuit-Völkern in den letzten Jahrzehnten. Dies zeigt sich unter anderem daran, dass die Gebiete, in denen heute noch größtenteils Inuit leben, zu jenen mit den höchsten Suizidraten der Welt gehören. So hatte Grönland von 1985 bis 2012 eine durchschnittliche Suizidrate von 83 pro 100.000 Einwohnern pro Jahr, in Nunavut lag diese für die Jahre 1986 bis 1996 bei 77,9. Zum Vergleich: Litauen ist der einzige unabhängige Staat der Welt, in dem diese Rate im Durchschnitt der Jahre 1978 bis 2009 überhaupt bei über 30 lag. Des Weiteren sind auch beispielsweise Depressionen, Alkohol- und Nikotinmissbrauch (auch schon im jungen Alter und während der Schwangerschaft) und dessen Folgen, sexueller Missbrauch (vor allem minderjähriger Mädchen) und Unterernährung (auch von Kindern) weit verbreitete Probleme, welche auch 2019 noch bestanden.
Von 2014 bis 2019 hat Jacques Viens, Richter im Ruhestand, im Auftrag der Provinzregierung von Quebec eine Untersuchung durchgeführt. Vertreter der Indigenen kritisieren den Report als zu oberflächlich, nicht an die Wurzeln gehend.
Rezeption
Im Oktober 2015 erhielt die kanadische Inuit-Aktivistin Sheila Watt-Cloutier „für ihren lebenslangen Einsatz für die Rechte der Inuit und für den Erhalt ihrer Lebensgrundlage und Kultur, die vom Klimawandel akut bedroht sind“ den Right Livelihood Award („Alternativer Nobelpreis“), zusammen mit dem Volk der Marshallinseln und seinem Außenminister Tony de Brum, dem italienischen Chirurgen und Friedensaktivisten Gino Strada sowie der ugandischen Menschenrechtsaktivistin Kasha Jacqueline Nabagesera.
Einzelne Gruppen der Inuit
Grönland
Inughuit
Kitaamiut
Nordostgrönländer
Tunumiit
Kanada
Netsilik
Siehe auch
Knud Rasmussen, Nanuk, der Eskimo
Literatur
Bryan Alexander, Cherry Alexander: Eskimo – Jäger des hohen Nordens. Belser, Stuttgart 1993 ISBN 3-7630-2210-4
Kai Birket-Smith: Die Eskimos. Orell Füssli, Zürich 1948
Fred Bruemmer: Mein Leben mit den Inuit. Frederking & Thaler, München 1995. ISBN 3-89405-350-X
Ernest Burch Jr., Werner Forman: The Eskimos. University of Oklahoma Press, Norman 1988, Macdonald/Orbis, London 1988 ISBN 0-8061-2126-2
Eskimo Poems from Canada and Greenland. An International Poetry Forum selection. Gesammelt von Knud Rasmussen. Übers. von Tom Lowenstein. University of Pittsburgh Press, 1973.
Brian M. Fagan: Ancient North America. Thames & Hudson, London 1991 ISBN 0-500-27606-4
Übers. Wolfgang Müller: Das frühe Nordamerika. Archäologie eines Kontinents. C. H. Beck, München 1993 ISBN 3-406-37245-7).
Richard Harrington: The Inuit – Life as it was. Hurtig, Edmonton 1981 ISBN 0-88830-205-3.
Gerhard Hoffmann (Hrsg.): Im Schatten der Sonne – Zeitgenössische Kunst der Indianer & Eskimos in Kanada. Cantz, Stuttgart 1988 ISBN 3-89322-014-3
Hartmut Krech (Hrsg.): Autobiografie eines Eskimo-Mannes. In: IndianerLeben. Indianische Frauen und Männer erzählen ihr Leben. Books on Demand, Norderstedt 2009 ISBN 978-3-8391-1047-8
David Morrison, Georges-Hébert Germain: Eskimo – Geschichte, Kultur und Leben in der Arktis. Frederking & Thaler, München 1996 ISBN 3-89405-360-7
Ansgar Walk: Im Land der Inuit. Arktisches Tagebuch. Pendragon, Bielefeld 2002 ISBN 3-934872-21-2
dsb.: Kenojuak – Lebensgeschichte einer bedeutenden Inuit-Künstlerin. Pendragon, Bielefeld 2003 ISBN 3-934872-51-4
Eddy Weeltaltuk: „Mein Leben in die Hand nehmen.“ Die Odyssee des Inuk E9-422. Hg. Helga Bories-Sawala. Einl. und Redaktion Thibault Martin. Übers. Rolf Sawala. Dobu, Hamburg 2015. Mit zahlr. Illustrationen des kanadischen Autors
Weblinks
Regierung von Grönland (dän./Inuktitut)
Regierung von Nunavut (engl./Inuktitut)
Regierung von Kativik, Québec (engl./frz./Inuktitut)
, von Ansgar Walk
Einzelnachweise
Ethnische Gruppe in Kanada
Ethnie in Grönland
Nomaden
Indigenes Volk in Nordamerika
Eskimo
|
Q189975
| 185.417218 |
37786
|
https://de.wikipedia.org/wiki/Finger
|
Finger
|
Ein Finger – lateinisch auch Digitus (manus) (Mehrzahl: Digiti [manus]) für „Finger (der Hand)“ – ist ein Teil der Hand. Die Finger gehören zu den Akren. Fast alle Tetrapoden haben fünf Finger (pentadaktyles System). Finger haben Greif-, Stütz- und Haltefunktionen. Das Pendant zu den Fingern sind an den unteren Extremitäten die Zehen.
Finger der Landwirbeltiere
Die fünfstrahligen vorderen Extremitäten der Landwirbeltiere lassen sich phylogenetisch von den vielstrahligen Brustflossen der Fische herleiten. Innerhalb der Taxa der Tetrapoden erfahren der pentadactyle Grundbauplan und somit auch die Ausprägung der Finger und Fingerknochen mannigfache Abwandlungen.
Die morphologisch verschiedenen Finger der Landwirbeltiere sind homolog, sie sind Variationen eines gemeinsamen Bauplans. Die Flügel der Vögel und die der Fledermäuse sind nicht homolog, sondern es sind analoge Flugorgane. Die darin befindlichen Fingerknochen sind jedoch homolog.
Unter anderem an der Embryonalentwicklung von Haushühnern wurde erforscht, dass sich an den Geweben, aus denen die Zehen werden, ein Interdigitalgewebe bildet, das sich anschließend durch Apoptose wieder zurückbildet. Bleibt die Apoptose aus, bleiben die Interdigitalhäute erhalten. Viele Tiere haben daraus entwickelte Schwimmhäute zwischen den Zehen oder Fingern. Beim Menschen werden bei ausbleibender Trennung der Fingerglieder Kinder mit einer kutanen Syndaktylie geboren.
Finger des Menschen
Üblicherweise hat der Mensch an jeder Hand fünf Finger in folgender Abfolge:
Daumen (Pollex; zweigliedrig)
Zeigefinger (Index)
Mittelfinger (Digitus medius)
Ringfinger (Digitus anularis)
Kleiner Finger (Digitus minimus)
Fingerknochen und Gelenke
Beim Menschen haben vier der fünf Finger je drei knöcherne Stützelemente (die Fingerknochen mit Phalanx proximalis, media und distalis, Grund-, Mittel- und Endglied), lediglich der Daumen hat nur zwei Phalangen (Fingergliedknochen; vom griechischen Wort phalanx für Schlachtreihe von Kriegern; Mehrzahl: phalanges). Die Phalangen sind gelenkig im Mittel- und Endgelenk verbunden und schließen mit dem Fingergrundgelenk an den entsprechenden Mittelhandknochen (Ossa metacarpi) an. Dabei nimmt beim Menschen der Daumen eine Sonderstellung ein, da seine gelenkige Aufhängung ihm eine Oppositionsstellung gegenüber den übrigen Fingern erlaubt. Die Bewegung der Finger und der Fingerglieder erfolgt durch die Sehnen der Muskeln im Bereich des Unterarms („extrinsische Muskulatur“) und der Mittelhand („intrinsische Muskulatur“), die Finger selbst haben keine Muskeln.
Außer dem zweigliedrigen Daumen werden die anderen vier Finger auch Langfinger genannt, da sie mit ihren insgesamt je drei Gliedern länger sind.
Fingerkuppe
Das Endglied eines jeden Fingers nennt man Fingerkuppe, wo man aus funktionellen und ästhetischen Gründen einen palmaren Anteil mit der Fingerbeere (Pulpa) sowie einen dorsalen Anteil mit dem Komplex aus Nagel und Nagelbett unterscheidet.
Die Papillarleisten an den Unterseiten der Fingerkuppen ergeben einen individuellen Fingerabdruck, der zur Personenidentifikation genutzt werden kann (Daktyloskopie). In jeder Fingerkuppe befinden sich etwa 700 Berührungs- und Druckrezeptoren. Fingerbeere ist die deutsche Bezeichnung für den terminalen Tastballen (Torulus tactilis) am Ende der Innenseite eines jeden Fingers. Dieser Bereich ist stark durchblutet und besitzt viele sensorische Nervenzellen für den Tastsinn. Die Fingerbeere ist neben dem Ohrläppchen eine gute Stelle für die Abnahme kleiner Mengen Blut. Jeder Finger hat einen Fingernagel an der Oberseite der Fingerkuppen.
Kommunikation
Menschen verwenden in der nonverbalen Kommunikation ihre Finger auch zum sichtbaren Zählen und für die Gestik, zum Beispiel ein nach oben oder nach unten gerichteter Daumen, Berührung des Daumens mit dem Zeigefinger, Schwurfinger, ausgestreckter Mittelfinger usw., sowie in einer weiterentwickelten Form für die Gebärdensprache. Bei den Fingergesten gibt es kulturelle Unterschiede. Beispielsweise unterscheiden sich die bei den Deutschen üblichen Fingerpositionen, mit denen Zahlen ausgedrückt werden, von den in China üblichen. Viele Primaten benutzen ihre Finger für die soziale Körperpflege und Menschen benutzen sie für Zärtlichkeiten (Streicheln) als Form der nonverbalen sozialen Kommunikation.
Entwicklungsbesonderheiten der Finger
Als Reifezeichen der Neugeborenen zählt, dass die Nägel die Fingerkuppen bedecken oder überragen.
Fehlbildungen der Finger gehören in die Gruppe der Dysmelien. Dazu gehören unter anderem die Ausbildung überzähliger Finger (Polydaktylie), das Fehlen von Fingern (Oligodaktylie, Adaktylie), die ausbleibende Trennung zwischen Fingern (Syndaktylie), die Ausbildung überzähliger Finger mit gleichzeitiger fehlender Trennung (Polysyndaktylie), die Verkürzung (Brachydaktylie) oder Verlängerung (Arachnodaktylie) einzelner Finger und die Verstümmelung von Fingern (Ektrodaktylie). Außerdem gibt es noch die Kamptodaktylie, eine Beugekontraktur der Mittelgelenke des kleinen Fingers, seltener auch des Ringfingers, sowie die Klinodaktylie, eine im Allgemeinen angeborene seitlich-winklige Abknickung eines Fingerglieds im Handskelett.
Männer haben typischerweise einen kleineren Zeigefinger (2D) im Vergleich zum Ringfinger (4D). Ein niedriges 2D:4D-Verhältnis korreliert nach dem Evolutionsbiologen John Manning (2002) dabei mit hoher fötaler Testosteron- und niedriger fötaler Östrogenkonzentration.
Ein kleines Fingerlängenverhältnis wurde mit verschiedenen Eigenschaften einer Person, wie höheres Risiko für Alkoholabhängigkeit oder Videospielabhängigkeit, in Verbindung gebracht.
Siehe auch
Fingersatz (Musik)
Tastschärfe
Liste von Gesten #Finger
Weblinks
Einzelnachweise
Obere Extremität
|
Q620207
| 93.213068 |
6662
|
https://de.wikipedia.org/wiki/1649
|
1649
|
Ereignisse
Politik und Weltgeschehen
Britische Inseln
Englischer Bürgerkrieg
30. Januar: König Karl I. von England wird wegen Hochverrats geköpft, womit der Englische Bürgerkrieg endet. England wird unter Oliver Cromwell zur Republik, Beginn des Commonwealth of England.
7. Februar: Karl I. wird in der St.-Georgs-Kapelle von Schloss Windsor in Berkshire beerdigt.
Irische Konföderationskriege / Rückeroberung Irlands
2. August: In der Schlacht von Rathmines überrascht die zahlenmäßig kleinere New Model Army bei Dublin ein gemeinsames Heer von irischen Konföderierten und englischen Royalisten. Das Anlanden von Oliver Cromwell mit weiteren parlamentarischen Truppen wenige Tage später im englischen Bürgerkrieg wird durch den Sieg in dieser Schlacht erleichtert.
15. August: Oliver Cromwell landet mit einem Heer in Irland, um einen Aufstand katholischer Royalisten zu bekämpfen.
September: Die zweite Belagerung von Drogheda endet mit einem Massaker an der Besatzung der Stadt.
11. Oktober: Die am 2. Oktober begonnene Belagerung von Wexford endet mitten in Übergabeverhandlungen mit der unerwarteten Erstürmung der Stadt durch die unter Oliver Cromwells Befehl stehenden Truppen. Die Soldateska tötet hunderte gegnerischer Soldaten und schätzungsweise 1.500 Zivilisten. Die Stadt wird geplündert und zerstört.
24. November – 10. Dezember: Die erste Belagerung von Waterford muss wegen des einbrechenden Winters von Cromwells Truppen abgebrochen werden.
Schottland
Juni: Karl, Sohn des hingerichteten Karl I., setzt James Graham, 1. Marquess of Montrose als Lord Lieutenant in Schottland ein.
Frankreich
5. Januar: Ludwig XIV. und sein Hof müssen wegen der Fronde nach Saint-Germain fliehen.
Italien
2. September: Nach der Flucht von Herzog Ranuccio II. Farnese nach Parma kapituliert die Stadt Castro vor den Truppen von Papst Innozenz X. Die Hauptstadt des Herzogtums Castro wird acht Monate später auf päpstlichen Befehl vollständig zerstört.
Malta
April: In Malta wird der St Agatha’s Tower mit vier Kanonen ausgestattet und als Teil der Befestigungsanlagen in Betrieb genommen. Da der Turm unter Großmeister Jean de Lascaris-Castellar errichtet wurde, wird er zu den sogenannten Lascaris Towers gezählt. Konstruktiv entspricht er eher den früher errichteten Wignacourt Towers.
Heiliges Römisches Reich
Kurfürst Karl I. Ludwig kehrt nach den Wirren des Krieges in die Kurpfalz zurück. Da Bayern seine Kurwürde behält, wird für ihn eine achte Kurwürde neu geschaffen.
In Württemberg wird die allgemeine Schulpflicht eingeführt.
Ungarn
Paul Pálffy wird Palatin von Ungarn.
Russland
In Russland wird die Leibeigenschaft mit der Sobornoje Uloschenije endgültig festgeschrieben.
Wirtschaft
10. März: In Lissabon wird durch König Johann IV. die Allgemeine Gesellschaft des Brasilienhandels gegründet.
Im schwedischen Karlskoga wird die Hammermühle Bofoors gegründet.
Herzog Eberhard III. von Württemberg gründet die Kammerschreiberei, einen Vorläufer der heutigen Hofkammer des Hauses Württemberg.
Wissenschaft und Technik
Otto von Guericke erfindet die Kolbenluftpumpe und stellt weitere Untersuchungen zum Vakuum an.
Der französische Philosoph René Descartes veröffentlicht den Aufsatz Les Passions de l’âme (Die Leidenschaften der Seele). Descartes möchte darin die menschlichen Leidenschaften analysieren und wissenschaftlich erläutern.
Kultur
Bildende Kunst
Nicolas Poussin vollendet das Gemälde Urteil des Salomon.
Musik und Theater
5. Januar: Die Uraufführung des musikalischen Dramas Giasone von Francesco Cavalli erfolgt am Teatro San Cassiano in Venedig. Das Libretto stammt von Giacinto Andrea Cicognini.
Religion
Christentum in den Amerikanischen Kolonien
21. April: In der britischen Kolonie Maryland wird das Maryland-Toleranz-Gesetz beschlossen, eines der ersten Gesetze, das ausdrücklich andere (christliche) Konfessionen als die Anglikanische Kirche toleriert. Es ist ein wichtiger Schritt zur späteren Religionsfreiheit in den Vereinigten Staaten und eines der Vorbilder für den 1. Zusatzartikel zur Verfassung der Vereinigten Staaten.
Christentum in Europa
17. Dezember: Papst Innozenz X. ordnet eine breitangelegte Umfrage unter allen Ordensleuten Italiens an, in der Angaben über die finanzielle und personelle Situation aller Konvente gesammelt werden sollen.
Das Kloster Santa Maria di Falleri wird aufgelöst.
Buddhismus in Tibet
Das buddhistische Kloster Tsenpo Gön wird von Tsenpo Döndrub Gyatsho gegründet.
Das lamaistische Chusang-Kloster wird in der Zeit der Qing-Dynastie vom ersten 'Lebenden Buddha' Chusang Namgyel Peljor gegründet.
Katastrophen
30. Juli: Bei einem Erdbeben in Japan kommt es zu Zerstörungen in den Städten Tokio und Nikkō.
Historische Karten und Ansichten
Geboren
Geburtsdatum gesichert
18. Januar: Johann Kahler, deutscher Mathematiker und lutherischer Theologe († 1729)
18. Januar: Wilhelm Moritz, Fürst von Nassau-Siegen († 1691)
26. Januar: Narabayashi Chinzan, japanischer Dolmetscher und Arzt († 1711)
29. Januar: Charles Paris d’Orléans-Longueville, Herzog von Longueville, Fürst von Neuchâtel († 1672)
2. Februar: Pietro Francesco Orsini, als Benedikt XIII. Papst († 1730)
23. Februar: John Blow, englischer Komponist († 1708)
2. März: Andreas Gottlieb von Bernstorff, erster Minister des Kurfürstentums Braunschweig-Lüneburg († 1726)
8. März: Johann Philipp Krieger, deutscher Komponist, Organist und Kapellmeister († 1725)
12. März: Govard Bidloo, niederländischer Chirurg, Anatom, Hochschullehrer und Leibarzt († 1713)
9. April: James Scott, 1. Duke of Monmouth, unehelicher Sohn von Karl II. († 1685)
11. April: Friederike Amalie von Dänemark, Herzogin von Schleswig-Holstein-Gottorf († 1704)
17. April: Meinrad Guggenbichler, in Österreich tätiger Schweizer Bildhauer des Barock († 1723)
23. April: Andreas Kneller, deutscher Komponist († 1724)
24. April: Amy Buisson, Schweizer General in fremden Diensten († 1721)
2. Mai: Engel de Ruyter, niederländischer Vizeadmiral († 1683)
12. Mai: Giovanni Alberto Badoer, Patriarch von Venedig und Bischof von Brescia († 1714)
17. Juni: John Pole, 3. Baronet, englischer Politiker († 1708)
25. Juni: Johann Friedrich Landsberger, deutscher Kaufmann († 1711)
1. Juli: Johann Wilhelm Petersen, deutscher Theologe († 1727)
19. Juli: Karl, Landgraf von Hessen-Wanfried († 1711)
23. Juli: Giovanni Francesco Albani, als Clemens XI. Papst († 1721)
10. September: Bernhard I., erster Herzog von Sachsen-Meiningen († 1706)
12. September: Giuseppe Maria Tomasi, italienischer Kardinal († 1713)
3. Oktober (getauft): Franz Mozart, deutscher Baumeister, Urgroßvater Wolfgang Amadeus Mozarts († 1693/1694)
12. Oktober: Hans Georg Asam, deutscher Kirchenmaler († 1711)
29. Oktober: Johann Baptist von Garelli Leibarzt von drei Kaisern, († 1732)
2. November: Johann Adolf I., Herzog von Sachsen-Weißenfels und Fürst von Sachsen-Querfurt († 1697)
20. oder 22. Dezember: Georg Hösle, deutscher römisch-katholischer Theologe († 1727)
Genaues Geburtsdatum unbekannt
Shikano Buzaemon, japanischer Rakugo-Meister († 1699)
Geboren um 1649
Heneage Finch, 1. Earl of Aylesford, britischer Adeliger und Politiker († 1719)
Gestorben
Erstes Halbjahr
22. Januar: Alessandro Turchi, italienischer Maler (* 1578)
30. Januar: Karl I., König von England, Schottland und Irland (* 1600)
8. Februar: Wilhelm Leyser I., deutscher lutherischer Theologe (* 1592)
11. Februar: Marie von Preußen, Markgräfin von Brandenburg-Bayreuth (* 1579)
21. Februar: George Abbot, englischer Schriftsteller (* 1604)
9. März: Arthur Capell, 1. Baron Capell of Hadham, englischer Adeliger, Politiker und Militär (* 1604)
9. März: James Hamilton, 1. Duke of Hamilton, englischer Adeliger und Heerführer (* 1606)
9. März: Henry Rich, 1. Earl of Holland, englischer Peer, Politiker und Offizier (* 1590)
10. März: Jakob Lampadius, braunschweig-lüneburgischer Staatsmann (* 1593)
16. März: Jean de Brébeuf, französischer Jesuit, der im Gebiet der Wyandot das Evangelium verkündete (* 1593)
20. März: John Poulett, 1. Baron Poulett, englischer Adeliger, Militär und Politiker (* 1586)
21. März: Johann Camman, deutscher Jurist, Syndikus der Stadt Braunschweig und Büchersammler (* 1584)
26. März: John Winthrop, englischer Puritaner und Gouverneur (* 1588)
1. April: Juan Bautista Maíno, spanischer Maler (* 1581)
22. April: Marcos de Torres y Rueda, spanischer Bischof der katholischen Kirche und Vizekönig von Neuspanien (* 1588 oder 1591)
4. Mai: Martín de Mujica y Buitrón, spanischer Offizier und Gouverneur von Chile
8. Mai: Injo, 16. König der Joseon-Dynastie in Korea (* 1595)
30. Mai: Jakob Martini, deutscher lutherischer Theologe und Philosoph (* 1570)
8. Juni: Vincenzo Carafa, italienischer Ordensgeneral (* 1585)
8. Juni: Juan de Zurbarán, spanischer Maler (* 1620)
9. Juni: Johann Maximilian zum Jungen, Politiker und Gelehrter in Frankfurt am Main (* 1596)
16. Juni: Stanisław Lubomirski, polnischer Magnat, Heerführer und Reichsfürst im Heiligen Römischen Reich (* 1583)
18. Juni: Juan Martínez Montañés, spanischer Bildhauer (* 1568)
20. Juni: Maria Tesselschade Visscher, niederländische Dichterin und Kupferstecherin (* 1594)
30. Juni: Simon Vouet, französischer Maler des Barock (* 1590)
Zweites Halbjahr
27. Juli: Kinoshita Chōshōshi, japanischer Dichter (* 1569)
29. Juli: David Teniers der Ältere, flämischer Maler (* 1582)
7. August: Maria Leopoldine von Österreich-Tirol, römisch-deutsche Kaiserin (* 1632)
18. August: Sebastian Erlacher, österreichischer Bildhauer (* 1609)
30. August: Johannes Wesling, deutscher Mediziner (* 1598)
31. August: Michael Kern, deutscher Bildhauer (* 1580)
15. September: Francesco Gessi, italienischer Maler (* 1588)
25. September: Johann Jakob Irminger, Schweizer evangelischer Geistlicher (* 1585)
2. Oktober: Johann Ludwig von Pfalz-Sulzbach, schwedischer General im Dreißigjährigen Krieg (* 1625)
3. Oktober: Giovanni Diodati, reformierter Theologe und Bibelübersetzer (* 1576)
2. November: Antonio Barbalonga, italienischer Maler (* 1600)
6. November: Eoghan Rua Ó Néill, irischer Heerführer (* 1590)
11. November: Ellen Marsvin, einflussreiche Schwiegermutter des dänischen Königs Christian IV. (* 1572)
21. November: Jaroslav Borsita von Martinic, böhmischer Adliger und königlicher Statthalter (* 1582)
November: Giacinto Andrea Cicognini, italienischer Dramatiker und Librettist (* 1606)
19. Dezember: Federigo Savelli, kaiserlicher Feldherr und Diplomat (* 1583)
Genaues Todesdatum unbekannt
Pedro Abaunza, spanischer Gelehrter (* 1599)
Paul Widerkehr, Schweizer Künstler u. a. Freskenmaler (* 1580)
Weblinks
|
Q6945
| 173.176 |
26951
|
https://de.wikipedia.org/wiki/Hindi
|
Hindi
|
Hindi ( ) ist eine indoarische, damit zugleich indoiranische und indogermanische Sprache, die in den meisten nord- und zentralindischen Staaten gesprochen wird und sich von den Prakritsprachen ableitet. Seit 1950 ist es (neben Englisch) die Amtssprache Indiens. Hindi ist eng mit Urdu verwandt.
Unter den meistgesprochenen Sprachen der Welt steht Hindi an dritter Stelle nach Chinesisch und Englisch, noch vor Spanisch. Über 600 Millionen Menschen in Indien und Umgebung gebrauchen es als Mutter- oder Alltagssprache. In Fidschi spricht mehr als ein Drittel der Bevölkerung Fidschi-Hindi, in Guyana und Suriname eine Minderheit, wobei es vor allem in Guyana rasch an Sprechern verliert (das surinamische Hindi wird gelegentlich als Einzelsprache betrachtet).
Hindi wird in Devanagari geschrieben und enthält viele Buchwörter aus dem Sanskrit. Dagegen wird Urdu, als offizielle Sprache Pakistans, mit arabischen Schriftzeichen geschrieben und hat viele Wörter der persischen, türkischen und arabischen Sprache aufgenommen. Beides sind Varietäten des Hindustani.
Die Verwendung von Wörtern unterschiedlicher Herkunft war lange Gegenstand nationaler politischer Bestrebungen. Hindu-Nationalisten ersetzen systematisch Wörter arabischer Herkunft durch Entlehnungen aus dem Sanskrit, um damit ihre kulturelle Eigenständigkeit zu betonen. Ähnliche Bestrebungen zur Förderung von Sanskrit gab es in Form des Popular Sanskrit. Außerdem gibt es eine Vielzahl lokaler Dialekte des Hindi.
Etymologie
Das Wort hindī ist persischen Ursprungs und bedeutet „indisch“. Es wurde ursprünglich von vorislamischen persischen Kaufleuten und Botschaftern in Nordindien verwendet, um sich auf die vorherrschende Sprache Nordindiens, Hindustani, zu beziehen. Später wurde es am Mogulhof für die Unterscheidung der Lokalsprache der Region Delhi vom Persischen verwendet, der damals offiziellen Sprache des Hofes.
Entwicklung
Ursprung
Wie für viele andere indische Sprachen wird auch für Hindi angenommen, dass es sich über das sogenannte Apabhramsha aus dem Prakrit entwickelt hat. Hindi entstand als lokaler Dialekt, wie Braj, Awadhi und schließlich Khari Boli nach der Wende zum 10. Jahrhundert.
Im Vergleich zum Sanskrit sind unter anderem folgende Veränderungen aufgetreten, von denen einige schon im Pali zu finden sind:
häufiger Wegfall von auslautendem ‚a‘ und anderen Vokalen (shabda- > shabd ‚Wort‘)
Ausfall von ‚r‘ in manchen Verbindungen (trīni > tīn ‚drei‘)
Reduktion von Konsonantenbündeln (sapta > sāt ‚sieben‘)
Ausfall von nasalen Konsonanten mit zurückbleibender Nasalierung (shānta- > shā̃t ‚ruhig‘).
Persischer und arabischer Einfluss
In 1000 Jahren islamischen Einflusses gelangten viele persische und arabische Wörter ins Khari Boli. Da auch fast alle arabischen Lehnwörter über das Persische aufgenommen wurden, haben sie nicht den ursprünglichen arabischen Lautstand bewahrt.
Portugiesische Lehnwörter
Aus dem Portugiesischen sind heute noch einige Lehnwörter im Hindi zu finden; der portugiesische Lautstand lässt sich gut im Hindi verwenden, wie bei mez < mesa ‚Tisch‘, pãv < pão ‚Brot‘, kamīz < camisa ‚Hemd‘.
Englische Lehnwörter
Im heutigen Hindi werden viele englische Wörter verwendet, wie zum Beispiel ball, bank, film hero, photo. Einige davon werden im heutigen Englisch kaum noch verwendet. Durch ältere und jüngere Entlehnungen sowie rein indische Neubildungen ist bei einigen Begriffen eine Vielzahl von Synonymen entstanden: leṭrīn < latrine = urinal = ṭoileṭ ‚Toilette‘ (daneben gibt es noch die ursprünglich aus dem Persischen stammenden Wörter peshāb-khānā, pā-khānā und die formellen Ausdrücke svacchālaya, shaucālaya).
Viele ältere Entlehnungen wurden bereits dem indischen Lautstand angepasst, darunter:
boṭal < bottle ‚Flasche‘
kampyūṭar < computer
ãgrezī < English
pulis < police ‚Polizei‘
reḍiyo < radio
prafessar < professor.
Dabei wurden vor allem die Dentale im Hindi retroflex umgefärbt, was gut zu hören ist, wenn Inder Englisch sprechen.
Einige englische Lehnwörter sind mit indischen Wörtern zu neuen Begriffen kombiniert worden: photo khī̃cnā ‚fotografieren‘, fry karnā ‚braten‘, shark-machlī ‚Hai‘.
Hindi als Gebersprache
Aus dem Hindi sind auch Wörter in andere Sprachen gelangt, wobei Hindi teils die Ursprungssprache, teils nur eine vermittelnde Sprache war. Zu den Hindi-Wörtern im Deutschen gehören: Bungalow (bãglā), Chutney, Dschungel, Kajal, Kummerbund, Monsun (wobei das Hindi-Wort mausam selbst ein Lehnwort aus dem Arabischen ist), Punsch, Shampoo (cāmpnā ‚massieren‘) und Veranda.
Varietäten und Register
Die Hindi-Sprachen im weitesten Sinne mit allen Dialekten des Hindi-Gürtels – inklusive Maithili (12 Mio.) und Urdu (51 Mio.) – umfassen 486 Millionen Muttersprachler (Volkszählung 2001). Sie werden wie folgt untergliedert:
Zentrale Zone
Westliches Hindi (mittlere westliche Zone)
258 M: Khari Boli
(52 M: Urdu, in der öffentlichen Zählung separat gezählt)
8 M: Haryanvi
6 M: Kanauji
Östliches Hindi (mittlere östliche Zone)
20 M: Avadhi
11 M: Chhattisgarhi
18 M: Rajasthani
Bihari (östliche Zone)
12 M: Maithili (2003 offiziell als eigene Sprache anerkannt)
33 M: Bhojpuri
13 M: Magadhi
2 M: Sadri
7 M: Pahari (nördliche Zone) (ohne Dogri und Nepali)
Khari-Boli
Khari boli ist die Bezeichnung für den westindischen Dialekt der Delhiregion, der sich seit dem 17. Jahrhundert zu einem Prestigedialekt entwickelt hat. Khari boli umfasst mehrere normierte Register, darunter:
Urdu, historisch die „Sprache des Hofes“, ein vom Persischen beeinflusstes Register
Rekhta, ein starkem persischen und arabischen Einfluss unterworfenes Register
Dakhni, das historische literarische Register der Dekkan-Region
Standard-Hindi, ein durch starken Sanskrit-Einfluss geprägtes Register aus dem 19. Jahrhundert während der Kolonialzeit als Kontrast zu Urdu in der Hindi-Urdu-Kontroverse.
Modernes Standard-Hindi
Nach der Unabhängigkeit Indiens erarbeitete die indische Regierung folgende Veränderungen:
Normierung der Hindigrammatik: 1954 richtete die Regierung ein Komitee zur Erstellung einer Hindigrammatik ein, dessen Bericht 1958 als „A Basic Grammar of Modern Hindi“ ‚Eine Basisgrammatik des Hindi‘ herausgegeben wurde
Normierung der Orthographie
Normierung der Devanagari-Schrift durch das 'Central Hindi Directorate of the Ministry of Education and Culture' zur Vereinheitlichung und Verbesserung der Schriftzeichen
wissenschaftliche Methode zur Transkription des Devanagari-Alphabets
Einbeziehung diakritischer Zeichen zur Darstellung von Lauten aus anderen Sprachen.
Phonologie und Schrift
Hindi umfasst neben 46 Phonemen, die aus dem klassischen Sanskrit stammen, sieben zusätzliche Phoneme für Wörter, die aus dem Persischen oder Arabischen kommen.
Die Transliteration erfolgt in dem System IAST (International Alphabet of Sanskrit Transliteration), ITRANS, und IPA.
Vokale
Der inhärente Vokal (schwa / /), der ursprünglich in jeder Silbe enthalten ist, wird in Hindi, wenn in Devanagari (indische Schrift) geschrieben, oftmals bei der Aussprache weggelassen, insbesondere am Wortende, oft aber auch im Wortinneren. Beispiel: मकान (das Haus) wird nicht makāna, sondern makān ausgesprochen.
Alle Vokale können nasaliert werden.
Konsonanten
Daneben gibt es noch den Anusvara (ṃ ं), der entweder die Nasalierung des vorhergehenden Vokals oder einen zum folgenden Konsonanten homorganen Nasal anzeigt und den Chandrabindu (ँ).
Konsonanten für Wörter persischen und arabischen Ursprungs
Außer ṛa und ṛha stammen alle diese Konsonanten aus dem Persischen oder Arabischen, sie kommen im Urdu häufiger vor. Hindisprecher ländlichen Hintergrunds verwechseln oft diese Konsonanten mit den Konsonanten aus dem Sanskrit.
Die Aussprache dieser sogenannten Nukta-Varianten variiert im Sprachgebrauch sehr stark, da viele Sprecher die Phoneme so aussprechen, als seien sie ohne den Punkt (Nukta) geschrieben (z. B. philm statt film). Es existiert auch die Gegenform, bei der das ph wie f gesprochen wird.
Grammatik von Hindi und Urdu
In der Grammatik weist Hindi etliche grundlegende Unterschiede zu den älteren indischen Sprachen wie Sanskrit und Pali auf, die wesentlich formenreicher sind: Sanskrit und Pali haben beispielsweise jeweils noch acht Kasus, während es im Hindi nur noch drei sind; die meisten Beziehungen im Satz müssen jetzt durch Postpositionen ausgedrückt werden. Schon im Pali war der Dual verschwunden, das Neutrum wurde durch Maskulinum und Femininum verdrängt; übrig geblieben sind lediglich einzelne Formen wie kaun?; koī ‚wer?; jemand‘ (belebt) gegenüber kyā?; kuch ‚was?; etwas‘ (unbelebt). Die meisten Verbformen sind zusammengesetzt aus Verbstamm oder Partizip und einem oder mehreren Hilfsverben. Hindi hat sich somit weit vom ehemals reinen Typus einer flektierenden Sprache entfernt.
Zur Umschrift
Zur Umschrift wird hier der IAST-Standard verwendet, der auch für andere indische Sprachen wie Sanskrit gilt, mit einigen Sonderzeichen für spezielle Hindi-Laute (wie f, q und x):
Vokale:
offene Vokale: a ai i au u (ursprüngliche kurze Vokale bzw. Diphthonge)
geschlossene Vokale: ā e ī o ū (ursprüngliche Langvokale)
Die Tilde (~) steht für Anusvāra (der davor oder darunter stehende Vokal wird nasaliert)
a wird wie Schwa in ‚Palme‘ gesprochen, ai wie ‚ä‘ in ‚Herz‘, au wie ‚o‘ in ‚offen‘; e wie ‚ee‘ in ‚See‘, o wie ‚o‘ in ‚Ofen‘.
Nicht-retroflexe Konsonanten:
unaspiriert: p t k b d g c j q x f s z usw.
aspiriert: ph th kh bh dh gh ch jh
h steht im Folgenden vereinfachend für [h], Visarga und Aspiration
j wird wie ‚dsch‘ in ‚Dschungel‘ gesprochen, c für ‚tsch‘ in ‚deutsch‘, ṣ und ś (oder vereinfacht sh) für die beiden sch-Laute, z für stimmhaftes ‚s‘ wie in ‚Sonne‘, x für den ach-Laut, q für uvulares ‚k‘; y für ‚j‘ wie in ‚Jahr‘, v wird wie in ‚Vase‘ gesprochen; doppelt geschriebene Konsonanten sind lang (zum Beispiel cc für [c:] = ‚ttsch‘).
Retroflexe Konsonanten:
unaspiriert: ḍ ṭ ṛ ṇ
aspiriert: ḍh ṭh ṛh
Morphologie der Nomen
Hindi kennt Substantive, Adjektive und Pronomen. Adjektive und Possessivpronomen stehen vor dem zu bestimmten Substantiv und müssen mit diesem kongruieren. Für die Reihenfolge der Nominalphrasen gilt im Allgemeinen Subjekt – indirektes Objekt – direktes Objekt. Der Rectus Singular (Maskulinum) ist die Zitierform.
Hindi kennt keinen bestimmten Artikel. Als unbestimmter Artikel kann notfalls das unveränderliche Zahlwort ek ‚eins‘ einspringen.
Genus
Im Hindi werden nur Maskulinum und Femininum unterschieden, Neutra gibt es nicht mehr. Für die Verteilung der Genera gilt:
Substantive, die männliche Personen bezeichnen, sind stets maskulin, solche, die weibliche Personen bezeichnen, stets feminin.
Bei einigen Tierarten gibt es männliche und weibliche Formen, wie billā / billī ‚Kater / Katze (weibl.)‘, gadhā / gadhī ‚Esel / Eselin‘, bãdar / bãdarī „Affe“, hāthī / hathinī „Elefant“, gāv / go oder gāy ‚Kuh‘, ghoṛā / ghoṛī ‚Pferd‘; bei anderen gibt es nur ein allgemeines Geschlecht für die gesamte Gattung, wie ū̃ṭ (maskulin) ‚Kamel‘, makkhī (feminin) ‚Fliege‘.
Bei Pflanzen und Gegenständen ist das Geschlecht zum Teil noch aus urindoeuropäischer Zeit ererbt.
Numerus
Hindi kennt die Numeri Singular und Plural.
Im Kasus Rectus ist die Pluralform bei vielen Substantiven nicht von der des jeweiligen Singular unterscheidbar (wie ādmī ‚Mann, Männer‘).
Häufige Pluralendungen sind -e bei den Maskulina auf -ā, -iyã bei den Feminina auf -ī, und -ẽ bei den Feminina auf Konsonant (siehe unten).
Besondere Pluralbildungen:
Die Endung -āt bei einigen Substantiven arabischen Ursprungs unter Kürzung des vorausgehenden Vokals (wie makān ‚Haus‘ > makanāt ‚Häuser‘).
Die sehr seltene Endung -ān (wie bei sāhib ‚Herr, Meister‘ > sahibān ‚Herren, Meister‘).
Umgangssprachlich verbreitet ist es auch, den Plural bei Personenbezeichnungen mit log „Leute“ zu bilden (wie widyārthī ‚Student‘ > widhyārthī-log ‚Studenten‘).
Kasus und Verhältniswörter
Substantive haben drei synthetische Kasusformen bewahrt: den „Rektus“ (englisch: direct case), den „Obliquus“ (englisch: oblique case) und den „Vokativ“ (englisch: vocative [case]); nur Personalpronomen haben noch eigene Possessiv- und Dativformen. Der Rektus wird in der sprachwissenschaftlichen Literatur auch direkt als Nominativ eingestuft, hat für einen solchen allerdings ungewöhnliche Eigenschaften.
Für die Verwendung gilt Folgendes:
Der Rectus ist die Nennform; er wird als Subjekt und unbestimmtes (indefinites) direktes Objekt verwendet – jedoch nicht für Subjekte von transitiven Verben im perfektiven Aspekt: Hier steht gewöhnlich der Ergativ, der Form nach ein Obliquus mit der Postposition ne.
Der Obliquus muss immer zusammen mit Postpositionen stehen, und wird zur Bildung von Adverbien verwendet.
Der seltene Vokativ ist der Kasus der direkten Anrede. Der Vokativ ist in den folgenden Tabellen unter der jeweiligen Obliquus-Form zu finden, wenn beide Kasus gleichlautend sind.
Die synthetischen Kasus
Die Obliquus-Plural-Endung ist immer -õ, die Vokativ-Plural-Endung immer -o. Bei den übrigen Kasus wird bei Maskulina zwischen TYP 1 (unmarkiert: gar keine Veränderung in diesen Formen) und TYP 2 (markiert) unterschieden. Zu TYP 2 gehören erstens Lehnwörter (v. a. aus dem Sanskrit, Persischen, Arabischen, Englischen) sowie Maskulina, die nicht auf -ā enden. Darüber hinaus gibt es noch als TYP 3 persische Lehnwörter mit speziellen Pluralendungen; diese Substantive werden von Hindi-Sprechern jedoch gewöhnlich wie alle anderen Substantive auf Konsonant behandelt.
Maskulina von TYP 1:
Auf kurzes -a: mitra ‚Freund‘
Singular Plural
Rektus: mitra mitra
Obliquus: mitra mitrõ
Vokativ: mitra mitro
Auf langes -ā: pitā ‚Vater‘
Singular Plural
Rektus: pitā pitā
Obliquus: pitā pitāõ
Vokativ: pitā pitāo
Auf langes -ī: ādmī ‚Mann‘
Singular Plural
Rektus: ādmī ādmī
Obliquus: ādmī ādmiyõ
Vokativ: ādmī ādmiyo
Auf kurzes -u: guru ‚Lehrmeister‘
Singular Plural
Rektus: guru guru
Obliquus: guru guruõ
Vokativ: guru guruo
Auf langes -ū: cākū ‚Taschenmesser‘
Singular Plural
Rektus: cākū cākū
Obliquus: cākū cākuõ
Auf Konsonant: seb ‚Apfel‘
Singular Plural
Rektus: seb seb
Obliquus: seb sebõ
Substantive von TYP 2
Maskulina auf -ā: baccā ‚Kind‘
Singular Plural
Rektus: baccā bacce
Obliquus: bacce baccõ
Vokativ: bacce bacco
Maskulina auf -̃ā: kũā ‚Brunnen‘
Singular Plural
Rektus: kuā~ kuẽ
Obliquus: kuẽ kuõ
Feminina auf -ī und einige andere haben -̃ā im Rectus Plural:
strī ‚Frau‘
Singular Plural
Rektus: strī striyā~
Obliquus: strī striyõ
śakti ‚Kraft‘
Singular Plural
Rektus: śakti śaktiyā~
Obliquus: śakti śaktiyõ
ciṛiyā ‚Vogel‘
Singular Plural
Rektus: ciṛiyā ciṛiyā~
Obliquus: ciṛiyā ciṛiyõ
Feminina mit irgendeinem anderen Ausgang haben -ẽ im Rectus Plural:
1) Nicht kontrahiert:
kitāb ‚Buch‘
Singular Plural
Rektus: kitāb kitābẽ
Obliquus: kitāb kitābõ
bhāṣā ‚Sprache‘
Singular Plural
Rektus: bhāṣā bhāṣāẽ
Obliquus: bhāṣā bhāṣāõ
bahū ‚Schwiegertochter‘
Singular Plural
Rektus: bahū bahuẽ
Obliquus: bahū bahuõ
Vokativ: bahū bahuo
2) kontrahiert:
aurat ‚Frau‘
Singular Plural
Rektus: aurat aurtẽ
Obliquus: aurat aurtõ
Vokativ: aurat aurto
bahan/bahin ‚Schwester‘
Singular Plural
Rektus: bahan bahnẽ
Obliquus: bahan bahnõ
Vokativ: bahan bahno
Lehnwörter von TYP 3
kāγaz ‚Papier‘
Singular Plural
Rektus: kāγaz kāγazāt
Obliquus: kāγaz kāγazātõ
Persisch-arabische Lehnwörter, die auf stummes -h enden, werden wie markierte maskulina (Typ 2) behandelt: bacca(h) (Urdu-Rechtschreibung) ~ baccā (Hindi-Rechtschreibung).
Einige persisch-arabische Lehnwörter können ihre ursprünglichen Dual- oder Pluralmarkierungen erhalten: vālid ‚Vater‘ > vālidain ‚Eltern‘.
Viele feminine Sanskrit-Lehnwörter enden auf -ā: bhāṣā ‚Sprache‘, āśā ‚Hoffnung‘, icchā ‚Absicht‘.
Die primären Postpositionen
Neben den synthetischen Kasus sind viele analytische Neubildungen durch Postpositionen entstanden; Postpositionen entsprechen den Präpositionen im Deutschen, sie werden jedoch nachgestellt. Das voranstehende Substantiv mit allen eventuell dazugehörigen Adjektiven und Genitiv-Postpositionen muss dabei stets in den Obliquus gesetzt werden.
Rektus: gadhā ‚der Esel‘
Genitiv: gadhe kā ‚des Esels‘
Dativ: gadhe ko ‚dem Esel‘
Ergativ: gadhe ne ‚der Esel‘
Ablativ: gadhe se ‚vom Esel‘
‚in‘: ghar mẽ ‚in dem Haus‘
‚auf‘: ghar par/pe ‚auf dem Haus‘
‚bis zu‘: ghar tak ‚bis zum Haus‘
Der Dativ ist der Kasus des indirekten Objekts und wird bei einigen Satzkonstruktionen verwendet (wie yah mujhe acchā lagtā ‚das gefällt mir‘). Außerdem bezeichnet er das direkte Objekt, wenn es bestimmt (definit) ist.
Der Ergativ wird nur in den Perfektzeiten zur Kennzeichnung des Subjekts bei transitiven Verben verwendet.
Der Ablativ hat viele Funktionen:
1) Herkunft (wie dillī se ‚aus Delhi‘; … se … tak ‚von … bis … ‘)
2) Anfangszeit (wie itvār se ‚seit Sonntag‘)
3) Kasus des Komparativs (siehe Abschnitt Komparation)
4) Darüber hinaus kann er instrumentale und adverbiale Funktionen haben und wird von einigen Verben als Patiens verlangt.
Die Wortgruppe von Substantiv und folgender Genitiv-Postposition verhält sich wie ein Adjektiv, so dass die Postposition kā entsprechend der Form des folgenden Wortes flektiert wird:
Maskulin Singular: ādmī kā kamrā ‚das Zimmer des Mannes‘
Maskulin Plural: ādmī ke kamre ‚die Zimmer des Mannes‘
Feminin Singular: ādmī kī gārī ‚das Auto des Mannes‘ (im Hindi ‚die Auto‘)
Feminin Plural: ādmī kī gāriỹā ‚die Autos des Mannes‘
Die zusammengesetzten Postpositionen
Die zusammengesetzten Postpositionen bestehen aus dem Obliquus der Genitiv-Postposition kā und einem folgenden Adverb:
Örtlich
… ke andar ‚(mitten) in‘
… ke bhītar ‚in … drin‘
… ke bīch mẽ ‚mitten in … drin‘
… ke bāhar ‚außerhalb von …‘
… ke pās ‚nahe bei …‘
… ke ās-pās ‚bei, in der Nähe von‘
… ke cārõ taraf/or ‚rings um … herum‘
… kī taraf ‚auf … zu‘
… (ke) nīce ‚unter‘
… ke ūpar ‚über … (drüber)‘
… ke āge ‚vor …, … voraus‘
… ke sām(a)ne ‚vor, gegenüber von …‘
… ke pīche ‚hinter‘
… ke bājū ‚neben‘
… ke bagal ‚neben‘
… ke sāmne ‚gegenüber von …‘
… ke kināre ‚auf der Seite von …‘
Zeitlich
… ke bād ‚nach‘
… ke paihle * ‚vor‘
… (ke) daurāna ‚während‘
* dialektisch: pahile/pahale
Übertragen
… ke liye ‚für‘
… ke khilāf ‚gegen‘
… ke dvārā ‚anhand, mittels‘
… ke mādhyam se ‚mithilfe von‘
… ke rūp mẽ ‚in Form von, als‘
… ke anusār ‚laut, gemäß‘
… ke bāre mẽ ‚über (Thema); bezüglich‘
… ke kārã (se) ‚wegen‘
… ke māre ‚wegen, aufgrund von; durch‘
… ke bavajūd ‚trotz‘
… ke sāth ‚(zusammen) mit‘
… ke bina ‚ohne, ausgenommen, außer‘
… ke yah̃ā ‚anstelle von‘
… ke badle mẽ ‚anstelle von, im Austausch für‘
… ke bajāy ‚anstatt‘
… ke alāvā ‚neben, abgesehen von, so gut wie‘
… ke sivāy ‚abgesehen/mit Ausnahme von‘
… ke shurū mẽ ‚am Anfang von …‘
… ke ãt mẽ ‚am Ende von …‘
… ke barābar/māfik ‚gleich/ähnlich …‘
… ke bīch mẽ ‚zwischen; unter (among)‘
Präpositionen
Das Hindi kennt die Präposition binā „ohne“, die jedoch auch nachgestellt werden kann (… ke bina).
Adjektive
Adjektive (Eigenschaftswörter) können vor einem zu bestimmenden Substantiv als Attribut stehen, oder aber auch alleine in substantivischer Funktion. In attributiver Funktion sowie prädikativ (zusammen mit der Kopula honā ‚sein‘) gilt ein besonderes, stark eingeschränktes Deklinations-Schema gegenüber der Deklination als Substantiv, in dem der Vokativ stets gleich dem jeweiligen Obliquus ist.
Attributive Deklination
Im Hindi wird zwischen deklinierbaren und undeklinierbaren Adjektiven unterschieden. Ein deklinierbares Adjektiv wird dem zugehörigen Nomen angepasst, ein undeklinierbares bleibt stets unverändert. Eine Reihe von deklinierbaren Adjektiven zeigt in allen Terminationen Nasalierung.
Deklinierbar sind die meisten Adjektive, die auf -ā enden:
Maskulin: Rectus Singular -ā: choṭā kamrā ‚das kleine Zimmer‘
Sonst immer: -e: choṭe kamre ‚die kleinen Zimmer‘
choṭe kamre mẽ ‚im kleinen Zimmer‘
choṭe kamrõ mẽ ‚in den kleinen Zimmern‘
Feminin: immer -ī: choṭī gāṛī ‚das kleine Auto‘
choṭī gāṛiỹā ‚die kleinen Autos‘
choṭī gāṛī mẽ ‚im kleinen Auto‘
choṭī gāṛiyõ mẽ ‚in den kleinen Autos‘
Beispiele für deklinierbare Adjektive: baṛā ‚groß‘, choṭā ‚klein‘, moṭā ‚fett‘, acchā ‚gut‘, burā böse, ‚schlecht‘, kālā ‚schwarz‘, ṭhaṇḍā ‚kalt‘.
Beispiele für undeklinierbare Adjektive: xarāb ‚schlecht‘, sāf ‚sauber‘, bhārī ‚schwer (Gewicht)‘, murdā ‚tot‘, sundar ‚schön‘, pāgal ‚verrückt‘, lāl ‚rot‘.
Das Suffix sā / ~se / ~sī gibt einem Adjektiv die Abtönung ‚-lich‘ oder ‚ziemlich‘ (wie nīlā ‚blau‘ > nīlā-sā ‚bläulich‘). Es ist ambig (mehrdeutig), da es die Bedeutung eines Adjektives sowohl verstärken als auch abmildern kann.
Komparation (Steigerung)
Der Komparativ wird durch aur/zyādā ‚mehr‘ oder kam ‚weniger‘ gebildet.
Mehr-als-Vergleiche verwenden die Ablativ-Postposition se: hāthī murgeOBL se aur baṛā hai (sinngemäß: ‚der Elefant ist im-Vergleich-zu dem Huhn mehr groß‘) ‚Der Elefant ist größer als das Huhn‘.
Bei einem Vergleich kann das Wort für "mehr" weggelassen werden:
Gītā Gautam se (aur) lambī hai ‚Gita ist größer als Gautam‘
Gītā Gautam se kam lambī hai ‚Gita ist weniger groß als Gautam‘
Ohne Vergleichsobjekt ist das nicht möglich:
zyādā baṛā hāthī ‚der größere Elefant‘
hāthī zyādā baṛā hai ‚der Elefant ist größer‘
Der Superlativ wird mit sab ‚alle(s)‘ gebildet: sab se āccha (sinngemäß: ‚im-Vergleich-zu allen groß‘) ‚der größte‘.
sab se mahãgā kamrā ‚das teuerste Zimmer‘
kamrā sab se mahãgā hai ‚das Zimmer ist das teuerste‘
In Registern mit starkem Einfluss aus dem Sanskrit oder dem Persischen gibt es auch Steigerungssuffixe aus diesen Sprachen:
Sanskrit Persisch
Komparativ -tar
Superlativ -tam -tarīn
Zwei dieser Bildungen sind unregelmäßig:
Positiv Komparativ Superlativ
acchā behtar behtarīn ‚der gute/bessere/beste‘
kharāb badtar badtarīn ‚der schlechte/schlechtere/schlechteste‘
Pronomen
Personalpronomen
Personalpronomen haben einen eigenen, vom Nominativ unterschiedenen Akkusativ, der mit den Formen des Dativs übereinstimmt. Das Geschlecht wird überhaupt nicht unterschieden, in der 3. Person jedoch die Entfernung zum Sprecher. Postpositionen werden bei Personalpronomen im Hindi als gebundene Morpheme, im Urdu als freie Partikeln betrachtet.
Besonders in Nordindien wird umgangssprachlich die 1. Person Plural ham ‚wir‘ auch für den Singular ‚ich‘ verwendet
Für die 2. Person gibt es folgende Pronomen:
tū ‚du‘ (Singular, intimate) bei kleinen Kindern, engen Freunden, Gottheiten oder in der Lyrik; in allen anderen Fällen ist es herablassend oder sogar beleidigend.
tum ‚ihr‘ (Plural, familiar) wird für jüngere oder niedriger gestellte Personen; es wird auch für eine einzelne Person verwendet, wenn tū unangebracht ist, und kann daher je nach Kontext auch als "du" übersetzt werden.
āp ‚Sie‘ (Plural, polite) wird für ältere oder höhergestellte Personen verwendet.
tum und āp sind zwar schon Pluralpronomen, da sie aber auch zur Anrede einer einzelnen Person verwendet werden, können sie durch die Suffixe -log ‚Leute‘ oder -sab ‚alle‘ den Plural noch einmal ausdrücklich markieren: tum log / tum sab oder āp log / āp sab (vgl. das Englische you guys oder y'all). An ihrer Funktion im Satzgefüge ändert sich dabei überhaupt nichts.
Als Personalpronomen der 3. Person werden die Demonstrativpronomen (yah ‚dieser hier‘ / vah ‚jener dort‘) verwendet, und zwischen weiblich und männlich wird nicht unterschieden.
Die Personalpronomen im Rectus:
Erste Person
ich mãi
wir ham
Zweite Person
du tū
ihr tum
Sie āp – wird grammatikalisch als 3. Person Plural behandelt
Dritte Person: Hochsprache im Hindi Urdu und gesprochenes Hindi
er/sie/es [hier] yah ye
er/sie/es [dort] vah vo
sie [hier] (Plural) ye ye
sie [dort] (Plural) ve vo
Der Obliquus wird auch bei Personalpronomen von einer nachfolgenden Postposition verlangt:
1. Person Singular: mãi > mujh …
2. Person Singular: tū > tujh …
3. Person Singular hier: yah > is …
3. Person Singular dort: vah > us …
3. Person Plural hier: ye > in …
3. Person Plural dort: ve > un …
Bei ham, tum und āp sind Rectus und Obliquus identisch.
Der Dativ steht in der Regel auch für das direkte Objekt:
1. Person 2. Person 3. Person
Singular: mujhe tujhe ise / use
Plural: hamẽ tumẽ inhẽ / unhẽ
Umgangssprachlich wird der Dativ auch mit der üblichen Partikel ko gebildet: mujh.ko (? mere.ko) ‚mir/mich‘, tujhko ‚dir/dich‘, isko | usko ‚ihm/ihn, ihr/sie‘, hamko ‚uns‘, tūmko ‚euch‘, inko | unko ‚ihnen/sie‘.
Der Ergativ wird in der 3. Person Plural unregelmäßig gebildet, in der 1. und 2. Person Plural steht ausnahmsweise die jeweilige Rectusform vor der Postposition:
1. Person 2. Person 3. Person
Singular: mãi ne tū ne is ne / us ne
Plural: ham ne tum ne inhõ ne / unhõ ne
Possessivpronomen
Die Personalpronomen mãi / ham und tū / tum haben noch eigene Genitivformen, die als Possessivpronomen verwendet werden:
1. Person Singular: merā ‚mein‘
1. Person Plural: hamārā ‚unser‘
2. Person Singular: terā ‚dein‘
2. Person Plural: tumhārā ‚euer‘
Sie werden wie ein Adjektiv an das nachfolgende Substantiv angepasst:
Maskulin Singular: merā kamrā ‚mein Zimmer‘
Maskulin Plural: mere kamre ‚meine Zimmer‘
Feminin Singular: merī gāṛī ‚mein Auto‘ (im Hindi ‚die Auto‘)
Feminin Plural: merī gāṛiỹā ‚meine Autos‘
Bei den übrigen Personalpronomen wird der Genitiv genau wie bei Nomen durch die Obliquusform + die veränderliche Postposition kā gebildet, die wie merā und so weiter dekliniert wird:
yah (Singular) > is kā / is kī / is ke
vah (Singular) > us kā / us kī / us ke
ye (Plural) > in kā / in kī / in ke
ve (Plural) > un kā / un kī / un ke
āp > āp kā / āp kī / āp ke
Relativpronomen
jo ist das einzige Relativpronomen. Es wird ähnlich wie yah dekliniert:
Singular Plural
Rectus jo
Obliquus jis... jin...
Dativ jise... jinhẽ
Genitiv jis kā jin kā
Ergativ jis ne jinhõ ne
Interrogativpronomen
Das Interrogativpronomen kaun/kyā kommt in allen Kasus und auch im Plural vor. Im Rectus wird zwischen kaun ‚wer‘ (belebt) und kyā ‚was‘ (unbelebt) unterschieden, in den übrigen Kasus, die genauso wie beim Relativpronomen gebildet werden, gibt es keinen Genus-Unterschied mehr:
Singular Plural
Rectus kaun/kyā
Obliquus kis... kin...
Dativ kise... kinhẽ
Genitiv kis kā kin kā
Ergativ kis ne kinhõ ne
Adjektiv steht kaunā ‚welcher‘, das wie ein Adjektiv dekliniert wird.
Indefinitpronomen
koī (Rectus), kisī (Obliquus) ‚jemand, irgendwer‘ (Singular)
kuch ‚etwas‘ (Singular)
kaī ‚irgendwelche, einige‘ (Plural)
koī kann auch vor zählbaren Substantiven im Singular mit der Bedeutung ‚mancher/s‘ stehen, das sächliche Gegenstück kuch auch vor nichtzählbaren Substantiven.
koī als Adverb vor einem Zahlwort hat die Bedeutung ‚etwa, ungefähr‘. In dieser Verwendung bekommt es nicht die Obliquusform kisī.
kuch als Adverb kann in der Bedeutung ‚ziemlich‘ auch Adjektive näher bestimmen.
Viele Indefinitpronomen können auch als Negativpronomen verwendet werden, wenn sie zusammen mit einer Verneinung (in Aussagesätzen nahī̃ ‚nein, nicht‘, in Befehlssätzen auch na, mat) stehen:
kuch ‚etwas‘ kuch nah̃ī/na/mat ‚nichts‘
koī (bhī) ‚jemand, irgendwer‘ koī nah̃ī/na/mat ‚niemand‘
kah̃ī (bhī) ‚irgendwo‘ kah̃ī nah̃ī/na/mat ‚nirgendwo‘
kabhī bhī ‚irgendwann‘ kabhī nah̃ī/na/mat ‚nie‘
kyā am Satzanfang hat die Funktion, den Satz als Entscheidungsfrage (ja/nein) zu kennzeichnen. Dies kann aber auch nur durch bloße Intonation geschehen.
Weitere Indefinitpronomen sind:
koī bhī ‚irgendeine(r,s), irgendwer, wer auch immer‘
kuch aur ‚etwas anderes‘
sab kuch ‚alles‘
kaise bhī ‚irgendwie‘
kabhī na kabhī ‚irgendwann einmal‘
Abgeleitete Pronomen
Interrogativ Relativ Demonstrativ hier / dort
Zeit kab ‚wann‘ jab ab / tab
Ort kah̃ā ‚wo(hin)‘ jah̃ā yah̃ā / vah̃ā
kidhar ‚wo(hin)‘ jidhar idhar / udhar
Quantität kitnā ‚wie viel‘ jitnā itnā / utnā
Qualität kaisā ‚wie beschaffen‘ jaisā aisā / vaisā
Art und Weise kaise ‚wie‘ jaise aise / vaise
Grund kyõ/kỹū ‚warum‘
kitnā / jitnā / itnā / utnā werden wie Adjektive dekliniert: kitnā (m) / kitnī (f) ‚wie viel?‘ – kitne (m) / kitnī (f) ‚wie viele?‘ und so weiter.
Auch kaisā ‚wie (beschaffen), was für ein‘ (jaisā, aisā und vaisā natürlich auch) wird wie ein Adjektiv dekliniert und muss folglich zusammen mit honā ‚sein‘ an das Subjekt angepasst werden:
kaisā hai? ‚Wie geht's?‘ (zu einer männlichen Person)
kaisī hai? ‚Wie geht's?‘ (zu einer weiblichen Person)
tum kaise ho? ‚Wie geht es euch/dir?‘ (zu einer männlichen Person)
tum kaisī ho? ‚Wie geht es euch/dir?‘ (zu einer weiblichen Person)
āp kaise hãi? ‚Wie geht es Ihnen?‘ (zu einer männlichen Person)
āp kaisī hãi? ‚Wie geht es Ihnen?‘ (zu einer weiblichen Person)
Morphologie der Verben
Überblick
Hindi kennt 3 Zeitstufen – Gegenwart (Präsens), Vergangenheit (Präteritum) und Zukunft (Futur) – und 3 Aspekte: den habituellen Aspekt, den perfektiven Aspekt und die Verlaufsform. Der habituelle Aspekt drückt aus, was öfters bzw. gewohnheitsmäßig geschieht, die Verlaufsform ist ein Progressiv und entspricht etwa der englischen Form, die auch als Continuous bezeichnet wird.
Bei transitiven Verben im perfektiven Aspekt steht das Subjekt im Ergativ.
Im Präsens wird unterschieden zwischen folgenden Modi: Indikativ, Konjunktiv und Imperativ.
Konjugation nach Personen ohne Hilfsverb gibt es nur beim Verb ‚sein‘, im Konjunktiv Präsens und im definiten Futur. Dabei sind die Personen-Endungen für ‚wir‘, ‚sie‘ Plural und ‚Sie‘ jeweils immer identisch. Alle anderen Formen werden mithilfe des bloßen Stammes oder einer Partizipform und einem oder mehreren Hilfsverben gebildet, die nach Zahl und auch nach Geschlecht an das Subjekt angepasst werden müssen.
Alle Formen, die im Folgenden für yah ‚dieses/dieser/diese‘ aufgeführt sind, gelten auch für vah ‚jenes/jener/jene‘; alle Formen, die für ye ‚diese‘ aufgeführt sind, gelten auch für ve ‚jene‘ und auch für āp ‚Sie‘.
Der Stamm
Den Stamm eines Verbs erhält man durch Weglassen der Infinitivendung -nā. Einige Verben haben neben diesem Stamm noch weitere, unregelmäßige Stammformen; dies betrifft vor allem die Verben denā ‚geben‘, lenā "nehmen" und jānā ‚gehen‘.
Der bloße Stamm wird vor den Hilfsverben zur Bildung von Verlaufsform und Perfekt verwendet, außerdem noch zur Bildung des tū-Imperativs (siehe Abschnitt Imperativ).
Infinite Formen
Infinite Formen unterscheiden nicht nach Person und Modus.
Infinitiv
Der Infinitiv hat die Endung -nā (z. B. bolnā ‚sprechen‘). Der Infinitiv dient auch als Gerundium. Er kann demnach wie ein Substantiv in den Obliquus gesetzt werden, wie bolne ke liye – wörtlich: ‚für das Sprechen‘ – ‚um zu sprechen‘.
Partizipien
Das Partizip Präsens hat die Endung -tā (wie boltā ‚sprechend‘), das Partizip Perfekt die Endung -ā (wie. bolā ‚gesprochen habend‘).
Verbaladverb
Das Verbaladverb hat die Endung -(kar)(ke) (wie bol / bolkar / bolke / bolkarke). Es hat keine direkte deutsche Entsprechung; es könnte je nach Zusammenhang etwa übersetzt werden als ‚als/nachdem … gesprochen hat‘ und so weiter.
Finite Formen
Präsens Indikativ
Das Verb honā "sein" hat seine Personalflexion im Präsens Indikativ erhalten (zum Beispiel: ṭhīk hũ ‚mir geht es gut‘, yah kyā hai? ‚Was ist das?‘). (Es ist aus der Sanskritwurzel bhū- ‚werden‘ entstanden; vergleiche Pali: homi > Hindi hũ ‚ich bin‘.) Es dient als Kopula und hat darüber hinaus die Bedeutung ‚es gibt‘ (wie hoṭel hai? ‚Gibt es ein Hotel?‘):
Singular Plural
mãi hũ ‚ich bin‘ ham hãi ‚wir sind‘
tū hai ‚du bist‘ tum ho ‚ihr seid‘
yah hai ‚er/es ist‘ ye hãi ‚sie sind‘
Die übrigen Verben werden im habituellen Präsens folgendermaßen konjugiert: Vor die jeweilige Form von honā wird das Partizip Präsens eines beliebigen Verbs gestellt, das an das Subjekt angepasst werden muss. Für ein männliches Subjekt hat es die Endungen -tā im Singular (wie kartā ‚ein machender‘), -te im Plural (wie karte ‚mehrere machende‘), für ein weibliches Subjekt ist die Endung immer -tī. Daraus ergibt sich beispielsweise mãi kartī hum (‚ich machende bin‘) ‚ich mache‘ – von einer Frau gesagt.
Maskulines Subjekt Feminines Subjekt
mãi kartā hũ ‚ich mache‘ mãi kartī hũ ‚ich mache‘
tū kartā hai ‚du machst‘ tū kartī hai ‚du machst‘
yah kartā hai ‚er macht‘ yah kartī hai ‚sie macht‘
ham karte hãi ‚wir machen‘ ham kartī hãi ‚wir machen‘
tum karte ho ‚ihr macht‘ tum kartī ho ‚ihr macht‘
ye karte hãi ‚sie machen‘ ye kartī hãi ‚sie machen‘
Präsens Konjunktiv
Wie alle Verben kann auch das Verb honā den Konjunktiv bilden. Dabei hat es allerdings noch zahlreiche Nebenformen, die in Klammern hinzugefügt sind:
Singular Plural
mãi hũ (hoū) ham hõ (hoẽ, hovẽ, hõy)
tū ho (hoe, hove, hoy) tum ho (hoo)
yah ho (hoe, hove, hoy) ye hõ (hoẽ, hovẽ, hõy)
Imperativ
Hindi kennt 3 Imperative, deren Verwendung derjenigen der Personalpronomen tū, tum und āp entspricht – die tum- und āp-Imperative können also für eine oder mehrere Personen verwendet werden. Der tū-Imperativ entspricht dem bloßen Stamm eines Verbes, die übrigen Formen werden durch Suffixe gebildet:
tū-Imperativ: bolnā ‚sprechen‘ → bol ‚sprich!‘
tum-Imperativ: bolnā ‚sprechen‘ → bolo ‚sprecht!‘
āp-Imperativ: bolnā ‚sprechen‘ → boliye ‚sprechen Sie!‘
Präteritum
Das habituelle Präteritum wird durch das Partizip Präsens des Hauptverbs + thā gebildet. Beide passen sich dem Subjekt in Numerus und Genus an; dabei hat die weibliche Form thī den unregelmäßigen Plural thī̃:
Maskulines Subjekt Feminines Subjekt
mãi kartā thā ‚ich machte‘ mãi kartī thī ‚ich machte‘
tū kartā thā ‚du machtest‘ tū kartī thī ‚du machtest‘
yah kartā thā ‚er machte‘ yah kartī thī ‚sie machte‘
ham karte the ‚wir machten‘ ham kartī thī̃ ‚wir machten‘
tum karte the ‚ihr machtet‘ tum kartī thī̃ ‚ihr machtet‘
ye karte the ‚sie machten‘ ye kartī thī̃ ‚sie machten‘
Futur
Das definite Futur wird gebildet, indem das Suffix gā / ge / gī den Formen des Konjunktiv nachgestellt wird. (Es ist eine Kontraktion aus *gaā < gayā, dem Partizip Perfekt von jānā ‚gehen‘). Es wird im Hindi als gebundenes Morphem, im Urdu als eigenes Wort betrachtet.
Maskulines Subjekt Feminines Subjekt
mãi karū~.gā ‚ich werde machen‘ mãi karū~.gī ‚ich werde machen‘
tū kare.gā ‚du wirst machen‘ tū kare.gī ‚du wirst machen‘
yah kare.gā ‚er wird machen‘ yah kare.gī ‚sie wird machen‘
ham karẽ.ge ‚wir werden machen‘ ham karẽ.gī ‚wir werden machen‘
tum karo.ge ‚ihr werdet machen‘ tum karo.gī ‚ihr werdet machen‘
ye karẽ.ge ‚sie werden machen‘ ye karẽ.gī ‚sie werden machen‘
Die Verlaufsformen
Es gibt drei imperfektive Verlaufsformen für Präsens, Präteritum und Futur. Zu ihrer Bildung nimmt man den bloßen Stamm des Hauptverbs (wie kar- ‚mach-‘), hinter dem das Hilfsverb rahnā, ‚bleiben‘ wie jedes andere Verb auch im Präsens Indikativ, Präteritum und Futur konjugiert wird:
Verlaufsform im Präsens
Maskulines Subjekt Feminines Subjekt
mãi kar rahā hũ ‚ich mache gerade‘ mãi kar rahī hũ ‚ich mache gerade‘
tū kar rahā hai ‚du machst gerade‘ tū kar rahī hai ‚du machst gerade‘
yah kar rahā hai ‚er macht gerade‘ yah kar rahī hai ‚sie macht gerade‘
ham kar rahe hãi ‚wir machen gerade‘ ham kar rahī hãi ‚wir machen gerade‘
tum kar rahe ho ‚ihr macht gerade‘ tum kar rahī ho ‚ihr macht gerade‘
ye kar rahe hãi ‚sie machen gerade‘ ye kar rahī hãi ‚sie machen gerade‘
Verlaufsform im Präteritum
Maskulines Subjekt Feminines Subjekt
mãi kar rahā thā ‚ich machte gerade‘ mãi kar rahī thī ‚ich machte gerade‘
tū kar rahā thā ‚du machtest gerade‘ tū kar rahī thī ‚du machtest gerade‘
yah kar rahā thā ‚er machte gerade‘ yah kar rahī thī ‚sie machte gerade‘
ham kar rahe the ‚wir machten gerade‘ ham kar rahī thī~ ‚wir machten gerade‘
tum kar rahe the ‚ihr machtet gerade‘ tum kar rahī thī~ ‚ihr machtet gerade‘
ye kar rahe the ‚sie machten gerade‘ ye kar rahī thī~ ‚sie machten gerade‘
Verlaufsform im Futur
Maskulines Subjekt Feminines Subjekt
mãi kartā rahū~.gā ‚ich werde gerade machen‘ mãi kartī rahū~.gī ‚ich werde gerade machen‘
tū kartā rahe.gā ‚du wirst gerade machen‘ tū kartī rahe.gī ‚du wirst gerade machen‘
yah kartā rahe.gā ‚er wird gerade machen‘ yah kartī rahe.gī ‚sie wird gerade machen‘
ham karte rahẽ.ge ‚wir werden gerade machen‘ ham kartī rahẽ.gī ‚wir werden gerade machen‘
tum karte raho.ge ‚ihr werdet gerade machen‘ tum kartī raho.gī ‚ihr werdet gerade machen‘
ye karte rahẽ.ge ‚sie werden gerade machen‘ ye kartī rahẽ.gī ‚sie werden gerade machen‘
Die perfektiven Formen
Es gibt drei perfektive Formen (Perfekt für das Präsens, Plusquamperfekt für das Präteritum und Futur II für das Futur). Zu ihrer Bildung nimmt man den bloßen Stamm des Hauptverbs (wie kar- ‚mach-‘), hinter dem das Hilfsverb liyā oder cukā wie jedes andere Verb auch im Präsens Indikativ, Präteritum und Futur konjugiert wird. Hierbei ist zu beachten, dass die "-ī"-Form von liyā verkürzt worden ist (lī statt liyī):
Perfekt
Maskulines Subjekt Feminines Subjekt
mãi kar liyā hũ ‚ich habe gemacht‘ mãi kar lī hũ ‚ich habe gemacht‘
tū kar liyā hai ‚du hast gemacht‘ tū kar lī hai ‚du hast gemacht‘
yah kar liyā hai ‚er hat gemacht‘ yah kar lī hai ‚sie hat gemacht‘
ham kar liye hãi ‚wir haben gemacht‘ ham kar lī hãi ‚wir haben gemacht‘
tum kar liye ho ‚ihr habt gemacht‘ tum kar lī ho ‚ihr habt gemacht‘
ye kar liye hãi ‚sie haben gemacht‘ ye kar lī hãi ‚sie haben gemacht‘
Plusquamperfekt
Mit dem Plusquamperfekt muss man die Postposition ‚ne‘ verwenden.
Maskulines Subjekt Feminines Subjekt
mãine kar liyā thā ‚ich hatte gemacht‘ mãine kar lī thī ‚ich hatte gemacht‘
tūne kar liyā thā ‚du hattest gemacht‘ tūne kar lī thī ‚du hattest gemacht‘
isne kar liyā thā ‚er hatte gemacht‘ isne kar lī thī ‚sie hatte gemacht‘
hamne kar liya tha ‚wir hatten gemacht‘ hamne kar lī thī~ ‚wir hatten gemacht‘
tumne kar liya tha ‚ihr hattet gemacht‘ tumne kar lī thī~ ‚ihr hattet gemacht‘
unhõne kar liya tha ‚sie hatten gemacht‘ inhõne kar lī thī~ ‚sie hatten gemacht‘
Futur II
Maskulines Subjekt Feminines Subjekt
mãi kartā liyū~.gā ‚ich werde gemacht haben‘ mãi kartī liyū~.gī ‚ich werde gemacht haben‘
tū kartā liye.gā ‚du wirst gemacht haben‘ tū kartī liye.gī ‚du wirst gemacht haben‘
yah kartā liye.gā ‚er wird gemacht haben‘ yah kartī liye.gī ‚sie wird gemacht haben‘
ham karte liyẽ.ge ‚wir werden gemacht haben‘ ham kartī liyẽ.gī ‚wir werden gemacht haben‘
tum karte liyo.ge ‚ihr werdet gemacht haben‘ tum kartī liyo.gī ‚ihr werdet gemacht haben‘
ye karte liyẽ.ge ‚sie werden gemacht haben‘ ye kartī liyẽ.gī ‚sie werden gemacht haben‘
Das Passiv
Das Passiv wird aus dem Partizip Perfekt und dem Hilfsverb jānā ‚gehen‘ gebildet (wie likhnā ‚schreiben‘ > likhā jānā ‚geschrieben werden‘). Der Agens hat die Postposition se.
Intransitive und transitive Verben können grammatikalisch passiviert werden, um körperliches oder geistiges Unvermögen (gewöhnlich in negativem Sinne) anzuzeigen. Intransitive Verben haben darüber hinaus oft passivischen Sinn oder drücken unabsichtliche Handlungen aus.
Numerale
Grundzahlen
Die Zahlwörter im Hindi sind unveränderlich. Die Zahlen 11 bis 99 sind allesamt unregelmäßig und müssen einzeln gelernt werden. Zwar reichen die Ähnlichkeiten bei den Zehner- und Einerstellen aus, um die Zahl zu verstehen, aber nicht für eine aktive Beherrschung. Den Zahlen 19, 29, 39, 49, 59, 69 und 79 (aber nicht 89 und 99) liegt die Form "1 von 20, 1 von 30" usw. zugrunde.
0 śūnya 10 das 20 bīs 30 tīs
1 ek 11 gyārah 21 ikkīs 31 iktīs
2 do 12 bārah 22 bāīs 32 battīs
3 tīn 13 terah 23 teīs 33 tãitīs
4 cār 14 caudah 24 caubīs 34 cautīs
5 pā͂c 15 pãdrah 25 paccīs 35 pãitīs
6 chaḥ 16 solah 26 chabbīs 36 chattīs
7 sāt 17 sattrah 27 sattāīs 37 sãitīs
8 āṭh 18 aṭ(ṭ)hārah 28 aṭ(ṭ)hāīs 38 aŗtīs
9 nau 19 unnīs 29 untīs 39 untālīs
40 cālīs 50 pacās 60 sāṭh 70 sattar
41 iktālīs 51 ikyāvan 61 iksaṭh 71 ikahattar
42 bayālīs 52 bāvan 62 bāsaṭh 72 bahattar
43 tãitālīs 53 tirpan 63 tirsaṭh 73 tihattar
44 cauvālīs 54 cauvan 64 cãusaṭh 74 cauhattar
45 pãitālīs 55 pacpan 65 pãisaṭh 75 pacahattar
46 chiyālīs 56 chappan 66 chiyāsaṭh 76 chihattar
47 sãitālīs 57 sattāvan 67 saŗsaṭh 77 satahattar
48 aŗtālīs 58 aṭṭhāvan 68 aŗsaṭh 78 aţhahattar
49 uncās 59 unsaţh 69 unhattar 79 unāsī
80 assī 90 nabbe 100 (ek) sau
81 ikyāsī 91 ikyānave 101 ek sau ek
82 bayāsī 92 bānave 110 ek sau das
83 tirāsī 93 tirānave …
84 caurāsī 94 caurānave 1.000 (ek) hazār
85 pacāsī 95 pacānave 2.000 do hazār
86 chiyāsī 96 chiyānave …
87 satāsī 97 sattānave 100.000 ek lākh
88 aṭhāsī 98 aṭṭhānave 10 Mio. ek kroŗ
89 navāsī 99 ninyānave 100 Mio. ek arab
einmal ek bār
zweimal do bār
usw.
Für die Zahlen „hunderttausend“, „zehn Millionen“ und „hundert Millionen“ gibt es spezielle Begriffe. Statt 20 Mio. sagt man also do kroŗ, für fünfhunderttausend oder eine halbe Million pā͂c lākh. Die Zahlwörter Lakh und Crore (= kroŗ) sind auch im indischen Englisch geläufig.
Bruchzahlen
½ ādhā
1¼ savā (ek) 1½ ḍeŗh
2¼ savā do 2½ (a)ḍhāī
3¼ savā tīn 3½ sāŗhe tīn
4¼ savā cār 4½ sāŗhe cār
usw. usw.
paune … bedeutet ‚… minus ein Viertel‘, also paune do = 1¾, paune tīn = 2¾ und so weiter.
Adverbien
Hindi-Urdu hat wenig unabgeleitete Formen. Adverbien können auf folgende Arten gebildet werden:
Indem Substantive oder Adjektive in den Obliquus gesetzt werden: nīcā ‚niedrig‘ > nīce ‚unten‘, sīdhā ‚gerade‘ > sīdhe ‚geradeaus‘, dhīrā ‚langsam‘ > dhīre ‚langsam (auf langsame Weise)‘, saverā ‚Morgen‘ > savere ‚am Morgen‘, ye taraf ‚diese Richtung‘ > is taraf ‚in diese Richtung‘, kalkattā ‚Kalkutta‘ > kalkatte ‚nach Kalkutta‘.
Durch Postpositionen, zum Beispiel se: zor ‚Kraft‘ > zor se ‚kraftvoll, mit Kraft‘, dhyān ‚Aufmerksamkeit‘ > dhyān se ‚aufmerksam‘.
Postpositionale Phrasen": acchā gut > acchī tarah se gut, wohl, auf gute Art und Weise, xās besonders > xās taur par auf besondere Art und Weise.
Verben im Konjunktiv: hãs- ‚lachen‘ > hãs kar ‚lachend, gelacht habend‘.
Suffixe aus dem Sanskrit oder dem Perso-Arabischen in höheren Registern: skt. sambhava ‚möglich‘ > sambhavatah ‚möglicherweise‘; arab. ittifāq ‚Zufall‘ > ittifāqan ‚zufällig‘.
Satzbau
Konjunktionen
Nebenordnende Konjunktionen
‚und‘ aur, ewam, tathā
‚oder‘ yā; athvā (formell)
‚aber‘ magar, kintu, lekin, par(antu)
‚und wenn nicht; sonst‘ varnā
Unterordnende Konjunktionen
‚dass‘ ki
‚weil‘ kyõki, kyũki
‚obwohl‘ agar(a)ce, yadyapi
‚wenn‘ (temporal) jab
‚wenn, falls‘ agar, yadi
‚wenn doch nur‘ kāsh ki
‚als ob, wie wenn‘ mānõ
‚ob … oder‘ chāhe ... chāhe/yā"
‚um … zu‘ (siehe Abschnitt Infinitiv)
Zu den mit j- anlautenden Relativpronomen siehe Abschnitt Relativpronomen.
Satzstellung
Abweichend vom Deutschen gilt:
Alle Verben stehen hintereinander am Satzende (wie hoţel vahā~ hai (‚Hotel dort ist‘) ‚dort ist ein Hotel‘), auch bei Fragen und Befehlen. Eine Entscheidungsfrage ohne Fragepartikel kann daher nur an der Stimmführung erkannt werden (Hindi klingt im Ganzen relativ monoton).
Das indirekte steht immer vor dem direkten Objekt.
Meist gehen Interrogativpronomen und Negationen (nahī~/na/mat) in dieser Reihenfolge dem Verb voraus.
kyā (‚Was?‘) zur Kennzeichnung einer Entscheidungsfrage steht am Satzanfang; ansonsten werden Interrogativpronomen nicht bewegt (wie hoţel kahā~ hai? (‚Hotel wo ist‘) ‚Wo gibt es ein Hotel?‘).
kripayā ‚bitte‘ steht am Satzanfang; es wird jedoch weit weniger verwendet als im Deutschen.
Sprachtypus
Hindi/Urdu ist also eine im Wesentlichen agglutinierende SOV-Sprache mit gespaltener Ergativität, die in Bezug auf die beiden Genuskategorien (maskulin und feminin), unterschiedliche Pluralbildungen und unregelmäßige Verbformen Überreste eines einstmals flektierenden Charakters bewahrt hat. Ein polysynthetischer Zug entsteht aus der Tendenz zur Verwendung attributiver Wortgruppen statt der Ausnutzung der vorhandenen Relativpronomen. Hindi kennt sowohl rechts- als auch links-verzweigende Phänomene, häufig kommen Abweichungen von der Normalwortstellung vor.
Beispielsätze
Typisch für Hindi ist die Genitivbildung durch den Possessivartikel kā (Maskulin Singular)/ kī (Feminin)/ ke (Maskulin Plural):
उस आदमी का बेटा विद्यार्थी है |
/us ādmī kā beţā vidyārthī hai/
[]
(wörtlich: dieserOBL MannOBL von Sohn Student ist)
Der Sohn dieses Mannes ist Student.
Das indirekte und zuweilen auch das direkte Objekt werden mit ko gebildet:
बच्चे को दूध दीजिए |
/bacce ko dūdh dījiye/
[]
(wörtlich: KindOBL dem Milch geben-Sie.)
Geben Sie dem Kind Milch!
Verhältniswörter werden im Hindi nachgestellt, daher werden sie als Postpositionen bezeichnet:
मकान में सात कमरे हैं |
/makān mẽ sāt kamre hãi/
[]
(wörtlich: HausOBL in sieben Zimmer sind.)
Im Haus sind sieben Zimmer.
Die Konjugation erfolgt in den meisten Formen durch Hilfsverben. Zum Beispiel wird die Verlaufsform mit dem Hilfsverb rahnā "gerade dabei sein" gebildet. Das Hilfsverb steht hinter dem Verb und kann in manchen Zeiten selbst konjugiert werden:
लड़के बग़ीचे में खेल रहे हैं |
/laŗke baġīce mẽ khel rahe hãi/
[]
(wörtlich: Jungen GartenOBL in spiel gerade-dabei-seiende sind.)
Die Jungen spielen gerade im Garten.
namaste (Allgemeine Begrüßung und Verabschiedung)
āp kaise hãi? ‚Wie geht es Ihnen?‘
mãi ţhīk hũ ‚Mir geht es gut.‘
... kahã hai? ‚Wo ist …?, Wo gibt es …?‘
sab kuch ţhīk hai! ‚Alles ist in Ordnung!‘
Literatur
Narindar K. Aggarwal: A Bibliography of Studies on Hindi. Language and Linguistics. Indian Documentation Service, Gurgaon, Haryana, 1985.
Margot Gatzlaff-Hälsing: Grammatischer Leitfaden des Hindi. Helmut Buske Verlag, Hamburg 2003, ISBN 978-3-87548-331-4.
Margot Gatzlaff-Hälsing: Wörterbuch Deutsch-Hindi. Helmut Buske Verlag, Hamburg 2000, ISBN 978-3-87548-247-8.
Margot Gatzlaff-Hälsing (Hrsg.): Handwörterbuch Hindi-Deutsch. Helmut Buske Verlag, Hamburg 2002, ISBN 3-87548-177-1.
Kadambari Sinha: Konversationskurs Hindi. Helmut Buske Verlag, Hamburg 2007, ISBN 978-3-87548-488-5.
Rainer Krack: Kauderwelsch – Hindi Wort für Wort. Reise Know-How Verlag, Bielefeld 2007, ISBN 978-3-89416-084-5.
R.S. McGregor: The Hindi-English Dictionary. Oxford University Press, Oxford 1997, ISBN 978-0-19-864339-5.
Rupert Snell: Teach Yourself Hindi. McGraw-Hill Companies, 2003, ISBN 978-0-07-141412-8.
Ines Fornell, Gautam Liu: Hindi bolo! Hempen Verlag Bremen 2012, ISBN 978-3-934106-06-2. 2 Bände
Hindi ohne Mühe Assimil GmbH 2010, ISBN 978-3896250230
Hedwig Nosbers, Daniel Krasa: Einstieg Hindi für Kurzentschlossene. Hueber Verlag 2009, ISBN 978-3190054374
Visuelles Wörterbuch Hindi-Deutsch. Dorling Kindersley Verlag 2012, ISBN 978-3831091119
Einzelnachweise
Weblinks
„Hindi speaking tree“, ein Hindi-Onlinekurs für Anfänger (englisch)
Urdu
Einzelsprache
|
Q1568
| 1,881.079784 |
3271
|
https://de.wikipedia.org/wiki/Mai
|
Mai
|
Der Mai (von mittelhochdeutsch meie: der Monat ‚Mai‘, auch ‚Frühling‘) ist der fünfte Monat des Jahres im gregorianischen Kalender. Er hat 31 Tage.
Benannt ist dieser Monat – so die Zeugnisse einer Reihe lateinischer Autoren – nach der römischen Göttin Maia, welcher der Flamen Volcanalis am ersten Tag dieses Monats ein Opfer darbrachte. Das Zustandekommen der Gleichsetzung dieser – laut Gellius – altverehrten Göttin „Maia Vulcani“ (wohl als „Frau des Vulcanus“ zu denken) mit der Göttin Bona Dea und Terra – nach Macrobius – oder einer Plejade und der Mutter des Hermes/Mercurius ist unklar; doch gilt die etymologische Zuordnung zur Wortwurzel *mag (und damit zu Wachstum und Vermehrung) als sicher. Damit ist der mensis Maius in das ursprüngliche römische Bauernjahr eingeordnet. Einen lediglich lokal verehrten Gott „Maius, qui est Iuppiter“ kennt Macrobius. Zur Regierungszeit Kaiser Neros wurde der Monat in Claudius umbenannt, einer der Namen des Kaisers, der sich allerdings nicht durchsetzte. Unter Kaiser Commodus hieß der Monat dann Lucius, wiederum einer seiner Namen, auch diese Umbenennung wurde nach dem Tod des Kaisers wieder rückgängig gemacht.
Im vorjulianischen römischen Kalender war der Maius der dritte Monat, im julianischen Kalender der fünfte, jeweils mit 31 Tagen.
Im katholischen Kirchenjahr ist der Mai besonders der Verehrung der Gottesmutter Maria gewidmet (Marienbrauchtum im Mai), weshalb er in diesem Umfeld auch als Marienmond bezeichnet wird.
Der Mai beginnt mit demselben Wochentag wie der Januar des Folgejahres, aber kein anderer Monat desselben Jahres beginnt mit demselben Wochentag wie der Mai.
Der erste Mai ist der internationale Feiertag (in Deutschland: gesetzlicher Feiertag) der Arbeiterbewegung. Am zweiten Sonntag im Mai ist in deutschsprachigen Ländern Muttertag.
Karl der Große führte im 8. Jahrhundert den Namen Wonnemond ein (eigentlich althochdeutsch „wunnimanot“ = Weidemonat), der darauf hinweist, dass man in diesem Monat das Vieh wieder auf die Weide treiben konnte. Mit „Wonne“ im heutigen Begriffszusammenhang hat der alte Monatsname also eigentlich nichts zu tun. Doch findet sich dieses Missverständnis schon zu Beginn der Neuzeit und des Neuhochdeutschen. Laut Deutsches Wörterbuch der Brüder Grimm s. v. WONNEMONAT erklärt Basilius Faber 1587 [sic!]: „maius, der may, a frondibus Carolus Magnus den wonnemonat, id est mensem amoenitatis olim nuncupavit“ („maius, der may, nach dem Laub benannte einst Karl der Große den wonnemonat, d. h. den Monat der Lieblichkeit“).
Ebenso erhielt der Mai die Bezeichnung Blumenmond wegen der Hauptblütezeit der meisten Pflanzen.
Nach alter Überlieferung darf man sich der zunehmenden Wärme erst nach den so genannten Eisheiligen vom 11. Mai bis zum 15. Mai (nach heutigem Kalender eine gute Woche später) sicher sein.
Etwa seit dem 13. Jahrhundert wird der Mai in Europa mit Maifeiern, -umgängen und -ritten gefeiert, in vielen Gegenden Deutschlands und Österreichs ist das Aufstellen oft imposanter Maibäume gewachsenes Brauchtum; länger schon existierten Feste wie Beltane oder Walpurgisnacht.
Siehe auch
Bewegliche Feiertage | Bewegliche Gedenktage
Historische Jahrestage | Zeitskala
Wetter- und Bauernregeln für den Mai
Weblinks
Anmerkungen
Monat des gregorianischen und julianischen Kalenders
|
Q119
| 2,614.825029 |
404012
|
https://de.wikipedia.org/wiki/Standardisierung
|
Standardisierung
|
Standardisierung ist in Technik und Wirtschaft die Vereinheitlichung von Bauteilen, Fertigungsverfahren, Maßeinheiten, Prozessen, Strukturen, Typen oder Gütern und Dienstleistungen. Gegensatz ist die Individualisierung.
Wirtschaft
Allgemeines
Wettbewerber bieten Produkte oder Dienstleistungen ähnlicher Funktionalität oder Zweckbestimmung an, ohne diese zunächst mit anderen Wettbewerbern zu harmonisieren. Ergebnis ist eine Vielzahl ähnlicher Produkte oder Dienstleistungen, die der Verbraucher kaum voneinander unterscheiden kann. Es fehlt häufig die Kompatibilität, was beispielsweise die Austauschbarkeit von Baugruppen oder Komponenten behindert. Diese Austauschbarkeit wird beim Lock-in-Effekt sogar verhindert, um die Kundenbindung zu erhöhen. So kam beispielsweise im März 1954 die farbige Version der US-amerikanischen Fernsehnorm NTSC auf den Markt, deren Standard sich in Europa, Asien und Australien jedoch nicht durchsetzte. Hier etablierte sich entweder im Januar 1963 das deutsche System PAL oder das im Oktober 1967 vorgestellte französische Farbsystem SECAM. Die unterschiedlichen Fernsehnormen sorgten dafür, dass Fernsehgeräte nur für eine Fernsehnorm tauglich waren.
Durch Standardisierung sollen diese Variationen vermindert werden. Ziel ist es, vorhandene Variationen auf eine überschaubare Anzahl zu reduzieren. Standardisierung ist deshalb ein Selektionsprozess bei einem Hersteller, und ein Koordinationsprozess, wenn mehrere Hersteller beteiligt sind. Dazu müssen auch unterschiedliche Arbeitsabläufe angepasst und das zweckmäßigste Arbeitsergebnis ermittelt werden. Mit der Vereinheitlichung und der Vorstrukturierung von Abläufen werden quantitative Ziele verfolgt, wobei Kosten, Qualität und Zeit zentrale Kriterien darstellen. Die Standardisierung führt zur Erhöhung der Markttransparenz und zur Kostensenkung (bei Herstellungskosten, Informationskosten, Transaktionskosten, Versandkosten, Vertriebskosten, Wechselkosten).
Arten
Es gibt die faktische, institutionelle und legislative Standardisierung. Faktische Standardisierung liegt vor, wenn die Auswahl eines Standards den Marktteilnehmern überlassen bleibt. Von institutioneller Standardisierung wird gesprochen, wenn sie im Rahmen anerkannter internationaler Standardisierungsorganisationen wie etwa der International Organization for Standardization (ISO), der International Electrotechnical Commission (IEC), dem American National Standards Institute (ANSI) oder dem Deutschen Institut für Normung (DIN) stattfindet. Um legislative Standardisierung handelt es sich, wenn der Staat bestimmte Spezifikationen in Gesetzen verbindlich regelt.
Produktion
Die Standardisierung in der Produktion erfolgt vor allem durch Normung (Vereinheitlichung von Erzeugnisteilen) und Typung (Vereinheitlichung von Erzeugnissen). Vorteile für den Hersteller sind Vereinfachungen im Produktionsprozess, bei der Lagerhaltung und für den Käufer einfachere Bestellungen. Besonders in der Massenproduktion lohnt sich eine Standardisierung, die auch helfen kann, Lean Production zu fördern. Ziel ist die Vereinheitlichung von Produkten und Dienstleistungen, Ergebnis ist der Standard. Durch Normung und Standardisierung kann auf dem Weltmarkt ein größerer Wettbewerbsvorteil durch Kostenführerschaft entstehen. So gibt es mittlerweile Konzepte zur Entwicklung von Standardisierungssoftware als stand-alone Lösung oder eingebettet in das firmeninterne Informationssystem.
Organisation und Rechnungswesen
Ein Stellenplan kann in der Ablauforganisation zur Standardisierung von Stellen, Aufgaben und Funktionen in einem Unternehmen beitragen. Standardisierbar ist auch der Führungsstil im Rahmen der Personalführung. In diesen Organisationsgebieten kann die Standardisierung zum Lean Management beitragen.
Einheitliche Standards im Rechnungswesen sorgen national (Handelsgesetzbuch) und international (International Financial Reporting Standards) für eine Vereinheitlichung der Rechnungslegung (Bilanzen und Gewinn- und Verlustrechnung, Geschäftsbericht).
Börsen
Wertpapier- und insbesondere Warenbörsen verlangen eine hohe Standardisierung der Handelsobjekte. Grund ist vor allem, dass die Käufer die Handelsobjekte nicht wie im Präsenzhandel sehen können und bei ihrer Kaufentscheidung darauf vertrauen müssen, dass die angebotenen Handelsobjekte in ihrer jeweiligen Gattung identisch sind. Die Standardisierung umfasst die Mengeneinheit (Nennwert, Stückaktien/Nennbetragsaktien, Commodities in quantitativ festgelegten Einheiten) und Art (Produktqualität) des Kontraktgegenstands.
Marketing
Im Marketing werden Produkte oder Dienstleistungen durch die Standardisierung an die durchschnittlichen Kundenerwartungen angepasst. Neben der Standardisierung von Produkten oder Dienstleistungen können die Marketinginstrumente und Markennamen standardisiert werden. So hat Marlboro sein Logo international standardisiert, Nivea tritt dagegen differenziert auf; mit unterschiedlichem Markennamen erscheint Langnese (auch „Eskimo“ oder „Algida“), während Nivea auch den Markennamen differenziert („Glorix“, „Wega“, „Klorin“).
Technik
Ein Industriestandard ist in der Technik eine bestimmte Ausführungsform bzw. Spezifikation eines Gegenstandes, die sich gegen eine Vielzahl ähnlicher Spezifikationen durchgesetzt und folglich als Maßstab etabliert hat. Die Standardisierung in der Technik gestaltet sich häufig sehr schwierig. So umfasst die Standardisierung des Mobilfunks in das Global System for Mobile Communications (GSM) mehrere tausend Seiten an Spezifikationen. Die computer- und netzbasierte Interaktion von Akteuren erfordert Kompatibilität auf der Ebene der Kommunikationsnetze, der Information und Kommunikationsdienste und der Syntaktik. Im technologischen Kontext spricht man von einem Dominant Design, wenn sich eine Technologie als Standard durchgesetzt hat. Dabei setzt sich nicht immer der technologisch beste Standard durch, sondern derjenige, der vom Markt als erstes als Standard akzeptiert wird. Berühmte Beispiele sind hier Blu-Ray vs. HD-DVD oder Betamax von Grundig gegen das japanische VHS System. Aktuell lassen sich solche Standardisierungswettbewerbe auch bei Elektrofahrzeugen beobachten.
Umweltschutz
Standardisierte Produktzertifizierungen, wie z. B. für Bio-Lebensmittel, Gebäude oder möglicherweise nachhaltige Fischereierzeugnisse, sowie standardisierte Verfahren zur Bewertung und Zulassung von Produkten (z. B. Regulierung von Chemikalien, Kosmetika und Lebensmittelsicherheit) können die Umwelt schützen. Diese Wirkung kann von den damit verbundenen modulierten Verbraucherentscheidungen, die Effektivität und Art dieser Modulierung (e.g. durch Webung oder veränderte soziale Normen), der strategischen Produktförderung/-behinderung (e.g. eco-Tarife, Importverbote, Subventionen, Verfügbarkeitsregulierungen, Unternehmensregulierungen), den Anforderungen sowie deren Übereinstimmung mit einer wissenschaftlichen Grundlage, der Robustheit und Anwendbarkeit einer wissenschaftlichen Grundlage, der Freiwilligkeit der Übernahme der Zertifizierungen und dem sozioökonomischen Kontext (Regierungs- und Wirtschaftssysteme) abhängen, wobei die meisten gegenwärtigen Zertifizierungen bezüglich dem Erreichen von Klima- und Nachhaltigkeitszielen möglicherweise bisher weitgehend unwirksam sind.
Darüber hinaus können standardisierte wissenschaftliche Frameworks die Bewertung des Umweltschutzniveaus, z. B. von Meeresschutzgebieten, ermöglichen und, als etwa als 'living documents', für die Verbesserung, Planung und Überwachung der Schutzqualität, -umfänge und -bereiche dienen. Auch etwa die Luftqualität kann auf ähnliche Weise bewertet werden.
Darüber hinaus könnten technische Standards zur Verringerung von Elektroschrott und zur Senkung des Ressourcenbedarfs beitragen, indem sie die Interoperabilität, Kompatibilität, Langlebigkeit, Energieeffizienz, Modularität, Aufrüstbarkeit/Reparierbarkeit und Wiederverwertbarkeit von Produkten sowie die Einhaltung vielseitiger, optimaler Normen und Protokolle gewährleisten. Die Standardisierungsdomäne beschränkt sich nicht auf elektronische Geräte wie Smartphones und Ladegeräte, sondern könnte z. B. auch Elemente der Energieinfrastruktur umfassen. Politische Entscheidungsträger könnten Maßnahmen entwickeln, „die Standarddesign und -schnittstellen fördert und die Wiederverwendung von Modulen und Komponenten in verschiedenen Anlagen vorantreibt, um eine nachhaltigere Energieinfrastruktur zu entwickeln“. Computer und das Internet sind einige der Werkzeuge, die eingesetzt werden könnten, um die Praktikabilität zu erhöhen und suboptimale Ergebnisse, nachteilige Standards und Bürokratie – die oft mit traditionellen Prozessen und Ergebnissen der Standardisierung verbunden sind – zu reduzieren bzw. zu verhindern. Besteuerung und Subventionen sowie die Finanzierung von Forschung und Entwicklung könnten ergänzend eingesetzt werden.
Ergonomie, Arbeitsplatz und Gesundheit
In einigen Fällen werden Standards für die Gestaltung und den Betrieb von Arbeitsplätzen sowie für Produkten verwendet, die sich auf die Gesundheit von Verbrauchern auswirken können. Einige dieser Standards zielen darauf ab, die Sicherheit und Gesundheit am Arbeitsplatz und Ergonomie zu gewährleisten. So könnten z. B. Stühle (siehe z. B. aktives Sitzen und Schritte der Forschung) möglicherweise anhand von Standards entworfen und ausgewählt werden, die auf angemessenen wissenschaftlichen Daten beruhen könnten. Standards könnten die Produktvielfalt verringern und zu einer Annäherung an weniger breit gefächerte optimalere Designs – die etwa durch gemeinsam geteilte automatisierte Verfahren und Instrumente effizient in Massenproduktion hergestellt werden können – oder zu Formulierungen führen, die als die gesündeste, effizienteste oder als bester Kompromiss zwischen Gesundheit und anderen Faktoren identifiziert wurden. Standardisierung kann auch genutzt werden, um den Gesundheitsschutz der Verbraucher über den Arbeitsplatz und Ergonomie hinaus zu gewährleisten oder zu verbessern, wie z. B. bei Standards für Lebensmittel, Lebensmittelherstellung, Hygieneprodukten, Trinkwasser, Kosmetika, Arzneimittel/Pharmazeutika, Getränke und Nahrungsergänzungsmittel, insbesondere in Fällen, in denen es solide wissenschaftliche Daten gibt, die auf schädliche Auswirkungen auf die Gesundheit (z. B. von Inhaltsstoffen) hindeuten, obwohl diese substituierbar und nicht immer im Interesse der Verbraucher sind. Beispielsweise enthält die Trinkwasserverordnung Schutzvorschriften – standardisierte Grenzwerte, Parameter, Vorschriften und Prüfprozesse – für Trinkwasser.
Produktanalysen und -tests
Bei routinemäßigen Produkttests und Produktanalysen (v. a. Lebenszyklusanalysen und Technologie-Analysen) können die Ergebnisse anhand offizieller oder informeller Normen mitgeteilt werden. Sie können durchgeführt werden, um den Verbraucherschutz zu erhöhen und die Sicherheit, Gesundheit, Effizienz, Performance oder Nachhaltigkeit von Produkten zu gewährleisten. Sie können vom Hersteller, einem unabhängigen Labor, einer Regierungsbehörde, einer Zeitschrift oder anderen auf freiwilliger oder mandatierten Basis durchgeführt werden.
Sicherheit
Symbole
Symbole zur Information der Öffentlichkeit (z. B. Gefahrensymbole), insbesondere im Zusammenhang mit der Sicherheit, sind häufig genormt, manchmal auch auf internationaler Ebene.
Biologische Sicherheit
Zur Gewährleistung der biologischen Sicherheit bei Betrieb von Laboratorien und ähnlichen, potenziell gefährlichen, Arbeitsplätzen gibt es verschiedene Standards. Es wird an mikrobiologischen Sicherheitsstandards, die in klinischen und Forschungslaboratorien verwendet werden, geforscht.
Sprachwissenschaft
In der Sprachwissenschaft bedeutet Standardisierung die Herausbildung und manchmal auch gezielte Konstruktion einer Standardsprache, die an die Stelle mehrerer bisheriger Schreibvarietäten beziehungsweise bei Fehlen von solchen auch als Dachvarietät der verschiedenen Dialekte tritt. Während Sprachen wie Deutsch oder Englisch einen langen Weg zu einer gemeinsamen Schriftsprache kennen, sind Nynorsk, Rumantsch Grischun und Ladin Dolomitan Beispiele für von Linguisten ausgearbeitete Standardisierungen.
Psychologie
In der Psychologischen Diagnostik versteht man darunter die Vereinheitlichung der Durchführung (sowohl das Testmaterial als auch die Durchführungsbedingungen), Auswertung, und Interpretation psychologischer Testverfahren zur Erfüllung des Testgütekriteriums der Objektivität. Je nach dem Grad spricht man von vollstandardisierten oder teilstandardisierten Tests (z. B. wenn die Fragen vorgegeben sind, Antworten frei erfolgen und die Bewertungskriterien wiederum einheitlich sind). Dies ist zu unterscheiden von der Standardisierung der Parameter als Ergebnisse der Tests, was zur besseren Abgrenzung Normierung genannt wird.
Implantologie
Auch in der besonders individuell geprägten dentalen Implantologie kann heutzutage auf eine Standardisierung nicht verzichtet werden. Man versteht hierunter z. B. Angaben zum Implantatkörper- und Werkstoff, Informationen zur Darreichung, Planungshilfen und chirurgische Instrumente. Zu den relevanten Standardangaben gehören Punkte wie empfohlene Suprakonstruktionen oder eine klinische Bewertung erhobener Daten.
Siehe auch
Standardisierungsproblem
UNGEGN
Literatur
Roland Wenzlhuemer: Die Geschichte der Standardisierung in Europa. In: Europäische Geschichte Online, hrsg. vom Institut für Europäische Geschichte (Mainz), 2010, abgerufen am 13. Juni 2012.
Weblinks
Frank Straube: Aktuelle Situation der RFID-Standardisierung (PDF; 352 kB) mit Definitionen und Begriffsabgrenzungen
Einzelnachweise
Betriebswirtschaftslehre
|
Q369577
| 291.370328 |
48537
|
https://de.wikipedia.org/wiki/Seidenspinner
|
Seidenspinner
|
Der Seidenspinner oder Maulbeerspinner (Bombyx mori) ist ein ursprünglich in China beheimateter Schmetterling aus der Familie der Echten Spinner (Bombycidae).
Die Seidenraupe wurde vom Wildseidenspinner (Bombyx mandarina) domestiziert, der in Nordindien, Nordchina, Korea, Japan und den fernöstlichen Regionen Russlands beheimatet ist. Die domestizierte Seidenraupe stammt eher aus China als aus Japan oder Korea.
Der Mensch nutzte schon früh die Fähigkeiten der Raupen des Seidenspinners, der „Seidenraupen“, zur Erzeugung von Seide; bereits vor 5000 Jahren wurden in China Seidenraupen gezüchtet. Durch die Verbreitung der Seidenherstellung (Seidenbau) wurde er bis heute auch außerhalb seines ursprünglichen Lebensraumes verbreitet, unter anderem in Südeuropa.
Seidenspinner
Der Seidenspinner ist 32 bis 38 Millimeter breit, mehlweiß oder perlgrau, besitzt blass gelbbraune Querstreifen auf den Flügeln und schwärzlich gekämmte Fühler (Antennen).
Die Paarung der Schmetterlinge dauert sechs bis acht Stunden. Danach legt das Weibchen in wenigen Tagen zirka 400 Eier und stirbt anschließend. Die zunächst gelben Eier werden bald dunkler und schließlich grau. Sie sind dann oval, abgeflacht, 1 bis 1,5 Millimeter lang und schiefergrau gefärbt, wobei die Farbe zum Teil ins Bläuliche, Violette oder Grünliche spielt. Unbefruchtete Eier bleiben gelb und trocknen aus. Aus den befruchteten Eiern schlüpfen nach dem Überwintern die Seidenraupen.
Als Seidenspinner werden auch verschiedene andere Schmetterlingsarten bezeichnet, die ebenfalls zur Gewinnung von Seide genutzt werden, darunter etwa der Götterbaum-Spinner (Samia cynthia), welcher sich von den Blättern des Götterbaumes (Ailanthus altissima) ernährt.
Folgende Arten werden als Seidenspinner bezeichnet:
Seidenspinner (Bombyx mori) nebst Raupe, Gespinst und Eiern
Hyalophora cecropia
Chinesischer Eichenseidenspinner (Antheraea pernyi)
Japanischer Eichenseidenspinner (Antheraea yamamai)
Antheraea mylitta, A. roylei, A. proyeli, A. paphia, A. frithi
Antheraea assama
Götterbaum-Spinner (Samia cynthia)
Atlasspinner (Attacus atlas)
Circula trifenestrata
Gonometa postica, Gonometa rufobrunnea
Anaphe panda (Syn.: Anaphe infracta), Anaphe moloneyi (Syn.: Epanaphe moloneyi) u. a.
Seidenraupen
Die Seidenraupe ist die Larve des Seidenspinners. Die Raupe wird nach der ersten Häutung perlgrau, teils ins Bräunliche, teils ins Gelbliche neigend. Einige Formen sind schwärzlichgrau oder samtschwarz oder am ganzen Körper dunkel quergestreift. Das elfte Körpersegment besitzt auf der Rückenseite einen Hautzapfen (Sporn), und vom Kopf bis zu diesem Zapfen verläuft ein bläulichgraues Band, dem Rückengefäß oder Herzen entsprechend. Auf der Rückenseite des dritten und achten Ringes finden sich zwei halbmondförmige Flecken, welche aber bei einigen Rassen fehlen.
Die Seidenraupe häutet sich viermal, und 30 bis 35 Tage nach dem Ausschlüpfen aus dem Ei ist sie spinnreif. Die Spinndrüsen der Raupe bestehen aus einem vielfach gewundenen Schlauch, dessen hinterer Teil die aus Proteinen bestehende Seidensubstanz absondert. Das Seidenmaterial wird durch dünne Ausführungsgänge zu der im Kopf gelegenen Spinnwarze und von dort aus dem Körper geleitet. Die aus der Spinnwarze austretende Substanz erhärtet an der Luft sofort zu einem Faden. Indem die Raupe beim Austreten des Materials gezielte Kopfbewegungen macht, legt sie Fadenwindung für Fadenwindung um sich herum. Nach dem anfänglichen Ausstoß einer unregelmäßigen, lockeren Fasermasse, der „Wattseide“, ist sie in kurzer Zeit von einem dichten Seidengespinst, dem Kokon, eingeschlossen. Dieser Kokon besteht aus einem einzigen bis zu 900 Meter langen Faden. Der Kokon ist länglich-oval, bei den einheimischen Rassen strohgelb, bei den japanischen Rassen grünlich, bei den Weißspinnern weiß. Acht Tage nach dem Einspinnen verpuppt sich die Seidenraupe, nach weiteren acht Tagen schlüpft der Schmetterling, wobei er den Kokon durch eine bräunliche Flüssigkeit an einer Stelle auflöst.
Krankheiten
Die Seidenraupe ist recht anfällig gegen parasitäre Erkrankungen (wohl eine Folge der langen Domestikation):
Flecksucht (Pébrine-Krankheit, Nosemose), hervorgerufen durch die Mikrosporidie Nosema bombycis;
Kalksucht, hervorgerufen durch den Schimmelpilz Botrytis bassiana (oder Beauveria bassiana);
Gelbsucht (Polyederkrankheit, Borreliose), hervorgerufen durch die Borrelie Borrelina bombycis;
Schlaffsucht (Flacherie, ungeklärte Ursache).
Außerdem sind verschiedene Insekten (hauptsächlich Käfer und Falter) als Seidenraupenschädlinge bekannt.
Nutzung zur Seidengewinnung
Siehe Serikultur und Seide.
Rohseide
Der Mensch macht sich die Fähigkeit der Seidenraupe für die Erzeugung von Seidengarn zunutze. Um das Garn zu gewinnen, werden die Puppen etwa am zehnten Tag nach Fertigstellung des Kokons mit kochendem Wasser oder heißem Dampf getötet. Der Spinnfaden wird vorsichtig abgewickelt und vor der Weiterverarbeitung in der Seidenweberei sorgfältig gereinigt.
Erzeugerländer
Die Raupen werden zur Gewinnung von Seide in China, Kambodscha, Vietnam, Japan, Indien, Südeuropa und seit den 1950er-Jahren durch japanische Einwanderer in Brasilien gezüchtet. Brasilien ist heute dank der industriellen Produktion und hervorragender klimatischer Bedingungen ein bedeutendes Erzeugerland für Seide. Durch Kreuzungen erhält man bei den Seidenfäden unterschiedliche Farben, wie etwa goldgelbe und andere Nuancen. Die Raupen ernähren sich ausschließlich von den Blättern der Maulbeerbäume, die für ihre Zucht kultiviert und auch nach Europa importiert wurden.
Nutzung als Lebensmittel
In Asien werden Seidenspinner als Speiseinsekten genutzt: Wo es Seidenproduktion gibt, werden die in den Kokons enthaltenen Larven des Seidenspinners nach dem Kochen der Kokons als Nahrungsmittel weiterverwertet.
Wissenschaftliche Bedeutung
Der Seidenspinner Bombyx mori war Forschungsobjekt des Biochemikers Adolf Butenandt. 1959 entdeckte er dessen Sexuallockstoff Bombykol. Das Genom des Seidenspinners wurde 2004 sequenziert.
Es wurden verschiedene transgene Seidenraupen gezüchtet, entweder um die Seidenqualität zu verbessern oder um fluoreszierende Seide zu erzeugen, auch um menschliches Kollagen daraus zu gewinnen.
Sonstiges
Aus den Spinndrüsen der Raupe, welche die embryonale Seide enthält, wird Silkwormgut hergestellt. Dieses wurde (wird wieder) als medizinisches Nahtmaterial verwendet, auch wird es in der Fliegenfischerei verwendet.
Die britische Elektro-Pop-Gruppe The Human League widmete dem Todeskampf der Seidenraupenpuppe 1978 den Song Being Boiled. Der Anfang lautet ins Deutsche übersetzt in etwa: „Hört auf Buddhas Stimme, die sagt: Hört auf mit der Seidenraupenzucht! Kleine Leute (gemeint sind die Seidenraupenpuppen) wie euer eigener Nachwuchs werden lebendig gekocht für irgendjemandes Socken“.
Literatur
Friedrich Haberlandt: Kurze Anleitung zur Aufzucht der gemeinen Seidenraupe. Görtz, 1871, .
Friedrich Haberlandt: Der Seidenspinner des Maulbeerbaumes, seine Aufzucht und seine Krankheiten. VDM, Saarbrücken 2007, ISBN 978-3-8364-1729-7 (Nachdruck der Ausgabe Wien 1871).
Luciano Pigorini, Fritz Bock: Die Seidenspinner: Ihre Zoologie, Biologie und Zucht. Springer, Berlin 1938, Nachdruck 2014, ISBN 978-3-642-91274-0.
Weblinks
Seidenspinner. In: Portal für Schmetterlinge/Raupen. (Fotos)
Einzelnachweise
Echte Spinner
Organismus mit sequenziertem Genom
Herstellung von Seide
Nutzinsekt
Speiseinsekt
|
Q134747
| 111.553313 |
11004
|
https://de.wikipedia.org/wiki/Septuaginta
|
Septuaginta
|
Die Septuaginta (lateinisch für siebzig, ‚Die Übersetzung der Siebzig‘, Abkürzung LXX), auch griechisches Altes Testament genannt, ist die älteste durchgehende Übersetzung der hebräisch-aramäischen Bibel in die altgriechische Alltagssprache, die Koine. Die Übersetzung entstand ab etwa 250 v. Chr. im hellenistischen Judentum, vorwiegend in Alexandria. Die meisten Bücher waren bis etwa 100 v. Chr. übersetzt, die restlichen Bücher folgten bis 100 n. Chr.
Überblick und Bedeutung
Ursprünglich bezog sich die Bezeichnung Septuaginta lediglich auf die Übersetzung der Tora (der fünf Bücher Mose). Später wurde der Begriff auf alle Versionen des griechischen Alten Testaments ausgeweitet. In dieser späteren Form enthält die Septuaginta alle Bücher der Hebräischen Bibel wie auch einige zusätzliche apokryphe und deuterokanonische Bücher.
Die Septuaginta ist heute hauptsächlich als christliche Schriftüberlieferung erhalten. Von den frühen jüdischen Übersetzungen sind nur wenige Handschriftenfragmente überliefert.
Die Septuaginta ist eine der größten Leistungen des Frühjudentums. Sie war das zentrale Medium der Verbindung des griechisch sprechenden Judentums mit den ursprünglichen Glaubenstraditionen, wie sie in den hebräischen heiligen Schriften überliefert waren. Neben dem Gebrauch in den Gemeinden wurde die Septuaginta die Grundlage für theologische und historische Werke (Philon von Alexandria, Flavius Josephus) und auch für zahlreiche neue Schriften (unter anderem die sogenannten Apokryphen), die im griechischsprachigen Judentum entstanden. Durch die ca. 400 Zitate aus der Septuaginta gehört auch das Neue Testament in die Wirkungsgeschichte der Septuaginta. Die Septuaginta spiegelt an vielen Stellen die frühjüdische Schriftauslegung und beeinflusste ihrerseits auch wieder rabbinische Traditionen.
Im 1. Jahrhundert v. Chr. setzte eine Revision ein, bei der die Wortwahl vereinheitlicht und der griechische Text in formaler Hinsicht (zum Beispiel Wortfolge) an den hebräischen Bibeltext (in der zu dieser Zeit geltenden Fassung) angepasst wurde (die sog. kaige-Rezension). Diese formale Anpassung (die in den verschiedenen biblischen Büchern unterschiedlich intensiv durchgeführt wurde) führte zum Teil zu einem etwas merkwürdigen Griechisch. Noch weiter in diese Richtung ging die Bearbeitung bzw. neue Übersetzung durch Aquila in der ersten Hälfte des 2. Jahrhunderts n. Chr., die trotz bzw. wegen ihrer sprachlichen Befremdlichkeiten geschätzt wurde, weil sie dem Hebräischen (formal) besonders nahestand. Beide Versionen des griechischen Textes waren im Griechisch sprechenden Judentum bis ans Ende der Antike in Gebrauch. Erst am Ende der Antike wurde unter palästinisch- bzw. babylonisch-rabbinischem Einfluss das Griechische durch das Hebräische als gottesdienstliche Sprache verdrängt. Das manchmal zitierte Diktum, dass der Tag der Übersetzung der Thora ins Griechische ein Unglückstag für das Judentum gewesen sei, stammt erst aus dem 8. Jahrhundert, und zwar aus dem babylonischen Judentum (nachtalmudischer Traktat Soferim 1,7).
Im Mittelalter und in der Neuzeit wurde die Septuaginta (wie auch die anderen griechischen Übersetzungen) weithin ignoriert, nicht nur weil sie im christlichen Bereich verwendet wurde, sondern auch weil man sich für die jüdische Identität ganz auf das Hebräische konzentrierte. Die gegenwärtigen Stellungnahmen sind unterschiedlich. Einerseits werden manchmal veraltete, ablehnende Stellungnahmen nachgedruckt, andererseits gibt es viele jüdische Septuagintaforscher, und das Geleitwort zur neuen deutschen Übersetzung der Septuaginta unterzeichnete 2007 Landesrabbiner Henry G. Brandt für die Allgemeine Rabbinerkonferenz Deutschlands (neben Repräsentanten der EKD, der Deutschen Bischofskonferenz und der Orthodoxen Kirche in Deutschland).
Name
Die Bibelübersetzung wird seit dem legendarischen Aristeasbrief (um 130 v. Chr.) traditionell mit dem lateinischen Zahlwort septuaginta für „siebzig“ benannt. Der Name folgt damit der griechischen Eigenbezeichnung („gemäß den Siebzig“). Das Werk wird oft mit der römischen Zahl LXX oder dem Buchstaben abgekürzt.
Der Legende nach übersetzten 72 jüdische Gelehrte in Alexandria die Tora (fünf Bücher Mose) in 72 Tagen aus dem Hebräischen ins Griechische. Dabei soll jeder Übersetzer für sich selbst gearbeitet haben, am Ende aber seien alle 72 Übersetzungen absolut identisch gewesen: Der Heilige Geist habe allen dieselben Worte eingegeben. Die Zahl 72 wurde auf 70 abgerundet und erinnert an die siebzig Auserwählten, die mit Gottes Geist begabt wurden, um Mose bei der Rechtsprechung zu helfen . Damit wurde auch die Verbalinspiration dieser Übersetzung betont.
Der Name wurde bis etwa 200 n. Chr. auf alle griechischen Erstübersetzungen biblischer Bücher und griechisch abgefasste heilige Schriften des Judentums ausgedehnt. Die Christen bezogen ihn auf diese Sammlung aller griechischsprachigen jüdischen heiligen Schriften, die sie als ihr Altes Testament übernahmen.
Kanon
Buchtitel und Anordnung
Verhältnis zu anderen Kanones
Die Septuaginta enthält alle Bücher des Tanach, die Juden und Christen als kanonisch anerkennen. Sie enthält zudem einige Bücher und Zusätze, die im Judentum nicht zum Kanon gehören, weil sie entweder verlorene oder gar keine hebräischen Vorlagen hatten. Sie entstand, bevor sich der dreiteilige Kanon des Tanach durchgesetzt hatte. Nichtprophetische Schriften wurden daher nicht hinten angefügt, sondern in den bestehenden Grundriss aus Tora (vorn) und Propheten (hinten) eingefügt.
Dabei wurden sie nicht nach einem abgestuften Offenbarungsrang, sondern nach ihren literarischen Gattungen zusammengestellt, so dass die der Tora folgenden Geschichts- und Prophetenbücher, die im Tanach als Nevi’im gelten, auseinandertraten. Zwischen sie rückten poetische und weisheitliche Bücher, die im Tanach den dritten Hauptteil der Ketubim bilden. Zudem gehen in der LXX die „kleinen“ den „großen“ Propheten voraus und werden nicht wie im Tanach als ein gemeinsames Zwölfprophetenbuch, sondern als einzelne Bücher gezählt. Somit bilden die großen Prophetenbücher in der LXX das Kanonende und konnten demgemäß noch stärker als offene Zukunftsansage verstanden werden.
Altkirchliche Kanonlisten waren uneinheitlich, besonders bezüglich der Verteilung der im Tanach als Ketubim geltenden Schriften. Schließlich übernahmen alle Kirchen die Vierteilung des LXX-Kanons in Pentateuch, Geschichtsbücher, Weisheits- und Prophetenbücher, die Abfolge dieser Teile sowie weitgehend die Binnenreihe jedes Hauptteils, stellten aber die „großen“ vor die „kleinen“ Propheten und näherten sie so dem tatsächlichen historischen Verlauf an.
Die römisch-katholische Kirche erkennt die LXX-Zusätze zu Ester und Daniel, die Bücher Tobit, Judit, die ersten beiden Makkabäerbücher, Jesus Sirach, das Buch der Weisheit, Baruch und den Brief des Jeremia als deuterokanonische Schriften an, das 3. und 4. Makkabäerbuch sowie das 3. Buch Esdras hingegen nicht. Das 2. Buch Esdras unterteilt sie in die Bücher Esra und Nehemia.
Die meisten orthodoxen Kirchen haben die deuterokanonisch genannten Bücher als Anaginoskomena in ihren Kanon aufgenommen, zusätzlich auch das 1. Buch Esdras und das 3. Makkabäerbuch. In einigen orthodoxen Kirchen werden auch die Oden mit dem Gebet Manasses, das 4. Makkabäerbuch bzw. ein 4. Buch Esra (das nur in lateinischer und slawischer Übersetzung überliefert ist, während die griechische Version verlorenging) als kanonisch anerkannt.
Der Protestantismus hat im Alten Testament die Bücher mit hebräischem Text (Tanach) vorangestellt und die übrigen („deuterokanonischen“) Schriften sowie das Gebet Manasses als die Apokryphen zwischen das Alte und das Neue Testament gestellt. Sowohl die Lutherbibel als auch die (reformierte) Zürcher Bibel hatten diese Anordnung. In den reformierten Kirchen wurden die Apokryphen in der Folgezeit zurückgedrängt und dann ganz weggelassen. Erst in Folge des sog. Apokryphenstreites um 1830 wurden auch in vielen, aber keineswegs in allen Ausgaben der Lutherbibel die Apokryphen weggelassen. In neuerer Zeit sind in evangelischen Bibelausgaben weithin die Apokryphen enthalten.
Geschichte im Judentum
Übersetzung der Tora
Der Aristeasbrief stellt die Septuaginta legendarisch, aber historisch zutreffend als Ergebnis kollektiver Arbeit einer hellenistischen Bildungselite unter den jüdischen Toralehrern dar. Sie wurde notwendig, da die jüdische Diaspora rasch wuchs und in Gottesdienst und Alltag die damalige Weltsprache verwendete. Sie diente auch dazu, gebildeten Nichtjuden das Judentum zu erklären und die Tora in damalige philosophische und ethische Diskurse einzubringen. Eine Zustimmung des damaligen ägyptischen Herrschers zu dem Projekt ist denkbar, um die starke jüdische Minderheit in sein Reich zu integrieren und an die Kulturmetropole Alexandrien zu binden.
Die Übersetzer der Tora gingen Wort für Wort vor, so dass das Ergebnis zugleich den Wortschatz für weitere Übersetzungen biblischer Bücher bereitstellte. In ihrer Wortwahl – sei es abgrenzend, sei es aufnehmend – zeigen sich hellenistisch-ägyptische Einflüsse und Konzepte. So lautet : Im Anfang machte der Gott den Himmel und die Erde. Der bestimmte Artikel () grenzte Elohim (wörtlich: „Götter“), im hebräischen Kontext als henotheistisches Prädikat JHWHs erkennbar, sofort vom allgemeinen orientalischen Polytheismus ab.
Übersetzung weiterer biblischer Bücher
Auch ein Großteil der weiteren Schriften wurde in Alexandria übersetzt. Die Übersetzungsdaten lassen sich nur aus einigen griechischen Zitaten des LXX-Textes in anderen Quellen oder zeitgeschichtlichen Bezügen darin eingrenzen: Jesaja und die Chronikbücher waren demnach bis etwa 150 v. Chr., das Buch Job bis 100 v. Chr. fertiggestellt. Das um 132 v. Chr. verfasste griechische Vorwort zu Jesus Sirach setzte bereits eine griechische Übersetzung „des Gesetzes, der Propheten und der übrigen Bücher“ voraus, so dass damals vermutlich nur noch einige der bis 100 n. Chr. umstrittenen Ketubim (Schriften) fehlten. Nur die Bücher Rut, Ester, Hoheslied und Klagelieder wurden in Jerusalem übersetzt, wahrscheinlich im 1. Jahrhundert nach der Tempelzerstörung (70). Als letztes Buch wurde um 100 n. Chr. der „2. Esdras“ (Esra und Nehemia) übersetzt.
Sprache
Während der LXX-Sprachstil innerhalb eines Buchs meist annähernd gleich bleibt, ist er von Buch zu Buch verschieden: Daher nahm Paul de Lagarde als Regel für jedes Buch einen einzigen Übersetzer an. Paul Kahle nahm dagegen mehrere Übersetzungsversuche für jedes Buch an, von denen sich eine Version schließlich durchgesetzt habe.
Dabei unterschieden sich die Methoden der Übersetzer. Einige blieben nah am Ausgangstext und benutzten viele Hebraismen: so im Richterbuch, den Samuel- und Königsbüchern, den Psalmen. Diese ahmten den Wortgebrauch und die Syntax der hebräischen Textvorlagen nach.
Andere übersetzten freier und dem griechischen Sprachstil und Sprachfluss angepasster: zum Beispiel bei Genesis, Exodus, Ijob, den Sprichwörtern, Jesaja und Daniel. Deren LXX-Fassung weicht zum Teil stark vom bekannten hebräischen Text ab.
Zahlreiche Aramaismen weisen auf den Sprachgebrauch der Übersetzer aus der zeitgenössischen aramäischen Sprache.
Bereits seit dem 19. Jahrhundert wird die Sprache der Septuaginta jedoch nicht als ein gesondertes „Bibelgriechisch“, sondern als Koine-Griechisch mit – je nach Übersetzer mehr oder weniger – semitisierenden Anklängen verstanden.
Revisionen und Bruch mit dem hebräischen Text
Auch nach ihrem vorläufigen Abschluss entwickelte sich der Text der LXX noch weiter. Über 100 n. Chr. hinaus blieb sie die Gebrauchsbibel der hellenistischen Diasporajuden, auch im Synagogengottesdienst. Danach verlor sie aus mehreren Gründen allmählich an Einfluss: erstens, weil das seit der Tempelzerstörung (70 n. Chr.) rabbinisch geführte Judentum begann, einen einheitlichen hebräischen Konsonantentext (proto-masoretischer Text, abgekürzt Proto-MT) durchzusetzen. Zweitens, weil die standardisierende, exegetische Methode von Rabbi Akiba dominierend wurde, der die hebräischen Schriften akribisch studiert hatte und ein energischer Gegner des Christentums war. Und drittens, weil die Christen sich die LXX als „ihr“ Altes Testament aneigneten (die meisten alttestamentlichen Zitate im Neuen Testament entsprechen der LXX-Version) und den griechischen Text oft allegorisch umdeuteten, um ihn gegen jüdische Auslegungen ins Feld führen zu können, was dessen Ablehnung von jüdischer Seite verstärkte.
Dies führte im Judentum jedoch nicht zum sofortigen Ausschluss der LXX, sondern zunächst zu verstärkten Versuchen, die Differenzen zwischen griechischen und hebräischen Textversionen einzuebnen. Diese Angleichung begann schon etwa 100 v. Chr. mit der kaige-Rezension damaliger LXX-Fassungen. Das zeigt die griechische Zwölfprophetenrolle, die in einer Höhle im Nachal Chever am Toten Meer gefunden wurde. Auch für das Richterbuch und für Teile der Samuel- und Königsbücher sind solche rezensierten Fassungen erhalten.
Im 2. Jahrhundert übersetzten Aquila, Symmachos und Theodotion den nun schon vereinheitlichten Tanach erneut ins Griechische. Dabei folgte Theodotion am meisten der LXX-Vorlage. Diese Rezensionen sind nur bruchstückhaft überliefert und als Ganzes allenfalls indirekt aus alten Handschriften der Hexapla, die sie dem hebräischen Text gegenüberstellten, zu erschließen. Sie gingen weitgehend verloren, weil die Juden immer stärker auf den MT hinarbeiteten und andere Versionen ablehnten oder vernichteten, während die Christen die andersartige Revision der LXX von Origenes immer stärker als alleinige Überlieferung weitergaben.
Geschichte im Christentum
Aufnahme im Neuen Testament
Die Autoren des Neuen Testaments nehmen nur in einigen Büchern (Evangelium nach Lukas, Apostelgeschichte des Lukas) den hebraistischen Stil der Septuaginta auf. Ansonsten hat das Griechisch im Neuen Testament für jeden der Schriftsteller einen typischen, eigenen Charakter, da es sich um griechische Originaltexte und nicht um Übersetzungen handelt. Die oft vorgenommene Zusammenfassung des Septuaginta-Griechisch und des Griechisch des Neuen Testaments unter dem Stichwort Bibelgriechisch ist daher nicht sachgemäß.
Viele der Zitate des Alten Testaments, die sich im Neuen Testament finden, sind der Septuaginta entnommen, wobei Abweichungen im Detail oft darauf hinweisen, dass die Schriftsteller aus dem Gedächtnis zitierten.
Alte Kirche
Da ein Großteil des Urchristentums aus dem griechischsprachigen Judentum hervorging (die sogenannten Hellenisten; vgl. Apostelgeschichte 6), verwundert es nicht, dass das Alte Testament von den Verfassern des Neuen Testamentes meist nach der Septuaginta zitiert wurde. Auch die meisten Kirchenväter zitierten das Alte Testament nach der Septuaginta, denn nur wenige Kirchenväter waren des Hebräischen überhaupt mächtig. Zudem wurde so die christlicherseits postulierte Einheit des Alten Testaments mit dem auf Griechisch abgefassten Neuen Testament stärker deutlich.
Auch Streitgespräche mit dem Judentum oder Polemiken gegen das Judentum nahmen in der Regel den Text der Septuaginta als Basis für ihre Auseinandersetzung. Dies trug mit dazu bei, dass sich die Juden von der Septuaginta ab- und dem hebräischen Text zuwandten, führte aber auch dazu, dass Origenes seine große philologische Arbeit (die Hexapla) erstellte, um die Streitfragen über den Text wissenschaftlich zu klären.
Revisionen
Im Christentum gab es zumindest eine Revision des Septuaginta-Textes, und zwar durch Origenes. Er stellte in sechs Spalten (daher die Bezeichnung Hexapla) den hebräischen Text (in hebräischer Schrift und in griechischer Umschrift) sowie die Septuaginta und die drei jüngeren jüdischen Übersetzungen von Aquila, Symmachus und Theodotion nebeneinander. Im Septuagintatext setzte er in „Klammern“ (d. h. mit den damals üblichen textkritischen Zeichen Obelos und Metobelos) Überschüsse der Septuaginta gegenüber dem hebräischen Text, und er ergänzte, ebenfalls in „Klammern“ (d. h. mit den damals üblichen textkritischen Zeichen Asteriscus und Metobelos), aus den anderen griechischen Übersetzungen, was in der Septuaginta gegenüber dem hebräischen Text fehlte. Diesen so an den damals anerkannten hebräischen Text angepassten Septuagintatext bezeichnet man als den hexaplarischen Text, der seinerseits die Überlieferung der Septuaginta beeinflusste.
Traditionell spricht man von zwei weiteren christlichen Revisionen, nämlich der lukianischen für Syrien/Antiochien und der hesychianischen für Ägypten. Diese Revisionen müssten um ca. 300 n. Chr. entstanden sein. Die Suche nach der hesychianischen Rezension ist heute von den meisten Forschern aufgegeben (man spricht neutral vom ägyptischen Text), während viele Forscher bei der Annahme einer lukianischen Revision (das heißt vor allem eine stilistische Bearbeitung zu besserem Griechisch) bleiben. Für diese Ansicht beruft man sich in der Regel auf eine Äußerung des Hieronymus (um 400 n. Chr.) in seiner Vorrede zu den Büchern der Chronik, wo er von drei Textformen spricht, der des Origines in Palästina, der des Lukian in Syrien und der des Hesych in Ägypten. Dagegen schrieb Hieronymus in seinem Brief an Sunnia und Fretela nur von zwei Textformen, der hexaplarischen des Origenes und der alten, allgemein verbreiteten Septuaginta, die jetzt von vielen als lukianisch bezeichnet wird. Wahrscheinlich handelt es sich somit nur um nachträgliche Verbindung älterer Textformen mit anerkannten kirchlichen Autoritäten, mit der die betreffenden Textformen vor Veränderungen geschützt werden sollen (das Vorkommen des Siglums „L“ in manchen Handschriften für „lukianisch“ ist auch damit ausreichend erklärt).
Kirchlicher Gebrauch
Die Septuaginta ist in den Ostkirchen auch heute noch die wichtigste Version des Alten Testaments. In Griechenland und Zypern wird sie bis heute im Gottesdienst gebraucht. Die meisten anderen Ostkirchen benutzen ein Altes Testament, das aus der Septuaginta in die jeweilige Nationalsprache übersetzt ist.
Die römisch-katholische Kirche benutzte dagegen über mehr als ein Jahrtausend sowohl die Septuaginta als auch die Vulgata, eine Übersetzung der Bibel durch Hieronymus ins Lateinische. Der Kirchenvater Hieronymus veränderte allerdings seinen ursprünglichen Auftrag, die Vulgata ausschließlich auf Grundlage der Septuaginta zu übersetzen, indem er auch den hebräischen Text als Übersetzungsgrundlage heranzog. Dennoch übernahm er viele Lesarten der Septuaginta, was die zahlreichen Übereinstimmungen zwischen Vulgata und Septuaginta gegenüber dem masoretischen Text erklärt. Ebenfalls übernahm er weitgehend den Kanon der Septuaginta. Dieser Entscheidung folgen katholische Bibeln bis heute (siehe auch Deuterokanonisch).
Martin Luther verwendete für seine deutsche Bibelübersetzung das hebräische Alte Testament und legte dessen (kürzeren) Kanon zugrunde. Septuaginta und Vulgata benutzte er als Hilfsmittel für seine Übersetzung. Einige der zusätzlichen Bücher der Septuaginta und Vulgata gab er seiner Übersetzung als Anhang bei (die sogenannten Apokryphen).
Nach dem Konzil von Trient wurde unter Papst Sixtus V. eine Neuausgabe der Septuaginta erstellt und 1587 promulgiert; diese Römische Septuaginta (auch editio Sixtina genannt) war für die römisch-katholische Kirche verbindlich.
Handschriften
Von der LXX bzw. Teilen davon sind etwa 2000 verschiedene Handschriften oder Handschriftenreste erhalten. Die ältesten Fragmente stammen aus dem 2. Jahrhundert v. Chr. und enthalten Texte der ersten fünf Bücher Mose (Tora) auf Papyrus- oder Lederrollen. Sie bestätigen die Angabe des Aristeasbriefs, dass die LXX um 250 v. Chr. mit der Toraübersetzung begann. Es sind 4Q122/4QLXXDtn, der Papyrus Rylands 458 und der Papyrus Fouad 266.
Das Fragment 4Q119/4QLXXLeva aus dem 1. Jahrhundert v. Chr. übersetzte den hebräischen Originaltext freier als spätere Handschriften und schuf so eine eigene LXX-Variante für das Buch Levitikus. Weitere Fragmente aus dem 1. Jahrhundert v. Chr. sind 4Q120, 4Q121, 7Q1 und 7Q2.
Die älteste LXX-Fassung des Danielbuchs enthält der um 200 n. Chr. von zwei Schreibern erstellte Papyrus 967. Er wurde zusammen mit LXX-Papyri für die meisten biblischen Bücher 1931 in Ägypten gefunden. Auch unter den Schriftrollen aus der Geniza von Kairo fanden sich LXX-Fassungen.
Als älteste und beste, da noch kaum von späteren Revisionen beeinflusste vollständige LXX-Handschrift gilt der Codex Vaticanus Graecus 1209 aus dem 4. Jahrhundert. Nur sein Jesajatext folgt der Hexapla. Der Codex Sinaiticus stimmt überwiegend mit ihm überein; die Abweichungen gehen auf Revisionen der LXX zurück. Der Codex Alexandrinus aus dem 5. Jahrhundert dagegen war bereits stark von der Hexapla beeinflusst. Diese drei von Christen geschriebenen Codices umfassen auch das Neue Testament.
Von etwa 500 n. Chr. an dominieren in Unzialen bzw. Majuskeln (Großbuchstaben) notierte, von etwa 1000 an in Minuskeln oder Kursiven notierte Handschriften.
Textkritik
Verhältnis zum masoretischen Text
Der masoretische Text (MT) setzte sich ab etwa 900 als autoritativer hebräischer Bibeltext durch und galt seit etwa 1520 auch in Teilen des Christentums als Urtext. Die LXX galt demgegenüber lange Zeit als zweitrangig. Erst neue Handschriftenfunde zwangen zur Differenzierung dieses Urteils und ermöglichten größeres Verständnis für Textentstehungs- und Überlieferungsprozesse.
Im Buch Jesaja fehlen nur wenige Verse des MT in der LXX. In den Büchern Josua, Richter, Samuel, dem 1. Königsbuch, Jeremia, Daniel, Ijob, Sprichwörter und Ester weicht die LXX dagegen nicht nur vereinzelt vom MT ab, sondern ordnet Textabschnitte anders an und enthält weniger Text, so dass sich kürzere Buchumfänge ergeben.
Im Buch Jeremia ist LXX um etwa ein Siebtel kürzer als MT, weil ihr vielfach Einzelverse oder Versgruppen – insgesamt bis zu 3100 Wörter – fehlen. Die Kapitelfolge ist eine andere, so dass die Fremdvölkersprüche in Jer 46–51 MT in LXX weiter nach vorn rücken und eine andere Reihe ergeben. Auch in den Samuelbüchern fehlen der LXX ganze Textabschnitte im Vergleich zum MT. Das gilt in geringerem Maß auch für das Buch Exodus. Diese Unterschiede wurden seit der Reformationszeit als willkürliche Verfälschung des MT durch die LXX-Übersetzer gedeutet.
Unter den Schriftrollen vom Toten Meer fanden sich jedoch Texte, die der LXX näher stehen als MT (zum Beispiel 4QJerb und d) und mit deren hypothetischer Rückübersetzung ins Hebräische aus älteren Handschriften weitgehend übereinstimmten. So bestätigten diese hebräischen Fragmente die LXX-Fassung. Textüberschüsse und Textänderungen des MT in den Samuel- und Königebüchern und im Jeremiabuch konnten als spätere Bearbeitungen erkannt werden. Das entkräftete das hermeneutische Vorurteil, dass in Zweifelsfällen MT gegenüber LXX als ursprünglicher vorzuziehen sei.
Die meisten Forscher gehen heute davon aus, dass für einige Bücher bis mindestens 100 n. Chr. mehrere hebräische Fassungen parallel und gleichberechtigt überliefert wurden. Daher können die frühen Revisionen der LXX unterschiedliche hebräische Textgrundlagen voraussetzen. Neben den Angleichungen an den hebräischen Text tragen aber auch innergriechische Textentwicklungen zur Variantenvielfalt der LXX bei.
Ursprünglicher LXX-Text
Hauptproblem der Textkritik mit Hilfe der LXX ist: Bevor sie als mögliche Korrektur hebräischer Textfassungen verwendet werden kann, muss möglichst der ursprüngliche Wortlaut der LXX selbst erschlossen werden. Dies nahmen Alfred Rahlfs und Rudolf Smend mit dem Göttinger Septuaginta-Unternehmen (1908 gegründet, 2015 ausgelaufen) in Angriff. In dieser LXX-Ausgabe erschienen etwa zwei Drittel der Bibelbücher.
Neuere Bibelübersetzungen wie die deutsche katholische Einheitsübersetzung greifen teilweise auf Lesarten der LXX zurück, um einen entstellten oder unklaren hebräischen Text zu korrigieren bzw. zu interpretieren oder als ursprünglicheren hebräischen Text wiederzugeben (zum Beispiel in ). Oft können einmalige und sonst nirgends belegte Vokabeln (Hapax legomena) nur mit Hilfe der LXX übersetzt werden, da das Altgriechische einen größeren Wortschatz und mehr Vergleichsmöglichkeiten bietet als das Althebräische.
Siehe auch
Liste bekannter Philologen der Septuaginta
Literatur
Textausgaben
Alan E. Brooke, Norman McLean, Henry St John Thackeray (Hrsg.): The Old Testament in Greek according to the Text of Codex Vaticanus. Cambridge 1906–1940. [Larger Cambridge Septuagint; unvollständig und überwiegend, aber nicht vollständig überholt.]
Alfred Rahlfs (Hrsg.): Septuaginta, id est Vetus Testamentum Graece iuxta LXX interpretes. Württembergische Bibelanstalt, Stuttgart 1935 u. a. (Editio altera quam recognovit et emendavit Robert Hanhart, Stuttgart 2006). [Handausgabe der Göttinger Septuaginta.]
Göttinger Akademie der Wissenschaften (Hrsg.): Vetus Testamentum Graecum auctoritate Academiae Scientiarum Gottingensis editum. Göttingen 1924–1965. [Göttinger Septuaginta; unvollständig.]
Übersetzung
Wolfgang Kraus, Martin Karrer (Hrsg.): Septuaginta Deutsch. Das griechische Alte Testament in deutscher Übersetzung. Deutsche Bibelgesellschaft, Stuttgart 2009 (2. Auflage, Stuttgart, 2010), ISBN 978-3-438-05122-6.
Wörterbücher und Hilfsmittel
Friedrich Rehkopf: Septuaginta-Vokabular. Vandenhoeck & Ruprecht, Göttingen 1989, ISBN 3-525-50172-2.
A Greek-English Lexicon of the Septuagint. Revised Edition compiled by Johan Lust, Erik Eynikel, Katrin Hauspie. Deutsche Bibelgesellschaft, Stuttgart 2003, ISBN 3-438-05124-9.
Takamitsu Muraoka: A Greek-English Lexicon of the Septuagint. Peeters, Leuven 2009, ISBN 978-90-429-2248-8.
Alfred Rahlfs: Verzeichnis der griechischen Handschriften des Alten Testaments (= Mitteilungen des Septuaginta-Unternehmens. Band 2; Nachrichten von der Gesellschaft der Wissenschaften zu Göttingen. Jahrgang 1914, Beiheft). Weidmannsche Buchhandlung, Berlin 1914 (Digitalisat).
Alfred Rahlfs: Septuaginta: Vetus Testamentum Graecum. Suppl.: Verzeichnis der griechischen Handschriften des Alten Testaments. Band 1,1: Die Überlieferung bis zum VIII. Jahrhundert. Bearbeitet von Detlef Fraenkel. Vandenhoeck & Ruprecht, Göttingen 2004, ISBN 3-525-53447-7.
Einführungen
Felix Albrecht: Die alexandrinische Bibelübersetzung. Einsichten zur Entstehungs-, Überlieferungs- und Wirkungsgeschichte der Septuaginta. In: Tobias Georges, Felix Albrecht, Reinhard Feldmeier (Hrsg.): Alexandria (= Civitatum Orbis MEditerranei Studia. Band 1). Mohr Siebeck, Tübingen 2013, S. 209–243.
Christian Frevel (Hrsg.): Einleitung in das Alte Testament. 9., aktualisierte Auflage. Kohlhammer, Stuttgart 2016, ISBN 978-3-17-030351-5.
Karen H. Jobes, Moisés Silva: Invitation to the Septuagint. Baker Academic, Grand Rapids [MI] 2000.
Siegfried Kreuzer (Hrsg.): Einleitung in die Septuaginta (= Handbuch zur Septuaginta. Band 1). Gütersloher Verlagshaus, Gütersloh 2016, ISBN 978-3-579-08100-7 (PDF).
Folker Siegert: Zwischen hebräischer Bibel und Altem Testament. Eine Einführung in die Septuaginta (= Münsteraner Judaistische Studien. Band 9). Lit Verlag, Münster 2001.
Michael Tilly: Einführung in die Septuaginta. Wissenschaftliche Buchgesellschaft, Darmstadt 2005, ISBN 3-534-15631-5.
Textkritik
Emanuel Tov: Der Text der Hebräischen Bibel. Handbuch der Textkritik. Kohlhammer, Stuttgart u. a. 1997, ISBN 3-17-013503-1.
Emanuel Tov: Die griechischen Bibelübersetzungen. In: Aufstieg und Niedergang der römischen Welt. Band II.20.1, Berlin u. a. 1987, S. 121–189.
Ernst Würthwein: Der Text des Alten Testaments. Eine Einführung in die Biblia Hebraica. 5. überarbeitete Auflage. Deutsche Bibelgesellschaft, Stuttgart 1988, ISBN 3-438-06006-X.
Michael Hilton: Wie es sich christelt, so jüdelt es sich. 2000 Jahre christlicher Einfluss auf das jüdische Leben. Mit einer Einführung von Rabbiner Arthur Hertzberg. Jüdische Verlagsanstalt, Berlin 2000, ISBN 978-3-934658-00-4. (Leseprobe)
Forschung
Kristin De Troyer: Die Septuaginta und die Endgestalt des Alten Testaments. Untersuchungen zur Entstehungsgeschichte alttestamentlicher Texte. Vandenhoeck & Ruprecht, UTB 2599, Göttingen 2005, ISBN 3-8252-2599-2.
Heinz-Josef Fabry, U. Offerhaus (Hrsg.): Im Brennpunkt: Die Septuaginta. Studien zur Entstehung und Bedeutung der Griechischen Bibel (= Beiträge zur Wissenschaft vom Alten und Neuen Testament. Band 153). Kohlhammer, Stuttgart u. a. 2001.
Natalio Fernandez Marcos: The Septuagint in Context. Introduction to the Greek Version of the Bible. Brill, Leiden 2000, Atlanta 2009.
Robert Hanhart: Studien zur Septuaginta und zum hellenistischen Judentum (= Forschungen zum Alten Testament. Band 24). Mohr Siebeck, Tübingen 1999.
Martin Hengel, Anna Maria Schwemer (Hrsg.): Die Septuaginta zwischen Judentum und Christentum (= Wissenschaftliche Untersuchungen zum Neuen Testament. Band 72). Mohr Siebeck, Tübingen 1994.
Herbert Hunger u. a.: Die Textüberlieferung der antiken Literatur und der Bibel. dtv wissenschaft, München 1988 (1. Auflage 1961).
Martin Karrer, Wolfgang Kraus (Hrsg.): Septuaginta Deutsch. Erläuterungen und Kommentare. 2 Bände. Deutsche Bibelgesellschaft, Stuttgart 2011.
Martin Karrer, Wolfgang Kraus, Martin Meiser (Hrsg.): Die Septuaginta – Texte, Kontexte, Lebenswelten (= Wissenschaftliche Untersuchungen zum Neuen Testament [WUNT]. Band 219). Mohr Siebeck, Tübingen 2008 (siehe auch die weiteren Bände der Reihe: WUNT 252, Tübingen 2010; WUNT 286, Tübingen 2012; WUNT 325, Tübingen 2014; WUNT 361, Tübingen 2016).
Siegfried Kreuzer, Jürgen Peter Lesch (Hrsg.): Im Brennpunkt: Die Septuaginta (= Studien zur Entstehung und Bedeutung der Griechischen Bibel. Band 2). Kohlhammer, Stuttgart u. a. 2004 (= Beiträge zur Wissenschaft vom Alten und Neuen Testament. Band 161).
Siegfried Kreuzer: Entstehung und Überlieferung der Septuaginta. In: ders. (Hrsg.): Einleitung in die Septuaginta (= Handbuch zur Septuaginta. Band 1). Gütersloher Verlagshaus, Gütersloh 2016, S. 30–88.
Alfred Rahlfs: Septuaginta-Studien I–III. 2. Auflage. Vandenhoeck & Ruprecht, Göttingen 1965.
Weblinks
Textausgaben
Septuaginta Editio altera (Volltext in Griechisch) (nach A. Rahlfs, überarbeitet von R. Hanhart, Stuttgart 2006)
Titus-Projekt (Volltext in Griechisch)
Εβδομήκοντα εκδοχή (Septuaginta)
Forschungsprojekte
Göttinger Septuaginta-Unternehmen
Septuagintaforschung in Deutschland
Journal of Septuagint and Cognate Studies
Ressourcen
Septuagint Texts and Aids
Einführung in die Septuaginta-Forschung mit Literaturhinweisen (pdf; 240 kB)
Literatur zur Septuaginta in BiBIL
Sekundärliteratur
Heinz-Josef Fabry: Neue Aufmerksamkeit für die Septuaginta (PDF-Datei; 195 kB)
Anmerkungen
Einzelbelege
Bibelausgabe
Heilige Schrift (Judentum)
Bibelübersetzung
Literatur (Altgriechisch)
|
Q29334
| 162.242623 |
9049
|
https://de.wikipedia.org/wiki/Regenwald
|
Regenwald
|
Als Regenwald bezeichnet man Wälder, die durch ganzjährig fallende, große Niederschlagsmengen gekennzeichnet sind. Wegen der völlig unterschiedlichen Klimabedingungen unterscheidet man nach den Klimazonen verschiedene Regenwaldtypen:
Tropischer Regenwald (der in wenigen Regionen in subtropischen Regenwald übergeht) – mit meist mehr als 1800 mm Jahresniederschlag (siehe auch Tropische Regenwaldklimate)
Gemäßigter Regenwald – mit meist über 1000 mm Jahresniederschlag, auch als Schnee (siehe auch Gemäßigte Regenwaldklimate).
Im weiteren Sinne werden mitunter auch die Feuchtwälder der Tropen und Subtropen als Regenwälder behandelt.
Begriff
Der Biologe Andreas Franz Wilhelm Schimper definierte und verwendete 1898 erstmals den Begriff tropischer Regenwald, der auch in andere Sprachen, beispielsweise ins Englische als rainforest, übernommen wurde, in seinem Werk Pflanzengeographie auf physiologischer Grundlage (1898).
In den Medien und populärwissenschaftlicher Literatur werden Regenwald und tropischer Regenwald oft gleichgesetzt, weil die subtropischen und gemäßigten Regenwaldformen weniger bekannt sind.
Tropische und subtropische Regenwälder
Immergrüne, tropische Regenwälder entstanden auf allen Kontinenten, auf beiden Seiten des Äquators bis ungefähr zum 10. Breitengrad, aber zum Teil auch deutlich darüber hinaus. Dort gehen sie in die subtropischen Regenwälder über. Die größte zusammenhängende Fläche – zugleich mehr als die Hälfte der Gesamtfläche aller tropischen Regenwälder – befindet sich im Bereich des Amazonasbeckens. Weitere große Regenwälder weisen Äquatorialguinea und Gabun, das Kongobecken in Zentralafrika und die vielen Inseln Indonesiens auf.
Der Begriff tropischer Regenwald kennzeichnet ein Ökosystem, das eine Vielzahl an Wald-Typen umfasst: zum einen den Tiefland-Regenwald bis etwa 1000/1500 m Höhe, zum anderen den Berg-Regenwald bis etwa 2000/2500 m Höhe. Die kalttropischen Wolken- und Nebelwälder jenseits von 2000 m Höhe werden aufgrund ihrer klimatischen Besonderheiten nicht mehr zu den Regenwäldern gerechnet.
Regenwälder der gemäßigten Breiten
Regenwälder der gemäßigten Zonen kommen vor allem an der Westküste Nordamerikas, in Chile sowie auf Tasmanien und Neuseeland vor. Obwohl die bildbestimmenden Baumarten auch in den gemäßigten Laub- und Nadelwäldern vorkommen, sind sie die artenreichsten Lebensräume dieser Zonen.
Tropische und subtropische Feuchtwälder
In der feuchtwarmen Klimazone, die von einem Monsunklima geprägt ist, gehen die immergrünen tropischen Regenwälder über halbimmergrüne Regenwälder in feuchte Monsunwälder (regengrüne Feuchtwälder) und schließlich trockene Monsunwälder (regengrüne Trockenwälder) über, die aufgrund der unter 2000 mm liegenden Jahresniederschlagssumme alle nicht mehr zu den Regenwäldern gerechnet werden. Da die Regenzeiten in den Monsunwäldern regelmäßig durch Trockenzeiten abgelöst werden, sind die Bedingungen weniger ausgeglichen als im tropischen Regenwald. Sie werden auch als tropisch/subtropische Feuchtwälder bezeichnet. Die ausgeprägtesten Monsunwälder finden sich in Indien und Südostasien sowie in Afrika zwischen den Regenwäldern und den Feuchtsavannen.
Im kühleren Ostseitenklima der Subtropen – bei dem bereits eine deutliche Unterscheidung nach Sommer (häufig niederschlagsreich) und Winter (gelegentlicher Frost möglich) getroffen werden kann – stehen die Lorbeerwälder, die je nach Niederschlagsmenge als Feucht- oder Regenwälder betrachtet werden können. Die größten Lorbeer-Regenwälder stehen in Süd-China, Florida und Südost-Brasilien.
Bislang galten insbesondere die Tropenwälder durch ihre Fähigkeit der Photosynthese als Kohlenstoffsenke bzw. Regulator des Kohlenstoffdioxids (CO₂) in der Erdatmosphäre. Doch einer im Jahr 2020 veröffentlichten Studie zufolge speichern sie aufgrund der globalen Erwärmung deutlich weniger CO₂ als noch in den 1990er Jahren. Hält die Negativentwicklung an, könnten sich Regenwälder der Studie zufolge bis zum Jahr 2035 von einer CO₂-Senke zu einem CO₂-Emittenten entwickeln. Für ihre Analyse hatten die Wissenschaftler 300.000 Bäume in den Regenwäldern von Amazonien und Afrika über Jahrzehnte hinweg untersucht. Laut der aktuellen Analyse speicherten die Regenwälder in den 2010er Jahren bereits ein Drittel weniger Kohlenstoffdioxid als noch in den Neunzigerjahren.
Siehe auch
Dschungel
Urwald
Literatur
Max Beckdorf: Das Flußmeer : Forscherarbeit im Regenwald, Franckh'sche Verlagshandlung, Stuttgart 1939, DNB-Link
Anton Fischer: Forstliche Vegetationskunde. Blackwell, Berlin, Wien 1995, ISBN 3-8263-3061-7.
Weblinks
Einzelnachweise
Waldtyp
Landschaftstyp
Klimageographie
Regen
|
Q9444
| 414.463267 |
46432
|
https://de.wikipedia.org/wiki/Proletariat
|
Proletariat
|
Das Proletariat (von ‚die Nachkommenschaft‘) bezeichnete im antiken Rom die gesellschaftliche Schicht der land- und besitzlosen lohnabhängigen, aber nicht versklavten Bürger im Stadtstaat, die nicht steuer- und wehrpflichtig waren. Aus dem Lateinischen übernommen, taucht der Begriff im 19. Jahrhundert zuerst in England, später auch in anderen europäischen Ländern auf, wird jedoch erst seit der Französischen Revolution zögernd als Bezeichnung konkret auf den damaligen Vierten Stand (richtiger: auf die unterständischen, keinem der drei Stände angehörigen Schichten) bezogen. Um 1820 spricht Henri de Saint-Simon zum ersten Mal von der Klasse der Proletarier. Seit 1830 wird der Begriff zur Bezeichnung der pauperisierten Unterschichten verwendet, die als Gefahr für die soziale und politische Stabilität angesehen werden. Dies tut z. B. Lorenz von Stein, der die Gefahr im Bedürfnis der eigentums- und bildungslosen Proletarier sieht, „nicht ganz ohne jene Güter zu bleiben, die der Persönlichkeit erst ihren Wert verleihen.“ Etwa seit Mitte des 19. Jahrhunderts findet der Begriff vorzugsweise Anwendung auf die infolge der Industriellen Revolution entstandene Industriearbeiterschaft. Nach Karl Marx sind Proletarier doppelt freie Lohnarbeiter, Menschen, die nichts anderes besitzen als ihre Arbeitskraft, die also allein durch den Verkauf ihrer Arbeitskraft ihren überwiegenden Lebensunterhalt erzielen können.
Aus der marxistischen Weltsicht stehen sie in einer kapitalistischen Gesellschaft im unversöhnlichen Gegensatz zur besitzenden Klasse, der Bourgeoisie.
Während in der Soziologie heute von dem neuen Proletariat gesprochen wird, kommt im alltäglichen Sprachgebrauch der Begriff Proletariat selbst kaum mehr vor. Allerdings sind in der einfachen Umgangssprache die davon abgeleiteten Begriffe „Prolet“ bzw. neuerdings „Proll“ als Schimpfwörter bzw. diskriminierende Bezeichnungen gebräuchlich. Dahinter verbergen sich klischeeartige abwertende Zuschreibungen. Der Begriff „Prolet“ und insbesondere der Begriff „Proll“ sind vergleichsweise unscharf und entfernen sich in der Benutzung teilweise erheblich von der Bezeichnung einer gesellschaftlichen Gruppe im soziologischen Sinne (Schicht, Klasse, Milieu); sie assoziieren (anstelle ökonomischer Ungleichheit) meist eher kulturelle Wertungen, einerseits im Sinne von derb, vulgär, nicht kultiviert, ungebildet oder sogar barbarisch oder kulturlos, manchmal auch in Abgrenzung zu intellektuell, andererseits im Sinne von protzig, bzw. mit derben, wenig raffinierten Modegegenständen oder Verhaltensweisen prahlend.
Etymologie
Der deutsche Begriff Proletariat stammt vom lateinischen Begriff proletarius. Der ursprünglichen Wortbedeutung folgend bedeutet proletarius „die Nachkommenschaft betreffend“. Abgeleitet davon erschließt sich die heutige Wortbedeutung: Das Proletariat ist die Bevölkerungsgruppe, die „den Staat nur mit ihrer Nachkommenschaft trägt und nicht mit ihrem Vermögen.“
Das Proletariat im alten Rom
Während der Ausbreitungsphase des Imperium Romanum wurden Sklaven als Kriegsbeute in Massen nach Rom gebracht und auf Großgrundbesitzungen als Landarbeiter eingesetzt. Da diese großen landwirtschaftlichen Betriebe wesentlich effizienter produzierten als das Kleinbauerntum, verlor dieses seine Existenzgrundlage. Kleinbauern zogen in die Hauptstadt, wo sie als landlose, aber dennoch freie römische Bürger neben den adligen Patriziern und den nichtadligen Plebejern (vor allem Bauern und Handwerker) lebten. Da sie außer ihrem Stimmrecht nichts mehr besaßen, verkauften die Proles dieses gegen Lebensmittel an die reiche Oberschicht.
Das Arbeiterproletariat der Industriellen Revolution
Genau wie das antike Proletariat handelte es sich auch beim Proletariat der Zeit der Industriellen Revolution um Menschen, die ihre bäuerlichen oder kleingewerblichen Existenzen aufgeben mussten und in die Städte zogen. Grund war die Industrialisierung, beginnend mit der Textilindustrie. Das oft mit Heimarbeit verbundene Verlagssystem stellte eine Vorform der Industrialisierung dar. Mit deren wesentlich effizienterer Produktionsweise konnte das kleine Handwerk nicht mehr mithalten. Auf der anderen Seite benötigten die neu entstehenden Fabriken Arbeitskräfte, so dass mehr und mehr die vormaligen Handwerker und Bauern unter Aufgabe ihres Landbesitzes oder ihrer Werkstatt in die Städte gingen und zu Industriearbeitern, zum industriellen Proletariat wurden. Diese Entstehungsgeschichte des Kapitalismus wird im 24. Kapitel des Hauptwerks von Karl Marx Das Kapital geschildert und analysiert, meist am Beispiel Englands, wo Ackerland in Schafweide umgewandelt wurde, um die Wollmanufakturen oder dampfgetriebene Webstühle, die bereits für den Weltmarkt produzierten, mit Rohstoff zu beliefern. Die vertriebenen Bauern, teils auch Handwerker wurden durch brutale Polizeimaßnahmen und Landstreichergesetze mit der Zeit in die entstehenden Fabriken gezwungen.
Sie wurden dort in einer bis dahin unbekannten Weise ausgebeutet, die tägliche Arbeitszeit betrug bis zu 18 Stunden. Arbeitsruhe an Sonn- und Feiertagen gab es nicht. In Kohlebergwerken wurde die billigere Frauenarbeit und Kinderarbeit üblich. Diese Missstände führten nach langen Verboten und Kämpfen letztlich zur Gründung von Gewerkschaften und zur Entstehung der Arbeiterbewegung wie des Marxismus.
Proletariat nach Marx
Das Proletariat ist nach der Definition von Karl Marx eine neue Klasse, die mit der Entwicklung der Industriellen Revolution entstanden ist. Während es vorher im Wesentlichen relativ freie Handwerker und leibeigene oder Pachtbauern gab, die über Produktionsmittel wie Werkzeuge und Agrarland verfügten, entstand mit dem Proletariat eine neue Klasse, die nicht mehr über Produktionsmittel oder nicht mehr über gesellschaftlich konkurrenzfähige Produktionsmittel (z. B. Weber) verfügte, die aber – im Gegensatz zu leibeigenen Bauern – frei über ihre Arbeitskraft verfügten. Am Beispiel England beschreibt Marx, wie die Einführung der maschinellen Webstühle den Bedarf an Wolle und die Preise für Wolle steigerte und zur Umwandlung des an Bauern verpachteten Ackerlands in Schafsweiden für die Steigerung der Wollproduktion stattfand. Die vom Bauernhof vertriebenen und so hungrig im ganzen Land herumgetriebenen Bauern konnten nur dort überleben, wo die entstehenden Manufakturen oder Fabriken diese neue Klasse von abhängigen Proletariern gebrauchen konnte. Die Besonderheit dieser neuen Klasse und ihre Definition besteht nach Marx im „doppelt freien Arbeiter“ – frei von Produktionsmitteln, die ihm ermöglichten, sich selbst zu versorgen und frei, ihren einzigen Besitz, sich selbst bzw. genauer ihre Arbeitskraft zu verkaufen. Die Definition des Proletariats umfasste zu Marx’ Lebenszeit überwiegend Fabrikarbeiter, schließt aber prinzipiell alle ein, die ihren Lebensunterhalt ausschließlich oder überwiegend nur durch den Verkauf ihrer Arbeitskraft verdienen können. Damit sind auch die heutigen größeren Gruppen von Arbeitskräften wie Angestellte, Beamte (sind nach Marx keine Proletarier, da diese der Rechnung des Staates und nicht des Kapitals unterworfen sind, z. B. Lehrer: ein Lehrer in einer Privatschule ist Proletarier, in einer staatlichen Schule hingegen nicht, obwohl er dieselbe Tätigkeit ausübt), ja sogar angestellte Betriebsleiter, die Funktionen von Kapitalisten ausführen, per Definition Proletarier und zumindest heute die mit Abstand größte Klasse. Marx ging davon aus, dass wegen der zunehmenden Oligopolisierung und Globalisierung des Kapitalismus und seiner immanenten Krisenbehaftetheit insbesondere der tendenzielle Fall der Profitrate in gravierenden Krisen die Selbstbefreiung des Proletariats mit sich bringen werde und zu einer klassenlosen Gesellschaft führe. Karl Heinz Roth spricht, im Zuge einer Neuprojektierung revolutionärer Praxis von der (neuen) Proletarität.
Definition des Proletariats nach Immanuel Wallerstein
Nachdem Wallerstein die Bourgeoisie dadurch charakterisiert, dass sie über Mehrwerte verfügt, die sie nicht selbst erwirtschaftet hat und in der Lage ist, diese in Kapitalgüter zu investieren, ergibt sich daraus für das Proletariat, dass es aus jenen besteht, die Teile des von ihnen erwirtschafteten Mehrwertes an andere abgeben. Der Erhalt von Lohnzahlungen ist an sich kein Merkmal des Proletariats. Denn der Produzent schafft den Wert, den er nicht im Gesamten behält, sondern in Teilen oder im Ganzen an jemand anderen gibt, wofür er wiederum abhängig von der Art der Arbeit nichts oder Güter oder eben einen Lohn erhält. Somit ergibt sich im Kapitalismus eine strukturelle Polarität zwischen der Bourgeoisie auf der einen und dem Proletariat auf der anderen Seite.
Den Prozess der Proletarisierung charakterisiert Wallerstein durch die Verbreitung der Lohnarbeit im Laufe der historischen Entwicklung der kapitalistischen Weltwirtschaft. Erklärt wird diese dadurch, dass die dem Kapitalismus innewohnende Notwendigkeit der Expansion regelmäßig Engpässe aufgrund mangelnder globaler Nachfrage zu überwinden hat, und eine Möglichkeit zur Überwindung solcher Engpässe stellt die Verbreitung von Lohnarbeit dar. Denn dadurch erhöht sich der Anteil des Mehrwertes, den der Produzent behält und über den er folglich zum Konsum verfügt. Entsprechend erhöht sich somit auch die globale Nachfrage. Stetige Expansion gelingt also nur durch Löhne, da diese Nachfrage erzeugen.
Die Lohnarbeit ist zudem von politischer Bedeutung. Denn mit steigendem Lohnniveau weiten sich auch die formellen Rechte der Proletarier und damit verbunden auch ihr Klassenbewusstsein aus. Dies geschieht jedoch nur bis zu einem gewissen Punkt, und zwar, bis der Proletarier faktisch zu einem Bourgeois wird.
Konkurrierende Begriffe zum Begriff „Proletariat“
Die Begriffe „Proletariat“ und „Arbeiterklasse“ werden besonders stark im marxistischen Kontext verwendet und assoziieren Ausbeutungsrealitäten sowie Emanzipationsbestrebungen (durch Reform oder Revolution). Der Klassenbegriff grenzt sich dabei von Anfang an scharf ab gegen den Begriff des sozialen Standes. Seit der ersten Hälfte des 20. Jahrhunderts ist der Klassenbegriff auch in Konkurrenz zum Begriff Schicht sowie seit der zweiten Hälfte des 20. Jahrhunderts auch in Ergänzung und/oder Konkurrenz zum Begriff des sozialen Milieus zu sehen. Bezogen auf das Proletariat sind die konkurrierenden – wenn auch nicht deckungsgleichen – Begriffe Vierter Stand, Unterschicht und Arbeitermilieu. Dabei wird z. T. zwischen traditionellem und traditionslosem Arbeitermilieu unterschieden. Bei Gerhard Schulze treten an deren Stelle Harmoniemilieu und Unterhaltungsmilieu, also Milieus, die stärker über Freizeitgestaltung und gewählten Lebensstil charakterisiert werden. Seit wenigen Jahren taucht in der Diskussion auch der Begriff der Neuen Unterschicht auf, der nun eher aus dem linken Lager eingebracht wird.
Statt „Proletarier“ verwendete man im 19. Jahrhundert auch den weniger negativ besetzten Ausdruck „Fabrikarbeiter“. In den 1950er Jahren gab es auch Ansätze, die die Klassengegensätze gänzlich als veraltet betrachteten. Sie sprachen von der Nivellierten Mittelstandsgesellschaft. Dagegen hat zu Beginn des 21. Jahrhunderts eine Diskussion unter dem Begriff Prekariat neu begonnen.
Siehe auch
Arbeiterliteratur
Diktatur des Proletariats
Klassenkampf
Lumpenproletariat
Operaismus
Proletarischer Film
Literatur
Götz Briefs: Das gewerbliche Proletariat. In: Grundriss der Sozialökonomik. IX. Abteilung: Das soziale System des Kapitalismus. 1. Teil, Tübingen 1926, S. 142–240.
Werner Conze: Vom 'Pöbel' zum 'Proletariat'. Sozialgeschichtliche Voraussetzungen für den Sozialismus in Deutschland. In: Hans-Ulrich Wehler (Hrsg.): Moderne deutsche Sozialgeschichte. Köln 1973.
Marianne Feuersenger (Hrsg.): Gibt es noch ein Proletariat? Mit Beiträgen von Hans Paul Bahrdt, Walter Dirks, Walter Maria Guggenheimer, Paul Jostock, Burkart Lutz und Heinz Theo Risse. Dokumentation einer Sendereihe des Bayerischen Rundfunks. Europäische Verlagsanstalt, Frankfurt am Main 1962.
Chris Harman: Workers of the World – Die Arbeiterklasse im 21. Jahrhundert. Übersetzung aus dem Englischen von Thomas Walter. Edition aurora, Frankfurt am Main, ISBN 3-934536-08-5.
Karl Heinz Roth: Die neuen Klassenverhältnisse und die Perspektive der Linken – Schwächen und Stärken eines überfälligen Diskussionsvorschlags. In: Karl Heinz Roth (Hrsg.): Die Wiederkehr der Proletarität. Dokumentation der Debatte. Köln 1994.
Leo Schidrowitz (Hrsg.): Sittengeschichte des Proletariats: Der Weg vom Leibes- zum Maschinensklaven. Die sittliche Stellung und Haltung des Proletariats. Verlag für Kulturforschung, Wien/Leipzig.
Edward P. Thompson: Die Entstehung der englischen Arbeiterklasse. 2 Bände, Frankfurt am Main 1987. Original: The Making of the English Working Class (1963, Neudruck als Penguin Book 1980).
Weblinks
www.nadir.org/... – Text zur „neuen Proletarität“
Einzelnachweise
Römische Gesellschaft
Marxistische Theorie
Arbeitermilieu
Soziale Klasse
|
Q132603
| 173.810044 |
5480
|
https://de.wikipedia.org/wiki/Vietnam
|
Vietnam
|
Vietnam ([], vietnamesisch Việt Nam [in Hanoi ], Bedeutung „Viet des Südens“, amtlich Sozialistische Republik Vietnam, vietnamesisch Cộng hòa Xã hội chủ nghĩa Việt Nam, Chữ Nôm 共和社會主義越南 [in Hanoi ]) ist ein langgestreckter Küstenstaat in Südostasien. Er grenzt an China, Laos, Kambodscha, den Golf von Thailand und das Südchinesische Meer.
Das erste historisch belegte Königreich auf dem Gebiet des heutigen Vietnam entstand im 1. Jahrtausend v. Chr. Danach entwickelte sich ein friedliches Zusammenleben zwischen den Yue und den Han während der Trieu-Dynastie. 111 v. Chr. kam die Dynastie unter die Kontrolle der Han-Chinesen als Provinz der Han-Dynastie und blieb dies – unterbrochen von kurzen Zeiträumen der Unabhängigkeit – bis 938 n. Chr., als sie nach der Schlacht am Bạch Đằng-Fluss die Unabhängigkeit errang. Danach folgte eine Blütezeit der Kultur, Gesellschaft, Wirtschaft und Politik. In den folgenden Jahrhunderten expandierte Vietnam nach Süden. Im 19. Jahrhundert kam das Gebiet nach und nach als Teil von Französisch-Indochina unter französische Kolonialherrschaft.
Im Zweiten Weltkrieg besetzte Japan die Region. Von 1946 bis 1954 versuchte Frankreich im Ersten Indochinakrieg ohne Erfolg, seine Kolonialherrschaft wiederherzustellen. Als Folge der französischen Niederlage wurde 1954 aus Tonkin und dem nördlichen Teil Annams das sozialistische Nordvietnam mit der Hauptstadt Hanoi und aus Cochinchina und dem südlichen Teil Annams das von den Westmächten unterstützte Südvietnam mit der Hauptstadt Saigon. Von 1964 bis 1973 scheiterten die Vereinigten Staaten von Amerika im Vietnamkrieg, Nordvietnam und die mit ihm verbündete Nationale Front für die Befreiung Südvietnams zu besiegen. Stattdessen wurden die beiden vietnamesischen Staaten 1976 unter kommunistischer Führung wiedervereinigt. Seit 1986 laufen im Rahmen des Đổi mới marktwirtschaftliche Reformen. In Ansätzen kam es zu einer politischen Liberalisierung. Hanoi wurde 1976 Hauptstadt des wiedervereinigten Vietnam, größte Stadt nach Einwohnern ist Ho-Chi-Minh-Stadt (Saigon); Haiphong, Cần Thơ und Đà Nẵng sind ebenfalls bedeutende Metropolen des Landes.
Geographie
Vietnams Fläche entspricht ungefähr 93 % jener Deutschlands. Das Land umfasst die weiten Ebenen der Flussdeltas von Rotem Fluss und Mekong, die gesamte östliche Festlandküste Südostasiens sowie die langen Gebirgszüge und Hochebenen des Hinterlandes. Die Nord-Süd-Ausdehnung beträgt etwa 1650 km, die Ost-West-Breite bis zu 600 km, während die schmalste Stelle in Mittelvietnam nur 50 km breit ist.
Die Geographie Vietnams wird auch als „Bambusstange mit zwei Reisschalen“ beschrieben: Im Norden und Süden liegen zwei fruchtbare reisliefernde Flussdeltas, dazwischen als Verbindung ein schmales, eher karges, von Wald und Gebirge geprägtes Gebiet.
Insgesamt ist Vietnam zu drei Vierteln von Bergen und Hochebenen überzogen.
Landschaften
Von Nord nach Süd werden fünf Landschaften unterschieden:
Yunnan-Hochland: Gebirgslandschaft im Norden, wo Vietnam an China grenzt und sein höchster Berg Phan-xi-păng (3144 m) liegt. Diese Region ist Siedlungsgebiet von vielen ethnischen Minderheiten, wobei die Stadt Sa Pa am Fuße des Phan-xi-păng die meisten Touristen anzieht.
Delta des Roten Flusses: Diese fruchtbare Gegend rund um die Hauptstadt Hanoi (Hà Nội) erstreckt sich bis zum Golf von Tonkin (Bắc Bộ). Touristenattraktionen sind hier die Kalksteinfelsen um Ninh Bình südlich von Hanoi, und die Halong-Bucht östlich der Hauptstadt.
Annamitisches Hochland: Das bergige, dünn besiedelte Hinterland Mittel- und Südvietnams ist vor allem Siedlungsgebiet ethnischer Minderheiten.
Annamitischer Küstenstreifen: der schmale, relativ dicht besiedelte Küstenraum zwischen dem Gebirge und dem Südchinesischen Meer in Mittel- und Südvietnam. Die größten Städte Annams sind Huế und Đà Nẵng.
Mekongdelta: fruchtbare, dichtbesiedelte Schwemmlandebene, an deren nordöstlichem Rand die Millionenstadt Ho-Chi-Minh-Stadt (Thành phố Hồ Chí Minh, bis 1976 Saigon) liegt.
Klima
Das Klima unterscheidet sich erheblich zwischen Nord- und Südvietnam. Der Norden weist ein gemäßigtes tropisches Wechselklima auf, es gibt eine kühle Jahreszeit von November bis April und eine heiße von Mai bis Oktober. Der Süden ist tropisch: warm bis sehr heiß während des ganzen Jahres, etwas kühler von November bis Januar, heiß von Februar bis Mai und mit einer Regenzeit zwischen Mai und Oktober. Die Wetterscheide zwischen diesen Gebieten bildet der Wolkenpass nördlich von Đà Nẵng.
Während der Regenzeit wüten häufig Taifune, die besonders im Mekongdelta, aber auch in anderen Küstenregionen Überschwemmungen anrichten können.
Tierwelt
Vietnam hat eine artenreiche Tierwelt, die jedoch durch die fortschreitende Zerstörung der Wälder und Wilderei bedroht ist. So leben nach neueren Schätzungen nur mehr rund 200 Tiger und weniger als 60 Asiatische Elefanten dort, deren Überleben fraglich ist. Die Java-Nashörner, die in Vietnam lange nur noch auf das Gebiet des Cat-Tien-Nationalparks beschränkt waren, sind bereits 2010 durch Wilderei ausgerottet worden. Außerhalb Vietnams leben die seltenen Tiere nur noch im Ujung-Kulon-Nationalpark auf der Insel Java. Weitere Säugetiere umfassen Primaten (Schopfgibbons, Plumploris, Languren, Makaken), Raubtiere (darunter Malaienbären, Marmorkatzen sowie etliche Schleichkatzenarten), Paarhufer (Kantschile, Muntjaks, Hirsche, Bantengrinder, Gaure) sowie zahlreiche Fledermaus- und Nagetiergattungen. Die Vogelwelt ist ebenfalls artenreich, dazu gehören Fasane, Nashornvögel, Eulen, Greifvögel, Reiher und zahlreiche Singvögel. Auch Krokodile, Schlangen, Echsen und Frösche sind in diesem Land beheimatet, dazu zahllose Arten von Insekten und Wirbellosen. In den 1990er-Jahren wurden mehrere neue Arten Vietnams beschrieben, darunter das Vu-Quang-Rind und mehrere Muntjakarten. Das Vu-Quang-Rind wird im Vu-Quang-Nationalpark geschützt.
Umwelt
Der Einsatz von Umweltgiften durch die USA während des Vietnamkrieges hat die vietnamesische Natur nachhaltig geschädigt. Vor allem dioxinhaltige Herbizide wie Agent Orange, von dem die US-Luftwaffe über 45 Millionen Liter über dem Land versprühte, zeigen in großen Landstrichen nach wie vor Wirkung, da sie sich nur sehr langsam zersetzen und eine Halbwertszeit von etwa einem Jahrzehnt haben. So wurde während des Krieges etwa die Hälfte der Mangrovensümpfe zerstört, die sich nicht selbst regenerieren können. Die entlaubten Hänge im Landesinneren können nach wie vor nicht aufgeforstet werden, denn es können sich nur sehr widerstandsfähige Gräser halten, die während der Trockenzeit sehr anfällig für Flächenbrände sind. In der Regenzeit kommt es in diesen Regionen deshalb zu extrem starker Erosion.
Unter den Spätfolgen des Dioxineinsatzes haben nicht nur jene immer noch zu leiden, die damals direkt damit in Berührung kamen (Hautverätzungen, Chlorakne, Krebs). Das Gift fand auch seinen Weg in die Nahrungskette, was durch die dadurch verursachte Schädigung des Erbgutes unter anderem zu signifikant erhöhten Zahlen an Fehl-, Tot- und Missgeburten führt.
Neben Umweltgiften sind in den ländlichen Gebieten auch noch eine große Zahl von Blindgängern und Landminen zu finden. Nach wie vor werden jedes Jahr Bauern und Altmetallsucher von explodierender Munition getötet oder verletzt.
Millionen Hektar der tropischen Wälder, die zuvor bereits unter den Herbiziden zu leiden hatten, wurden seit den 1960er Jahren durch Brandrodung und Abholzung zerstört. Besonders betroffen hiervon ist der teils schwer zugängliche Norden. Zwar versucht die Regierung dem Einhalt zu gebieten, aber der Druck der schnell wachsenden Bevölkerung und die Armut in den Bergprovinzen veranlasst die Bevölkerung immer wieder dazu, Wald niederzubrennen, um Ackerland zu gewinnen. Tropenhölzer wie Teakholz werden in Vietnam wie in ganz Südostasien trotz inzwischen strenger gesetzlicher Regelungen nach wie vor illegal gewonnen, um daraus Möbel für den europäischen, US-amerikanischen und japanischen Markt zu fertigen.
Es gibt Programme mit teils großer ausländischer Hilfe, die das Umweltbewusstsein der Vietnamesen stärken sollen. Regierung und Umweltorganisationen setzen große Hoffnungen in die Entwicklung des Ökotourismus. Sie haben bereits mehrere Nationalparks eingerichtet – den ältesten davon schon 1962 –, und einige Landschaften des Landes stehen unter besonderem Schutz der UNESCO.
Verwaltungsgliederung
Vietnam ist in 58 Provinzen und fünf Munizipalitäten unterteilt. Unter dieser Ebene folgen Städte, Distrikte und Dörfer. Die Volksräte der Provinzen und Munizipalitäten sind direkt der Zentralregierung unterstellt. Auf Distrikts- und Gemeindeebene gibt es ebenfalls gewählte Volksräte, gegenüber welchen die lokalen Behörden bis zu einem gewissen Maß gebunden sind. Die Volksräte wählen außerdem die Volkskomitees, welche die regionalen Regierungen darstellen.
Städte
Die zwei mit Abstand wichtigsten Städte sind die Hauptstadt Hanoi (Hà Nội) und die größte Stadt Vietnams Ho-Chi-Minh-Stadt (Thành phố Hồ Chí Minh, früher Saigon). Während letztere eine der schnellstwachsenden Boomstädte der Welt ist und als wirtschaftliches Zentrum des ASEAN verstanden wird, hat Hà Nội den Ruf, ruhiger und eleganter zu sein. In der Tat ist Hà Nội in wirtschaftlichen Belangen gegenüber der südlichen Metropole recht weit im Hintertreffen.
Die Hafenstädte Đà Nẵng, Hải Phòng und Nha Trang sind in ihrem Stadtbild teilweise stark französisch geprägt. Dies ist unter anderem an den Kirchen und Villen der Städte zu erkennen. Die Städte Huế als Hauptstadt während der letzten Kaiserdynastie und die kaiserliche Sommerresidenz Đà Lạt im südlichen Hochland sind von großer geschichtlicher Bedeutung und ziehen viele Besucher an. Für Touristen ist auch die Handelsstadt Hội An interessant, da ihre zum UNESCO-Weltkulturerbe erklärte Altstadt sehr gut erhalten ist. Reine Industriestädte sind hingegen Vinh, Ninh Bình, Mỹ Tho oder Bến Tre.
Die gesamte Küste ist mit touristisch teils unerschlossenen Stränden übersät. Beispiele dafür sind Mũi Né, Long Hải und Vũng Tàu am Südchinesischen Meer sowie Hà Tiên am oder die Insel Phú Quốc im Golf von Thailand.
Im Jahr 2021 lebten 38 Prozent der Einwohner Vietnams in Städten. Die 5 größten Städte sind (Stand 2016):
Ho-Chi-Minh-Stadt: 6.642.000 Einwohner
Hanoi: 3.442.000 Einwohner
Da Nang: 915.000 Einwohner
Hai Phong: 842.000 Einwohner
Bien Hoa: 821.000 Einwohner
Bevölkerung
Demografie
Vietnam hatte im Jahr 2020 geschätzt 97,3 Millionen Einwohner. Der Median des Alters der Bevölkerung lag im Jahr 2020 bei 32,5 Jahren. Das Bevölkerungswachstum wird auf 1,3 % bis 1,4 % geschätzt. Die Anzahl der Geburten pro Frau lag 2020 statistisch bei 2,0. Aufgrund verbesserter medizinischer Bedingungen sinkt die Sterberate (2005: 6,2 pro 1000). Die Lebenserwartung der Einwohner Vietnams ab der Geburt lag 2020 bei 75,5 Jahren (Frauen: 79,6, Männer: 71,4).
Während die vietnamesische Bevölkerung von westlichen Beobachtern als durchweg jung wahrgenommen wird, beginnt Vietnam sich darauf einzustellen, dass die Bevölkerung in eine Phase der Alterung eingetreten ist. Am 1. April 2010 erreichte die Zahl der über 60-Jährigen den Stand von 8,1 Millionen; das sind 9,4 % der Gesamtbevölkerung und bedeutet einen Zuwachs von 4 % gegenüber 2009. Vietnam gehört damit zu den Ländern mit einer außergewöhnlich schnellen Alterung der Gesamtbevölkerung. Während es in Schweden 85 Jahre, in Japan 26 Jahre und in Thailand 22 Jahre dauerte, um den Status alternde Bevölkerung nach den Richtlinien der UNFPA (United Nations Population Fund) zu erreichen, dauerte dies in Vietnam nur 20 Jahre. Die schnelle Alterung der Bevölkerung ist darauf zurückzuführen, dass die Fertilitätsrate von über 5 Kindern pro Frau in den 70er Jahren auf heute noch 2,0 Kinder zurückgegangen ist.
Vietnam hat, wie China und Indien auch, eine hohe Geschlechterungleichheit bei Geburten: Es werden deutlich mehr Jungen geboren als Mädchen. In den Jahren 2003 bis 2013 erlangte diese einen Höhepunkt und nahm danach wieder ab. Als einer der Gründe gilt die 1988 von der vietnamesischen Regierung beschlossene Zwei-Kind-Politik. Insbesondere bei zweiten oder dritten Schwangerschaften kommt es vermehrt zu Abtreibungen weiblicher Föten.
Die Mehrheit der Bevölkerung lebt in den dichtbesiedelten Gebieten der Mündungsdeltas von Rotem Fluss und Mekong, in denen Landwirtschaft vorherrscht. Trotz der agrarischen Prägung lebten 2016 bereits rund 34 % der Vietnamesen in den urbanen Regionen der großen Städte (in den 1980er Jahren waren es nur 15 %), und die Zuwanderung aus den wirtschaftlich wenig entwickelten ländlichen Gebieten nimmt stetig zu. Dazu kommt eine Wanderungsbewegung von Norden in Richtung Süden. In Vietnam existiert selbst kein privates Eigentum an Grund und Boden. Der vietnamesische Staat erteilt Landnutzungsrechte, deren durchschnittliche bewilligte Nutzungsdauer rund 50 Jahre beträgt.
Knapp 2,5 Millionen leben im Ausland, die meisten davon sind im Vietnamkrieg geflüchtet oder mussten das Land aufgrund von politischer Verfolgung verlassen. Knapp 1,3 Millionen davon leben in den Vereinigten Staaten und 125.000 in der ehemaligen Kolonialmacht Frankreich. Die Rücküberweisungen der Exil-Vietnamesen sind eine äußerst wichtige Einnahmequelle für die Verwandten in der Heimat. In Vietnam selbst sind nur 0,1 % der Einwohner im Ausland geboren, womit das Land eines der homogensten weltweit ist.
Entwicklung der Bevölkerung über Zeit
Quelle: UN, Zahlen für 2030 und 2050 sind Prognosen
Völker
Etwa 88 % der Bevölkerung sind ethnische Vietnamesen (Việt oder Kinh). Daneben sind 53 ethnische Minderheitengruppen anerkannt. Die größte davon sind die „Auslandschinesen“ (vietnam.: Hoa), deren Zahl auf etwa 1,2 Millionen geschätzt wird. Die Mehrzahl von ihnen sind Nachfahren von Einwanderern, die 1644, nach dem Zusammenbruch der Ming-Dynastie, ins Land gekommen waren. Weitere Volksgruppen sind Thái, Khmer (vor allem im Süden, der Region des Mekongdelta, die über Jahrhunderte zu Kambodscha gehörte) und die unter der Sammelbezeichnung Montagnards („Bergvölker“) bekannten Bewohner der Bergregionen. Letztere, die als die ursprünglichen Bewohner des kontinentalen Südostasien gelten, wurden im Verlauf der Geschichte in Vietnam, Thailand, Myanmar und Laos von den zugewanderten Mehrheitsvölkern aus den fruchtbareren Regionen der Flussebenen und Küsten in die unzugänglichen Bergregionen verdrängt.
Da einige Angehörige der „Bergvölker“ im Indochinakrieg und im Vietnamkrieg jeweils auf Seiten Frankreichs bzw. der USA kämpften, gab es nach der Wiedervereinigung Vietnams Repressionen gegen diese Völker und sie sind in der vietnamesischen Gesellschaft teils nicht gut angesehen. Aber auch Minderheitenvölker, die auf vietnamesischer Seite gekämpft haben, finden kaum positive Beachtung. Diese Völker sind bis heute von der wirtschaftlichen Entwicklung des Landes weitgehend abgeschnitten und leben vergleichsweise in Armut. Kultur und Sprache der Minderheiten unterscheiden sich meist sehr stark von jener der Vietnamesen.
Sprachen
Die Amtssprache ist Vietnamesisch, das 88 % der Bevölkerung als Muttersprache beherrschen. Geschrieben wird die vietnamesische Sprache seit 1945 in einer eigenen, lateinbasierten Schrift. Aus vietnamesischer Sicht werden die zahlreichen ethnischen Minderheiten anerkannt, die Sprachen der Minderheiten erlaubt und auch gefördert.
Die französische Sprache hatte nach der französischen Kolonialzeit schrittweise ihren offiziellen Status verloren, hat aber weiterhin hohe Bedeutung, da sie in vielen Schulen als erste Fremdsprache unterrichtet wird. Vietnam ist zudem Vollmitglied der Gemeinschaft frankophoner Staaten. Viele Vietnamesen sind während der Indochinakriege nach Frankreich ausgewandert und bilden dort eine französischsprachige Diaspora. Russisch – und in geringerem Ausmaß auch Deutsch, Tschechisch und Polnisch – werden von vielen Vietnamesen beherrscht, die während des Kalten Krieges in den Staaten des Ostblocks studiert oder gearbeitet haben. Mittlerweile werden die russische und die französische Sprache durch das Englische aus dem öffentlichen und dem Schulleben verdrängt, weil viele Touristen aus dem angelsächsischen Raum kommen und der Handel mit dem ehemaligen „Erzfeind“ USA zunimmt. Das Erlernen des Englischen ist heute in den meisten Schulen obligatorisch, obwohl Französisch immer noch in manchen Bildungseinrichtungen angeboten wird.
Religion
Genaue Angaben über die Religionszugehörigkeit in Vietnam sind schwer zu machen. Die große Mehrheit der Vietnamesen bekennt sich zu keinem Glauben. Laut einer 2004 veröffentlichten Studie sind 81,5 Prozent der Vietnamesen Atheisten. Schätzungen gehen von ca. 20 Millionen Buddhisten und 6 Millionen Katholiken aus. Weitere Konfessionen sind Cao Dai (2 Millionen Anhänger), Hoa Hao (1 Million), Protestantismus (500.000) und Islam (50.000). Im Religionsverständnis der Vietnamesen gibt es keine strikte Trennung verschiedener Konfessionen. Die Religiosität ist zumeist eine historisch gewachsene Mischung mit vielen Aspekten unterschiedlicher religiöser Ursprünge. Es ist für Vietnamesen nicht unüblich, regelmäßig buddhistische Pagoden zu besuchen und ihre Ahnen zu verehren.
Die Alltagsreligiosität – bzw. vielmehr die Lebensweise – ist im Allgemeinen am ehesten durch den Theravada- und Mahayana-Buddhismus, den Taoismus, den Konfuzianismus, sowie animistische Vorstellungen und insbesondere auch einen Ahnenkult beeinflusst, ohne dass es dabei zu Dogmen kommt. Geisterglaube ist verbreitet. Rituelle Handlungselemente der unterschiedlichen Einflüsse können beim Einzelnen je nach Alltagssituation auftreten. In den ursprünglich konfuzianistisch geprägten Volksreligion Đạo Mẫu und Cao Đài gibt es auch heute noch Stadtschamanen (Dong), die vielfältige Rituale des Opfers und der Inspiration ausführen. Besonders beliebt bei allen Vietnamesen unabhängig von ihrer Konfession ist das Lên đồng-Ritual, bei dem die Schamanin die Geister in Trance um Gesundheit und Wohlstand für die Gastgeber des Rituals bittet. Dabei spielt das Kostüm eine wichtige Rolle: Es spiegelt die klassische Hoftracht der Vormoderne und wird dem Geist „angezogen“, um ihn in dieser Weise zu ehren. Der Geist tritt dann über das Medium mit den Anwesenden in Kontakt, um Opfergaben in Empfang zu nehmen und die Musik zu genießen.
Anders als in anderen asiatischen Staaten existiert in (Süd-)Vietnam seit 1963 auch eine zentrale Vereinigung von Ordensleuten und Laien aller buddhistischen Schulen, die „Kongregation der Vereinigten Vietnamesischen Buddhistischen Kirche“ (KVVBK).
Die Verfassung Vietnams sieht generell eine Religions- bzw. Glaubensfreiheit vor. Da religiöse Institutionen aber immer auch eine gewisse Konkurrenz zum staatlichen Einfluss auf die Bevölkerung darstellen, wurden Religion und deren Institutionen zumindest in der Vergangenheit seitens der Kommunistischen Partei Vietnams mit Misstrauen behandelt.
Der katholische Glaube kam erstmals im 16. Jahrhundert mit französischen, spanischen und portugiesischen Missionaren ins Land. Er wurde unter Druck der französischen Kolonialherrschaft verbreitet. Nachdem der Katholizismus in den ersten Jahren der kommunistischen Herrschaft aktiv bekämpft wurde, bemüht sich die Regierung nun um ein besseres Verhältnis zum Heiligen Stuhl. Der Besuch des damaligen Premierministers Nguyễn Tấn Dũng bei Papst Benedikt XVI. 2007 hat die Hoffnung auf eine weitere Öffnung hin zu einer größeren Religionsfreiheit gestärkt, aber die katholische Kirche wird weiterhin als „reaktionär“ angesehen.
Bildungswesen
Im Jahr 2000 wurden laut Schätzungen 92 % aller Kinder eingeschult. Jedoch nur zwei Drittel absolvierten die fünf Grundschuljahre. Speziell auf dem Land verlassen viele Kinder vorzeitig die Schule, wobei die Gründe in den Kosten für Schulmaterial, Bücher und Uniformen sowie der Notwendigkeit, Geld für den Familienunterhalt verdienen zu müssen, zu suchen sind. Regional gibt es riesige Unterschiede: In einigen ländlichen Gegenden gehen nur 10 bis 15 % der Kinder länger als drei Jahre zur Schule, während in Ho-Chi-Minh-Stadt 96 % der Schüler die Grundschuljahre beenden. Nur 62,5 % der Kinder beginnen die Mittelschule. In Vietnam stieg die mittlere Schulbesuchsdauer (Hochschulbesuche miteinberechnet) der über 25-Jährigen von 3,9 Jahren im Jahr 1990 auf 8 Jahre im Jahr 2015 an. Die aktuelle Bildungserwartung (Hochschulbesuche miteinberechnet) beträgt bereits 12,6 Jahre.
Etwa 6 % der Einwohner über 15 Jahre sind Analphabeten; Analphabetismus betrifft 3,7 % der Männer und 7,2 % der Frauen, insgesamt liegt sie bei 4,5 % (Stand: 2015). In Vietnam gibt es keine Schulpflicht. Da die Ausbildung selbst bezahlt werden muss und einige Familien dafür nicht genug Geld haben, schicken sie ihre Kinder nicht in die Schule. Im PISA-Ranking von 2015 erreichen vietnamesische Schüler Platz 22 von 72 Ländern in Mathematik, Platz 8 in Naturwissenschaften und Platz 30 beim Leseverständnis. Vietnam erreichte damit ein für ein Entwicklungsland außergewöhnlich gutes Ergebnis.
Die Grundschule geht bis zur 5. Klasse, die Mittelschule bis zur 9.; dann muss man eine Prüfung bestehen, um in die Oberschule zu kommen (10., 11. und 12. Klasse). Wird diese nicht bestanden, bleibt man immer wieder sitzen. Dies gilt für Gymnasium und Realschule (vorausgesetzt, man bricht die Ausbildung nicht ab).
Besucht man ein Gymnasium bzw. eine Realschule, kann und darf man nicht mehr wechseln.
Es gibt staatliche und private Universitäten, die renommiertesten davon sind die Staatliche Universität Hà Nội und die Staatliche Universität Hồ-Chí-Minh-Stadt; der Zugang wird durch eine Aufnahmeprüfung der jeweiligen Universität geregelt. Seit 2008 befindet sich in Hồ-Chí-Minh-Stadt auch die Vietnamesisch-Deutsche Universität.
Die verbreitetste Fremdsprache in Vietnam ist heute Englisch. Aus Gründen, die mit der Geschichte des Landes und der früheren Einbindung in den Ostblock zusammenhängen, trifft man oft Leute an, die Französisch, Russisch oder Deutsch sprechen; so haben etwa 100.000 Vietnamesen in der DDR studiert, gearbeitet oder eine Ausbildung genossen. Immer mehr Vietnamesen lernen auch Japanisch und Chinesisch.
Gesundheitswesen
Im Jahr 2001 gab die Regierung 0,9 % des BIP für das Gesundheitssystem aus. Im Jahr 2000 gab es 14,8 Krankenhausbetten pro 10.000 Einwohner, was auch für Asien ein sehr niedriger Wert ist. 80 % aller Aufwendungen für das Gesundheitssystem stammen von den Patienten selbst.
Nachdem in den 1980er und 1990er Jahren Krankheiten wie Malaria, Tuberkulose, Denguefieber, Typhus und Cholera große Probleme darstellten, hat Vietnam ausländische Hilfe angenommen und diese Epidemien weitgehend zurückgedrängt. Die HIV-Prävalenz lag 2005 offiziell bei 0,35 %, was dem weltweiten Durchschnitt entspricht. HIV/AIDS-Patienten werden gesellschaftlich geächtet, was eine effiziente Bekämpfung der Epidemie erschwert.
Eine Gesundheitsstudie aus dem Jahr 2007 zeigt, dass 87 % der Vietnamesen aus der Altersgruppe der 60- bis 69-Jährigen an Krankheiten leidet. In den noch älteren Bevölkerungsschichten ist die Krankheitsrate noch größer.
Nach den zahlreichen Kriegen in Vietnams Vergangenheit sind 5 Millionen Vietnamesen bzw. 6 % der Bevölkerung behindert.
Der Anteil der unterernährten Bevölkerung konnte von 24,3 % im Jahr 2000 auf 10,7 % im Jahr 2015 gesenkt werden.
Quelle: UN
Geschichte
Altertum
Die frühesten Spuren menschlicher Aktivität auf dem Gebiet des heutigen Vietnam wurden bisher mit dem Fundplatz Nui Do in der Provinz Thanh Hoa verbunden und in die Zeit vor etwa 300.000 Jahren datiert. Da es sich um Oberflächenfunde von sehr groben Steinartefakten handelt, die einige vietnamesische Archäologen auch in die Bronzezeit datierten, blieb dieser frühe Nachweis lange umstritten. Seit 2014 haben Ausgrabungen in der Provinz Gia Lai neue Steingeräte aus Fundschichten zutage gebracht, die auf ein Alter von 800.000 Jahren datiert werden.
Die ältesten bisher bekannten Kulturen dieser Region sind fast ausschließlich durch Steinartefakte überliefert und werden deshalb auch als Steingeräte-„Industrien“ bezeichnet. Dazu gehört die mehr als 30.000 Jahre alte Sơn-Vi-Kultur in Nordvietnam, gefolgt von der rund 20.000 Jahre alten Hoa-Binh-Kultur. Die letzte altsteinzeitliche Kultur der Region war die Bac-Son-Kultur (ca. 10.000 v. Chr.), die auch bereits Keramik anfertigte. Der Bewässerungsanbau von Reis war etwa ab 3000 v. Chr. bekannt.
Die Bronzezeit begann im Norden etwa um 1300 v. Chr. mit der Phung-Nguyen-Kultur, deren Bevölkerung vor allem eine ausgedehnte Region nordwestlich von Hanoi besiedelte. Etwa ab 400 v. Chr. existierte im Delta des Roten Flusses die Dong-Son-Kultur, bekannt vor allem für ihre reich verzierten Bronzetrommeln. Aus dieser Kultur ging in der zweiten Hälfte des 1. Jahrtausends v. Chr. das erste bekannte Königreich der Việt () hervor, das den größten Teil des heutigen Nordvietnam umfasste. Südlich benachbart siedelten während der Eisenzeit ab dem 4. Jh. v. Chr. Bevölkerungsgruppen der Sa-Huynh-Kultur, die bis zum Beginn des 1. Jh. n. Chr. existierte. Die Gefäßgräberfelder dieser Kultur wurden vor allem in der Nähe der Mündungen großer Flüsse, wie beispielsweise entlang des Unterlaufs des Thu-Bon-Flusses in der Provinz Quang Nam nachgewiesen
Im 3. Jahrhundert v. Chr. wanderten Âu Việt aus dem Gebiet des heutigen Südchina ein und vermischten sich mit den ansässigen Lạc Việt. Im Jahr 258 v. Chr. gründete Thục Phán das Königreich Âu Lạc (aus der Vereinigung von Âu Việt und Lạc Việt) und erklärte sich selbst zum König. Nach einem langen Krieg mit den Qín wurde er 208 v. Chr. von dem Qín-General (vietnamesisch: Triệu Đà) besiegt. Dieser rief sich selbst zum König aus und nannte sein Königreich Nam Việt ( = Südviệt oder Südyuè).
Im Jahr 111 v. Chr. wurde Nam Việt von Truppen Hàn Wǔdìs erobert und als Präfektur ( (quận)) (Giao Chỉ) in das chinesische Reich eingegliedert. Unter dieser Herrschaft wurden technische Errungenschaften im Reisanbau, in der Viehhaltung und in der Baukunst übernommen. Es kam aber auch zu zahlreichen Aufständen und kurzen Phasen der Unabhängigkeit. Im Jahr 679 wurde die Präfektur in An Nam () umbenannt.
Frühe Dynastien
Am Anfang des 10. Jahrhunderts brach in China die Tang-Dynastie zusammen. Annam nutzte die Schwächephase, um sich der chinesischen Macht zu entziehen. Der erste vietnamesische Staat entstand 938 unter dem Strategen Ngô Quyền. Bis 968 wurde der Staat unter Đinh Bộ Lĩnh konsolidiert; bis 1009 wechselten sich jedoch mehrere kurzlebige Dynastien an der Macht ab.
Von 1010 bis 1225 wurde der Staat Dai Viet von der Lý-Dynastie beherrscht. Ihr Gründer Lý Thái Tổ verteidigte ihn erfolgreich gegen Chinesen, Khmer und Cham. Die Ly stärkten das Staatswesen nach chinesischem Vorbild und passten es an vietnamesische Bedürfnisse an.
Nach Unruhen übernahm im Jahr 1225 die Trần-Dynastie die Macht. Sie verteidigte 1257/58 in Allianz mit den Cham das Land erfolgreich gegen drei Angriffe der Chinesen und Mongolen unter Kublai Khan (Yuan-Dynastie). Unter der Führung von Trần Hưng Đạo gelang es den Vietnamesen, eine Armee von angeblich 500.000 Mongolen zu besiegen und die Unabhängigkeit Vietnams zu sichern. Um 1400 löste die Hồ-Dynastie die Trần ab und es kam zu einer kurzzeitigen chinesischen Herrschaft unter den Ming. Diese versuchten, Vietnam bewusst weiter zu sinisieren, beispielsweise wurde das vietnamesische Literaturerbe systematisch zerstört.
Im Jahr 1427 gründete Lê Lợi die Lê-Dynastie, die bis 1789 regierte. Unter den Le wurden wieder die vietnamesischen Traditionen bewusst betont, dennoch blieb der Konfuzianismus die dominante Säule der Staatsorganisation. Champa wurde erobert und die vietnamesische Macht bis an den Mekong ausgedehnt. Bereits ab dem Ende des 15. Jahrhunderts erodierte die Macht des Königshauses. Nutznießer waren einflussreiche Händlerfamilien (vor allem die Trinh und Nguyen) und die seit 1516 präsenten Europäer. Das vietnamesische Königshaus musste zahlreiche Jesuiten und Franziskaner im Land dulden. Die europäischen Missionare brachten neben der neuen Religion auch neue Technologien ins Land, beispielsweise entwickelte der Jesuit Alexandre de Rhodes die bis heute gebräuchliche, auf den lateinischen Buchstaben basierende vietnamesische Schrift Quốc ngữ.
Im Jahr 1765 brach die Tây-Sơn-Rebellion aus. Aus dem nachfolgenden Bürgerkrieg ging 1789 der Prinz Nguyễn Ánh aus der einflussreichen Händlerfamilie Nguyễn mit französischer Hilfe als Sieger hervor. Er rief sich zum Kaiser Gia Long aus, verlegte die Hauptstadt des Landes nach Huế und initiierte erstmals die Namensgebung Việt Nam für das Land. 1802 ersuchte er den chinesischen Kaiser Jiāqìng um die Erlaubnis, das Land von Đại Việt 大越 in Nam Việt 南越 umbenennen zu dürfen. Dieser tauschte allerdings die beiden Silben zu Việt Nam 越南, um Verwechslungen mit dem alten Königreich Nam Việt unter Qín-General Zhào Tuó (vietn.: Triệu Đà) zu verhindern, da dieses Reich einen Teil des Gebietes umfasste, das später Südchina wurde.
Unter der Herrschaft Gia Longs wurden mit französischer Beratung große Infrastruktur- und Verteidigungsprojekte in Angriff genommen, die die Staatskasse leerten. Das Territorium des Reiches wurde erweitert, ab 1834 gehörten Teile des heutigen Kambodscha als Provinz Trấn Tây thành zu Vietnam.
Französische Kolonialherrschaft
Ab Mitte des 19. Jahrhunderts verstärkten die Franzosen ihren Druck auf die Nguyen-Kaiser, was zu Ausschreitungen der verarmten Bevölkerung gegen französische Missionare führte. Um als Schutzmacht der christlichen Missionen Stärke zu demonstrieren, griffen französische Kanonenboote 1858 den Hafen Đà Nẵng und das Mekongdelta an und tauchten auch auf dem Parfüm-Fluss auf, der durch die Hauptstadt Huế fließt. Ab 1862 musste Vietnam Gebiete an die Franzosen abtreten. Bis 1883 wurden drei Protektorate namens Annam, Cochinchina und Tonkin gegründet, die der vietnamesische Kaiser akzeptieren musste. Damit stand Vietnam unter französischer Kolonialherrschaft. Mit der Einführung der Geldwirtschaft schritt die Verarmung der Bevölkerung voran, während auf dem Land eine schmale Großgrundbesitzerschicht entstand. Die chinesische Minderheit dominierte die Ökonomie des Landes. Bereits ab 1905 waren vietnamesische nationalistische Freiheitskämpfer um Phan Bội Châu (1868–1940) und Cuong De in Japan und Südchina aktiv.
In der Folgezeit kamen vietnamesische Studenten und Intellektuelle in Europa, vor allem in Frankreich, mit den Ideen des Nationalismus und Kommunismus in Kontakt. Der bedeutendste unter ihnen war Hồ Chí Minh (1890–1969), der 1929 die in Annam, Cochinchina und Tonkin tätigen kommunistischen Parteien zu einer Einheitspartei vereinigte. Die Partei wurde 1930 nach dem missglückten Yen-Bai-Aufstand und der Hinrichtung vieler ihrer Mitglieder dezimiert und geschwächt.
Während des Zweiten Weltkrieges geriet 1941 ganz Indochina und damit auch Vietnam verstärkt unter den Einfluss Japans (geteilte Herrschaft mit dem Vichy-Regime). Nachdem Hồ Chí Minh 1941 aus dem Exil zurückgekehrt war, wurde bald aus über 40 lokalen Widerstandsgruppen eine Liga für die Unabhängigkeit Vietnams unter der Kurzbezeichnung Việt Minh zur Abwehr des japanischen Imperialismus und französischen Kolonialismus gebildet. Im März 1945 besetzten die Japaner Indochina, beendeten die französische Kolonialverwaltung und setzten Kaiser Bảo Đại ein. Die USA unterstützten die Việt Minh, die bei der Bekämpfung der japanischen Okkupation einige Erfolge erzielten. Nach der Kapitulation Japans musste Bảo Đại am 25. August 1945 abdanken. Am 2. September 1945 proklamierte Hồ Chí Minh nach der erfolgreichen Augustrevolution die Demokratische Republik Vietnam. Die Unabhängigkeitserklärung berief sich auf die Unabhängigkeitserklärung der Vereinigten Staaten von 1776 und auf die Deklaration der Menschen- und Bürgerrechte der französischen Revolution.
Nach der Potsdamer Konferenz fiel Vietnam in den Herrschaftsbereich der Briten. Diese mussten jedoch die besiegten Japaner bitten, im aufständischen Süden einzuschreiten. Im Norden wiederum marschierten ab September 1945 nationalchinesische Truppen mit dem Auftrag ein, die Japaner zu entwaffnen. Trotz eines Friedensvertrages mit den Việt Minh erzwangen die Franzosen am 23. September 1945 die Wiedererrichtung ihres kolonialen Regimes in Südvietnam, so dass am 5. Oktober französische Truppen in der Stadt Saigon landeten. Chinesen und Briten übergaben Vietnam wieder an Frankreich.
Indochinakrieg und Teilung in zwei Staaten
Der Versuch Frankreichs, auch das inzwischen unabhängige Nordvietnam wieder unter seine Kontrolle zu bringen, führte 1946 zum Ausbruch des Ersten Indochinakrieges. In Südvietnam wurde 1948 eine unter französischer Aufsicht stehende Gegenregierung eingesetzt, der ab 1949 der ehemalige Kaiser Bảo Đại als Staatsoberhaupt vorstand. Nach jahrelangem Guerillakampf gelang es den Việt Minh unter General Võ Nguyên Giáp am 7. Mai 1954, die Franzosen in der Schlacht um Điện Biên Phủ zu besiegen. Dieser Sieg markierte das Ende der französischen Kolonialherrschaft in Indochina. Es folgten ein Waffenstillstand und die Genfer Konferenz vom 21. Juli 1954, auf der die Teilung Vietnams entlang des 17. Breitengrades in die (nördliche) Demokratische Republik Vietnam (Hauptstadt Hanoi) und die (südliche) Republik Vietnam (Hauptstadt Saigon) beschlossen wurde. Bis Mai 1955 hatte Frankreich alle Truppen aus Indochina abzuziehen.
In Südvietnam beauftragte Bảo Đại am 16. Juni 1954 den Katholikenführer Diệm mit der Regierungsbildung. Im Jahr darauf entmachtete Diệm Bảo Đại und erhob sich selbst zum Staatschef. Landreformen, die die Việt Minh veranlasst hatten, wurden zurückgenommen. Die Regierung Diệms war unpopulär, Studenten und Buddhisten protestierten gegen die Regierungspolitik. Die USA verstärkten ihre Unterstützung für Südvietnam, um den Sturz des Regimes zu verhindern. Bis 1960 versank Südvietnam immer mehr in Korruption und Chaos. Am 1. November 1963 wurde Diệm gestürzt und ermordet. Darauf folgten mehrere kurzlebige Militärregierungen, bis sich ab 1967 unter dem von den USA protegierten Präsidenten Nguyễn Văn Thiệu eine neue, stabile Regierung etablieren konnte.
Vietnamkrieg
Im März 1956 genehmigte die Kommunistische Partei Nordvietnams Maßnahmen zur Wiederbelebung des Aufstands in Südvietnam. Im April 1957 begann ein kommunistisch geführter Aufstand gegen die südvietnamesische Regierung. Die Kommunistische Partei Nordvietnams billigte im Januar 1959 einen „Volkskrieg“ in Südvietnam. Am 28. Juli fielen nordvietnamesische Streitkräfte in Laos ein, um den Ho-Chi-Minh-Pfad beizubehalten und zu verbessern, um Aufständische im Süden zu unterstützen. Der Aufstand, angeführt von der Nationale Front für die Befreiung Südvietnams, die unter der Kontrolle Nordvietnams stand, hatte sich 1961 intensiviert. Etwa 40.000 kommunistische Soldaten waren 1961–63 in den Süden eingedrungen, um den Aufstand zu unterstützen.
Am 2. und 4. August 1964 ereignete sich der Zwischenfall im Golf von Tonkin. Die USA starteten ab 1965 massive „Vergeltungsangriffe“ auf Nordvietnam. Die erst 1971 veröffentlichten sogenannten Pentagon-Papiere zeigten auf, dass die USA diesen Krieg unter anderem seit längerem geplant hatten, um die Machtübernahme der Kommunisten in Südvietnam zu verhindern. Ab 1965 führten die USA einen systematischen Luftkrieg gegen Nordvietnam; im Süden operierten US-Bodentruppen. Bis 1968 eskalierte der Krieg, obwohl die USA Nordvietnam militärisch weit überlegen galten. Auf der Seite der Nationalen Front für die Befreiung Südvietnams kämpften rund 230.000 Partisanen und 50.000 Angehörige der offiziellen nordvietnamesischen Streitkräfte. Ihnen standen rund 550.000 Amerikaner, ungefähr die gleiche Zahl ARVN-Soldaten, 50.000 Südkoreaner und kleinere Kontingente Verbündeter (darunter auch aus Australien und Neuseeland) gegenüber.
Am 31. Januar 1968 gelang den Viet Cong ein politisch wichtiger Sieg: In der Tet-Offensive nahmen die kommunistischen Partisanen Südvietnams vorübergehend Teile Saigons und weiterer Städte ein, die gut gesicherte Botschaft der USA in Saigon wurde angegriffen. In den USA konnte nun die Regierung nicht mehr behaupten, dass der Konflikt unter Kontrolle sei. Trotz schwerer Verluste der Vietcong schien offensichtlich, dass der Krieg nicht mehr gewonnen werden konnte. Die öffentliche Meinung in den USA schwenkte um, nicht zuletzt aufgrund von Presseberichten und Bildreportagen über Kriegsgräuel, Massaker und Napalm-Opfer. Die USA beschlossen deshalb 1969 die Vietnamisierung des Krieges und den Abzug ihrer Truppen in mehreren Schritten. Die Bombardierungen und Luftangriffe, insbesondere die Verwendung von Entlaubungsmitteln, dauerten bis 1973 an.
Am 2. September 1969 starb Hồ Chí Minh, der Präsident Nordvietnams. Am 27. Januar 1973 vereinbarten Henry Kissinger und Lê Đức Thọ, der Nachfolger von Hồ Chí Minh, einen Waffenstillstand. Damit endete die direkte Kriegsbeteiligung der USA, die Waffenlieferungen an Südvietnam gingen jedoch weiter. Die Nordvietnamesen setzten den Kampf gegen Südvietnam erfolgreich fort. Am 21. April 1975 stand Saigon vor dem Fall, Staatschef Nguyễn Văn Thiệu legte sein Amt nieder, die letzten verbliebenen Vertreter der USA wurden evakuiert. Am 30. April wurde Saigon eingenommen, Südvietnam kapitulierte bedingungslos am 1. Mai 1975, der Vietnamkrieg war damit zu Ende. Bis zur Wiedervereinigung übernahm eine Provisorische Revolutionäre Regierung die Macht im Süden.
Sozialistische Republik Vietnam
Am 2. Juli 1976 wurden Nord- und Südvietnam unter dem Namen Sozialistische Republik Vietnam wiedervereint. Saigon, die ehemalige Hauptstadt Südvietnams, wurde in Ho-Chi-Minh-Stadt (Thành phố Hồ Chí Minh) umbenannt.
Das in der Folge des Vietnamkrieges entstandene kommunistisch-maoistische Regime der Roten Khmer in Kambodscha und vor allem deren Attacken auf vietnamesisches Gebiet veranlassten Vietnam, in Kambodscha einzumarschieren. Anfang 1979 eroberten vietnamesische Truppen Phnom Penh und errichteten einen von Vietnam abhängigen „Revolutionären Volksrat“ unter Heng Samrin. Die Volksrepublik China, die die Regierung der Roten Khmer unterstützt hatte, provozierte daraufhin angesichts der moskautreuen Politik Vietnams entlang der Grenze zu Vietnam bewaffnete Auseinandersetzungen, die als Erziehungskrieg bekannt wurden. Während der mehrwöchigen Kämpfe erlitten beide Seiten hohe Verluste. China zog sich schließlich wieder zurück und gab an, seine Ziele erreicht zu haben. Der Konflikt endete ohne klaren Sieger. Erst 1989 zog sich Vietnam aus Kambodscha zurück.
Im Jahr 1983 befanden sich rund 2000 sowjetische Militärberater im Land, die Luft- und Seestützpunkte (u. a. in Cam Ranh) sowie eine Abhörstation betrieben, deren Nutzung vertraglich vereinbart war.
Der Wandel wurde elf Jahre nach Ende des Vietnamkrieges eingeleitet. Nach der Militäroffensive Vietnams gegen die Roten Khmer in Kambodscha und dem Krieg gegen China lag Vietnam brach, Hungersnöte drohten. Die Kommunistische Partei Vietnams veranlasste ab 1986 wirtschaftliche Reformen, genannt Đổi mới (Erneuerung). Die Planwirtschaft wurde auf eine „sozialistische Marktwirtschaft“ umgestellt. Besitz wurde erlaubt, ausländische Investitionen bei Dominanz der staatlichen und genossenschaftlichen Unternehmen wurden erlaubt.
Politische Reformen wurden nicht durchgeführt.
Ab Beginn der 1990er Jahre setzte man auch auf den Tourismus.
Während der 1990er Jahre wuchs die Wirtschaft stark und Vietnam wurde wieder in die internationale Staatengemeinschaft aufgenommen.
Am 3. Februar 1994 hob die Regierung Clinton das seit dem Vietnamkrieg bestehende Handelsembargo auf.
1995 nahmen Vietnam und die USA wieder diplomatische Beziehungen auf; 2001 trat ihr bilaterales Handelsabkommen in Kraft.
Politik
Vietnam ist ein Einparteienstaat, in welchem die Kommunistische Partei Vietnams die Einheitspartei darstellt und somit das Monopol auf die Macht innehat. Die Menschenrechtslage ist problematisch. Die Presse wird entsprechend der Regierungsmeinung zensiert und die Zivilgesellschaft stark überwacht.
Regierungssystem
Vietnam wird hauptsächlich von einem Kollegium aus drei Personen geführt, welches aus dem Generalsekretär der KPV, dem Premierminister und dem Staatspräsidenten besteht. Alle drei sind Parteifunktionäre und treffen ihre Entscheidungen in der Regel einstimmig. Der Generalsekretär ist nicht nur Leiter des Sekretariats, sondern in der Regel auch Vorsitzender des Politbüros der KPV, welches momentan aus 14 Mitgliedern besteht.
Laut Verfassung ist die Nationalversammlung, das Einkammerparlament Vietnams, das höchste Organ staatlicher Macht. Die 493 Abgeordneten werden für eine Legislaturperiode von fünf Jahren gewählt. Mindestens zweimal jährlich muss die Nationalversammlung eine Vollversammlung abhalten. In der übrigen Zeit werden ihre Aufgaben vom Ständigen Ausschuss der Nationalversammlung (SANV) ausgeführt. Die Nationalversammlung ernennt den Staatspräsidenten, den Premierminister und die Regierung (Exekutive) sowie die Prokuratur des Obersten Volksgerichtshofes und des Obersten Volkskontrollamtes (Judikative). Die Nationalversammlung hat seit den letzten Verfassungsänderungen stark an politischem Einfluss gewonnen. Sie kann jetzt Gesetze ändern, kann Minister zur Verantwortung ziehen und muss den Staatshaushalts- und Produktionsplänen zustimmen. Die größte politische Macht liegt weiterhin bei der kommunistischen Partei, welche durch die Vietnamesische Vaterlandsfront – einen Dachverband für Massenorganisationen – den Wahlprozess unter ihrer Kontrolle hat. Sie steuert mit ihrem Zentralkomitee und dem Politbüro die Politik des Landes. Durch den etwa 90-prozentigen Anteil an KPV-Mitgliedern in der NV sind alle ranghohen Regierungsmitglieder ebenfalls Teil der KPV.
Wahlen finden in Vietnam alle fünf Jahre auf mehreren Ebenen statt: Auf Zentralebene (Nationalversammlung) sowie auf Provinz-, Distrikts- und Gemeindeebene (Volksräte). Die Kandidaten, die sich zur Wahl stellen wollen, werden von der Vietnamesischen Vaterlandsfront und der Kommunistischen Partei nach strengen Kriterien ausgewählt. Trotzdem sind momentan ca. 10 % der Abgeordneten keine Parteimitglieder, nachdem bei der Wahl 2002 ungefähr 15 % Nicht-Parteimitglieder zugelassen wurden. Allerdings hatten sich zuvor 69 Unabhängige beworben, und nur 13 wurden angenommen. Seit 2003 müssen von Rechts wegen in jedem Wahlkreis mindestens zwei Kandidaten mehr antreten als Mandate zu vergeben sind.
Frauenwahlrecht
Nach Goscha verlautbarten die Việt Minh bei Gründung der Demokratischen Republik Vietnam (DRV) das allgemeine Wahlrecht unabhängig von den Geschlechtern. Der Autor nennt kein konkretes Datum, aber benennt die Dekrete No. 14 und No. 51 als Rechtsgrundlagen und schildert, dass dies im Rahmen der Machtübernahme während der Augustrevolution (Unabhängigkeitserklärung 2. September 1945) geschehen sei. Am 2. September 1945 wurde die Demokratische Republik Vietnam ausgerufen. Frauen erhielten im Rahmen der Machtübernahme während der Augustrevolution (Unabhängigkeitserklärung 2. September 1945) erstmals gleiche Rechte wie Männer, auch das Wahlrecht. Rechtsgrundlage hierfür waren die Dekrete Nummer 14 und Nummer 51. Ausgeübt wurde das Recht erstmals bei den Wahlen vom 6. Januar 1946. 1946 waren in der gesetzgebenden Versammlung nur 2,5 Prozent der Abgeordneten Frauen. Die Demokratische Republik Vietnam umfasste nur kurz das ganze Gebiet des Landes. 1946 kehrte in den Süden die französischen Kolonialmacht zurück. Während der Kolonialzeit bis 1954 gab es kein Wahlrecht für nicht-naturalisierte Indigene der Kolonie. Eine Quelle berichtet von einem aktiven Frauenwahlrecht in Südvietnam zur Wahl von Ngo Dinh Diem 1955.
Verfassung und Menschenrechte
Die erste Verfassung Vietnams wurde im November 1946 verabschiedet. Sie legte die Unteilbarkeit des Landes sowie die Gleichheit aller Bürger des Landes vor dem Gesetz fest. Das Frauenwahlrecht wurde 1946 ebenfalls eingeführt. Seitdem gab es 1959, 1980 und 1992 neue Verfassungen. Die heutige vietnamesische Verfassung gilt in ihrer Version vom 15. April 1992, welche 2001 modifiziert wurde. Mit einem zusätzlichen Abschnitt im Artikel 4 stellt sich die kommunistische Partei, im Unterschied zur Verfassung von 1980, formell unter die Verfassung und das Gesetz, während sie bis dahin die Autorisierung dazu hatte, alles zu tun, was sie zum Aufbau des Sozialismus für notwendig erachtete. Die heutige Verfassung hat ihren Schwerpunkt in Richtung der Entwicklung von Wirtschaft, Bildung, Wissenschaft und Technologie und des Schutzes des privaten Sektors und von ausländischen Investoren verschoben.
Artikel 4 der Verfassung legt jedoch nach wie vor die führende Rolle der Kommunistischen Partei Vietnams fest und verbietet alle Oppositionsparteien. Die Präambel der Verfassung beschreibt die Partei als Führer, das Volk als Herrscher und den Staat als Verwalter.
Die vor dem Verbot bestehenden oder nach dem Verbot gegründeten Parteien im Ausland bestehen weiter. Diese haben zwar keinen Einfluss auf das politische Geschehen in Vietnam, veranstalten aber viele Demonstrationen im Inland und Ausland. Zudem besitzen manche Parteien eigene Parteizeitungen, die zumeist kritische Enthüllungen gegen die kommunistische Regierung in Vietnam beinhalten.
Des Weiteren räumt die Verfassung Vietnams formell allen Bürgern Grundrechte wie z. B. Redefreiheit, Pressefreiheit, Versammlungsfreiheit und Glaubensfreiheit ein. Aufgrund der staatlichen Zensur und Kontrolle durch die kommunistische Partei ist es den Bürgern allerdings nur in beschränktem Umfang möglich, diese Grundrechte in Anspruch zu nehmen. So wurden bereits mehrere kritische Blogger verhaftet. Der bekannte Blogger und Dissident Le Quoc Quan, ein Anwalt, der sich für die Menschenrechte einsetzt, wurde im Herbst 2013 aufgrund des Vorwurfs der Steuerhinterziehung zu einer zweieinhalbjährigen Haftstrafe verurteilt. Daraufhin kam es zu einer Protestdemonstration.
Am 19. September 2015 wurde die Bloggerin Ta Phong Tan nach drei Jahren Haft unter bloßer Suspendierung des Rests auf zehn Jahre Haftstrafe ins Exil gezwungen. Pen International fordert freie Einreise und Erlassen dieser Strafe für sie genauso wie Freilassung einer Reihe anderer Blogger.
Rechtssystem
Vietnam verfügt de facto über keine unabhängige Judikative. Die im vietnamesischen Rechtssystem handelnden Personen sind alle unmittelbar oder mittelbar durch die kommunistische Partei bzw. die Vietnamesische Vaterlandsfront ausgewählt, wobei politische Zuverlässigkeit ein wichtiges Auswahlkriterium darstellt. Die Partei nimmt auch auf Rechtsentscheidungen Einfluss, welche die Monopolstellung der KPV in Frage stellen könnten. Darüber hinaus fehlt es an Richtern und Anwälten mit adäquater Ausbildung. Allerdings haben die Schöffen in Vietnam im Gegensatz zum deutschen System eine juristische Ausbildung.
Die oberste Instanz des vietnamesischen Rechtssystems ist der Oberste Volksgerichtshof, welcher der Nationalversammlung unterstellt ist und dessen Mitglieder auf Vorschlag des Staatspräsidenten von der Nationalversammlung ernannt werden. Die Nationalversammlung bestimmt auch das Budget der Judikative. Dem Obersten Volksgerichtshof sind die Volksgerichte auf Distrikts- und Provinzebene, die Militärtribunale sowie die Verwaltungs-, Wirtschafts- und Arbeitsgerichte unterstellt.
Die Todesstrafe ist in Vietnam nicht abgeschafft; sie wird unter anderem gegen Personen verhängt, die der Korruption oder des Drogenhandels überführt wurden.
Politische Indizes
Außenpolitik
Während des Vietnamkrieges und danach war Vietnam in Südostasien weitgehend isoliert. Die USA hatten ein Wirtschaftsembargo verhängt und drängten auch andere Staaten, Vietnam zu boykottieren. Speziell nach dem Einmarsch in Kambodscha (1978–1989) waren auch die Beziehungen zur Volksrepublik China so gespannt, dass an der vietnamesisch-chinesischen Grenze ein Krieg ausbrach. Vietnam integrierte sich deshalb sehr stark in den Rat für gegenseitige Wirtschaftshilfe (RGW). Aus der Isolierung kam das Land erst nach dem Rückzug aus Kambodscha 1991 heraus.
In den 1990er Jahren entspannten sich die Beziehungen zu allen Nachbarstaaten. Im Jahr 1991 nahm das Land wieder diplomatische Beziehungen zu China sowie den meisten Ländern Europas und Ostasiens auf. Unterhielt Vietnam vor dem Ende des Kalten Krieges nur zu 23 nicht-kommunistischen Staaten diplomatische Beziehungen, sind es heute 172. Es gibt Handelsabkommen mit 76 Ländern sowie eine ebenso hohe Anzahl an Ländern mit Meistbegünstigtenstatus. Die USA haben ihr Embargo gegen Vietnam aufgehoben und so wurde der Beitritt zur Weltbank, dem Internationalen Währungsfonds und zur Asiatischen Entwicklungsbank möglich. Im Juli 1995 trat Vietnam der ASEAN bei, 1998 der APEC. Seit dem 11. Januar 2007 ist Vietnam 150. Mitglied der WTO. Von 2008 bis 2009 war das Land eines von zehn nicht-ständigen Mitgliedern des UN-Sicherheitsrats.
Von besonderem Interesse für Vietnam sind die Beziehung zur asiatisch-pazifischen Region, und hier besonders zu China, als ebenfalls sozialistischem Staat und Hauptordnungsmacht in der Region. Auch mit Deutschland gibt es einige Kooperationen. Die Friedrich-Ebert-Stiftung, die Konrad-Adenauer-Stiftung, die Rosa-Luxemburg-Stiftung und das Goethe-Institut haben Außenstellen in Vietnam. Im Jahr 2010 riefen mehrere Organisationen das Veranstaltungsjahr „Deutschland in Vietnam“ aus, bei dem diverse Veranstaltungen deutscher Kultur in Vietnam stattfanden. Parallel dazu wurde auch ein Veranstaltungskalender „Vietnam in Deutschland“ erstellt. Die mutmaßliche Entführung des vietnamesischen Managers Trịnh Xuân Thanh, der sich als Asylbewerber in Deutschland aufhielt, am 23. Juli 2017 durch den vietnamesischen Geheimdienst, veranlasste die Bundesregierung, einen vietnamesischen Diplomaten auszuweisen.
Grenzstreitigkeiten gibt es mit einer Reihe von Staaten um die Paracel-Inseln sowie die Spratly-Inseln im Südchinesischen Meer.
Militär
Die Vietnamesische Volksarmee ging auf die Gründung eines vietnamesischen kommunistischen Staates während der Augustrevolution zurück. Die Streitkräfte spielten im Indochinakrieg und Vietnamkrieg die entscheidende Rolle zum Erreichen der Unabhängigkeit und Einheit des Landes im Rahmen eines kommunistischen Staates. Im Kambodschanischen Bürgerkrieg besetzten die Streitkräfte Teile des Nachbarlandes. 1979 verteidigten die Streitkräfte den Nordteil des Landes gegen eine chinesische Invasion. Die Streitkräfte unterliegen einer rigorosen politischen Kontrolle durch die kommunistische Partei. Darüber hinaus besitzen die Streitkräfte eigene Unternehmen, etwa das Telekommunikationsunternehmen Viettel.
Die Landstreitkräfte haben eine Stärke von etwa 412.000 Mann; es existiert eine allgemeine Wehrpflicht für alle Männer, die in der Regel zwei Jahre dauert. Die Marine hat 42.000 Mann; die modernste Teilstreitkraft Vietnams ist die Luftwaffe mit 30.000 Mann. Ihre Hauptstärke besteht aus 124 MiG-21, 53 Su-22, 12 Su-27 und 24 Su-30.
Vietnam sieht sich momentan keinen Bedrohungen von außen gegenübergestellt. Die Regierung hat deshalb in den vergangenen Jahren die Truppenstärke und Verteidigungsausgaben reduziert. Es wird geschätzt, dass Vietnam 2017 knapp 2,3 Prozent seiner Wirtschaftsleistung oder 5,1 Milliarden Dollar für seine Streitkräfte ausgab. Trotzdem gehört das vietnamesische Militär zu den mächtigsten und schlagkräftigsten in der Region. Auch innenpolitisch ist das Militär stark, viele ranghohe Militärs nehmen einflussreiche Positionen in Partei- und Staatsführung ein. Nach den militärischen Auseinandersetzungen mit Frankreich, den USA und China hat es in der Bevölkerung starken Rückhalt. Vietnam lag 2018 auf Platz 16 von 155 Ländern im Globalen Militarisierungsindex (GMI). Gemäß dem Ranking von Global Firepower (2018) gehört das Land zu den 20 stärksten Militärmächten der Welt.
Neben der regulären Armee gibt es paramilitärische Reserveeinheiten, deren Stärke auf 4 bis 5 Millionen Mann geschätzt wird. Hierzu gehören die Selbstverteidigungskräfte und die Volksmiliz.
Wirtschaft
Vietnam gehört zu jenen Staaten, die sich in einer Transformation von der Zentralverwaltungswirtschaft zur sozialistischen Marktwirtschaft befinden. Dieser Prozess hat in Vietnam ein rasantes Wirtschaftswachstum ausgelöst und das Land zu einem attraktiven Investitionsstandort für internationale Unternehmen werden lassen. Die Weltbank stuft Vietnam seit Beginn 2011 als Schwellenland ein.
Gemäß dem Index der menschlichen Entwicklung (HDI) zählt Vietnam zu den Ländern mittlerer Entwicklung. Mit einem HDI von 0,693 steht es an der Schwelle zu den Ländern hoher menschlicher Entwicklung. Seit 1990 ist der HDI von Vietnam stark angestiegen. Im Global Competitiveness Index, der die Wettbewerbsfähigkeit eines Landes misst, belegt Vietnam Platz 67 von 141 Ländern (Stand 2019). Im Index für wirtschaftliche Freiheit belegte das Land 2018 Platz 141 von 180 Ländern und wurde als „größenteils unfrei“ eingestuft.
Wirtschaftsgeschichte
Nach der Wiedervereinigung Vietnams stand die Wirtschaft des Landes vor dem Problem, in zwei Hälften geteilt zu sein, die nach komplett verschiedenen Mustern organisiert waren: Im Norden gab es die kommunistische, planwirtschaftlich organisierte Hälfte, deren Landwirtschaft in Kooperativen betrieben wurde und dessen Land zudem durch die Armee der USA im Vietnamkrieg stark zerbombt worden war. Der Süden hingegen war einige Zeit marktwirtschaftlich organisiert, hatte aber während der vergangenen zwei Jahrzehnte eine Wirtschaft entwickelt, die vollständig vom Zustrom amerikanischen Geldes abhing, das bedingt durch die Militärpräsenz zufloss.
Der Süden wurde nach sowjetischem Vorbild restrukturiert, die Landwirtschaft kollektiviert und die Betriebe wurden verstaatlicht. Im Jahr 1978 trat Vietnam dem Rat für gegenseitige Wirtschaftshilfe bei, während die USA ein Wirtschaftsembargo über Vietnam verhängten, das nicht nur Amerikanern verbot, mit Vietnam Handel zu treiben, sondern auch den IWF, die Weltbank und ähnliche Organisationen daran hinderte, Vietnam Aufbaukredite zu geben.
Das Resultat aus der Unproduktivität der Staatsbetriebe und der kollektivierten Landwirtschaft, den Handelshindernissen und den massiven Umweltschäden aus dem Vietnamkrieg war schreckliche Armut. Repressionen der kommunistischen Führung gegen die früheren Feinde, Armut und Enteignungen der Privatwirtschaft im Süden veranlassten mehr als eine halbe Million Vietnamesen dazu, als Boatpeople unter Lebensgefahr das Land zu verlassen. Die Anzahl Überlebender wird auf nur 20 % bis 40 % geschätzt. Angesichts offensichtlicher ökonomischer Probleme entschied sich die Kommunistische Partei 1979 dazu, private Wirtschaftssubjekte stärker zu fördern und 1981 wurden in der Landwirtschaft die ersten Reformschritte gesetzt. Weitere Reformen blieben jedoch wirkungslos, es kam zu wirtschaftlicher Stagnation und Hyperinflation sowie zu schwerwiegenden Versorgungsengpässen. 1980 lag die Reisproduktion pro Kopf mit 265 kg unter der Subsistenzgrenze von 300 kg pro Kopf und Jahr. Das Einzige, was Vietnam halbwegs am Leben hielt, war Wirtschaftshilfe der RGW-Staaten, die sich auf geschätzte drei Milliarden Dollar jährlich belief.
Im Jahr 1986 starb Lê Duẩn und machte Platz für eine reformorientierte, jüngere Generation. Unter Nguyễn Văn Linh wurde Đổi mới (Wirtschaftserneuerung) angekündigt und ab 1989 wurden die ersten Maßnahmen dieser Reformpolitik verwirklicht. Das bedeutete, dass die zentrale Planung aufgegeben, die Kollektivierung schrittweise abgeschafft und marktwirtschaftliche Reformen eingeführt wurden. Allerdings gab die KPV keineswegs ihre sozialistische Prägung auf, denn es wurde betont, dass eine sozialistische Marktwirtschaft aufgebaut werde, welche die erste Stufe des Übergangs zum Kommunismus sei. Ausländischen Firmen wurde erlaubt, in Vietnam zu investieren. Als Vietnam am Beginn der 1990er Jahre aus der internationalen Isolation fand, in die es durch die Intervention in Kambodscha gekommen war, und die Amerikaner 1993 ihr Wirtschaftsembargo aufhoben, flossen so viele ausländische Investitionen und Finanzhilfe in das Land, dass das Wirtschaftswachstum zeitweise 10 % pro Jahr überstieg. Aus dem früheren Mangelland Vietnam wurde, speziell durch die Reformen in der Landwirtschaft, der zweitgrößte Reisexporteur der Welt. 2003 lag die Reisjahresproduktion pro Kopf bei rund 470 kg.
Ein beträchtlicher Teil der Wirtschaftsleistung wird durch finanzielle Unterstützung, Waren und Investitionen von Auslandsvietnamesen (vor allem aus den USA) erbracht; für das Jahr 2000 wurde dieser Betrag auf eine Milliarde US$ geschätzt.
Vietnam hat 2009 die Grenze von 1000 USD Jahreseinkommen pro Kopf überschritten und ist seitdem ein „Middle Income Country“. 2018 wurde das Bruttoinlandsprodukt auf 241 Mrd. USD geschätzt, demnach 2546 USD pro Kopf. Allerdings ist das Volkseinkommen zwischen Stadt und Land sehr ungleich verteilt. Nach wie vor leben 60 Prozent der Bevölkerung auf dem Land, erwirtschaften dort aber nur 20 Prozent des Volkseinkommens. Die Inflationsrate lag in Vietnam 2017 bei 3,52 %.
Das um die Kaufkraftparität bereinigte BIP pro Person lag 1999 noch bei 410 US$ (Stadt 640, Land 180), 2016 schon bei etwa 6530 US$, was ca. 18 Dollar/Tag entspricht. Immer noch etwa 6 % der Bevölkerung verdienen weniger als einen US$ pro Tag.
Auf dem X. Parteikongress der KPV, der vom 18.–25. April 2006 in Hanoi stattfand, verabschiedeten 1178 Delegierte den Fünf-Jahres-Plan für den Zeitraum 2006–2010 (Socio-Economic Development Plan for the Five Year Period 2006–2010). Gemäß diesem Plan soll Vietnam bis 2020 ein Industrieland werden; das Wirtschaftswachstum soll bis dahin zwischen 8 und 8,5 % bleiben. Bezeichnenderweise hielt sich gleichzeitig der ehemalige Microsoft-Chef Bill Gates auf Einladung der vietnamesischen Regierung ebenfalls in Hanoi auf.
Im Mai 2006 wurde bekannt, dass Vietnam und die USA im Juni 2006 ein bilaterales Handelsabkommen abschließen wollen. Im November 2006 fand in Hanoi zudem das Gipfeltreffen der APEC-Staaten statt, an dem auch US-Präsident George W. Bush teilnahm. Zum 11. Januar 2007 trat Vietnam der Welthandelsorganisation WTO bei.
Landwirtschaft
Vietnam war bis vor wenigen Jahren ein fast ausschließlich agrarisch geprägtes Land. Bis heute sind in der Landwirtschaft 40 % der Arbeitskräfte Vietnams tätig, jedoch trägt dieser Sektor nur mehr 15 % des BIPs bei. Für 2007 verzeichnete man einen Zuwachs von 3,4 %, trotz zahlreicher Naturkatastrophen.
Der von den französischen Kolonialherren 1857 in Vietnam eingeführte Kaffeeanbau hat sich in den letzten 25 Jahren rasant entwickelt, von einer Anbaufläche von 22.000 Hektar 1980 auf heute eine halbe Million Hektar. Damit ist Vietnam hinter Brasilien der weltweit zweitgrößte Kaffeeproduzent geworden. Auslöser für diese Entwicklung war die DDR. Wegen der in den 1980er Jahren stetig gestiegenen Preise für Rohkaffee und dem immensen Bedarf der DDR an diesem wurde ein Ausweg aus dem Problem gesucht, wertvolle harte Währung für Kaffee ausgeben zu müssen. Das damalige sozialistische Bruderland Vietnam bietet gute klimatische Voraussetzungen für den Kaffeeanbau in mittlerweile auch weltmarktfähiger Qualität. Eines der Zentren des vietnamesischen Kaffeeanbaus ist die südliche Hochland-Provinz Đắk Lắk (durchschnittlich bei einer Höhe von ).
Vietnam ist der fünft-größte Reisproduzent (Stand: 2016). In den letzten Jahren ist Vietnam zum viert-größten Fischproduzenten aufgestiegen. Die Mehrheit der jährlichen Produktion von 6,4 Mio. Tonnen (2016) stammt bereits aus der Zucht und nicht mehr aus der traditionellen Fischerei.
Rohstoffe und Energie
Vietnam verfügte Ende 2017 über bekannte Erdölreserven in Höhe von etwa 600 Millionen Tonnen (bzw. 4400 Millionen Barrel). 2017 wurden täglich ca. 335.000 Barrel gefördert und 486.000 Barrel verbraucht. Die Erdölförderung stagnierte in den letzten 10 Jahren, während der Verbrauch stark zugenommen hat (2007 lag der tägliche Verbrauch noch bei 283.000 Barrel). In Vietnam gibt es eine Raffinerie, die Dung Quất Raffinerie, und eine zweite ist in Bau. Die Raffineriekapazität lag 2017 bei 167.000 Barrel pro Tag.
In Vietnam gibt es weiterhin große Vorkommen von Anthrazitkohle (Reserven von 3.116 Millionen Tonnen) und Erdgas sowie Antimon, Bauxit, Chrom, Gold, Eisen, Phosphaten, Wolfram, Zinn und Zink.
2014 war Vietnam mit 41 Mio. t weltweit dreizehntgrößter Steinkohleförderer.
2017 wurden in Vietnam 190,3 Milliarden Kilowattstunden elektrischer Energie erzeugt. 2005 waren es noch 51,3 Milliarden kWh und 1995 gar nur 14,3 Milliarden. 70,2 Milliarden kWh (37 %) entfielen auf Wasserkraft, 74,3 Milliarden kWh (39 %) auf Kohle und 44,4 Milliarden kWh (23 %) auf Erdgas. Im November 2016 wurden Pläne, ein Kernkraftwerk in der Provinz Ninh Thuận zu errichten, aufgegeben.
Industrie
Die Industrie trug 2007 42 % zum BIP bei und ist Hauptsäule des Wirtschaftswachstums des Landes mit 10,6 % Zuwachs in diesem Jahr. Der wichtigste Industriezweig ist die Herstellung von Textilien und Schuhen, daneben sind die Herstellung von Zement, Stahl und die Montage von Automobilen bedeutend. Etwa 40 % der Industriebetriebe Vietnams befinden sich nach wie vor in staatlicher Hand und mindestens ein Viertel davon arbeitet defizitär; trotzdem hat die Regierung 2002 beschlossen, dass alle Betriebe, die in sensitiven Bereichen tätig sind, zu 100 % unter staatlicher Kontrolle bleiben. Die vietnamesischen Betriebe sind in der Regel sehr klein und kapitalschwach. Es wird erwartet, dass viele davon die schnell fortschreitende wirtschaftliche Öffnung Vietnams nicht überleben werden.
Wirtschaftsstruktur
Vor der Einführung von Đổi mới waren private Unternehmen, abhängig vom Wirtschaftssektor, entweder verboten oder vernachlässigbar. Nur Familienbetriebe waren legal. Einige Zeit nach dem Beginn der Reformen, im Jahr 2002, betrug der Anteil des privaten Sektors am BIP etwa 40 %, wobei der Anteil in der Landwirtschaft besonders hoch war und der Anteil an der Industrieproduktion etwa ein Drittel ausmachte.
Die Asienkrise 1998 hat auch Vietnam stark getroffen und das Wirtschaftswachstum (2001: etwa 5 %) sowie das Interesse ausländischer Investoren hatten zwischenzeitlich merklich nachgelassen. Die Regierung war nun gezwungen eine Reihe von Reformen umzusetzen, um der Wirtschaft weiterhin ein starkes Wachstum zu ermöglichen. Dies beinhaltet vor allem eine Reform der Rechtsordnung, denn rechtliche Unsicherheit schreckte viele potentielle Investoren ab. Ebenso war die Frage von Eigentum an Grund und Boden nicht restlos geklärt und die Unmöglichkeit, landwirtschaftliche Flächen in Industrieflächen umzuwidmen, hat dazu geführt, dass die Preise für Industrieland jene in Japan zeitweise überstiegen.
Die staatlichen Unternehmen stellen für die vietnamesische Wirtschaft ein Problem dar: Sie sind meist unrentabel, international nicht konkurrenzfähig und haben eine hohe Menge an Krediten, die sie wahrscheinlich nicht zurückzahlen werden können und damit das ganze Bankensystem bedrohen. Eine Anzahl von Staatsbetrieben wurde bereits mit anderen Staatsbetrieben fusioniert, oder geschlossen. Der Prozess läuft aber wegen der sozialen Auswirkungen (Arbeitslosigkeit) recht schleppend.
Die Wirtschaft ist durch einen starken Unterschied zwischen dem Norden und dem Süden geprägt, wobei die Wirtschaft im Süden bedeutend dynamischer ist als im Norden. Dies wird meist damit begründet, dass die strategische Lage des Südens besser ist und dass dort Đổi mới – aufgrund der kürzer zurückliegenden Erfahrung mit den Marktmechanismen – schneller gegriffen hat als im Norden.
Die Inflation, die in den 1980er Jahren ein großes Problem darstellte, ist mittlerweile unter Kontrolle. Als Erinnerung an die Inflation bleiben astronomisch wirkende Preise mit vielen Nullen. Es gibt Scheine von 500 bis 500.000 Dong Nennbetrag und mittlerweile auch Münzen ab 500 Dong. Ein Euro ist etwa 25.000 Dong wert (2017), der größte Schein also nur gut 20 €, so dass es normal ist, dass man es bei großen Beträgen mit Bündeln, in Geschäften und Banken bei der Abrechnung auch mit Säcken von Geldscheinen zu tun hat.
Die Arbeitslosenquote lag im Jahr 2017 bei nur 2,2 %, allerdings sind viele Beschäftigungsverhältnisse informeller Natur und Unterbeschäftigung ist verbreitet. 2017 arbeiteten 40,3 % aller Arbeitskräfte in der Landwirtschaft, 25,7 % in der Industrie und 34 % im Dienstleistungssektor. Die Gesamtzahl der Beschäftigten wird für 2017 auf 54,8 Millionen geschätzt.
Außenwirtschaft
Vietnams Außenhandel hat sich in den Jahren seit seiner Integration in die Weltwirtschaft rasant entwickelt und die vietnamesische Volkswirtschaft hat einen Offenheitsgrad erreicht, der etwa dem Thailands entspricht. 2016 wurden Waren im Wert von 176,6 Milliarden US-Dollar exportiert, was gegenüber 2015 einer Steigerung von 9,0 % entspricht. Wichtigste Exportprodukte sind Rohöl, Güter der Leichtindustrie, wie etwa Textilien, Schuhe oder Elektro- und Elektronikgeräte, Holzprodukte und landwirtschaftliche Erzeugnisse wie Meeresfrüchte, Fisch, Reis und Kaffee. Im Jahr 2008 war Vietnam der zweitgrößte Kaffeeproduzent der Welt. Hauptabnehmer für vietnamesische Erzeugnisse sind die USA, die EU-Länder, China und die anderen ASEAN-Staaten.
Vietnams Importe machten 2016 einen Wert von 174,1 Milliarden US-Dollar aus, sie stiegen gegenüber 2016 um 5,0 %. Importiert werden vor allem Maschinen und Fahrzeuge, Erdölprodukte, Eisen und Stahl, Textil- und Ledermaterialien sowie Computer und IT-Ausrüstungen. Die wichtigsten Lieferanten sind die VR China, die anderen ASEAN-Staaten, die EU, Südkorea und Japan. Die USA spielen als Lieferanten für Vietnam eine nur sehr untergeordnete Rolle.
Mit einem Warenhandelsvolumen von gut 50 Milliarden Euro war Vietnam zuletzt der zweitwichtigste EU-Handelspartner in Südostasien, die EU ist ihrerseits global der viertwichtigste Handelspartner Vietnams. Zwischen 2014 und 2018 wuchs der gegenseitige Warenhandel bereits durchschnittlich um 15 % jährlich. Um das volle Potenzial der gegenseitigen Wirtschaftsbeziehungen zu heben, haben sich die EU und Vietnam auf ein umfangreiches Freihandelsabkommen zwischen Vietnam und der Europäischen Union (EVFTA) geeinigt, dem nach dem Europaparlament nun auch der Rat der Europäischen Union zugestimmt hat. Nach der noch notwendigen Ratifizierung durch die vietnamesische Nationalversammlung könnte das EVFTA im Frühsommer 2020 in Kraft treten.
Vietnam hat ein relativ hohes Handelsbilanzdefizit, das durch die Einnahmen aus dem Tourismus, durch Zuflüsse von ausländischen Direktinvestitionen, Entwicklungshilfe (2007: 5,4 Milliarden US-Dollar) und Überweisungen von Auslandsvietnamesen (2007: mehr als 5,5 Milliarden US-Dollar) ausgeglichen wird. Deshalb sind Leistungs- und Zahlungsbilanz unter Kontrolle. Aufgrund seiner Attraktivität als Produktionsstandort ist die Handelsbilanz Vietnams inzwischen positiv (Stand 2016). Sogar chinesische Unternehmen haben aufgrund der niedrigeren Lohnkosten ihre Produktion nach Vietnam verlagert.
Vietnam bleibt ein bevorzugtes Ziel für ausländische Direktinvestitionen. Der größte Investor Vietnams 2016 war Südkorea mit einem neu registrierten Investitionsbetrag in Höhe von 5,518 Mrd. USD, entsprechend 36,3 % des gesamten Investitionsvolumens. Danach folgten Singapur mit 1,59 Mrd. USD, Hong Kong mit 1,1 Mrd. USD und Japan 868 Mio. USD. Deutschland steht mit ca. 300 in Vietnam aktiven Unternehmen und einem kumulierten Investitionsbetrag von 1,357 Mrd. USD auf Rang 21 der Investorenliste.
Die Auslandsverschuldung ist mit etwa 16,6 Milliarden US-Dollar bzw. 37 % des BIP (2005) relativ niedrig. Dies liegt vor allem daran, dass Vietnam bis 1993 fast keine Kredite aus dem westlichen Ausland bekommen konnte. Bis 2016 stieg sie auf knapp 60 % des BIP an.
Die vietnamesische Währung ist inoffiziell an den US-Dollar gekoppelt (Crawling Peg).
Tourismus
In Europa wurde Vietnam eher mit Vietnamkrieg, Kommunismus und Armut assoziiert und zählte zunächst nicht zu den klassischen Urlaubsländern. Bis vor wenigen Jahren wurde Vietnam deshalb fast ausschließlich von Leuten besucht, die sich für die Kultur interessieren, Abenteuer erleben wollten oder mit dem Land nach dem Vietnamkrieg in der einen oder anderen Art emotional verbunden waren.
Seit etwa 1999 erlebt Vietnam einen Boom im Tourismus. Neben Studienreisenden kommen auch immer mehr Rucksack-, Pauschal- und Badetouristen, letztere vor allem aus anderen asiatischen Ländern. Dies beruht z. T. auf einem „Ausweich-Effekt“, der mit der anhaltenden Gewalt und den Terroranschlägen auf den Philippinen und in Indonesien begründet ist, wohingegen Vietnam ein sicheres Land mit niedriger Kriminalität ist. Mittlerweile fahren auch Kreuzfahrtschiffe vietnamesische Häfen an bzw. ankern vor der Küste und bieten Tagesausflüge nach Ho-Chi-Minh-Stadt, Nha Trang, Đà Nẵng oder Huế an.
In den letzten Jahren wurden in einigen Fischerdörfern eilig einige internationale Hotels und Resorts hochgezogen, Restaurants für Ausländer eröffnet und der Aufbau einer touristischen Infrastruktur in Angriff genommen. Mehrere hunderttausend Menschen sind bereits im Tourismus beschäftigt.
Die am meisten besuchten Reiseziele in Vietnam sind Ho-Chi-Minh-Stadt mit rund 5,8 Millionen internationalen Besuchern, gefolgt von Hanoi mit 4,6 Millionen und der Hạ Long Bucht mit 4,4 Millionen Besuchern. Alle drei befinden sich in den Top 100 der meistbesuchten Städte der Welt. In Vietnam gibt es 8 UNESCO-Welterbestätten. In Südostasien gibt es kein Land mit mehr Welterbestätten. Im Jahr 2018 wurde Hội An vom bekannten Reisemagazin „Travel and Leisure“ zu den 15 besten Reisezielen der Welt gewählt.
Ab dem Jahr 2020 sollte der Hanoi Street Circuit mit dem Großen Preis von Vietnam Teil der Formel-1-Rennserie werden. Allerdings wurde das Rennen aufgrund der Corona-Pandemie abgesagt und fand auf Grund von Korruptionsvorwürfen auch 2021 und 2022 keine Berücksichtigung im Rennkalender.
Wirtschaftskennzahlen
Die wichtigen Wirtschaftskennzahlen Bruttoinlandsprodukt, Inflation, Haushaltssaldo und Außenhandel entwickelten sich in den letzten Jahren folgendermaßen:
Staatshaushalt
Der Staatshaushalt umfasste 2016 Ausgaben von umgerechnet 57,2 Mrd. US-Dollar, dem standen Einnahmen von umgerechnet 48,0 Mrd. US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 4,5 % des BIP.
Die Staatsverschuldung betrug 2016 126 Mrd. US-Dollar oder 62,4 % des BIP.
Die Staatsausgaben entfielen in % des BIP unter anderem auf folgende Bereiche:
Gesundheit: 6,6 % (2006)
Bildung: 4,6 % (2016)
Militär: 2,3 % (2018)
Infrastruktur
Erreichbarkeit
In den letzten Jahren konnte die Infrastruktur des Landes, dank hoher Investitionen, deutlich verbessert werden. Im Logistics Performance Index, der von der Weltbank erstellt wird, belegte Vietnam 2018 den 39. Platz unter 160 Ländern.
Die zwei größten Städte des Landes, Hanoi und Ho-Chi-Minh-Stadt haben internationale Flughäfen, die von wenigen europäischen (unter anderem Frankfurt, London und Paris), aber den meisten asiatischen Großstädten direkt angeflogen werden. Daneben gibt es Eisenbahnverbindungen von und nach China und Straßenverbindungen in alle Nachbarländer. Die Grenzübergänge sind meist nur am Tag geöffnet. Ausländer können, sofern sie alle notwendigen Papiere haben, jeden beliebigen Grenzübergang zur Einreise benutzen.
Straßenverkehr
Vietnams Straßen haben eine Länge von insgesamt etwa 210.000 Kilometern, wovon nur etwa 13,5 % in einem guten Zustand und 29 % asphaltiert sind. 10 % der vietnamesischen Dörfer sind jährlich wegen unpassierbarer Straßen mehr als einen Monat von der Außenwelt abgeschnitten.
Durch starke Anstrengungen im Tiefbau wächst der Anteil, der internationalen Standards entspricht, stetig; vorerst meist in den Einzugsgebieten von Großstädten. Trotz der fortschreitenden Asphaltierung ist der größere Teil in eher schlechtem Zustand. Straßen in einer Qualität, die man als Autobahn bezeichnen könnte, gibt es nur wenige. Die wichtigste Straße Vietnams, die über 2100 km als verkehrstechnisches Rückgrat durch das gesamte Land von der chinesischen Grenze bis ins Mekongdelta verläuft, ist die Nationalstraße 1, vietnamesisch Quốc lộ 1A.
Derzeit wird an einer zweiten Nord-Süd-Verbindung gebaut, dem so genannten Ho-Chi-Minh-Highway, der auf weiten Strecken entlang der Strecke des berühmten Ho-Chi-Minh-Pfads verläuft. Nach ihrer Fertigstellung soll diese 1690 km lange und 500 Millionen US-Dollar teure Straße Hanoi mit Ho-Chi-Minh-Stadt verbinden. 2006 waren bereits 960 km der Strecke zwischen den Orten Khe Co (Provinz Ha Tinh) und Ngoc Hoi (Provinz Kon Tum) in Form einer meist zweispurigen Asphaltstraße fertig gestellt. Nach der Fertigstellung wird diese Route eine attraktive Alternative zur Nationalstraße 1 darstellen. Zum einen wird der Verkehr weniger dicht sein, zum anderen führt die geplante Strecke durch reizvolle Landschaften. Dabei wird sie allerdings auch einige der letzten, bisher unberührten Wildnisgebiete und Nationalparks an der laotischen Grenze durchschneiden.
In Vietnam herrscht offiziell Rechtsverkehr. In der Regel wird jedoch gefahren, wo gerade Platz ist. Kreuzungen, die mit Ampeln geregelt sind, kommen eher in den Städten vor. Auch wenn die Regierung versucht, den Busverkehr zu fördern, ist das bedeutendste Nahverkehrsmittel das Moped, das bei wohlhabenderen Familien zunehmend vom Auto abgelöst wird. Die bis vor wenigen Jahren allgegenwärtigen Fahrrad-Rikschas (Cyclo) richten sich in den Großstädten heute meist an die Touristen. Auch andere Formen des „Taxifahrens“ sind bei Touristen populär, so in den Innenstädten das Mopedtaxi (Xe Ôm). Seit 2007 gilt in Vietnam die Helmpflicht, und die Bußgelder sind recht hoch. Es ist erlaubt, maximal zwei schwere oder drei leichte Personen mit einem Moped zu befördern.
Schienenverkehr
Das vietnamesische Eisenbahnnetz besteht aus sechs Linien mit 3260 Kilometern Schiene, stammt größtenteils aus der Kolonialzeit und wird nur langsam modernisiert. Die längste Linie führt von Hanoi nach Ho-Chi-Minh-Stadt; für die 1730 Kilometer benötigt der Reunification Express 29,5 Stunden. Das Bahnnetz ist überwiegend in Meterspur ausgeführt, zwischen Hanoi und der chinesischen Grenze gibt es ein Dreischienengleis mit Normalspur. Grenzüberschreitende Verbindungen gibt es zurzeit nur nach China über die Grenzübergänge Đồng Đăng sowie Lào Cai.
Die Züge sind ausschließlich dieselbetrieben. Ältere Fahrzeuge stammen großteils aus sowjetischer Produktion, in den letzten Jahren ist China der Hauptlieferant. Pläne zur Errichtung einer Hochgeschwindigkeitsstrecke wurden aufgrund zu hoher Kosten nicht umgesetzt.
Fahrkarten werden in verschiedenen Klassen verkauft (drei Sitzplatzkategorien, Schlafabteile mit zwei bis sechs Plätzen pro Abteil). Alle Klassen außer der billigsten sind klimatisiert. Die Züge fahren recht langsam, sind dafür sicher und vergleichsweise pünktlich. Für längere Fahrten empfehlen sich Liege- oder Schlafwagen, die man längere Zeit im Voraus buchen sollte.
In Hanoi und Ho-Chi-Minh-Stadt werden U-Bahn-Systeme gebaut und geplant, die ab 2024/2025 in Betrieb gehen sollen.
Luftverkehr
Die wichtigste Fluglinie des Landes ist die staatliche Vietnam Airlines. Sie bietet zahlreiche Flüge in andere asiatische Länder sowie einige Interkontinentalstrecken an und bedient die meisten Flughäfen in Vietnam. Besonders hier sind neben den Strecken zwischen den großen Städten des Landes auch die abgelegenen kleineren Städte im eher schwach erschlossenen Bergland von Bedeutung, die hier zumeist über einen eigenen Flugplatz verfügen. Die Flotte von Vietnam Airlines entspricht internationalem Niveau. Im regionalen Flugverkehr Südvietnams ist die Vietnam Air Service Company (VASCO) aktiv, eine Tochtergesellschaft der Vietnam Airlines.
Überwiegend auf den Inlandsmarkt sind die Billigfluglinien Jetstar Pacific Airlines und VietJet Air fokussiert. Anfang 2019 nahm auch Bamboo Airways den Betrieb auf. Diese Fluglinien besitzen westlichem Standard entsprechende Flotten mit nur einer Beförderungsklasse und haben relativ günstige Tarife, die jedoch die Gepäckbeförderung nicht einschließen.
Wasserverkehr
Vietnam verfügt über etwa 5000 Kilometer Wasserstraßen, die ganzjährig befahrbar sind. Besonders im Mekongdelta ist der Wassertransport wichtig, und die Straßen werden durch zahlreiche Flussarme unterbrochen, die mittels Fähre überbrückt werden müssen.
Die wichtigsten Seehäfen sind Ho-Chi-Minh-Stadt, Hải Phòng, Đà Nẵng, Quang Ninh, Qui Nhon sowie Cần Thơ. 2005 wurden etwa 15 Millionen Tonnen Fracht umgeschlagen, nach 4,5 Millionen im Jahr 1993.
Feuerwehr
In der Feuerwehr in Vietnam waren im Jahr 2019 landesweit 9.825 Berufs- und 920.729 freiwillige Feuerwehrleute organisiert, die in 269 Feuerwachen und Feuerwehrhäusern tätig sind. Die vietnamesischen Feuerwehren wurden im selben Jahr zu 3.790 Brandeinsätzen alarmiert Hierbei wurden 85 Tote von den Feuerwehren geborgen und 126 Verletzte gerettet. Die nationale Feuerwehrorganisation Cục Cảnh sát phòng cháy, chữa cháy và cứu nạn, cứu hộ repräsentiert die vietnamesischen Feuerwehren.
Telekommunikation
Im Telefonnetz Vietnams gab es in den letzten Jahren viele Investitionen. Wo investiert wurde, kommt modernste Technologie zum Einsatz, dementsprechend zuverlässig und komfortabel ist das Netz. Wo noch nicht investiert wurde, ist das Telekommunikationsnetz weit zurückgeblieben. Für Mitte 2004 wurden 4,9 Millionen Festnetzanschlüsse, 3,4 Millionen Mobiltelefone und 5,1 Millionen Internet-Benutzer gezählt. Im Jahr 2020 nutzten 70 Prozent der Einwohner Vietnams das Internet.
Im Jahr 2016 gab es in fast allen größeren Orten Breitbandinternet. Standardmäßig kommt hier Glasfaserkabel bis zum Endkunden zum Einsatz. Fast überall finden sich offene WLANs. In Lokalen oder Hotels gibt es standardmäßig Gratis-WLAN.
Es existieren mehrere gut ausgebaute Mobilfunknetze mit 3G- und HSDPA-Internet. Sim-Karten mit reichlich Datenvolumen werden praktischerweise an jeder Ecke angeboten. Die Tarife sind auch für Einheimische ziemlich günstig. Praktisch jeder Vietnamese verfügt inzwischen über ein Mobiltelefon oder zunehmend über Smartphones.
Die Internet-Cafés, von denen es im ganzen Land eine hohe Anzahl gibt, werden überwiegend für Onlinespiele besucht. Ähnlich wie in China ist die Regierung besorgt, dass durch das Internet das staatliche Informationsmonopol untergraben wird und letzten Endes die Legitimität der Alleinregierung der Kommunistischen Partei in Frage gestellt werden könnte. Deshalb kommt für das ganze Land ein Gateway (Vietnam Data Communications) mit Filtersystem zum Einsatz, welches unerwünschte Inhalte blockieren soll. Dazu gehörte in der Vergangenheit mehrmals die vietnamesischsprachige Webpräsenz der BBC.
Kultur
Die vietnamesische Kultur hat ihre Anfänge in der Dong-Son-Kultur vor etwa 3000 Jahren. Sie war anderen südostasiatischen Kulturen sehr ähnlich.
Die heutige vielfältige Kultur Vietnams ist eine Mischung aus originären lokalen Kulturen der Vietnamesen und anderer Völker des Landes, sowie chinesischen und westlichen Elementen.
Küche
Feiertage
Medien
Alle Medien Vietnams werden vom Staat und damit der Kommunistischen Partei Vietnams gesteuert; nur von der Regierung genehmigte Informationen dürfen veröffentlicht werden. Zeitungen, die sich diesen Regeln entzogen haben, wurden wiederholt zensiert; ebenso wurden Dissidenten, die kritische Informationen über das Internet verbreitet hatten, in Haft genommen, sobald das Regime ihrer habhaft wurde. 2016 setzten sich beim Parteikongress die Hardliner der KP durch, woraufhin zahlreiche Medienschaffende zu langen Haftstrafen verurteilt wurden – oft aufgrund schwammiger Vorwürfe wie „Propaganda gegen den Staat“. Zum Stand 2018 saßen laut RSF zwanzig Online-Aktivisten und Bürgerjournalisten im Gefängnis. Im Dezember 2017 gaben die Vietnamesischen Streitkräfte den Einsatz einer Cyber-Armee zur Bekämpfung „falscher“ Informationen im Internet bekannt. Ein 2019 in Kraft getretenes Gesetz gegen Internetkriminalität schreibt ausländischen Online-Plattformen vor, die Daten einheimischer Nutzer auf Servern in Vietnam zu speichern und sie den Behörden auf Anweisung auszuhändigen. Auf der weltweite Rangliste der Pressefreiheit belegt Vietnam regelmäßig einen der letzten Plätze und wurde 2021 auf Rang 175 von 180 Ländern und Territorien gelistet.
In den Büchereien der Großstädte ist ausländische Literatur in verschiedenen Sprachen als Lehrmaterial erhältlich. Auch englischsprachige Printmedien werden in Vietnam angeboten. Dies sind zum einen Zeitschriften, die sich an Touristen richten und Reise- oder Unterhaltungsmöglichkeiten bewerben. Die meisten englischsprachigen Publikationen richten sich an Geschäftsleute und verkünden die neuesten Errungenschaften der Wirtschaftspolitik Vietnams. Ausländische Publikationen werden nicht zensiert, sind aber für die durchschnittlichen Vietnamesen sehr teuer. Alte Exemplare von ausländischen Zeitungen werden häufig von Straßenhändlern angeboten.
Das staatliche vietnamesische Radio und Fernsehen strahlt mehrere teils landesweite, teils regionale Programme aus. Der staatliche Auslandsdienst Voice of Vietnam, der seit der Augustrevolution existiert und während des Vietnamkrieges hauptsächlich Propaganda gegen die Vereinigten Staaten ausstrahlte, sendet auch heute noch Propaganda im Sinne der Regierung. Es werden halbstündige Programme auf Englisch, Französisch, Russisch, und seit dem 1. März 2006 auch in deutscher Sprache produziert, die sich an Hörer in Europa richten. Die Sendungen werden auf Kurzwelle und via Stream ausgestrahlt und sollen in Hanoi laut einer Quelle auch auf UKW verbreitet werden.
Das staatliche Fernsehen VTV betreibt sieben Programme. Zudem sind ausländische Fernsehsender (z. B. ESPN, BBC, CNN, TV5 oder Deutsche Welle TV) mit entsprechenden digitalen Decodern empfangbar.
Sport
Special Olympics Vietnam wurde 2006 gegründet und nahm mehrmals an Special Olympics Weltspielen teil. Der Verband hat seine Teilnahme an den Special Olympics World Summer Games 2023 in Berlin angekündigt. Die Delegation wird vor den Spielen im Rahmen des Host Town Programs von Pforzheim betreut.
Siehe auch
Literatur
Bücher
Andreas Reinecke (Hrsg.): Schätze der Archäologie Vietnams. Begleitband zur Sonderausstellung. Nünnerich-Asmus Verlag, Mainz 2016, ISBN 978-3-945751-44-2.
Ulrich Brinkhoff: Albträume am Saigon-Fluss. Südvietnam 1965–1968. Agenda-Verlag, Münster 2014, ISBN 978-3-89688-516-6.
Susanne My Giang, Andreas Grimmel, Eckhard Grimmel: Vietnam – Natur, Geschichte, Gesellschaft, Wirtschaft, Politik. Peter Lang Verlag, Frankfurt am Main 2012, ISBN 978-3-631-60447-2.
Heinz Kotte, Rüdiger Siebert: Vietnam. Die neue Zeit auf 100 Uhren. Lamuv, Göttingen 2001, ISBN 3-88977-604-3.
Andreas Margara: Der Amerikanische Krieg – Erinnerungskultur in Vietnam. Regiospectra, Berlin 2012, ISBN 978-3-940132-48-2.
Andreas Margara: Geteiltes Land, geteiltes Leid. Geschichte der deutsch-vietnamesischen Beziehungen von 1945 bis zur Gegenwart, Berlin 2022, ISBN 978-3-947729-62-3.
Andrea Markand, Markus Markand: Stefan Loose Reiseführer Laos: mit Reiseatlas. 2018, ISBN 978-3-7701-7885-8.
Zeitschriften
Vietnam Cultural Window (Cua-sâ-van-Hóa-Viêt-Nam). The Gioi Publishers, Hanoi 1998ff. (monatlich)
Vietnamese Studies. The Gioi Publishers, Hanoi 1964ff. (vierteljährlich)
VietNam Kurier. Freundschaftsgesellschaft Vietnam e. V., Düsseldorf 1977ff. (vierteljährlich)
Südostasien Aktuell. Institut für Asienkunde, Hamburg 1982ff. (zweimonatlich)
Weblinks
Länderinformationen des deutschen Auswärtigen Amtes zu Vietnam
(vietnamesisch, englisch)
Vietnam in the News (englisch)
Botschaft der Sozialistischen Republik Vietnam in Deutschland (vietnamesisch, deutsch)
Einzelnachweise
Staat in Asien
Sozialistischer Staat (Staat)
Mitgliedstaat der Vereinten Nationen
Indochina
Vietnam
Wikipedia:Artikel mit Video
|
Q881
| 4,197.742271 |
502119
|
https://de.wikipedia.org/wiki/Quellenangabe
|
Quellenangabe
|
Eine Quellenangabe ist in einer Veröffentlichung der Verweis auf eine Informationsquelle, auf die zurückgegriffen wurde, beispielsweise ein Buch, ein Zeitungsartikel oder eine Webseite.
Allgemeines
Die Quellenangabe wird entweder direkt am Objekt (Artikel, Bericht, Foto, Zeichnung, Zitat) gemacht oder in einem gesonderten „Quellenverzeichnis“ angegeben. In Ton- oder Filmmaterial können die Quellen im Nachspann angesagt oder angezeigt werden.
Erfolgt die Quellenangabe direkt am Objekt, so steht sie meistens in Klammern. Zum Beispiel:
„Kaiser Hubert der Große regierte Atlantis von 1111 bis 1112.“ (Max Musterautor: Atlantis. Berlin 1901, S. 123)
„Beobachtungen des Weltraumteleskops Hubble ergaben, dass sich die Monde des Uranus dem Planeten nähern.“ (Max Musterautor: Neue Uranus-Monde. In: Populäre Wissenschaft. Nr. 12, 2005, S. 12–13)
Im Internet kann man die Quellenangabe auch per Link anbringen. Zum Beispiel:
„Dies ist ein Beispiel.“ (http://example.com/Beleg.html, Stand: [Datum])
Als Quellen können alle Dinge mit Informationsgehalt dienen, wie z. B. Fotos, Zeitungsartikel, Statistiken, Zeichnungen, Tonaufzeichnungen, Bildaufzeichnungen, Zeitungen, Magazine, Zeitschriften. Die Angabe einer Quelle 'beweist' nicht, dass die Information richtig ist, sondern verweist nur auf die Herkunft der Information. Weil eine solche Offenlegung zur Transparenz der Wissensproduktion und -präsentation beiträgt, gelten solche Belege oft als Qualitätsmerkmal. Daher sind diese im wissenschaftlichen Diskurs obligatorisch. Andere Wissenschaftler, Kommilitonen oder auch Mitschüler bzw. Lehrer haben so die Möglichkeit, die Herkunft der Informationen und ihre Richtigkeit zu überprüfen. Je nach moderner Lizenz der Quelle ist mit der Quellenangabe möglicherweise bereits der Urheberschutz abgedeckt, wenn der Urheber besonders darauf hinweist.
Die Geschichtswissenschaft verwendet einen besonderen Quellenbegriff, der Quellen von Sekundärliteratur unterscheidet.
Quellenangabe im Urheberrecht
Viele nationale Kodifikationen zum Urheberrecht gestatten im Rahmen der urheberrechtlichen Schranken die Verwendung von Zitaten. Die Rechtmäßigkeit dieser Verwendung fremden Gedankenguts ist allerdings an die Angabe der Quelle gebunden.
Bundesrepublik Deutschland
§ 63 UrhG bestimmt, dass die Quelle deutlich anzugeben ist. In der Regel ist die genaue Angabe der Fundstelle erforderlich, also auch die Angabe des Kapitels oder der Seitenzahl bei umfangreicheren Werken.
Beispiel einer Quellenangabe:
Zitat: Der Begriff der Quelle umfasse jedenfalls die Bezeichnung des Urhebers und in allen Fällen auch den Titel des Werkes oder eine andere dieses identifizierende Bezeichnung […]. Auch die Angabe des Publikationsorgans […] wird davon erfasst.
Quellenangabe: Dietz in: Schricker, Urheberrecht 2. A., 1999, § 63 UrhG Rdnr. 13f.
Österreich
§ 57 des österreichischen Urheberrechtsgesetzes enthält detailliertere Vorschriften über die Quellenangabe als das deutsche Gesetz, unter anderem: In den Erläuterungen (ErlRV) heißt es: „Bei Entlehnungen aus umfangreichen Werken muss also in der Quellenangabe auch die Seite, der Abschnitt, das Kapitel oder der Akt, wo sich die entlehnte Stelle befindet, angeführt werden“ (Dillenz, Materialien zum österreichischen Urheberrecht, 134, zitiert nach Dittrich S. 621).
2002 nahm der österreichische OGH zur Frage der Quellenangabe in der Entscheidung Riven Rock Stellung:
Siehe auch
Endnote
Fußnote
Literaturangabe
Plagiat
Primärquelle und Sekundärquelle
Quelle (Geschichtswissenschaft)
Quellengedächtnis
Sekundärliteratur
Zitat
Literatur
Robert Dittrich: Zur Quellenangabe bei Zitaten. In: Urheberrecht im Informationszeitalter. Festschrift für Wilhelm Nordemann. München 2004, ISBN 3406516831, S. 617–624.
Weblinks
Quellenangabe auf magic-point.net
rechtsprobleme.at: Urheberbezeichnung bei Rundfunksendungen, Übersetzung, Recht auf Namensnennung
Einzelnachweise
Urheberrecht
Wissenschaftliche Arbeit
|
Q1713
| 217.401872 |
3856826
|
https://de.wikipedia.org/wiki/Kodifikation
|
Kodifikation
|
Eine Kodifikation ist die systematische Zusammenstellung der Rechtssätze eines Rechtsgebiets in einem einheitlichen Gesetzeswerk. In diesem soll, grundsätzlich unter Ausschluss weiterer Rechtsquellen, das jeweilige Rechtsgebiet abschließend geregelt werden. Das Prinzip der Vollständigkeit erfordert weiterhin eine strukturierte Gliederung und ein konsequentes Begriffsinstrumentarium. Klassische Vertreter deutscher Kodifikationen sind das Bürgerliche Gesetzbuch (BGB) und die Zivilprozessordnung (ZPO). Geprägt wurde der Begriff vom englischen Juristen und Sozialreformer Jeremy Bentham.
Fehlt der Zusammenstellung eine ordnende Systematik, oder setzt sie sich lediglich aus Zitaten anderer Gesetzeswerke zusammen, so wird von einer „Kompilation“ gesprochen. Klassische Vertreter sind hier die Bestandteile des sogenannten Corpus iuris civilis, etwa die Digesten. Der römisch-germanische Rechtskreis ist größtenteils durch Kodifizierung gekennzeichnet, wohingegen das Common Law nur Gesetzeskompilationen kennt.
Idee und Zweck
Die Idee moderner Kodifikationen wurzelt in der Aufklärung. Um die Wende des 18. auf das 19. Jahrhundert führte sie zu einer naturrechtlichen Kodifikationswelle, beginnend mit dem preußischen Allgemeinen Landrecht (1794), welches noch in erheblichem Maß von ständischen Zügen geformt war. Es folgten recht zügig der revolutionäre napoleonische Code civil (1804) und das Allgemeine Bürgerliche Gesetzbuch (1812) der österreichischen Kaiserzeit. Die Pandektenwissenschaft brachte zum Beginn des 20. Jahrhunderts nationalstaatliche Kodifikationen wie das BGB oder das ZGB hervor.
Zweck einer Kodifikation ist es, die für den betreffenden Lebensbereich geltenden Regeln dadurch besser verfügbar und verständlich zu machen, dass sie kompakt zusammengefasst und aufeinander bezogen sind. Die Idee der Kodifikation enthält bezüglich der Regelungsdichte ein Prioritätspostulat, denn sie verlangt immanent, dass die Legislative den Vorrang vor der Jurisdiktion einnimmt.
Kodifikationsmaximen Jeremy Benthams
Jeremy Bentham stellte einen Katalog von fünf Forderungen für das Leitbild einer Kodifikation auf. Der Begriff „Kodifikation“ selbst ging auf Bentham zurück. Eine systematisch aufgebaute Kodifikation sollte dauernd halten und Anpassungen regelmäßig nur aus Gründen des Wandels der Umgangssprache erfolgen.
Benthams einleitendes Postulat: eine Kodifikation muss einen Lebensbereich umfassend normieren. Das entspricht der Gestaltungsform eines Gesamtgesetzbuches. Ein Gesamtgesetzbuch umfasst alle Bestimmungen, die für den einzelnen Staatsbürger relevant sind oder relevant werden können.
Weiterhin forderte Bentham eine einheitliche Normierung für ein Staatsgebiet. Insoweit dachte er nicht nur die nationalstaatlichen Umsetzungen des späten 19. Jahrhunderts voraus, er proklamierte damit die Schaffung von Verbindlichkeit, als gemeinsames einigendes Band.
Zum Dritten verlangte Bentham die Ausschaltung aller historischen Zufälligkeiten. Franz Wieacker fasste die ideengeschichtlichen Prämissen Benthams dahin zusammen, dass der „Anspruch eines geistig vorgegebenen Rechtssystems“ verfolgt werden müsse.
Seine vierte Forderung zielte auf die Systematik im Aufbau eines Kodifikationsapparates ab. Insbesondere erteilte Bentham damit der traditionellen Kasuistik (Fallgestaltungslehre) eine Absage. Er forderte Abstraktion durch Rechtsprinzipien. Die seien zweifelsfrei und allgemeinverständlich zu verfassen.
Die Kodifikation sollte die Ermessenspielräume des Richters einschränken, denn über der Judikative stünde die Legislative. Maßstab war, dass die Rechtsordnung des Gesetzgebers das Rechtsleben gestalte, die Rechtsprechung allein den Willen des Gesetzgebers ausführe.
Mit den ersten drei Punkten des Katalogs wird der universelle Geltungsanspruch einer Kodifikation abgesteckt. Abgeklärt werden die inhaltliche, die räumliche und zeitliche Komponente ihres Geltungsbereiches. Die beiden folgenden Axiome betreffen Fragen des Aufbaus einer Kodifikation und die Normdichte.
Historische Erscheinungsformen
Im deutschen Recht war der bekannteste Kodifikationsvorgang die Zusammenfassung des Zivilrechts im Bürgerlichen Gesetzbuch, Ende des 19. Jahrhunderts. Aktuell ist die – noch nicht abgeschlossene – Zusammenfassung weiter Teile des Sozialrechts im Sozialgesetzbuch geplant. Schon länger wird die Kodifikation des auf mehrere Gesetze verstreuten Umweltrechts in einem Umweltgesetzbuch gefordert.
In der römischen Antike stellte das Zwölftafelgesetz um 450 v. Chr. die erste Kodifikation dar. Sie war das Ergebnis vorangegangener Ständekämpfe (450–287 v. Chr.), bei denen sich die Plebejer gegenüber den Patriziern politische Mitbestimmung, zivilrechtliche Gleichstellung und die Beteiligung am wirtschaftlichen Gewinn der Expansion erkämpft hatten. Während der Spätantike ergingen Kompilationen unter Diokletian und Justinian, mittels derer versucht wurde, klassisches Juristenrecht zu bewahren und kaiserliche Gesetze (Kaiserkonstitutionen) zusammenzutragen.
Im Kirchenrecht der katholischen Kirche war die entscheidende Kodifikation der 1917 promulgierte Codex Iuris Canonici; zuvor bestand das Kirchenrecht aus dem historisch gewachsenen Corpus Iuris Canonici, das durch päpstliche und konziliare Rechtssetzung ergänzt wurde, die ihrerseits teils in Sammlungen vorlag, teils nicht.
In der islamischen Welt wurde das geltende Recht zwar schon sehr früh im Rahmen des Fiqh von Gelehrten in Rechtsbüchern zusammengestellt, eine Kodifizierung des Rechts in Form staatlicher Gesetzbücher fand aber erst in der zweiten Hälfte des 19. Jahrhunderts statt, wobei die zwischen 1869 und 1876 entstandene Mecelle, die das Zivilrecht regelte, den Anfang bildete. In Saudi-Arabien ist das islamische Recht bis heute noch nicht kodifiziert, weil eine solche Kodifizierung als unzulässige staatliche Beschneidung der Entscheidungsfreiheit des Richters betrachtet wird, der sich in seinem Urteil allein an dem Koran und der Sunna ausrichten soll.
Literatur
Wilhelm Brauneder: Kodifikationsbewegungen, in: Europäische Geschichte Online, hrsg. vom Institut für Europäische Geschichte (Mainz), 2017, Zugriff am 8. März 2021 (pdf).
Jan Dirk Harke: Römisches Recht. Von der klassischen Zeit bis zu den modernen Kodifikationen. (Grundrisse des Rechts). Beck, München 2008, ISBN 978-3-406-57405-4, § 1.
Wolfgang Kunkel, Martin Schermaier: Römische Rechtsgeschichte. 14. Auflage. UTB, Köln/ Wien 2005, ISBN 3-8252-2225-X, S. 208–223, § 11 (Die Rechtsentwicklung der Spätzeit bis auf Justinian).
Bernd Mertens: Gesetzgebungskunst im Zeitalter der Kodifikationen, Tübingen 2004, ISBN 3-16-148300-6.
Hans Hermann Seiler: Geschichte und Gegenwart im Zivilrecht, Heymanns, Köln 2005, ISBN 3-452-25387-2, S. 315–328.
Weblinks
Einzelnachweise
Rechtsgeschichte
Privatrechtsgeschichte
Rechtsquellenlehre
|
Q214214
| 87.949896 |
19431
|
https://de.wikipedia.org/wiki/Triest
|
Triest
|
Triest (triestinisch/ sowie , , und , ) ist eine in Norditalien am Golf von Triest gelegene Hafen- und Großstadt mit Einwohnern (Stand ), darunter eine slowenische Minderheit. Triest liegt an der oberen Adria direkt an der Grenze zu Slowenien, ist Hauptstadt der autonomen Region Friaul-Julisch Venetien und war bis 2017 Hauptstadt der Provinz Triest, bevor diese aufgelöst wurde.
Triest ist Sitz des römisch-katholischen Bistums Triest. Die Stadt, die seit 1924 Universitätsstadt ist, beherbergt zwei bekannte Observatorien für Astronomie bzw. für Geophysik. Sie ist Hauptsitz von weltweit tätigen Unternehmen, wie dem Kaffeeproduzenten illycaffè S.p.A., der Versicherungsgesellschaft Generali, dem Schiffbauunternehmen Fincantieri und dem Schifffahrtsunternehmen Italia Marittima (ehemals Lloyd Triestino bzw. Österreichischer Lloyd).
Bereits 774 wurde Triest Teil des Frankenreiches unter dem späteren Kaiser Karl dem Großen. In der Kontinuität des Kaisertums entwickelte sich aus dem Ostteil des Frankenreiches das Heilige Römische Reich deutscher Nation, dessen Bestandteil Triest mit kurzen Unterbrechungen (siehe Absatz Geschichte) bis zu dessen Untergang 1806 fast 1000 Jahre lang blieb. Auch danach gehörte die Stadt als Teil des dem Deutschen Bund angehörigen Kaisertums Österreich von 1815 bis 1866 zum deutschen Staatsverband. Von 1382 bis 1918 war Triest Teil der Habsburgermonarchie bzw. von Österreich-Ungarn. Es war sein bedeutendster Handelshafen, einer der Stützpunkte der k.u.k. Kriegsmarine sowie Sitz des Statthalters des Österreichischen Küstenlandes (Litorale) bzw. der 1861 daraus gebildeten drei Kronländer Gefürstete Grafschaft Görz und Gradisca, Markgrafschaft Istrien und Reichsunmittelbare Stadt Triest.
Kulturell und historisch blieb Triest auch als Teil Italiens seit 1918 ein Ort des Zusammentreffens von Kulturen, Sprachen, Ethnien und Religionen („Città mitteleuropea“). Nach dem Kriegsende 1945 wurden die Stadt und ihr gemischtsprachiges Hinterland erfolgreich von Jugoslawien beansprucht; nach einem Intermezzo als Freies Territorium Triest unterstand Triest ab 1954 wieder dem italienischen Staat.
Triest geriet durch den Ost-West-Konflikt, als es so wie Berlin an der Bruchlinie zwischen Ost und West lag, jahrzehntelang in eine verkehrspolitische Randposition. Der Nachteil dieser Grenzlage und der daraus resultierende Verlust an wirtschaftlicher Bedeutung fielen mit dem EU-Beitritt Sloweniens 2004 und seinem Beitritt zum Schengen-Raum, der am 21. Dezember 2007 zum Wegfall der Grenzkontrollen zu Italien führte, und dem Beitritt Kroatiens zur EU im Jahr 2013 weg.
Triest ist mit seinem Tiefwasserhafen heute wie vor 1918 ein maritimes Tor für Norditalien, Deutschland, Österreich und Mitteleuropa und gilt als Endpunkt der maritimen Seidenstraße (Maritim Silk Road bzw. 21st Century Maritim Silk Road) mit ihren Verbindungen über den Suezkanal bzw. die Türkei und dem Landweg nach China, Japan und viele Länder Asiens.
Der Hafen von Triest hat ein internationales Zollfreigebiet (Freihafen) mit fünf Freizonen. Seit den 1960er Jahren ist Triest durch seine vielen internationalen Organisationen und Einrichtungen einer der wichtigsten Forschungsstandorte Europas, eine internationale Schul- und Universitätsstadt und hat einen der höchsten Lebensstandards unter Italiens Städten. Die Stadt wurde 2020 als eine der 25 kleinen Städte der Welt mit der besten Lebensqualität und 2021 als eine der zehn sichersten Städte der Welt bewertet. Sie hat in Europa den höchsten Anteil an Forschern und Wissenschaftlern im Verhältnis zur Bevölkerung.
Triest hat eine sehr lange Küstenlinie, freien Meerzugang in Barcola und ist von Grünland, Wald- und Karstflächen umgeben. In der Stadt befand sich auf dem Molo Sartorio der Mareograf, auf dessen festgelegte Werte aus den Jahren 1875 und 1900 sich in Mitteleuropa die meisten Bezugshöheangaben mit der Kennzeichnung „Meter über Adria“ beziehen. Triest ist auch die Città della Barcolana, wie die Hinweisschilder an den Stadteinfahrten verdeutlichen, und damit jährlicher Austragungsort dieser weltgrößten Segelregatta.
Triest liegt an einem Schnittpunkt der lateinischen, slawischen, griechischen und jüdischen Kultur, wo Mitteleuropa auf den mediterranen Raum trifft. Es gilt daher als eine der literarischen Hauptstädte und wurde wegen seiner unterschiedlichen Ethnien und Religionsgemeinschaften oft als frühes New York bezeichnet. Es gibt daneben noch weitere nationale und internationale Bezeichnungen für die Stadt wie zum Beispiel Trieste città della bora, Città del vento, Trieste città mitteleuropea, Trieste città della scienza – City of Science, Wien am Meer oder Stadt des Kaffees, in denen einzelne prägende Eigenschaften herausgehoben werden.
Geographie
Lage
Triest liegt im Nordosten Italiens am Golf von Triest, einer Meeresbucht der Oberen Adria, wenige Kilometer von der slowenischen Grenze entfernt. Die Stadt ist Teil der historischen Region Julisch Venetien (Venezia Giulia), die vor dem Ersten Weltkrieg auch als Österreichisches Küstenland bekannt war und deren Gebiet heute auf die Staaten Italien, Slowenien und Kroatien verteilt ist. Da Triest durch die Grenzziehungen des 20. Jahrhunderts einen Großteil seines Hinterlandes verlor, wurde Julisch-Venetien mit Friaul zur autonomen Region Friaul-Julisch Venetien vereinigt, deren Hauptstadt Triest seit 1962 ist.
Triest und sein Hinterland erstrecken sich vom Abhang einer hohen Küstenstufe des gleichnamigen Karsts (Triestiner Karst), die zum Binnenland in eine steinige, schrattige, kalkhaltige und wasserarme Hochlandschaft übergeht, hin zu einer küstennahen Flachlandzone am Adriatischen Meer. Die hoch gelegenen Landschaftsbereiche sind für ihre Höhlen, Dolinen und andere Karstformen bekannt. Das Stadtgebiet von Triest dehnt sich dabei südwärts in ein Flyschgebiet aus, das in Form einer Doppelmulde über das Stadtgebiet und die Landesgrenze hinaus bis nach Pazin reicht.
Charakteristisch für diese Gegend ist auch der Bodentyp Terra rossa, ein aus Kalkstein-Verwitterung hervorgegangener roter Lehm, der besonders für den Anbau von Wein geeignet ist. Im Weinbaugebiet Carso, das die Stadt Triest umschließt, wird vor allem die Weinrebe Carso Terrano, eine Varietät der Rebsorte Refosco, angebaut. Das Anbaugebiet erhielt 1985 das Qualitätssiegel DOC. 1986 eröffnete die Provinz Triest zwischen den Ortschaften Opicina und Sistiana die Terrano-Weinstraße („Strada del vino Terrano“).
Als wichtigster Hafen Österreichs bzw. Österreich-Ungarns (1382–1918) wurde Triest zu einem Zentrum der Nautik und der Meereskunde. Das Hafenbecken erhielt am Molo Sartorio einen langfristig beobachteten Pegel, auf den sich seit dem 19. Jahrhundert das mitteleuropäische Höhensystem Meter über Adria bezieht; er wurde von der 1841 gegründeten Wetterwarte betreut, die heute zum Geophysikalischen Institut Triest gehört.
Klima
Das Klima von Triest ist submediterran. Es zeichnet sich durch heiße, trockene Sommer und milde, regenreiche Winter aus. Im Sommer wird eine Durchschnittstemperatur von 25 °C, im Winter von 8 °C erreicht.
Die sommerlichen Wassertemperaturen bewegen sich in Küstennähe von 24 °C bis zu 28 °C. Der jährliche Niederschlag beträgt ca. 1023 mm, die relative Luftfeuchtigkeit 64 %. In Triest herrscht an ca. 200 Tagen im Jahr Windstille. In der Stadt ist es somit im Vergleich zu anderen Meeresstädten nicht besonders windig.
Charakteristisch für das Klima von Triest sind verschieden auftretende Winde, wie Bora und Scirocco. Die Winde sind die Ursache für das günstige Klima der Stadt, da es selten zur selben Zeit kalt und nass ist. Manche Winde sind nicht von Jahreszeiten abhängig, sondern entstehen im Verlaufe bestimmter Wetterkonstellationen. Im Laufe der Zeit haben sich dafür traditionell überlieferte Bezeichnungen verfestigt. Sie besitzen Namen etwa wie Grecale, Libeccio, Maestrale, Tramontana oder Ponente.
Die oft im Winter, aber auch im sonstigen Jahr aufkommende Bora ist ein kalter, trockener Fallwind aus Nordosten, der plötzlich beginnt, auch wochenlang andauern kann und in starken Böen vom Land auf das offene Meer bläst. Er wird in der Bucht von Triest kanalisiert und erreicht dadurch in der Stadt hohe Windgeschwindigkeiten, in Einzelfällen weit über 100 km/h. Während die hohen Windgeschwindigkeiten im Stadtgebiet von Triest besonders im Winter in Verbindung mit Eis und Schnee zu Chaos führen können, hat die Bora auf das Wohlempfinden der Menschen positive Auswirkungen. Man sagt: „Die Bora bläst die schlechten Launen fort.“ Viele Kranke fühlen sich an Boratagen von ihren Leiden, der Wetterfühligkeit und den Schmerzen befreit.
Der seltenere Scirocco ist im Gegensatz zur Bora ein warmer, feuchter Ost-Südostwind, der von schweren Wolken und Regen begleitet wird. Im Sommer ist der Libeccio am häufigsten, eine leichte Brise aus Südwesten durch Fallwinde aus den Apenninen, die vom Meer Richtung Land weht und warme Sommernächte abkühlt. Die Tramontana ist ein kalter Winterwind und folgt der Bora oder dem Maestro in deren Anschluss. Sie kann sehr schnell aufkommen, was mit einem Temperaturabfall oder mit dem plötzlichen Ende lokaler Winde beginnt.
Die meteorologische Station im Triester Hafen gehört zum Istituto Tecnico Nautico “Tomaso di Savoia”. Ebenfalls betreibt die Universität Triest eine meteorologische Mess- und Beobachtungsstation im Stadtgebiet.
Infolge des Klimas und trotz der nördlichen Lage kann in Triest einerseits noch ausgezeichnetes Olivenöl gewonnen werden (man spricht von der Lage der Stadt an der Olivenöl-Buttergrenze) und andererseits kämpft die Stadtverwaltung bzw. kämpfen die Hauseigentümer regelmäßig mit Termitenbefall der historischen Immobilien.
Geschichte
Gründung
Zur Zeit der Gründung Aquileias durch die Römer war die Gegend um Triest von keltischen und illyrischen Stämmen bewohnt. Als die Römer ab 177 v. Chr. von Aquileia aus Feldzüge nach Istrien unternahmen, erhielten sie Unterstützung durch Bewohner einer Ortschaft namens Tergeste, des ersten Ortes in Illyrien, im Gebiet der Histrer. In diese Zeit fällt auch die Gründung von drei römischen Militärlagern, der 13 Hektar großen Hauptanlage San Rocco zwischen den zwei kleineren Forts in Monte Grociana Piccola im Nordosten und Montedoro im Südwesten. Im Jahr 128 v. Chr. kam es zur erstmaligen Ansiedlung römischer Bürger in Tergeste. Die Siedlung Tergeste wurde vom griechischen Geografen Artemidor von Ephesos 104 v. Chr. erwähnt und war damals bereits eine römische Ansiedlung auf dem heutigen Stadthügel San Giusto, wo auch die Siedlungsursprünge liegen.
In der zweiten Hälfte des 1. Jahrhunderts v. Chr. wurde im Triestiner Vorort Barcola eine aufwendige fürstliche römische Villa errichtet. Diese private Villa befand sich zwischen dem heutigen Friedhof und der Kirche San Bartolomeo, ungefähr auf der Höhe Viale Miramare 48, unmittelbar am Meer mit einmaligem Panoramablick. Die Villa Maritima erstreckte sich an der Küste entlang und gliederte sich in Terrassen in einen feudalen Repräsentationsbereich, Prunksaal, einen separaten Wohnbereich, einen Garten, einige zum Meer offene Einrichtungen und eine Therme. Erweiterungen und Umbauarbeiten lassen sich bis in die zweite Hälfte des 1. Jahrhunderts n. Chr. nachweisen. Die gefundenen Kunstwerke, Statuen und Mosaike befinden sich heute im Museum Lapidario Tergestino im Kastell San Giusto, wobei vergleichbare Werke bisher nur in Rom und Kampanien gefunden wurden.
Schon ab dem ersten Jahrhundert nach Christus entwickelte sich dann Barcola (als Vallicula bzw. später Valcula) mit seinen klimatischen Vorzügen und einer Reihe von Villen für Patrizier und Adligen zu einem exklusiven römischen Touristenort. An den Hängen wurden damals, wie schon Plinius der Ältere erwähnt, die Reben des Weines Pulcino (ein vermutlicher Vorgänger des Prosecco) angebaut. Es war der nur dort gezogene Lieblingswein der Kaiserin Livia, der Ehefrau des Augustus, und soll schon von den Griechen unter der Bezeichnung Prätetianum gerühmt worden sein.
Um Christi Geburt fungierte Triest als Grenzfestung gegen die in den Ostalpen siedelnden Japyden. Den Namen Tergeste, der wahrscheinlich „Markt“ bedeutet und aus dem Triest wurde, behielten die Römer bei, als sich Mitte des 1. Jahrhunderts n. Chr. Tergeste als römische Kolonie zu einem wichtigen Hafenort im Römischen Reich, mit Handelsstraßen entlang der Adria und über die Julischen Alpen entwickelte. Allerdings erlangte Triest damals nie die Bedeutung des dem Golf von Triest gegenüberliegenden Aquileia. Das römische Tergeste hatte durch einen Hafen Zugang zum Meer und war ab 33 v. Chr. durch neue Mauern geschützt. Im Jahr 27 v. Chr. wurde Tergeste der X. italischen Region „Venetia et Histria“ zugeteilt. Zur Zeit Trajans (98–117 n. Chr.) zählte die Stadt 12.000 Einwohner und erhielt eine Basilika und ein Theater. Gegen Ende des 3. Jahrhunderts n. Chr. wurden die reichen römischen Wohnhäuser und Villen verlassen und setzte eine Zeit der Rückentwicklung und des Rückzuges auf den Hügelbereich ein, der erneut befestigt wurde. Die Bauwerke bekamen einen ländlichen Charakter und statt Mauerwerk wurde oft Holz verwendet.
Nach dem Untergang des Weströmischen Reichs im Jahr 476 teilte Triest das allgemeine Schicksal Istriens, wo Ostgoten, Byzantiner und Langobarden einander in der Herrschaft folgten, bis die Stadt 774 dem Reich Karls des Großen als ein Teil der Mark Friaul einverleibt wurde. Unter Kaiser Lothar III. erhielt der Bischof von Triest weltliche Hoheit über die Stadt.
Triest behielt die Unabhängigkeit unter seinen Bischöfen bis zur Eroberung durch Venedig 1203. Für die nächsten 180 Jahre bestand die Geschichte Triests hauptsächlich aus einer Reihe von Konflikten mit dem mächtigen Venedig im Spannungsverhältnis zum Anspruch des Patriarchen von Aquilea. Venedig erzwang auch den Abriss der Stadtmauer, die aber im Laufe des 14. Jahrhunderts wieder aufgebaut wurde. Da Triest keine eigene Armee hatte, war es Pflicht der Bürger, der sie sich nicht entziehen konnten, selbst Wache auf den Mauern zu halten und Kriegsdienst zu leisten. Um die Unabhängigkeit Triests zu wahren, stellten sich dann die Bürger Triests selbst im Jahr 1382 unter den Schutz Leopolds III. von Österreich, der auch Landesherr des benachbarten Herzogtums Krain war. Die Eigenständigkeit der Stadt musste unangetastet bleiben und die österreichischen Vorrechte bezogen sich nur auf die Ernennung eines militärischen Statthalters.
Unter österreichischer Krone
Triest war von 1382 bis 1918 habsburgisch-österreichisch. Am 30. September 1382 nahm Herzog Leopold III. die freiwillige Unterwerfung der Stadt Triest in der Burg von Graz an. Im 15. Jahrhundert kam es in der Stadt immer wieder zu erbitterten Konflikten zwischen der kaiserlichen Partei, den Anhängern der Herren von Duino und den Venezianern. Besonders in den Jahren 1467 bis 1469 führten die Bürgerkämpfe zu Terrorakten und Verwüstungen in den Straßen Triests. Das Protektorat entwickelte sich aber langsam zu einem wirklichen Besitzverhältnis, dem Österreichischen Küstenland (Litorale). Vertreten wurde die habsburgische Herrschaft in Triest lange Zeit nominell durch das Geschlecht der Grafen von Montenari. Die Statthalterschaft wurde vorerst ad personam vom jeweiligen Monarchen (der zumeist auch Kaiser des Heiligen Römischen Reiches war, aber dort nicht in dieser Funktion entschied, sondern als Herrscher der Habsburgischen Erblande) verliehen, später dann erblich nach dem Gesetz der Primogenitur an den ältesten Sohn des Grafen von Montenari weitergegeben.
Abgesehen von wiederholten kurzen Besetzungen (vor allem 1508/09) durch Venedig und der napoleonischen Periode (1797, 1805–1806 und 1809–1813) blieb Triest bis zum Ende des Ersten Weltkrieges Teil des habsburgischen Österreichs.
Triests Aufstieg im 18. Jahrhundert
Triests Aufstieg in der Donaumonarchie begann 1719 mit der Erhebung der Stadt zum Freihafen durch Karl VI. – ein Status, den die Stadt bis 1891 behielt. Karls Nachfolger Maria Theresia und Joseph II. unterstützten Triests wirtschaftlichen Aufschwung durch das Anlegen städtebaulich wichtiger Viertel, der „Maria-Theresien-Stadt“ (Borgo Teresiano) nordöstlich des heutigen Hauptplatzes und der „Josephsstadt“ (Borgo Giuseppino) südwestlich.
Als einziger großer Seehafen Österreichs nahm Triest eine wichtige strategische Stellung in der Habsburgermonarchie ein und war Ausgangspunkt kurzlebiger Kolonialerwerbungen (Triestiner Handelskompanie). Der Druck Venedigs hemmte jedoch lange Zeit die wirtschaftliche Entwicklung Triests. Erst die Eroberung Venedigs durch Napoleon am Ende des 18. Jahrhunderts und der anschließende Friede von Campo Formio, in dem Venedig Österreich zugesprochen wurde, leitete den Niedergang der Republik Venedig und die Blütezeit Triests ein.
Mit österreichischer Unterstützung löste Triest Venedig in seiner führenden Rolle im Handel mit dem Nahen Osten ab und entwickelte sich zum größten Handelszentrum der Adria. 1802 wurden im Triester Hafen 483.326 Tonnen Güter umgeschlagen, die von 5.442 Schiffen transportiert worden waren. Am Höhepunkt der Blütezeit Triests, rund 100 Jahre später, waren es mehr als doppelt so viele Schiffe und mehr als zehnmal so viele Güter, hauptsächlich Kaffee, Zucker und Südfrüchte sowie Weine, Öle, Baumwolle, Eisen, Holz und Maschinen.
Gründerzeit im 19. Jahrhundert
1804 wurde Triest Teil des neu gegründeten Kaisertums Österreich, weiter als Teil des Litorales. Unter Napoleon wurde Triest 1809 den Illyrischen Provinzen zugeschlagen und damit bis 1814 französisch. Diese kurze Zeit hinterließ ihre Spuren in klassizistischen Bauwerken wie der Triester Oper Teatro Verdi, die nach den Plänen des Architekten Matthäus Pertsch entstand.
1813 eroberte Österreich Triest unter General Christoph Freiherr von Lattermann zurück. Nach dem Wiener Kongress 1815 wurde Triest im österreichischen Kaiserstaat in das neu geschaffene Königreich Illyrien eingegliedert.
Nachdem Triest unter der Habsburgerherrschaft bereits über Jahrhunderte Bestandteil des Heiligen Römischen Reiches deutscher Nation war, gehörte es als österreichische Stadt ebenso zum Deutschen Bund, der 1815 auf dem Wiener Kongress als Ersatz für das alte, 1806 untergegangene Reich geschaffen wurde. Die Stadt markierte in etwa die Südausdehnung des Deutschen Bundes bis zur Adria. Insofern war Triest in Folge der bürgerlichen Revolution von 1848 selbstverständlich Teil des Wahlgebietes zur deutschen bzw. Frankfurter Nationalversammlung (auch constituierende Reichsversammlung, Reichsparlament, deutsches Nationalparlament oder auch schon Reichstag). Bei diesen ersten gesamtdeutschen, freien und demokratischen Wahlen wurden in den Wahlkreisen Küstenland-Triest-Stadt 1 und 2 mit Karl Ludwig von Bruck, Gabriel Jenny sowie Friedrich Moritz Burger drei Abgeordnete in das Parlament des sich konstituierenden Deutschen Reiches in Frankfurt gewählt. Alle drei waren vor dem 27. Juli 1848 in der Frankfurter Paulskirche eingetroffen.
Auch nach dem Scheitern der Revolution und des Reiches blieb Triest Bestandteil des wiederhergestellten Deutschen Bundes bis zu dessen Ende 1866. Mit dem in diesem Jahr zur Beendigung des Deutschen Krieges geschlossenen Prager Frieden, schieden Österreich und damit auch Triest nach jahrhundertelanger Zugehörigkeit aus dem deutschen Staatsverband aus.
Am 1. Juli 1829 führte Josef Ressel mit dem in Triest erbauten Schiff Civetta die erste erfolgreiche Testfahrt mit einer Schiffsschraube durch. In dieser Zeit begann in Triest die Gründung von Versicherungsgesellschaften, Werften, Bankniederlassungen und Schifffahrtsunternehmen, darunter die Assicurazioni Generali (1831), der Österreichische Lloyd (1833), die Werft San Marco (1839/1840), die Werft Giuseppe Tonellos (1852) und 1860 das Lloyd-Arsenal, da die privaten Werften mit der Produktion den schnell wachsenden Schifffahrtsunternehmen nicht mehr nachkommen konnten.
1850 wurde Triest Sitz der kaiserlich-königlichen Zentralseebehörde. Seit 1857 verbindet die Österreichische Südbahn Triest über den Semmering mit Wien. Die erste Gebirgsbahn Europas wurde nach den Plänen und unter der Leitung des Venezianers Carl Ritter von Ghega erbaut.
1857/58 entstand aus der Maschinenfabrik Strudenhoff in Sant’Andrea und der Werft San Rocco das Stabilimento Tecnico Triestino (S.T.T.) in Muggia, der Stadt in der Bucht gegenüberliegend. Dieses neue Großunternehmen kaufte 1897 auch die mittlerweile zur Großwerft ausgebaute Werft von Giuseppe Tonello dazu. Die S.T.T. war in der Lage, Schiffe mit einer Verdrängung von bis zu 20.500 Tonnen – etwa die großen Schlachtschiffe der k. u. k. Kriegsmarine – zu bauen.
Ab 1867 wurden die alten Hafenanlagen, die dem wachsenden Handel nicht mehr entsprachen, ausgebaut. Zuerst wurde der nördlich gelegene Freihafen (punto franco) erweitert. Die Hafenstadt zog in der Monarchie unter anderem den Hauptnutzen aus dem 1869 eröffneten Sueskanal. Österreichische Industrieerzeugnisse wurden nun auch in der Türkei, in Ägypten und Syrien abgesetzt, für diese Handelsbeziehungen brauchte man aber den Kanal nicht.
Von Triest gingen im 19. Jahrhundert Linienschiffe in die Neue Welt, vor allem USA. Diese Linienschiffe fuhren bis in die 1960er Jahre nach New York.
Triest und der Nationalismus
In den Revolutionen von 1848 fanden in den österreichischen Provinzen Lombardei und Venetien Aufstände gegen die habsburgische Herrschaft und für einen geeinten italienischen Nationalstaat statt (siehe auch Risorgimento). 1848 wurde der Triester Hafen von der königlich sardinischen und der neapolitanischen Flotte und später von der ersteren allein unter dem italienischen Vizeadmiral Albini blockiert. Triest blieb Österreich treu und erhielt den Titel Città Fedelissima – die „allergetreuste Stadt“.
1849 wurde die österreichische Verwaltungseinheit Königreich Illyrien in ihre Bestandteile zerlegt. Triest und das unmittelbar angrenzende Territorium wurden als Reichsunmittelbare Stadt Triest und ihr Gebiet mit eigener Verfassung und Landtag und im Status eines Kronlandes konstituiert; ebenso Görz und Gradisca und Istrien. (Kärnten und Krain, bis dahin ebenso Teile Illyriens, wurden ebenfalls eigene Kronländer.)
1852–1861 wurden die drei politischen Einheiten zum Kronland Österreichisches Küstenland zusammengefasst. Die Reichsverfassung 1861 teilte die drei Teile wieder in eigenständige Kronländer, die bis 1918 bestanden. Gemeinsam blieben ihnen nur der k.k. Statthalter in Triest als Vertreter des Kaisers und der Wiener Regierung und ein gemeinsames Publikationsorgan ihrer Rechtsvorschriften. Der 1867 erfolgte Umbau des Einheitsstaates Kaisertum Österreich zur österreichisch-ungarischen Monarchie änderte für die Selbstverwaltung Triests nichts; es wurde nunmehr zu Cisleithanien gerechnet und war im Abgeordnetenhaus des Reichsrats in Wien, dem cisleithanischen Parlament, mit zuletzt fünf Abgeordneten vertreten.
Allerdings setzte auch in dem zum größten Teil von Italienern bewohnten Triest eine zunehmende italienische irredentistische Bewegung ein, die darauf abzielte, Triest als italienischsprachiges Gebiet von Österreich-Ungarn loszulösen und dem 1861 gegründeten Nationalstaat Italien anzuschließen.
Der Irredentismus hatte seinen Höhepunkt, als 1882 Kaiser Franz Joseph I. Triest anlässlich der 500-jährigen Dauer der habsburgischen Herrschaft über die Stadt besuchte. Während antiösterreichischer Demonstrationen entging der Kaiser nur knapp dem Bombenattentat von Guglielmo Oberdan (Wilhelm Oberdank) und seinen Komplizen. Triest blieb im Nationalitätenkampf bis 1914 einer der heißesten Konfliktherde Österreich-Ungarns, da Österreich auf diese für Handel und k.u.k. Kriegsmarine überaus wichtige Hafenstadt weder verzichten konnte noch wollte. (Ungarn hatte für sich die Hafenstadt Rijeka ausgebaut.)
Insgesamt blickte die Triestiner Elite Richtung Wien, während sich einige wenige junge italienische Irredentisten für Italien aufopferten. Nur eine Minderheit forderte eine Vereinigung mit dem Königreich von Savoyen bzw. Italien, aber von vielen italienischsprachigen Triestinern wurde der slawische Nationalismus als Herausforderung wahrgenommen.
Weiterer Aufschwung vor dem Ersten Weltkrieg
1880 betrug die Umschlagsmenge in den Triester Häfen 1,225 Millionen Tonnen. Bis 1912 stieg diese Menge auf 4,573 Millionen Tonnen. 1883 wurde der 30 Millionen Kronen teure Hafenumbau im Süden der Stadt vollendet. Die Lagerflächen sowie der neue Südbahnhof (stazione meridionale, heute Trieste Centrale), der heute als einziger Personenbahnhof der Stadt noch besteht, wurden großteils auf aufgeschüttetem Land errichtet.
Trotz der politischen und nationalen Probleme blühte Triest wirtschaftlich und kulturell weiter auf. Neben der Südbahn Triest–Wien mit Anschluss an das mährisch-schlesische Industriegebiet bot ab 1909 die Neue Alpenbahn über Görz und Villach nach Salzburg eine Direktverbindung nach Westösterreich und Süddeutschland. Der wichtigste Bahnhof bis 1918 war der Staatsbahnhof (stazione dello stato) der k.k. Staatsbahnen. Zwischen ihm und dem Lloydareal erstreckte sich der neue Hafen (porto nuovo), der ab 1898 ausgebaut wurde und bis zum Ende der Monarchie Josephs-Hafen hieß.
Um 1900 stand die Stadt in ihrer vollen wirtschaftlichen Blüte und stellte ihren Reichtum durch zahlreiche Prachtbauten zur Schau. In Triest wirkten einige der Architekten, die in Wien für prächtige Ringstraßengebäude im Stil des Historismus verantwortlich zeichneten, wie etwa Heinrich von Ferstel (z. B. Lloydpalast), Wilhelm von Flattich (z. B. Südbahnhof), Friedrich Schachner (diverse Palais). Schriftsteller und Künstler wie James Joyce und Italo Svevo verkehrten in der Stadt. Der Ire Joyce kam gerade in der Hafenstadt Triest mit dem Vielvölkerstaat Österreich-Ungarn in Kontakt, wobei er einerseits seine Eindrücke aus Triest in seinen Werken verarbeitete und andererseits das damalige Staatswesen wie folgt beurteilte: “They called the Austrian Empire a ramshackle empire, I wish to God there were more such empires.”
Triest war eines der ökonomisch bestentwickelten Gebiete des Habsburgerreiches. 1906 lag das zu versteuernde Pro-Kopf-Einkommen eines Triestiners bei 54 Kronen, während jenes eines Wieners bei rund 9 Kronen lag.
Die Triester Innenstadt mit ihrem kosmopolitischen Bevölkerungsgemenge aus Italienern (75 %), Slawen (18 %), Deutschen (5 %) und Einwohnern anderer Völker avancierte, wie Claudio Magris Jahrzehnte später festhielt, zur literarischen Hauptstadt Mitteleuropas. Die anliegenden Bezirke zählten meist Slowenen (52 %), Italiener (43 %) und Deutsche (4 %) als Einwohner, die ländliche Umgebung war fast vollständig slowenisch (93 %). Fast jeder Triestiner war mehrsprachig, wobei Italienisch die führende Verständigungssprache war.
In den Jahren vor dem Ersten Weltkrieg wurde, vor allem auf Drängen von Erzherzog Thronfolger Franz Ferdinand, in Triest eine Serie von Schiffbauten für die k.u.k. Kriegsmarine durchgeführt. Der Thronfolger nahm an den Stapelläufen meist teil, z. B. 1911 bei SMS Viribus Unitis und 1912 bei SMS Tegetthoff.
Siehe auch: Österreichische Handelsmarine
Erster Weltkrieg
Mit dem Ausbruch des Ersten Weltkrieges im August 1914 stockte die wirtschaftliche und künstlerisch-literarische Entwicklung in Triest schlagartig. Viele tausende Triestiner übersiedelten noch vor der Kriegserklärung Italiens an Österreich-Ungarn am 23. Mai 1915 ins Innere Österreich-Ungarns.
Aus Triest zogen anfangs etwa 32.500 Männer zwischen 18 und 37 Jahren an die Front und im Laufe des Krieges wurden ungefähr 50.000 Triestiner im Alter bis 50 Jahren eingezogen. Das Hausregiment der Triestiner, das k.u.k. Infanterieregiment Nr. 97, wurde am 11. August 1914 per Eisenbahn Richtung Lemberg in Galizien transportiert und war dort in schwerste Abwehrkämpfe gegen die vordringende russische Armee verwickelt.
Am 23. Mai 1915 erklärte das bis dahin neutrale Italien als neues Mitglied der Triple Entente Österreich-Ungarn den Krieg. Damit entstand wenige Kilometer nordwestlich der Stadt eine Front; viele Ausländer wie James Joyce mussten Triest verlassen. Die italienische Kriegserklärung löste massive Protestkundgebungen gegen Italiener aus, insbesondere stürmte eine Menschenmenge die Redaktion der Zeitung Il Piccolo, wurde der Sitz der Lega nazionale zerstört bzw. Geschäfte und Kaffeehäuser italienischer Besitzer geplündert. Mit dem Kriegseintritt Italiens wurde Triest militarisiert. Wegen der nahen Front wurden Luftabwehr-Stellungen auf Dächern und Plätzen gebaut; Schulen und Gebäude wurden in Spitäler umfunktioniert. Junge Marinaretti und Scauti halfen älteren Soldaten bei der Überwachung der öffentlichen Ordnung. Die Stadt entvölkerte sich und es kehrten etwa 35.000 Regnicoli – in Triest lebende italienische Arbeiter – mit ihren Familien in die italienische Heimat zurück. Viele Regnicoli verließen jedoch die Stadt nicht und etwa 15.000 von ihnen wurden von den Behörden zusammen mit über tausend verdächtig erscheinenden Personen in verschiedene Lager interniert. Etwa 900 Triestiner mit italienischer Gesinnung desertierten aus dem Habsburger Heer, passierten illegal die Grenze und traten den italienischen Streitkräften bei. Oft mit Misstrauen von den italienischen Kameraden und Kommandanten betrachtet, erreichte trotzdem die Hälfte dieser Irredentisten den Dienstgrad eines italienischen Offiziers. Die italienfreundliche Einstellung mancher Triestiner und die Frontlage Triests führte zu scharfer Überwachung der Stadt durch die k.u.k. Militärbehörden. Das 10. Bataillon des k.u.k. Infanterieregiments Nr. 97 war in Triest verblieben; es war an der Verteidigung der Karstlinie in den Isonzoschlachten beteiligt und wurde 1915/16 fast vollständig aufgerieben.
Der altem irredentistischen istrianischen Adel entstammende, 1907 geborene Schriftsteller Diego de Castro schätzte später die Triestiner während des Krieges als weitgehend habsburgisch bzw. austrophil ein und äußerte, die kleine, unbeugsame Gruppe von Irredentisten um Mario Alberti sei auf zweieinhalb Prozent der Gesamtbevölkerung von Triest beschränkt gewesen.
Erst 1917 verlagerte sich die Front an den von Triest weiter entfernten Piave. Im Herbst 1918 begann sich die Doppelmonarchie aufzulösen. Am 29. Oktober 1918 wurde der neue südslawische Staat, der SHS-Staat, gegründet. Er schnitt Deutschösterreich, am 30. Oktober gegründet, und die nördlich und östlich davon gelegenen Gebiete Altösterreichs von der Adria ab. Valentino Pittoni, der Führer der Triestiner Linken, forderte im Oktober 1918 die Bildung einer „Adriarepublik Triest“, um so den Anschluss an Italien zu verhindern.
Der k.k. österreichische Statthalter Alfred von Fries-Skene übergab am 30. Oktober 1918 dem triestinischen Comitato di salute pubblica die Macht. Am gleichen Tag beauftragte Kaiser Karl I. Admiral Nikolaus Horthy, die k.u.k. Kriegsmarine dem südslawischen Staat zu übergeben; dies wurde am nächsten Tag vollzogen.
Da mit baldigem Eintreffen italienischer Truppen nicht gerechnet werden konnte und unklar war, ob Triest an den südslawischen Staat fällt, beschloss das Komitee, die italienischen Marinebehörden in Venedig um die Entsendung von Truppen zu bitten. Da k.u.k. Schiffe aber nicht mehr zur Verfügung standen, mussten sich die Triestiner von den Südslawen eine ehemalige k.u.k. Korvette ausleihen, um unter südslawischer Flagge nach Venedig zu gelangen.
Die Waffenstillstandskommission der zerfallenden k.u.k. Armee unter Viktor Weber von Webenau unterzeichnete am 3. November 1918 bei Padua den Waffenstillstand von Villa Giusti. Am gleichen Tag landeten Italiener, von Venedig kommend, unbehelligt am Molo San Carlo von Triest, der 1922 Molo Audace benannt wurde, und nahmen die Stadt symbolisch für Italien in Besitz. Die Begeisterung der Bevölkerung war, wie de Castro später deutete, nicht mit dem bisherigen Elitenphänomen Irredentismus zu erklären, sondern mit der Freude über das Ende der Hungerzeit während des Krieges und über den Nicht-Einschluss der Stadt in den SHS-Staat. Das Stadtzentrum war überwiegend von Italienern bewohnt, die anliegenden Viertel aber teilweise von Slowenen (18 %). Im Vertrag von Saint-Germain wurde Triest im Herbst 1919 gemeinsam mit Istrien und Ostfriaul auch formell Italien zugesprochen.
Viele k.u.k. Soldaten aus Triest und Umgebung kehrten erst 1920 aus der russischen Kriegsgefangenschaft zurück.
Faschismus
Nach dem Anschluss Triests an Italien strebten die nationalen Kräfte eine Italianisierung der ansässigen nichtitalienischen Bevölkerung an, was insbesondere zur Unterdrückung der slowenischen Minderheit führte. Triest wurde zu einem Zentrum der jungen faschistischen Bewegung. Slowenische Vereinigungen und Versammlungen wurden verboten. Der Gebrauch der slowenischen Sprache im öffentlichen Leben wurde untersagt. Slowenische Familiennamen wurden willkürlich und ohne Einverständnis der Betroffenen italianisiert. Zahlreiche Slowenen flohen in dieser Zeit in das benachbarte Königreich der Serben, Kroaten und Slowenen. In Triest kam es wiederholt zu gewaltsamen Ausschreitungen zwischen Italienern und Slowenen.
Der Konflikt erreichte einen seiner Höhepunkte am 13. Juli 1920, als das Narodni dom, das Gemeindezentrum der slowenischen Bevölkerung, von italienischen Faschisten niedergebrannt wurde. Der Anschlag wurde vom späteren Sekretär der National-Faschistischen Partei (Partito Nazionale Fascista), Francesco Giunta, initiiert und wurde als Vergeltungsmaßnahme bezeichnet, weil bei Unruhen in Split zwei italienische Soldaten von jugoslawischen Sicherheitskräften erschossen worden waren.
Obwohl sich in der Zeit nach 1919 vor allem die Industrie in Triest entwickelte, hatte die Angliederung an Italien langfristig negative Konsequenzen für die wirtschaftliche Situation der Stadt. Die ehemals wichtigste Hafenstadt der Habsburgermonarchie wurde mit einem Schlag zu einem der zahlreichen italienischen Adriahäfen und verlor aufgrund ihrer Randlage in Italien ihre wirtschaftliche Bedeutung.
Seit dem 30. Oktober 1922 stand ganz Italien unter der faschistischen Herrschaft Mussolinis. Die Italianisierung der Slowenen im nordöstlichen Italien wurde nun verstärkt.
Zweiter Weltkrieg
Im Zweiten Weltkrieg war Italien mit Deutschland verbündet. Nach der Landung alliierter Truppen in Süditalien im Juli 1943 und der italienischen Kapitulation am 8. September 1943 durch König Viktor Emanuel III. wurde Norditalien von deutschen Truppen besetzt, die sich Mussolinis Repubblica Sociale Italiana bis Ende April 1945 als Marionettendiktatur hielten, um den endgültigen Zusammenbruch der Achsenmächte zu verhindern.
Die deutsche Besatzungsmacht fasste Triest mit Udine, Gorizia, Pula, Fiume (Rijeka) und Laibach/Lubiana zur Operationszone Adriatisches Küstenland (OZAK) zusammen. Die Zone unterstand dem Höheren SS- und Polizeiführer Odilo Globocnik. Auf seine Veranlassung wurde in einem Vorort von Triest in der ehemaligen Reismühle Risiera di San Sabba das einzige nationalsozialistische Konzentrationslager auf italienischem Boden eingerichtet. Der Gebäudekomplex der ehemaligen Reismühle diente nach dem Kriegsaustritt Italiens und dem Einmarsch von Wehrmacht und SS als Gefangenenlager für entwaffnete italienische Soldaten. Von Oktober 1943 an kam die Risiera unter SS-Kommando. Das Lager diente hauptsächlich zur Inhaftierung von Geiseln, Partisanen und anderen politischen Gefangenen bzw. als Sammellager für Juden vor ihrer Deportation in die Vernichtungslager. Es wurden aber auch mobile Gaskammern installiert und ein Krematorium gebaut. Vom 20. Oktober 1943 bis zum Frühjahr 1944 wurden in der Risiera etwa 25.000 Juden und Partisanen verhört und gequält. 3000 bis 5000 von ihnen wurden hier durch Erschießen, Erschlagen oder in Gaswagen ermordet. Die Mannschaft des Konzentrationslagers bestand vorwiegend aus deutschen SS-Mitgliedern. Als 1945 jugoslawische Partisanen Triest einnahmen, sprengte die SS einige Teile des Lagers, um ihre Spuren zu verwischen.
Freies Territorium Triest
Am Ende des Zweiten Weltkrieges wurde Triest von den jugoslawischen Partisanen Titos für Jugoslawien beansprucht, was mit der Existenz der dortigen slowenischen Bevölkerungsgruppe begründet wurde. Triest wurde von den jugoslawischen Partisanen besetzt, die die Stadt selbst jedoch kurz darauf auf Druck der Alliierten wieder verließen, ohne aber den Anspruch auf Triest aufzugeben. Damit begann eine Zeit, in der sich Jugoslawien und Italien um den Besitz der Stadt stritten.
Durch den Pariser Friedensvertrag von 1947 zwischen Italien und den Alliierten wurde Triest mit dem nordwestlichen Teil Istriens bis einschließlich Cittanova/Novigrad im Süden als Freies Territorium Triest (englisch Free Territory of Trieste, italienisch Territorio Libero di Trieste, slowenisch Svobodno tržaško ozemlje, kroatisch Slobodni teritorij Trsta) zu einem neutralen Staat unter Oberhoheit der Vereinten Nationen erklärt (ähnlich wie es die Freie Stadt Danzig unter dem Schutz des Völkerbundes in der Zwischenkriegszeit gewesen war). Der Gouverneur sollte vom Sicherheitsrat der Vereinten Nationen ernannt werden, administrativ war das Gebiet jedoch in zwei Zonen unterteilt. Die Zone A, die die Stadt Triest mit ihrer nächsten Umgebung umfasste, unterstand britisch-amerikanischer Militärverwaltung, die Zone B, die das Hinterland der Stadt und den Nordwesten Istriens umfasste, jugoslawischer Militärverwaltung.
Vom Provisorium zum Definitivum
Durch das Londoner Abkommen zwischen Italien und Jugoslawien von 1954 wurde das Freie Territorium Triest aufgelöst. Das Gebiet der bisherigen Zone A wurde provisorisch wieder italienischer Zivilverwaltung unterstellt, das Gebiet der bisherigen Zone B jugoslawischer Zivilverwaltung, wobei der jugoslawische Teil nördlich des Flüsschens Dragonja der damaligen Teilrepublik Slowenien einverleibt wurde, der Teil südlich der Dragonja jedoch Kroatien (über den Grenzverlauf bestehen bis heute Divergenzen; siehe auch: Internationale Konflikte der Nachfolgestaaten Jugoslawiens). Von 1954 bis 1961 verließen mehr als 20.000 Triestiner ihre Stadt und wanderten aus. Die Mehrzahl ging nach Australien und dabei besonders nach Melbourne und Sydney.
Am 10. November 1975 wurde im Vertrag von Osimo die Demarkationslinie von 1954 endgültig als italienisch-jugoslawische Grenze festgelegt und damit die Zugehörigkeit der Stadt Triest zu Italien definitiv bestätigt. 1962 wurde Triest die Hauptstadt der Region Friaul-Julisch Venetien.
Durch die Auflösung der Donaumonarchie und die unmittelbare Grenzlage zum nach 1945 sozialistisch regierten Jugoslawien war Triest bis Mitte der 1980er Jahre wirtschaftlich weitgehend isoliert. Mit dem Zerfall Jugoslawiens, dem Eintritt des nunmehr unabhängigen Slowenien in die EU im Jahr 2004 und dem Beitritt Sloweniens zum Schengen-Raum Ende 2007 verlor die Stadt ihre jahrzehntelange Randposition. 2004 bewarb sich Triest (erfolglos) für die EXPO 2008.
Der Hafenumschlag ging zeitweise gerade wegen des Zusammenbruchs des Kommunismus bzw. der positiven Entwicklung des benachbarten Hafens von Koper (Slowenien) zurück.
Seit 2011 gibt es die auf Selbstbestimmung der Triestiner bzw. Ausbau des Freihafens pochende Bewegung „Trieste Libera / Svobodni Trst / Free Triest“. Diese Bewegung möchte mit Bezug auf den Friedensvertrag von 1947 bzw. 1954 an die wirtschaftlichen Erfolge eines geeinten großen mitteleuropäischen Wirtschaftsraumes anknüpfen und verlangt, dass Triest von einem Gouverneur der UNO verwaltet werden soll. Am Molo Audace kommt es immer wieder zu anti-italienischem Vandalismus. Die Organisation Trieste Pro Patria bzw. Trieste Italiana veranstaltet in Triest immer wieder Demonstrationen, um auf die italienischen Wurzeln Triests bzw. das „italienische“ Istrien aufmerksam zu machen.
Am Beginn der Wirtschaftskrise im Jahr 2008 stockte die umstrittene städtebauliche Entwicklung des Porto Vecchio (Alter Hafen). Im Februar 2019 genehmigte der Stadtrat die Rahmenplanung für die Erneuerung des Hafens. Auch durch das Abwandern der Industrie ist die früher erhebliche Umweltverschmutzung (vorwiegend Bleibelastung des Golfs von Triest) stark zurückgegangen. Die Jugendarbeitslosigkeit betrug 2012 17,67 % und stieg 2013 auf 23,25 %.
Demographische Entwicklung
Triest entwickelte sich im Römischen Reich von einem kleinen, relativ unbedeutenden Ort zu einer reichen, betriebsamen Hafenstadt. Im 1. Jahrhundert n. Chr. wird die Bevölkerung von Triest auf rund 12.000 Einwohner geschätzt. Mit dem Zerfall des Römischen Imperiums, zahlreichen Barbareneinfällen und der wiederholten Zerstörung der Stadt sank die Bevölkerungsanzahl im Mittelalter auf etwa 4.000 Einwohner. Erst mit der Ernennung zum Freihafen 1719 und der damit verbundenen zunehmenden Bedeutung innerhalb der österreichischen Monarchie erlebte die Stadt einen erneuten Aufschwung, der insbesondere ein rapides Bevölkerungswachstum zur Folge hatte: Lebten um 1717 nur 5.600 Menschen in Triest, so waren es 1800 bereits 20.900. Im Jahr 1900 hatte Triest einschließlich des Militärs 134.143 Einwohner.
Nach 1945 gab es eine starke Zunahme der Bevölkerung Triests, denn in Dalmatien und Istrien verließ der überwiegende Teil der italienischen Bevölkerungsgruppe, ob freiwillig oder gezwungen, das kommunistische Jugoslawien Richtung Norden. Das führte in Triest zu einer großen Wohnungsnot und der Errichtung von Barackenlagern. Seit Mitte der 1960er Jahre nimmt die Einwohnerzahl wieder ab. Der deutliche Bevölkerungsrückgang von 25 % ist zurückzuführen auf die Suburbanisierung, auf den Weiterzug der vielen italienischsprachigen Nachkriegsflüchtlinge aus Dalmatien bzw. Istrien, aber auch auf die wirtschaftliche Isolation, unter der Triest lange Zeit litt. Mit dem EU-Beitritt Sloweniens 2004 und Kroatiens 2013 ist diese Grenzlage jedoch zu einem Vorteil für Triest geworden. Gemäß der ISTAT-Volkszählung 2011 beträgt im Gegensatz zum „jugendlichen“ Stadtbild Triests wegen der vielen auswärtigen Schüler und Studenten das Durchschnittsalter der Triestiner 48,9 Jahre (Italien: 43,3 Jahre) und ist ein weiterer erheblicher Anstieg zu erwarten. Bei Erhebungen zum durchschnittlichen Einkommen der Bevölkerung liegt Triest regelmäßig als führende Stadt des Nordostens Italiens vor Bozen, Padua, Vicenza und Venedig.
Die folgenden Übersichten zeigen die Einwohnerzahlen nach dem jeweiligen Gebietsstand zwischen den Jahren 1617 und 2009. Bis 1857 handelt es sich meist um Schätzungen, ab 1869 um Volkszählungsergebnisse von Statistik Austria und ab 1921 vom ISTAT.
Volksgruppen
Triest vereint aufgrund seiner geographischen Lage und Vergangenheit verschiedene Völker, Sprachen und Religionen.
Bereits seit dem 18. Jahrhundert wurde Triest von verschiedenen Volksgruppen bewohnt, die sowohl ihre Kulturen und Religionen als auch die eigenen Traditionen mitbrachten.
Am Ende des 19. Jahrhunderts bildeten die Italiener die Mehrheit der Triestiner Bevölkerung (62 %), gefolgt von Slowenen (14 %) und Deutschösterreichern (10 %). Die übrige Bevölkerung setzte sich aus Griechen, Briten, Armeniern und Türken zusammen. 1867–1918 hatten Triestiner aller Muttersprachen einheitlich die österreichische Staatsbürgerschaft.
Auch heute bilden Italiener die Mehrheit der Bevölkerung und verleihen dem Stadtbild einen vorwiegend italienischen Charakter, der allerdings nach wie vor von einer größeren Minderheit von Slowenen und Kroaten und einem kleinen Anteil von Österreichern und Griechen beeinflusst wird. Seit einigen Jahren sind auch andere Nationalitäten wie Albaner, Chinesen und Afrikaner in Triest vertreten und prägen zunehmend einzelne Stadtviertel.
Neben der römisch-katholischen Bevölkerungsmehrheit mit ihren vielen Kirchen gibt es eine griechisch-orthodoxe Gemeinde mit der Kirche San Nicolo dei Greci, eine serbisch-orthodoxe Gemeinde mit der Kirche San Spiridione, eine italienische evangelische Gemeinde mit ihrer evangelischen Kirche, die Gemeinde der Waldenser mit der Kirche San Silvestro und eine armenische Gemeinde mit der Kirche Madonna delle Grazie. Die muslimische Gemeinde in Triest umfasst ungefähr 6.000 Mitglieder aus mehr als 30 verschiedenen Staaten.
Die jüdische Gemeinde von Triest zählt heute ca. 600 Mitglieder. Die jüdischen Familien stammen aus Mitteleuropa, aber auch aus Korfu und dem sonstigen Mittelmeerraum. Die zwei Synagogen, in denen man nach unterschiedlichen Riten betete, wurden vor 20 Jahren verschmolzen. Gemäß Andrea Mariani, Präsident der jüdischen Gemeinde, werden heute die Gottesdienste askenasisch mit sefardischen Bräuchen gehalten, wodurch sich ein eigener Triestiner Ritus ergibt. 6.000 Mitglieder hatte die Gemeinschaft vor dem Zweiten Weltkrieg, eine der größten Italiens, nach Bevölkerungsanteil mit 2,5 Prozent 1938 die größte. Neben der Synagoge sind Punkte des jüdischen intellektuellen Lebens und Gedenkens das Jüdische Museum „Carlo e Vera Wagner“, das Ghetto in der Citta Vecchia, die Via San Nicolo 30 mit dem Antiquariat „Umberto Saba“, der Jüdische Friedhof und die Risiera di San Sabba.
Sprachen
Die Stadtbevölkerung spricht vor allem Italienisch bzw. Triestinisch, in einigen Vororten und im Umland wird Slowenisch gesprochen. Eine sehr kleine Minderheit spricht noch Deutsch. Die italienische Sprache war lange Zeit in Triest und seiner Umgebung nicht richtig ausgeprägt. Bis zum Anfang des 19. Jahrhunderts wurde die friulanische Varietät Tergestino gesprochen. Das Tergestino verschwand, als die Bedeutung anderer Sprachen und Dialekte wie Venezianisch, Slowenisch und Deutsch zunahm.
Es entwickelte sich ein neuer italienischer Dialekt, das sogenannte Triestinisch (italienisch Triestino, mundartlich Triestín). Dieser Dialekt ähnelt dem Venezianischen, enthält aber auch Elemente der friulanischen, slowenischen, kroatischen, deutschen und griechischen Sprache. Der italienische Schriftsteller Claudio Magris bezeichnet den Dialekt als fast eigene Sprache.
Im Gegensatz zu vielen anderen Dialekten ist der Triestiner Dialekt in den vergangenen Jahren nicht zurückgegangen, sondern wird heute von der gesamten Triestiner Bevölkerung und insbesondere auch im Behördenverkehr aktiv gesprochen. Eng mit dem Triestiner Dialekt gilt das Lebensmotto der Triestiner „Sempre allegri, mai passion, viva là e po bon!“ („Immer fröhlich, nie leiden, hier leben und den Rest vergessen“) verbunden.
Wirtschaft und Verkehr
Triest ist eine italienische Hafenstadt mit guten Verbindungen nach Zentraleuropa. Durch die jahrelange isolierte Lage am Eisernen Vorhang waren traditionelle Handelswege unterbrochen und die Wirtschaft stagnierte, während sich die Stadt als internationaler Forschungsstandort und Universitätsstadt etablierte. Triest ist seit 1964 Ausgangspunkt der Transalpinen Ölleitung. Seit Ende der 1990er Jahre und dem EU-Beitritt Sloweniens und Kroatiens befindet sich die Stadt im wirtschaftlichen Aufbruch. Bedeutende Unternehmen wie Assicurazioni Generali, Fincantieri oder Illy haben heute ihren Hauptsitz in Triest.
Entsprechend der wirtschaftlichen Entwicklung nach 1945 war der Immobilienmarkt in Triest lange Zeit unterentwickelt und bewegt sich auch heute noch im Vergleich zu sonstigen italienischen Städten auf tiefem Stand, wobei es in den letzten Jahren positive Impulse gibt. Das liegt einerseits an der Seidenstraßen-Initiative, dem aufstrebenden städtischen Tourismus, der sehr guten Lebensqualität und andererseits dem bisherigen sehr tiefen Preisniveau. Liegenschaften im meernahen historischen Zentrum, insbesondere in Barcola mit seinen Bade- und Freizeitmöglichkeiten, und an der umliegenden Küste sind besonders gesucht. Das diesbezügliche Grundbuchsrecht stammt aus der altösterreichischen Gesetzgebung und ist von der italienischen Rechtsordnung nach 1918 in Triest wie auch in den Provinzen Trient, Bozen und Görz sowie in einigen Gemeinden der Provinzen Udine, Brescia, Belluno und Vicenza übernommen worden.
Schiffsverkehr
Der Hafen von Triest ist einer der größten italienischen Häfen, bedeutender Seehafen der oberen Adria und neben Gioia Tauro der einzige Tiefwasserhafen im zentralen Mittelmeer für Schiffe der siebten Generation. Triest hat sich auch als wichtigster Hafen für Öltanker im Mittelmeerraum etabliert. An einer Kailänge von 770 Metern stehen sieben Post-Panamax-Kräne. Im Trieste Marine Terminal können bei einer natürlichen Wassertiefe von 18 Metern moderne Containerschiffe gelöscht werden. Der Containerbahnhof im Hafen hat eine Kapazität von 11.500 Zügen im Jahr und besteht aus fünf Gleisen mit jeweils 600 Meter Länge und drei schienengeführten Kränen.
Freihafen
Der Hafen von Triest hat eine Freihandelszone bzw. ist ein Freihafen und verfügt über fünf Freizonen, die durch den Internationalen Friedensvertrag von 1947 abgesichert werden. Die Freizonen von Triest, ein einzigartiges Merkmal der italienischen und europäischen Rechtsordnung, bieten Transitwaren, die gelagert oder verarbeitet werden, verschiedene Vorteile, da sie sich in einem Zollgebiet der Europäischen Union befinden. Die Befreiung von der Zollabfertigung bringt eine Reihe günstiger Bedingungen mit sich. So können Waren, die aus Nicht-EU-Ländern eintreffen, ohne Zollgebühren, Mehrwertsteuer und andere Importgebühren entladen und gelagert werden, bis diese Waren die Grenzen der EU überschreiten. Alle Arten von Waren können unbegrenzt gelagert werden, die Herkunft der Waren kann beibehalten werden, und der Freihafen kann jede Art von Industrie, Handel oder Hilfstätigkeiten beherbergen.
Aufgrund seiner geografischen Lage ist er ein wichtiger Handelshafen für Deutschland, Österreich, Luxemburg, Ungarn, Tschechien, die Slowakei und Italien mit Verbindungen nach Fernost, Direktverbindungen im Mittelmeer, Reedereien spezialisiert auf Fahrtgebiete im Mittleren Osten, Indien, Pakistan und Ostafrika sowie schnellen Direktverbindungen zu den Hubs am Mittelmeer mit Anschluss an zahlreiche weitere weltweite Destinationen. Bedeutende Handelsrouten laufen dabei über Triest in die Türkei bzw. nach Griechenland und von dort über den Iran oder über den Suez-Kanal Richtung China.
Dazu gibt es jüngst umfangreiche chinesische Initiativen zum weiteren und intensiven Ausbau der Seidenstraße mit seinen Wirtschaftskorridoren und Transportlinien einerseits vom Schanghaier Tiefwasserhafen Yangshan über den Suez-Kanal, den griechischen Hafen Piräus bis zum Tiefwasserhafen Triest bzw. andererseits als Landweg beginnend in der chinesischen Küstenstadt Yiwu über Kirgistan, den Iran bis in die Türkei. Gerade hinsichtlich der Türkei und der Landverbindungen nach Ostasien kommen dabei Trailer im RoRo-Verkehr zum Einsatz. Triest ist neben dem Zugang zur Seidenstraße der größte Eisenbahnhafen in Italien, wobei 2016 insgesamt 7631 Züge bzw. 2017 insgesamt 8681 Züge abgefertigt wurden. Seit 2017 gibt es Güterzugverbindungen Triests mit dem Hafen von Duisburg, der über die sogenannte „Neue Seidenstraße“ nach China angebunden ist. Über diese Kooperation mit dem Duisburger Hafen (- dieser ist traditionell den Nordseehäfen wie Rotterdam und Antwerpen verbunden) ist der Hafen von Triest und damit die „maritime Seidenstraße“ (- die Verbindung Triests über das Mittelmeer, den Suezkanal, den Golf von Aden, Nairobi in Äthiopien, Kolkata in Indien, Colombo in Sri Lanka, über Jakarta bis in den Fernen Osten) mit der Landverbindung „Neue Seidenstraße“ (- die Verbindung Westeuropas über Moskau und Kasan nach China) verbunden. Es gibt enge direkte Beziehungen zwischen der Stadt Triest und der chinesischen Hafenstadt Shenzhen. Im Rahmen der neuen chinesischen Seidenstraße-Initiative geht es auch um spezielle Logistikförderung zwischen dem noradriatischen Hafen und Shanghai bzw. Guangdong unter Einbindung der China Communications Construction Company.
Im Hinblick auf den Hafen, die Zollerleichterungen im Freeport und die völkerrechtlichen Möglichkeiten durch die Verträge in der Zeit nach dem Zweiten Weltkrieg (u. a. Resolution 16 des Sicherheitsrates der Vereinten Nationen vom 10. Januar 1947, Vertrag von Osimo) werden auch immer wieder Vergleiche zwischen Triest und Singapur hergestellt.
2016 belief sich der Güterumschlag im Hafen auf ein Volumen von 59 Mio. Tonnen, davon 43 Mio. Tonnen Flüssiggut wie Rohöl, das über das Terminal SIOT weitergeleitet wird (über die Transalpine Ölleitung in Richtung Österreich (Schwechat) und Deutschland (Ingolstadt), mit einer Abzweigung bis nach Tschechien). Dabei werden acht Raffinerien in Österreich, Süddeutschland und Tschechien beliefert. Österreich bezieht 90 Prozent seines Rohöls über die TAL, Bayern und Baden-Württemberg 100 Prozent (Deutschland 40 Prozent) und Tschechien 40 Prozent.
Das restliche Ladungsaufkommen im Hafen besteht u. a. aus festem Massengut (2 Mio. t) wie Kohle, Holz, Mineralstoffe, Getreide und Ölsamen. Der Umschlag von Containern ist mit 486.507 TEU (2016) bzw. 616.156 TEU (2017) nicht so bedeutend.
Neben der Funktion als Umschlagplatz von Rohöl und anderen Gütern dient der Hafen von Triest auch als Fähr- und Kreuzfahrthafen.
Am Molo Veneziano bei der Piazza Venezia ankern Fischerboote. Es wird im Sommer mit „lampare“ (große Lampen) und im Herbst und Winter mit „redi di posta“ (kleineren Fischernetzen) gefischt. Im Golf von Triest ist wegen des glasklaren nährstoffarmen Wassers mit dem wenigen Plankton der Fischfang an sich herausfordernd. Die Fischsaison dauert im Wesentlichen von Mai bis Juli. Im Hinblick auf die Fischfortpflanzung ist der Fischfang im August verboten und im Winter eingeschränkt. 2009 gab es weniger als 200 Berufsfischer in der Stadt.
Geschichtliches zum Hafen
Die Bedeutung des Hafens von Triest als Seehafen und Umschlagplatz wuchs ab dem 18. Jahrhundert mit der 1719 erfolgten Erhebung der Stadt zum Freihafen durch Kaiser Karl VI. Die Eröffnung des Sueskanals im Jahr 1869 stärkte Triests Stellung als Handels- und Wirtschaftszentrum. Denn der günstigste und kürzeste Seeweg vom Mittleren und Fernen Osten nach Europa führte über den Sueskanal durch das Mittelmeer, die Adria hinauf nach Triest. Der Hafen von Triest wurde somit zu einem Tor Europas und ermöglichte dem mitteleuropäischen Wirtschaftsgebiet, nicht zuletzt aufgrund neuer Eisenbahnverbindungen nach Triest gegen Ende des 19. Jahrhunderts, den direkten Zugang zu fernen Ländern in Asien.
1914 hatten zwölf Schifffahrtsgesellschaften mit insgesamt 716.198 Bruttoregistertonnen (BRT) ihren Sitz in Triest. Die größten davon waren:
Österreichischer Lloyd mit 65 Schiffen und insgesamt 237.000 BRT
Austro-Americana mit 34 Schiffen und 145.000 BRT
Tripcovich & Co mit 16 Schiffen und 58.000 BRT
Navigazione Libera Triestina (NLT) mit 16 Schiffen und 42.000 BRT
In den letzten Jahren erhielt der Hafen von Triest verstärkt Konkurrenz durch den nahegelegenen Hafen Koper in Slowenien und durch den Hafen Rijeka in Kroatien (tiefste Zufahrt für Schiffe in der Adria). Der Hafen von Triest ist in fünf Freihandelszonen unterteilt, von denen drei privatwirtschaftlich betrieben werden. Er verfügt über zwölf Kais und 47 operative Liegeplätze.
Schienenverkehr
Vom heutigen Bahnhof Trieste Centrale (ursprünglich Triest Südbahnhof), der sich an der Stelle des ersten Südbahnhofes befindet, gibt es stark genutzte Eisenbahnverbindungen Richtung Venedig/Mestre bzw. Mailand und Udine. Triest ist Teil der Planungen zum TEN-Korridor V, soll an das italienische TAV-Netz angeschlossen werden und hinsichtlich einer schnellen Verbindung bzw. Bahntrasse nach Ljubljana laufen Verhandlungen.
Das Schienenverkehrsnetz der Stadt Triest basiert historisch gesehen auch auf Bahnstrecken aus der altösterreichischen Zeit. Die Südbahn-Gesellschaft erreichte Triest nach Überbrückung des Semmerings bereits 1857. Um die Monopolstellung der privaten Südbahn zu brechen, errichteten die k.k. Staatsbahnen (kkStB) eine zweite Bahnverbindung, die die Tauern, die Karawanken und den Wocheinerpass zu überwinden hatte. Diese Bahnverbindung wird meist als Wocheinerbahn, Transalpina oder Neue Alpenbahn bezeichnet. Der Endbahnhof Trieste San Andrea (ursprünglich: Triest Staatsbahnhof, seit 1923 Campo Marzio, gelegen an der äußersten Westspitze im Hafen und südwestlich des Südbahnhofs) ist seit 1959 nicht mehr in Betrieb, beherbergt aber seit 1984 das Triester Eisenbahnmuseum.
Vor dem Ersten Weltkrieg war Triest an internationale D-Züge angebunden, die von Berlin (Anhalter Bahnhof) nach Triest im damaligen Österreich-Ungarn fuhren. Ab 1912 erreichte der Simplon-Express Triest und schaffte somit eine direkte Verbindung nach Paris und London. Die Züge hatten Anschluss an die Schiffe des österreichischen Lloyds von Triest nach Alexandria in Ägypten. Nach dem Ersten Weltkrieg wurde der Simplon-Express über Triest hinaus bis Istanbul verlängert und wurde somit zum Simplon-Orient-Express. Dieser Zug wurde nach dem Zweiten Weltkrieg zu einer der wenigen Verbindungen von Westeuropa nach Osteuropa; das Verkehrsaufkommen war aber so gering, dass 1950 gerade einmal drei Wagen die jugoslawische Grenze zwischen Triest und Sežana überquerten.
Noch bis etwa 1975 führte die ÖBB mit dem Triebwagenschnellzug Miramare eine Direktverbindung von Wien über Graz, Maribor und Ljubljana nach Triest. Für den Zug wurde der Dieseltriebwagen Blauer Blitz verwendet. Seit 2021 gibt es wieder eine tägliche Direktverbindung von Wien nach Triest über Ljubljana. Ein Reiseangebot von Wien aus verlangte im Herbst 2013 das Umsteigen in Udine, zwei andere führen mit mehrmaligem Umsteigen über Salzburg und die Tauernbahn. Seit 2018 gibt es wieder täglich morgens und abends eine Direktverbindung zwischen Triest und Ljubljana mit modernen Triebwagen (nur 2. Klasse). Die Fahrzeit beträgt derzeit (2019) gut 2 Stunden 30 Minuten. Interrail-Tickets sind auf der Strecke gültig.
Die Verbindung mit dem Triester Hinterland in Istrien erfolgte u. a. mit der Schmalspurbahn Triest–Parenzo (heute Poreč), auch „Parenzana“ genannt. Diese Bahnstrecke ist seit 1935 stillgelegt, die Trasse wird (von der Europäischen Union gefördert) als internationaler Radwanderweg („Weg der Gesundheit und Freundschaft“) genutzt.
Nahverkehr
Die normalspurige Straßenbahn Triest bestand von 1876 bis 1970. An schienengebundenen Nahverkehrsmitteln existiert lediglich noch die meterspurige Bahnstrecke Triest–Opicina. Ursprünglich wurde der Steilstreckenabschnitt mit Zahnradlokomotiven betrieben; 1928 wurde der Betrieb durch eine Schienenseilbahn ersetzt. Die Bergbahn nach Opicina, weltweit eine der letzten Strecken, bei der adhäsionsgetriebene Fahrzeuge einen Steilstreckenabschnitt mit dem Seilzugprinzip bewältigen, wurde zwischen Oktober 2012 und August 2014 einer Generalsanierung unterzogen. Die lange Sanierungszeit, ungeklärte Kosten und Proteste von Einheimischen und Touristen über unprofessionelle Vorgangsweise von Stadtverwaltung und öffentlichem Betreiber sorgten für heftige Diskussionen.
Trieste Trasporti S.p.A. ist der Konzessionär des öffentlichen Personennahverkehrs in der Provinz Triest. Die Gesellschaft gehört zu 60 Prozent der öffentlichen Hand und zu 40 Prozent der privaten Arriva.
Luftverkehr
Der internationale Flughafen von Triest (TRS) befindet sich 33 Kilometer nordwestlich von Triest bei der Gemeinde Ronchi dei Legionari.
Der Flughafen nimmt als größter Flughafen von Friaul-Julisch Venetien eine strategisch bedeutsame Rolle für die gesamte Region ein. Aufgrund seiner geografischen Lage liegen neben der Region Friaul-Julisch Venetien mit ihren 1,2 Mio. Einwohnern auch Teile der Region Veneto und Kärnten sowie Gebiete in Slowenien und Kroatien im Einzugsbereich des Flughafens, das somit insgesamt ca. fünf Millionen Einwohner umfasst. Unter anderem gibt es Flugverbindungen nach Rom (Alitalia), Mailand MXP (Air Alps) u. v. a. m.
Tourismus
2014 besuchten Triest 332.000 Touristen (davon u. a. 185.000 Italiener, 32.000 Österreicher, 19.000 Deutsche, 8.000 Briten, 7.000 US-Amerikaner), was seit 2010 einen Zuwachs von 25,24 % bedeutet.
Ansässige Unternehmen
Folgende Unternehmen und Konzerne haben ihren Hauptsitz in Triest:
Assicurazioni Generali, Versicherungskonzern und Fortune-Global-500-Unternehmen
Allianz Spa, Versicherungskonzern und Fortune-Global-500-Unternehmen
Fincantieri, Schiffbauunternehmen
Illy, Kaffeeproduktion
Italia Marittima (bis 2006 Lloyd Triestino), Reederei
Stock, Spirituosenhersteller mit Fabrik, wobei die kaufmännische Zentrale seit 2009 in Mailand liegt
Telit, italienischer Mobiltelefonhersteller
Weitere prominente Unternehmen wie Wärtsilä (mit der ehemaligen Fabrik von Grandi Motori Trieste), AcegasApsAmga (Hera Group), Autamarocchi SpA, Banca Generali SpA, Genertel, HERA Trading, Nuovo Arsenale Cartubi Srl, Jindal Steel and Power Italia SpA, Pacorini SpA, Siderurgica Triestina (Arvedi Group) und die TBS Group produzieren bzw. haben ihre Niederlassung in Triest.
Triest ist Sitz vieler junger Start-up-Unternehmen entsprechend der Verknüpfung von Forschung und Entwicklung mit Hilfe der örtlichen Gründerzentren. Kooperationen in Verbindung mit der Universität von Triest und dem Area Science Park gibt es dazu beispielsweise mit der Microsoft Corporation, Assicurazioni Generali, Fincantieri und Illy.
In Triest gibt es mehr als 50 Unternehmen, die sich mit dem Handel, Verarbeitung und Technologie aber auch Ausbildung und Forschung hinsichtlich Kaffee beschäftigen, und viele dieser Unternehmen sind im „Trieste Coffee Cluster“ zusammengeschlossen.
Auch wurde die 1999 in Neapel gegründete Illy Università del caffè 2002 nach Triest verlegt. Triest wird als Italiens Hauptstadt in Sachen Kaffee bezeichnet, insbesondere weil hier auch ein großer Teil des italienischen Kaffeeimports (ca. 2–2½ Millionen Säcke) umgeschlagen wird.
Ferner gibt es in Triest mehrere junge Unternehmen, die sich mit Design beschäftigen. Seit 2002 findet im Juli der Nachwuchs-Modedesigner-Wettbewerb ITS (International Talent Support) statt.
Politik und Verwaltung
Bürgermeister
Folgende Bürgermeister standen der Stadt seit 1949 vor.
Stadtgliederung
Die Gemeinde Triest ist seit 1976 in sieben Verwaltungsbezirke (circoscrizioni) eingeteilt, die jeweils mehrere Stadtteile (rioni) oder Ortschaften (frazioni) umfassen:
¹ nur ein Teil gehört dem Verwaltungsbezirk an
Stadtwappen
Das Stadtwappen von Triest zeigt einen weißen Hakenspieß bzw. eine Gleve (als heraldischer Form der Lilie), im Volksmund fälschlich als „Hellebarde“ bezeichnet. Die Waffe befand sich der Legende nach im Besitz des Hl. Sergius, eines angeblichen römischen Offiziers und Märtyrers. Der Spieß, der demnach antiken Ursprungs sein müsste, doch aus dem Mittelalter stammt, ist im Dom San Giusto ausgestellt.
Städtepartnerschaften
Beirut, Libanon (seit 1956)
Douala, Kamerun (seit 1971)
Graz, Österreich (seit 1973)
Santos, Brasilien (seit 1977)
Southampton, Vereinigtes Königreich (seit 2002)
Le Havre, Frankreich
Mit Venedig gibt es seit dem 10. Januar 2008 eine Vereinbarung zur Zusammenarbeit, mit der slowenischen Hauptstadt Ljubljana seit dem 18. Februar 2008.
Die Stadt und ihre Sehenswürdigkeiten
Piazza dell’Unità d’Italia
Das Herz der Stadt bildet die Piazza dell’Unità d’Italia („Platz der Einheit Italiens“). Dieser ans Meer grenzende rechteckige Hauptplatz wird auf drei Seiten von neoklassizistischen Prachtbauten umsäumt: dem Palazzo del Governo (1904), der Casa Stratti, dem Palazzo del Municipio (Rathaus; erbaut von Giuseppe Bruni 1875), dem Palazzo Pitteri (1790), dem Hotel Duchi d’Aosta (1873) und dem Palazzo del Lloyd Triestino (erbaut von Heinrich von Ferstel 1883). In der Mitte des Platzes steht ein Brunnen, der 1750 von Mazzoleni errichtet wurde und die damals bekannten vier Kontinente darstellt. Daneben erhebt sich eine Säule Kaiser Karls VI., dessen linke Hand auf den Hafen zeigt. Karl VI. hatte mit der Schaffung des Freihafens die wirtschaftliche Entwicklung der Stadt im 18. Jahrhundert gefördert.
Der Palazzo Pitteri (erbaut von Ulderico Moro 1790), der Brunnen (1750) und die Säule (1728) sind die einzigen Erinnerungen an das 18. Jahrhundert und bilden eine „barocke Ecke“ auf dem Platz. Das Zentrum der Stadt – rund um die heutige Piazza dell’Unità d’Italia – wurde um 1900 völlig neu gestaltet.
Gut sichtbar von der Mole an der Piazza dell’Unità d’Italia Richtung Porto Vecchio schwimmt der 71 m hohe, 1910 geplante, 1920 fertiggestellte und 1994 ausgemusterte Industriekran „Ursus“. Bei gutem Wetter kann man von der Piazza dell’Unità d’Italia, wie an der gesamten Rive und am Piazza Venezia, hinter dem Golf von Triest und den Hafenanlagen von Monfalcone den östlichen Alpenbogen mit den Friauler und Ampezzaner Dolomiten sehen.
Oper und Börse
Der Opernplatz Piazza Verdi grenzt unmittelbar an die Piazza dell’Unità d’Italia. Hier befindet sich das Triestiner Opernhaus Teatro Verdi, das 1798 von dem klassizistischen Architekten Matteo Pertsch begonnen und nach dem italienischen Komponisten Giuseppe Verdi benannt wurde. Die Uraufführungen von Verdis Melodramen Il corsaro (Der Korsar, 1848) und Stiffelio (1850) fanden im Triestiner Opernhaus statt. Die Triestiner Oper stand architektonisch noch am Anfang der für das 19. Jahrhundert bezeichnenden Entwicklung dieser Gattung. Noch heute ist sie eines der meistbesuchten Opernhäuser Italiens.
Den Hintergrund des Theaterplatzes bildet die Alte Börse, die 1806 von dem Architekten Antonio Molari erbaut wurde. Ihre Vorderseite wurde in Anlehnung an eine dorische Tempelfront mit Portikus errichtet. Auf dem Platz vor der Börse, der Piazza della Borsa, steht auf einer Säule die Statue Kaiser Leopolds I., der wie andere Habsburger am Aufschwung der Stadt beteiligt war. Heute befindet sich im Gebäude der Alten Börse die Triestiner Handelskammer.
Altstadt und Colle di San Giusto
Der Hauptplatz Triests, die Piazza dell’Unità d’Italia, zieht sich bis zum Hügel von San Giusto hin. Am Fuße des Hügels befindet sich die Città Vecchia (Altstadt), der älteste Stadtteil Triests. Die in den vergangenen Jahren wieder renovierte Altstadt besteht heute nur aus wenigen Gassen. Mussolini hatte diesen Teil der Stadt bewusst verkommen oder zerstören lassen, um die antiken Reste aus der Triestiner Vergangenheit freizulegen. Hierzu gehören unter anderem die Ruinen des Teatro Romano, des römischen Theaters aus dem 1. Jahrhundert n. Chr.
In der Nähe des römischen Theaters befindet sich die barocke Jesuitenkirche Santa Maria Maggiore. Daneben steht die kleine, romanische Kirche San Silvestro, deren unverputztes, aber doch präzise geformtes Äußeres durch seine Schlichtheit beeindruckt. Sie gilt als die älteste Kirche Triests.
Hinter den Kirchen befindet sich der Arco di Riccardo (Richardsbogen), das älteste Monument Triests. Das über sieben Meter hohe Tor ist der letzte noch erhaltene Bestandteil der römischen Stadtmauer, die 33/32 v. Chr. unter Kaiser Augustus errichtet und im 1. Jahrhundert n. Chr. verschönert wurde. Hier wurde einer Legende nach der englische König Richard Löwenherz bei der Rückfahrt nach einem Kreuzzug festgenommen.
Oberhalb der Stadt, auf der Anhöhe von San Giusto, befindet sich das wichtigste Bauwerk und Wahrzeichen der Stadt, die Kathedrale von San Giusto. An der Stelle des heutigen Doms wurde bereits im 5. Jahrhundert eine frühchristliche Basilika errichtet, die zwischen dem 9. und 12. Jahrhundert durch zwei Parallelkirchen ersetzt wurde. Die linke war der heiligen Jungfrau Maria, die rechte dem heiligen Justus (italienisch San Giusto) geweiht. Im 14. Jahrhundert wurden beide Kirchen zur heutigen Kathedrale von San Giusto vereint. Das Bodenmosaik der Basilika aus dem 5. Jahrhundert ist teilweise heute noch in der Kirche zu bewundern.
Der Kirchenhügel wird von einer mächtigen Burg überragt, dem zweiten Wahrzeichen der Stadt. Das Kastell von San Giusto wurde in der heutigen Form 1470 unter dem Habsburgerkaiser Friedrich III. begonnen, aber erst 1630 beendet. Bereits 2000 v. Chr. gab es ein „castelliere“. Eine erste Festung wird 1253 erwähnt, die von den Venezianern 1371 zerstört und durch eine neue Bastion ersetzt wurde. Diese ist kurz darauf von den Triestinern wieder in Schutt und Asche gelegt worden.
San Giusto ist ferner die Grablege einer Reihe carlistischer Prätendenten des spanischen Throns.
Vor dem Südabfall der langgestreckten Anhöhe steht auf dem Piazzale Antonio Rosmini die römisch-katholische Pfarrkirche Madonna del Mare. Der dreischiffige Innenraum der neuromanischen Kirche ist von San Giusto beeinflusst. Die Fenster zeigen Glasmalerei. Im mittleren an der Westwand (Abb.) ist Erzbischof Antonio Santin (1963–1975 Erzbischof von Triest) genannt. Das Wandgemälde in der Apsis des Chores zeigt eine Madonna del Mare. Es ist dem Zweiten Vatikanischen Konzil gewidmet.
Borgo Teresiano
Das Borgo Teresiano (Theresienvorstadt) stellt die „Neustadt“ zwischen Piazza d’Unità d’Italia (früher Piazza Grande) und dem Hauptbahnhof dar und wurde von Kaiserin Maria Theresia von Österreich gegen Mitte des 18. Jahrhunderts auf trockengelegten Salinen im Zuge der damaligen Stadterweiterung erbaut. Zentrum des Borgo Teresiano ist der Canal Grande, der rechtwinkelig von der Uferstraße in die Stadt führt, mit der klassizistischen Kirche Sant’Antonio Nuovo (erbaut von Pietro Nobile 1842) als Abschluss.
Am Beginn der Via San Nicolo, heute eine Fußgängerzone mit zahlreichen Luxusgeschäften, befindet sich die vom Meer aus gut erkennbare griechisch-orthodoxe Kirche San Nicolò dei Greci, die Nikolaus von Myra, dem Schutzheiligen der Seefahrer, geweiht ist und deren Inneres bereits James Joyce inspiriert hat. Hier befindet sich auch das berühmte, traditionsreiche Caffè Tommaseo.
Literarisch-intellektuelles Zentrum Triests war bzw. ist die bestehende „Libreria Antiquaria Umberto Saba“ Ecke Via Dante Alighieri im Haus Via San Nicolo Nr. 30, in dem schon James Joyce wohnte, das Haus Via San Nicolo Nr. 32, in dem sich die Berlitz School befand, wo Joyce unterrichtete und mit Italo Svevo in Kontakt kam, und das Haus Via San Nicolo Nr. 31, wo Umberto Saba im ehemaligen Cafe-Milchgeschäft Walter seine Arbeitspausen verbrachte. In diesem Bereich, am Ende der Via San Nicolo, befindet sich heute eine lebensgroße Statue von Umberto Saba. Die Via San Nicolo Nr. 30 ist auch das symbolische Zentrum des gleichnamigen Romans von Roberto Curci aus dem Jahr 2015.
Während es heute zahlreiche Luxusgeschäfte in der Fußgängerzone der Via San Nicolo gibt, gab es früher zahlreiche Cafés und Restaurants, insbesondere die Berger-Bierhalle auf Nr. 17, die später zum sehr berühmten Grand Restaurant Berger wurde. In der Via San Nicolo steht seit dem Jahr 1905 auf Nr. 36 eines der heute bedeutendsten Jugendstilgebäude in Triest, die Casa Smolars. Das bekannte Caffè Eppinger befindet sich seit etwa 1946 in der unmittelbaren Nähe. Der Gebäudekomplex des ehemaligen RAS Palais befindet sich ebenfalls am Ende der Via San Niccolo mit dem Eingang zur Piazza Repubblica. Dieses innen und außen architektonisch besondere Gebäude wurde komplett renoviert und ist seit 2019 ein Hotel.
Nördlich des Canal Grande ist ein kleines Chinatown entstanden. Südlich des Kanals liegt die Piazza del Ponte Rosso mit dem spätbarocken Giovanni-Brunnen, ehedem ein Teil der unter Maria Theresia 1753 neu gebauten Wasserleitung. Die Piazza Ponterosso – wie sie die Triestiner nennen – ist heute malerischer Marktplatz für viele Bauern aus der Umgebung von Triest.
Direkt am Kanalufer reiht sich die serbisch-orthodoxe Kirche San Spiridione ein (erbaut 1861–1866 von Carlo Maciachini). Die Triestiner Synagoge wurde 1912 fertiggestellt und stellt eines der bedeutendsten jüdischen Gotteshäuser Europas dar.
Borgo Giuseppino
Das Stadtviertel Borgo Giuseppino (Josephsvorstadt) erstreckt sich einerseits vom Hauptplatz Piazza dell’Unità d’Italia bis zum Campo Marzio und andererseits von der Uferpromenade bis zur Piazza Attilio Hortis. Das Zentrum des Viertels bildet die Richtung Meer offene Piazza Venezia (vormals Piazza Giuseppina bzw. Piazza Ganza). Unmittelbar vor diesem Platz mit seinen Alleebäumen ankern am Molo Veneziano die Boote der Triestiner Fischer. Wenige Meter entfernt befindet sich der Molo Sartorio, wo für Österreich die Höhe über dem Meeresspiegel mit Meter über Adria gemessen wird.
Auf der Piazza Venezia steht seit dem Jahr 2009 wieder das Denkmal für Erzherzog Maximilian von Österreich, der dabei in Vizeadmiralsuniform über den Golf von Triest auf Schloss Miramare und im Hintergrund auf den Alpenbogen mit den Dolomitenbergen Civetta, Monte Pelmo und Antelao blickt. Das über 9 Meter hohe Bronzemonument mit den Allegorien der vier Kontinente soll die Philanthropie Maximilians sowie sein Interesse für Wissenschaft und Kunst ehren und wurde auf Veranlassung und unter Leitung von Baron Pasquale Revoltella von dem Bildhauer Johannes Schilling erstellt, 1875 von einem Komitee auf der Piazza Giuseppina (heute Piazza Venezia) in Triest in Anwesenheit von Kaiser Franz Joseph I. eingeweiht, nach 1918 entfernt und 1961 in den Schlosspark von Miramare verlegt.
Nach dem Borgo Teresiano ist das Borgo Giuseppino die zweite planmäßige Erweiterung der Stadt am Ende des 18. Jahrhunderts. Im Gegensatz zum Borgo Teresiano, das primär als Handelszentrum konzipiert wurde, ist das Borgo Giuseppino kleiner und vorwiegend durch öffentliche Gebäude und Plätze geprägt. Im Bereich Richtung Cavana ist das Viertel aber durch enge Gassen und kleine Plätze geprägt, und gerade dieser Teil galt seit den Zeiten von James Joyce bis in die 1990er Jahre als übel beleumundeter Rotlichtbezirk, in dem es aber heute kosmopolitisch inspirierte Bars, Cafés und Restaurants gibt. Als das diesbezügliche Zentrum gilt die Fußgängerzone in der Via Torino.
An der Piazza Venezia befindet sich das Museo Revoltella im Stil der italienischen Renaissance mit seinen sechs allegorischen Statuen des Venezianers Francesco Bosa an der Dachbalustrade, an der Piazza Attilio Hortis sind die Stadtbibliothek Biblioteca Civica Attilio Hortis und das naturgeschichtliche Museum Museo di Storia Naturale untergebracht. Seit dem Jahr 2001 gibt es in den Räumen des Palazzo Leo das Civico Museo d’Arte Orientale mit seiner chinesischen und japanischen Sammlung.
Das historische „Antico Magazzino Vini“ unmittelbar bei der Piazza Venezia am Meer wurde 1902 zur Lagerung von Wein aus Dalmatien und Istrien gebaut, nun revitalisiert und beherbergt heute einen Eataly. An der Riva Grumula befindet sich die 1953 errichtete Stazione Rogers. Diese vom Studio BBPR bzw. Ernesto Nathan Rogers geplante Tankstelle „Aquila“ gilt als bedeutendes Bauwerk des Rationalismus bzw. der Nachkriegsmoderne und ist heute nach der Renovierung ein Mehrzweckzentrum für Kultur und Architektur.
Wallfahrtskirche Monte Grisa
Der Bischof von Triest, Antonio Santin, erfüllte sein 1945 abgelegtes Gelübde und ließ 1966 die Wallfahrtskirche Monte Grisa erbauen.
Außerhalb der Stadt
Der Stadtstrand zum Baden und für Sport der Triestiner befindet sich in Barcola. Dieser dünne Landstreifen, der sich am Meer entlang zieht und vor der Bora geschützt ein eigenes Mikroklima hat, war schon zur Zeit der Römer ein Ort zur Freizeitgestaltung. Jeder Abschnitt des Strandes hat seinen eigenen Namen wie von Miramare aus kommend Marinella, dann California und Pineta.
Der Faro della Vittoria (Siegesleuchtturm) ist ein Leuchtturm, der zwischen 1924 und 1928 von dem Architekten Arduino Berlam zum Gedenken an die auf See Gefallenen errichtet wurde.
Die Bahnstrecke Triest–Opicina ist eine historisch und technisch außergewöhnliche Bergbahn, die am 10. September 1902 eröffnet wurde, um das unmittelbare Hinterland der Stadt bis zum Villenvorort Villa Opicina zu erschließen. 1913 beförderte die Bahn 459.000 Fahrgäste. Heute hat sie aber ihre Bedeutung als wichtiges Verkehrsmittel verloren und ist auf hohe Subventionen angewiesen. Von den Triestinern hoch geschätzt, wird sie in zahlreichen italienischen und slowenischen Volksliedern besungen.
In der circa 15 Kilometer entfernten Nachbargemeinde Sgonico befindet sich die Grotta Gigante, die seit 1995 als „Größte Schauhöhle der Welt“ im Guinness-Buch der Rekorde aufgeführt ist und aus diesem Grund auch Riesenhöhle von Triest genannt wird.
Im Stadtteil Rozzol Melara gibt es den großen Sozialbaukomplex Il Quadrilatero, der zwischen 1968 und 1983 erbaut, aber nie fertiggestellt wurde. Er ist wegen seiner auffälligen Architektur mit offensichtlichem Le-Corbusier-Bezug und großen sozialen Spannungen bekannt.
Schlösser
Direkt auf den Klippen am Golf von Triest – in Sichtweite des Hafens – befindet sich das Schloss Miramare (in Österreich oft Miramar genannt), das Erzherzog Maximilian von Habsburg, der Bruder Kaiser Franz Josephs I. und spätere Kaiser von Mexiko, seiner Gattin Charlotte von Belgien erbaute.
In der Nachbargemeinde Duino-Aurisina befindet sich das Schloss Duino, ehemaliger Sitz der Patriarchen von Aquileia und heute im Besitz der Familie von Thurn und Taxis. Während seines Aufenthalts in Triest von Oktober 1911 bis Mai 1912 begann Rilke hier seine Duineser Elegien zu schreiben.
Museen
Triest besitzt zahlreiche Museen, von denen die meisten der Stadt gehören, mit Ausnahme der staatlichen Sammlung Miramare, der Nationalgalerie für Antike Kunst sowie einiger privater Sammlungen. Die meisten der Museen in Triest sind ehemalige Wohnstätten von reichen Bürgern, die nach deren Tod der Stadt vermacht wurden. Im Unterschied zu Schlössern und Burgen zeigen sie Mode und Geschmack des Bürgertums in verschiedenen Epochen und sind ein Zeugnis dafür, dass in Triest vor allem reiche Kaufleute und Bankiersfamilien Kunst, Literatur und Wissenschaft förderten.
Zu den Kunst- und Milieusammlungen in Triest zählen:
Das Städtische Museum Revoltella – Galerie für Moderne Kunst (Civico Museo Revoltella – Galleria d’Arte Moderna) ist eines der größten und bedeutendsten Museen der Stadt Triest. In der ehemaligen Stadtresidenz des Barons Pasquale Revoltella untergebracht enthält es die Gemälde, Skulpturen und Wohneinrichtung des Barons aus dem 19. Jahrhundert sowie Werke aus dem 20. Jahrhundert.
Die Nationalgalerie für Alte Kunst (Galleria Nazionale d’Arte Antica) umfasst Gemälde und Zeichnungen der italienischen Schule (15. – 19. Jahrhundert).
Das Städtische Museum Morpurgo (Civico Museo Morpurgo) und das Städtische Museum Sartorio (Civico Museo Sartorio) umfassen die komplett eingerichteten, aus dem 19. Jahrhundert stammenden Wohnungen der Bankiersfamilien Morpurgo und Sartorio und deren Kunstsammlungen.
Zu den geschichtlichen Museen gehören:
Das Städtische Museum des Risorgimento mit Guglielmo-Oberdan-Gedenkstätte (Museo del Risorgimento – Sacrario a Guglielmo Oberdan) zeigt Dokumente, Fotografien und Erinnerungsgegenstände aus der nationalen Einheitsbewegung in Triest.
Das Städtische Museum Risiera di San Sabba stellt eine 1969 eröffnete nationale Gedenkstätte und Ausstellung über das ehemalige NS-Konzentrationslager dar.
Das Städtische Theatermuseum Carlo Schmidl (Civico Museo Teatrale Carlo Schmidl) befindet sich im ersten Stock von Palazzo Gopcevich und umfasst Musikinstrumente, Opernkostüme und andere Zeugnisse musikalischen Schaffens aus dem 18. und 19. Jahrhundert.
Das Museum der Handelskammer Triest (Museo Commerciale di Trieste) wurde 1906 eingerichtet und 2005 wiedereröffnet. Es befindet sich im zweiten Stock des Palazzo Dreher und umfasst die Geschichte des Hafens und des Handels in Triest seit 1755.
Das Städtische Altertumsmuseum J. J. Winckelmann (Museo Civico d'Antichità J. J. Winckelmann) ist nach dem deutschen Archäologen benannt, der 1768 in Triest ermordet wurde. Es werden regionale Funde aus prähistorischen Epochen oder aus der Römerzeit gezeigt. Daneben gibt es Sammlungen mit antiken ägyptischen, zypriotischen, griechischen und etruskischen Objekten. Im sogenannten Orto Lapidario können u. a. antike Inschriften, Skulpturen und ein Winckelmann-Denkmal besichtigt werden.
Zu den naturwissenschaftlich-technischen Museen zählen:
Das Meeresmuseum (Museo del Mare) wurde 1904 gegründet und zeigt die Geschichte der Schifffahrt und verschiedene Formen des Fischfangs in der Adria. An Ereignisse in Triest wie die Testfahrt des ersten Schiffspropellers von Josef Ressel und an den Nobelpreisträger für Physik Guglielmo Marconi wird unter anderem erinnert.
Das Städtische Museum für Naturgeschichte (Civico Museo di Storia Naturale) wurde 1846 ins Leben gerufen und umfasst eine Sammlung mit Exemplaren aus Zoologie, Mineralogie, Botanik, Geologie und Paläontologie. Von Bedeutung ist die paläontologische Sammlung aus dem Karst mit Fossilienresten eines 75 Millionen Jahre alten Fleisch fressenden Dinosauriers aus Villaggio del Pescatore (Duino-Aurisina).
Das Eisenbahnmuseum Trieste Campo Marzio (Museo Ferroviario di Trieste Campo Marzio) wurde 1984 im Bahnhofsgebäude der ehemaligen k&k Staatsbahn eröffnet und zeigt Lokomotiven, Waggons und Material zur Geschichte der Triestiner Eisenbahn und der Linie Wien-Triest.
Das Mitteleuropäische Post- und Telegrafenmuseum im Postgebäude umfasst Dokumente und Einrichtungen der österreichischen und italienischen Postgeschichte.
Kaffeehäuser
Unter venezianischem Einfluss entstanden in Triest seit dem 'settecento' traditionsreiche Kaffeehäuser. Die älteste urkundliche Erwähnung findet sich 1768 für das Kaffeehaus des Benedetto Capano in der heutigen Via San Nicolò. In späteren Jahrhunderten nahm diese alte Tradition auch habsburgische Einflüsse auf, insbesondere in der Innenraumgestaltung.
Heutzutage kann man noch Kaffeehäuser aus dem 19. Jahrhundert besuchen:
Das Caffè Tommaseo am Lungomare ist seit 1830 in Betrieb und zählt damit zu den ältesten in ganz Italien. Ursprünglich nach seinem Inhaber Tomaso Marcato Caffè Tomaso genannt, wurde der Name des Kaffeehauses 1848 zu Ehren des dalmatischen Schriftstellers Niccolò Tommaseo umbenannt.
In einem der Prachtbauten an der Piazza dell’Unità d’Italia, der Casa Stratti, befindet sich das Caffè degli Specchi (Spiegel-Café), das bekannteste Kaffeehaus Triests, das 1839 von dem Griechen Nicolò Priovolo eröffnet wurde. In ihm verkehrten Schriftsteller wie Rainer Maria Rilke, Franz Kafka und James Joyce. Im Oktober 2011 wurde das Caffe kurzfristig wegen finanzieller Probleme des Eigentümers Andrea Sessa geschlossen. Daraufhin sperrte es mit neuem Pächter der Firma Peratoner aus Pordenone wieder auf, wobei wirtschaftliche Probleme weiterbestehen, da die jährliche Pacht € 150.000 (Hauseigentümer Assicurazioni Generali) ausmacht und die Umsätze zu gering sein sollen.
In der Via Cesare Battisti befindet sich das Jugendstilcafé Antico Caffè San Marco, das 1914 eröffnet wurde.
Viele weltweit gegründeten Kaffeehäuser hatten die Triestiner Kaffeehäuser als Vorbild. So war das Caffe Trieste in San Francisco die erste Espressobar an der amerikanischen Westküste, gegründet 1956 durch die aus Rovigno südlich von Triest stammende Familie Giotta.
Strand
Ein Großteil von Triest liegt direkt am Meer und wird als Hafengebiet genutzt. Trotzdem besteht die Möglichkeit, im Stadtzentrum im Meer zu schwimmen, wie in den Badeeinrichtungen beim alten Leuchtturm Lanterna. Bekannt sind die zehn halbkreisförmigen Einheiten am Ufer, die aus einer Aussichtsplattform, sanitären Einrichtungen und Umkleidekabinen bestehen und im Volksmund als Topolini bezeichnet werden.
Im Bereich der Badeanstalt Excelsior, die sich auf einer historischen Sandbank befindet, gab es in der Antike elegante römische Villen und deren Sport- und Badeeinrichtungen. Bereits im 19. Jahrhundert gab es in diesem Bereich zahlreiche Restaurants und Cafés mit schattigen Weinlauben für die Ausflugsgäste. Es gibt immer wieder grundlegende Überlegungen, den kilometerlangen ursprünglichen Sandstrand wie vor dem Bau der aktuellen Straße wieder zu errichten.
Im Fischerdorf Barcola gibt es einige der wenigen Häuser und Restaurants in Triest, die direkt am Meer liegen. Ein kleiner Badekomplex befindet sich direkt neben dem Schloss Miramare. Weiter in Richtung Grignano und Duino gibt es zahlreiche Buchten und Naturstrände. Aufgrund der Meeresströmungen an der Adria ist das Wasser in der Gegend von Triest sauber und nicht durch Schwebstoffe aus Flüssen verschmutzt.
Bildung und Forschung
Neben italienischen Schulen gibt es als internationale englischsprachige Alternativen die International School of Trieste, die European School of Trieste und das United World College of the Adriatic, die MIB School of Management Trieste und die auch slowenischsprachige Einrichtung Liceo scientifico statale „France Prešeren“.
Triest ist Sitz zahlreicher internationaler Forschungseinrichtungen und hat laut Erhebungen aus dem Jahr 2005 in Europa die höchste Anzahl von Forschern entsprechend der Einwohner, nämlich 37,1 ‰. Viele der Forschungseinrichtungen sind Teil des Sistema Trieste und in internationalen Partnerschaften (CEI University Network, E-Eric etc.) verankert. Die Förderungen der Triestiner Forschung erfolgen international (u. a. durch die UNESCO oder die IAEA), europäisch (z. B. im Rahmen des European Research Area ERA oder des Europäischen Rahmenprogramms), national (u. a. PRIN 2007 und überprüft durch CIVR), durch die Region Friaul-Julisch Venetien, die Provinz Triest und die Stadt Triest. Die Forschung ist Teil europäischer Netzwerke wie zum Beispiel des Adria-Danubio Consortiums for the Corridor V, der Virtual University of Adriatic-Ionian Basin UNIADRION, der AlpeAdria University Initiative ALADIN und des Alpe-Adria Cooperative E-learning Space. Im September wird jährlich die Wissenschafts- bzw. Zukunftstechnologiemesse „Trieste Next – European Science Forum“ veranstaltet. Die Stadt Triest versucht unter der Bezeichnung „Trieste Città della Conoscenza – Trieste City of Knowledge“ viele Aktivitäten zur Forschungsförderung zu bündeln.
Die Central European Initiative (in deutscher Amtssprache: Zentraleuropäische Initiative), eine informelle Kooperation von Staaten Mitteleuropas auf den Gebieten Kultur, Technik und Naturwissenschaften, hat ihren Sitz in Triest.
Triest ist eine wichtige Universitätsstadt mit einer sehr hohen Anzahl von Studenten (über 25.000 und davon ein hoher Anteil von internationalen Studenten) im Vergleich zur Bevölkerung. Infolge der Verknüpfung von Forschung, Wirtschaft und Förderung gibt es in Triest eine wachsende Anzahl von Spin-off-Unternehmen (Partnerschaften in die Produktionswelt bestehen u. a. mit den Firmen Cimolai, Danieli, Eni, Fincantieri, Generali, Illy, Mitsubishi, Vodafone) und anteilmäßig die höchste Anzahl von Start-up-Unternehmen in Italien, wobei die Stadt auch als Italiens Silicon Valley bezeichnet wird.
An Forschungs- und Bildungseinrichtungen herauszuheben sind:
Das traditionsreiche Gymnasium Dante Alighieri
Universität Triest (Università degli Studi di Trieste), gegründet 1924
Internationales Zentrum für Theoretische Physik, gegründet 1964 von dem Physik-Nobelpreisträger Abdus Salam, unter der Schirmherrschaft der UNESCO und der IAEA
Scuola Internazionale Superiore di Studi Avanzati (Internationale Hochschule für fortgeschrittene Forschung – SISSA), eine internationale Forschungseinrichtung in den Bereichen Physik, Mathematik und Neurowissenschaft
ICS UNIDO Centre for Science and High Technology
Geophysikalisches Institut Triest (Istituto Nazionale di Oceanografia e di Geofisica Sperimentale, OGS), aus der 1841 gegründeten Triestiner Wetterwarte hervorgegangen
Osservatorio Astronomico di Trieste (OAT, INAF-Trieste)
International Centre for Genetic Engineering and Biotechnology
Carso Center for Advanced Research in Space Optics
AREA Science Park, größter italienischer technologisch – wissenschaftlicher Park von internationaler Bedeutung mit öffentlichen und privaten Gesellschaften bzw. Laboratorien in u. a. den Bereichen Biotechnologie, Physik, Nanotechnologie, Informatik, Umwelttechnik und Medizin, wobei der Park regionale Filialen für zum Beispiel Nautik und Schiffsbau betreibt. Der Technologiepark (Stand 2010: 88 Unternehmen und 2600 Beschäftigte) beinhaltet auch den Forschungskomplex Elettra Sincrotrone Trieste, dessen erster Präsident der Physiker und Nobelpreisträger Carlo Rubbia war. ELETTRA ist ein Elektronenbeschleuniger und zählt zu den wichtigsten Quellen für hochenergetische Photonen in Europa. Teil des Laboratorium ist der Freie-Elektronen-Laser FERMI (benannt nach dem Nobelpreisträger Enrico Fermi) mit dem international bedeutende Grundlagenforschung gemacht wird.
Nationales Institut für Kernphysik (INFN)
Laboratorium für Synchrotronlicht (Laboratorio di Luce di Sincrotrone)
TWAS, Academy of Sciences for the Developing World, eine nichtstaatliche Akademie der Wissenschaften
InterAcademy Panel, The Global Network of Science Academies (IAP)
Laboratorio di Biologia Marina
Laboratory TASC Technology and Nano Science
Istituto di Struttura della Materia del CNR, Istituto di Cristallografia del CNR
Fondazione Carlo e Dirce Callerio ONLUS
Centre of Molecular Biomedicine – CBM
Burlo Garofolo Scientific Hospital Care Institute
Goethe-Institut Triest
Literatur
Triest hat trotz seiner bescheidenen Größe seit dem Ende des 19. Jahrhunderts eine beachtliche literarische Präsenz entwickelt.
Die Stadt war Heimat von bedeutsamen italienischen Schriftstellern und Dichtern wie Italo Svevo, Scipio Slataper, Umberto Saba, Attilio Hortis, Giani Stuparich, Gillo Dorfles, Roberto Bazlen, Fulvio Tomizza, Lina Galli, Luciano Comida, Claudio Magris, Paolo Rumiz, Mauro Covacich, Ferruccio Fölkel und Susanna Tamaro sowie einigen slowenischen Vertretern wie Srečko Kosovel, Boris Pahor, Kenka Lekovich und Alojz Rebula, die in der Stadt lebten und schrieben. Auch Louis Antoine Debrauz de Saldapenna wirkte teilweise in Triest. Die Literatur, für die Triest berühmt wurde, war oft auf Italienisch verfasst, und die Autoren waren in der Regel jüdischer Herkunft. Trotz aller italienischen literarischen Identitätsdebatten im 20. Jahrhundert bezeugen deren Autoren aber einen übernationalen Kulturzugang.
Auch anderssprachige Schriftsteller verkehrten in Triest. Der irische Schriftsteller James Joyce hielt sich mit Unterbrechungen von 1904 bis 1920 in der Stadt auf, der er in Ulysses ein Denkmal gesetzt hat, sein Bruder Stanislaus Joyce war Literaturprofessor an der dortigen Universität und lebte und starb in Triest. Der Österreicher Rainer Maria Rilke schuf während seines Aufenthalts von Oktober 1911 bis Mai 1912 im nahe gelegenen Schloss von Duino die ersten drei seiner Duineser Elegien.
Weitere deutsch- und englischsprachige Schriftsteller, die einen Teil ihres Lebens in Triest verbrachten oder heute noch verbringen:
Richard Francis Burton (1821–1890)
Julius Kugy (1858–1944)
Sebastian Weberitsch (1870–1946)
Theodor Däubler (1876–1934)
Veit Heinichen (* 1957)
Sport
In Triest ist der Fußballverein US Triestina beheimatet, der aktuell in der Serie C spielt.
Im Stadio Giuseppe Grezar, der ehemaligen Heimstätte der US Triestina, fand zudem das Achtelfinale der Fußball-Weltmeisterschaft 1934 zwischen der Tschechoslowakei und Rumänien (2:1) statt.
Triestiner Küche
Es handelt sich dabei um eine multikulturelle Küche, in der auch durch den jahrhundertelangen mitteleuropäischen, aber auch hafenbedingten Einfluss verschiedene Ethnien zum Ausdruck kommen. Typische Speisen sind zum Beispiel die Jota, Minestra de Bisi Spacai, Rotolo di Spinaci in Straza, Sardoni Impanai, Capuzi Garbi, Capuzi Garbi in Tecia und Fritto Misto Mare bzw. als Süßspeisen Presnitz, Fave Triestine, Titola, Crostoli Speciale, Struccolo de Pomi, Kugelhupf, Rigo Jancsi und die Triester Torte.
Als für Triest typische Lokalarten sind zu nennen das Buffet, ein städtisches kleines Gasthaus mit fertigen einheimischen Speisen (Schinken, Leberkäse, Gulasch, Braten, gesottenes Kaiserfleisch, Zunge, Stelze und Bauchfleisch), und die Osmizza, eine Urform des mitteleuropäischen Heurigen mit kurzen Öffnungszeiten zum Verzehr und Vertrieb selbstproduzierter vorwiegend kalter bäuerlicher Erzeugnisse aus dem Triestiner Karst.
Während früher im Golf von Triest vorwiegend Thunfisch und Sardinen gefangen und verarbeitet wurden, sind heute die Sardellen aus Barcola (Sardoni barcolani) eine Spezialität. Sie werden mariniert, gebacken oder gegrillt serviert. Als lokale Kaffeespezialität gilt der Capo Triestino (auch Capo in B oder Capo in bicchiere), den schon Intellektuelle wie James Joyce oder Italo Svevo geschätzt haben sollen. Diesen Miniatur-Cappuccino in einer Glastasse nimmt man meistens an der Bar ein.
Persönlichkeiten
Bekannte Persönlichkeiten der Stadt sind in der Liste von Persönlichkeiten der Stadt Triest aufgeführt.
Nach Triest benannte Orte oder Straßen
In Berlin-Dahlem gibt es einen Triest-Park.
In München-Ramersdorf-Perlach gibt es eine Triester Straße.
In Nürnberg-Schweinau gibt es eine Triester Straße.
In Wien ist die Triester Straße die bekannteste Ausfallstraße Richtung Süden bzw. Süd Autobahn; sie verläuft, von der Südbahn ausgehend, durch den 10. Bezirk, Favoriten, und den 23. Bezirk, Liesing, bis zur südlichen Stadtgrenze und setzt sich als ehemalige Bundesstraße 17 südwärts fort. Die Triester Straße bestand schon 1879 als Reichsstraße von Wien Richtung Triest.
In Graz ist die Triester Straße eine der wichtigsten Ausfallstraßen und zugleich auch die zweitlängste Straße der Stadt.
Die Grazer Triester Straße beginnt beim Karlauer Platz in Graz-Gries und endet in Graz-Puntigam an der südlichen Stadtgrenze mit der Hausnummer 509, wo sie nach Feldkirchen bei Graz übergeht. Dort führt sie mit den Hausnummern von 1 bis 395 in Nord-Süd-Richtung durch das gesamte Gemeindegebiet.
In Ljubljana, der Hauptstadt Sloweniens, verläuft die Tržaška cesta (Triester Straße) vom Trg Mladinskih delovnih brigad genannten Platz Richtung Südosten parallel zur ehem. österreichischen Südbahn bis zur Ortschaft Brezovica pri Ljubljani.
Literatur
Gregor Gatscher-Riedl: Triest – K.u.k. Sehnsuchtsort und Altösterreichs Hafen zur Welt. Kral, Berndorf 2016, ISBN 978-3-99024-465-4.
Claudio Magris, Angelo Ara: Triest. Eine literarische Hauptstadt in Mitteleuropa. dtv, München 2005, ISBN 3-423-34175-0.
Renate Lunzer: Triest. Eine italienisch-österreichische Dialektik. (PDF; 833 kB) Wieser, Klagenfurt 2002, ISBN 3-85129-345-2.
René Moehrle: Judenverfolgung in Triest während Faschismus und Nationalsozialismus 1922–1945. Berlin 2014, ISBN 978-3-86331-195-7.
Oliver Schneider: „Triest“. Eine Diskursanalyse. Königshausen & Neumann, Würzburg 2003, ISBN 3-8260-2469-9.
Mauro Covacich: Triest verkehrt – Fünfzehn Spaziergänge in der Stadt des Windes. Wagenbach Verlag, Berlin 2012, ISBN 978-3-8031-2696-2.
Ignaz Civelli: Triest hat sein Herz im Hinterland verloren. Die Triester Berg- und Strassenbahn wird 100-jährig. In: Schiene. Eisenbahn – Verkehrspolitik – Reisekultur. Bd. 21, Nr. 6, 2002, , S. 38–42.
Weblinks
Webpräsenz der Gemeinde Triest (italienisch)
Triest – Fotoführer (italienisch)
Landesgesetzblatt Triest und Küstenland 1851–1918
Triest und seine Riviera
Einzelnachweise
Ort in Friaul-Julisch Venetien
Hauptstadt in Italien
Ehemalige Hauptstadt (Friaul-Julisch Venetien)
Ort mit Seehafen
Hochschul- oder Universitätsstadt in Italien
Österreichisch-slowenische Beziehungen
Stadt als Namensgeber für einen Asteroiden
Träger der Tapferkeitsmedaille in Gold (Italien)
|
Q546
| 310.758204 |
54393
|
https://de.wikipedia.org/wiki/Diglossie
|
Diglossie
|
Die Diglossie () ist eine besondere Form der Zweisprachigkeit, bei der die Sprachen einen ungleichen Status haben.
Begriff
Diglossie beschreibt die Zweisprachigkeit einer ganzen Gesellschaft, bei der es eine klare funktionale Differenzierung zwischen zwei sozial unterschiedlich gewerteten Sprachvarietäten gibt. Meist sind es Varietäten derselben Sprache. Insbesondere wird so die Koexistenz von Dialekt und Standardsprache oder von gesprochener Volkssprache zur geschriebenen Hochsprache bezeichnet.
Im Regelfall verfügen alle Sprecher einer solchen Gemeinschaft über die Fähigkeit, in denselben zwei (oder auch mehr) Varietäten (bzw. Einzelsprachen) zu kommunizieren, verwenden aber die eine und die andere nur in bestimmten Situationen, beispielsweise die eine Varietät (meist als L für englisch ‚niedrig‘ bezeichnet) in familiären Alltagsgesprächen und Talkshows, die andere (H für englisch ‚hoch‘) in Ausbildung und Beruf, gegenüber Ämtern und im öffentlichen Raum. Es ergibt sich eine funktionale Spezialisierung des Sprachvermögens. Die Lebensbereiche, in denen die Sprachen oder Varietäten jeweils verwendet werden, nennt man Domänen.
In der Deutschschweiz zum Beispiel werden die jeweiligen lokalen Dialekte und die deutsche Standardsprache (das „Hochdeutsche“) nicht als Dialekt-Standard-Kontinuum verwendet, sondern man trennt die beiden Sprachvarietäten und wechselt je nach Situation von der einen in die andere. So wird in den lokalen Fernseh- und Radiosendern für das alltägliche Begleit- und Unterhaltungsprogramm fast durchgehend Dialekt gesprochen (dabei kann es vorkommen, dass einzelne Sprecher kein Schweizerdeutsch sprechen, es aber verstehen und die Sendung dennoch auf Schweizerdeutsch abgehalten wird), während die Nachrichtensendungen (wie auch der Kultursender SRF2) sowie Printmedien und (Schul-)Bücher Hochdeutsch verwenden. Unterrichtssprache ist an mittleren und höheren Schulen Hochdeutsch (an Universitäten daneben auch Englisch); schulisch-administrative Belange werden jedoch oft auf Schweizerdeutsch besprochen. In den Kindergärten wird normalerweise Schweizerdeutsch gesprochen, in einzelnen Kantonen ist dies gesetzlich vorgeschrieben.
Eine ähnliche Situation existiert auch in Luxemburg mit der Nationalsprache Lëtzebuergesch in Beziehung zu einer Amtssprache, der deutschen Hochsprache. Die andere Amtssprache ist Französisch. Der luxemburgischen Nationalsprache wird international meist der Status eines Ausbaudialekts zugeschrieben. Luxemburgisch wird von den meisten Luxemburgern als Muttersprache gesprochen, auch z. B. im nationalen Fernsehen und Radio wird es benutzt. Als Schreibsprache wird dagegen mehrheitlich Deutsch verwendet, in kleinerem, aber signifikantem Umfang Französisch. So verwenden die meisten und die größten Printmedien, aber auch die (Schul-)Bücher, und teilweise die elektronischen Medien im Großherzogtum Standarddeutsch.
Entdiglossierung bezeichnet das Verschwinden der Diglossie, wie es beispielsweise in Norddeutschland geschieht. Vom 16. bis in das 20. Jahrhundert herrschte dort eine Diglossie mit Standarddeutsch als Schriftsprache und Sprache des amtlichen Gebrauchs und Plattdeutsch als allgemeine Umgangssprache. Seit dem 20. Jahrhundert setzt sich dort allerdings Standarddeutsch als Sprache in allen sozialen Bereichen durch. Dieser Prozess ist für die jüngeren Generationen weitgehend abgeschlossen, in den älteren Generationen bestehen teilweise weiter diglossische Verhältnisse.
Begriffsgeschichte
Der Terminus (franz. ) wurde von Ioannis Psycharis (französisiert ) 1885 für die damalige Sprachsituation in Griechenland geprägt, wo bis in die 1970er-Jahre zwei Varietäten des Griechischen, die (gelehrtere und meist geschriebene) Katharevousa und die (muttersprachlich gesprochene) Dimotiki nebeneinander gebraucht wurden.
William Marçais bezog den Terminus auf die arabischsprachigen Länder, in denen die jeweiligen nationalen Varietäten des Arabischen neben dem Hocharabischen stehen.
Charles A. Ferguson schließlich stellte in seinem berühmten Aufsatz von 1959 neben den griechischen und arabischen Sprachraum auch den deutschschweizerischen (Standarddeutsch und Schweizerdeutsch) und haitianischen (Standardfranzösisch und Kreolisch).
Joshua Fishman erweiterte das Konzept 1967 (): seines Erachtens sollten auch diglossische Situationen, in denen die Sprachen nicht miteinander verwandt sind (beispielsweise Hindi und Tamil in Tamil Nadu, Indien), als echte Diglossie gelten. In dieser Frage herrscht unter (Sozio-)Linguisten Uneinigkeit.
1981 empfahl Gottfried Kolde für die deutschsprachige Schweiz den Terminus mediale Diglossie zu verwenden, da sich hier im Laufe der Zeit die Funktionsaufteilung von Dialekt und Standardsprache geändert hatte und in den meisten Fällen das Medium die Wahl der Varietät bestimmt.
In einer allgemeineren Fassung des Begriffes werden bisweilen sogar alle kommunikativen Situationen als diglossisch bezeichnet, in denen zwei oder mehrere Sprachvarietäten den unterschiedlichen funktionalen Sprachkontext berücksichtigen; in diesem Sinne umfasst Diglossie auch die Verwendung verschiedener Sprachregister und Soziolekte in einer Sprachgemeinschaft.
Diglossie versus Standard-Dialekt-Kontinuum
Diglossie ähnelt auf den ersten Blick der Situation für Dialektsprecher: Der Dialekt wird häufig ausschließlich mündlich verwendet, und zwar lokal und funktional begrenzt (vor allem in informellen Kontexten). Für formelle Kommunikationssituationen außerhalb der Familie und des (lokalen) Freundeskreises wird eine Standardsprache verwendet oder eine Varietät der Standardsprache, die dieser sehr nahekommt, aber regional gefärbt ist (Regionalsprache oder Regiolekt). Da aber beispielsweise im deutschen Sprachraum der Bundesrepublik Deutschland die Dialektsprecher immer weniger werden und inzwischen viele Menschen keinen Dialekt mehr sprechen, kann die Standardsprache auch in all jenen Situationen benutzt werden, in denen sonst der Dialekt vorherrscht(e) – im Gegensatz zu einer echten Diglossie wie in der Deutschschweiz, in den meisten Regionen von Österreich oder in Luxemburg, wo die Einheimischen in Alltagssituationen (fast) ausschließlich ihre Dialekte sprechen und der mündliche Gebrauch der Standardsprache unüblich ist.
Hinzu kommt, dass vielerorts Sprachmischungen aus Ortsdialekt (= L), Regionalsprache oder Regiolekt und Standardsprache (= H) entstanden sind. In einer echt diglossischen Situation sind die Grenzen niemals fließend. Im Gegensatz dazu existieren beim Dialekt-Standard-Kontinuum immer „Graustufen“, die, selbst da, wo sie wenig genutzt werden, von den Sprechern als „richtig“ empfunden werden.
Sprachgemeinschaften mit Diglossie
Außer den vier von Ferguson genannten Diglossie-Fällen (damaliges Griechenland, Deutschschweiz, arabische Länder, Haiti) wurde für eine Reihe weiterer Sprachgemeinschaften postuliert, dass in ihnen Diglossie herrsche.
Ähnlich wie in der Schweiz gibt es in Südtirol einen Diglossie-Fall. Die Mundart wird im Umgang mit allen Südtiroler Mundartsprechern verwendet, sei es im Beruf oder im Privatleben. Einzig in der Schule und im Fernsehen wird Hochdeutsch gesprochen. Südtiroler wechseln im Normalfall ins Hochdeutsche, wenn sie mit einer Person sprechen, für die die Südtiroler Mundart nur schwer oder überhaupt nicht verständlich ist.
Darunter ist auch die Sprachsituation der Kiewer Rus, auf die Boris Andrejewitsch Uspenski das Diglossie-Konzept 1983 anwandte: Demnach wurde dort das Kirchenslawische als H neben dem Altostslawischen als L verwendet.
Auch in ostasiatischen Gesellschaften war in gebildeten Schichten lange Zeit das Phänomen der Diglossie zu beobachten, dies jedoch wahrscheinlich nicht auf der Ebene der gesprochenen Sprache. Das klassische Chinesisch diente über China hinaus auch in Korea, Japan und Vietnam als universelle Schriftsprache, da bei diesen Gesellschaften zunächst noch keine eigenen Schriftsysteme vorhanden waren. Darüber hinaus diente das Chinesische als Träger der gemeinsamen buddhistischen und konfuzianischen Tradition.
An der Grenze dieses Phänomens ist die Sprachsituation in Tschechien. Die gesprochene tschechische Sprache unterscheidet sich deutlich von der vor allem in Medien verwendeten Schriftsprache. Die tschechische Schriftsprache basiert auf der Kralitzer Bibel aus dem 16. Jahrhundert (Mitteltschechisch), während sich die Umgangssprache aus dem mittelböhmischen Dialekt entwickelte. Diese Diskontinuität wurde verursacht durch die Germanisierung nach der Schlacht am Weißen Berg (1620), in deren Folge die böhmischen Länder dauerhaft bis 1918 zum habsburgischen Herrschaftsbereich gehörten und Tschechen und Deutsche hier ihre gemeinsame Heimat hatten. In dieser Zeit wurde Tschechisch fast nur noch von Bauern in den sprichwörtlichen „böhmischen Dörfern“ gesprochen, während die Sprache der Gebildeten und der Städter Deutsch war. Am Ende des 18. bis Anfang des 19. Jahrhunderts entstand unter Führung von Josef Dobrovský und Josef Jungmann die tschechische Wiedergeburtsbewegung, die wieder eine tschechische Schriftsprache schaffen wollte und dabei eben an die Tradition vor dem 17. Jahrhundert anknüpfte.
Ebenfalls in einer diglossischen Situation leben viele Einwanderer, vor allem der zweiten Generation, in Westeuropa. In Frankreich werden sie, sofern sie maghrebinischer (und somit meist arabischsprachiger) Herkunft sind, Beurs (ein Verlan-Ausdruck für Araber) genannt. In der Schweiz werden sie – unabhängig ihrer Herkunft – Secondos genannt – benannt nach den ersten, die italienischer Herkunft waren. Weil die Elterngeneration die Landessprache nur schlecht oder überhaupt nicht beherrscht, trennen Jugendliche und Kinder ihr Kommunikationsverhalten zwischen dem äußeren landessprachlichen und dem familieninternen Bereich auf, wobei es in der Kommunikation unter den Jugendlichen selbst oft zu sprachlichen Durchmischungen kommt.
Die romanischen Sprachen entwickelten sich erst zu eigenständigen Sprachen, nachdem die Diglossie des Latein wegen des Zusammenbruchs des Römischen Reiches nicht mehr aufrechterhalten werden konnte.
Deutschschweiz – Diglossie oder Bilingualismus?
Seit vielen Jahrzehnten diskutiert die Sprachwissenschaft über die Frage, ob Standarddeutsch für Deutschschweizer nun eine Fremdsprache sei oder nicht. Die sich damit thematisch befassenden Experten sind, vereinfacht gesagt, in zwei Lager aufgeteilt: Diejenigen, welche die schweizerdeutschen Dialekte für eine Varietät einer gemeindeutschen Sprache, also nicht für eine eigenständige Sprache halten, und diejenigen, welche den schweizerdeutschen Dialekten so viel sprachliche Eigentümlichkeit und/oder Ausgebautheit attestieren, dass im Gegenzug Standarddeutsch eher als Fremdsprache zu betrachten sei. Während erstere sich in der Regel dafür entscheiden, die schweizerische Sprachsituation anhand des Diglossie-Modells zu beschreiben, halten letztere die Beschreibung des deutschschweizerischen Sprachzustands anhand des Bilingualismus-Modells meist für angemessener.
Argumente in der Tendenz für Diglossie
Für Beat Siebenhaar und Alfred Wyler scheint ganz klar zu sein, dass die deutschsprachige Schweiz als digloss gilt: „Die Sprachsituation der Deutschschweiz entspricht somit dem Muster der Diglossie: In einer Sprachgemeinschaft werden zwei Formen der gleichen Sprache verwendet, eine hochsprachliche und eine volkssprachliche, und jede Sprachform hat unterschiedliche Geltungsbereiche. Dabei sind die Sprachformen immer deutlich voneinander unterschieden, Misch- und Übergangsformen gibt es kaum.“ Dem Standarddeutschen Fremdsprachencharakter zuzuschreiben lehnen sie klar ab: „Die Unterschiede zwischen den schweizerdeutschen Dialekten und der Hochsprache sind vor allem in der Lautung, aber auch in den grammatischen Formen derart groß, dass immer wieder behauptet wird, die Hochsprache sei für Schweizer eine Fremdsprache, die sie in der Schule erst mühsam erlernen müssten, während die Deutschen sie von allem Anfang an beherrschten. Diese Meinung ist jedoch falsch. Auch in Deutschland müssen sich die Kinder in der Schule im Gebrauch der schriftnahen Hochsprache üben, selbst dort, wo die Umgangssprache nur einen kleinen Abstand zur Hochsprache hat. Überdies lässt die enge Verwandtschaft zwischen den beiden Sprachformen kaum zu, das Schweizerdeutsche als selbständige Sprache zu bezeichnen, trotz lautlicher Unterschiede, welche die Verständigung durchaus in Frage stellen. Die Gemeinsamkeiten im Wortschatz und in der Syntax sind zudem viel größer als zwischen dem Deutschen und nahe verwandten Fremdsprachen wie etwa dem Niederländischen oder dem Englischen.“ Siebenhaar fügt dem hinzu, dass zwar eine Tendenz zur medialen Diglossie bestehe, diese aber nur für den Nähebereich zutreffe (vgl. Siebenhaar 03).
Auch Peter Sieber und Horst Sitta (1986: 33 f) sind gegen eine Kategorisierung als Fremdsprache. Obwohl sie der Ansicht sind, dass die Frage, ob Standarddeutsch als Fremdsprache zu bezeichnen ist, letztlich eine politische und keine linguistische Frage sei, plädieren sie dafür, die Standardsprache nicht als Fremdsprache zu bezeichnen, vor allem deshalb, weil die Standardsprache im schriftlichen Bereich einen klar festen Platz hat. Darüber hinaus sei es aus Sicht der angewandten Linguistik sehr ratsam, diesem Gedankengebilde, wonach Standarddeutsch eine Fremdsprache sei, kategorisch entgegenzutreten, um die Bereitschaft der Deutschschweizer, Standarddeutsch zu lernen und anzuwenden, nicht zusätzlich zu vermindern. Ulrich Ammon (1995) vertritt im Gegensatz zu Arthur Baur und Iwar Werlen die Meinung, dass die Ausgebautheit per se der schweizerdeutschen Dialekte nicht Kriterium genug ist, um die schweizerdeutschen Dialekte als eigenständige Sprachen zu bezeichnen. Die mangelnde Standardisiertheit, der zu geringe sprachsystematische Abstand zu den anderen deutschen Varietäten und der Gebrauch der alemannischen Dialekte auch auf bundesdeutschem und österreichischem Terrain erlauben es nicht, Standarddeutsch aus der Sicht von Deutschschweizern als Fremdsprache zu betrachten. Auch Walter Haas (2004) ist von der diglossischen Situation überzeugt und hält fest, dass es bei der Mundart und der Standardsprache um einen Extremfall der Registervariation handelt: Beide Varianten erfüllen zwei verschiedene stilistische Grundfunktionen, Nähe und Distanz. Außerdem sei die Situation mit der Bilingualismus-Situation mit zwei unähnlichen Sprachen nicht zu vergleichen.
Argumente in der Tendenz für Bilingualismus
Arthur Baur (1983: 37–41, 64f.) vertritt die Meinung, dass die Standardsprache in der Schweiz als Fremdsprache einzustufen sei mit der Begründung, dass die schweizerdeutschen Dialekte voll ausgebaut sind. Das heißt, die Dialekte sind so weit entwickelt, dass sie in jeder Kommunikationssituation, wie z. B. in fachlichen oder amtlichen Kontexten, problemlos verwendet werden können. Dass sich die Dialekte so ausbauen konnten, hängt auch damit zusammen, dass das Schweizerdeutsche ein Sprachprestige besitzt und funktional stilistisch differenzieren kann, wie dies bei anderen Nationalsprachen der Fall ist. Darüber hinaus hält Baur fest, dass ein nennenswerter sprachsystematischer Abstand zwischen Dialekt und Standardsprache bezüglich Lautung, Grammatik und Lexik besteht. All diese Eigenschaften der Dialekte lassen ihn zum Schluss kommen, dass die schweizerdeutschen Dialekte als eine eigenständige, voll ausgebaute Sprache zu betrachten sind. Auch Roland Ris (1990) ist der Ansicht, dass die Bedingungen für eine Diglossiesituation nach dem klassischen Modell von Ferguson mit High- und Low-Variante nicht mehr gegeben sind: „Mit dem Abbau der schichtenspezifischen Markierung beim Gebrauch der Mundart überhaupt und der weitgehenden Neutralisierung ihrer früher stark wahrgenommenen Varietäten einerseits und der Durchlässigmachung der ursprünglich situativen Aufteilung zwischen Hochdeutsch und Mundart andererseits, ist es nicht mehr sinnvoll, das traditionelle Diglossiemodell zu verwenden. Es ist vielmehr davon auszugehen, dass der Deutschschweizer über jedes Thema in fast jeder Situation Mundart spricht. […] Wenn wir diesen Tatbestand möglichst sine ira et studio [ohne Zorn und Eifer] betrachten, müssen wir feststellen, dass die gesprochene Mundart nahezu all die Funktionen wahrnimmt, die anderswo einer gesprochenen Hochsprache zukommen, und das impliziert wiederum, dass das gesprochene Hochdeutsch in der Schweiz im internen Gebrauch nicht mehr als komplementäre Sprachform im Sinne des Diglossiemodells funktioniert, sondern als Zweitsprache im Sinne des Bilingualismusmodells, die man in gewissen Kommunikationssituationen mehr noch verwenden darf als verwenden muss.“ Dessen ungeachtet hält er fest, dass es kein für alle Deutschschweizer verbindliches Sprachgefühl gibt und dass auch anzunehmen ist, dass vor allem für gebildete Ältere oder für solche, die engen Kontakt mit Deutschen haben, nach wie vor das Diglossie-Modell gilt (vgl. Ris 1990: 43–44). Wie Baur kommt auch Iwar Werlen (1998) zum Schluss, dass beide Varietäten voll ausgebaut sind, auch wenn sich Unterschiede bezüglich Literalität und Oralität, Rezeption und Produktion, massenmedialer und persönlicher Gebrauchssituation und bei ihrer Verwendung in In- und Outgroup-Kommunikation feststellen lassen. Er glaubt, das Konzept der Diglossie sei nicht (mehr) angemessen und zieht es vor, den schweizerdeutschen Sprachzustand als asymmetrische Zweisprachigkeit zu bezeichnen (vgl. Hägi/Scharloth 2005). Gleich wie Werlen, glaubt auch Raphael Berthele (2004), dass das Diglossie-Modell nach Ferguson die Deutschschweiz nur ungenügend beschreibt. Außerdem weist er darauf hin, dass die Mehrheit der Deutschschweizer selber Standarddeutsch als Fremdsprache empfindet. Deshalb erscheint es ihm sinnvoller, die deutschsprachige Schweiz anhand des Bilingualismus-Modells zu beschreiben (vgl. Hägi/Scharloth 2005).
Die Resultate einer Fragebogenerhebung von Scharloth aus dem Jahr 2003, wonach Deutschschweizer nach ihrem persönlichen Verhältnis und dem der Deutschschweizer allgemein zur Standardsprache befragt wurden, erlauben es, trotz des stichprobenartigen Charakters dieser Untersuchung, einige Tendenzen bei der Selbsteinschätzung und der des Kollektivs herauszulesen. Diese Tendenzen könnten auch als Argument für den Fremdsprachencharakter des Standarddeutschen interpretiert werden. 79 Prozent der Befragten bejahten die Frage, wonach Standarddeutsch für die Deutschschweizer die erste Fremdsprache sei. Nur 6 Prozent der Befragten gaben an, dass in der Schweiz gutes Hochdeutsch gesprochen werde. 76 Prozent attribuierten den Sprechern nur mäßige mündliche Hochsprachkompetenz. Gar 18 Prozent entschieden sich für das Prädikat schlecht. Daraus könnte man ableiten, dass die Zahlen tendenziell eher das Bilingualismus-Modell stützen. Doch auf die Frage, ob denn nun Hochdeutsch für sie persönlich eine Fremdsprache darstelle, bejahten dies nur noch 30 Prozent. Bei der Frage, die einerseits Aufschluss über die Selbsteinschätzung der individuellen mündlichen Kompetenz in der Standardsprache geben und andererseits die Kompetenz des Kollektivs beurteilen soll, waren die Ergebnisse ähnlich gegensätzlich. Folglich kann man sagen, dass der durchschnittliche Deutschschweizer seine eigene Deutschkompetenz höher einstuft als die seiner Mitbürger. Insofern erweist es sich abschließend als fraglich, ob die Selbsteinschätzung der Deutschschweizer als Argument für den Fremdsprachencharakter gültig gemacht werden kann. (vgl. Scharloth 2003)
Situation in den arabischen Staaten
Im Arabischen besteht ebenfalls eine deutliche Trennung zwischen Hochsprache und Umgangssprache. Geschriebene Texte, sowohl religiöser als auch profaner Art, sind größtenteils im Hocharabischen verfasst. Demgegenüber bedienen sich arabische Muttersprachler im mündlichen Sprachgebrauch größtenteils ihres Dialekts; auch Spielfilme und Lieder sind meist in der Umgangssprache. Diese Trennung (Hocharabisch als geschriebene, Dialekt als gesprochene Sprache) wird in bestimmten Situationen aufgehoben, beispielsweise wenn ein geschriebener Text rezitiert oder eine sprachlich anspruchsvolle Rede gehalten werden soll. Umgekehrt wird der Dialekt in der Volksdichtung oder bei der Wiedergabe von Dialogen in Romanen verschriftlicht, um eine größere Volksnähe bzw. Authentizität auszudrücken.
Hochsprache und lokale Dialekte unterscheiden sich trotz der gemeinsamen Wurzeln sowohl in der Grammatik als auch in der Lexik. Auch zwischen den einzelnen arabischen Dialekten bestehen Unterschiede, sodass das Hocharabische als Sprache des Korans und als gemeinsame Sprache aller Araber weiterhin gelehrt wird. Die Aufspaltung zwischen der synthetisch aufgebauten klassischen Schriftsprache und den arabischen Dialekten, die einen analytischen Sprachbau aufweisen, geht auf die Ausbreitung des Islams im 7. und 8. Jahrhundert zurück und beruht in erster Linie auf dem Kontakt mit Griechisch und Persisch sprechenden Völkern. Bis heute wird jede neue Generation von Arabischsprechern in diese Diglossie hineingeboren.
Friesisch in den Niederlanden
Bis die Friesische Sprache 1956 offiziell von dem niederländischen Staat als Reichssprache anerkannt wurde, war das Friesische vor allem eine Haus- und Familiensprache. In der Kirche, beim Gericht und in der Schule wurde ausschließlich Niederländisch gesprochen und geschrieben. Seit der Anerkennung, wurde Friesischsprachigen die Möglichkeit geboten sich im Justizsystem beim Gerechtshof Arnhem-Leeuwarden auch auf Friesisch zu äußern und wurde die friesische Sprache, innerhalb Frieslands, auch im Unterricht und in der Kommunalpolitik mit dem Standardniederländisch gleichgesetzt.
Aramäische Diglossie
Auch im Aramäischen besteht eine Trennung zwischen Hoch- und Umgangssprache. Im Gebiet des Tur 'Abdîn wurde vor den massiven Auswanderungen der dort ansässigen Aramäer die klassisch-syrische Hochsprache (Kthobonoyo) vor allem als Kirchensprache und nicht im Alltag verwendet, wohingegen die eigentliche Muttersprache der Bevölkerung das nur gesprochene und allgemein nicht geschriebene, neuostaramäische Ṭuroyo war. Mit der Außenwelt sprachen die Aramäer die Staatssprache, Türkisch, deren Kenntnis im Alltag unerlässlich war, sowie mit der Mehrheitsbevölkerung im türkischen Südosten Kurdisch. Kthobonoyo wird nicht mehr als Muttersprache gelernt und ist daher als tote Sprache anzusehen, lebt jedoch als eine der „großen Kultursprachen der Menschheit“ in der Wissenschaft weiter, da sie an Universitäten weltweit studiert und erforscht wird und ein umfangreiches Textkorpus in dieser Sprache existiert, und wird als Sprache der syrisch-orthodoxen Kirche nach wie vor im Gottesdienst verwandt. Ṭuroyo hingegen gilt als bedrohte Sprache, da modernes Aramäisch in den Ländern der aramäischen Diaspora einen sehr geringen Status hat, nicht alle Nachkommen der Auswanderer die Sprache ihren Kindern beibringen und Ṭuroyo im Gegensatz zur Sakralsprache eine schriftlose Sprache ist und daher kaum schulisch vermittelt werden kann.
Diglossien in Literatur und Film
Der Schriftsteller und Literaturnobelpreisträger Thomas Mann zeigt in seinem Roman Buddenbrooks als Randthema die Diglossie der Männer der Lübecker Kaufmannsfamilie Buddenbrook im 19. Jahrhundert, die untereinander, in der Familie und im Geschäftsverkehr Hochdeutsch reden, jedoch zu ihren Arbeitern auf Platt sprechen (müssen). Auch die Verfilmung von 2008 zeigt dies recht eindrucksvoll.
Rheinische Diglossien klingen immer wieder an in Werken des Literaturnobelpreisträgers Heinrich Böll, so zum Beispiel in Ende einer Dienstfahrt. Diese Novelle ist äußerlich in trockenstem Protokollstil, fast Juristendeutsch, geschrieben. Durch Bölls ständige, oft kaum übersetzbare Einsprengsel lebendiger Lokalsprache erhält das Werk eine weitere, oft kabarettistisch anmutende Ebene. Es wird etwa über eine Zeugin, nach umständlicher Vorstellung, im Nebensatz gesagt: „von Verwandten und im Dorf nur ‚die Kroserin‘ genannt“. Durch den Gegensatz zwischen den auf den Punkt genauen Worten des ripuarischen Dialekts und ihren erkennbar mühseligen Annäherungen durch Erklärung und Umschreibungen in der noch sehr preußischen Obrigkeitssprache der späten 1950er- und frühen 1960er-Jahre erschließt sich die Diglossiesituation des Kölner Umlandes dieser Zeit, ohne die eine Erzählung in der Art unmöglich gewesen wäre.
Siehe auch
U English
Literatur
Ursula Reutner: Vers une typologie pluridimensionnelle des francophonies. In: Ursula Reutner: Manuel des francophonies. De Gruyter, Berlin/Boston 2017, ISBN 978-3-11-034670-1, S. 9–64.
Weblinks
Einzelnachweise
Mehrsprachigkeit
Soziolinguistik
|
Q59203
| 106.994593 |
5837
|
https://de.wikipedia.org/wiki/2001
|
2001
|
Das Jahr 2001 war das erste Jahr des 21. Jahrhunderts. Das prägendste Ereignis waren die Terroranschläge am 11. September auf das World Trade Center und das Pentagon in den USA, bei denen rund 3000 Menschen ums Leben kamen. Die Anschläge werden häufig als historische Zäsur bezeichnet und sorgten sowohl in den USA als auch in Europa für immer noch anhaltende Debatten um innen- wie außenpolitische Veränderungen. Sie führten den Krieg in Afghanistan in eine neue Phase und dienten als Begründung für den zwei Jahre später begonnenen Irakkrieg. Ausgehend von dem Ereignis stiegen die Spannungen zwischen der muslimischen und der westlichen Welt.
Ereignisse
Politik und Weltgeschehen
Januar
Januar: das erste Weltsozialforum der Globalisierungsgegner in Porto Alegre, Brasilien
1. Januar: Moritz Leuenberger wird Bundespräsident der Schweiz.
1. Januar: Griechenland. Beitritt zur Wirtschafts- und Währungsunion – Griechenland ist damit der zwölfte Staat, der den Euro als Buchgeld einführt.
2. Januar: Die Bundeswehr beginnt mit der Grundausbildung von Frauen an der Waffe.
3. Januar: Erste Sitzung des im November neugewählten US-Repräsentantenhauses sowie des US-Senates. Für die nächsten 17 Tage war ein Ehepaar erstmals in der Geschichte der USA sowohl in der Exekutive (Präsident Bill Clinton) als auch in der Legislative (Senatorin Hillary Clinton) vertreten.
6. Januar: Die Thai-Rak-Thai-Partei des Telekomunternehmers Thaksin Shinawatra gewinnt die Parlamentswahlen in Thailand.
6. Januar: Ariel Scharon wird zum neuen Ministerpräsidenten von Israel gewählt.
6. Januar: US-Vizepräsident Al Gore gibt als Vorsitzender des US-Senates das Ergebnis der Wahl zum US-Präsidenten bekannt: George W. Bush erhielt 271 Stimmen, Al Gore selbst 266. Ein demokratischer Wahlmann stimmte nicht für Gore.
7. Januar: John Agyekum Kufuor wird Staatspräsident von Ghana.
14. Januar: Jorge Sampaio wird als Staatspräsident in Portugal in seinem Amt bestätigt.
15. Januar: Die Englischsprachige Wikipedia wird gegründet.
17. Januar: Kaliforniens Gouverneur Gray Davis erklärt wegen der Elektrizitätskrise den Ausnahmezustand im größten US-Bundesstaat.
20. Januar: Gloria Macapagal-Arroyo wird Staatspräsidentin auf den Philippinen.
20. Januar: George W. Bush wird zum neuen Präsidenten der USA vereidigt.
25. Januar: Armenien wird in den Europarat aufgenommen.
25. Januar: Aserbaidschan wird in den Europarat aufgenommen.
26. Januar: Demokratische Republik Kongo. Joseph Kabila wird Staatspräsident.
Februar
2. Februar: José Maria Neves wird Premierminister von Kap Verde.
7. Februar: Ariel Scharon wird Ministerpräsident von Israel.
16. Februar: US-amerikanische und britische Kampfflugzeuge bombardieren Ziele nahe Bagdad, da der Irak gegen das Flugverbot verstoßen habe.
16. Februar: Bei einem Anschlag auf einen serbischen Bus im Kosovo kommen zwölf Menschen ums Leben.
20. Februar: Erste Kommunalwahlen im Jemen
25. Februar: Pedro Pires wird Staatspräsident vom Kap Verde.
25. Februar: Republik Moldau. Parlamentswahlen
26. Februar: Der Vertrag von Nizza, die Vorbereitung der Erweiterung der EU betreffend, wird unterzeichnet. Er tritt 2003 in Kraft.
März
4. März: In einer Volksabstimmung der Schweiz stimmen 76,8 % der Wahlbeteiligten gegen die Verfassungsinitiative Ja zu Europa und damit gegen EU-Beitrittsverhandlungen der Schweiz. Die Wahlbeteiligung lag bei 55,8 %.
7. März: Dileita Mohamed Dileita wird Premierminister in Dschibuti.
12. März: Die UNESCO bestätigt, dass Taliban die beiden größten aus dem 5. Jahrhundert n. Chr. stammenden Buddha-Statuen der Welt, die Buddha-Statuen von Bamiyan in Afghanistan zerstört haben.
16. März: Der Streit zwischen Katar und Bahrein um die Hawar-Inseln wird beendet durch ein Urteil des Internationalen Gerichtshofs.
16. März: Die deutschsprachige Wikipedia wird gegründet.
27. März: Boungnang Vorachith wird Ministerpräsident von Laos.
31. März: Sturz des Staatspräsidenten Bernard Dowiyogo von Nauru durch Misstrauensvotum
April
4. April: Vladimir Voronin wird Staatspräsident der Republik Moldau.
4. April: Silvia Cartwright wird Generalgouverneurin (Staatsoberhaupt) von Neuseeland.
4. April: In Berlin wird von der deutschen Bundesregierung der Rat für Nachhaltige Entwicklung zur dauernden Beratung in Fragen der Nachhaltigkeit und der Nachhaltigkeitsstrategie eingesetzt.
15. April: Der Investitionsschutz- und Förderungsvertrag zwischen Deutschland und El Salvador tritt in Kraft.
21. April: Die Einfuhr bestimmter Hunderassen nach Deutschland wird im Gesetz zur Bekämpfung gefährlicher Hunde unter Strafandrohung verboten. Der Gesetzgeber reagiert damit auf vermehrte, teils tödliche, Angriffe von Kampfhunden auf Menschen.
28. April: Bei einem Hinterhalt verüben albanische Rebellen der paramilitärischen Organisation UÇK das Massaker von Vejce, wobei 8 mazedonische Spezialkräfte auf bestialischer Art und Weise ermordet wurden. Dieses Ereignis trug maßgeblich zur Eskalation des Mazedonien-Konflikts 2001 bei.
29. April: Parlamentswahlen in Senegal
Mai
8. Mai: Serbien und Montenegro wird Mitglied in der Weltbank.
13. Mai: Parlamentswahlen in Italien. Wahlsieg der Partei Forza Italia unter Silvio Berlusconi. Dieser wird Regierungschef.
13. Mai: Mazedonien. 6. Regierungsumbildung
22. Mai: Taliban erwägen, Hindus in Afghanistan zum Tragen einer Markierung zu verpflichten.
22. Mai: Die Innenminister der MEPA-Staaten unterzeichnen die „Gemeinsame Erklärung“, in der Organisation und Tätigkeiten der Mitteleuropäischen Polizeiakademie geregelt werden.
29. Mai: König Abdullah II. von Jordanien ist auf Staatsbesuch in Deutschland.
Juni
1. Juni: Interimsabkommen zwischen Mazedonien und der EU
1. Juni: Blutbad in Nepal. König Birendra und fast die ganze Familie werden durch den Sohn Birendras getötet, der sich anschließend selbst tötet.
1. Juni: Das Übereinkommen zum Schutz der Wale des Schwarzen Meeres, des Mittelmeeres und der angrenzenden Atlantischen Zonen (ACCOBAMS) tritt in Kraft.
4. Juni: Prinz Gyanendra Bir Bikram wird König von Nepal.
7. Juni: Bei den britischen Unterhauswahlen feiert die Labour Party bei einer geringen Wahlbeteiligung einen großen Wahlsieg. Tony Blair wird damit zum ersten Premierminister der Labour Party, der nach einer vollen Amtszeit im Amt bestätigt wird.
8. Juni: Iran. Wiederwahl von Mohammad Chātami zum Staatspräsidenten
15. Juni: Die deutsche Bundes-Stiftung „Erinnerung, Verantwortung und Zukunft“ beginnt mit der Zahlung finanzieller Entschädigungen für Zwangsarbeit in der Zeit des Nationalsozialismus.
15. und 16. Juni: In Göteborg findet ein Treffen des Europäischen Rats statt.
16. Juni: Berlins Regierender Bürgermeister Eberhard Diepgen wird durch ein Misstrauensvotum im Zusammenhang mit dem Berliner Bankenskandal gestürzt. Sein Nachfolger wird Klaus Wowereit.
17. Juni: Parlamentswahlen in Bulgarien
20. Juni: Pervez Musharraf wird Staatsoberhaupt in Pakistan.
20. Juni: Pakistan. Das Parlament wird aufgelöst.
21. Juni: Der Deutsche Bundestag beschließt als eine Folge früherer Pflegeskandale das Pflege-Qualitätssicherungsgesetz. Pflegeeinrichtungen werden darin unter anderem verpflichtet, ein Qualitätsmanagement aufzubauen und müssen sich Prüfungen zu Leistungs- und Qualitätsnachweisen stellen.
24. Juni: Ilir Meta wird Regierungschef in Albanien.
26. Juni: Bundeskanzler Gerhard Schröder besucht Laibach in Slowenien.
28. Juni: Rumänien erhält einen Beobachterstatus in der OECD.
28. Juni: Jugoslawien. Auslieferung von Ex-Präsident Slobodan Milošević an den Internationalen Strafgerichtshof
Juli
2. Juli: Nach der Kreil-Entscheidung des Europäischen Gerichtshofs beginnen die ersten Frauen bei der deutschen Bundeswehr mit einer Offizierslaufbahn.
6. Juli: Weitere Länder erhöhen bei einer Konferenz in Genf, Schweiz, die an Burundi durch Frankreich zugesagten 440 Mio. USD auf 830 Mio. USD
20.–22. Juli: In Genua findet der G8-Wirtschaftsgipfel statt. Er erlangt Bekanntheit aufgrund der Brutalität von Teilen der italienischen Polizei und der Demonstranten
23. Juli: Indonesien. Abdurrahman Wahid verliert sein Amt als Präsident. Frau Megawati Sukarnoputri wird neue Präsidentin
24. Juli: Bulgarien. Der ehemalige Zar Simeon II. wird zum Ministerpräsidenten gewählt
28. Juli: Alejandro Toledo Manrique wird Staatspräsident in Peru
August
5. August: Taliban schließen eine Shelter Now International Agentur in Afghanistan und nehmen 24 Mitarbeiter fest, da diese versucht hätten, Muslime zum Christentum zu missionieren. Diese Tätigkeit kann in Afghanistan mit dem Tode bestraft werden
6. August: Bolivien. Präsident Banzer tritt wegen schwerer Krankheit zurück
13. August: Mazedonier und Albaner schließen das Rahmenabkommen von Ohrid
14. August: Mexiko. Verfassungsänderung tritt in Kraft
27. August: Mazedonien. Beginn NATO-Operation „Essential Harvest“ (Waffeneinsammeln)
30. August: Wahlen für die verfassunggebende Versammlung in Osttimor
September
2. September: France-Albert René wird als Staatspräsident auf den Seychellen in seinem Amt bestätigt
10. September: Parlamentswahlen in Norwegen
11. September: Terroranschläge am 11. September 2001 in den USA auf das World Trade Center und das Pentagon in den USA fordern rund 3000 Todesopfer
15. September: Ein Amokläufer ermordet in Mesa, Arizona, den amerikanischen Unternehmer Balbir Singh Sodhi, weil er den bekennenden Sikh für einen Muslim hielt.
18. September: In den Vereinigten Staaten setzt mit dem Versand der ersten Briefe mit Milzbranderregern die Serie der Anthrax-Anschläge ein.
21. September: Arnold Rüütel wird Staatspräsident in Estland
23. September: Parlamentswahlen in Polen
24. September: Das Freihandelsabkommen zwischen Jordanien und USA tritt in Kraft
27. September: Beim Zuger Attentat werden 14 Politiker von Friedrich Leibacher mit einem Sportgewehr ermordet
Oktober
2. Oktober: Die Flotte der Swissair blieb auf dem Boden, da Swissair den laufenden Flugbetrieb nicht mehr finanzieren kann. Das durch Phoenix herbeigeführte sogenannte Grounding war eingetroffen und hatte die gesamte schweizerische Nation schockiert. Der Schaden des gesamten Groundings beträgt ca. 21 Millionen Franken.
4. Oktober: Mazedonien. Beginn NATO-Operation „Amber Fox“
7. Oktober: Als Reaktion auf die Anschläge vom 11. September beginnen die USA mit der Operation Enduring Freedom
11. Oktober: König Abdullah II. von Jordanien auf Staatsbesuch in Deutschland
15. Oktober: Japans Regierungschef Jun’ichirō Koizumi entschuldigt sich in Südkorea mit einer Kranzniederlegung für von Japanern verübte Gräuel während der Besetzung Koreas zwischen 1910 und 1945.
17. Oktober: Der israelische Tourismusminister Rechaw’am Ze’ewi stirbt bei einem Attentat. Es wird verübt von der Volksfront zur Befreiung Palästinas während der Zweiten Intifada.
19. Oktober: Parlamentswahlen in der Mongolei
19. Oktober: Kjell Magne Bondevik wird Ministerpräsident in Norwegen
19. Oktober: Leszek Miller wird Regierungschef in Polen
20. Oktober: Serbien und Montenegro wird Mitglied im IWF (Internationaler Währungsfonds)
29. Oktober: Das Stabilisierungs- und Assoziierungsabkommen zwischen Kroatien und der EU wird in Luxemburg unterzeichnet
November
3. November: Neuwahlen in Singapur
4. November: In Nordirland löst der Police Service of Northern Ireland die Royal Ulster Constabulary als Polizei ab.
5. November: Parlamentswahlen in Aserbaidschan
6. November: Der Milliardär Michael Bloomberg wird von den Wählern zum Nachfolger von Rudolph Giuliani als Bürgermeister von New York City bestimmt.
10. November: Australien. Wahlen zum Repräsentantenhaus
24. November: Aserbaidschan. Murtuz Aleskerov wird zum Parlamentspräsident gewählt
25. November: Leonie Aviat wird von Papst Johannes Paul II. heiliggesprochen.
27. November: Beginn der Afghanistan-Konferenz „UN Talks on Afghanistan“ auf dem Petersberg bei Königswinter
30. November: Mazedonien. 7. Regierungsumbildung
Dezember
1. Dezember: Die Parlamentswahl in Taiwan endet mit Gewinnen der Demokratische Fortschrittspartei des im Vorjahr gewählten Präsidenten Chen Shui-bian.
2. Dezember: Volksabstimmung in der Schweiz über Abschaffung der Armee
5. Dezember: Die United National Front gewinnt die Parlamentswahl in Sri Lanka.
8. Dezember: Verabschiedung des „EU-Japan-Action-Plans“
11. Dezember: Die Volksrepublik China tritt der Welthandelsorganisation WTO bei.
13. Dezember: Auf das Indische Parlament in Neu-Delhi wird ein terroristischer Anschlag verübt, dem 14 Menschen einschließlich der Täter zum Opfer fallen.
14. Dezember: In Frankreich werden als erstem Land Euro-Starterkits im Nennwert von 15,25 Euro zum Preis von 100 Französischen Franc ausgegeben. Bezahlen kann man mit den Münzen jedoch erst ab dem 1. Januar 2002.
16. Dezember: Parlamentswahlen in Chile
16. Dezember: Präsidentschaftswahl in Madagaskar
17. Dezember: In Deutschland werden die Euro-Starterkits im Nennwert von 10,23 Euro zum Preis von 20,00 Deutsche Mark ausgegeben.
19. Dezember: In der Argentinien-Krise kommt es in Buenos Aires zum Gewaltausbruch bei von der Bevölkerung massiv unterstützten Cacerolazos gegen das Beschränken von Bargeldauszahlungen. Den Folgetag eingerechnet sterben dabei 28 Menschen. Die Regierung lässt im sogenannten Corralito maximal nur 250 Pesos pro Woche pro Konto abheben, um die Flucht in den US-Dollar einzuschränken.
19. Dezember: In der Mongolei werden im Ort Tosentsengel 1.085,7 Hektopascal Luftdruck gemessen, der weltweit bislang höchste Wert.
20. Dezember: Der Grundwehrdienst in der deutschen Bundeswehr wird vom Parlament von zehn auf neun Monate verkürzt.
22. Dezember: Der Deutsche Bundestag stimmt der Entsendung deutscher Streitkräfte zur Umsetzung der Resolution 1386 des UN-Sicherheitsrates mit großer Mehrheit zu. Die Truppenentsendung nach Afghanistan bedeutet den ersten außereuropäischen Kampfeinsatz für Bundeswehrangehörige.
22. Dezember: In Kabul wird Hamid Karsai zum Chef der Übergangsregierung ernannt
23. Dezember: Komoren. Annahme der neuen Verfassung durch Referendum
27. Dezember: Wahlen in Sambia
31. Dezember: Lettland. Die OSZE-Beobachtung wird beendet
Wirtschaft
2. Januar: Die Volvo-Gruppe erwirbt die Nutzfahrzeugsparte von Renault. Es entsteht Europas größter Nutzfahrzeughersteller.
7. März: Algerien und Deutschland schließen ein Seeschifffahrtsabkommen.
18. März: Die Gewerkschaft Ver.di wird in Berlin gegründet.
29. März: Der Flughafen Incheon, Südkoreas größter Flughafen, wird eröffnet.
11. Juni: In der deutschen Atompolitik wird ein Wandel verbindlich. Die Bundesregierung und vier Betreibergesellschaften von Kernkraftwerken schließen die Übereinkunft zum Ausstieg aus der Kernenergie auf der Basis des Atomkonsenses vom 14. Juni 2000.
23. Juli: Übernahme der Dresdner Bank durch die Allianz AG
25. Juli: In Deutschland gibt es mit Ausnahme der Buchpreisbindung nunmehr keine staatlichen Einschränkungen für das Gewähren von Rabatt oder Naturalrabatt. Das seit 1933 geltende Rabattgesetz und die Zugabeverordnung sind aufgehoben.
14. September: Die im australischen Inlandsverkehr starke Fluggesellschaft Ansett Australia muss wegen geringerer Passagierzahlen nach den Terroranschlägen in den USA ihren Flugverkehr einstellen. Ihre Insolvenz ist die Folge.
17. September: Die Terroranschläge am 11. September 2001 führen zu einem schweren Einbruch der Börsenkurse im Land.
2. Oktober: Die Flugzeuge der Swissair bleiben am Boden, da Swissair den laufenden Flugbetrieb nicht mehr finanzieren kann.
4. Oktober: Die Chapf genannte Felsnase an der Straße über den Grimselpass wird gesprengt. Die bis dahin größte Sprengung der Schweizer Geschichte entfernt 150.000 Kubikmeter Gestein und bannt die Gefahr weiterer Felsstürze.
18. Oktober: Der kommerziell genutzte Erdbeobachtungssatellit QuickBird wird von der Vandenberg Air Force Base aus in den Orbit gestartet.
28. November: Der Energieversorger E.ON Bayern entsteht mit Sitz in Regensburg aus dem Zusammenschluss der regionalen Unternehmen Isar-Amperwerke, Energieversorgung Oberfranken, OBAG, Überlandwerk Unterfranken und dem Großkraftwerk Franken.
Fusion der Walter Bau AG mit Dywidag
Wissenschaft und Technik
9. Januar: Die Volksrepublik China startet in der Mission Shenzhou 2 ein Raumschiff in eine Erdumlaufbahn. Neben geplanten wissenschaftlichen Experimenten erfolgt ein Test der Lebenserhaltungssysteme des Raumschiffs durch drei im Inneren der Wiedereintrittskapsel untergebrachte Tiere.
12. Februar: Die US-amerikanische Raumsonde NEAR landet nach einem Jahr im Orbit um den Asteroiden Eros erfolgreich auf dessen Oberfläche
15. Februar: Im Rahmen des Humangenom-Projektes wird eine vorläufige Arbeitsversion des gesamten menschlichen Genoms vorgestellt
10. März: Die Free Software Foundation Europe wird gegründet
23. März: Nach 15 Jahren in der Umlaufbahn wird die Raumstation Mir gezielt zum Absturz gebracht und verglüht über dem Pazifik
28. April: 8. Mai: Dennis Tito, der erste Weltraumtourist der Raumfahrtgeschichte, absolviert seinen Raumflug zur Internationalen Raumstation ISS
21. Juni: Totale Sonnenfinsternis im südlichen Afrika
26. Juni: Der Grundstein für die Ukrainische Katholische Universität wird in Anwesenheit von Papst Johannes Paul II. in Lemberg gelegt.
15. August: Nach über 60 Jahren startet Zeppelin mit dem Zeppelin NT wieder den Passagierflugbetrieb
24. August: Auf dem Weg von Toronto nach Lissabon geht einem Airbus A330 auf dem Air-Transat-Flug 236 über dem Atlantik der Kraftstoff aus. Nach dem bislang längsten Gleitflug eines Strahlflugzeugs können die Piloten die Maschine mit 293 Passagieren und 13 Besatzungsmitgliedern an Bord auf der Azoreninsel Terceira notlanden.
9. Oktober: Die Sueskanal-Brücke über den Sueskanal wird vom ägyptischen Staatspräsidenten Husni Mubarak feierlich freigegeben.
22. Oktober: Der deutsche BIRD-Satellit wird in seine Umlaufbahn gebracht. Er kann auf der Erde Brände durch deren Infrarotstrahlung entdecken.
23. Oktober: Der iPod von Apple kommt auf den Markt.
25. Oktober: Microsoft veröffentlicht Windows XP als erstes Privatnutzersystem der NT-Reihe.
30. November: Der erste Mensch, dessen Herz vollständig durch ein Herzimplantat ausgetauscht wurde, stirbt am 152. Tag nach Einpflanzen des künstlichen Organs in einem Hospital in Louisville (Kentucky).
7. Dezember: Der Satellit TIMED wird zur Untersuchung der Dynamik der Erdatmosphäre von der kalifornischen Vandenberg Air Force Base aus mit einer Delta II-Trägerrakete gestartet.
14. Dezember: Ringförmige Sonnenfinsternis in Mittelamerika
22. Dezember: Die erste geklonte Katze kommt zur Welt
Das Nationalpark-Zentrum in Molln wird eröffnet. Es ist der größte Holz-Atrium Bau Österreichs
Gesellschaft
30. November: Der später verurteilte Serienmörder Gary Ridgway wird in den USA festgenommen, nachdem DNA-Spuren bei vier Opfern mit seiner Speichelprobe übereinstimmen. Dem Green River Killer sind letztlich 49 Menschen zum Opfer gefallen.
22. Dezember: Der Terrorist Richard Reid versucht, den American-Airlines-Flug 63 von Paris nach Miami mit 197 Menschen an Bord mit in seinen Schuhen verstecktem Plastiksprengstoff abstürzen zu lassen. Eine Flugbegleiterin bemerkt Reids Zündmanöver und verhindert das Attentat.
Gründung des Nationalen Ethikrats Deutschlands
Einführung des Weltmännertags
Gesellschaft, Wirtschaft und Wissenschaft: Für das Jahr 2001 sind 125 bestätigte Fälle von BSE („Rinderwahn“) in Deutschland verzeichnet.
Kultur
17. April: Gründung von Bookcrossing durch den Amerikaner Ron Hornbaker
23. Mai: Feierliche Eröffnung des Museums der Phantasie in Bernried
23. Mai: Feierliche Eröffnung der Hängenden Gärten der Bahai am Bahai-Weltzentrum in Haifa, Israel
22. Juni: Die Volxtheaterkarawane wird von der italienischen Polizei festgenommen.
22. November: Harry Potter und der Stein der Weisen startet in den deutschen Kinos
15. Dezember: Nach über elf Jahre dauernden Arbeiten zur Bauwerksicherung wird der Schiefe Turm von Pisa wieder für das Publikum zur Besteigung geöffnet
Das Paul-Löbe-Haus wird eröffnet
Erstmalige Vergabe des Kulturpreis Deutsche Sprache
Erstmaliges Stattfinden des Bundeswettbewerbes Unsere Stadt blüht auf
Das Buch Verschwende Deine Jugend, ein Doku-Roman über den deutschen Punk und New Wave, erscheint
Das National Museum of Australia wird eröffnet.
Das Museo de Arte Latinoamericano de Buenos Aires wird eröffnet.
Musik
1. Januar: Das Hip-Hop Label Aggro Berlin wird gegründet.
Mai: Das vierte Europäische Jugendchorfestival findet in Basel statt.
Melanie Thornton stirbt bei einem Flugzeugabsturz.
Audioslave wird von Chris Cornell und den Rage-Against-the-Machine-Mitgliedern gegründet.
Tanel Padar & Dave Benton gewinnen am 12. Mai in Kopenhagen mit dem Lied Everybody für Estland die 46. Auflage des Eurovision Song Contest.
Aaliyah stirbt bei einem Flugzeugabsturz, mit nur 22 Jahren.
Brandy und Ray J landen einen weltweiten Top-5-Hit mit Another Day in Paradise.
New Order veröffentlichen ihr erfolgreiches Comeback-Album Get Ready, den Nachfolger des 1993er-Albums Republic.
Siehe auch: :Kategorie:Musik 2001
Religion
21. Februar: Der spätere Papst Franziskus und Karl Lehmann, Vorsitzender der deutschen Bischofskonferenz, werden ins Kardinalskollegium aufgenommen.
Siehe auch: :Kategorie:Religion 2001
Sport
Einträge von Leichtathletik-Weltrekorden siehe unter der jeweiligen Disziplin unter Leichtathletik.
Deutscher Fußball-Meister: Männer: FC Bayern München, Frauen: 1. FFC Frankfurt
DFB-Pokalsieger: Männer: FC Schalke 04, Frauen: 1. FFC Frankfurt
Deutscher Eishockey-Meister: Männer: Adler Mannheim, Frauen: TV Kornwestheim
Eishockey-Weltmeister: Männer: Tschechien, Frauen: Kanada, U20-Junioren: Tschechien, U18-Junioren: Russland
Tour-de-France-Sieger: Lance Armstrong
Der SC Magdeburg wird als erster ostdeutscher Verein gesamtdeutscher Handballmeister.
21. Januar: Jutta Kleinschmidt gewinnt als erste Frau die Rallye Dakar
27. Januar: Vitali Klitschko gewinnt seinen Boxkampf gegen Orlin Norris in der Rudi-Sedlmayer-Halle, München, Deutschland, durch K. o.
25. Februar: Bei den Nordischen Skiweltmeisterschaften in Lahti erringt der für Spanien startende Johann Mühlegg die Goldmedaille im 50 km Freistil.
4. März bis 14. Oktober: Austragung der 52. Formel-1-Weltmeisterschaft
24. März: Wladimir Klitschko gewinnt seinen Boxkampf gegen Derrick Jefferson in der Rudi-Sedlmayer-Halle in München, Deutschland, durch technischen K. o.
6. April: Zum ersten Mal in der Geschichte der Bundesliga tritt eine Mannschaft (Energie Cottbus) ohne einen einzigen deutschen Spieler an.
8. April bis 3. November: Austragung der 53. FIM-Motorrad-Straßenweltmeisterschaft
11. April: Die australische Fußballmannschaft gewinnt ein offizielles FIFA-Fußballspiel gegen Amerikanisch-Samoa mit einem Rekordergebnis von 31:0.
22. April: Hasim Rahman gewinnt seinen Boxkampf und Weltmeistertitel im Schwergewicht gegen Lennox Lewis in Carnival City, Brakpan, Südafrika, durch K. o.
19.–26. Mai: Die VI. Arafura Games finden in Darwin, Australien, statt.
23. Mai: Der FC Bayern München gewinnt die UEFA Champions League 2000/01. Im Finale wird der FC Valencia mit 6:5 nach Elfmeterschießen besiegt.
23. Mai: Dem Franzosen Marco Siffredi gelingt als erstem Menschen eine Snowboard-Abfahrt vom Mount Everest.
23. Juni: Im Bremer Weserstadion beginnt der 22. Leichtathletik-Europacup (bis 24. Juni)
28. Juli: Bei den Schwimmweltmeisterschaften in Fukuoka erhält der Australier Ian Thorpe als erster Schwimmer bei Weltmeisterschaften sechs Goldmedaillen, drei in Einzelwettbewerben und drei als Staffelschwimmer.
4. August: Wladimir Klitschko gewinnt seinen Boxkampf gegen Charles Shufford, USA, in Mandalay Bay, Las Vegas, Nevada, USA, durch technischen K. o.
13. August: Die Arena AufSchalke wird in Gelsenkirchen eröffnet. Es ist das erste ohne öffentliche Gelder errichtete Stadion dieser Größenordnung, das der Verein FC Schalke 04 baut.
19. August: Michael Schumacher gewinnt seinen vierten Formel-1-Weltmeistertitel
17. November: Lennox Lewis gewinnt seinen Boxkampf und Weltmeistertitel im Schwergewicht gegen Hasim Rahman in Mandalay Bay, Las Vegas, Nevada, USA, durch K. o.
27. November: Bayern München gewinnt den Weltpokal 2001 gegen die Boca Juniors durch ein 1:0 n. V.
8. Dezember: Vitali Klitschko gewinnt seinen Boxkampf gegen Ross Puritty in der Arena Oberhausen, Oberhausen, Deutschland, durch technischen K. o.
Katastrophen
13. Januar: Ein Erdbeben der Stärke 7,7 in El Salvador. 852 Tote.
26. Januar: Ein Erdbeben der Stärke 7,7 in Gujarat, Indien. ca. 20.000 Tote.
13. Februar: Ein Erdbeben der Stärke 6,6 in El Salvador. 315 Tote.
15. März: Auf der brasilianischen Bohrinsel Petrobras 36 kommt es zu schweren Explosionen. Fünf Tage später sinkt die Konstruktion.
24. Mai: Bei einer Hochzeitsveranstaltung in Jerusalem gibt der Fußboden eines Veranstaltungssaales nach und stürzt, samt den darauf befindlichen Gästen, vier Stockwerke in die Tiefe. 25 Menschen kommen ums Leben, 250 werden verletzt.
23. Juni: Ein Erdbeben der Stärke 8,4 nahe der Küste von Peru. 138 Tote.
4. Juli: Vladivostok-Avia-Flug 352: In Irkutsk stürzt eine Tupolew Tu-154 der Vladivostok Avia beim dritten Landeanflugversuch ab. Alle 145 Menschen an Bord sterben.
11. September: Terroranschläge am 11. September 2001: Am Morgen des 11. Septembers 2001 wird ein terroristischer Angriff durch Islamisten gleichzeitig in New York, Washington, D.C. und in der Nähe von Pittsburgh verübt. Vier Passagierjets werden gekapert, davon werden zwei in die Türme des World Trade Centers (WTC), welches daraufhin einstürzt, und eines in das Pentagon gesteuert. Das vierte Flugzeug stürzt ab, ohne sein Ziel zu erreichen. Insgesamt sterben etwa 3.000 Menschen bei den Anschlägen.
21. September: Toulouse, Frankreich. Durch eine Explosion in Toulouse werden bei einem Chemieunfall große Teile der Stadt beschädigt; 31 Menschen sterben, mehrere tausend werden verletzt.
8. Oktober: Flugunfall von Mailand-Linate, Italien. Eine MD-87, auf dem Weg nach Kopenhagen, Dänemark, kollidiert während des Starts mit einer deutschen Cessna, welche irrtümlich im starken Nebel die falsche Landebahn benutzt. Die Maschinen geraten sofort in Flammen. Alle 118 Personen an Bord sterben, ebenso vier Mitarbeiter des Bodenpersonals.
19. Oktober: Beim Untergang eines indonesischen Fischerbootes südlich von Java, das mit 397 Menschen übervoll besetzt ist, ertrinken 353 Personen in stürmischer See, 44 können gerettet werden. Die Passagiere wollten als irakische Flüchtlinge in Australien Asyl erhalten.
24. Oktober: Brandkatastrophe im Gotthardpass-Tunnel.
12. November: Ein Airbus A300, American-Airlines-Flug 587 nach Santo Domingo, Dominikanische Republik, stürzt in New York City, USA, weniger als drei Minuten nach dem Start vom John F. Kennedy International Airport in ein bewohntes Gebiet. Alle 260 Personen an Bord sowie fünf Anwohner sterben.
24. November: Flugzeugabsturz in Bassersdorf Schweiz des Crossair-Flug 3597 mit 24 Toten
29. Dezember: Das Vorführen von Feuerwerkskörpern führt in Lima zu einer Brandkatastrophe, die 282 Tote und 134 Verletzte verursacht.
Geboren
Januar
1. Januar: Kim Sindermann, deutsche Fußballspielerin
4. Januar: Frederik Winther, dänischer Fußballspieler
5. Januar: Xavier Amaechi, englischer Fußballspieler
5. Januar: Anna Gandler, österreichische Biathletin
5. Januar: Ellis Simms, englischer Fußballspieler
7. Januar: Dennis Foggia, italienischer Motorradrennfahrer
7. Januar: Živa Klemenčič, slowenische Biathletin
9. Januar: Eric García, spanischer Fußballspieler
9. Januar: Rodrygo, brasilianischer Fußballspieler
11. Januar: Wiktor Zieliński, polnischer Poolbillardspieler
12. Januar: Marit Crajé, niederländische Handballspielerin
14. Januar: Anssi Suhonen, finnischer Fußballspieler
14. Januar: Alexander Türk, deutscher Nachwuchsschauspieler
15. Januar: Alaa Bakir, deutsch-jordanischer Fußballspieler
16. Januar: Maurice Ballerstedt, deutscher Radrennfahrer
17. Januar: Enzo Fernández, argentinischer Fußballspieler
18. Januar: Celine Rieder, deutsche Schwimmerin
18. Januar: Sebastian Priaulx, britischer Autorennfahrer
21. Januar: Jackson Brundage, US-amerikanischer Schauspieler
24. Januar: Jelena Vujičić, montenegrinische Skirennläuferin
26. Januar: Ai Ogura, japanischer Motorradrennfahrer
27. Januar: Anton Ivarsson, schwedischer Biathlet
28. Januar: Guillaume Furrer, Schweizer Fußballspieler
Februar
2. Februar: Carlos Rodríguez, spanischer Radrennfahrer
5. Februar: Oscar Schönfelder, deutscher Fußballspieler
7. Februar: Pedro De la Vega, argentinischer Fußballspieler
7. Februar: Shani Louk, deutsch-israelische Influencerin und Opfer des Hamas-Terrorismus († 2023)
10. Februar: Simon Mann, italienischer Autorennfahrer
12. Februar: Nicolò Fagioli, italienischer Fußballspieler
13. Februar: Jonáš Mareček, tschechischer Biathlet
14. Februar: Klaudia Pintér, ungarische Handballspielerin
17. Februar: Samantha Macuga, US-amerikanische Skispringerin
18. Februar: Klara Andrijašević, kroatische Leichtathletin
18. Februar: Ayuka Kamoda, japanische Skispringerin
21. Februar: Isabella Acres, US-amerikanische Schauspielerin und Synchronsprecherin
22. Februar: Matteo Arnaldi, italienischer Tennisspieler
22. Februar: Abigail Strate, kanadische Skispringerin
23. Februar: Ross Graham, schottischer Fußballspieler
27. Februar: Johann Ngounou Djayo, deutscher Fußballspieler
März
2. März: Harry Clarke, englischer Fußballspieler
2. März: Lea Meier, Schweizer Biathletin
2. März: Žak Mogel, slowenischer Skispringer
4. März: Charles Milesi, französischer Autorennfahrer
6. März: Aryana Engineer, kanadische Kinderschauspielerin
6. März: Ross Tierney, irischer Fußballspieler
9. März: Dominik Keim, deutscher Handballspieler
9. März: Jeon So-mi, südkoreanische Popsängerin
9. März: Tabea Willemsen, deutsche Schauspielerin
14. März: Péter Beke, ungarischer Fußballspieler
19. März: Dean Campbell, schottischer Fußballspieler
23. März: Andrea Piccolo, italienischer Radrennfahrer
28. März: Hannah Auchentaller, italienische Biathletin
30. März: Giovanni Franzoni, italienischer Skirennläufer
April
3. April: Lars Dendoncker, belgischer Fußballspieler
4. April: Angelo Stiller, deutscher Fußballspieler
5. April: Can Bozdoğan, deutscher Fußballspieler
6. April: Michel Heßmann, deutscher Radrennfahrer
6. April: Oscar Piastri, australischer Automobilrennfahrer
6. April: Joshua Steiger, österreichischer Fußballspieler
9. April: Iossif Abramow, russischer Billardspieler
10. April: Ayman Azhil, marokkanisch-deutscher Fußballspieler
10. April: Vicente Besuijen, niederländischer Fußballspieler
10. April: Lilou Wadoux, französische Autorennfahrerin
11. April: Zonovan Knight, US-amerikanischer American-Football-Spieler
12. April: Leon Dajaku, deutscher Fußballspieler
12. April: Anna Twardosz, polnische Skispringerin
13. April: Noah Katterbach, deutscher Fußballspieler
14. April: Yannick Rau, deutscher Schauspieler
18. April: Tessniem Kadiri, deutsche Moderatorin
18. April: Max Oehler, deutscher Handballspieler
18. April: Julius Tauriainen, finnischer Fußballspieler
20. April: Sandra Buliņa, lettische Biathletin
20. April: Sanita Buliņa, lettische Biathletin
21. April: Maria Quezada, US-amerikanische Schauspielerin
23. April: Rio Setō, japanische Skispringerin
23. April: Aniya Wendel, deutsche Schauspielerin
26. April: Thiago Almada, argentinischer Fußballspieler
26. April: Alessio Martinelli, italienischer Radrennfahrer
Mai
1. Mai: Andreas Maier, Handballspieler
2. Mai: Paula Hartmann, deutsche Schauspielerin
3. Mai: Finn Hummel, deutscher Handballtorwart
8. Mai: Tim Akinola, nigerianisch-englischer Fußballspieler
8. Mai: Quinn Simmons, US-amerikanischer Radrennfahrer
10. Mai: Lucas Légeret, Schweizer Autorennfahrer
16. Mai: Katra Komar, slowenische Skispringerin
19. Mai: Selina Freitag, deutsche Skispringerin
21. Mai: Ingeborg Grünwald, österreichische Leichtathletin
23. Mai: Renārs Birkentāls, lettischer Biathlet
23. Mai: Martin Uldal, norwegischer Biathlet
24. Mai: Louis Poznański, deutsch-polnischer Fußballspieler
28. Mai: Lovro Planko, slowenischer Biathlet
31. Mai: Iga Świątek, polnische Tennisspielerin
Juni
1. Juni: Anika Schwörer, Schweizer Volleyballspielerin
4. Juni: Frida Dokken, norwegische Biathletin
4. Juni: Philip Noah Schwarz, deutscher Nachwuchsschauspieler
5. Juni: Elia Zeni, italienischer Biathlet
11. Juni: Nicholas Spinelli, italienischer Motorradrennfahrer
16. Juni: Victor Martins, französischer Automobilrennfahrer
19. Juni: Momodou Bojang, gambischer Fußballspieler
24. Juni: Antonio Tiberi, italienischer Radrennfahrer
28. Juni: Christina Födermayr, österreichische Freestyle-Skierin
Juli
2. Juli: Abraham Attah, ghanaischer Schauspieler
6. Juli: Blagoj Todew, bulgarischer Biathlet
7. Juli: Nicolò Buratti, italienischer Radrennfahrer
9. Juli: Tom Edwards, australischer Motorradrennfahrer
10. Juli: Isabela Moner, US-amerikanische Schauspielerin
14. Juli: Marie Lamure, französische Skirennläuferin
14. Juli: Louis Uber, deutscher Telemarker
15. Juli: Kay Bruhnke, deutscher Basketballspieler
16. Juli: Konrad de la Fuente, US-amerikanisch-haitianischer Fußballspieler
18. Juli: Faride Alidou, deutsch-togoischer Fußballspieler
18. Juli: Enzo Fittipaldi, brasilianischer Automobilrennfahrer
19. Juli: Alia Delia Eichinger, deutsche Freestyle-Skierin
19. Juli: Alexander Smoljar, russischer Automobilrennfahrer
20. Juli: Lydia Stemmler, deutsche Volleyballspielerin
23. Juli: Maximilian Großer, deutscher Fußballspieler
23. Juli: Christian Lundgaard, dänischer Automobilrennfahrer
24. Juli: Nadja Maier, deutsche Schauspielerin
25. Juli: Alena Pfanz, deutsche Schauspielerin
29. Juli: Tijl De Decker, belgischer Radrennfahrer († 2023)
31. Juli: Peter Skoronski, US-amerikanischer American-Football-Spieler
August
1. August: Henri Uhlig, deutscher Radrennfahrer
2. August: Moa Boström Müssener, schwedische Skirennläuferin
6. August: Ty Simpkins, US-amerikanischer Schauspieler
9. August: Jerneja Brecl, slowenische Skispringerin
11. August: Sanjin Pehlivanović, bosnisch-herzegowinischer Poolbillardspieler
13. August: Jonah Fabisch, deutsch-simbabwischer Fußballspieler
16. August: Cole Jensen, US-amerikanischer Schauspieler
16. August: Amadou Onana, belgisch-senegalesischer Fußballspieler
16. August: Jannik Sinner, italienischer Tennisspieler
17. August: Drew Justice, US-amerikanischer Schauspieler und Model
18. August: Alexander Steen Olsen, norwegischer Skirennläufer
21. August: Samuele Ricci, italienischer Fußballspieler
26. August: Hanna Staub, deutsche Skeletonfahrerin
28. August: Uladsislau Schopik, weißrussischer Poolbillardspieler
September
1. September: Runar Hauge, norwegischer Fußballspieler
3. September: Ulysse de Pauw, belgischer Autorennfahrer
4. September: Tenzing Norgay Trainor, US-amerikanischer Schauspieler und Synchronsprecher
7. September: Jason Dupasquier, schweizerischer Motorradrennfahrer († 2021)
11. September: Mackenzie Aladjem, US-amerikanische Schauspielerin
13. September: Sylvester Jasper, bulgarisch-englischer Fußballspieler
18. September: Hunor Farkas, rumänischer Skispringer
19. September: Taylor Geare, US-amerikanische Schauspielerin
19. September: Diant Ramaj, deutsch-kosovarischer Fußballspieler
20. September: Paul Sundheim, deutscher Schauspieler
22. September: Ayumu Iwasa, japanischer Automobilrennfahrer
23. September: Marco Rossi, österreichischer Eishockeyspieler
23. September: Nick Julius Schuck, deutscher Schauspieler
27. September: Anna Buter, niederländische Handballspielerin
Oktober
3. Oktober: Liel Abada, israelischer Fußballspieler
11. Oktober: Daniel Maldini, italienischer Fußballspieler
12. Oktober: Raymond Ochoa, US-amerikanischer Schauspieler und Synchronsprecher
13. Oktober: Celestino Vietti, italienischer Motorradrennfahrer
17. Oktober: Olav Kooij, niederländischer Radrennfahrer
18. Oktober: Li Tianma, chinesischer Freestyle-Skier
19. Oktober: Leighton Clarkson, englischer Fußballspieler
21. Oktober: Ashley Liao, US-amerikanische Schauspielerin
23. Oktober: David Schumacher, deutscher Automobilrennfahrer
25. Oktober: Elisabeth von Belgien, belgische Kronprinzessin
25. Oktober: Marita Kramer, österreichische Skispringerin und Nordische Kombiniererin
25. Oktober: Uros Vasic, Schweizer Fußballspieler
27. Oktober: Teilor Grubbs, US-amerikanische Schauspielerin
30. Oktober: Jaheem Toombs, US-amerikanischer Schauspieler
November
2. November: Moisés Caicedo, ecuadorianischer Fußballspieler
3. November: Shayden Morris, englischer Fußballspieler
7. November: Tom Gamble, britischer Autorennfahrer
8. November: Einar Hedegart, norwegischer Biathlet
8. November: Dmytro Kotowskyj, ukrainischer Freestyle-Skier
8. November: Johannes Lamparter, österreichischer Nordischer Kombinierer
9. November: Luna Schaller, deutsche Schauspielerin
12. November: Raffey Cassidy, britische Schauspielerin
13. November: Francesco Cecon, italienischer Skispringer
14. November: Chloe Lang, US-amerikanische Schauspielerin und Tänzerin
15. November: Jeremy Alcoba, spanischer Motorradrennfahrer
16. November: Mialitiana Clerc, madagassich-französische Skirennläuferin
18. November: Jan Olschowsky, deutscher Fußballtorhüter
22. November: Kamila Karpiel, polnische Skispringerin
23. November: Mateusz Żukowski, polnischer Fußballspieler
24. November: Syarifuddin Azman, malaysischer Motorradrennfahrer
26. November: Pauline Brünger, deutsche Klimaaktivistin
November: Luna Jordan, deutsche Schauspielerin
Dezember
1. Dezember: Alice Robinson, neuseeländische Skirennläuferin
1. Dezember: Dylan Tait, schottischer Fußballspieler
2. Dezember: Luis Foege, deutscher Handballspieler
4. Dezember: Nicolò Rovella, italienischer Fußballspieler
8. Dezember: Marouan Azarkan, niederländischer Fußballspieler
8. Dezember: Noa Pothoven, niederländische Aktivistin und Autorin († 2019)
9. Dezember: James Maxwell, schottischer Fußballspieler
11. Dezember: Armel Bella-Kotchap, deutscher Fußballspieler
18. Dezember: Reece Devine, englischer Fußballspieler
18. Dezember: Billie Eilish, US-amerikanische Singer-Songwriterin
21. Dezember: Kaan Kurt, deutscher Fußballspieler
28. Dezember: Madison De La Garza, US-amerikanische Schauspielerin
31. Dezember: Magdalena Łuczak, polnische Skirennläuferin
Tag unbekannt
Louise Sophie Arnold, deutsche Schauspielerin
Mila Böhning, deutsche Schauspielerin
Jean-Luc Caputo, deutscher Schauspieler
Amira Demirkiran, deutsche Schauspielerin
Philipp Franck, deutscher Schauspieler
Noah Kraus, deutscher Schauspieler
Clara Mayer, deutsche Klimaschutzaktivistin
Zethphan Smith-Gneist, deutscher Schauspieler
Florina Tenelsen, deutsche Schauspielerin
Anne Sophie Triesch, deutsche Schauspielerin
Lena Schilling, österreichische Klimaaktivistin und Autorin
Lieselotte Voß, deutsche Schauspielerin
Gestorben
Dies ist eine Liste der bedeutendsten Persönlichkeiten, die 2001 verstorben sind. Für eine ausführlichere Liste siehe Nekrolog 2001.
Januar
1. Januar: Ray Walston, US-amerikanischer Schauspieler (* 1914)
2. Januar: William P. Rogers, US-amerikanischer Außenminister (* 1913)
4. Januar: Alexandra Adler, Neurologin, Psychiaterin und Spezialistin für Gehirn-Traumata (* 1901)
4. Januar: Les Brown, US-amerikanischer Big-Band-Leader (* 1912)
4. Januar: Alfred Neumann, DDR-Politiker, Minister für Materialwirtschaft der DDR (* 1909)
4. Januar: Perry Schwartz, US-amerikanischer American-Football-Spieler (* 1915)
5. Januar: Gertrude Elizabeth Margaret Anscombe, britische Philosophin (* 1919)
9. Januar: Paul Vanden Boeynants, belgischer Ministerpräsident (* 1919)
10. Januar: Bryan Gregory, US-amerikanischer Musiker (* 1955)
10. Januar: Arnold Kempkens, deutscher Komponist und Dirigent (* 1923)
11. Januar: Louis Krages, deutscher Automobilrennfahrer und Geschäftsmann (* 1949)
12. Januar: Luiz Bonfá, brasilianischer Komponist und Gitarrist (* 1922)
12. Januar: William Hewlett, US-amerikanischer Industrieller, Gründer von Hewlett-Packard (* 1913)
12. Januar: Adhemar Ferreira da Silva, brasilianischer Leichtathlet (* 1927)
14. Januar: Karl Bednarik, österreichischer Maler und Schriftsteller (* 1915)
14. Januar: Burkhard Heim, deutscher Sprengstofftechniker, Physiker und Gelehrter (* 1925)
14. Januar: Vic Wilson, britischer Automobilrennfahrer (* 1931)
16. Januar: Laurent-Désiré Kabila, von 1997 bis 2001 Präsident der Demokratischen Republik Kongo (* 1939)
17. Januar: Gregory Corso, US-amerikanischer Dichter (* 1930)
17. Januar: Willy Daetwyler, Schweizer Automobilrennfahrer und Unternehmer (* 1919)
21. Januar: Sandy Baron, US-amerikanischer Film-, TV- und Bühnenschauspieler (* 1937)
21. Januar: Ludwig Engelhardt, deutscher Bildhauer (* 1924)
21. Januar: John Arthur Love, US-amerikanischer Politiker (* 1916)
23. Januar: Jack McDuff, US-amerikanischer Jazzorganist (* 1926)
24. Januar: Eduard Schütz, deutscher Theologe (* 1928)
26. Januar: Arnim André, deutscher Schauspieler und Synchronsprecher (* 1943)
26. Januar: Ingeborg Bingener, deutsche Autorin und Politikerin (Die Tierschutzpartei) (* 1922)
26. Januar: Robert Bouharde, französischer Autorennfahrer (* 1922)
27. Januar: André Prévost, kanadischer Komponist (* 1934)
28. Januar: Ivan Prasko, ukrainischer Bischof (* 1914)
29. Januar: Jean-Pierre Aumont, französischer Schauspieler und Drehbuchautor (* 1911)
29. Januar: Max Weiler, österreichischer Maler (* 1910)
30. Januar: Hartmut Reck, deutscher Filmschauspieler und Synchronsprecher (* 1932)
31. Januar: Evelyn Holt, deutsche Schauspielerin (* 1906)
31. Januar: Heinz Starke, deutscher Politiker (* 1911)
Februar
4. Februar: J. J. Johnson, US-amerikanischer Jazz-Musiker (* 1924)
4. Februar: Ernie McCoy, US-amerikanischer Automobilrennfahrer (* 1921)
4. Februar: Tomás Rivera Morales, puerto-ricanischer Komponist, Cuatrospieler und Musikpädagoge (* 1927)
6. Februar: Joe Menke, deutscher Musikproduzent und Schlagerkomponist (* 1925)
6. Februar: Kurt Neuwald, Vorsitzender des Landesverbandes der Jüdischen Gemeinden in Westfalen-Lippe (* 1906)
7. Februar: Marianne Breslauer, deutsche Fotografin (* 1909)
7. Februar: Anne Morrow Lindbergh, Ehefrau, Copilotin und Navigatorin von Charles A. Lindbergh (* 1906)
8. Februar: Giuseppe Casoria, italienischer Kardinal (* 1908)
8. Februar: Tisa von der Schulenburg, deutsche Künstlerin und Ordensschwester (* 1903)
9. Februar: Herbert A. Simon, US-amerikanischer Sozialwissenschaftler, Nobelpreisträger für Wirtschaftswissenschaften (* 1916)
10. Februar: Abraham D. Beame, US-amerikanischer Politiker (* 1906)
11. Februar: Maurice Zermatten, Schweizer Schriftsteller (* 1910)
12. Februar: Kristina Söderbaum, schwedische Schauspielerin (* 1912)
13. Februar: Manuela, deutsche Schlagersängerin (* 1943)
14. Februar: Ali Artuner, türkischer Fußballtorhüter (* 1944)
14. Februar: Richard Laymon, US-amerikanischer Schriftsteller (* 1947)
16. Februar: Helen Vita, deutsche Chansonniere, Schauspielerin und Kabarettistin (* 1928)
17. Februar: Richard Wurmbrand, rumänischer Theologe (* 1909)
18. Februar: Hermann Adler, deutscher Schriftsteller und Publizist (* 1911)
18. Februar: Balthus, polnisch-französischer Maler (* 1908)
18. Februar: Dale Earnhardt, US-amerikanischer Rennfahrer (* 1951)
19. Februar: Theophilus Beckford, jamaikanischer Pianist (* 1935)
19. Februar: Stanley Kramer, US-amerikanischer Regisseur und Filmproduzent (* 1913)
19. Februar: Charles Trenet, französischer Sänger, Komponist, Dichter und Maler (* 1913)
20. Februar: Karl Hasel, deutscher Forstwissenschaftler (* 1909)
21. Februar: José Alí Lebrún Moratinos, venezolanischer Erzbischof von Caracas und Kardinal (* 1919)
22. Februar: John Aloysius Fahey, US-amerikanischer Fingerstyle-Gitarrist und -Komponist, Musikwissenschaftler und Plattenlabel-Gründer (* 1939)
23. Februar: Sergio Mantovani, italienischer Automobilrennfahrer (* 1929)
24. Februar: Jörg K. Hoensch, deutscher Historiker (* 1935)
24. Februar: Claude Elwood Shannon, US-amerikanischer Mathematiker (* 1916)
25. Februar: Archie Randolph Ammons, US-amerikanischer Hochschullehrer und Dichter (* 1926)
25. Februar: Paul Huber, Schweizer Komponist (* 1918)
25. Februar: Sigurd Rascher, deutscher Saxophonist (* 1907)
26. Februar: Georg Brauer, deutscher Chemiker (* 1908)
26. Februar: Jale İnan, türkische Archäologin (* 1914)
26. Februar: Duke Nalon, US-amerikanischer Automobilrennfahrer (* 1913)
26. Februar: Arturo Uslar Pietri, venezolanischer Schriftsteller, Diplomat und Politiker (* 1906)
27. Februar: Jean-Louis Ricci, französischer Automobilrennfahrer (* 1944)
Februar: Max Mabillard, Schweizer Journalist (* 1945)
März
4. März: Gerardo Barbero, argentinischer Schachspieler (* 1961)
4. März: James A. Rhodes, US-amerikanischer Politiker (* 1909)
8. März: Frances Marr Adaskin, kanadische Pianistin (* 1900)
8. März: Ninette de Valois, irische Tänzerin des klassischen Balletts und Gründerin des Royal Ballet (* 1898)
11. März: Tatjana Lietz, lettisch-deutsche Malerin, Sprach- und Kunstlehrerin (* 1916)
12. März: Charles Dobias, kanadischer Geiger (* 1914)
12. März: Robert Ludlum, US-amerikanischer Schriftsteller, Schauspieler und Produzent (* 1927)
16. März: Juliette Huot, kanadische Schauspielerin (* 1912)
18. März: Kurt Muthspiel, österreichischer Chorerzieher und Komponist (* 1931)
18. März: Bernd Rabe, deutscher Jazzmusiker (* 1927)
21. März: Barbara Cramer-Nauhaus, deutsche Anglistin und Übersetzerin (* 1927)
21. März: Heinrich Krebs, deutscher Richter am deutschen Bundessozialgericht (* 1910)
22. März: Sabiha Gökçen, erste türkische Pilotin und erste Kampfpilotin der Welt (* 1913)
22. März: William Hanna, US-amerikanischer Zeichentrickfilmer und Produzent (* 1910)
23. März: David McTaggart, kanadischer Greenpeace-Aktivist und Funktionär (* 1932)
24. März: Birgit Åkesson, schwedische Tänzerin, Choreographin, Tanzpädagogin und Tanzforscherin (* 1908)
25. März: Adam Berberich, deutscher Politiker (* 1914)
26. März: Fredy Reyna, venezolanischer Cuatrospieler und Musikpädagoge (* 1917)
26. März: Piotr Sobociński, polnischer Kameramann (* 1958)
27. März: Boris Wiktorowitsch Rauschenbach, sowjetischer Physiker (* 1915)
28. März: George Connor, US-amerikanischer Automobilrennfahrer (* 1906)
28. März: Helge Ingstad, norwegischer Archäologe, Schriftsteller und Abenteurer (* 1899)
28. März: Friedrich Schiedel, deutscher Unternehmer und Mäzen (* 1913)
29. März: Edward Frederick Anderson, US-amerikanischer Botaniker (* 1931)
29. März: John Lewis, US-amerikanischer Jazz-Musiker (Pianist und Komponist) (* 1920)
29. März: Billy Sanders, britischer Sänger (* 1934)
31. März: Gillian Dobb, US-amerikanische Schauspielerin (* 1929)
31. März: Clifford Shull, US-amerikanischer Physiker (* 1915)
31. März: Rob Stolk, niederländischer Aktivist (* 1946)
April
3. April: Martin Christoffel, Schweizer Schachspieler (* 1922)
5. April: Aldo Olivieri, italienischer Fußballspieler und -trainer (* 1910)
6. April: Jewgeni Malinin, russischer Dirigent, Musikpädagoge und Geiger (* 1930)
7. April: Beatrice Straight, US-amerikanische Schauspielerin (* 1914)
9. April: Emil Carlebach, deutscher Widerstandskämpfer in Buchenwald, MdL und Journalist (* 1914)
11. April: Joe Viola, US-amerikanischer Jazzmusiker (* 1920)
12. April: Harvey Ball, US-amerikanischer Erfinder des „Smileys“ (* 1921)
15. April: Joey Ramone, US-amerikanischer Sänger der Band Ramones (* 1951)
15. April: Alberto Rey, chilenischer Harfenist (* 1915)
16. April: Klaus Kindler, deutscher Schauspieler und Synchronsprecher (* 1930)
17. April: Vera Brühne, mutmaßliche deutsche Doppelmörderin (* 1910)
18. April: Billy Mitchell, US-amerikanischer Jazz-Saxophonist (* 1926)
19. April: Edith Picht-Axenfeld, deutsche Cembalistin (* 1914)
19. April: Meldrim Thomson, US-amerikanischer Politiker (* 1912)
20. April: Irène Joachim, französische Sopranistin (* 1913)
20. April: Giuseppe Sinopoli, italienischer Dirigent, Komponist, Mediziner und Archäologe (* 1946)
22. April: Ludvig Nielsen, norwegischer Komponist und Organist (* 1906)
22. April: Heiko Augustinus Oberman, niederländischer Kirchenhistoriker (* 1930)
23. April: Lennart Folke Alfons Atterwall, schwedischer Leichtathlet (* 1911)
23. April: Albert Oeckl, deutscher Professor (* 1909)
23. April: Raymund Schmitt, deutscher Präsident des Bezirkstages von Unterfranken (* 1930)
23. April: Carl Zimmerer, deutscher Wirtschaftswissenschaftler (* 1926)
24. April: Paul Thieme, deutscher Indologe (* 1905)
25. April: Kow Nkensen Arkaah, ghanaischer Politiker (* 1927)
25. April: Michele Alboreto, italienischer Automobilrennfahrer (* 1956)
28. April: Marie Jahoda, österreichische Soziologin (* 1907)
28. April: Evelyn Künneke, deutsche Sängerin, Tänzerin und Schauspielerin (* 1921)
29. April: Andy Phillip, US-amerikanischer Basketballspieler (* 1922)
30. April: Andreas Kupfer, deutscher Fußballspieler (* 1914)
April: Mick Franke, deutscher Musiker (* 1955)
Mai
2. Mai: Wolfgang Greese, deutscher Schauspieler (* 1926)
2. Mai: Heinz te Laake, deutscher Künstler der Malerei, Kinetik und Skulptur (* 1925)
3. Mai: Helmuth Herold, deutscher Interpret und Lehrmeister der Mundharmonika (* 1928)
3. Mai: Billy Higgins, US-amerikanischer Jazz-Schlagzeuger (* 1936)
4. Mai: Rudi Strahl, deutscher Dramatiker, Erzähler und Lyriker (* 1931)
5. Mai: Boozoo Chavis, US-amerikanischer Musiker (* 1930)
5. Mai: Bill Homeier, US-amerikanischer Automobilrennfahrer (* 1918)
6. Mai: Alfred Hartmann, deutscher Motorrad- und Automobilrennfahrer, Motortuner sowie Unternehmer (* 1910)
7. Mai: Elisabeth Reichelt, deutsche Kammersängerin und Koloratursopranistin (* 1910)
9. Mai: Heinz Bethge, deutscher Physiker (* 1919)
9. Mai: Johannes Poethen, deutscher Schriftsteller (* 1928)
9. Mai: Nikos Sampson, zypriotischer Politiker, Präsident der Republik Zypern (* 1935)
10. Mai: Werner Schuster, deutscher Politiker (* 1939)
10. Mai: Kurt Ziesel, österreichischer Journalist (* 1911)
11. Mai: Douglas Adams, englischer Schriftsteller (* 1952)
11. Mai: Klaus Schlesinger, deutscher Schriftsteller und Journalist (* 1937)
12. Mai: Perry Como, US-amerikanischer Sänger (* 1912)
12. Mai: Alexei Andrejewitsch Tupolew, russischer Flugzeugkonstrukteur (* 1925)
13. Mai: Rogelio Martínez Díaz, kubanischer Gitarrist und Sänger und Bandleader (* 1905)
13. Mai: Jason Anthony Miller, US-amerikanischer Schauspieler und Dramatiker (* 1939)
14. Mai: Mortimer Morris-Goodall, britischer Automobilrennfahrer (* 1907)
14. Mai: Ettore Puricelli, uruguayisch-italienischer Fußballspieler und -trainer (* 1916)
19. Mai: Eliza Hansen, deutsche Klavierpädagogin, Pianistin und Cembalistin (* 1909)
19. Mai: Hans Mayer, deutscher Literaturwissenschaftler, Jurist, Sozialforscher, Kritiker (* 1907)
23. Mai: Harald Bergström, schwedischer Mathematiker (* 1908)
23. Mai: Arno Mohr, deutscher Grafiker und Maler (* 1910)
23. Mai: Juan Bruno Tarraza, kubanischer Pianist und Komponist (* 1912)
24. Mai: Wolfgang Kimmig, deutscher Prähistoriker (* 1910)
26. Mai: Johann Ludwig Atrops, deutscher Ingenieur (* 1921)
26. Mai: Vittorio Brambilla, italienischer Motorrad- und Automobilrennfahrer (* 1937)
26. Mai: Alberto Korda, kubanischer Fotograf (* 1928)
27. Mai: Gilles Lefebvre, kanadischer Geiger (* 1922)
28. Mai: Tony Ashton, britischer Rockmusiker (* 1946)
28. Mai: Francis Bebey, französischer Musiker und Schriftsteller kamerunischer Herkunft (* 1929)
28. Mai: Francisco Varela, chilenischer Biologe und Philosoph (* 1946)
Juni
1. Juni: Birendra, König von Nepal (* 1945)
3. Juni: Anthony Quinn, US-amerikanischer Filmschauspieler (* 1915)
3. Juni: Friedl Rinder, deutsche Schachspielerin (* 1905)
4. Juni: John Hartford, US-amerikanischer Songwriter (* 1937)
4. Juni: Felicitas Kukuck, deutsche Komponistin (* 1914)
6. Juni: Douglas Lilburn, neuseeländischer Komponist (* 1915)
6. Juni: Otto Heinrich Treumann, deutsch-niederländischer Grafiker (* 1919)
7. Juni: Víctor Paz Estenssoro, bolivianischer Politiker und viermaliger Präsident Boliviens (* 1907)
8. Juni: Eliza Branco, brasilianische Frauen- und Friedensaktivistin (* 1912)
11. Juni: Pierre Étienne Louis Eyt, französischer Erzbischof von Bordeaux und Kardinal (* 1934)
11. Juni: Timothy McVeigh, US-amerikanischer Terrorist (* 1968)
11. Juni: Amalia Mendoza, mexikanische Sängerin und Schauspielerin (* 1923)
12. Juni: Robert Hochner, österreichischer Journalist und Fernsehmoderator (* 1945)
13. Juni: Siegfried Naumann, schwedischer Komponist und Professor (* 1919)
13. Juni: Rajzel Zychlinski, jiddischsprachige Dichterin (* 1910)
14. Juni: Tibor Andrašovan, slowakischer Komponist und Dirigent (* 1917)
15. Juni: Julius Juzeliūnas, litauischer Komponist und Musikpädagoge (* 1916)
17. Juni: Thomas Joseph Winning, britischer Erzbischof von Glasgow und Kardinal (* 1925)
21. Juni: John Lee Hooker, US-amerikanischer Bluesmusiker (* 1917)
22. Juni: Luis Carniglia, argentinischer Fußballspieler und -trainer (* 1917)
24. Juni: Louis Klemantaski, britischer Automobilrennfahrer und Fotograf (* 1907)
25. Juni: Kurt Hoffmann, deutscher Filmregisseur (* 1910)
27. Juni: Tove Jansson, finnische Schriftstellerin (* 1914)
27. Juni: Jack Lemmon, US-amerikanischer Schauspieler (* 1925)
27. Juni: Udo Proksch, deutscher Geschäftsmann und Krimineller (* 1934)
27. Juni: Albert Viau, kanadischer Sänger, Komponist und Musikpädagoge (* 1910)
28. Juni: Mortimer Jerome Adler, US-amerikanischer Philosoph und Schriftsteller (* 1902)
28. Juni: Emil Bücherl, deutscher Wissenschaftler und Herzchirurg (* 1919)
28. Juni: Arno Reinfrank, deutscher Schriftsteller, Publizist und Übersetzer (* 1934)
28. Juni: Joan Sims, britische Schauspielerin (* 1930)
29. Juni: Silvio Angelo Pio Oddi, italienischer Kardinal (* 1910)
30. Juni: Stephen Ailes, US-amerikanischer Politiker (* 1912)
30. Juni: Chet Atkins, US-amerikanischer Country-Musiker und Schallplattenproduzent (* 1924)
30. Juni: Joe Henderson, US-amerikanischer Jazz-Musiker (Tenorsaxophonist) (* 1937)
Juli
1. Juli: Nikolai Gennadijewitsch Bassow, russischer Physiker (* 1922)
1. Juli: Horst Ritter, deutscher Fußballspieler und Hornist (* 1925)
3. Juli: Mordecai Richler, kanadischer Schriftsteller (* 1931)
3. Juli: Johnny Russell, US-amerikanischer Country-Musiker und Songwriter (* 1940)
3. Juli: Paolo Silveri, italienischer Sänger (Bariton) und Musikpädagoge (* 1913)
5. Juli: Hélène de Beauvoir, französische Malerin (* 1910)
5. Juli: Ernie K-Doe, US-amerikanischer Sänger (* 1936)
5. Juli: Hannelore Kohl, Frau des deutschen Bundeskanzlers a. D. Helmut Kohl (* 1933)
5. Juli: Herbert Thomas King, deutscher Kommunalpolitiker und Oberbürgermeister (* 1920)
8. Juli: Ernst Baier, deutscher Eiskunstläufer (* 1905)
8. Juli: Christl Haas, österreichische Skirennläuferin (* 1943)
13. Juli: Willy Andergassen, italienischer Künstler (* 1922)
15. Juli: Marie-Brigitte Gauthier-Chaufour, französische Komponistin (* 1928)
16. Juli: Morris, belgischer Comic-Zeichner und Autor (Lucky Luke) (* 1923)
16. Juli: Pierre Pidoux, Schweizer evangelischer Kirchenmusiker und Musikwissenschaftler (* 1905)
16. Juli: Beate Uhse, deutsche Pilotin und Gründerin des gleichnamigen Sex-Shops (* 1919)
18. Juli: Fabio Taglioni, italienischer Motorrad-Konstrukteur (* 1920)
20. Juli: Carlo Giuliani, italienischer Globalisierungsgegner (* 1978)
21. Juli: Steve Barton, US-amerikanischer Sänger (* 1954)
21. Juli: Oscar Cardozo Ocampo, argentinischer Arrangeur, Pianist und Komponist (* 1942)
21. Juli: Sivaji Ganesan, indischer Filmschauspieler (* 1927)
21. Juli: Einar Schleef, deutscher Schriftsteller und Regisseur (* 1944)
22. Juli: Dioris Valladares, puerto-ricanischer Komponist, Arrangeur, Sänger, Bandleader, Gitarrist und Perkussionist (* 1916)
23. Juli: Eudora Welty, US-amerikanische Schriftstellerin und Fotografin (* 1909)
25. Juli: Phoolan Devi, indische Banditenkönigin und Politikerin (* 1963)
25. Juli: Josef Klaus, österreichischer Politiker (* 1910)
26. Juli: Giuseppe Maria Sensi, italienischer Kardinal (* 1907)
26. Juli: Peter von Zahn, deutscher Hörfunk- und Fernsehjournalist (* 1913)
28. Juli: Johnny Bernero, US-amerikanischer Schlagzeuger (* 1931)
28. Juli: Yamada Fūtarō, japanischer Schriftsteller (* 1922)
29. Juli: Wau Holland, deutscher Journalist und Computer-Aktivist (Hacker) (* 1951)
30. Juli: Anton Schwarzkopf, deutscher Konstrukteur von Attraktionen und Achterbahnen (* 1924)
31. Juli: Poul Anderson, US-amerikanischer Science-Fiction-Autor (* 1926)
31. Juli: Francisco da Costa Gomes, portugiesischer Marschall und Präsident von Portugal (* 1914)
31. Juli: Friedrich Franz Herzog zu Mecklenburg, Oberhaupt des Hauses Mecklenburg-Schwerin (* 1910)
August
1. August: Jay Chamberlain, US-amerikanischer Automobilrennfahrer (* 1925)
1. August: Wilhelm Ernst, deutscher Moraltheologe (* 1927)
1. August: Mario Perazzolo, italienischer Fußballspieler und -trainer (* 1911)
3. August: Hans Holt, österreichischer Schauspieler (* 1909)
3. August: Stefan Rachoń, polnischer Geiger und Dirigent (* 1906)
4. August: Claude Bloodgood, US-amerikanischer Mörder und Schachspieler (* 1937)
5. August: Ingo Braecklein, deutscher Bischof der evangelischen Landeskirche von Thüringen (* 1906)
5. August: Bahne Rabe, deutscher Ruderer (* 1963)
6. August: Jorge Amado, brasilianischer Autor (* 1912)
6. August: Robert Dunham, amerikanischer Schauspieler (* 1931)
6. August: Wilhelm Mohnke, deutscher SS-Brigadeführer und Generalmajor der Waffen-SS (* 1911)
7. August: Larry Adler, US-amerikanischer Mundharmonikaspieler und Autor (* 1914)
9. August: Albino Milani, italienischer Motorradrennfahrer (* 1910)
9. August: Otti Pfeiffer, deutsche Lyrikerin sowie Kinder- und Jugendbuchautorin (* 1931)
10. August: Werner Pirchner, österreichischer Komponist (* 1940)
10. August: Otto Schulmeister, österreichischer Publizist, langjähriger Chefredakteur (* 1916)
16. August: Götz von Houwald, deutscher Diplomat, Ethnologe und Historiker (* 1913)
16. August: Johannes Mischo, deutscher Parapsychologe (* 1930)
17. August: Hermann Steuri, Schweizer Bergführer und Skirennfahrer (* 1909)
18. August: Roland Cardon, belgischer Komponist und Professor (* 1929)
19. August: Donald Woods, südafrikanischer Jurist und Journalist (* 1933)
20. August: Fred Hoyle, britischer Astronom, Mathematiker und Autor (* 1915)
22. August: Otto Borst, deutscher Historiker (* 1924)
22. August: Olaf Koch, deutscher Dirigent und Hochschullehrer (* 1932)
23. August: Kathleen Freeman, US-amerikanische Schauspielerin (* 1923)
24. August: Bernard Heuvelmans, belgisch-französischer Zoologe (* 1916)
24. August: Donald A. Prater, englischer Schriftsteller, Germanist und Diplomat (* 1918)
25. August: Aaliyah, US-amerikanische Rhythm-and-Blues-Sängerin (* 1979)
25. August: Ken Tyrrell, britischer Rennfahrer und Gründer des Tyrrell-Formel-1-Teams (* 1924)
26. August: Marita Petersen erste weibliche Regierungschefin der Färöer (* 1940)
27. August: Witold Krzemieński, polnischer Komponist, Dirigent und Musikpädagoge (* 1909)
27. August: Abu Ali Mustafa, palästinensischer politischer Führer (* 1938)
27. August: Franz Nauber, deutscher Hornist (* 1911)
28. August: Remy A. Presas, philippinischer Kampfkunst-Trainer (* 1936)
30. August: Govan Mbeki, südafrikanischer Führer der Anti-Apartheidsbewegung (* 1910)
September
1. September: Sylvester Austin, US-amerikanischer Tenorsaxophonist (* 1929)
1. September: Tomás Pujols Sanabia, dominikanischer Journalist und Rundfunksprecher (Geburtsdatum unbekannt)
2. September: Christiaan Barnard, südafrikanischer Mediziner (* 1922)
2. September: Lothar Dombrowski, deutscher Journalist und Moderator (* 1930)
2. September: Theo Gallehr, deutscher Hörspielautor, Filmemacher, Journalist, bildender Künstler und Hochschullehrer für Bildende Kunst (* 1929)
3. September: Ferruccio Amendola, italienischer Schauspieler und Synchronsprecher (* 1930)
3. September: Pauline Kael, US-amerikanische Filmkritikerin (* 1919)
3. September: Harry McKibbin, irischer Rugbyspieler und Funktionär (* 1915)
3. September: Thuy Trang, vietnamesisch-US-amerikanische Schauspielerin (* 1973)
5. September: Akinola Aguda, nigerianischer Jurist (* 1923)
6. September: Carl Crack, deutscher Technomusiker (* 1971)
7. September: Franz Muhri, österreichischer Politiker (* 1924)
9. September: Ahmad Schah Massoud, afghanischer Mujaheddin-Kämpfer (* 1953)
10. September: Alexei Suetin, russischer Schachspieler (* 1926)
11. September: Mohammed Atta, islamischer Terrorist (* 1968)
11. September: Charles Burlingame, Flugkapitän von American-Airlines-Flug 77 (* 1949)
11. September: Reinhard Kopps, deutscher NS-Geheimdienstagent und NS-Fluchthelfer (* 1914)
11. September: Daniel M. Lewin, US-amerikanischer Informatiker (* 1970)
11. September: John Ogonowski, Flugkapitän von American-Airlines-Flug 11 (* 1951)
11. September: Paul Zinsli, Schweizer Volkskundler und Sprachwissenschaftler (* 1906)
12. September: Rudolf Pörtner, deutscher Schriftsteller und Historiker (* 1912)
12. September: Horst Sannemüller, deutscher Violinist und Konzertmeister (* 1918)
13. September: Jaroslav Drobný, tschechoslowakischer Tennis- und Eishockeyspieler (* 1921)
13. September: Heinz Kuhrig, deutscher Minister für Land-, Forst- und Nahrungsgüterwirtschaft der DDR (* 1929)
13. September: Carl Malsch, deutscher Propst in Jerusalem, Hauptpastor in Hamburg (* 1916)
13. September: Dorothy McGuire, US-amerikanische Schauspielerin (* 1916)
13. September: Charles Regnier, deutscher Schauspieler (* 1914)
15. September: Herbert Burdenski, deutscher Fußballspieler und Fußballtrainer (* 1922)
15. September: Roland Leduc, kanadischer Cellist, Dirigent und Musikpädagoge (* 1907)
16. September: Samuel Z. Arkoff, US-amerikanischer Filmproduzent und Regisseur (* 1918)
20. September: Marcos Pérez Jiménez, Präsident von Venezuela (* 1914)
20. September: Gerd E. Schäfer, deutscher Schauspieler (* 1923)
20. September: Karl-Eduard von Schnitzler, deutscher Journalist und Fernsehmoderator (* 1918)
22. September: Isaac Stern, ukrainischer Violinist (* 1920)
23. September: Henryk Tomaszewski, polnischer Schauspieler und Pantomime (* 1919)
23. September: Bruno Wiefel, deutscher Politiker und MdB (* 1924)
25. September: Robert Floyd, US-amerikanischer Informatiker (* 1936)
25. September: Herbert Klein, deutscher Schwimmer (* 1923)
27. September: Peter Bossard, Schweizer Politiker und Unternehmer (* 1938)
27. September: Monika Hutter, Schweizer Politikerin (* 1949)
27. September: Jean-Paul Flachsmann, Schweizer Politiker (* 1936)
27. September: Reno Nonsens, deutscher Satiriker und Theaterleiter (* 1919)
27. September: Philip Rosenthal, deutscher Unternehmer und Politiker (* 1916)
29. September: Georg Schuchter, österreichischer Schauspieler (* 1952)
29. September: Andrzej Szewczyk, polnischer Maler und Bildhauer (* 1950)
30. September: Gerhard Ebeling, Schweizer Theologe (* 1912)
30. September: Herbert Fenn, deutscher Rechtswissenschaftler, Tanzsportler und Sportfunktionär (* 1935)
30. September: Jenny Jugo, österreichische Schauspielerin (* 1904)
30. September: John Cunningham Lilly, US-amerikanischer Neurophysiologe (* 1915)
30. September: Filippa Prinzessin zu Sayn-Wittgenstein-Sayn, deutsche Fotografin und Prinzessin (* 1980)
Oktober
2. Oktober: Manny Albam, dominikanischer Jazz-Baritonsaxophonist und Arrangeur (* 1922)
4. Oktober: Les „Carrot Top“ Anderson, US-amerikanischer Country-Musiker (* 1921)
5. Oktober: Mike Mansfield, US-amerikanischer Politiker (* 1903)
5. Oktober: Emilie Schindler, Ehefrau von Oskar Schindler (* 1907)
6. Oktober: Alfred Jensch, deutscher Chefkonstrukteur bei Carl Zeiss in Jena (* 1912)
7. Oktober: Christopher Adams, englischer Wrestler und Judoka (* 1955)
9. Oktober: Herbert Ross, US-amerikanischer Choreograph und Filmregisseur (* 1927)
10. Oktober: Luis Antonio García Navarro, spanischer Dirigent (* 1941)
12. Oktober: Witold Szalonek, polnischer Komponist (* 1927)
13. Oktober: Jean Daninos, französischer Automobilkonstrukteur und Unternehmer (* 1906)
14. Oktober: David Lewis, US-amerikanischer Philosoph (* 1941)
15. Oktober: Jean Laurent, belgischer Violinist und Musikpädagoge (* 1909)
17. Oktober: Araquem de Melo, brasilianischer Fußballspieler (* 1944)
18. Oktober: Micheline Ostermeyer, französische Leichtathletin und Pianistin (* 1922)
18. Oktober: Maurice Solway, kanadischer Geiger, Komponist und Musikpädagoge (* 1906)
20. Oktober: Philippe Agostini, französischer Kameramann (* 1910)
21. Oktober: Anna Maria Jokl, österreichisch-israelische Schriftstellerin (* 1911)
21. Oktober: Robert Winley, US-amerikanischer Schauspieler (* 1952)
22. Oktober: Cliff Adams, britischer Orchesterleiter, Sänger und Radiomoderator (* 1923)
22. Oktober: Helmut Krackowizer, österreichischer Wirtschaftswissenschaftler, Journalist, Motorradrennfahrer und Experte für Motorradgeschichte (* 1922)
23. Oktober: Ken Aston, britischer Fußballschiedsrichter (* 1915)
23. Oktober: Josh Kirby, britischer Zeichner und Künstler (* 1928)
23. Oktober: Ismat T. Kittani, irakischer Diplomat (* 1929)
23. Oktober: Gerd Mehl, deutscher Sportreporter (* 1922)
25. Oktober: Soraya Esfandiary Bakhtiari, zweite Ehefrau von Schah Mohammad Reza Pahlavi (* 1932)
26. Oktober: Waldemar Grube, deutscher Forstmann und Unternehmer (* 1915)
28. Oktober: Dietmar Kamper, deutscher Philosoph, Schriftsteller und Kultursoziologe (* 1936)
29. Oktober: Grigori Tschuchrai, sowjetischer Filmregisseur (* 1921)
30. Oktober: Marga Legal, deutsche Schauspielerin (* 1908)
30. Oktober: Matsudaira Yoritsune, japanischer Komponist (* 1907)
31. Oktober: Régine Cavagnoud, französische Skirennläuferin (* 1970)
November
1. November: Juan Bosch, dominikanischer Politiker, Staatschef und Schriftsteller (* 1909)
2. November: Thomas Schleicher, österreichischer Judoka (* 1972)
2. November: Buddy Starcher, US-amerikanischer Country-Musiker (* 1906)
5. November: Gholam Reza Azhari, iranischer General und Premierminister (* 1912)
5. November: Sawaki Kin’ichi, japanischer Schriftsteller (* 1919)
6. November: Erik Amburger, deutscher Osteuropahistoriker (* 1907)
6. November: Alfred Rieche, deutscher Chemiker (* 1902)
6. November: Anthony Shaffer, britischer Drehbuchautor (* 1926)
7. November: Sachiko Hidari, japanische Schauspielerin (* 1930)
8. November: Paolo Kardinal Bertoli, Kurienkardinal (* 1908)
10. November: Carl-Gustav Esseen, schwedischer Mathematiker (* 1918)
10. November: Ken Kesey, US-amerikanischer Schriftsteller und Aktionskünstler (* 1935)
12. November: Tony Miles, britischer Schachmeister. (* 1955)
13. November: Lonzo Westphal, deutscher Musiker (* 1952)
14. November: Oliver Hasenfratz, deutscher Schauspieler (* 1966)
15. November: Bienvenido Bustamante López, dominikanischer Komponist und Klarinettist (* 1923)
16. November: Mohammed Atef, ägyptischer Terrorist (* 1944)
16. November: Tommy Flanagan, US-amerikanischer Jazzpianist (* 1930)
19. November: Lucien Vincent, französischer Automobilrennfahrer (* 1909)
21. November: Sultan Salahuddin Abdul Aziz, König von Malaysia (* 1926)
23. November: Gerhard Stoltenberg, deutscher Politiker, Bundesminister (* 1928)
24. November: Robert Aulotte, französischer Romanist und Literaturwissenschaftler (* 1920)
24. November: Melanie Thornton, US-amerikanische Pop-Sängerin (* 1967)
25. November: Erna Steuri, Schweizer Skirennfahrerin (* 1917)
26. November: Regine Hildebrandt, deutsche Biologin und Politikerin (* 1941)
26. November: Werner-Viktor Toeffling, deutscher Maler und Bühnenbildner (* 1912)
26. November: Grete von Zieritz, österreichische Pianistin und Komponistin (* 1899)
27. November: Gordon Freeth, australischer Politiker (* 1914)
28. November: Hermann Barche, deutscher Politiker (* 1913)
29. November: Wiktor Petrowitsch Astafjew, russischer Schriftsteller (* 1924)
29. November: George Harrison, britischer Musiker (* 1943)
30. November: Bernd Hackländer, deutscher Hörspielautor (* 1950)
30. November: Michael Lentz, deutscher Drehbuchautor, Schauspieler und Regisseur (* 1926)
Dezember
3. Dezember: Grady Martin, US-amerikanischer Gitarrist (* 1929)
3. Dezember: Horst Winter, deutsch-österreichischer Musiker (* 1914)
4. Dezember: Hans Schicker, deutscher Geigenbauer (* 1924)
5. Dezember: Anton Benya, österreichischer Elektromechaniker, Gewerkschafter und Politiker (* 1912)
6. Dezember: Alois Brügger, Schweizer Arzt (* 1920)
6. Dezember: Carla Hansen, dänische Schriftstellerin (* 1906)
7. Dezember: Marie-Thérèse Chailley, französische Bratschistin und Musikpädagogin (* 1921)
9. Dezember: Willi Erzgräber, deutscher Anglist (* 1926)
11. Dezember: Herbert Lichtenfeld, deutscher Fernsehautor (* 1927)
12. Dezember: Armando T. Hunziker, argentinischer Botaniker (* 1919)
13. Dezember: Elsbeth Plehn, deutsche Sängerin, Gesangspädagogin und Hochschullehrerin (* 1922)
13. Dezember: Chuck Schuldiner, US-amerikanischer Gitarrist und Sänger (* 1967)
14. Dezember: Elisabeth Augustin, deutsch-niederländische Schriftstellerin (* 1903)
14. Dezember: W. G. Sebald, deutscher Schriftsteller (* 1944)
15. Dezember: Rufus Thomas, US-amerikanischer Blues-Musiker (* 1917)
16. Dezember: Stuart Adamson, schottischer Musiker (* 1958)
16. Dezember: Stefan Heym, deutscher Schriftsteller (* 1913)
16. Dezember: Christian Loidl, deutscher Schriftsteller und Performer (* 1957)
17. Dezember: Jeanne Mandello, deutsche Fotografin und jüdische Emigrantin (* 1907)
18. Dezember: Gilbert Bécaud, französischer Chansonnier (* 1927)
18. Dezember: Marcel Mule, französischer Saxophonist und Komponist (* 1901)
20. Dezember: Hans-Joachim Haase, deutscher Uhrmacher, Augenoptiker und Erfinder (* 1915)
20. Dezember: Léopold Sédar Senghor, afrikanischer Dichter und Politiker (* 1906)
21. Dezember: Thomas Sebeok, US-amerikanischer Professor für Semiotik (* 1920)
22. Dezember: Grzegorz Ciechowski, polnischer Rockmusiker (* 1957)
23. Dezember: Jean-Jacques Archambault, kanadischer Elektrotechniker und Ingenieur (* 1919)
22. Dezember: Angèle Durand, belgische Sängerin und Schauspielerin (* 1925)
22. Dezember: Jan Kott, polnischer Theaterwissenschaftler und Übersetzer (* 1914)
24. Dezember: Harvey Martin, US-amerikanischer American-Football-Spieler (* 1950)
25. Dezember: Werner Achmann, deutscher Szenenbildner und Filmausstatter (* 1929)
25. Dezember: Alfred A. Tomatis, französischer HNO-Arzt, Entwickler der Audio-Psycho-Phonologie (APP) (* 1920)
29. Dezember: Florian Fricke, deutscher Elektronikmusik-Pionier (* 1944)
30. Dezember: Hans Hermsdorf, deutscher Politiker (* 1914)
30. Dezember: Ernst Leisi, Schweizer Anglistikprofessor und Autor (* 1918)
31. Dezember: Eileen Heckart, US-amerikanische Schauspielerin (* 1919)
31. Dezember: Kurt Nowak, deutscher Theologe und Kirchenhistoriker (* 1942)
Tag unbekannt
Herbert Pepper, französischer Musikethnologe und Komponist (* 1912)
Wissenschaftspreise
Nobelpreise
Physik: Eric A. Cornell, Wolfgang Ketterle und Carl E. Wieman
Chemie: William S. Knowles, Ryōji Noyori und K. Barry Sharpless
Medizin: Leland H. Hartwell, Tim Hunt und Paul M. Nurse
Literatur: V. S. Naipaul
Friedensnobelpreis: Die UNO und ihr Generalsekretär Kofi Annan
Wirtschaftswissenschaft: George A. Akerlof, Michael Spence und Joseph E. Stiglitz
Turing Award
Ole-Johan Dahl und Kristen Nygaard, für das Aufkommen der objektorientierten Programmierung fundamentale Ideen durch das Design der Simula-Programmiersprachen, die Konzepte wie Objekte, Klassen und Vererbung einführten.
Weblinks
Jahresrückblick von tagesschau.de
Jahreschronik vom Haus der Geschichte der BRD
|
Q1988
| 4,952.607793 |
4743807
|
https://de.wikipedia.org/wiki/UTC%2B14
|
UTC+14
|
UTC+14 ist eine Zonenzeit, welche gleich wie die UTC−10 den Längenhalbkreis 150° West = 210° Ost als Bezugsmeridian hat. Beide Zonenzeiten sind ein und dieselbe Uhrzeit. Der Unterschied liegt im Kalenderdatum. Mit UTC+14 wird gleichzeitig darauf hingewiesen, dass man im Gebiet ihrer Anwendung (einzig im Ostteil des Inselstaates Kiribati; Stand: Dezember 2017) gegenüber Gebieten mit UTC−10 einen Kalendertag voraus ist. Die Datumsgrenze befindet sich in diesem Ausnahmefall östlich der UTC+14 entsprechenden (realen) Zeitzone.
Uhren mit UTC+14 zeigen vierzehn Stunden später als solche mit koordinierter Weltzeit (UTC±0), und dreizehn Stunden später als mitteleuropäische Zeit.
Geltungsbereich
Ganzjährig
Line Islands einschließlich Kiritimati
Ortszeit im östlichen Kiribati
Die Republik Kiribati beschloss 1994, das Datum auf ihren östlichsten Inseln Teraina, Tabuaeran und Kiritimati (Verwaltungsbezirk Line Islands) vorzustellen.
Bis dahin war die Datumslinie mitten durch den etwa 5000 km in Ost-West-Richtung ausgedehnten Staat verlaufen. Auf den benachbarten Inseln mit ähnlicher geographischer Länge, im Besonderen Hawaii (USA) im Norden und Tahiti (Französisch-Polynesien) im Süden, wird bis heute (Status: Dezember 2017) die Zonenzeit UTC−10 benutzt, auf den Line Islands aber seit dem 1. Januar 1995 die UTC+14, sodass jetzt dort zwar die gleiche Uhrzeit, aber ein um einen Tag späteres Datum als bei den nördlichen und südlichen Nachbarn besteht. Mit der Hauptstadt South Tarawa auf den in Kiribati am westlichsten gelegenen Gilbertinseln hat man nun dasselbe Datum und wie bisher eine zwei Stunden spätere Uhrzeit als diese (Gilbertinseln: UTC+12). Mit dieser Änderung wurde die Datumslinie im Bereich des Äquators um über 1000 Kilometer ostwärts verschoben.
Die Neuregelung war vom damaligen Beretitenti (Präsidenten) Teburoro Tito initiiert worden, wobei neben der erklärten Absicht, ein einheitliches Datum im ganzen Staatsgebiet zu haben, auch der Effekt eintrat, dass auf den Line Islands der früheste Datumswechsel vollzogen wird. Angesichts des nahenden Jahreswechsels 1999/2000 (Millennium) und der daraus folgenden enormen Aufmerksamkeit, die der Beginn der weltweiten Feierlichkeiten auf sich ziehen würde, protestierten Tonga und Neuseeland, deren Städte Niuafoʻou (Niua-Inseln, Zeitverschiebung UTC+13) beziehungsweise Waitangi (Chatham, verwendet heute UTC+12:45/UTC+13:45) bis dahin als die Datumslinien-nächsten Inselstädte galten. Die UNO lehnte jegliche Kompetenz ab (Zeitsetzung fällt in die nationale Zuständigkeit), und das Royal Greenwich Observatory registrierte den neuen Verlauf der Datumslinie.
Auf dem unbewohnten Caroline-Atoll der Line Islands findet seitdem der früheste Datumswechsel nach Sonnenzeit statt. Dort wurden die weltweiten Millenniumsfeiern mit einer Zeremonie am 31. Dezember 1999, 15:43 UTC±0 (1. Januar 2000, 5:43 Uhr UTC+14) eröffnet, und sie wird seither offiziell Millenniumsinsel (Millennium Island) genannt.
Die zu den United States Minor Outlying Islands gehörenden Inseln der Line Islands sind unbewohnt und beanspruchen keine eigene Uhrzeit.
Literatur
Einzelnachweise
UTC34
es:Huso horario#UTC+14:00, M†
|
Q7130
| 2,167.064424 |
4719643
|
https://de.wikipedia.org/wiki/UTC%2B5%3A45
|
UTC+5:45
|
UTC+5:45 ist eine Zonenzeit, die den Längenhalbkreis 86°15' Ost als Bezugsmeridian hat. Auf Uhren mit dieser Zonenzeit ist es fünfdreiviertel Stunden später als die koordinierte Weltzeit und vierdreiviertel Stunden später als die MEZ. UTC+5:45 ist die einzige offiziell von einem Staat (Nepal) als Standardzeit genutzte Zeitzone, die nicht genau um das Vielfache einer halben Stunde, sondern nur um das Vielfache einer Viertelstunde von der Koordinierten Weltzeit abweicht; lediglich auf den neuseeländischen Chathaminseln wird mit UTC+12:45 ebenfalls eine dergestalt von der UTC abweichende Zeit genutzt.
Geltungsbereich
Ganzjährig
Einzelnachweise
UTC25.75
Nepal
es:Huso horario#UTC+05:45, E†
|
Q6890
| 2,324.894842 |
20078
|
https://de.wikipedia.org/wiki/Garten
|
Garten
|
Ein Garten ist ein abgegrenztes Stück Land, in dem Pflanzen oder Tiere vom Menschen in Kultur genommen und somit gepflegt (kultiviert) werden. Im Gegensatz zu Parks werden Gärten meist privat genutzt.
Gärten werden nicht nur angelegt, um einen direkten Ertrag zu ernten (Nutzgarten), sondern auch um einem künstlerischen, spirituellen oder therapeutischen Zweck zu dienen, oder auch der Freizeitgestaltung und Erholung, wie Zier- und Kleingärten.
Etymologie
Der deutsche Begriff Garten leitet sich etymologisch von Gerte (indogermanisch gher und später ghortos, womit lateinisch hortus verwandt ist) ab. Gemeint sind Weiden-, Haselnussruten oder andere Gerten, die früher – ineinander verflochten – den ursprünglich in der Nähe des Hauses gelegenen Garten umfriedeten. Das Wort gerd, gard bezeichnet über gotisch garde „Gehege“, garda "Pferch" ursprünglich „das (mit Gerten) umzäunte Gelände“, während die von einem lebenden Zaun umstandenen Fläche im Wortfeld Hag, Hecke zu finden ist. Das niederländische Wort tuin für Garten (vgl. Deutsch Zaun, Altnordisch tún) geht auf eine ähnliche Entwicklung zurück.
Mittelalterliche Darstellungen zeigen auch ummauerte Gärten. In diesem Begriffsfeld steckt eine indogermanische Wurzel cart(o) „Schutz“, das in lateinisch hortus „Nutzgarten“, französisch jardin „Garten“ (deutsch aber Hort), althochdeutsch gard, gart, altnordisch garðr („Hof“, „Herrschaftsgebiet“, vergl. Asgard, Midgard) in englisch yard („Hof“), skandinavisch gaard („Hof“, „Gehöft“) und slawisch grad („Burg“, „Befestigung“, „Umfriedung“), indirekt auch der Garde („Wache“, „Schutztruppe“) wie auch in Eigennamen auf -gard/t (Luitgard, Irmgard, Eringard) erhalten ist.
Der dem Wort in der heutigen Form zugrundeliegende Begriff ist „umfriedetes Land zum Zweck des Anbaus von Pflanzen“. Der Garten stand unter besonderem rechtlichem Schutz (Gartenfrieden). Ortsnamen auf -gard/t(en), -gad(en) leiten sich aus diesem Kontext ab, vermischen sich aber mit dem althochdeutschen Wort gadam „Gadem“, „Raum“, „Gemach“, „Scheune“ (Berchtesgaden).
Die Konzeption eines Gartens ist jedoch in jeder Kultur unterschiedlich, westliche Garten-Definitionen und Konzepte sollten nicht ungeprüft übertragen werden. Siehe auch Garten Eden und Paradies.
Typen
Neben der heute oftmals anzutreffenden Form eines Mischgartens, der viele (also gemischte) Aspekte in sich vereint, unterscheidet man in Europa je nach schwerpunktmäßiger Nutzung
den Haus- oder Nutzgarten,
den Gemüse-, Obst- (früher auch Baumgarten genannt) und Kräutergarten,
den Kleingarten,
der urbane Garten,
den Naturgarten,
den botanischen Garten,
den Versuchsgarten,
den Lustgarten.
Ziergärten können öffentlich oder privat sein, eingefriedet oder zugänglich.
Ein großer Garten, der nicht (nur) zu Ertragszwecken, sondern als ästhetisches Objekt angelegt und unterhalten wird, ist ein Park, auch wenn sich im Namen solcher Anlagen das Wort „Garten“ erhalten hat, wie beim Englischen Garten. Ästhetisch gestaltete Gärten und Parks erhalten die Bezeichnung nach
Bepflanzung: Rosengarten, Kräutergarten, Staudengarten,
Umwelt: Wüstengarten, Kiesgarten, Steingarten, Schattengarten, Wassergarten, Tropischer Garten,
Stil: Persischer Garten, Chinesischer Garten, Japanischer Garten, Zengarten, Barockgarten (Französischer Garten), Italienischer Garten, Englischer Landschaftsgarten, Landschaftsgarten,
gestalterischem Thema: Bibelgarten, Künstlergarten,
Lage: Klostergarten, Kreuzgarten (Kreuzganggarten), Burggarten,
Nutzern: Bauerngarten.
Bepflanzung
In einem Garten verwendet man Nutzpflanzen, insbesondere:
Obst,
Gemüse,
Küchen- und Gewürzkräuter,
Heilpflanzen.
Eine weitere Gruppe sind die Zierpflanzen. An Typen lassen sich unterscheiden:
Sommerblumen – Einjährige oder Zweijährige – blühen im ersten oder zweiten Jahr nach der Aussaat
Stauden – Mehrjährige – ziehen im Winter ein und treiben aus Wurzel, Zwiebel oder Knolle wieder neu aus
Gehölze – Halbsträucher, Sträucher, Bäume (Laubgehölze und Koniferen) – sommergrüne, wintergrüne, immergrüne
Kübelpflanzen – frostempfindliche Pflanzen, die im Haus oder Wintergarten überwintern müssen
Wasserpflanzen – für Teiche
Geschichte
Botanische Gärten
Der botanische Gartenbau in Europa kam erst dauerhaft im 16. Jahrhundert, nach der Entdeckung Mexikos, in Schwung und ging zunächst von Spanien aus. Gaspar de Gabriel, ein reicher toskanischer Edelmann, gründete 1525 den ersten botanischen Garten, dem bald der von Cornaro in Venedig, der von Simonetti in Mailand, von Pinetta in Neapel und andere folgten. 1545 wurde vom Senat in Venedig die Anlage eines öffentlichen botanischen Gartens in Padua bewilligt, Papst Pius V. ließ den in Bologna einrichten, der Großherzog von Toskana den in Florenz, und bald darauf hatte beinahe jede bedeutende Stadt in Italien einen botanischen Garten. Auch in Frankreich wurden 1597 botanische Gärten angelegt.
Als Ökosystem
Gärten können für die Biodiversität eine wichtige Bedeutung haben. Ihre vielfältigen Strukturen wie Hecken, Büsche, Zäune, Asthaufen oder Einzelbäume bieten Insekten, Vögeln und Amphibien Unterschlupf und Jagdrevier. Dabei spielt jedoch die Art des Gartens eine große Rolle. Herausgeputzte Privatgärten wirken sich nachteilig auf die Artenvielfalt aus. Zu diesem Schluss kam auch die nationale Hummelnest-Zählung 2007 in England, bei der 700 Freiwillige im eigenen Garten sämtliche Nester absuchten. Dabei stellte sich heraus, dass Gärten mit vielen unordentlichen Zonen in der Regel mehr Hummeln aufweisen. Damit hängt es direkt vom individuellen ästhetischen Empfinden des Besitzers ab, ob ein Garten als ökologische Nische dienen kann oder nicht.
Zumindest auf dem Papier hat sich das Wissen um den Nutzen von Strukturreichtum niedergeschlagen. Ein Beispiel sind die Richtlinien für die Besitzer von Kleingärten in Zürich. Dort heißt es explizit:
Eine Studie aus den USA zeigte auf, dass die Bereitschaft zum naturnahen Gartenbau stark vom Aussehen des Gartens des Nachbarn abhänge. Wenn dieser einen sauber geschnittenen Rasen führe, fühle man sich selbst ebenfalls dazu verpflichtet. Einer Studie aus der Schweiz zufolge würden artenarme Gärten generell als ästhetisch nicht ansprechend bewertet. Die Zustimmung steige jedoch, je farbenfroher, artenreicher und wilder ihr Erscheinungsbild sei. Irgendwann kippt diese Bewertung wieder; gänzlich chaotische Gärten würden selten als schön empfunden. Die Ausnahme bildet der vertikale Garten, bei dem eine bunte Vielfalt erwünscht ist.
Schwerpunktmäßig in Deutschland, Österreich und der Schweiz löste die vermehrte Anlage von Schottergärten, die im Wesentlichen nur aus dekorativen Steinflächen bestehen und keine oder nur wenig, naturferne Vegetation beinhalten, vermehrt Kritik aus.
Siehe auch
Blindengarten
Irrgarten
Vorgarten
Literatur
Eva Berger: Die neuzeitliche Gartengestaltung faßt den Garten als erweiterte Wohnung auf. In: Die Gartenkunst. Band 20, Nr. 1, 2008, S. 47–82.
Maureen Carroll-Spillecke (Hrsg.): Der Garten von der Antike zum Mittelalter (= Kulturgeschichte der antiken Welt. Band 57). 2. Auflage. Von Zabern, Mainz 1995, ISBN 3-8053-1355-1.
Friedrich Jakob Dochnahl: Bibliotheca Hortensis. Nürnberg 1861 (Digitalisat) – Bibliographie der 1750–1860 erschienenen deutschen Gartenliteratur.
Anne Marie Fröhlich (Hrsg.): Gärten – Texte aus der Weltliteratur, Manesse Verlag, Zürich 1993, ISBN 3-7175-1836-4.
John Harvey: Early gardening catalogues with complete reprints of lists and accounts of the 16th–19th centuries. Phillimore/Chichester 1972.
John Harvey: Medieval gardens. Timber Press, Oregon 1981.
Dieter Hennebo: Gärten des Mittelalters. (Hamburg 1962) München/ Zürich 1987.
Walter Jannsen: Mittelalterliche Gartenkultur. Nahrung und Rekreation. In: Bernd Herrmann (Hrsg.): Mensch und Umwelt im Mittelalter. Stuttgart 1986, S. 224–243.
Hans Sarkowicz (Hrsg.): Die Geschichte der Gärten und Parks. Insel Verlag, Frankfurt am Main/Leipzig 2001, ISBN 3-458-34423-3.
Wolfgang Teichert: Gärten: Paradiesische Kulturen. Stuttgart 1986.
Christopher Thacker: Die Geschichte der Gärten. Aus dem Englischen übertragen von Dieter W. Portmann. Orell Füssli, Zürich 1979.
Weblinks
Einzelnachweise
Biotoptyp
|
Q1107656
| 295.24343 |
275462
|
https://de.wikipedia.org/wiki/Springspinnen
|
Springspinnen
|
Die Springspinnen (Salticidae) bilden die artenreichste Familie in der Ordnung der Webspinnen (Araneae) und sind gleichzeitig die einzige Familie in der Überfamilie Salticoidea. Zu den Springspinnen gehören derzeit 5862 Arten in 595 Gattungen (Stand: Mai 2016). Es gibt einige noch nicht-validierte Arten bzw. Unterarten sowie fossile Taxa, die hier noch nicht berücksichtigt sind. Springspinnen sind weltweit verbreitet.
Lebensweise
Ihren Namen verdankt diese Spinnenfamilie der Jagdstrategie der zu ihr gehörenden Arten. So lauern Springspinnen am Boden oder an Hauswänden auf ihre Beute und springen sie an. Sie verfügen zwar auch über Spinndrüsen, verwenden diese aber nicht zum Bau von Spinnennetzen, sondern nutzen ihre Seide zum Bau von Eikokons. Einige Arten sichern sich – ähnlich einem Bergsteiger – bei ihren Sprüngen mit einem Faden aus Spinnenseide, so dass sie nach einem Sprung relativ einfach wieder zum Ausgangspunkt zurückkehren können, indem sie sich wieder am eigenen Faden hinaufziehen.
Bei der Auswahl ihrer Beute nutzen die Spinnen sowohl ihren Seh- als auch ihren Geruchssinn. Bei der Art Evarcha culicivora, deren Besonderheit darin liegt, dass sie Stechmücken der Gattung Anopheles nach deren Blutmahlzeit an Wirbeltieren erbeutet, wurde nachgewiesen, dass sie ihr Jagdhabitat anhand des Geruchs auswählt und dabei die Nähe zu menschlichen Gerüchen sucht, genau wie es ihre Beutetiere, die Stechmücken, tun.
Morphologie und Sinnesorgane
Die für Netzspinnen bemerkenswerte Schnelligkeit und Sprungfähigkeit spiegelt sich auch in einer Anpassung der Laufbeine und Laufbeinspitzen (Tarsus) wider. Die kurzen und kräftigen Beine werden hydraulisch, durch die Erhöhung des Hämolymphdruckes, in weniger als 18 Millisekunden gestreckt. Mehr Scopulahaare an den Tarsusspitzen erzeugen große Adhäsionskräfte, so dass sie auch an glatten Oberflächen emporklettern können. Der überwiegende Rest der Webspinnen, die Trionycha, besitzen drei Tarsalklauen, mit denen sie filigrane Netze weben können. Bei den Dionycha, zu denen auch die Springspinnen gehören, fehlt die mittlere Klaue zu Gunsten dichter Scopulahaare.
Der schnelle Sprung erfordert auch eine Veränderung des Sehsinns. Die Mehrheit der Webspinnen ist nachtaktiv und sehr „kurzsichtig“; sie nehmen ihre Umgebung mehr über multifunktionale Spaltsinnesorgane und Infraschall durch ihre Behaarung (Trichobothrien) wahr. Die Springspinnen hingegen haben einen wesentlich höher entwickelten Sehsinn, der für sie lebenswichtig ist.
Springspinnen besitzen in ihren Hauptaugen einen für Gliederfüßer sehr hoch entwickelten Sehsinn, der ein erweitertes Spektrum bis ins Ultraviolette zulässt. Vier Sehzellentypen (Tetrachromat) kommen vor, die zudem auch sehr zahlreich sind. Die stark vergrößerten und nach vorne ausgerichteten Hauptaugen besitzen große Glaskörper, was eine lange Brennweite erzeugt. Die Linse fokussiert auf die vier untereinander liegenden Netzhautschichten in Abhängigkeit von der Wellenlänge des Lichtes. Die unterste und die darüberliegende Netzhaut sind grün-empfindlich. Das Grünbild wird jedoch nur auf der untersten scharf dargestellt. Der Unschärfeunterschied zwischen diesen beiden Netzhäuten erlaubt eine Entfernungsbeurteilung.
Die Retina kann durch drei Muskelpaare so bewegt werden, dass die Springspinne ihr Gesichtsfeld der Hauptaugen erweitern kann und es sich mit dem der Seitenaugen überschneidet und so räumliches Sehen zulässt. Das scharfe und farbige Bild von Beute oder Partner wird ab einer Entfernung von mehr als 10 Zentimetern gesehen. Da sie ihre Beute sehen, erkennen manche Arten auch tote Insekten oder Insekteneier als Nahrung: Man kann sie leicht füttern. Phidippus audax kann seine Beute und Artgenossen sogar aus 20 bis 30 Zentimeter Entfernung visuell erkennen und hat damit wahrscheinlich den am besten entwickelten Sehsinn der Spinnentiere.
Auf eine Entfernung von mehreren Dezimetern dienen ihr die Spaltsinnesorgane, Haare und Chemorezeptoren wie Geruch und Geschmack zur Orientierung, mit zunehmender Nähe spielt der Sehsinn eine Rolle. Mit diesem Zusammenspiel können sie von Zweig zu Zweig und von Blatt zu Blatt springen, Hindernisse umgehen und komplexe Manöver ausführen, um sich an ihre Beute anzuschleichen. Aus nur wenigen Zentimetern Abstand wird die Beute angesprungen.
Das Paarungsverhalten ist stark von dieser visuellen Ausrichtung bestimmt. Springspinnen weisen einen deutlichen Geschlechtsdimorphismus auf. Die Männchen haben oft auffällige und bizarre Ausbildungen wie bunt glänzende Körperbehaarung, Fiederhaare, Fransen an den Vorderbeinen und andere Zeichen, die sie im Balztanz dem Weibchen zeigen. Die Balztänze sind komplexe Figuren aus Tanzschritten wie Seitwärtslaufen, Zick-Zack-Bewegungen oder Trommeln mit den Pedipalpen oder Laufbeinen. Besonders Letzteres ist auch bei anderen Spinnen zu beobachten, die damit zur innerartlichen Kommunikation Vibrationen oder Schall erzeugen. Diese akustische Kommunikation ist noch kaum erforscht.
Arten und Gattungen
Die über 5800 Arten werden in mindestens 18 Unterfamilien eingeteilt. Der World Spider Catalog listet für die Springspinnen aktuell 595 Gattungen und 5862 Arten. (Stand: Mai 2016)
Ausgewählte Gattungen und Arten aus Mitteleuropa
Laut Stefan Heimer und Wolfgang Nentwig: Spinnen Mitteleuropas. Verlag Paul Parey, Berlin 1991 ISBN 3-489-53534-0.
Carrhotus
Wipfelspringer (Carrhotus xanthogramma (Latreille, 1819))
Euophrys C. L. Koch, 1834
Euophrys frontalis (Walckenaer, 1802)
Evarcha Simon, 1902
Dunkler Sichelspringer (Evarcha arcuata (Clerck, 1757))
Bunter Sichelspringer (Evarcha falcata (Clerck, 1757))
Steppen-Sichelspringer (Evarcha michailovi Logunov, 1992)
Heide-Sichelspringer (Evarcha laetabunda (C. L. Koch, 1846))
Hasarius
Gewächshausspringspinne Hasarius adansoni (Audouin, 1826) Kulturfolger in Gewächshäusern
Heliophanus C. L. Koch, 1833
Kupfrige Sonnenspringspinne (Heliophanus cupreus) (Walckenaer, 1802)
Marpissa C. L. Koch, 1846
Rindenspringspinne Marpissa muscosa (Clerck, 1757)
Myrmarachne Macleay, 1839
Ameisenspringspinne Myrmarachne formicaria (De Geer, 1778)
Neon Simon, 1876
Pellenes Simon, 1876
Philaeus Thorell, 1869
Goldaugenspringspinne Philaeus chrysops (Poda, 1761)
Pseudeuophrys Dahl, 1912
Pseudeuophrys erratica
Wollige Mauerspringspinne Pseudeuophrys lanigera (Simon, 1871)
Saitis Simon, 1876
Saitis barbipes (Simon, 1868)
Saitis berlandi (Roewer, 1951)
Salticus Latreille, 1804
Mauer-Zebraspringspinne Salticus scenicus (Clerck, 1757)
Holz-Zebraspringspinne Salticus cingulatus (Panzer, 1797)
Sitticus Simon, 1902
Vierpunktspringspinne Sitticus pubescens (Fabricius, 1902)
Weitere europäische Arten
Evarcha jucunda
Menemerus taeniatus
Außereuropäische Taxa
Gattungen:
Phidippus (Amerika – eine der größten Arten)
Portia (Afrika, südliche Paläarktis)
Sondra (Australien)
Arten:
Asemonea cuprea (Sambia)
Bagheera kiplingi (Mittelamerika)
Euophrys omnisuperstes (Himalaya)
Zygoballus sexpunctatus (Nordamerika)
Telamonia dimidiata
Einzelnachweise
Literatur
Stefan Heimer und Wolfgang Nentwig: Spinnen Mitteleuropas. Verlag Paul Parey, Berlin 1991, ISBN 3-489-53534-0.
Weblinks
Jumping spiders of the world
Salticidae.org – englische Seite über Springspinnen
Springspinne in Zeitlupe
|
Q11687
| 108.344513 |
10405
|
https://de.wikipedia.org/wiki/S%C3%BCdkorea
|
Südkorea
|
Die Republik Korea (koreanisch: , Hanja: , IPA [], revidierte Romanisierung: Daehan Minguk, McCune-Reischauer: Taehan Min’guk), meist Südkorea genannt, ist ein demokratischer Staat in Ostasien. Das Land nimmt den südlichen Teil der Koreanischen Halbinsel ein. Das einzige Nachbarland ist das nördlich gelegene Nordkorea; im Westen grenzt Südkorea an das Gelbe Meer (in Südkorea „Westmeer“ genannt), im Süden an das Ostchinesische Meer und im Osten an das Ostmeer. Mit rund 52 Millionen Einwohnern zählt Südkorea zu den 30 bevölkerungsreichsten Staaten der Erde. Abgesehen von Bangladesch ist zudem kein Staat einer solchen Größe so dicht besiedelt. Etwa die Hälfte der Einwohner Südkoreas lebt im Großraum der Hauptstadt Seoul, genannt „Sudogwon“, eine der größten Metropolregionen der Welt. Über zwei Millionen Menschen leben zudem jeweils in den Städten Busan, Incheon und Daegu.
Von 1910 bis zum Ende des Zweiten Weltkriegs war Korea eine japanische Kolonie. Die Sowjetunion und die USA unterteilten Korea nach der Niederlage Japans in zwei Besatzungszonen. 1948 gründeten sich in der Folge zwei neue Staaten mit gegensätzlichen politischen Systemen; Südkorea wurde durch den Einfluss der USA zu einer parlamentarischen Demokratie. Bis 1987 litt es noch unter mehreren Militärregierungen, seit den 1990er Jahren ist Südkorea aber gemäß verschiedener Demokratiemessungen einer der demokratischsten Staaten Asiens, vergleichbar mit Deutschland und Österreich.
Seit dem Koreakrieg (1950–1953), einem der größten Stellvertreterkriege des Kalten Krieges, ist das Verhältnis beider koreanischer Staaten stark belastet. Das totalitäre, international weitestgehend isolierte Nordkorea droht in den letzten Jahren unter großer Aufmerksamkeit der Weltöffentlichkeit regelmäßig mit dem Einsatz von Kernwaffen gegen Südkorea. Aufgrund der allgemeinen Bedrohung durch Nordkorea besitzt Südkorea eine der nach Soldatenanzahl größten Streitkräfte der Welt.
Durch den Koreakrieg wurde das Land komplett zerstört und zu einem der ärmsten der Erde. Ab 1962 kam es dann aber zu einem rapiden Wirtschaftsaufschwung. Das „Wunder am Han-Fluss“ machte Südkorea innerhalb weniger Jahrzehnte von einem armen Agrarland zu einem hochmodernen, reichen Industriestaat („Tigerstaat“). Die südkoreanische Industrie beherrscht vor allem in der Produktion von Schiffen und elektronischen Produkten (wie Halbleitern, Mikrochips, Flachbildschirmen und Computern) den Weltmarkt. Südkorea ist Mitglied in mehreren internationalen Wirtschaftsorganisationen, z. B. der G20, der OECD, der APEC und von ASEAN+3.
Durch die Koreanische Welle hat Südkorea kulturell weltweit eine große Bedeutung und Einfluss.
Staatsname
Der offizielle deutsche Staatsname lautet Republik Korea; umgangssprachlich spricht man jedoch meist von Südkorea. Auf Koreanisch heißt das Land offiziell Daehan Minguk (, ; dt. „Großkoreanische Republik, Republik Groß-Korea“). Allgemein wird es in Südkorea in der Form Hanguk (, , „Korea-Staat“) oder offiziell auch Daehan (, ) genannt. Außerdem existiert in Abgrenzung zu Bukhan (, Nordkorea) für Nordkorea auch Namhan (, für Südkorea), ist aber nicht geläufig. Da in Nordkorea „Korea“ nicht als Han (, ), sondern als Chosŏn (, ) bezeichnet wird, heißt „Südkorea“ dort entsprechend Nam-Chosŏn (, , „Süd-Chosŏn“).
Das Wort Han (, ) geht auf den historischen Reichsbund Samhan (, ; „Drei Han“) zurück, der aus den Reichen Mahan (, ), Jinhan (, ) und Byeonhan (, ) gebildet war und im Zeitraum vom ersten bis vierten Jahrhundert n. Chr. bestand. Dieser Name wurde in der Bezeichnung des im Jahr 1897 gegründeten Kaiserreichs Daehan Jeguk (Kaiserreich Groß-Korea) wieder aufgegriffen.
Der Name in den westlichen Sprachen hat seinen Ursprung in Cauly, wie Marco Polo die Halbinsel während seiner Reisen im späten 13. Jahrhundert nannte. Dies beruht vermutlich auf der chinesischen Aussprache des koreanischen Königreichs Goryeo (). In europäischen Aufzeichnungen tauchen bis ins 20. Jahrhundert hinein die beiden Schreibweisen Corea und Korea auf. Im englischen und deutschen Sprachraum setzte sich schließlich die Schreibweise mit K, in romanischen Sprachen die Schreibung mit C durch.
Geographie
Südkoreas Fläche beträgt 100.284 Quadratkilometer. Davon entfallen nur 290 Quadratkilometer auf Wasserflächen, da es keine größeren natürlichen Seen gibt.
Südkorea umfasst den südlichen Teil der Koreanischen Halbinsel und vorgelagerte Inseln. Nahe der Westküste und im Südosten liegt ebenes, aber fast überall mit Hügeln durchsetztes Land, das höchstens ein Drittel des Staatsgebiets ausmacht, aber die große Mehrheit der Einwohner beherbergt. Der große Rest des Landes ist gebirgig; außer auf einem schmalen Streifen an der Ostküste und in kleinen Talgründen gibt es keine Tiefebenen. Sowohl die Gebirge als auch die Hügel der Ebenen sind meist bewaldet; sie erreichen zwar selten große Höhen, haben aber oft ein steiles Relief.
Berge und Gebirgszüge
Etwa 70 % Südkoreas sind gebirgig. Höchster Berg ist der Vulkan Hallasan mit 1950 Metern auf der Insel Jeju, auf dem südkoreanischen Festland sind am höchsten der Jirisan im Süden mit 1915 Metern und der Seoraksan im Nordosten mit 1708 Metern. Südkorea wird von fünf größeren Gebirgen durchzogen, das größte ist das Taebaek-Gebirge. Es beginnt im südöstlichen Nordkorea und zieht sich dann fast die gesamte Ostküste Südkoreas entlang. Vom Taebaek zweigt der zweitgrößte, Sobaek genannte Gebirgszug in südwestlicher Richtung ab; er zieht sich durch das Zentrum des Landes. Kleiner sind das Gwangju-, das Charyeong- und das Noryang-Gebirge. Die aus Nordkorea über den Seoraksan bis zum Jirisan verlaufende Hauptwasserscheide heißt Baekdu-daegan (; ).
Flüsse
Vier größere Flüsse durchziehen Südkorea. Der längste von ihnen heißt Nakdonggang und hat eine Länge von 525 Kilometern. Er entsteht aus dem Zusammenfluss zweier im Taebaek-Gebirge entspringender Quellflüsse bei der Stadt Taebaek und fließt von dort, anders als die meisten Flüsse des Landes, nach Süden und mündet bei Busan ins Ostmeer. Zweitlängster Fluss mit 497,5 Kilometern ist der Hangang, dessen Nordarm in Nordkorea entspringt. Sein Südarm entspringt ebenfalls am Berg Taebaek. Beide Han-Flüsse vereinigen sich etwa 35 Kilometer vor Seoul, bevor sie vereint die Hauptstadt mittig durchfließen und kurz danach als Grenzfluss zu Nordkorea in das Gelbe Meer münden. Weitere bedeutende Flüsse sind der Geumgang (401 Kilometer) und der Seomjingang (212 Kilometer).
Küste und Inseln
Südkorea stößt an drei Seiten ans Meer:
Im Osten an das Ostmeer, international auch als „Japanisches Meer“ bezeichnet (siehe auch Namensstreit um das Japanische Meer),
im Süden an die Koreastraße,
im Westen an das Gelbe Meer.
Die Küstenlinie ist insgesamt 2413 Kilometer lang.
Die Küsten im Westen und Süden weisen als Ria viele Buchten und Halbinseln auf, denen rund 4400 mittelgroße und kleinere Inseln vorgelagert sind. Davon sind weniger als 500 bewohnt. An der Westküste liegt das zweitgrößte Wattenmeer der Erde mit dem Namen Saemangeum. Der buchtenarmen und vielerorts steilen Ostküste sind nur wenige und sehr kleine Inseln und Felsen vorgelagert.
Die mit Abstand größte Insel heißt Jejudo. Sie liegt rund 150 Kilometer südlich der Südwestküste des Festlands, ist 1845,6 Quadratkilometer groß und bildet mit einigen kleinen Inseln die Provinz Jeju-do.
Flora und Fauna
Etwa zwei Drittel des Landes sind bewaldet. Die ursprünglichen Mischwälder mit Eichen, Ahorn, Buchen, Ulmen, Pappeln, Fichten und Espen sind an vielen Stellen einem Sekundärwald gewichen, da sehr viel Wald dem Brennholzbedarf und dem Brandrodungsfeldbau zum Opfer gefallen ist. In höheren Lagen schließt Nadelwald mit Fichten und Lärchen an. Die Pflanzenwelt Südkoreas ist beträchtlich artenreicher als die Mitteleuropas. Allein die leicht sichtbaren höheren Pflanzen sind mit etwa 3400 Arten und Unterarten in 880 Gattungen vertreten. So reicht Koreas Pflanzenpalette von alpinen Latschen und Rhododendren oberhalb der Baumgrenze im Nordgebirge bis zum subtropischen Bambus, Lorbeer und Kamelien an der warmen Südküste und auf Jejudo.
Große Raubtiere wie Tiger, Leoparden und Kragenbären waren auf der gesamten Koreanischen Halbinsel verbreitet; durch Abholzung und Wilderei sind sie aber praktisch aus Südkorea verschwunden. Während Tiger und Leopard ausgestorben sind, überlebte ein kleiner Restbestand von Kragenbären im Norden in der demilitarisierten Zone und im Süden im Jirisan-Nationalpark, wo die Regierung in den 1990er Jahren ein Erhaltungs- und Wiederansiedlungsprojekt begann. Weitere Raubtiere in den Wäldern sind der Luchs, die Bengalkatze, der Marderhund, das Feuerwiesel, der Fischotter und im Nordosten des Landes der Mongolische Wolf. Zu den größeren Säugetieren gehören der Langschwanzgoral, das Sibirische Moschustier, verschiedene Hirscharten und Wildschweine. An den Küsten gibt es Seehunde. Bemerkenswerte Vogelarten sind die Mandarinente, der Weißbauch-Schwarzspecht, Mandschurenkranich und Halsband-Zwergohreule.
Etwa 3,9 % der Staatsfläche Südkoreas stehen unter Naturschutz.
Naturerscheinungen
Anders als das benachbarte Japan ist Südkorea kaum von Naturkatastrophen betroffen. So ereignen sich in Südkorea nur durchschnittlich 20 Erdbeben pro Jahr. Davon liegen im Mittel 9,2 Erdbeben jährlich über dem Wert 3,0 auf der Richterskala (entspricht der „Wahrnehmungsschwelle“ eines Erdbebens). Im langjährigen Trend hat die Anzahl der Beben allerdings seit 1992 wieder zugenommen. Im Jahr 2006 ereigneten sich insgesamt 50 Erdbeben, im Jahr 2007 waren es insgesamt 42 und im Jahr 2008 insgesamt 46. In Japan hingegen werden im Jahr rund 1200 Erdbeben mit Intensitäten größer 3,0 auf der Richterskala gezählt. In Südkorea gibt es außerdem keine aktiven Vulkane.
Vor allem in der Zeit zwischen Ende Juli und Anfang September können Taifune auftreten, die meist aber ihre Kraft schon verlieren, bevor sie Südkorea erreichen. Von März bis Mai ist die Luft bisweilen mit feinem gelbem Wüstensand (kor. hwangsa) gefüllt, der aus China oder der Mongolei zusammen mit Schadstoffen herüberweht und sich wie eine Nebelglocke über das Land legt.
Klima
Südkorea liegt in der gemäßigten Klimazone, in der man vier verschiedene Jahreszeiten unterscheidet. Ausgenommen hiervon sind einige subtropische Täler an der Südküste von Jejudo sowie einige Höhenregionen über 1700 Meter.
Der Frühling beginnt meist zwischen Ende März und Anfang April und ist mild und recht sonnig. Die Winde tragen dann oft feinen gelben Wüstenstaub aus der Wüste Gobi nach Südkorea. Im Sommer führen Südwinde heiße, feuchte Luft von den Philippinen herbei. Die sommerliche Monsunzeit, in Südkorea Jangma () genannt, beginnt meist Ende Juni oder Anfang Juli und reicht bis in den September hinein. Ein Großteil der jährlichen Niederschläge geht in dieser Zeit hernieder. Regen wechselt dabei mit klaren Tagen. Dem folgt ein sehr heißer Mittsommer, der vor allem durch die hohe Luftfeuchtigkeit nur schwer erträglich ist. Die Tageshöchsttemperatur übersteigt dann oft 30 °C, begleitet von einer Luftfeuchtigkeit von 80 bis 95 %.
Mitte September setzt der Herbst ein, wenn die Winde wieder aus Nordwest wehen. Die trockene Kontinentalluft sorgt für viel Sonne, während die Temperatur langsam zu sinken beginnt. Der Winter ist in Südkorea sehr kalt und trocken. Die Winde aus Sibirien bringen selten Schnee. Ab Januar sorgt eine besondere Klimakonstellation für ein eigentümliches Temperaturschema, bei dem sich drei kalte Tage mit vier etwas milderen abwechseln.
Klimadaten
Mittelwerte der Jahre 1961–1990. Die Jahreszeiten bezeichnen jeweils ein ganzes Vierteljahr (Frühling: März bis Mai, Sommer: Juni bis August, Herbst: September bis November, Winter: Dezember bis Februar)Anmerkung: Die Quelle dieser Daten ist nicht mehr verfügbar, wohl aber statistische Klimadaten der koreanischen Regierung von 2001 bis 2017
Die Durchschnittsdaten einzelner Regionen weichen teilweise deutlich von den genannten ab. In den nördlichen und zentralen Regionen muss über das Jahr hinweg mit höheren Temperaturdifferenzen gerechnet werden als in den südlichen Küstengebieten. An der Ostküste ist es meist etwas wärmer als an der Westküste, da das Taebaek-Gebirge am Einfallen kalter Winde aus Sibirien hindert.
Umweltverschmutzung
Das schnelle Wirtschaftswachstum Südkoreas führte zu zahlreichen Nebenwirkungen auf die Umwelt. Emissionen aus Industrie und Verkehr erzeugen eine hohe Luftbelastung und lassen sauren Regen entstehen. Pro Kopf werden in Südkorea jährlich 9,5 Tonnen Kohlenstoffdioxid (Schätzung für 2002) ausgestoßen. Südkorea hatte 2015 die neunt-höchsten CO2- Emissionen. Südkorea ist trotz seiner relativ kleinen Bevölkerung der weltweit zweitgrößte Konsument von FCKW. Ein weiteres großes Problem stellen die Verschmutzung der Gewässer durch Abwässer aus Wohngebieten und Industrie sowie die rasch wachsenden Müllberge dar, die teilweise durch die verschwenderische Verpackung von Konsumgütern ausgelöst wird. Das Problem der grenzüberschreitenden Umweltverschmutzung versucht das Umweltministerium Südkoreas zusammen mit den zuständigen Stellen Japans und der Volksrepublik China zu lösen.
Städte
Im Jahr 2021 lebten 81 Prozent der Einwohner Südkoreas in Städten. Größte Stadt ist mit mehr als 10 Mio. Einwohnern die Hauptstadt Seoul im Nordwesten. Zusammen mit den umliegenden Städten bildet sie die Sudogwon genannte Metropolregion, mit etwa 25 Millionen Einwohnern einer der größten Ballungsräume der Welt. Im äußersten Südosten der Halbinsel liegt Südkoreas zweitgrößte Stadt Busan (3,5 Mio. Einwohner); sie besitzt einen der umschlagstärksten Häfen der Welt. Danach folgen die vor den Toren Seouls an der Westküste gelegene Hafenstadt Incheon (2,9 Mio. Einwohner) sowie das im südöstlichen Landesinneren befindliche Daegu mit 2.493.264 Einwohnern. Fünftgrößte Stadt ist das zentral gelegene Daejeon mit 1,5 Mio. Einwohnern, sechstgrößte Gwangju mit 1,5 Mio. Einwohnern im Südwesten. Anders als die zuvor genannten Städte sind Suwon (1,2 Mio. Einwohner), Goyang (1,0 Mio. Einwohner) und Seongnam (0,98 Mio. Einwohner) keine politisch einer Provinz gleichgestellten Gebilde, sondern gehören zur Provinz Gyeonggi-do. Sie liegen wie Incheon so nahe bei Seoul, dass sie inzwischen an dessen U-Bahn-Netz angeschlossen wurden. Achtgrößte Stadt ist das am südlichen Teil der Ostküste gelegene Ulsan mit 1,2 Mio. Einwohnern.
Nach dem Ende des Koreakriegs setzte in Südkorea eine Landflucht von den ländlichen Gebieten in die Städte, und hier insbesondere nach Seoul ein. Seit 1990 sind aber zunehmend die Vororte von Seoul Siedlungsziel, wo mit großangelegten Bauprogrammen ganze Satellitenstädte hochgezogen wurden.
Verwaltungsgliederung
Südkorea ist auf der höchsten Unterebene politisch gegliedert
in eine Besondere Stadt:
Seoul,
in eine Besondere autonome Stadt:
Sejong,
in sechs selbstständige Großstädte:
Busan, Daegu, Daejeon, Gwangju, Incheon und Ulsan
in acht Provinzen:
Chungcheongbuk-do, Chungcheongnam-do, Gangwon-do, Gyeonggi-do, Gyeongsangbuk-do, Gyeongsangnam-do, Jeollabuk-do und Jeollanam-do
sowie in eine Besondere autonome Provinz:
Jeju-do.
Bevölkerung
Demografie
Südkorea hatte 2020 51,8 Millionen Einwohner. Das jährliche Bevölkerungswachstum betrug + 0,1 %.
Die Südkoreaner haben eine sehr hohe Lebenserwartung, sie lag 2020 bei insgesamt 82,8 Jahren, bei 79,7 Jahren für Männer und 86,1 Jahren für Frauen. Dabei hat Südkorea weltweit eine der höchsten Krebsüberlebensraten. Die Lebenserwartung in Südkorea ist in den letzten Jahrzehnten enorm angestiegen: Im Jahre 1950 betrug sie laut Zahlen der UN noch 35,6 Jahre. Bis 2032 soll Südkorea gemäß Prognosen das Land mit der höchsten Lebenserwartung der Welt sein (Männer: 84 Jahre; Frauen: 92 Jahre). Dies trägt zu einer schnellen Alterung der Bevölkerung bei. Waren etwa 2000 nur 7,2 % der Bevölkerung 65 Jahre oder älter, so erreichte der Anteil dieser Altersgruppe im Jahre 2015 schon 13,1 %. Das Medianalter lag 2020 bei 41,6 Jahren. Die Fertilitätsrate ist eine der niedrigsten der Welt und lag 2020 bei 0,84 Kinder pro Frau. Damit ist die Bevölkerung erstmals seit Bestehen der Republik geschrumpft.
Südkorea wies 2015 zu der Zeit eine Bevölkerungsdichte von etwa 513 Personen pro Quadratkilometer auf. Im Jahr 2021 lebten 81 Prozent der Einwohner Südkoreas in Städten.
Ethnien und Migration
Der Großteil der Bevölkerung Südkoreas sind Koreaner.
Die Gesamtbevölkerung der Koreanischen Halbinsel, also die der heutigen Staaten Nord- und Südkoreas zusammen, ist in ethnischer Hinsicht weitgehend homogen. Da der Vorgängerstaat Korea seit der Vereinigung durch das Silla-Reich im Jahre 668 bis zur Teilung nach dem Zweiten Weltkrieg 1945 fast immer eine politische Einheit war, entwickelte sich eine weitgehend einheitliche Kultur mit nur geringen regionalen Unterschieden.
Während der Nachkriegsära wurden die Chinesen diskriminiert, da die Regierung eine ethnisch möglichst homogene Bevölkerung anstrebte. In den 1960er Jahren gab es gesetzliche Regelungen, die die Größe des Besitzes von Ausländern regelte, dies betraf vor allem die Chinesen. Die Staatsbürgerschaft Südkoreas zu erlangen war kompliziert. Die Chinesen in Südkorea wurden als Staatsbürger der Republik China angesehen, die auch die chinesischsprachigen Schulen in Südkorea finanzierten. Da Südkorea neben Japan die Asienkrise im Jahre 1997 am besten überstanden hat, ist eine große Zahl von Arbeitern aus anderen Teilen Asiens (Thailand, Philippinen und Indien) und sogar aus Afrika nach Südkorea eingewandert, um in den großen Fabriken Arbeit zu finden. Viele hiervon befinden sich illegal im Land. Die Anzahl an registrierten Ausländern in Südkorea stieg von etwa 469.000 im Jahr 2004 auf 1.376.162 im Jahr 2015. Durch die Beziehungen zu den USA seit der Nachkriegszeit haben sich mittlerweile auch viele US-Amerikaner angesiedelt, vor allem im Seouler Stadtteil Itaewon prägen sie das Stadtbild. Hier befindet sich auch das „UN-Dorf“ nebst vielen Botschaften und ausländischen Unternehmen.
Die Zahl der sich in Südkorea aufhaltenden Volksrepublik-Chinesen belief sich Ende November 2010 auf 0,61 Mio., darunter 0,4 Mio. Koreaner mit chinesischer Staatsangehörigkeit der Volksrepublik. Diese Chinesen stellen somit die größte ausländische Bevölkerungsgruppe in Südkorea dar, gefolgt von Amerikanern (128 Tsd.), Vietnamesen (120 Tsd.), Philippinern (47 Tsd.), Japanern (41 Tsd.), Thailändern (40 Tsd.), Mongolen (30 Tsd.) und Indonesiern (29 Tsd.). Im Jahre 2017 waren 2,3 % der Bevölkerung im Ausland geboren. Der Anteil der Ausländer liegt damit noch auf einem niedrigen Niveau, steigt allerdings kontinuierlich an.
Auf der anderen Seite wohnen viele ethnische Koreaner im Ausland, insbesondere in den Vereinigten Staaten und der Volksrepublik China, wo jeweils rund zwei Millionen Koreaner leben. Etwa 660.000 leben in Japan, etwa eine halbe Million lebt in Russland und den übrigen ehemaligen Sowjetrepubliken.
Es gibt einen kleinen Flüchtlingsstrom von Nordkorea nach Südkorea über Drittstaaten. Das Entkommen aus dem diktatorischen Regime Nordkoreas ist generell mit großen Schwierigkeiten verbunden. Um die Flüchtlinge an die Lebensweise in einer Demokratie zu gewöhnen, existiert das Umerziehungslager Hanawon, in dem Stand Januar 2014 etwa 160 Nordkoreaner auf eine schlussendliche „Einbürgerung“ warten. Bis Ende 2015 siedelten etwa 29.000 Menschen aus Nordkorea nach Südkorea aus.
Religionen
Die Religionsfreiheit wird durch die Verfassung garantiert. Eine offizielle Staatsreligion gibt es entsprechend nicht.
Die Religionslandschaft in Südkorea weist eine hohe Vielfalt auf. Um 2015 waren 56 % der Südkoreaner religionslos, 28 % Christen (20 % der Bevölkerung evangelisch), 16 % Buddhisten und Angehörige der koreanischen Schamanenreligion.
Der religiöse Aufschwung seit den 1950er Jahren, in Parallele zu starkem wirtschaftlichem Wachstum, beschäftigt die Religionssoziologen. Detlef Pollack schreibt:
Schamanismus
Der Schamanismus ist das ursprüngliche Glaubenssystem Koreas. Er ähnelt in vieler Hinsicht den schamanischen Bräuchen der benachbarten Länder und gründet auf den Glauben an Geister, die es zu beschwichtigen und von denen es Schutz zu erbitten gilt.
Konfuzianismus
Ab etwa 600 n. Chr. erlangte der Konfuzianismus in Korea zunehmende Bedeutung. Weniger eine echte Religion als vielmehr eine Gesellschaftsordnung, prägt diese Philosophie die südkoreanische Gesellschaft wesentlich. Da er aber erst seit 1995 offiziell als Religion anerkannt wird, gibt ihn kaum ein Südkoreaner als seine Religion an. Das ist vermutlich der Hauptgrund für die vergleichsweise hohe Religionslosigkeit in Südkorea.
Buddhismus
Der Buddhismus erreichte Nord- und Südkorea von Indien aus über China und wurde im Jahre 372 in Goguryeo, 384 in Baekje und 528 n. Chr. in Silla Staatsreligion. Seine Blütezeit hatte er, als Silla beinahe die gesamte Koreanische Halbinsel erobert hatte. Während der Joseon-Dynastie galt er als Wurzel der Korruption und wurde unterdrückt. Die Mönche zogen sich meist in die Berge zurück, und der Buddhismus verlor an Einfluss, verschwand aber nie ganz. Buddhistische Schulen koreanischer Herkunft gibt es teilweise auch in den USA und in Europa.
Christentum
Das Christentum in Korea breitete sich ab dem Jahr 1784 durch koreanische Intellektuelle aus, die bei Bildungsreisen in China mit der Religion in Kontakt gekommen waren. Chinesische Großstädte bildeten damals Anlaufstellen westlicher Kulturen und europäische Missionare gründeten Schulen und Kirchen. Die sich in Korea langsam und meist heimlich vermehrenden Christen wurden von der konfuzianistisch geprägten Monarchie unterdrückt, bis im Jahr 1882 die Religionsfreiheit gewährt wurde. Seit den 1960er Jahren erlebte das Christentum mit dem Wirtschaftsaufschwung und der damit verknüpften Ausbreitung der Bildung einen beispiellosen Aufstieg. Südkorea ist nach den Philippinen und Osttimor das ostasiatische Land mit dem höchsten Bevölkerungsanteil bekennender Christen. Von den christlichen Konfessionen stellen mit Abstand die evangelischen Kirchen, insbesondere die presbyterianischen Kirchen unter anderen reformierten Kirchen, den größten Anteil dar. Dies kann neben dem starken angloamerikanischen theologischen Einfluss die recht große Wirksamkeit und Bekanntheit deutschsprachiger Theologen wie Karl Barth, Dietrich Bonhoeffer und Emil Brunner im Land erklärt werden.
Der Einfluss des christlichen Fundamentalismus und die Verknüpfung zwischen Kirche und Politik prägen zunehmend die reformierte Kirche und die Gesellschaft Südkoreas. Beispielsweise wurde 2012 innerhalb des staatlichen Korea Advanced Institute of Science and Technology, eines der führenden Forschungsinstitute des Landes, eine Arbeitsgruppe für die Kreationismus-Forschung eingerichtet. Pläne zur Streichung von Passagen zur Evolutionstheorie aus Schulbüchern, die dem Kreationismus widersprechen, wurden nach öffentlichen Protesten von Wissenschaftlern allerdings verworfen.
Neue religiöse Bewegungen
Mehrere neue religiöse Bewegungen entstanden ebenfalls in Korea, inklusive Daesoon Jinrihoe und Siegesaltar. Ebenfalls in Korea ihren Ursprung haben christlich-synkretische Bewegungen wie Jundokwan (Olivenbaum) oder die als nach ihrem Gründer Sun Myung Moon als „Moon-Bewegung“ bezeichnete Vereinigungskirche.
Sprache und Schrift
Die koreanische Sprache ist in Südkorea offizielle Amts- und Schriftsprache. Anerkannte Minderheitensprachen gibt es nicht. Die koreanische Sprache wird von einigen Sprachwissenschaftlern zu den Altaisprachen gezählt, von anderen als isolierte Sprache angesehen. Möglicherweise ist sie mit Japanisch-Ryūkyū näher verwandt. Koreanisch sprechen weltweit etwa 78 Millionen Menschen. Die Unterschiede zwischen den regionalen Dialekten sind marginal, mit Ausnahme des auf Jejudo gesprochenen Dialekts. Für viele Begriffe hat die Sprache sowohl ein rein koreanisches als auch ein dem Chinesischen entlehntes sogenanntes sinokoreanisches Wort. Darüber hinaus werden viele englische Wörter in die koreanische Sprache übernommen.
Englisch wird als erste Fremdsprache von der Grundschule an unterrichtet. In den oberen Stufen kommt eine zweite Fremdsprache hinzu. Die traditionellen Sprachen seit der Nachkriegszeit waren lange Zeit Deutsch, Französisch oder Japanisch, in seltenen Fällen Spanisch. Die Bedeutung der europäischen Sprachen ist seit den 1990er Jahren zurückgegangen, während Bedeutung des Chinesischen und Japanischen ansteigt und die Betonung auf den Englischunterricht zunehmend stärker geworden ist.
Die koreanische Schrift Hangeul ist eine Alphabetschrift mit 24 Buchstaben. Davon sind 10 Vokale und 14 Konsonanten. Diese Buchstaben werden silbenweise zu Blöcken kombiniert, wodurch der Eindruck entstehen kann, sie sei ähnlich komplex wie die chinesische Schrift. Tatsächlich ist die Schrift sehr logisch aufgebaut. Die chinesische Schrift, in Nord- und Südkorea Hanja genannt, war auf der Koreanischen Halbinsel bis zum Ende der japanischen Kolonialzeit im Jahre 1945 Amtsschrift, trotz der Einführung der Hangeul-Schrift durch Großkönig Sejong im 15. Jahrhundert. Chinesische Zeichen haben im heutigen Alltagsgebrauch eine deutlich geringere Bedeutung als in Japan. In südkoreanischen Veröffentlichungen werden zum Teil Wörter in Hangeul durch ihre in Klammern gesetzten Entsprechungen in Hanja ergänzt, um besonders bei Homonymen die Bedeutung zu verdeutlichen. Veröffentlichungen, die ausschließlich Hanja verwenden, sind aber die Ausnahme. An südkoreanischen Schulen lernen die Schüler rund 1800 Hanja-Zeichen, auf Universitäten kommen weitere Zeichen aus den eingeschlagenen Fachrichtungen dazu. Allgemein geht der Gebrauch von Hanja aber zurück. Dies hängt auch mit der allgemeinen Bewegung zusammen, die Rolle der koreanischen Sprache sowohl in der schriftlichen als auch in der mündlichen Praxis zu stärken. Auch seitens der Sprachwissenschaft und den Medien gibt es Bemühungen, die koreanische Sprache zu pflegen. Offiziell zuständig für die Sprachpflege ist das Nationale Institut für Koreanische Sprache.
Gesundheit
Südkorea hat eines der besten Gesundheitssysteme der Welt. Im Jahr 2021 lag Südkorea im Gesundheitsindex von Statista auf Rang 3 und auf Platz 1 des CEOWORLD magazine Health Care Index.
Die Gesundheitsausgaben des Landes betrugen im Jahr 2019 8,2 % des Bruttoinlandsprodukts. Im Jahr 2019 praktizierten in Südkorea 24,8 Ärztinnen und Ärzte je 10.000 Einwohner. Die Sterblichkeit bei unter 5-jährigen betrug 2021 2,9 pro 1000 Lebendgeburten.
Ein wesentlicher Gesundheitsindikator ist die Körpergröße. Nach einer Studie von Bentham et al. (2016) erfuhren Menschen in Südkorea das größte durchschnittliche Körperwachstum im vergangenen Jahrhundert (1896 bis 1996). Dieses korreliert mit der Zunahme der Lebenserwartung. Im Jahr 2021 lag die durchschnittliche Lebenserwartung bei 83,6 Jahren (86,6 Jahre für Frauen, 80,6 für Männer), eine der höchsten der Welt und die höchste für Frauen. Zwischen 2012 und 2021 liegt die durchschnittliche Körpergröße in Südkorea bei Menschen in ihren 30er-Jahren für Männer bei 174,65 cm und für Frauen bei 161,77 cm.
Nach Statistiken der OEZD ist die Selbsttötungsrate in Südkorea unter den OEZD-Staaten seit 2003 eine der höchsten. Die Rate lag 2015 bei 25,8 Selbsttötungen pro 100.000 Personen. Selbsttötung gilt als großes Problem in Südkorea und sorgt für viel Aufmerksamkeit aufgrund einiger Selbsttötungen von Prominenten. Bis in die 1990er Jahre hatte Südkorea eine im Vergleich mit anderen Industriestaaten niedrige Suizidrate. In den 1990er und vor allem Ende der 1990er Jahre stieg diese stark an. Als ein Grund dafür wird die Asienkrise ab 1997 gesehen. Nach 1998 war die Zahl der Selbstmorde rückläufig, stieg aber plötzlich ab 2002 wieder an. Spätestens seit 2003 hat Südkorea kontinuierlich eine höhere Suizidrate als Deutschland. Bis 2011 nahm die Zahl der Selbstmorde in Südkorea fast stetig zu. Seitdem ist die Suizidrate wieder leicht rückläufig bei rund 36 Selbstmorden pro Tag (Deutschland rund 25, 2020).
Geschichte
Die Geschichte vor dem Zweiten Weltkrieg ist unter Geschichte Koreas zu finden.
1945–1949: Nachkriegszeit
Nachdem 1945 durch die Kapitulation Japans der Zweite Weltkrieg sein Ende genommen hatte, wurde die Provinz Chōsen, die dem Gebiet des seit 1910 in das Japanische Kaiserreich eingegliederten und kolonisierten Koreas entsprach, von den Siegermächten entlang des 38. Breitengrads in zwei Besatzungszonen aufgeteilt. Dies entsprach der Konferenz von Jalta der Alliierten im Februar 1945. (Zuvor hatten die Alliierten 1943 auf der Konferenz von Kairo beschlossen, Korea solle zu gegebener Zeit seine staatliche Unabhängigkeit erhalten.) Der südliche Teil Chōsens wurde von US-amerikanischen Truppen besetzt, der nördliche Teil kam unter Kontrolle der Roten Armee. Die Alliierten beaufsichtigten die Entwaffnung und den Abzug der japanischen Soldaten aus Chōsen.
Ursprünglich sollte die Verwaltung des Landes bis zur Bildung einer gesamtkoreanischen Regierung von den USA und der Sowjetunion übernommen werden. Diese wurde allerdings nie erreicht. Stattdessen errichteten die Sowjetunion im Norden und die USA im Süden Besatzungszonen mit Militärregierungen. Als im Jahre 1947 die Generalversammlung der Vereinten Nationen auf Antrag der USA beschloss, in den beiden Landesteilen Wahlen abzuhalten, lehnte dies die Sowjetunion ab. Daher fand die Wahl am 10. Mai 1948 nur im Süden statt. Aktives und passives Frauenwahlrecht wurden am 17. Juli 1948 eingeführt.
Am 15. August 1948 kam es dann zur Staatsgründung der Republik Korea. Die USA übergaben offiziell die Macht an die gewählte Regierung, beließen aber ihre Truppen im Land. Der Norden beantwortete die einseitige Staatsgründung im Süden mit Gründung der Demokratischen Volksrepublik Korea am 9. September 1948 in Pjöngjang. Beide Staaten sahen sich als einzige rechtmäßige Regierung der gesamten Koreanischen Halbinsel und verkündeten, darum auch kämpfen zu wollen.
Im April 1948, noch unter der Herrschaft der US-Militärregierung (USAMGIK), begann der Jeju-Aufstand der Süd-Joseon-Arbeiterpartei. Nachdem Südkorea unabhängig wurde, eskalierte die Unterdrückung der Rebellion zunehmend. Der Aufstand wurde schließlich im Mai 1949 mit vielen Gräueltaten und Massakern durch südkoreanische Soldaten und antikommunistische Milizen niedergeschlagen. 14.000 bis 30.000 Menschen wurden getötet – 86 % davon durch Regierungstruppen.
Mitte des Jahres 1949 waren die Truppen der Sowjetunion vertragsgemäß aus Nordkorea abgezogen. Nordkorea konnte mit Hilfe der Sowjetunion und Chinas seine Industrie schneller aufbauen als Südkorea. Dies lag daran, dass die Schwerindustrie von den Japanern während ihrer Kolonialzeit vor allem im rohstoffreicheren Norden angesiedelt worden war. Im landwirtschaftlich fruchtbareren Süden dagegen wurde von ihnen die Landwirtschaft gefördert und ausgebaut. Daher und dank der Hilfe der Sowjetunion war Nordkorea schneller in der Lage, sich wirtschaftlich zu erholen und eine schlagkräftige Armee aufzubauen.
1950–1959: Koreakrieg und Folgen
Am 25. Juni 1950 überschritt die Nordkoreanische Volksarmee die Grenze am 38. Breitengrad und leitete damit den Koreakrieg ein. Der amerikanische Präsident Harry S. Truman hatte bereits wieder einige Truppen nach Südkorea geschickt, die keinesfalls stark genug waren, die materielle Überlegenheit der nordkoreanischen Truppen über die südkoreanische Armee auszugleichen. Die Hauptstadt Seoul fiel bereits nach drei Tagen, etwa einen Monat später kontrollierten die Nordkoreaner bereits die gesamte Koreanische Halbinsel bis auf einige Inseln und einen schmalen Streifen um Busan im Südosten. Erst hier gelang es den Südkoreanern, die Lage zu stabilisieren.
Während des Krieges verübten die südkoreanischen Streitkräfte viele Massaker in Südkorea. 1950 wurden nach der nordkoreanischen Invasion rund 100.000 mutmaßliche Kommunisten von den Südkoreanern hingerichtet.
Mit der Landung bei Incheon Mitte September 1950 gelang es den UN-Truppen, den Vormarsch der Nordkoreaner zu beenden. Am 30. September überschritten die Truppen Südkoreas den 38. Breitengrad, um die Koreanische Halbinsel unter ihrer Flagge wieder zu vereinigen. Im November erreichte man erste Abschnitte des Grenzflusses Yalu zu China. Die Chinesen wollten ein vereinigtes Korea unter US-amerikanischem Einfluss nicht dulden und griffen mit einer zunächst 300.000 Soldaten umfassenden „Freiwilligenarmee“ in Nordkorea ein. Die UN-Truppen wurden schließlich bis südlich des 38. Breitengrades zurückgedrängt, wo die Front erstarrte.
Der Waffenstillstand wurde am 27. Juli 1953 vereinbart, unterzeichnet von der UNO, Nordkorea und China. Rhee Syng-man, der Präsident Südkoreas, weigerte sich, den Vertrag zu unterzeichnen. Man verfügte die Einrichtung einer demilitarisierten Zone etwa entlang des 38. Breitengrades. Die demilitarisierte Zone ist auch heute noch die Grenze zwischen beiden koreanischen Staaten. Ein Friedensvertrag wurde nicht unterzeichnet, obwohl die Absicht dazu mehrfach bekundet wurde.
Die Folgen des Koreakriegs waren dramatisch. Die Schätzungen der Anzahl getöteter Koreaner schwanken zwischen einer und drei Millionen; weit mehr noch waren vertrieben worden. Die koreanische Infrastruktur lag zum größten Teil in Schutt und Asche. Mindestens genauso schlimm waren die psychologischen Folgen. Die Angst vor einer erneuten Invasion beeinträchtigt die Politik beider Staaten.
Nach dem Koreakrieg ging es trotz westlicher Entwicklungshilfe wirtschaftlich mit Südkorea kaum aufwärts. Als Land ohne größere Bodenschätze war Südkorea auf Importe angewiesen, auch waren die wenigen Industrieanlagen und die gesamte Infrastruktur zerstört. Dass es zunächst nur schleppend voranging, wurde vorwiegend der Misswirtschaft des Präsidenten Rhee Syng-man angelastet. Er sicherte sich bei den folgenden Wahlen durch Verhaftungen von Oppositionellen und mehreren Verfassungsänderungen seine Wiederwahl. Die wirtschaftliche Entwicklung blieb danach enttäuschend, die Korruption war eklatant, und der Regierungsstil von Rhee wurde immer autokratischer.
1960–1987: Militärregierungen
Im Jahre 1960 kam es monatelang und landesweit zu Studenten-Demonstrationen gegen Rhee; sie fanden immer mehr Unterstützung in der Bevölkerung. Am 26. April 1960 trat Rhee schließlich zurück. Als auch eine parlamentarisch basierte Regierung die Probleme des Landes nicht in den Griff bekam, putschte sich am 16. Mai 1961 das Militär unter der Führung von General Park Chung-hee an die Macht. Man ließ in der Folgezeit zwar Wahlen zu, diese blieben aber praktisch folgenlos. Wesentliche demokratische Rechte wie Meinungs- und Pressefreiheit blieben den Südkoreanern versagt. Unter Park Chung-hee entwickelte sich eine Militärdiktatur, Oppositionelle (meist Kommunisten) wurden gefoltert und ermordet.
Währenddessen machte Südkorea wesentliche wirtschaftliche Fortschritte. Eine enge Verbindung zwischen Politik und Wirtschaft ließ Großindustrien entstehen. Südkorea wandelte sich in dieser Zeit zu einem modernen, exportorientierten Industriestaat. Dadurch verbesserte sich auch der Lebensstandard der Südkoreaner. Das Bildungswesen wurde verbessert und breiteren Bevölkerungsschichten zugänglich gemacht, die sogenannte Saemaeul Undong (Neues Dorf Kampagne) verbesserte die Lage der Landbevölkerung. Park gilt daher gemeinhin als Architekt des wirtschaftlichen Aufschwungs.
Ab den 1960er Jahren verfolgte Südkorea eine protektionistische Wirtschaftspolitik. Die meisten Importgüter wurden verboten, das Finanzsystem verstaatlicht, Fünfjahrespläne verabschiedet, der Staat nahm nur sehr wenig Kredite auf und ausländische Investitionen wurden nicht gefördert. Eine Landreform führt zur entschädigungslosen Enteignung des japanischen Großgrundbesitzes und das Land wurde in kleine Parzellen aufgeteilt. Die Bauern sind jedoch gesetzlich dazu verpflichtet, ihre Produktion zu niedrigen Preisen zu verkaufen, was sie in Armut zurücklässt. Aufgrund des Kalten Krieges und seiner geografischen Lage wurde Südkorea von den USA besonders bevorzugt behandelt und erhielt jährlich eine hohe Wirtschaftshilfe. Diese Familienkonglomerate (Hyundai, Samsung, LG Group usw.) profitierten von staatlichen Subventionen, Schutz vor internationaler Konkurrenz, Landbesitz, niedrigen Steuern und spezifischen Standards. Die Regierung erkannte keinen Mindestlohn oder wöchentlichen Urlaub an, erzwang unentgeltliche Arbeitszeiten zu ihren Gunsten und die Arbeitstage waren zwölf Stunden lang. Darüber hinaus sind Gewerkschaften und Streiks verboten. In den 1980er Jahren ist die Arbeitswoche eines südkoreanischen Arbeiters die längste der Welt.
1968 und 1975 versuchten nordkoreanische Agenten, Park zu ermorden; dem zweiten Attentat fiel seine Frau zum Opfer. Sein Ende kam unerwartet am 26. Oktober 1979, als Park vom eigenen Geheimdienstchef Kim Jae-gyu erschossen wurde. Der Premierminister Choi Kyu-ha wurde zunächst Interimspräsident und ging aus der Wahl durch ein Wahlgremium am 6. Dezember 1979 als Sieger hervor. Doch schon am 12. Dezember putschte das Militär unter Führung von General Chun Doo-hwan erneut gegen die Regierung.
Große Unsicherheit bestimmte das Jahr 1980. Menschen aus allen Gesellschaftsschichten forderten echte Demokratie und Chun versprach demokratische Reformen, ließ mit diesen aber auf sich warten, weshalb Demonstrationen das ganze Land erfassten. Das Militär fürchtete aufgrund der unruhigen Lage eine Invasion des Nordens und griff deshalb besonders hart durch. In einer der Protesthochburgen, in Gwangju, wurde im Mai 1980 ein Exempel statuiert und der Aufstand brutal niedergeschlagen. Laut einer Untersuchung Ende der 1990er Jahre über den als Gwangju-Aufstand oder in Südkorea als 18.-Mai-Gwangju-Demokratiebewegung bekannten Vorfall starben etwa 207–2300 Zivilisten, mehrere Tausend wurden verletzt.
Chun unterdrückte die Opposition weiter, so dass es jahrelang zu keinen größeren Protesten mehr kam. Die wirtschaftliche Entwicklung nahm erneut Fahrt auf, und die Lebensqualität der Südkoreaner stieg deutlich an.
Bei einem Bombenanschlag im Norden von Rangun in Myanmar wurden am 9. Oktober 1983 19 Personen getötet, darunter vier Kabinettsmitglieder der Regierung Chun: Kim Jae-ik, Suh Sook-joon, Hahm Pyong-choon und Außenminister Lee Bum-suk. Chun entging dem Attentat, da er verspätet am Ort des Anschlags eintraf. Nach einer Untersuchung beschuldigte man Nordkorea offiziell des Anschlags.
Ab 1986 wurden die Forderungen nach Demokratie wieder lauter.
1987–1997: Etablierung der Demokratie
Chun ermöglichte den ersten friedlichen Machtwechsel seit der Gründung Südkoreas, indem er auf großen öffentlichen Druck hin 1987 ankündigte, am Ende seiner Amtszeit 1988 zurückzutreten. Gegen den Widerstand der Bevölkerung wollte er seine Nachfolge zunächst jedoch undemokratisch regeln und selbstständig den Ex-General Roh Tae-woo als seinen Nachfolger bestimmen. Es kam zum Juni-Kampf 1987, als dessen Folge Roh überraschend ankündigte, die Verfassung zugunsten echter demokratischer Reformen ändern zu lassen. Die drei größten Parteien dieser Zeit bestimmten gemeinsam eine neue Verfassung. So wurde der Präsident im November 1987 zum ersten Mal seit 1961 wieder direkt durch die Bevölkerung gewählt und seine Amtszeit auf fünf Jahre verkürzt. Für die Wahl konnten sich die beiden Oppositionsführer Kim Young-sam und Kim Dae-jung nicht auf einen gemeinsamen Kandidaten einigen und kandidierten gegeneinander. Weil die Opposition damit gespalten war, genügten Roh 37 % der Stimmen, um die Wahl zu gewinnen.
Während der Amtszeit Rohs machte die Demokratie in Südkorea deutliche Fortschritte, es wurden viele Reformen beschlossen. 1988 war Südkorea Gastgeber der Olympischen Sommerspiele. Südkorea nahm mit ehemaligen Ostblockstaaten diplomatische Beziehungen auf. Zusammen mit Nordkorea trat das Land am 17. September 1991 den Vereinten Nationen bei. Nach dem Abzug von etwa einhundert amerikanischen taktischen Atomwaffen im September 1991 schlossen am 13. Dezember 1991, 38 Jahre nach dem vorläufigen Ende des Koreakriegs durch den Waffenstillstand, Nord- und Südkorea einen Nichtangriffspakt.
Weil seine Partei mit der Partei Rohs ein konservatives Bündnis gründete, konnte sich Kim Young-sam bei der Wahl im Jahr 1992 gegen Kim Dae-jung durchsetzen. Ein Schwerpunkt seiner Politik war der Kampf gegen die Korruption und die Aufklärung staatlichen Fehlverhaltens. Dabei wurden die ehemaligen Präsidenten Chun Doo-hwan und Roh Tae-woo wegen des Staatsstreichs und des Gwangju-Massakers im Jahr 1980 verurteilt, Chun sogar zum Tode. Beide wurden aber später begnadigt.
1997–2007: Asienkrise, Annäherung an Nordkorea und Fußball-WM
Im November 1997 erfasste die Asienkrise Südkorea. Nachdem das Land wirtschaftlich lange Zeit mit zweistelligen Zuwachsraten geglänzt hatte, schrumpfte das Bruttoinlandsprodukt im Jahre 1998 um 6,7 % und die Landeswährung, der Won, verlor stark an Wert. Mit Hilfe eines Kredites des IWF konnte die Krise überwunden werden, schon im Jahre 1999 wuchs das BIP wieder um mehr als 10 %.
Bei der Wahl am 18. Dezember 1997 konnte sich Kim Dae-jung durchsetzen. Der Hauptpunkt seiner Politik war die Aussöhnung mit Nordkorea, die sogenannte Sonnenscheinpolitik. Man stellte zwei während des Koreakriegs unterbrochene Eisenbahnstrecken wieder her; die erste Testfahrt fand am 17. Mai 2007 statt. Darüber hinaus wurde ein gemeinsames Industriegebiet in Kaesŏng gegründet. Der Höhepunkt dieser Politik war ein Treffen Kim Dae-jungs mit dem nordkoreanischen Führer Kim Jong-il in Pjöngjang im Juni 2000. Für diese Politik wurde Kim Dae-jung noch im selben Jahr mit dem Friedensnobelpreis ausgezeichnet.
Im Jahr 2002 richtete Südkorea zusammen mit Japan die 17. Fußball-Weltmeisterschaft aus. Es war das erste Mal, dass zwei Länder gemeinsam Gastgeber dieser Sportveranstaltung wurden, angesichts der gespannten Beziehungen zu Japan umso bedeutsamer. Der Erfolg der südkoreanischen Fußballnationalmannschaft war eine der großen Überraschungen dieses Turniers, sie belegte den vierten Platz. Die Veranstaltung galt im Allgemeinen als großer Erfolg und verbreitete in der Welt ein positives Bild von der gastfreundschaftlichen koreanischen Bevölkerung.
Aus der Präsidentschaftswahl am 19. Dezember 2002 ging Kim Dae-jungs Parteikollege Roh Moo-hyun als Sieger hervor. Er versuchte, die Politik Kim Dae-jungs gegenüber Nordkorea fortzuführen. Auch Roh reiste kurz vor dem Ende seiner Amtszeit vom 2. bis zum 4. Oktober 2007 zu einem Staatsbesuch nach Nordkorea. Dabei unterzeichnete er zusammen mit dem nordkoreanischen Staatschef Kim Jong-il eine Absichtserklärung, Verhandlungen über einen Friedensvertrag aufnehmen zu wollen. Dieser soll das Waffenstillstandsabkommen zur Beendigung des Koreakriegs von 1953 ersetzen. Darüber hinaus sollte es öfter zu Gipfeltreffen kommen.
2007–heute: Bedrohung durch Nordkorea, Koreanische Welle und COVID-19-Pandemie
Unter dem ab 2007 amtierenden konservativen Präsidenten Lee Myung-bak kühlte sich das Verhältnis zwischen beiden Staaten jedoch merklich ab. Lee hatte bereits im Wahlkampf angekündigt, eine härtere außenpolitische Linie gegenüber Pjöngjang zu verfolgen. Durch die Übernahme der ebenfalls konservativen Park Geun-hye 2012 wurde dieser Entwicklung fortgesetzt. Im Frühjahr 2013 erreichten die Beziehungen beider Länder daher mit der Nordkorea-Krise 2013 einen erneuten Tiefpunkt.
Die Bewegung für den Rücktritt von Präsidentin Park Geun-hye erreichte 2017 ihre Amtsenthebung wegen Korruption. Ihr folgte im Mai 2017 Moon Jae-in ins Präsidentenamt. Dieser zeigte von Anfang an Dialogbereitschaft mit dem nordkoreanischen Machthaber Kim Jong-un, der im Dezember 2017 nach mehreren Raketentests und einem Atombombentest verkündet hatte, dass Nordkorea die Entwicklung zur Atommacht abgeschlossen habe. Nachdem sich der Konflikt gefährlich zugespitzt hatte, ging Kim Jong-un am 1. Januar 2018 überraschend auf das Angebot Südkoreas ein, sein Land im Februar 2018 an den Olympischen Winterspielen in Pyeongchang teilnehmen zu lassen. Beide Länder einigten sich darauf, hochrangige Treffen fortzusetzen, um den Austausch in verschiedenen Bereichen wiederzubeleben. Medien spekulierten darüber, dass Kim Jong-un auf eine Rücknahme von UN-Sanktionen hoffe oder die Beziehungen zwischen Südkorea und den USA unter Präsident Donald Trump schwächen wolle. Die Beziehungen zwischen beiden Ländern blieben daraufhin für einige Jahre etwas entspannter.
Während der 2010er Jahre stieg die Popularität der zeitgenössischen koreanischen Popkultur weltweit stark an. Dieses Phänomen wird als Koreanische Welle bezeichnet und besteht in Süd-, Südost- und Ostasien schon seit den 1990er Jahren.
Südkorea war zu Beginn der COVID-19-Pandemie das am zweitschwersten betroffene Land nach China, bekam die Situation aber schnell in den Griff, unter anderem durch starke Einschränkungen des öffentlichen Lebens und viele Testungen, aber auch durch die datenschutzrechtlich umstrittene Veröffentlichung von Namen und Adressen von Infizierten. Der Erfolg von Moon Jae-ins sozialliberaler Deobureo-minju-Partei (DMP) in der Eindämmung der Pandemie wurde bei der Parlamentswahl 2020 durch die Bevölkerung bestätigt. 2020 und 2021 hatte Südkorea im weltweiten Vergleich insgesamt nur äußerst geringe Inzidenzzahlen. 2022 lockerte die Regierung die Maßnahmen deutlich und ließ die Omikron-Variante durchlaufen.
2022 verschlechterten sich die Beziehungen zu Nordkorea nach einer Reihe von Raketentests durch Nordkorea deutlich. Südkorea und die USA führten in der Folge ab dem 22. August 2022 das größte Militärmanöver in der Region seit 2017 durch. Nordkorea schrieb daraufhin seine Atomwaffenpolitik gesetzlich fest. 2022 feuerte Nordkorea so viele Raketen in einem Jahr ab wie nie zuvor.
Politik
Politisches System
Am 17. Juli 1948 wurde die erste Verfassung Südkoreas beschlossen. Im Zuge der politischen Umwälzungen wurde sie insgesamt neun Mal überarbeitet, zuletzt am 29. Oktober 1987. Diese Überarbeitung war ein wichtiger Schritt zur Demokratisierung des Landes. Unter anderem wurden dabei die Macht des Präsidenten beschränkt und die Befugnisse der Legislative erweitert. Die Menschenrechte waren danach besser geschützt als zuvor. Die derzeit gültige Verfassung umfasst eine Präambel, 130 Artikel und sechs Zusatzbestimmungen. Sie ist in zehn Kapitel unterteilt: „Allgemeine Bestimmungen“, „Rechte und Pflichten der Bürger“, „Nationalversammlung“, „Exekutive“, „Rechtswesen“, „Verfassungsgericht“, „Wahlen“, „Kommunalverwaltung“, „Wirtschaft“ sowie „Verfassungsänderungen“. Sie sichert die Souveränität des Volkes, verfügt die Gewaltentrennung, bekundet Ziele wie die friedliche und demokratische Wiedervereinigung mit Nordkorea, fordert das Streben nach Frieden und zur Zusammenarbeit auf internationaler Ebene ebenso wie die Verpflichtung des Staates, für das Gemeinwohl zu sorgen. Eine Verfassungsänderung erfordert eine Zweidrittelmehrheit in der Nationalversammlung und muss außerdem durch eine einfache Mehrheit einer Volksabstimmung bestätigt werden.
Das Staatsoberhaupt der Republik Korea ist der direkt vom Volk gewählte Präsident. Der Präsident wird für jeweils fünf Jahre gewählt und kann nicht wiedergewählt werden. Er ist der höchste Vertreter der Republik und vertritt diese nach innen und außen. So empfängt er ausländische Diplomaten, verleiht Orden und kann Begnadigungen aussprechen. Er steht auch an der Spitze der Verwaltung und setzt in dieser Funktion von der Nationalversammlung beschlossene Gesetze in Kraft. Er ist Befehlshaber der Armee und kann den Krieg erklären.
Der Premierminister wird vom Präsidenten ernannt. Er leitet die Regierung. Das Kabinett besteht aus mindestens 15 und höchstens 30 Mitgliedern, es wird ebenfalls vom Präsidenten zusammengestellt. Sowohl Premierminister als auch Kabinettsmitglieder müssen vom Parlament bestätigt werden. Das südkoreanische Parlament hat nur eine Kammer und wird Gukhoe (Nationalversammlung) genannt. Die Parlamentarier werden für vier Jahre gewählt. Das Parlament besteht aus 299 Abgeordneten, die durch ein Grabenwahlsystem bestimmt werden: 243 werden durch Sieg in ihren Wahlkreisen direkt gewählt, die übrigen 56 Sitze werden unter denjenigen Parteien verteilt, die mindestens 3 % der Stimmen erhalten haben. Die letzte Parlamentswahl fand am 15. April 2020 statt. Die regierende, sozialliberale Minju-Partei erreichte dabei 129 von 300 Sitzen, während die oppositionelle, konservative Gungminui-Partei nur 103 Sitze erhielt.
Ein weiteres wichtiges Organ im System Südkoreas ist das Verfassungsgericht. Es überwacht die Arbeit der Regierung und entscheidet im Falle von Misstrauensanträgen und Ähnlichem. Das Gericht besteht aus neun Obersten Richtern: Der Präsident persönlich ernennt drei Richter für den obersten Gerichtshof; Das Parlament bestimmt weitere drei Richter, muss diese aber vom Präsidenten bestätigen lassen; Die letzten drei Richter werden vom Vorsitzenden des Obersten Gerichtshofs ernannt. Dieses kooperative System sorgt für eine vergleichsweise große Stärke und Unabhängigkeit des südkoreanischen Verfassungsgerichts, ebenso die hohe Zugänglichkeit (jeder kann Verfassungsbeschwerde einlegen) sowie die zentralisierte Kontrolle (statt dezentralisiert wie bei Obersten Gerichten).
Politische Indizes
Menschenrechtssituation
Wie in den meisten ostasiatischen Ländern gibt es in Südkorea die Todesstrafe. Im Jahr 2006 wurde eine Person zum Tode verurteilt, nach Angaben von Amnesty International saßen im Juni 2006 63 zum Tode verurteilte Gefangene in südkoreanischen Gefängnissen ein. Seit 1998 hält man ein inoffizielles Hinrichtungsmoratorium ein, weswegen keine Todesstrafen mehr vollstreckt werden. Es gibt zunehmende Bestrebungen, die Todesstrafe abzuschaffen. Zwar wird die Abschaffung von der Bevölkerung mehrheitlich abgelehnt, jedoch haben im Dezember 2004 175 der 299 Mitglieder des Parlaments einen Gesetzesvorschlag gegen die Todesstrafe unterschrieben. Anfang 2006 gab das Justizministerium bekannt, eine Studie über die Folgen der Abschaffung vornehmen zu wollen. Der oberste Gerichtshof entschied, dass die Todesstrafe mit der Verfassung vereinbar sei, ihre Abschaffung fällt aber in die Zuständigkeit der Legislative.
Jedes Jahr leisten mehrere Hundert dem Einberufungsbefehl nicht Folge und werden daraufhin zu mindestens 18 Monaten Haft verurteilt. Von 1950 bis 2013 waren deshalb allein 17.840 Zeugen Jehovas mindestens 18 Monate im Gefängnis. Das Verfassungsgericht hatte erst 2011 die Vorschläge für einen alternativen Ersatzdienst abgelehnt und die allgemeine Wehrpflicht für verfassungskonform erklärt. Wenngleich offenbar eine Tendenz kürzerer Haftstrafen zu beobachten war, erhielten Kriegsdienstverweigerer aus Gewissensgründen weiterhin einen Eintrag ins Vorstrafenregister, was ihre Chancen auf dem Arbeitsmarkt minderte. Sechs Bezirksrichter, die bei ihren Entscheidungen Bedenken hatten, legten mehrere Fälle, in denen es um Wehrdienstverweigerer aus Gewissensgründen geht, erneut dem Verfassungsgericht vor.
Außen- und Sicherheitspolitik
Südkorea pflegt zu den meisten Staaten der Erde gute bis sehr gute Beziehungen. In einem direkten Konflikt befindet sich Südkorea lediglich mit Nordkorea. Die Bedrohung durch Nordkorea ist der Hauptgrund für die intensive Verteidigungs- und Sicherheitspolitik Südkoreas.
Beziehungen zu Nordkorea
Die Beziehungen zu Nordkorea haben sich, nach einer Zeit der Entspannung um das Jahr 2000, in den letzten Jahren wieder deutlich verschlechtert.
Nach dem Ende des Koreakrieges war die Angst vor einer erneuten Invasion des Nordens sehr groß. Noch in den 1980er Jahren wurden regelmäßig Probealarme exerziert, die das gesamte öffentliche Leben miteinbezogen. Vor dem Hintergrund der terroristischen Aktivitäten des Nordens war dies nachvollziehbar. Im Oktober 1983 verübten nordkoreanische Agenten ein Attentat auf eine südkoreanische Regierungsdelegation in der damaligen burmesischen Hauptstadt Rangun. Präsident Chun Doo-hwan überlebte, der Außenminister und 16 andere Südkoreaner wurden getötet. 1988 platzierte der nordkoreanische Geheimdienst eine Bombe in einem südkoreanischen Passagierflugzeug, das daraufhin über dem Indischen Ozean explodierte. 115 Menschen wurden dabei getötet. Dass ein erneuter Krieg nicht unwahrscheinlich war, zeigen Tunnel von mehreren Kilometern Länge, die von Nordkorea aus unter der Demilitarisierten Zone hindurch getrieben wurden. Diese auf südkoreanischer Seite noch verdeckten Tunnel sollten es im Kriegsfall ermöglichen, rasch und unbemerkt Infanterie in das südkoreanische Hinterland einzuschleusen. Es wurden insgesamt vier Tunnel entdeckt, die Existenz noch weiterer wird vermutet. Mit dem Ende der Militärdiktatur im Jahre 1988 und mit dem wirtschaftlichen Abstieg Nordkoreas ließ die Angst vor einer erneuten Invasion aber mehr und mehr nach. Da nach dem Koreakrieg nur ein Waffenstillstandsabkommen geschlossen wurde, befinden sich beide Staaten aber offiziell noch im Kriegszustand miteinander.
Kim Dae-jung gelang es, einige gemeinsame Projekte mit dem Norden zu begründen. So gibt es das Industriegebiet Kaesŏng auf nordkoreanischer Seite, in dem südkoreanische Firmen mit nordkoreanischen Arbeitskräften produzieren. Auch die Gyeongui-Linie, eine Eisenbahnstrecke von Seoul über Pjöngjang nach Sinŭiju an der chinesischen Grenze, wurde wiederhergestellt, sie verkehrt allerdings vorerst nur von Seoul bis zur innerkoreanischen Grenze. Im Jahr 2000 kam es zu einem historischen Treffen zwischen dem damaligen südkoreanischen Präsidenten Kim Dae-jung und dem nordkoreanischen Machthaber Kim Jong-il in Pjöngjang. Doch musste Kim Dae-jung im Jahr 2002 eingestehen, im Vorfeld des Treffens rund 100 Millionen Dollar an die nordkoreanische Regierung gezahlt zu haben.
Die Politik und das Leben in Südkorea wurden in der Vergangenheit in großem Maße von der Angst vor einer neuen Invasion durch Nordkorea bestimmt. In den letzten Jahren nahm die Angst deutlich ab. Trotzdem ist es Südkoreanern durch das Nationale Sicherheitsgesetz (, , gukga boanbeop) verboten, Kontakt nach Nordkorea aufzunehmen. Nordkorea darf in der Öffentlichkeit nicht gelobt oder für dieses geworben werden. Das Gesetz wurde am 1. Dezember 1948 beschlossen, 1963 und 1980 geändert und ist in Kraft. Es wurde vor der Demokratisierung als „Gummiparagraph“ zur Unterdrückung politischer Opposition missbraucht, denn es ist inhaltlich sehr unbestimmt, und sieht schon für regierungsfeindliche Äußerungen, Besitz und Weitergabe regierungsfeindlichen Materials, Mitgliedschaft in regierungsfeindlichen Organisationen und Nichtanzeige derartiger Straftatbestände Strafen bis hin zur Todesstrafe vor. Das Verfassungsgericht hat das Gesetz im August 2004 überprüft und für verfassungskonform erklärt, die Nationale Menschenrechtskommission im September desselben Jahres hingegen deren Abschaffung empfohlen. Präsident Roh sprach sich gleichfalls für seine Abschaffung aus. Der deutsche Staatsbürger und Exilkoreaner Song Du-yul wurde im März 2004 auf Grund des Gesetzes zu sieben Jahren Haft verurteilt, die in der nächsten Instanz in eine Bewährungsstrafe umgewandelt wurde. Nach Informationen von Amnesty International waren im Dezember 2004 mindestens neun Personen auf Grund dieses Gesetzes inhaftiert, sechs von ihnen Mitglieder der verbotenen pro-nordkoreanischen Studentenorganisation Hanchongnyeon.
Zu Beginn seiner Amtszeit äußerte Präsident Roh Moo-hyun, er könne eher mit einem atomar bewaffneten Nordkorea leben als mit einem kollabierenden Norden. Diese Aussage musste er zwar als politische Inkorrektheit zurücknehmen, aber er dürfte damit die Einstellung vieler Südkoreaner wiedergegeben haben. Zudem gibt es Zweifel, ob die beiden Staaten nicht schon zu lange voneinander getrennt sind. Während im geteilten Deutschland immerhin noch zum Teil gegenseitige Besuche, Briefkontakte und Telefongespräche stattfanden, sind die beiden koreanischen Staaten praktisch vollständig voneinander isoliert. Abgesehen von einigen wenigen Familientreffen in den letzten Jahren gab es keinerlei Kontakte; die meisten Familien wissen nicht einmal, ob ihre im anderen Staat wohnenden Verwandten überhaupt noch leben.
Die Beziehungen zwischen den beiden Ländern kühlten allerdings nach der Wahl des ehemaligen Präsidenten Lee Myung-baks wieder ab. Nach dem Untergang des Kriegsschiffes Cheonan im März 2010, für dessen Versenkung Nordkorea verantwortlich gemacht wurde, stellte Südkorea den Handel mit dem nördlichen Nachbarn ein und erklärte, dass es den UN-Sicherheitsrat anrufen werde. Nordkorea brach daraufhin alle Beziehungen ab, versetzte seine Truppen in Kampfbereitschaft und kündigte ein Sicherheitsabkommen, das bewaffnete Auseinandersetzungen verhindern sollte. Zudem sollten alle Südkoreaner aus der Industrieregion Kaesŏng ausgewiesen werden.
Die Spannung auf der Koreanischen Halbinsel erreichte durch einen Artilleriebeschuss der Insel Yeonpyeong nahe der inoffiziellen Seegrenze durch nordkoreanische Einheiten am 23. November 2010 einen vorläufigen Höhepunkt. Für erneute Spannung sorgte ein nordkoreanischer Atomwaffentest im Februar 2013, der die Verhängung von UN-Sanktionen gegen das Land zur Folge hatte. Als Reaktion auf die Sanktionen kündigte Nordkorea am 8. März 2013 den Nichtangriffspakt auf, was die Wahrscheinlichkeit eines Krieges wieder in den Vordergrund rücken lässt.
Die Wiedervereinigung mit dem Norden bleibt politisch ein aktuelles Thema; die Erfahrungen der deutschen Wiedervereinigung haben Befürchtungen geweckt, dass Südkorea die Kosten nicht würde tragen können, selbst wenn das nominale Bruttoinlandsprodukt Südkoreas mittlerweile das dreizehntgrößte der Welt ist. In Nordkorea leben 22.912.177 Einwohner auf einer Fläche von 122.762 km², im Süden sind es 48.640.671 Einwohner auf einer Fläche von 99.392 km². Wegen des vergleichsweise viel stärkeren Gewichts des anderen Staates, nach Fläche wie nach Bevölkerungszahl, wären voraussichtlich noch höhere Transferzahlungen zu leisten als nach der Wiedervereinigung Deutschlands.
Beziehungen zu den USA
Leitlinie der südkoreanischen Außenpolitik ist die strategische Partnerschaft zu den Vereinigten Staaten, wegen der gemeinsamen Wahrnehmung Nordkoreas als Bedrohung. Die Vereinigten Staaten sehen Südkorea als einen ihrer wichtigsten Verbündeten überhaupt und vergeben dorthin große Beträge an sogenannter „militärischer Entwicklungshilfe“. Südkorea steht seit 1989 auf der Liste der Major non-NATO ally und gehört damit zu den engsten diplomatischen, militärischen und strategischen Partnern der USA außerhalb der NATO. Die USA haben in Südkorea große Truppenkontingente stationiert.
Beziehungen zu China
Seit der Aufnahme diplomatischer Beziehungen zur Volksrepublik China im Jahre 1992 entwickeln sich insbesondere die Wirtschaftsbeziehungen dynamisch. China ist Südkoreas größter Handelspartner, der bedeutendste Absatzmarkt und ein wichtiger ausländischer Produktionsstandort. Die Zustimmung Südkoreas im Jahr 2017 zur Errichtung des Raketenabwehrsystems THAAD (Terminal High Altitude Area Defense) des amerikanischen Militärs im südkoreanischen Landkreis Seongju sorgte für ein angespanntes Verhältnis mit China. Ein Grund, weshalb THAAD so viel Kritik aus China erfuhr, ist, dass die Anlage in der Lage sein soll, Informationen über chinesische Raketen zu liefern. Südkorea und der militärische Verbündete USA begründeten die Installation mit der Bedrohung durch Nordkorea. Nachdem Südkorea 2016 ankündigte, man wolle dem Vorschlag der USA folgen und dem Raketenabwehrsystem zustimmen, erhob China Sanktionen gegen Südkorea, in der Hoffnung, die südkoreanische Regierung wurde von ihrem Plan abrücken. Der Disput zwischen Südkorea und China hielt 18 Monate an, einige südkoreanischen Unternehmen in China litten darunter und K-Pop-Stars mussten ihre Konzerte absagen. Im Oktober 2017 vereinbarten beide Staaten, die Beziehungen wieder zu normalisieren. Allerdings blieb das Verhältnis angespannt und China beobachtet kritisch die amerikanische militärische Präsenz in Südkorea. Der Balanceakt Südkoreas zwischen den USA und China ist zu einem wichtigen Politikum und Wahlthema geworden.
Beziehungen zu Japan
Auch nach fast 80 Jahren nach der Unabhängigkeit von Japan sind die Beziehungen noch immer belastet. Antijapanische Ressentiments sind weit verbreitet, manche Südkoreaner lehnen zumindest alles offensichtlich Japanische ab. Hauptgrund sind die schmerzhaften Erinnerungen an die Kolonialzeit, die zudem in Japan als zu wenig aufgearbeitet angesehen werden. Offizielle Geschichtsbücher in Japan stellen die Eingliederung Koreas in das Japanische Kaiserreich noch immer sehr einseitig dar, so werden vor allem die Verbesserungen der Infrastruktur und Industrie betont, während die Unterdrückung der Koreaner und ihrer Kultur verschwiegen wird. Viele Japaner sind sich daher der Geschehnisse der Vergangenheit kaum bewusst und verstehen die Gründe für die Anfeindungen aus Südkorea nicht.
Proteste in Südkorea wurden in der Vergangenheit vor allem dann laut, wenn Japan seine Ansprüche auf die auch von Südkorea beanspruchten Liancourt-Felsen bekräftigte oder wenn hohe Regierungsmitglieder Japans wiederholt den Yasukuni-Schrein besuchten, wo auch verurteilte Kriegsverbrecher und japanische Soldaten koreanischer Abstammung geehrt werden.
Eine große Rolle in der Beziehung zwischen Südkorea und Japan spielt der japanische Umgang mit den „Trostfrauen“ genannten Mädchen und Frauen, die in der Kaiserlich Japanischen Armee bis 1945 in Kriegsbordellen als Zwangsprostituierte dienen mussten. Seit Ende der 1980er Jahre belastet dieses Thema die Beziehung zwischen beiden Staaten zusätzlich. Am 28. Dezember 2015 schlossen Japan und Südkorea ein Abkommen, mit dem beide Staaten den Streit um die Trostfrauen endgültig beilegen wollten. Allerdings gibt es noch Diskussionen und Gerichtsprozesse wegen des Umgangs mit den Frauen.
Am 10. August 2010 entschuldigte sich der japanische Ministerpräsident Naoto Kan bei Südkorea für die Kolonialherrschaft seines Landes von 1910 bis 1945. Damit sei auch die Hoffnung auf eine Verbesserung der südkoreanisch-japanischen Beziehungen verbunden.
Beziehungen zu Deutschland
Die ersten bilateralen Beziehungen auf einer formalen Ebene wurden am 26. November 1883 mit der Unterzeichnung des „Deutsch-Koreanischen Handels-, Schiffahrts- und Freundschaftsvertrags“ gelegt. Mit dem Japan-Korea-Protektoratsvertrag von 1905 verlor Korea seine Souveränität und die Auslandsvertretung und -repräsentation wurden an Japan übertragen; die diplomatischen Geschäfte der zwischenzeitlich in Korea eingerichteten deutschen Ministerresidentur gingen an die Deutsche Gesandtschaft in Tokio über, wodurch die diplomatischen Beziehungen zwischen Deutschland und Korea endeten. Nach Ende des Zweiten Weltkrieges waren Deutschland durch das Besatzungsstatut der Siegermächte rechtliche Schranken gesetzt. Durch die Pariser Verträge und ihre Ratifizierung am 5. Mai 1955 erhielt Deutschland seine staatliche Souveränität wieder. Damit war der Weg für die Aufnahme der diplomatischen Beziehungen mit dem 1948 gegründeten Südkorea frei und der Austausch zwischen den beiden Staaten wurde auf staatlicher Ebene aufgenommen.
Im Jahr 1961 belief sich die deutsche Entwicklungshilfe für Südkorea auf insgesamt 75 Millionen DM. Mit rund 35 Millionen DM sollte ein Großteil der Entwicklungshilfe für den Ausbau des Fernsprechwesens finanziert werden. Etwa 20,72 Millionen DM sollte in den Ausbau der staatlichen Kohlengruben investiert werden. Neben der monetären Unterstützung sah die Bundesrepublik einen weiteren Beitrag zur Entwicklungshilfe in Südkorea vor. Eine Vereinbarung über ein „Programm zur vorübergehenden Beschäftigung [süd]koreanischer Bergarbeiter“ trat durch einen Notenwechsel zwischen der Bundesrepublik und der Republik Korea am 16. Dezember 1963 in Kraft. So wurde die Bundesregierung allmählich von der Idee überzeugt, südkoreanische Bergarbeiter unter dem Deckmantel der „technischen Entwicklungshilfe“ nach Deutschland anzuwerben. Die Anwerbepolitik richtete sich eigentlich gezielt auf südeuropäische und damit kulturell nahe „Gastarbeiter“ aus dem Mittelmeerraum. Am 21. Dezember bestiegen 247 südkoreanische Männer ein Flugzeug am Flughafen Gimpo, das sie nach Deutschland brachte. Es war die erste südkoreanische Delegation, die in deutschen Bergwerken arbeitete. Die Zahl der von 1962 bis 1977 ausgewanderten Gastarbeiter südkoreanischer Nationalität betrug etwa 8.000, weitere 10.000 Frauen wanderten in derselben Zeit nach Deutschland aus, um in Krankenhäusern zu arbeiten.
Die heutige Beziehung gilt als positiv. Beide Staaten kooperieren auf der internationalen Bühne im Sinne von Freiheit und Demokratie. Seit der Koreanischen Welle wird koreanische Kultur in Deutschland immer bekannter.
Beziehungen zu weiteren Staaten
Militär
Die Streitkräfte der Republik Korea verfügen über knapp 685.000 Männer und Frauen in vier Teilstreitkräften und zwei paramilitärischen Organisationen, deren strategisches Kernstück das Heer ist. Damit leistet sich das Land das fünft- bis siebtgrößte Militär der Welt. Auch die anderen Staaten Ostasiens haben „starke“ Streitkräfte, gemessen an der Zahl der Soldaten (Volksrepublik China, Nordkorea), ihrem Verhältnis zur Bevölkerungszahl (Nordkorea, Republik China) oder an der Größe des Verteidigungshaushaltes (Japan, Nordkorea, Volksrepublik China). In Südkorea sieht man sich am meisten durch Nordkorea bedroht. Südkorea gab 2017 knapp 2,6 Prozent seiner Wirtschaftsleistung oder 39,2 Mrd. Dollar für seine Streitkräfte aus und lag damit weltweit auf Platz 10.
Das Oberkommando (OPCON, operational control) über die südkoreanischen Streitkräfte wurde beim Ausbruch des Koreakrieges 1950 an die USA übergeben. 1978 wurde die Befehlsgewalt an die Combined Forces Command (CFC) übertragen. Seit 1994 liegt die Befehlsgewalt in friedlichen Zeiten beim Republic of Korea Joint Chiefs of Staff (ROK JCS). Im Kriegsfall (wartime OPCON) liegt diese bei den USA. Nach einem ursprünglichen Beschluss vom Februar 2007 sollte es auch im Kriegsfall ab dem 17. April 2012 an Südkorea fallen. Der Zeitpunkt der Übergabe war jedoch fortlaufender Diskussionsgegenstand. Während des G20-Gipfels in Toronto im Juni 2010 kamen der damalige südkoreanische Staatspräsident Lee Myung-bak sowie der damalige US-Präsident Barack Obama überein, den Zeitpunkt der Übergabe auf den 1. Dezember 2015 zu verschieben. Als Hauptgrund wurde die in jüngster Zeit ansteigende Bedrohungslage durch Nordkorea angeführt, hauptsächlich untermauert durch den Atombombentest im Mai 2009 sowie den mutmaßlichen Angriff auf das Kriegsschiff Cheonan im März 2010. Bei einem Treffen im Oktober 2014 im Pentagon wurde die Übergabe erneut vertagt. Eine Übergabe wird um 2020 erwartet.
In Südkorea herrscht eine Wehrpflicht für Männer mit einer Dienstzeit von 24 bis 28 Monaten.
Die südkoreanischen Streitkräfte kooperieren eng mit den amerikanischen Streitkräften. Im Februar 2010 waren rund 28.500 Mann der US-Truppen in Korea stationiert, mit denen jedes Jahr eine gemeinsame Militärübung abgehalten wird.
Seit fast 20 Jahren engagieren sich die Streitkräfte auch in Auslandsmissionen. Der erste Einsatz im Ausland begann 2004, als etwa 3600 Soldaten für etwa vier Jahre humanitäre und Wiederaufbauhilfe im Irak unterstützten. Zwischen 2002 und 2007 waren rund 200 Soldaten (Sanitätsdienst und Pionierwesen) im Rahmen der Operation Enduring Freedom in Afghanistan stationiert. Im Juli 2009 wurden, auf Bitten der Vereinten Nationen, 350 Soldaten zur Friedenssicherung in den Süden des Libanon entsandt. Im Februar 2010 wurde eine 240 Mann starke Einheit zur Friedenssicherung in das vom Erdbeben betroffene Haiti verlegt. Neue Pläne sahen zudem vor, im Juli 2010 etwa 350 Soldaten erneut nach Afghanistan zu schicken, um den Wiederaufbau zu unterstützen.
Wirtschaft
Südkorea gilt als einer der vier ostasiatischen Tigerstaaten: Seit den 1960er Jahren hat sich das Land in rasantem Tempo zu einer der bedeutendsten Volkswirtschaften der Welt entwickelt, das in einigen Technologiebranchen die weltweite Führerschaft übernommen hat.
Südkorea stellt die dreizehntgrösste Volkswirtschaft in der Welt dar. (Stand 2023) In den 1990er Jahren war es eine der zehn größten, bis es von den einwohnerreichen BRICS-Staaten überholt wurde. Das Pro-Kopf-Bruttoinlandsprodukt Südkoreas entspricht mittlerweile dem eines durchschnittlichen EU-Landes. Die Wachstumsraten sind noch immer wesentlich höher als in Europa oder den USA. Nach Angaben der WAZ lag das Bruttoeinkommen 2006 bei rund 21.000 US$, 2022 lag es bei 32.886 US$. Zum Vergleich: Anfang der 1960er Jahre betrug es 100 US$. Seit Anfang 2010 gehört Südkorea, als erstes ehemaliges Nehmerland, zu den Geberländern des OECD-Entwicklungsausschusses.
Im Global Competitiveness Index, der die Wettbewerbsfähigkeit eines Landes misst, fiel Südkorea gegenüber den Vorjahren um einen Rang und belegt Platz 27 von 137 Ländern (Stand 2022). Im Index für wirtschaftliche Freiheit belegt das Land 2022 Platz 19 von 177 Ländern.
Funktionsweise
Charakteristisch für die südkoreanische Wirtschaft ist die dominante Position der Jaebeols. Das sind große Konglomerate, die aus rechtlich unabhängigen Einzelunternehmen bestehen. Die einzelnen Unternehmen sind durch Netzwerke auf der Ebene des Top-Managements verflochten, die wiederum durch autokratische Entscheidungssysteme von einem Familienclan kontrolliert werden. Die Jaebeols sind des Weiteren über Interessenkonstellationen mit Staats- und Bankenwesen gesellschaftlich verankert. Die größten Jaebeols sind Samsung, Hyundai, SK, LG und Lotte. Sie sind meist sehr stark diversifiziert, auch wenn außerhalb Südkoreas nur kleine Teile der Jaebeols bekannt sind. Samsung beispielsweise ist in Südkorea auch im Versicherungs-, Maschinen-, Großhandels- und Immobiliensektor aktiv.
Das enorme Wirtschaftswachstum im 20. Jahrhundert wurde in Zusammenarbeit zwischen Regierung und Wirtschaft durch ein Maßnahmenpaket erreicht, das gerichtete Kredite, Importrestriktionen, Exportförderung, Sponsoring von bestimmten Wirtschaftssektoren und Industrien sowie einen enormen Arbeitskräfteaufwand beinhaltete. Andererseits gibt es auch in Südkorea Armut, während noch 2006 etwa 6,7 Prozent der Bevölkerung unterhalb der Armutsgrenze lebten, waren es vier Jahre später 7 %. Darüber hinaus ist insbesondere die Altersarmut zunehmend, 2012 erhielten süd-koreanische Bürger ab Renteneintritt lediglich 66,7 % des vorher zur Verfügung stehenden Haushalts-Nettoeinkommens – damit lag Süd-Korea im Vergleich zu den 30 anderen OECD-Staaten auf dem vorletzten Platz.
Die Asienkrise des Jahres 1997 hat die Schwachstellen dieses Wirtschaftswundermodells offenbart: unter anderem hohe Schulden/Eigenkapital-Verhältnisse, eine massive Überschuldung und Vernachlässigungen im Finanzsektor. Zur Überwindung der Asienkrise hat Südkorea Hilfe des IWF bekommen, allerdings unter der Auflage, sein Finanzsystem zu reformieren und zu stärken. Inwiefern die geforderten Reformen vollständig umgesetzt wurden, ist Gegenstand von Diskussionen. Im Jahre 2001 hat Südkorea seine Schulden beim IWF vollständig zurückgezahlt.
Urproduktion
Die Bedeutung der Landwirtschaft für die Wirtschaft Südkoreas ist in den vergangenen Jahrzehnten ständig zurückgegangen. Im Jahr 2003 betrug der Anteil der Landwirtschaft am Bruttoinlandsprodukt des Landes etwa 3,2 %. Trotzdem beschäftigt die Landwirtschaft etwa 10 % der Arbeitskräfte. Das wichtigste landwirtschaftliche Produkt ist der Reis, der in etwa 80 % aller Betriebe angebaut wird. Die Selbstversorgung mit Reis ist eine der Prioritäten in der Wirtschaftspolitik Südkoreas – obwohl der Reisanbau in Südkorea relativ teuer ist und etwa 70 % aller Reisfelder künstlich bewässert werden müssen. Weitere landwirtschaftliche Produkte sind Roggen, Weizen, Sojabohnen, Kartoffeln, Gemüse und Obst, wobei der Anbau dieser Produkte ständig sinkt und durch Importe ersetzt wird. Aufgrund von fallenden Preisen für landwirtschaftliche Produkte, die vor allem durch Importe verursacht werden, kommt es immer wieder zu politischen und gesellschaftlichen Auseinandersetzungen.
Die Viehzucht hat mit dem steigenden Wohlstand der Bevölkerung an Bedeutung gewonnen und ist nun der zweitwichtigste landwirtschaftliche Sektor.
Im Moment befindet sich die koreanische Landwirtschaft in einem Strukturwandel, durch den von einzelnen Ehepaaren geführte landwirtschaftliche Betriebe langsam verdrängt werden und durch großflächigere, hochmechanisierte Betriebe ersetzt werden. Auch in der Viehzucht geht der Trend in Richtung Großbetriebe.
Die Forstwirtschaft hat in Südkorea eine sehr geringe Bedeutung. In der ersten Hälfte des 20. Jahrhunderts wurden die dichten Wälder der Koreanischen Halbinsel durch unkontrollierte Abholzung und die kriegerischen Auseinandersetzungen weitgehend zerstört. Nach dem Koreakrieg wurde mit Erfolg begonnen, die Wälder wieder aufzuforsten. Die Wälder Südkoreas haben ein Durchschnittsalter von weniger als 30 Jahren. Der Holzbedarf des Landes wird dennoch fast ausschließlich durch Importe gedeckt.
Die Fischerei und Fischverarbeitung erwirtschaftete im Jahr 2000 einen Umsatz von etwa 3,6 Milliarden US-Dollar. Südkorea verfügt über fast 100.000 Fischereischiffe, und 140.000 Personen sind in der Fischverarbeitung beschäftigt. Umsatz und Beschäftigung in der Fischerei sinken seit den 1980er Jahren beständig. Die Küstengewässer Südkoreas sind weitgehend leergefischt, was die Regierung im Jahr 1997 veranlasste, die Küsten- und Tiefseefischerei zu regulieren.
Industrie
Die Industrie trägt fast 35 % zum Bruttoinlandsprodukt bei und beschäftigt etwa 20 % aller Arbeitskräfte. In Südkorea werden vor allem Elektronik wie Computer, Telekommunikationsausrüstungen, Unterhaltungselektronik und Halbleiter hergestellt; daneben Fahrzeuge, Schiffe, Produkte der chemischen Industrie, Stahl und Produkte der Leichtindustrie wie Textilien, Schuhe oder Lebensmittel. In der Produktion von Halbleitern, Flachbildschirmen und Schiffen sind südkoreanische Unternehmen weltweit führend. Nach wie vor kann die südkoreanische Industrieproduktion hohe Wachstumsraten vorweisen.
Der großindustrielle Sektor erreichte in den 1970er Jahren seine größte Ausdehnung. Daneben gewann in den 1980er Jahren die Klein- und Mittelindustrie Beschäftigungsanteile hinzu. Kleine und mittlere Unternehmen erhöhten ihren Gesamtanteil an den Beschäftigten von 35 % im Jahr 1970 auf etwa 58 % im Jahr 1998. Seitdem ist Südkoreas Wirtschaft durch diese duale Wirtschaftsstruktur gekennzeichnet; eine oligopolistische Großindustrie existiert neben einem bedeutenden Wettbewerbssektor von Klein- und Mittelunternehmen.
Die Asienkrise 1997/98 hat die Schwächen in diesem System aufgezeigt. Die mangelhafte Wettbewerbsfähigkeit des südkoreanischen Wirtschaftsmodells führte bei vielen Jaebols zu Finanzierungsproblemen, die sich in steigenden Schuldenquoten widerspiegelten und gegen Ende der 1990er Jahre das ganze System der Jaebols unter Veränderungsdruck brachte. Besonders die Automobilindustrie war von der Krise betroffen. Ein gravierender Fall war der Zusammenbruch des Mutterkonzerns Daewoo (1999) unter der Last von etwa 80 Milliarden US-Dollar an Schulden, der mit dem Konkurs von Daewoo Motors im Jahr 2000 den Niedergang des zweitgrößten südkoreanischen Automobilherstellers nach sich zog.
Diese schwierige Situation führte zu einer Zunahme staatlicher Interventionen, nach einer Phase liberaler Zurückhaltung in den 1990er Jahren. Im Zuge ihres Reformprogramms zur Bewältigung der Krise traf die Regierung auch Maßnahmen zur Zerschlagung einiger dieser Jaebols. Ziel war es, die Unternehmen zu zwingen, sich auf ihr Kerngeschäft zu konzentrieren und unprofitable Geschäftsbereiche zu veräußern. Durch die Entflechtung des Jaebol-Systems und die Übernahme von Eigentumsanteilen durch ausländische Investoren ist nahezu die gesamte südkoreanische Automobilindustrie durch internationale Beteiligungen abgesichert. An der Grundstruktur, der Kontrolle durch Familienclans, hat sich jedoch trotz massiver Veränderungen auf vielen Gebieten wenig geändert.
Koreas Regierung hatte auch einen Fünf-Jahresplan erstellt, um 2010 die globale Designführerschaft zu erreichen.
Dienstleistungssektor
Der Dienstleistungssektor erwirtschaftet etwa 62 % des südkoreanischen Bruttoinlandsproduktes. Gleichzeitig beschäftigt er etwa 63 % aller Arbeitskräfte. Die wichtigsten Branchen sind Finanzdienstleistungen, Einzelhandel, Transport und Tourismus.
Der Tourismus wuchs seit den 1970er Jahren beständig. Im Jahr 1970 besuchten etwa 170.000 Personen Südkorea. Im Jahr 2002, dem Jahr der Fußballweltmeisterschaft in Japan und Südkorea, kamen 5,3 Millionen Besucher ins Land. Davon waren etwa 43 % Japaner; die zweitgrößte Gruppe der Besucher kam aus der Volksrepublik China. Bereits im Jahr 2008 betrug die Anzahl der Besucher 6.890.841 und im Jahr 2009 7.817.533. Ein kurzer Aufenthalt in Südkorea ist für Besucher aus vielen Staaten ohne Visum möglich. Präsident der Nationalen Tourismusbehörde Südkoreas war von August 2009 bis November 2013 der in Deutschland geborene Lee Charm. In den letzten Jahren stieg die Anzahl der Touristen aus der Volksrepublik China stark an. 2016 besuchten bereits 17,2 Millionen ausländische Touristen das Land. Die Einnahmen aus dem internationalen Tourismus betrugen im selben Jahr über 17 Milliarden US-Dollar.
Energiewirtschaft
Südkorea liegt in Hinblick auf den Energieverbrauch pro Kopf weltweit auf dem 19. Platz.
In der Asienkrise 1997/1998 wurde sichtbar, dass die südkoreanische Wirtschaft sehr stark von Energieimporten abhängig ist. Seit dem 21. Jahrhundert kommt es deshalb und aufgrund der globalen Erwärmung zur starken Förderung von erneuerbaren Energien.
Kennzahlen der Elektrizitätserzeugung
Laut der Korea Electric Power Corporation (KEPCO) betrug die installierte Leistung der Kraftwerke in Südkorea am Ende des Jahres 2012 81.805 MW, davon entfielen auf kalorische Kraftwerke 52.305 MW (63,9 %), auf Kernkraftwerke 20.716 MW (25,3 %) und auf Wasserkraftwerke 6.446 MW (7,8 %). Die installierte Leistung der Wärmekraftwerke verteilte sich wie folgt: Kohle 24.533 MW, Erdgas 20.566 MW sowie Öl 7.206 MW. Insgesamt wurden im Jahre 2012 509,574 Mrd. kWh produziert, davon 180,752 Mrd. durch Kohlekraftwerke (35,5 %), 150,327 Mrd. durch Kernkraftwerke (29,5 %), 113,984 Mrd. durch Gaskraftwerke (22,4 %), 28,244 Mrd. durch Ölkraftwerke (5,5 %) und 7,695 Mrd. (1,5 %) durch Wasserkraftwerke.
Laut dem Korea Energy Economics Institute (KEEI) wiesen die verschiedenen Kraftwerkstypen folgende Erzeugungskosten auf (angegeben in ₩ je kWh):
Ähnliche Werte findet man für das Jahr 2008 bei dieser Quelle: Atomstrom 39,02 ₩/kWh (0,0247 €/kWh), Strom aus Kohle 51,1 ₩/kWh (0,0324 €/kWh), Wasserkraft 135,6 ₩/kWh (0,0861 €/kWh), Strom aus Erdgas 143,6 ₩/kWh (0,0912 €/kWh), Strom aus Erdöl 191,5 ₩/kWh (0,1216 €/kWh), Windenergie 126,7 ₩/kWh (0,080 €/kWh) und Solarstrom 646,9 ₩/kWh (0,411 €/kWh).
Die Spitzenlast wurde am 12. August 2016 mit 85.180 MW erreicht. Im Jahre 2016 lag Südkorea bzgl. der jährlichen Erzeugung mit 526 Mrd. kWh an Stelle 10 und bzgl. der installierten Leistung mit 111.200 MW an Stelle 11 in der Welt.
Kernenergie
Die Kernenergie wurde in Südkorea massiv ausgebaut (siehe Liste der Kernkraftwerke in Asien#Südkorea; 1977 ging der erste Reaktor in Betrieb). 2006 lag der Anteil des Atomstroms um 39 %. Alle Anlagen werden vom Staatsunternehmen und Monopolisten Korea Hydro & Nuclear Power (KHNP) betrieben und vom Subunternehmen Korea Power Engineering Company (KPEC) gebaut. Korea sieht es als Vorteil, dass man – wenn man genügend Uran(brennstäbe) importiert – autark ist. Das Korea-US Atomic Energy Agreement aus den 1970er Jahren verbietet Korea die Urananreicherung und Wiederaufarbeitung. Korea ist hier auf Importe angewiesen.
Für die Brennstoffbeschaffung ist die KEPCO Nuclear Fuel Company (KNFC) verantwortlich, die zusammen mit KEPCO, Hanwha und KHNP in Kanada, Südafrika, Niger und Südamerika in Minenprojekte bzw. Uranbergbau involviert ist. Zur Anreicherung wurde Mitte 2007 ein 10-Jahresvertrag mit Areva NP unterzeichnet, und 2009 ein 2,5-Anteil an der Anreicherungsanlage Georges Besse II erworben. Das erste Kraftwerk Kori-1 wurde 1977 ans Netz genommen, im Jahr 1980 waren acht Reaktoren im Bau. Anfangs wurde im Kernkraftwerk Kori ein Design von Westinghouse verwendet, die Reaktoren im Kernkraftwerk Hanbit basieren auf der CP-Serie von Framatome. In Wolsong wurden kanadische CANDU-Anlagen verbaut. Die erste Eigenentwicklung war der OPR-1000 mit 1000 MWe; er ging ab 1998 in Betrieb. Daraus wurde der APR-1400 entwickelt, der mit erhöhter Redundanz und gesteigerter Blockleistung von etwa 1400 MWe ab 2008 gebaut wird und erstmals auch Exporterfolge in den Vereinigten Arabischen Emiraten verzeichnet. im Februar 2012 waren drei Reaktoren im Bau und sechs weitere in Planung, 23 Anlagen waren am Netz. Der Atomstromanteil soll dadurch langfristig auf über 50 % ansteigen.
Zur Entsorgung nuklearer Abfälle wurde 2009 die Korea Radioactive Waste Management Co. Ltd (KRWM) gegründet. KHNP zahlt dafür eine Entsorgungsabgabe von 900.000 Won (571 Euro) pro Kilogramm abgebrannter Brennelemente an KRWM, was je nach Anlagentyp etwa 0,15 bis 0,2 ct/kWh entspricht und im internationalen Vergleich recht hoch ist. Für die Entsorgung von schwach- und mittelradioaktiven Abfällen wurden im Jahr 2000 Gemeinden gebeten, sich freiwillig als Standort zu melden, woraufhin sieben Anträge einreichten, aber in keiner die notwendige Bevölkerungsmehrheit zustande kam. Das Ministry of Knowledge Economy (MKE) wählte 2003 daraufhin vier Standorte aus, der Gewinner sollte 300 Mrd. Won (etwa 190 Mio. Euro) bekommen. Im November 2005 erhielt Gyeongju den Zuschlag, nachdem sich dort 89,5 % der Wähler dafür entschieden, während an anderen Standorten die Zustimmung bei „nur“ 67,5 bis 84,4 % lag. Der Bau des Endlagers Wolsong begann im Juli 2008; es soll bis zu 281.600 m³ Abfälle aufnehmen. Über die Entsorgung von hochradioaktiven Abfällen sollte die bis 2014 einen Bericht erstellen und danach entschieden werden, wenn das ‚Korea-US Atomic Energy Agreement‘ ausläuft. Dann soll festgelegt werden, ob eine direkte Endlagerung durchgeführt wird oder ob ein Einstieg in die Wiederaufarbeitungstechnologie erfolgt. Letztere Lösung wurde 2009 aus global-wirtschaftlichen und politischen Gründen favorisiert. Der Bericht der stand bis Stand November 2015 aus.
Südkorea ist Mitglied im Generation IV International Forum und arbeitet auch an der Entwicklung der Kernfusion (ITER). Der Korea Superconducting Tokamak Advanced Research (KSTAR) mit supraleitenden Spulen wurde dazu 2008 in Betrieb genommen.
Fossile Energien
Südkorea hat kaum eigene Ressourcen fossiler Energien; weniger als 3 % des Energiebedarfs können aus eigenen Ressourcen gedeckt werden.
Südkorea ist nach Japan der zweitgrößte Kohleimporteur der Welt. Etwa zwei Drittel des verbrauchten Stroms wurde um 2001 in Kohlekraftwerken produziert. 2008 importierte Südkorea fast 64 Mio. t Kohle allein für die Stromerzeugung. Die wichtigsten Lieferländer waren Indonesien mit 26 und Australien mit 22 Mio. t. Im Jahre 2013 wurden 101 Mio. t Kohle für die Stromerzeugung importiert und es gibt Schätzungen, dass die Importe bis 2030 auf 140 Mio. t ansteigen werden. Kohle aus Indonesien oder Australien kostete im April 2014 etwa 105 USD je Tonne.
Südkorea war 2001 der fünftgrößte Ölimporteur der Welt, es verbrauchte etwa 2,1 Millionen Fass Öl täglich. Mit Erdöl wurde um 2001 etwa 45 % des Primärenergiebedarfs gedeckt. Der Höchstwert von 66 % war Mitte der 1990er Jahre erreicht und fällt seitdem. Um den kontinuierlichen Nachschub an Erdöl zu sichern, wurde die Korea National Oil Corporation (KNOC) gegründet deren Aufgabe es ist, eine strategische Ölreserve zu halten und sich weltweit an Lagerstättenerkundungen und Förderprojekten zu beteiligen.
Erneuerbare Energien
Südkorea hat das Kyoto-Protokoll unterzeichnet; Maßnahmen zur Verringerung des Kohlendioxidausstoßes sind vorgesehen. So liegt der Anteil der Wasserkraft seit Jahren konstant bei etwa 1,3 % und soll durch den Bau von Gezeitenkraftwerken wie Sihwa-ho und größeren Anlagen deutlich gesteigert werden. Im Rahmen des Jeju Smart Grid Demonstration Project wird die Insel Jeju unter Leitung des Korea Smart Grid Institute (KSGI) mit einem Intelligenten Stromnetz ausgestattet. Dafür sollen bis zur Fertigstellung im Jahr 2030 rund 2,75 Billionen Won (1,75 Mrd. Euro) investiert werden.
Arbeitsmarkt
Der Arbeitsmarkt Südkoreas umfasst im Jahr 2016 etwa 25,4 Millionen Personen. Die Arbeitslosenquote lag bei etwa 3,7 %.
Etwa die Hälfte der südkoreanischen Frauen im arbeitsfähigen Alter sind beruflich aktiv. Im Januar 2016 wurde die Zahl der berufstätigen Frauen mit 11 Millionen angegeben. Die Anzahl der arbeitslosen Frauen betrage etwa 408.000.
Mindestlohn
In Südkorea gilt ein Mindestlohn, der jährlich angepasst wird. Im Jahr 2010 betrug dieser 4110 Won pro Stunde (etwa 2,98 Euro), 2015 stieg er auf 5580 Won (etwa 4,00 Euro). 2023 liegt der Mindestlohn bei 9620 Won (etwa 6,90 Euro).
Gewerkschaften
Im Jahr 2003 gab es in Südkorea mehr als 6500 Gewerkschaften, die etwa 11 % aller Arbeitskräfte vertraten. Die meisten dieser Gewerkschaften existieren auf Firmenebene, einige davon sind auf nationaler Ebene in zwei nationalen Föderationen vereinigt. Beide großen Gewerkschaftsbünde, „Federation of Korea Trade Unions“ (FKTU) und „Korean Confederation of Trade Unions“ (KCTU) sind Mitglieder des Internationalen Gewerkschaftsbundes (IGB). Die Zahl der Mitglieder in den zur FKTU gehörenden Einzelgewerkschaften wird mit 878.628 Mitgliedern angegeben, für KCTU mit 812.500 (Stand: November 2017).
Im Jahr 2003 gab es 319 Streiks, bei denen insgesamt 1,3 Millionen Arbeitstage verloren gingen. Die Regierung wurde wiederholt dafür kritisiert, Gewerkschaften im öffentlichen Sektor nicht anzuerkennen und Gewerkschafter, die sich bei Streiks engagieren, verhaften zu lassen. Gemäß OECD-Daten aus dem Jahre 2004 beträgt die Arbeitsleistung koreanischer Arbeiter 2390 Stunden pro Jahr. Das seien 400 Stunden mehr als in Polen mit der zweitgrößten Stundenzahl und 34 % mehr als in den Vereinigten Staaten. Nach Angaben der südkoreanischen Regierung sank die Zahl der Arbeitsstunden geringfügig auf 2316 im Jahre 2007.
Internationale Wirtschaftsbeziehungen
Die internationalen Wirtschaftsbeziehungen, insbesondere der Export, sind einer der zentralen Punkte der Außenpolitik Südkoreas. Seit 1995 ist das Land Mitglied der WTO. Die Exporte haben sich seit den 1970er Jahren rasant entwickelt. Während sie in den frühen 1970er Jahren etwa 10 % des BIP ausmachten, lag dieser Prozentsatz im Jahr 2014 bei 50,6 %. Die wichtigsten Exportgüter sind Elektronik, Fahrzeuge, Unterhaltungselektronik, Nukleartechnik und Maschinen, Stahl, Schiffe sowie Produkte der chemischen Industrie. Die wichtigsten Absatzmärkte für südkoreanische Güter sind Volksrepublik China und die USA. Danach folgen Hongkong, Vietnam und Japan. Die wichtigsten Importgüter sind Rohöl, Lebensmittel, Maschinen und Fahrzeuge, Chemikalien und Metalle. Die meisten Importe stammen aus der Volksrepublik China, den USA, Japan, Deutschland und Australien.
Die gesamten Exporte des Jahres 2015 beliefen sich auf etwa 527 Mrd. US-Dollar, die Importe lagen bei 436 Milliarden. Dies führte zu einem Außenhandelsüberschuss von 91 Milliarden US-Dollar.
Ausländische Firmen investierten in Südkorea im Jahr 2016 nahezu 184 Mrd. US-Dollar. Der größte Investor mit etwa 36 % sind die Staaten der Europäischen Union, danach folgen Singapur, die USA, Hongkong und Japan. Während sich die amerikanischen Investitionen auf den Servicesektor konzentrieren, investieren die japanischen Firmen größtenteils in Industrieunternehmen. Die ausländischen Investitionen werden durch Bedenken über Korruption und unfaire Handelspraktiken gebremst.
Wirtschaftskennzahlen
Die wichtigen Wirtschaftskennzahlen Bruttoinlandsprodukt, Inflation, Haushaltssaldo und Außenhandel entwickelten sich in den letzten Jahren folgendermaßen:
Staatshaushalt
Der Staatshaushalt umfasste 2016 Ausgaben von umgerechnet 321,0 Mrd. US-Dollar; dem standen Einnahmen von umgerechnet 304,3 Mrd. US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 1,2 % des BIP.
Die Staatsverschuldung betrug 2016 550 Mrd. US-Dollar oder 39,0 % des BIP. Von der Ratingagentur Standard & Poor’s werden die Staatsanleihen des Landes mit der Note AA bewertet (Stand November 2018) und liegen damit knapp hinter der Bestnote.
Infrastruktur
In den letzten Jahrzehnten wurde, dank gezielter Investitionen, ein hochmodernes und dichtes Netz an Verkehr- und Transportinfrastruktur errichtet. Im Logistics Performance Index, der von der Weltbank erstellt wird und die Qualität der Infrastruktur misst, belegte Südkorea 2018 den 25. Platz unter 160 Ländern.
Schienenverkehr
Geschichte
Die erste Eisenbahnverbindung in Korea war ein Teilstück der Gyeongin-Linie, die Seoul mit dem nahen Incheon verbindet und am 18. September 1899 eröffnet wurde. Die Gyeongbu-Linie von Seoul nach Busan wurde am 1. Januar 1905 eröffnet. Parallel zu dieser wichtigsten Relation der Eisenbahn in Südkorea wurde 2004 eine Schnellfahrstrecke eröffnet, die erste des Landes.
Eisenbahn
Anfang 2019 hatte das südkoreanische Eisenbahnnetz eine Länge von 4113 km. Davon dienen 656 km dem Hochgeschwindigkeitsverkehr. Die Infrastruktur wird vom Infrastrukturbetreiber Korea National Railway (KNR) entwickelt und betrieben.
Die staatliche Eisenbahnverkehrsbehörde KORAIL wickelt den ganz überwiegenden Teil der Eisenbahnverkehrs in Südkorea ab. Sie besaß im April 2018 insgesamt 16.639 Fahrzeuge. 1530 davon waren Triebköpfe und Personenwagen für Triebzüge des Hochgeschwindigkeitsverkehrs. Weiter liefen in anderen Triebwagen 2937 Fahrzeuge. Im Bestand befanden sich weiter 456 Lokomotiven, 10.665 Güterwagen, 920 Personenwagen und 116 Generatorwagen.
Im Personenverkehr werden vier Zuggattungen angeboten. Zu den Einzelheiten siehe KORAIL#Fahrzeuge.
Da Südkorea das äußere Ende der koreanischen Halbinsel einnimmt, ist seine einzige Landgrenze die zu Nordkorea. Aufgrund der politischen Situation ist der Eisenbahnverkehr zwischen beiden Staaten extrem begrenzt: Personenverkehr gibt es nicht. Wenn es die politische Situation zulässt, findet Güterverkehr zwischen Südkorea und der Sonderwirtschaftszone Kaesŏng statt. Darüber hinaus wurde Ende 2018 von der russischen FESCO Transportation Group und der südkoreanischen Hyundai Glovis, die zur Hyundai Motor Group gehört, geprüft, ob zwischen Südkorea und Russland Privilegierter Eisenbahn-Durchgangsverkehr durch Nordkorea möglich ist. Dazu hielt sich ein südkoreanischer Zug mit 28 südkoreanischen Experten 18 Tage lang in Nordkorea auf, um die Eisenbahninfrastruktur darauf zu überprüfen, ob das technisch möglich ist.
U-Bahn
In den sechs größten Städten Südkoreas werden U-Bahn-Systeme betrieben. Sie stellen einen Eckpfeiler im Nahverkehr der Großstädte dar und werden laufend erweitert.
Seoul
Das erste und größte U-Bahn-Netz Südkoreas war die U-Bahn Seoul. Sie wurde 1974 eröffnet und umfasst acht Linien mit einer Gesamtlänge von 287 Kilometern und 263 Stationen. Diese U-Bahn verbindet die Stadt mit den zahlreichen Satellitenstädten im Umland und wird täglich von durchschnittlich 5,6 Millionen Passagieren benutzt.
Busan
Die U-Bahn Busan wurde 1985 eröffnet. Das Streckennetz umfasst drei Linien mit einer Gesamtlänge von 88,8 Kilometern und 90 Stationen, die tägliche Transportleistung liegt bei über 706.000 Passagieren.
Daegu
1997 ging die erste Linie der U-Bahn Daegu in Betrieb, eine zweite Linie wurde 2005 eröffnet. Das Netz umfasst seitdem 57,3 Kilometer mit 56 Stationen. Bei einem durch einen psychisch Erkrankten ausgelösten Brand am 18. Februar 2003 kamen fast 200 Personen ums Leben. Der Anschlag gilt weltweit als einer der schwersten in der Geschichte der U-Bahnen.
Incheon
Die 1999 eröffnete U-Bahn Incheon umfasst eine Linie von 24,6 Kilometern Länge mit 22 Stationen. Es ist baulich mit dem Netz der U-Bahn Seouls verbunden.
Gwangju
Die erste Linie der U-Bahn Gwangju wurde 2004 eröffnet und umfasst bisher 14 Stationen bei einer Länge von 12 Kilometern.
Daejeon
Die U-Bahn Daejeon wurde im März 2006 mit 12 Stationen auf 12,4 Kilometern Länge eröffnet.
Straßenverkehr
Das Straßennetz Südkoreas umfasst eine Gesamtlänge von 97.252 Kilometern, von denen 74.641 Kilometer asphaltiert sind. Das Autobahnnetz, in Südkorea Express Way genannt, wurde mit der 1968 eröffneten, 24 Kilometer langen Autobahn von Seoul nach Incheon in Betrieb genommen. Die mit 425,5 Kilometern deutlich längere Autobahn von Seoul nach Busan wurde zwei Jahre später eröffnet. Ende 2005 umfasste das Express-Way-Netz 24 Autobahnen mit einer Gesamtlänge von 2968 Kilometern, die größtenteils mautpflichtig sind. Es herrscht Rechtsverkehr.
Busverkehr
Neben den in der Regel gut ausgebauten Stadtbusnetzen verfügt Südkorea auch über ein gut ausgebautes überregionales Busnetz. Intercity-Busse verbinden die meisten Städte des Landes miteinander. Viele Linien machen mehrere Zwischenhalte, andere fahren Nonstop zum Zielort. Etwas teurer sind die Express-Busse, die das nationale Autobahnnetz – meist mit eigener Busspur – nutzen. Rund die Hälfte der Linien beginnt oder endet in Seoul, rund 70 weitere Städte sind an das Netz angebunden. Die meistbefahrenen Linien werden alle 5 bis 10 Minuten bedient, wobei alle Busse ihr Ziel direkt anfahren.
Individualverkehr
Mit dem wirtschaftlichen Aufschwung des Landes hat der Automobilverkehr einen dramatischen Anstieg erfahren. So stieg die Anzahl der registrierten Fahrzeuge zwischen 1980 und 2006 von 527.729 auf 15.493.681. Dies entspricht einem Anstieg von 14 % jährlich. Noch deutlicher ist die Steigerung, wenn man nur die Klasse der Personenwagen betrachtet. Deren Zahl stieg von 249.102 (1980) auf 11.224.016 im Jahr 2006, das entspricht einem Zuwachs um das 45-fache. Dies führte vor allem in Großstädten zu den üblichen Problemen. Neben der Überlastung der Straßen ist der Straßenverkehr eine schwere Belastung für die Umwelt. So hat Seoul die stärkste Luftverschmutzung aller Städte in den Mitgliedsstaaten der OECD zu ertragen.
2013 kamen im Südkorea insgesamt 12 Verkehrstote auf 100.000 Einwohner. Zum Vergleich: In Deutschland waren es im selben Jahr 4,3 Tote. Insgesamt kamen damit 5930 Personen im Straßenverkehr ums Leben. Das Land hat eine im weltweiten Vergleich hohe Motorisierungsrate. 2014 kamen im Land 459 Kraftfahrzeuge auf 1000 Einwohner.
Luftverkehr
Um der ebenfalls stark gestiegenen Bedeutung des Luftverkehrs gerecht zu werden, wurde 2001 auf der Insel Yeongjongdo, 52 Kilometer westlich von Seoul, der Incheon International Airport in Betrieb genommen. Er löste als Drehscheibe für internationale Flüge den überlasteten Flughafen Gimpo ab, von dem hauptsächlich nur noch nationale Ziele angeflogen werden.
Vom Incheon International Airport bieten unter anderem die beiden südkoreanischen Fluggesellschaften Korean Air und Asiana Airlines pro Woche mehr als 1700 internationale Direktverbindungen in die wichtigsten Städte Asiens, Nordamerikas, Europas und des Mittleren Ostens an.
Nationale Flüge werden zwischen Seoul, Busan, Jeju, Daegu, Gwangju, Jinju, Wonju, Cheongju, Yeosu, Ulsan, Yangyang und Pohang angeboten. 2003 wurden zwischen diesen Städten 21,3 Millionen Passagiere befördert.
Schifffahrt
Durch seine Lage auf der Koreanischen Halbinsel mit hunderten von bewohnten Inseln sowie der Situation als Exportnation spielt die Schifffahrt für Südkorea eine bedeutende Rolle. Die wichtigsten Seehäfen sind Incheon und Gunsan an der Westküste, Mokpo, Jinhae und Masan an der Südküste, sowie Busan, Donghae, Ulsan und Pohang an der Ostküste. Der jährliche Güterumschlag der südkoreanischen Häfen betrug 2003 596 Millionen Tonnen, im Gegensatz zu 9 Millionen Tonnen im Jahre 1961. Die südkoreanische Handelsmarine umfasste 2005 650 Schiffe mit mehr als 1000 Bruttoregistertonnen.
Internationale Fähren fahren von Incheon nach Weihai, Yantai, Qingdao, Shanghai, Tianjin, Dalian und Dandong in der Volksrepublik China. Von Busan werden Routen nach Shimonoseki, Tsushima und Hakata in Japan sowie Yantai in China angeboten. Ebenfalls in China liegt Lianyungang, das von Mokpo angefahren wird. Außerdem Sokcho wird eine Route nach Zarubino in Russland angeboten. Nationale Fähren fahren zu den zahlreichen Inseln. Durch den Jeju International Airport auf der Insel Jeju verlieren die Fährlinien dorthin aber zunehmend an Bedeutung.
Telekommunikation
Es gibt drei Mobilfunkanbieter in Südkorea: SK Telecom, KT und LG Uplus. Im Jahr 2021 nutzten 97,6 Prozent der Einwohner Südkoreas das Internet. Südkorea hatte 2017 das schnellste Internet der Welt.
In Südkorea sind pornografische Webinhalte, nordkoreanische Webseiten sowie Onlinedienste, die nach Ansicht der Behörden die „öffentliche Ordnung“ stören könnten, verboten. Das entsprechende Gesetz, das diese Verbote aufstellte, das „Electronic Communication Business Law“ von 1995, war eins der ersten Internetzensur-Gesetze der Welt. Es werden alle solchen den Behörden bekannten Webseiten blockiert. Diese umfangreiche Internetzensur ist für ein sonst so demokratisches Land ungewöhnlich und wird von vielen NGOs kritisiert.
Feuerwehr
In der Feuerwehr in Südkorea waren im Jahr 2019 landesweit 57.779 Berufs- und 94.257 freiwillige Feuerwehrleute organisiert, die in 219 Feuerwachen und Feuerwehrhäusern, in denen 2.144 Löschfahrzeuge und 460 Drehleitern bzw. Teleskopmasten bereitstehen, tätig sind. Der Frauenanteil beträgt 21 Prozent. In den Jugendfeuerwehren sind 26.550 Kinder und Jugendliche organisiert. Die südkoreanischen Feuerwehren wurden im selben Jahr zu 40.030 Brandeinsätzen alarmiert. Hierbei wurden 284 Tote von den Feuerwehren geborgen und 2.219 Verletzte gerettet. Der nationale Feuerwehrverband repräsentiert die südkoreanische Feuerwehr mit ihren Feuerwehrangehörigen im Weltfeuerwehrverband CTIF.
Forschung und Entwicklung
Südkorea gab im Jahr 2014 4,3 % des BIP für Forschung und Entwicklung aus und damit prozentual mehr als jedes andere Land. 2006 implementierte die südkoreanische Regierung ein Regelwerk, durch das Autoren von Fachartikeln in wichtigen Zeitschriften wie Science, Nature und Cell 3 Millionen Won erhalten. Um die Forschung weiter zu stärken, wurde das Institute for Basic Science gegründet, vergleichbar mit RIKEN in Japan und der Max-Planck-Gesellschaft in Deutschland.
Wissenschaft und Technik
Südkorea hat innerhalb der OECD die höchste Rate von Absolventen in Naturwissenschaften und Ingenieurswesen. Außerdem führt das Land den Bloomberg Innovation Index an. Des Weiteren weist Südkorea nur geringe Grenzen für neue Technologien auf und wird deshalb als Testmarkt, gerade für Smartphone-Technik, genutzt. Zahlreiche Inventionen neuer Medien und Apps sowie 4G- und 5G-Infrastrukturen werden in Südkorea umgesetzt.
Nach Japan, den USA und Deutschland verfügt Südkorea über den weltweit vierthöchsten Bestand von Industrierobotern. Das Wachstum betrug von 2011 auf 2014 etwa 59 % und weist eine Menge von 150.505 Robotern auf. In der Servicerobotik ist Südkorea neben Japan führend. 2005 entwickelten Forscher des Korea Advanced Institute of Science and Technology (KAIST) den weltweit zweiten, laufenden humanoiden Roboter, HUBO. Ein Team des Korea Institute of Industrial Technology entwickelte den ersten koreanischen Androiden, Ever-1 im Mai 2006.
Raumfahrt
Südkorea brachte seit 1992 mehr als 15 Satelliten ins All, darunter im Rahmen des KOMPSat-Programms ab 1999 in Zusammenarbeit mit Russland auch vier Fernerkundungs-Satelliten. Der erste dieser Satelliten, Arirang-1, ging 2008 nach neun Jahren Nutzungszeit im All verloren.
Im April 2008 flog Yi So-yeon als erste koreanische Astronautin an Bord einer russischen Soyus TMA-12 ins All. Im Juni 2009 wurde Südkoreas erster Weltraumbahnhof, das Naro Space Center, in Goheung (Jeollanam-do) in Betrieb genommen. Der Start der Rakete Naro-1 im August 2009 scheiterte. Auch der zweite Versuch im Juni 2010 war nicht erfolgreich. Der dritte Start im Januar 2013 war schließlich erfolgreich.
Südkoreas Anstrengungen eine eigene Trägerrakete zu entwickeln stoßen auf politischen Druck ausgehend von den USA, die über mehrere Jahrzehnte Südkoreas Ambitionen behinderten. Die USA befürchteten, dass es sich um geheime, militärische Programme handeln könnte. Südkorea suchte eine Zusammenarbeit mit weiteren Staaten, wie Russland, um eine einheimische Raketentechnologie zu entwickeln.
Bildung
Durch den großen Einfluss des Konfuzianismus wird der Bildung in Korea traditionell ein sehr hoher Wert beigemessen. Die Ausbildung bestimmt wesentlich den späteren sozialen Status. Der hohe Eifer für Bildung wird als ein wesentlicher Faktor für den starken wirtschaftlichen Aufschwung angesehen.
Das südkoreanische Bildungssystem gerät allerdings auch in Kritik, insbesondere in Hinblick auf den enormen Leistungsdruck der High-School-Bildung. So ist es für High-School-Schüler nicht unüblich (ähnlich auch in Japan oder China), dass sie einen 12-Stunden-Tag haben und mehrere Hagwon genannte Paukschulen besuchen. Das High-School-Zeugnis bzw. die Hochschuleintrittsprüfung sind entscheidend dafür, welche Universität man besucht. Dies wiederum ist maßgeblich für die späteren Berufschancen und den sozialen Status.
Das südkoreanische Bildungssystem ist einheitlich und staatlich zentralisiert. Zuständig ist das „Ministerium für Bildung und die Entwicklung von Humanressourcen“.
Südkorea weist eine der höchsten Alphabetisierungsraten weltweit auf.
Schulen
Moderne Schulen wurden in Korea in den 1880er Jahren eingeführt. Die moderne Vorschulausbildung Südkoreas besteht seit dem Anfang des 20. Jahrhunderts. Mit der Gründung Südkoreas errichtete die Regierung ein modernes Schulsystem nach westlichem Vorbild. Während der Modernisierung in den 1970er Jahren spielte sie eine wichtige Rolle. Seit den 2000er Jahren wurde sie noch einmal reformiert und ausgebaut. Gab es im Jahre 1980 landesweit nur 901 Vorschulen, so stieg deren Zahl bis 2003 auf 8292. Seit 1999 werden Kindergartenplätze für Kinder aus sozial schwachen Familien vom Staat bezuschusst. 2002 wurde das Programm erweitert, um 20 % der fünfjährigen Kindergartenkinder komplett von den Gebühren zu befreien.
Das Schulsystem gliedert sich in eine sechsjährige Grundschule (, , chodeunghakgyo), eine dreijährige Mittelschule (, , junghakgyo) sowie eine dreijährige High School (, , godeunghakgyo). Der Besuch der Grundschule und seit 2002 auch der Mittelschule ist verpflichtend, nahezu alle Schüler wechseln anschließend auf die High School (99,7 % aller Schüler im Jahr 2004). In Grundschulklassen gibt es im Durchschnitt 26,2 Schüler pro Lehrer (Stand: 2002). An der Mittelschule unterrichtet ein Lehrer im Durchschnitt 19 Schüler (Stand: 2004). Die durchschnittliche Klassengröße insgesamt stand 2003 bei 34,5 Schülern.
Es gibt zwei Arten von High Schools, eine allgemeinbildende, auf ein Hochschulstudium vorbereitende (, , inmun-gye godeunghakgyo genannt), sowie eine berufsvorbereitende High School (, , sireobgye godeunghakgyo), von der wiederum vier Unterarten existieren, die speziell auf die Themen Landwirtschaft, Ingenieurs- und Wirtschaftswissenschaften sowie Meereskunde vorbereiten. Der Lehrplan an diesen Schulen enthält zwischen 40 und 60 % Fächer aus diesen Gebieten, der Rest gilt der Allgemeinbildung. Auch einige der allgemeinbildenden High Schools haben sich auf bestimmte Fächer wie Kunst, Sport, Wissenschaft oder Fremdsprachen (wie die HAFS) spezialisiert. 2004 gab es 729 berufsvorbereitende High Schools mit 514.550 Schülern und 1351 allgemeinbildende High Schools mit 1,23 Millionen Schülern. Rund 97 % eines Jahrgangs schließen die High School erfolgreich ab; mit diesem Wert liegt Südkorea weltweit an der Spitze.
In den PISA-Studien 2018 erreichte Südkorea in den drei untersuchten Fachbereichen die Plätze 7, 8 und 9 (von 78 bzw. 79).
Hochschulen
Südkorea hat sehr viele und verschiedene Hochschulen. Grob besteht das Hochschulsystem aus Universitäten (mit Universitätsstatus) und berufsorientierten Colleges. Die südkoreanische Universitätsbildung orientiert sich an das angelsächsische Drei-Zyklen-System mit Bachelor-, Master- und Promotionsstudium. In den Universitäten sind diese Studiengänge in zwei Ebenen aufgeteilt, dem grundständigen und postgradualen Studium. Für das grundständige Studium (Bachelor) sind die Colleges (Fakultäten) zuständig. Sie sind prinzipiell vierjährig bzw. sechsjährig für Medizin und Zahnmedizin. Die höheren akademischen Grade (Master und Doktor) werden in Graduate Schools organisiert. Neben den Volluniversitäten gibt es spezielle Universitäten für besondere Bereiche. Ein besonderes Fach ist die verbreitete Nordkoreawissenschaft, die zum Beispiel an der eigenen University of North Korean Studies (북한대학원대학교) in Seoul gelehrt wird.
Von den berufsorientierten Hochschulen gibt es zwei- oder vierjährige (eigenständige) Colleges und Fachhochschulen mit Universitätsstatus, sowie Fernuniversitäten.
2004 gab es in Südkorea insgesamt 411 Institutionen der höheren Bildung mit zusammen 3,56 Millionen Studenten und rund 64.000 Lehrkräften. Gab es 1960 lediglich 52 Universitäten im Land, lag 2013 ihre Anzahl mit 345 um ein Vielfaches höher. 71 % aller Oberschüler, die die Hochschulzulassung erreicht haben, besuchen eine Universität, wovon zwischen 600.000 und 700.000 Studenten jährlich ihre Universität mit einem Abschluss verlassen. Dies stellt eine besondere Herausforderung für den südkoreanischen Arbeitsmarkt dar.
In Südkorea gibt es auch Frauenuniversitäten, meist durch christlich-missionarische Institutionen gegründet. Diese stammen aus der Zeit, als die Hochschulbildung noch männlich dominiert und eine „höhere“ Bildung für Frauen eine Besonderheit war.
Die südkoreanische Hochschullandschaft besteht aus einigen staatlichen und einer Vielzahl privater Hochschulen. Viele kleinere Privathochschulen leiden unter Finanzproblemen. Von den staatlichen ist die Seoul National University die größte und bildet die Spitze der Bildung Südkoreas. Von den privaten sind Yonsei University und Korea University führend. Diese drei sind die traditionellen Eliteuniversitäten Südkoreas, wofür es die Bezeichnung „SKY-Universität“ gibt.
Kultur
Südkorea teilt die traditionelle Kultur mit Nordkorea. Die Differenzen zwischen Nord- und Südkorea haben jedoch dazu geführt, dass sich die gegenwärtige südkoreanische Kultur von der des Nordens unterscheidet.
Seit den 1990er Jahren erfreuen sich südkoreanische Filme, Dramaserien und Musik zunehmend weltweiter Beliebtheit. Dieses Phänomen wird als Koreanische Welle (Hallyu) bezeichnet.
Literatur
Drei Themen bestimmen auffallend die Gegenwartsliteratur in Südkorea: Die Teilung Koreas sowie der Koreakrieg und die Industrialisierung des Landes seit den 1960er Jahren. Außerdem spielt die Entfremdung des Individuums in einer kapitalistischen und verstädterten Gesellschaft, die mit ihren traditionellen Werten ringt. Die Autorengeneration nach 1945 wird auch als Hangeul-Generation bezeichnet, da diese nicht mehr in der japanischen Sprache schrieben.
Bedeutende zeitgenössische Autoren aus Südkorea sind Park Kyung-ni, Ko Un, Yi Mun-yol, Hwang Sok-yong und Pak Wanso. Hwang Sok-yong hat den Koreakrieg selbst erlebt und war im Vietnamkrieg als Soldat im Einsatz. Ein zentrales Thema seiner Werke stellt der Konflikt zwischen Tradition und Moderne dar. Die Autorin Han Kang wurde 2016 mit dem wichtigsten britischen Literaturpreis, dem Man Booker Prize, für ihr Werk Die Vegetarierin bedacht. Das Buch wurde auch ins Deutsche übersetzt. Wie viele Autoren der jüngeren Generation setzt sich auch Han mit dem Modernisierungsschub auseinander. Dabei ist auch Globalisierungskritik und Fortschrittsskeptik zu erkennen. Der Schriftsteller Kim Young-ha hingegen ist ein Modernisierungsbejaher. Ijoma Mangold von der Süddeutschen Zeitung bezeichnet seine Erzählung Klingende Weihnachtsgrüße als „eine psychologische Erzählung von hoher Raffinesse und sehr zeitgenössischem Charakter“. Des Weiteren sind die Romane der Autorinnen Kim Ryŏ-ryŏng und Gong Ji-young populär. Von ihren Werken wurden einige erfolgreich verfilmt.
Im Westen wurde der Autor Kim Chi-ha bekannt, da er in seinen Werken der Auflehnung gegen die Diktatur von Park Chung-hee Ausdruck verlieh. Aufgrund dessen wurde er 1974 zum Tode verurteilt. Dies löste international einen Skandal aus und es folgten Proteste von westlichen Intellektuellen, wie Jean-Paul Sartre, Heinrich Böll und Noam Chomsky, bis eine Amnestie erfolgte. Eines der bekanntesten südkoreanischen Werke im deutschsprachigen Raum ist wohl der Roman Als Mutter verschwand von Sin Kyong-suk. Ein im deutschsprachigen Raum bekannter deutsch-koreanischer Autor ist Byung-Chul Han.
Comics
Comics aus Südkorea werden Manhwa genannt und finden auch in Deutschland zunehmend Interessenten. Es gibt in Südkorea zahlreiche sogenannte Manhwabangs, in denen Manhwas gelesen und ausgeliehen werden können. Durch Webtoons und Apps wie Daum Webtoon und Line Webtoon bekommen Comics aus Südkorea internationale Aufmerksamkeit. Bekannte Autoren sind Jeon Geuk-jin, Yoon Tae-ho, Yang Yeong-soon, Chon Kye-young, Horang, Kang Full und Soonkki.
Musik
Westliche Musik erreichte Korea gegen Ende des 19. Jahrhunderts in Form christlicher Hymnen der Missionare. Die Verbreitung westlicher Musik wurde zur Zeit des Koreanischen Kaiserreichs vor allem durch die Militärkapelle vorangetrieben. Der deutsche Dirigent Franz Eckert wurde 1901 beauftragt, diese zu gründen und zu leiten. 1915 wurde während der Zeit, als Korea eine Kolonie Japans war (1910–1945), die oben genannte Militärkapelle aufgelöst. Anstelle von traditioneller Musik wurde im staatlichen Schulsystem ausschließlich westliche und japanische Musik gelehrt. Somit nahm diese Musik eine feste Stellung in Korea ein. Koreanische Musiker, die in Japan westliche Musik studierten, wie Hyeon Che-myeong (1902–1960) oder Choi Dong-seon (1901–1953), kehrten in den 1930er Jahren nach Korea zurück und versuchten, die Qualität der musikalischen Ausbildung dort zu verbessern. Gleichzeitig erlebte der Musikkonsum durch den Bau von neuen Theatern und Konzertsälen sowie durch die Schallplattenindustrie ein starkes Wachstum. Mit Beginn des Zweiten Chinesisch-Japanischen Kriegs im Jahr 1937 leitete der damalige General Generalgouverneur der koreanischen Kolonie, Minami Jirō, offiziell eine Angleichungspolitik ein. Pro-Japan-orientierte Musiker, unter anderem Hong Nan-pa (jap. Morikawa Jun, 1897–1941) und Hyeon Che-myeong (jap. Kuroyama), stellten daraufhin Leitfiguren der koreanischen Musikszene dar.
Nach dem Zweiten Weltkrieg und dem Koreakrieg war das schöpferische Klima zunächst belastet. Die Komponisten der späten 1960er Jahre, wie Kang Suk-hi (geb. 1934), Paik Pyong-dong (geb. 1936) und Kim Chong-gil (geb. 1934), glaubten, dass sie so schnell wie möglich die westlichen Kompositionstechniken des 20. Jahrhunderts übernehmen müssten, wenn sie das kreative Leben Südkoreas aus seiner historisch bedingten Rückständigkeit erlösen wollten. Diese führenden Komponisten der zweiten Generation studierten in Hannover beim koreanisch-deutschen Komponisten Yun I-sang. Dieser gilt als erster Künstler, der die Formen und Klänge der traditionellen koreanischen Musik mit der zeitgenössischen europäischen Musik verbunden hatte.
Die Komponisten der Dritten Generation moderner Musiker drängten darauf, die musikalischen Grundsätze ihrer Vorgänger zu überwinden. In den 1980er Jahren bildeten sie eine Bewegung zur Entwicklung einer „koreanischen“ Musiktheorie. Eine Reihe von Musikern, darunter Yi Keon-yong (geb. 1947), vertrat die Auffassung, „echte koreanische Musik“ sei unmöglich, wenn man sich ausschließlich an westlichen Techniken orientierte. Im beginnenden 21. Jahrhundert erscheint der Dissens weitgehend beigelegt. Die Musiker versuchen nun, das künstlerische Erbe Koreas mit einer angemessenen Akzeptanz der westlichen Musik schöpferisch zu nutzen.
K-Pop
Im Zuge der koreanischen Welle wurde K-Pop weltweit sehr populär.
Bis in die 1990er waren Trot und Balladen das vorherrschende Genre in Südkorea. Das Aufkommen der Rap-Pop-Gruppe Seo Taiji and Boys 1992 markiert einen Wendepunkt im koreanischen Musikmarkt, und Popmusik mit vielen Boy- und Girlgroups, aber auch Solosängern, wurde beliebt. Insbesondere Psy wurde durch seinen Hit Gangnam Style (2012) weltweit bekannt. Weitere aktuell sehr beliebte Künstler sind BTS, Tomorrow X Together, StrayKids, Girls’ Generation, Twice, IU, Hong Jin-young, Wanna One, Red Velvet und Blackpink. 2018 erreichte BTS mit ihrem Album Love Yourself: Tear als erste koreanische Band die Spitze der Billboard 200. Zudem handelt es sich um das erste nicht-englischsprachige Album seit zwölf Jahren auf Platz eins der US-Charts. Diesen Erfolg konnten BTS wenige Monate später mit Love Yourself: Answer wiederholen. Durch den weltweiten Erfolg des K-Pop entwickelte sich Südkorea zum sechstgrößten Musikmarkt der Welt trotz der relativ geringen Einwohnerzahl. (Stand 2023)
Feierkultur
Karaoke ist in Südkorea eine beliebte Freizeitbeschäftigung. Die sogenannten Noraebangs sind an vielen Ecken aufzufinden und beliebt bei jungen, aber auch bei vielen älteren Leuten. Die koreanischen Karaokeräume sind mit den japanischen Karaokeboxen zu vergleichen. Als Weltstadt mit zahlreichen Diskotheken gilt Seoul als eine der besten Städte zum Feiern.
Film
Gemessen an Kinobesuchen ist Südkorea mit über 200 Millionen verkauften Karten jährlich der viertgrößte Filmmarkt der Welt. Zudem finden mit dem Busan International Film Festival jährlich die größten Filmfestspiele Asiens statt. Eine der größten Kinoketten der Welt ist CJ CGV mit Sitz in Seoul. Zwei weitere große Ketten sind Lotte Cinema und Megabox. Erstere hält mit dem Super Plex G im Lotte World Tower den Weltrekord für die größte Kinoleinwand der Welt. Auch der vorherige Rekordhalter befindet sich in Seoul: Das Starium von CGV.
Seit den 1990er Jahren gewann der südkoreanische Film international an Bedeutung. Der 1999 veröffentlichte Spielfilm Shiri stellt dabei den ersten großen kommerziellen Erfolg dar. Allein in Seoul hatte der Film über 2 Millionen Zuschauer. Auch auf den größten europäischen Filmfestivals waren südkoreanische Filme erfolgreich. 2002 gewann Lee Chang-dongs Film Oasis den Silbernen Löwen von Venedig. 2004 wurde Kim Ki-duk auf der Berlinale für die beste Regie für Samaria ausgezeichnet und im gleichen Jahr wurde in Cannes Oldboy mit dem Großen Preis der Jury ausgezeichnet. 2010 wurde Lee Chang-dong in Cannes für das beste Drehbuch für Poetry ausgezeichnet. Kim Ki-duks Film Pieta erhielt 2012 den Goldenen Löwen der Filmfestspiele von Venedig und Hong Sang-soos Right Now, Wrong Then 2015 den Goldenen Leoparden von Locarno. Die wichtigsten nationalen Auszeichnungen sind der Blue Dragon Award und der Grand Bell Award. Park Chan-wooks Die Taschendiebin gewann 2018 als erster südkoreanischer Film den British Academy Film Award. 2019 wurde der von Kritikern gepriesene Mysterythriller Burning als erster südkoreanischer Film für die Vorauswahl (longlist) der Oscars in der Kategorie bester fremdsprachiger Film berücksichtigt, letztlich jedoch nicht nominiert. Als erster koreanischer Film wurden 2019 Bong Joon-hos Parasite mit der Goldenen Palme auf den 72. Internationalen Filmfestspielen von Cannes ausgezeichnet sowie 2020 als erste fremdsprachige Produktion in der Geschichte der Oscarverleihung als Bester Film.
Kunst
In der zeitgenössischen südkoreanischen Kunst tritt die traditionelle koreanische Formensprache in einen Dialog mit der westlichen Moderne. Seit einigen Jahren findet Gegenwartskunst aus Südkorea stetig zunehmende Beachtung und erzielt auch in den großen Kunstauktionen hohe Preise, nachdem sie lange im Schatten chinesischer Kunst stand. Bedeutende Maler und Bildende Künstler sind unter anderem Oh Junggeun sowie Kim Tschoon Su und Suh Yongsun.
In der Videokunst gilt Nam June Paik als weltweit bedeutendster Pionier. Er wird als „Vater der Videokunst“ bezeichnet.
Spiele
Online-Spiele und das traditionelle Brettspiel Baduk (japanisch: Go) entwickelten sich zu einem wichtigen Teil der südkoreanischen Kultur. So werden Baduk-Partien im Fernsehen übertragen und für sachliche Analysen wiederholt.
Südkorea gilt als „Mekka des E-Sports“. Lange Zeit war das PC-Strategiespiel StarCraft: Brood War das mit Abstand am meisten im Fernsehen übertragene Spiel in Südkorea. Die Spiele werden oftmals von Sendern wie MBCGame und OnGameNet ausgestrahlt, können aber auch in Internet auf Seiten wie GOMtv mitverfolgt werden. Turniere werden in der Regel Live übertragen und haben hohe Zuschauerzahlen. Professionelle Starcraft-Spieler können durch das Spielen in Südkorea viel Geld verdienen und werden teilweise auch als Prominente angesehen, wie Lim Yo-hwan („Boxer“), Lee Jae-dong („Jaedong“) und Lee Young-ho („Flash“). Seit etwa 2011 hat das Spiel League of Legends eine ähnliche Popularität erreicht wie es StarCraft: Brood War in den 2000er Jahren hatte.
Computer-Spiele werden normalerweise in sogenannten PC Bangs, die Ähnlichkeit mit Internetcafés haben, aber nur zum Spielen von LAN-Titeln genutzt werden können, wie MapleStory, World of Warcraft, Mabinogi, Lineage. Wenngleich es vor allem eine Freizeitbeschäftigung für Studenten ist, finden sich hier dennoch Menschen jeden Alters unabhängig vom Geschlecht zusammen.
Sport
Taekwondo ist der Nationalsport Südkoreas und ist seit 2000 eine olympische Sportart. Andere koreanische Kampfkünste sind Taekgyeon, Hapkido, Tang Soo Do, Kuk Sool Won, Kumdo und Subak.
Südkorea ist eines von drei Ländern Asiens, das als Gastgeber von Olympischen und Paralympischen Spielen in Erscheinung trat. In Seoul wurden die Olympischen Sommerspiele 1988 und die Sommer-Paralympics 1988 ausgetragen, die letzten während des Kalten Krieges. Pyeongchang war Gastgeber der Olympischen Winterspiele 2018 und der anschließenden Winter-Paralympics 2018. Eine Sportart, die von Südkorea bei den Olympischen Spielen seit Jahrzehnten dominiert wird, ist das Bogenschießen.
Special Olympics Korea wurde 1985 gegründet und nahm mehrmals an Special Olympics Weltspielen teil. Der Verband hat seine Teilnahme an den Special Olympics World Summer Games 2023 in Berlin angekündigt. Die Delegation wird vor den Spielen im Rahmen des Host Town Programs von Düsseldorf betreut.
Fußball und Baseball gelten traditionell als die beliebtesten Sportarten in Südkorea. Südkorea war zusammen mit Japan Gastgeber der Fußball-Weltmeisterschaft 2002, der ersten Fußball-Weltmeisterschaft in Asien. Während des Turnieres wurde die südkoreanische Fußballnationalmannschaft die erste des Fußballverbandes AFC, die das Halbfinale einer Fußball-Weltmeisterschaft erreichte. Seit der Fußball-Weltmeisterschaft 1986 gelang außerdem die Qualifikation für jedes Turnier und man erreichte zweimal die K.O.-Phase: 2002 und dann bei der Fußball-Weltmeisterschaft 2010, als man das Achtelfinale erreichte.
Baseball gelangte 1905 durch US-amerikanische Missionare nach Korea und der Sport erfuhr seitdem ein großes Wachstum, auch während der japanischen Besetzung. Die KBO League wurde 1982 gegründet und gilt als eine der beliebtesten Baseballligen weltweit. Die südkoreanische Baseballnationalmannschaft erreichte bei der World Baseball Classic 2006 den dritten Platz und bei der World Baseball Classic 2009 den zweiten Platz. Das Finale des 2009-Turnieres gegen Japan erfuhr in Südkorea ein großes Zuschauerinteresse. In den letzten beiden World Baseball Classics konnten sie aber nicht an diese Erfolge anknüpfen und schieden jeweils knapp aus.
Basketball ist ebenfalls eine beliebte Sportart in Südkorea. Die südkoreanische Basketballnationalmannschaft zählt zu den stärksten Asiens und das Land verfügt über eine der stärksten Basketballligen auf dem asiatischen Festland.
Rugby Union wird ebenfalls in Südkorea gespielt. Der südkoreanischen Nationalmannschaft gelang jedoch noch nicht die Qualifikation für eine Rugby-Union-Weltmeisterschaft. Die Nationalmannschaft gilt als eine der stärksten Asiens nach Japan und Hongkong und nimmt an der Rugby-Union-Asienmeisterschaft teil, wo man gegen andere aufstrebende Nationalmannschaften antritt.
Der Große Preis von Korea war zwischen 2010 und 2013 Bestandteil des Formel-1-Kalenders und wurde auf dem Korean International Circuit in Yeongam ausgetragen, erfreute sich jedoch keiner großen Beliebtheit und wurde wieder aus dem Rennkalender gestrichen.
Medien
Als wichtigste Tageszeitungen gelten die Chosun Ilbo, JoongAng Ilbo und Dong-a Ilbo, die als konservativ eingeschätzt werden und häufig unter dem Begriff Chojoongdong () zusammengefasst werden. Die Hankyoreh ist eine politisch eher linksgerichtete Zeitung. Die wichtigsten Fernsehsendeanstalten sind KBS, MBC und SBS.
Insgesamt schätzt die Nichtregierungsorganisation Reporter ohne Grenzen die Pressefreiheit als zufriedenstellend ein. Sie bemängelt jedoch, dass Journalisten wegen angeblicher Verstöße gegen das nationale Sicherheitsgesetz, das seit 1949 in Kraft ist, vor Gericht gestellt würden. Intendanten von einflussreichen Rundfunkanstalten werden auf Vorschlag des Präsidialamtes ausgewählt und werden deshalb meist mit Parteifreunden besetzt, welche regierungskritische Berichte unterbinden.
Küche
Das südkoreanische Nationalgericht ist Kimchi, ein überwiegend scharf eingelegtes Gemüse. Gleichzeitig mit der koreanischen Welle weltweit bekannt wurde zudem das beliebte koreanische Barbecue.
Unter den südkoreanischen Hauptspeisen nimmt Bulgogi (gebratene Rindfleischstreifen) eine Sonderstellung ein. Die in einer Mischung aus Sojasauce, Sesam, und Gewürzen marinierten Fleischstreifen werden über einem Holzkohlenfeuer gebraten. Galbi heißen zarte Rippenstücke, die wie Bulgogi mariniert und gebraten oder gegrillt werden. Aber nicht das Fleisch, sondern immer noch der Reis gilt in Südkorea als wichtiger Bestandteil des Essens.
Zu einer echten südkoreanischen Mahlzeit gehört auch eine Suppe, die als eine der frühesten kulinarischen Errungenschaften des Landes gilt. Berühmt ist beispielsweise die Doenjangguk, eine Suppe aus fermentierten Sojabohnen (doenjang) mit Gemüse und oft auch Muscheln. Gern gegessen werden auch die aus Myeolchi-Pulver (getrockneten, fermentierten, gemahlenen Sardellen) gekochte leichte Brühe sowie Gemüsesuppen, zubereitet aus Trockenspinat, Rettichscheiben oder aus frischen oder getrockneten Algen (miyeokguk). Als typischer Imbiss wird in Korea traditionell gern Gimbap gegessen. Gekühltes Obst, in Stücke zerkleinert, ist das übliche Dessert: Je nach Jahreszeit sind dies verschiedene Melonen, Erdbeeren, Äpfel oder Nashi-Birnen. Bei festlichen Anlässen wird auch Tteok (Reiskuchen) serviert. Sein Verzehr hat rituelle Gründe. Eine lange Tradition hat auch die Suppe Bosintang aus Hundefleisch.
Gesetzliche Feiertage
Literatur
Geschichte
Weblinks
Websites in Deutschland:
Websites in Österreich:
Websites in Südkorea:
Andere Websites:
, German Institute of Global and Area Studies – GIGA
Einzelnachweise
Staat in Asien
Mitgliedstaat der Vereinten Nationen
Mitgliedstaat der OECD
Korea
|
Q884
| 6,508.552258 |
36984
|
https://de.wikipedia.org/wiki/Kognitionswissenschaft
|
Kognitionswissenschaft
|
Kognitionswissenschaft ist eine interdisziplinäre Wissenschaft, die sich mit der Verarbeitung von Information im Rahmen von Wahrnehmungs-, Denk- und Entscheidungsprozessen befasst, sowohl beim Menschen als auch bei Tieren oder Maschinen. In ihren Bereich fallen auch Themen wie Gedächtnis, Lernen, Sprache, Emotion, Motivation und Volition.
Die Kognitionswissenschaft abstrahiert dabei teilweise davon, ob Kognition in organischen Systemen und Lebewesen oder in künstlichen Systemen wie Computern oder Robotern untersucht wird, indem sie kognitive Prozesse als Informationsverarbeitung betrachtet. Methodisch arbeitet sie auf verschiedenen Ebenen:
der Theoriebildung, die zur Hypothesenbildung dient,
der kognitiven Modellierung, die kognitive Leistungen mit Hilfe von Computermodellen simuliert und neue Hypothesen in diese Modelle integriert,
und der empirischen Ebene, die sich mit der empirischen Überprüfung der Modelle und der konkreten Implementierung kognitiver Leistungen befasst.
Wissenschaftliche Fächer, die an der Kognitionswissenschaft beteiligt sind, sind vor allem Psychologie, Neurowissenschaft, Informatik/künstliche Intelligenz, Linguistik und Philosophie, aber auch Anthropologie und Soziologie.
Entwicklung der Kognitionswissenschaft
Geschichte der Kognitionswissenschaft
Die Entwicklung der Kognitionswissenschaft wird von manchen mit der Vorstellung einer so genannten „kognitiven Wende“ (ca. 1940–1970) in Zusammenhang gebracht. Bis dahin hatte in der Psychologie und der Philosophie des Geistes der Behaviorismus eine maßgebliche Rolle gespielt. Der Behaviorismus war als eine Reaktion auf die Probleme der Introspektion als einer psychologischen Forschungsmethode entstanden. Introspektive Berichte über das mentale Innenleben waren für die Wissenschaftler nicht von außen überprüfbar. Der Behaviorismus zog daraus die Konsequenz, dass sich die Psychologie auf eine Erforschung des Verhaltens beschränken müsse. In der Philosophie des Geistes ging etwa Gilbert Ryle noch einen Schritt weiter und behauptete, dass mentale Zustände nicht mehr als Verhaltensdispositionen seien.
1956 fand am Massachusetts Institute of Technology das Symposium on Information Theory statt, an dem sich die KI-Pioniere Allen Newell, Herbert A. Simon und Marvin Minsky sowie der Linguist Noam Chomsky beteiligten. Chomsky präsentierte eine scharfe Kritik am Behaviorismus und stellte seine einflussreiche Transformationsgrammatik vor. Newell und Simon stellten den Logical Theorist vor, der erstmals selbständig ein Theorem der Mathematik „beweisen“ konnte. Wichtige Vorläufer dieser Entwicklung waren die Formulierung der Kybernetik durch Norbert Wiener und das Werk Alan Turings, der die Turingmaschine entwarf und den Turing-Test entwickelte.
Die Kognitionswissenschaft, die sich im Kontext der beschriebenen Entwicklungen konstituierte, basierte auf einer zentralen Annahme, die das „Computermodell des Geistes“ genannt wurde. Damit ist die These gemeint, dass das Gehirn ein informationsverarbeitendes System sei und prinzipiell wie ein Computer arbeite. Die Unterscheidung zwischen Geist und Gehirn lasse sich analog zu der Unterscheidung zwischen Software und Hardware verstehen. So wie die Software durch Datenstrukturen und Algorithmen bestimmt sei, sei der Geist durch mentale Repräsentationen und Rechenprozesse bestimmt. So wie die abstrakte Beschreibung der Software möglich sei, ohne direkt die Hardware zu untersuchen, sollte eine abstrakte Beschreibung der geistigen Fähigkeiten möglich sein, ohne direkt das Gehirn zu untersuchen. Und so, wie die Existenz einer Softwareebene problemlos mit dem Materialismus zu vereinbaren sei, sollte auch die mentale Ebene in eine materialistische Interpretation eingebettet sein.
Aktuelle Entwicklungen
Das Computermodell des Geistes ist in den letzten Jahrzehnten einer scharfen Kritik unterzogen worden. Diese Kritik hat im Wesentlichen zwei Quellen: Zum einen hat sich die Beschreibung des Gehirns durch die Kognitive Neurowissenschaft rasant entwickelt. Dies zeigt sich etwa in der zunehmenden Bedeutung von bildgebenden Verfahren, die es unplausibel machen, das Gehirn bei der Erforschung des Geistes nicht zu beachten. Zum anderen haben sich andere erfolgreiche Ansätze entwickelt, so der Konnektionismus und die Modellierung von neuronalen Netzen. Künstliche neuronale Netze werden unter anderem programmiert, um die Aktivitäten von Neuronenverbänden zu simulieren. Es ist zweifelhaft, inwieweit hier noch eine Unterscheidung von Software- und Hardwareebene möglich ist.
Andere alternative Paradigmen in der Kognitionswissenschaft sind z. B. der Dynamismus (Lehre, nach der sich alle Erscheinungsformen oder die Wirklichkeit durch die Wirkung von Kräften erklären lässt), Künstliches Leben (Artificial Life) und die verkörperlichte und situierte Kognitionswissenschaft. Nach Ansicht des Dynamizismus stellt die Theorie der dynamischen Systeme ein geeignetes Modell des kognitiven Verhaltens bereit, da kognitives Verhalten immer in einem zeitlichen Zusammenhang stattfindet und zeitliche Koordination erfordert. Es wird postuliert, dass dieser zeitliche Aspekt der Kognition, der im Computermodell des Geistes vernachlässigt wird, essentiell ist. Andererseits stellt dieser Ansatz die Zentralität der internen Repräsentation und der Symbolmanipulation (vgl. Symbolismus) in Frage, da diese Konzepte nicht Teil einer dynamischen Erklärung sind.
„Künstliches Leben“ ist ein Terminus, der der Künstlichen Intelligenz gegenübersteht: anstatt abstrakte Aufgaben zu lösen (wie Schachstellungen analysieren), was uns Menschen oft schon wegen der bloßen Anzahl der Lösungsmöglichkeiten schwierig erscheint, Computern jedoch leicht fällt, solle man erst die Bewältigung der vermeintlich profanen Alltagsprobleme verstehen. Viele Aufgaben, die uns einfach erscheinen (wie Laufen, Freunde und Feinde erkennen, einen Ball fangen) sind von Computern oder Robotern derzeit noch gar nicht oder nur sehr eingeschränkt zu bewältigen.
Die verkörperlichte und situierte Kognitionswissenschaft wiederum geht davon aus, dass Kognition nicht ohne Bezug auf einen spezifischen Körper (Verkörperlichung, Embodiment) und eine spezifische Umgebung (Situiertheit) erklärt werden kann. Diese Forderungen resultieren aus dem Zweifel daran, dass Kognition ein Prozess ist, der sich in einer Welt der abstrakten symbolischen Repräsentationen vollzieht, verhältnismäßig unabhängig von der genauen Sensorik, Motorik und dem zeitlichen Geschehen in der Außenwelt. Bekannte Vertreter dieser Auffassung sind Alva Noë, Susan Hurley, Evan Thompson, Francisco Varela und Kevin O’Regan. Im Rahmen der verkörperlichten und situierten Kognitionswissenschaft wird häufig eine Verknüpfung vom Gedankengut der Phänomenologie Maurice Merleau-Pontys und Edmund Husserls mit der klassischen analytischen Philosophie des Geistes angestrebt.
Diese verschiedenen Strömungen (Konnektionismus, Dynamizismus, Künstliches Leben, Situiertheit und Verkörperlichung) werden gerne unter dem Schlagwort Neue KI (New AI) zusammengefasst, da sie sich z. T. in ihren Forderungen und Annahmen überlappen. Allerdings können sie nicht als deckungsgleich betrachtet werden, da sie sich in vielerlei Weise in Prämissen, Konsequenzen und Anwendungen unterscheiden oder sogar widersprechen.
Die Kritik am Computermodell des Geistes führte zeitweise zur generellen Infragestellung der Kognitionswissenschaft. Mittlerweile haben sich die Wogen jedoch weitgehend geglättet. Kognitionswissenschaftler verwenden nun selbst auch neuronale Netze und stehen in einem engen Kontakt mit der Kognitiven Neurowissenschaft.
Philosophie der Kognition
In der Kognitionswissenschaft werden Themen untersucht, die beim Menschen Bewusstsein bzw. Selbstbewusstsein voraussetzen. Dazu werden einzelne Aspekte des Bewusstseins wie Wahrnehmung, Gedanken oder Erinnerungen betrachtet und allgemein als mentale Zustände bezeichnet. „Höhere“ kognitive Fähigkeiten wie Lernen, Problemlösen und Sprechen setzten wiederum Denken – also mentale Zustände – voraus. Es ist daher für die Kognitionswissenschaft von hoher methodologischer Bedeutung, zu klären, was mit der Rede von mentalen Zuständen gemeint ist. Mit dem Computermodell des Geistes ist eine klassische Position der Philosophie des Geistes verbunden – der Funktionalismus.
Der Funktionalismus, der in den 1960er Jahren von Hilary Putnam entwickelt wurde, behauptet, dass mentale Zustände funktionale Zustände sind. Ein funktionaler Zustand ist dabei durch seine kausale Rolle in einem System spezifiziert. Man kann den Begriff des funktionalen Zustandes recht gut am Beispiel von einfachen Automaten erklären: Stellen wir uns einen Süßigkeitenautomaten vor. Dieser wirft nach Erhalt eines Euros eine Süßigkeit aus. Nun kann man den Automaten mit verschiedenen Zuständen beschreiben: Es muss einen Zustand geben, in dem der Automat die Süßigkeit auswirft ohne weiteres Geld zu fordern. Es muss aber auch Zustände geben, in denen der Automat noch 1 Euro oder 50 Cent fordert, um etwas auszuwerfen. Jeder dieser Zustände des Automaten ist ein funktionaler Zustand. Er ist dadurch spezifiziert, dass er bei einem bestimmten Input (hier: 50 Cent oder 1 Euro) auf bestimmte Weise reagiert: Er hat einen bestimmten Output (hier: Süßigkeit oder nicht) und geht in einen anderen Zustand über.
Das Entscheidende bei dieser Überlegung ist, dass die Beschreibung des funktionalen Zustandes davon unabhängig ist, woraus und wie der Süßigkeitenautomat konkret gebaut ist. Wenn mentale Zustände auch funktionale Zustände wären, so wäre auch irrelevant, ob der funktionale Zustand in einem Gehirn oder in einem Computer realisiert ist. Damit wären auch die Bedingungen klar, die gegeben sein müssen, damit ein Computer mentale Zustände haben kann: Der Computer müsste nur die gleichen funktionalen Zustände realisieren. Dies scheint auch möglich zu sein. Schon die 1936 von Alan Turing als mathematisches Modell formulierte Turingmaschine kann im Prinzip beliebige funktionale Zustände realisieren.
Kognitive Fähigkeiten und kognitive Architekturen
Menschen verfügen über zahlreiche verschiedene kognitive Fähigkeiten: Gedächtnis, Sprache, Wahrnehmung, Problemlösen, geistiger Wille, Aufmerksamkeit und weitere. Ziel der Kognitionspsychologie ist es, die Eigenarten dieser Fähigkeiten zu erforschen und, so weit wie möglich, in formalen Modellen zu beschreiben. Diese Modelle können dann als kognitive Architektur auf einem Computer realisiert werden. Auch die künstliche Intelligenz (KI) hat das Ziel, kognitive Fähigkeiten in Maschinen zu realisieren. Dabei dürfen die künstlichen Agenten jedoch – im Gegensatz zu kognitiven Architekturen – auch Strategien verwenden, die von Menschen nicht genutzt werden.
Problemlösen
„Problemlösen“ nennt man Handlungen, die darauf ausgerichtet sind, einen Zielzustand zu erreichen. Problemlöseprozesse sind daher etwas Alltägliches, sie sind etwa für die Tagesplanung, das Rechnen, das Schachspielen oder die Routenplanung einer Reise notwendig. Schon früh war es das Ziel der künstlichen Intelligenz, Maschinen die Fähigkeit zum Problemlösen zu geben.
Dabei wird in der künstlichen Intelligenz ein Start- und ein Zielzustand spezifiziert. Die Aufgabe ist, den (oder einen) Weg zum Ziel zu finden. Hierbei gibt es prinzipiell zwei Ansätze: Zum einen kann das Programm versuchen, blind den Weg zum Ziel zu finden, indem es alle verschiedenen Wege ausprobiert (Brute-Force-Methode), wie es bei der Tiefensuche oder der Breitensuche geschieht. Dieser Ansatz kommt jedoch schnell an seine Grenzen, da die Anzahl der möglichen Wege in NP-vollständigen Problemen so hoch ist, dass ein Ausprobieren die Rechenkapazität der Maschine übersteigen würde. In einem solchen Fall sind Suchalgorithmen, welche Heuristiken verwenden, notwendig, wie der A*-Algorithmus. Heuristiken beschreiben Auswahlmechanismen, welche die erfolgversprechendsten Verfahren bereits vor der Ausführung zu bestimmen versuchen.
Das erste Programm, das intensiv mit Heuristiken arbeitete, war der General Problem Solver (GPS) von Allen Newell und Herbert A. Simon. Der GPS war zum Auffinden von Lösungswegen wie etwa beim Türme-von-Hanoi-Spiel fähig. Das Spiel besteht aus einer Reihe verschieden großer Scheiben und drei Spielfeldern. Beim Spielbeginn liegen alle Scheiben auf dem linken Feld. Das Ziel ist erreicht, wenn sich alle Scheiben auf dem rechten Feld befinden. Dabei darf jede Scheibe jedoch nur auf einer größeren Scheibe liegen und jeweils nur eine Scheibe entweder auf den linken, den mittleren oder den rechten Platz bewegt werden. Obwohl das Problem mit einem Algorithmus lösbar ist, lösen Menschen dieses Problem häufig mit Heuristiken, da die Anzahl möglicher Wege rasant wächst.
Die Lösung von Spielen wie den Türmen von Hanoi war in der Frühzeit der künstlichen Intelligenz eine beliebte Aufgabe. Das liegt darin begründet, dass hier nur eine recht begrenzte Anzahl von Aktionen möglich ist und es keine unvorhersagbaren Ereignisse gibt. Die experimentelle Überprüfbarkeit von kognitiven Strategien wurde dadurch erleichtert. Dagegen widmet man sich nun auch komplizierten Alltagsaufgaben, wie etwa der erfolgreichen „Ausführung“ eines Restaurantbesuchs.
Kognitive Architekturen
Das Ziel einer kognitiven Architektur ist es, die verschiedenen Ergebnisse der kognitiven Psychologie in einem umfassenden Computermodell zusammenzufassen. Dabei müssen die Ergebnisse jedoch in einer so weit formalisierten Form vorliegen, dass sie Grundlage eines Computerprogramms sein können. Mit dem Zusammenfassen der einzelnen Ergebnisse sollen so zum einen eine umfassende Theorie der Kognition und zum anderen ein auch kommerziell nutzbares Modell entstehen. Die drei derzeit erfolgreichsten kognitiven Architekturen sind ACT-R (Adaptive Control of Thought, ACT), SOAR und EPIC. Mit dem PSI-Modell ist in den letzten Jahren ein weiterer Ansatz vorgestellt worden, der verglichen mit den anderen Architekturen weitgehend auf dem aktuellen Stand der Allgemeinen Psychologie basiert.
ACT-R ist ein Produktionssystem mit einer Reihe von Modulen. Es besteht aus Input- und Outputmodulen, einem Produktionengedächtnis und einem deklarativen Gedächtnis. Das Zielmodul legt fest, welches Ziel im Produktionssystem verfolgt werden soll. Im Produktionengedächtnis sind Regeln gegeben, die bestimmen, welche Aktion ausgeführt wird, wenn ein ausgewähltes Ziel erreicht werden soll, und welche Inhalte im Arbeitsgedächtnis (bzw. in unterschiedlichen Partitionen des Arbeitsgedächtnisses) vorliegen müssen, damit die Aktion erfolgreich durchgeführt werden kann. Dieses „Patternmatching“ führt ggf. zur Auswahl einer Produktionsregel und bestimmt die Aktion des Outputmoduls.
Kognitive Architekturen zeichnen sich durch die Erfüllung bestimmter Kriterien, den (CCC), aus. Diese sind:
geeignete repräsentationale Datenstruktur(en)
Unterstützung von Klassifikation
Unterstützung des Frege-Prinzips
Lösen des Bindungsproblems
Produktivität
Performance
syntaktische Verallgemeinerung
Robustheit
Anpassungsfähigkeit
Speicherverbrauch
Skalierbarkeit
selbstständiger Erkenntnisgewinn (logisches Schließen, Erkennung von Korrelation)
Triangulation (Zusammenführen von Daten aus verschiedenen Quellen)
Kompaktheit (möglichst einfache Grundstruktur)
Ein Computersystem, das diese Eigenschaften erfüllt, ist IBMs DeepQA.
Sprache und Kognition
Die Sprachbeherrschung gehört zu den herausragenden kognitiven Fähigkeiten des Menschen. Das Verfügen über Sprache ist zudem Voraussetzung für das Verfügen über einige andere kognitive Fähigkeiten. Ohne Sprache könnten zumindest viele Gedanken nicht gedacht und viele Probleme nicht gelöst werden. In der Kognitionswissenschaft hat die Sprache daher immer eine zentrale Rolle gespielt. Zum einen stellt sich die Frage, wie die menschliche Sprachbeherrschung möglich ist, zum anderen, wie man Maschinen zur Sprachbeherrschung bringen kann.
Sprachfähigkeit des Menschen
Wie kommt es, dass Menschen in aller Regel dazu fähig sind, Sprachen zu lernen? Bis ins zwanzigste Jahrhundert herrschte die Meinung, dass der Spracherwerb durch das Herausfiltern der Sprachregeln im Dialog mit anderen Menschen zu erklären sei. Eine solche, „Kognitivismus“ genannte, Position wurde etwa von Jean Piaget vertreten. Ihr zufolge ist die Sprachfähigkeit von der allgemeinen Denkfähigkeit abgeleitet. Dieser Theorie trat erstmals Noam Chomsky mit seiner „nativistisch“ genannten Position entgegen. Chomsky behauptet, dass Menschen genetisch mit einem Sprachorgan ausgestattet sind, das den Spracherwerb erst möglich macht. Das Sprachorgan wird dabei im Gehirn angesiedelt, allerdings nicht als eine fest umschriebene neuronale Region.
Chomsky argumentiert, dass der Spracherwerb durch einen kognitivistischen Ansatz nicht zu erklären sei. Der sprachliche Input der Mitmenschen reiche nicht aus, um die Regeln des korrekten Sprechens festzulegen. Zum einen sei die gesprochene Sprache nämlich sehr oft ungrammatisch, der Input somit defizitär. Zum anderen lasse der Input grammatische Fehler bei lernenden Kindern zu, die sie de facto jedoch nicht machen. Chomsky schließt daraus, dass es angeborenes Sprachwissen geben muss, auf das beim Spracherwerb zurückgegriffen werden kann. Dieses angeborene Wissen sei insbesondere grammatisches Wissen, allen Menschen sei eine Universalgrammatik bereits von Geburt an gegeben. Siehe auch: Angeborene bzw. Eingeborene Ideen.
Chomskys Hypothesen wurden in der als Linguistics Wars bezeichneten wissenschaftlichen Debatte der 1960er und 1970er Jahre heftig kritisiert: seine syntaxorientierte interpretative Semantik von George Lakoff und seine Universalgrammatik von der sogenannten linguistischen Relativitätstheorie Benjamin Whorfs.
Seit den 1980er Jahren wendet sich die Forschung zunehmend wieder Konzepten zu, welche – ähnlich Piaget – die Sozialisation beim Spracherwerb in den Mittelpunkt stellen. Chomskys Denkansatz wird – wie die gesamte traditionelle „Kopf-Philosophie“ – in konstruktivistischen Konzepten und durch neurobiologische Modelle infrage gestellt:
Nach Humberto Maturana und Francisco Varela – siehe auch: Der Baum der Erkenntnis (El árbol del conocimiento 1984) – ist das Gehirn nicht wie ein Input/Output-Modell aufgebaut, sondern hat – durch ein Netz von einhundertmilliarden Inter-Neuronen, die Millionen von motorischen und sensorischen Nervenzellen miteinander verbinden – die Fähigkeit zur intensiven Parallelverarbeitung. Eine repräsentative Vorstellung mit einer Abbildung eines Begriffs im Gehirn ist für Maturana und Varela kaum haltbar, da an den Schaltstellen Hunderte von Neuronen aus anderen Teilen des Nervensystems mit vielfältigen Effekten konvergieren und zu Überlagerungen führen. Das Nervensystem arbeite nicht mit Repräsentationen einer unabhängigen Außen-Welt. Wörter als Bezeichnungen von Objekten oder Situationen in der Welt würden nicht der Tatsache der Strukturkoppelung gerecht, vielmehr seien sie ontologisch festgelegte Koordinationen von Verhalten. Sprache entsteht nach Maturana und Varela nicht in einem einheitlichen Entwurf (ist kein Bestandteil des Gehirns), sondern ist das durch Koordination von Handlungen erlernte variable kommunikative Verhalten (Sprache ist Teil des Milieus, das als „Reich der Sprache“ bezeichnet wird: Unser gemeinsames „In-der-Sprache-Sein[-] ist das, was wir als Bewusstsein oder als ‚unseren Geist‘ und ‚unser Ich‘ erfahren“.)
Dialog- und Expertensysteme
Der Versuch, Maschinen mit Sprachfähigkeit auszustatten, schlägt sich oft in Dialogsystemen nieder. Ein Dialogsystem ist meist ein Computerprogramm, mit dem man sich per Tastatur unterhalten kann. Eins der ersten erfolgreichen Dialogsysteme war ELIZA von Joseph Weizenbaum aus dem Jahre 1966. ELIZA simuliert einen Psychotherapeuten. Durch den geschickten Einsatz von Phrasen, wie „Erzählen sie mir mehr von X“ oder „Denken sie oft an X“ konnte ELIZA Testpersonen lange über ihre nichtmenschliche Existenz täuschen. Einige Testpersonen fühlten sich sogar so gut verstanden, dass sie sich jenseits der Testsituation privat mit ELIZA über ihre Probleme unterhalten wollten. Stellt man ELIZA jedoch Fragen, die nicht in den Kontext der Therapiesituation passen, so ist ELIZA zu keinen vernünftigen Antworten in der Lage.
Verwandt mit Dialogsystemen sind Expertensysteme, die mittlerweile auch zahlreiche kommerzielle Anwendungen haben. Expertensysteme versuchen das Wissen von menschlichen Experten zu speichern und dem Nutzer zur Verfügung zu stellen. Anwendungen sind etwa automatische Medizin- oder Technikexperten. Diese Experten setzen eine funktionierende Wissensrepräsentation voraus, durch die das Programm über das Wissen verfügt. In einer umfassenden Wissensrepräsentation muss das Material in günstiger Weise strukturiert sein, so dass immer auf das nötige Wissen zurückgegriffen werden kann, dass die Relationen zwischen den Wissenselementen klar sind und dass die Inhalte von dem Entwickler überblickt und gegebenenfalls erweitert werden können.
Der Turing-Test
Die Faszination von Dialogsystemen hängt eng mit einem Gedankenexperiment zusammen, das von dem Computerpionier Alan Turing 1950 formuliert wurde. Turing suchte ein klares Kriterium zur Entscheidung der Frage, wann Computer als intelligent gelten können. Seine Antwort war der berühmte Turing-Test: Ein Mensch tritt in den Dialog mit einem Computer – per Bildschirm und Tastatur. Der Computer kann genau dann als intelligent angesehen werden, wenn es dem Menschen schwerfällt zu entscheiden, ob es sich um einen Dialog mit einem Menschen oder mit einem Computerprogramm handelt.
Die heutigen Dialogsysteme sind noch sehr weit davon entfernt, den Turing-Test zu bestehen. Dies ist nicht verwunderlich, wenn man bedenkt, was ein Programm alles können müsste, um diesen zu bestehen. Es müsste etwa Witze erklären können, Anspielungen und Ironie verstehen und dem Kontext angepasste Fragen und Antworten formulieren. Es existiert mittlerweile der auf 100.000 Dollar dotierte Loebner-Preis für den Entwickler des ersten Programms, das den Turing-Test besteht.
Am Turing-Test ist viel Kritik geübt worden. Am bekanntesten ist wohl John Searles Chinesisches-Zimmer-Argument, das zeigen soll, dass das Bestehen des Turing-Tests nicht hinreichend für Verstehen von Sprache ist. Man stelle sich vor, man befände sich in einer riesigen Bibliothek. Von außen werden einem Blätter mit chinesischen Schriftzeichen hereingereicht, die man nicht versteht. Da in den Büchern der Bibliothek nur Folgen von chinesischen Schriftzeichen verzeichnet sind, kann man nun die Zeichenfolgen auf den Blättern heraussuchen. Jeder Zeichenfolge ist im Buch eine andere Zeichenfolge zugeordnet, die man schließlich auf das Blatt schreibt und wieder nach außen gibt. Durch diese Prozedur erscheint es einem außen stehenden Chinesen so, als würde er sich mit einem anderen chinesisch verstehenden Menschen unterhalten. Dabei versteht man selbst kein Chinesisch und die Bibliothek versteht auch kein Chinesisch. Also könnte ein System den Turing-Test bestehen, ohne dass es auch nur einen Funken von dem Gesagten versteht.
Der Konnektionismus
In der Kognitionswissenschaft hat die Entwicklung des Konnektionismus zu starken Veränderungen geführt. Während in der klassischen künstlichen Intelligenz – dem Computermodell des Geistes entsprechend – kognitive Fähigkeiten mit einer symbolischen Programmiersprache simuliert wurden, wird im Konnektionismus mit künstlichen neuronalen Netzen gearbeitet. Ein künstliches neuronales Netz ist eine Verschaltung einfacher Einheiten, der so genannten künstlichen Neuronen. Dabei können die Neuronen ihre Aktivitäten an die benachbarten Neuronen weitergeben. Dadurch können bei einem gegebenen Input komplizierte Erregungsmuster entstehen, die selbst wiederum einen Output erzeugen.
Das Konzept der neuronalen Netze wurde schon 1943 von Warren McCulloch und Walter Pitts entwickelt. 1949 entwickelte der Psychologe Donald O. Hebb die Hebbsche Lernregel, die sich in das Konzept der neuronalen Netze einbinden lässt. Nach Hebb lässt sich das Lernen dadurch beschreiben, dass man die einzelnen Verbindungen zwischen den Neuronen gewichtet. Ein Lernen findet statt, indem die Gewichtungen zwischen den Neuronen verändert werden. Trotz dieser frühen Entwicklung hin zu einem Modell lernender neuronaler Netze, blieb die Kognitionswissenschaft lange Zeit auf den symbolverarbeitenden Ansatz beschränkt (GOFAI).
Erst seit den 1980er Jahren wird in der Kognitionswissenschaft wieder vermehrt auf neuronale Netze zurückgegriffen. Dies liegt insbesondere daran, dass neuronale Netze dazu in der Lage sind, Aufgaben zu erledigen, bei dem der symbolverarbeitende Ansatz recht erfolglos geblieben ist. Zu solchen Aufgaben gehören etwa die Mustererkennung oder die Bewegung. Diese Entwicklung ist auch von theoretischer Bedeutung: Der Konnektionismus erkennt nämlich die – für die klassische Kognitionswissenschaft so wichtige – Unterscheidung zwischen Software und Hardware nicht mehr an.
Das Bindungsproblem in der Kognitionswissenschaft
Eines der Hauptziele in der Kognitionswissenschaft besteht darin, eine integrierte Theorie der Kognition zu entwickeln. Dies erfordert integrative Mechanismen, die erklären, wie die Informationsverarbeitung, die gleichzeitig in räumlich getrennten (sub-)kortikalen Arealen des Gehirns stattfindet, koordiniert und miteinander verbunden wird, um zu kohärenten Wahrnehmungs- und symbolischen Repräsentationen zu führen. Ein Ansatz besteht darin, dieses "Bindungsproblem" (d. h. das Problem der dynamischen Repräsentation der Verbindungen von Informationselementen, von den einfachsten Wahrnehmungsrepräsentationen ("Merkmalsbindung") bis hin zu den komplexesten kognitiven Repräsentationen, wie Symbolstrukturen ("Variablenbindung")), mit Hilfe von integrativen Synchronisationsmechanismen zu lösen. Mit anderen Worten, einer der koordinierenden Mechanismen scheint die zeitliche (Phasen-)Synchronisation der neuronalen Aktivität zu sein, die auf dynamischen selbstorganisierenden Prozessen in neuronalen Netzwerken beruht und durch die Binding-By-Synchrony (BBS)-Hypothese aus der Neurophysiologie beschrieben wird. Es sind nun konnektionistische kognitive Neuroarchitekturen entwickelt worden, die integrative Synchronisationsmechanismen verwenden, um dieses Bindungsproblem in der Wahrnehmungskognition und in der Sprachkognition zu lösen. In der Wahrnehmungskognition ist dies das Problem, wie elementare Objekteigenschaften und Objektrelationen, wie die Objektfarbe oder die Objektform, dynamisch miteinander verbunden oder mittels eines Synchronisationsmechanismus zu einer Repräsentation dieses Wahrnehmungsobjekts integriert werden können ("Merkmalsbindung"). In der Sprachkognition ist dies das Problem, wie semantische Konzepte und syntaktische Rollen dynamisch miteinander verbunden bzw. mittels eines Synchronisationsmechanismus in komplexe kognitive Repräsentationen wie systematische und kompositionelle Symbolstrukturen und Propositionen integriert werden können ("Variablenbindung") (siehe auch die "Symbolismus vs. Konnektionismus-Debatte" im Konnektionismus).
Kognitionswissenschaft an den Universitäten
In den USA, aber auch in Großbritannien, Australien und den Niederlanden, ist Kognitionswissenschaft ein weit verbreitetes und anerkanntes Studienfach. Einflussreiche Institute befinden sich etwa an der Rutgers University, der Tufts University, der University of California, San Diego und an der University of California, Berkeley.
In Deutschland ist Kognitionswissenschaft als Studiengang jedoch noch nicht weit verbreitet. Es gibt an der Universität Osnabrück ein eigenes kognitionswissenschaftliches Institut mit einem Bachelor-, Master- und Promotionsprogramm, an der Universität Tübingen gibt es seit dem Wintersemester 2009/2010 den Bachelor- und Master-Studiengang Kognitionswissenschaft, angeboten von der Mathematisch-Naturwissenschaftlichen Fakultät. Seit dem Wintersemester 2019/2020 bietet die Technische Universität Darmstadt den Studiengang „Cognitive Science“ an. An der Universität Potsdam gibt es Kognitionswissenschaften als Ein-Fach-Bachelor- und als forschungsorientierten Masterstudiengang. Als Nebenfach kann man Kognitionswissenschaft an der Albert-Ludwigs-Universität Freiburg studieren. Seit dem Wintersemester 2012/2013 wird in Freiburg auch ein M.Sc. Studiengang angeboten. Seit dem WS 2013/2014 wird an der TU Kaiserslautern der englischsprachige Studiengang Cognitive Science (M.Sc.) angeboten. Verwandte Fächer sind der Bachelor-Studiengang Kognitive Informatik an der Universität Bielefeld, der Bachelor-Studiengang „Philosophie – Neurowissenschaften – Kognition“ an der Otto-von-Guericke-Universität Magdeburg und MEi:CogSci, das joint degree „Middle European interdisciplinary master programme in Cognitive Science“, das die Universitäten in Wien, Bratislava, Budapest und Ljubljana gemeinsam anbieten. An der Universität Duisburg-Essen gibt es den Bachelor- und Masterstudiengang „Angewandte Kognitions- und Medienwissenschaft“. An der Technischen Universität Chemnitz gibt es seit dem Wintersemester 2009/2010 den Bachelor- und Master-Studiengang Sensorik und kognitive Psychologie, der Schwerpunkte in technischer Sensorik, menschlicher Wahrnehmung sowie natürlicher und künstlicher kognitive Systeme setzt.
Siehe auch
Kognitive Poetik
Evolution des Denkens
Literatur
Einführungen:
John R. Anderson: Kognitive Psychologie. Eine Einführung. Spektrum der Wissenschaft, Heidelberg 1988, ISBN 3-922508-19-7. Eine fundierte Einführung, jedoch mit wenig Bezug zu den Neurowissenschaften.
Howard Gardner: Dem Denken auf der Spur. Der Weg der Kognitionswissenschaft. Klett-Cotta, Stuttgart 1989 u. ö., ISBN 3-608-93099-X, ISBN 3-608-95866-5. Klassische Darstellung der Geschichte der Kognitionswissenschaft.
Manuela Lenzen: Natürliche und künstliche Intelligenz. Einführung in die Kognitionswissenschaft. Campus, Frankfurt am Main u. a. 2002, ISBN 3-593-37033-6. Kurze, laienfreundliche Einführung.
Rolf Pfeiffer, Christian Scheier: Understanding Intelligence. MIT Press, Cambridge (Mass.) 1999, ISBN 0-262-16181-8. Darstellung der modernen Ansätze in der Kognitionsforschung.
Paul Thagard: Kognitionswissenschaft. Ein Lehrbuch. Klett-Cotta, Stuttgart 1999, ISBN 3-608-91919-8. Ebenfalls laienfreundliche Einführung, konzentriert auf philosophische und methodologische Aspekte.
Max Urchs: Maschine – Körper – Geist. Eine Einführung in die Kognitionswissenschaft. Vittorio Klostermann, Frankfurt am Main 2002, ISBN 3-465-03196-2. Umfassende, aber verständliche Einführung von einem Mathematiker und Philosophen.
Francisco J. Varela: Kognitionswissenschaft, Kognitionstechnik. Eine Skizze aktueller Perspektiven. Suhrkamp, Frankfurt am Main 1990, ISBN 3-518-28482-7. Beschreibt laienfreundlich die biologisch orientierte, nicht so sehr aber die klassische auf der Computermetapher basierende Kognitionswissenschaft.
Textsammlungen:
Dieter Münch (Hrsg.): Kognitionswissenschaft. Grundlagen, Probleme, Perspektiven. 2. Auflage. Suhrkamp, Frankfurt am Main 2000, ISBN 3-518-28589-0. Enthält unter anderem deutsche Übersetzungen der „klassischen“ Aufsätze von Newell/Simon, Minsky, Fodor, Block, Searle und Dennett.
Lexika:
Robert A. Wilson, Frank C. Keil (Hrsg.): The MIT Encyclopedia of the Cognitive Sciences. MIT Press, Cambridge (Mass.) u. a. 2001, ISBN 0-262-73144-4. Englischsprachiges Standardwerk.
Gerhard Strube et al. (Hrsg.) Wörterbuch der Kognitionswissenschaft. Klett-Cotta, Stuttgart 1996, ISBN 3-608-91705-5. Als CD-Rom: Klett-Cotta, Stuttgart 2001, ISBN 3-608-94167-3.
Einzelthemen:
Ansgar Beckermann: Analytische Einführung in die Philosophie des Geistes. 2. Auflage. De Gruyter, Berlin u. a. 2001, ISBN 3-11-017065-5. Sehr dichte Einführung in die Philosophie des Geistes.
Rainer Dietrich: Psycholinguistik. Metzler, Stuttgart 2002, ISBN 3-476-10342-0. Laienfreundliche Einführung in die kognitionswissenschaftlichen Aspekte der Linguistik, allerdings ohne Neurolinguistik.
E. Bruce Goldstein: Cognitive Psychology. Connecting Mind, Research and Everyday Experience. Thomson Wadsworth, Belmont (Calif.) u. a. 2004 u.ö., ISBN 0-534-57726-1. Eins der neuesten und am weitesten verbreiteten Lehrbücher der Kognitionspsychologie.
Klaus Mainzer: KI – Künstliche Intelligenz. Grundlagen intelligenter Systeme. Primus, Darmstadt 2003, ISBN 3-89678-454-4. Einführung in die KI von einem Wissenschaftstheoretiker geschrieben. Daher auch für Nichtinformatiker verständlich.
Horst M. Müller: Psycholinguistik – Neurolinguistik. Die Verarbeitung von Sprache im Gehirn. UTB, Paderborn 2013, ISBN 978-3-8252-3647-2.
Weblinks
Thematische Einführungen
Gesellschaften
Gesellschaft für Kognitionswissenschaft
Cognitive Science Society
The Society for the Study of Artificial Intelligence and Simulation of Behaviour, UK
European Society for Cognitive Psychology in Englisch
Institute und Forschergruppen
Abteilung Informatik und Angewandte Kognitionswissenschaft der Universität Duisburg-Essen
Department für Wissens- und Kommunikationsmanagement der Donau-Universität Krems
Department of Cognitive Biology an der Universität Wien in Englisch
Graduate School of Neural & Behavioural Sciences – International Max Planck Research School, Tuebingen
Institut für Kognitionswissenschaft Freiburg
Institut für Kognitionswissenschaft Osnabrück
Middle European interdisciplinary master programme in Cognitive Science
Rutgers University Center for Cognitive Science
Zentrum für Kognitionswissenschaften (ZKW), interdisziplinäres Forschungsinstitut an der Universität Bremen: www.neuro.uni-bremen.de/~zkw
Institut für Neuroinformatik (INI), interdisziplinäres Forschungsinstitut mit Fokus auf dem Schnittpunkt zwischen Kognitionswissenschaft und Informationstechnologie
Datenbanken und Linksammlungen zu Aufsätzen und Forschern
Cognitive Science Journal Archive: Wissenschaftliche Artikel und Konferenzbeiträge [Englisch]
Mindpapers Bibliographie von David Chalmers zu Themen der Philosophie des Geistes, der Kognitionswissenschaften und der Bewusstseinstheorie mit mehr als 18.000 Titeln
Sammlung von wichtigeren online verfügbaren Aufsätzen und Werken mit direktem Bezug zur Kognitionswissenschaft von Abstracta – Linguagem, Mente e Ação () [Englisch]
Dictionary of Cognitive Science: Wörterbuch der University of Alberta
Liste von internationalen Instituten, die Cognitive Science Abschlüsse anbieten
Liste der Indiana University
Liste der University of Hong Kong (beinhaltet auch Abschlüsse in Unterdisziplinen, einige Links funktionieren nicht aber man findet die Programme meistens, wenn man auf die Homepage der Institute geht)
Einzelnachweise
Allgemeine Psychologie
Erkenntnistheorie
Philosophie des Geistes
|
Q147638
| 260.327462 |
85524
|
https://de.wikipedia.org/wiki/Knappheit
|
Knappheit
|
Knappheit () ist in der Volkswirtschaftslehre das Missverhältnis zwischen den unbegrenzten Bedürfnissen der Menschen und den zu ihrer Bedürfnisbefriedigung begrenzt zur Verfügung stehenden Gütern und Dienstleistungen. Das Gegenteil ist der Überfluss.
Allgemeines
Nicht die gesamte Volkswirtschaft ist von Knappheit gekennzeichnet. Freie Güter wie Luft weisen keine Knappheit auf, denn sie sind im betreffenden Gebiet zur betrachteten Zeit in so großer Menge vorhanden, dass jeder Mensch so viele Einheiten des Gutes konsumieren kann wie er will, beziehungsweise bis seine Sättigungsmenge erreicht ist. Wirtschaftsgüter dagegen werden über ihre Knappheit definiert (und deshalb auch „knappe Güter“ genannt), denn sie stehen nicht zu jeder Zeit und an jedem gewünschten Ort in der gewünschten Qualität und Menge zur Verfügung; in der DDR waren Bananen knapp, in der BRD dagegen nicht. Trinkwasser wiederum ist in der Wüste knapp, in Deutschland jedoch nicht. Für die Frage der Knappheit ist nicht die Begrenztheit der Güter von Bedeutung, sondern dass sie im Verhältnis zum Umfang der Bedürfnisse zu gering sind; Knappheit ist also ein relativer Begriff. Sie erfordert Wirtschaften, das darauf abzielt, die Knappheit zu mildern und die knappen Mittel so zu lenken, dass eine bestmögliche Bedürfnisbefriedigung erfolgt.
Knappheit kann sich neben der Quantität oder Qualität (Produktqualität, Dienstleistungsqualität) auch auf Ort oder Zeitpunkt ihrer Verfügbarkeit beziehen. Jede Art von Mangel (wie Geldmangel) betrifft lediglich bestimmte Wirtschaftssubjekte an einem bestimmten Ort zu einer bestimmten Zeit.
Geschichte
Die Knappheit ist so alt wie die menschlichen Bedürfnisse. Im Merkantilismus galt Geld als knapp. Martin de Azpilcueta sinnierte 1556 über die Beziehung zwischen Knappheit und Kaufkraft des Geldes, denn bei knappem Geld seien Güter billiger zu haben; bei Knappheit ist Geld mehr wert. Diese Überlegungen sind der Vorläufer für die 1568 von Jean Bodin formulierte naive Quantitätstheorie des Geldes. In seiner Preistheorie verwandte der Merkantilismus einen relativen Knappheitsbegriff: Güter sind mehr oder weniger knapp, und dementsprechend ist ihr Preis höher oder niedriger. Eine systematisch entwickelte Knappheitstheorie geht jedoch erst auf Thomas Hobbes und John Locke zurück. Für Hobbes galt Knappheit in seinem 1651 erschienenen Hauptwerk Leviathan als Verhältnis zwischen begrenzten Zugriffsmöglichkeiten und unbegrenzter Begierde. Da alle Güter knapp seien, bedürfe es dem Staat als Regulativ. Alle Wirtschaftssubjekte müssten permanent danach trachten, sich besserzustellen, in einem „beständigen Fortgang von einem Wunsch zum andern, wobei die Erreichung des ersteren immer dem folgenden den Weg bahnen muss“. John Locke ging 1690 in seiner Knappheitstheorie davon aus, dass nicht die sozialen Beziehungen die Ursache für Knappheit seien, sondern dass Knappheit von Natur aus gegeben sei. Daher müsse der Mensch für knappheitsbewältigende Produktion und für Expansion sorgen. Die Knappheit des Bodens ist für ihn eine Folge der Geldwirtschaft. Samuel von Pufendorf unterstrich 1675 in seinem Hauptwerk „Acht Bücher“ nachdrücklich, welche Rolle die Knappheit eines Gutes für die auf dem Markt geltende Größe spielt: „Die Seltsamkeit einer Sache thut demnach das meiste zu Erhöhung ihres Preises“.
Während bei den Merkantilisten das Geld „knapp“ war, galt bei den Physiokraten Grund und Boden als knapp. Auch für die klassische Nationalökonomie galt der Boden stets als knappes Gut. Diese Knappheit von Grund und Boden beschrieb Adam Smith mit den Worten, die Existenz von Grundrenten sei Indiz für die „Freigiebigkeit der Natur“. Er unterschied in seinem Buch Der Wohlstand der Nationen (März 1776) zwischen der natürlichen Knappheit () und der künstlichen Knappheit (). Er definierte Knappheit in Bezug auf die Nachfrage, nicht in Bezug auf das Angebot.
Thomas Robert Malthus untersuchte 1798 das Verhältnis von Bevölkerungswachstum und Bodenertrag und gelangte in seinem Bevölkerungsgesetz zu der Prognose, dass der Bodenertrag nur in arithmetischer Progression (1, 2, 3, 4, 5 usw.) wachsen könne, die Bevölkerung jedoch in geometrischer Progression (1, 2, 4, 8, 16 usw.) wachse, mit der Folge von Hunger und Armut durch Knappheit der Nahrung. Nicht Verbesserungen in der Produktion, sondern Geburtenkontrolle (etwa durch Enthaltsamkeit) erschien dem Pfarrer Malthus als Möglichkeit, die Armut dauerhaft zu bekämpfen. David Ricardo sah 1817 den Grundeigentümer als Nutznießer der Knappheit, weil in einer wachsenden Volkswirtschaft der Boden der einzige nicht vermehrbare Produktionsfaktor sei. „Es gibt einige Güter, deren Wert ausschließlich durch ihre Knappheit bestimmt wird“. Ricardo zufolge kann die Grundrente immer dann entstehen, wenn Grund und Boden sich als knapp und von unterschiedlicher Qualität erweisen. Seine Differentialrententheorie zeigt, dass er die Knappheit primär aus natürlichen und erst sekundär aus sozialen Faktoren ableitet.
Erst John Stuart Mill stützte 1848 die Malthussche Bevölkerungslehre mit dem Bodenertragsgesetz. Der von Mill beeinflusste Neomalthusianismus propagierte Verhütungsmittel zur Geburtenkontrolle, die Malthus noch abgelehnt hatte. Ihre Prognosen sind heute verifiziert.
Nassau William Senior entwickelte 1836 seine Theorie der konstitutiven Eigenschaften Reichtum stiftender Güter (), zu deren Güter-Eigenschaften er die Begehrtheit (), technische Tauglichkeit zur Befriedigung von Bedürfnissen, Knappheit () und Übertragbarkeit () zählte; Knappheit hielt er für die wichtigste. Damit widersprach er der Auffassung von Smith, Malthus und Mill, für die Reichtum lediglich aus materiellen Objekten bestand. Eine von Antoine-Elisée Cherbuliez 1852 für seinen Beitrag über Knappheit zu einem Volkswirtschaftlexikon erstellte Systematik der Knappheitsursachen unterschied zwischen normalen (Ernteausfälle), anormalen (Kriege, Epidemien) und künstlichen Krisenursachen. Daraus leitete er die echte (durch natürliche Ursachen) und künstliche (durch Staatsintervention) herbeigeführte Knappheit ab. Für Léon Walras existierte Knappheit () der Dinge, wenn sie sowohl nützlich als auch in der Menge nur begrenzt verfügbar sind. Er definierte 1874 die Knappheit als die Beziehung zwischen der Unendlichkeit der Bedürfnisse und der Seltenheit der zu ihrer Befriedigung verfügbaren Mittel. Sein Vater Antoine-Auguste Walras definierte 1831 die Knappheit als Quotienten von Nachfrage und Angebot.
Gustav Cassels Preistheorie aus 1918 beruhte ausschließlich auf dem Prinzip der Knappheit, die gesamte Wirtschaft wird nach Cassel vom Prinzip der Knappheit beherrscht. „Da die Mittel der Bedürfnisbefriedigung in der Regel nur in begrenzter Menge zur Verfügung stehen und da die Bedürfnisse der zivilisierten Menschen in ihrer Gesamtheit unersättlich sind, sind die Mittel der Bedürfnisbefriedigung im Verhältnis zu den Bedürfnissen in der Regel knapp“. Sobald sich mithin für eine bestimmte Ware ein Preis bildet, wird nur diejenige Nachfrage, die den Preis zu zahlen bereit ist, befriedigt und so beschränkt, dass sie mit dem Angebot übereinstimmt. John Maynard Keynes prognostizierte 1931 den Zeitpunkt der Sättigung und das „Ende des dunklen Tunnels der Knappheit“. Profit entsteht Keynes’ Allgemeiner Theorie der Beschäftigung, des Zinses und des Geldes vom Februar 1936 zufolge durch die Knappheit an Realkapital (Produktionsmittel), ein Geldzins existiere nur wegen der Geldknappheit. Knappheit ist bei Lionel Robbins 1932 die Grundlage des wirtschaftlichen Handelns, denn die Wirtschaftswissenschaften interessierten sich für das menschliche Verhalten als „Beziehung zwischen Zielen und knappen Mitteln mit alternativen Verwendungsmöglichkeiten“.
Arten
Knappheit liegt vor, wenn die Nachfrage größer ist als das Angebot:
Im ungünstigsten Fall ist bei gegebener Nachfrage das Angebot „null“, die Knappheit also am größten.
Die Knappheit kann daher sowohl durch die Angebots- als auch die Nachfrageseite ausgelöst werden:
Natürliche Knappheit: Liegt vor allem bei zufälliger Knappheit, bei nicht-erneuerbaren Rohstoffen und bei nicht produzierbaren Gütern vor.
Zufällige Knappheit: Unvorhersehbare Schwankungen im Angebot von Obst, Gemüse oder Getreide, etwa durch schlechte Ernten wegen Dürre oder Unwetter, werden als zufällige Knappheit definiert. Diese Knappheit ist durch die Landwirtschaft nicht beeinflussbar, sie kann zu erheblichen Preissteigerungen beitragen.
Nicht-erneuerbare Rohstoffe kommen aus Lagerstätten mit begrenzten Rohstoffvorkommen. Je höher ihr Verbrauch und/oder je geringer ihr Vorkommen ist, umso mehr steigt ihre Knappheit (etwa Edelmetalle wie Gold, Platin oder Palladium; Diamanten).
Zu den nicht produzierbaren Gütern gehört beispielsweise Wasser, das zur Wasserknappheit führen kann. Diese kann durch Dürre ausgelöst werden, aber auch strukturell bestehen wie in der Wüste. Der Boden unterliegt als nicht vermehrbarem Produktionsfaktor einer natürlichen Knappheit (abgesehen von den wenigen Möglichkeiten der Landgewinnung oder Melioration), da dem weltweiten Bevölkerungswachstum nicht nutzbare Brachflächen gegenüberstehen, so dass die Besiedlung weitgehend durch Erhöhung der Bevölkerungsdichte gelöst werden muss.
Nachfragebedingte Knappheit:
Hamsterkäufe: Im Vorfeld etwa von vorhergesagten Naturkatastrophen kommt es zur starken Nachfrage nach Lebensmitteln und sonstigen Gütern, die als Notvorrat dienen und einen Zeitraum überbrücken sollen, während dessen nicht gekauft werden kann. Die für den Handel nicht planbaren großen Nachfragemengen führen zu Engpässen in der Versorgung.
Der Mangel kann auch erst während des Verkaufsprozesses entstehen, wenn Güter mit dem Attribut „solange der Vorrat reicht“ oder „knappe Vorräte“ angepriesen werden, so dass der Verbraucher sie als knapp und damit wegen des Knappheitsprinzips als besonders begehrenswert wahrnimmt. Das gilt auch für die „limitierte Auflage“.
Künstliche Knappheit: Ist das Angebot nicht auf natürliche Weise begrenzt wie beispielsweise bei Edelmetallen, so kann eine künstliche Knappheit erzeugt werden.
Eine künstliche Ursache von Knappheit wird vor allem von Unternehmen bei Luxusgütern praktiziert, die bewusst weniger anbieten als Nachfrage vorhanden ist. Renommierte Modelabels (wie die It-Bags von Louis Vuitton, Hermès oder Chanel) oder Schmuckhersteller nutzen das Knappheitsprinzip durch Hochpreisstrategie und Wartezeit, verzichten auf die Ubiquität und vermarkten ihre Produkte nur in wenigen ausgesuchten Flagship-Stores. Auch das Guerilla-Marketing und der Pop-up-Verkauf nutzen das Marketinginstrument der künstlichen Knappheit. Während Guerilla-Stores den Zugang zum Laden durch eine ungewöhnliche Lage reglementieren, bieten Pop-up-Stores ein zeitlich begrenztes (Windhundprinzip), knappes Sortiment an.
Staatlich angeordnete Einfuhrkontingente (wie die Zuckerquote) oder Produktionsquoten (Milchquote) stellen eine künstliche Verknappung des Angebots dar. Durch sie soll entweder die heimische Industrie geschützt oder ein Marktversagen beseitigt oder verhindert werden.
Die maximal mögliche Zahl aller Bitcoins beträgt 21 Millionen. Die maximale Geldmenge wurde durch das Netzwerkprotokoll festgelegt und kann nicht durch einzelne Teilnehmer beeinflusst werden. Bitcoins haben daher die Eigenschaft der Knappheit. Durch die Halbierung des Block Rewards für das Errechnen eines neuen Blocks nach jeweils 210.000 Blöcken sinkt zudem das Angebot an neuen Bitcoins, was (im Falle weiter zunehmender Nachfrage) zu einer zusätzlichen Verknappung des Angebots führt.
Wirtschaftliche Bedeutung
Knappheitsthemen beschäftigen die Volkswirtschaftslehre, spielen bei Armut und Hunger sowie beim Verteilungsproblem eine Rolle.
Volkswirtschaftslehre
Die Volkswirtschaftslehre kann als „Lehre von der Knappheit“ beschrieben werden. Je größer die Knappheit ist, umso mehr wird das Bedürfnis und damit auch der Nutzen und Wert von Gütern wachsen. Ein Gut ist dann knapp, wenn es nicht ausreicht, um alle darauf gerichteten Konsumwünsche zu befriedigen. Ökonomische Knappheit hat demnach nichts mit absoluter Begrenztheit oder Seltenheit zu tun. Der Preis zeigt die relative Knappheit von Gütern oder Dienstleistungen an. Der Preis eines knappen Gutes ist größer als null, der eines freien Gutes ist null. Je größer die Knappheit eines knappen Gutes, desto höher ist sein Preis. Die Preisbildung hat nach dem Knappheitsprinzip die Aufgabe, die Nachfrage so weit zu beschränken, dass sie mit den zur Verfügung stehenden Gütermengen befriedigt werden kann.
Armut und Hunger
Armut und Hunger sind heute zwei weltweite Erscheinungsformen der Knappheit. Sie müssen nicht notwendigerweise große Armut oder einen Mangel an lebensnotwendigen Gütern bedeuten, auch wenn dies in Entwicklungs- und Schwellenländern oft zu beobachten ist. Armut ist zweifellos der am meisten verbreitete und wichtigste Fall von Knappheit. Der Reichtum erscheint damit als ein Überfluss von ökonomischen Gütern, Armut als deren Mangel. Die wissenschaftliche Auseinandersetzung mit dem Thema „Knappheit finanzieller Mittel“ findet bisher vor allem in der Soziologie statt, und zwar im Rahmen der so genannten „Armutsforschung“. Hunger ist die Knappheit an Nahrung. Die globale Wasserknappheit „hat ihre Grundursachen jedoch in den Machtverhältnissen, in Armut und Ungleichheit, nicht in der tatsächlichen Verfügbarkeit von Wasser“. Eine latente Knappheit ergibt sich aus der begrenzten Verfügbarkeit nichterneuerbarer Rohstoffe. Ihr Verbrauch vergrößert deren Knappheit. Alle Beispiele zeigen, dass Knappheit orts- und/oder zeitabhängig ist, so dass die Knappheit auch ein Verteilungsproblem darstellt.
Verteilungsproblem
Die Verteilung nennt man in der Wirtschaftswissenschaft Allokation. Ein Verteilungsproblem existiert als Problem überhaupt nur dann, wenn Knappheit vorliegt. Ohne Knappheit gäbe es kein Verteilungsproblem, weil der Bedarf für jedermann jederzeit gedeckt werden kann. Niklas Luhmann zufolge sind Verteilungsprobleme mit der Knappheit von Gütern verbunden: „Im Unterschied zum allgemeinen Problem der Endlichkeit soll von Knappheit … nur gesprochen werden, wenn die Problemlage durch Entscheidungen mitbestimmt ist, die innerhalb der Gesellschaft beobachtet und zur Diskussion gestellt werden können – seien es Zugriffsentscheidungen oder Verteilungsentscheidungen. Erst die Entstehung von Knappheit spaltet die Gesamtheit der im Prinzip endlichen Menge in knappe und nicht knappe Güter.“ Aus dem rechtsstaatlichen Verteilungsprinzip folgt zunächst, dass der Staat die durch das Marktverhalten entstandene primäre Güterverteilung als Ausfluss der grundrechtlichen Freiheit grundsätzlich hinzunehmen hat. Der Staat würde zum totalitären Versorgungsstaat, übernähme er für alle ungleich verteilten knappen Güter eine Verteilungsfunktion. Im freiheitlichen Sozialstaat gewährt Knappheit daher als solche kein Eingriffsrecht des Staates, denn über das Existenzminimum hinaus hat verfassungsrechtlich niemand einen Anspruch auf einen konkreten Anteil an der Gütermenge. Der Staat ist nur bei der sekundären Güterverteilung (Umverteilung) befugt, die Marktergebnisse der primären Güterverteilung zu korrigieren.
Betriebswirtschaftslehre
(Betriebs)Wirtschaftliche Entscheidungen führen in der Praxis stets zu Knappheit und damit zu Verteilungsproblemen. Knappheit der betrieblichen Produktionsfaktoren besagt, dass im Unternehmen die Kapazitäten so dimensioniert werden müssen, dass mittelfristig deren Vollbeschäftigung erwartet werden kann. Temporär kann sich dann bei Beschäftigungsspitzen Knappheit zeigen, die Engpass genannt wird und zur Überbeschäftigung von Personal führt (Überstunden). Überbeschäftigung ist ein Indikator für knappe Kapazitäten. Hiervon können alle betrieblichen Funktionen betroffen sein (beispielsweise Material-, Personal-, Finanz- oder Logistikknappheit). Im Einproduktunternehmen kann bei linearer Produktionsfunktion lediglich der Engpassfaktor knapp sein, dem dann auch der Deckungsbeitrag zugerechnet wird. Einige Engpässe sind kaum vermeidbar wie beispielsweise der Fachkräftemangel. Eugen Schmalenbach sah die Werkstoffe als knappen Faktor an, was er „gehemmte Beschaffung“ nannte. Sowohl diese Engpässe als auch Überkapazitäten müssen durch eine vorausschauende Engpassplanung (Produktionsplanung) vermieden werden. Konrad Mellerowicz stellte 1926 fest, dass ohne Nachfrage keine Knappheit vorhanden sein könne, weil ein Gut knapp nur gegenüber einer bestimmten Nachfrage sein könne. In der Knappheit liege zudem bereits das Element des Angebotes, denn nur bei einem nicht genügenden Angebot könne eine Knappheit entstehen.
Bei relativ preisunabhängig (hohe Preiselastizität der Nachfrage) gekauften Gütern haben die Anbieter ein Interesse daran, sie künstlich zu verknappen. Im Rahmen des Marketings wird künstliche Knappheit als Marketinginstrument genutzt. Um die Exklusivität eines Produktes oder einer Marke zu sichern, wird die produzierte Menge bewusst zu niedrig angesetzt und auf die möglichen Erträge aus den nicht produzierten Mengen verzichtet. Typische Beispiele sind limitierte (und teilweise nummerierte) Sonderauflagen von Produkten, insbesondere von Luxusgütern oder aber auch Güter, die jeder Mensch zum Leben braucht (wie beispielsweise Speisesalz).
Knappheit in der Soziologie
Knappheit wird in der Soziologie seltener direkt thematisiert. Jedoch ist die Bekämpfung der „Knappheit“ (nach Bálint Balla) Gegenstand allen sozialen Handelns. Dies erklärt sowohl unterschiedliche Formen sozialer Konflikte als auch Formen der Hilfe. Um sie zu beheben, arbeitet der soziale Akteur, wählt Formen der Gegenseitigkeit (siehe Tausch in der Soziologie), entreichert oder bereichert andere oder sucht Formen der Kompensation in anderen sozialen Feldern (siehe Sublimierung).
Literatur
Bálint Balla: Knappheit als Ursprung sozialen Handelns. Hamburg: Reinhold Krämer 2005, ISBN 3-89622-070-5.
Alois Hahn: Soziologische Aspekte der Knappheit. In: Klaus Heinemann (Hrsg.): Soziologie wirtschaftlichen Handelns. Opladen 1987, S. 119–132.
Niklas Luhmann: Knappheit. Kapitel 6 (S. 177–229) in Die Wirtschaft der Gesellschaft. 1988, ISBN 3518287524.
Sendhil Mullainathan, Eldar Shafir: Scarcity – why having too little means so much. London: Allen Lane, an imprint of Penguin Books, 2013, ISBN 978-1-84614-345-8.
deutsch: Knappheit – Was es mit uns macht, wenn wir zu wenig haben. Campus Verlag, Frankfurt 2013, ISBN 978-3-59342-048-6, übersetzt von Carl Freytag.
Weblinks
Einzelnachweise
Mikroökonomie
Soziologie
|
Q815758
| 96.343071 |
6901
|
https://de.wikipedia.org/wiki/1590er
|
1590er
|
Ereignisse
Politik und Weltgeschehen
1598: Der französische König Heinrich IV. unterzeichnet am 13. April das Edikt von Nantes.
Wissenschaft und Technik
1591: Die fertiggestellte Rialtobrücke in Venedig wird für den Verkehr freigegeben.
Kultur
1595: William Shakespeares Romeo und Julia wird in London erstmals aufgeführt.
1599: William Shakespeare verfasst die Komödie Much Ado About Nothing.
Weblinks
|
Q48595
| 100.268962 |
140
|
https://de.wikipedia.org/wiki/Aristoteles
|
Aristoteles
|
Aristoteles (, Betonung lateinisch und deutsch: Aristóteles; * 384 v. Chr. in Stageira; † 322 v. Chr. in Chalkis auf Euböa) war ein griechischer Universalgelehrter. Er gehört zu den bekanntesten und einflussreichsten Philosophen und Naturforschern der Geschichte. Sein Lehrer war Platon, doch hat Aristoteles zahlreiche Disziplinen entweder selbst begründet oder maßgeblich beeinflusst, darunter Wissenschaftstheorie, Naturphilosophie, Logik, Biologie, Medizin, Physik, Ethik, Staatstheorie und Dichtungstheorie. Aus seinem Gedankengut entwickelte sich der Aristotelismus.
Überblick
Leben
Der aus einer Arztfamilie stammende Aristoteles kam mit siebzehn Jahren nach Athen. Im Jahr 367 v. Chr. trat er in Platons Akademie ein. Dort beteiligte er sich an Forschung und Lehre. Nach Platons Tod verließ er 347 Athen. 343/342 wurde er Lehrer Alexanders des Großen, des Thronfolgers im Königreich Makedonien. 335/334 kehrte er nach Athen zurück. Er gehörte nun nicht mehr der Akademie an, sondern lehrte und forschte selbständig mit seinen Schülern im Lykeion. 323/322 musste er wegen politischer Spannungen Athen erneut verlassen und begab sich nach Chalkis, wo er bald darauf verstarb.
Werk
Die an eine breite Öffentlichkeit gerichteten Schriften des Aristoteles in Dialogform sind verloren. Die erhalten gebliebenen Lehrschriften waren größtenteils nur für den internen Gebrauch im Unterricht bestimmt und wurden fortlaufend redigiert. Themenbereiche sind:
Logik, Wissenschaftstheorie, Rhetorik: In den logischen Schriften arbeitet Aristoteles auf der Grundlage von Diskussionspraktiken in der Akademie eine Argumentationstheorie (Dialektik) aus und begründet mit der Syllogistik die formale Logik. Auf der Basis seiner Syllogistik erarbeitet er eine Wissenschaftstheorie und liefert unter anderem bedeutende Beiträge zur Definitionstheorie und Bedeutungstheorie. Die Rhetorik beschreibt er als die Kunst, Aussagen als plausibel zu erweisen, und rückt sie damit in die Nähe der Logik.
Naturlehre: Aristoteles’ Naturphilosophie thematisiert die Grundlagen jeder Naturbetrachtung: die Arten und Prinzipien der Veränderung. Der damals aktuellen Frage, wie Entstehen und Vergehen möglich ist, begegnet er mit Hilfe seiner bekannten Unterscheidung von Form und Materie: Dieselbe Materie kann unterschiedliche Formen annehmen. In seinen naturwissenschaftlichen Werken untersucht er auch die Teile und die Verhaltensweisen der Tiere sowie des Menschen und ihre Funktionen. In seiner Seelenlehre – in der „beseelt sein“ „lebendig sein“ bedeutet – argumentiert er, dass die Seele, die die verschiedenen vitalen Funktionen von Lebewesen ausmache, dem Körper als seine Form zukomme. Er forscht aber auch empirisch und liefert bedeutende Beiträge zur zoologischen Biologie.
Metaphysik: In seiner Metaphysik argumentiert Aristoteles (gegen Platons Annahme von abstrakten Entitäten) zunächst dafür, dass die konkreten Einzeldinge (wie Sokrates) die Substanzen, d. h. das Grundlegende aller Wirklichkeit sind. Dies ergänzt er um seine spätere Lehre, wonach die Substanz konkreter Einzeldinge ihre Form ist.
Ethik und Staatslehre: Das Ziel des menschlichen Lebens, so Aristoteles in seiner Ethik, ist das gute Leben, das Glück. Für ein glückliches Leben muss man Verstandestugenden und (durch Erziehung und Gewöhnung) Charaktertugenden ausbilden, wozu ein entsprechender Umgang mit Begierden und Emotionen gehört. Seine politische Philosophie schließt an die Ethik an. Demnach ist der Staat als Gemeinschaftsform eine Voraussetzung für das menschliche Glück. Aristoteles fragt nach den Bedingungen des Glücks und vergleicht zu diesem Zweck unterschiedliche Verfassungen. Die Staatsformenlehre, die er entwickelt hat, genoss über viele Jahrhunderte unangefochtene Autorität.
Dichtungstheorie: In seiner Theorie der Dichtung behandelt Aristoteles insbesondere die Tragödie, deren Funktion aus seiner Sicht darin besteht, Furcht und Mitleid zu erregen, um beim Zuschauer eine Reinigung von diesen Emotionen zu bewirken (katharsis).
Nachwirkung
Das naturwissenschaftliche Forschungsprogramm des Aristoteles wurde nach seinem Tod von seinem Mitarbeiter Theophrastos von Eresos fortgesetzt, der auch die aristotelische Schule, den Peripatos, im juristischen Sinne gründete. Die Aristoteles-Kommentierung setzte erst im 1. Jahrhundert v. Chr. ein und wurde insbesondere von Platonikern betrieben. Durch die Vermittlung von Porphyrios und Boethius wurde die aristotelische Logik für das lateinischsprachige Mittelalter wegweisend. Seit dem 12./13. Jahrhundert lagen alle grundlegenden Werke des Aristoteles in lateinischer Übersetzung vor. Sie waren für den Wissenschaftsbetrieb der Scholastik bis in die Frühe Neuzeit maßgeblich. Die Auseinandersetzung mit der aristotelischen Naturlehre prägte die Naturwissenschaft des Spätmittelalters und der Renaissance. Im arabischsprachigen Raum war Aristoteles im Mittelalter der am intensivsten rezipierte antike Autor. Sein Werk hat auf vielfältige Weise die Geistesgeschichte geprägt; wichtige Unterscheidungen und Begriffe wie „Substanz“, „Akzidenz“, „Materie“, „Form“, „Energie“, „Potenz“, „Kategorie“, „Theorie“ und „Praxis“ gehen auf Aristoteles zurück.
Leben
Aristoteles wurde 384 v. Chr. in Stageira, einer damals selbständigen ionischen Kleinstadt an der Ostküste der Chalkidike, geboren. Daher wird er mitunter „der Stagirit“ genannt. Sein Vater Nikomachos war Leibarzt des Königs Amyntas III. von Makedonien, seine Mutter Phaestis stammte aus einer Arztfamilie von Chalkis auf Euboia. Nikomachos starb, bevor Aristoteles volljährig wurde. Proxenos aus Atarneus wurde zum Vormund bestimmt.
Erster Athenaufenthalt
367 v. Chr. kam Aristoteles als Siebzehnjähriger nach Athen und trat in Platons Akademie ein. Dort beschäftigte er sich zunächst mit den mathematischen und dialektischen Themen, die den Anfang der Studien in der Akademie bildeten. Schon früh begann er Werke zu verfassen, darunter Dialoge nach dem Vorbild derjenigen Platons. Er setzte sich auch mit der zeitgenössischen Rhetorik auseinander, insbesondere mit dem Unterricht des Redners Isokrates. Gegen das auf unmittelbaren Nutzen abzielende pädagogische Konzept des Isokrates verteidigte er das platonische Erziehungsideal der philosophischen Schulung des Denkens. Er nahm eine Lehrtätigkeit an der Akademie auf. In diesem Zusammenhang entstanden als Vorlesungsmanuskripte die ältesten seiner überlieferten Lehrschriften, darunter die logischen Schriften, die später unter der Bezeichnung Organon („Werkzeug“) zusammengefasst wurden. Einige Textstellen lassen erkennen, dass der Hörsaal mit Gemälden geschmückt war, die Szenen aus dem Leben von Platons Lehrer Sokrates zeigten.
Reisejahre
Nach Platons Tod verließ Aristoteles 347 v. Chr. Athen. Möglicherweise war er nicht damit einverstanden, dass Platons Neffe Speusippos die Leitung der Akademie übernahm; außerdem war er in politische Schwierigkeiten geraten. Im Jahr 348 v. Chr. hatte König Philipp II. von Makedonien die Chalkidike erobert, Olynth zerstört und auch Aristoteles’ Heimatstadt Stageira eingenommen. Dieser Feldzug wurde von der antimakedonischen Partei in Athen als schwere Bedrohung der Unabhängigkeit Athens erkannt. Wegen der traditionellen Verbundenheit der Familie des Aristoteles mit dem makedonischen Hof richtete sich die antimakedonische Stimmung auch gegen ihn. Da er kein Athener Bürger war, sondern nur ein Metöke von zweifelhafter Loyalität, war seine Stellung in der Stadt relativ schwach.
Er folgte einer Einladung des Hermias, der die Städte Assos und Atarneus an der kleinasiatischen Küste gegenüber der Insel Lesbos beherrschte. Zur Sicherung seines Machtbereichs gegen die Perser war Hermias mit Makedonien verbündet. In Assos fanden auch andere Philosophen Zuflucht. Der sehr umstrittene Hermias wird von der ihm freundlichen Überlieferung als weiser und heldenhafter Philosoph, von der gegnerischen aber als Tyrann beschrieben. Aristoteles, der mit Hermias befreundet war, blieb zunächst in Assos; 345/344 v. Chr. übersiedelte er nach Mytilene auf Lesbos. Dort arbeitete er mit seinem aus Lesbos stammenden Schüler Theophrast von Eresos zusammen, der sein Interesse für Biologie teilte. Später begaben sich beide nach Stageira.
343/342 v. Chr. ging Aristoteles auf Einladung von Philipp II. nach Mieza, um dessen damals dreizehnjährigen Sohn Alexander (später „der Große“ genannt) zu unterrichten. Die Unterweisung endete spätestens 340/339 v. Chr., als Alexander für seinen abwesenden Vater die Regentschaft übernahm. Aristoteles ließ für Alexander eine Abschrift der Ilias anfertigen, die der König als Verehrer des Achilleus später auf seinen Eroberungszügen mit sich führte. Das Verhältnis zwischen Lehrer und Schüler ist nicht näher überliefert; es hat zur Legendenbildung und vielerlei Spekulationen Anlass gegeben. Sicher ist, dass ihre politischen Überzeugungen grundverschieden waren; ein Einfluss des Aristoteles auf Alexander ist jedenfalls nicht erkennbar. Aristoteles soll allerdings am makedonischen Hof den Wiederaufbau seiner zerstörten Heimatstadt Stageira erreicht haben; die Glaubwürdigkeit dieser Nachricht ist aber zweifelhaft.
Die Hinrichtung des Hermias durch die Perser 341/340 berührte Aristoteles tief, wie ein dem Andenken des Freundes gewidmetes Gedicht zeigt.
Als nach dem Tode des Speusippos 339/338 v. Chr. in der Akademie das Amt des Scholarchen (Schulleiters) frei wurde, konnte Aristoteles nur wegen seiner Abwesenheit an der Wahl des Nachfolgers nicht teilnehmen; er galt aber weiterhin als Akademiemitglied. Später ging er mit seinem Großneffen, dem Geschichtsschreiber Kallisthenes von Olynth, nach Delphi, um im Auftrag der dortigen Amphiktyonen eine Siegerliste der Pythischen Spiele anzufertigen.
Zweiter Athenaufenthalt
Mit der Zerstörung der rebellischen Stadt Theben 335 v. Chr. brach der offene Widerstand gegen die Makedonen in Griechenland zusammen, und auch in Athen arrangierte man sich mit den Machtverhältnissen. Daher konnte Aristoteles 335/334 v. Chr. nach Athen zurückkehren und begann dort wieder zu forschen und zu lehren, war aber nun nicht mehr an der Akademie tätig, sondern in einem anderen öffentlichen Gymnasium, dem Lykeion. Hier schuf er eine eigene Schule, deren Leitung nach seinem Tod Theophrastos übernahm. Neue Grabungen haben möglicherweise die Identifizierung des Gebäudekomplexes ermöglicht. Im juristischen Sinne hat aber erst Theophrastos die Schule gegründet und das Grundstück erworben – die später üblichen Bezeichnungen Peripatos und Peripatetiker speziell für diese Schule sind für die Zeit des Theophrastos noch nicht bezeugt. Die Fülle des Materials, das Aristoteles sammelte (etwa zu den 158 Verfassungen der griechischen Stadtstaaten), lässt darauf schließen, dass er über zahlreiche Mitarbeiter verfügte, die auch außerhalb von Athen recherchierten. Er war wohlhabend und besaß eine große Bibliothek. Sein Verhältnis zum makedonischen Statthalter Antipatros war freundschaftlich.
Rückzug aus Athen, Tod und Nachkommen
Nach dem Tod Alexanders des Großen 323 v. Chr. setzten sich in Athen und anderen griechischen Städten zunächst antimakedonische Kräfte durch. Delphi widerrief ein Aristoteles verliehenes Ehrendekret. In Athen kam es zu Anfeindungen, die ihm ein ruhiges Weiterarbeiten unmöglich machten. Daher verließ er 323/322 v. Chr. Athen. Angeblich äußerte er bei diesem Anlass, dass er nicht wollte, dass die Athener sich ein zweites Mal gegen die Philosophie vergingen (nachdem sie bereits Sokrates zum Tode verurteilt hatten). Er zog sich nach Chalkis auf Euboia in das Haus seiner Mutter zurück. Dort starb er im Oktober 322 v. Chr.
Aristoteles war mit Pythias, einer Verwandten seines Freundes Hermias, verheiratet. Von ihr hatte er eine Tochter, die ebenfalls Pythias hieß. Nach dem Tod seiner Gattin wurde Herpyllis, die niedriger Herkunft war, seine Lebensgefährtin; sie war möglicherweise die Mutter seines Sohnes Nikomachos. In seinem Testament, dessen Vollstreckung er Antipatros anvertraute, regelte Aristoteles unter anderem die künftige Verheiratung seiner noch minderjährigen Tochter und traf Vorkehrungen zur materiellen Absicherung von Herpyllis.
Werk
Hinweis: Belege aus Werken des Aristoteles sind folgendermaßen angegeben: Titelangabe (Abkürzungen werden an der ersten Stelle im Kapitel per Link aufgelöst) und gegebenenfalls Buch- und Kapitelangabe sowie Bekker-Zahl. Die Bekker-Zahl gibt eine genaue Stelle im Corpus an. Sie ist in guten modernen Ausgaben vermerkt.
Aufgrund von Brüchen und Inkonsequenzen im Werk des Aristoteles ist die Forschung von der früher verbreiteten Vorstellung abgekommen, das überlieferte Werk bilde ein abgeschlossenes, durchkomponiertes System. Diese Brüche gehen vermutlich auf Entwicklungen, Perspektivwechsel und unterschiedliche Akzentuierungen in verschiedenen Kontexten zurück. Da eine sichere chronologische Reihenfolge seiner Schriften nicht bestimmt werden kann, bleiben Aussagen über Aristoteles’ tatsächliche Entwicklung Vermutungen. Zwar bildet sein Werk de facto kein fertiges System, doch besitzt seine Philosophie Eigenschaften eines potentiellen Systems.
Überlieferung und Charakter der Schriften
Verschiedene antike Verzeichnisse schreiben Aristoteles fast 200 Titel zu. Sofern die Angabe des Diogenes Laertios stimmt, hat Aristoteles ein Lebenswerk von über 445.270 Zeilen hinterlassen (wobei in dieser Zahl zwei der umfangreichsten Schriften – die Metaphysik und die Nikomachische Ethik – vermutlich noch nicht berücksichtigt sind). Nur etwa ein Viertel davon ist überliefert.
In der Forschung werden zwei Gruppen unterschieden: exoterische Schriften (die für ein breiteres Publikum veröffentlicht worden sind) und esoterische (die zum internen Gebrauch der Schule dienten). Alle exoterischen Schriften sind nicht oder nur in Fragmenten vorhanden, die meisten esoterischen sind hingegen überliefert. Die Schrift Die Verfassung der Athener galt als verloren und wurde erst Ende des 19. Jahrhunderts in Papyrusform gefunden.
Exoterische und esoterische Schriften
Die exoterischen Schriften bestanden vor allem aus Dialogen in der Tradition Platons, z. B. der Protreptikos – eine Werbeschrift für die Philosophie –, Untersuchungen wie Über die Ideen, aber auch propädeutische Sammlungen. Cicero lobt ihren „goldenen Fluss der Rede“. Die auch Pragmatien genannten esoterischen Schriften sind vielfach als Vorlesungsmanuskripte bezeichnet worden; gesichert ist dies nicht und für einige Schriften oder Abschnitte auch unwahrscheinlich. Weitgehend herrscht die Auffassung, dass sie aus der Lehrtätigkeit erwachsen sind. Weite Teile der Pragmatien weisen einen eigentümlichen Stil voller Auslassungen, Andeutungen, Gedankensprünge und Dubletten auf. Daneben finden sich jedoch auch stilistisch ausgefeilte Passagen, die (neben den Dubletten) deutlich machen, dass Aristoteles wiederholt an seinen Texten gearbeitet hat, und die Möglichkeit nahelegen, dass er an die Veröffentlichung mindestens einiger der Pragmatien gedacht hat. Aristoteles setzt bei seinen Adressaten große Vorkenntnisse fremder Texte und Theorien voraus. Verweise auf die exoterischen Schriften zeigen, dass deren Kenntnis ebenfalls vorausgesetzt wird.
Die Manuskripte des Aristoteles
Nach dem Tod des Aristoteles blieben seine Manuskripte zunächst im Besitz seiner Schüler. Als sein Schüler und Nachfolger Theophrast starb, soll dessen Schüler Neleus die Bibliothek des Aristoteles erhalten und mit dieser – aus Ärger darüber, nicht zum Nachfolger gewählt worden zu sein – mit einigen Anhängern Athen Richtung Skepsis in der Nähe Trojas in Kleinasien verlassen haben. Die antiken Berichte erwähnen eine abenteuerliche und zweifelhafte Geschichte, nach der die Erben des Neleus die Manuskripte zur Sicherung vor fremdem Zugriff im Keller vergruben, wo sie dann aber verschollen blieben. Weitgehend gesichert ist, dass im ersten Jahrhundert v. Chr. Apellikon von Teos die beschädigten Manuskripte erworben und nach Athen gebracht hat und dass sie nach der Eroberung von Athen durch Sulla im Jahr 86 v. Chr. nach Rom gelangten. Dessen Sohn beauftragte Mitte des Jahrhunderts Tyrannion, die Manuskripte zu sichten und durch weiteres Material zu ergänzen.
Weitere Überlieferungswege
Auch wenn mit der Bibliothek des Aristoteles seine Manuskripte jahrhundertelang verschollen waren, ist es unbestritten, dass seine Lehre im Hellenismus mindestens teilweise bekannt war, vor allem durch die exoterischen Schriften und indirekt wohl auch durch Theophrasts Wirken. Daneben müssen einige Pragmatien bekannt gewesen sein, von denen es möglicherweise Abschriften in der Bibliothek des Peripatos gab.
Andronikos von Rhodos. Die erste Ausgabe
Auf der Grundlage der Arbeit Tyrannions besorgte dessen Schüler Andronikos von Rhodos in der zweiten Hälfte des ersten Jahrhunderts v. Chr. die erste Ausgabe der aristotelischen Pragmatien, die wohl nur zum Teil auf den Manuskripten des Aristoteles beruhte. Die Schriften dieser Edition bilden das Corpus Aristotelicum. Vermutlich gehen einige Zusammenstellungen von zuvor ungeordneten Büchern sowie einige Titel auf diese Ausgabe zurück. Möglicherweise hat Andronikos auch darüber hinaus Eingriffe in den Text – wie etwa Querverweise – vorgenommen. Im Fall der zahlreichen Dubletten hat er möglicherweise verschiedene Texte zum selben Thema hintereinander angeordnet. Die heutige Anordnung der Schriften entspricht weitgehend dieser Ausgabe. Die zu seiner Zeit noch vorliegenden exoterischen Schriften berücksichtigte Andronikos nicht. Sie gingen in der Folgezeit verloren.
Handschriften und Druckausgaben
Heutige Ausgaben beruhen auf Abschriften, die auf die Andronikos-Ausgabe zurückgehen. Mit über 1000 Handschriften ist Aristoteles unter den nichtchristlichen griechischsprachigen Autoren derjenige mit der weitesten Verbreitung. Die ältesten Handschriften stammen aus dem 9. Jahrhundert. Das Corpus Aristotelicum ist wegen seines Umfangs nie vollständig in einem einzigen Kodex enthalten. Nach der Erfindung des Buchdrucks erschien 1495–1498 die erste Druckausgabe aus der Hand von Aldus Manutius. Die von Immanuel Bekker 1831 besorgte Gesamtausgabe der Berliner Akademie ist die Grundlage der modernen Aristotelesforschung. Sie beruht auf Kollationen der besten damals zugänglichen Handschriften. Nach ihrer Seiten-, Spalten- und Zeilenzählung (Bekker-Zählung) wird Aristoteles heute noch überall zitiert. Für einige wenige Werke bietet sie noch immer den maßgeblichen Text; die meisten liegen jedoch heute in neuen Einzelausgaben vor.
Einteilung der Wissenschaften und Grundlegendes
Aristoteles’ Werk deckt weite Teile des zu seiner Zeit vorhandenen Wissens ab. Er teilt es in drei Bereiche:
theoretische Wissenschaft
praktische Wissenschaft
poietische Wissenschaft
Das theoretische Wissen wird um seiner selbst willen gesucht. Praktisches und poietisches Wissen hat einen weiteren Zweck, die (gute) Handlung oder ein (schönes oder nützliches) Werk. Nach der Art der Gegenstände untergliedert er das theoretische Wissen weiter: (i) Die Erste Philosophie („Metaphysik“) behandelt (mit der Substanztheorie, der Prinzipientheorie und der Theologie) Selbstständiges und Unveränderliches, (ii) die Naturwissenschaft Selbstständiges und Veränderliches und (iii) die Mathematik behandelt Unselbständiges und Unveränderliches (Met. VI 1).
Eine Sonderstellung scheinen die in dieser Einteilung nicht vorkommenden Schriften zu haben, die erst nach dem Tod des Aristoteles im sogenannten Organon zusammengestellt worden sind.
Die wichtigsten Schriften lassen sich grob folgendermaßen gliedern:
Mit dieser Einteilung der Wissenschaften geht für Aristoteles die Einsicht einher, dass jede Wissenschaft aufgrund ihrer eigentümlichen Objekte auch eigene Prinzipien besitzt. So kann es in der praktischen Wissenschaft – dem Bereich der Handlungen – nicht dieselbe Genauigkeit geben wie im Bereich der theoretischen Wissenschaften. Es ist zwar eine Wissenschaft der Ethik möglich, aber ihre Sätze gelten nur in der Regel. Auch kann diese Wissenschaft nicht für alle möglichen Situationen die richtige Handlungsweise vorgeben. Vielmehr vermag die Ethik nur ein nicht-exaktes Wissen im Grundriss zu liefern, das zudem allein noch nicht zu einer erfolgreichen Lebensführung befähigt, sondern hierfür an Erfahrungen und bestehende Haltungen anschließen muss (EN I 1 1094b12–23).
Aristoteles war davon überzeugt, dass die „Menschen für das Wahre von Natur aus hinlänglich begabt sind“ (Rhet. I 1, 1355a15–17). Daher geht er typischerweise zunächst (allgemein oder bei Vorgängern) anerkannte Meinungen (endoxa) durch und diskutiert deren wichtigsten Probleme (aporiai), um einen möglichen wahren Kern dieser Meinungen zu analysieren (EN VII 2). Auffällig ist seine Vorliebe, in einer Allaussage zu Beginn einer Schrift die Grundlage für die Argumentation zu legen und den spezifischen Gegenstand abzustecken.
Sprache, Logik und Wissen
Das Organon
Der Themenbereich Sprache, Logik und Wissen ist vor allem in den Schriften behandelt, die traditionell unter dem Titel Organon (griech. Werkzeug, Methode) zusammengestellt sind. Diese Zusammenstellung und ihr Titel stammen nicht von Aristoteles, und die Reihenfolge ist nicht chronologisch. Die Schrift Rhetorik gehört dem Organon nicht an, steht ihm aber inhaltlich wegen ihrer Art der Behandlung des Gegenstands sehr nahe. Eine Berechtigung für die Zusammenstellung besteht in dem gemeinsamen methodologisch-propädeutischen Charakter.
Bedeutungstheorie
Im folgenden Abschnitt – der als der einflussreichste Text in der Geschichte der Semantik gilt – unterscheidet Aristoteles vier Elemente, die in zwei verschiedenen Beziehungen zueinander stehen, einer Abbildungsbeziehung und einer Symbolbeziehung:
Gesprochene und geschriebene Worte sind demnach bei den Menschen verschieden; geschriebene Worte symbolisieren gesprochene Worte. Seelische Widerfahrnisse und die Dinge sind bei allen Menschen gleich; seelische Widerfahrnisse bilden die Dinge ab. Demnach ist die Beziehung von Rede und Schrift zu den Dingen durch Übereinkunft festgelegt, die Beziehung der mentalen Eindrücke zu den Dingen hingegen naturgegeben.
Wahrheit und Falschheit kommt erst der Verbindung und Trennung von mehreren Vorstellungen zu. Auch die einzelnen Wörter stellen noch keine Verbindung her und können daher je allein nicht wahr oder falsch sein. Wahr oder falsch kann daher erst der ganze Aussagesatz (logos apophantikos) sein.
Prädikate und Eigenschaften
Einige sprachlich-logische Feststellungen sind für Aristoteles’ Philosophie fundamental und spielen auch außerhalb der (im weiteren Sinne) logischen Schriften eine bedeutende Rolle. Hierbei geht es insbesondere um das Verhältnis von Prädikaten und (wesentlichen) Eigenschaften.
Definitionen
Unter einer Definition versteht Aristoteles primär keine Nominaldefinition (die er auch kennt; siehe An. Post. II, 8–10), sondern eine Realdefinition. Eine Nominaldefinition gibt nur Meinungen an, welche sich mit einem Namen verbinden. Was diesen Meinungen in der Welt zugrunde liegt, gibt die Realdefinition an: eine Definition von X gibt notwendige Eigenschaften von X an und was es heißt, ein X zu sein: das Wesen. Möglicher Gegenstand einer Definition ist damit (nur) das, was ein (universales) Wesen aufweist, insbesondere Arten wie Mensch. Eine Art wird definiert durch die Angabe einer (logischen) Gattung und der artbildenden Differenz. So lässt sich Mensch definieren als vernunftbegabtes (Differenz) Lebewesen (Gattung). Individuen lassen sich mithin nicht durch Definition erfassen, sondern nur ihrer jeweiligen Art zuweisen.
Kategorien als Aussageklassen
Aristoteles lehrt, dass es zehn nicht aufeinander zurückführbare Aussageweisen gibt, die auf die Fragen Was ist X?, Wie beschaffen ist X?, Wo ist X? etc. antworten (→ die vollständige Liste). Die Kategorien haben sowohl eine sprachlich-logische als auch eine ontologische Funktion, denn von einem zugrunde liegenden Subjekt (hypokeimenon) (z. B. Sokrates) werden einerseits Prädikate ausgesagt, und ihm kommen andererseits Eigenschaften zu (z. B.: weiß, Mensch). Entsprechend stellen die Kategorien die allgemeinsten Klassen sowohl von Prädikaten als auch des Seienden dar. Dabei hebt Aristoteles die Kategorie der Substanz, die notwendig zukommende, wesentliche Prädikate enthält, von den anderen ab, die akzidentelle Prädikate enthalten.
Wenn man von Sokrates Mensch prädiziert (aussagt), so handelt es sich um eine wesentliche Aussage, die vom Subjekt (Sokrates) angibt, was er ist, also die Substanz benennt. Dies unterscheidet sich offensichtlich von einer Aussage wie Sokrates ist auf dem Marktplatz, mit der man etwas Akzidentelles angibt, nämlich wo Sokrates ist (also den Ort benennt).
Deduktion und Induktion: Argumenttypen und Erkenntnismittel
Aristoteles unterscheidet zwei Typen von Argumenten oder Erkenntnismitteln: Deduktion (syllogismos) und Induktion (epagôgê). Die Übereinstimmung mit den modernen Begriffen Deduktion und Induktion ist dabei weitgehend, aber nicht vollständig. Deduktionen und Induktionen spielen in den verschiedenen Bereichen der aristotelischen Argumentationstheorie und Logik zentrale Rollen. Beide stammen ursprünglich aus der Dialektik.
Deduktion
Nach Aristoteles besteht eine Deduktion aus Prämissen (Annahmen) und einer von diesen verschiedenen Konklusion. Die Konklusion folgt mit Notwendigkeit aus den Prämissen. Sie kann nicht falsch sein, wenn die Prämissen wahr sind.
Die Definition der Deduktion (syllogismos) ist also weiter als die der (unten behandelten) – traditionell Syllogismus genannten – Deduktion, die aus zwei Prämissen und drei Termen besteht. Aristoteles unterscheidet dialektische, eristische, rhetorische und demonstrative Deduktionen. Diese Formen unterscheiden sich vor allem nach der Art ihrer Prämissen.
Induktion
Der Deduktion stellt Aristoteles explizit die Induktion gegenüber; deren Bestimmung und Funktion ist allerdings nicht so klar wie die der Deduktion. Er nennt sie
Aristoteles ist klar, dass ein derartiges Übergehen von singulären zu allgemeinen Sätzen ohne weitere Bedingungen nicht logisch gültig ist (An. Post. II 5, 91b34 f.). Entsprechende Bedingungen werden beispielsweise in dem ursprünglichen, argumentationslogischen Kontext der Dialektik erfüllt, da der Kontrahent einen durch Induktion eingeführten Allgemeinsatz akzeptieren muss, wenn er kein Gegenbeispiel nennen kann.
Vor allem aber hat die Induktion die Funktion, in anderen, nicht folgernden Kontexten durch das Anführen von Einzelfällen das Allgemeine deutlich zu machen – sei es als didaktisches, sei es als heuristisches Verfahren. Eine derartige Induktion stellt plausible Gründe dafür bereit, einen allgemeinen Satz für wahr zu halten. Aristoteles rechtfertigt aber nirgends ohne weitere Bedingungen induktiv die Wahrheit eines solchen Satzes.
Dialektik: Theorie der Argumentation
Die in der Topik behandelte Dialektik ist eine Form der Argumentation, die (ihrer genuinen Grundform nach) in einer dialogischen Disputation stattfindet. Sie geht vermutlich auf Praktiken in Platons Akademie zurück. Die Zielsetzung der Dialektik lautet:
Die Dialektik hat demnach keinen bestimmten Gegenstandsbereich, sondern kann universal angewendet werden. Aristoteles bestimmt die Dialektik durch die Art der Prämissen dieser Deduktion. Ihre Prämissen sind anerkannte Meinungen (endoxa), das heißt
Für dialektische Prämissen ist es unerheblich, ob sie wahr sind oder nicht. Weshalb aber anerkannte Meinungen? In ihrer Grundform findet Dialektik in einem argumentativen Wettstreit zwischen zwei Gegnern statt mit genau zugewiesenen Rollen. Auf ein vorgelegtes Problem der Form ‚Ist S P oder nicht?‘ muss der Antwortende sich auf eine der beiden Möglichkeiten als These festlegen. Das dialektische Gespräch besteht nun darin, dass ein Fragender dem Antwortenden Aussagen vorlegt, die dieser entweder bejahen oder verneinen muss. Die beantworteten Fragen gelten als Prämissen. Das Ziel des Fragenden besteht nun darin, mithilfe der bejahten oder verneinten Aussagen eine Deduktion zu bilden, so dass die Konklusion die Ausgangsthese widerlegt oder aus den Prämissen etwas Absurdes oder ein Widerspruch folgt.
Die Methode der Dialektik weist zwei Bestandteile auf:
herausfinden, welche Prämissen ein Argument für die gesuchte Konklusion ergeben.
herausfinden, welche Prämissen der Antwortende akzeptiert.
Für 2. bieten die verschiedenen Typen (a)–(ciii) anerkannter Meinungen dem Fragenden Anhaltspunkte dafür, welche Fragen der jeweilige Antwortende bejahen wird, das heißt, welche Prämissen er verwenden kann. Aristoteles fordert dazu auf, Listen solcher anerkannter Meinungen anzulegen (Top. I 14). Vermutlich meint er nach den Gruppen (a)–(ciii) getrennte Listen; diese werden wiederum nach Gesichtspunkten geordnet.
Für 1. hilft dem Dialektiker in seinem Argumentationsaufbau das Instrument der Topen. Ein Topos ist eine Konstruktionsanleitung für dialektische Argumente, das heißt zur Auffindung geeigneter Prämissen für eine gegebene Konklusion. Aristoteles listet in der Topik etwa 300 dieser Topen auf. Der Dialektiker kennt diese Topen auswendig, die sich aufgrund ihrer Eigenschaften ordnen lassen. Die Basis dieser Ordnung stellt das System der Prädikabilien dar.
Nach Aristoteles ist die Dialektik für dreierlei nützlich: (1) als Übung, (2) für die Begegnung mit der Menge und (3) für die Philosophie. Neben (1) der Grundform des argumentativen Wettstreits (bei der es eine Jury und Regeln gibt und die wahrscheinlich auf Praktiken in der Akademie zurückgeht) gibt es mit (2) auch Anwendungsweisen, die zwar dialogisch, aber nicht als regelbasierter Wettstreit angelegt sind, sowie mit (3) solche, die nicht dialogisch sind, sondern in denen der Dialektiker im Gedankenexperiment (a) Schwierigkeiten nach beiden Seiten hin durchgeht (diaporêsai) oder auch (b) Prinzipien untersucht (Top. I 4). Für ihn ist die Dialektik aber nicht wie bei Platon die Methode der Philosophie oder eine Fundamentalwissenschaft.
Rhetorik: Theorie der Überzeugung
Aristoteles definiert Rhetorik als „Fähigkeit, bei jeder Sache das möglicherweise Überzeugende (pithanon) zu betrachten“ (Rhetorik I 2, 1355b26 f.). Er nennt sie ein Gegenstück (antistrophos) zur Dialektik. Denn ebenso wie die Dialektik ist die Rhetorik ohne abgegrenzten Gegenstandsbereich, und sie verwendet dieselben Elemente (wie Topen, anerkannte Meinungen und insbesondere Deduktionen), und dem dialektischen Schließen entspricht das auf rhetorischen Deduktionen basierende Überzeugen.
Der Rhetorik kam im demokratischen Athen des vierten Jahrhunderts eine herausragende Bedeutung zu, insbesondere in der Volksversammlung und den Gerichten, die mit durch Los bestimmten Laienrichtern besetzt waren. Es gab zahlreiche Rhetoriklehrer, und Rhetorikhandbücher kamen auf.
Aristoteles’ dialektische Rhetorik ist eine Reaktion auf die Rhetoriktheorie seiner Zeit, die – wie er kritisiert – bloße Versatzstücke für Redesituationen bereitstellt und Anweisungen, wie man durch Verleumdung und die Erregung von Emotionen das Urteil der Richter trüben kann. Im Gegensatz dazu beruht seine dialektische Rhetorik auf der Auffassung, dass wir dann am meisten überzeugt sind, wenn wir meinen, dass etwas bewiesen worden ist (Rhet. I 1, 1355a5 f.). Dass die Rhetorik sachorientiert sei und das jeweils in der Sache liegende Überzeugungspotential entdecken und ausschöpfen müsse, drückt er ebenfalls in der Gewichtung der drei Überzeugungsmittel aus. Diese sind:
der Charakter des Redners (Ethos)
der emotionale Zustand des Hörers (Pathos)
das Argument (Logos)
Das Argument hält er für das wichtigste Mittel.
Unter den Argumenten unterscheidet Aristoteles das Beispiel – eine Form der Induktion – und das Enthymem – eine rhetorische Deduktion (wobei wiederum das Enthymem wichtiger als das Beispiel ist). Das Entyhmem ist eine Art der dialektischen Deduktion. Sein besonderes Merkmal aufgrund der rhetorischen Situation ist, dass seine Prämissen nur die anerkannten Meinungen sind, die von allen oder den meisten für wahr gehalten werden. (Die verbreitete, kuriose Ansicht, das Enthymem sei ein Syllogismus, in dem eine der zwei Prämissen fehle, vertritt Aristoteles nicht; sie basiert auf einem schon in der antiken Kommentierung belegten Missverständnis von 1357a7 ff.) Der Redner überzeugt demnach die Zuhörer, indem er eine Behauptung (als Konklusion) aus den Überzeugungen (als Prämissen) der Zuhörer herleitet. Die Konstruktionsanleitungen dieser Enthymeme liefern rhetorische Topen, z. B.:
An den zeitgenössischen Rhetoriklehrern kritisiert Aristoteles, dass sie die Argumentation vernachlässigten und ausschließlich auf Emotionserregung abzielten, etwa durch Verhaltensweisen wie Jammern oder Mitbringen der Familie zur Gerichtsverhandlung, wodurch ein sachbezogenes Urteil der Richter verhindert werde. Aristoteles’ Theorie zufolge können alle Emotionen definiert werden, indem drei Faktoren berücksichtigt werden. Man fragt: (1) Worüber, (2) wem gegenüber und (3) in welchem Zustand empfindet jemand die jeweilige Emotion? So lautet die Definition von Zorn:
Wenn der Redner mit diesem Definitionswissen den Zuhörern deutlich machen kann, dass der entsprechende Sachverhalt vorliegt und sie sich im entsprechenden Zustand befinden, empfinden sie die entsprechende Emotion. Sofern der Redner mit dieser Methode bestehende Sachverhalte eines Falles hervorhebt, lenkt er damit nicht – wie bei den kritisierten Vorgängern – von der Sache ab, sondern fördert nur dem Fall angemessene Emotionen und verhindert somit unangemessene.
Schließlich soll der Charakter des Redners aufgrund seiner Rede für die Zuhörer glaubwürdig, das heißt tugendhaft, klug und wohlwollend erscheinen (Rhet. I 2, 1356a5–11; II 1, 1378a6–16).
Die sprachliche Form dient ebenfalls einer argumentativ-sachorientierten Rhetorik. Aristoteles definiert nämlich die optimale Form (aretê) dadurch, dass sie primär klar, dabei aber weder banal noch zu erhaben ist (Rhet. III 2, 1404b1–4). Durch solche Ausgewogenheit fördert sie das Interesse, die Aufmerksamkeit und das Verständnis und wirkt angenehm. Unter den Stilmitteln erfüllt insbesondere die Metapher diese Bedingungen.
Syllogistische Logik
Besteht Aristoteles’ dialektische Logik in einer Methode des konsistenten Argumentierens, so besteht seine syllogistische in einer Theorie des Beweisens selbst. In der von ihm begründeten Syllogistik zeigt Aristoteles, welche Schlüsse gültig sind. Hierfür verwendet er eine Form, die in der Tradition wegen der Bedeutung dieser Logik schlicht Syllogismus (die lateinische Übersetzung von syllogismos) genannt wird. Jeder Syllogismus ist eine (besondere Form der) Deduktion (syllogismos), aber nicht jede Deduktion ist ein Syllogismus (und zwar weil Aristoteles’ sehr allgemeine Definition der Deduktion viele mögliche Argumenttypen beschreibt). Aristoteles verwendet selbst auch keinen eigenen Begriff, um den Syllogismus von anderen Deduktionen abzugrenzen.
Ein Syllogismus ist eine spezielle Deduktion, die aus genau zwei Prämissen und einer Konklusion besteht. Prämissen und Konklusion weisen zusammen genau drei verschiedene Begriffe, Terme (in der Tabelle dargestellt durch A, B, C) auf. Die Prämissen haben genau einen Term gemeinsam (in der Tabelle B), der in der Konklusion nicht vorkommt. Durch die Stellung des gemeinsamen Terms, des Mittelterms (hier immer B) unterscheidet Aristoteles folgende syllogistische Figuren:
Ein Prädikat (P) (z. B. 'sterblich') kann einem Subjekt (S) (z. B. 'Grieche') entweder zu- oder abgesprochen werden. Dies kann in partikulärer oder in allgemeiner Form geschehen. Somit gibt es vier Formen, in denen S und P miteinander verbunden werden können, wie die folgende Tabelle zeigt (nach De interpretatione 7; die Vokale werden seit dem Mittelalter für den jeweiligen Aussagetypus und auch in der Syllogistik verwendet).
Der Syllogismus verwendet genau diese vier Aussagetypen in folgender Form:
Aristoteles untersucht folgende Frage: Welche der 192 möglichen Kombinationen sind logisch gültige Deduktionen? Bei welchen Syllogismen ist es nicht möglich, dass, wenn die Prämissen wahr sind, die Konklusion falsch ist? Er unterscheidet vollkommene Syllogismen, die unmittelbar einsichtig sind, von unvollkommenen. Die unvollkommenen Syllogismen führt er mittels Konversionsregeln auf die vollkommenen zurück (dieses Verfahren nennt er analysis) oder beweist sie indirekt.
Ein vollkommener Syllogismus ist der – seit dem Mittelalter so genannte – Barbara:
Weitere gültige Syllogismen und deren Beweise finden sich im Artikel Syllogismus.
Die in den Analytica Priora ausgearbeitete Syllogistik wendet Aristoteles in seiner Wissenschaftstheorie, den Analytica Posteriora an.
Aristoteles entwickelt zudem eine modale Syllogistik, die die Begriffe möglich und notwendig einschließt. Diese Modalsyllogistik ist sehr viel schwieriger zu interpretieren als die einfache Syllogistik. Ob eine konsistente Interpretation dieser modalen Syllogistik überhaupt möglich ist, ist noch heute umstritten. Interpretatorisch problematisch, aber auch bedeutend ist Aristoteles’ Definition von möglich. Er unterscheidet hierbei die sogenannte einseitige und die zweiseitige Möglichkeit:
Einseitig: p ist möglich, insofern nicht-p nicht notwendig ist.
Zweiseitig: p ist möglich, wenn p nicht notwendig und nicht-p nicht notwendig ist, das heißt p ist kontingent.
Damit lässt sich der Indeterminismus, den Aristoteles vertritt, als der Zustand charakterisieren, der kontingent ist.
Kanonische Sätze
In der aristotelischen Logik wird zwischen folgenden konträren und kontradiktorischen Satzarten unterschieden – F und G stehen dabei für Subjekt und Prädikat:
Diese „kanonischen Sätze“ gehören zum Fundament der traditionellen Logik und werden unter anderem bei einfacher bzw. eingeschränkter Konversion angewandt.
Wissen und Wissenschaft
Stufen des Wissens
Aristoteles unterscheidet verschiedene Stufen des Wissens, die sich folgendermaßen darstellen lassen (Met. I 1; An. post. II 19):
Mit dieser Stufung beschreibt Aristoteles auch, wie Wissen entsteht: Aus Wahrnehmung entsteht Erinnerung und aus Erinnerung durch Bündelung von Erinnerungsinhalten Erfahrung. Erfahrung besteht in einer Kenntnis einer Mehrzahl konkreter Einzelfälle und gibt nur das Dass an, ist bloße Faktenkenntnis. Wissen hingegen (oder Wissenschaft; epistêmê umfasst beides) unterscheidet sich von Erfahrung dadurch, dass es
allgemein ist;
nicht nur das Dass eines Sachverhalts, sondern auch das Warum, den Grund oder die erklärende Ursache angibt.
In diesem Erkenntnisprozess schreiten wir nach Aristoteles von dem, was für uns bekannter und näher an der sinnlichen Wahrnehmung ist, zu dem vor, was an sich oder von Natur aus bekannter ist, zu den Prinzipien und Ursachen der Dinge. Dass Wissen an oberster Stelle steht und überlegen ist, bedeutet aber nicht, dass es im konkreten Fall die anderen Stufen in dem Sinne enthält, dass es sie ersetzte. Im Handeln ist zudem die Erfahrung als Wissen vom Einzelnen den Wissensformen, die aufs Allgemeine gehen, mitunter überlegen (Met. 981a12–25).
Ursachen und Demonstrationen
Unter einer Ursache (aitia) versteht Aristoteles in der Regel nicht ein von einem verursachten Ereignis B verschiedenes Ereignis A. Die Untersuchung von Ursachen dient nicht dazu, Wirkungen vorherzusagen, sondern Sachverhalte zu erklären. Eine aristotelische Ursache gibt einen Grund als Antwort auf bestimmte Warum-Fragen an. (Aristoteles unterscheidet vier Ursachentypen, die genauer hier im Abschnitt Naturphilosophie behandelt werden.)
Nach Aristoteles hat Ursachenwissen die Form einer bestimmten Deduktion: der Demonstration (apodeixis) eines Syllogismus mit wahren Prämissen, die Ursachen für den in der Konklusion ausgedrückten Sachverhalt angeben. Ein Beispiel:
Aristoteles spricht davon, dass die Prämissen einiger Demonstrationen Prinzipien (archē; wörtl. Anfang, Ursprung) sind, erste wahre Sätze, die selbst nicht demonstrativ bewiesen werden können.
Nicht-Beweisbare Sätze
Neben den Prinzipien können auch die Existenz und die Eigenschaften der behandelten Gegenstände einer Wissenschaft sowie bestimmte, allen Wissenschaften gemeinsame Axiome nach Aristoteles nicht durch Demonstrationen bewiesen werden, wie beispielsweise der Satz vom Widerspruch. Vom Satz des Widerspruchs zeigt Aristoteles, dass er nicht geleugnet werden kann. Er lautet: X kann Y nicht zugleich in derselben Hinsicht zukommen und nicht zukommen (Met. IV 3, 1005b19 f.). Aristoteles argumentiert, dass, wer dies leugnet, etwas und somit etwas Bestimmtes sagen muss. Wenn er z. B. ‚Mensch‘ sagt, bezeichnet er damit Menschen und nicht Nicht-Menschen. Mit dieser Festlegung auf etwas Bestimmtes setze er aber den Satz vom Widerspruch voraus. Dies gelte sogar für Handlungen, insofern eine Person etwa um einen Brunnen herumgeht und nicht in ihn hinein fällt.
Dass diese Sätze und auch Prinzipien nicht demonstriert werden können, liegt an Aristoteles’ Lösung eines Begründungsproblems: Wenn Wissen Rechtfertigung enthält, dann führt dies in einem konkreten Fall von Wissen entweder (a) zu einem Regress, (b) einem Zirkel oder (c) zu fundamentalen Sätzen, die nicht begründet werden können. Prinzipien in einer aristotelischen demonstrativen Wissenschaft sind solche Sätze, die nicht demonstriert, sondern auf andere Weise gewusst werden (An. Post. I 3).
Das Verhältnis von Definition, Ursache und Demonstration
Aristoteles spricht zudem davon, dass, sofern die Prämissen Prinzipien sind, sie auch Definitionen darstellen können. Wie sich Demonstration, Ursache und Definition zueinander verhalten, illustriert folgendes Beispiel:
Der Mond weist zum Zeitpunkt t eine Finsternis auf, weil (i) immer, wenn etwas im Sonnenschatten der Erde ist, es eine Finsternis aufweist und (ii) der Mond zum Zeitpunkt t im Sonnenschatten der Erde liegt.
Demonstration:
Mittelterm: Verdecken der Sonne durch die Erde.
Ursache: Verdecken der Sonne durch die Erde kommt dem Mond zum Zeitpunkt t zu.
Die Definition wäre hier etwa: Mondfinsternis ist der Fall, in dem die Erde die Sonne verdeckt. Sie erklärt nicht das Wort ‚Mondfinsternis‘. Vielmehr gibt sie an, was eine Mondfinsternis ist. Indem man die Ursache angibt, schreitet man von einem Faktum zu seinem Grund fort. Das Verfahren der Analyse besteht darin, bottom-up zu einem bekannten Sachverhalt die nächste Ursache zu suchen, bis eine letzte Ursache erreicht ist.
Status der Prinzipien und Funktion der Demonstration
Das aristotelische Wissenschaftsmodell wurde in der Neuzeit und bis ins 20. Jahrhundert als ein Top-down-Beweisverfahren verstanden. Die unbeweisbaren Prinzipien seien notwendig wahr und würden durch Induktion und Intuition (nous) erlangt. Alle Sätze einer Wissenschaft würden – in einer axiomatischen Struktur – aus ihren Prinzipien folgen. Wissenschaft beruht demnach auf zwei Schritten: Zunächst würden die Prinzipien intuitiv erfasst, dann würde top-down aus ihnen Wissen demonstriert.
Gegner dieser Top-down-Interpretation stellen vor allem infrage, dass für Aristoteles
die Prinzipien immer wahr sind;
die Prinzipien durch Intuition gewonnen werden;
die Funktion der Demonstration darin besteht, dass aus obersten Prinzipien Wissen erschlossen wird.
Eine Interpretationsrichtung behauptet, die Demonstration habe didaktische Funktion. Da Aristoteles in den naturwissenschaftlichen Schriften seine Wissenschaftstheorie nicht befolge, lege diese nicht dar, wie Forschung durchgeführt, sondern wie sie didaktisch präsentiert werden soll.
Eine andere Auslegung weist auch die didaktische Interpretation zurück, da sich sehr wohl Anwendungen des wissenschaftstheoretischen Modells in den naturwissenschaftlichen Schriften finden ließen. Vor allem aber kritisiert sie die erste Lesart dahingehend, dass sie nicht zwischen Wissensideal und Wissenskultur unterscheide; denn Aristoteles halte Prinzipien für fallibel und die Funktion der Demonstration für heuristisch. Sie liest die Demonstration bottom-up: Zu bekannten Sachverhalten würden mithilfe der Demonstration deren Ursachen gesucht. Die wissenschaftliche Forschung gehe von den für uns bekannteren empirischen (meist universalen) Sätzen aus. Zu einer solchen Konklusion werden Prämissen gesucht, die für den entsprechenden Sachverhalt Ursachen angeben.
Der wissenschaftliche Forschungsprozess besteht nun darin, beispielsweise die Verknüpfung von Schwere und Statue oder Mond und Finsternis in der Weise genauer zu analysieren, dass man Mittelterme sucht, die sie als Ursachen miteinander verknüpfen. Im einfachsten Fall gibt es dabei nur einen Mittelterm, in anderen mehrere. Top-down wird dann das Wissen von den erklärenden Prämissen zu den erklärten universalen empirischen Sätzen präsentiert. Dabei geben die Prämissen den Grund für den in der Konklusion beschriebenen Sachverhalt an. Das Ziel jeder Disziplin besteht in einer derartigen demonstrativen Darstellung des Wissens, in der die nicht demonstrierbaren Prinzipien dieser Wissenschaft Prämissen sind.
Erfassen der Prinzipien
Wie die Prinzipien nach Aristoteles erfasst werden, bleibt undeutlich und ist umstritten. Vermutlich werden sie durch Allgemeinbegriffe gebildet, die durch einen induktiven Vorgang entstehen, einen Aufstieg innerhalb der oben beschriebenen Wissensstufen: Wahrnehmung wird Erinnerung, wiederholte Wahrnehmung verdichtet sich zu Erfahrung, und aus Erfahrung bilden wir Allgemeinbegriffe. Mit dieser auf der Wahrnehmung basierenden Konzeption der Bildung von Allgemeinbegriffen weist Aristoteles sowohl Konzeptionen zurück, die die Allgemeinbegriffe aus einem höheren Wissen ableiten, als auch diejenigen, die behaupten, Allgemeinbegriffe seien angeboren. Vermutlich auf Grundlage dieser Allgemeinbegriffe werden die Prinzipien, Definitionen gebildet. Die Dialektik, die Fragen in der Form ‚Trifft P auf S zu oder nicht?‘ behandelt, ist vermutlich ein Mittel, Prinzipien zu prüfen. Das Vermögen, das diese grundlegenden Allgemeinbegriffe und Definitionen erfasst, ist der Geist, die Einsicht (nous).
Naturphilosophie
Natur
In Aristoteles’ Naturphilosophie bedeutet Natur (physis) zweierlei: Zum einen besteht der primäre Gegenstandsbereich aus den von Natur aus bestehenden Dingen (Menschen, Tiere, Pflanzen, die Elemente), die sich von Artefakten unterscheiden. Zum anderen bilden die Bewegung (kínēsis) und Ruhe (stasis) den Ursprung, beziehungsweise das Grundprinzip (archē) aller Natur (Phys. II 1, 192b14). Bewegung bedeutet wiederum Veränderung (metabolē) (Phys. II 1,193a30). So ist beispielsweise die Ortsbewegung eine Form der Veränderung. Ebenso stellen die „Eigenbewegungen“ des Körpers, wenn dieser (zum Beispiel durch Nahrungsaufnahme) wächst oder abnimmt, eine Veränderung dar. Beide Begriffe, kínēsis und metabolē, sind für Aristoteles folglich nicht trennbar. Gemeinsam bilden sie das Grundprinzip und den Anfang aller Naturdinge. Bei Artefakten kommt das Prinzip jeder Veränderung von außen (Phys. II 1, 192b8–22). Die Wissenschaft der Natur hängt in der Folge von den Arten der Veränderung ab.
Definition, Prinzipien und Arten der Veränderung
Ein Veränderungsprozess von X ist gegeben, wenn X, das (i) der Wirklichkeit nach die Eigenschaft F und (ii) der Möglichkeit nach G aufweist, die Eigenschaft G verwirklicht. Bei Bronze (X), die der Wirklichkeit nach ein Klumpen ist (F) und der Möglichkeit nach eine Statue (G), liegt Veränderung dann vor, wenn die Bronze der Wirklichkeit nach die Form einer Statue (G) wird; der Prozess ist abgeschlossen, wenn die Bronze diese Form besitzt. Oder wenn der ungebildete Sokrates gebildet wird, so verwirklicht sich ein Zustand, welcher der Möglichkeit nach schon vorlag. Der Veränderungsprozess ist also durch seinen Übergangsstatus gekennzeichnet und setzt voraus, dass etwas, das der Möglichkeit nach vorliegt, verwirklicht werden kann (Phys. III 1, 201a10–201b5).
Für alle Veränderungsprozesse hält Aristoteles (in Übereinstimmung mit seinen naturphilosophischen Vorgängern) Gegensätze für grundlegend. Er vertritt darüber hinaus die These, dass in einem Veränderungsprozess diese Gegensätze (wie gebildet-ungebildet) immer an einem Substrat oder Zugrundeliegenden (hypokeimenon) auftreten, so dass sein Modell folgende drei Prinzipien aufweist:
Substrat der Veränderung (X);
Ausgangszustand der Veränderung (F);
Zielzustand der Veränderung (G).
Wird der ungebildete Sokrates gebildet, so ist er dabei an jedem Punkt der Veränderung Sokrates. Entsprechend bleibt die Bronze Bronze. Das Substrat der Veränderung, an dem diese sich vollzieht, bleibt dabei mit sich selbst identisch. Den Ausgangszustand der Veränderung fasst Aristoteles dabei als einen Zustand, dem die entsprechende Eigenschaft des Zielzustands ermangelt (Privation; Phys. I 7).
Aristoteles unterscheidet vier Arten der Veränderung:
Qualitative Veränderung
Quantitative Veränderung
Ortsbewegung
Entstehen/Vergehen.
Bei jeder Veränderung – so Aristoteles – gibt es ein zugrunde liegendes, numerisch identisches Substrat (Physik I 7, 191a13–15). Im Falle qualitativer, quantitativer und örtlicher Veränderung ist dies ein konkretes Einzelding, das seine Eigenschaften, seine Größe oder seine Position verändert. Wie verhält sich dies aber beim Entstehen/Vergehen konkreter Einzeldinge? Die Eleaten hatten die einflussreiche These vertreten, Entstehen sei nicht möglich, da sie es für widersprüchlich hielten, wenn Seiendes aus Nicht-Seiendem hervorginge (bei Entstehen aus Seiendem sahen sie ein ähnliches Problem). Die Lösung der Atomisten, Entstehen sei ein Prozess, in dem durch Mischung und Trennung unvergänglicher und unveränderlicher Atome aus alten neue Einzeldinge hervorgehen, führt nach Aristoteles’ Ansicht Entstehen illegitimerweise auf qualitative Veränderung zurück (Gen. Corr. 317a20 ff.).
Form und Materie bei Entstehen/Vergehen
Aristoteles’ Analyse von Entstehen/Vergehen basiert auf der innovativen Unterscheidung von Form und Materie (Hylemorphismus). Er akzeptiert, dass kein konkretes Einzelding aus Nichtseiendem entstehe, analysiert den Fall Entstehen jedoch folgendermaßen. Ein konkretes Einzelding des Typs F entsteht nicht aus einem nicht-seienden F, sondern aus einem zugrunde liegenden Substrat, das nicht die Form F aufweist: der Materie.
Ein Ding entsteht, indem Materie eine neu hinzukommende Form annimmt. So entsteht eine Bronzestatue, indem eine Bronzemasse eine entsprechende Form annimmt. Die fertige Statue besteht aus Bronze, die Bronze liegt der Statue als Materie zugrunde. Die Antwort auf die Eleaten lautet, dass einer nicht-seienden Statue die Bronze als Materie entspricht, die durch Hinzukommen einer Form zur Statue wird. Der Entstehungsprozess ist dabei von verschiedenen Seinsgraden gekennzeichnet. Die tatsächliche, aktuale, geformte Statue entsteht aus etwas, das potentiell eine Statue ist, nämlich Bronze als Materie (Phys. I 8, 191b10–34).
Materie und Form sind Aspekte eines konkreten Einzeldings und treten nicht selbständig auf. Materie ist immer Stoff eines bestimmten Dings, das schon eine Form aufweist. Sie ist ein relativer Abstraktionsbegriff zu Form. Indem eine derartige Materie in einer neuen Weise strukturiert wird, entsteht ein neues Einzelding. Ein Haus setzt sich aus Form (dem Bauplan) und Materie (Holz und Ziegel) zusammen. Die Ziegel als Materie des Hauses sind durch einen bestimmten Prozess auf eine bestimmte Weise geformter, konfigurierter Lehm. Unter Form versteht Aristoteles seltener die äußere Gestalt (dies nur bei Artefakten), in der Regel die innere Struktur oder Natur, dasjenige, was durch eine Definition erfasst wird. Die Form eines Gegenstandes eines bestimmten Typs beschreibt dabei Voraussetzungen, welche Materie für diesen geeignet ist und welche nicht.
Ortsbewegung
Bewegungen erfolgen nach Aristoteles entweder naturgemäß oder naturwidrig (gewaltsam). Nur Lebewesen bewegen sich aus eigenem Antrieb, alles andere wird entweder von etwas bewegt oder es strebt möglichst geradlinig seinem natürlichen Ort entgegen und kommt dort zum Stillstand.
Der natürliche Ort eines Körpers hängt von der in ihm vorherrschenden Materieart ab. Wenn Wasser oder Erde vorherrscht, bewegt sich der Körper zum Mittelpunkt der Erde, dem Zentrum der Welt, wenn Feuer oder Luft dominiert, strebt er nach oben. Erde ist ausschließlich schwer, Feuer absolut leicht, Wasser relativ schwer, Luft relativ leicht. Der natürliche Ort des Feuers ist oberhalb der Luft und unterhalb der Mondsphäre. Leichtigkeit und Schwere sind Eigenschaften von Körpern, die mit deren Dichte nichts zu tun haben. Mit der Einführung der Vorstellung einer absoluten Schwere und absoluten Leichtigkeit (Schwerelosigkeit des Feuers) verwirft Aristoteles die Auffassung Platons und der Atomisten, die alle Objekte für schwer hielten und das Gewicht als relative Größe auffassten.
Das fünfte Element, der Äther des Himmels, ist masselos und bewegt sich ewig in gleichförmiger Kreisbewegung um das Zentrum der Welt. Der Äther füllt den Raum oberhalb der Mondsphäre; er ist keinerlei Veränderung außer der Ortsbewegung unterworfen. Die Annahme, auf der Erde und am Himmel gälten verschiedene Gesetze, ist für Aristoteles nötig, weil die Bewegung der Planeten und Fixsterne nicht zur Ruhe kommt.
Aristoteles nimmt an, dass für jede Ortsbewegung ein Medium, das entweder als bewegende Kraft wirkt oder der Bewegung Widerstand leistet, erforderlich ist; eine kontinuierliche Bewegung im Vakuum ist prinzipiell unmöglich. Aristoteles schließt sogar die Existenz eines Vakuums aus.
Die Bewegungslehre des Aristoteles war bis zur Entwicklung eines neuen Trägheitsbegriffs durch Galilei und Newton einflussreich.
Ursachen
Um Wissen von Veränderungsprozessen und somit von der Natur zu besitzen, muss man – so Aristoteles – die entsprechenden Ursachen (aitiai) kennen (Phys. I 1, 184a10–14). Aristoteles behauptet, es gebe genau vier Ursachentypen, die jeweils auf verschiedene Weise auf die Frage Warum antworten und die in der Regel bei einer vollständigen Erklärung alle angegeben werden müssen (Phys. II 3, 194b23–35):
Der aristotelische Ursachenbegriff unterscheidet sich weitgehend vom modernen. In der Regel treffen zur Erklärung desselben Sachverhaltes oder Gegenstandes verschiedene Ursachen zugleich zu. Die Formursache fällt oft mit der Bewegungsursache und der Finalursache zusammen. Die Ursache eines Hauses sind so Ziegel und Holz, der Bauplan, der Architekt und der Schutz vor Unwetter. Letztere drei fallen oft zusammen, insofern beispielsweise der Zweck Schutz vor Unwetter den Bauplan (im Geist) des Architekten bestimmt.
Die Finalursache ist vom Standpunkt der neuzeitlichen mechanistischen Physik aus kritisiert worden. Von einer insgesamt teleologisch ausgerichteten Natur wie bei Platon setzt sich Aristoteles jedoch weitgehend ab. Finale Ursachen treten für ihn in der Natur vor allem in der Biologie auf, und zwar beim funktionellen Aufbau von Lebewesen und der Artenreproduktion.
Metaphysik
Metaphysik als Erste Philosophie
Aristoteles gebraucht den Ausdruck „Metaphysik“ nicht. Gleichwohl trägt eines seiner wichtigsten Werke traditionell diesen Titel. Die Metaphysik ist eine von einem späteren Herausgeber zusammengestellte Sammlung von Einzeluntersuchungen, die ein mehr oder weniger zusammenhängendes Themenspektrum abdecken, indem sie nach den Prinzipien und Ursachen des Seienden und nach der dafür zuständigen Wissenschaft fragen. Ob der Titel (ta meta ta physika: die <Schriften, Dinge> nach der Physik) einen bloß bibliografischen oder einen sachbezogenen Hintergrund hat, ist unklar.
Aristoteles spricht in der Metaphysik von einer allen anderen Wissenschaften vorgeordneten Wissenschaft, die er Erste Philosophie, Weisheit (sophia) oder auch Theologie nennt. Diese Erste Philosophie wird in dieser Sammlung aus Einzeluntersuchungen auf drei Weisen charakterisiert:
als Wissenschaft der allgemeinsten Prinzipien, die für Aristoteles’ Wissenschaftstheorie zentral sind (→ Satz vom Widerspruch)
als Wissenschaft vom Seienden als Seienden, die aristotelische Ontologie
als Wissenschaft vom Göttlichen, die aristotelische Theologie (→ Theologie)
Ob oder inwieweit diese drei Projekte zusammenhängende Aspekte derselben Wissenschaft oder voneinander unabhängige Einzelprojekte sind, ist kontrovers. Aristoteles behandelt später metaphysisch genannte Themen auch in anderen Schriften.
Ontologie
Im Corpus Aristotelicum finden sich in zwei Werken, den frühen Kategorien und der späten Metaphysik, unterschiedliche Theorien des Seienden.
Substanzen in den Kategorien
Die Kategorien, die die erste Schrift im Organon bilden, sind vermutlich das einflussreichste Werk des Aristoteles und der Philosophiegeschichte überhaupt.
Die frühe Ontologie der Kategorien befasst sich mit den Fragen ‚Was ist das eigentlich Seiende?‘ und ‚Wie ist das Seiende geordnet?‘ und ist als Kritik an der Position Platons zu verstehen. Der mutmaßliche Gedankengang lässt sich folgendermaßen skizzieren. Unterschieden werden Eigenschaften, die Einzeldingen zukommen (P kommt S zu). Dafür liegen zwei Deutungsmöglichkeiten nahe: Das eigentlich Seiende, die Substanz (ousia) sind
abstrakte, unabhängig existierende Urbilder als Ursache und Erkenntnisgegenstand von Eigenschaften.
konkrete Einzeldinge als Träger von Eigenschaften.
Aristoteles selbst berichtet (Met. I 6), Platon habe gelehrt, man müsse von den wahrnehmbaren Einzeldingen getrennte, nicht sinnlich wahrnehmbare, unveränderliche, ewige Urbilder unterscheiden. Platon nahm an, dass es Definitionen (und damit aus seiner Sicht auch Wissen) von den Einzeldingen, die sich beständig ändern, nicht geben kann. Gegenstand der Definition und des Wissens sind für ihn die Urbilder (Ideen) als das für die Ordnungsstruktur des Seienden Ursächliche. Verdeutlichen lässt sich dies an einer von allen Menschen getrennten, einzelnen und numerisch identischen Idee des Menschen, die für das jeweilige Menschsein ursächlich ist und die Erkenntnisgegenstand ist für die Frage ‚Was ist ein Mensch?‘.
Aristoteles’ Einteilung des Seienden in den Kategorien scheint sich von der skizzierten Position Platons abzugrenzen. Er orientiert sich dabei an der sprachlichen Struktur einfacher Sätze der Form ‚S ist P‘ und der sprachlichen Praxis, wobei er die sprachliche und die ontologische Ebene nicht explizit voneinander scheidet.
Einige Ausdrücke – wie ‚Sokrates‘ – können nur die Subjektposition S in dieser sprachlichen Struktur einnehmen, alles andere wird von ihnen prädiziert. Die Dinge, die in diese Kategorie der Substanz fallen und die er Erste Substanz nennt, sind ontologisch selbständig; sie bedürfen keines anderen Dinges, um zu existieren. Daher sind sie ontologisch primär, denn alles andere ist von ihnen abhängig und nichts würde ohne sie existieren.
Diese abhängigen Eigenschaften bedürfen eines Einzeldings, einer ersten Substanz als eines Trägers, an der sie vorkommen. Derartige Eigenschaften (z. B. weiß, sitzend) können einem Einzelding (etwa Sokrates) jeweils zukommen oder auch nicht zukommen und sind daher akzidentelle Eigenschaften. Dies betrifft alles außerhalb der Kategorie der Substanz.
Für einige Eigenschaften (z. B. ‚Mensch‘) gilt nun, dass sie in der Weise von einem Einzelding (z. B. Sokrates) ausgesagt werden können, dass ihre Definition (vernünftiges Lebewesen) auch von diesem Einzelding gilt. Sie kommen ihm daher notwendig zu. Dies sind die Art und die Gattung. Aufgrund dieses engen Bezugs, in dem die Art und die Gattung angeben, was eine erste Substanz jeweils ist (etwa in der Antwort auf die Frage ‚Was ist Sokrates?‘: ‚ein Mensch‘), nennt Aristoteles sie zweite Substanz. Dabei hängt auch eine zweite Substanz von einer ersten Substanz ontologisch ab.
A) Kategorie der Substanz:
1. Substanz: Merkmal der Selbständigkeit.
2. Substanz: Merkmal der Erkennbarkeit.
B) Nichtsubstanziale Kategorien: Akzidenzien.
Aristoteles vertritt also folgende Thesen:
Nur Einzeldinge (erste Substanzen) sind selbständig und daher ontologisch primär.
Alle Eigenschaften hängen von den Einzeldingen ab. Es existieren keine unabhängigen, nicht-exemplifizierten Urbilder.
Neben kontingenten, akzidentellen Eigenschaften (wie ‚weiß‘) gibt es notwendige, essentielle Eigenschaften (wie ‚Mensch‘), die angeben, was ein Einzelding jeweils ist.
Die Substanztheorie der Metaphysik
Für Platon ergibt sich als Konsequenz aus seiner Auffassung von den Ideen die Annahme, dass im eigentlichen, unabhängigen Sinne allein die unveränderlichen Ideen existieren; die Einzeldinge existieren nur in Abhängigkeit von den Ideen. Diese ontologische Konsequenz kritisiert Aristoteles eingehend in der Metaphysik. Er hält es für widersprüchlich, dass die Anhänger der Ideenlehre einerseits die Ideen dadurch von den Sinnesobjekten abgrenzen, dass sie ihnen das Merkmal der Allgemeinheit und damit Undifferenziertheit zuweisen, und andererseits zugleich für jede einzelne Idee eine separate Existenz annehmen; dadurch würden die Ideen selbst Einzeldinge, was mit ihrem Definitionsmerkmal Allgemeinheit unvereinbar sei (Met. XIII 9, 1086a32–34).
In der Metaphysik vertritt Aristoteles im Rahmen seines Vorhabens, das Seiende als Seiendes zu untersuchen, die Auffassung, dass alles Seiende entweder eine Substanz ist oder auf eine bezogen ist (Metaphysik IV 2). In den Kategorien hatte er ein Kriterium für Substanzen formuliert und Beispiele (Sokrates) für diese gegeben. In der Metaphysik thematisiert er nun abermals die Substanz, um nach den Prinzipien und Ursachen einer Substanz, eines konkreten Einzeldings zu suchen. Hier fragt er nun: Was macht etwa Sokrates zu einer Substanz? Substanz ist hier also ein zweistelliges Prädikat (Substanz von X), so dass man die Frage so formulieren kann: Was ist die Substanz-X einer Substanz? Dabei spielt die Form-Materie-Unterscheidung, die in den Kategorien nicht präsent ist, eine entscheidende Rolle.
Aristoteles scheint die Substanz-X vor allem mit Hilfe zweier Kriterien zu suchen, die in der Theorie der Kategorien auf die erste und die zweite Substanz verteilt sind:
(i) selbständige Existenz oder Subjekt für alles andere, aber nicht selbst Prädikat zu sein (individuelles Wesen = erste Substanz);
(ii) Definitionsgegenstand zu sein, Erkennbarkeit zu garantieren, das heißt auf die Frage ‚Was ist X?‘ zu antworten (allgemeines Wesen = zweite Substanz).
Das Kriterium (ii) wird genauer erfüllt, indem Aristoteles das Wesen als Substanz-X bestimmt. Mit Wesen meint er dabei, was ontologisch einer Definition entspricht (Met. VII 4; 5, 1031a12; VIII 1, 1042a17). Das Wesen beschreibt die notwendigen Eigenschaften, ohne die ein Einzelding aufhören würde, ein und dieselbe Sache zu sein. Fragt man: Was ist die Ursache dafür, dass diese Materieportion Sokrates ist?, so ist Aristoteles’ Antwort: Das Wesen von Sokrates, welches weder ein weiterer Bestandteil neben den materiellen Bestandteilen ist (dann bedürfte es eines weiteren Strukturprinzips, um zu erklären, wie es mit den materiellen Bestandteilen vereint ist) noch etwas aus materiellen Bestandteilen (dann müsste man erklären, wie das Wesen selbst zusammengesetzt ist).
Aristoteles ermittelt die Form (eidos) eines Einzeldings als sein Wesen und somit als Substanz-X. Mit Form meint er weniger die äußere Gestalt als vielmehr die Struktur: Die Form
wohnt dem Einzelding inne,
bewirkt
bei Lebewesen die Entstehung eines Exemplars derselben Art (Met. VII 8, 1033b30–2)
bei Artefakten (z. B. Haus) als formale Ursache (Bauplan) (Met. VII 9, 1034a24) im Geist des Produzenten (Met. VII 7, 1032b23) (Architekt) die Entstehung des Einzeldings.
geht der Entstehung eines aus Form und Materie zusammengesetzten Einzeldings voraus und entsteht und verändert sich nicht und bewirkt so (bei natürlichen Arten) eine Kontinuität der Formen, die für Aristoteles ewig ist (Met. VII 8, 1033b18)
ist Ursache, Erklärung der wesentlichen Eigenschaften und Fähigkeiten eines Einzeldings (Beispielsweise ist die Form eines Menschen die Seele (Met. VII 10, 1035b15), welche sich aus Fähigkeiten wie Nährvermögen, Wahrnehmungsvermögen, Denkvermögen unter anderem konstituiert (An. II 2, 413b11–13)).
Dass die Form als Substanz-X auch das genannte Kriterium (ii), selbständig zu sein, erfüllen muss, und dies teilweise als Kriterium für etwas Individuelles aufgefasst wird, ist einer von vielen Aspekten in folgender zentralen interpretatorischen Kontroverse: Fasst Aristoteles die Form (A) als etwas Allgemeines oder (B) als etwas (dem jeweiligen Einzelding) Individuelles auf? Als Problem formuliert: Wie kann die Form, das eidos, zugleich Form eines Einzeldings und Gegenstand des Wissens sein?
Für (A) spricht insbesondere, dass Aristoteles an mehreren Stellen davon ausgeht, dass die Substanz-X und somit die Form definierbar ist (Met. VII 13) und dies für ihn (wie für Platon) nur auf Allgemeines zutrifft (VII 11, 1036a; VII 15, 1039b31–1040a2).
Für (B) hingegen spricht vor allem, dass Aristoteles kategorisch die unplatonische Position zu vertreten scheint: Kein Allgemeines kann Substanz-X sein (Met. VII 13). Nach (B) besitzen Sokrates und Kallias zwei auch qualitativ verschiedene Formen. Definierbar müssten dann zu separierende, überindividuelle Aspekte dieser beiden Formen sein. Die Interpretation (A) hingegen löst das Dilemma etwa, indem sie die Aussage Kein Allgemeines ist Substanz-X als Nichts allgemein Prädizierbares ist Substanz-X interpretiert und so entschärft. Die Form werde nicht auf herkömmliche Weise (wie die Art ‚Mensch‘ von ‚Sokrates‘ in den Kategorien) prädiziert und sei daher nicht im problematischen Sinne allgemein. Vielmehr werde die Form von der unbestimmten Materie in einer Weise ‚prädiziert‘, die einen Einzelgegenstand erst konstituiere.
Akt und Potenz
Die für die Ontologie wichtige Beziehung zwischen Form und Materie wird durch ein weiteres Begriffspaar genauer erläutert: Akt (energeia, entelecheia) und Potenz (dynamis).
Für die Form-Materie-Unterscheidung ist die später ontologisch genannte Bedeutung von Potenz oder Vermögen wichtig.
Potentialität ist hier ein Zustand, dem ein anderer Zustand – Aktualität – gegenübersteht, indem ein Gegenstand der Wirklichkeit nach F oder dem Vermögen, der Möglichkeit nach F ist. So ist ein Junge der Möglichkeit nach ein Mann, ein ungebildeter Mensch der Möglichkeit nach ein gebildeter (Met. IX 6).
Dieses (hier diachron beschriebene) Verhältnis von Aktualität und Potentialität bildet die Grundlage für das (auch synchron zu verstehende) Verhältnis von Form und Materie, denn Form und Materie sind Aspekte eines Einzeldings, nicht dessen Teile. Sie sind im Verhältnis von Aktualität und Potentialität miteinander verbunden und konstituieren so (erst) das Einzelding. Die Materie eines Einzeldings ist demnach genau das potentiell, was die Form des Einzeldings und das Einzelding selbst aktual sind (Met. VIII 1, 1042a27 f.; VIII 6, 1045a23–33; b17–19). Zum einen ist zwar (diachron betrachtet) eine bestimmte Portion Bronze potentiell eine Kugel wie auch eine Statue. Zum anderen aber ist (synchron als konstituierender Aspekt) die Bronze an einer Statue potentiell genau das, was die Statue und deren Form aktual sind. Die Bronze der Statue ist ein Konstituens der Statue, ist aber nicht mit ihr identisch. Und so sind auch Fleisch und Knochen potentiell das, was Sokrates oder seine Form (die für einen Menschen typische Konfiguration und Fähigkeiten seiner materiellen Bestandteile,→ Psychologie) aktual sind.
So wie die Form gegenüber der Materie ist für Aristoteles auch die Aktualität gegenüber der Potentialität primär (Met. IX 8, 1049b4–5). Unter anderem ist sie der Erkenntnis nach primär. Man kann nur dann ein Vermögen angeben, wenn man Bezug auf die Wirklichkeit nimmt, zu der es ein Vermögen ist. Das Sehvermögen etwa lässt sich nur bestimmen, indem man auf die Tätigkeit ‚Sehen‘ Bezug nimmt (Met. IX 8, 1049b12–17). Des Weiteren ist die Aktualität im entscheidenden Sinne auch zeitlich früher als die Potentialität, denn ein Mensch entsteht durch einen Menschen, der aktual Mensch ist (Met. IX 8, 1049b17–27).
Theologie
Aristoteles unterscheidet im Vorfeld seiner Theologie drei mögliche Substanzen: (i) sinnlich wahrnehmbare vergängliche, (ii) sinnlich wahrnehmbare ewige und (iii) nicht sinnlich wahrnehmbare ewige und unveränderliche (Met. XII 1, 1069a30–1069b2). (i) sind die konkreten Einzeldinge (der sublunaren Sphäre), (ii) die ewigen, bewegten Himmelskörper, (iii) erweist sich als der selbst unbewegte Ursprung aller Bewegung.
Aristoteles argumentiert für einen göttlichen Beweger, indem er feststellt, dass, wenn alle Substanzen vergänglich wären, alles vergänglich sein müsste, die Zeit und die Veränderung selbst jedoch notwendig unvergänglich sind (Phys. VIII 1, 251a8–252b6; Met. XII 6, 1071b6–10). Aristoteles zufolge ist die einzige Veränderung, die ewig existieren kann, die Kreisbewegung (Phys. VIII 8–10; Met. XII 6,1071b11). Die entsprechende beobachtbare kreisförmige Bewegung der Fixsterne muss daher als Ursache eine ewige und immaterielle Substanz haben (Met. XII 8, 1073b17–32). Enthielte das Wesen dieser Substanz Potentialität, könnte die Bewegung unterbrochen werden. Daher muss sie reine Aktualität, Tätigkeit sein (Met. XII, 1071b12–22). Als letztes Prinzip muss dieser Beweger selbst unbewegt sein.
Nach Aristoteles bewegt der unbewegte Beweger „wie ein Geliebtes“, nämlich als Ziel (Met. XII 7, 1072b3), denn das Begehrte, das Gedachte und insbesondere das Geliebte kann bewegen, ohne bewegt zu sein (Met. XII 7, 1072a26). Seine Tätigkeit ist die lustvollste und schönste. Da er immaterielle Vernunft (nous) ist und seine Tätigkeit im Denken des besten Gegenstandes besteht, denkt er sich selbst: das „Denken des Denkens“ (noêsis noêseôs) (Met. XII 9, 1074b34 f.). Da nur Lebendiges denken kann, muss er zudem lebendig sein. Den unbewegten Beweger identifiziert Aristoteles mit Gott (Met. XII 7, 1072b23 ff.).
Der unbewegte Beweger bewegt die gesamte Natur. Die Fixsternsphäre bewegt sich, da sie mit der Kreisbewegung die Vollkommenheit nachahmt. Die anderen Himmelskörper werden vermittelt über die Fixsternsphäre bewegt. Die Lebewesen haben Anteil an der Ewigkeit, indem sie mittels der Fortpflanzung ewig bestehen (GA II 1, 731b31–732a1).
Biologie
Stellung der Biologie
Nicht nur in der Philosophiegeschichte, sondern auch in der Geschichte der Naturwissenschaften nimmt Aristoteles einen bedeutenden Platz ein. Ein großer Teil seiner überlieferten Schriften ist naturwissenschaftlich, von denen die bei weitem bedeutendsten und umfangreichsten die biologischen Schriften sind, die fast ein Drittel des überlieferten Gesamtwerks umfassen. Vermutlich in Arbeitsteilung wurde die Botanik von seinem engsten Mitarbeiter Theophrast, die Medizin bzw. Geschichte der Medizin von seinem Schüler Menon bearbeitet.
Aristoteles vergleicht das Studium unvergänglicher Substanzen (Gott und Himmelskörper) und vergänglicher Substanzen (der Lebewesen). Beide Forschungsgebiete haben ihren Reiz. Die unvergänglichen Substanzen, die höchsten Erkenntnisgegenstände zu untersuchen, bereiten zwar die größte Freude, aber das Wissen über Lebewesen ist leichter zu erlangen, da sie uns näher stehen. Er betont den Wert der Erforschung auch niederer Tiere und weist darauf hin, dass auch diese etwas Natürliches und Schönes zeigen, das sich nicht in ihren zerlegten Bestandteilen erschöpft, sondern erst durch die Tätigkeiten und das Zusammenwirken der Teile hervortritt (PA I 5, 645a21–645b1).
Aristoteles als empirischer Forscher
Aristoteles hat selbst empirische Forschung betrieben, jedoch vermutlich nicht Experimente im – erst in der neuzeitlichen Naturwissenschaft eingeführten – Sinne einer methodischen Versuchsanordnung angestellt.
Sicher ist, dass er selbst Sezierungen vornahm. Einem Experiment am nächsten kommt die in festgelegten zeitlichen Abständen wiederholte Untersuchung von befruchteten Hühnereiern, mit dem Ziel zu beobachten, in welcher Reihenfolge die Organe entstehen (GA VI 3, 561a6–562a20). Experimente sind jedoch in seiner eigentlichen Domäne – der deskriptiven Zoologie – auch nicht das wesentliche Instrument der Forschung. Neben eigenen Beobachtungen und einigen wenigen Textquellen stützte er sich hier auch auf Informationen von einschlägig Berufstätigen wie Fischern, Bienenzüchtern, Jägern und Hirten. Er ließ die Inhalte seiner Textquellen teilweise empirisch überprüfen, übernahm aber auch unkritisch fremde Irrtümer. Ein verlorenes Werk bestand vermutlich großenteils aus Zeichnungen und Diagrammen von Tieren.
Methodologie der Biologie: Trennung von Fakten und Ursachen
Aufgrund des lange vorherrschenden Interpretationsmodells der Wissenschaftstheorie des Aristoteles und der Vernachlässigung der biologischen Schriften, ging man früher davon aus, dass er diese Theorie nicht auf die Biologie angewendet hat. Demgegenüber wird heute durchaus angenommen, dass seine Vorgehensweise in der Biologie von seiner Wissenschaftstheorie beeinflusst war, wenngleich Umfang und Grad umstritten sind.
Faktensammlungen
Von Aristoteles ist keine Beschreibung seines naturwissenschaftlichen Vorgehens überliefert. Erhalten sind neben der allgemeinen Wissenschaftstheorie nur Texte, die ein Endprodukt der wissenschaftlichen Forschung darstellen. Die biologischen Schriften sind in einer bestimmten Reihenfolge angeordnet, die der Vorgehensweise entspricht.
Die erste Schrift (Historia animalium) beschreibt die verschiedenen Tierarten und ihre spezifischen Differenzen. Sie bietet die Sammlung des Faktenmaterials wie z. B., dass alle Lebewesen mit Lungen Luftröhren aufweisen. Dabei wird nicht erörtert, ob etwas notwendig oder unmöglich so sei. In der Faktensammlung ordnet Aristoteles die Lebewesen nach verschiedenen Einteilungsmerkmalen wie blutführend, lebendgebärend usw. Nach Merkmalen geordnet stellt er allgemeine Relationen zwischen verschiedenen Aspekten der Beschaffenheit fest. So bemerkt er beispielsweise: Alle Vierfüßler, die lebendgebärend sind, weisen Lungen und Luftröhren auf (HA II 15, 505b32 f.). Erst die an dieses Werk anschließenden und darauf aufbauenden Schriften De generatione animalium (Über die Entstehung der Tiere) und De partibus animalium (Über die Teile der Tiere) befassen sich mit den Ursachen, welche die Fakten erklären.
Ursachenwissen
Die Faktensammlung ist die Voraussetzung dafür, Wissen auf der Grundlage von Ursachenkenntnis zu erreichen. Zentral für die Biologie sind dabei finale Ursachen, die den Zweck der Bestandteile des Körpers angeben. Die Ursache für die Existenz einer Luftröhre bei allen Lebewesen, die eine Lunge besitzen, besteht für Aristoteles in der Funktionsweise der Lunge. Die Lunge kann – anders als der Magen – nicht unmittelbar an den Mund anschließen, da sie eines zweigeteilten Kanals bedarf, so dass Einatmen und Ausatmen auf optimale Weise möglich ist. Da dieser Kanal eine gewisse Länge aufweisen muss, haben alle Lebewesen mit Lunge einen Hals. Fische haben daher keinen Hals, weil sie keine Luftröhre benötigen, da sie mit Kiemen atmen (PA III 3, 664a14–34).
Finale Ursachen in der Biologie
Die Verwendung finaler Erklärungen in der Biologie (und auch anderen Forschungsgebieten des Aristoteles) ist insbesondere in der Frühen Neuzeit und bis ins 20. Jahrhundert vielfach kritisiert worden. Unter finalen Erklärungen oder Ursachen versteht Aristoteles hier allerdings in der Regel keine übergreifenden Zwecke, die etwa eine bestimmte Spezies hätte. Ihm geht es vielmehr um eine interne Funktionsbestimmung der Organismen und ihrer Teile.
Inhalte der Zoologie
Aristoteles hat über 500 Spezies untersucht. Seine Schriften behandeln systematisch die inneren und äußeren Teile der einzelnen Tiere, Bestandteile wie Blut und Knochen, Arten der Fortpflanzung, die Nahrung, den Lebensraum und das Verhalten. Er beschreibt das Verhalten von Haustieren, exotischen Raubtieren wie dem Krokodil, Vögeln, Insekten und Meerestieren. Zu diesem Zweck ordnet er die Lebewesen.
Einteilung der Arten
Aristoteles unterscheidet zwei Hauptgruppen von Lebewesen: blutführende und blutlose Tiere. Dies entspricht der Einteilung in Wirbeltiere und Wirbellose. Diese ordnet er nach größten Gattungen:
Blutführende Tiere:
lebendgebärende Vierfüßler
eierlegende Vierfüßler
Vögel
Fische
Cetaceen (Meeressäuger)
eierlegende Fußlose (Schlangen)
lebendgebärende Fußlose (Vipern)
Mensch (bildet eine isolierte Gattung)
Blutlose Tiere:
Weichtiere
Krustentiere
Schalentiere
Kerbtiere
Vermutlich war es nicht Aristoteles’ Absicht, eine vollständige Taxonomie zu schaffen. Das System einer Taxonomie ist für ihn auch kein Hauptgegenstand. Ziel seiner Untersuchungen war eher eine Morphologie, eine Klassifikation der Lebewesen anhand charakteristischer Merkmale. So hat er die Gattungen zwischen den genannten sowie Untergattungen nicht terminologisch fixiert.
Beispiel einer Beschreibung. Der Krake
Aristoteles und die Erkenntnisse der modernen Biologie
In vielen Fällen hat sich Aristoteles als Biologe geirrt. Einige seiner Irrtümer erscheinen reichlich kurios, wie die Beschreibung des Bisons, das sich „durch Ausschlagen und Ausstoßen seines Kots, welchen es bis siebeneinhalb Meter weit von sich schleudern kann, verteidigt“ (HA IX 45, 630b8 f.). Offenbar war seine Informationsquelle über dieses exotische Tier nicht sehr verlässlich. Weitere bekannte Irrtümer sind unter anderem die Behauptung, der Mann habe mehr Zähne als die Frau (HA II 3, 501b19), das Gehirn sei ein Kühlorgan und das Denken geschehe in der Herzgegend (PA II 7, 652b21–25; III 3, 514a16–22) sowie das Konzept der Telegonie, wonach eine vorangegangene Trächtigkeit den Phänotyp von Nachkommen aus späteren Trächtigkeiten beeinflussen könne.
Aristoteles hat aber auch auf der Grundlage seiner Beobachtungen Einsichten gewonnen, die nicht nur zutreffen, sondern die erst in der Moderne wiederentdeckt oder bestätigt worden sind. Beispielsweise erwähnt er bei der Beschreibung des angeführten Kraken, dass die Paarung durch einen Fangarm des Männchens geschieht, der gegabelt ist – die sogenannte Hektokotylisation –, und beschreibt diesen Fortpflanzungsvorgang (HA V 5, 541b9–15; V 12, 544a12; GA V 15, 720b33). Dieses Phänomen war bis ins 19. Jahrhundert nur durch Aristoteles bekannt; die genaue Art der Fortpflanzung wurde erst 1959 vollständig verifiziert.
Bedeutender noch ist seine Hypothese, nach der die Teile eines Organismus in einer hierarchischen Ordnung ausgebildet werden und nicht – wie die (bereits von Anaxagoras vertretene) Präformationslehre annimmt – vorgebildet sind (GA 734a28–35). Diese Auffassung von der embryonalen Entwicklung ist in der Neuzeit unter der von Aristoteles noch nicht verwendeten Bezeichnung Epigenesis bekannt geworden. Ihre empirische Grundlage waren für Aristoteles seine Sezierungen. In der Neuzeit war aber die Präformationslehre vom 17. bis in das 19. Jahrhundert hinein die allgemein akzeptierte Theorie, und Vertreter der Epigenesis wie William Harvey (1651) und Caspar Friedrich Wolff (1759) fanden mit ihren embryologischen Untersuchungen, die klar zeigten, dass die Embryonen sich aus ganz undifferenzierter Materie entwickeln, wenig Beachtung. Diese Einsicht setzte sich erst im frühen 19. Jahrhundert durch und verdrängte schließlich die präformistischen Spekulationen. Endgültig wurde erst im 20. Jahrhundert in der Experimentalbiologie durch Hans Driesch und Hans Spemann bestätigt, dass die embryonale Entwicklung eine Kette von Neubildungen, ein epigenetischer Prozess ist. Ferner gibt es eine Analogie zwischen der aristotelischen zielhaften Epigenesis und der Genetik.
Seelenlehre: Theorie des Lebendigseins
Ausgangssituation
Lebewesen unterscheiden sich von anderen natürlichen und künstlichen Objekten dadurch, dass sie lebendig sind. Bei Homer ist die Seele (psychê) das, was einen Leichnam verlässt. Im Laufe des 6. und 5. Jahrhundert v. Chr. findet der Begriff zunehmend eine deutliche Ausweitung: beseelt (empsychos) zu sein bedeutet lebendig zu sein und das Konzept Seele weist nun auch kognitive und emotionale Aspekte auf. Aristoteles nimmt diesen Sprachgebrauch auf. In seiner Seelentheorie ist er mit zwei Positionen konfrontiert: zum einen mit dem Materialismus vorsokratischer Naturphilosophen (vor allem Demokrit und Empedokles), die behaupten, die Seele bestehe aus einer besonderen Art Materie, zum anderen mit der dualistischen Position Platons, für den die Seele unsterblich, immateriell und ihrer Natur nach eher etwas Intelligibles ist.
Hinsichtlich der Streitfrage zwischen Materialismus und Dualismus, ob Körper und Seele miteinander identisch sind oder nicht, ist Aristoteles der Auffassung, dass die Frage falsch gestellt ist. Dies erläutert er mit einem Vergleich: Die Frage Sind Körper und Seele identisch? ist ebenso unsinnig wie die Frage Sind Wachs und seine Form identisch? (An. II 1, 412b6–9). Zustände der Seele sind zwar immer auch Zustände des Körpers, aber eine Identität von Körper und Seele verneint Aristoteles ebenso wie die Unsterblichkeit der Seele.
Bestimmung der Seele
Was die Seele ist, bestimmt Aristoteles mittels seiner Unterscheidung von Form und Materie. Die Seele verhält sich zum Körper wie die Form zur Materie, das heißt wie eine Statuenform zur Bronze. Form und Materie eines Einzeldings sind aber nicht zwei verschiedene Objekte, nicht dessen Teile, sondern Aspekte ebendieses Einzeldings.
Die Seele definiert Aristoteles als „erste Wirklichkeit (entelecheia) eines natürlichen organischen Körpers“ (An. II 1, 412b5 f.). Eine Wirklichkeit oder Aktualität ist die Seele, weil sie als Form den Aspekt des Lebendigen an der potentiell belebten Materie (nämlich der organischen) darstellt. Eine erste Wirklichkeit ist sie, insofern das Lebewesen auch dann lebendig ist, wenn es nur schläft und keine weiteren Tätigkeiten ausübt (die ebenfalls Aspekte des Seelischen sind). (An. II 1, 412a19–27).
Fähigkeiten
Die weiteren seelischen Aspekte sind die Funktionen, die für ein Lebewesen charakteristisch sind, seine spezifischen Fähigkeiten oder Vermögen (dynamis). Aristoteles unterscheidet vor allem folgende Fähigkeiten:
Ernährungs- und Fortpflanzungsvermögen (threptikon)
Wahrnehmungsvermögen (aisthêtikon)
Denkvermögen (dianoêtikon)
Ernährungs- und Fortpflanzungsvermögen kommen – als grundlegendes Vermögen alles Lebendigen – auch den Pflanzen zu, Wahrnehmungsvermögen (und Fortbewegungsfähigkeit) weisen nur die Tiere (einschließlich des Menschen) auf. Das Denken besitzt allein der Mensch.
Wahrnehmungsvermögen
Aristoteles unterscheidet folgende fünf Sinne und behauptet, dass es nicht mehr geben kann:
Tastsinn
Geschmackssinn
Riechen
Hören
Sehen
Wahrnehmung (aisthesis) fasst Aristoteles allgemein als ein Erleiden oder eine qualitative Veränderung (An. II 5, 416b33 f.). Das, was die Sinne wahrnehmen, ist dabei jeweils durch ein kontinuierliches Gegensatzpaar bestimmt: Sehen durch hell und dunkel, Hören durch hoch und tief, Riechen und Schmecken durch bitter und süß; Tasten weist verschiedene Gegensatzpaare auf: hart und weich, heiß und kalt, feucht und trocken.
Aristoteles behauptet, dass beim Wahrnehmungsvorgang das jeweilige Organ wie das Wahrgenommene wird (An. 418a3–6). Des Weiteren sagt er, dass das Organ die Form „ohne die Materie“ aufnimmt, so „wie das Wachs das Siegel des Ringes ohne Eisen und ohne Gold aufnimmt“ (An. II 12, 424a18 f.). Dies ist von manchen Kommentatoren, darunter Thomas von Aquin, so interpretiert worden, dass das Organ keine natürliche Veränderung (mutatio naturalis), sondern eine geistige (mutatio spiritualis) erfahre. Andere Interpreten meinen, dass „ohne Materie“ schlicht bedeutet, dass zwar keine Partikel in das Organ gelangen, dieses sich aber tatsächlich dem Wahrnehmungsobjekt entsprechend verändert.
Den Tastsinn besitzen alle Lebewesen, welche Wahrnehmung besitzen. Der Tastsinn ist ein Kontaktsinn, das heißt zwischen Wahrnehmungsorgan und Wahrgenommenem befindet sich kein Medium (An. II 11, 423a13 f.). Der Geschmacksinn ist eine Art Tastsinn (An. II 10, 422a8 f.). Die drei Distanzsinne Riechen, Hören und Sehen hingegen benötigen ein Medium, das den Eindruck vom Wahrgenommenen zum Organ transportiert.
Vernunft
Die Vernunft oder das Denkvermögen (nous) ist spezifisch für den Menschen. Aristoteles definiert sie als „das, womit die Seele denkt und Annahmen macht“ (An. III 4, 429a22 f.). Die Vernunft ist unkörperlich, da sie anderenfalls in ihren möglichen Denkgegenständen eingeschränkt wäre, was aber nicht der Fall sein darf (An. III 4, 429a17–22). Allerdings ist sie körpergebunden, da sie auf Vorstellungen (phantasmata) angewiesen ist. Vorstellungen bilden das Material der Denkakte, sie sind konservierte Sinneswahrnehmungen. Das entsprechende Vorstellungsvermögen (phantasia; weder interpretierend noch produktiv im Sinne von Phantasie) ist auf Sinneseindrücke angewiesen, wenngleich Sinneseindruck und Vorstellung qualitativ mitunter stark voneinander abweichen können, etwa bei Halluzinationen. Das Vorstellungsvermögen ist den Wahrnehmungsvermögen zugeordnet (An. III 8, 428b10–18). Insofern die Vernunft also in ihrer Tätigkeit an Vorstellungen gebunden ist, ist sie auch an einen Körper gebunden.
Ethik
Glück (eudaimonia) und Tugend oder Bestzustand (aretê) sind die in Aristoteles’ Ethik zentralen Begriffe. Aristoteles vertritt die These, dass das Ziel aller absichtlichen Handlungen das im „guten Leben“ verwirklichte Glück ist. Die Ausbildung von Tugenden ist nach seiner Ansicht wesentlich dafür, dieses Ziel zu erreichen (→ Tugendethik).
Glück als das Ziel des guten Lebens
Strebenshierarchie der Güter
In ihren (absichtlichen) Handlungen streben alle Menschen nach etwas, das ihnen gut erscheint. Einige dieser erstrebten Güter werden nur als Mittel erstrebt, um andere Güter zu erreichen, andere sind sowohl Mittel als auch selbst ein Gut. Da das Streben nicht unendlich sein kann, muss es ein oberstes Gut und letztes Strebensziel geben. Dieses wird nur um seiner selbst willen erstrebt. Es wird offenbar allgemein „Glück“ (eudaimonia) genannt (EN I 1).
Definition des Glücks als des obersten Guts
Um umrisshaft zu bestimmen, worin das Glück als oberstes Gut für den Menschen besteht, fragt Aristoteles: Worin besteht die spezifische Funktion (telos) oder Aufgabe (ergon) des Menschen? Sie besteht im Vermögen der Vernunft (logos), das ihn von anderen Lebewesen unterscheidet. Der für den Menschen spezifische Seelenteil verfügt über dieses Vermögen der Vernunft; der andere Seelenteil, der sich aus Emotionen und Begierden zusammensetzt, ist zwar selbst nicht vernünftig, kann sich aber durch die Vernunft leiten lassen. Um das Glück zu erlangen, muss das Individuum das Vermögen Vernunft gebrauchen, nicht bloß besitzen, und zwar auf Dauer und in einem Bestzustand (aretê). Demgemäß ist „das Gut für den Menschen“, das Glück, eine
Tugenden
Um den Zustand der Vortrefflichkeit zu erreichen, muss man den beiden Seelenteilen entsprechend (a) Verstandestugenden und (b) Charaktertugenden ausbilden. Tugenden sind für Aristoteles Haltungen, zu denen jeder Mensch die Anlage besitzt, die sich jedoch durch Erziehung und Gewöhnung erst ausbilden müssen.
Verstandestugenden
Unter den Verstandestugenden beziehen sich einige auf das Wissen von Unveränderlichem oder die Herstellung von Gegenständen. Allein die Klugheit (phronêsis) ist mit dem Handeln verknüpft, und zwar als Tugend mit dem Ziel eines guten Lebens. Sie ist – neben den Charaktertugenden – notwendig, um in konkreten Entscheidungssituationen im Hinblick auf das gute Leben handeln zu können. Im Bereich menschlicher Handlungen gibt es – anders als in den Wissenschaften – keine Beweise, und um klug zu sein, bedarf es dabei auch der Erfahrung. Die Funktion der Klugheit besteht darin, die Mitte (mesotês) zu wählen.
Charaktertugenden
Charaktertugenden sind Haltungen (hexeis), für die kennzeichnend ist, dass man sie loben und tadeln kann. Sie werden durch Erziehung und Gewöhnung ausgeprägt, wobei dies nicht als eine Konditionierung zu verstehen ist. Zwar hängt von Kindheit an sehr viel von der Gewöhnung ab (EN II 1, 1103b24), Charaktertugenden liegen jedoch erst vor, wenn jemand sich wissentlich für die entsprechenden Handlungen entscheidet, und zwar nicht wegen möglicher Sanktionen, sondern um der tugendhaften Handlungen selbst willen, und wenn er dabei auch nicht ins Wanken gerät (EN II 3, 1105a26–33). Auch unterscheidet sich der Tugendhafte vom Selbstbeherrschten (der dieselben Handlungen ausführen mag, sich aber dazu zwingen muss) dadurch, dass er an der Tugend Freude empfindet (EN II 2, 1104b3 ff.).
Durch Gewöhnung ausgeprägt werden die Charaktertugenden, indem Übermaß und Mangel vermieden werden.
Das Instrument der Mitte bestimmt die Charaktertugenden genauer. So ist beispielsweise die Tugend der Tapferkeit eine Mitte zwischen den Lastern Tollkühnheit und Feigheit. Grundlage für die Tugenden sind dabei sowohl die Handlungen als auch die Emotionen und Begierden. Nicht tapfer, sondern tollkühn ist jemand, der entweder in einer bestimmten Situation völlig furchtlos ist, obwohl die Situation bedrohlich ist, oder der in einer ernsten Bedrohungssituation seine Furcht ignoriert. Die Mitte besteht also – hier wie bei den anderen Charaktertugenden – darin, angemessene Emotionen zu haben und demgemäß angemessen zu handeln. Dabei ist diese Lehre von der Mitte vermutlich nicht in konkreten Situationen als normativ handlungsleitend, sondern nur als Beschreibungsinstrument der Charaktertugenden aufzufassen. Sie ist auch keine arithmetische Mitte, sondern eine Mitte für uns (pros hêmas), die die jeweilige Emotion, die Person sowie die Situation berücksichtigt.
Diese Tabelle zeigt einige wichtige Charaktertugenden (EN II 7):
Aristoteles definiert die Charaktertugend dementsprechend als
Lebensformen und Lust
Im Kontext der Analyse des guten Lebens unterscheidet Aristoteles drei Lebensformen, die verschiedene Ziele verfolgen:
das Genussleben – mit dem Ziel Lust;
das politische Leben – mit dem Ziel Ehre;
das theoretische Leben – mit dem Ziel Erkenntnis (EN I 3).
Das Genussleben im Sinne einer bloßen Befriedigung der Begierden hält Aristoteles für sklavisch und verwirft es. Gelderwerb und Reichtum als Ziel hält er nicht für eine Lebensform, da Geld immer nur Mittel zu einem Zweck, aber nie selbst Ziel ist. Er plädiert für das theoretische Leben als beste Lebensform. Die beste Tätigkeit, die in der Glücksdefinition gesucht wird, ist diejenige des Theoretikers, der auf Gebieten wie Philosophie, Mathematik usw. forscht und neue Erkenntnisse gewinnt, denn sie bedeutet Muße, dient keinem anderen Zweck, betätigt mit den Verstandestugenden das Beste im Menschen und weist die besten Erkenntnisgegenstände auf (EN X 7, 1177a18–35).
Obwohl er das theoretische Leben für das bestmögliche hält, weist er darauf hin, dass die Betrachtung als Lebensform den Menschen als Menschen übersteigt und eher etwas Göttliches ist (EN X 7, 1177b26–31). Das zweitbeste Leben ist das politische. Es besteht in der Betätigung der Charaktertugenden, die den Umgang mit anderen Menschen sowie mit unseren Emotionen bestimmen. Da Charaktertugenden und Verstandestugenden einander nicht ausschließen, meint Aristoteles möglicherweise, dass selbst der Theoretiker, insofern er ein soziales und mit Emotionen ausgestattetes Wesen ist, sich im Sinne des zweitbesten Lebens betätigen muss.
Aristoteles fasst die Betätigung der Verstandestugenden (zumindest der Klugheit) und der Charaktertugenden als wesentliche Elemente des Glücks auf. Aber auch äußere oder körperliche Güter und auch die Lust hält er für Bedingungen, die hilfreich oder sogar notwendig sind, um glücklich zu werden. Güter wie Reichtum, Freunde und Macht verwenden wir als Mittel. Fehlen einige Güter, wird das Glück getrübt, wie bei körperlicher Verunstaltung, Einsamkeit oder missratenen Kindern (EN I 9, 1099a31–1099b6).
Aristoteles meint, das Genussleben führe nicht zum Glück. Er hält die Lust nicht für das oberste Gut. Gegenüber lustfeindlichen Positionen macht er jedoch geltend, dass das gute Leben Lust einschließen müsse und bezeichnet die Lust als ein Gut (EN VII 14). Auch meint er, man könne einen Tugendhaften, der „auf das Rad geflochten“ sei, nicht als glücklich bezeichnen (EN VII 14, 1153b18–20).
Gegen Platons Auffassung, Lüste seien Prozesse (kinêsis), die einen Mangel beseitigen (wie Lust beim Durstlöschen), und somit sei das Vollenden des Prozesses besser als dieser selbst, argumentiert Aristoteles dafür, dass Lüste Tätigkeiten (energeia) sind, die kein Ziel außer sich aufweisen. Paradigmatische Fälle sind Wahrnehmen und Denken.
Mit diesem Lustkonzept, das Lust als „unbehinderte Tätigkeit“ oder „Vervollkommnung der Tätigkeit“ definiert (EN VII 13, 1153a14 f.; X 4, 1174b33), macht er geltend, dass die Betätigung der Verstandestugenden und der Charaktertugenden lustvoll sein kann. Ob Lüste gut oder schlecht sind, hängt davon ab, ob die entsprechenden Tätigkeiten gut oder schlecht sind. Bei körperlichen Lüsten ist Letzteres etwa der Fall, wenn sie im Übermaß auftreten oder wenn sie gute Handlungen verhindern und so dem Glück abträglich sind.
Politische Philosophie
Die politische Philosophie des Aristoteles schließt an seine Ethik an. Als umfassende Form aller Gemeinschaften besteht der Staat (polis) um des höchsten Gutes willen, des Glücks (EN I 1, 1094a26–b11; Pol. I 1, 1252a1–7). Die politische Philosophie fragt also nach den Bedingungen des Glücks hinsichtlich des Lebens im Staat. Hierfür analysiert er die Bestandteile jeder menschlichen Gemeinschaft und jedes Staates und untersucht, welche Verfassung (politeia) die beste ist und für welche besonderen Bedingungen welche Verfassung die richtige ist.
Entstehung, Bestandteile und Zweck des Staates
Aus der Sicht von Aristoteles besteht der Staat von Natur aus, weil der einzelne Mensch nicht für sich allein zu existieren vermag. Betrachtet man die aus den einzelnen Haushalten sich zusammensetzenden Teile des Staates, so liegen zunächst zwei grundlegende Beziehungen vor: die zwischen Mann und Frau, deren Zweck die Fortpflanzung ist, und die von Herr und Sklave, die dem Lebensunterhalt und der Besitzmehrung dient. (Pol. I 2, 1253b, 1253a und 1253b)
Aristoteles rechtfertigt die Sklaverei, indem er sie als dem Prinzip von Herrschaft und Unterordnung entsprechend auffasst. Er vertritt die These, dass es Sklaven gibt, die von Natur aus zu nichts anderem bestimmt sind als zum Sklavendasein. Das begründet er damit, dass solche „Sklaven von Natur“ nur in geringem Maße Anteil an der Vernunft hätten; daher sei es nicht nur gerechtfertigt, sondern sogar für sie selbst vorteilhaft, dass sie ihr Leben als Sklaven verbringen müssen (Pol. I 5, 1254b20–23; 1255a1 f.). Allerdings ist sein Konzept unklar und widersprüchlich, da er die Freilassung von Sklaven grundsätzlich billigt und für die Unterscheidung zwischen akzidentellen Sklaven (etwa durch Kriegsgefangenschaft) und Sklaven von Natur keine klaren Kriterien nennt. Sein Rat, Sklaven als Lohn die Freiheit zu versprechen (Pol. VII 10, 1330a20 f.), widerspricht der Vorstellung eines „Sklaven von Natur“.
Entsprechend argumentiert er auch für eine Unterordnung der Frau (Pol. VII 10, 1330a20 f.). Es sei für sie besser, vom Mann beherrscht zu werden, da ihre Urteilskraft schwächer sei als die männliche (Pol. I 5, 1254b10–15; I 13, 1259a12).
Mehrere Haushalte ergeben ein Dorf, in dem Arbeitsteilung bessere Versorgung ermöglicht, und mehrere Dörfer einen Staat. Dieser ist autark in dem Sinne, dass er die Bedingungen für ein gutes Leben bereitstellen kann. Aristoteles unterscheidet den Grund der Entstehung des Staates von seinem Zweck. Der Staat entsteht zum Zweck des Überlebens, des Lebens an sich, sein Zweck aber ist das gute Leben: εὖ ζῆν = eu zēn = gut leben (Pol. I 2, 1252a25–1253a1).
Nach Aristoteles gehört es zur Natur des Menschen, in Gemeinschaft zu leben, denn er ist ein „zôon politikon“, ein Lebewesen in der Polisgemeinschaft (Pol. I 2, 1253a3). Nur im Staat kann der Mensch das gute Leben verwirklichen. Wer des Staates nicht bedürfe, sei „entweder ein Tier oder ein Gott“ (Pol. I 2, 1253a29).
Bürger und Verfassung eines Staates
Eine Polis (ein Staat) besteht aus den freien Bürgern. Der Zweck des Staates ist immer das gute Leben. Militär- oder Handelsbündnisse, also Verträge, machen noch keinen Staat aus. Kennzeichnendes Merkmal eines bestimmten Staates ist seine Verfassung.
Der Bürger
Bürger sind die mit dem Bürgerrecht ausgestatteten Einwohner, die sich aktiv am politischen Geschehen (am Richten und Regieren) beteiligen (Pol. III 1, 1275a22). Den Bürger bestimmt Aristoteles also primär nicht über die Herkunft oder den Wohnort, sondern über die Partizipation an den politischen Institutionen des Staates. Entsprechend den damaligen Verhältnissen in Athen betrachtet Aristoteles Frauen, Kinder, Sklaven und Fremde nicht als Bürger. Ein Bürger darf auch nicht für seinen Lebensunterhalt arbeiten müssen. Lohnarbeiter und Handwerker können somit keine Bürger sein (Pol. III 5, 1278a11). Die jeweilige Verfassung eines Staates bestimmt genauer, wer Bürger ist und wer nicht.
Theorie der Verfassungen
In seiner Unterscheidung der verschiedenen Verfassungen stellt Aristoteles zwei Fragen:
Wer herrscht?
Zu wessen Nutzen wird geherrscht?
Bei der ersten Frage unterscheidet er drei mögliche Antworten: einer, wenige, viele. Bei der zweiten Frage unterscheidet er zwei mögliche Zustände und Nutznießer: die Verfassung ist gerecht, wenn zum Nutzen aller regiert wird; sie ist ungerecht oder verfehlt, wenn allein zum Nutzen der Herrschenden regiert wird (Pol. III 6, 1279a17–21). Auf dieser Grundlage entwirft er eine erste Staatsformenlehre mit sechs Verfassungen (Pol, III 6–8):
Die verschiedenen Verfassungen wenden auf unterschiedliche Weise die distributive Gerechtigkeit an (Pol. III 9, 1280a7–22). Distributive Gerechtigkeit bestimmt er als die Verteilung proportional zur Leistung oder Würde (EN V 6).
Kritik an schlechten Verfassungen
Unter den schlechten, nicht am Gemeinwohl orientierten Verfassungen hält er die Tyrannis für die schlechteste, denn in ihr herrscht der Tyrann über den Staat im Sinne einer despotischen Alleinherrschaft wie der Herr über den Sklaven (Pol. III 8, 1279b16).
Für etwas weniger schlecht erachtet er die durch die Herrschaft der Reichen gekennzeichnete Oligarchie, die ebenso wie die Tyrannis sehr instabil ist (Pol. V 12). Für den Grundirrtum der Oligarchie hält Aristoteles die Auffassung, dass die, die in einer Hinsicht (Besitz) ungleich sind, in allen Hinsichten ungleich seien. Entsprechend besteht der Grundirrtum der Demokratie in der Ansicht, dass die, die in einigen Hinsichten gleich sind, dies in allen seien (Pol. V 1, 1301a25–36).
Die Demokratie hält Aristoteles für weniger schlecht als die Tyrannis und Oligarchie. Sie ist neben Gleichheit durch Freiheit gekennzeichnet. Freiheit bedeutet dabei, so zu leben wie man will, Gleichheit, dass das Regieren und Regiertwerden reihum geht (1317b2–12). Die absolute Freiheit, so zu leben wie man will, hält Aristoteles insofern für problematisch, als sie mit der Herrschaft der Verfassung in Konflikt steht (Pol. V 9, 1310a30–35). Gleichheit kritisiert er, wenn sie als totale arithmetische interpretiert wird, die dazu führe, dass die Herrschaft der Unvermögenden die Besitzenden enteignet. Dafür, dass Aristoteles die Beteiligung des „einfachen Volkes“ an der Herrschaft durchaus nicht rundweg abgelehnt hat, spricht ferner seine so genannte „Summierungsthese“ (Pol. III 11, 1281 a38–b9) und eine differenzierte Untersuchung der Formen der Volksherrschaft im Rahmen seiner zweiten Staatsformenlehre.
Gute Verfassungen
Unter den guten Verfassungen ist die Monarchie (unter der Aristoteles nicht zwingend ein Königtum, sondern nur eine dem Gemeinwohl dienende Alleinherrschaft versteht) am wenigsten gut. Insofern sie nicht gesetzgebunden ist, ist sie eine bloße Herrschaftsform, teilweise kaum eine Verfassung, und insofern problematisch, als nur das Gesetz unbeeinflusst von Emotionen herrschen kann.
Unter einer Aristokratie versteht er eine Herrschaft der Guten, das heißt derjenigen, die am meisten Anteil an der Tugend (aretê) haben, was nicht unbedingt Herrschaft eines Geburtsadels bedeuten muss. Da das Ziel des Staates, das gute Leben, in einer Aristokratie im höchsten Maße verwirklicht wird, hält Aristoteles sie (neben einer bestimmten Form der Monarchie, nämlich der Königsherrschaft) für die beste Verfassung (Pol. IV 2, 1289a30–32).
Aristoteles diskutiert Verfassungstheorie allerdings nicht ohne Realitätsbezug. Oft ist aus seiner Sicht eine absolut beste Verfassung in einem bestimmten Staat nicht möglich. Was am besten für einen konkreten Staat ist, muss immer relativ zu den Umständen bestimmt werden (Pol. IV 1, 1288b21–33). Solche Überlegungen durchziehen die ganze Verfassungstheorie. Sie zeigen sich insbesondere im Modell der Politie, die Aristoteles als die bestmögliche für die meisten zeitgenössischen Staaten ansieht (Pol. IV 11, 1295a25). Sie ist eine Mischverfassung, die Elemente der Demokratie und der Oligarchie enthält. Dabei wird für die Bestrebungen nach Gleichheit auf der einen und nach Reichtum auf der anderen Seite ein Ausgleich geschaffen. Dieser Ausgleich wird unter anderem durch Ämterzuteilung nach Klassenzugehörigkeit erreicht (Pol. V 8, 1308b26). Auf diese Weise wird nach seiner Auffassung die Stabilität erhöht und sozialen Unruhen vorgebeugt (die in griechischen Staaten häufig waren). Besondere Stabilität verleiht dem Staat ein breiter Mittelstand (Pol. IV 11, 1295b25–38).
Poetik
Theorie der Dichtung
Mimêsis
Der zentrale Begriff der aristotelischen Theorie der Dichtung, die er in seiner zu Lebzeiten nicht veröffentlichten Poetik (poiêtikê) ausarbeitet, ist die mimêsis, das heißt die „Nachahmung“ oder „Darstellung“. Neben der Dichtung im engeren Sinne (Epik, Tragödie, Komödie und Dithyrambendichtung) zählen auch Teile der Musik und der Tanz für Aristoteles zu den mimetischen Künsten (Poet. 1, 1447a). Abbildende Künste wie Malerei und Plastik behandelt Aristoteles nicht weiter, sondern erwähnt nur, dass sie ebenfalls nach dem Prinzip der Nachahmung arbeiten (Poet. 1, 1447a19 f.). Gemeinsam ist allen mimetischen Künsten die zeitliche Sukzession. Insofern lässt sich mimêsis als ästhetisches Handeln auffassen.
In der Lust an der mimêsis sieht Aristoteles eine anthropologische, allen Menschen gemeinsame Grundgegebenheit. Denn die Freude an ihr sowie an ihren Produkten ist den Menschen angeboren, da sie gerne lernen (Poet. 4, 1448b5-15). Im Gegensatz zu den anderen mimetischen Künsten ist für die Dichtung die Verwendung von Sprache spezifisch. Alle Dichtung ist zudem Darstellung von Handlungen; allerdings nicht von tatsächlich Geschehenem, sondern von dem, „was geschehen könnte, das heißt das nach den Regeln der Wahrscheinlichkeit oder Notwendigkeit Mögliche“ (Poet. 9, 1451a37 f.). Dargestellt werden Handlungen, die etwas über den Menschen im Allgemeinen aussagen, nicht über zufällige und beliebige Verhältnisse. Ziel ist nicht die Nachahmung von Menschen; nicht auf Figuren oder Charaktere, sondern auf Handlungen kommt es an; Erstere sind nur Mittel (Poet. 6, 1450a26–23).
Arten der Dichtung
Aristoteles klassifiziert vier Formen der existierenden Dichtung nach zwei Kriterien: (i) der Art der Darstellung von Handlung und (ii) der Art der dargestellten Figuren.
Dramatische Darstellung ist dadurch gekennzeichnet, dass die jeweilige Figur selbst die Handlung darstellt, berichtende dadurch, dass über die Handlung berichtet wird. Mit „besser“ und „schlechter“ sind die Figuren und ihre Handlungen gemeint. Bessere Figuren oder Charaktere sind etwas besser als wir selbst, schlechtere schlechter; beides aber nie so weit, dass wir uns nicht mehr mit ihnen identifizieren können (Poet. 5, 1449a31–1449b13). Aristoteles vertritt dabei die Hypothese, dass die Tragödie aus dem Epos und die Komödie aus dem Spottlied entstanden ist (Poet. 4, 1449a2–7).
Eine Untersuchung der Komödie kündigt Aristoteles an. Sie ist aber – wie auch eine des Spottliedes – nicht überliefert. Das Epos behandelt er recht kurz. Seine überlieferte Dichtungstheorie ist daher primär eine Tragödientheorie.
Tragödie
Aristoteles definiert die Tragödie als eine
Dieser kurze Satz ist eine der meistdiskutierten Passagen im gesamten Werk des Aristoteles. (3) nennt das dramatisch-darstellende Element. (1) nennt (neben oben schon genannten Aspekten) die (später sogenannte) Einheit der Handlung. Die Einheit des Ortes und der Zeit wurde in der Renaissance der aristotelischen Tragödientheorie zugeschrieben, er vertrat sie aber selbst so nicht. (2) bezieht sich darauf, dass die Sprache der Tragödie Melodie und Rhythmus aufweist. Die weitaus meiste Aufmerksamkeit hat (4) erhalten, insbesondere (4b).
Emotionserregung und Katharsis
In (4) beschreibt Aristoteles die Funktion der Tragödie, das was sie leisten soll. Weitgehend unumstritten ist nur
(4a): Beim Zuschauer sollen durch die dargestellte Handlung die Emotionen Mitleid und Furcht erregt werden. Unklar ist allerdings, ob eleos und phobos tatsächlich mit „Mitleid“ und „Furcht“ oder mit „Elementareffekten“ „Jammer“ und „Schauder“ wiederzugeben sind. Dass die Handlung selbst und nicht die Aufführung die entscheidende Rolle bei der Emotionserregung spielt, ist daraus ersichtlich, dass Aristoteles auch die gelesene Tragödie durch seine Theorie berücksichtigt sieht. Mitleid wird erregt, wenn die Protagonisten unverdient Unglück erleiden, Furcht, wenn sie dabei dem Zuschauer (oder Leser) ähnlich sind.
(4b) ist höchst kontrovers, da die Funktionsweise nicht weiter erläutert ist. Das Wort Katharsis, das als Metapher (wie „Reinigung“ im Deutschen) einen Sinnüberschuss aufweist, hat zu den verschiedensten Deutungen Anlass gegeben, insbesondere weil es schon vor Aristoteles verwendet wurde, nämlich unter anderem in der Medizin (Reinigung durch Brech- und Abführmittel) und in religiösen Kulten (Reinigung von unreinen Personen durch religiöse Praktiken). Die grammatikalische Konstruktion Reinigung der Emotionen lässt dabei verschiedene Deutungen zu, worin die Reinigung besteht. Vermutlich sollen die Emotionen selbst (durch eine Emotionserregung) gereinigt werden; die Aussage ist aber auch als Reinigung von den Emotionen verstanden worden.
Der normativ-deskriptive Charakter der Tragödientheorie
Aristoteles’ Tragödientheorie weist zwei Typen von Aussagen auf. Zum einen untersucht er die Grundlagen der Dichtung, unterscheidet verschiedene Arten von ihr und nennt Teile einer Tragödie und deren Funktionsweise. Zum anderen spricht er aber auch davon, was eine gute Tragödie ist und was der Dichter entsprechend machen soll. So äußert er etwa, dass in einer guten Tragödie ein Protagonist weder aufgrund seines guten noch seines schlechten Charakters vom Glück ins Unglück gerät, sondern aufgrund eines Fehlers (Hamartie), beispielsweise wie Ödipus aufgrund von Unwissenheit. Nur eine schlechte Tragödie würde zeigen, wie ein guter Charakter vom Glück ins Unglück oder ein schlechter vom Unglück ins Glück gerät. Der Grund hierfür ist die Funktion der Tragödie, das Bewirken von Mitleid und Furcht. In schlechten Tragödien würden Mitleid und Furcht nicht erregt werden, in guten ist dies aufgrund der Beschaffenheit des Protagonisten und des Fehlers als Ursache des Unglücks der Fall (Poet. 13, 1452b28–1453a12).
Hymnos
Von Aristoteles ist zudem ein Hymnos an Aretê überliefert, den er in Erinnerung an seinen Freund Hermias verfasst hat.
Rezeption
Antike
Die Lehre des Aristoteles hat auf seine Schule, den Peripatos, nach seinem Tode weit weniger Einfluss ausgeübt als Platons Lehre auf dessen Akademie. Aristoteles wurde keine Verehrung zuteil, die mit derjenigen Platons bei den Platonikern vergleichbar wäre. Dies bedeutete einerseits Offenheit und Flexibilität, andererseits Mangel an inhaltlich begründetem Zusammenhalt. Die Peripatetiker widmeten sich vor allem empirischer Naturforschung, aber unter anderem auch der Ethik, Seelenlehre und Staatstheorie. Dabei kamen Aristoteles’ Schüler Theophrastos, sein Nachfolger als Leiter der Schule, und dessen Nachfolger Straton zu teilweise anderen Ergebnissen als der Schulgründer. Nach Stratons Tod (270/268 v. Chr.) begann eine Periode des Niedergangs.
Das Studium und die Kommentierung der Schriften des Aristoteles wurde damals im Peripatos anscheinend vernachlässigt, jedenfalls weit weniger eifrig betrieben als das Platonstudium in der konkurrierenden Akademie. Erst im ersten Jahrhundert v. Chr. sorgte Andronikos von Rhodos für eine Zusammenstellung der Lehrschriften (Pragmatien) des Aristoteles, und auch bei deren Auslegung durch die Peripatetiker kam es zu einem Aufschwung. Die für die Öffentlichkeit bestimmten „exoterischen“ Schriften, insbesondere die Dialoge, waren lange populär, gingen aber in der römischen Kaiserzeit verloren. Cicero hat sie noch gekannt. Die Peripatetiker betrachteten die Lehrschriften als speziell für ihren internen Unterrichtsgebrauch bestimmt. In der römischen Kaiserzeit war der einflussreichste Repräsentant des Aristotelismus Alexander von Aphrodisias, der gegen die Platoniker die Sterblichkeit der Seele vertrat.
Obwohl Aristoteles großen Wert auf die Widerlegung von Kernbestandteilen des Platonismus gelegt hatte, waren es gerade die Neuplatoniker, die in der Spätantike einen maßgeblichen Beitrag zur Erhaltung und Verbreitung seiner Hinterlassenschaft leisteten, indem sie seine Logik übernahmen, kommentierten und in ihr System integrierten. Eine besonders wichtige Rolle spielten dabei im 3. Jahrhundert n. Chr. Porphyrios, im 5. Jahrhundert Proklos, Ammonios Hermeiou (der in Alexandria die Tradition der Aristoteles-Kommentierung begründete) und im 6. Jahrhundert Simplikios, der bedeutende Aristoteleskommentare verfasste. Im 4. Jahrhundert schrieb Themistios Paraphrasen zu Werken des Aristoteles, die eine starke Nachwirkung erzielten. Er war unter den spätantiken Kommentatoren der einzige (wenn auch neuplatonisch beeinflusste) Aristoteliker; die anderen befassten sich mit dem Aristotelismus aus neuplatonischer Perspektive und strebten eine Synthese platonischer und aristotelischer Auffassungen an, wobei oft ein Übergewicht der platonischen erkennbar ist. Noch zu Beginn des 7. Jahrhunderts kommentierte der angesehene, in Konstantinopel lehrende christliche Philosoph Stephanos von Alexandria Werke des Aristoteles.
Bei den prominenten antiken Kirchenvätern war Aristoteles wenig bekannt und unbeliebt, manche verachteten und verspotteten seine Dialektik. Sie verübelten ihm, dass er das Universum für ungeschaffen und unvergänglich hielt und die Unsterblichkeit der Seele bezweifelte (oder nach ihrem Verständnis bestritt). Ein positiveres Verhältnis zu Aristoteles hatten hingegen manche christliche Gnostiker und andere häretische Christen: Arianer (Aëtios von Antiochia, Eunomius), Monophysiten, Pelagianer und Nestorianer – ein Umstand, der den Philosophen für die kirchlichen Autoren erst recht suspekt machte. Syrer – monophysitische wie nestorianische – übersetzten das Organon in ihre Sprache und setzten sich intensiv damit auseinander. Im 6. Jahrhundert schrieb Johannes Philoponos Aristoteles-Kommentare, übte aber auch scharfe Kritik an der aristotelischen Kosmologie und Physik. Er war mit seiner Impetustheorie ein Vorläufer spätmittelalterlicher und frühneuzeitlicher Kritik an der aristotelischen Bewegungslehre.
Mittelalter
Im Byzantinischen Reich des Frühmittelalters wurde Aristoteles wenig beachtet. Sein Einfluss machte sich vorwiegend indirekt geltend, nämlich über die meist neuplatonisch gesinnten spätantiken Autoren, die Teile seiner Lehre übernommen hatten. Daher war Vermischung mit neuplatonischem Gedankengut von vornherein gegeben. Bei Johannes von Damaskus tritt die aristotelische Komponente deutlich hervor. Im 11. und 12. Jahrhundert kam es zu einer Wiederbelebung des Interesses an aristotelischer Philosophie: Michael Psellos, Johannes Italos und dessen Schüler Eustratios von Nikaia (beide wegen Häresie verurteilt) sowie der primär philologisch orientierte Michael von Ephesos schrieben Kommentare. Die Kaisertochter Anna Komnena förderte diese Bestrebungen.
Im islamischen Raum dagegen setzte die Wirkung der Werke des Aristoteles früh ein und war breiter und tiefer als in der Spätantike und im europäischen Früh- und Hochmittelalter. Der Aristotelismus dominierte qualitativ und quantitativ gegenüber der übrigen antiken Tradition. Schon im 9. Jahrhundert waren die meisten Werke des Aristoteles, häufig durch vorangehende Übersetzung ins Syrische vermittelt (der erste syrische Aristoteleskommentator war Sergios von Resaina), in arabischer Sprache verfügbar, ebenso antike Kommentare. Hinzu kam ein reichhaltiges unechtes (pseudo-aristotelisches) Schrifttum teilweise neuplatonischen Inhalts, darunter Schriften wie die Theologie des Aristoteles und der Kalam fi mahd al-khair (Liber de causis). Die aristotelischen Ideen waren von Anfang an mit neuplatonischen vermischt, und man glaubte an eine Übereinstimmung der Lehren Platons und des Aristoteles. In diesem Sinne deuteten al-Kindī (9. Jahrhundert) und al-Fārābī (10. Jahrhundert) und die ihnen folgende spätere Tradition den Aristotelismus; bei ibn Sina (Avicenna) trat das neuplatonische Element stärker in den Vordergrund. Einen relativ reinen Aristotelismus vertrat hingegen im 12. Jahrhundert ibn Rušd (Averroes), der zahlreiche Kommentare schrieb und die aristotelische Philosophie gegen al-Ghazālī verteidigte. Muslimische Gelehrte des Mittelalters bezeichneten Aristoteles oft als den „Ersten Lehrer“. Der Titel „Lehrer“ wurde Aristoteles zuerst von muslimischen Gelehrten verliehen und später von westlichen Philosophen verwendet (wie in dem berühmten Gedicht von Dante), die von der Tradition der islamischen Philosophie beeinflusst waren.
Im lateinischen Mittelalter war zunächst bis ins 12. Jahrhundert nur ein kleiner Teil des Gesamtwerks des Aristoteles verbreitet, nämlich zwei der logischen Schriften (Kategorien und De interpretatione), die Boethius im frühen 6. Jahrhundert übersetzt und kommentiert hatte, zusammen mit der Einleitung des Porphyrios zur Kategorienlehre. Dieses Schrifttum, später als Logica vetus bezeichnet, bildete die Grundlage des Logikunterrichts. Mit der großen Übersetzungsbewegung des 12. und 13. Jahrhunderts änderte sich diese enge Begrenzung. Im 12. Jahrhundert wurden die bisher fehlenden logischen Schriften (Analytica priora und posteriora, Topik, Sophistische Widerlegungen) in lateinischer Sprache verfügbar; sie machten die Logica nova aus. Dann wurden eines nach dem anderen fast alle restlichen Werke zugänglich (teils erst im 13. Jahrhundert). Die meisten Schriften wurden mehrmals ins Lateinische übertragen (entweder aus dem Arabischen oder aus dem Griechischen). Michael Scotus übersetzte Aristoteleskommentare des Averroes aus dem Arabischen. Sie wurden eifrig benutzt, was in der zweiten Hälfte des 13. Jahrhunderts zur Entstehung des lateinischen Averroismus führte, der ein für damalige Verhältnisse relativ konsequenter Aristotelismus war.
Im Lauf des 13. Jahrhunderts wurden die Schriften des Aristoteles als Standardlehrbücher zur Grundlage der an den Universitäten (in der Fakultät der Freien Künste) betriebenen scholastischen Wissenschaft; 1255 wurden seine Logik, Naturphilosophie und Ethik an dieser Fakultät der Pariser Universität als Lehrstoff vorgeschrieben. Die Führungsrolle kam der Pariser und der Oxforder Universität zu. Wegweisend waren die Aristoteleskommentare des Albertus Magnus. Das Verfassen von Aristoteleskommentaren wurde eine Hauptbeschäftigung der Magister, und viele von ihnen hielten die kommentierten Lehrbücher für irrtumsfrei. Besonders intensiv studierte man neben der aristotelischen Methodik die Wissenschaftstheorie, um sie als Basis für ein hierarchisch geordnetes System der Wissenschaften zu verwenden.
Widerstand erhob sich allerdings von theologischer Seite gegen einzelne Lehren, vor allem gegen die Thesen von der Ewigkeit der Welt und der absoluten Gültigkeit der Naturgesetze (Ausschluss von Wundern), sowie gegen den Averroismus. Daher kam es 1210, 1215, 1231, 1245, 1270 und 1277 zu kirchlichen Verurteilungen von Lehrsätzen und zu Aristotelesverboten. Sie richteten sich aber nur gegen die naturphilosophischen Schriften oder gegen einzelne Thesen und konnten den Siegeszug des Aristotelismus nur vorübergehend hemmen. Diese Verbote betrafen nur Frankreich (vor allem Paris), in Oxford galten sie nicht. Aristoteles wurde „der Philosoph“ schlechthin: mit Philosophus (ohne Zusatz) war immer nur er gemeint, mit Commentator Averroes. Gegenpositionen (vor allem in der Erkenntnistheorie und Anthropologie) vertraten Anhänger der platonisch beeinflussten Lehren des Augustinus, besonders Franziskaner („Franziskanerschule“). Ein prominenter Kritiker des Aristotelismus war der Franziskaner Bonaventura. Ein anderer Franziskaner, Petrus Johannis Olivi, stellte um 1280 missbilligend fest: „Man glaubt ihm (Aristoteles) ohne Grund – wie einem Gott dieser Zeit.“ Schließlich setzte sich das von dem Dominikaner Thomas von Aquin abgewandelte und weiterentwickelte aristotelische Lehrsystem (Thomismus) durch, zunächst in seinem Orden und später in der gesamten Kirche.
Allerdings schrieb man weiterhin neuplatonische Schriften zu Unrecht dem Aristoteles zu, wodurch das Gesamtbild seiner Philosophie verfälscht wurde. Dante würdigte in seiner Göttlichen Komödie Bedeutung und Ansehen des Aristoteles, indem er ihn als „Meister“ darstellte, der von den anderen antiken Philosophen bewundert und geehrt wird; jedoch verwarf Dante manche aristotelische Lehren.
Die Politik des Aristoteles wurde erst um 1260 von Wilhelm von Moerbeke ins Lateinische übersetzt und dann von Thomas von Aquin und anderen Scholastikern kommentiert und zitiert. Besonders die Rechtfertigung der Sklaverei bzw. Knechtschaft stieß bei den Gelehrten auf Interesse und grundsätzliche Zustimmung. Die Politik regte Kommentatoren und Verfasser politischer Traktate zu Erörterungen über Vor- und Nachteile von Erb- bzw. Wahlmonarchie sowie von absoluter bzw. ans Gesetz gebundener Herrschaft an.
In der Epoche des Übergangs vom Spätmittelalter zur Frühen Neuzeit setzte sich Nikolaus von Kues kritisch mit Aristoteles auseinander. Er stellte sich Aristoteles als fiktiven Gesprächspartner vor, dem man die Berechtigung der cusanischen Lehre von der Coincidentia oppositorum einsichtig machen könnte, obwohl Aristoteles sie nach seinem Satz vom Widerspruch hätte verwerfen müssen.
Neuzeit
In der Renaissance fertigten Humanisten neue, viel leichter lesbare Aristotelesübersetzungen ins Lateinische an, weshalb man weniger auf die Kommentare angewiesen war. Bedeutend sind u. a. die Übersetzungen der Nikomachischen Ethik und der Politik durch Leonardo Bruni. Man begann aber auch, die griechischen Originaltexte zu lesen. Es kam zu heftigem Streit zwischen Platonikern und Aristotelikern, wobei die beteiligten Humanisten mehrheitlich zu Platon neigten. Es gab in der Renaissance aber auch bedeutende Aristoteliker wie Pietro Pomponazzi (1462–1525) und Jacopo Zabarella (1533–1589), und es entstanden damals im Abendland mehr Aristoteleskommentare als während des gesamten Mittelalters. Wie im Mittelalter herrschte auch noch bei vielen Renaissance-Gelehrten das Bestreben vor, platonische und aristotelische Standpunkte untereinander und mit der katholischen Theologie und Anthropologie zu versöhnen. Seit dem 15. Jahrhundert war es aber möglich, dank des besseren Zugangs zu den Quellen das Ausmaß der fundamentalen Gegensätze zwischen Platonismus, Aristotelismus und Katholizismus besser zu verstehen. Bei der Vermittlung dieser Erkenntnisse spielte der byzantinische Philosoph Georgios Gemistos Plethon eine wichtige Rolle. Unabhängig davon herrschte der (neu)scholastische Aristotelismus, der die mittelalterliche Tradition fortsetzte, mit seiner Methode und Terminologie an Schulen und Universitäten noch bis tief in die Neuzeit, auch in den lutherischen Gebieten, obwohl Martin Luther den Aristotelismus ablehnte.
Im sechzehnten Jahrhundert unternahmen Bernardino Telesio und Giordano Bruno Frontalangriffe auf den Aristotelismus, und Petrus Ramus trat für eine nichtaristotelische Logik ein (Ramismus). Bereits Giovanni Battista Benedetti (1530–1590) widerlegte 1554 in seinem Werk Demonstratio proportionum motuum localium contra Aristotilem et omnes philosophos in einem simplen Gedankenexperiment die aristotelische Annahme, dass Körper im freien Fall umso schneller fallen, je schwerer sie sind: Zwei gleiche Kugeln, die durch eine (masselose) Stange fest verbunden werden, fallen mit derselben Geschwindigkeit wie jede der beiden Kugeln allein.
Aber erst seit dem 17. Jahrhundert verdrängte ein neues Wissenschaftsverständnis die aristotelisch-scholastische Tradition. Den Umschwung in der Physik leitete Galileo Galilei ein. 1647 konnte die von Aristoteles aufgestellte Hypothese eines Horror Vacui von Blaise Pascal mit dem Versuch Leere in der Leere widerlegt werden. Erst in der 1687 veröffentlichten Schrift Philosophiæ Naturalis Principia Mathematica von Isaac Newton wurde mit dem Trägheitsprinzip ein Fundament der neuen klassischen Mechanik errichtet, das die aristotelischen Annahmen ersetzte.
In der Biologie konnten sich aristotelische Auffassungen bis ins 18. Jahrhundert halten. Sie erwiesen sich teilweise als fruchtbar. So ging William Harvey bei der Entdeckung des Blutkreislaufs von dem Prinzip des Aristoteles aus, dass die Natur nichts Unnötiges hervorbringt, und wendete es auf die Beschaffenheit der Blutgefäße und Herzkammern, von denen Aristoteles fälschlich drei annahm, an. Charles Darwin bezeichnete 1879 Aristoteles als „einen der größten Beobachter (wenn nicht den größten), die jemals gelebt haben“.
Sehr stark und anhaltend war die Nachwirkung von Aristoteles’ Poetik, insbesondere seiner Tragödientheorie (→ Regeldrama). Sie prägte Theorie und Praxis des Theaters während der gesamten Frühen Neuzeit, abgesehen von manchen gewichtigen Ausnahmen besonders in Spanien und England (Shakespeare). Die Poetik lag seit 1278 in lateinischer Übersetzung vor, 1498 und 1536 erschienen humanistische Übersetzungen. Auf ihr fußte die Poetik des Julius Caesar Scaliger (1561), die Dichtungslehre von Martin Opitz (1624), die französische Theaterlehre des 17. Jahrhunderts (doctrine classique) und schließlich die von Johann Christoph Gottsched geforderte Regelkunst (Critische Dichtkunst, 1730).
Im 19. Jahrhundert setzte insbesondere in Deutschland die intensive philologische Auseinandersetzung mit dem Werk des Aristoteles ein. 1831 erschien die von der Preußischen Akademie der Wissenschaften in Auftrag gegebene und durch Immanuel Bekker besorgte Gesamtausgabe. Hermann Bonitz verfasste zahlreiche Übersetzungen und den noch heute maßgeblichen Index Aristotelicus. Ende des 19. Jahrhunderts wurde unter der Leitung von Hermann Diels ebenfalls in der in Berlin ansässigen Akademie die 15.000 Seiten umfassende Ausgabe der antiken griechischen Aristoteles-Kommentare (Commentaria in Aristotelem Graeca) veröffentlicht.
Infolge der intensiven philologischen Auseinandersetzung wurde Anfang des 20. Jahrhunderts das lange vorherrschende Bild, das Corpus Aristotelicum sei ein als Ganzes komponiertes philosophisches System, vor allem von Werner Jaeger revidiert. Die moderne Aristotelesforschung wurde in der ersten Hälfte des 20. Jahrhunderts neben Jaeger vor allem von William David Ross in Oxford bestimmt; zahlreiche Schüler sorgten für eine zunehmende Beschäftigung mit Aristoteles nicht nur in den philologischen, sondern auch den philosophischen Abteilungen angelsächsischer Universitäten, die bis heute anhält.
Martin Heideggers Seinsanalyse der Fundamentalontologie geschah in intensiver Auseinandersetzung mit Aristoteles, was auch für Schüler wie Hans-Georg Gadamer gilt. Den größten Einfluss hatte Aristoteles im 20. Jahrhundert in der Ethik (Tugendethik) und der politischen Philosophie (in Deutschland insbesondere in der Schule um Joachim Ritter, im angelsächsischen Raum im Kommunitarismus). In der zweiten Hälfte des 20. Jahrhunderts griff die zuvor metaphysikkritische analytische Philosophie Aristoteles’ Substanztheorie explizit (etwa David Wiggins: Sameness and Substance, die Vier-Kategorien-Ontologie von E. J. Lowe oder die Ontologie von Barry Smith) oder seinen Essentialismus implizit auf (z. B. Kripke).
Nach ihm ist der Mondkrater Aristoteles benannt. Gleiches gilt seit 1995 für den Asteroiden (6123) Aristoteles und seit 2012 für die Aristotle Mountains im Grahamland auf der Antarktischen Halbinsel.
Siehe auch
Aristoteles-Archiv
Symposium Aristotelicum
Textausgaben und Übersetzungen (Auswahl)
Sammlungen
Diverse Herausgeber in der Reihe Oxford Classical Texts (OCT) bei Oxford University Press
Diverse Herausgeber und Übersetzer in der Reihe Loeb Classical Library (LCL) bei Harvard University Press (griechischer Text mit englischer Übersetzung)
Ernst Grumach, Hellmut Flashar (Hrsg.): Aristoteles, Werke in deutscher Übersetzung. 20 Bände, Akademie Verlag, Berlin 1956 ff. (mit extensivem und in der Regel sehr gutem Kommentar)
Jonathan Barnes (Hrsg.): The Complete Works of Aristotle. The revised Oxford translation. 2 Bände. Princeton (New Jersey) 1984, 6. Auflage 1995, ISBN 0-691-09950-2 (Sammlung der maßgeblichen englischen Übersetzungen)
Aristoteles: Philosophische Schriften in sechs Bänden. Felix Meiner, Hamburg 1995, ISBN 3-7873-1243-9 (Übersetzungen; diverse Übersetzer)
Immanuel Bekker (Hrsg.): Aristotelis opera. 2. Auflage. besorgt von Olof Gigon. De Gruyter, Berlin 1960–1987
Band 1. 1960 (Nachdruck der Ausgabe von 1831 mit Verzeichnis neuerer Einzelausgaben). Ausgabe von 1831 online
Band 2. 1960 (Nachdruck der Ausgabe von 1831 mit Verzeichnis neuerer Einzelausgaben). Ausgabe von 1831 online
Band 3. Librorum deperditorum fragmenta, hrsg. von Olof Gigon, 1987, ISBN 3-11-002332-6.
Band 4. Scholia in Aristotelem, hrsg. von Christian August Brandis; Supplementum scholiorum, hrsg. von Hermann Usener; Vita Marciana, hrsg. von Olof Gigon, 1961 (Nachdruck der Scholia-Ausgabe von 1836 und der Supplementum-Ausgabe von 1870; Vita Marciana als Neuausgabe). Ausgabe der Scholia von 1836 online
Band 5. Index Aristotelicus, hrsg. von Hermann Bonitz, 2. Auflage besorgt von Olof Gigon, 1961
Einzelausgaben
Literatur
Der historische Aristoteles
Biographie
Carlo Natali: Aristotle. His Life and School. Princeton University Press, Princeton/Oxford 2013, ISBN 978-0-691-09653-7.
Einführungen
John Lloyd Ackrill: Aristoteles. Eine Einführung in sein Philosophieren. De Gruyter, Berlin 1985, ISBN 3-11-008915-7 (knappe Einführung vor allem in die theoretische Philosophie)
Jonathan Barnes: Aristoteles. Eine Einführung. Reclam, Stuttgart 1999 [1982], ISBN 3-15-008773-2 (knappe Einführung; Biographisches und Naturwissenschaftliches relativ ausführlich, wenig zur praktischen Philosophie)
Thomas Buchheim: Aristoteles. Herder, Freiburg i. Br. 1999, ISBN 3-451-04764-0 (Einführung mit Schwerpunkt auf dem Organon, der Naturphilosophie und Metaphysik; wenig praktische Philosophie, keine Rezeption; kommentierte Bibliografie)
Wolfgang Detel: Aristoteles. Reclam, Leipzig 2005, ISBN 3-379-20301-7 (Einführung mit hohem systematischem Anspruch, insbesondere zu Wissenschaftstheorie und Metaphysik; Kapitel zum Neoaristotelismus des 20. Jahrhunderts)
Otfried Höffe: Aristoteles. 3. Auflage. Beck, München 2006, ISBN 3-406-54125-9 (Biographisches, praktische Philosophie und Rezeption ausführlich; Bezüge zu anderen Epochen, insbesondere der Neuzeit).
Christian Mueller-Goldingen: Aristoteles. Eine Einführung in sein philosophisches Werk (= Olms Studienbücher Antike. Band 11). Olms, Hildesheim 2003, ISBN 3-487-11795-9.
Christof Rapp: Aristoteles zur Einführung. 4. Auflage. Junius, Hamburg 2012, ISBN 978-3-88506-690-3 (singuläre Darstellung der Handlungstheorie, der Semantik, Dialektik und Rhetorik sowie Ontologie; nichts zur Person; hilfreiche, thematisch gegliederte Bibliografie)
Christopher Shields: Aristotle. Routledge, New York 2007, ISBN 978-0-415-28332-8 (umfangreiche thematisch gegliederte Einführung; Review)
Wolfgang Welsch: Der Philosoph: Die Gedankenwelt des Aristoteles. Fink (Wilhelm), München 2012, ISBN 978-3-7705-5382-2.
Gesamtdarstellungen
Ingemar Düring: Aristoteles. Darstellung und Interpretation seines Denkens. Winter, Heidelberg 1966
Hellmut Flashar: Aristoteles. (= Ders., Hrsg., Grundriss der Geschichte der Philosophie. Die Philosophie der Antike. Band 3: Ältere Akademie, Aristoteles, Peripatos.) 2. Auflage. Schwabe, Basel 2004, ISBN 3-7965-1998-9, S. 167–492.
Hellmut Flashar: Aristoteles: Lehrer des Abendlandes. Beck, München 2013, ISBN 978-3-406-64506-8.
William K. C. Guthrie: A History of Greek Philosophy. Band 6: Aristotle. An Encounter. Cambridge University Press, Cambridge 1981, ISBN 0-521-23573-1 (sehr gut lesbar, aber nichts zur Logik)
John M. Rist: The Mind of Aristotle: A Study in Philosophical Growth. University of Toronto Press, Toronto 1989, ISBN 0-8020-2692-3 (behandelt die Entwicklung von Aristoteles’ Denken)
William David Ross: Aristotle. 1956; 6. Auflage. Routledge, London 1995, ISBN 0-415-32857-8 (solide und ausführliche Darstellung, besonders für Naturphilosophie und Biologie wertvoll)
Kompendien
Georgios H. Anagnostopoulos (Hrsg.): A Companion to Aristotle. Wiley-Blackwell, Malden 2009, ISBN 978-1-4051-2223-8.
Jonathan Barnes (Hrsg.): The Cambridge Companion to Aristotle. Cambridge University Press, Cambridge 1995, ISBN 0-521-41133-5 (gute Einführung mit einer umfangreichen, thematisch gegliederten Bibliografie)
Christof Rapp, Klaus Corcilius (Hrsg.): Aristoteles-Handbuch. Leben – Werk – Wirkung. Metzler, Stuttgart/Weimar 2011, ISBN 978-3-476-02190-8.
Hilfsmittel
Ferdinand Edward Cranz (Hrsg.): A Bibliography of Aristotle Editions 1501–1600. Baden-Baden 1971.
Otfried Höffe (Hrsg.): Aristoteles-Lexikon (= Kröners Taschenausgabe. Band 459). Kröner, Stuttgart 2005, ISBN 3-520-45901-9 (Rezension)
Zeitschrift
Aristotelica 1, 2022ff. (hrsg. von Silvia Fazzo und Jill Kraye)
Rezeption
Übersichts- und Gesamtdarstellungen
Olof Gigon u. a.: Aristoteles/Aristotelismus. In: Theologische Realenzyklopädie. Band 3, De Gruyter, Berlin 1978, ISBN 3-11-007462-1, S. 726–796, hier: 760–796.
François Queyrel u. a.: Aristote de Stagire. In: Richard Goulet (Hrsg.): Dictionnaire des philosophes antiques. Band Supplément, CNRS Éditions, Paris 2003, ISBN 2-271-06175-X, S. 109–654.
Epochenübergreifende Untersuchungen zu einzelnen Themen
Christoph Horn, Ada Neschke-Hentschke (Hrsg.): Politischer Aristotelismus. Die Rezeption der aristotelischen Politik von der Antike bis zum 19. Jahrhundert. Metzler, Stuttgart 2008, ISBN 978-3-476-02078-9.
Joachim Knape, Thomas Schirren (Hrsg.): Aristotelische Rhetorik-Tradition. Franz Steiner, Stuttgart 2005, ISBN 3-515-08595-5.
Cees Leijenhorst u. a. (Hrsg.): The Dynamics of Aristotelian Natural Philosophy from Antiquity to the Seventeenth Century (= Medieval and Early Modern Science. Band 5). Brill, Leiden 2002, ISBN 90-04-12240-0.
Jürgen Wiesner (Hrsg.): Aristoteles. Werk und Wirkung. Band 2: Kommentierung, Überlieferung, Nachleben. De Gruyter, Berlin 1987, ISBN 3-11-010976-X.
Antike
Andrea Falcon (Hrsg.): Brill’s Companion to the Reception of Aristotle in Antiquity (= Brill’s Companions to Classical Reception. Band 7). Brill, Leiden 2016, ISBN 978-90-04-26647-6.
Paul Moraux: Der Aristotelismus bei den Griechen. 3 Bände. De Gruyter, Berlin 1973–2001.
Richard Sorabji (Hrsg.): Aristotle Transformed. The Ancient Commentators and Their Influence. 2., überarbeitete Auflage. Bloomsbury, London 2016, ISBN 978-1-4725-8907-1.
Mittelalter
Edward Grant: Das physikalische Weltbild des Mittelalters. Artemis, Zürich 1980, ISBN 3-7608-0538-8.
Volker Honemann: Aristoteles. In: Die deutsche Literatur des Mittelalters. Verfasserlexikon. 2., neu bearbeitete Auflage. Band 1. De Gruyter, Berlin 1978, ISBN 3-11-007264-5, Sp. 436–450.
Ludger Honnefelder u. a. (Hrsg.): Albertus Magnus und die Anfänge der Aristoteles-Rezeption im lateinischen Mittelalter. Aschendorff, Münster 2005, ISBN 3-402-03993-1.
Neuzeit
Charles B. Schmitt: Aristotle among the physicians. In: A. Wear, R. K. French, I. M. Lonie (Hrsg.): The medical renaissance of the sixteenth century. Cambridge 1985, S. 1–15 und 271–279.
Fritz Mauthner: Aristoteles: Ein unhistorischer Essay. Berlin, 1904 (Die Literatur. Sammlung illustrierter Einzeldarstellungen, hg. v. Georg Brandes, 2. Band)
Thomas Buchheim, Hellmut Flashar, Richard King (Hrsg.): Kann man heute noch etwas anfangen mit Aristoteles? Meiner, Hamburg 2003, ISBN 3-7873-1630-2.
Weblinks
Über Aristoteles
Stanford Encyclopedia of Philosophy:
Internet Encyclopedia of Philosophy:
nach Themenfeldern (PDF-Datei; 38 kB)
Texte von Aristoteles
Texte (griechisch/englisch) im Perseus Project
Texte von Aristoteles (englisch) (MIT Classics)
Anmerkungen
Philosoph (Antike)
Moralphilosoph
Erkenntnistheoretiker
Logiker
Naturphilosoph
Physiker (vor dem 15. Jahrhundert)
Sprachphilosoph
Ästhetiker
Universalgelehrter
Politischer Philosoph
Metaphysik
Zoologe
Namensgeber für eine Universität
Person als Namensgeber für einen Asteroiden
Person als Namensgeber für einen Mondkrater
Namensgeber für eine Pflanzengattung
Grieche (Antike)
Geboren 384 v. Chr.
Gestorben 322 v. Chr.
Mann
Kosmologe der Antike
|
Q868
| 1,782.050003 |
386234
|
https://de.wikipedia.org/wiki/Zhengzhou
|
Zhengzhou
|
Zhengzhou, nach Stange Tschengtschau Schi (, kurz ), ist die Hauptstadt der Provinz Henan in der Volksrepublik China. Zhengzhou ist eine bezirksfreie Stadt mit einem Verwaltungsgebiet von 7.533 km² und 12.600.574 Einwohnern (Stand: Zensus 2020). Die engere Kernstadt beherbergt auf ihren rund 500 km² 4.459.300 Einwohner (Stand: Ende 2018). Ihr Zentrum liegt ca. 20 Kilometer südlich des Gelben Flusses (Huáng Hé). Zhengzhou ist eine bedeutende Industriestadt (Baumwoll-, Glas-, Aluminiumindustrie, Maschinenbau), sie ist ein überregionaler Verkehrsknotenpunkt (Eisenbahn, Flughafen), ein Handels-, Finanz- und Informationszentrum, eine Messestadt und kultureller Mittelpunkt mit einem großen Einzugsgebiet.
Administrative Gliederung
Auf Kreisebene setzt sich Zhengzhou aus sechs Stadtbezirken, einem Kreis und fünf kreisfreien Städten zusammen. Diese sind (Stand: Ende 2018):
Stadtbezirk Zhongyuan (), 197 km², 1.080.900 Einwohner, Zentrum, Sitz der Stadtregierung;
Stadtbezirk Erqi (), 154 km², 838.100 Einwohner;
Stadtbezirk Guancheng der Hui (), 197 km², 835.700 Einwohner;
Stadtbezirk Jinshui (), 240 km², 1.764.700 Einwohner;
Stadtbezirk Shangjie (), 60 km², 144.000 Einwohner;
Stadtbezirk Huiji (), 227 km², 303.500 Einwohner;
Kreis Zhongmu (), 1.397 km², 1.161.600 Einwohner, Hauptort: Großgemeinde Chengguan (城关镇);
Stadt Xinzheng (), 887 km², 989.900 Einwohner;
Stadt Dengfeng (), 1.211 km², 717.400 Einwohner;
Stadt Xinmi (), 998 km², 813.100 Einwohner;
Stadt Gongyi (), 1.052 km², 838.300 Einwohner;
Stadt Xingyang (), 912 km², 648.700 Einwohner.
Geschichte
Archäologen entdeckten auf dem Grundgebiet von Zhengzhou eine Stadt aus der Bronzezeit (16. Jahrhundert v. Chr.). Es war eine befestigte Stadt der Shang-Dynastie. Die Shangzeitliche Stätte von Zhengzhou steht seit 1961 auf der Liste der Denkmäler der Volksrepublik China.
Die Stadt und ihre Umgebung hatten während des Zweiten Japanisch-Chinesischen Krieges zwischen 1937 und 1945 sehr zu leiden. Die Guomindang-Regierung beschloss 1938, die Deiche des Gelben Flusses zu sprengen, um die japanischen Truppen aufzuhalten.
Die Sprengungen setzten ein Gebiet von 54.000 km² unter Wasser. Fast eine Million Menschen ertranken, und zwölf Millionen Menschen starben später durch Hunger und Krankheiten.
Am 17. Juli 2021 begann in der Region Henan durch starken Dauerregen ein Hochwasser, das am 20. Juli seinen höchsten Stand erreichte (→ Hochwasser in Henan 2021). Laut ersten Schätzungen könnte es Sachschäden von bis zu 10 Milliarden US-Dollar verursacht haben; mindestens 380 Menschen starben.
Bevölkerungsentwicklung der Agglomeration laut UN
Politik und Verwaltung
Städtepartnerschaften
Zhengzhou unterhält folgende Städtepartnerschaften:
Wirtschaft und Verkehr
Laut einer Studie aus dem Jahr 2014 erwirtschafte Zhengzhou ein Bruttoinlandsprodukt von 155,7 Milliarden US-Dollar in Kaufkraftparität. In der Rangliste der wirtschaftsstärksten Metropolregionen weltweit belegte die Stadt damit den 85. Platz. Das BIP pro Kopf liegt bei 14.907 US-Dollar (KKP). In der Stadt waren 2 Millionen Arbeitskräfte beschäftigt. Mit 8,9 % jährlich im Zeitraum von 2009 bis 2014 wuchs das BIP pro Kopf schnell.
1954 wurde Zhengzhou Hauptstadt der Provinz Henan; 1956 wurde die Zhengzhou-Universität gegründet. Das führte zu einem explosiven Wachstum der Stadt. Zhengzhou liegt mitten in einem großen Gebiet mit ausgedehnten Baumwollfeldern und wurde deswegen zum Zentrum der Textilindustrie Chinas.
Die Provinzhauptstadt ist ein bedeutender Verkehrsknotenpunkt in Mittelostchina, einem Gebiet von einigen hundert Millionen Einwohnern. Dank des Baus der Eisenbahnlinie Peking-Guangzhou und der später hinzugefügten Verbindungsstrecke Shanghai-Xi’an-Ürümqi erfuhr die Stadt eine rasante Entwicklung. Seit 2010 ist Zhengzhou an die Schnellfahrstrecke Xuzhou–Lanzhou angebunden, auf der Geschwindigkeiten von bis zu 350 km/h zugelassen sind. Diese Schnellfahrstrecke ist eine der vier Ost-West-Magistralen des chinesischen Hochgeschwindigkeitsprogramms. Mit der Schnellfahrstrecke Peking–Guangzhou ist Zhengzhou seit 2012 auch an eine Nord-Süd-Magistrale angeschlossen, die mit 380 km/h befahren werden kann. Im Personenverkehr lag Zhengzhou im Jahr 2012 im chinesischen Vergleich nach Fahrgästen auf Platz 2 hinter der Hauptstadt Peking, über 25 Millionen Reisen begannen oder endeten hier.
In Zhengzhou befindet sich die größte Güterumschlagsstation der asiatisch-europäischen Eisenbahnverbindung von Lianyungang durch Zentralasien nach Rotterdam in den Niederlanden. Der Nordbahnhof von Zhenghzou (Zhèngzhōu Běi Huǒchēzhàn, ) ist der größte Güter- und Rangierbahnhof in Asien.
Die Zhengzhouer Warenhandelsbörse ist der größte Getreideterminmarkt in China.
In Zhengzhou befinden sich die Produktionsstätten Yutongs, des weltweit größten Busherstellers. Des Weiteren ist die Stadt Sitz der Zhengzhou Nissan Automobile Co, Ltd., die Fahrzeuge der Marken Nissan und Dongfeng herstellt. Bekannt geworden ist dieses Unternehmen vorwiegend durch die Teilnahme an verschiedenen Rallyes.
In Zhengzhou befindet sich die weltgrößte iPhone-Fabrik, die von Foxconn betrieben an drei Standorten mit etwa 350.000 Arbeitern mehr als die Hälfte der Geräte weltweit produziert.
Der Flughafen Zhengzhou gehört zu den 20 größten Flughäfen Chinas.
Im Jahre 2009 gab die Staatliche Kommission für Entwicklung und Reform die Genehmigung zum Bau der U-Bahn Zhengzhou. Der erste Abschnitt der Linie 1 wurde im Dezember 2013 eröffnet. Die langfristigen Planungen sehen insgesamt 21 Linien mit 970,9 Kilometern Gesamtlänge vor, wovon 13 Linien in der Stadt und 8 Linien im Umland verlaufen sollen. Zusätzlich zu den vier eröffneten Linien sind per Sommer 2019 acht weitere in Bau oder Planung.
Klimatabelle
Tourismus
Zhengzhou dient als guter Startpunkt, um das Shaolin-Kloster zu besuchen. Vor dem Hauptbahnhof gehen einige Tourbusse in Richtung Shaolin-Kloster und -Berg. Vom Shaolin-Kloster kann man verschiedene Linienbusse nach Luoyang nehmen.
Söhne und Töchter der Stadt
Wei Wei (1920–2008), Essayist und Romanschriftsteller
Fan Yunjie (* 1972), Fußballspielerin
Deng Yaping (* 1973), Tischtennisspielerin
Sun Tiantian (* 1981), Tennisspielerin
Gao Lin (* 1986), Fußballspieler
Dong Dong (* 1989), Trampolinturner
Li Qian (* 1990), Boxerin
Li Xueying (* 1990), Gewichtheberin
Gu Yasha (* 1990), Fußballspielerin
Siehe auch
Shangzeitliche Stätte von Zhengzhou
Fernsehturm Zhengzhou
Zhengzhou Greenland Plaza
Weblinks
Offizielle Website (chinesisch)
Einzelnachweise
Ort in Henan
Bezirksfreie Stadt
Millionenstadt
Hauptort einer Verwaltungseinheit
Hochschul- oder Universitätsstadt
|
Q30340
| 111.782642 |
39078
|
https://de.wikipedia.org/wiki/Moor
|
Moor
|
Moore (u. a. alemannisch auch: Möser) sind dauernd vernässte Feuchtgebiete mit einer charakteristischen, niedrigen Vegetation – vor allem Moose, insbesondere Torfmoose, sowie Sauergräser und häufig verschiedene Zwergsträucher –, die aufgrund unvollständiger Zersetzung überwiegend saure, nährstoffarme Torfböden von mindestens 30 cm Mächtigkeit bilden. Ständiger Wasserüberschuss aus Niederschlägen oder durch austretendes Mineralbodenwasser hält den Boden sauerstoffarm und verhindert den vollständigen Abbau der pflanzlichen Reste, die stattdessen als Torf abgelagert werden. Das unterscheidet sie von Sümpfen, die gelegentlich austrocknen, weshalb deren organische Substanz auf anmoorigem Boden vollständig zu Humus abgebaut wird. Lebende Moore wachsen durch Torfaufwuchs in die Höhe.
Naturnahe Moorökosysteme wurden in vielen europäischen Ländern durch Entwässerungsmaßnahmen und Torfabbau weitgehend zerstört und auf kleine Restflächen reduziert. Jedoch mindern intakte Moore die Folgen der globalen Erwärmung, da sie als Speicher für Treibhausgase fungieren, die bei ihrer Zerstörung freigesetzt werden. Zahlreiche EU-Staaten haben die Bedeutung der Moore für den Klimaschutz mittlerweile erkannt und Strategien zum Schutz bestehender Moore entwickelt sowie mit der Renaturierung geschädigter Moore durch Flutung bzw. Wiedervernässung begonnen.
Moore werden in der Bodenkunde als Moorböden bzw. organische Böden erfasst. In gröbster Untergliederung teilt man die Moore nach der Art ihrer Wasserspeisung in Hochmoore und Niedermoore ein, die sich in ihrer je typischen Vegetation auch optisch deutlich voneinander abgrenzen. Während Hochmoore durch niedrigen Bewuchs gekennzeichnet sind, bildet sich auf Niedermooren auch Baumbestand aus.
Verbreitung
Moorwachstum begünstigende Bedingungen findet man weltweit vor allem in Nordamerika, Nordeuropa, Südamerika, Nord- und Südostasien sowie im Amazonasbecken. Dort entstanden Moore aller Art und Torflagerstätten mit einer Fläche von insgesamt vier Millionen Quadratkilometer, womit sie 3 % der Landfläche der Erde bedecken. Besonders reich an Mooren sind Teile Russlands, Alaskas und Kanadas. In Deutschland kommen Moore vor allem im Nordwesten, Nordosten und im Alpenvorland vor. Die größten Moorflächen weltweit sind die Aapamoore im Taigagürtel der Nordhalbkugel.
Entstehung und Entwicklung von Mooren
Damit ein Moor entstehen kann, müssen folgende Bedingungen erfüllt sein: Das Gebiet muss niederschlagsreich sein und eine hohe Luftfeuchtigkeit aufweisen. Im Boden muss sich eine Schicht Wasser stauen, und die Produktion an Pflanzensubstanz muss deren Verluste durch Zersetzung übertreffen. Schließlich darf das Gebiet nicht beschattet sein. Hochmoore sind im Verlauf der Moorentwicklung über den Grundwasserstand der Niedermoore hinausgewachsen oder haben sich in niederschlagsreichen Gebieten als wurzelechte Hochmoore direkt auf dem mineralischen Untergrund entwickelt. Sie haben keinen Kontakt mehr zum Grundwasser oder zum Mineralboden und werden nur noch von Regenwasser ernährt („ombrogen“). Durch Torfbildung wachsen Hochmoore in die Höhe, daher der Begriff Hochmoor. Ein Hochmoor wächst durchschnittlich nur 1 mm pro Jahr. Im Gegensatz dazu bilden sich Niedermoore in Senken, Flussniederungen, Mulden, an Hängen bei Quellaustritten oder durch Verlandung von Seeflächen. Sie wachsen meistens nur wenig in die Höhe, werden aber bis an die Mooroberfläche von mehr oder weniger nährstoffreichem Grund-, Quell- oder Sickerwasser durchsetzt („topogen“). Ihre Vegetation ist im Vergleich zum Hochmoor artenreich und besteht hauptsächlich aus Schilfgräsern, Binsen, Sauergräsern und Moosen. Zwischen- oder Übergangsmoore bezeichnen Übergangsstadien von Nieder- zu Hochmooren. Während mit dem Begriff Übergangsmoor mehr die Sukzession vom Nieder- zu Hochmoor betont wird, beschreibt der Begriff Zwischenmoor eher die vegetationsökologische Zwischenstellung. Die Vegetation besteht hier aus typischen Arten beider Moortypen und kann mosaikartig gemischt sein. Die Nieder- und Übergangsmoore werden in Mitteleuropa noch detaillierter nach hydrologischen und ökologischen Kriterien in verschiedene Moortypen eingeteilt. In Mitteleuropa sind Moore seit Jahrzehnten Gegenstand intensiver Forschungen und deshalb bekannter als anderswo.
Moortypen im Überblick
Seit Ende des 17. Jahrhunderts wurden Gliederungssysteme für Moore anhand sehr unterschiedlicher Merkmale erarbeitet. Eine umfassende Darstellung der verschiedenen Gliederungssysteme enthält die Arbeit von (1962). Eine Kurzübersicht der Gliederungssysteme geben (1975) und (2005).
Aktuell werden Systeme sogenannter „Hydrologischer Moortypen“ entwickelt, die auf dem Torfbildungsprozess oder dem Wasserregime basieren. Die Anfänge dieser Gliederung liegen bei (1926). Die derzeitigen Gliederungen der „Hydrologischen Moortypen“ basieren auf den ersten Vorschlägen von (1988) und (2001).
Gewisse Unzulänglichkeiten dieses Ansatzes liegen darin, dass im „hydrologischen Moortyp“ hydrologische, geländebezogene und stoffhaushaltliche Kriterien vermengt werden:
Topografisch: Hangmoor, Kesselmoor;
Mineralstoffregime: Quellmoor, Überflutungsmoor, Regenmoor.
Eine Weiterentwicklung dieser Moortypologie liefern (2002). Sie haben die Moortypen anhand der Parameter Mineralstoffregime (Herkunft des Wassers), Wasserregime (Torfbildungsprozess) und Neigung der Oberfläche systematisiert. Dabei wurde der Typus des Überrieselungsmoors (surface flow) wieder eingebunden. Topografische Sonderformen werden auf unteren Gliederungsebenen berücksichtigt. Die folgende Tabelle basiert auf der Gliederung nach .
Es wird deutlich, dass für die Entstehung und Entwicklung (Genese) von Mooren insbesondere die hydrologischen Bedingungen (Wasserhaushalt) entscheidend sind. Aus den lokal unterschiedlichen klimatischen Verhältnissen – besonders
dem Verhältnis von Niederschlag und Verdunstung,
der Dauer und Eindringtiefe des Bodenfrostes,
dem Nährstoffgehalt und pH-Wert des das Moor ernährenden Wassers (Grund- und Oberflächenwasser)
sowie dem anstehenden Mineralboden
ergeben sich verschiedene entwicklungsgeschichtlich-hydrologische Moortypen. Im Landschaftsbild kommen aber häufig zwei oder mehr Moortypen in Kombination vor.
In Abhängigkeit davon können weiterhin verschiedene ökologische Moortypen unterschieden werden. Sie werden dabei nach dem Verhältnis von Stickstoff zu Kohlenstoff im Torf (N/C-Wert), dem Stickstoffgehalt im Moorwasser sowie nach dem pH-Wert unterschieden. Die verschiedenen ökologischen Ausprägungen der Moore spiegeln sich in vielfältigen Zusammensetzungen der Pflanzen- und Tierwelt wider.
Entwicklungsgeschichtlich-hydrologische Moortypen
Mineralbodenwasserernährte Moore (Nieder- und Zwischenmoore)
Quellmoore
Quellmoore entstehen, wenn aus dem Untergrund Quellwasser austritt. Sind die Quellausschüttungen ergiebig, dauerhaft und gleichmäßig, so dass der Boden permanent mit Wasser gesättigt ist, kann sich Torf und damit ein Quellmoor bilden. Quelltorfe sind – durch hohen Sauerstoffgehalt der Quellwässer und kleinflächige Austrocknung – meistens stark zersetzt. Durch Auswaschungen aus den Grundwasserleitern (Sand, Schluff, Ton) sind sie oft schlammig. Je nach Geländeform sind Quellmoore entweder – an flachen Unterhängen – Hangquellmoore – oder in Tälern – Niederungsquellmoore. Bei hohem Kalkgehalt des Quellwassers, wie es in Gebieten mit anstehendem Kalkstein oder abgelagertem Geschiebemergel anzutreffen ist, können sich Kuppen aus fast reinem Kalk (Quelltuff oder Wiesenkalk) oder – bei hohem Eisengehalt – aus Eisenockerschlamm bilden. Diese Kuppen können bis zu 10 Meter hoch und bis zu 200 Meter breit werden. Torfe bilden sich in diesen Mooren vorwiegend am Rand der Kuppen, wo sich das Quellwasser staut. Sie sind aufgrund des hohen Kalkgehaltes meist hochzersetzt. In Altmoränenlandschaften sind die Böden meistens tief entkalkt. Die Quellmoore in diesen Regionen sind zwar basenreich, aber zugleich kalkfrei. Auch in kristallinen Mittelgebirgsregionen ist das Quellwasser kalkarm oder kalkfrei. Diese Quellmoore erreichen meistens nur geringe Mächtigkeiten.
In Richtung des Wasserabflusses gehen Quellmoore oft in andere hydrologische Moortypen über, zum Beispiel in Durchströmungsmoore.
Hangmoore
Hangmoore entstehen an flachen Hängen mit stauendem Untergrund, wenn aus oberhalb liegenden Bächen und Rinnsalen beständig mineralstoffreiches Wasser auf der Oberfläche und in den oberen Bodenhorizonten langsam abwärts sickert und der Boden dadurch permanent wassergesättigt bleibt. Weil sich das Wasser vor dem Eindringen in den Torfkörper aufstaut, wachsen Hangmoore am oberen Ende hangaufwärts. Die Torfkörper sind meistens nicht sehr dick, oft weniger als einen Meter, weil bei stärkerem Höhenwachstum die Hangneigung so stark wird, dass natürliche Entwässerung einsetzt.
Versumpfungsmoore
Versumpfungsmoore entstehen in flachen Senken bei periodischer Vernässung auf stark verdichteten oder tonigen Böden oder auch auf Sandböden, wenn der Grundwasserspiegel angestiegen ist. Versumpfungsmoore bilden sich vor allem in flachen Landschaften, zum Beispiel in Flussauen außerhalb der Überflutungsgebiete oder in Urstromtälern. Daher sind sie meistens sehr großflächig. Die Mächtigkeit der Torfe ist dagegen meist gering (nur selten mehr als einen Meter dick). Da der Grundwasserstand natürlich schwankt, wird der Torfkörper von Zeit zu Zeit durchlüftet. Daher sind die Torfe in Versumpfungsmooren für gewöhnlich stark zersetzt und damit meist nährstoffreich.
Verlandungsmoore
Verlandungsmoore entstehen durch Verlandung und Zuwachsen von Stillgewässern (besonders von Seen) durch Ablagerung von Sedimenten als Mudden auf dem Gewässergrund und durch das Hineinwachsen der Ufervegetation in das Gewässer (Schwingrasen). Die sich unterhalb des Schwingrasens bildenden Torfe (Sinktorfe) sinken auf den Gewässergrund ab. Nach erfolgter Verlandung hört das Torfwachstum auf und der Torf wird durch Wasserstandschwankungen in der Regel oberflächlich stark zersetzt. Durch die allmähliche Verlandung finden sich in einem Verlandungsmoor häufig mächtige Muddeschichten. Verlandungsmoore sind in Mitteleuropa vor allem in den während der letzten Eiszeit (Weichsel- bzw. Würmeiszeit) mit Gletschern bedeckten Gebieten (Jungmoränenland) weit verbreitet. Ungefähr 15 % aller Moore in Deutschland sind Verlandungsmoore. Ihr Nährstoffgehalt richtet sich nach dem des verlandenden Sees und kann daher stark schwanken. Auf Grund der Nährstoffeinträge durch den Menschen sind sie heute aber meist eutroph.
Überflutungsmoore
Überflutungsmoore unterteilt man in die Kategorien der Küstenüberflutungsmoore (an Meeresküsten) und der Auenüberflutungsmoore (entlang von Flüssen). Durch stark schwankende Wasserstände steht dieser Moortyp periodisch oder episodisch unter Wasser, kann aber auch bei niedrigem Wasserstand trocken fallen. Ausgedehnte Überflutungsmoore entstehen vor allem in sehr gering reliefierten Landschaften. Dort bildet sich großflächig aber geringmächtig ein Torfkörper aus. Typisch für Überflutungsmoore ist die Verzahnung oder Wechsellagerung von Torf mit mineralischem Material (meistens Schluff oder Sand), welches bei Überflutung mit der Wasserströmung eingetragen wird.
Durchströmungsmoore
Von Durchströmungsmooren spricht man, wenn der Torfkörper von einem merklichen Grundwasserstrom infiltriert wird, dieses Grundwasser aber im Moorkörper verbleibt und nicht als Quelle zutage tritt. Sie schließen sich oft an Quellmoore an, wo deren Wasser in den Torf einsickert. Auch große Gebiete können sich zu Durchströmungsmooren entwickeln, die einst vorhandenen Fließgewässer laufen dann nicht mehr in einem offenen Flussbett, sondern durchströmen den Moorkörper.
Kesselmoore
Kesselmoore sind vor allem in Jungmoränenlandschaften (Eiszerfallslandschaften) oder in Vulkanlandschaften verbreitet und entstehen aus Geländehohlformen ohne natürlichen Abfluss, beispielsweise in Toteislöchern (etwa Söllen) oder in Senken. In ihrer Mitte liegt zuweilen noch ein Restsee. Kesselmoore sind im Allgemeinen kleinflächig (oft unter einem Hektar), haben keinen natürlichen Zu- und Abfluss und meist eine große Torfmächtigkeit.
Niederschlagswasserernährte Moore (Hochmoore)
Regenmoore
Regenmoore unterscheiden sich grundlegend von den aus Mineralbodenwasser ernährten Moortypen. Sie entstehen, wenn bestimmte Pflanzen, meistens Torfmoose, in niederschlagsreichen und kühlen Klimaten auf nährstoffarmen Grundwassermooren so weit in die Höhe wachsen, dass der von ihnen gebildete Torf nicht mehr vom mineralstoffreichen Grundwasser, sondern ausschließlich von Regenwasser (ombrogen) genährt wird. Sie können auf den nährstoffarmen Teilen von Versumpfungs-, Verlandungs- oder Kesselmooren aufwachsen. Der Wasserspiegel in Regenmooren liegt deutlich über dem Grundwasserspiegel der umgebenden Landschaft. Wegen ihrer Aufwölbung fließt auch kein Oberflächenwasser aus der Umgebung mehr zu. Regenmoore sind sekundäre oder tertiäre Moorbildungen. Sie sind sowohl aus hydrologischer, als auch aus ökologischer Sicht von den Nieder- und Zwischenmooren klar abgrenzbar. Das Wasserregime der Regenmoore reguliert sich und erhält sich wegen der speziellen Eigenschaften der die Moore aufbauenden Torfmoose selbst. Intakte Regenmoore nehmen beständig mehr Wasser aus Niederschlägen auf, als sie durch Verdunstung und oberflächlichen Abfluss verlieren. Sie ähneln mit Wasser vollgesogenen Torfmoosschwämmen, die in der Landschaft liegen.
Kondenswassermoore
Kondenswassermoore sind ein ganz eigentümlicher Moortyp, der bis jetzt nur von wenigen Standorten in den österreichischen Alpen bekannt ist. Das Wasser im Moorkörper stammt hier weder aus dem Mineralboden noch aus Niederschlägen, sondern aus Luftfeuchtigkeit, die unter bestimmten Bedingungen an der Oberfläche von Blockhalden kondensiert. Da kondensierte Luftfeuchtigkeit ähnlich nährstoffarm ist wie Regenwasser, gleichen Kondenswassermoore nach ihrer Vegetation eher Hoch- als Niedermooren. Typischerweise bestehen Kondenswassermoore aus einem Mosaik kleinster, meist kaum quadratmetergroßer Standorte an einem steilen Hang.
Ökologische Moortypen
Die ökologischen Moortypen lassen sich aus Informationen zur Vegetation, dem Nährstoffgehalt und dem Säure-Basen-Verhältnis abgrenzen.
Der Nährstoffgehalt kann in drei Stufen eingeteilt werden: nährstoffarm (oligotroph), mäßig nährstoffarm (mesotroph) sowie nährstoffreich (eutroph). Das Säuren-Basen-Verhältnis wird anhand des pH-Wertes angegeben und ebenso wie der Nährstoffgehalt in drei Stufen angegeben. Die sauren Moore besitzen einen pH-Wert unter 4,8, schwach saure Moore einen pH-Wert zwischen 4,8 und 6,4 (subneutral) und die alkalischen Moore einen pH-Wert zwischen 6,4 und 8 (kalkhaltig). Folglich lassen sich mit diesen Angaben fünf ökologische Moortypen bestimmen: Reichmoore (eutroph), Kalk-Zwischenmoore (mesotroph-kalkhaltig), Basen-Zwischenmoore (mesotroph-subneutral), Sauer-Zwischenmoore (mesotroph-sauer) und die Sauer-Armmoore (oligotroph-sauer).
Hochmoore
Hochmoore werden auch als Armmoor oder Regenmoor bezeichnet. Sie sind ausschließlich regenwasserernährt (ombrotroph) und damit sauer und sehr nährstoffarm (oligotroph). Sie verfügen über nur geringe Gehalte an Stickstoff und anderen Nährstoffen und zeichnen sich durch hohe Kohlenstoffgehalte im Torf aus. Die pH-Werte liegen zwischen 3 und 4,8. Die typische Pflanzenwelt besteht aus fast geschlossenen Torfmoosrasen (Klasse: Oxycocco-Sphagnetea). Diese nährstoffarmen Standorte findet man großflächig in allen Regenmooren, kleinflächig in Kesselmoorzentren und sehr kleinflächig auch in den Übergangsbereichen mineralbodenwasserernährter Regenmoore. Hochmoore entwickeln sich häufig auf Niedermooren, aber auch ohne vorherige Niedermoorbildung direkt auf mineralischem Untergrund (wurzelechte Hochmoore). Regenmoore lassen sich auch hinsichtlich der ökologischen Bedingungen relativ klar von allen anderen Moortypen abgrenzen. Die extreme Nährstoffarmut, der niedrige pH-Wert und die permanente Wassersättigung der Hochmoorlebensräume bedingen eine hochspezialisierte einzigartige Flora und Fauna mit einer Vielzahl gefährdeter Arten.
Zwischenmoore/Übergangsmoore
Zwischen- bzw. Übergangsmoore sind durch Kleinseggenriede der Klasse Scheuchzerio-Caricetea nigrae gekennzeichnet. Neben etlichen Seggen- und Binsenarten kommen in allen Zwischen- und Übergangsmooren weitere der sogenannten Mineralbodenwasserzeiger vor wie der Fieberklee (Menyanthes trifoliata), das Sumpf-Blutauge (Potentilla palustris), die Drachenwurz (Calla palustris), das Schmalblättrige Wollgras (Eriophorum angustifolium), das Hunds-Straußgras (Agrostis canina), das Sumpfveilchen (Viola palustris) und der Gemeine Wassernabel (Hydrocotyle vulgaris). Torfmoose spielen besonders in den sauren Zwischenmooren eine Rolle, wogegen die nährstoffreicheren Ausprägungen durch das Vorkommen sogenannter Braunmoose gekennzeichnet sind.
Zur Flora der Zwischenmoore siehe Hauptartikel Kleinseggenried.
Sauer-Zwischenmoore
Saure, mäßig nährstoffreiche (mesotrophe) Moore stehen den Armmooren sehr nahe, werden aber von saurem Mineralbodenwasser gespeist und besitzen eine etwas bessere Stickstoffversorgung. Wie die Armmoore umfassen sie ebenfalls nur pH-Werte bis 4,8. Die Pflanzendecke besteht aus torfmoosreichen Kleinseggenrieden. Diese Moore findet man in den nährstoff- und kalkarmen Gebieten der Jungmoränenlandschaften besonders in Durchströmung und Kesselmooren, in Dünengebieten und in den Kristallinbereichen der Mittelgebirge, dort vor allem in Hangmooren. Aufgrund des höheren Elektrolytgehalts des Bodenwassers sind im Gegensatz zum Hochmoor deutlich mehr Seggenarten anzutreffen.
Basen-Zwischenmoore
Subneutrale, mäßig nährstoffreiche Moore besitzen pH-Werte von 4,8–6,4. Sie sind kalkfrei. Die Vegetation der Basen-Zwischenmoore setzt sich aus braunmoosreichen Kleinseggenrieden, in welchen teilweise noch Torfmoose wachsen, zusammen. Dieser ökologische Moortyp ist vor allem im Jungmoränengebiet des östlichen Mitteleuropas zu finden und ist heute durch die allgemeine Nährstoffbelastung besonders gefährdet. Sie können in Verlandungsmooren, Hangmooren, Quellmooren und Kesselmooren auftreten. Ihr Hauptvorkommen haben sie aber in Durchströmungsmooren.
Kalk-Zwischenmoore
Kalkhaltige bis kalkreiche Moorstandorte mit pH-Werten von 6,4–8,5 sind zwar als mineralstoffreich zu bezeichnen, können aber sowohl nährstoffreich als auch nährstoffarm sein. Die Pflanzenwelt besteht aus braunmoosreichen Kleinseggenrieden oder Schneidenriede. Diese Moore treten in Mitteleuropa heute ebenfalls relativ selten auf und sind durch Nährstoffanreicherung oft in den sehr nährstoffreichen Typ des Reichmoores übergegangen. Die Verbreitungsgebiete sind kalkreiche Jungmoränenlandschaften des Alpen- und Tatravorlandes, Muschelkalkgebiete des Hügellandes, verschiedene Mittel- und Hochgebirge mit Kalkgestein. Meistens handelt es sich um Quellmoore, Verlandungs- oder Durchströmungsmoore. Kalkseggenmoore gelten als sehr wertvolle Moortypen, die meistens nur kleinflächig ausgebildet sind und zahlreiche Reliktarten beinhalten.
Niedermoore/Flachmoore
Zu diesen sehr nährstoffreichen Standorten zählen die meisten der heute noch wachsenden Moore in Mitteleuropa. Die sehr nährstoffreichen Bedingungen, deshalb auch als Reichmoor bezeichnet, resultieren meistens aus zeitweiliger Überstauung mit Fremdwasser und phasenweiser Austrocknung. Das Wachstum wird hauptsächlich durch das hohe Stickstoffangebot bestimmt, die pH-Verhältnisse werden hier fast bedeutungslos und können zwischen 3,2 und 7,5 liegen. Nährstoffreiche Moore sind immer mineralbodenwasserernährt, hauptsächlich Versumpfungs-, Quell- und Überflutungsmoore der Flussniederungen (Auenüberflutungsmoore) sowie der Küstengebiete. Niedermoore entwickeln sich bei geeigneten Bedingungen über Zwischenmoorstadien weiter zu Hochmooren. Die Vegetation besteht aus meistens dichten und hochwüchsigen Vegetationsbeständen, die lichtliebende Moose weitgehend verdrängen. Die wichtigsten Vegetationseinheiten sind Erlenbruchwälder, Röhrichte und Großseggenriede.
Die norddeutschen Niedermoore werden meist als Fenn bezeichnet.
Charakterisierung der ökologischen Moortypen durch die Vegetation
Viele Pflanzenarten können nur bei bestimmten Standortbedingungen überleben. Das hat zur Folge, dass diese auf bestimmte Moore begrenzt sind. Die ökologischen Moortypen lassen sich deshalb sehr gut anhand ihrer Vegetationszusammensetzung charakterisieren. Besonders geeignet sind dazu die Moose, denn sie stehen in direktem Kontakt mit dem oberflächlich anstehenden Moorwasser, ob Regen- oder Grundwasser. Höhere Pflanzen der nährstoffarmen, sauren und rein Regenwasser-genährten Hochmoore sind an diesen Lebensraum angepasst. Da nährstoffbedürftigere Pflanzen hier nicht wachsen können, sind sie konkurrenzlos. In von nährstoffreichem Grundwasser ernährten Niedermooren haben diese Pflanzen dagegen keine Überlebenschance. In Übergangsbereichen, dort wo das Moor zugleich von Regenwasser und Grundwasser beeinflusst wird, siedeln sich sogenannte Mineralbodenwasserzeiger an. Dabei ist nicht ausschließlich deren ökologisches Verhalten ausschlaggebend, sondern vielmehr die Konkurrenzsituation in den beiden gegensätzlichen Moortypen. Der Grenzbereich zwischen ausgesprochenen Hochmooren und den Niedermooren wird damit durch diese Pflanzenarten angezeigt. Diesen Übergangsbereich bezeichnet man daher als Zwischen- oder Übergangsmoor. Die Entwicklung von Zwischen- oder Übergangsmooren liegt damit nicht nur räumlich, sondern auch zeitlich zwischen der Nieder- und Hochmoorbildung, da Hochmoore meistens ihre Entwicklung auf Niedermoorstadien beginnen.
Geschichte der Moornutzung
Die sporadische Nutzung von Moorgebieten in der Frühzeit als Jagdgebiet, Versteck in Kriegszeiten, Begräbnisplatz und Ort für Menschenopfer ist ein Glücksfall für die Wissenschaft (Moorarchäologie), da Moorleichen und Artefakte häufig sehr gut erhalten sind. Vorgeschichtliche Bohlenwege legen Zeugnis von der frühen Nutzung ab.
Bis ins Mittelalter wurden Moorgebiete meist nur in den Randgebieten (Allmende) landwirtschaftlich genutzt. Erst ab der Mitte des 18. Jahrhunderts begann der Trend zur Kolonisierung der bisher ungenutzten und als damals als nutzlos angesehenen Moorflächen, hauptsächlich um dem Staat durch die sogenannte Peuplierung weitere Einnahmen und die Unabhängigkeit von anderen Staaten zu bringen (→ Friderizianische Kolonisation).
Die Sorge, eine übermäßige Nutzung könne die Moore zerstören, kam bereits früh auf; 1901 schrieb Carl Albert Weber dazu:
Torf
Torf wurde anfangs lediglich als Brennmaterial verwendet. Die daraus entstandene Asche wurde außerdem in der Landwirtschaft als Dünger auf die Äcker verteilt. Üblich war es auch, getrockneten Torf als Baustoff zum Errichten von Häusern zu verwenden. In der Zeit um 1880 wurde Torf auch zur Feuerung in der Eisen- und Stahlindustrie verwendet sowie als Streu in Ställen oder als Bindemittel. Heute wird er in der Regel nur noch im Gartenbau zur Bodenverbesserung verwendet, um den Boden zu belüften und eine größere Wasserkapazität zu ermöglichen. Da Torf aber den pH-Wert senkt und so mehr für Pflanzen geeignet ist, die ein saures Milieu bevorzugen, ist die Wirkung für Pflanzen im Garten eher umstritten.
Als nasse Landschaftselemente sind Moore für die Landwirtschaft als schwierige Standorte anzusehen. Dennoch wurde von jeher versucht, diese Standorte zu nutzen, indem sie zum Teil unter schweren Bedingungen entwässert wurden.
Als eine der ältesten Moornutzungen kann die Trockenlegung des Forum Romanum durch die Cloaca Maxima angesehen werden – hier befand sich vordem ein Sumpf, in dem Tote bestattet wurden.
Die ersten systematischen Moorkultivierungen wurden bereits von Zisterziensermönchen im frühen Mittelalter durchgeführt, fanden aber schon im Spätmittelalter und infolge der Auswirkungen des Dreißigjährigen Krieges wieder ein Ende. Mit der allmählichen Wirtschaftsentwicklung Ende des 17. Jahrhunderts und verstärkt im 18. Jahrhundert setzte wieder eine landwirtschaftliche Tätigkeit ein, wobei auch weitreichende Niedermoorgebiete genutzt wurden. Die Kultivierung der Niedermoore geschah häufig unter staatlicher Förderung mit umfangreichen und großangelegten Hydromeliorationen.
Seit dem 19. Jahrhundert wird der gewonnene Torf auch zu Heilzwecken genutzt, beispielsweise als Moorbad.
Gefährdung von Mooren
Die Ziele des Pariser Klimaabkommens sind ohne eine konsequente Renaturierung der Moore so gut wie nicht erreichbar, denn obwohl sie nur drei Prozent der Erdoberfläche bedecken, binden sie ungefähr so viel Kohlenstoff wie die gesamte Vegetation der Erde enthält. Werden Moore jedoch weiterhin weltweit zur Gewinnung von Ackerflächen und Plantagen sowie für den Torfstich trockengelegt, so könnte es zu einer Verdreifachung der aus Mooren emittierten Menge an Treibhausgasen kommen. Zwischen 2012 und 2018 wurden in Deutschland etwa 0,23 km² Torfmoor in Siedlungs- und Verkehrsflächen umgewandelt. Der Biologe Hans Joosten regt in diesem Zusammenhang an, sich bei der Moorrenaturierung ein Beispiel an Indonesien zu nehmen, wo in Reaktion auf großflächige Moorbrände (2015) auf einer Fläche von 800.000 Hektar Entwässerungsmaßnahmen ganz oder teilweise eingestellt wurden.
Folgen der Entwässerung durch Drainage
In ihrem nassen Urzustand speichern Moore Kohlenstoff, werden jedoch im entwässerten Zustand zur Quelle von Treibhausgas. Aus diesem Grund wurden Schutzmaßnahmen für Moore auch aus Gründen des Klimaschutzes verstärkt, wobei die Entwicklung nachhaltiger Nutzungskonzepte von Moorböden eine wichtige Rolle spielt.
Sowohl in Deutschland als auch in anderen Europäischen Staaten wurde der größte Teil der Moorböden für die landwirtschaftliche oder forstliche Nutzung entwässert. Nicht nur die biologischen Vielfalt seltener Tier- und Pflanzenarten des Ökosystems Moor wird dadurch gefährdet. Die Moorentwässerung durch Drainage beeinflusst auch den Wasser- und Nährstoffhaushalt der Landschaft. Die Entwässerungen geschehen direkt durch die Anlage von Gräben, Rohrdränungen und Vorflutgräben und die Fassung von Quellen oder indirekt über Flussregulierungen, Entnahme von Trinkwasser und die damit verbundene Grundwasserabsenkung in der Landschaft. Die Auswirkungen der Entwässerungen sind komplex und machen sich teilweise erst nach vielen Jahren in ihrem gesamten Ausmaß bemerkbar.
Im Gegensatz zu Mineralböden hat der Torf wegen seines fast vollständig wassergefüllten Porenvolumens ein labiles Gefüge. Jede Entwässerung bedeutet eine Verringerung des Porenvolumens, da die Poren, wenn sie nicht mehr wassergefüllt sind, zusammensinken. Dieses führt zunächst zu einer Sackung des Moorbodens, also einer Abnahme der Torfmächtigkeit. Die Verdunstung des Porenwassers trägt zum weiteren Niveauverlust bei. Nach Entwässerung und Belüftung setzt eine sekundäre Bodenbildung ein, die in Abhängigkeit von der Zeit und der Trophie der Torfe unterschiedlich schnell und zu verschiedenen Gefügeformen führt. In niederschlagsreicheren Regionen können die Böden vererden. Dabei entsteht ein dunkel- bis schwarzbraunes Krümelgefüge, in dem Pflanzenreste nicht mehr mit bloßem Auge sichtbar, aber Pflanzenstrukturen noch mikroskopisch erkennbar sind. In trockeneren Gebieten mit geringeren Niederschlägen bilden sich bei fortdauernder stärkerer Austrocknung humin- und aschereiche, schwer benetzbare und trockene Feinkorngefüge mit zum Teil Rissen und Klüften im Boden. Der so entstehende Mulm (Vermulmung) ist eine äußerst ungünstige Gefügeform, weil der Boden leicht erodiert und irreversibel austrocknet. Die Böden lassen sich nicht wieder befeuchten und stellen den extremsten Moorstandort dar. Im weniger stark austrocknenden Unterboden bleibt die mineralische Bodensubstanz feucht bis nass. Es entsteht ein aus kohlengrusähnlichen verbackenen Teilchen bestehender Horizont, auch Vermurschungshorizont genannt. Die Bildung dieser Segregations- bzw. Absonderungsgefüge stellt das Endstadium der Niedermoorbodenbildung dar. Diese Böden sind schwer durchwurzelbar und haben einen sehr ungünstigen Wasser- und Nährstoffhaushalt.
Neben dieser physikalischen und chemischen Schädigung des Moores führt die Entwässerung zu einer Verringerung der Evapotranspiration, was wiederum zu einer Reduzierung der Kühlung in der Landschaft führt. Darüber hinaus kommt es durch die reduzierte Wassersättigung der Torfe zu einer Veränderung der Artenzusammensetzung hin zu weniger wasserliebenden Arten. Allgemein führt das zu einer starken Reduzierung der moortypischen Biodiversität. Zudem steigt durch die Entwässerung die Gefahr von Bränden deutlich an, bei denen große Mengen an Treibhausgasen sowie umwelt- und gesundheitsschädlichen Luftschadstoffen freigesetzt werden können. Moore machen etwa drei Prozent der weltweiten Landfläche aus, speichern aber 30 Prozent des erdgebundenen Kohlenstoffs – doppelt so viel wie alle Wälder zusammen. Daher stellen die Wiedervernässung und der Schutz von Mooren wirkungsvolle Möglichkeiten zum Klimaschutz dar.
Entwässerung durch Absinken der Grundwasserspiegel im Rahmen der Klimaveränderung
Messungen der Wasserwirtschaftsbehörden deuten bereits seit Jahren auf regional sinkende Grundwasserspiegel hin. Das Potsdam-Institut für Klimafolgenforschung erklärt dieses Phänomen durch längere Hitze- und Trockenperioden in den Sommern, sowie durch das häufigere Auftreten des Niederschlags in Form von Starkregenereignissen. Durch die längeren Hitzeperioden erhöht sich die Verdunstungsrate, Wasser geht an die Atmosphäre verloren. Verstärkt wird dieser Effekt durch die längeren Vegetationszeiten. Die Pflanzen geben mehr Wasser an die Luft ab. Niederschlag in Form von Starkregenereignissen führt zu vermehrtem Abfluss des Wassers in Fließgewässer. So kann es nicht zur Grundwasserneubildung beitragen. Die Folgen der sinkenden Grundwasserspiegel für das Moor sind die gleichen wie bei der Drainage. Sobald das Wasser aus dem organischen Material verschwindet, tritt Luft und damit Sauerstoff ein. Es beginnt sofort der Prozess der Verrottung der organischen Substanz. Der Torf wird mineralisiert, es wird massiv Kohlendioxid freigesetzt.
Gefährdung durch Eutrophierung
Hochmoore sind durch ein nährstoffarmes Milieu charakterisiert. Die dort angesiedelten Lebensgemeinschaften sind Spezialisten für diese Situation. Im Falle einer Eutrophierung werden sie von anderen, nährstoffliebenden Arten verdrängt. Sollte das Hochmoor einmal infolge ausbleibender Niederschläge austrocknen, wird der Torf in Gegenwart von Stickstoff viel schneller mineralisiert, als in einem nährstoffarmen Milieu. Der Nitratbericht der Bundesregierung zeigt das hohe Risiko und das hohe Ausmaß von Stickstoffeinträgen in Grundwasser und Oberflächengewässer. Demnach ist der Hauptverursacher für die Nitratbelastung die Landwirtschaft. In geringerem Maße tragen auch die Stickoxide der Verbrennungsmotoren zur Nitratbelastung bei. Diese gasförmigen Stickstoffverbindungen werden bei der Verbrennung von Treibstoff freigesetzt, in der Atmosphäre verteilt und später mit den Niederschlägen wieder ausgewaschen. So belasten sie nährstoffarme Areale wie Hochmoore oder auch Magerrasen.
Landwirtschaftliche Nutzung von Mooren
Die landwirt- und forstwirtschaftliche Nutzung von Mooren funktioniert auf konventionellem Wege nur durch die Senkung des lokalen Wasserspiegels. Dies hat zur Folge, dass sich die hydraulischen Eigenschaften der Torfe, die Wasserspeicherkapazität und die hydraulische Leitfähigkeit, verringern. Durch die Entwässerung kommt zudem der vorher unter Luftabschluss entstandene Torf mit Sauerstoff in Berührung. Dieser Prozess führt bei anhaltenden aeroben Bedingungen zu einer kontinuierlichen Verstoffwechslung des Torfes (Torfzehrung) und damit zu einer irreversiblen Schädigung des Moorkörpers.
Diese konventionelle Nutzung führt unweigerlich zu einer Zerstörung der Moore und angrenzender Feuchtgebiete.
Paludikultur
Eine nachhaltige Moornutzung kann nur bei oberflächennahen Wasserständen erfolgen, welche unter Umständen zu einer Torfneubildung, aber zumindest zu einer Torferhaltung führt. Diese Alternative wird als Paludikultur beschrieben. Im Folgenden werden die Verfahren der konventionellen Moornutzung beschrieben:
Moorbrandkultur
Die Moorbrandkultur ist ein Verfahren, bei dem das Moor vor dem Winter oberflächlich entwässert und abgehackt wurde, damit es im Frühjahr abgebrannt werden konnte. Anschließend wurde in der Asche Buchweizen oder Hafer ausgesät. Reguliert wurde das Feuer durch die Windrichtung und die zu- oder abnehmende Feuchtigkeit im Boden. Bei diesem Verfahren waren die Nährstoffreserven im Boden jedoch nach 10 Jahren erschöpft und das Land musste 30 Jahre brach liegen.
Fehnkultur
Bei der Fehnkultur legte man große Entwässerungsgräben an, aus denen man den Schwarztorf abbaute. Die Wasserkanäle dienten auch dem Abtransport des Torfes.
Hochmoorkultur
Die Hochmoorkultur wird nur bei Hochmooren angewandt, wobei der Torf mindestens eine Höhe von 1,3 Metern besitzt. Die Moore werden zwar entwässert, aber nicht abgetorft, sondern nur umgebrochen und gedüngt. Der daraus entstandene Boden dient ausschließlich der Grünlandwirtschaft.
Sandmischkultur
Bei der Sandmischkultur wird Sand aus einer Tiefe von ungefähr 3 Meter hochbefördert und durchgepflügt. Die daraus entstandene Sand-Mischkultur ist in der Landwirtschaft vielseitig einsetzbar.
Tiefpflug-Sanddeckkultur
Die Tiefpflug-Sanddeckkultur ist nur für Niedermoore geeignet, deren Torfschicht nicht dicker als 80 cm ist. Dabei wird mit einem Tiefpflug mit einer Arbeitstiefe von 1,60 m der Boden um etwa 135° gewendet und schräg gestellt. In dem stark verändernden Bodenprofil wechseln sich Torf- und Sandbalken von etwa gleicher Stärke ab. Zudem wird das Profil von einer etwa 20–30 cm mächtigen Sandschicht überlagert. Bei dieser Art der Melioration wandeln sich die Bodeneigenschaften grundlegend. Durch die stark steigende Wasserleitfähigkeit werden der Bodenwassergehalt und die Möglichkeiten der Grundwasserregulierung viel ausgeglichener. Mit der Sanddeckkultur ist ein intensiver Getreideanbau auf einem Niedermoor möglich.
Schwarzkultur
Bei der Schwarzkultur wird der Moorboden nach der Entwässerung ohne Veränderungen kultiviert, wobei dies nur auf Niedermooren vollzogen werden kann.
Erhaltung, Schutz und Regeneration
Die Erhaltung von Mooren bedarf keiner großen Maßnahmen. Überlässt man diese Lebensräume sich selbst, ist dies im Normalfall ausreichend.
Regeneration Niedermoor
Die Regeneration eines Niedermoores ist nicht so aufwendig wie die eines Hochmoores. Da Niedermoore durch das Grundwasser versorgt werden, reicht ein einfaches Verschließen der Entwässerungsgräben aus. Handelt es sich jedoch um Gebiete, die jahrelang landwirtschaftlich genutzt wurden, sind sie aufgrund der Düngung und extremen Bodenbearbeitung nicht mehr für eine Renaturierung geeignet. Lediglich in der Funktion als Pufferzone gegenüber der weiteren landwirtschaftlichen Nutzung oder als Feuchtwiese, was der Tierwelt ebenfalls Vorteile bietet, können diese Landstriche noch genutzt werden.
Regeneration Hochmoor
→ Hauptartikel Renaturierung von Hochmooren
Auch die Regeneration eines Hochmoores beinhaltet zunächst das Verschließen der Entwässerungsgräben. Da ein Hochmoor jedoch nicht vom Grundwasser versorgt werden darf, muss speziell darauf geachtet werden, dass die Stellen, an denen die wasserundurchlässige Lage durchbrochen wurde, gut verschlossen werden. Der Einfluss von Grundwasser würde den Nährstoffgehalt zu weit ansteigen lassen, weshalb auch eine künstliche Bewässerung ausgeschlossen ist. Denkbar wäre eine Förderung des Moorwassers durch Pumpen, was allerdings einen erheblichen Aufwand darstellt.
Renaturierung und Regeneration
Die Renaturierung eines Moores ist gegeben, sobald sich die arttypischen Pflanzen, wie zum Beispiel die Torfmoose wieder ansiedeln. Eine völlige Regeneration ist dann eingetreten, wenn die typischen Verhältnisse wieder eingetreten sind. Das beinhaltet das Wachstum und die Vertorfung einer Torfmoosdecke.
Bei einer Wiedervernässung besteht häufig eine Problematik hinsichtlich Vorkommen von Arten, die Trockenstandorte degradierter Moore besiedeln. Es gibt nur zwei Möglichkeiten: entweder die Vorkommen erlöschen bei einer Wiedervernässung oder sie werden durch einen Verzicht auf die Wiedervernässung erhalten. Bei einer Wiedervernässung sollten allgemein die Aussichten auf eine Regeneration (Hochmoorwachstum sowie positive Effekte auf hochmoortypische Arten) des Moores berücksichtigt und gegenüber möglichen negativen Effekten abgewägt werden. Allerdings kann eine räumliche Aufteilung versucht werden. Ferner besteht die Möglichkeit Ersatzlebensräume zu schaffen, wie beispielsweise im schwäbischen Donauried, wo Vorkommen gefährdeter Schmetterlinge an ehemalige Brennenstandorte und Kiesabbauflächen grenzen. Andernfalls könnte auf eine Einebnung von Resttorfkörpern verzichtet werden und stattdessen eine Zurückdrängung aufkommender Gehölze erfolgen, wodurch Trockenheiden-Arten eine „Übersiedlung“ ermöglicht würde. Vollständiges Entfernen von Gehölzen kann allerdings negative Folgen für wertgebende Tierarten haben. Zudem sollten naturnahe und totholzreiche Birken- und Koniferen-Moorwälder im Hinblick auf ihre Bedeutung als Refugien zahlreicher Eiszeit- und Urwaldrelikt-Arten berücksichtigt werden, da unter den gegebenen Bedingungen nur wenig Aussicht auf eine Wiederansiedlung besteht.
Wenn Moore verlanden, emittieren sie große Mengen CO2 (laut Umweltministerium rund 7 Prozent aller deutschen Treibhausgasemissionen, etwa 53 Millionen Tonnen Kohlendioxidäquivalente pro Jahr). Das Bundesumweltministerium möchte bestehende Moore schützen und ausgetrocknete wieder vernässen; um den Weg dorthin gab es Streit im Kabinett Merkel IV. Landwirtschaftsministerin Julia Klöckner (CDU) wollte die geplante nationale Moorschutzstrategie nur auf naturnahe Moore ausrichten; das Umweltministerium dagegen will auch Moorböden unter land- und forstwirtschaftlicher Nutzung einbeziehen.
Entwässerte Moore sind in Mecklenburg-Vorpommern für einen höheren Ausstoß von Kohlenstoffdioxid als der Verkehr, die Industrie oder die Beheizung von Gebäuden verantwortlich. Daher wird u. a. das Anklamer Torfmoor, kurz vor dem Mündungsgebiet der Peene, nach Jahrhunderten menschlicher Nutzung bereits seit 1995 wieder vernässt. Sobald die Pflanzengemeinschaften wieder mit ausreichend Feuchtigkeit versorgt werden, endet die Freisetzung von CO2. Die geplante Wiedervernässung des Anklamer Moores wurde 1995 durch Deichbrüche am Stettiner Haff beschleunigt. So konnten Flachwasserseen entstehen, deren Fischbestand sich so gut entwickelt hat, dass neuer Lebensraum für Seeadler, Fischotter und Moorfrösche entstanden ist. Auch wirtschaftlich ist die Rückkehr der moortypischen Tier- und Pflanzengesellschaften ein Gewinn für die Region, die mittlerweile von zahlreichen Naturtouristen profitiert, die das Naturschutzgebiet Anklamer Stadtbruch zum Ziel haben.
Regionale Bezeichnungen für Moore
Im deutschsprachigen Raum existieren für Moore zahlreiche Regionalbezeichnungen bzw. Synonyme. So werden im allgemeinen Sprachgebrauch die Bezeichnungen Moor und Sumpf meistens synonym verwendet. In Norddeutschland sind die Bezeichnungen Bruch, Brook und Luch verbreitet; in Süddeutschland, ähnlich in der Deutschschweiz, Ried, Moos (zum Beispiel Donaumoos) und Filz (zum Beispiel Kendlmühlfilzn). Dabei bezeichnet Moos meist ein Niedermoor, Filz ein Hochmoor. Rülle ist die Bezeichnung für den natürlichen Abfluss eines Hochmoores innerhalb des Moorkörpers.
Moorbrände
Abgesehen von der Moorbrandkultur gibt es auch schadhafte Moorbrände. Insbesondere trocken gefallene Moore mit Torf als brennbarem Material können unabsichtlich in Brand geraten. Dabei handelt es sich in der Folge hauptsächlich um Schwelbrände unter der Erdoberfläche. Da die Brandherde bzw. Glutnester kaum sichtbar sind und erkannt werden können, ist eine Löschung außerordentlich aufwändig und schwierig.
Beispiele großer Moorbrände
Vom 24. Juni bis zum 18. Juli 2018 verbrannten bei Manchester in Nordengland mindestens 18 km² des Saddleworth Moor.
Im September 2018 wurden vom Unternehmen Airbus Helicopters im Auftrag der Bundeswehr auch während der Trockenheit im europäischen Sommer auf dem Gelände der Wehrtechnischen Dienststelle 91 bei Meppen Raketenerprobungen durchgeführt. Hierdurch entstand ein Großbrand, bei dem über 12 Quadratkilometer Moorfläche brannten. Zur Brandbekämpfung waren zeitweilig täglich über 1500 Feuerwehrleute und Angehörige des Technischen Hilfswerks im Einsatz.
Ende Mai 2020 brach im Naturschutzgebiet Der Loben in Südbrandenburg ein Moorbrand aus, der sich schnell auf etwa 1 km² ausbreitete.
Feuchtbodenarchäologie
Als Feuchtbodenarchäologie wird die archäologische Erkundung und Forschung unter der Oberfläche von Mooren bezeichnet.
Darstellung des Moores in Literatur und Dichtung
Eines der bekanntesten Gedichte zum Thema Moor stammt von Annette von Droste-Hülshoff (O schaurig ist's übers Moor zu gehn). Weitere Moor-Gedichte sind u. a. von Max Dauthendey, Klaus Groth (Dat Moor), Hermann Löns und Christian Morgenstern (Am Moor).
Siehe auch
Die Moorsoldaten (Lied)
Literatur
Gabriele Colditz: Auen, Moore, Feuchtwiesen; Gefährdung und Schutz von Feuchtgebieten. Birkhäuser Verlag, 1994, ISBN 3-7643-5019-9.
Karlhans Göttlich: Moor- und Torfkunde. 3., neubearbeitete Auflage. E. Schweizerbart’sche Verlagsbuchhandlung (Nägele & Obermiller), Stuttgart 1990, ISBN 3-510-65139-1.
Gisbert Grosse-Brauckmann: Zur Moorgliederung und -ansprache. In: Zeitschrift für Kulturtechnik. Band 3, 1962, S. 6–29.
Claus-Peter Hutter (Hrsg.); Alois Kapfer, Peter Poschlod: Sümpfe und Moore – Biotope erkennen, bestimmen, schützen. Weitbrecht Verlag, Stuttgart/Wien/Bern 1997, ISBN 3-522-72060-1.
H. Joosten, D. Clarke: Wise Use of Mires and Peatland. International Mire Conservation Group, NHBS, Totnes 2002, ISBN 951-97744-8-3.
Christa Klickermann, Petra Wenzel: Altes Naturheilmittel Moor – Neues Wissen für die praktische Anwendung. Klickermann, Laufen 2003, ISBN 3-00-011626-5.
Kai Krüger (Fotos: Andre Reiser): Moore: Das Ende einer Urlandschaft. In: Geo-Magazin. Nr. 8, 1978, S. 74–94. („Mord am Moor“) .
Heinrich Mahler: Pflanzen der Heimat – Pflanzen unserer Moore. (= Heimatkundliche Schriften. Band 3). Wesermünde 1958 (pdf, 4 MB)
Walter F. Müller: Floristisch- pflanzensoziologische und vegetationsökologische Untersuchungen der Kalksümpfe (Caricion davallianae) in Nordrhein-Westfalen und Rheinland-Pfalz. Bonn 1988, .
Fritz Overbeck: Botanisch-Geologische Moorkunde. Wachholtz, Neumünster 1975, ISBN 3-529-06150-6.
Gert M. Steiner (Hrsg.): Moore von Sibirien bis Feuerland. Biologiezentrum der Oberösterreichischen Landesmuseen, Linz 2005, ISBN 3-85474-146-4.
Michael Succow, Hans Joosten: Landschaftsökologische Moorkunde. 2., völlig neu bearbeitete Auflage. E. Schweizerbart’sche Verlagsbuchhandlung, Stuttgart 2001, ISBN 3-510-65198-7.
M. Succow, L. Jeschke: Moore in der Landschaft: Entstehung, Haushalt, Lebewelt, Verbreitung, Nutzung und Erhaltung der Moore. 2. Auflage. Urania, Leipzig/Jena/Berlin 1990, ISBN 3-87144-954-7.
A. Wagner, I. Wagner: Leitfaden der Niedermoorrenaturierung in Bayern. Bayerisches Landesamt für Umwelt, Augsburg 2005, ISBN 3-936385-79-3.
Filmdokumentationen
2015, Jan Haft: Magie der Moore. Dokumentation, Sprecher: Axel Milberg
Weblinks
badische-zeitung.de 20. Juni 2015: Schottlands Moore sind gut für den Whisky und das Klima
Bundesamt für Naturschutz, bfn.de: Moore
Bundesverband Boden, bvboden.de: Das Niedermoor als Boden des Jahres 2012
Deutsche Gesellschaft für Moor- und Torfkunde: dgmtev.de
Greifswald Moor Centrum: greifswaldmoor.de
Hochschule für nachhaltige Entwicklung Eberswalde, mire-substrates.com: Steckbriefe Moorsubstrate
Naturschutzbund Deutschland (NABU), nabu.de: Moorschutz
ORF 31. Mai 2021, Juliane Nagiller, science.orf.at: Moore – der unterschätzte Klimafaktor
Scinexx, scinexx.de: Klima-Hotspot Moorböden
1. Februar 2022, t-online.de: Nasse Moore - starkes Mittel gegen den Klimawandel
wagner-ugau.de: Links zu Mooren und Feuchtgebieten
Einzelnachweise
Ökosystem
Wikipedia:Artikel mit Video
|
Q1681353
| 279.71123 |
41669
|
https://de.wikipedia.org/wiki/Colombo
|
Colombo
|
Colombo ([], Sinhala: [], Tamil: []) ist de facto die Hauptstadt von Sri Lanka (de jure ist Sri Jayewardenepura Kotte Hauptstadt und Regierungssitz). Colombo liegt an der Westküste der Insel auf Höhe des 7. Breiten- und des 80. Längengrades. Die günstige Lage auf einer Halbinsel und ein geschützter Naturhafen machten das ehemals kleine Fischerdorf zu einem begehrten Handelshafen für die Gewürzinsel. Nach der Unabhängigkeit 1948 wurde die Stadt auch politisches Zentrum der Insel.
Geschichte
Colombo ist seit dem 5. Jahrhundert als Hafenstadt bekannt, die unter anderem römischen, arabischen und chinesischen Händlern als Station diente. Seit dem 8. Jahrhundert siedelten sich dort muslimische Händler an. (Noch heute ist das nahe beim Hafen gelegene Marktviertel Pettah hauptsächlich von Muslimen bewohnt.)
Im 16. Jahrhundert nahmen die Portugiesen einige Küstengebiete Sri Lankas, unter anderem Colombo und seinen Hafen, in Besitz. Sie gaben ihm den Namen Kolamba (anglisierend Colombo) was auf Sinhala Hafen bedeutet. Die Stadt wurde das Zentrum des lukrativen Gewürzhandels, wobei Zimt lange Zeit die Hauptrolle spielte. Zum Schutz des Hafens errichteten die Portugiesen ein Fort. Die Niederländer umzingelten die Stadt und belagerten Colombo sieben Monate lang. Am 12. Mai 1656 gaben die Portugiesen auf. Die Niederländer übernahmen die portugiesischen Besitzungen und führten den Gewürzhandel fort. 1796 eroberten die Briten Sri Lanka von den Niederländern und machten es 1802 zur Kronkolonie, deren Hauptstadt Colombo wurde. Es hat damit nach über 600 Jahren Anuradhapura abgelöst.
Nach der Unabhängigkeit Sri Lankas 1948 war Colombo weiterhin Hauptstadt. Seit 1982 befindet sich der Regierungssitz des Landes aber in Sri Jayewardenepura im Südosten Colombos.
Stadtbild
Das historische Zentrum der Stadt ist das Fort, das heute das Dienstleistungs- und Geschäftsviertel ist. Dort befinden sich unter anderem das alte Parlament, der Amtssitz des Präsidenten, die Zwillingstürme des World Trade Center Colombo, dem zweithöchsten Gebäude Südasiens, der Beira Lake sowie The Kingsbury; sehenswert ist die Mischung von kolonialer und moderner Architektur. Etwas abseits des Finanzviertels befindet sich der Lotus Tower, das mit 350 Metern Höhe höchste Bauwerk des Landes.
Das Galle Face Green ist eine langgezogene Rasenfläche südlich des Forts, das sich vor allem an Sonn- und Feiertagen abends mit Besuchern füllt, die beim Sonnenuntergang in feiner Ausgehkleidung an der Strandpromenade spazieren gehen. Am Südende steht das Galle Face Hotel, das älteste Hotel der Stadt (gegründet 1864). Die weiße Fassade und die Eingangshalle des Gebäudes sind eindrucksvolle Zeugen des Viktorianischen Stils in Sri Lanka; von der Anziehungskraft des Hotels zeugt eine in der Halle angebrachte Tafel, auf der die vielen prominenten Besucher seit Bestehen aufgelistet sind.
Die Galle Road ist die Hauptschlagader von Colombo. Sie zieht sich schnurgerade vom Fort einige hundert Meter landeinwärts entlang der Küste bis an die südliche Stadtgrenze. In den Stadtteilen Kollupitiya und Bambalapitiya finden sich zahlreiche Geschäfte, Bürogebäude und Restaurants und mehrere moderne Einkaufszentren, wo sich vor allem die westlich orientierte Oberschicht einfindet.
Eine wichtige Sehenswürdigkeit ist das im Stadtviertel Cinnamon Gardens gelegene Rathaus, auch Independence Memorial Hall genannt, das 1946 nach dem Vorbild des Capitols in Washington errichtet wurde.
Der wohl berühmteste Einwohner Colombos war der in England geborene Science-Fiction-Autor Arthur C. Clarke, der von 1956 bis zu seinem Tod im März 2008 in Sri Lanka lebte und 2005 den Titel Sri Lankabhimanya erhielt.
Verkehr
Ca. 35 km nördlich befindet sich der Bandaranaike International Airport. Der Hafen von Colombo ist einer der wichtigsten Umschlaghäfen in Asien. In Colombo befindet sich auch die Fort Railway Station, die Hauptbahnhof und Knotenpunkt der Sri Lanka Railways ist.
Die Kelani-Valley-Schmalspurbahn verbindet Colombo über Avissawella mit Yatiyanthota.
Vororte
Colombo ist in 15 nummerierte Gebiete für Postdienste unterteilt. Innerhalb dieser Gebiete liegen die Vororte mit den zugehörigen Postämtern:
Bevölkerung
Colombo ist eine multiethnische, multikulturelle Stadt. Die Bevölkerung besteht hauptsächlich aus Singhalesen, Tamilen und Moors. Es folgt eine Aufstellung der Bevölkerungszusammensetzung nach den Daten der Volkszählung von 2001.
Religion
Colombo ist Sitz des gleichnamigen katholischen Erzbistums. Seit 2009 ist dort Kardinal Albert Malcolm Ranjith Erzbischof.
Sport
In Colombo befinden sich mit Colombo Cricket Club Ground, Paikiasothy Saravanamuttu Stadium, R. Premadasa Stadium und Sinhalese Sports Club Ground vier Test-Cricket-Stadien. In der Stadt bestreitet die Sri-lankische Cricket-Nationalmannschaft regelmäßig Heimspiele gegen andere Nationalmannschaften. Im R. Premadasa Stadium fanden unter anderem Spiele beim Cricket World Cup 1996, Cricket World Cup 2011, der ICC Champions Trophy 2002, der ICC World Twenty20 2012 und der ICC Women’s World Twenty20 2012 statt und im Sinhalese Sports Club Ground Spiele des Cricket World Cup 1996 und der ICC Champions Trophy 2002.
Städtepartnerschaft
Persönlichkeiten
Iman Wilhelm Falck (1736–1785), niederländischer Gouverneur von Ceylon
Edward Frederick Kelaart (1819–1860), Militärchirurg und Naturforscher
Geoffrey Bawa (1919–2003), Architekt
Frederick George Donnan (1870–1956), britischer Chemiker
Ananda Kentish Coomaraswamy (1877–1947), Historiker und Philosoph
S. W. R. D. Bandaranaike (1899–1959), Politiker, von 1956 bis 1959 Premierminister von Ceylon
Humphrey Waldock (1904–1981), britischer Jurist
Junius Richard Jayawardene (1906–1996), Politiker, von 1978 bis 1989 Präsident Sri Lankas
David Morrison Reid Henry (1919–1977), britischer Vogelillustrator
Christopher Weeramantry (1926–2017), Jurist
John Carson (1927–2016), britischer Schauspieler
Tony Hoare (* 1934), britischer Informatiker und Turingpreisträger
Gritakumar E. Chitty (* 1939), Jurist
Walter Haller (* 1939), Schweizer Jurist
David de Kretser (* 1939), australischer Politiker
Chandra Wickramasinghe (* 1939), Astrophysiker
Michael Ondaatje (* 1943), kanadischer Schriftsteller
Nirj Deva (* 1948), britischer Politiker
Anura Bandaranaike (1949–2008), Politiker
Dinesh Gunawardena (* 1949), Politiker, Premierminister von Sri Lanka
Raja Segar (* 1951), Maler und Bildhauer
David Wilkie (* 1954), Schwimmer
Louiqa Raschid (* 1958), sri-lankisch-US-amerikanische Computerwissenschaftlerin
Bernard White (* 1959), US-amerikanischer Schauspieler und Filmproduzent
Beverley Craven (* 1963), britische Sängerin und Songschreiberin
Alexander Gennadijewitsch Chloponin (* 1965), russischer Politiker, Vize-Premierminister und Generalgouverneur
Shyam Selvadurai (* 1965), sri-lankisch-kanadischer Autor
Chandra Kurt (* 1968), Schweizer Wein-Autorin
Jessica Kilian (* 1981), Schweizer Skeletonpilotin
Selapperuma Nirantha Perera (* 1984), Fußballspieler
Oshadi Ranasinghe (* 1986), Cricketspielerin
Upeshka De Silva (* 1987 oder 1988), US-amerikanischer Pokerspieler
Dilip Ruwan (* 1991), Leichtathlet
Kalinga Kumarage (* 1992), Sprinter
Anjani Pulwansa (* 1992), Weitspringerin
Dushan Hemantha (* 1994), Cricketspieler
Ireshani Rajasinghe (* 1994), Hürdenläuferin
Hasini Perera (* 1995), Cricketspielerin
Sadeera Samarawickrama (* 1995), Cricketspieler
Kavindi Ishandika Sirimannage (* 1995), Badmintonspielerin
Ravindu Laksiri (* 1996), Squashspieler
Harshitha Madavi (* 1998), Cricketspielerin
Maheesh Theekshana (* 2000), Cricketspieler
Dunith Wellalage (* 2003), Cricketspieler
Klima
Aufgrund der Nähe zum Äquator (6° 55′ Nord) herrscht ein tropisches Regenklima, elf bis zwölf Monate sind humid. Die Tagestemperaturen sind das ganze Jahr über sehr heiß und es ist sehr feucht (das ganze Jahr über 70 %), tagsüber sind Temperaturen unter 30 °C eine Seltenheit. Auch in den Nächten kühlt es nicht besonders ab, im Mai sind auch Nachttemperaturen über 29 °C nicht selten. Temperaturen unter 20 °C kommen nur in den Wintermonaten Januar bis Februar vor, statistisch gesehen sind sie auch dann nur alle zehn Tage möglich. Die tiefste jemals gemessene Temperatur in Colombo liegt bei 18,8 °C, die höchste bei 37,0 °C.
Siehe auch
Colombo-Plan
Weblinks
Sevanatha. Urban Slums Reports: The case of Colombo, Sri Lanka. Urban Resource Centre, Rajagiriya 2003, S. 1–27
Einzelnachweise
Hauptstadt in Asien
Ort in Sri Lanka
Ort mit Seehafen
Ehemalige Hauptstadt (Sri Lanka)
|
Q35381
| 428.829556 |
294334
|
https://de.wikipedia.org/wiki/Sanit%C3%A4rtechnik
|
Sanitärtechnik
|
Die Sanitärtechnik befasst sich als Teilbereich der Versorgungstechnik (Haustechnik) mit technischen Installationen der Gas- und Wasserversorgung sowie der Abwasserentsorgung, einschließlich der daran angeschlossenen Einrichtungsgegenstände in Bädern, Dusch- und Toilettenanlagen und insbesondere unter Berücksichtigung der Trinkwasserhygiene.
Wortbedeutung
Das Adjektiv „sanitär“ bedeutet „mit der Körperpflege, der Hygiene in Zusammenhang stehend, sie betreffend, ihr dienend“. Es beruht auf dem lateinischen sānitās („Gesundheit“) und wurde im 19. Jahrhundert über den französischen Begriff sanitaire im Deutschen eingeführt.
Zweckbeschreibung
Sanitärtechnische Installationen dienen überwiegend der Hygiene und der Gesundheit des Menschen und spielen somit insbesondere in Schwimmbädern, Saunen, Großküchen, Schlachthäusern und sonstigen Betrieben der Lebensmittelwirtschaft eine wichtige Rolle.
Neben der Ver- und Entsorgung von Trinkwasser in Wohngebäuden und Arbeitsstätten, werden besonders in Landwirtschaft und Industrie auch Nutzwasser-Anlagen installiert.
Sanitärobjekte und Armaturen wie Mischbatterien werden von den meisten Menschen täglich verwendet. Zu den Sanitärobjekten zählen Waschbecken, Bidets, WC-Becken, Urinale, Badewannen, Duschtassen etc.
Viele davon werden traditionell aus Keramik bzw. Porzellan gefertigt und als Sanitärkeramiken bezeichnet. Nicht zu den Keramiken zählen Ausgussbecken, Badewanne und Duschtasse, da diese meist aus emailliertem Stahlblech oder aus Acryl hergestellt sind.
Berufsfeld
Umgangssprachlich werden Sanitärinstallateure oft als Klempner bezeichnet.
Der Heizungsbau und die Klima- bzw. Lüftungstechnik werden häufig mit der Sanitärtechnik als SHK-Technik, also Sanitär-, Heizungs- und Klimatechnik oder als HLS, für Heizung, Lüftung, Sanitär, zusammengefasst.
Ohne die Sanitärtechnik verbleiben die Bereiche der HLK-Technik, also Heizungs-, Lüftungs- und Klimatechnik, in der Schweiz auch HLKK-Technik für Heizungs-, Lüftungs-, Klima- und Kältetechnik. Die internationale Bezeichnung lautet HVAC („Heating, Ventilation and Air Conditioning“).
Der zugehörige Ausbildungsberuf heißt in Deutschland Anlagenmechaniker für Sanitär-, Heizungs- und Klimatechnik. Dabei wird nach Vollendung des 3. Ausbildungsjahres einer der Zusätze „Schwerpunkt Umwelttechnik“, „Schwerpunkt Wärmetechnik“, „Schwerpunkt Gas-Wassertechnik“ oder „Schwerpunkt Klimatechnik“ gewählt.
Ausstattungsgegenstände von Sanitärräumen
Literatur
A. Gassner, U. Wellmann: Der Sanitärinstallateur. 11., überarb. Auflage. Handwerk und Technik, Hamburg 2014, ISBN 978-3-582-03155-6.
Hugo Feurich: Sanitärtechnik, Krammer. 9. Auflage, 2005, ISBN 3-88382-087-3; 10. Auflage, ISBN 978-3-88382-087-3.
S. Blickle, M. Härterich, F. Jungmann u. a.: Sanitärtechnik. 8. Auflage. Europa-Lehrmittel, Haan-Gruiten 2014, ISBN 978-3-8085-1465-8.
M. Härterich, S. Blickle, R. Flegel u. a.: Installations- und Heizungstechnik – Fachkunde (Grundlagen & Lernfelder 1–15). 5. Auflage. Europa-Lehrmittel, Haan-Gruiten 2014, ISBN 978-3-8085-1527-3.
Max Knauff u. a.: Koch-, Spül-, Wasch- und Bade-Einrichtungen. Entwässerung und Reinigung der Gebäude, Ableitung des Haus-, Dach- und Hofwassers, Aborte und Pissoirs, Entfernung der Fäcalstoffe aus den Gebäuden. (= Handbuch der Architektur. Teil 3: Die Hochbau-Constructionen. Band 5). Bergsträsser, Darmstadt 1892.
Weblinks
Bruno Bosy: Geschichte der Sanitär-, Heizungs-, Klima- und Solartechnik, In: Bosy-Online.de
Fußnoten
|
Q949149
| 87.378175 |
8026
|
https://de.wikipedia.org/wiki/Pharao
|
Pharao
|
Pharao war ein seit dem Neuen Reich verwendeter Titel für den König von Ober- und Unterägypten. Der Begriff geht auf das ägyptische Wort Per aa („großes Haus“) zurück, das ursprünglich weder ein Herrschertitel noch ein Eigenname war, sondern die Bezeichnung für den königlichen Hof oder Palast. Als Bezeichnung für die Person des Königs kam er erst ab Thutmosis III. auf. Doch auch danach war diese Titulierung nicht die Regel und nur selten Teil des offiziellen Protokolls. Das Koptische als letzte Sprachstufe des Ägyptischen kennt die Entlehnung aus dem Griechischen wie auch – in der allgemeineren Bedeutung ‚König/-in‘ – Wörter wie Bohairisch /, Sahidisch /, die direkt auf die ägyptische Form zurückgehen.
In der hebräischen Sprache der Bibel werden mit „Pharao“ () anachronistisch alle Könige des Alten Ägypten bezeichnet. Ebenso benutzen zahlreiche Ägyptologen das Wort „Pharao“ für alle ägyptischen Herrscher, obwohl der Titel „König“ (nesut bzw. nesut-biti) zumindest bis Siamun die korrekte Form wäre. Siamun war der erste Herrscher, der Per aa als Königstitel trug. Er regierte als sechster König der 21. Dynastie (Dritte Zwischenzeit).
In der deutschsprachigen Wikipedia trägt jeder Herrscher von der Prädynastik bis zu Siamun den Titel „König“, gefolgt von „Pharao“ in Klammern. Für die Zeit danach wird allein der Titel „Pharao“ verwendet.
Begriffsverwendung
Abgesehen von der kompletten fünfteiligen Königstitulatur führen die altägyptischen Texte auch weitere Benennungen beziehungsweise sogenannte Beinamen des Königs auf. Diese sind sowohl innerhalb seiner Titulatur als auch außerhalb dieser belegt: „der vollkommene (gute) Gott“, „der große Gott“, „Herr der Kronen“, „Herr der beiden Länder“, „Herr des Machens der Dinge (der Kulthandlungen)“ sowie „Herr der Sedfeste“.
Eindeutiger Beleg dafür, dass ein Herrscher sich selbst als Pharao sah, ist oft, dass er seinen Namen in eine Kartusche schrieb, die nur königlichen Namen vorbehalten war. Allerdings haben auch Namen von Königinnen und sogar Prinzessinnen seit dem Ende der 12. Dynastie vereinzelt, später dann regelmäßig, Kartuschen. Die nur auf Skarabäen belegten Herrscher der 16. Dynastie tragen andererseits oft keine Kartusche, sind aber durch die Titel Netjer-nefer („der vollkommene Gott“) und Sa Ra („Sohn des Re“) deutlich als Herrscher identifiziert.
Auch die Lokalkönige aller altägyptischen Kleinstaaten während der Zweiten (16. Dynastie) und der Dritten Zwischenzeit können zu Recht als Pharaonen bezeichnet werden, da sie alle eine meist volle königliche Titulatur trugen. Einigen dieser Herrscher – auch Hohepriester, Gottesgemahlinnen und libysche Lokalfürsten – lassen sich sogar Thronnamen zuweisen, was zeigt, dass sie sich durchaus in der Tradition größerer Herrscher sahen. Außerdem sind die Ptolemäer nicht die letzten Pharaonen, auch die römischen Kaiser zählen im Grunde zu den ägyptischen Pharaonen, da dieses Gebiet zu ihrem Herrschaftsbereich gehörte, und sie zumindest teilweise im Alten Ägypten auch hieroglyphisch belegt sind.
Selbstverständnis des Königs (Pharao)
Gottkönigtum
Seit der frühdynastischen Zeit verstand sich der König (Pharao) als Sohn der Himmelsgottheiten; er war zugleich ihr Bevollmächtigter, Abgesandter, Partner und Nachfolger. Die letztgenannte Gleichsetzung bezieht sich auf die Regierungszeit der Götter, die nach altägyptischer Mythologie zuvor auf der Erde herrschten. Die in der Vergangenheit öfter postulierte göttliche Identifikation mit Horus entspricht nicht der Quellenlage und dem Weltbild, das aus drei Ebenen bestand. Vielmehr sah sich der König auf einer eigenen Ebene zwischen dem göttlichen Himmel und den auf der Erde befindlichen Menschen. Dem König wurde mit seiner Krönung das Amt des „göttlichen Horus“ übertragen. Dieser Vorgang manifestierte sich im Horusnamen. Damit übernahm der König als irdischer Herrscher das „väterliche Amt des Horus“ und galt ergänzend seit der 4. Dynastie als „Sohn des Re“.
Die Ägyptologie verwarf zwischenzeitlich das bis weit über die Mitte des 20. Jahrhunderts vertretene Konzept, das den König mit einer Gottheit gleichsetzte, und definierte aufgrund der Quellenlage die Rolle des Königs in Übereinstimmung mit der altägyptischen Mythologie neu. Nur noch wenige Forscher berufen sich auf eine Göttlichkeit des Königs, beispielsweise der Alttestamentler Klaus Koch, ohne jedoch für diese Annahme Belege zu nennen. Die Sonderrolle kennzeichnete den König als „göttlichen Vermittler“, der die Pläne der Himmelsgötter an die Menschen weitergab und darauf achtete, dass der „göttliche Wille“ entsprechend umgesetzt wurde. Die „Göttlichkeit des Königs“ beschränkte sich daher auf sein Amt und bezog sich nicht auf ihn selbst. Somit erreichte der König nur in Verbindung mit seinem Herrscheramt einen göttlichen Status, ohne jedoch selbst mit einer Gottheit identifiziert zu werden. In der Ägyptologie wird in diesem Zusammenhang der Begriff „Gottkönigtum“ verwendet, der sich auf die im göttlichen Auftrag repräsentativen Tätigkeiten des Königs bezieht. Es bleibt unklar, ob sich die frühdynastischen Könige direkt auf die Gottheit Horus bezogen oder den Horusfalken nur als allgemeines „Symbol der fernen Himmelsgottheiten“ benutzten. Nach dem Tod des Königs (Pharao) trat dieser seinen Himmelsaufstieg an, um dort als vergöttlichter König „neu geboren im Verbund der anderen Gottheiten sowie Ahnen“ sein Amt ausüben zu können.
Im Rahmen seiner Amtsausübung trug der König verschiedenste Beinamen, beispielsweise „Vollkommener Gott“, in welchen die göttliche Sohnschaft mit dem Vorgang als wiedergeborener Reichsgott in der Gestalt des Königs zum Ausdruck gebracht werden sollte. Die von Ramses II. zusätzlich gebrauchte Bezeichnung „Großer Gott“ bezieht sich dagegen auf die Aufwertung des irdischen Königsamtes, das in der göttlichen Rangordnung unterhalb der Götter angesiedelt war. Ramses II. gab sich jedoch nicht damit zufrieden, als „weisungsgebundener Gottkönig“ ein „untergeordnetes Amt“ zu bekleiden, weshalb er in seiner Amtsphilosophie den Versuch unternahm, durch entsprechende Beinamen das Königsamt auf eine den Göttern gleichberechtigte Ebene zu heben. Die „Gleichrangigkeitsbemühungen“ von Ramses II. konnten sich nicht durchsetzen, spiegeln aber die gescheiterten Gegenreaktionen von einigen Königen wider, die versuchten, die Wertigkeit des göttlichen Königsamtes zu erhöhen.
Göttliche Legitimation
Die bei der Krönung „rituell aktivierte Göttlichkeit“ hinsichtlich des Königsamtes versetzte den König in die Rolle des irdischen Repräsentanten der Götter. Damit verbunden übergaben die Gottheiten „ihre Throne, lange Regierungsjahre und das Land Ägypten“, damit der König mit göttlichem Segen die Weltordnung Maat aufrechterhält und gegen ausländische Eroberer schützt. Aus dem zweiten Jahrtausend v. Chr. ist ein Text bekannt, der in zahlreichen Tempeln angebracht wurde und die göttliche Legitimation beschreibt:
Verbot der Namensnennung des Königs (Pharao)
Besonders markant ist das Verbot, den Namen (altägyptisch ren) von Gottheiten zu nennen. Derartige Tabus sind in der Ägyptologie für die alte ägyptische Religion nur sekundär und teilweise untersucht. Herodot berichtete über das Verbot, den Namen von Osiris in bestimmten Zusammenhängen öffentlich auszusprechen. In diesen Themenbereich gehört das Negativbekenntnis von Ramses VI., der sich rühmte, den Namen von Tatenen nicht ausgesprochen zu haben. Der Ritus, den Namen des Königs nicht zu nennen, sondern nur niederzuschreiben und zu lesen, ist öfter bezeugt; beispielsweise ausführlich im Mittleren Reich in der „Lehre eines Mannes für seinen Sohn“ und in Quellen, die „rechtes Verhalten gegenüber dem König“ thematisieren. Gründe für dieses Tabu sind wohl in der Ehrfurcht und Angst vor der jeweiligen Gottheit zu sehen, da durch öffentliches Aussprechen der Empfang negativer magischer Kräfte assoziiert wurde. Im Falle des Verbots der Namenaussprache des Königs dürfte als Hauptmotiv die Furcht vor magischen Folgen liegen, zu dem sich eine mögliche üble Nachrede durch Unvorsichtigkeit ergeben könnte. In diesem Zusammenhang steht das weitere Tabu-Umfeld, die „verborgenen und geheimen Namen bestimmter Götter“ zu nennen.
Kartusche
Die Kartusche, auch als Königsring bezeichnet, ist ursprünglich wohl aus dem sogenannten Schen-Ring entstanden. Sie ist eine Seilschleife mit überlappenden Enden, dem altägyptischen Symbol für Ewigkeit beziehungsweise Unendlichkeit und Schutz, entwickelte sich mit der Länge des jeweiligen Königsnamens bis zu einer mehr langgezogenen, elliptischen Form. Zudem hatte das Binden und Lösen von Knoten in der Magie des Alten Ägypten eine große Bedeutung.
Aus besonders detaillierten Darstellungen wird deutlich, dass die Kartuschenlinie eigentlich aus einer doppelten Schnur besteht, die als Seilschleife um den Königsnamen gelegt und am Ende mit einem Knoten versehen ist. In eher schematischer Darstellung erscheint der Knoten wie ein im Winkel von 90° zur Kartuschenlängsachse platzierter Balken, der in seiner Länge etwa der Kartuschenbreite entspricht. Die Namenshieroglyphen im Inneren der Kartusche begannen stets auf der diesem „Balken“ gegenüberliegenden Seite. Die gesamte Kartusche konnte sowohl vertikal (senkrecht) wie auch horizontal (waagerecht) dargestellt werden, wobei sich bei Letzterer der Kartuschenanfang, je nach Leserichtung, entweder auf der rechten oder auch auf der linken Seite befinden konnte.
Namensschreibweise
Innerhalb der Kartuschen folgt die Namensschreibweise in der Regel den allgemeinen Gesetzmäßigkeiten der Hieroglyphenschreibung. So wird beispielsweise das Zeichen einer im Namen oder Namensteil enthaltenen ägyptischen Gottheit aus Respekt gegenüber dieser dem gesamten Namen beziehungsweise dem entsprechenden Namensteil stets vorangestellt.
Der Thronname von Thutmosis III. lautet in der „ägyptologischen Schulaussprache“ (Transliteration) „Men-cheper-Re“ und wird in der Transkription als mn-ḫpr-Rˁ gelesen, in der deutschen Übersetzung etwa „Bleibend/Beständig ist die Erscheinung(sform) des Re“. Die Namensschreibung innerhalb der Kartusche beginnt jedoch aus den schon erläuterten Gründen mit der Hieroglyphe der Gottheit Re. In der Reihenfolge der Hieroglyphen ist zu lesen: Rˁ-mn-ḫpr.
Namen und Titel
Horus-, Thron- und Eigenname erscheinen häufig auf den Denkmälern eines Königs. In der Frühdynastischen Periode (1. und 2. Dynastie) ist der Horusname der wichtigste Name, während später der Thronname gebräuchlicher wird. Nebti- und Goldname werden dagegen seltener verwendet und sind deshalb von vielen Herrschern nicht bekannt.
Horusname
Der Horusname ist der älteste bezeugte Titel des Königs und kommt schon kurz vor der 1. Dynastie auf. Geschrieben wird der Name in einem sogenannten Serech, ein Rechteck, auf dem ein Falke thront. Der untere Teil des Rechtecks ist mit der Fassade des Königspalastes dekoriert („Palastfassade“), der obere Teil symbolisiert den Hof/das Haus (per). In dieser freien Fläche steht der Name des Königs in Hieroglyphen. Ab der 4. Dynastie kann der Titel ohne Serech geschrieben werden. Die Titelschreibung erfolgt dann in waagerechtem Text mit dem Horusfalken am Anfang.
Nebtiname
Der Nebtiname oder auch Herrinnenname ist als Beiname bereits in der Prädynastik belegt; dort jedoch mit anderer Hieroglyphenzusammensetzung. In der Frühdynastik folgte unter König Hor Den (1. Dynastie) die Einführung des Nebti-Zeichens mit den beiden Göttinnen Nechbet (für Oberägypten) und Wadjet (für Unterägypten). Beide sitzen auf je einem Korb, dem Zeichen für neb (Hieroglyphe Gardiner V30), das „Herr“ bedeutet. Der Nebtiname leitet sich von den zwei vorhandenen neb-Zeichen und den beiden Göttinnen ab. Das Zeichen für neb gehört auch zu einer weiteren Bezeichnung des Königs: „Herr der beiden Länder“ (Neb-taui – nb-t3wj).
Goldname
Als fünfter Titel ist oft der Goldname beziehungsweise Goldhorusname bekannt. Das Symbol für den Goldhorusnamen besteht aus einem Falken (Horus), der auf der Hieroglyphe für Gold (nebu – nbw) sitzt. Der Goldhorusname wurde als offizielle Zusatztitulatur erstmals von Djoser in der 3. Dynastie verwendet. Seit König Snofru wurde dieser Titel durch den Falken, der auf dem Halsschmuck sitzt, eingeleitet, wobei diese Schreibweise bis zum Mittleren Reich gleich blieb.
Thronname
Dem Thronnamen beigestellt ist am häufigsten die Bezeichnung Nesut oder Nisut (njswt), wenn auf den König als weltlichen Herrscher verwiesen wird. Das bedeutet: „der von der Binse“, bezeichnete allerdings nur den Herrscher Oberägyptens, also Südägyptens. Der Titel des Pharaos von Unterägypten war Biti (bjtj), das heißt: „der von der Biene“. Die beiden Titel wurden in offiziellen Inschriften verbunden zu Nesut-biti. War der Thronnamenskartusche die Bezeichnung Nesut-biti vorangestellt, war der Pharao sowohl Herrscher von Ober- wie auch Unterägypten. Trotzdem hielt sich die Bezeichnung „Pharao“ in den meisten Sprachen bis heute für die Bezeichnung des altägyptischen Herrschers. Nicht immer wurden den Pharaonenkartuschen die Zusatzbezeichnungen Sa Ra oder Nesut-biti vorangestellt. Häufig sind auf Statuen, Stelen, Tempel- oder Grabinschriften und Papyrustexten auch allein die Kartuschen zu finden.
Eigenname
Ein ägyptischer König hatte neben seinem Eigennamen (auch „Geburtsname“), welcher seit der 5. Dynastie durch die Bezeichnung Sa Ra (S3 Rˁ), übersetzt mit „Sohn des Re“, verdeutlicht wird, noch insgesamt vier weitere Titel und zusätzlich eine später entstandene Bezeichnung. Mit der Geburt eines Königssohnes war nicht festgelegt, ob dieser seinem Vater auf den Thron folgen würde. So war sein Eigen- beziehungsweise Geburtsname wie der eines normalen Bürgers und enthielt kein „Programm“, so wie es die komplette Königstitulatur mit allen fünf Titeln ausdrückt. Es kam jedoch vor, dass er den Namen seines Vaters oder Großvaters erhielt. Der Name eines Prinzen wurde mit den Worten „Sohn des Königs, von seinem Leibe“ eingeleitet und nicht in einer Kartusche geschrieben.
Andere Bezeichnungen
In Texten oder Beamtentiteln, in denen der König nicht mit Namen genannt wird, wird als Herrschertitel meist das Wort nesut (auch nisut) gebraucht (beispielsweise sesch-nesut, „Schreiber des Königs“), ganz selten biti (zum Beispiel chetemti-biti, „Siegler des Königs“).
In religiösen Texten oder biographischen Inschriften von Beamten wird auf den ägyptischen König oft auch nur als „Horus“ verwiesen, ohne den Namen des Herrschers zu benennen. In eher weltlichem Kontext kommen auch die Bezeichnungen Neb („der Herr“) oder Neb-taui („Herr der Zwei Länder“) vor. Letztere leitet auch oft einen Namen des Herrschers ein. Hier findet sich auch als weitere Zusatzvariante Hem, was immer wieder als „Majestät“ übersetzt wird. Eigentlich bedeutet es nur „Diener“, obwohl die Übersetzung „Person“ in neuerer Literatur immer mehr vorgezogen wird. Diese Zusatzbezeichnung erscheint meist in Formulierungen wie hem-ef (Transliteration: Hm=f), „seine Majestät“, und taucht auch in der Form Hem en neb-taui, (ḥm n nb t3wj), „Diener (oder: die Majestät) des Herrn der Zwei Länder“ auf. Selten, vor allem in der Zweiten Zwischenzeit findet man die Bezeichnung Chu-Baq („regierender Herrscher“).
Manetho war ein Tempelschreiber aus Sebennytos im altägyptischen Theben. Er schrieb um die Mitte des dritten Jahrhunderts v. Chr. unter der Regierung von Ptolemaios I. auf Grund der Schriften der Ägypter in griechischer Sprache die Geschichte Ägyptens von den ältesten Zeiten an bis zur makedonischen Eroberung in drei Büchern (Aegyptiaca). Dieses Werk ist frühzeitig untergegangen, nur das Verzeichnis der Dynastien, ein Drittel der Königsnamen (Manetho-Namen) und einige Fragmente sind erhalten geblieben. Ein Teil der Manetho-Namen (z. B. Amenophis von der ägyptologischen Vokalisation Amenhotep) wird heute noch gebraucht; daneben auch die von Herodot überlieferten Namensformen (z. B. Cheops). Viele Forscher verwenden lieber diese gräzisierten Namen, da sie der Aussprache vielleicht näher kommen als die ägyptologische Vokalisation.
Königliche Insignien
Die Rote und die Weiße Krone, zusammen getragen als „Doppelkrone“ für Unter- und Oberägypten, die sogenannte „Pschent“. Vor der Reichsvereinigung der beiden Länder trugen die Herrscher entweder die weiße oder rote Krone.
Andere Kronen, wie der Chepresch oder das Nemes-Kopftuch.
Geier (Göttin Nechbet) und Uräus (Göttin Wadjet), ebenfalls Symbole für Ober- und Unterägypten, meist zusammen, wie z. B. auf Totenmasken, von denen die bekannteste die des Tutanchamun ist.
Krummstab und Flagellum (oft auch Wedel oder Geißel genannt). Auch sie stehen für Ober- und Unterägypten und geben einen Hinweis auf die Anfänge der Hochkultur.
Der Zeremonial- oder Pharaonenbart: Pharaonen tragen auf allen Reliefs und Malereien einen langen, geflochtenen und künstlichen Bart, dieser wurde – ebenso wie die anderen Königsinsignien – zu offiziellen Anlässen angelegt.
Frauen als König (Pharao)
Es gab vier Frauen, die nachgewiesenermaßen die Alleinherrschaft über Ägypten ausübten. Die bekannteste von ihnen ist Hatschepsut, die zuerst als Vormund für ihren Stiefsohn Thutmosis III. fungierte und später an seiner Stelle die Regentschaft ausübte. Nofrusobek regierte für einige Jahre am Ende der 12. Dynastie. Sie ist die erste Königin mit einer vollen königlichen Titulatur. Tausret regierte am Ende der 19. Dynastie. Ein weiteres Beispiel ist Kleopatra.
Andere Fälle sind Frauen, die für einen Mann regierten, jedoch keine Königstitulatur trugen. Anchenespepi II., die Mutter von Pepi II. regierte für ihren unmündigen Sohn. Durch Belege ist ebenfalls gesichert, dass die Große königliche Gemahlin Teje während der Herrschaft ihres Mannes Amenophis III. Regierungsaufgaben wahrnahm und später vermutlich ebenfalls für ihren Sohn Echnaton.
Es besteht außerdem die Theorie, dass der Amarna-König Semenchkare in Wirklichkeit Echnatons Große königliche Gemahlin Nofretete war, die diesen Namen als neuen Eigennamen annahm. Diese These unterstützen z. B. die Ägyptologen Nicholas Reeves, Michael Höveler-Müller, Christine El-Mahdy und Cyril Aldred.
Siehe auch
Liste der Pharaonen
Fluch des Pharao
Literatur
Susanne Bickel: Die Verknüpfung von Weltbild und Staatsbild. In: Reinhard Gregor Kratz: Götterbilder, Gottesbilder, Weltbilder (Ägypten, Mesopotamien, Persien, Kleinasien, Syrien, Palästina). Mohr Siebeck, Tübingen 2009, ISBN 978-3-16-149886-2, S. 79–102.
Elke Blumenthal: Die Göttlichkeit des Pharao: Sakralität von Herrschaft und Herrschaftslegitimierung im Alten Ägypten. In: Franz-Reiner Erkens: Die Sakralität von Herrschaft: Herrschaftslegitimierung im Wechsel der Zeiten und Räume. Akademie-Verlag, Berlin 2002, ISBN 3-05-003660-5, S. 53–61.
Marie-Ange Bonhême, Annie Forgeau: Pharao, Sohn der Sonne. Die Symbolik des ägyptischen Herrschers. Padmos, Düsseldorf/ Zürich 2001, ISBN 3-491-69036-6.
Hans Bonnet: König, Königin. In: Lexikon der ägyptischen Religionsgeschichte. Nikol, Hamburg 2000, ISBN 3-937872-08-6, S. 380–388.
Alan H. Gardiner: Egyptian Grammar. 3rd Edition, University Press, Oxford 1957, ISBN 0-900416-35-1 (Enthält eine ausführliche Zeichenliste, sowie eine Liste Ägyptisch-Englisch und Englisch-Ägyptisch, dazu die umfangreichste Referenzgrammatik des Mittelägyptischen. Um die Bedeutung einzelner Zeichen nachzuschlagen, ist der Gardiner ein Muss. Auf den Seiten 71–76 (Excursus A) wird die Titulatur der Pharaonen erklärt.)
Rolf Gundlach: Der Pharao und sein Staat: Die Grundlegung der ägyptischen Königsideologie im 4. und 3. Jahrtausend. Wissenschaftliche Buchgesellschaft, Darmstadt 1998, ISBN 3-534-12343-3.
Rainer Hannig: Die Sprache der Pharaonen. Teil: Großes Handwörterbuch Ägyptisch-Deutsch. (= Kulturgeschichte der Antiken Welt. Band 64; Hannig-Lexika. Band 1). von Zabern, Mainz 1995, ISBN 3-8053-1771-9 (Enthält neben einem Wörterbuchteil und einigen anderen Listen pharaonische Namen, wobei aber Horus-, Nebti- und Goldhorusnamen nur in Transliteration, nicht in Hieroglyphen vorliegen, und keiner ist übersetzt.)
Wolfgang Helck, Eberhard Otto: König, Königin. In: Kleines Lexikon der Ägyptologie. Harrassowitz, Wiesbaden 1999, ISBN 3-447-04027-0, S. 147 f.
Stefan Pfeifer: Herrscher- und Dynastiekulte im Ptolemäerreich: Systematik und Einordnung der Kultformen. Beck, München 2008, ISBN 978-3-406-56933-3.
Thomas Schneider: Lexikon der Pharaonen. Albatros, Düsseldorf 2002, ISBN 3-491-96053-3.
Jürgen von Beckerath: Handbuch der ägyptischen Königsnamen (= Münchner Ägyptologische Studien. Band 49). von Zabern, Mainz 1999, ISBN 3-8053-2591-6, (Das Verzeichnis umfasst alle vorkommenden Königsnamen in hieroglyphischen und hieratischen Texten in Zeichnung und Umschrift sowie Informationen zum Königstutular.)
Weblinks
Einzelnachweise
Adelstitel
Königtum (Ägypten)
|
Q37110
| 297.315912 |
44262
|
https://de.wikipedia.org/wiki/Cornwall
|
Cornwall
|
Cornwall (, deutsch auch Kornwall oder veraltet Kornwales bzw. Cornwallis) ist eine traditionelle und zeremonielle Grafschaft sowie eine Unitary Authority und der südwestlichste Landesteil von England innerhalb des Vereinigten Königreiches.
Geographie
Cornwall ist Teil der Halbinsel South West Peninsula und grenzt im Osten an die Grafschaft Devon, zu welcher der restliche Teil der Halbinsel gehört. Grenzfluss ist der River Tamar. Hauptverbindungsstraßen nach Osten sind die A30 und die A38. Eine Autofähre verbindet Plymouth mit Torpoint. Die Eisenbahnhauptstrecke von London verläuft an der Südküste und endet in Penzance.
In Cornwall befinden sich der westlichste und der südlichste Punkt Englands, nämlich Land’s End und Lizard Point (auf der Halbinsel The Lizard). Cornwall ist durch den Atlantischen Ozean, den Ärmelkanal und die Keltische See von drei Seiten mit Wasser umgeben. Raue, steile Felsen, die sich mit langen Stränden und malerischen Buchten (engl. Cove) abwechseln, prägen die Küstenlandschaft. Der höchste Punkt Cornwalls ist der ca. hohe Brown Willy.
Das Klima ist maritim gemäßigt mit viel Niederschlag, die Winter sind besonders mild (Einfluss des Nordatlantikstroms). Dadurch können an windgeschützten Stellen auch mediterrane Pflanzen wachsen. Aufgrund der klimatischen Besonderheiten gibt es zahlreiche bekannte Gärten mit subtropischen Pflanzen.
Geschichte
Cornwall ist seit der Altsteinzeit besiedelt. In der Jungsteinzeit wanderten Bauern und Fischer vom Kontinent ein, die Hünengräber bei Bodmin und Penwith hinterließen. Am Ende der Jungsteinzeit entstand durch kontinentalen Einfluss die Glockenbecherkultur, in der die Bearbeitung von Kupfer aufkam.
Cornwall hat hunderte von vor- und frühgeschichtlichen Monumenten. Sie reichen von den unterirdischen Souterrains (engl. Fogous), über Cairns und Entrance Graves, Grabhügel, Langdolmen, Steine mit Inschriften, Quoits (siehe Portal Tombs und Dolmen) und Promontory Forts, von als Tor Enclosures bezeichneten Anlagen bis hin zu Dartmoor Pounds, Steinkreisen, Steinreihen und Menhiren.
Im 6. Jahrhundert v. Chr. kamen die keltischen Briten von Osten her in das Land und brachten die Kenntnis der Eisenherstellung und -bearbeitung mit. Im Jahr 43 n. Chr. eroberten die Römer Britannien und regierten das Land bis zum Ende des 4. Jahrhunderts. Der Komplex von Chysauster ist ein Relikt aus dieser Zeit.
In der folgenden Zeit bekriegten sich die Kelten untereinander, bis sie der Sage nach von König Artus befriedet wurden. Der Artussage nach wurde König Artus in der in Cornwall liegenden Burg Tintagel Castle gezeugt, wo Grabungen in den Jahren zwischen 1990 und 1999 einen Adelssitz des 5. bis 7. Jahrhunderts erschlossen haben, der an der römischen und demzufolge christlichen Tradition festhielt und nachweislich Kontakte zum Mittelmeerraum unterhielt. Die heutige Burgruine von 1230 wurde vermutlich als Repräsentationsbau in Bezug auf die Artussage errichtet und war schon im 15. Jahrhundert wieder verfallen.
Im 5. Jahrhundert begann die Christianisierung Cornwalls durch irische, walisische und bretonische Missionare.
Auch während der angelsächsischen Ära blieb Cornwall keltisch. Die Eroberung Englands (1066) durch die Normannen unter ihrem Anführer Wilhelm dem Eroberer brachte im Jahr 1072 auch Cornwall unter normannische Herrschaft. Die Cornishmen bewahrten sich aber ihre Sprache und Identität. Der englische König Edward III. machte Cornwall zur Grafschaft mit einem gewissen Sonderstatus.
Während des Mittelalters war Cornwall als einziger Teil des heutigen Englands nicht von Angelsachsen besiedelt, sondern blieb keltisch. Im Jahr 1858 führte der Attorney General to the Duchy of Cornwall Sir George Harrison in einem Disput über die Küstengewässer zwischen Cornwall und der englischen Krone aus, Cornwall sei „ein Pfalzstaat, der extraterritorial gegenüber der Englischen Krone“ sei. Heute wird Cornwall verwaltungstechnisch als County von England behandelt.
Wirtschaft
Die kornische Wirtschaft fußte auf traditionellen Berufsfeldern wie dem Fischfang und dem Bergbau. Der Niedergang dieser Bereiche führte auch zu großen wirtschaftlichen Problemen. Landwirtschaft hat auch heute noch einen hohen Stellenwert in Cornwall. Der Anteil an der regionalen Bruttowertschöpfung lag im Jahr 2003 bei 4 %. Der Anteil der Industrie lag bei 22 %; den größten Anteil hatten Dienstleistungen mit 74 %. Der Dienstleistungssektor soll in der Zukunft noch weiter ausgebaut werden und für weitere Arbeitsplätze sorgen. Die Abhängigkeit der Wirtschaft in Cornwall vom Tourismus ist beträchtlich und liegt bereits bei einem Anteil von etwa 25 %.
Cornwall ist eine der ärmsten Regionen im Vereinigten Königreich. Daher wurde sie auch vor dem Brexit durch Mittel des Wirtschaftsförderungsprogramms der Europäischen Union unterstützt. Die Arbeitslosigkeit, die in der Region traditionell recht hoch ist, ist in den letzten Jahren drastisch zurückgegangen.
Tourismus
Cornwall ist aufgrund der unberührten Landschaft, der rauen Steilküsten, der kilometerlangen feinen Sandstrände, des milden Klimas und der zahlreichen Sehenswürdigkeiten eine für den Tourismus sehr interessante Region.
Erst in den letzten Jahren wurde Cornwall touristisch erschlossen. So wurden beispielsweise stillgelegte Minen zu Besucherbergwerken umgewandelt. Die Anzahl der Besucher nahm daher von 1993 bis 2003 stetig zu. 2003 besuchten fünf Millionen Touristen das Land, die meisten davon kamen aus dem Vereinigten Königreich, nur vier Prozent aus dem Ausland.
Zu den Zentren des Tourismus zählen das für seine Strände und das klare Wasser bereits mehrfach ausgezeichnete St. Ives, das als Künstlerkolonie auch einen Ableger der Londoner Tate Gallery aufweist, der bekannte Badeort Penzance und das bei Surfern sehr beliebte Newquay. Neben zahlreichen Bed-and-Breakfast-Accommodations bietet Cornwall auch eine große Auswahl an Campingplätzen.
Bergbau
Cornwall war die Hauptquelle für Zinn in der Bronzezeit und Antike. Der Zinnbergbau in Cornwall und Devon begann zwischen 2200 und 2100 v. Chr. Das Zinn wurde zur Bronzeherstellung in den gesamten Mittelmeerraum verschifft. Kornisches Zinn führte zu den Forschungsreisen des Pytheas und zu Handelsreisen der Karthager. Der Haupthandelsweg führte jedoch nach Überquerung des Kanals auf dem Landweg durch Gallien. Die Bergleute von Cornwall zählten zu den erfahrensten der Welt.
Bis zum Ende des 19. Jahrhunderts deckte Cornwall mehr als die Hälfte des Weltbedarfs an Zinn. aber auch Kupfer wurde in großem Maßstab hier abgebaut. Im 20. Jahrhundert waren die Minen weitgehend erschöpft, überdies konnten Bergwerke in anderen Ländern billiger produzieren. Als letzte schloss im Jahr 1998 die South Crofty Mine. Bergleute aus Cornwall wanderten nach Amerika aus. Einige der erschöpften Zinnminen wurden aufgrund des steigenden industriellen Bedarfs an Arsen (häufig ein Begleitmineral des Zinns) im frühen 20. Jahrhundert auf Arsengewinnung umgestellt. Besonders die Abraumhalden der Zinngewinnung wurden aufgearbeitet. Durch die Arsenstäube wurden weite Teile des Landes um die Bergwerke vergiftet und zur Wüste. Erst Ende des 20. Jahrhunderts begann man mit einer Rekultivierung des Landes, und einige Bergwerke wie z. B. die Levant Mine oder die Geevor Mine im Bergbaurevier St Just wurden zu Besucherattraktionen ausgebaut.
Kommunikationstechnik
Im späten 19. Jahrhundert erreichten die ersten Seekabel die Küsten von Cornwall. Noch heute gelten die Strände von Porthcurno, Sennen und auf der Halbinsel Lizard als bedeutende Anlandepunkte moderner Seekabel. Neben den Seekabeln spielt die Satellitenkommunikation in Cornwall eine große Rolle. Die Goonhilly Satellite Earth Station, die ehemals größte Satellitenanlage der Welt, befindet sich im südlichen Teil der Halbinsel.
Die für Transatlantikverbindungen günstige Lage Cornwalls machte sich auch der Radiopionier Guglielmo Marconi zunutze: Am 12. Dezember 1901 gelang ihm von seiner Funkstation in Poldhu auf der Halbinsel Lizard die erste transatlantische Funkübertragung. Die von hier ausgesendeten Signale wurden auf dem Signal Hill bei St. John’s auf Neufundland wieder empfangen.
Kornische Sprache
Das Kornische, eine keltische Sprache, starb angeblich 1777 mit dem Tod der letzten Primärsprecherin Dolly Pentreath aus Mousehole als Muttersprache aus. Kornisch gehört zum südwestbritannischen Zweig des Inselkeltischen und ist nahe mit dem Walisischen und dem Bretonischen verwandt; gegenüber der irischen Sprache und der schottisch-gälischen Sprache sind die Unterschiede größer. Inzwischen gibt es Anstrengungen, die Sprache wiederzubeleben, und sie wurde von der britischen Regierung als Minderheitensprache anerkannt.
Der heutige englische Name Cornwall ist vom angelsächsischen Namen , die „kornischen Waliser (Welschen)“ abgeleitet. Der Name Kernow (und damit auch das englische Namenselement Corn-) leitet sich vom britannischen Stamm der Cornovii ab.
Religiös und politisch gelten die Kornen als Nonkonformisten. So gibt es einen Disput, wer Nationalheiliger sein solle: der heilige Piran, Erzengel Michael oder der heilige Petroc. Sankt Piran gilt als populärer, sein Zeichen (ein weißes Kreuz auf schwarzem Grund) ziert die Flagge von Cornwall. Sein Namenstag, der 5. März, wird von den Kornen auf der ganzen Welt gefeiert. Obwohl seine Flagge von kornischen Sezessionisten als Symbol gewählt wurde, ziert sie auch in nicht-politischer Bedeutung die Verpackung mancher kornischer Pasteten.
Verwaltung
Der Verwaltungssitz von Cornwall ist in Truro. Vor dem April 2009 war das Non-Metropolitan County Cornwall in die sechs Distrikte Caradon, Carrick, Kerrier, North Cornwall, Penwith und Restormel aufgeteilt. Durch eine zu diesem Zeitpunkt in Kraft getretene Verwaltungsreform wurden sie abgeschafft und die Kompetenzen des Non-Metropolitan County und der Distrikte in einer einzigen Unitary Authority vereinigt.
Die Scilly-Inseln, die bereits zuvor weitgehende Sonderrechte hatten, schieden zugleich aus der Grafschaft aus und bilden seither eine eigenständige Unitary Authority sui generis. Über die zeremonielle Grafschaft sowie das Herzogtum Cornwall sind beide weiterhin miteinander verbunden.
Der Herzog von Cornwall (meist der britische Thronfolger) hat Sonderrechte die gesamte Grafschaft Cornwall betreffend. Der High Sheriff der Grafschaft wird vom Herzog und nicht vom Monarchen ernannt, anders als in allen anderen Grafschaften Englands und Wales. Alle Besitztümer von Verstorbenen ohne gültige Erben fallen in ganz Cornwall an den Herzog, nicht wie in Großbritannien üblich den Monarchen. Diese Regelung (bona vacantia) trifft auch auf historische Funde wie Goldmünzen und Schiffswracks zu.
Innere Gliederung
Die Unitary Authority Cornwall gliedert sich in 213 Gemeinden (Parish). Von diesen haben 198 einen eigenen Gemeinderat (Parish Council), in den übrigen 15 finden stattdessen Einwohnerversammlungen statt. Truro trägt als Sitz eines Bischofs den Titel City und hat deshalb einen City Council. Orte wie Bodmin, Callington, Camelford, Falmouth, Fowey, Helston, Launceston, Liskeard, Looe, Newquay, Padstow, Penzance, Redruth, St Austell, St Ives oder Wadebridge sind Kleinstädte (Town), deswegen heißt der Rat dort Town Council. Polperro hat sich die Bezeichnung Community gegeben und deswegen einen Community Council.
Orte (Auswahl)
Berriowbridge, Bodmin, Boscastle, Botallack, Bude
Cadgwith, Callington, Calstock, Camborne, Camelford, Carbis Bay, Carn Towan, Charlestown, Chazewater, Coombe, Coverack
Durgan
Egloskerry
Falmouth, Fowey
Gulval, Gwithian
Hayle, Helford, Helston, Holywell
Kilkhampton, Kingsand
Lamorna, Land’s End, Launceston, Leedstown, Leelant, Lellizzick, Liskeard, Lizard, Looe, Lostwithiel, Ludgvan
Madron, Marazion, Mawgan Porth, Mawnan, Menheniot, Mevagissey, Morvah, Mousehole, Mullion, Mylor Bridge, Mylor Churchtown
Newlyn, Newquay
Padstow, Paul, Pendeen, Penryn, Penzance, Perranporth, Perranuthoe, Polperro, Polruan, Polzeath, Porthallow, Porthcurno, Portholland, Porthleven, Porthmeor, Porthoustock, Porthpean, Port Isaac, Portmellon, Portloe, Portreath, Praze-An-Beeble
Redruth, Rinsey
Saltash, Sancreed, Sennen, Sennen Cove, St. Agnes, St. Austell, St. Buryan, St. Day, St. Erth, St. Gennys, St. Ives, St. Just in Penwith, St. Keverne, St. Levan, St. Mawes, Stithians, Stratton
Treen, Treloyhan, Trevalga, Trevescan, Troon, Truro, Tintagel, Torpoint, Towednack
Vogue
Wadebridge
Zennor
Sehenswürdigkeiten
Geologie und Landschaft
Bedruthan Steps
Bodmin Moor
Boscawen Cliff
Cape Cornwall
Cligga Head, Landspitze nahe Perranporth
Compass Point, Landspitze in Bude
Cudden Point, Landspitze nahe Perranuthoe
Dodman Point, Landspitze nahe Mevagissey und höchster Punkt der Südküste Cornwalls (114 m)
Godrevy
Gribben Head, Landspitze nahe Fowey
Gurnard's Head, Landspitze nahe Treen
Kelsey Head, Landspitze nahe Crantock
Land’s End
Lizard Point, südlichster Punkt Großbritanniens
Logan Rock
Pentargon Waterfall, Wasserfall nahe Boscastle
Pentire Point, Landspitze nahe Polzeath
St. Anthony Head, Landspitze bei St. Mawes
St. Nectan's Glen, Schlucht nahe Tintagel
Stepper Point, Landspitze nahe Padstow
Trevose Head, Landspitze nahe Padstow
Tubby's Head, Landspitze nahe St. Agnes
Warren Point, Landspitze nahe Boscastle
Vor- und frühgeschichtliche Denkmäler
Boscawen-ûn
Carn Euny
Chûn Quoit und Chûn Castle
The Hurlers
Lanyon Quoit
Mên-an-Tol
Merry Maidens
Mulfra Quoit
Trethevy Quoit
Tristan-Stein
Zennor Quoit
Gärten
The Eden Project
Glendurgan Garden
Lamorran Gardens
The Lost Gardens of Heligan
Trebah Garden
Trelissick Garden
Strände und Buchten
Basset's Cove
Boat Cove
Bossiney Cove
Brea Beach
Butterhole Beach
Carbis Bay Beach
Chapel Porth Beach
Crantock Beach
Crooklets Beach
Fistral Beach
Gwithian Beach
Gwynver Beach
Hanover Cove
Holywell Bay
Kynance Cove
Lamorna Cove Beach
Long Rock Beach
Marazion Beach
Merlin's Cave
Pedn Vounder Beach
Penberth Cove
Pentire Steps Beach
Perranuthoe Beach
Poly Joke Beach
Porth Beach
Porthcurno Beach
Portheras Cove
Porthgwarra Beach
Porthgwidden Beach
Porthkidney Beach
Porthmeor Beach
Porthminster Beach
Porthtowan Beach
Portreath Beach
Praa Sands Beach
Priest Cove
Prussia Cove
Sennen Beach
Sennen Cove
Summerleaze Beach
Trevaunance Cove
Trevellas Cove
Upton Towans Beach
Vugga Cove
Watergate Bay
Zennor Beach
Architektur
Botallack Mine
Kathedrale von Truro
Godolphin House
Great Wheal Charlotte
Lanhydrock House
Lizard Lighthouse
Minack Theatre
Mount Edgcumbe House
Pendennis Castle
Penlee House
Penstowe Castle
Polruan Blockhouse
Prideaux Place, Herrenhaus aus dem 16. Jahrhundert in Padstow
River Fowey
Roseland Peninsula
St. Ia's Church
St. Mawes Castle
St. Michael’s Mount
Tate St. Ives
Tintagel Castle
Trerice
Trewavas Mine
Wheal Coates
Wheal Owles
Cornwall in der englischen Literatur
Cornwall ist sowohl in der Hoch- wie auch in der Kinder- und Trivialliteratur ein immer wieder von den Schriftstellern gewählter Handlungsort. Virginia Woolf widmete Cornwall zwei ihrer Romane. Die wichtigsten Romane von Daphne du Maurier, die die meiste Zeit ihres Lebens in Cornwall verbrachte, spielen alle in Cornwall. Gleiches gilt für die Romane von Howard Spring. Jeremy Seal beschreibt die Bedeutung von Seefahrt und Strandpiraterie für Cornwall im 19. Jahrhundert ausführlich in einem teils fiktionalen Werk. Auch die Internatsgeschichten von Enid Blyton sollen in Schulen an der cornischen Küste angesiedelt sein. In der Trivialliteratur ist es vor allem Rosamunde Pilcher zu verdanken, dass Cornwall, besonders durch die unter deutscher Produktion für das ZDF verfilmten Romane, seit den 1990er Jahren in Deutschland immer bekannter geworden ist.
Küche in Cornwall
Mit Cornwall verbunden ist die Cornish Pasty, eine mit verschiedenen Inhalten gefüllte Teigtasche. Cornish Pasty ist eine geschützte geografische Angabe und darf daher nur für Pasty verwendet werden, welche die dafür festgelegten Bestimmungen erfüllt. Ein traditionelles Gericht, dessen Entstehung eine Legende erklärt, ist Stargazy Pie, eine pie mit Fischfüllung.
Literatur
Geschichte
Nicholas Orme: The Saints of Cornwall. Oxford University Press, Oxford u. a. 2000, ISBN 0-19-820765-4.
Laura Göbelsmann: Jenseits des Grüns. Cornwall und seine industrielle Vergangenheit. Promedia Verlag 2011, ISBN 978-3-85371-324-2.
Kultur
Malte Tschirschky: Die Erfindung der keltischen Nation Cornwall. Kultur, Identität und ethnischer Nationalismus in der britischen Peripherie. Universitätsverlag Winter, Heidelberg 2006, ISBN 978-3-8253-5278-3.
Sprache
Daniel Prohaska: Kornisch Wort für Wort. Kauderwelsch. Reise Know-How Verlag Rump, August 2006, ISBN 978-3-89416-375-4.
Belletristik
Daphne du Maurier: Cornwall-Saga. Roman einer Landschaft. Schweizer Verlagshaus, Zürich 1984, ISBN 3-596-28182-2.
Jeremy Seal: The Wreck at Sharpnose Point. Picador, London 2001 u.ö. Deutsche Ausgabe: Das Wrack. Klett-Cotta, Stuttgart 2003, ISBN 978-3-608-93388-8.
Sport
Eine in Cornwall beheimatete Sportart ist das Cornish wrestling (Omdowl Kernewek). Dabei handelt es sich um eine fast ausschließlich in Cornwall praktizierte Variante des Ringens, die Ähnlichkeiten zum bretonischen Gouren aufweist. Ebenfalls in Verbindung mit der kornischen Kultur steht das Cornish Hurling, eine Art mittelalterliches Fußballspiel, das mit einem Silberball gespielt wird. Trotz des gleichen Namens ist es nicht zu verwechseln mit dem Hurling aus Irland.
Der englische Nationalsport Fußball war in Cornwall lange Zeit nur wenig verbreitet, erfreut sich jedoch einer zunehmenden Beliebtheit. Da es keinen kornischen Profi-Klub gibt, sind viele Bewohner Cornwalls Fans von Plymouth Argyle aus dem benachbarten Devon. Der erfolgreichste kornische Verein ist Truro City. 2007 gewann Truro den FA Vase, den nationalen Pokal der Non-League-Teams. Aktuell spielt der Verein in der siebtklassigen Southern Football League.
Weblinks
Offizielle Website der Unitary Authority (englisch)
Cornwall Local Authority. Statistische Daten auf Basis der Volkszählung 2011 auf der Website des Office for National Statistics (englisch)
Cornwall in der Datenbank des Ordnance Survey (englisch)
Fotos von Cornwall
Einzelnachweise
Englische Grafschaft
Region in Europa
Historische Landschaft oder Region in Europa
Halbinsel (England)
Halbinsel (Europa)
Halbinsel (Atlantischer Ozean)
Unitary Authority (England)
|
Q23148
| 472.918532 |
16975
|
https://de.wikipedia.org/wiki/Magnolien
|
Magnolien
|
Die Magnolien (Magnolia) sind eine Pflanzengattung in der Familie der Magnoliengewächse (Magnoliaceae). Sie enthält über 350 Arten, die alle aus Ostasien oder Amerika stammen. Die Gattung wurde nach dem französischen Botaniker Pierre Magnol (1638–1715) benannt.
Einige Magnolien-Arten und ihre Sorten sind beliebte Ziergehölze, darunter die Tulpen-Magnolie, die in Deutschland nicht selten einfach als „Magnolie“ bezeichnet wird.
Beschreibung
Vegetative Merkmale
Magnolien-Arten sind Sträucher oder Bäume, die sommer- oder immergrün sind. Die Laubblätter sind wechselständig angeordnet, manchmal an den Enden der Zweige gehäuft. Die Blattspreite ist immer einfach und der Blattrand ist glatt. Nebenblätter sind vorhanden und fallen bald nach dem Entfalten des zugehörigen Blattes ab. Die Form der Nebenblätter ist ein wichtiges Bestimmungsmerkmal der Magnolien.
Generative Merkmale
Viele Magnolien sind protogyn, also vorweiblich. Die Blüten sitzen meist einzeln, endständig an den Zweigen, seltener auch an Kurztrieben in den Blattachseln. Die Blüten werden bei einigen Arten schon in der vorhergehenden Vegetationsperiode angelegt und blühen im Frühling auf, bevor die ersten Blätter erscheinen, was die Pflanzen als Ziergehölze besonders attraktiv macht. Die zwittrigen, meist duftenden Blüten sind azyklisch aufgebaut, das heißt, sie sind nicht in Blütenblattkreise gegliedert, und die Blütenblätter stehen nicht in Wirteln zusammen, sondern alle Blütenteile stehen schraubig angeordnet an einer Blütenachse. Pro Blüte gibt es viele (6 bis über 15), oft gleichgestaltete Blütenhüllblätter, viele Staubblätter und viele oberständige, meist freie Fruchtblätter (in unbestimmter Anzahl).
Im Falle erfolgreicher Bestäubung entstehen an der verlängerten Blütenachse, schraubig angeordnet, viele balgförmige Früchtchen in einer Sammelbalgfrucht. Deren Samen, mit meist einer farbigen Sarkotesta, hängen meist an langen, zähen Fäden (Funiculus) aus der reifen „Frucht“ herunter.
All dies sind sehr ursprüngliche Merkmale.
Giftstoffe, Wirkung und Symptome:
Magnolien gelten als nur leicht giftig, das Alkaloid Magnoflorin findet sich hauptsächlich in der Rinde und im Holz. Vergiftungserscheinungen können Haut- und Schleimhautblasen sowie Krämpfe sein.
Bestäubung
Magnolien-Arten werden durch Käfer bestäubt. Die Gattung reicht bis in die Kreidezeit (über 100 Mio. Jahre) zurück.
Gefährdung
Die Bournemouth University teilte am 4. April 2007 mit, die Rote Liste der Magnoliengewächse führe 132 von insgesamt 245 Arten als gefährdet. Als Hauptursachen der Bedrohung werden die Zerstörung der natürlichen Lebensräume der Magnolien für die Landwirtschaft sowie deren übermäßige Ausbeutung angesehen.
Nutzung
Magnolien werden vor allem aufgrund ihrer großen, auffälligen Blüten als Ziergehölze sehr geschätzt. Einige Arten wie Magnolia officinalis werden arzneilich in der Traditionellen chinesischen Medizin verwendet oder dienen als Nahrungsmittel, so die Arten Magnolia cylindrica und Magnolia hedyosperma. Das Holz der Magnolia obovata wird in Japan für die traditionelle Herstellung von Schwertscheiden und -griffen verwendet.
In Mitteleuropa kultivierte Arten und Hybriden
Gurken-Magnolie (Magnolia acuminata ), mit der gelb blühenden Varietät:
Magnolia acuminata var. subcordata
Yulan-Magnolie (Magnolia denudata )
Berg-Magnolie (Magnolia fraseri )
Immergrüne Magnolie (Magnolia grandiflora )
Magnolia hypoleuca
Kobushi-Magnolie (Magnolia kobus )
Purpur-Magnolie (Magnolia liliiflora )
Magnolia ×loebneri = Manolia kobus × Magnolia stellata
Großblättrige Magnolie (Magnolia macrophylla )
Weidenblättrige Magnolie (Magnolia salicifolia )
Sommer-Magnolie oder Siebolds Magnolie (Magnolia sieboldii )
Tulpen-Magnolie oder Garten-Magnolie (Magnolia ×soulangeana ), (wird nur beim Namen mit dem Tulpenbaum verwechselt)
Stern-Magnolie (Magnolia stellata )
Schirm-Magnolie (Magnolia tripetala )
Sumpf-Magnolie oder Virginische Magnolie (Magnolia virginiana )
Magnolia ×watsonii
Hängeblütige Magnolie oder Wilsons Magnolie (Magnolia wilsonii )
Es gibt zahlreiche Magnolien-Hybriden, die aus gärtnerischer Kultur hervorgegangen sind. Sie wurden nach wünschenswerten Merkmalen wie Habitus, Blütengröße und Blütenfarbe ausgelesen.
Das Ergebnis sind rosa, weinrote und gelbe Blütenfarben, die sich in Größe und Form von Magnolia ×soulangeana unterscheiden.
Systematik
Die folgende Darstellung der Systematik der Gattung folgt Figlar & Nooteboom: Notes on Magnoliaceae IV. Blumea 49: 87–100, 2004. Dabei wurden die früheren Gattungen Magnolia , Manglietia , Michelia , Talauma , Aromadendron , Kmeria , Pachylarnax , Alcimandra zu einer Gattung zusammengefasst; das sind alle Gattungen des früheren Umfangs der Familie der Magnoliaceae, die der heutigen Unterfamilie der Magnolioideae entspricht; es bleibt also lediglich die zwei Arten umfassende Gattung Liriodendron, also die Unterfamilie Liriodendroideae, außen vor.
Die Magnolia sind nun die einzige Gattung der Unterfamilie Magnolioideae. Die Gattung wird gegliedert in drei Untergattungen, zwölf Sektionen und einige Untersektionen:
Untergattung Magnolia:
Sektion Magnolia: Neotropis:
Immergrüne Magnolie (Magnolia grandiflora ): südöstliche USA bis Texas
Magnolia guatemalensis : Sie kommt in zwei Unterarten in Guatemala, El Salvador und Honduras vor.
Magnolia iltisiana : westliches Mexiko
Magnolia pacifica : westliches Mexiko
Magnolia panamensis : Panama und Costa Rica
Magnolia poasana : Costa Rica, Panama
Magnolia schiedeana : östliches Mexiko
Magnolia sharpii : Chiapas in Mexiko
Magnolia sororum : Sie kommt in zwei Unterarten von Mexiko bis Panama vor.
Magnolia tamaulipana : nordöstliches Mexiko
Sumpf-Magnolie (Magnolia virginiana ): Sie kommt in zwei Unterarten und einer Varietät von den östlichen Vereinigten Staaten bis Texas und in Kuba vor.
Magnolia yoroconte : Sie kommt von Mexiko bis Guatemala, Honduras und Belize vor.
Sektion Gwillimia:
Untersektion Gwillimia: Asien und Borneo:
Magnolia albosericea : Sie kommt in China und in Vietnam vor.
Magnolia championii : südliches & südöstliches China und Vietnam
Magnolia coco : südliches China bis zum nördlichen Vietnam und Taiwan
Magnolia delavayi : Yunnan und Sichuan
Magnolia fistulosa , (Syn.:Magnolia phanerophlebia ): Sie kommt vom südöstlichen Yunnan bis ins nördliche Vietnam vor.
Magnolia henryi : Sie kommt vom südwestlichen Yunnan bis Thailand, Laos und Myanmar vor.
Magnolia nana : Nördliches Vietnam
Magnolia odoratissima : Südöstliches Yunnan bis nördliches Vietnam
Magnolia persuaveolens : Sie kommt in zwei Unterarten und einer Varietät in Borneo vor.
Magnolia pterocarpa : Sie kommt von Nepal bis Bangladesch vor.
Untersektion Blumiana : Tropisches Asien und Malesien
Magnolia liliifera (Syn.: Magnolia candollii ): Sie kommt von Sikkim bis Neuguinea vor.
Magnolia gigantifolia : Borneo, Sumatra und Bangka
Magnolia hodgsonii : Sie kommt von Nepal bis ins südöstliche Yunnan vor.
Magnolia lasia : Borneo
Magnolia mariusjacobsia : Borneo
Magnolia sarawakensis : Borneo
Magnolia villosa : Sumatra, Malaiische Halbinsel, Borneo, Sulawesi
Sektion Talauma
Untersektion Talauma: Neotropis:
Magnolia allenii : Panama
Magnolia amazonica : Brasilien
Magnolia arcabucoana : Kolumbien
Magnolia boliviana : Bolivien
Magnolia caricifragrans : Zentrales und nordöstliches Kolumbien
Magnolia cespedesii : Kolumbien
Magnolia chocoensis : Kolumbien
Magnolia dixonii : Ecuador
Magnolia dodecapetala : Kleine Antillen bis Trinidad
Magnolia espinalii : Kolumbien
Magnolia georgii : Kolumbien
Magnolia gilbertoi : Kolumbien
Magnolia gloriensis : Nicaragua bis Panama
Magnolia hernandezii : Westliches Kolumbien
Magnolia irwiniana : Brasilien
Magnolia katiorum : Kolumbien
Magnolia mexicana : Sie kommt vor in Mexiko, Guatemala und Honduras
Magnolia minor : Östliches Kuba
Magnolia morii : Panama
Magnolia narinensis : Kolumbien
Magnolia neillii : Kolumbien und Ecuador
Magnolia ovata : Brasilien
Magnolia polyhypsophylla : Kolumbien
Magnolia rimachii : Peru, Ecuador und südöstliches Kolumbien
Magnolia sambuensis : Sie kommt vor in Panama und im nordwestlichen Kolumbien.
Magnolia santanderiana : Kolumbien
Magnolia sellowiana : Brasilien
Magnolia silvioi : Sie kommt in Kolumbien vor.
Magnolia virolinensis : Kolumbien
Magnolia wolfii : Kolumbien
Untersektion Dugandiodendron : Nördliches Südamerika:
Magnolia argyrothricha : Kolumbien
Magnolia calimaensis : Kolumbien
Magnolia calophylla : Kolumbien
Magnolia cararensis : Kolumbien
Magnolia chimantensis : Sie kommt in Kolumbien und in Venezuela vor.
Magnolia colombiana : Kolumbien
Magnolia guatapensis : Kolumbien
Magnolia lenticellata : Kolumbien
Magnolia mahechae : Kolumbien
Magnolia neomagnifolia (Syn.: Magnolia magnifolia in non ): Sie kommt im westlichen Kolumbien vor.
Magnolia ptaritepuiana : Venezuela
Magnolia striatifolia : Sie kommt vom südwestlichen Kolumbien bis zum nordwestlichen Ecuador vor.
Magnolia urraoense : Kolumbien
Magnolia yarumalensis : Kolumbien
Untersektion Cubenses : Große Antillen:
Magnolia cubensis (inkl. Magnolia cacuminicola ): Sie kommt in vier Unterarten im zentralen und östlichen Kuba vor.
Magnolia cristalensis : Dieser Endemit kommt nur im östlichen Kuba vor.
Magnolia domingensis : Sie kommt auf Hispaniola vor.
Magnolia ekmannii : Dieser Endemit kommt nur im südwestlichen Haiti vor.
Magnolia emarginata : Sie kommt im nördlichen Haiti vor.
Magnolia hamorii : Dominikanische Republik
Magnolia pallescens : Dieser Endemit kommt nur in der westlichen Dominikanischen Republik vor.
Magnolia portoricensis : Puerto Rico
Magnolia splendens : Dieser Endemit kommt nur im östlichen Puerto Rico vor.
Sektion Manglietia: Asien:
Magnolia aromatica : Sie kommt vom südlichen China bis zum nördlichen Vietnam vor.
Magnolia blaoensis : Vietnam
Magnolia calophylloides (Syn.: Manglietia calophylla ): westliches Sumatra
Magnolia caveana : Sie kommt von Assam bis Yunnan vor.
Magnolia chevalieri : Vietnam, Laos
Magnolia conifera : Sie kommt vom südlichen China bis ins nördliche Vietnam vor.
Magnolia dandyi (Syn: Magnolia megaphylla ): Südliches China, Vietnam, Laos
Magnolia decidua : Sie kommt in der chinesischen Provinz Jiangxi vor.
Magnolia duclouxii : Vietnam, südwestliches China
Magnolia fordiana (Syn.: Manglietia yuyuanensis ): Sie kommt in vier Varietäten vom südlichen China bis Vietnam vor.
Magnolia garrettii : Sie kommt vom südlichen Yunnan bis Vietnam und dem nördlichen Thailand vor.
Magnolia grandis : Sie kommt im südöstlichen Yunnan und im südwestlichen Guangxi vor.
Magnolia hookeri : Sie kommt von Assam bis China, Myanmar und dem nördlichen Thailand vor.
Magnolia insignis : Sie kommt von Nepal bis ins südliche China vor.
Magnolia kwangtungensis (Syn.: Magnolia moto ): Sie kommt in China vor.
Magnolia lanuginosoides (Manglietia lanuginosa ): Sumatra
Magnolia liliifera (Syn.: Magnolia pachyphylla ): Sie kommt von Sikkim bis Neuguinea vor.
Magnolia lucida : Sie kommt im südöstlichen Yunnan vor.
Magnolia obovalifolia : Sie kommt in den chinesischen Provinzen Yunnan und Guizhou vor.
Magnolia ovoidea : Sie kommt im südöstlichen Yunnan vor.
Magnolia phuthoensis : Vietnam
Magnolia rufibarbata : Sie kommt von Yunnan bis Vietnam vor.
Magnolia sabahensis : Borneo
Magnolia sumatrana : Sumatra, Java, Kleine Sundainseln, Sulawesi. Mit den Varietäten:
Magnolia sumatrana var. sumatrana: Westliches Sumatra
Magnolia sumatrana var. glauca (Magnolia blumei ): Sumatra, Java, Kleine Sundainseln, Sulawesi
Magnolia szechuanica : Südwestliches China. Wird auch als Unterart Magnolia ernestii subsp. szechuanica zu Magnolia ernestii gestellt.
Magnolia utilis (Syn: Magnolia dolichogyna ): Sie kommt von Myanmar bis zur Malaiischen Halbinsel und Thailand vor und in Borneo und Sulawesi.
Magnolia ventii (Syn.: Magnolia hebecarpa ): Sie kommt im südöstlichen Yunnan vor.
Sektion Kmeria : Es gibt drei Arten in Asien:
Magnolia duperreana : Sie kommt in Thailand, Vietnam und Kambodscha vor.
Magnolia kwangsiensis (Syn.: Kmeria septentrionalis ): Sie kommt im nördlichen und zentralen Guangxi und im südöstlichen Guizhou vor.
Magnolia thailandica : Thailand
Sektion Rhytidospermum
Untersektion Rhytidospermum: Es gibt drei Arten in Asien und eine in den USA:
Honoki-Magnolie (Magnolia obovata ): Sie kommt von den südlichen Kurilen bis Japan vor.
Magnolia officinalis : Sie kommt in zwei Varietäten in China vor.
Magnolia rostrata : Sie kommt im nordöstlichen Myanmar, im südöstlichen Tibet und im westlichen Yunnan vor.
Schirm-Magnolie (Magnolia tripetala ): Sie kommt von den östlichen Vereinigten Staaten bis Oklahoma vor.
Untersektion Oyama : Es gibt drei Arten in Asien:
Magnolia globosa : Sie kommt von Nepal bis Myanmar und ins südliche und zentrale China vor.
Sommer-Magnolie (Magnolia sieboldii ): Sie kommt in drei Unterarten von China und Korea bis Japan vor.
Magnolia wilsonii : südwestliches China
Sektion Auriculatae : Es gibt nur eine Art:
Berg-Magnolie (Magnolia fraseri ): Sie kommt in zwei Varietäten von West Virginia bis Texas vor.
Sektion Macrophyllae : Es gibt nur eine Art:
Großblättrige Magnolie (Magnolia macrophylla ): Sie kommt in drei Varietäten von Ohio bis in die südöstliche USA und Mexiko vor und außerdem von Kuba bis Puerto Rico.
Untergattung Yulania
Sektion Yulania
Untersektion Yulania: in Asien:
Magnolia amoena : südöstliches China
Magnolia biondii : Zentrales China
Magnolia campbellii : Sie kommt vom östlichen Nepal bis China vor.
Magnolia cylindrica : östliches China
Magnolia dawsoniana : Sichuan, Yunnan.
Yulan-Magnolie (Magnolia denudata ): zentrales und östliches China
Kobushi-Magnolie (Magnolia kobus ) (Syn.: Magnolia praecocissima ): Sie kommt in Japan und in der koreanischen Provinz Jeju-do vor.
Purpur-Magnolie (Magnolia liliiflora ) (Syn.: Magnolia quinquepeta ): Zentralchina
Magnolia salicifolia : Sie kommt im zentralen und südlichen Japan vor.
Magnolia sargentiana : Sie kommt in Sichuan und Yunnan vor.
Magnolia sprengeri : Sie kommt im zentralen China vor.
Stern-Magnolie (Magnolia stellata ) (Syn.: Magnolia tomentosa , Magnolia kobus var. stellata ): Sie kommt auf Honshu vor.
Magnolia zenii (Syn.: Magnolia elliptilimba ): Sie kommt in den chinesischen Provinzen Henan und Jiangsu vor.
Untersektion Tulipastrum : Mit der einzigen Art:
Gurken-Magnolie (Magnolia acuminata ): Sie kommt in zwei Varietäten von Ontario bis in die östlich-zentralen und östlichen Vereinigten Staaten vor.
Sektion Michelia
Untersektion Michelia : In Asien:
Magnolia × alba = Magnolia champaca × Magnolia montana
Magnolia angustioblonga : Sie kommt in der chinesischen Provinz Guizhou vor.
Magnolia baillonii (Syn.: Paramichelia baillonii ): Sie kommt von Assam bis in südliche Yunnan und in Thailand, Myanmar, Kambodscha und Vietnam vor.
Magnolia balansae : südliches China, Vietnam.
Magnolia banghamii : Sumatra
Magnolia braianensis : Vietnam
Magnolia cavaleriei : Sie kommt in zwei Varietäten im südlichen China vor.
Champaka (Magnolia champaca ): Sie kommt in zwei Varietäten vom südlichen Indien bis ins südlich-zentrale China und den Kleinen Sundainseln vor.
Magnolia chapensis (Syn.: Magnolia jiangxiensis , Magnolia microcarpa ): südliches China, nördliches Vietnam.
Magnolia compressa : Sie kommt vom südwestlichen Japan bis Taiwan, in der koreanischen Provinz Jeju-do und im östlichen und südlichen Yunnan vor.
Magnolia coriacea : südöstliches Yunnan
Magnolia doltsopa : Sie kommt von Nepal bis Yunnan vor.
Magnolia ernestii (Syn.: Michelia wilsonii ): Sie kommt in zwei Unterarten im südlichen China vor.
Magnolia figo : Sie kommt in drei Varietäten im südöstlichen China vor und kam früher in einer Varietät auch in der koreanischen Provinz Jeju-do vor.
Magnolia flaviflora : Vietnam, Yunnan.
Magnolia floribunda (Syn.: Magnolia microtricha ): Sie kommt vom südlichen China bis Thailand, Laos, Myanmar und Vietnam vor.
Magnolia foveolata : südliches China, Vietnam.
Magnolia fujianensis : Sie kommt in den chinesischen Provinzen Fujian und in Jiangxi vor.
Magnolia fulva (Syn.: Magnolia ingrata ): Sie kommt in zwei Varietäten von Yunnan bis Vietnam vor.
Magnolia guangxiensis : Guangxi (China)
Magnolia hypolampra : südliches China, Vietnam.
Magnolia kingii : Sie kommt von Sikkim bis Bangladesch vor.
Magnolia kisopa : Sie kommt von Nepal bis Vietnam vor.
Magnolia koordersiana : Sie kommt von Thailand bis ins westliche Sumatra vor.
Magnolia lacei : Sie kommt in Myanmar, Vietnam und im südlichen Yunnan vor.
Magnolia laevifolia (Syn.: Magnolia dianica , Michelia yunnanensis ): Sie kommt in den chinesischen Provinzen Yunnan, Sichuan und Guizhou vor.
Magnolia lanuginosa (Syn.: Michelia velutina ): Sie kommt von Nepal bis Yunnan vor.
Magnolia leveilleana : südlichzentrales China
Magnolia macclurei : südliches China, nördliches Vietnam.
Magnolia mannii : Sie kommt von Assam bis Bangladesch vor.
Magnolia martini : Sie kommt vom südlichen China bis Vietnam vor.
Magnolia masticata : Yunnan, Laos und Vietnam.
Magnolia maudiae : Sie kommt vom südlichen China bis Hainan vor.
Magnolia mediocris (Syn.: Magnolia subulifera ): Sie kommt vom südlichen China bis Vietnam, Laos, Kambodscha und Thailand vor.
Magnolia montana : Sie kommt vom westlichen Malesien bis Bali vor.
Magnolia nilagirica : Sie kommt im westlichen und südlichen Indien und in Sri Lanka vor.
Magnolia oblonga : Sie kommt von Assam bis Bangladesch vor.
Magnolia odora : südöstliches China, nördliches Vietnam.
Magnolia opipara : Sie kommt im südöstlichen Yunnan vor.
Magnolia philippinensis : Philippinen und nördliches Thailand.
Magnolia punduana : Assam
Magnolia rajaniana : Nördliches Thailand
Magnolia scortechinii .: Malaiische Halbinsel, westliches Sumatra.
Magnolia shiluensis : Insel Hainan
Magnolia sirindhorniae : Nordöstliches und zentrales Thailand
Magnolia sphaerantha : Yunnan
Magnolia sumatrae (Syn.: Michelia salicifolia ): Sie kommt im westlichen Sumatra vor.
Magnolia xanthantha : Yunnan
Untersektion Elmerrillia : Malesien
Magnolia platyphylla : Sie kommt auf den Philippinen-Inseln Leyte, Mindanao und der Zamboanga-Halbinsel vor.
Magnolia pubescens : Sie kommt auf Mindanao vor.
Magnolia sulawesiana : Sie kommt auf Sulawesi vor.
Magnolia tsiampacca : Sie kommt in Sumatra, Borneo, Sulawesi, Molukken, Neuguinea, Bismarck-Archipel vor. Mit zwei Unterarten und zwei Varietäten:
Magnolia tsiampacca ssp. mollis : Sumatra, Borneo.
Magnolia tsiampacca ssp. tsiampacca: Sie kommt von Sumatra bis zum Bismarck-Archipel vor.
Magnolia tsiampacca ssp. tsiampacca var. glaberrima : Neuguinea
Magnolia tsiampacca ssp. tsiampacca var. tsiampacca: Sulawesi, Molukken (Ambon?, Buru), Neuguinea, Bismarck-Archipel
Magnolia vrieseana (Syn.: Elmerrillia ovalis ): Sie kommt von Sulawesi bis zu den Molukken vor.
Untersektion Maingola
Magnolia annamensis : Südliches Vietnam
Magnolia carsonii : Sie kommt in zwei Varietäten von Thailand bis Sulawesi vor.
Magnolia cathcartii (Syn.: Alcimandra cathcartii ): Sie kommt von Sikkim bis Thailand, Myanmar und Vietnam vor.
Magnolia griffithii :Sie kommt von Assam bis zm nördlichen Myanmar vor.
Magnolia gustavi : Sie kommt von Assam bis zm nördlichen Thailand vor.
Magnolia macklottii (Inkl. Magnolia maingayi ): Sie kommt in zwei Varietäten im westlichen Malesien vor.
Magnolia pealiana : Assam
Untersektion Aromadendron
Magnolia ashtonii : Sumatra, Borneo.
Magnolia bintuluensis : Sumatra, Borneo, Malaysia.
Magnolia borneensis : Borneo, Philippinen.
Magnolia elegans : Sie kommt von Thailand bis zum westlichen Java vor.
Magnolia pahangensis : Sie kommt in Malaysia vor.
Untergattung Gynopodium
Sektion Gynopodium : Mit fünf Arten in China und Taiwan:
Magnolia kachirachirai : Südöstliches Taiwan
Magnolia lotungensis : Sie kommt vom südlichen China bis Hainan vor.
Magnolia nitida : Sie kommt im nordöstlichen Myanmar, im südöstlichen Tibet und im nordwestlichen Yunnan vor.
Magnolia omeiensis : Sichuan
Magnolia yunnanensis : Sie kommt von Guangxi und Yunnan bis Vietnam vor.
Sektion Manglietiastrum : Mit nur drei Arten in Asien:
Magnolia pleiocarpa : (Syn.: Pachylarnax pleiocarpa ): Assam
Magnolia praecalva (Syn.: Pachylarnax praecalva ): Thailand, Vietnam, Malaysia, Sumatra.
Magnolia sinica (Syn.: Manglietiastrum sinicum ): Südöstliches Yunnan
Weitere Arten ohne Zuordnung zu einer Sektion (neu beschrieben seit 2016):
Magnolia alejandrae : Die 2017 erstbeschriebene Art kommt im mexikanischen Bundesstaat Tamaulipas vor.
Magnolia betuliensis : Die 2018 erstbeschriebene Art kommt in Kolumbien vor.
Magnolia chiguila : Die 2018 erstbeschriebene Art kommt in Ecuador vor.
Magnolia kachinensis : Die 2018 erstbeschriebene Art kommt in Myanmar vor.
Magnolia mashpi : Die 2016 erstbeschriebene Art kommt in Ecuador vor.
Magnolia mercedesiarum : Die 2018 erstbeschriebene Art kommt in Ecuador vor.
Magnolia mindoensis : Die 2017 erstbeschriebene Art kommt vom südwestlichen Kolumbien bis zum nordwestlichen Ecuador vor.
Magnolia oblongifolia (Basionym: Talauma minor var. oblongifolia ): Sie kommt im östlichen Kuba vor.
Magnolia orbiculata (Basionym: Talauma orbiculata ): Sie kommt im südöstlichen Kuba vor.
Magnolia resupinatifolia : Die 2018 erstbeschriebene Art kommt in Kolumbien vor.
Symbolische Bedeutung
Die Magnolie ist ein Nationalsymbol Nordkoreas, abgebildet meist in Form der Sommer-Magnolie.
Der amerikanische Bundesstaat Mississippi wird als „Magnolienstaat“ bezeichnet.
Quellen
Yuhu Liu, Nianhe Xia, Liu Yuhu, Hans P. Nooteboom: Magnoliaceae: Magnolia, 61 - textgleich online wie gedrucktes Werk, In: Wu Zheng-yi, Peter H. Raven, Deyuan Hong (Hrsg.): Flora of China, Volume 7 – Menispermaceae through Capparaceae, Science Press und Missouri Botanical Garden Press, Beijing und St. Louis 2008, ISBN 978-1-930723-81-8. (Abschnitt Beschreibung, aber noch nicht Systematik; diese ist von 2008 statt der hier dargestellten von 2004).
Frederick Gustav Meyer: Magnoliaceae: Magnolia - textgleich online wie gedrucktes Werk, In: Flora of North America Editorial Committee (Hrsg.): Flora of North America North of Mexico, Volume 3 – Magnoliidae and Hamamelidae, Oxford University Press, New York u. a. 1997, ISBN 0-19-511246-6.
Einzelnachweise
Weblinks
Internationale Magnoliengesellschaft. (engl.)
Magnoliengewächse
Ziergehölz
Nationales Symbol (Nordkorea)
Wikipedia:Artikel mit Video
|
Q157017
| 91.732793 |
660
|
https://de.wikipedia.org/wiki/Bewusstsein
|
Bewusstsein
|
Bewusstsein (abgeleitet von dem mittelhochdeutschen Wort bewissen im Sinne von „Wissen über etwas habend“, „Mitwissen“ und syneídēsis „Miterscheinung“, „Mitbild“, „Mitwissen“, synaísthēsis „Mitwahrnehmung“, „Mitempfindung“ und phrónēsis von phroneín „bei Sinnen sein, denken“) ist im weitesten Sinne das Erleben mentaler Zustände und Prozesse. Eine allgemein gültige Definition des Begriffes ist aufgrund seines unterschiedlichen Gebrauchs mit verschiedenen Bedeutungen schwer möglich. Die naturwissenschaftliche Forschung beschäftigt sich mit definierbaren Eigenschaften bewussten Erlebens.
Bedeutung des Begriffs
Das Wort „Bewusstsein“ wurde von Christian Wolff als Lehnübersetzung des lateinischen conscientia geprägt. Das lateinische Wort hatte ursprünglich eher Gewissen bedeutet und war zuerst von René Descartes in einem allgemeineren Sinn gebraucht worden. Der Begriff Bewusstsein hat im Sprachgebrauch eine sehr vielfältige Bedeutung, die sich teilweise mit den Bedeutungen von Geist und Seele überschneidet. Im Gegensatz zu letzteren ist der Begriff Bewusstsein jedoch weniger von theologischen und dualistisch-metaphysischen Gedanken bestimmt, weswegen er auch in den Naturwissenschaften verwendet wird.
Es erschwert viele Diskussionen, dass Bewusstsein grundsätzlich zwei Bedeutungen hat. Die erste ist, dass wir überhaupt etwas wahrnehmen und nicht bewusstlos sind. Die zweite, dass wir etwas bewusst wahrnehmen oder tun, also darüber nachdenken beim Wahrnehmen bzw. Tun. Weiterhin ist Bewusstsein keine binäre Eigenschaft, die man hat oder nicht hat. Es gibt Abstufungen, je nach Definition. Michio Kaku definiert es so: „Bewusstsein ist der Prozess, unter Verwendung zahlreicher Rückkopplungsschleifen bezüglich verschiedener Parameter (z. B. Temperatur, Raum, Zeit und in Relation zueinander) ein Modell der Welt zu erschaffen, um ein Ziel zu erreichen.“ Er unterscheidet 4 Stufen des Bewusstseins, von Pflanzen bis zum Menschen – abhängig von der von Stufe 0 bis Stufe 3 exponentiell ansteigenden Zahl der Rückkopplungsschleifen.
Man unterscheidet heute in der Philosophie und Naturwissenschaft verschiedene Aspekte und Entwicklungsstufen:
Bewusstsein als „belebt-sein“ oder als „beseelt-sein“ in verschiedenen Religionen oder als die unbegrenzte Wirklichkeit in mystischen Strömungen.
Bei Bewusstsein sein: Hier ist der wachbewusste Zustand von Lebewesen gemeint, der sich unter anderem vom Schlafzustand, der Bewusstlosigkeit und anderen Bewusstseinszuständen abgrenzt. In diesem Sinn lässt sich Bewusstsein empirisch und objektiv beschreiben und teilweise eingrenzen. Viele wissenschaftliche Forschungen setzten hier an; insbesondere mit der Fragestellung, auf welche Weise Gehirn und Bewusstsein zusammenhängen.
Bewusstsein als phänomenales Bewusstsein: Ein Lebewesen, das phänomenales Bewusstsein besitzt, nimmt nicht nur Reize auf, sondern erlebt sie auch. In diesem Sinne hat man phänomenales Bewusstsein, wenn man etwa Schmerzen hat, sich freut, Farben wahrnimmt oder friert. Im Allgemeinen wird angenommen, dass Tiere mit hinreichend komplexer Gehirnstruktur ein solches Bewusstsein haben. Phänomenales Bewusstsein wurde in der Philosophie des Geistes als Qualiaproblem thematisiert.
Zugriffsbewusstsein: Ein Lebewesen, das Zugriffsbewusstsein besitzt, hat Kontrolle über seine Gedanken, kann Entscheidungen treffen und koordiniert handeln.
Bewusstsein als gedankliches Bewusstsein: Ein Lebewesen, das gedankliches Bewusstsein besitzt, hat Gedanken. Wer also etwa denkt, sich erinnert, plant und erwartet, dass etwas der Fall ist, hat ein solches Bewusstsein. In der Philosophie des Geistes wurde es als Intentionalitätsproblem thematisiert.
Bewusstsein des Selbst: Selbstbewusstsein in diesem Sinne haben Lebewesen, die nicht nur phänomenales und gedankliches Bewusstsein haben, sondern auch wissen, dass sie ein solches Bewusstsein haben.
Individualitätsbewusstsein besitzt, wer sich seiner selbst und darüber hinaus seiner Einzigartigkeit als Lebewesen bewusst ist und die Andersartigkeit anderer Lebewesen wahrnimmt. Man trifft es beim Menschen und andeutungsweise im Verhalten einiger anderer Säugetierarten an.
Die Verwendung des Begriffes Bewusstsein ist in der Regel auf eine dieser Bedeutungen und damit auf eine Eingrenzung angewiesen. Auch drücken sich in den verschiedenen Verwendungsweisen oft unterschiedliche Weltanschauungen aus.
Bewusstsein in der Philosophie
Bewusstsein als Rätsel
In einem materialistischen Weltbild entsteht das Rätsel des Bewusstseins anhand der Frage, wie es prinzipiell möglich sein kann, dass aus einer bestimmten Anordnung und Dynamik von Materie die Vorstellung von Bewusstsein entsteht.
In einem nicht-materialistischen Weltbild kann aus dem Wissen über die physikalischen Eigenschaften eines Systems keine Aussage über das Bewusstsein abgeleitet werden. Hier wird angenommen: Auch wenn zwei verschiedene Lebewesen A und B sich in exakt dem gleichen neurophysiologisch funktionalen Zustand befänden (der Naturwissenschaftlern komplett bekannt sei), könne A bewusst sein, während B es nicht sei. Die theoretische Möglichkeit eines solchen „Zombies“ ist unter Philosophen höchst umstritten.
Philosophischen Gedankenexperimenten zufolge könne ein Mensch genauso funktionieren, wie er es jetzt tut, ohne dass er es bewusst erlebe (siehe: Philosophischer Zombie). Genauso könne eine Maschine sich genauso verhalten wie ein Mensch, ohne dass man ihr Bewusstsein zuschreiben würde (siehe: Chinesisches Zimmer). Die Vorstellbarkeit dieser Situationen lege offen, dass das Phänomen des Bewusstseins aus naturwissenschaftlicher Sicht noch nicht verstanden sei. Und schließlich scheine es anders als bei anderen Problemen ungeklärt, anhand welcher Kriterien eine Lösung des Problems überhaupt als solche erkennbar sein könnte.
In der Philosophie war das Rätsel des Bewusstseins schon lange bekannt. Es geriet aber in der ersten Hälfte des 20. Jahrhunderts unter dem Einfluss des Behaviorismus und der Kritik von Edmund Husserl am Psychologismus weitgehend in Vergessenheit. Dies änderte sich nicht zuletzt durch Thomas Nagels 1974 veröffentlichten Aufsatz What is it like to be a bat? (Wie ist es, eine Fledermaus zu sein?). Nagel argumentierte, dass wir nie erfahren würden, wie es sich anfühlt, eine Fledermaus zu sein. Diese subjektiven Vorstellungen seien aus der Außenperspektive der Naturwissenschaften nicht erforschbar. Heute teilen manche Philosophen die Rätselthese – etwa David Chalmers, Frank Jackson, Joseph Levine und Peter Bieri, während andere hier kein Rätsel erkennen – etwa Patricia Churchland, Paul Churchland und Daniel Dennett.
Für die Vertreter der Rätselhaftigkeit des Bewusstseins äußert sich diese in zwei verschiedenen Aspekten: Zum einen hätten Bewusstseinszustände einen Erlebnisgehalt, und es sei nicht klar, wie das Gehirn Erleben produzieren könne. Dies sei das Qualiaproblem. Zum anderen könnten sich Gedanken auf empirische Sachverhalte beziehen und seien deshalb wahr oder falsch. Es sei aber nicht klar, wie das Gehirn Gedanken mit solchen Eigenschaften erzeugen könne. Das sei das Intentionalitätsproblem.
Das Qualiaproblem
Qualia seien Erlebnisgehalte von mentalen Zuständen. Man spricht auch von Qualia als dem „phänomenalen Bewusstsein“. Das Qualiaproblem bestehe darin, dass es keine einsichtige Verbindung zwischen neuronalen Zuständen und Qualia gebe: Warum erleben wir überhaupt etwas, wenn bestimmte neuronale Prozesse im Gehirn ablaufen? Ein Beispiel: Wenn man sich die Finger verbrenne, würden Reize zum Gehirn geleitet, dort verarbeitet und schließlich ein Verhalten produziert. Nichts aber mache es zwingend, dass dabei ein Schmerzerlebnis entstehe.
Die zum Teil unbekannte Verbindung zwischen den neuronalen Prozessen und den angenommenen Qualia scheine fatal für die naturwissenschaftliche Erklärbarkeit von Bewusstsein zu sein: Wir hätten nämlich nur dann ein Phänomen naturwissenschaftlich erklärt, wenn wir auch seine Eigenschaften erklärt haben. Ein Beispiel: Wasser hat die Eigenschaften bei Raumtemperatur und normalem Luftdruck flüssig zu sein, bei 100 °C zu kochen usw. Wenn man einfach nicht erklären könnte, warum Wasser normalerweise flüssig ist, so gäbe es ein „Rätsel des Wassers“. Analog dazu: Wir hätten einen Bewusstseinszustand genau dann erklärt, wenn Folgendes gelte: Aus der wissenschaftlichen Beschreibung folgen alle Eigenschaften des Bewusstseinszustands – also auch die Qualia. Da die Qualia aber eben aus keiner naturwissenschaftlichen Beschreibung folgten, blieben sie ein „Rätsel des Bewusstseins“.
Es gebe viele verschiedene Möglichkeiten, auf das Qualiaproblem zu reagieren:
Man könne sich auf einen Dualismus zurückziehen und behaupten: Die Naturwissenschaften könnten das Bewusstsein nicht erklären, weil das Bewusstsein nicht materiell sei.
Man könne behaupten, dass mit den neuro- und kognitionswissenschaftlichen Beschreibungen schon alle Fragen geklärt seien.
Man könne behaupten, dass das Problem für Menschen nicht lösbar sei, da es ihre kognitiven Fähigkeiten übersteige.
Man könne zugeben, dass das Qualiaproblem nicht gelöst sei, aber auf den wissenschaftlichen Fortschritt hoffen. Vielleicht bedürfe es einer neuen wissenschaftlichen Revolution.
Man könne einen radikalen Schritt versuchen und behaupten: In Wirklichkeit gebe es gar keine Qualia.
Man könne umgekehrt die Gegenposition einnehmen und behaupten: Jedem Zustand eines physischen Systems entspreche ein Quale oder ein Satz von Qualia (Panpsychismus).
Das Intentionalitätsproblem
Die Annahme des Intentionalitätsproblems ist analog der Annahme des Qualiaproblems. Die grundlegende argumentative Struktur ist die gleiche. Auf Franz Brentano und seine Aktpsychologie geht die Ansicht zurück, dass die meisten Bewusstseinszustände nicht nur einen Erlebnisgehalt hätten, sondern auch einen Absichtsgehalt. Das heißt, dass sie sich auf ein Handlungsziel beziehen. Ausnahmen seien Grundstimmungen wie Langeweile, Grundhaltungen wie Optimismus und etwa nach Hans Blumenberg auch Formen der Angst.
Beim Intentionalitätsproblem werden ähnliche Lösungsvorschläge vertreten wie beim Qualiaproblem. Doch es gibt noch weitere Möglichkeiten. Man kann nämlich auch versuchen zu erklären, wann sich eine neuronale Aktivität auf etwas (etwa X) bezieht. Drei Vorschläge sind:
Jerry Fodor meint, dass sich ein neuronaler Prozess genau dann auf X bezieht, wenn er in einer bestimmten kausalen Relation zu X steht.
Fred Dretske meint, dass sich ein neuronaler Prozess genau dann auf X bezieht, wenn er ein verlässlicher Indikator für X ist.
Ruth Millikan meint, dass sich ein neuronaler Prozess genau dann auf X bezieht, wenn es die evolutionäre Funktion des Prozesses ist, X anzuzeigen.
Manche Philosophen, etwa Hilary Putnam und John Searle, halten Intentionalität für naturwissenschaftlich nicht erklärbar.
Innenperspektive und Außenperspektive
Es wird oft zwischen zwei Zugängen zum Bewusstsein unterschieden. Zum einen gebe es eine unmittelbare und nicht-symbolische Erfahrung des Bewusstseins, auch Selbstbeobachtung genannt. Zum anderen beschreibe man Bewusstseinsphänomene aus der Außenperspektive der Naturwissenschaften. Eine Unterscheidung zwischen der unmittelbaren und der symbolisch vermittelten Betrachtungsweise wird von vielen Philosophen nachvollzogen, auch wenn einige Theoretiker und Theologen eine scharfe Kritik an der Konzeption des unmittelbaren und privaten Inneren geübt haben. Baruch Spinoza etwa nennt die unmittelbare, nicht-symbolische Betrachtung „Intuition“ und die Fähigkeit zur symbolischen Beschreibung „Intellekt“.
Es wird manchmal behauptet, dass die Ebene der unmittelbaren Bewusstseinserfahrung für die Erkenntnis der Wirklichkeit die eigentlich entscheidende sei. Nur in ihr sei der Kern des Bewusstseins, das subjektive Erleben, zugänglich. Da diese Ebene allerdings nicht direkt durch eine objektive Beschreibung zugänglich sei, seien auch den naturwissenschaftlichen Erkenntnissen auf dem Gebiet des Bewusstseins Grenzen gesetzt.
Dualismus, Materialismus und Emergenztheorien des Bewusstseins
Die aufs Bewusstsein bezogenen antimaterialistischen Argumente basieren meist auf den oben diskutierten Konzepten Qualia und Intentionalität. Die argumentative Struktur ist dabei folgende: Wenn der Materialismus wahr sei, dann müssten Qualia und Intentionalität reduktiv erklärbar sein. Sie seien aber nicht reduktiv erklärbar. Also sei der Materialismus falsch. In der philosophischen Debatte wird die Argumentation allerdings komplexer. Ein bekanntes Argument stammt etwa von Frank Cameron Jackson. In einem Gedankenexperiment gibt es die Superwissenschaftlerin Mary, die in einem schwarz-weißen Labor aufwächst und lebt. Sie hat noch nie Farben gesehen und weiß daher nicht, wie Farben aussehen. Sie kennt aber alle physikalischen Fakten über Farbensehen. Da sie aber nicht alle Fakten über Farben kenne (sie wisse nicht, wie sie aussehen), gebe es nicht-physikalische Fakten. Jackson schließt daraus, dass es nicht-physische Fakten gebe und der Materialismus falsch sei. Gegen dieses Argument sind verschiedene materialistische Erwiderungen vorgebracht worden (vgl. Qualia).
Gegen derartige dualistische Argumente sind zahlreiche materialistische Repliken entwickelt worden. Sie beruhen auf den oben beschriebenen Möglichkeiten, auf die Konzepte von Qualia und Intentionalität zu reagieren. Es existiert daher eine Vielzahl von materialistischen Vorstellungen vom Bewusstsein. Funktionalisten wie Jerry Fodor und der frühe Hilary Putnam wollten das Bewusstsein in Analogie zum Computer durch eine abstrakte, interne Systemstruktur erklären. Identitätstheoretiker wie Ullin Place und John Smart wollten Bewusstsein direkt auf Gehirnprozesse zurückführen, während eliminative Materialisten wie Patricia und Paul Churchland Bewusstsein als gänzlich unbrauchbaren Begriff einstufen.
Eine dritte Variante sind Emergenztheorien des Mentalen. Bewusstsein beruht demnach auf dem hochkomplexen Zusammenspiel materieller Strukturen, die evolutionär gewachsen sind. Das Mentale ist aber nicht reduzierbar auf physikalische Prozesse, es beruht auf Emergenz und Supervenienz. Die Eigenschaften des Mentalen sind nicht durch die Einzelteile erklärbar, sondern nur durch das Zusammenspiel hochkomplexer dynamischer Strukturen. Nach Antonio Damasio sind diese hochkomplexen Strukturen nicht nur das Gehirn, sondern der gesamte Körper, der zu Emotionen und Bewusstsein führt.
Detailliertere Beschreibungen finden sich im Artikel Philosophie des Geistes.
Bewusstsein in den Naturwissenschaften
Überblick
Die Kognitionswissenschaft erweitert die interdisziplinäre Zusammenarbeit. Neben Psychologie und den Neurowissenschaften kommen Informatik, künstliche Intelligenz, Linguistik, Philosophie, Anthropologie und Soziologie dazu. Kognition ist nicht auf den Menschen beschränkt, auch höher entwickelte Tiere haben kognitive Fähigkeiten.
Das Gehirn arbeitet nicht wie ein Computer. Bei jeder Erfahrung, bei jedem starken Gefühl und insbesondere bei Lernen wird die Struktur des Gehirns verändert. Die Synapsen werden verstärkt oder vermindert und es entstehen neue Synapsen. Dieser Mechanismus wurde im kleinen Maßstab nachgebaut, man nennt dies künstliche neuronale Netzwerke. Dies ist ein Arbeitsgebiet der künstlichen Intelligenz.
An der Erforschung des Bewusstseins sind viele Einzelwissenschaften beteiligt, da es eine große Anzahl verschiedener, empirisch beschreibbarer Phänomene gibt. Ob und in welchem Maße die Naturwissenschaften damit zu einer Klärung der in der Philosophie diskutierten Probleme Qualia und Intentionalität beitragen, gilt als umstritten.
Neurowissenschaften
In den Neurowissenschaften wird u. a. der Zusammenhang von Gehirn und Bewusstsein untersucht. Der Neurowissenschaftler António R. Damásio definiert Bewusstsein wie folgt: „Bewusstsein ist ein Geisteszustand, in dem man Kenntnis von der eigenen Existenz und der Existenz einer Umgebung hat.“
Ein zentrales Element der neurowissenschaftlichen Erforschung des Bewusstseins ist die Suche nach neuronalen Korrelaten von Bewusstsein. Man versucht bestimmten mentalen Zuständen neuronale Abläufe gegenüberzustellen. Dieser Suche nach Korrelaten kommt die Tatsache entgegen, dass das Gehirn funktional gegliedert ist. Verschiedene Teile des Gehirns (Areale) sind für verschiedene Aufgaben zuständig. So wird davon ausgegangen, dass das Broca-Zentrum (bzw. die Brodmann-Areale 44 und 45) im Wesentlichen für Sprachproduktion zuständig sind. Schädigungen dieser Region führen nämlich oft zu einer Sprachproduktionsstörung, der sogenannten Broca-Aphasie. Messungen der Hirnaktivität bei Sprachproduktion zeigen außerdem erhöhte Aktivität in dieser Region. Des Weiteren kann die elektrische Reizung dieses Areals zu vorübergehenden Sprachproblemen führen. Zuordnungen von mentalen Zuständen zu Hirnregionen sind jedoch fast immer unvollständig, da Reize in der Regel in mehreren Hirnregionen gleichzeitig verarbeitet werden und dabei selten komplett aufgezeichnet werden. Das Konnektom ist die gesamte Vernetzung der Nervenzellen. Dieses Konnektom und das gleichzeitige Oszillieren bestimmte Bereiche korrelieren mit Bewusstsein.
Die begriffliche und methodische Unterscheidung von neuronalen Korrelaten des Bewusstseins und unbewusster Gehirnaktivität ermöglicht die Untersuchung der Frage, welche neuronalen Prozesse an die Bewusstwerdung eines internen Zustandes gekoppelt sind und welche nicht. Während tiefen Schlafs, einer Narkose oder einiger Arten von Koma und Epilepsie, zum Beispiel, sind weite Teile des Gehirns aktiv, ohne von bewussten Zuständen begleitet zu werden. Für ein normales Bewusstsein sind die Hirnrinde und der Thalamus sowie deren Verbindungen notwendig. Ohne diese Strukturen und deren Funktion ist Bewusstsein nicht möglich.
In den vergangenen Jahren nahm die Wahrnehmungsforschung eine dominierende Position innerhalb der neurobiologischen Grundlagenforschung des Bewusstseins ein. Einige visuelle Illusionen etwa erlauben es, zu untersuchen, wie das bewusste Erleben der Sinneswelt mit den physikalischen Vorgängen der Reizaufnahme und -verarbeitung zusammenhängt. Ein Paradebeispiel hierfür ist das Phänomen der binokularen Rivalität, bei dem ein Beobachter nur eines von zwei gleichzeitig präsentierten Bildern bewusst wahrnehmen kann. Die neurowissenschaftliche Erforschung dieses Phänomens hat ergeben, dass weite Teile des Gehirns von den nicht bewusst wahrgenommenen Sehreizen aktiviert werden. Andererseits erlebt sich der Mensch auch dann als bewusst, wenn seine sinnliche Wahrnehmung und seine Aufmerksamkeit äußerst reduziert sind, wie zum Beispiel während einer luziden Traumphase. Worin daher beim Menschen der eigentümliche Zustand, bewusst zu sein, besteht, wurde von der Hirnforschung noch nicht befriedigend beantwortet. Es gibt dazu mehrere Theorien, die auch in der Psychologie diskutiert werden. Ein neuer Ansatz ist die Theorie der somatischen Marker von Antonio Damasio. Dabei werden Körper und Geist als untrennbare Einheit gesehen. Für das Bewusstsein ist nicht nur das Gehirn notwendig, sondern auch der Körper, dessen Wahrnehmung, Emotionen und Gefühle. Nach dieser Theorie können Maschinen kein Bewusstsein entwickeln.
Der Bestimmung der Gehirnaktivität, die bewusstes Erleben anzeigt, kommt zunehmend ethische und praktische Bedeutung zu. Mehrere medizinische Problemfelder, so die Möglichkeit zeitweiliger intraoperativer Wachheit während einer Vollnarkose, die Einordnung von Koma-Patienten und ihre optimale Behandlung, oder die Frage nach dem Hirntod sind hiervon direkt betroffen. Die EEG Frequenzbänder korrelieren mit dem Wachheitsgrad. Unter 4 Hz sind wir im traumlosen Tiefschlaf. Mit zunehmender Geschwindigkeit kommt es zu Wachträumen, Entspannung und normalem Wachbewusstsein. Sehr schnelle Frequenzen korrelieren mit hoher Konzentration.
Psychologie
Das Bewusstsein ist ein zentraler Begriff für die Psychologie. Es ist einerseits die Gesamtheit der Erlebnisse, d. h. der erlebten psychischen Zustände und Aktivitäten (Vorstellungen, Gefühle usw.) und zum anderen das Bewusst-Sein als besondere Art des unmittelbaren Gewahrseins dieser Erlebnisse, die man auch als innere Erfahrung bezeichnet. Das phänomenale Bewusstsein und das Zugriffsbewusstsein sind von größter Bedeutung, da die beiden Phänomene das Wahrnehmen, Denken und Entscheiden umfassen. Außerdem ist die Unterscheidung von Bewusstem und Unbewusstem wichtig. Beides sind in der kognitiven Psychologie Pole des Wissensstandes über Vorhandenes und dessen Mitteilbarkeit wo viele Klarheitsgrade, die im Zusammenhang mit Absicht (Handlungsentwurf), Konzentration, kritischem Selbstbezug, Wachheit, Vorerfahrungen, Einordnungs-, Unterscheidungsfähigkeit und Affektstrebungen. Bewusstsein stehen.
Es gibt einige psychologische Ansätze, die einen Beitrag zur Bewusstseinsforschung liefern:
Informationsverarbeitungsansatz: Dieser begreift den Menschen als informationsverarbeitendes System, das heißt, der Mensch nimmt Informationen aus seiner Umwelt auf, verarbeitet diese und zeigt danach ein bestimmtes Verhalten. Das Bewusstsein wird mit einem bestimmten Verarbeitungsmechanismus identifiziert. Im Informationsverarbeitungsansatz werden die mentalen Vorgänge aus einer Außenperspektive betrachtet. Das Bewusstsein ist jedoch abhängig vom jeweiligen Subjekt und besteht in der Innenperspektive. Man muss daher kritisch betrachten, ob der objektive Ansatz das subjektive Erleben erklären kann.
Arbeitsgedächtnismodell (Baddeley): Dieses Modell geht davon aus, dass es im menschlichen Gehirn einen Kurzzeitspeicher und ein übergeordnetes Kontrollsystem gibt, welches als zentrale Exekutive bezeichnet wird. Das Zugriffsbewusstsein sei die Funktion der zentralen Exekutive. Phänomenales Bewusstsein kann man nicht mit dem Inhalt des Kurzzeitspeichers gleichsetzen. In diesem können bis zu 7 chunks aufrechterhalten und kurzfristig gespeichert werden, aber nur 3 chunks können einem Menschen phänomenal bewusst sein. Phänomenales Bewusstsein entsteht im Zusammenspiel mit der selektiven Aufmerksamkeit. Nur diejenigen Informationen im Kurzzeitgedächtnis, auf welche die Aufmerksamkeit gelenkt wird, werden einem Menschen auch phänomenal bewusst.
Modell der kontrollierten Prozesse (Snyder und Posner): Das Modell unterscheidet kontrollierte Prozesse von automatischen Prozessen. Automatische Prozesse sind unbewusst, schnell, nicht intentional und interferieren nicht mit anderen Prozessen, während kontrollierte Prozesse bewusst, langsam, intentional und in ihrer Kapazität beschränkt sind. Ein Zugriffsbewusstsein gibt es dann, wenn ein Prozess kontrolliert abläuft. Auch automatische Prozesse unterliegen einer kognitiven Kontrolle; diese Kontrolle erfolgt aber vor dem eigentlichen Prozess und unterscheidet sich daher von kontrollierten Prozessen.
DICE (dissociable interactions and conscious experience)-Modell (Schacter): Bei diesem Modell unterscheidet man explizite, bewusste von impliziten, unbewussten Gedächtnisphänomenen. Der Name des Modells kommt dadurch zustande, dass Schacter davon ausgeht, dass es eine Dissoziation zwischen bewusstem Erleben und der Verhaltenswirksamkeit gibt. In Schacters Modell wird prozedurales Wissen, welches das Verhalten beeinflusst phänomenal unbewusst erlangt, das deklarative Faktenwissen wird bewusst gelernt. Schacter glaubt, dass es im menschlichen Gehirn ein CAS (conscious awareness system) gibt, welches mit allen Verarbeitungsmodulen verbunden ist und daher mit einer globalen Datenbasis verglichen werden kann. Das CAS beinhaltet außerdem die bewussten Erfahrungen. Phänomenales Bewusstsein entsteht demzufolge nur, wenn der Gedächtnisinhalt eines Verarbeitungsmoduls das CAS aktiviert. Das phänomenale Bewusstsein ist zudem eine Voraussetzung für das Zugriffsbewusstsein. Nur wenn Gedächtnisinhalte phänomenal bewusst waren, kann das exekutive System aktiviert werden.
Die Theorie der somatischen Marker (Damasio): Emotionen und Gefühle haben einen direkten Einfluss auf Entscheidungen. Details sind unter Hypothese der somatischen Marker beschrieben.
An den psychologischen Ansätzen lässt sich kritisieren, dass sie nicht beantworten, durch welche Mechanismen bzw. Prozesse im Gehirn das phänomenale Bewusstsein entsteht. Diese Kritik gilt allen Ansätzen, die phänomenales Bewusstsein als Vorliegen einer mentalen Repräsentation in einem bestimmten System beschreiben. Die Psychologie hat bis heute keine Theorie, die erklären kann, wie und warum phänomenales Bewusstsein mit mentalen Repräsentationen zusammenhängt.
Kognitionswissenschaft
Da viele Einzelwissenschaften an der Erforschung von Bewusstsein beteiligt sind, ist eine umfassende Erkenntnis nur durch einen interdisziplinären Austausch möglich. Die Wissenschaftsgeschichte spiegelt dies mit dem Begriff der Kognitionswissenschaft wider. Sie wird als Zusammenarbeit von Informatik, Linguistik, Neurowissenschaft, Philosophie und Psychologie verstanden.
Ein besonderer Schwerpunkt aktueller kognitionswissenschaftlicher Forschung besteht dabei in der Zusammenführung von empirischen Ergebnissen der Lebenswissenschaften und den Methoden und Erkenntnissen der modernen Informatik. Zwei Beispiele:
In kognitiven Architekturen werden psychologische Theorien und Ergebnisse – soweit sie formalisierbar sind – in komplexe Computermodelle integriert, die schließlich der Prognose und Erklärung menschlichen Verhaltens dienen sollen.
In der Neuroinformatik werden seit den 1980er Jahren die Grundbausteine des Gehirns und ihre Verschaltung analysiert und simuliert. Dabei zeigte sich, dass allein eine massiv parallele Verschaltung simulierter Neuronen mit jeweils geringer Funktionalität zu einem künstlichen neuronalen Netz die Modellierung von Lernen und Verarbeitung komplexer Muster ermöglicht, sowie von kognitiven Fähigkeiten wie Gedächtnis oder Problemlösen. Dabei steht die Neuroinformatik insbesondere noch vor dem Problem der Initiative – z. B. für einen Lernprozess.
Experimente zum Bewusstsein
Zeitliche Verzögerung von bewusstem Erleben
Das sehr häufig zitierte Libet-Experiment (1979) und weitergehende Nachfolgeexperimente zeigten, dass bewusstes Erleben eines Ereignisses zeitlich nach neuronalen Prozessen auftritt, die bekannterweise mit dem Ereignis korrelieren. Während die Konsequenzen dieser Experimente für das Konzept der Willensfreiheit noch nicht als abschließend geklärt gelten, besteht Einigkeit darüber, dass bewusstes Erleben relativ zu einem Teil der dazugehörenden neuronalen Prozesse zeitverzögert auftreten kann.
Unterschied zwischen bewussten und unbewussten Gehirnaktivitäten
Ein Teil von Libets Experimenten zeigte, dass der Unterschied zwischen bewussten und unbewussten Erlebnissen von der Dauer der Gehirnaktivitäten abhängen kann. Bei diesen Experimenten wurden den Versuchspersonen Reize auf die aufsteigende sensorische Bahn im Thalamus gegeben. Die Versuchspersonen sahen zwei Lampen, die jeweils eine Sekunde lang abwechselnd leuchteten. Die Versuchspersonen sollten sagen, welche der beiden Lampen leuchtete, als der Reiz verabreicht wurde. Wenn der Reiz kürzer als eine halbe Sekunde andauerte, nahmen sie den Reiz nicht bewusst wahr. Die Versuchspersonen wurden jedoch gebeten, auch wenn sie keinen Reiz bewusst wahrnahmen, zu raten, welche Lampe leuchtete, während der Reiz verabreicht wurde. Dabei zeigte sich, dass die Versuchspersonen, auch wenn sie den Reiz nicht bewusst wahrnahmen, sehr viel häufiger als nach Zufallswahrscheinlichkeit (50 Prozent) richtig rieten. Wenn der Reiz 150 bis 260 Millisekunden anhielt, rieten die Versuchspersonen in 75 Prozent der Fälle richtig. Damit die Versuchspersonen den Reiz bewusst wahrnahmen, musste der Reiz 500 Millisekunden andauern.
Nach Libets Time-on-Theorie beginnen alle bewussten Gedanken, Gefühle und Handlungspläne unbewusst. D. h. alle schnellen Handlungen, z. B. beim Sprechen, beim Tennis usw. werden unbewusst vollzogen.
Die Dauer der Gehirnaktivitäten ist nicht der einzige Unterschied zwischen bewussten und unbewussten Erlebnissen. Die visuelle Wahrnehmung liefert über die eine Hälfte der Fasern des Sehnervs den bewussten Anteil der fovealen Wahrnehmung. Die andere Hälfte der Nervenfasern überträgt den Hintergrund, die periphere Wahrnehmung. Gleichzeitig werden – zusätzlich zu den visuellen Sinneseindrücken – auch noch Geräusche, Gerüche, Gefühle, Berührungen, innerkörperliche Eindrücke usw. (meist unbewusst) wahrgenommen.
Experiment zum Bewusstsein bei Patienten mit schweren Hirnverletzungen
Obwohl angenommen wird, dass Patienten mit einem apallischen Syndrom kein Bewusstsein haben, liefern vereinzelte Studien gegenteilige Evidenz. Beispielsweise zeigte eine Patientin, die aus dem Koma erwachte und keinerlei Anzeichen von Bewusstsein aufwies, ähnliche Gehirnaktivitäten wie gesunde Freiwillige in fMRT-Scans, wenn ihr Sätze vorgesprochen wurden. Auch bei der Aufforderung der Forscher, sich vorzustellen, dass sie gerade Tennis spiele oder durch ihr Haus laufen würde, zeigten sich Gehirnaktivitäten im Motorkortex, die sich nicht von denen gesunder Freiwilliger unterschied. In einer weiteren Studie zeigten 4 von 23 Patienten mit einem apallischen Syndrom ebenfalls sinnvoll interpretierbare Gehirnaktivitäten, als ihnen Fragen gestellt wurden.
Durch derartige Studien wird die Frage aufgeworfen, ob Kommunikation mit schwer hirngeschädigten Patienten, denen eigentlich kein Bewusstsein zugesprochen wird, nicht doch möglich ist. Indem die Patienten sich bei der Antwort „ja“ das Tennisspielen vorstellen und bei „nein“ das Herumlaufen im eigenen Haus, könnten die Forscher durch fMRT-Scans eventuell eine Verständigung mit den Patienten ermöglicht haben. Dies würde allerdings der Annahme widersprechen, dass jene Patienten kein Bewusstsein haben.
Selbstbewusstsein
Unter der Vielfalt der Bewusstseinsphänomene hat das Selbstbewusstsein in den philosophischen, empirischen und religiösen Diskussionen eine herausgehobene Stellung. Dabei wird Selbstbewusstsein nicht im Sinne der Umgangssprache als positives Selbstwertgefühl verstanden, sondern beschreibt zwei andere Phänomene. Zum einen wird hierunter das Bewusstsein seiner selbst als ein Subjekt, Individuum oder Ich (griech. und lat. Ego) verstanden. Zum anderen bezeichnet Selbstbewusstsein aber auch das Bewusstsein von den eigenen mentalen Zuständen. Hierfür wird auch oft der Begriff Bewusstheit verwendet.
Selbstbewusstsein als Bewusstsein vom Selbst
Philosophie
Selbstbewusstsein im ersten Sinne ist insbesondere durch René Descartes ein zentrales Thema der Philosophie geworden. Descartes machte das gedankliche Selbstbewusstsein durch seinen berühmten Satz „cogito ergo sum“ („ich denke, also bin ich“) zum Ausgangspunkt aller Gewissheit und damit auch zum Zentrum seiner Erkenntnistheorie. Descartes Konzeption blieb allerdings an seine dualistische Metaphysik gebunden, die das Selbst als ein immaterielles Ding postulierte. In Immanuel Kants transzendentalem Idealismus blieb die erkenntnistheoretische Priorität des Selbstbewusstseins bestehen, ohne dass damit Descartes Metaphysik übernommen wurde. Kant argumentierte, dass das Ich die „Bedingung, die alles Denken begleitet“ (KrV A 398), sei, ohne dabei ein immaterielles Subjekt zu postulieren.
In der Philosophie der Gegenwart spielt die Frage nach dem Bewusstsein vom Selbst nicht mehr die gleiche zentrale Rolle wie bei Descartes oder Kant. Dies liegt auch daran, dass das Selbst oft als ein kulturelles Konstrukt aufgefasst wird, dem kein reales Objekt entspreche. Vielmehr lernten Menschen im Laufe der ontogenetischen Entwicklung ihre Fähigkeiten, ihren Charakter und ihre Geschichte einzuschätzen und so ein Selbstbild zu entwickeln. Diese Überzeugung hat zu verschiedenen philosophischen Reaktionen geführt. Während etwa die Schriftstellerin Susan Blackmore die Aufgabe der Konzeption vom Selbst fordert, halten manche Philosophen das Selbst für eine wichtige und positiv zu bewertende Konstruktion. Prominente Beispiele sind hier Daniel Dennetts Konzeption vom Selbst als einem „Zentrum der narrativen Gravitation“ und Thomas Metzingers Theorie der Selbstmodelle.
Psychologie
Der konstruktivistische Blick auf das Selbst hat auch wichtige Einflüsse auf die empirische Forschung. Insbesondere die Entwicklungspsychologie beschäftigt sich mit der Frage, wie und wann wir zu den Vorstellungen von einem Selbst kommen. Dabei spielt das Untersuchen äußerer Einflüsse eine große Rolle, wodurch es beispielsweise zur dissoziativen Identitätsstörung mit der Eigenwahrnehmung mehrerer Ausprägungen des Selbsts kommen kann. Den Verlauf struktureller Persönlichkeitseigenschaften untersuchte der Ansatz der Ich-Entwicklung. In sequentieller Abfolge wurden hier universelle und qualitativ verschiedene Entwicklungsstufen angenommen, die im Potential einer jeden Person lägen und das Fundament ihres Selbstbildes wie ihrer Haltung zur Welt hin bildeten. Auch das Konzept des dialogischen Selbst beleuchtet Fragen zur Entstehung, Entwicklung und den Eigenschaften des Selbst. Insbesondere die Psychoanalyse hat sich mit der Entwicklung eines falschen Selbst befasst.
Selbstbewusstsein als Bewusstsein von mentalen Zuständen
Mit „Selbstbewusstsein“ kann auch das Bewusstsein von eigenen mentalen Zuständen gemeint sein, also etwa das Bewusstsein der eigenen Gedanken oder Emotionen. In der künstlichen Intelligenz wird eine analoge Perspektive durch den Begriff der Metarepräsentationen eröffnet. Ein Roboter müsse nicht nur die Information repräsentieren, dass sich vor ihm etwa ein Objekt X befinde. Er sollte zudem „wissen“, dass er über diese Repräsentation verfüge. Erst dies ermögliche ihm den Abgleich der Information mit anderen, eventuell widersprechenden, Informationen. In der Philosophie ist es umstritten, ob sich das menschliche Selbstbewusstsein in ähnlicher Weise als Metarepräsentation begreifen lässt.
Bewusstsein bei Tieren
An der Erforschung arbeiten verschiedene Disziplinen: Ethologie, Neurowissenschaft, Kognitionswissenschaft, Linguistik, Philosophie und Psychologie.
Beispielsweise können Hunde, wie alle höher entwickelten Tiere, zwar Schmerz empfinden, aber wir wissen nicht, inwieweit sie ihn bewusst verarbeiten können, da sie eine derartige bewusste Verarbeitung nicht mitteilen können. Dazu bedarf es Gehirnstrukturen, die sprachlich gefasste Vorstellungen verarbeiten können. Bei Schimpansen, die Zeichensysteme erlernen können, und Graupapageien etwa ist dies teilweise beobachtet worden. Der Gradualismus, der die plausibelste Position zu sein scheint, prüft für jede Spezies von neuem, welche Bewusstseinszustände sie haben kann. Besonders schwierig gestaltet sich dies bei den Tieren, die eine von der menschlichen stark verschiedene Wahrnehmung besitzen.
Lange Zeit wurde vermutet, dass Ich-Bewusstsein allein bei Menschen vorkomme. Inzwischen ist jedoch erwiesen, dass sich auch andere Tiere, wie etwa Schimpansen, Orang-Utans, Rhesusaffen, Schweine, Elefanten, Delfine und auch diverse Rabenvögel im Spiegel erkennen können, was einer weit verbreiteten Auffassung zufolge ein mögliches Indiz für reflektierendes Bewusstsein sein könnte. Ein Gradualismus in Bezug auf die Existenz von Bewusstsein steht nicht vor dem Problem, zu klären, wo im Tierreich Bewusstsein anfängt. Vielmehr geht es hier darum, die Bedingungen und Beschränkungen von Bewusstsein für jeden Einzelfall möglichst genau zu beschreiben.
Experimente einer Forschergruppe um J. David Smith deuten möglicherweise darauf hin, dass Rhesusaffen zur Metakognition fähig sind, also zur Reflexion über das eigene Wissen.
Bewusstsein in den Religionen
Im Zusammenhang mit religiösen Vorstellungen von einer Seele und einem Leben nach dem Tod (siehe z. B. Judentum, Christentum und Islam) spielen die Begriffe Geist (Gottes) und Seele eine wesentliche Rolle für das Verständnis von Bewusstsein. Demnach könne menschliches Bewusstsein nicht – wie von den Wissenschaften versucht – allein als Produkt der Natur oder Evolution, sondern ausschließlich im Zusammenhang mit einer transpersonalen oder transzendenten Geistigkeit verstanden und erklärt werden. Diese göttliche Geistigkeit sei es, welche – wie alles natürlich Belebte – auch das Bewusstsein „lebendig mache“ bzw. „beseele“, d. h. zur menschlichen Ich-Wahrnehmung befähige.
Generell wollten alle mystisch-esoterischen Richtungen in den Religionen (z. B. Gnostizismus, Kabbala, Sufismus u. a.) eine Bewusstseinsveränderung des Menschen bewirken. Tatsächlich zeigen neurotheologische Forschungen mit bildgebenden Verfahren, dass durch langjährige Ausübung von Meditation, wie zum Beispiel im Zen-Buddhismus üblich, ungewöhnliche neuronale Aktivitätsmuster und sogar neuroanatomische Veränderungen entstehen können.
Abrahamitische Religionen
Im Tanach heißt es, die „rûah“ (hebräisches Wort für Geist, oder synonym auch im Zusammenhang mit „næfæsch“, Seele, gebraucht) haucht dem Geschöpf Leben ein. Sie ist es, welche die Lebensfunktionen geistiger, willensmäßiger und religiöser Art ausübt. Auch im Neuen Testament wird erklärt, dass der Leib erst durch den Geist Gottes zum eigentlichen Leben kommt. Es heißt z. B.: „Der Geist (Gottes) ist es, der lebendig macht; das Fleisch nützt nichts“ . Bei Paulus war die Unterscheidung zwischen dem Reich des Geistes (vgl. ewiges Ich) und dem Reich des Fleisches (sterbliche Natur) zentral. Sinngleiches findet sich auch im Koran, wo es z. B. heißt, dass Gott Adam von seinem Geist (vgl. arabisches Wort rūh ) einblies und ihn auf diese Weise lebendig machte (Sure 15:29; 32:9; 38:72). Im Lehrsystem des basrischen Muʿtaziliten an-Nazzām (st. 835–845) wird der Geist als Gestalt bzw. Wesen dargestellt, die sich wie ein Gas mit dem Leib vermischt und ihn bis in die Fingerspitzen durchdringt, sich beim Tode aber wieder aus dieser Verbindung löst und selbständig (vgl. „ewiges Ich“) weiterexistiert.
Im Christentum werden die Begriffe Seele und Geist (auch „Heiliger Geist“) scharf vom Geist des Menschen unterschieden. Dies ergibt sich auch daraus, dass erstere Begriffe in ihrer Bedeutung näher an der Metaphysik klassischer christlicher Fundamentaltheologie und Philosophie sind: Sie legen nämlich die Existenz eines nichtmateriellen Trägers von Bewusstseinszuständen nahe. Dennoch spielt der Begriff des Bewusstseins auch in modernen christlichen Debatten eine Rolle. Dies geschieht etwa im Kontext von Gottesbeweisen. So wird argumentiert, dass die Interaktion zwischen immateriellen Bewusstseinszuständen und dem materiellen Körper nur durch Gott erklärbar sei oder dass die interne Struktur und Ordnung des Bewusstseins im Sinne des teleologischen Gottesbeweises auf die Existenz Gottes schließen lasse.
Hinduismus und Buddhismus
Verschiedene buddhistische Traditionen und hinduistische Yoga-Schulen haben gemeinsam, dass hier die direkte und ganzheitliche Erfahrung des Bewusstseins im Mittelpunkt steht. Mit Hilfe der Meditation oder anderer Übungstechniken würden bestimmte Bewusstseinszustände erfahren, indem personale und soziale Identifikationen abgebaut würden. Eine besondere Unterscheidung wird hier zur Bewusstheit getroffen, die ein volles Gewahrsein (awareness) des momentanen Denkens und Fühlens bedeute. Sie solle erreicht werden durch die Übung der Achtsamkeit. Einsichten in die Natur des Bewusstseins sollen so über eine eigene Erfahrung gewonnen werden, die über einen rein reflektierten und beschreibenden Zugang hinausgehe. Das Konzept der Trennung von Körper und Geist oder Gehirn und Bewusstsein werde als eine Konstruktion des Denkens erfahren.
Siehe auch
Propriozeption
Neuroethik
Split Brain
Politisches Bewusstsein
Literatur
Einführungstexte zum Rätsel des Bewusstseins
Peter Bieri: Was macht das Bewusstsein zu einem Rätsel? (rtf-Datei; 56 kB) auch in: Spektrum der Wissenschaft. 10, 1992, S. 48–56 und in Wolf Singer (Hrsg.) Gehirn und Bewusstsein. Spektrum, Heidelberg 1994, S. 172–180.
Colin McGinn: Wie kommt der Geist in die Materie? Das Rätsel des Bewusstseins. Piper, München 2003, ISBN 3-492-23653-7.
Colin McGinn: Das geistige Auge. Von der Macht der Vorstellungskraft. Primus, Darmstadt 2007.
Thomas Nagel: Wie ist es, eine Fledermaus zu sein? In: Peter Bieri (Hrsg.): Analytische Philosophie des Geistes. 3. Auflage. Beltz, Weinheim 1997, ISBN 3-89547-117-8, (4., neu ausgest. Aufl. 2007, ISBN 978-3-407-32081-0)
Systematische philosophische Literatur
Ansgar Beckermann: Analytische Einführung in die Philosophie des Geistes. 2. Auflage. De Gruyter, Berlin 2001, ISBN 3-11-017065-5.
David Chalmers: The conscious mind. In search of a fundamental theory. Oxford University Press, Oxford 1998, ISBN 0-19-511789-1.
Karen Gloy: Bewusstseinstheorien, Problematik und Problemgeschichte des Bewusstseins und Selbstbewusstseins, Freiburg, München 3. Aufl. 2004, ISBN 3-495-48117-6.
Karen Gloy (Hg.): Kollektives und Individualbewusstsein, Würzburg 2008, ISBN 978-3-8260-3813-6.
Karen Gloy: Kollektives und individuelles Bewusstsein. München 2009, ISBN 978-3-7705-4868-2.
Charles Hampden-Turner: Modelle des Menschen. Ein Handbuch des menschlichen Bewusstseins. 3. Auflage, Beltz, Weinheim/Basel 1998.
Dirk Hartmann: Philosophische Grundlagen der Psychologie. (PDF; 17,1 MB) Wissenschaftliche Buchgesellschaft, Darmstadt 1998
Thomas Metzinger: Being No One. The Self-Model Theory of Subjectivity. MIT-Press, Cambridge, MA 2003, ISBN 0-262-63308-6.
Thomas Metzinger (Hrsg.): Bewusstsein. Beiträge aus der Gegenwartsphilosophie. 5. erw. Auflage. Mentis, Paderborn 2005, ISBN 3-89785-600-X.
Erich Neumann: Ursprungsgeschichte des Bewusstseins. Rascher, Zürich 1949.
(Populär-)Wissenschaftliche Literatur
Susan Blackmore: Gespräche über Bewußtsein. Suhrkamp Taschenbuch 2012, ISBN 978-3-518-29623-3.
António Damásio: Der Spinoza-Effekt. Wie Gefühle unser Leben bestimmen. List, Berlin 2005, ISBN 3-548-60494-3.
Daniel C. Dennett: Spielarten des Geistes. Goldmann 2001, ISBN 3-442-15111-2.
Dick Swaab: Wir sind unser Gehirn - Wie wir denken, leiden und lieben. Droemer Knaur, München 2013, ISBN 978-3-426-78513-3.
Dietrich Dörner: Bauplan für eine Seele. Rowohlt, Reinbek 2001, ISBN 3-499-61193-7.
Gerald M. Edelman, Giulio Tononi: Gehirn und Geist. Wie aus Materie Bewusstsein entsteht. Beck, München 2002, ISBN 3-406-48836-6.
Gerald M. Edelman: Das Licht des Geistes. Wie Bewusstsein entsteht. Rowohlt, Reinbek 2007, ISBN 978-3-499-62113-0.
David R. Hawkins, Die Ebenen des Bewusstseins. VAK, Kirchzarten 2006, ISBN 3-932098-02-1.
Julian Jaynes: Der Ursprung des Bewußtseins durch den Zusammenbruch der bikameralen Psyche. Rowohlt, Reinbek 1988, ISBN 3-498-03320-4 (TB 1993 rororo Sachbuch 9529 ISBN 978-3-499-19529-7; nicht seitenkonkordanter Scan des Gesamttextes hier (PDF; 2,4 MB) – Engl. Originalausgabe 1976, seit 1990 mit ausführl. Nachwort, seit 2000 auch als A Mariner Book ISBN 978-0-618-05707-8).
Michio Kaku: Die Physik des Bewusstseins – Über die Zukunft des Geistes, Rowohlt, Reinbek 2014, ISBN 978-3-498-03569-3
Christof Koch: Bewusstsein – ein neurobiologisches Rätsel. Spektrum Akademischer Verlag, 2005, ISBN 3-8274-1578-0.
Christof Koch: Bewusstsein – Bekenntnisse eines Hirnforschers. Springer Spektrum, 2013, ISBN 978-3-642-34770-2.
Heiko J. Luhmann: Hirnpotentiale. Die neuronalen Grundlagen von Bewusstsein und freiem Willen. Springer-Verlag Berlin Heidelberg, 2020, ISBN 978-3-662-60578-3 (E-Book).
Benjamin Libet: Mind Time. Wie das Gehirn Bewusstsein produziert. Suhrkamp, Frankfurt 2005, ISBN 3-518-58427-8 und 2007 als TB stw 1834 ISBN 978-3-518-29434-5.
Alva Noë: Du bist nicht Dein Gehirn. Eine radikale Philosophie des Bewusstseins. Piper Verlag, München 2010, ISBN 978-3-492-05349-5.
Robert Ornstein: Die Psychologie des Bewußtseins. S. Fischer, Frankfurt am Main (Übersetzung von The Psychology of Consciousness Harcourt Brace, 1972).
Steven Pinker: Wie das Denken im Kopf entsteht. Büchergilde Gutenberg, Frankfurt 1999, ISBN 3-463-40341-2.
Karl Popper, John C. Eccles: Das Ich und sein Gehirn. Piper, 2008, ISBN 978-3-492-21096-6.
Gerhard Roth: Das Gehirn und seine Wirklichkeit. Kognitive Neurobiologie und ihre philosophischen Konsequenzen. Suhrkamp, Frankfurt 1994, 5. überarb. Aufl. 1996, seit 1997 a. als text- und seitenident.TB-Ausg. stw 1275 ISBN 978-3-518-28875-7.
Gerhard Roth. Über den Menschen. Suhrkamp Verlag, Berlin 2021 AD. ISBN 978-3-518-58766-9.
Volker Schurig: Die Entstehung des Bewusstseins. Campus, Frankfurt am Main/ New York 1976, ISBN 3-593-32522-5.
Reinhard Werth: Die Natur des Bewusstseins – Wie Wahrnehmung und der freie Wille im Gehirn entstehen. C.H. Beck, München 2010, ISBN 978-3-406-60594-9.
Bewusstsein bei Tieren
Dominik Perler, Markus Wild (Hrsg.): Der Geist der Tiere. Philosophische Texte zu einer aktuellen Diskussion. Suhrkamp, Frankfurt 2005 (stw 1741) ISBN 978-3-518-29341-6.
Fachpublikation
Journal of Consciousness Studies
Online-Zeitschriften
Psyche – an interdisciplinary journal of research on consciousness (engl. Online-Journal, 1994–2010, Archiv)
e-Journal Philosophie der Psychologie
Weblinks
Allgemein
Ansgar Beckermann: Was macht Bewußtsein für Philosophen zum Problem? In: Logos. 4 (1997), S. 1–19. (Ein Einführungsartikel)
Peter Bieri: Was macht Bewußtsein zu einem Rätsel? (rtf-Datei; 56 kB) In: W. Singer (Hrsg.): Gehirn und Bewusstsein. Spektrum, Heidelberg 1994, S. 172–180.
, verschiedene Begriffsbestimmungen aus: Polimetrica Onlus (Hrsg.): The Language of Science.
Thomas Metzinger: Bewusstsein. (PDF; 104 kB), In: Hans Jörg Sandkühler: Enzyklopädie der Philosophie. überarbeitete Fassung. Meiner, Hamburg 2009.
Spektrum.de: Was ist Bewusstsein? 2. November 2019
Hedda Hassel Mørch: Rätselhaftes Bewusstsein : Wie kommt der Geist in die Natur? Eine Lösung für das harte Problem des Bewusstseins in: FAZ 24. Januar 2018
Literaturzusammenstellungen
David Chalmers: Homepage mit umfangreichen Bibliographien und Linklisten (Online-Standardreferenz zum Thema)
David Chalmers: Mindpapers (Bibliographie zu Themen der Philosophie des Geistes, der Kognitionswissenschaften und der Bewusstseinstheorie mit mehr als 18.000 Titeln)
Thomas Metzinger: Bibliographie (PDF; 1,1 MB)
Spezielleres
Gerhard Roth: Wie das Gehirn die Seele macht (PDF; 468 kB)
dasGehirn.info – Was ist Bewusstsein (Neurowissenschaftliches Informationsportal)
Wikibooks: Consciousness Studies (englisch)
Johannes Kleiner & Robin Lorenz: Ab wann kann man KI wie Chat-GPT ein Bewusstsein zusprechen? in Spektrum.de vom 25. Oktober 2023
Multimedialinks
Braincast: über das Bewusstsein (MP3)
Link zur Braincast-Website
Videos
Einzelnachweise
Philosophie des Geistes
Allgemeine Psychologie
Psychoanalyse
Kognitionswissenschaft
Neurobiologie
Verhaltensbiologie
Künstliche Intelligenz
Theologie
|
Q7087
| 279.162375 |
89879
|
https://de.wikipedia.org/wiki/Marianengraben
|
Marianengraben
|
Der Marianengraben, auch als Marianenrinne bezeichnet, ist eine Tiefseerinne (Tiefseegraben) im westlichen Pazifischen Ozean, in der mit einer Maximaltiefe von etwa 11.000 Metern unterhalb des Meeresspiegels die tiefste Stelle des Weltmeeres liegt und die ca. 2400 (2500) Kilometer lang ist. Der Wasserdruck beträgt am tiefsten Punkt circa 107 Megapascal (circa 1070 bar). Benannt wurde er wie die Inselgruppe der Marianen nach der spanischen Königin Maria Anna von Österreich.
Geographie
Weit nördlich des Äquators verläuft der Marianengraben direkt östlich der zu den mikronesischen Inseln gehörenden Inselkette der Marianen. Er liegt durchschnittlich rund 2000 Kilometer östlich der Philippinen, nördlich und südlich der marianischen Insel Guam. Mit seiner tiefsten bekannten Stelle von rund 11.000 Metern gilt der Graben als tiefstgelegener Meeresgrund der Erde. In Richtung Norden mündet diese halbkreisförmige Tiefseerinne in den Boningraben, an den sich weiter nördlich der Japangraben anschließt. Im Norden liegt das Marshallbecken, im Süden die Karolinen, im Südwesten der Yapgraben und im Westen – hinter den Marianen – das Philippinenbecken. Dort liegt der Marianengraben etwa zwischen 12° und 25° nördlicher Breite sowie 142° und 147° östlicher Länge. Der Graben selbst hat eine Länge von etwa 2400 Kilometern.
Der Marianengraben ist Teil eines Systems, zu dem außerdem auch der West-Marianen-Rücken, das Marianenbecken (Backarc-Becken), der Marianen-Inselbogen und das Marianen Forearc-Becken gehört. Der West-Marianen-Rücken ist der westliche Rand eines einstigen Inselbogens, der sich vor einigen Millionen Jahren gespalten hat. Dessen beide Teile bewegen sich seitdem mit einer Geschwindigkeit von wenigen Zentimetern pro Jahr voneinander weg, wodurch das heutige Marianenbecken entstanden ist. Auslöser waren die beim Eintauchen des Ozeanbodens in das Erdinnere – den Ort des Marianengrabens – entstehenden Zugkräfte.
Meerestiefen
Im Marianengraben befinden sich unter anderem diese Meerestiefen:
Geologie
Der Marianengraben bildet den östlichen Teil der tief eingeschnittenen Nahtstelle von Philippinischer Platte im Westen und Pazifischer Platte im Osten. Hier subduziert eine ältere ozeanische Platte unter eine jüngere ozeanische Platte. Die Pazifische Platte, welche subduziert wird, ist im Bereich des Marianengrabens über hundertfünfzig Millionen Jahre alt und dementsprechend ist die ozeanische Lithosphäre dort seit ihrer Entstehung sehr schwer und dick geworden (beim Abkühlen nehmen sowohl die Dichte als auch die Dicke der Lithosphäre zu).
Erforschung des Marianengrabens
Am 23. Februar 1875 lotete die Besatzung der Challenger im Marianengraben den mit 8.164 Metern bis dahin tiefsten gemessenen Punkt der Weltmeere aus.
Im Jahr 1899 wurde vom US-amerikanischen Schiff „Nero“ im Marianengraben per Drahtlotung eine Meerestiefe von 9.660 Meter ermittelt.
1951 wurde von der Besatzung des englischen Vermessungsschiffes, welches ebenfalls den Namen Challenger führte, eine Tiefe von 10.899 m mit Echolotung (10.863 Meter per Drahtlotung) festgestellt; dieser Stelle gab man den Namen Challengertief.
Im Internationalen Geophysikalischen Jahr 1957 wurde das Witjastief 1 (11.034 Meter) durch das gleichnamige sowjetische Forschungsschiff im Marianengraben entdeckt.
Am 23. Januar 1960 erforschten der Schweizer Jacques Piccard und der US-Amerikaner Don Walsh die Rinne mit dem Tauchboot Trieste und stiegen dabei auf 10.916 m (Triestetief) ab.
1997/2001 widmete sich die Hawaii Mapping Research Group (HMRG) der Kartierung des Marianengrabens.
2012 drang James Cameron mit dem U-Boot „Deepsea Challenger“ zum tiefsten Punkt des Meeres vor. Er sammelte dort gut drei Stunden lang Daten und filmte die Tiefseewelt (10.898 m). Nach Jacques Piccard und Don Walsh (10.916 m) war Cameron somit der dritte Mensch, der den tiefsten Punkt der Weltmeere erreichte.
Zwischen dem 28. April 2019 und dem 5. Mai 2019 wurden mit dem Tauchboot Limiting Factor vier Tauchgänge im Challengertief absolviert. Am 28. April 2019 erreichte Victor Vescovo die neue Rekordtiefe von 10.928 m.
2018 entdeckten Forscher Mikroplastik im Benthal des Marianengrabens.
Am 10. Oktober 2020 brachen die beiden Schiffe Tan Suo Yi Hao und Tan Suo Er Hao zum Marianengraben auf, um das chinesische Tiefseetauchboot Fendouzhe in den größtmöglichen Wassertiefen zu erproben. Bis zum 28. November 2020 wurden dreizehn Tauchgänge im Marianengraben durchgeführt. Davon führten acht in Tiefen von mehr als 10.000 m. Am 10. November 2020 wurde in 10.909 m Tiefe der Grund im Challengertief erreicht.
Tiefste bisher bekannte Stelle des Weltmeeres
Zuerst galt das Galatheatief im Philippinengraben mit 10.540 Metern Meerestiefe als die tiefste Stelle der Ozeane, seit 1957 hält das Witjastief 1 im Marianengraben mit 11.034 (Echolotung) Metern diesen Titel; zahlreiche Quellen geben als dortige Tiefe 11.022 (Drahtlotung) Meter an. Inzwischen sind einige Zweifel an der Messung aufgekommen. Deshalb ist das Challengertief mit 10.984 ± 25 m unter dem Meeresspiegel ebenfalls ein Kandidat für den tiefsten Punkt der Weltmeere.
Tiefseefauna
Im Marianengraben kommt der Tiefseefisch Pseudoliparis swirei vor, der bis 2022 als die am tiefsten vorkommende Fischart galt. Lebende Exemplare wurden in Tiefen von 6198 bis 8098 Metern gefilmt. Ende 2022 wurde jedoch ein Exemplar einer noch unbekannten Art der Gattung Pseudoliparis in 8336 Metern Tiefe im Bonin-Graben entdeckt.
Sonstiges
Am 18. Januar 2009 wurde der Marianengraben von Präsident George W. Bush zum nationalen Monument der Vereinigten Staaten erklärt.
Im Rahmen einer Vermessung im Jahr 2011, durchgeführt von Geoforschern der University of New Hampshire in den USA mit einem Unterwasserroboter, sollte geprüft werden, ob den USA größere Meeresregionen um die US-amerikanischen Inseln Guam und die nördlichen Marianeninseln zustehen. Die Resultate wurden Ende 2011 veröffentlicht. Eine Meereszone von 200 Seemeilen gehört nach internationaler Anerkenntnis zum jeweiligen Hoheitsgebiet. Die Forscher der Universität haben auf ihren Karten vier Unterwassergebirge identifiziert, die als Verlängerung des amerikanischen Staatsgebietes von Guam und den nördlichen Marianeninseln gelten könnten.
Siehe auch
Marianas Trench Marine National Monument
Liste der Tiefseegräben
Weblinks
Albert E. Theberge: Thirty Years of Discovering the Mariana Trench In: Hydro International, Band 12, Nr. 8, 2008, , S. 38–39 (Online als PDF; 96,1 KB).
Natalya Gallo, James Cameron, Kevin Hardy, Patricia Fryer, Douglas Bartlett, Lisa Levin: Submersible- and lander-observed community patterns in the Mariana and New Britain trenches: Influence of productivity and depth on epibenthic and scavenging communities In: Deep Sea Research Part 1ː Oceanographic Research Paper, Band 99, Mai 2015, , S. 119–133, doi:10.1016/j.dsr.2014.12.012 (Online als PDF; 8,45 MB).
Karte mit Lage des Marianengrabens
The Challenger Deep
Marianengraben in Google Maps
Einzelnachweise
Tiefseegraben
Marianen
Geographie (Pazifischer Ozean)
Maria Anna von Österreich (1634–1696)
|
Q510
| 117.672135 |
112541
|
https://de.wikipedia.org/wiki/Schienbein
|
Schienbein
|
Das Schienbein () ist neben dem Wadenbein (Fibula) einer der beiden Knochen des Unterschenkels. Das Schienbein ist der kräftigere der beiden Knochen und ein typischer Röhrenknochen.
Das lateinische Wort tibia ist die Bezeichnung einer Knochenflöte und der lateinische Name des in der griechischen Antike als Aulos bekannten Blasinstruments.
Schienbein bei Säugetieren
Kopf
Am kräftigsten ausgebildet ist das obere Ende, der Kopf (Caput tibiae), welcher zwei Gelenkknorren trägt (Condylus medialis und Condylus lateralis). Diese besitzen auf ihrer oberen Fläche eine überknorpelte Gelenkfläche (Facies articularis superior), die durch eine Erhöhung (Eminentia intercondylaris) in zwei Anteile getrennt wird. Die Erhöhung läuft in zwei getrennte Höckerchen (Tuberculum intercondylare mediale und Tuberculum intercondylare laterale) aus. Begrenzt wird sie vorne (ventral) und hinten (dorsal) durch zwei flache Gruben (Area intercondylaris anterior und Area intercondylaris posterior). Dort setzen die Kreuzbänder und die Haltebänder der Menisken an. Die gesamte obere Fläche des Schienbeines wird als Schienbeinplateau bezeichnet und bildet mit den Knorren des Oberschenkelknochens (Femur) das Kniegelenk. Am seitlichen Umfang des nahezu senkrecht stehenden Knochenrandes findet sich die Gelenkfläche (Facies articularis fibularis) für den Wadenbeinkopf (Caput fibulae).
Schaft
Weiter unten, schon im Bereich des Schaftes (Corpus tibiae), liegt nach vorne gerichtet eine ausgedehnte, wenig erhöhte Rauigkeit (Tuberositas tibiae). An dieser setzt die Sehne des Musculus quadriceps femoris an. Seitlich davon liegt bei Haustieren eine tiefe Rinne (Sulcus extensorius), durch welche die Ursprungssehnen des Musculus extensor digitorum longus und Musculus peroneus tertius ziehen.
Der Schaft ist dreiseitig und verjüngt sich nach unten hin (distal). Man kann drei Flächen unterscheiden (Facies medialis, Facies lateralis und Facies posterior). Die seitliche und mittige Fläche werden durch einen scharfen Rand (Margo anterior – bei Tieren Margo cranialis genannt) getrennt. Er liegt direkt unter der Haut und wird nicht durch Muskulatur geschützt, weshalb ein Tritt vor das Schienbein sehr schmerzhaft ist. Der ebenfalls scharfe und sich am weitesten nach unten ziehende Rand zwischen Schienbein und Wadenbein (Margo interosseus) trennt die hintere und seitliche Fläche voneinander. Außerdem setzt an ihm auf ganzer Länge ein straffes Band (Membrana interossea cruris) an, das den Spalt zwischen Schienbein und Wadenbein vollständig überbrückt. Der dritte Rand (Margo medialis), welcher zwischen mittiger und hinterer Fläche liegt, ist hingegen abgerundet. Die hintere Fläche zeigt beim Menschen im oberen Bereich eine von seitlich-oben (lateral-cranial) nach mittig-unten (medial-caudal) laufende flache Knochenleiste (Linea musculi solei). Diese dient als Ursprung für den Musculus soleus.
Unteres Ende
Das untere Endstück trägt zwei mit dem Sprungbein (Talus) verbundene Gelenkflächen. Die eine steht fast horizontal und ist nach innen gekrümmt (Facies articularis inferior), die andere (Facies articularis superior) geht zur Mitte ohne Grenze in abgerundetem Winkel in die fast sagittal stehende Sprunggelenksfläche (Facies articularis malleolaris) über. Letztere liegt auf dem Innenknöchel (Malleolus medialis) auf, einem fast kegelförmigen, stark ausgeprägten Vorsprung, über dessen hintere Fläche eine Sehnenfurche (Sulcus malleolaris) zieht. Bei Tieren liegt die Gelenkfläche auch über das rudimentäre Wadenbein auf dem Außenknöchel (Malleolus lateralis) auf. Bei Wiederkäuern ist dieser als selbstständiger Knochen (Os malleolare) ausgebildet. Die Gelenkfläche des unteren Schienbeinendes (Facies articularis malleoli, bei Tieren Cochlea tibiae) steht mit der Gelenkrolle des Sprungbeines in Verbindung. Beide bilden die obere Gelenketage des Sprunggelenkes („Malleolengabel“). Die seitliche Fläche des unteren Endstückes zeigt einen zur Aufnahme des unteren Wadenbeinendes bestimmten, aber nicht überknorpelten Einschnitt (Incisura fibularis).
Schienbein bei Vögeln
Bei Vögeln ist das Schienbein mit der oberen Reihe der Sprunggelenksknochen (Tarsalknochen) verwachsen. Man verwendet daher die Bezeichnung Tibiotarsus (siehe hierzu auch Vogelskelett).
Erkrankungen
Schienbeinbrüche (Frakturen) kommen häufig vor. Sie werden mittels Metallplatten und Schrauben bzw. Marknagelungen operativ durch die so genannte Osteosynthese versorgt.
Eine häufige, durch Überlastung (Jogging, Hallensportarten etc.) hervorgerufene Erkrankung ist das vordere Tibiakantensyndrom (shin splints). Auftretend in der distalen Hälfte der Tibia kommt es zu einer schmerzhaften Reizung der Ursprungsfasern des Musculus tibialis anterior.
Der Morbus Osgood-Schlatter ist eine Reizung der Schienbeinbeule, also des Ansatzes des Kniescheibenbandes. Bei Haushunden kommt eine ähnliche Erkrankung mit Ablösung der Schienbeinbeule vor, die als Tuberositas-tibiae-Avulsion bezeichnet wird.
Seltene Erkrankungen bei Kindern sind unter anderem Jaffé-Campanacci-Syndrom, Tibia recurvata, Kongenitale Tibiapseudarthrose, Tibiale Hemimelie.
Literatur
C. Zalpour: Anatomie / Physiologie für die Physiotherapie. 1. Auflage. Urban & Fischer, München/ Jena 2002.
Franz-Viktor Salomon: Anatomie für die Tiermedizin. Enke, Stuttgart 2004, ISBN 3-8304-1007-7, S. 37–110.
Weblinks
Knochen der unteren Extremität
Knie
|
Q178366
| 120.137234 |
142812
|
https://de.wikipedia.org/wiki/Doppelpunkt
|
Doppelpunkt
|
Der Doppelpunkt : (auch das Kolon, für „Glied eines Satzes“) ist ein Satzzeichen, das vor einer Aufzählung, einem Zitat oder einer wörtlichen Rede stehen kann. Er kann außerdem Erklärungen und Zusammenfassungen des vorher Gesagten einleiten. Der Doppelpunkt ist zugleich trennend und betonend.
Eingesetzt wird er auch als Geteiltzeichen in mathematischen Ausdrücken sowie als Trennzeichen in Mischverhältnissen (etwa 2 : 1, gesprochen „2 zu 1“), in Größenordnungen sowie in Uhrzeiten (20:15 Uhr). Im Deutschen wird auch ein Spielstand durch einen Doppelpunkt getrennt (21:17). Im Schwedischen und Finnischen kann er in Preisangaben an die Stelle des Dezimalkommas treten (3:–) oder bei Verkürzungen an die Stelle des Apostrophs (’); wie im Englischen trennt er ferner Buch und Vers in Bibel-Verweisen. In der französischen Typografie steht auch vor dem Doppelpunkt ein Leerzeichen.
Geschichte
Für die Verwendung des Doppelpunkts (dikolon) als Lesehilfe zur Worttrennung oder zur Markierung größerer Einheiten (Kolon) gibt es frühe Belege, zum Beispiel in einer Inschrift auf dem sogenannten Nestorbecher von Ischia aus dem 8. Jahrhundert v. Chr. Weitere Beispiele finden sich in Papyri ab dem 4. Jahrhundert v. Chr. Er entstand wohl als vereinfachte Form der drei übereinander stehenden Punkte, die als Trennzeichen häufig in Papyri zu finden sind. In dramatischen Texten, vor allem Komödien, und in den platonischen Dialogen grenzt der Doppelpunkt zusammen mit dem Paragraphos die einzelnen Sprecher voneinander ab.
Verwendung in der Rechtschreibung der deutschen Sprache
Der Doppelpunkt wird zu den Satzmittezeichen gezählt, wie auch das Komma oder das Semikolon. Er steht innerhalb eines Satzgefüges; dabei kann jedoch sowohl vor wie nach dem Doppelpunkt ein Hauptsatz stehen. Hingegen kann er nie am Ende eines (logischen) Absatzes gesetzt werden.
Vor der wörtlichen (direkten) Rede
… und vor einem in Anführungszeichen wörtlich angeführten Gedanken nach dem Ankündigungssatz:
Ich sagte: „Was nicht ist, kann noch werden.“
Die Mutter dachte: „Ich bleibe daheim.“
Vor Aufzählungen und Erklärungen
…, wenn sie vorher angekündigt sind:
„Die vier Himmelsrichtungen sind: Osten, Westen, Süden, Norden.“
„Die Mondfinsternis ist etwa so zu erklären: Der Schatten der Erde fällt auf den Mond; dieser ist daher ganz oder teilweise verfinstert.“
Wir stellen ein:
„Einkäufer/-innen“
„Sachbearbeiter/-innen“
„Programmierer/-innen“
Der Doppelpunkt als Ankündigungszeichen ist entbehrlich und soll entfallen, wenn der Aufzählung bereits eine andere Form der Ankündigung vorangeht. Das sind Formulierungen wie „also“, „besonders“, „namentlich“, „nämlich“, „wie“, „zum Beispiel“, „und zwar“, „das impliziert“, „das heißt“, „unter anderem“, „unter anderen“ – „Das Schiff verkehrt nur an drei Tagen, nämlich Dienstag, Donnerstag und Samstag.“
Hinweis zu Aufzählungen:
Lautet der Satz „Die vier Himmelsrichtungen sind Osten, Westen, Süden und Norden.“, dann kann – muss aber nicht – vor den aufgezählten Begriffen ein Doppelpunkt gesetzt werden. Beispiel: „Die vier Himmelsrichtungen sind(:) Osten, Westen, Süden und Norden.“ Fehlt die Konjunktion (hier: und), muss ein Doppelpunkt gesetzt werden.
Oft vor Folgerungen, Aussagen
…, wenn sie eine Erläuterung oder eine Zusammenfassung darstellen:
„Am Schluss stellte sich heraus: Der Bericht war vollständig erfunden.“
„Rinder und Pferde, Schafe und Ziegen, Schweine und Geflügel: Alles ist auf diesem Bauernhof zu finden.“
Zwischen einem umfangreichen, mehrfach gegliederten
… Vordersatz und einem Nachsatz:
„Autos hupen, Straßenbahnen kreischen, Motorräder rattern und knattern, Lastwagen dröhnen: Das ist die Melodie der Großstadt.“
Vor angekündigten
… Unterschriften, Zeugnisnoten, Beurteilungsnotizen, Fahrplan-Zeitangaben und Ähnliches
„Der Obermann: Karl Seeger – Deutsch: Sehr gut – Stil: Könnte flüssiger sein. – 13:20 (auch Punkt ist möglich: 13.20 Uhr).“
Groß- und Kleinschreibung
Nach dem Doppelpunkt wird normalerweise groß weitergeschrieben, wenn ein selbständiger Satz folgt.
Er sagte zu seiner Frau: „Wenn du nicht aufhörst, Wikipedia zu lesen, lasse ich mich scheiden.“
„Erschüttert betrat er seine verkohlte Bibliothek: Alle Bücher waren vernichtet worden.“
Wenn der Doppelpunkt durch einen Gedankenstrich ersetzt werden könnte, ist auch bei selbständigen Sätzen die Kleinschreibung zulässig.
In allen anderen Fällen wird klein weitergeschrieben, es sei denn, dem Doppelpunkt folgt direkt ein Substantiv.
„Er rief sie alle zusammen: seinen Koch, seine Frau und ihren Liebhaber.“
„In Hamburg fand sie, was sie sich sehnlichst gewünscht hatte: eine unterirdische Villa.“
Überschriften
Innerhalb von Überschriften wird ein Doppelpunkt nach den obigen Regeln gesetzt. Am Ende von Überschriften erscheint ein Doppelpunkt grundsätzlich überflüssig, weil Überschriften sich durch ihre grafische Gestaltung deutlich vom Fließtext abheben und ihre ankündigende Funktion genügend erkennbar ist. Ein Doppelpunkt wird als Satzmittezeichen nur dort gesetzt, wo der ankündigende und der angekündigte Textteil grafisch und inhaltlich als relativ eng zusammengehörend wahrgenommen werden.
Verwendung in gendergerechter Schreibung
Als Mittel der gendergerechten Schreibung wird der Gender-Doppelpunkt verwendet, um die sprachliche Gleichbehandlung und Inklusion aller Geschlechter und Gender typografisch zum Ausdruck zu bringen: Lehrer:innen, ein:e Schüler:in. In der Einzahl kann auch eine nichtbinäre, diversgeschlechtliche Person beschrieben werden, die weder Mann noch Frau ist: Alex ist Künstler:in.
Der Doppelpunkt hat als Genderzeichen gegenüber Gendersternchen (Lehrer*innen) und Gender-Gap (Lehrer_innen) den Vorteil, von Screenreadern problemloser vorgelesen zu werden, weil nach dem Doppelpunkt eine kleine Sprechpause eingelegt wird, wie vor einer Aufzählung; mit dieser „Gender-Pause“ (Glottisschlag) wird verhindert, dass der Ausdruck als generische Femininform gelesen wird (Lehrerinnen). Aus diesem Grund führte die Hansestadt Lübeck Ende 2019 den „Gender:Doppelpunkt“ für die interne und externe Kommunikation der Stadtverwaltung ein; einige Hochschulen und mehrere Medienredaktionen folgten dem Beispiel (siehe Liste von Einrichtungen, die Genderzeichen nutzen).
Der Gebrauch des Doppelpunkts im Wortinneren ist allerdings nicht Bestandteil der amtlichen Rechtschreibung. Der Rechtschreibduden vom August 2020 führt den Doppelpunkt als Möglichkeit des „geschlechtergerechten Sprachgebrauchs“ auf. Der Rat für deutsche Rechtschreibung erklärt im März 2021, die Aufnahme von Genderzeichen in die Amtliche Rechtschreibung nicht zu empfehlen; er beobachtet aber weiterhin ihren Gebrauch (Details).
Verwendung in der Informationstechnik
Codierung
Der Doppelpunkt ist bereits im ASCII-Zeichensatz enthalten, hat den Dezimalwert 58 (hexadezimal 0x3A) und folglich in Unicode den Code U+003A. Für vollbreiten Schriftsatz, wie er in ostasiatischen Schriftsystemen üblich ist, gibt es eine Variante unter U+FF1A (:).
Datei-Pfadangaben
Unter CP/M, DOS und Windows wird er für Laufwerksbuchstaben (etwa A: oder C:) verwendet. Unter AmigaOS werden dadurch neben Datenträgervolumen auch Verzeichnisreferenzen deklariert – etwa Workbench: (Volumenbezeichner) oder CLIPS: (Verzeichnis „Clipboards“ auf der RAM-Disk). Unter Mac OS „Classic“ trennt er einzelne Verzeichnisse im Pfad wie der Schrägstrich unter OS X u. a.
Verwendung in Programmiersprachen
Manche Programmiersprachen (z. B. Pascal, Ada) benutzen := als Zuweisungsoperator.
Er wird in der Auszeichnungssprache XML als Zeichen zur Trennung von Namensraum und Tag verwendet; mit : kann es als Entität angegeben werden.
In C/C++ und ähnlichen dient er zum Trennen von den beiden Rückgabe-Ausdrücken des ternären (3stelligen) Auswahloperators (Bedingung ? Zutreffend : Unzutreffend).
In C++ werden Namenskonflikte von gleichen Bezeichnern in unterschiedlichen Namensräumen mithilfe des aus zwei Doppelpunkten gebildeten Scope-Operators :: aufgelöst, z. B. std::chrono::system_clock, bzw. zum Zugriff auf Klassenvariablen, -funktionen und -typen.
Der Doppelpunkt wird zudem zur Kennzeichnung von Sprungmarken bzw. Labels (Java) verwendet.
In JavaScript und JSON werden Name-Wert-Paare mithilfe des Doppelpunktes dargestellt:
{ "name": "Wales", "vorname": "Jimmy", "gehalt": 0 }
In Python übernimmt der Doppelpunkt, oft in Kombination mit Einrückungen, teilweise die Funktion geschweifter Klammern in anderen Programmiersprachen. So endet z. B bei Schleifen die Schleifenbedingung mit einem Doppelpunkt, der zugehörige Schleifenkörper wird durch Einrückung signalisiert.
Sonstige Adressierungen
IPv6-Adressen werden üblicherweise in einer hexadezimalen Schreibweise notiert, wobei jeweils 16-Bit-Einheiten der Adresse durch einen Doppelpunkt voneinander getrennt sind, z. B. 2001:db8:0:0:0:0:fee1:g00d, wobei mehrere aufeinander folgende Werte von 0 weggelassen werden können und durch :: ersetzt werden können. Eben genanntes Beispiel würde also zu 2001:db8::fee1:g00d verkürzt werden.
Bei URIs trennt der (erste) Doppelpunkt das zu verwendende Schema von dessen Rest, z. B. https://de.wikipedia.org/w/index.php. Je nach URI-Schema können, durch Doppelpunkt vom Hostnamen abgetrennt, Portnummern abgegeben werden:
https://www.example.org/pfad/zur/datei.zip – Ohne Portangabe, d. h. es wird der Standardport genommen
https://www.example.org:8080/pfad/zur/datei.zip – mit expliziter Angabe eines abweichenden Ports, hier: Port 8080.
Siehe auch
Längezeichen (im Internationalen Phonetischen Alphabet, auch als Doppelpunkt dargestellt)
Paamayim Nekudotayim (Gültigkeitsbereichsoperator :: in der Skriptsprache PHP)
Literatur
Kevin Christopher Masalon: Die deutsche Zeichensetzung gestern, heute – und morgen (?): eine korpusbasierte, diachrone Untersuchung der Interpunktion als Teil schriftsprachlichen Wandels im Spannungsfeld von Textpragmatik, System und Norm unter besonderer Berücksichtigung des Kommas. Dissertationsschrift. Duisburg-Essen, 5. Mai 2014; uni-duisburg-essen.de (PDF; 2,3 MB).
Weblinks
Einzelnachweise
Satzzeichen
|
Q177449
| 162.159994 |
39604
|
https://de.wikipedia.org/wiki/Shunyata
|
Shunyata
|
Shunyata (Sanskrit ), im Deutschen meist Leerheit, ist ein zentraler Begriff des Buddhismus. Er bedeutet, sehr grob umrissen, dass alle Erscheinungen – da sie durch wechselseitige Bedingtheit verbunden sind – ohne dauerhaften Wesenskern sind bzw. ohne Substanz, Essenz oder „Eigenexistenz“. Man sagt also, sie seien „leer von Eigenexistenz“ etc. Wesentlich ist für den Buddhismus, dass auch das menschliche Ich hierunter fällt, in der buddhistischen Philosophie ist das Konzept aber auf alle Erscheinungen ausgedehnt worden.
Leerheitsbegriff
Der Begriff der Shunyata leitet sich unmittelbar aus der buddhistischen Lehre vom Nicht-Selbst ab. Er verweist auf die Substanzlosigkeit aller Phänomene infolge ihrer Abhängigkeit von bedingenden Faktoren, ihrem bedingten Entstehen (Sanskrit: pratityasamutpada, Pali: paticca samuppada). „Leerheit“ ist eine Umschreibung für das Fehlen eines konstanten Seins, einer Eigennatur und eines beständigen Ich im steten Wandel der Existenz. Die Erscheinungen sind in ihrer Leerheit ohne eigenes Kennzeichen, ohne inhärente Eigenschaften und damit nicht mehr als nominalistische Begriffe einer nicht wesenhaften Welt. Die Welt ist keine Welt des Seins, sondern des ständigen Werdens, in dem es keine festen Substanzen und keine unumstößlichen Realitäten gibt.
Geschichtliche Entwicklung des Leerheitsbegriffes
Pali-Kanon
Der Leerheitsbegriff ist an mehreren Stellen des Pali-Kanons überliefert. Er wird darin jedoch meist adjektivisch verwendet. Ein Zitat aus dem Samyutta-Nikaya (Die Gruppierte Sammlung), einem Dialog zwischen dem historischen Buddha und seinem Cousin und Schüler Ananda (5. Jh. v. Chr.), unterstreicht das:
In zwei Suttas des Majjhima-Nikaya (Mahasunnata Sutta und Culasunnata Sutta) taucht allerdings auch die später im Mahayana übliche, substantivierte Form auf, zum Beispiel in der Verbindung suññatāvakkanti bhavati. In einem Zitat aus dem Culasunnata Sutta werden die verschiedenen Versenkungszustände der Samatha-Meditation erläutert:
Das Prädikat „leer“ bezieht sich im frühbuddhistischen Zusammenhang noch ausschließlich auf die Ichlosigkeit und nicht auf eine angenommene letztendliche Bestehensweise der Daseinsfaktoren (Sanskrit: dharmas, Pali: dhammas), insbesondere der fünf Skandhas in ihrem abhängigen Entstehen, die nach frühbuddhistischer Lehre die gesamte Erfahrungswelt einer Person ausmachen. Das ändert sich später in einigen Schulen des Hinayana, insbesondere in den Schulen des Sarvastivada und des Sautrantika, die, ausgehend von der Systematik des Abhidharma, diskutieren, ob die Daseinsfaktoren über eine dauerhafte Eigenexistenz (svabhava) verfügen oder nur momenthaft aufblitzen, um im selben Augenblick wieder vollständig zu verlöschen.
Die vier arūpajjhāna des Anupada Sutta bilden die Grundlage kosmischer Leerheitsmeditationen, die im Nirodha Samāpatti des Arhats gipfeln : „Wiederum, ihr Bhikkhus, mit dem völligen Überwinden des Gebiets von Weder-Wahrnehmung-noch-Nichtwahrnehmung (saññāvedayitanirodham) trat Sariputta in das Erlöschen von Wahrnehmung und Empfindung ein und verweilte darin“.
Prajnaparamita-Literatur
In den Prajnaparamita (Vollkommenheit der Weisheit)-Schriften des Mahayana (z. B. im Herz-Sutra), deren Entstehungszeit um das 1. Jahrhundert v. Chr. anzusiedeln sind, findet der Leerheitsbegriff in der substantivierten Form seinen festen Platz. Es kommt dabei zu einem Bedeutungswandel. Die Daseinsfaktoren, die die gesamte Erfahrungswelt der Person konstituieren, sind nicht nur leer von einem Selbst, sondern leer von jeglicher Eigenexistenz. Alle Wesen, ob verblendet oder erleuchtet, sind demnach im universellen Bedingungszusammenhang des pratityasamutpada untrennbar miteinander verwoben und in ihrer Leerheit, die daraus resultiert, letztlich nicht voneinander getrennt und unterschiedslos. Es findet eine Universalisierung des Leerheitsaspekts statt. Auf dem Gipfel der Erkenntnis (prajna) wird keine Unterscheidung mehr getroffen zwischen Samsara und Nirvana, „bedingt“ und „nichtbedingt“, „existent“ und „nichtexistent“, „gleich“ und „verschieden“. Dies sind dualistische Begriffe, die infolge ihrer Aufeinander-Bezogenheit leer von eigenem Wesen sind und auf die Wirklichkeit, wie sie sich wahrhaft darstellt, nicht zutreffen. Es zeigt sich hier die zunehmend wichtige erlösende Rolle, die im Mahayana der Erkenntnis (prajna) und dem Wissen (jnana) zukommt, da alle Wesen in ihrer Leerheit bereits potentiell erlöst sind und es diese Gegebenheit nur noch zu erkennen gilt.
Madhyamaka
Mādhyamaka ist eine philosophische Schule des Mahāyāna-Buddhismus, die sich auf die Analyse der Leerheit konzentriert und daher auch als Śūnyatavāda bekannt war. In der frühen Literatur des Mahayana findet sich auch der Ansatz für Nagarjuna (ca. 2. Jahrhundert), auf dessen Wirken die Schule des Mittleren Weges (Madhyamaka) zurückgeht. Nagarjuna verfolgte den in den Prajnaparamita-Schriften eingeschlagenen Kurs konsequent weiter und berief sich in seiner Argumentation zudem auf die überlieferten Aussagen des Buddha. Die in den buddhistischen Schulen entbrannte Diskussion über den Wirklichkeitsgrad und ontologischen Status der Daseinsfaktoren brachte ihn dazu, den Leerheitsbegriff weiter auszuarbeiten. Er setzte ihn als didaktisches Werkzeug ein, mithilfe dessen er unheilsame extreme Ansichten wie die des „Seins“ (bhava) oder des „Nichtseins“ (abhava) zurückwies. Leerheit war für Nagarjuna somit weder ein Absolutes noch ein der Vielfalt der Phänomene gegenübergestelltes Vakuum. Er verwies mit dem Begriff auf die fehlende Eigenexistenz (svabhava) alles Zusammengesetzten und abhängig Entstandenen und machte dabei mehrfach darauf aufmerksam, nicht den Fehler zu begehen, die Leerheit mit einer hinter der Welt liegenden „Realität“ oder einer Ansicht zu verwechseln, die diese Realität repräsentiert. Selbst die Leerheit erklärt Nagarjuna für leer von inhärenter Wirklichkeit. Sie kann nicht widerspruchslos ausgedrückt werden, da jeder Verweis stets eine verhüllte Wahrheit (samvrtti satya) wiedergibt. Die Wahrheit im höchsten Sinn (paramartha satya) zeigt sich in der nonverbalen Erkenntnis (prajna) als Leerheit. Seine Methode, den Praktizierenden an die Leerheit heranzuführen, war daher dekonstruktiv: Er versuchte, über den Weg der strikten Negation jeglichem Anhaften an einer bestimmten Ansicht vorzubeugen und dem „Ergreifen“ (Upadana) damit von vornherein den Boden zu entziehen.
Yogacara
In der im 4. Jh. gegründete philosophische Schule des Yogacara (Yoga-Praxis) werden alle Wahrnehmungen als geistige Projektionen eingestuft. In dieser Schule wurde im Gegensatz zur Negation versucht, die Leerheit positiv zu formulieren. Im Zuge dessen wurden Begriffe entwickelt wie „Schoß des Tathagata“ (tathagatagharba), „Soheit“ (tathata), „Dasheit“ (tattva) oder „Reich aller dharmas“ (dharmadhatu), die als Vorboten der später im außerindischen Buddhismus geläufigen Bezeichnung Buddha-Natur anzusehen sind. Im Yogacara fungiert der Geist als Grundlage von Samsara und Nirvana: ihn gilt es, durch Training (Meditation) zu erkennen und schlussendlich vollständig zu verwirklichen.
Die Leerheit in anderen Systemen
Der umstrittene Begriff der Leere, durch den sich der Buddhismus von weiten Bereichen des Hinduismus, die eine mentale Leere im Bereich des Antahkarana kennen, unterscheidet, ist einer unter vielen. So entsteht dem Shivaismus zufolge Leere mit dem Erlöschen des Wissens. Er wird im Svacchanda-Tantra, das in Kapitel IV.288-290 sechs Kontemplationen der Leere lehrt, und im Vijnanabhairava-Tantra erläutert. Der Madhyadhama (zentrale Kanal) wird hier auch als sunya oder als sunyatisunya (absolute Leere) bezeichnet. Im Radhasoami existiert eine solche Leere als Maha Sunna (Bhavsaagar) auf ähnlich hohen Ebenen, darüber existieren aber, wie Abhinavagupta lehrt, weitere Ebenen. In der mystischen Tradition des Judentums der Kabbala existiert eine solche Leere als Belima (Was-los) zusammen mit Reschit.
Die philosophische Grundlage für die Zahl Null und damit des Dezimalsystems war wahrscheinlich die Shunyata Philosophie von Nagarjuna. In Hindi heißt „Null“ heute noch shunya.
Seit dem 7. Jahrhundert n. Chr. findet sich in Inschriften ein Punkt oder ein Kreis als Symbol für die „Leere“ („śūnya“).
Der japanische Philosoph Nishitani Keiji (1900–1990) sieht im philosophischen Begriff Entäußerung, der unter anderem von Hegel, Fichte, Schelling und Marx geprägt wurde, auch Parallelen zum Shunyata-Konzept.
Dem Buddhismus wurde oft vorgeworfen, er sei eine nihilistische Lehre. Eine Ursache dafür sind negative Formulierungen, die in buddhistischen Texten prominent vorkommen, etwa die Serie von Verneinungen im Herz-Sutra oder der Begriff Shunyata, die aber differenzierte Interpretationen erfordern (und die als analog zur negativen Theologie des Christentums diskutiert werden können).
Abgrenzung zu westlichen Vorstellungen
Entgegen der westlichen Vorstellung von Nichts (im Sinne eines physikalischen Vakuums oder einer Abwesenheit) beinhaltet der Begriff Shunyata also gleichzeitig das Potential der Entstehung von Phänomenen („Form ist nichts anderes als Leere, und Leere ist nichts anderes als Form“, Herz-Sutra). Diese Kernaussage des Mahayana zielt darauf ab, dass es unmöglich ist, durch die beiden extremen Weltanschauungen der Vernichtungslehre (ucchedavada) und des Eternalismus (Sasatavada) die wahre Natur des Geistes (und somit aller Erscheinungen) zu ergründen; eben der „Mittelweg“ (daher: Mittlerer Weg, Sanskrit: madhyamapratipad) führt schließlich zur Erkenntnis von Prajnaparamita – der letztendlichen (englisch ultimate) Weisheit, mit der nichts anderes als Shunyata gemeint ist.
Siehe auch
Kenosis
Entäußerung
Literatur
The fifth Dalai Lama: Practice of Emptiness. The Perfection of Wisdom Chapter of the Fifth Dalai Lama's „Sacred Word of Manjushri“. Library of Tibetan Works and Archives, Dharamsala 1974.
Nishitani Keiji: Was ist Religion? deutsche Übertragung von Dora Fischer-Barnicol, Frankfurt am Main 1982.
Nishitani, Keiji: Religion and Nothingness. The University of California Press, Berkeley 1982, ISBN 0-520-04946-2.
Christian Thomas Kohl: (PDF; 83 kB) auf: www.yumpu.com
Bernhard Weber-Brosamer, Dieter M. Back: Die Philosophie der Leere. Nāgārjunas Mulamadhyamaka-Karikas. 2. Auflage. Harrassowitz, Wiesbaden 2005, ISBN 3-447-05250-3. (Übersetzung des buddhistischen Basistexts mit kommentierenden Einführungen)
Kalupahana, David (1991). Mulamadhyamakakarika of Nagarjuna. Motilal Banarsidass. ISBN 812080774X
Weblinks
Leere Rywiki
121. Leerheit I – Cūlasuññata Sutta. Majjhima Nikāya, Mittlere Sammlung
Thanissaro Bhikkhu (Übers.) (1997), Maha-suññata Sutta, Majjhima Nikaya 122, The Greater Discourse on Emptiness
Thanissaro Bhikkhu (Übers.) (1997), Phena Sutta, Samyutta Nikaya XXII.95, Foam
Thanissaro Bhikkhu (Übers.) (1997), SN 35.85, Suñña Sutta
Einzelnachweise
Mahayana
Hinduismus
|
Q546054
| 90.022621 |
218056
|
https://de.wikipedia.org/wiki/Gartenerdbeere
|
Gartenerdbeere
|
Die Gartenerdbeere (Fragaria × ananassa, Synonym: Fragaria × magna), Ananas-Erdbeere oder auch Kulturerdbeere ist eine Nutzpflanze aus der Gattung der Erdbeeren (Fragaria). Den Namenszusatz Ananas (bzw. ananassa) bekam die Pflanze, da sie in Form, Geruch und Geschmack an eine Ananas erinnere. Die Elternarten dieser Arthybriden stammen vom amerikanischen Kontinent.
Abstammung
Die Gartenerdbeere entstand im 18. Jahrhundert in Europa aus der zufälligen Kreuzung der beiden amerikanischen Erdbeerarten Fragaria chiloensis (Chile-Erdbeere) und Fragaria virginiana (Scharlacherdbeere). Sie ist genau wie ihre Stammarten oktoploid (8n=56). Der Chromosomensatz hat die Zusammensetzung AAA'A'BBB'B', wobei die A-Chromosomensätze den Chromosomensätzen der Walderdbeere (Fragaria vesca) ähneln und die B-Chromosomensätze Verwandtschaft mit der Fragaria iinumae erkennen lassen. Wann und wo die Oktoploidie der Ausgangsarten entstand, ist unbekannt.
Aus der Urform der Gartenerdbeere wurden viele Sorten gezüchtet. Die Art wurde auch zu weiteren Artkreuzungen verwendet. Fragaria × vescana ist eine Kreuzung der oktoploiden Gartenerdbeere mit einer Walderdbeere (Fragaria vesca) mit verdoppeltem Chromosomensatz. Die resultierende Arthybride hat zehn Chromosomensätze (dekaploid).
Anbau
Der kommerzielle Anbau in Deutschland begann um das Jahr 1840 in Staufenberg in der Nähe von Baden-Baden. Etwa 1.000 Sorten stehen den Anbaubetrieben zur Verfügung, nur wenige entsprechen jedoch den Anforderungen des Handels, der Wert auf große und ansehnliche Früchte legt, die transportfähig und nur wenig anfällig gegenüber Grauschimmelfäule sind. Fragen des Aromas treten demgegenüber oft in den Hintergrund.
Im Freiland erfolgt der kommerzielle Anbau von Erdbeeren überwiegend in Einzelreihen im Flachfeld. Der Reihenabstand beträgt 0,80 m bis 1,0 m und der Abstand der Pflanzen in der Reihe liegt bei 20–40 cm. Zunehmend werden Erdbeeren auch auf kleinen Dämmen kultiviert, die mit einer sog. Mulchfolie überzogen sind. Hauptvorteil ist hier die bessere Wurzelgesundheit bei schwierigen, vor allem tonigen oder nassen, Böden. Die Standzeit der Pflanzen beträgt meist nur ein oder zwei Jahre. Der Raum zwischen den Reihen wird in der Blütezeit mit Stroh abgedeckt, um die Früchte vor Verschmutzung und Fäulnis zu schützen.
Verschiedene Anbautechniken dienen der Streckung des Angebotszeitraumes: Dazu zählen die Überdachung mit Wandertunneln, das Aufstellen von Minitunneln, das Abdecken mit Vlies, Lochfolie oder einer Kombination von Beidem, das Abdecken mit Stroh und die Terminkultur.
Wandertunnel sind einfache Folienhäuser, die jährlich auf- und abgebaut werden. Der Verfrühungseffekt beträgt ca. 15–20 Tage. Es ist ein verhältnismäßig aufwendiges Verfahren, durch die Überdachung haben die Pflanzen aber auch einen Witterungsschutz. Der Flächenanteil in Deutschland ist steigend.
Vliesabdeckung von Vegetationsbeginn bis Anfang Blüte verfrüht die Ernte um gut eine Woche. Wird zusätzlich eine Lochfolie aufgedeckt, gewinnt man noch einmal drei Tage. In klimatisch frühen Anbaugebieten ist die Vlies- oder die Doppelabdeckung das Standardverfahren.
Strohabdeckung: Im Spätwinter wird das ganze Feld dick mit Stroh zugedeckt. Durch den späteren Austrieb verzögert sich die Ernte um fünf oder mehr Tage.
Terminkultur: Hierzu werden sog. Wartebeet- oder starke Frigopflanzen in der Winterruhe gerodet und eingefroren bei −1 °C gelagert. Nach der Pflanzung im Mai oder Juni beginnt die Ernte 7–8 Wochen später.
In den letzten Jahrzehnten verbreitete sich auch zunehmend der Anbau der Erdbeere in Substrat auf Stellagen unter Glas oder Folie. Der Übergang von einfachen Folienhäusern zu Gewächshäusern ist fließend. Wenn geheizt wird, sind zwei bis drei Ernten im Jahr möglich.
Außerdem können die Erdbeeren nicht verschmutzt werden und auf Grund des Daches ist die Gefahr von Fruchtfäulen geringer.
Die Haupternte der Erdbeeren findet in Mitteleuropa in den Monaten Mai, Juni und Juli statt. Früchte, die weite Transportwege zurückgelegt haben, sind fast ganzjährig im Handel erhältlich. Im Herbst und Winter kommen frische Erdbeeren aus Israel, Ägypten und Übersee nach Deutschland, ab Februar aus Spanien und Marokko, ab März aus Italien und Frankreich.
Weltproduktion
Sorten
Im Anbau befinden sich über 100 Sorten, von denen etwa 30 im Erwerbsobstbau Bedeutung haben. Man unterscheidet einmal- und immertragende (z. B. Elan) Sorten. Die einmaltragenden Sorten, auch Juniträger oder Kurztagssorten genannt, tragen im mitteleuropäischen Klima etwa vier Wochen lang. Die Reifezeit ist je nach Klima und Sorte der Monat Juni. Die remontierenden, immertragenden Sorten bringen eine kleine Ernte Anfang Juni und den Großteil von Ende Juli bis zum Frost. Während den remontierenden Sorten früher nachgesagt wurde, weniger gut zu schmecken, sind hierunter inzwischen auch geschmacksintensive zu finden, so die im Aroma an Walderdbeeren erinnernde Sorte Mara des Bois.
Alle Sorten können über mehrere Jahre beerntet werden. Vor allem wegen der mit dem Alter der Pflanzen nachlassenden Fruchtgrößen werden sie im Erwerbsanbau aber meist nur ein- oder zweijährig kultiviert.
Zu den besonders bei Hobby-Gärtnern beliebten Sorten – häufig handelt es sich dabei um Kreuzungen mit der Gartenerdbeere – gehören Hänge-Erdbeeren, bodendeckende Sorten wie Florika oder Rügen und Klettererdbeeren, die an Zäunen aufgebunden wachsen können. Auch Erdbeerbäumchen werden heute angeboten. Mit der dunkelrosa blühenden Sorte Toscana gelang es einer Gartenerdbeere erstmals, den renommierten FleuroStar-Award in der Zierpflanzenbranche zu gewinnen.
Die bei Hobbygärtnern beliebte sogenannte Monatserdbeere blüht und fruchtet von Mai bis Oktober und wird deshalb auch als „immertragende“ Erdbeere bezeichnet. Sie gehört jedoch nicht zur Art der Gartenerdbeere, sondern zur Walderdbeere (Fragaria vesca var. semperflorens).
Die Hauptsorten im konventionellen Anbau in Deutschland sind:
Flair: sehr früh, Frucht mittelrot glänzend, regelmäßig lang-spitz-kegelförmig, guter bis sehr guter Geschmack mit mehr Säure als Clery, geringer bis mittlerer Ertrag, Pflanze stellt höchste Ansprüche an Wasser- und (Spuren-)nährstoffversorgung, anfällig für Rhizomfäule.
Elianny, neue Sorte, mittelgroße, aromatische Früchte, geeignet für Frischverzehr, Dessert oder Konfitüre.
Honeoye []: früh, Frucht dunkelrot glänzend, stumpfkegelförmig, guter, etwas säuerlicher Geschmack, bei schwülheißer Witterung, starkem Behang und viel Blattmasse auch bittere Früchte, anfällig für Wurzelkrankheiten, hohe Erträge.
Clery: früh, leuchtend hellrot, regelmäßig lang-spitz-kegelförmig, guter, etwas flacher Geschmack, da sehr wenig Säure, mittlerer Ertrag, eher wenig anfällig für Wurzelkrankheiten, verbreitet in warmen Anbauregionen.
Darselect: früh bis mittelfrüh, Frucht mittelrot und kegelförmig, sehr guter Geschmack, insbesondere bei hohen Tagestemperaturen, sehr anfällig für Blütenfrost und Mehltau, mittlerer Ertrag.
Elsanta: Hauptsorte; mittelfrüh, Frucht hell(orange-)rot, breitkegelförmig, guter bis sehr guter Geschmack, bei regnerischer Witterung etwas wässrig, gut haltbar, Pflanze anfällig für Wurzelkrankheiten, hoher bis sehr hoher Ertrag (bis über 30 t/ha).
Sonata: Reifezeit etwa zwei Tage nach der Sorte Elsanta, mit etwas kräftigerer Fruchtfarbe. Geschmack teilweise besser als Elsanta mit etwas mehr Säure und Aroma. Fruchthaut etwas weicher. Kaum Krüppelfrüchte. Relativ neue Sorte mit bereits großen Flächenanteilen im Erwerbsanbau. Sehr anfällig für Rhizomfäule.
Faith: herausragend starkwüchsig und widerstandsfähig bei bodenmüden Standorten. Auffällig ist bei dieser Sorte das hohe Fruchtgewicht (große Erdbeerfrüchte). Besonders robust mit hohem Marktertrag von über 3 kg/m². Geschmacklich wird die Sorte Faith jedoch von Testkonsumenten eher negativ bewertet.
Lambada: früh bis mittelfrüh, der Geschmack dieser Sorte wird immer wieder gelobt. Der Ertrag ist nur mittelmäßig (1,5 kg Ertrag Hkl 1 pro m) und sie ist sehr anfällig für Mehltau.
Korona: mittelfrüh, Frucht rot bis dunkelrot, anfangs groß, im Ernteverlauf klein werdend, sehr weich, deshalb nur als Selbstpflücksorte verbreitet, Geschmack sehr gut, anfällig für Fruchtfäulen, hoher Ertrag.
Florence: spät, Frucht regelmäßig kegelförmig, mittelrot, teilweise mit bräunlichem bis violetten Schimmer, Geschmack gut, aber von Frucht zu Frucht unterschiedlich, Ertrag sehr hoch.
Malwina: extrem spät, ca. 22 Tage nach Elsanta. Frucht dunkelrot, glänzend, gleichmäßig breitkegelförmig, voll ausgereift ausgezeichneter Geschmack. Frucht etwas weich. Pflanze bestockt sehr stark. Anfällig für Xanthomonas und Rhizomfäule.
Kleine Flächenanteile oder regionale Bedeutung haben (nach Reifezeit) die Sorten Alba, Daroyal, Rumba, Elianny, Polka, Symphony, Salsa und Yamaska sowie die remontierenden Sorten Evie 2, Everest, Florin, Sweet Eve und Eve’s Delight.
Folgende Sorten haben in der Vergangenheit einen hohen Bekanntheitsgrad erlangt, wurden aber von neueren Sorten verdrängt. Sie werden heute fast nur noch in Hausgärten angebaut:
Senga Sengana: mittelfrüh reifend mit mittelgroßen, dunkelroten Früchten – eine bewährte Sorte mit besten Eigenschaften zum Einkochen und Einfrosten, aber im Vergleich zu modernen Sorten geringem Ertrag.
Mieze Schindler: Spätsorte mit kleinen, dunkelroten, hocharomatischen Früchten, rein weiblich, braucht eine Befruchtersorte.
Tenira: Spätsorte mit intensiv roten und großen Früchten.
Elvira: große, sattrote Beeren, reift früh.
Bogota: Sorte mit sehr großen Früchten.
Ananaserdbeere: eine weiße Erdbeere mit roten Nüsschen und leichtem Ananas-Geschmack.
Neue Erdbeersorten werden im deutschsprachigen Raum von verschiedenen Züchtern selektiert und selbst oder in Lizenz vermehrt. Dabei sind Geschmack, Krankheitsresistenz, Fruchtfestigkeit/Transportfähigkeit und Ertrag die wichtigsten Selektionskriterien.
Standortanforderungen
Für ein gesundes Gedeihen benötigen Erdbeeren einen vollsonnigen und windgeschützten Standort. Da die Blüten sich nach dem Ende der Kälteperiode entwickeln, sind sie durch Spätfrost stark gefährdet.
Optimale Bedingungen für Erdbeeren bietet ein tiefgründiger und gut durchlässiger Boden. Er sollte humus- und nährstoffreich sein. Besonders förderlich ist ein leicht saurer Boden mit einem pH-Wert zwischen 5,5 und 6,5.
Das Wurzelwerk der Erdbeere ist sehr empfindlich und kann von verschiedenen bodenbürtigen Pilzen befallen werden. Auf nassen oder zu Staunässe neigenden Böden sollten keine Erdbeeren angebaut werden, weil die Wurzeln dann häufig von der roten Wurzelfäule (Phytophthora fragariae) befallen werden. Fast alle gängigen Sorten sind außerdem anfällig bis sehr anfällig für Verticillium-Welke, die bei Erdbeeren durch den Pilz Verticillium dahliae hervorgerufen wird. Flächen, auf denen schon einmal Kartoffeln gestanden haben, sind mit großer Wahrscheinlichkeit mit Verticillium-Mikrosklerotien besetzt und deshalb ungeeignet. Auf Parzellen, auf denen schon häufiger Erdbeeren gestanden haben, muss man mit einem Befall von Rhizomfäule (Phytophthora cactorum) oder schwarzer Wurzelfäule, verursacht durch verschiedene Bodenpilze, rechnen.
Einige kleinwüchsigere Erdbeersorten eignen sich auch für sonnige Balkone.
Auf Grund ihrer Wechselwirkungen, die von der Allelopathie erforscht werden, vertragen sich nebeneinander wachsende Pflanzen je nach Kombination unterschiedlich gut. Borretsch, Buschbohne, Knoblauch, Kopfsalat, Radieschen, Schnittlauch, Spinat, Zwiebeln und Porree sind gut mit der Gartenerdbeere kombinierbar. Ein schlechter Nachbar ist Kohl.
Schädlinge
Bei Erdbeeren liegt die Hauptgefahr in pilzlichen Schädlingen. Der wichtigste ist die Grauschimmelfäule (Botrytis cinerea). Daneben treten auch Phytophthora cactorum und Phytophthora fragariae, Sphaerotheca macularis sowie Mycosphaerella fragariae auf. Zu den Schadinsekten gehören der Erdbeerblütenstecher (Anthonomus rubi), die Erdbeermilbe (Steneotarsonemus pallidus fragariae), der Gefurchte Dickmaulrüssler (Otiorhynchus sulcatus) sowie Thripse.
Verwendung
Erdbeeren sind pflückreif und genießbar, wenn mindestens zwei Drittel der Fruchtoberfläche rot gefärbt sind. Ihr voller Geschmack entwickelt sich jedoch nur, wenn sie ausgereift gepflückt werden. Zu einer Nachreife kommt es bei Erdbeeren nicht. Idealerweise werden sie unmittelbar nach dem Pflücken verzehrt. Erdbeeren sind nur eingeschränkt transportfähig, da sie sehr druckempfindlich und anfällig für Schimmelpilze sind. Im Kühlschrank können sie bei zwei bis sechs Grad Celsius etwa ein bis zwei Tage gelagert werden. Bei Temperaturen zwischen null und zwei Grad sind sie bis zu fünf Tage haltbar.
Zu ihrer Verarbeitung werden sie gewaschen, bevor Stiele und Kelchblätter entfernt werden, da der Kontakt mit Wasser dazu führt, dass sie Aroma verlieren. Werden sie mit Zucker bestreut, darf das erst kurz vor dem Servieren geschehen, da sie dadurch sehr viel Saft verlieren und weich werden.
Eine große Rolle spielen Erdbeeren bei der Herstellung von Konfitüren. Daneben finden sie vielfältig Verwendung für die Zubereitung von Süßspeisen und Backwerk. Eine weitere Verwendungsmöglichkeit ist die Verwendung für Erdbeerwein, Erdbeerlikör oder Erdbeerbowle.
Inhaltsstoffe
Erdbeeren enthalten mehr Vitamin C als Orangen und Zitronen. Darüber hinaus sind sie reich an Folsäure, Kalzium, Magnesium und Eisen. Weil Erdbeeren wenig Nahrungsenergie enthalten, gelten sie als „Schlankmacher“.
Natürliches Erdbeeraroma
In sehr vielen Lebensmittelprodukten mit Erdbeergeschmack, wie beispielsweise Erdbeerjoghurt oder Erdbeerfrüchtetee, wird aus Kosten- und Geschmacksintensivierungsgründen der Geschmack durch beigemischte Aromen verstärkt. Aromazubereitungen mit Erdbeergeschmack können mit unterschiedlichen Verfahren hergestellt werden. „Natürliches Aroma“, das nach Erdbeeren riecht und schmeckt, muss im Sinne des Gesetzes nicht aus Erdbeeren gewonnen werden. Als „natürliche Aromen“ dürfen laut Aromenverordnung alle solche bezeichnet werden, bei denen „die aromatisierenden Bestandteile des Aromas ausschließlich aus natürlichen Aromastoffen oder Aromaextrakten bestehen“ – also aus einem beliebigen biologischen Organismus. Erdbeeren oder Erdbeerfruchtzubereitungen (Fruchtmischung mit geringem Erdbeeranteil) werden häufig nur in geringer Menge zugesetzt oder komplett durch Trägerstoffe mit Aromen ersetzt. Das kann der Zutatenliste entnommen werden.
Ein Beispiel für eine künstlich hergestellte Substanz mit starkem Erdbeeraroma ist Ethyl-2,3-epoxy-3-phenylbutyrat, kein Aldehyd, doch oft als „Erdbeeraldehyd“ bezeichnet.
Erdbeeraroma kann natürlich auch als Extrakt aus Erdbeerfrüchten gewonnen werden. Dieses besteht aus mehr als 300 Komponenten, darunter über 90 Carbonsäureester, 30 Carbonsäuren, zirka 20 Acetale, zirka 40 Alkohole sowie Ketone, Aldehyde, Kohlenwasserstoffe und selbst einigen Schwefelverbindungen. Hauptkomponenten sind Furaneol, Decano-4-lacton, trans-2-Hexen-1-ol, (E)-2-Hexenal, Essigsäurehex-2-enylester, Linalool, Anthranilsäuremethylester, Buttersäureethylester und Hexansäureethylester.
Die Anbauflächen von Erdbeeren müssten erheblich ausgeweitet werden, wenn ausschließlich Früchte von derzeit angebauten wenig aromatischen Erdbeersorten anstatt der sehr geruchsintensiven Aromazubereitungen für die Lebensmittelproduktion verwendet werden sollen.
Literatur
Gabriele Lehari: Erdbeeren. Sorten und Anbau. Ulmer, Stuttgart 2002, ISBN 3-8001-3822-0.
Wilhelm Kolbe: Zur Kunst- und Kulturgeschichte der Erdbeere. Kolbe, Burscheid 2006, ISBN 978-3-929760-16-3.
Siegfried Schlosser, Reichhoff, Hanelt et al.: Wildpflanzen Mitteleuropas. DLV, Berlin 1991, ISBN 3-331-00301-8.
Weblinks
Thomas Meyer: Datenblatt mit Bestimmungsschlüssel und Fotos bei Flora-de: Flora von Deutschland (alter Name der Webseite: Blumen in Schwaben)
Berichtsseite zu jährlich wiederholten Sortenvergleichen (Reifezeitpunkte, Geschmacksqualität, Erntemengen)
Erdbeeren im Ökolandbau
Rezepte mit Erdbeeren
Einzelnachweise
Rosengewächse
Pflanzenhybride
Beerenobst
|
Q13158
| 85.407679 |
123400
|
https://de.wikipedia.org/wiki/H%C3%B6rbuch
|
Hörbuch
|
Hörbuch (auch Audiobuch, ) bezeichnet die eigenständige Veröffentlichung gesprochener Inhalte auf Tonträgern (CD, Schallplatte, Kassette) oder im Internet (Download, Stream). Der Begriff wird oft auf Lesungen existierender Buchtexte verengt, umfasst aber genauso Hörspiele, Features oder Audioguides. Hörbuchverlage, Rundfunkanstalten und auch Blindenbüchereien produzieren und verkaufen Hörbücher.
Geschichte
Die Bezeichnung des Mediums geht auf die erste, 1954 bei der Deutschen Blindenstudienanstalt gegründete Blindenhörbücherei in Marburg zurück. Das Hörbild an sich war, auf Tonwalzen oder Wachsplatten gespeichert, bereits Ende des 19. Jahrhunderts entstanden. So inszenierte man 1890 unter dem Titel Die Beschießung von Paris ein zwei Minuten langes Hörbild des Deutsch-Französischen Kriegs. Die Aufzeichnung enthielt neben Marschmusik militärische Kommandos und Schlachtengeräusche. Bereits damals gab es Aufnahmen von Spielszenen, kurzen Lesungen oder humoristischen Einlagen.
Die Entwicklung des Phonographen sowie die ersten marktfähigen Schallplatten von Emil Berliner veränderten die Medienlandschaft zu Beginn des 20. Jahrhunderts (gemeinsam mit der Erfindung des Films und des Radios) enorm. In den 1920er-Jahren entwickelte sich bald ein Publikum für Tonaufzeichnungen, woraufhin die Schallplattenfirmen neben Musikern auch Schriftsteller und Kabarettisten unter Vertrag nahmen. Dichterlesungen von Thomas Mann oder Erich Kästner waren nun nicht mehr an einen Ort oder eine bestimmte Zeit gebunden – man konnte sie zu Hause zu jeder Zeit und beliebig hören.
Nach dem Zweiten Weltkrieg produzierte die Deutsche Grammophon erste Hörbücher. In Zusammenarbeit mit dem Theater entstand 1954 Goethes Faust I. Es folgten Schillers Kabale und Liebe, Jedermann von Hugo von Hofmannsthal und Samuel Becketts Das letzte Band. Außerdem veröffentlichte das Münchner Tonstudio ZASTA die Reihe Tönende Bücher. Die Umsatzbeteiligung am Buchmarkt war aber auch in den folgenden Jahrzehnten noch gering.
1972 kam es zur ersten Kooperation mit den Rundfunkanstalten, die den Hörbuch- bzw. Hörspielproduktionen beachtliche Quellen an Archivaufnahmen zur Verfügung stellen konnten. Die avantgardistischen Hörbuchreihen der Deutschen Grammophon, des Luchterhand Verlags und der ARD scheiterten wegen finanziellen Misserfolgs, legten aber für das Zusammenwirken von Plattenfirmen, Buchverlagen und Rundfunkanstalten den entscheidenden Grundstein.
Ende der 1970er-Jahre löste die Hörkassette die Sprechplatte als Trägermedium ab. Aber auch in den 1980er-Jahren war der Markt noch nicht reif für Hörbucheditionen und so musste u. a. die 1987 gegründete Reihe des Rowohlt Verlags, Literatur für Kopfhörer, eingestellt werden. Zwar hatte Erich Schumm den ersten reinen Hörbuchverlag in Deutschland, der heute Steinbach sprechende Bücher heißt, bereits 1978 gegründet, doch erst ab 1990 gelang es dem Goldmann Verlag zusammen mit dem WDR, Krimihörspiele in einer Auflage von bis zu 30.000 Exemplaren zu veröffentlichen und dem Hörbuch den lang erhofften Durchbruch zu verschaffen. Beim CD-Vertrieb werden heute immer öfter zu den Audio-CDs zusätzliche Datenträger mit MP3-Fassungen der Hörbücher beigelegt, um das Abspielen am Computer und die Übertragung auf tragbare Abspielgeräte zu erleichtern.
In der Folge entstanden immer mehr Kleinverlage, die sich nun auch kunstvollen Produktionen erfolgreich widmen konnten. Mitte der 1990er-Jahre ersetzte die CD die Hörkassette als Tonträger. 1993 schlossen sich mehrere bekannte belletristische Verlage zusammen (unter anderem Suhrkamp, Hanser, Rowohlt) und gründeten den Hörverlag (DHV) in München, der mit einem Jahresumsatz von 16 Mio. Euro (2005) neben dem Berliner Audioverlag (DAV) die führende Position innerhalb der Hörbuchverlage einnimmt.
Gerade bei den großen Verlagen besteht die Tendenz, das Hörbuch als reine Zweitverwertung, im Sinne des Merchandising zu verstehen. Die wird damit begründet, dass die Werbeetats der Verlage nicht ausreichen, um ein Produkt allein als Hörbuch zu bewerben. Aufwändige Produktionen, die über eine reine Lesung hinausgehen, kommen daher in der Regel nur als Übernahmen aus den Rundfunkanstalten ins Programm.
Hörbuch-Autoren können Hörbücher auch auf Anforderung bzw. in Kleinst-Serien (unter 10 Stück) im Selbstverlag verlegen. Auch diese Hörbücher sind auf allen Plattformen online sowie im klassischen Buchhandel erhältlich.
Gattungen
Bei einem Hörbuch können acht Gattungen unterschieden werden. Dazu zählt das Hörbuch allgemein, das Sach-Hörbuch, das Lehr-Hörbuch, der Podcast, das Feature, der Audioguide und der Live-Mitschnitt.
Das Hörbuch im Allgemeinen ist in der Regel eine Lesung und dient so der Unterhaltung.
Ein Sach-Hörbuch ist sehr oft eine Lesung, die auch phasenweise Dialoge enthalten kann. Ein Sach-Hörbuch dient in der Regel zur Information und zur Unterhaltung.
Ein Lehr-Hörbuch basiert auf einem Drehbuch mit Lernmethodik. Lehr-Hörbücher enthalten zeitlich begrenzte Monologe, Dialoge, Trialoge und Gesprächsszenen. Sie dienen zur Aus- und Weiterbildung.
Der Podcast ist in der Regel eine Lesung. Ab und an nutzt der Podcast auch Dialoge als gestalterisches Mittel. Er dient hauptsächlich zur Kurzinformation.
Ein Feature ist in der Regel eine Lesung mit Dokumentarcharakter. Dadurch dient er hauptsächlich zur Information und trägt auch zur Unterhaltung bei.
Ein Audioguide ist eine Lesung, die auch Dialoge enthalten können. Audioguides dienen hauptsächlich zur Information.
Der Live-Mitschnitt ist eine Lesung zum Teil auch mit Dialogen und dient zur Information oder Unterhaltung.
Gestalterische Elemente
Die verschiedenen Produktionsformen eines Hörbuches unterscheiden sich durch sieben verschiedene gestalterische Elemente. Dies sind die Sprache, der Text, die integrierten Geräusche, die Musik, Grafiken oder Zeichnungen, Bilder oder Videos sowie Tabellen und Formeln.
Bei der Sprache ist zu beachten, ob ein oder mehrere Sprecher beteiligt sind, auf die Stimmlagen, ob männlicher Sprecher oder weibliche Sprecherin, ob Laien-Sprecher, ausgebildeter Sprecher/Moderator oder Schauspieler, auf die Integration von Sprachgefühlen und Emotionen sowie auf die Betonung.
Der Text ist das Verbindungsglied zwischen Inhalt, Hören und Verstehen des Textes. Es ist abhängig von der Produktionsform, ob eine Kürzung sinnvoll ist oder nicht. So spricht für eine Kürzung immer dann, wenn kurz und präzise informiert bzw. gelernt oder gelehrt werden soll. Gegen eine Kürzung sprechen die Produktionsformen, die auf Grundlage eines Buches einzig/ausschließlich unterhalten wollen. Hörbücher im DAISY-Format bieten grundsätzlich die Möglichkeit des Hörens und des Mitlesens des Textes.
Geräusche dienen bei Hörbüchern als Träger der Verknüpfung. Jeder hörende Mensch kennt zum Beispiel Geräusche aus dem Park, Straßenlärm, einem Handy, von einem Flugzeug oder von einem Öffnen einer Tür. Dadurch stellt das menschliche Gehirn Verknüpfungen zu bereits bekannten Erlebnissen her, welche für einen Hörbuchtext sehr gut genutzt werden können.
Die Integration von Musik in einem Hörbuch kann zum Beispiel Emotionen beim Hörer auslösen oder zur deutlichen Erkennung eines neuen Abschnittes beitragen.
Es ist möglich, eine Vielzahl von Grafiken oder Zeichnungen zu beschreiben und so in einem Hörbuch als Text zu integrieren. Jedoch lässt sich so manches nur sehr kompliziert beschreiben und so dient dann das beigefügte Booklet zur Darstellung der Grafik oder Zeichnung. In einem Hörbuch im DAISY-Format sind Grafiken und Zeichnungen integrierbar.
Bilder und Videos können nicht Bestandteil eines Hörbuches im Audio- bzw. mp3-Format sein. Bilder lassen sich nur in einem Hörbuch im DAISY-Format einfügen. Für Bilder müssen also die Booklets der Hörbücher genutzt werden.
Bei Tabellen und Formeln gestaltet sich die Realisierung in einem Hörbuch ähnlich wie bei Grafiken und Zeichnungen. Sie können beschrieben werden. In der Regel ist dies auch nicht so kompliziert, wie bei Grafiken oder Zeichnungen. Daher können sie sowohl im Text des Hörbuches als auch im Booklet enthalten sein. Auch bei den Tabellen und Formeln zeigt sich der Vorteil des DAISY-Formates, denn in Hörbüchern, die dieses Format nutzen, können Tabellen und Formeln integriert werden, die dann auch zum Lesen zur Verfügung stehen.
Einen Nachteil hat aber das DAISY-Format. Um es auf einem PC oder Laptop nutzen zu können muss eine spezielle Software installiert werden.
Kürzungsproblematik
Auf CD vertriebene Hörbücher sind wegen der beschränkten Speicherkapazität des Mediums meist erheblich gekürzte Lesungen des Originalwerkes. Darauf wird auf den Hörbüchern nur sehr vage hingewiesen. Eine erste wissenschaftliche Untersuchung des Kürzungsvorgangs und seiner Methodik wurde im Jahre 2009 durchgeführt. Als Download angebotene Titel haben bei komprimiertem Audioformat aufgrund der geringeren Dateigröße weniger Kapazitätsbeschränkungen, weshalb auf dem Download-Markt eine größere Anzahl ungekürzter Hörbücher verfügbar ist.
Marktentwicklung
Nachdem das Hörbuch lange Zeit eine Domäne des Schallplattenhandels war, konnte sich die Verlagsbranche seit Beginn der 1990er-Jahre in gewaltigem Umfang am Vertrieb des Mediums beteiligen. Diverse Hörbuchverlage entstanden. Mittlerweile legen viele Buchverlage Wert darauf, an einer Hörbuchreihe beteiligt zu sein oder eine eigene Produktion zu starten. Das Internet hat auch die Vertriebswege für auditive Kommunikationsmittel verändert. Verlage richten Portale ein, die gewünschte „Bücher“ direkt auf den MP3-Player herunterladen lassen. Allerdings befürchten die Verlage, wie auch die Musik- und Filmunternehmen, eine illegale Verbreitung ihrer Werke. 2005 gründeten die Arbeitskreise Hörbuchverlage und Elektronisches Publizieren im Börsenverein des Deutschen Buchhandels die AG Piraterie, um gegen Urheberrechtsverletzer im Internet vorzugehen.
Die Projekte, bis Anfang der 1990er-Jahre überwiegend Kinder- und Jugendliteratur, bedienen jegliches Genre. Neben der anspruchsvollen Autorenlesung hat auch ein exotisches Lexikon der überflüssigen Dinge einen Markt. In den USA und Großbritannien sind mittlerweile auch batteriegetriebene Hörbücher mit Abspielfunktion und Kopfhörern auf dem Markt, wobei die Audiodateien kopiergeschützt sind. Besonders große Erfolge werden mit Texten erzielt, die eine bekannte Persönlichkeit vorträgt.
2013 wurden in Deutschland über 14 Millionen Hörbücher auf CD verkauft. Hörbücher unterliegen wie Druckwerke ab dem 1. Januar 2015 dem ermäßigten Mehrwertsteuersatz.
Downloadmarkt
Der Verband Bitkom sieht das Herunterladen als rasant wachsenden Nischenmarkt für Hörbücher. Beispielsweise für das Jahr 2007 erwartete man 20 Prozent Wachstum. Die Ende 2004 eingerichtete Download-Plattform audible.de hatte ihren Umsatz von 2005 auf 2006 verdreifacht, verkaufte 2007 das millionste Hörbuch und bot 2010 nach eigenen Aussagen über Hörbücher, darunter eine Reihe exklusiv vertriebene ungekürzte Fassungen, an. Anfang 2018 ist Google mit Google Play ins Geschäft eingestiegen.
Neben audible.de, Google Play Store, iTunes Store und Napster liefern auch einige kleinere Plattformen Hörbücher, wie etwa soforthoeren.de mit DRM-freien Titeln (Stand: Juni 2008), Vorleser.net mit etwa 550 (Stand Juni 2010) oder skyTuner.net (hit-tuner.net) mit ca. 600 kostenlosen Hörbüchern (Stand: Mai 2014), diese konnten bisher aber keine Marktrelevanz erreichen. Auch der Direktvertrieb über die Verlagswebseiten gewinnt im Downloadbereich an Relevanz.
Besonders Psychothriller und Fantasy, auch Sachbücher sind – und zwar überwiegend von Männern – gefragter als im stationären Handel.
Besonders anwenderfreundlich sind Anbieter, die Hörbücher als MP3-Datei oder alternativ einen entsprechenden Player anbieten. Oftmals liegt die Spielzeit eines Hörbuchs bei mehreren Stunden. Speziell für Hörbücher entwickelte Apps ermöglichen es, die Wiedergabe bei Pausen und Unterbrechungen genau an der zuletzt abgespielten Position wieder aufzunehmen.
Hörbüchereien
Besonders blinde oder sehbehinderte Menschen sind auf „gesprochene Bücher“ angewiesen. Seit 1954 stellen Hörbüchereien einem geschlossenen Benutzerkreis Hörbücher beziehungsweise Hörspiele zur Verfügung. Die Aufnahme solcher Texte muss sprechkünstlerisch an die Bedürfnisse von Blinden angeglichen und auch von qualifizierten Sprechern und Tontechnikern ausgeführt werden. Besonders Altersblinde, die die Blindenschrift-Fähigkeit nicht mehr erlernt haben oder Lesebehinderte, denen es schwerfällt, ein gedrucktes Buch selbstständig zu handhaben, kommen als Nutzer dieser Bibliotheken in Frage.
Auszeichnungen
Seit 1997 veröffentlicht hr2, das Kulturprogramm des Hessischen Rundfunks (hr), monatlich die Hörbuchbestenliste. Eine Jury aus Persönlichkeiten des kulturellen Lebens wählt jeweils unter den Neuerscheinungen diejenigen aus, die sie für besonders hörenswert hält. Zum Jahresende mündet diese Auswahlliste in die Bekanntgabe eines Hörbuch des Jahres. Monatlich ausgezeichnet werden sowohl Hörbücher für Erwachsene als auch für Kinder. Ähnlich wie vergleichbare „Bestenlisten“ für Druckwerke soll auch die Hörbuchbestenliste potentiellen Käufern von „Literatur für die Ohren“ eine bessere Übersicht über qualitätsvolle Produktionen ermöglichen. Eine weitere bekannte Auszeichnung ist der Deutsche Hörbuchpreis, den der WDR seit 2003 verleiht.
Seit Januar 2008 gibt es, den vom Bundesverband Musikindustrie eingeführten Hörbuch-Award. Er wird für verkaufte Hörbücher verliehen.
Sonstiges
In Zusammenarbeit mit dem hr läuft auch als Hörbuch im Zug ein monatlich wechselndes Programm, das sich unter anderem an Jahreszeiten oder Weihnachten orientiert (bisweilen sogar rollender Uraufführungssalon ist): Geschichten in 15–20 Minuten-Portionen (wegen der mittleren Zugverweildauer von Stunden).
Vom Hörbuch abzugrenzen ist die Hörzeitung
Abgeleitet vom Begriff „Taschenbuch“ wurde 2009 von führenden Hörbuchverlagen der Ausdruck „Taschenhörbuch“ geprägt, um die Ähnlichkeit der Verwertungskette eines Hörbuchs mit der eines gedruckten Buches hervorzuheben.
Literatur
Natalie Binczek, Cornelia Epping-Jäger (Hrsg.): Literatur und Hörbuch (= Text + Kritik, Band 196). Edition Text + Kritik, München 2012, ISBN 978-3-86916-198-3.
Jürg Häusermann u. a. (Hrsg.): Das Hörbuch. Medium – Geschichte – Formen. UVK, Konstanz 2010. ISBN 978-3-86764-181-4.
Peter Klotz: Hörspiel und Hörbuch. Literatur als Performance. Berlin: Erich Schmidt Verlag. ISBN 978-3-503-20900-2; E-Book: ISBN 978-3-503-20901-9
Stefan Köhler: Hörspiel und Hörbuch. Mediale Entwicklung von der Weimarer Republik bis zur Gegenwart. Tectum, Marburg 2005, ISBN 3-8288-8932-8.
Arnold Littmann: Die deutschen Sprechplatten, eine kritische Bibliographie, hrsg. in Verbindung mit Goethe-Institut, München und Inter Nationes, Bonn, Max Hueber Verlag, München 1963 .
Dirk Wetzel: Hörbuch. In: Ursula Rautenberg (Hrsg.): Reclams Sachlexikon des Buches. Reclam, Stuttgart 2003, ISBN 3-15-010542-0, S. 263–264.
Ulrich Sonnenschein: Hörbuch. In: Erhard Schütz u. a. (Hrsg.): Das BuchMarktBuch. Der Literaturbetrieb in Grundbegriffen. Rowohlt, Hamburg 2005, ISBN 3-499-55672-3, S. 138–141.
Thomas Friederichs u. Berthold H. Hass: Der Markt für Hörbücher: Eine Analyse klassischer und neuer Distributionsformen. In: MedienWirtschaft: Zeitschrift für Medienmanagement und Kommunikationsökonomie 03 (03/2006), S. 22–35, PDF.
Ursula Rautenberg (Hrsg.): Das Hörbuch - Stimme und Inszenierung (= Buchwissenschaftliche Forschungen, Bd. 7). Harrassowitz, Wiesbaden 2007, ISBN 3-447-05660-6.
Hans Eckardt: Die Kunst des Hörbuchsprechens: Kleine Einführung für professionelle Sprecher, Lehrer und begeisterte Vorleser, Hörbuchproduktionen, 2009 (Audio-CD), ISBN 978-3-89614-409-6
Angelika Diehm: Lesen Sie noch oder hören Sie schon? Die Kürzungsproblematik beim Hörbuch. Tectum, Marburg 2010, ISBN 978-3-8288-2193-4.
Gert Ueding: Hörbuch. In: Gert Ueding (Hrsg.): Historisches Wörterbuch der Rhetorik. Bd. 10: Nachträge. WBG, Darmstadt 2012, ISBN 978-3-11-023424-4, Sp. 365–371.
Natalie Binczek, Cornelia Epping-Jäger (Hrsg.): Das Hörbuch. Praktiken audioliteralen Schreibens und Verstehens. Fink, München 2014, ISBN 978-3-7705-5346-4.
Severin Corsten u. a. (Hrsg.): Lexikon des gesamten Buchwesens. 2. Auflage. Band 4. Anton Hiersemann, Stuttgart 1995, ISBN 3-7772-8527-7.
Weblinks
Börsenverein des Deutschen Buchhandels/Arbeitskreis Hörbuchverlage
Hörbuch und Hörkunst in Deutschland, Dossier des Goethe-Instituts
HoerbuchMagazin.de, Nachrichten über Hörbuchmarkt, Hörspiele, Lesungen, Features
Tagungsbericht Die Matrix des Hörbuches. 07.12.2010–09.12.2010, Bochum. In: H-Soz-u-Kult, 15. Februar 2011.
Drei Viertel der lesenden Kinder nutzen Hörbücher in der Freizeit. In: boersenblatt.net, 13. August 2007.
Online-Portale mit kostenlosen Hörbüchern
hit-tuner.net, Hörspiel-Bereich zum Abspielen oder Download kostenfreier Hörbücher
Vorleser.net, deutschsprachiges Internetportal zum Anhören oder Herunterladen kostenloser Hörbücher
Librivox.org, mehrsprachiges Internetportal für Public-Domain-Hörbücher
Hoerbuch-kostenlos-download.de, kostenlose Hörbücher und Hörspiele für Kinder und Erwachsene.
Einzelnachweise
Tonträgerveröffentlichung
|
Q106833
| 244.758164 |
278314
|
https://de.wikipedia.org/wiki/Brjansk
|
Brjansk
|
Brjansk () ist eine Stadt und Verwaltungszentrum der gleichnamigen Oblast in Russland, rund 380 km südwestlich von Moskau. Die Stadt hat Einwohner (Stand ) und liegt am Fluss Desna.
Geschichte
Brjansk wurde vermutlich 985 unter Fürst Wladimir I. von Kiew als Missions- und Verteidigungsvorposten am rechten Ufer der Desna gegründet und 1146 erstmals in einer Chronik erwähnt. Der ursprüngliche Stadtname „Debrjansk“ leitete sich vom russischen Debri ab, das für Dickicht und dichter Wald steht. Im 13. Jahrhundert wurde es selbständig und war Fürsten- und Bischofssitz des Fürstentum Brjansk. Die Invasion der Goldenen Horde führte zum Niedergang. Ab 1356 stand Brjansk unter litauischer Herrschaft. 1503 kam die Stadt zum Moskauer Reich.
Im 17. Jahrhundert entwickelte sich Brjansk zu einer wichtigen Festungs- und Handelsstadt mit jährlich stattfindenden großen Jahrmärkten. Seit 1709 gehörte Brjansk zum Gouvernement Kiew, ab 1778 zu Orjol. Mit einem Dekret des Zaren Peters des Großen wurde die erste Schiffswerft für den Bau der Schwarzmeerflotte gegründet. Die Kriege gegen das Osmanische Reich mit den Asowfeldzügen und gegen Schweden im Großen Nordischen Krieg brachten einen erneuten Aufschwung für Brjansk. 1788 wurde eine Waffenfabrik für Artillerie eröffnet. Napoleon Bonaparte versuchte 1812 mehrmals, die strategisch wichtige Stadt zu erobern, scheiterte aber. Im 19. Jahrhundert entwickelte sich Brjansk zu einem Industriezentrum mit Schienenwalz- und Eisenhüttenwerken, Maschinenbau sowie Textilfabriken und Seilereien.
Nach der Oktoberrevolution kamen neue Industriebetriebe hinzu, es wurden Kraftwerke und Eisenbahnfabriken errichtet.
Vom 6. Oktober 1941 bis zum 17. September 1943 war Brjansk von der Wehrmacht nach der Doppelschlacht von Wjasma und Brjansk besetzt. Die Wälder der Region waren während der Besatzung eines der Hauptaktionsgebiete der Partisanen in Russland. Etwa 60.000 Partisanen waren zeitweise in diesem Gebiet tätig. Seit Anfang 1942 kontrollierten die Partisanen einen Großteil des von den Deutschen besetzten Gebietes. Wie in anderen besetzten sowjetischen Gebieten fanden auch hier regelmäßig Hinrichtungen von „vermeintlichen“ und echten Partisanen statt.
Jene Bevölkerung, die nicht von der Roten Armee rechtzeitig evakuiert werden konnte und bleiben musste, hatte unter der deutschen Besetzung zu leiden. Vieh und Lebensmittel wurden nach Deutschland transportiert, so dass die Bewohner der Stadt nur noch ein Minimum der zur Verfügung stehenden Nahrung erhielten. Arbeit gab es kaum noch, da viele Betriebe und Fabriken von den Deutschen geschlossen und/oder zerstört wurden. Seit 1942 wurden zudem viele Bewohner im arbeitsfähigen Alter nach Deutschland verschleppt, um dort Zwangsarbeit zu leisten. Bei der Befreiung im September 1943 hatte Brjansk nur noch etwa 5000 Einwohner.
In der Stadt bestand das Kriegsgefangenenlager 326 für deutsche Kriegsgefangene des Zweiten Weltkriegs. In der benachbarten Stadt Beschiza, die von 1936 bis 1943 Ordschonikidsegrad hieß und seit der Eingemeindung nach Brjansk 1956 deren Stadtrajon Beschizki bildet, bestand das Kriegsgefangenenlager 252.
Heute ist Brjansk ein wichtiger Industriestandort. Es werden elektronische Bauteile, Turbinen, Lokomotiven und viele andere Güter produziert. Die Stadt ist Sitz des Nutzfahrzeugherstellers BAZ, welcher schwere LKW und Militärfahrzeuge herstellt. Es handelt sich um eine Tochtergesellschaft der Firma ZIL.
Außerdem ist Brjansk Verwaltungs- und kulturelles Zentrum der gleichnamigen Oblast sowie Eisenbahnknoten mit großem Rangierbahnhof.
Am 1. Juli 2012 wurde die russisch-orthodoxe Dreifaltigkeits-Kathedrale wiedereröffnet. Die frühere Dreifaltigkeits-Kathedrale wurde Ende des 19. Jahrhunderts erbaut. Nach der Russischen Revolution von 1917 wurde sie zwangsgeschlossen und in den 1960er Jahren abgerissen. In den Jahren 2010 und 2011 wurde die Kathedrale originalgetreu wiederaufgebaut. Sie bietet Platz für etwa 3000 Gläubige.
Bevölkerungsentwicklung
Anmerkung: Volkszählungsdaten
Stadtgliederung
Die Gesamteinwohnerzahl des Stadtkreises Brjansk mit den drei administrativ unterstellten Siedlungen städtischen Typs beträgt .
Wirtschaft
In Brjansk gibt es metallverarbeitende Industrie, Fahrzeug- und Maschinenbau, weiterhin chemische Industrie, Elektronik- und Textilindustrie.
Besonders bekannt ist die Brjansker Lokomotivfabrik und das Brjansker Automobilwerk.
Verkehr
Brjansk ist mit der russischen Hauptstadt Moskau über die Fernstraße M3 Ukraina verbunden. Hier wird sie von der R120 gekreuzt, die in nordwestlicher Richtung über Smolensk zur belarussischen Grenze verläuft. Gleichzeitig ist die Stadt Ausgangspunkt der Abzweigung A240, die in westlicher Richtung ebenfalls nach Belarus führt.
Weiterführende Bildungseinrichtungen
Filiale des Juristischen Instituts des Innenministeriums Russlands in Brjansk
Filiale des Neuen Juristischen Instituts Moskau
Filiale des Allrussischen Ferninstituts für Finanzwesen und Ökonomie
Staatliche Akademie I.-G.-Petrowski-Universität Brjansk
Staatliche Ingenieurtechnologische Akademie Brjansk
Staatliche Landwirtschaftliche Akademie Brjansk
Staatliche Technische Universität Brjansk
Sport
Der 1931 gegründete Fußballverein FK Dynamo Brjansk vertritt die Stadt in der dritthöchsten russischen Spielklasse 2. Division.
Sonstiges
Als Mahnung an die Nuklearkatastrophe von Tschernobyl, welche im Jahr 1986 rund 300 km entfernt stattfand, kann man im Zentrum von Brjansk die Belastung der Radioaktivität auf einer Digitalanzeige ablesen. Über der Stadt selbst regneten nach der Explosion allerdings keine kontaminierten Wolken ab.
Städtepartnerschaften
Brjansk listet fünfzehn Partnerstädte auf:
Söhne und Töchter der Stadt
Alexander Eltekow (1846–1894), Chemiker
Naum Gabo (1890–1977), Künstler
Anatoli Spasski (1895–1970), Metallurg und Hochschullehrer
Alexander Repin (1903–1976), Generaloberst
Alexandr Morosow (1904–1979), Panzerkonstrukteur
Georgi Latyschew (1907–1973), Kernphysiker und Hochschullehrer
Alexander Kotar (1913–1985), General
Pawel Kamosin (1917–1983), Jagdflieger
Olha Awilowa (1918–2009), Chirurgin und Hochschullehrerin
Galina Frolowa (1918–2001), Schauspielerin und Synchronsprecherin
Walentin Lebedew (1923–2008), Generaloberst
Tatjana Nikolajewa (1924–1993), Pianistin
Igor Moskwin (1929–2020), Eiskunstläufer und Eiskunstlauftrainer
Wladlen Wereschtschetin (* 1932), Jurist, Richter am Internationalen Gerichtshof
Wladimir Astapowski (1946–2012), Fußballtorhüter
Wiktor Afanassjew (* 1948), Kosmonaut
Nadija Olisarenko (1953–2017), Mittelstreckenläuferin und Olympiasiegerin
Wiktor Mardussin (* 1958), Vizeadmiral
Waleri Diwissenko (1961–2009), Judoka
Galina Maltschugina (* 1962), Leichtathletin und Olympiamedaillengewinnerin
Olena Kowtun (* 1966), ukrainische Tischtennisspielerin
Andrei Babkin (* 1969), Ingenieur und Kosmonaut
Swetlana Kriweljowa (* 1969), Leichtathletin und Olympiasiegerin
Larissa Kurkina (* 1973), Skilangläuferin
Oxana Jessiptschuk (* 1975), Leichtathletin
Olga Rjabinkina (* 1976), Leichtathletin
Walentina Igoschina (* 1978), klassische Pianistin
Andrij Nesmatschnyj (* 1979), ukrainischer Fußballspieler
Dmitri Izkow (* 1980), Milliardär, Geschäftsmann und Unternehmer
Jelena Sobolewa (* 1982), Mittelstreckenläuferin
Alexander Kriwtschonkow (* 1983), Leichtathlet
Julija Tschermoschanskaja (* 1986), Sprinterin und Staffel-Olympiasiegerin
Jekaterina Birlowa (* 1987), Beachvolleyballspielerin
Sergei Gorbunow (* 1987), Fußballspieler
Larissa Kanajewa (* 1987), Freistilringerin
Natalja Kusjutina (* 1989), Judoka
Jan Nepomnjaschtschi (* 1990), Schach-Großmeister
Sergei Terechow (* 1990), Fußballspieler
Jewgeni Schljakow (* 1991), Fußballspieler
Swetlana Babuschkina (* 1992), Ringerin
Daria Varlamova (* 1995), russisch-australisches Model, Schauspielerin und Schönheitskönigin
Alexei Kusnezow (* 1996), Fußballspieler
Wlada Kowal (* 2001), Tennisspielerin
Klimatabelle
Einzelnachweise
Weblinks
www.bryanskcity.ru
www.debryansk.ru
Ort in der Oblast Brjansk
Hochschul- oder Universitätsstadt in Russland
Hauptstadt eines Föderationssubjekts Russlands
Ort an der Desna
|
Q2801
| 95.46302 |
99108
|
https://de.wikipedia.org/wiki/Basseterre
|
Basseterre
|
Basseterre ([engl.: , franz.: ], französisch für „Unteres Land“) ist die Hauptstadt der Inselföderation St. Kitts und Nevis auf den Kleinen Antillen. Sie liegt an der Südküste der Insel St. Kitts.
Mehr als ein Viertel der Staatsbevölkerung lebt in der Hauptstadt, die auch Handelszentrum ist. In der Stadt und in unmittelbarer Nähe sind zwei Flughäfen (der größere ist der Robert L. Bradshaw International Airport) und einige Zuckerraffinerien.
Geschichte
Basseterre wurde von französischen Kolonisten unter der Führung von Pierre Belain d’Esnambuc im Jahr 1625 gegründet. Die Stadt war die erste dauerhaft etablierte französische Kolonie in der Karibik.
Kultur
Sehenswürdigkeiten
Die am 6. Dezember 1928 geweihte katholische Basseterre Co-Cathedral of Immaculate Conception am Independence Square in der Stadtmitte ist seit der Umbenennung des Bistums Saint John’s von St. Kitts und Nevis in Bistum Saint John’s-Basseterre die Konkathedrale.
Berkeley Memorial
Sport
Der Fußballverein Garden Hotspurs FC stammt aus der Stadt.
In Basseterre befindet sich der Warner Park Sporting Complex. Das Stadion ist ein Test-Cricket-Stadion und wird vom West Indies Cricket Team benutzt. Das Stadion war auch einer der Austragungsorte beim Cricket World Cup 2007 und der ICC World Twenty20 2010.
Söhne und Töchter der Stadt
Alan Cuthbert Burns (1887–1980), britischer Kolonialgouverneur
Emile Gumbs (1928–2018), Politiker
Clement Athelston Arrindell (1931–2011), Gouverneur und später Generalgouverneur von St. Kitts und Nevis
Kennedy Simmonds (* 1936), Politiker
Joan Armatrading (* 1950), Sängerin, Liedermacherin und Gitarristin
Marcella Liburd (* 1953), Politikerin
Desai Williams (1959–2022), Leichtathlet
Austin Huggins (* 1970), Fußballspieler
Keith Gumbs (* 1972), Fußballspieler
Alexis Saddler (* 1980), Fußballspieler
Zevon Archibald (* 1982), Fußballspieler
Shashi Isaac (* 1982), Fußballspieler
Ian Lake (* 1982), Fußballspieler
Jevon Francis (* 1983), Fußballspieler
Calvert Bennett (* 1986), Fußballtorhüter
Orlando Mitchum (* 1987), Fußballspieler
Antoine Adams (* 1988), Leichtathlet
Brijesh Lawrence (* 1989), Leichtathlet
Tishan Hanley (* 1990), Fußballspieler
Travis Somersall (* 1990), Fußballspieler
Julani Archibald (* 1991), Fußballtorhüter
Kennedy Isles (1991–2020), Fußballspieler
Melroy Morton (* 1991), Fußballspieler
Ordell Flemming (* 1993), Fußballspieler
Kirae Jarvis (* 1993), Fußballspieler
Kimaree Rogers (* 1994), Fußballspieler
Carlos Bertie (* 1995), Fußballspieler
Jayan Duncan (* 1995), Fußballspieler
Dennis Flemming (* 1996), Fußballspieler
Raheem Francis (* 1996), Fußballspieler
Vinceroy Nelson (* 1996), Fußballspieler
G'Vaune Amory (* 1997), Fußballspieler
Salas Cannonier (* 1997), Fußballspieler
Yohannes Mitchum (* 1998), Fußballspieler
Tyquan Terrell (* 1998), Fußballspieler
Romario Martin (* 1999), Fußballspieler
Weblinks
Einzelnachweise
Hauptstadt in Mittelamerika
Ort in St. Kitts und Nevis
St. Kitts
Saint George Basseterre
|
Q41295
| 109.262316 |
12114
|
https://de.wikipedia.org/wiki/Abt
|
Abt
|
Abt (von spätlateinisch abbas, aus aramäisch abba „Vater“, aus hebräisch ab) ist ein dem Vorsteher eines Klosters verliehener Titel. Ursprünglich war das Wort Abba („Vater“) eine im weiteren Sinn für jeden Mönch gebrauchte ehrenvolle Anrede, seit dem 5./6. Jahrhundert war die Bezeichnung Abt jedoch dem Oberen vorbehalten. Die weibliche Entsprechung ist die Äbtissin. Das Amt, die Amtszeit oder die Würde eines Abtes wird auch als Abbatiat, ein von einem Abt oder einer Äbtissin geleitetes Kloster meist als Abtei bezeichnet.
Vor allem monastische Orden in der katholischen Kirche wie die Benediktiner und Zisterzienser haben Äbte beziehungsweise Äbtissinnen. Auch Augustiner-Chorherren und die Prämonstratenserchorherren kennen sowohl Äbte als auch Pröpste.
Die Entsprechung des Amtes eines Abtes in den orthodoxen Kirchen oder im byzantinischen Ritus ist Hegumen bzw. Archimandrit.
Der Begriff ist aber nicht allein auf die christliche Religion eingeschränkt, sondern findet auch in den Religionen Asiens gelegentlich Verwendung, wenn es um die Rolle eines Klostervorstandes (in Japan beispielsweise um den , jūshoku) geht.
Wahl
Äbte werden in der Regel auf unbestimmte Zeit gewählt; seit einiger Zeit ist in manchen Kongregationen jedoch eine auf zwölf oder wenigstens sechs Jahre begrenzte Amtszeit festgelegt. Die Konstitutionen der einzelnen Orden sehen oft auch einen Amtsverzicht zum 70. oder 75. Lebensjahr vor. Eine Verlängerung der Amtszeit ist jedoch unter bestimmten Voraussetzungen möglich. Ungeachtet dessen hat der Inhaber des Amtes jederzeit auch die Möglichkeit der Resignation, das heißt, des Amtsverzichtes.
Der Abt wird von allen ewigen Professen des Klosters gewählt. Wählbar waren in den Mönchsorden, die als klerikale Verbände gelten, stets nur Priester; mit einer Änderung des Kirchenrechts ermöglichte Papst Franziskus im Jahr 2022, dass auch Nichtkleriker (Laien) zu Äbten gewählt werden können. Äbte gehören zu den Prälaten. Unabhängig davon gehören zum Kreis derer, die für das Amt als wählbar gelten, in der Regel nur Konventsmitglieder ab einem festgelegten Lebensalter, deren ewige Profess bereits mindestens eine bestimmte Anzahl von Jahren zurückliegt.
Das Ergebnis der Wahl zum Abt oder zur Äbtissin wird dem Ortsbischof und dem Apostolischen Stuhl sowie der Ordensleitung mitgeteilt. Eine Bestätigung der Wahl durch den Papst ist nur nötig, wenn der neugewählte Abt zugleich Präses seiner Kongregation ist oder der Gewählte kein Priester ist. In den anderen Fällen bestätigt der Generalabt oder Abtpräses der Kongregation die Wahl. Anschließend empfängt der gewählte Abt die Abtsbenediktion und die Insignien seines Amtes, (Krummstab, Ring und Pektorale). Der Abt nimmt oft auch die Mitra entgegen.
Abtsbenediktion
Die Abtsbenediktion, in der kirchlichen Tradition auch Abtsweihe oder Äbtissinnenweihe genannt, ist die liturgische Einführung eines Abtes in sein neues Amt und die Erteilung des feierlichen Segens für den Gewählten. Die Abtsbenediktion lehnt sich zwar liturgisch stark an eine Bischofsweihe an, ist jedoch ein Sakramentale. Die Abtsbenediktion wird in der Regel vom zuständigen Ortsbischof gespendet. Sie stellt keine Beauftragung durch den Ortsbischof dar, wohl aber den kirchlichen Segen für den Dienst des gewählten Abtes in seiner Gemeinschaft und mittelbar für das ausgeübte Apostolat der Gemeinschaft in der jeweiligen Ortskirche und in der Weltkirche. In der Benediktionsfeier werden dem oder der Erwählten die Ordensregel und die Amtszeichen (Stab und Ring) überreicht, dem infulierten Abt auch die Mitra. Bei der Äbtissinnenweihe entfällt das Aufsetzen der Mitra. Historisch gab es jedoch sehr seltene Ausnahmen, wovon die der spanischen Äbtissinnen von Burgos und Santa María la Real de Las Huelgas bekannt sind, die sehr viel geistliche und weltliche Macht besaßen, denen bis 1873 auch die Mitra übergeben wurde; auch führten diese wie die männlichen Ordensoberen den Titel eines Prälaten. Erhalten geblieben ist bei diesen die Mitra als Insigne auch der Äbtissin in manchen ihrer Wappen.
Amtsgewalt
Abteien sind grundsätzlich exemt und unterstehen damit direkt dem Heiligen Stuhl. Die Äbte üben teils väterliche Gewalt (potestas dominativa), teils Jurisdiktionsgewalt aus. Diese umfasst die Verwaltung des Klostervermögens, die Leitung des Klosters und die Disziplin der Angehörigen. Bei der Veräußerung von Klostergütern müssen sie laut Kirchenrecht die Zustimmung des Rates einholen. Ebenso ist in anderen wichtigen Fragen, je nach Bestimmung des Kirchenrechtes und der Ausgestaltung in der eigenen Ordensregel, der Abtsrat anzuhören oder es muss seine Zustimmung eingeholt werden.
Äbte bei den Benediktinern, den Zisterziensern und einem Teil der Augustiner- und Prämonstratenserchorherren sind Souveräne über die Abtei und direkt dem Papst unterstellt. Im Mittelalter hatten manche Äbte als Fürstäbte auch weltliche Gewalt und Gerichtsbarkeit in den Besitzungen der Abtei. In besonderen Fällen, wie etwa bei den Zisterzienserinnen von Las Huelgas oder im italienischen San Benedetto in Conversano, hatte auch die Äbtissin eines Klosters solche quasi-bischöflichen Vollmachten und trug den Titel Prälat.
Von den wirklichen, das heißt den Regularäbten, waren früher die Säkular-, Kommendatar- und Laienäbte zu unterscheiden – diese waren Personen, die die Pfründe, also die wirtschaftlichen Einkünfte eines Klosters innehatten, ohne jedoch im Kloster zu wohnen und die Amtsgeschäfte zu führen. Der Kommendatarabt war oft ein Weltgeistlicher oder Laie, der vom jeweiligen Landesherrn ernannt wurde. Die geistliche Leitung des Klosters lag meist hauptsächlich bei einem Mönch des Klosters, der oft als Prior betitelt wurde. Schon seit der Merowingerzeit wurden im fränkischen Reich Laien mit Abteien belehnt. Der zuerst unter Karl Martell aufgetretene Brauch wurde zwar von der Kirche meist bekämpft, doch je nach politischer Macht der jeweiligen Landesherrn blieb der Kirche zeitweise nichts anderes übrig, als diese Praxis zu akzeptieren. So hatte auf Grund eines zwischen Papst Leo X. und König Franz I. von Frankreich zwischen 1515 und 1521 geschlossenen Kontrakts der König von Frankreich das Recht, 225 Abbés commendataires, also Kommendataräbte, für fast alle französischen Abteien zu ernennen. Diese bezogen Einkünfte aus einem Kloster, ohne dafür Dienst leisten zu müssen. Mit der Französischen Revolution bzw. nach der Säkularisation in Deutschland erlosch die Praxis der Vergabe dieses Titels zu Beginn des 19. Jahrhunderts.
In seltenen Fällen wird der Titel und die geistliche Würde eines Abts vom Papst auch als Ehrentitel an Ordensleute verliehen, die das Amt nicht ausüben; man bezeichnet sie als Titularäbte. Diese empfangen zwar in der Regel die Abtsbenediktion, besitzen aber keine Leitungsgewalt über einen Konvent, sondern sind lediglich mit den – vor allem liturgischen – Vorrechten der Äbte ausgestattet.
Stellvertreter des Abtes
Der Stellvertreter eines Abtes wird Prior oder in manchen Klöstern Dekan genannt, dessen Vertreter ist der Subprior. Prior/Dekan und Subprior werden wie die anderen Offizialen vom Abt ernannt und nicht vom Konvent gewählt.
Verwandte Bezeichnungen
Abtordinarius ist eine ältere Bezeichnung für den Abt einer Territorial- oder Gebietsabtei mit bistumsähnlicher Funktion. Der Abtordinarius hat die Jurisdiktionsgewalt eines Ortsbischofs, nicht aber dessen Weihegewalt. Er ist Mitglied der Bischofskonferenz des Landes. Seine Wahl muss vom Heiligen Stuhl bestätigt werden.
Ein Abtbischof ist ein Abt, der auch die Bischofsweihe empfangen hat.
Als Abtpräses wird der Vorsitzende einer monastischen Kongregation bezeichnet, zum Beispiel der Bayerischen Benediktinerkongregation.
Der Abtprimas ist bei den Benediktinern der gewählte Leiter und Repräsentant der von Leo XIII. initiierten Benediktinischen Konföderation. Auch der Konföderation der Augustiner-Chorherren steht ein Abtprimas vor. Der Abtprimas vertritt seinen Orden beim Heiligen Stuhl, hat aber keine Leitungsbefugnis wie ein Generalabt.
Als Altabt bezeichnet man den früheren Abt eines Klosters, der die Leitungsaufgabe einem Nachfolger übergeben hat und den Titel des Abtes daher ehrenhalber weiterhin trägt.
Der Titel Erzabt bezeichnet einerseits den Vorsteher eines Mutterklosters (Kloster, von dem Neugründungen [Affiliationen] ausgingen) einer Kongregation des Benediktinerordens, andererseits kann der Titel auch ehrenhalber verliehen werden, wie zum Beispiel an die Äbte des Stiftes St. Peter in Salzburg. Der Generalabt der Zisterzienser der strengeren Observanz (Trappisten) trägt den Titel „Erzabt von Cîteaux“ ehrenhalber.
Generalabt wird der für eine bestimmte Zeit gewählte Inhaber des obersten Leitungsamtes einiger Orden. Er hat seinen Sitz im sogenannten Generalatshaus in Rom und vertritt dort die Interessen des sowohl des männlichen als auch des weiblichen Ordenszweiges beim Heiligen Stuhl. Bei den Augustiner-Chorherren dagegen wird als Generalabt der gewählte Leiter einer Kongregation bezeichnet.
Ein Titularabt ist pro forma auf den Titel einer nicht mehr existenten Abtei benediziert, hat aber keine Leitungsgewalt.
Evangelische Äbte
Im Zuge der Reformation behielten die evangelischen Äbte der reformierten Klöster zunächst die Amtsbezeichnung Abt bei. Im Laufe der Zeit setzten sich dann andere Bezeichnungen durch, so hießen die württembergischen Klostervorsteher bald nur noch Prälaten. Doch gibt es auch heute noch evangelische Konvente, deren Obere den Titel Abt bzw. Äbtissin tragen, z. B. in Loccum und Bursfelde.
Siehe auch
Ordensoberer
Klostervorsteher
Literatur
Franziskus Berzdorf: Der abbas emeritus. Ein Bericht über eine Umfrage. In: Erbe und Auftrag, Jg. 74 (1998), S. 514–518.
Gabriel Cosack: Der Abt als Lehrer und Arzt – heute. Unter besonderer Berücksichtigung der Strafkapitel der RB. In: Erbe und Auftrag, Jg. 78 (2002), S. 202–215.
Pontifikale für die katholischen Bistümer des deutschen Sprachgebietes – Die Weihe des Abtes und der Äbtissin. Die Jungfrauenweihe. Pontifikale II. Handausgabe mit pastoralliturgischen Hinweisen, herausgegeben von den Liturgischen Instituten. Herder, Freiburg im Breisgau 1994, ISBN 3-451-23288-X.
Martina Wiech: Das Amt des Abtes im Konflikt: Studien zu den Auseinandersetzungen um Äbte früh- und hochmittelalterlicher Klöster unter besonderer Berücksichtigung des Bodenseegebiets. Schmitt, Siegburg 1999, ISBN 3-87710-206-9 (= Bonner historische Forschungen, Band 59, zugleich Dissertation an der Rheinischen Friedrich-Wilhelms-Universität Bonn, 1999).
Weblinks
Einzelnachweise
Personenbezeichnung (Klosterwesen)
Religiöser Titel
Personenbezeichnung (Ordensgemeinschaften)
|
Q103163
| 198.013476 |
320131
|
https://de.wikipedia.org/wiki/Bitrate
|
Bitrate
|
Die Bitrate ist eine Datenübertragungsrate und bezeichnet die Ausgabemenge von Informationseinheiten bei digitalen Multimediaformaten im Verhältnis einer Datenmenge zu einer Zeitspanne, typischerweise gemessen in Bit pro Sekunde, abgekürzt als Bit/s oder (angelsächsisch) bps. Mit fortschreitender Technik sind je nach Themengebiet immer mehr Vielfache wie bei großen Dezimalzahlen üblich, angefangen bei kbit/s oder kbps (1000 oder 103 Bit/s), weiter mit Mbit/s ( oder 106 Bit/s) und Gbit/s ( oder 109 Bit/s). Oft handelt es sich hier um unpräzise Angaben anstelle der für Binärzahlen korrekten Binärpräfixe Kibit/s (1024 oder 210 Bit/s), Mibit/s ( oder 220 Bit/s) und Gibit/s ( oder 230 Bit/s).
Die Bitrate bei der Audio- und Videokompression kann entweder konstant sein (konstante Bitrate, CBR) oder variabel (variable Bitrate, VBR). Bei VBR wird die Bitrate dynamisch an die zu kodierenden Daten angepasst. So wird zum Beispiel bei der MPEG-Videokompression bei ruhigen Szenen die Videobitrate reduziert, während sie bei aktionsreichen Szenen angehoben wird. Das erlaubt eine optimale Nutzung des Speicherplatzes und eine höhere Bildqualität, als sie mit CBR bei selbem Speicherbedarf erreichbar wäre.
Konstante Bitrate
Konstante Bitrate (constant bit rate, CBR, bei ITU-T auch deterministic bit rate, DBR) ist eine Kompressionsmethode, um Audio- und Videodaten mit einer konstanten Datenrate zu übertragen oder zu speichern, unabhängig von der Komplexität des Signals. Pro Zeitspanne wird stets die gleiche Datenmenge erzeugt. Konstante Bitraten findet man häufig bei Multimedia-Streams, da die Übertragungskapazitäten begrenzt sind und durch CBR die hier maximal mögliche Qualität erzielt wird. Allerdings wird bei CBR auch Übertragungsvolumen „verschenkt“, wenn nämlich die tatsächliche Bitrate höher ist als die zur vollständigen Rekonstruktion nötige. Das tritt oft bei Videos in ruhigen Szenen und bei Audio in leisen Passagen auf. Ein extremes Beispiel für diese Verschwendung ist die Kodierung von Stille vor versteckten Titeln (Hidden Tracks) in konstanter Bitrate (natürlich so hoch gewählt, dass sie auch die Musik in annehmbarer Qualität kodieren könnte).
Anwendungen
Ein Beispiel für ein Verfahren, das mit CBR arbeitet, ist Video-CD.
CBR ist eine Dienstgüteklasse bei der Übertragungstechnik Asynchronous Transfer Mode.
Variable Bitrate
Das Gegenstück zur konstanten Bitrate ist die variable Bitrate (variable bit rate, VBR, bei ITU-T auch statistical bit rate, SBR), die ebenfalls eine Kompressionsmethode darstellt und Audio- und Videodaten mit gleichbleibender Qualität erzeugt. Diese ist für die Archivierung üblicherweise zu bevorzugen. Auch beim Streaming kann eine variable Bitrate gewählt werden. Um die begrenzten Übertragungskapazitäten nicht zu überlasten, bieten moderne Codecs wie Vorbis die Möglichkeit, eine maximale Bitrate festzulegen. Vorteilhaft ist dabei die Einsparung von kostbarem Übertragungsvolumen dort, wo es möglich bzw. sinnvoll ist. Selbst kurze Sprünge in der Bitrate über die Übertragungskapazität hinaus sind aufgrund von Pufferung verkraftbar. Das Verfahren hat sich in den meisten Bereichen durchgesetzt, da es eine höhere Qualität bei insgesamt geringerem Speicherplatzverbrauch bietet als die Kompression mit einer konstanten Bitrate.
Technischer Hintergrund
Im Gegensatz zur Kodierung mit konstanter Bitrate werden hier, je nach Komplexität des zugrundeliegenden Materials, einzelne Zeitabschnitte unterschiedlich stark komprimiert, um gleichbleibende Qualität bei möglichst niedrigem Datenvolumen erzielen zu können.
Die Schwierigkeit des Verfahrens besteht darin, automatisiert die Passagen zu finden, die höhere Aufmerksamkeit erfordern, ihnen ein großzügigeres Datenvolumen zuzugestehen, ohne jedoch zu freizügig Ressourcen zu verschwenden. VBR hatte deshalb jahrelang den Ruf, unvorhersagbare Qualität zu liefern, gilt jedoch heute als ausgereift und wird mittlerweile gegenüber CBR bevorzugt.
Vor dem Kodieren lässt sich nicht bestimmen, wie groß die erzeugte Datei wird, da die Dateigröße direkt von der Komplexität der Daten abhängt. VBR-Kodierung eignet sich also nicht dazu, eine bestimmte Dateigröße zu erzielen. In diesem Fall ist eine Kodierung mit durchschnittlicher Bitrate (ABR, siehe unten) vorzuziehen.
Anwendungen
Bei der Audiokompression bieten alle gängigen Codecs/Verfahren (MP3, Ogg Vorbis etc.) VBR an. Ähnliche Verfahren finden sich bei der Kompression von Bilddateien und Videos. Wo JPEG das gesamte Bild noch „konstant“ stark komprimiert, arbeitet JPEG 2000 gezielter („variabel“), indem es das Bild erst aufteilt, und die verschiedenen Bereiche unterschiedlich stark komprimiert, wenn nötig sogar verlustfrei speichert. Auch MPEG4 zeichnet sich durch dieses Merkmal der angepassten, variablen Kompression aus.
Bei verlustfreien Kompressionsverfahren ist eine variable Bitrate obligatorisch, da bei Wahl einer konstanten Bitrate diese so hoch wie die der Quelle gewählt werden müsste, um alle möglichen Muster kodieren zu können. In diesem Fall findet aber keine Kompression mehr statt.
Durchschnittliche Bitrate
Die durchschnittliche Bitrate (average bit rate, ABR) ist eine Kompressionsmethode, die das Quellmaterial nicht mit einer konstanten, sondern einer variablen Bitrate kodiert, um so den zur Verfügung stehenden Speicherplatz effizienter nutzen und damit die Qualität steigern zu können. Um die gewünschte durchschnittliche Bitrate möglichst exakt zu erreichen, bieten manche Codecs einen Kompressionsvorgang mit zwei Durchläufen an. Dabei wird zunächst das Material analysiert und erst im zweiten Durchlauf kodiert.
Sie ist eng verwandt mit der variablen Bitrate, orientiert sich im Gegensatz zu dieser aber an einer vorgegebenen Bitrate, um so die resultierende Datengröße besser berechnen zu können. Die Abweichungstoleranz kann dabei genau definiert werden.
Siehe auch
Liste von Audio-Fachbegriffen
Liste von Videofachbegriffen
Weblinks
Unterschiede zwischen CBR, ABR und VBR aus audiophiler Sicht auf AudioHQ
Datenübertragungsrate
|
Q194158
| 100.943494 |
110667
|
https://de.wikipedia.org/wiki/Internetwerbung
|
Internetwerbung
|
Internetwerbung (häufig auch Display Advertising oder Displaywerbung) ist Werbung, die in unterschiedlichen Formen über das Medium Internet verbreitet wird. Sie wird häufig auch fälschlicherweise Online-Marketing genannt, obwohl Internetwerbung viel mehr ein Teilgebiet von Online-Marketing ist.
Die nach Anzahl der Nutzer größten Webseiten für Displaywerbung in Deutschland sind nach der Arbeitsgemeinschaft Online Forschung (AGOF) wetter.com, Kleinanzeigen, Bild.de, Web.de und CHIP. Betrachtet man das digitale Gesamtangebot, zeichnet sich ein ähnliches Bild. Einzig Focus Online verdrängt hier wetter.com aus den fünf Online-Angeboten mit der größten Reichweite. Internationale Plattformen wie Google, Youtube, Facebook oder TikTok weisen ihre Medienreichweite allerdings nicht über die AGOF aus und erzielen nach eigenen Angaben noch deutlich größere Reichweiten.
Formen
Das Internet und die darin verwendeten Technologien erlauben es, die Benutzer auf eine Vielzahl unterschiedlicher Arten anzusprechen.
E-Mail-Werbung
Bei der E-Mail-Werbung werden potenzielle und aktuelle Kunden durch Werbebotschaften in E-Mails angesprochen und können durch den Klick auf einen Link zur Internetpräsenz des werbenden Unternehmens geleitet werden. In der Regel sind solche Links angeschlossen an Auswertungssoftware, die Klicks zählt und so eine Auswertung der erfolgten Kundenkontakte ermöglicht.
Die Werbung kann entweder als in den Text eingebundene Kleinanzeige erscheinen, in E-Mails im HTML-Format auch als Werbebanner, oder auch alleiniger Inhalt einer E-Mail sein. Letzteres ist nicht nur weit verbreitet in Form sogenannter Paidmail-Services oder Mailtauschdienste, bei denen sich Verbraucher bewusst eintragen, um Werbebotschaften gegen irgendeine Form von Vergütung (in Geld oder Punkten, um wiederum selbst Werbung an andere Mitglieder versenden zu können), sondern insbesondere auch als „ – UCE“ oder „ – UBE“, der unerwünschten E-Mail-Werbung.
Die E-Mail-Werbung kann auch in einem Newsletter mitgesendet werden, und zwar von Händlern für Händler (B2B) oder von Händlern an Kunden (B2C). Sogenannte „Newsletter-Marktplätze“ oder „Newsletter-Börsen“ bieten diesen B2B-Service, indem Newsletterversender und Werbetreibende vermittelt werden.
Bannerwerbung
Als Bannerwerbung wird die Anzeige von grafischen Elementen (Bannern) mit einer Werbebotschaft verstanden, die dem Verbraucher auf verschiedene Weise kommuniziert werden kann. Bei der Bannerwerbung wird, in der Regel durch einen Adserver, der Erfolg in (Anzahl der Einblendungen) und (Anzahl der Klicks) gemessen. Ein weiteres Kriterium für die Preisgestaltung ist die Kontaktdauer eines Betrachters mit der Anzeige.
Die Bannerwerbung erfolgt bei kleineren Webseiten zumeist im Rahmen sogenannter Partnerprogramme. Diese Partnerprogramme werden von -Netzwerken angeboten. Private Homepages nehmen häufig an Bannertausch-Netzwerken teil, um sich gegenseitig Besucher weiterzuleiten.
Eingebundene Werbebanner
Die am weitesten verbreitete Art der Bannerwerbung ist die Einbindung eines Werbebanners innerhalb einer Internetseite. Durch die Überschwemmung vieler Internetseiten mit Werbebannern ist bei den Verbrauchern ein Gewöhnungseffekt eingetreten, so dass sie dazu neigen, Werbebanner nicht mehr zu bemerken („Bannerblindheit“).
(bedeutet ‚Wolkenkratzer‘) sind Banner, die besonders hoch sind und deshalb meist links oder rechts am Rande der Website angebracht sind. Diese sind dann auch beim Scrollen der Website zumindest noch teilweise zu sehen. Manche Vermarkter bieten auch Formate an, die an der Seite „mitwandern“ und so permanent im Blick des Nutzers bleiben.
ist Werbung im redaktionellen Bereich einer Website, die möglichst gut mit dem eigentlichen Inhalt (engl. ) der Website verschwimmt. Die Folge ist, dass der eine oder andere Besucher erst nachträglich merkt, dass er Werbung statt Inhalt der Website gelesen hat.
(bedeutet ‚Rechteck‘) ist vergleichbar mit Inselanzeigen im Printbereich. werden direkt im redaktionellen Umfeld der Websites platziert. Dadurch wird eine starke Aufmerksamkeit für die Werbebotschaft beim Nutzer und gute Responseraten für den Werbekunden erreicht. Das eignet sich gut für Markenführungskampagnen. Ein weiterer Vorteil ist das spezifische, rechteckige Format, das viel Raum für Kreativität bietet.
, Kofferwort aus map und advertising, platziert Werbebanner (oder Werbung für geografische Objekte) auf Online-Landkarten und Routenplanern
Pop-up- oder Pop-under-Werbung
Auffälliger ist die Verwendung sogenannter Pop-up oder Pop-under, da hier zusätzlich zur betrachteten Seite ein weiteres Browserfenster geöffnet wird, welches ausschließlich die Werbung enthält. Das Pop-up erscheint dabei unmittelbar und überlagert die Hauptseite, während das Pop-under im Hintergrund geöffnet wird und der Nutzer es erst bemerkt, wenn er das Hauptfenster des Browsers schließt. Durch die zunehmende Verbreitung sogenannter Pop-up-Blocker können dadurch jedoch zunehmend weniger Verbraucher erreicht werden.
Eine neuere Form der Pop-ups sind sogenannte , die unter Zuhilfenahme von JavaScript den eigentlichen Inhalt verdecken, um so die Aufmerksamkeit des Benutzers zu erzwingen. Dabei wird jedoch kein neues Browserfenster geöffnet, und Pop-up-Blocker damit umgangen. Experimentelle Studien attestieren dieser Form jedoch eine relativ geringe Effizienz im Gegensatz zum herkömmlichen Banner. Durch Zusatzprogramme und andere technische Methoden kann auch die Anzeige von Layer Ads unterbunden werden.
Besondere Werbeformate
Um dem steigenden Gewöhnungseffekt zu begegnen, der den Erfolg von Bannerwerbung nachteilig beeinflusst, werden neue Methoden genutzt, um den Nutzer auf Werbung aufmerksam zu machen. Dazu zählen beispielsweise aufwendige Animationen der Werbebanner, früher oft durch Flash-Technik, oder besondere Platzierungsmethoden unter Verwendung von JavaScript, wie z. B. das Überlagern des übrigen Seiteninhalts mit einem Werbebanner, sich über den Bildschirm bewegende Werbebanner oder das Verschmelzen mit Videoinhalten (kurz AdClips).
Verbal Placement
Eine weitere Form der Online-Werbung ist das sogenannte Verbal Placement. Hierbei wird bewusst vom Autor eines Blogeintrags ein Link inmitten eines Absatzes bzw. Artikels platziert und von Sprachebene und Satzbau an die Zielgruppe angepasst.
Textbeispiel: „Zum Ausbau des Schalthebels benötigen Sie einen 10-mm-Schlüssel. Glücklicherweise gibt es im Internet zahlreiche Preisvergleichsseiten, bei denen Sie die günstigsten Angebote vergleichen können. Bei den variierenden Preisen auf dem Werkzeugmarkt kann man dort sicher ein Schnäppchen machen. Öffnen Sie nun die Abdeckung des Gehäuses und …“
Hierbei führt ein Klick auf das Wort Preisvergleichsseiten auf die Seite des Werbenden (in diesem Fall auf die Seite einer Preissuchmaschine).
Werbeblocker können diese Form der Schleichwerbung nicht entfernen, da der Link inklusive Text entfernt werden müsste und der Satz nach dem Entfernen ohne Subjekt auskommen: „Zum Ausbau des Schalthebels benötigen Sie einen 10-mm-Schlüssel. Glücklicherweise gibt es im Internet zahlreiche Preisvergleichsseiten, bei denen Sie die günstigsten Angebote vergleichen können. Bei den variierenden Preisen auf dem Werkzeugmarkt kann man dort sicher ein Schnäppchen machen. Öffnen Sie nun die Abdeckung des Gehäuses und …“
Targeting
Unter Targeting versteht man eine Internet-Werbeform, bei der es darum geht, Werbeeinblendungen themenrelevant am Inhalt von Zielseiten auszurichten oder bestimmten Zielgruppen direkt anzusprechen. Dabei wird zwischen Content-Targeting, semantischem Targeting, Behavioral-Targeting, Retargeting, Geotargeting, Social-Media-Targeting und Search Intent Targeting unterschieden.
Suchmaschinenmarketing
Mit Suchmaschinenmarketing (abgekürzt SEM für englisch „Search Engine Marketing“) bezeichnet man Maßnahmen, die gezielt die Auffindbarkeit einer Webpräsenz auf den Ergebnisseiten von Suchmaschinen steigern. Suchmaschinenmarketing umfasst Suchmaschinenwerbung (SEA für englisch „Search Engine Advertising“) und Suchmaschinenoptimierung (SEO für „Search Engine Optimization“).
Suchmaschinenwerbung
Als Ergänzung zum Suchergebnis werden in einer Spalte rechts neben und teilweise auch über den eigentlichen Suchergebnissen buchbare Text-Annoncen eingeblendet. Bei Google heißt das Produkt Google Ads. Suchmaschinenwerbung (SEA) ist entsprechend gekennzeichnet und hervorgehoben durch gestalterische Elemente wie eine Hintergrundfarbe. SEA-Systeme sind u. a. verfügbar bei Google „Google Ads“, Microsoft Network „Bing Ads“ und Yahoo „Yahoo Search Marketing“ (2012 wurden die Märkte Deutschland, Österreich und Schweiz zu Bing Ads migriert).
Wichtige Begriffe im Bereich des Suchmaschinenmarketings sind der Cost-per-Click (CPC), auch Pay-per-Click genannt, die Click-Through-Rate (CTR) oder aber auch die Impressionen. Die Impressionen beschreiben, wie oft die Werbung in den Suchergebnissen angezeigt wurde.
Suchmaschinenoptimierung
Als Suchmaschinenoptimierung werden Maßnahmen bezeichnet, mit denen Werbetreibende versuchen, ihre eigene Webseite möglichst weit oben in den sogenannten natürlich oder organischen Suchergebnislisten zu platzieren.
Suchmaschinenoptimierung (SEO) bezeichnet alle Maßnahmen, die die Position einer Webpräsenz in den kostenlosen organischen Suchergebnissen einer Suchmaschine verbessern (unabhängig von SEA). Die Maßnahmen reichen von der Optimierung der Website und deren Domainnamen bzw. URLs über die Inhalte inklusive Metadaten bis hin zur Verlinkung mit anderen Websites (Link-/Backlink-Strategie).
Pixel
Diese Werbevariante zeichnet sich dadurch aus, dass die Werbefläche nicht für einen einzelnen Werbeträger, sondern für theoretisch beliebig viele zur Verfügung steht, solange genügend Platz vorhanden ist. In der Regel werden dabei Flächen in Blockgrößen zu Festpreisen verkauft. Auf diesen Bereichen können dann kleine Bildchen eingeblendet werden, die mit einem Link versehen sind.
sind Werbeinhalte, die beim Wechseln einer Seite während des Besuchs einer Website als Unterbrechung eingeblendet werden. Die Werbung wird dabei vor dem Aufbau der eigentlichen Seite eingeblendet und gibt nach festgelegter Zeit die gewünschte Seite frei.
Ein ist eine ganzseitige Werbung, die der eigentlichen Seite vorgeschaltet ist. Nach Ablauf einer bestimmten Zeit oder durch Klick auf einen entsprechenden Link wird der Besucher automatisch auf die gewünschte Seite weitergeleitet.
In-Text-Werbung
Bei In-Text-Werbung handelt es sich um eine spezielle Form von Online-Marketing, die direkt in den Content (Fließtext einer Website) integriert wird. Hierzu werden vom jeweiligen Anbieter einzelne (Schlüsselwörter wie zum Beispiel Software, Computerspiele etc.) im Content einer Website (automatisch) mit speziellen Links versehen. Diese unterscheiden sich optisch in der Regel durch eine doppelte Unterstreichung von regulären Links. Im Vergleich zu anderen Werbeformen wird diese erst durch eine aktive Nutzung des Internetnutzers sichtbar, indem dieser mit seiner Maus über einen In-Text-Link fährt. Daraufhin öffnet sich ein kleines Fenster, welches entweder reine Text-Informationen, Bilder oder auch Flash-Videos enthalten kann.
Mapvertising
Beim Mapvertising wird Werbung auf einer Online-Landkarte geschaltet, die meist auf die räumlichen Ergebnisse zugeschnitten ist.
Unter versteht man das Verändern des Erscheinungsbildes einer Website dahingehend, dass diese eindeutig einem Produkt oder einer Firma zugeordnet werden kann, der Nutzer somit automatisch und unausweichlich an diese(s) erinnert wird.
Websponsoring
Eine Form der Internetwerbung ist das Websponsoring beziehungsweise Onlinesponsoring, bei der ein Sponsor ein von ihm unabhängiges, meist unentgeltliches Internetprojekt finanziell unterstützt. Als Gegenleistung werden auf der unterstützten Website Werbebanner oder das Logo des Sponsors eingeblendet.
Kommerzielle Videoclips
Online-Marktplätze bieten eine Plattform an, um in der Länge unbeschränkte Videobotschaften zu verbreiten. Videoproduktionen und Werbeagenturen erstellen hierzu Beiträge, die teilweise mit traditioneller Fernsehwerbung vergleichbar sind. Das heißt, es werden Werbespots abgespielt, die auch im Fernsehen zu sehen sind. Eine andere Möglichkeit sind Filminhalte, die deutlich länger sind als die teuren 30 Sekunden im Fernsehwerbeblock. So können sich zum Beispiel Marken den Konsumenten viel komplexer präsentieren, als dies im Fernsehen möglich ist. Oft sind diese speziellen Internetformate mehrere Minuten lang, einige haben Kurzfilmcharakter. Inhaltlich entwickeln sie TV-Spots weiter oder führen eigene Storylines ein, die zur jeweiligen Markenpositionierung passen. Im Idealfall erfolgt das Abspielen dieser Filminhalte auf die Aktion eines Nutzers (Rollover). So werden Streuverluste, wie sie aus den klassischen Medien bekannt sind, vermieden. Ein gängiges Mittel ist es, Filme auf einem Onlinemarktplatz beginnen zu lassen und die „Fortsetzung“ auf der Marken-Website zu zeigen.
Internetradiowerbung
Internetradiowerbung ist vergleichbar mit klassischer Radiowerbung. Der Unterschied besteht jedoch darin, dass die Hörerzahlen genau abgerechnet werden können und im Gegensatz zum terrestrischen Rundfunk nicht auf Schätzungen oder Hochrechnungen basieren. Dies erlaubt eine präzisere Mediaplanung und bessere Ausschöpfung des Budgets. Im Bereich der Internetradiovermarktung gibt es bereits einige Geschäftsansätze, jedoch ist der Markt noch nicht vollständig erschlossen. Das Problem ist, dass ein Großteil der Sender eine zu geringe Reichweite besitzt, um in der Einzelvermarktung erfolgreich zu sein. Einige Firmen kompensieren dieses Problem, indem sie viele Radios bündeln, gemeinsam vermarkten und somit die Reichweite erhöhen.
Virales Marketing und Social Media Marketing
Beim viralen Marketing ist eine Marketingform, die soziale Netzwerke und Medien nutzt, um mit einer meist ungewöhnlichen oder hintergründigen Nachricht auf eine Marke, ein Produkt oder eine Kampagne aufmerksam zu machen.
Die Nutzung von sozialen Netzwerken im Marketing wird auch als Social Media Marketing bezeichnet. Hierzu gehören unter anderem das Verbessern der Social-Media-Präsenz für Werbezwecke (Social Media Optimization), das Auswerten und Sammeln von werbe-relevanten Informationen über Nutzer in sozialen Netzwerken (Social Media Intelligence) und ein Empfehlungsmarketing durch Nutzer, die werberelevante Inhalte in sozialen Netzwerk teilen und damit neue Kunden anwerben.
Affiliate-Marketing
Beim Affiliate-Marketing werden Vertriebspartner durch Verlinken zu dem Werbekunden durch Provision vergütet.
Influencer-Marketing
Beim Influencer-Marketing binden Werbetreibende gezielt Meinungsmacher (Influencer) und damit Personen mit Ansehen, Einfluss und Reichweite in ihre Markenkommunikation ein. Dies geschieht häufig in sozialen Netzwerken und auf Videoplattformen. Hier wird auch mit Produktplatzierungen gearbeitet, um auf Produkte bzw. Dienstleistungen aufmerksam zu machen und dabei authentischer als in der klassischen Werbung zu wirken.
Vergütungsarten
Die Kosten für Internetwerbung werden nach Aktionen, die ein Nutzer hinsichtlich einer Werbeanzeige tätigt, berechnet. In Fachsprache wird hier auch von Cost per Action/ Pay per Action (kurz: CPA/PPA) gesprochen. Bekannte Vergütungsmodelle sind:
Pay per Sale: Die Provision für getätigte Käufe von Nutzern auf der angeklickten Werbeseite. Sie kann entweder als Prozentsatz vom Verkaufspreis oder pro verkaufter Ware zu einem Festpreis berechnet werden.
Pay per Click Out: Die Provision für Nutzer, die auf der Werbeseite einen externen Dienstleister oder Sponsor auswählen und an die Adresse weitergeleitet werden.
Pay per Link/Click: Eine Vergütung für das Aufrufen des Links zu der Wernesebsite z. B. durch den Banner. Siehe auch: Click-Through-Rate
Pay per Print out: Eine Vergütung für einen getätigten Papierausdruck der Werbeseite.
Pay per View: Die Vergütung pro Aufruf eines Werbeinhaltes wie des Werbebanners. Diese Form wird auch als Pay-per-impression (PPI) bezeichnet. Eine typische Einheit ist hierbei die CPM (Cost per mille). Mille ist hierbei lateinisch und steht für Tausend. Die CPM bedeutet also Kosten pro Tausend Aufrufen einer Werbeanzeige und wird in der Fachsprache Tausend-Kontakt-Preis genannt.
Pay per SignUp: Die Vergütung für Anmeldungen auf der Werbeseite.
Pay per Install/Pay per Download: Die Vergütung für getätigte Downloads und Installationen von Dateien und Software auf der Werbeseite.
Zusätzlich zu diesem Modellen ist aber auch die Art und das Format der Werbung entscheidend für die Preisberechnung.
Verbreitung und Akzeptanz
Der Online-Werbemarkt grafischer Natur ist in Deutschland von 2006 auf 2007 um 103 Prozent auf 976 Millionen Euro gestiegen. Der Online-Werbemarkt der USA ist von 2005 auf 2006 um 35 Prozent auf 16,9 Milliarden US-Dollar gestiegen. Im Jahr 2010 stiegen die Brutto-Werbeausgaben (Umsatz vor Abzug von Rabatten und anderen Nachlässen) alleine in Deutschland auf 5,357 Milliarden Euro. Werbeausgaben für Social Media sind in dieser Messung noch nicht berücksichtigt. Die tatsächlichen Nettowerbeausgaben für Onlinewerbung waren im Jahr 2010 mit 861 Millionen Euro allerdings deutlich geringer. Onlinewerbung stellte damit weit nach TV, Zeitungen und anderen Werbeträgern die siebtgrößte Mediengattung dar. Im Jahr 2017 betrug der Nettowerbeumsatz auf dem Digitalen Werbemarkt durch die Zusammenführung der Umsatzzahlen von klassischer Display-Werbung und Mobile Werbung rund 1,9 Milliarden Euro. Im Nettowerbekuchen machen digitale Werbemaßnahmen mit 29,9 Prozent den größten Anteil aus, so dass Werbung im Internet erstmals an der Spitze im Mediamix vor TV, Print und Radio steht. Der Online-Werbemarkt in der Schweiz wird von Google dominiert. Es wird geschätzt, dass rund drei Viertel der Online-Werbeausgaben zu Google fliessen.
Der Vorteil von Internetwerbung liegt darin, dass die Reaktion der angesprochenen Verbraucher über die Klickrate, die Conversion-Rate oder Page Impressions unmittelbar gemessen werden kann. Diese Messbarkeit zeichnet Internetwerbung gegenüber Werbung im klassischen Stil aus. Dadurch lassen sich Streuverluste wesentlich besser minimieren als in anderen Werbeformaten. Dies gilt insbesondere für Internetwerbung, die Pay per Click abgerechnet wird: Hier zahlt der Kunde nur für Klicks, also nur, wenn der Interessent tatsächlich auf die Webseite geleitet wird. Außerdem funktioniert eine zielgruppengerichtete Werbung durch ein bestimmtes Targeting.
Internetwerbung in den oben beschriebenen Formen wird jedoch zunehmend als lästig und aufdringlich empfunden. Daher haben sich viele Adblocklösungen etabliert, die mit verschiedenen Filtertechniken versuchen, das Anzeigen der Werbung zu verhindern. Gegen unerwünschte E-Mail-Werbung können sowohl vom Endnutzer als auch vom Mailserverbetreiber u. a. Spamfilter eingesetzt werden (siehe hierzu auch Gegenmaßnahmen zu Spam). Um das Anzeigen von Werbung auf Internetseiten (egal in welcher Form) zu unterbinden ist es möglich, Contentfilter einzusetzen, welche z. B. als Erweiterung für verschiedene Webbrowser zur Verfügung stehen.
Nach einer repräsentativen Umfrage des TNS Emnid Instituts im Auftrag von Mediaedge:cia ist bei Internetnutzern der die beliebteste Form der Werbung (32 %), gefolgt vom -Banner (31 %). Pop-ups werden von 60 % der Nutzer abgelehnt und von 11 % positiv gewertet. Nur ein Prozent klickt Pop-ups an. Video-Strips mit bewegten Bildern in n oder -Bannern werden von 3 bis 8 % der Nutzer angeklickt und breiten sich danach über die ganze Webseite aus. 40 % der Internetnutzer fühlen sich durch Internetwerbung gestört, und mehr als 34 % akzeptieren Werbung zur Finanzierung einer Webseite. 20 % der Befragten wurden durch Werbung auf interessante Angebote aufmerksam gemacht, wobei Frauen (15 %) durch Internetwerbung weniger als Männer (23 %) angesprochen werden.
Ergebnisse einer experimentellen Studie bestätigen die ambivalente Wirkung insbesondere von , die einerseits eine hohe Erinnerungswirkung bzgl. der Details der Werbebotschaft erzielen, anderseits aber von den Nutzern als deutlich störender empfunden werden als klassische Bannerwerbung.
Die Financial Times experimentiert als erstes größeres Medium mit der Kontaktdauer der Leser auf der Seite mit den Anzeigen. Seit Sommer 2014 bietet sie Anzeigenkunden neben herkömmlichen Abrufkontingenten auch Zeitkontingente an. Gemessen wird die reale Nutzerzeit mit dem Werkzeug Chartbeat das feststellt, ob ein Browserfenster im Vordergrund liegt und anhand der Nutzereingaben versucht, Aufmerksamkeit zu erkennen. Seit dem 4. Quartal 2014 werden Anzeigen nach diesem Modell in die Standard-Vermarktung einbezogen.
Kostenlose Internetwerbung
Im Internet gibt es diverse Dienste, die es ermöglichen, ein Webprojekt kostenlos zu bewerben. Dabei stehen je nach Dienst verschiedene Werbemethoden zur Verfügung, unter anderem Mailtausch (E-Mail-Werbung), Bannertausch (Werbebannerwerbung), Textlinktausch (Austausch von HTML-Textlinks) und Besuchertausch.
Siehe auch
Breidbart-Index
Coalition for Better Ads
Exit Intent Popup
Native Advertising
Social Media Marketing
Werbeportal
Quellen
Werbemaßnahme
Online-Marketing
|
Q624902
| 186.30919 |
112
|
https://de.wikipedia.org/wiki/Acre
|
Acre
|
Acre (Plural deutsch Acre oder Acres; , Plural acres) ist eine von den Britischen Inseln stammende angloamerikanische Maßeinheit zur Flächenbestimmung von Grundstücken und entspricht im metrischen System exakt 4046,8564224 m² oder grob 4047 m² beziehungsweise 0,4 ha. Abgekürzt wird diese Einheit mit ac. Typologisch vergleichbare Maßeinheiten sind der Morgen, das Tagewerk, das Joch und die Juchart.
In den Vereinigten Staaten wird die Größe von Grundstücken bei Land- und Grundvermessungen allein mit den beiden Flächeneinheiten Acre und Square Foot angegeben. Weit verbreitet sind diese Einheiten auch in Großbritannien, Kanada, Indien, Australien und anderen Commonwealth-Staaten, obwohl dort heute ein metrisches Hauptmaßsystem besteht. Ein größeres Grundstück wird dort auch als Acreage bezeichnet.
Begriff
Definition
Heutzutage wird der Acre direkt mit 43.560 Square Feet definiert, weil die zur ursprünglichen Definition verwendeten Längenmaße Furlong und Rod mittlerweile ungebräuchlich sind.
Unter Einbezug der Meile sowie den heutzutage nicht mehr gebräuchlichen Flächenmaßen Rood und Square Rod (auch als Square Perch, Perch, Square Pole, Pole bezeichnet) ergibt sich die folgende Umrechnung:
Praktische Verwendung
Der Acre ist das Hauptmaß für Grundstücksflächen. In der Regel werden nicht mehr als zwei Nachkommastellen angegeben, womit eine Genauigkeit von ±20 m² vorliegt. Sobald genauere Angaben erforderlich sind, beispielsweise bei Bauland, wird die Flächeneinheit Square Foot verwendet.
Bei landwirtschaftlich genutzten Grundstücken werden die Flächen in Workable Acre und Non Workable Acre unterteilt. Damit gemeint sind die tatsächlich nutzbare Fläche und die für landwirtschaftliche Zwecke nicht nutzbare Fläche, wie beispielsweise Ödland.
Auch sehr große Grundflächen werden in Acre angegeben, beispielsweise 87.000 ac (≈ 350 km²). Eine Umrechnung in Quadratmeilen erfolgt in der Regel nicht.
Acre als Grundlage für abgeleitete Einheiten
Im Bereich der Landwirtschaft bezieht sich der Flächenertrag auf den Acre. Bei Getreide wird der Ertrag in bushel/acre angegeben.
Der Preis für Land aller Arten wird in den Vereinigten Staaten und Kanada in $/acre angegeben.
{|
|-
|Umrechnung von $/acre nach $/ha: || style="background:#EAECF0; border:1px solid black; padding: 0 5px 0 5px;"| 1 $/acre = 2,4711 $/ha
|-
|Umrechnung von $/ha nach $/acre: || style="background:#EAECF0; border:1px solid black; padding: 0 5px 0 5px;"| 1 $/ha = 0,4047 $/acre
|}
Der acre-foot sowie der acre-inch sind in den Vereinigten Staaten Volumeneinheiten für große Wassermengen, beispielsweise beim kommunalen Wasserverbrauch oder bei landwirtschaftlicher Bewässerung.
Geschichte
Ursprüngliche Definition
Die Einheit acre, von altenglisch æcer ‚Acker, Feld‘, bezeichnete ursprünglich den Landstreifen, der mit einem Ochsengespann in einem Tag gepflügt werden konnte. Unter König Eduard I. sowie erneut unter Eduard III. und Heinrich VIII. wurde der Acre gesetzlich als ein Stück Land mit der Länge von 40 Rods (oder Perches; = 1 Furlong oder 660 Feet) und der Breite von 4 Rods (oder Perches; = 66 Feet oder [seit 1620] 1 Chain) beziehungsweise 160 Square Rods (Quadratruten) bei welcher Grundstücksform auch immer definiert.
U.S. Survey Foot
In den USA basierten die Landflächeneinheiten noch bis Ende 2022 auf dem dann ersatzlos abgeschafften U.S. survey foot. Der aus dem Survey Foot abgeleitete Acre ist mit einer Fläche von ca. 4046,8726099 m² um etwa 162 cm² geringfügig größer als der auf dem Standard-Foot basierende Acre.
Historische Einheiten
Obgleich auf den Britischen Inseln die Größe des Acres seit dem Hochmittelalter mit 160 Square Rods definiert war, war dessen Fläche je nach Ort und Zeit uneinheitlich, da die Längeneinheit Rod oder Perch verschiedenen Fuß-Äquivalenten entsprach. Erst mit der Neudefinition der Imperial Units durch den Weights and Measures Act von 1824 wurde ein für das gesamte Britische Weltreich einheitlicher Acre geschaffen.
Vor der Einführung des Imperial Standard Acre (Statute Acre) gab es unter anderem den alten schottischen Acre, den neuen schottischen Acre, auch als Cunningham Acre bezeichnet, oder den irischen bzw. Plantation Acre. Beispielsweise hat der Cunningham Acre etwa die 1,3-fache Größe, der Plantation Acre grob die 1,6-fache Größe des heutigen Acres. Einige dieser veralteten Maße waren teilweise bis ins 20. Jahrhundert gebräuchlich, so in abgelegenen Gebieten Irlands.
In der Normandie, Frankreich, war auch die Acre [akr] je nach Ort und Zeit uneinheitlich und sogar manchmal im gleichen Bezirk, wie zum Beispiel im pays de Caux wo es grande acre (68 Are und 66 Zentiare) und petite acre (56 bis 75 Zentiare) gab.
Literatur
Herbert Arthur Klein: The Science of Measurement. A Historical Survey. Dover Publications, Mineola NY 1988.
Johann Friedrich Krüger: Vollständiges Handbuch der Münzen, Maße und Gewichte aller Länder der Erde. Verlag Gottfried Basse, Quedlinburg/Leipzig 1830.
Weblinks
Einzelnachweise
Flächeneinheit
|
Q81292
| 503.477049 |
92236
|
https://de.wikipedia.org/wiki/Evolution
|
Evolution
|
Unter Evolution (von „herausrollen“, „auswickeln“, „entwickeln“) versteht man im deutschsprachigen Raum in erster Linie die biologische Evolution. Darunter wird die von Generation zu Generation stattfindende allmähliche Veränderung der vererbbaren Merkmale einer Population von Lebewesen und von anderen organischen Strukturen (z. B. Viren) verstanden. Das Lehr- und Forschungsgebiet der Evolution wird als Evolutionsbiologie bezeichnet und unterliegt, wie viele andere Wissenschaften, einem kontinuierlichen Erkenntnisfortschritt. Hierzu können insbesondere neue Einsichten durch die Entdeckung neuer Fossilien oder die Anwendung neuer Forschungsmethoden beitragen. Das Themenfeld der Evolution wurde zuweilen unterteilt in die Evolutionsgeschichte, in der die Veränderungen der Lebewesen im Laufe der Erdgeschichte beschrieben werden und bei dem es Überlappungen mit der Paläontologie gibt, sowie in die Evolutionstheorie, die naturwissenschaftliche Erklärungen (Hypothesen und Theorien) für das Gesamtphänomen der Evolution entwickelt. Die beiden Ansätze sind heutzutage in der Wissenschaft innig miteinander verwoben und befruchten sich wechselseitig. Wissenschaftler beschäftigen sich ebenfalls im Rahmen der theoretischen Biologie mit der biologischen Evolution. Die theoretische Biologie als interdisziplinäres Teilgebiet der Biologie entwickelt mathematische Modelle und führt statistische Hypothesentests und Laborexperimente durch, um den Erkenntnisgewinn zu fördern.
Geschichte
Die Merkmale der Lebewesen sind in Form von Genen codiert, die bei der Fortpflanzung kopiert und an die Nachkommen weitergegeben werden. Durch Mutationen entstehen unterschiedliche Varianten (Allele) dieser Gene, die zur Entstehung veränderter oder neuer Merkmale führen können. Diese Varianten sowie Rekombinationen führen zu erblich bedingten Unterschieden in Form der genetischen Variabilität zwischen Individuen. Evolution findet statt, wenn sich die Häufigkeit bestimmter Allele in einer Population (die Allelfrequenz im Genpool) ändert und die entsprechenden Merkmale in der Population dadurch seltener oder häufiger werden. Dies geschieht entweder durch natürliche Selektion (unterschiedliche Überlebens- und Reproduktionsrate aufgrund dieser Merkmale), durch sexuelle Selektion oder zufällig durch Gendrift.
Der entscheidende Bruch mit dem früheren Konzept konstanter typologischer Klassen oder Typen der Biologie kam mit der Theorie der Evolution durch natürliche Selektion, die von Charles Darwin und Alfred Russel Wallace in Form von im Laufe der Zeit veränderlichen Populationen formuliert wurde.
Diese Bedeutung der Variabilität und der durch natürliche Selektion in Gang gehaltene Prozess bei Lebewesen wurden dann erstmals ausführlich und fundiert von Charles Darwin in seinem 1859 erschienenen Buch The Origin of Species dargestellt. Um 1900 wurden die Prinzipien der Vererbung bekannt (da die früheren Untersuchungen von Gregor Mendel nicht weiter beachtet worden waren) und um 1910 die Bedeutung der Chromosomen. Dadurch schienen sich die Konzepte des Darwinismus, der die Veränderungen hervorhob, und der Genetik, die die statische Weitergabe von Merkmalen lehrte, einander zu widersprechen. Erst ab den 1930er Jahren konnten die Selektionsprozesse mit den mendelschen Regeln zur Vererbung in Übereinklang gebracht werden, woraus sich die Synthetische Theorie der Evolution entwickelte. Sie definierte Evolution als die zeitliche Änderung der relativen Allelhäufigkeiten (Allelfrequenzen) in einer Population. Durch ihre deskriptiven und kausalen Aussagen wurde diese Theorie zum zentralen organisierenden Prinzip der modernen Biologie und lieferte eine fundierte Erklärung für die Entstehung der Vielfalt des Lebens auf der Erde.
1944 lieferten die Arbeiten von Oswald Avery und seinen Kollegen ein starkes Indiz dafür, dass DNA der Träger genetischer Informationen ist, denn bislang hatte man eher Proteine „im Verdacht“, entsprechende Informationen zu beherbergen. Zusammen mit der Entschlüsselung der Struktur der DNA durch Rosalind Franklin, James Watson und Francis Crick im Jahr 1953 wurde die physische Basis der Vererbung geklärt. Seitdem ist auch die molekulare Genetik ein zentraler Bestandteil der Evolutionsbiologie.
Grundlagen
Vererbung
Gregor Mendel zeigte anhand von Erbsen, dass Vererbung in eng definierten (diskreten) Einheiten erfolgt, indem Merkmale von der Elterngeneration an die Nachkommen vererbt werden, und dass diese Merkmale diskret sind: Wenn ein Elternteil runde und der andere faltige Erbsen hatte, dann zeigte der Nachwuchs nicht ein Gemisch, sondern entweder runde oder faltige Erbsen. Mendel wies außerdem nach, dass die Merkmale der Eltern in einer genau definierten und vorhersagbaren Weise an die Nachkommen vererbt wurden, nämlich nach den mendelschen Regeln. Seine Forschungen waren die Basis für das Konzept der diskreten, erblichen Merkmale, der Gene. Mendels Arbeiten beantworteten die lange offene Frage, warum Merkmalsvarianten in Populationen stabil bleiben. Im Nachhinein muss man feststellen, dass es ein großer Zufall war, dass er lauter diskrete Merkmale gewählt hatte, denn bei vielen anderen Merkmalen (etwa bezüglich der erreichten Pflanzenhöhe) wären komplexere genetische und auch umweltbedingte Einflüsse aufgetreten.
Spätere Forschungen enthüllten die physische Basis der Gene und identifizierten die DNA als das genetische Material. Gene wurden neu definiert als spezifische Regionen der DNA. DNA wird von Lebewesen als Chromosomen gelagert. Ein bestimmter Ort auf einem Chromosom wird als Genlocus (oder kurz Locus) bezeichnet, die Variante einer DNA-Sequenz auf einem bestimmten Locus bezeichnet man als Allel. Die Kopie der DNA erfolgt nicht perfekt und Änderungen (Mutationen) der Gene produzieren neue Allele und beeinflussen daher die Merkmale, die von diesen Genen kontrolliert werden. Diese einfache Beziehung zwischen einem Gen und einem Merkmal liegt in vielen Fällen vor, komplexe Merkmale, zum Beispiel die Widerstandsfähigkeit gegen Krankheiten, werden jedoch von vielen zusammenwirkenden Genen („polygen“) kontrolliert.
Genetische Variabilität
Die genetische Variabilität oder Variation resultiert aus Mutationen der DNA, der Wanderung von Individuen zwischen Populationen (dem Genfluss), und der Durchmischung von Genen bei der sexuellen Fortpflanzung (Rekombination). Bei einigen Lebensformen, wie Bakterien und Pflanzen, wird Variabilität auch durch die Mischung des genetischen Materials zwischen Arten durch horizontalen Genfluss und Hybridisierung erzeugt. Trotz all dieser Variabilität verursachenden Prozesse sind die meisten Bereiche der DNA einer Art (das Genom) bei allen Individuen einer Art identisch. Vergleichsweise kleine Änderungen des Genotyps (des Merkmale codierenden Teiles des Genoms), können jedoch erhebliche Auswirkungen auf den Phänotyp (die Gesamtheit der genetisch bedingten Merkmale eines Individuums; vereinfacht ausgedrückt, auf das genetisch bedingte äußere Erscheinungsbild) haben. Zum Beispiel beträgt der Unterschied der DNA-Sequenzen von Schimpanse und Mensch nur fünf Prozent.
Der Phänotyp resultiert aus der Interaktion seiner individuellen genetischen Ausstattung, seines Genotyps, mit der Umwelt. Die Variabilität der vererbbaren Merkmale innerhalb einer Population reflektiert also die Variabilität des Genoms innerhalb dieser Population. Die Frequenz einzelner Merkmalsvarianten kann in einer Population schwanken und in Relation zu anderen Allelen des Gens größer oder kleiner werden. Alle evolutionär wirksamen Kräfte agieren, indem sie diese Änderungen der Allelfrequenzen in die eine oder andere Richtung fördern. Die Variabilität eines Merkmals verschwindet, wenn ein Allel eine feste Frequenz erreicht, wenn es also entweder aus der Population verschwindet oder wenn es alle anderen, früher vorhandenen Allele ersetzt hat.
Homologie
Organe der Säugetiere wie Wirbelsäule, Augen, Verdauungskanal, Lungen ähneln denen anderer Wirbeltiere. Diese Gemeinsamkeiten basieren auf der Abstammung von gemeinsamen Vorfahren. Diese Ähnlichkeiten werden in der Biologie als Homologie bezeichnet. Fossile Skelettfunde bieten die Möglichkeit, Homologien zu erkennen und dadurch Hinweise auf eine gemeinsame Abstammung zu erlangen. Im Verlauf der Evolution haben viele Organismen ihre Lebensweise verändert. Durch genetische Variabilität und natürliche Auslese fand ein Funktionswandel von Organen statt. Dadurch kam es zu einer Angepasstheit des Baues an die jeweilige Funktion.
Analogie
Analoge Organe weisen verschiedenen Grundbaupläne auf, dennoch besitzen sie Ähnlichkeiten, die von ihrer Abstammung unabhängig sind. Der Grund dafür ist die Anpassung an gleiche Funktionen. Ein Beispiel dafür ist die Grabhand des Maulwurfs und die Grabschaufeln der Maulwurfsgrille, denn sie sind sich sehr ähnlich. Während die Hand des Maulwurfs ein Knochenskelett aufweist, liegt bei der Maulwurfsgrille ein Außenskelett aus Chitin vor. Maulwurf und Maulwurfsgrille besitzen unterschiedliche Baupläne ihrer äußerlich ähnlichen Gliedmaßen. Analoge Ähnlichkeiten sind stammesgeschichtlich unabhängig voneinander, lassen jedoch Rückschlüsse auf ähnliche Umweltbedingungen und Lebensweisen zu.
Evolutionsfaktoren
Als Evolutionsfaktoren bezeichnet man in der Biologie Prozesse, durch die der Genpool (die Gesamtheit aller Genvariationen in einer Population) verändert wird. Dies erfolgt überwiegend durch Veränderungen der Allelfrequenzen im Genpool der Population. Diese Prozesse sind die zentrale Ursache für evolutionäre Veränderungen.
Die wesentlichen Evolutionsfaktoren, die den Genpool (Gesamtheit aller Genvarianten in einer Population) verändern, sind Mutation, Rekombination, Selektion und Gendrift.
Mutation
Mutationen können im Körper an irgendeiner Stelle außerhalb der Keimbahn, also außerhalb von Fortpflanzungszellen, auftreten und heißen dann somatische Mutation. Diese haben, im Gegensatz zu den Keimbahnmutationen, keinen direkten Einfluss auf die nachfolgenden Generationen, höchstens indirekt, wenn die somatische Mutation die Fitness des Trägerorganismus beeinträchtigt und dadurch die Weitergabewahrscheinlichkeit der eigenen Gene statistisch reduziert ist. Keimbahnmutationen sind Mutationen, die an die Nachkommen über die Keimbahn vererbt werden können; sie betreffen Eizellen oder Spermien sowie deren Vorläufer vor und während der Oogenese bzw. Spermatogenese. Auf den Trägerorganismus, in dem sie stattfinden, haben sie normalerweise keinen Einfluss.
Mutationen und ihre Wirkungen sind feststellbar: So kann zum Beispiel die Entstehung neuartiger Enzyme in Mikroorganismen aufgrund der kürzeren Generationszeit im Zeitraffer beobachtet werden. Beispiele für neu entstandene Enzyme sind die Nylonasen.
Rekombination
Rekombinationen sind Neuanordnungen von bestehenden Genen. Sie können im Rahmen der vermutlich phylogenetisch älteren parasexuellen Rekombination (bei Prokaryoten und einigen Pilzen) auftreten, aber auch im Rahmen der sexuellen Fortpflanzung. Bei letzterer, die typisch für fast alle Pflanzen und Tiere ist, unterscheidet man die Intrachromosomale Rekombination durch Neukombination von Allelen innerhalb von Chromosomen (als Folge des Crossing-overs anlässlich der 1. Reifeteilung) und die Interchromosomale Rekombination durch Neukombination ganzer Chromosomen im Chromosomensatz.
Selektion
Selektion tritt auf, wenn Individuen mit für das Überleben und die Fortpflanzung vorteilhaften Merkmalen mehr Nachwuchs produzieren können als Individuen ohne diese Merkmale. Auf diese Weise können für die Population im Laufe der Generationen insgesamt verbesserte Anpassungen an die Umweltbedingungen entstehen. Im Rahmen solcher Merkmalsänderungen kann sich eine Art auch im Rahmen der Artbildung in neue Arten aufspalten. Die „normale“ Selektion läuft zwischen Individuen unterschiedlicher Spezies ab und wird auch als natürliche Selektion bezeichnet. Ein Sonderfall ist die durch den Menschen eingesetzte „künstliche Selektion“ oder Zucht, die beispielsweise für die zahlreichen Hunderassen verantwortlich ist. Sobald Haushunde in der freien Wildbahn überleben müssen, was in vielen Ländern der Erde ein verbreitetes Phänomen ist, setzen sich durch natürliche Selektion bald nur bestimmte Genotypen durch. Die Hunde werden relativ einheitlich in der Größe, in Farbcharakteristiken und im Verhalten, da sich die „extremeren“ angezüchteten Eigenschaften in natürlicher Umgebung als nachteilig erweisen und die entsprechenden Hunde zu geringerem Fortpflanzungserfolg kommen lassen.
Ein Spezialfall der Selektion bzw. der natürlichen Selektion ist die sexuelle Selektion, die intraspezifisch (also innerhalb einer Art) wirkt: Die Selektion auf Merkmale, deren Präsenz direkt mit dem Kopulationserfolg durch bevorzugte Partnerwahl korreliert ist. Durch sexuelle Selektion evolvierte Merkmale sind besonders bei den Männchen von Tieren verbreitet. Obwohl diese Merkmale die Überlebenswahrscheinlichkeit einzelner Männchen reduzieren können (z. B. durch behindernde Geweihe, durch Paarungsrufe oder leuchtende Farben), ist der Reproduktionserfolg solcher Männchen im Normalfall höher.
Helfersysteme und Eusozialität stellen weitere Spezialfälle dar: Bei mehr als 200 Vogelarten und etwa 120 Säugerarten findet man soziale Strukturen, bei denen ein Teil der Individuen zumindest zeitweise auf eine eigene Reproduktion verzichtet und stattdessen Artgenossen bei deren Reproduktion unterstützt. Dies steht in scheinbarem Widerspruch zu Darwins Thesen. Untersuchungen dieser Helfersysteme haben jedoch gezeigt, dass diese Hilfe meist umso stärker erfolgt, je näher die Helfer mit dem aufzuziehenden Nachwuchs verwandt sind. Da ein Teil des Genoms von Helfer und aufgezogenem Fremdnachwuchs identisch ist, erreicht der Helfer also trotz Verzicht auf eigene Reproduktion eine Weitergabe eines Teils seines Genoms. Da die Selektion hier nicht mehr auf der Ebene des Phänotyps, sondern des Genotyps ansetzt, hat Richard Dawkins für diese und ähnliche Fälle den Begriff des „egoistischen Gens“ geprägt. Bei eusozialen Insekten wie beispielsweise Ameisen und Sozialen Faltenwespen verzichtet der größte Teil der Weibchen lebenslang auf eine eigene Fortpflanzung. Eusozialität ist für diese Weibchen nicht mit einer verringerten evolutionären Fitness verbunden, da sie aufgrund einer genetischen Besonderheit (Haplodiploidie) mit ihren Schwestern näher verwandt sind als mit potentiellen eigenen Nachkommen. Bei der Aufzucht von Schwestern geben sie also einen größeren Teil ihres Genoms weiter als bei der Aufzucht eigener Töchter.
Gendrift
Gendrift ist die Änderung von Allelfrequenzen von einer Generation zur nächsten, die geschieht, weil die Allele einer Generation von Nachkommen statistisch gesehen eine Zufallsstichprobe der Allele der Elterngeneration darstellen und deren Auswahl daher auch einem Zufallsfehler unterliegt. Selbst wenn keine Selektion stattfindet, tendieren Allelfrequenzen dazu, im Verlauf der Zeit größer oder kleiner zu werden, bis sie schließlich die Werte 0 % oder 100 % erreichen („Fixierung“ des Allels). Schwankungen der Allelfrequenzen in aufeinanderfolgenden Generationen können daher durch reinen Zufall dazu führen, dass einzelne Allele aus der Population verschwinden. Zwei getrennte Populationen mit anfänglich gleichen Allelfrequenzen können daher durch zufällige Schwankungen in zwei unterschiedliche Populationen mit einem unterschiedlichen Satz von Allelen auseinanderdriften.
Ob natürliche Selektion oder Gendrift den größeren Einfluss auf das Schicksal neuer Mutationen haben, hängt von der Größe der Population und der Stärke der Selektion ab. Natürliche Selektion dominiert in großen Populationen, Gendrift in kleinen. Schließlich hängt die Zeit, die ein Allel benötigt, um in einer Population durch Gendrift eine feste Frequenz zu erreichen (bis also 0 % oder 100 % der Individuen der Population das Allel tragen), von der Populationsgröße ab; bei kleineren Populationen geschieht dies schneller.
Die Größe einer Population (genauer die effektive Populationsgröße) hat daher einen großen Einfluss auf den Verlauf der Evolution. Wenn eine Population beispielsweise durch einen genetischen Flaschenhals (eine vorübergehend sehr niedrige Populationsgröße) geht, verliert sie damit auch einen großen Teil ihrer genetischen Variabilität. Die Population wird insgesamt gleichartiger und verliert viele seltene Varianten. Solche „Flaschenhälse“ können durch Katastrophenereignisse, Klimaschwankungen, durch Wanderungen oder Teilung von Populationen sowie natürlich durch einen anthropogenen Belastungsdruck verursacht werden.
Entwicklung biologischer Komplexität
Ein wichtiges Ergebnis des Evolutionsprozesses ist die Entwicklung biologischer Komplexität.
Die Evolution hat einige bemerkenswert komplexe Organismen hervorgebracht. Allerdings ist ein numerischer Grad der Komplexität in der Biologie sehr schwer zu definieren oder zu messen. Als mögliche Messgrößen wurden beispielsweise Eigenschaften wie der Genomgröße, Anzahl der Gene, Anzahl der Zelltypen oder die Morphologie vorgeschlagen.
Normalerweise haben Organismen, die eine höhere Reproduktionsrate als ihre Konkurrenten haben, einen evolutionären Vorteil. Um sich schneller vermehren und mehr Nachkommen produzieren zu können, können sich Organismen in Richtung größerer Einfachheit entwickeln, da sie dann weniger Ressourcen zur Fortpflanzung benötigen. Ein gutes Beispiel sind Parasiten wie der Malariaerreger Plasmodium und Mykoplasmen – diese Organismen verzichten auf Eigenschaften, die durch den Parasitismus überflüssig geworden sind.
Eine Abstammungslinie kann auch Komplexität einbüßen, wenn ein bestimmtes komplexes Merkmal in der Umgebung einfach keinen Selektionsvorteil bietet. Selbst wenn der Verlust dieses Merkmals keinen Selektionsvorteil bedeutet, kann durch das Merkmal durch eine Anhäufung von Mutationen verloren gehen, wenn diese neutral sind (keinen unmittelbaren Selektionsnachteil bedeuten).
Gäbe es in der Evolution (wie im 19. Jahrhundert weithin angenommen) einen aktiven Trend zur Komplexität (Orthogenese), dann wären zu erwarten, dass der häufigste Wert (der Modus) der Komplexität unter den Organismen im Laufe der Zeit aktiv zunimmt.
Eine Zunahme der Komplexität kann aber auch durch einen passiven Prozess erklärt werden: Unter der Annahme,
dass sich die Komplexität rein zufällig ändert (ohne im teleologischen Sinn eine bestimmte Richtung zu bevorzugen) und
dass es eine Mindestkomplexität gibt,
nimmt die durchschnittliche Komplexität der Biosphäre im Laufe der Zeit zu.
Dies beinhaltet eine Zunahme der Varianz, aber der Modus ändert sich nicht.
Es gibt dann zwar auch eine Tendenz, dass im Laufe der Zeit einige Organismen mit immer höherer Komplexität entstehen, dies betrifft aber einen immer kleineren Prozentsatz der Lebewesen.
Einige wenige Lebewesen entwickeln sich gelegentlich nach rechts und verlängern so den rechten „Schwanz“ in der Komplexitätsverteilung. Einige bewegen sich auch nach links, stoßen aber ganz links schließlich an eine Grenze, die durch Minimalanforderungen des Lebens (siehe etwa Minimalgenom) gegeben ist.
Im passiven Fall ist jeder Anschein einer Evolution, die von sich aus (aktiv/teleologisch) zu immer komplexeren Organismen führt, darauf zurückzuführen, dass sich die Wahrnehmung des Menschen auf die wenigen großen, komplexen Organismen am rechten Ende der Komplexitätsverteilung (den Menschen selbst und andere „höhere“ Tiere und Pflanzen) konzentrieren und einfachere und viel häufigere Organismen ignorieren (vgl. Mikrobielle Dunkle Materie) – außer natürlich in der Frühzeit der Erde, als es nur Lebewesen mit einfacher Organisation gab. Das passive Modell sagt voraus, dass die Mehrheit der Arten mikroskopische Prokaryoten sind, was durch Schätzungen von 106 bis 109 rezenten Prokaryotenspezies im Vergleich zu Diversitätsschätzungen von 106 bis 3·106 für die Eukaryoten (komplex-zellulären Organismen: Protisten, Pflanzen, Pilz und Tiere – inkl. dem Menschen) bestätigt wird.
Die Prokaryoten (Bakterien und Archaeen) sind bis heute am häufigsten und erfolgreichsten geblieben, und der Modus hat seine bei diesen Organismen gelegene Position nicht mehr verändert.
Die von Stephen J. Gould et al. zunächst nur für zelluläre Organismen dargestellte Verteilung lässt sich im Übrigen auf der linken Seite noch ein Stück fortsetzen, indem man auch Viren in Betracht zieht. Die minimale Organisationsgröße („linke Mauer“) der Viren ist noch um einiges geringer als die der zellulären Organismen. Dies geschieht aber unter Preisgabe der Unabhängigkeit von Wirtsorganismen. Wichtig ist, dass die zu erwartende Vielfalt in diesem Bereich nochmals größer ist als bei den Prokaryoten. Der Modus der Verteilung verschiebt sich weiter nach links.
Rekonstruktion des Evolutionsablaufs
Die rekonstruierbaren Abläufe der irdischen Evolution – die Richtungen, die sie einschlug und die zeitlichen Einordnungen – sind auf Basis des Fossilberichts sowie der Analyse rezenter Muster und Prozesse rekonstruierbar. Die ehemals abgelaufenen Prozesse bezüglich Richtung, zeitlicher Einordnung und Evolutionsgeschwindigkeit sind umso sicherer rekonstruierbar, je mehr unabhängige Indizien beitragen können, das historische Geschehen zu erhellen. Grundsätzlich wird vom Aktualismus für den Ablauf geologischer und biologischer Prozesse der Vergangenheit ausgegangen, das heißt von der Annahme, dass die biologischen, ökologischen und geologischen Prozesse in der Vergangenheit nach den gleichen oder ähnlichen Prinzipien abgelaufen sind, wie sie heute beobachtet und gemessen werden können. Hierzu können auch Experimente durchgeführt werden, die bis zu einem gewissen Grad auf Prozesse in der Vergangenheit projiziert werden können.
Bei Formen, die keine oder fast keine Fossilien hinterlassen haben, wozu fast alle Prokaryoten sowie die Mehrzahl der eukaryotischen Einzeller gehören, daneben auch alle skelettfreien sonstigen Organismen, wie Würmer, Quallen, Nacktschnecken usw., können meist nur Vergleiche aus der rezenten (heutigen) Fauna oder Flora angestellt werden bei gleichzeitiger kritischer Plausibilitätsprüfung der daraus abgeleiteten Schlussfolgerungen. Hier werden die Rekonstruktionen der zurückliegenden Abläufe vor allem auf Basis der molekularen Ähnlichkeit nach dem Analyseverfahren der phylogenetischen Verwandtschaft vorgenommen. Das Prinzip der molekularen Uhr kann helfen, die Abzweigungspunkte der verschiedenen Verwandtschaftslinien (Kladen) ungefähr zu datieren. Auch Prozesse der Koevolution, beispielsweise die ehemalige Aufnahme von Bakterien in Archaeen-Zellen, die dort (vor vielleicht zwei Milliarden Jahren, Abschätzung schwierig) zu den Mitochondrien und zu den Chloroplasten als Endosymbionten einer eukaryotischen Zelle geworden sind, können praktisch nur aus rezenten Daten über molekulargenetische Ähnlichkeiten sowie Ähnlichkeiten im Stoffwechsel und in der Struktur der Endosymbionten erschlossen werden.
Am häufigsten sind skeletttragende Meeresformen als Fossilien zu finden, deutlich seltener Arten aus dem Festland von Binnengewässern (Flüssen, Seen). Sehr wenige Fossilien hat man üblicherweise aus Gebirgsregionen, aus Moor- und Quellgewässern sowie auch generell aus ehemaligen Trockenzonen der Erde, da eine Einbettung und ein Erhalt an solchen Stellen generell eher unwahrscheinlich ist.
Fossile Überlieferung
Hinweise auf den zeitlichen Rahmen der Evolutionsabläufe geben die Fossilien, die morphologisch untersucht werden können, aus denen aber vielfach auch biologisch-ökologische Eigenschaften, wie die besiedelten Lebensräume, Bewegungsweisen oder manchmal sogar das Sozialverhalten (z. B. wenn sie in Rudeln bzw. Schwärmen auftreten) ablesbar sein kann. Entsprechend der vertikalen Aufeinanderfolge fossilführender Gesteinsschichten lassen sich Gemeinschaften fossiler Lebewesen gemäß dem (Prinzip der Stratigraphie) in eine zeitliche Reihenfolge bringen. Während dies zunächst nur Informationen über das „relative Alter“ erbringt (welche Fossilien waren früher, welche später?), lässt sich mit Hilfe geeigneter radiometrischer Methoden in den Gesteinen und/oder den darin enthaltenen Fossilien eine Absolutdatierung vornehmen (Geochronologie).
Das Alter der Fossilien gibt Auskunft darüber, wann im Verlauf der Stammesgeschichte einzelner Gruppen sowie der Lebewesen insgesamt bestimmte Innovationen und Aufspaltungsereignisse (adaptive Radiationen) auftraten. Durch datierbare Fossilfunde ist zum Beispiel bekannt, dass (bis auf wenige Ausnahmen wie z. B. Cloudina) alle Gruppen skeletttragender Tiere in einem engen Zeitfenster im frühen bis mittleren Kambrium vor etwa 540 bis 500 Millionen Jahren erstmals auftraten. Wie weit dies durch biologische Innovationen hervorgerufen wurde oder wie weit sich die Umweltbedingungen derart änderten, dass nunmehr Skelettbildungen und -ablagerungen chemisch-physikalisch möglich wurden, ist weiterhin eine nicht abschließend geklärte Frage.
Fossile Übergangsformen (Mosaikformen und Missing Links) sind ein von Untersuchungen an rezenten Lebewesen unabhängiger Beweis für die Verwandtschaft zwischen systematischen Großgruppen. Berühmte Beispiele dafür sind „gefiederte Dinosaurier“, Archaeopteryx und die Vögel der Jehol-Gruppe als Übergangsformen von den nicht fliegenden Amnioten (umgangssprachlich „Reptilien“ bzw. – klassische – „Dinosaurier“, korrekt „Nicht-Vogel-Dinosaurier“ genannt, beides paraphyletische Einheiten) und den modernen Vögeln sowie Panderichthys, Tiktaalik und Ichthyostega als Übergangsformen zwischen Knochenfischen und Landwirbeltieren. Im günstigsten Fall ist der Übergang zwischen der ursprünglichen und der daraus abgeleiteten Gruppe durch eine Abfolge von Fossilfunden belegt, die mit abnehmendem Alter der neuen Gruppe morphologisch immer ähnlicher werden.
Evolutionäre Trends sind in vielen Fällen innerhalb systematischer Gruppen gut dokumentiert, so z. B. bei den pferdeartigen Säugetieren: Aus vielzehigen, fuchsgroßen, laubfressenden Formen im Alttertiär sind über mehrere Zwischenstufen die heutigen Pferde hervorgegangen.
Schließlich dokumentiert die fossile Überlieferung Ab- und Zunahmen in der Diversität systematischer Gruppen. Faunenschnitte sind Massenaussterben, bei denen in geologisch gesehen kurzen Zeiträumen die Zahl fossil überlieferter Taxa stark reduziert wurde und manche Großgruppen völlig verschwanden oder in ihrer Vielfalt stark abnahmen. Bekanntester, wenngleich nicht größter Faunenschnitt ist das weitgehende Aussterben der „Dinosaurier“ (mit Ausnahme der Gruppe der Vögel) und weiterer Großgruppen am Ende der Kreidezeit. Die freigewordenen ökologischen Nischen konnten in der Folgezeit im Rahmen einer Radiation durch die Säugetiere und die modernen Vögel eingenommen werden.
Ein Überblick über das Auftreten der Tier- und Pflanzenstämme wird unter Evolutionsgeschichte präsentiert.
Phylogenetische Systematik
Der Merkmalsvergleich der Organismen im Rahmen der biologischen Systematik zeigte, dass die Merkmale nicht in beliebigen Kombinationen auftreten, sondern in einem System abgestufter Ähnlichkeiten. Dabei lassen sich Merkmalsgruppen gegeneinander abgrenzen, anhand derer die rezenten Organismen in Gruppen (Taxa, Einzahl Taxon), zusammengefasst (klassifiziert) und hierarchisch geordnet werden können. Dass dies möglich ist, wurde von Darwin als starkes Indiz für eine gemeinsame Abstammung aller Lebewesen gewertet. Damit diese Gruppierungen (Systematisierungen) die tatsächlichen Verwandtschaftsverhältnisse wiedergeben (phylogenetische Systematik), wurde als zentrales Kriterium die Homologie von Merkmalen eingeführt, das heißt, dass die Ähnlichkeit nur dann einen Aussagewert hat, wenn die entsprechenden Merkmale oder Organe auf die gleichen ursprünglichen Merkmale zurückzuführen sind. Die teilweise durch ihre Sukkulenz ähnlich aussehenden Kakteen Amerikas und Wolfsmilchgewächse Afrikas zeigen analoge Bildungen. Ihre oft ähnliche Erscheinungsform ist kein Hinweis auf eine engere Verwandtschaft und Abstammung von einem gemeinsamen Vorfahren.
Ein Sonderfall homologer Merkmale sind morphologische Merkmale oder sogar Verhaltensweisen, die für ihre heutigen Träger keinen erkennbaren Zweck mehr erfüllen (Rudimente), beispielsweise die Reste des Hinterbeinskeletts bei Riesenschlangen und Walen. In beiden Fällen weisen diese Rudimente auf die Abstammung von vierbeinigen Tieren (Echsen bzw. Paarhufern) hin.
Reste früherer funktionierender Gene, die heute offensichtlich funktionslos sind, findet man im Genom beispielsweise bei manchen Pseudogenen.
Vergleichende Biogeographie
Die Verbreitung von Taxa liefert in vielen Fällen Hinweise für evolutionäre Entwicklungen. Viele Taxa haben geografische Verbreitungen, die allein durch die heutigen lokalen ökologischen Verhältnisse oder Anpassungen nicht zu erklären sind. Dies gilt insbesondere für Endemiten. Ein bekanntes Beispiel für Reliktendemiten sind die Lemuren, ein Taxon innerhalb der Feuchtnasenaffen. Lemuren waren im Tertiär in Nordamerika und Eurasien weit verbreitet, sind heute aber auf Madagaskar endemisch. Sie wurden von den später evolvierten und offensichtlich konkurrenzstärkeren Trockennasenaffen (Haplorhini) überall verdrängt und konnten sich nur auf Madagaskar halten, das aufgrund einer zwischenzeitlich erfolgten geographischen Isolation von Trockennasenaffen nicht besiedelt werden konnte.
Ebenso wichtig für die Evolutionsbiologie sind Entstehungsendemiten. Berühmtestes Beispiel sind hier die Darwinfinken (Familie Emberizidae) auf den Galapagosinseln, 965 km vor der Küste Ecuadors. Auf der Inselgruppe vulkanischen Ursprungs, deren älteste Insel vor fünf bis zehn Millionen Jahren entstand, entwickelten sich aus einer vom Festland verdrifteten Vorgängerart durch adaptive Radiation 14 verschiedene Arten in drei Gattungen. Dabei änderten sich vor allem die Schnabelform, das Federkleid und die Größe der Vögel. Charles Darwin sammelte die unterschiedlichen Arten 1836 auf seiner Weltreise.
Vergleichende Embryonalentwicklung
Karl Ernst von Baer hat als erster erkannt, dass frühe Entwicklungsstadien verwandter Organismen einander ähnlicher sind als die ausgewachsenen Individuen. Ernst Haeckel formulierte auf Basis dieser Erkenntnisse, dass die Ontogenese die Evolution (Phylogenese) eines Lebewesens rekapituliert (Biogenetische Grundregel). Diese Regel wird heute jedoch als zu starke Vereinfachung betrachtet. Wiederholt werden nicht die Adultstadien, sondern die frühen Embryonalstadien der jeweiligen Vorformen einer Art. Das kann dadurch erklärt werden, dass evolutionäre Neuentwicklungen immer auf bestehende Arten und damit auf bestehende Organsysteme aufbauen. Daher schließt die Entwicklung (die Ontogenese) des Individuums einer Art auch die vorher jeweils bereits vorhandenen Schritte mit ein.
Beispiele einer solchen Wiederholung sind das Auftreten eines Kiemendarms und von Kiemenspalten bei allen Wirbeltierembryonen. Dies belegt, dass alle heutigen Wirbeltiere von Fischen abstammen. Bartenwalembryonen bilden Zahnanlagen, während die adulten Individuen keine Zähne mehr haben, was darauf hinweist, dass sich die Bartenwale aus Zahnwalen entwickelt haben.
Öffentliche Wahrnehmung
Dass eine Evolution im Sinne eines evolutiven Artenwandels und im Zusammenhang mit regelmäßigen Aussterbeereignissen auftrat, wurde seit jeher von einzelnen Personen oder von einem mehr oder weniger großen Teil der Bevölkerung in Abrede gestellt, wobei es lediglich in der frühen Phase auch um wissenschaftliche Argumente ging. Überwiegend geht es um grundsätzliche Haltungen auf Basis eines völlig anders konzipierten Weltbildes, das häufig auch den Planeten Erde selbst als nur einige tausend Jahre alt betrachtete. Manchmal wurden Einzelaspekte, wie ein ein- oder mehrmaliges Massenaussterben, das dann als mit den religiös inspirierten Sintflutberichten in Einklang gebracht wird, akzeptiert, nicht aber andere Komponenten und Konsequenzen.
Wo das Prinzip der Evolution anerkannt wurde, wurden Teilaspekte davon in den letzten etwa 150 Jahren aber auch losgelöst von ethischen Prinzipien als Mandat und Maxime eines politischen Handelns in der menschlichen Gesellschaft interpretiert und gefordert. Besonders im Fokus stand das Konzept eines universellen und auch die menschlichen Gesellschaften und „Rassen“ umfassenden „Kampfes ums Überleben“, der aus dem Selektionsgedanken abgeleitet wurde und zur Haltung im Sozialdarwinismus führte. Eine besondere Bedeutung erlangte in diesem Zusammenhang auch die Idee der Eugenik, die ab dem letzten Viertel des 19. Jahrhunderts im angelsächsischen Bereich populär wurde und dort beispielsweise die Einwanderungspolitik mit bestimmte. Nach Übernahme der zugrunde liegenden Theorien und Ansichten auch in andere Staaten und in deren politische Führungen kam es vor allem in Deutschland zu den radikalsten und folgenschwersten Auswirkungen zur Zeit des Nationalsozialismus (1933–1945). Aufgrund des damit verbundenen Massenmordes wurde Evolution und die damit zusammenhängende Theorie längere Zeit speziell im deutschen Sprachraum wissenschaftlich überwiegend ausgeblendet und wenig bearbeitet. Wesentliche der modernen Forschungsentwicklungen fanden über Jahrzehnte nur noch im angelsächsischen Bereich statt.
Eine grundsätzliche Gegnerschaft des Prinzips einer Evolution irdischen Lebens, speziell soweit auch die Spezies bzw. Gattung Mensch selber samt ihren Eigenschaften, wie Bewusstsein und geistiger Kreativität, in die Betrachtung einbezogen werden, wurde längere Zeit und wird erneut seit einigen Jahrzehnten verstärkt von wissenschaftsskeptischen Bevölkerungsgruppen vertreten. Sie halten eine allein den Naturgesetzen unterworfene Entwicklung zu einem Wesen wie dem Menschen für entweder grundsätzlich unvereinbar mit ihrem Weltbild oder für so unwahrscheinlich, dass sie eine übergeordnete lenkende Instanz, einen Gott, postulieren, der entweder die Arten erschaffen hat oder mindestens den Ablaufprozess eingeleitet oder gelenkt hat. Diese fundamentale Kontroverse ist in Europa vor allem durch die Auswirkungen um den Streit über die Vermittlung der Evolutionstheorie im schulischen Biologieunterricht mancher US-Bundesstaaten bekannt geworden. Die entsprechenden Vertreter argumentieren häufig mit dem exakten Wortlaut der Schöpfungsgeschichte, wie sie im alten Testament formuliert ist und folgen ihm wortgenau. Diese Skepsis bezüglich der Ergebnisse der Evolutionstheorie wird als Kreationismus bezeichnet. Eine Spezialform des Kreationismus ist die US-amerikanische Intelligent-Design-Idee.
Die katholische Kirche äußerte sich wiederholt zur Evolutionstheorie, so Papst Pius XII. in seiner Enzyklika Humani generis, Papst Johannes Paul II. auf der Vollversammlung der Päpstlichen Akademie der Wissenschaften und Papst Benedikt XVI. in seiner Predigt zur Amtseinführung. Die Evolutionstheorie wird heute vom Vatikan als „vereinbar mit dem christlichen Glauben“ bezeichnet, siehe auch Theistische Evolution. Der Wiener Erzbischof und Kardinal Christoph Schönborn sprach sich mit dem Satz "Evolution kann wahr sein" für eine "große Koalition" von Biologie und Theologie aus. Das Bibelverständnis des Kreationismus sei nicht jenes der katholischen Kirche.
In der frühislamischen wissenschaftlichen Blütezeit sind, teilweise in Anlehnung an griechische Vorbilder, darunter namentlich Aristoteles, Tierbeschreibungen und auch Gedankengänge formuliert worden, die bereits an die evolutionsbiologischen Diskussionen des 19. Jahrhunderts erinnern, darunter „lamarckistische“ Umwelteinflüsse auf die Evolution, aber auch über einen „Kampf ums Dasein“ wurde spekuliert, was an Charles Darwin erinnert. Prominenter Vertreter war Al-Dschahiz im 9. Jahrhundert aus Basra im heutigen Südirak. Im derzeitigen, durch stark divergierende Strömungen gekennzeichneten Islam gibt es keine einheitliche Meinung darüber, ob und in welchem Maße Evolution mit der Religion vereinbar sei; eine evolutionsskeptische Haltung ist relativ weit verbreitet: Sowohl in der Türkei als auch in Indien wurde die Evolutionstheorie aus den Schullehrplänen entfernt. In etlichen islamisch geprägten Ländern ist eine große Mehrheit der Menschen auch davon überzeugt, dass sich die heutige Spezies Homo sapiens nicht evolutionär entwickelt hat, sondern statisch ist und von Gott (Allah) erschaffen wurde.
Die literaturtheoretische Schule des Russischen Formalismus griff um 1915 das Prinzip der biologischen Evolution auf, übertrug es auf die Literaturgeschichte und entwickelte das Konzept der Literarischen Evolution.
Literatur
Richard Dawkins: The Selfish Gene. Reissued in new covers. Oxford University Press, Oxford 1999, ISBN 0-19-286092-5 (dt.: Das egoistische Gen).
Douglas J. Futuyma, Mark Kirkpatrick: Evolution. 4. Auflage. Sinauer 2017, ISBN 978-1-60535-605-1.
Ulrich Kutschera: Evolutionsbiologie. 3. Auflage. Verlag Eugen Ulmer, Stuttgart 2008, ISBN 978-3-8252-8318-6.
Ernst Mayr: Artbegriff und Evolution. Parey-Verlag, Hamburg 1967.
Ernst Mayr: Das ist Evolution. Goldmann, München 2005, ISBN 3-442-15349-2.
Volker Storch, Ulrich Welsch, Michael Wink: Evolutionsbiologie. 3. Auflage. Springer Spektrum Verlag, Heidelberg 2013, ISBN 978-3-642-32835-0.
Weblinks
Evolutionsbiologie in Deutschland Umfassende Seite mit Literaturempfehlungen, Texten und weiteren Links
AG Evolutionsbiologie Internetbibliothek mit zahlreichen Texten und ausgewählter Fachliteratur zur Evolution sowie Literaturempfehlungen
Evolution – Zufall und Zwangsläufigkeit der Schöpfung Audiomitschnitte der öffentlichen Ringvorlesung an der Universität Göttingen im Wintersemester 2007/08
Henry Gee, Rory Howlett and Philip Campbell – 15 evolutionary gems (PDF; 357 kB) Artikel über 15 Fälle der aktuellen Forschung, die die Darwin’sche Evolutionstheorie belegen. nature, 2009. doi:10.1038/nature07740.
www.talkorigins.org Englischsprachige Sammlung der häufigsten Missverständnisse bezüglich der Evolutionstheorie und wie Wissenschaftler darauf antworten
Einzelnachweise
Historische Geologie
Paläontologie
|
Q1063
| 1,706.823373 |
128875
|
https://de.wikipedia.org/wiki/Wirbellose
|
Wirbellose
|
Wirbellose, Invertebrata (Evertebrata) sind die vielzelligen Tiere ohne Wirbelsäule, also alle Metazoa mit Ausnahme der Wirbeltiere (Vertebrata). Zu dieser informellen Gruppe (Formtaxon) von Lebewesen, die früher in der Wissenschaft auch als Niedere Tiere bezeichnet wurden, gehören die meisten bekannten Tierarten. Der Begriff „Wirbellose“ wurde im frühen 19. Jahrhundert von Jean-Baptiste de Lamarck in Abgrenzung zu den Wirbeltieren eingeführt.
Systematik
Die Wirbellosen sind keine natürliche Verwandtschaftsgruppe (Monophylum), der Ausdruck hat lediglich einen beschreibenden, nicht-systematischen Charakter.
Zu den Wirbellosen gehören zwei der drei Großgruppen (Unterstämme) der Chordatiere (Chordata) und alle Taxa der „Nicht-Chordaten“ im Tierreich.
Übersicht der Taxa (klassische Systematik)
Gewebelose (Parazoa)
Schwämme (Porifera)
Plattentiere (Placozoa)
Gewebetiere (Eumetazoa)
Radiärsymmetrische Tiere (Radiata)
Hohltiere (Coelenterata)
Rippenquallen (Ctenophora)
Nesseltiere (Cnidaria)
Bilateralsymmetrische Tiere (Bilateralia)
Urmünder (Protostomia)
Armfüßer (Brachiopoda)
Bärtierchen (Tardigrada)
Gliederfüßer (Arthropoda)
Igelwürmer oder Sternwürmer (Echiurida)
Kelchwürmer (Kamptozoa)
Moostierchen (Bryozoa)
Pfeilwürmer (Chaetognata)
Plattwürmer (Plathelminthes)
Ringelwürmer (Annelida)
Schlauchwürmer (Nemathelminthes)
Schnurwürmer (Nemertini)
Spritzwürmer (Sipunculida)
Weichtiere (Mollusca)
Neumünder (Deuterostomia, mit Ausnahme der Wirbeltiere)
Stachelhäuter (Echinodermata)
Kiemenlochtiere (Hemichordata)
Chordatiere (Chordata)
Manteltiere (Urochordata = Tunicata)
Schädellose (Cephalochordata = Acrania)
Siehe auch
Systematik des Tierreiches
Literatur
Wilfried Westheide, Reinhard Rieger (Hrsg.): Spezielle Zoologie. Teil 1: Einzeller und Wirbellose Tiere. Zweite Auflage. Spektrum Akademischer Verlag, 2006, ISBN 3-8274-1575-6.
Kühlmann, Kilias, Moritz, Rauschert: Wirbellose Tiere Europas. ISBN 3-7402-0087-1.
W. Lechthaler: Macrozoobenthos – Key to Families of Macroinvertebrates in European Freshwaters. Eutaxa-Eigenverlag, Wien 2009, ISBN 3-9501839-5-7.
Weblinks
Artenvielfalt: Zahl der Wirbellosen halbiert – In spektrum.de vom 25. Juli 2014
Wirbellosenzentrum, vivaristische Informationsseite über terrestrische Wirbellose
Einzelnachweise
Formtaxon
Alternatives Taxon (Zoologie)
|
Q43806
| 834.979428 |
4986955
|
https://de.wikipedia.org/wiki/%D0%9E
|
О
|
Das О (Minuskel о) ist ein Buchstabe des kyrillischen Alphabets. Im russischen Alphabet ist es der 16. Buchstabe. Dort steht das О zu Beginn eines Wortes und vor einem Konsonanten für den Laut . Aufgrund der Vokalreduktion (siehe russische Phonetik) kann das О in unbetonten Silben unterschiedliche Laute annehmen, wie etwa oder .
Der Buchstabe stammt vom Griechischen Omikron und findet auch in dem in weiten Teilen Europas üblichen Lateinischen Alphabet sein Gegenstück (siehe O). Alle drei Buchstaben sind von ihrem Äußeren her identisch.
Zeichenkodierung
Weblinks
О
|
Q178213
| 90.89522 |
31264
|
https://de.wikipedia.org/wiki/Shareware
|
Shareware
|
Shareware [] (vom englischen share für „teilen“ und ware für „Ware“ oder „Produkt“) ist eine Vertriebsform von Software, bei der die jeweilige Software vor dem Kauf getestet werden kann. Geprägt wurde die Bezeichnung von Bob Wallace, einem der ersten Mitarbeiter der US-amerikanischen Computerfirma Microsoft.
Üblicherweise ist es bei Shareware erlaubt, die Software in unveränderter Form beliebig zu kopieren oder zu verteilen, jedoch im Gegensatz zu Freeware mit einer Aufforderung, sich nach einem Testzeitraum (üblicherweise 30 Tage) beim Autor kostenpflichtig registrieren zu lassen. Dafür wird auch der Begriff Trialware verwendet (nach trial period, Testphase).
Verschiedene Arten von Shareware
Eine Art der Shareware-Bereitstellung besteht in der Freigabe einer kostenlosen Teilversion. Diese Teilversion verfügt über eine eingeschränkte Funktionalität (weswegen diese Form auch Crippleware genannt wird, zu deutsch etwa „verkrüppelte Software“), ist aber zeitlich uneingeschränkt nutzbar. Durch die Registrierung des Programms wird entweder der Download einer Vollversion möglich, oder die Teilversion wird durch Übertragung einer Seriennummer zu einer Vollversion.
Es gibt Shareware mit Nagscreen (dt. „Nörgelmeldung“), der den Benutzer zur noch fehlenden Registrierung drängt. Meist wird der Nörgelbildschirm unmittelbar nach dem Start des unregistrierten Programms angezeigt mit der Empfehlung, der Anwender möge das Programm nun doch registrieren.
Von der Shareware zu unterscheiden ist die Art der Demoversion, die nach Ablauf einer Probierzeit nicht mehr funktionsfähig ist. Die Bezeichnung „Trialversion“ kann eine Demo- oder eine zeitlich begrenzt nutzbare Sharewareversion bezeichnen.
Distribution
Shareware wird oft von den Herstellern auf ihrer Website zum Download oder bei Zeitschriften als kostenlose CD-Beigabe angeboten.
Im Handel, z. B. in großen Warenhäusern, befinden sich CDs (bzw. DVDs) mit Shareware-Sammlungen. Man erwirbt beim Kauf dieser Datenträger in der Regel jedoch nicht das Recht, die darauf befindliche Software zeitlich unbeschränkt zu nutzen. Bezahlt wird lediglich für den Service, dass die CD zusammengestellt und produziert wurde. Oft machen entsprechende Anbieter nicht im ausreichenden Maße auf diesen Umstand aufmerksam, so dass damit zu rechnen ist, dass nicht ausreichend informierte Verbraucher zu der Meinung gelangen, sie hätten mit dem Kaufpreis des Datenträgers auch die darauf befindliche Software erworben. Beispiele für bekannte Shareware-CDs sind Night Owl und Pegasus.
Ein weiterer wichtiger Vertriebsweg sind Sharewareverzeichnisse oder Downloadportale im Internet. Auf diesen Internetseiten hat man eine große Auswahl an Shareware, Freeware und Demosoftware und kann diese zum Testen herunterladen.
Abgrenzung
Lizenzformen, die mehr Freiheiten bei der Benutzung oder Verbreitung zulassen:
Freeware ist Software, die vom Autor ohne Entgelt zur Verfügung gestellt wird.
Donationware ist Freeware, bei der eine eventuelle Bezahlung dem Benutzer freigestellt bleibt.
Careware ist Software, deren Vertrieb einem gemeinnützigen Zweck dienen soll.
Cardware ist Software, für die der Autor als Gegenleistung eine Postkarte erwartet.
Beerware ist Software, für die der Autor als Belohnung, oftmals nur scherzhaft, bei Gelegenheit ein spendiertes Bier verlangt – ansonsten ist die Software zumeist gemeinfrei.
Freie Software erlaubt den Benutzern neben einer freien Weitergabe des Programms, seinen Quellcode einzusehen und zu verändern.
Copyleft ist die Bedingung, dass von einem Werk abgeleitete Werke mindestens die gleichen oder ähnliche Freiheiten gewähren müssen.
Gemeinfreiheit (public domain) bedeutet den völligen Verzicht des Urhebers auf seine Rechte (Hinweis auf die Gesetzeslage in Deutschland: siehe dort).
Weblinks
Association of Shareware Professionals
Einzelnachweise
Software-Lizenz
|
Q185534
| 174.487489 |
5321
|
https://de.wikipedia.org/wiki/UNESCO
|
UNESCO
|
Die UNESCO (von englisch United Nations Educational, Scientific and Cultural Organization), für Österreich und Schweiz Organisation der Vereinten Nationen für Erziehung, Wissenschaft und Kultur, in Deutschland Organisation der Vereinten Nationen für Bildung, Wissenschaft und Kultur, ist eine Internationale Organisation und gleichzeitig eine der 17 rechtlich selbstständigen Sonderorganisationen der Vereinten Nationen. Sie hat ihren Sitz in Paris (Frankreich). Seit der Rückkehr der USA im Sommer 2023 hat die UNESCO 194 Mitgliedsstaaten und 12 assoziierte Mitglieder (Stand Oktober 2023).
Aufgaben
Zu den Aufgabengebieten der UNESCO gehören die Förderung von Erziehung, Wissenschaft und Kultur sowie Kommunikation und Information. Ihr Gründungsvertrag wurde am 16. November 1945 von 37 Staaten in London unterzeichnet und trat am 4. November 1946 nach der Ratifikation durch 20 Staaten in Kraft. Erster Generaldirektor war Julian Huxley.
Aus den Erfahrungen des Zweiten Weltkrieges zogen die Gründungsstaaten die folgende Lehre:
Weiter aus der Präambel der Verfassung der UNESCO:
Erziehung
Im Bereich der Erziehung setzt sich die UNESCO vor allem dafür ein, bis zum Jahre 2015 weltweit Bildung für alle (Education For All, EFA) zu erreichen. Hierzu haben sich 164 Länder verpflichtet, sechs Bildungsziele zu erreichen. Auch die Gesundheitserziehung zur Drogen- und AIDS-Prävention sowie der Wiederaufbau des Bildungswesens in Katastrophen- und Krisengebieten gehören zum Wirkungsfeld. Die UNESCO setzt sich auch für eine demokratische Erziehung auf Basis der Menschenrechte ein.
Außerdem entwickelte die UNESCO mit der ISCED (International Standard Classification of Education) eine Klassifikation zur Charakterisierung von Schulsystemen.
Wichtiger Bestandteil der Arbeit der UNESCO ist die Organisation interregionaler und internationaler Konferenzen zum Thema Bildung/Erziehung wie etwa die Konferenz zur Erwachsenenbildung CONFINTEA.
Zum Aufgabenbereich der UNESCO gehören zudem das UNESCO-Schulprojekt und die UNESCO-Lehrstühle.
Die UNESCO koordinierte auch die UN-Dekade Bildung für nachhaltige Entwicklung (2005–2014).
Wissenschaften
Im wissenschaftlichen Bereich fördert die UNESCO vorrangig die zwischenstaatliche Zusammenarbeit in der Ozeanographie, Hydrologie, Geologie und Umweltwissenschaften mit dem Hauptziel des Erhalts der biologischen Arten und der Trinkwasserressourcen.
Die Folgen des wissenschaftlichen und technischen Fortschritts der Biowissenschaften haben den Bedarf an international übereinstimmenden Werten, Grundsätzen und Normen der Bioethik erhöht. Die UNESCO hat darauf reagiert und in den vergangenen Jahren drei völkerrechtlich nicht bindende Erklärungen im Bereich von Wissenschaft und Menschenrechten ausarbeiten lassen, die von der Generalkonferenz jeweils einstimmig verabschiedet wurden:
Allgemeine Erklärung über das menschliche Genom und Menschenrechte (1997)
Internationale Erklärung über humangenetische Daten (2003)
Allgemeine Erklärung über Bioethik und Menschenrechte (2005)
Kultur
Die UNESCO betraut die Haager Konvention zum Schutz von Kulturgut bei bewaffneten Konflikten von 1954, das wichtigste Werkzeug zur Bewahrung von Kulturgut, und die Konvention gegen illegalen Handel mit Kulturgut von 1970, das Werkzeug gegen Plünderung.
2001 entstand die Konvention zum Schutz des Kulturerbes unter Wasser, womit eine wichtige Lücke im geographischen Abdeckungsgebiet der Haager Konvention geschlossen wurde.
Das Welterbekomitee der UNESCO verwaltet das Welterbe der Menschheit (Welterbekonvention von 1972), welches eine besondere Auszeichnung mit Bewahrungspflicht darstellt. Es setzt sich aus dem Weltkultur- und Weltnaturerbe zusammen, womit die UNESCO ihre Agenden auch in den Bereich der Landschaften und Naturgebilde ausdehnte (entsprechend dem Begriff des Naturdenkmals). Hinsichtlich Kulturgüterschutz besteht eine enge Partnerschaft zwischen der UNESCO und Blue Shield International. Da bei vielen Kriegen und Unruhen die Bewegungsfreiheit des Vereinte-Nationen-Personals wegen Sicherheitsbedenken deutlich eingeschränkt ist, wird Blue Shield aufgrund seiner Struktur als besonders geeignet angesehen, um flexibel und autonom in bewaffneten Konflikten zu handeln. Das betrifft auch die Zusammenarbeit der UNESCO mit Blue Shield zur Erhebung von zu schützenden Kulturgut, die Erstellung von „No-strike lists“, die Verknüpfung ziviler und militärischer Strukturen und die Ausbildung von lokalem militärischen Personal hinsichtlich Schutz von Kulturgut.
Schon 1970 wurde das Programm Man and Biosphere (MAB) ins Leben gerufen, welches die enge Verflechtung von Kulturleistungen und Umwelt betont. Zu diesem Programm gehören auch die Biosphärenreservate als Modellregionen. Daher ist die UNESCO auch im Umwelt- und Naturschutz engagiert, in Folge des Programms entstanden wichtige weltweite Konventionen, etwa über die biologische Vielfalt (Biodiversität).
1982 wurde bei der UNESCO-Weltkulturkonferenz Mondiacult in Mexiko ein erneut „erweiterter Kulturbegriff“ festgeschrieben. Die 126 Teilnehmer-Staaten nahmen damit eine konzeptionelle Entwicklung zur Kenntnis; im Grunde ging es darum, den elitären, bildungsbürgerlichen Kulturbegriff und den europalastigen Fokus auf Kulturgut als Bauwerke und Werke der bildenden „Schönen Künste“ im musealen Sinne abzulösen.
2005 hat die UNESCO das Übereinkommen zum Schutz und zur Förderung der Vielfalt kultureller Ausdrucksformen verabschiedet – eine „Magna Charta“ der Kulturpolitik.
In diesen Kontext gehören auch das Weltdokumentenerbe im Rahmen des Programms Memory of the World (MOW) von 1992, das als „Gedächtnis der Welt“ auf die materiellen Zeugnisse bedeutender geistiger Kulturleistungen fokussiert (alte Handschriften, originale Urkunden, Bibliotheken u. ä.).
Im Oktober 2003 wurde die Konvention zur Erhaltung des immateriellen Kulturerbes verabschiedet. Das Übereinkommen trat am 20. April 2006 in Kraft. Schon das Vorgängerprogramm Meisterwerke des mündlichen und immateriellen Erbes der Menschheit schützte von 1997 bis 2006 mündliche Ausdrucksformen wie Mythen, Epen und Erzählungen, sowie darstellende Künste Musik, Tanz, Spiele, Bräuche, handwerkliche Fähigkeiten und andere künstlerische Ausdrucksformen, die sich nicht in einem materiellen Werkbegriff äußern.
Medienpolitik
Im Bereich „Kommunikation und Information“ setzt sich die UNESCO mit den Problemen der Informationsgesellschaft auseinander. Sie engagiert sich für die Pressefreiheit und den Informationszugang, indem sie unter anderem in Entwicklungsländern Medienkompetenz vermittelt, Journalisten ausbildet und Radiostationen bzw. Nachrichtenagenturen aufbaut.
Die UNESCO betreibt unter dem Kürzel EOLSS (Encyclopedia Life Support Systems) eine große wissenschaftliche Online-Enzyklopädie.
Geschichte
Vorgeschichte
Als Vorgängerinstitution gilt das dem Völkerbund angegliederte Institut International de Coopération Intellectuelle (IICI), das im Januar 1926 in Paris seine Arbeit aufnahm. Das IICI wiederum war ins Leben gerufen worden, weil die 1922 gegründete Commission International de Coopération Intellectuelle (CICI), der vierzehn Mitglieder, unter anderem Albert Einstein, Henri Bergson, Marie Curie und Gonzague de Reynold angehörten, als wenig schlagkräftig galt.
Das IICI wurde deshalb als Exekutivorgan der weiterhin bestehenden CICI gegründet und wurde vor allem von Frankreich unterstützt, das auch den überwiegenden Teil des Personals stellte und 80 Prozent der Kosten des Instituts trug. Hauptaufgaben des IICI waren Fragen des Urheberrechts und geistigen Eigentums sowie von Übersetzungen, der Statistik im Kulturbereich und der „moralischen Abrüstung“, das heißt, das IICI sollte komplementär zum Völkerbund wirken, dessen Hauptaufgabe die Friedenssicherung durch politische Maßnahmen, wie etwa Abrüstung und Streitschlichtung war, indem es die Friedensbereitschaft der Völker durch erzieherische und kulturelle Maßnahmen stärkte.
Seit 1942 führte der britische Erziehungsminister Lord Butler in London Gespräche mit Amtskollegen aus acht europäischen Exilregierungen. Ziel war der Wiederaufbau von Bildung und Kultur nach dem Ende des Zweiten Weltkrieges in Europa. Die Sowjetunion weigerte sich ausdrücklich, an den Beratungen teilzunehmen. Geplant waren zunächst bilaterale Verträge zwischen den beteiligten Staaten. Nachdem jedoch die Gründung der Vereinten Nationen beschlossen war, begann im Frühjahr 1944 der Kreis um Butler, eine ähnliche Struktur für Bildung und Kultur unter dem Dach der späteren UNO und mit Sitz in London zu entwickeln. Ein erster Entwurf für die UNESCO-Verfassung datiert auf den April 1944. Ab diesem Zeitpunkt beteiligten sich auch die Vereinigten Staaten an den Beratungen. Die europäischen Teilnehmer hofften auf US-Finanzhilfen für die Zeit nach dem Krieg. Auf amerikanischer Seite wollte man die UNESCO für die Gestaltung eines demokratischen Europa nach den eigenen Plänen nutzen.
Gründung und Anfänge
Am 16. November 1945 unterzeichneten in London 37 Staaten die Verfassung der UNESCO. Die von der Gründungskonferenz gebildete Vorbereitende Kommission bereitete im Anschluss die erste UNESCO-Generalkonferenz sowie die Entwürfe für Programm und Haushalt der Organisation vor.
Alfred Zimmern wurde am 3. Dezember 1945 zum ersten Generalsekretär gewählt. Im März 1946 trat Julian Huxley dessen Nachfolge an.
Am 4. November 1946 trat mit der Hinterlegung der 20. Ratifizierungsurkunde durch Griechenland die Verfassung der UNESCO offiziell in Kraft.
Im Jahr 1946 wurde der Sitz von London nach Paris verlegt. Neuer Sitz der Vorbereitenden Kommission wurde am 16. September 1946 das Hotel Majestic auf der Avenue Kléber. Das Londoner UNESCO-Büro wurde im April 1947 geschlossen. 1958 wurde der Neubau an der Place de Fontenoy fertiggestellt und ist seitdem Hauptsitz der UNESCO.
Deutschsprachige Länder
Luxemburg trat am 27. Oktober 1947 der UNESCO bei. Österreich folgte am 13. August 1948 als 40. Mitglied, vertreten durch die Ständige Vertretung Österreichs bei der UNESCO. Die Schweiz wurde am 18. Januar 1949 Mitglied. Am 11. Juli 1951 wurde die Bundesrepublik Deutschland Mitglied der UNESCO, vertreten durch die Ständige Vertretung der Bundesrepublik Deutschland bei der UNESCO; im November 1972 auch die Deutsche Demokratische Republik. Liechtenstein ist bis heute (Stand: 2017) zwar Mitglied der Vereinten Nationen, aber kein UNESCO-Mitgliedsstaat.
Zunahme der Zahl der Mitgliedsstaaten
Im Verlauf der Entkolonialisierung in den 1950er bis 1970er Jahren traten zahlreiche neu entstandene Staaten der UNESCO bei, so dass die Zahl der Mitgliedsstaaten von 59 im Jahr 1950 auf 99 (1960), 125 (1970), 153 (1980) und 159 (1990) anstieg. 1955 verließ die Südafrikanische Union – einer der Gründungsstaaten – die UNESCO, da diese zu einem „Forum für anti-südafrikanische Agitatoren geworden“ sei. Nach Ende des Apartheid-Regimes trat Südafrika 1994 wieder bei. Die Republik China, die ebenfalls zu den Gründungsstaaten gehörte, wurde 1971 infolge der Resolution 2758 der UN-Generalversammlung aus der UNESCO gedrängt und an ihrer Stelle die Volksrepublik China aufgenommen. Auch Portugal war zwischen 1972 und 1974, dem Jahr der Nelkenrevolution, nicht Mitglied. Nach dem Zerfall der Sowjetunion 1991 kamen 12 ehemalige Sowjetrepubliken hinzu, während Russland als Rechtsnachfolger der Sowjetunion fungierte.
Derzeit hat die UNESCO 193 Mitgliedsstaaten und 11 assoziierte Mitglieder (Stand November 2020).
Vorübergehender Austritt der Vereinigten Staaten und des Vereinigten Königreichs
Zwischen den Vereinigten Staaten und der UNESCO kam es mehrfach zu ernsthaften Differenzen. Im Jahr 1974 stellte der amerikanische Kongress auf Empfehlung des damaligen Präsidenten Gerald Ford die Zahlungen an die UNESCO vorübergehend ein, nachdem diese in einer Resolution die Palästinensische Befreiungsorganisation (PLO) anerkannt und den Staat Israel verurteilt hatte.
Am 29. Dezember 1983 leitete die Regierung Reagan das Ende ihrer UNESCO-Mitgliedschaft mit einem Schreiben an die Vereinten Nationen ein, am 19. Dezember 1984 verkündeten sie offiziell den Austritt der USA zum Jahresende. Zur Begründung hieß es, die UNESCO sei „linksgerichtet politisiert“ und ihre Finanzen seien völlig in Unordnung. Die Kritik fokussierte sich stark auf den damaligen Generalsekretär Amadou-Mahtar M'Bow, einen senegalesischen Muslim, dem ein geldverschwendendes Patronage-System vorgeworfen wurde. Zum Jahresende 1984 wurde der Austritt wirksam. Zum 31. Dezember 1985 verließ auch das Vereinigte Königreich (UK) unter Premierministerin Margaret Thatcher mit ähnlichen Argumenten und Bedenken wegen der befürchteten Einschränkung der Pressefreiheit durch die neue „Weltinformations- und -kommunikationsordnung“ die UNESCO, trat ihr im Jahr 1997 unter Premierminister Tony Blair aber wieder bei. Singapur trat zeitgleich mit Großbritannien aus und kehrte am 8. Oktober 2007 wieder in die UNESCO zurück.
Die USA (damals regiert vom Kabinett George W. Bush) trat im Jahr 2003 nach 19 Jahren der Abwesenheit der UNESCO wieder bei.
Streit um Palästina
Am 31. Oktober 2011 beschloss die UNESCO-Generalkonferenz mit 107 gegen 14 Stimmen bei 52 Enthaltungen Palästina als offizielles Mitglied aufzunehmen. Die 14 Gegenstimmen kamen von Australien, Deutschland, Israel, Kanada, Litauen, den Niederlanden, Palau, Panama, Samoa, den Salomonen, Schweden, der Tschechischen Republik, den Vereinigten Staaten und Vanuatu. Zu den Staaten, die sich enthielten, gehörten die Schweiz und das Vereinigte Königreich. Für die Aufnahme stimmten unter anderen Österreich, Frankreich, Russland, China und Indien. Danach reduzierten die Vereinigten Staaten, die zu diesem Zeitpunkt etwa ein Fünftel des UNESCO-Budgets finanzierten, ihre Beitragszahlungen zur UNESCO. Zur Begründung hieß es, dass die Aufnahme Palästinas „die internationalen Bemühungen um einen gerechten dauerhaften Frieden im Nahen Osten unterminieren würde.“ Wegen des Zahlungsboykotts verloren die USA und Israel im November 2013 ihr Stimmrecht. Für 2016–2017 betrug der reguläre UNESCO-Haushalt insgesamt 653 Millionen US-Dollar. Durch die Aussetzung der Beitragszahlungen der USA und Israels stand allerdings nur ein Ausgabenplan in Höhe von 518 Millionen US-Dollar zur Verfügung.
Austritt der USA und Israels
Am 18. Oktober 2016 verabschiedete die UNESCO auf Antrag arabischer Mitgliedsstaaten eine Resolution unter dem Titel „Sicherstellung des Kulturerbes Palästinas und des eigenständigen Charakters Ost-Jerusalems“, in der die Bedeutung der alten Stadt Jerusalem für die drei monotheistischen Religionen betont wurde. Allerdings wurde der Tempelberg nur mit seinem arabisch-islamischen Namen al-Haram al-Sharif bezeichnet, die viel älteren jüdischen Verbindungen und die Bezeichnung Zion blieben unerwähnt. Israel wurde außerdem wegen angeblicher Gewalt gegen islamische Pilger und wegen archäologischer Ausgrabungen kritisiert. Daraufhin stellte Israel seine Zusammenarbeit mit der UNESCO vorläufig ein.
Die Entscheidung der UNESCO vom 7. Juli 2017, die Altstadt von Hebron zum palästinensischen Weltkulturerbe zu erklären, führte zu Protesten der israelischen Diplomaten, weil die jüdischen Verbindungen zu Hebron (z. B. Beerdigungsort einiger Erzväter, antike Hauptstadt Israels vor Jerusalem) verschwiegen wurden. Am 12. Oktober 2017 erklärten zunächst die US-Regierung und Stunden später die israelische Regierung den Austritt aus der UNESCO zum 31. Dezember 2018. Als Anlass galt neben den bisherigen Unstimmigkeiten die mögliche Wahl des Katarers Hamad bin Abdulasis al-Kawari, dem Antisemitismus vorgeworfen wird, zum Generaldirektor der Organisation. Kawari unterlag dann im Exekutivrat in der Stichwahl der französischen Kandidatin Audrey Azoulay. Dem vorausgegangen war eine Kritik von US-Präsident Donald Trump, dass die Vereinten Nationen nicht die ihr gesetzten Ziele erreicht hätten. Trump kritisierte auch den nach seiner Ansicht überproportionalen Anteil der USA an den regulären Ausgaben der Vereinten Nationen (22 %) und an den Ausgaben für friedenserhaltende Maßnahmen (28 %). Auch kritisierten die USA, dass Diktatoren wie etwa der syrische Diktator Baschar al-Assad weiterhin in einem Menschenrechts-Ausschuss der UNESCO sitzen. Die USA streben stattdessen den Status eines permanenten Beobachters bei der UNESCO an, um weiterhin ihre Sichtweise und Expertise bei einigen wichtigen Aktivitäten der Organisation einzubringen. Ende Dezember 2017 reichte der israelische Ministerpräsident Benjamin Netanjahu den Austritt Israels aus der UNESCO formell ein, der zum 31. Dezember 2018 zusammen mit dem Austritt der USA wirksam wurde.
Im Juni 2023 kündigte die Regierung der Vereinigten Staaten ihren Wiederbeitritt zur UNESCO an, der im Juli 2023 auf der Grundlage eines konkreten Finanzierungsplans erfolgen soll. Audrey Azoulay bezeichnete diese Entscheidung als „starken Akt des Vertrauens in die UNESCO und den Multilateralismus“. Die Rückkehr der USA wurde durch eine Vereinbarung ermöglicht, die der US-Kongress im Dezember 2022 getroffen hatte, um finanzielle Beiträge an die UNESCO zu genehmigen. Die USA haben sich bereit erklärt, ausstehende Zahlungen in Höhe von rund 600 Millionen US-Dollar zu begleichen. Die US-Regierung begründete den Wunsch nach einem Wiedereintritt unter anderem mit der Notwendigkeit, Einfluss auf die Diskussion über Regeln und Standards für künstliche Intelligenz zu nehmen.
Generaldirektoren
Am 13. Oktober 2017 wurde die ehemalige französische Kulturministerin Audrey Azoulay mit 30 gegen 28 Stimmen durch den UNESCO-Exekutivrat zur künftigen Direktorin der UNESCO gewählt. Ihr Gegenkandidat war der katarische Diplomat Hamad bin Abdulasis al-Kawari. Die Wahl wurde am 10. November 2017 von der Generalkonferenz der 195 Mitgliedstaaten der UNESCO bestätigt. Am 15. November 2017 begann die Amtsperiode der neuen Generaldirektorin.
Organisationsstruktur der UNESCO
Organe der UNESCO sind die Generalkonferenz, der Exekutivrat und das Sekretariat, an dessen Spitze ein Generaldirektor steht.
Generalkonferenz
Die Generalkonferenz (General Conference) ist das oberste Entscheidungs- und Kontrollorgan der UNESCO. Sie tritt (seit 1954) alle zwei Jahre zu einer ordentlichen Tagung in Paris zusammen. Ein Staat – eine Stimme gilt als Grundsatz in der Generalkonferenz – ein Prinzip, das auch in der Mehrzahl der anderen Sonderorganisationen sowie der Generalversammlung der Vereinten Nationen Anwendung findet.
Die Generalkonferenz ist Entscheidungsträger, denn sie bestimmt die Zielsetzung und die allgemeinen Richtlinien der Arbeit der Organisation und beschließt über die ihr vom Exekutivrat vorgelegten Programme und hat das Budgetrecht. Die politische Zielsetzungen und die Arbeitsrichtlinien werden festgelegt, wobei ein vom Sekretariat in Abstimmung mit den Mitgliedsstaaten vorgelegtes zweijähriges Arbeitsprogramm als Diskussionsgrundlage dient.
Ferner beruft sie internationale Staatenkonferenzen ein, nimmt internationale Empfehlungen oder Übereinkommen an und erörtert die Berichte der Mitgliedstaaten an die Organisation über die Maßnahmen zur Umsetzung von Empfehlungen und Übereinkommen.
Die Generalkonferenz wählt auch die Mitglieder des Exekutivrates für eine vierjährige Amtszeit, der seit 1995 aus 58 Mitgliedern besteht und normalerweise zweimal jährlich zusammentritt.
Parallel zur Generalkonferenz tagt diese auch in wichtigen Komitees und Kommissionen:
General Committee (Koordinierung der Arbeit der Kommissionen etc.)
PRX Commission (Programm und Budget)
ED Commission (Bildung)
SC Commission (Naturwissenschaften)
SHS Commission (Sozial- und Geisteswissenschaften)
CLT Commission (Kultur)
CI Commission (Kommunikation und Information)
ADM Commission (Personalmanagement und Mittelverwendung)
Credentials Committee (Wahlberechtigung)
Nominations Committee (Wahlen)
Legal Committee (Rechtsfragen)
Plenum
Exekutivrat
Der Exekutivrat fungiert als Bindeglied zwischen Generalkonferenz und Sekretariat. Er ist für die Vorbereitungen der Tagesordnung der Generalkonferenz, die Prüfung des Arbeitsprogramms und des entsprechenden Haushaltsplans sowie für die Überwachung des vom Sekretariat verabschiedeten Arbeitsprogramms zuständig.
Hinsichtlich der Zusammensetzung des Exekutivrats ist im Laufe der letzten 50 Jahre eine zunehmende Verstaatlichung festzustellen. Bis 1954 galten die Mitglieder als Privatpersonen – gewählt als Vertreter des Geisteslebens, die im Auftrag der Generalkonferenz handeln sollten. Gemäß einem Vorschlag der Vereinigten Staaten und des Vereinigten Königreichs gelten die Vertreter nunmehr nicht mehr als unabhängig, sondern zugleich als Politiker, welche die Staaten vertreten, aus denen sie stammen. Seit 1976 können die Regierungen darüber hinaus ihre Vertreter vor dem Ablauf ihrer vierjährigen Amtszeit und unabhängig von deren Zustimmung abberufen und ersetzen lassen. Gewählt werden nach Artikel V Absatz 2 der UNESCO-Verfassung solche Persönlichkeiten, die über die notwendige Erfahrungen und Fähigkeiten verfügen, um die administrativen und exekutiven Pflichten des Rates zu erfüllen.
Vorsitzende des Exekutivrats
Sekretariat
Das Sekretariat ist in mehrere Abteilungen gegliedert. An seinem Hauptsitz in Paris arbeiten derzeit rund 2100 Mitarbeiter aus etwa 170 Nationen. Weitere 700 Mitarbeiter sind in den 65 Außenstellen in aller Welt tätig.
Das Sekretariat wird von einem Generaldirektor geleitet, der auf Vorschlag des Exekutivrats von der Generalkonferenz für eine Amtszeit von vier Jahren gewählt wird. Der Direktor nimmt an den Sitzungen der Generalkonferenz, des Exekutivrates und der Ausschüsse ohne Stimmrecht teil und erstellt Berichte über die Tätigkeit der Organisation.
UNESCO-Regionen
Die UNESCO ordnet ihre Mitgliedsstaaten fünf Regionen zu:
Afrika
Arabische Staaten
Asien und Pazifik
Europa und Nordamerika
Lateinamerika und Karibik
Auch wenn diese Regionen die Bezeichnung von Kontinenten im Namen tragen, sind sie nicht rein geografisch orientiert, sondern richten sich auch nach kulturellen Gesichtspunkten. So können Staaten einer UNESCO-Region zugeordnet sein, die nach einem anderen Kontinent benannt ist als dem, in dem sie geographisch liegen (Beispiel Israel: geographisch Asien, UNESCO-Region Europa und Nordamerika). Auch Staaten, die Gebiete auf mehr als einem Kontinent haben, werden als ganze einer UNESCO-Region zugeordnet (Beispiel Russland: mitsamt seinem asiatischen Teil ganz der UNESCO-Region Europa und Nordamerika zugeordnet, ebenso z. B. Frankreich mit allen Überseegebieten).
Nationalkommissionen
Die UNESCO-Nationalkommissionen sind keine Organe der UNESCO, jedoch bereits von der UNESCO-Verfassung vorgesehene Stellen in jedem Mitgliedsstaat. Die Staaten sollen ihre „mit Fragen der Erziehung, Wissenschaft und Kultur befassten maßgeblichen Institutionen mit der Arbeit der UNESCO in Verbindung bringen, vorzugsweise durch Bildung einer Nationalkommission, in der die Regierung und die betreffenden Institutionen vertreten sind.“ Nationalkommissionen existieren in allen Mitgliedstaaten, so auch in Deutschland (Deutsche UNESCO-Kommission), Österreich (Österreichische UNESCO-Kommission) und der Schweiz (Schweizerische UNESCO-Kommission).
Partnerorganisationen
Internationales Komitee vom Roten Kreuz (IKRK)
Blue Shield International (BSI)
International Council of Museums (ICOM)
International Council on Monuments and Sites (ICOMOS)
International Institute of Humanitarian Law (IIHL)
Einrichtungen, Initiativen, Förderprogramme
UNESCO-Club
Zwischenstaatliche Ozeanographische Kommission (IOC) in Paris
Zwischenstaatliches Komitee zur Förderung der Rückgabe von Kulturgut an seine Herkunftsländer oder seine Rückgabe im Falle einer unerlaubten Aneignung (PRCP)
Zwischenstaatlicher Rat für das Management des gesellschaftlichen Wandels (MOST) Programme
Internationales Programm zur Entwicklung der Kommunikation (IPDC) in Paris
Internationales Hydrologisches Programm (IHP) in Paris
Programm Der Mensch und die Biosphäre (MAB) (und Biosphärenreservate)
Internationale Ausschuss für Bioethik (IBC)
Zwischenstaatlicher Ausschuss für Bioethik (IGBC)
Zwischenstaatlicher Ausschuss für Sport und die Förderung der Leibeserziehung (CIGEPS)
Zahlreiche Gedenk- und Aktionstage: Welterbetag, Weltalphabetisierungstag, Welttag für kulturelle Entwicklung, Welttag des audiovisuellen Erbes, Welttag der Wissenschaft, Welttag des Buches und des Urheberrechts, Welttag des geistigen Eigentums, Welttag der Philosophie, Weltlehrertag, Welttag der Poesie, Welttag des Tanzes, Welttag der Feuchtgebiete, Weltmusiktag, Welttag des Radios, Internationaler Tag der Muttersprache, Internationaler Tag des Jazz, Internationaler Tag der Mathematik, Internationaler Denkmaltag usw.
Institute und Zentren
Internationales Zentrum für Theoretische Physik (ICTP) im Schloss Miramare bei Triest
Institut für Wasser-Ausbildung (UNESCO-IHE) in Delft
Internationales Zentrum für Berufsbildung der UNESCO (UNESCO-UNEVOC) in Bonn
Internationales Büro für Bildung (IBE-UNESCO) in Genf
UNESCO-Institut für Lebenslanges Lernen (UIL) in Hamburg
Internationales Zentrum für Wasserressourcen und Globalen Wandel (ICWRGC) in Koblenz
Internationales Institut für Erziehungsplanung (IIEP-UNESCO) in Paris und Buenos Aires
Internationales Institut für Informationstechnologie in der Bildung (IITE-UNESCO) in Moskau
Internationales Institut für die Leistungsfähigkeit Afrikas (IICBA-UNESCO) in Addis Abeba
Internationales Institut für Hochschulbildung in Lateinamerika und in der Karibik (IESALC-UNESCO) in Caracas
Institut für Statistik (UIS) in Montreal
Europäisches Zentrum für die Hochschulbildung (CEPES) in Bukarest
UNESCO-Lehrstuhl (UNESCO Chairs)
UNESCO-Lehrstuhl für Telemedizin (UNES_CT)
UNESCO-Projektschule
Preise
Siehe auch
Immaterielles Kulturerbe
Liste des UNESCO-Welterbes
Liste des Weltdokumentenerbes
Liste der UNESCO Global Geoparks
Liste der Biosphärenreservate
Liste des dringend erhaltungsbedürftigen immateriellen Kulturerbes
Repräsentative Liste des immateriellen Kulturerbes der Menschheit
Register guter Praxisbeispiele
Dokumentarfilme
Literatur
Angelika Hüfner, Hans Krönner (Hrsg.): Kultur des Friedens – Ein Beitrag zum Bildungsauftrag der UNESCO. Berliner Komitee für UNESCO-Arbeit e. V., Berlin 2017 (PDF; 8,79 MB).
Klaus Hüfner, Wolfgang Reuther (Hrsg.): UNESCO-Handbuch. Luchterhand, Neuwied/Kriftel/Berlin 1996, ISBN 3-472-02489-5 (2. Auflage: UNO-Verlag, Bonn 2005, ISBN 978-3-923904-60-0).
Klaus Hüfner: UNESCO – Organisation der Vereinten Nationen für Erziehung, Wissenschaft und Kultur. In: Helmut Volger (Hrsg.): Lexikon der Vereinten Nationen. Oldenbourg Wissenschaftsverlag, München, Wien 2000, ISBN 978-3-486-24795-4, S. 553–556.
Klaus Hüfner: UNESCO und Menschenrechte. (= Politikwissenschaft. Band 3). Frank & Timme, Berlin 2007, ISBN 978-3-86596-066-5.
Klaus Hüfner: Wer rettet die UNESCO? (= Politikwissenschaft. Band 6). Frank & Timme, Berlin 2013, ISBN 978-3-86596-544-8.
Hans-Heinz Krill: Die Gründung der UNESCO. In: Vierteljahrshefte für Zeitgeschichte. Jahrgang 16 (1968), Heft 3, S. 247–279 (PDF; 1,54 MB).
Christina Lembrecht: Bücher für alle. Die UNESCO und die weltweite Förderung des Buches 1946–1982. (= Archiv für Geschichte des Buchwesens. Band 9). De Gruyter, Berlin 2013, ISBN 978-3-11-030311-7.
Patrice Vermeren: Die Philosophie und die UNESCO. (= Philosophie und Transkulturalität. Band 14). Lang, Berlin u. a. 2011, ISBN 978-3-631-61620-8.
Philipp Winkler: Standard-setting in der UNESCO. In: NVwZ-Extra (12/2009). 28. Jahrgang. C.H. Beck, München 2009, , S. 1–6 (PDF; 105 kB).
Weblinks
Offizielle Website der UNESCO
Websites der nationalen UNESCO-Kommissionen von Deutschland, Österreich und der Schweiz
Verfassung der Organisation für Bildung, Wissenschaft und Kultur (UNESCO) In: UNESCO.de
Geschichte der UNESCO – eine Chronik. In: UNESCO.de
Vor 75 Jahren: Gründung der UNESCO – Bildung für alle. In: bpb.de, 13. November 2020
Einzelnachweise
UN-Programm
UN-Sonderorganisation
Organisation (Kultur)
Internationale Organisation (Völkerrecht)
Internationale Organisation (Paris)
Kinderrechte
Abkürzung
Gegründet 1945
Organisation als Namensgeber für einen Asteroiden
|
Q7809
| 2,740.260791 |
543711
|
https://de.wikipedia.org/wiki/Nachtschattenartige
|
Nachtschattenartige
|
Die Nachtschattenartigen (Solanales) sind eine Ordnung der Bedecktsamigen Pflanzen (Magnoliopsida).
Hier sind fünf Familien eingeordnet; die wichtigsten Familien sind die Nachtschattengewächse (Solanaceae) und die Windengewächse (Convolvulaceae).
Beschreibung
Es gibt sowohl verholzende als auch krautige Pflanzen. Die Laubblätter sind meist wechselständig. Die Blüten sind meist radiärsymmetrisch, Zygomorphie ist die Ausnahme bei wenigen Taxa. Die Kelchblätter sind auch noch auf den reifen Früchten vorhanden.
Bei vielen Taxa kommen Alkaloide vor, darunter oft Tropan-Alkaloide.
Familien
Die Solanales sind innerhalb der Euasteriden I die Schwestergruppe der Lamiales. Sie umfassen folgende Familien:
Windengewächse (Convolvulaceae)
Hydroleaceae
Montiniaceae
Nachtschattengewächse (Solanaceae)
Sphenocleaceae
Einzelnachweise
Weblinks
|
Q21723
| 168.000865 |
11786
|
https://de.wikipedia.org/wiki/Lichtmikroskop
|
Lichtmikroskop
|
Lichtmikroskope (von griechisch μικρόν micrón „klein“, und σκοπεῖν skopein„etwas ansehen“) sind Mikroskope, die stark vergrößerte Bilder von kleinen Strukturen oder Objekten mit Hilfe von Licht erzeugen. Die Vergrößerung erfolgt gemäß den Gesetzen der Optik unter Ausnutzung von Lichtbrechung an Glaslinsen.
Um im erzeugten Bild Strukturen erkennen zu können, muss das Bild ausreichend Kontrast enthalten, der in vielen biologischen Objekten wie z. B. Gewebeschnitten oder kleinen Wasserlebewesen kaum vorhanden ist. Das ‚typische‘ mikroskopische Verfahren für solche Objekte ist die Hellfeldmikroskopie, bei der Kontrast durch farbige oder dunkle Strukturen im durchleuchteten Präparat hervorgerufen wird, bei Bedarf verstärkt durch zusätzliche künstliche Färbung des Objektes. Bei farblosen Präparaten kann Kontrast auch mit speziellen Beleuchtungsverfahren hervorgerufen werden, indem Unterschiede in der optischen Dichte (Brechungsindex) in Helligkeitsunterschiede umgewandelt werden. Dies geschieht bei Dunkelfeldmikroskopie, Phasenkontrastmikroskopie und bei Differentialinterferenzkontrast (DIC) oder bei dem bereits in den Anfängen der Mikroskopie verwendeten Verfahren mit schiefer Beleuchtung. Unterschiede im Polarisationsverhalten des Präparats werden bei der Polarisationsmikroskopie genutzt. Fluoreszente Strukturen im Präparat sind Voraussetzung für die Fluoreszenzmikroskopie und ihre zahlreichen Spezialverfahren. Weitere mikroskopische Verfahren sind die Konfokalmikroskopie und die Multiphotonenmikroskopie. All diese Verfahren sind in ihren eigenen Artikeln behandelt. Der Artikel hier stellt gemeinsame Grundlagen verschiedener mikroskopischer Verfahren dar.
Funktionsweise von einfachen und zusammengesetzten Mikroskopen
Lichtmikroskopie kann mit „einfachen“ oder mit „zusammengesetzten“ Mikroskopen durchgeführt werden. Heutige Mikroskope sind typischerweise „zusammengesetzte Mikroskope“.
Einfache Mikroskope
Einfache Mikroskope besitzen nur ein einzelnes optisches System zur Vergrößerung und funktionieren wie eine Lupe (zum Prinzip der Vergrößerung siehe dort). Ursprünglich verwendete man dazu nur eine einzelne Glaslinse. Um die für Mikroskope typische starke Vergrößerung zu erreichen, benötigt man eine sehr kurze Brennweite. Wegen der damit verbundenen starken Krümmung der Linsenoberfläche muss die Linse einen kleinen Durchmesser im Millimeterbereich haben. Sie muss mit entsprechend geringem Abstand dicht vor das Auge gehalten werden, was anstrengend ist und zur geringen allgemeinen Verbreitung dieser Mikroskope führte. Im einfachsten Fall bestand ein einfaches Mikroskop nur aus einer Glaslinse und einer Halterung für diese.
Die bekanntesten dürften jene von Antoni van Leeuwenhoek gebauten Geräte sein, mit denen eine mehr als 200-fache Vergrößerung erreicht wird. Damit gelangen ihm Ende des 17. Jahrhunderts zahlreiche wissenschaftliche Entdeckungen. Der in der Abbildung dargestellte Nachbau eines solchen Mikroskops wird mit der Seite, die auf der Unterlage liegt, dicht vor das Auge gehalten. Rechts im Bild ist am Ende einer Raute eine Spitze zu sehen, auf die das Präparat montiert wurde und mit der Spitze mittels eines Schraubgewindes in Position gebracht wurde. Darunter ist die Glaslinse in die Metallplatte eingelassen.
Im Laufe der Zeit wurden zahlreiche Varianten einfacher Mikroskope entwickelt wie z. B. das „Flohglas“, das Zirkelmikroskop, einfache Screw-barrel-Mikroskope, klassische Präpariermikroskope und die so genannten botanischen Mikroskope. Auf der Suche nach besserer Abbildungsqualität verwendete man im 19. Jahrhundert auch Edelsteinlinsen wegen ihres hohen Brechungsindex und damit geringerer sphärischer Aberration oder eine Kombination aus zwei oder drei Plankonvexlinsen (Doublet, Triplet), ebenfalls zur Verringerung von Abbildungsfehlern. Es gab auch einfache Mikroskope mit kombinierbaren Einzellinsen mit Schraubfassung zur Änderung der Vergrößerung. Solche einfachen Mikroskope wurden noch bis Ende des 19. Jahrhunderts angeboten. Zum Beispiel stellte Zeiss nach Firmengründung in Jena ab den 1850er Jahren Doublets bis 125facher Vergrößerung und Triplets bis 300facher Vergrößerung her, 1895 noch ein Doublet 70fach.
Da ein einfaches Mikroskop mit hoher Vergrößerung dicht vor das Auge gehalten werden muss, ist eine Beleuchtung des Präparats meist nur von der Rückseite möglich. Es wird dabei also in der Regel mit Durchlicht-Beleuchtung gearbeitet. Es gab aber seit der Erfindung eines die Linse umschließenden, zum Objekt gerichteten Beleuchtungs-Hohlspiegels durch Johann Lieberkühn (1740) auch die Möglichkeit der Auflichtbeleuchtung. Die geringer vergrößernden damaligen einfachen "Naturforschermikroskope" waren meist Auflichtmikroskope.
Zweistufige Vergrößerung beim zusammengesetzten Mikroskop
Zusammengesetzte Mikroskope bestehen aus mindestens zwei hintereinander geschalteten optischen Systemen mit jeweils eigener Vergrößerung. Das vordere, das Objektiv, erzeugt ein vergrößertes reelles Bild, das Zwischenbild, welches vom Okular ein zweites Mal vergrößert wird. Das Okular funktioniert dabei wie eine Lupe und erzeugt ein virtuelles Abbild des Zwischenbildes. Die Gesamtvergrößerung des Mikroskops ist das Produkt aus Objektivvergrößerung und Okularvergrößerung. Bei einem 20x Objektiv und einem 10x Okular beträgt die Gesamtvergrößerung also 200x.
Die ersten zusammengesetzten Mikroskope bestanden aus nur zwei Einzellinsen, sehr bald wurde das Okular zur Vergrößerung des nutzbaren Bildfeldes und Verringerung der Abbildungsfehler aus zwei Linsen zusammengesetzt (z. B. Huygens-Okular). In modernen Mikroskopen bestehen Objektive und Okulare aus mehreren Linsen, um verschiedene optische Abbildungsfehler auszugleichen. Hier ist etwa die chromatische Aberration zu nennen, die erst im 19. Jahrhundert durch Einführung neuer Glassorten begrenzt werden konnte. Da sich die Abbildungsfehler von Objektiv und Okular multiplizieren, waren zusammengesetzte Mikroskope den einfachen Mikroskopen zunächst unterlegen. Die Objektive und Okulare sind in der Regel wechselbar, so dass die Vergrößerung der jeweiligen Aufgabenstellung angepasst wird.
Bauweisen von zusammengesetzten Mikroskopen
Durchlicht- oder Auflichtmikroskopie
Je nachdem von welcher Seite das Licht auf das Präparat fällt, wird zwischen Auflicht- und Durchlicht-Beleuchtung beziehungsweise zwischen Auflicht- und Durchlichtmikroskopie unterschieden.
Bei der Durchlichtmikroskopie wird die Beleuchtung von hinten durch das Präparat hindurchgeleitet, bevor es vom Objektiv des Mikroskops aufgefangen wird (orange Pfeile in der Schemazeichnung). Daher sind durchsichtige oder dünn geschnittene Präparate erforderlich. Diese Technik wird beim häufigsten mikroskopischen Verfahren angewendet, der Durchlicht-Hellfeldmikroskopie.
Bei der Auflichtmikroskopie wird das Licht entweder vom Mikroskop kommend durch das Objektiv auf das Präparat geleitet (hellblaue Pfeile) oder von der Seite eingestrahlt (grüner Pfeil). Das vom Präparat reflektierte Licht wird wiederum vom Objektiv aufgefangen. Auflichtmikroskopie ist auch mit undurchsichtigen Präparaten möglich. Solche Präparate sind etwa in den Materialwissenschaften häufig, wo Probestücke eines Materials geschliffene und polierte oder auch angeätzte Oberflächen erhalten, die dann mikroskopisch untersucht werden. Auflichtbeleuchtung durch das Objektiv ist auch bei der Fluoreszenzmikroskopie weit verbreitet. Stereomikroskope arbeiten meist mit seitlicher Auflichtbeleuchtung.
Eine seitliche Beleuchtung (magenta-farbener Pfeil) wurde oder wird bei manchen Spezialverfahren verwendet (siehe Spaltultramikroskop und Lichtscheibenmikroskopie).
Aufbau eines typischen zusammengesetzten Durchlicht-Mikroskops
Die Baugruppen eines typischen Durchlicht-Mikroskops wirken wie folgt zusammen:
Das Objektiv (B) erzeugt ein reelles Bild, das Zwischenbild. Moderne Mikroskope sind meist mit mehreren Objektiven ausgestattet, die in einen Objektivrevolver montiert sind. Dies ermöglicht den schnellen Objektivwechsel durch Drehen des Revolvers.
Das Zwischenbild wird vom Okular (A) ein weiteres Mal vergrößert. Die Zwischenbildebene liegt typischerweise innerhalb des Okulars. Die Gesamt-Vergrößerung des Mikroskops errechnet sich durch Multiplikation der Vergrößerungen von Objektiv und Okular. Viele Okulare haben eine 10-fache (10×) Vergrößerung. Häufige Objektiv-Vergrößerungen liegen zwischen 10× und 100×.
Die Röhre zwischen Objektiv und Okular wird als Tubus bezeichnet.
Das Präparat (auch: Objekt) ist bei Durchlicht-Mikroskopen üblicherweise auf dem gläsernen Objektträger (C) aufgebracht. Der Objektträger wird am Objekttisch (E) befestigt.
Damit das von unten kommende Licht das Objekt optimal ausleuchtet, haben Durchlicht-Mikroskope ein gesondertes Linsensystem, den Kondensor (D). Dieser ist am Objekttisch befestigt.
Der Objekttisch kann zum Scharfstellen des Objekts auf und ab bewegt werden. Der Kondensor wird dabei mitbewegt.
Als Lichtquelle alter und sehr einfacher neuer Mikroskope dient ein Spiegel (F). Sonst wird eine elektrische Lichtquelle eingesetzt.
Die Beleuchtung des Präparats kann mittels kritischer Beleuchtung oder Köhlerscher Beleuchtung erfolgen (s. u.).
Tubuslänge, Endlichoptik und Unendlichoptik
Die Objektive von älteren oder kleineren Mikroskopen sind angepasst an eine definierte Tubuslänge und erzeugen in einem genau definierten Abstand ein reelles Zwischenbild, das dann durch die Okularoptik vergrößert wird. Die Hersteller einigten sich auf eine Tubuslänge von 160 mm, bei älteren Mikroskopen kann diese Tubuslänge abweichen. So fertigte die Firma Leitz/Wetzlar nach einem hauseigenen Standard von 170 mm.
Diese definierte Tubuslänge bringt allerdings einige Nachteile mit sich. So können optische Elemente und Baugruppen nicht einfach in den Strahlgang eingefügt werden, da z. B. einfach der Platz hierfür nicht ausreichte. Neuere Mikroskope sind daher mit einer sogenannten „Unendlichoptik“ ausgestattet. In diesem Fall erzeugt das Objektiv kein reelles Zwischenbild, sondern das Licht verlässt das Objektiv als unendliche parallele Strahlen, was einen „unendlich“ langen Tubus ermöglicht. Somit können in den Strahlengang beliebig viele Zwischenelemente wie Filter, Strahlteiler etc. eingefügt werden. Da aus den parallel verlaufenden Lichtstrahlen kein Bild entstehen kann, befindet sich am Ende von unendlich-Tuben eine Tubuslinse. Diese erzeugt aus den parallelen Lichtstrahlen ein reelles Zwischenbild, das dann wieder durch die Okularoptik vergrößert werden kann. Unendlich Optik-Objektive erkennt man in der Regel an dem aufgebrachten ∞ (Unendlichzeichen).
In Abgrenzung zur Unendlichoptik wird die klassische Optik mit fester Tubuslänge als „Endlichoptik“ bezeichnet. Auf entsprechenden Objektiven ist die Länge des vorgesehenen Tubus in Millimetern angegeben, etwa 160 oder 170.
Aufrechte und inverse (auch: umgekehrte) Mikroskope
Ein Mikroskop, bei dem sich das Objektiv oberhalb des Präparats befindet, wird als aufrechtes Mikroskop bezeichnet. Bei Durchlicht-Mikroskopen kommt das Licht dann von unten zum Präparat. Darüber ist das Objektiv, durch das das Licht nach oben zum Okular geht. Dies ist die häufigere Bauart.
Wird dieser Lichtweg umgekehrt, dann spricht man von einem inversen oder umgekehrten Mikroskop. Bei Durchlicht-Beleuchtung fällt das Licht hier von oben auf das Präparat, darunter befindet sich das Objektiv. Um ein bequemes Arbeiten zu ermöglichen, wird das Licht dann umgelenkt, so dass in die Okulare von oben hineingeschaut werden kann (siehe Abbildung).
Inverse Mikroskope werden beispielsweise zur Beobachtung von Zellkultur-Zellen eingesetzt, da sich die Zellen am Boden des Kulturgefäßes aufhalten. Der Abstand von den Zellen zum Objektiv wäre bei einem aufrechten Mikroskop zu groß.
Mikroskope mit dieser Bauform sind ein unerlässliches Instrument für Untersuchungen an lebenden Zellen in Kulturgefäßen (Zellkultur), z. B. in der Patch-Clamp-Technik, sowie bei Einsatz von Mikromanipulatoren, die von oben an das Präparat herangeführt werden.
Beleuchtung des Präparats
Um das Gesichtsfeld hell auszuleuchten, gibt es zwei verbreitete Beleuchtungsverfahren. Die kritische Beleuchtung ist die historisch ältere. Sie wird heute noch in manchen sehr einfachen Mikroskopen verwendet. Die von August Köhler entwickelte Köhlersche Beleuchtung erlaubt eine gleichmäßigere Beleuchtung des Präparats. Sie ist heute Standard in Routine- und Forschungsmikroskopen. Durchlicht-Hellfeldmikroskopie mit Köhlerscher Beleuchtung ist typischerweise der Ausgangspunkt für die Anwendung von speziellen lichtmikroskopischen Kontrastverfahren wie Phasenkontrast und Differentialinterferenzkontrast. Beide Beleuchtungsmethoden wurden ursprünglich für Durchlicht-Hellfeldmikroskopie entwickelt, werden aber auch in anderen Verfahren verwendet, wie der Fluoreszenzmikroskopie.
Kritische Beleuchtung
Bei der kritischen Beleuchtung wird ein verkleinertes Abbild der Lichtquelle in der Präparateebene erzeugt. Wenn als Lichtquelle eine Glühlampe verwendet wird, wird also die Glühwendel mit Hilfe des Kondensors in der Schärfeebene abgebildet. Dadurch ist sichergestellt, dass das Präparat mit der maximal möglichen Helligkeit beleuchtet wird.
Die Brennweite eines Mikroskopkondensors ist meist ziemlich kurz. Um ein Bild der Lichtquelle in der Schärfeebene des Mikroskops erzeugen zu können, muss erstens der Kondensor dicht am Präparat positioniert sein. Zweitens muss die Lichtquelle vergleichsweise weit vom Kondensor entfernt sein, so dass sie deutlich vor seiner vorderen Brennebene liegt.
Um zu verhindern, dass das Bild der Glühwendel die Erkennung von Präparatstrukturen erschwert, wird unterhalb des Kondensors ein Mattglas-Filter in den Beleuchtungsstrahlengang gelegt. Sollte dies nicht ausreichend sein, kann der Kondensor etwas abgesenkt werden, so dass das Bild der Glühwendel unscharf wird.
Wenn zur Beleuchtung keine Lampe, sondern ein Spiegel für Tageslicht eingesetzt wird, ist dieser meist auf einer Seite plan und auf der anderen Seite hohl. Der Hohlspiegel kann für Objektive mit geringer Vergrößerung eingesetzt werden, wenn der Kondensor entfernt wurde. Bei höheren Vergrößerungen muss die Beleuchtung auf einen kleineren Bereich des Präparats kondensiert werden. Dies geschieht mit dem Kondensor unter Verwendung des Planspiegels. Mit Tageslichtbeleuchtung kann es bei kritischer Beleuchtung zur Abbildung von Strukturen aus der Umgebung wie Fensterrahmen kommen. Auch hier hilft ein Mattglas-Filter unter dem Kondensor oder eine Kondensor-Absenkung.
Köhlersche Beleuchtung
August Köhler beschäftigte sich Ende des 19. Jahrhunderts mit der Mikrofotografie, also der Fotografie mit Hilfe eines Mikroskops. Bei direkter Beobachtung durch das Okular war die ungleichmäßige Helligkeit des Gesichtsfeldes bei kritischer Beleuchtung vergleichsweise wenig störend, da das Präparat je nach Bedarf hin und her verschoben werden konnte. Bei der Mikrofotografie führte eine ungleichmäßige Ausleuchtung jedoch zu einer schlechten Bildqualität. Er entwickelte daher ein Verfahren, das eine gleichmäßige Helligkeit bei gleich hoher Gesamthelligkeit erlaubte. Er veröffentlichte dieses Verfahren, das heute nach ihm benannt ist, 1893. Der Vorgang des Einstellens der Köhlerschen Beleuchtung wird als köhlern bezeichnet.
Köhlersche Beleuchtung hat neben einer gleichmäßigen Gesichtsfeldausleuchtung noch einen weiteren Vorteil: Nur der Bereich des Präparats, der tatsächlich beobachtet wird, wird beleuchtet. Dadurch wird störendes Streulicht, das in benachbarten Bereichen entstehen würde, vermieden. Bei dieser Beleuchtungsart wird ein Bild der Lichtquelle nicht in der Präparateebene erzeugt, sondern in der Ebene der Blende unterhalb des Kondensors. Diese wird als Kondensorblende oder Aperturblende bezeichnet. In der Präparateebene wird dagegen ein Bild der Leuchtfeldblende (auch: Feldblende) scharf abgebildet. Diese Blende befindet sich in der Nähe der Lichtquelle, in der Regel ist sie im Mikroskopfuß fest eingebaut. Das Bild in der Präparateebene wird scharfgestellt, indem der Kondensor auf oder ab bewegt wird. Köhlersche Beleuchtung ist nur mit einer künstlichen Lichtquelle möglich.
Ein geköhlertes Mikroskop hat zwei miteinander in Beziehung stehende, verflochtene Strahlengänge und jeder der beiden hat mehrere 'konjugierte Ebenen', das heißt, was in einer der Ebenen scharf abgebildet ist, ist auch in den anderen konjugierten Ebenen scharf.
Der Abbildungsstrahlengang (in der obigen Zeichnung der untere) hat folgende konjugierte Ebenen (in der Zeichnung hellblau unterlegt): Leuchtfeldblende (A), Präparatebene (B), Zwischenbild (C), Retina des Beobachters (D). Um dies zu erreichen, wird beim Vorgang des Köhlerns das Mikroskop zunächst auf zu beobachtende Strukturen im Präparat scharf gestellt, so dass diese im Zwischenbild und auf der Retina scharf sind. Dann wird die Leuchtfeldblende, die wie die Kondensorblende als Irisblende ausgeführt ist, zunächst zugezogen und der Kondensor wird in der Höhe so verstellt, dass der Leuchtfeldblendenrand ebenfalls scharf abgebildet wird. Falls nötig kann der Kondensor anschließend zentriert werden, so dass das Bild der Öffnung der Leuchtfeldblende genau in der Mitte des Gesichtsfeldes liegt. Anschließend wird die Leuchtfeldblende gerade so weit geöffnet, dass ihr Rand eben nicht mehr sichtbar ist.
Der Beleuchtungsstrahlengang (in der Zeichnung oben) hat folgende konjugierte Ebenen (in der Zeichnung hellblau unterlegt): Lichtquelle (1), Kondensorblende (2), hintere Brennebene des Objektivs (3), Pupille des Beobachters (4).
Die Köhlersche Beleuchtung kann als eine kritische Beleuchtung angesehen werden, bei der die Lichtquelle die Öffnung der Leuchtfeldblende ist.
Auflösung und Vergrößerung
Bei optimaler Gerätebeschaffenheit und der Verwendung von Öl-Immersion lassen sich mit klassischer Lichtmikroskopie, wie sie im Wesentlichen im 19. Jahrhundert entwickelt wurde, bestenfalls Objekte voneinander unterscheiden, die 0,2 bis 0,3 µm oder weiter voneinander entfernt sind. Die erzielbare Auflösung ist dabei nicht durch die verfügbare Qualität der Geräte, sondern durch physikalische Gesetze bestimmt. Sie hängt unter anderem von der Wellenlänge des verwendeten Lichts ab.
Verfahren, die seit den 1990er Jahren entwickelt wurden und auf nicht-linearen Farbstoffeigenschaften beruhen, erlauben auch eine Auflösung unter diesem so genannten Abbe-Limit.
Entscheidend für die Fähigkeit eines Mikroskops, Strukturen kleiner Objekte unterscheidbar abzubilden, ist (neben dem Kontrast) nicht die Vergrößerung, sondern die Auflösung. Dieser Zusammenhang ist nicht allein durch strahlenoptische Überlegung zu verstehen, sondern ergibt sich aus der Wellennatur des Lichts. Ernst Abbe erkannte als erster den entscheidenden Einfluss der Numerischen Apertur auf die Auflösung. Er gab als förderliche Vergrößerung
an. Dies bedeutet, dass die kleinsten vom Objektiv aufgelösten Strukturen nach der Abbildung durch das Okular im Auge noch aufgelöst werden können, also etwa unter einem Winkel von 2′ (Bogenminuten) erscheinen. Wird die Vergrößerung höher gewählt (z. B. durch ein Okular mit hoher Vergrößerung), wird das Bild des Objekts zwar noch größer dargestellt, aber es sind keine weiteren Objektdetails erkennbar. Objektive und Okulare müssen also aufeinander abgestimmt sein.
Nach den Gesetzen der Wellenoptik ist die Auflösung des Lichtmikroskops durch die Größe der Wellenlänge der Beleuchtung beschränkt, siehe Numerische Apertur.
Auflösungen jenseits des Abbe-Limits
1971 veröffentlichten Thomas Cremer und Christoph Cremer theoretische Berechnungen über die Erzeugung eines idealen Hologramms zur Überwindung der Beugungsgrenze, das ein Interferenzfeld in allen Raumrichtungen festhält, ein sogenanntes -Hologramm.
Seit den 1990er Jahren wurden einige Methoden entwickelt, die eine optische Auflösung jenseits des Abbe-Limits ermöglichen. Sie basieren alle auf Fluoreszenzmikroskopie und sind daher in diesem Artikel im Abschnitt Verfahren mit erhöhter Auflösung erwähnt.
Die folgenden neueren lichtmikroskopischen Entwicklungen erlauben eine Auflösung jenseits des klassischen Abbe-Limits:
Stimulated Emission Depletion Microscope (STED)
Photoactivated Localization Microscopy (PALM und STORM)
3D-SIM-Mikroskop
4Pi-Mikroskop
TIRF-Mikroskop
Vertico-SMI Strukturierte Beleuchtung SMI mit der SPDMphymod-Technologie (Lokalisationsmikroskopie-Basistechnologie)
Optisches Rasternahfeldmikroskop (SNOM)
Verfahren zur Kontrastgewinnung
Hellfeldmikroskop, das „normale“ Lichtmikroskop
Dunkelfeldmikroskop
Phasenkontrastmikroskop
Polarisationsmikroskop
Differentialinterferenzkontrast
Interferenzreflexionsmikroskop, auch Reflexionskontrast-Mikroskop genannt
Kathodolumineszenzmikroskop
Ultramikroskop
Lichtscheiben-Mikroskopie (SPIM)
Fluoreszenzmikroskop
Konfokalmikroskop bzw. konfokales Laserscanningmikroskop (CLSM – Confocal Laser Scanning Microscope)
Multiphotonenmikroskop einschließlich Zwei-Photonen-Mikroskop
Mikroskope für spezielle Anwendungen
Ein Stereomikroskop hat für beide Augen getrennte Strahlengänge, die das Präparat aus verschiedenen Winkeln zeigen, so dass ein dreidimensionaler Eindruck entsteht.
Ein Strichmikroskop ist eine Ablesevorrichtung an einem Theodolit, einem Winkelmessgerät in der Vermessungskunde.
Ein Operationsmikroskop wird von Ärzten im Operationssaal eingesetzt.
Ein Trichinoskop wird bei der Fleischbeschau zum Nachweis von Trichinen (Fadenwürmer) eingesetzt.
Ein Vibrationsmikroskop dient zur Untersuchung der Schwingung von Saiten bei Saiteninstrumenten.
Ein Messmikroskop hat eine Zusatzeinrichtung, die eine Vermessung des Präparats erlaubt.
Ein Computer-Mikroskop lässt sich zum Beispiel per USB-Kabel an einen Computer anschließen, der zur Anzeige der Abbildung benutzt wird.
Geschichte
Das Prinzip der Vergrößerung durch mit Wasser gefüllte Glasschalen wurde bereits von den Römern beschrieben (Seneca) und Vergrößerungslinsen waren schon im 16. Jahrhundert bekannt.
Der niederländische Brillenschleifer Hans Janssen und sein Sohn Zacharias Janssen werden oft als die Erfinder des ersten zusammengesetzten Mikroskops im Jahr 1590 angesehen. Dies basiert jedoch auf einer Erklärung von Zacharias Janssen selbst aus der Mitte des 17. Jahrhunderts. Das Datum ist dabei fragwürdig, da Zacharias Janssen selbst erst 1590 geboren wurde. Galileo Galilei entwickelte 1609 das Occhiolino, ein zusammengesetztes Mikroskop mit einer konvexen und einer konkaven Linse. Allerdings hatte Zacharias Janssen ein Gerät mit dem gleichen Funktionsprinzip bereits ein Jahr zuvor auf der Frankfurter Messe vorgeführt. Galileis Mikroskop wurde von der „Akademie der Luchse“ in Rom gefeiert, die im Jahr 1603 von Federico Cesi gegründet worden war. Eine Zeichnung des Akademiemitglieds Francesco Stelluti von 1630 gilt als älteste Zeichnung, die mit Hilfe eines Mikroskops angefertigt wurde. Auf ihr sind drei Ansichten von Bienen (von oben, unten und von der Seite) sowie Detailvergrößerungen zu sehen. Die Biene kam im Wappen der Familie Barberini vor, zu der Papst Urban VIII. gehörte. Stelluti schrieb in ein Banner oberhalb der Abbildung: „Für Urban VIII. Pontifex Optimus Maximus […] von der Akademie der Luchse, und in ewiger Verehrung widmen wir Euch dieses Symbol“.
Ab etwa 1646 verwendete auch Athanasius Kircher ein Mikroskop, mit dem er Erreger der Pest zu erkennen glaubte.
Christiaan Huygens (1629–1695), ebenfalls Niederländer, entwickelte im späten 17. Jahrhundert ein einfaches Zwei-Linsen-Okularsystem. Es war bereits achromatisch korrigiert, hatte also weniger Farbfehler und war deshalb ein großer Fortschritt bei der Verbesserung der Optik im Mikroskop. Okulare nach Huygens werden bis heute produziert, sind jedoch im Vergleich zu modernen Weitfeldokularen optisch deutlich unterlegen.
Auch Robert Hooke benutzte für die Zeichnungen seiner 1665 publizierten Micrographia ein zusammengesetztes Mikroskop (siehe Abbildung). Die stärksten Vergrößerungen, die er in seinem Buch darstellte, waren 50-fach. Stärkere Vergrößerungen waren nicht möglich, da sich die Abbildungsfehler, die in der Frontlinse (Objektiv) und im Okular entstanden, vervielfachten, so dass keine feineren Details zu erkennen waren.
Antoni van Leeuwenhoek (1632–1723) verfolgte daher einen anderen Ansatz. Die Vergrößerung einer Linse ist umso stärker, je stärker sie gewölbt ist. Kleine, annähernd kugelförmige Linsen haben daher die stärkste Vergrößerung. Leeuwenhoek war brillant im exakten Schleifen kleinster Linsen, einer Technik, die zuvor nur unzureichend beherrscht worden war. Seine einfachen Mikroskope mit nur einer Linse waren zwar unhandlich zu benutzen, doch da er nur mit einer Linse mikroskopierte, entfiel die Multiplikation der Abbildungsfehler. Seine Mikroskope hatten eine bis zu 270-fache Vergrößerung. So entdeckte Leeuwenhoek die von ihm so genannten „Animalkulen“, einzellige Bakterien und Protozoen.
Im Jahre 1768 beschrieb der Michel Ferdinand d’Albert d’Ailly, Duc de Chaulnes (1714–1769) das erste eigens für Messzwecke konzipierte Messmikroskop.
Robert Brown benutzte noch 1830 ein einfaches Mikroskop und entdeckte damit den Zellkern und die Brownsche Molekularbewegung.
Es dauerte 160 Jahre, bevor zusammengesetzte Mikroskope dieselbe Abbildungsqualität erzeugten wie Leeuwenhoeks einfaches Mikroskop.
Bis weit ins 19. Jahrhundert hinein wurden gute zusammengesetzte Mikroskope durch Ausprobieren und anhand von Erfahrungswerten hergestellt. Ernst Abbe erarbeitete um 1873 die zum Bau besserer Mikroskope erforderlichen, noch heute gültigen physikalischen Grundlagen. Als Folge gelang es zum ersten Mal, ein Objektiv herzustellen, dessen Auflösungsgrenze nicht mehr durch die Materialgüte, sondern durch die physikalischen Beugungsgesetze limitiert wurde. Diese physikalische Auflösungsgrenze wird als das Abbe-Limit bezeichnet. Produziert wurden die entsprechenden Mikroskope zusammen mit Carl Zeiss in dessen optischen Werkstätten. Dabei profitierten sie von den von Otto Schott entwickelten optischen Gläsern und dem von August Köhler entwickelten Beleuchtungsapparat zur Köhlerschen Beleuchtung.
Siehe auch
Röntgenmikroskopie
Sehfeldzahl
Mikrofotografie
Diskussionsbrücke
Literatur
220 Seiten.
Weblinks
Zur Funktionsweise von Lichtmikroskopen:
Theoretische Einführung und ausführliche Anleitungen zu einer Vielzahl mikroskopischer Techniken auf der Website der Uni Wien:
Verschiedene Kurzlehrgänge zur Lichtmikroskopie
Optical Microscopy Primer: Umfangreiches Tutorial mit virtuellen Mikroskopen (englisch)
Sammlungen historischer Lichtmikroskope:
Museum optischer Instrumente: Historische Mikroskope: Entwicklung des wissenschaftlichen Mikroskopbaus in Deutschland mit Geschichten zu ihren Herstellern und Anwendern, illustriert mit über 3000 Fotos
Mikroskop-Museum: Die Geschichte des Lichtmikroskops von Anfang an bis heute in Wort und Bild. In der Galerie werden weit über 100 Mikroskope verschiedener Hersteller vorgestellt.
Einzelnachweise
Mikroskopisches Verfahren
Optisches Instrument
|
Q912313
| 87.826741 |
11586
|
https://de.wikipedia.org/wiki/Archaeen
|
Archaeen
|
Die Archaeen (Archaea, Singular: Archaeon; von , ‚ursprünglich‘), früher auch Archaebakterien, Archebakterien oder Urbakterien genannt, bilden eine der drei Domänen, in die alle zellulären Lebewesen eingeteilt werden. Die anderen beiden Domänen sind die Bakterien (Bacteria), die mit den Archaeen zu den Prokaryoten zusammengefasst werden, und die Eukaryoten (Eukaryota), die im Unterschied zu den Prokaryoten einen Zellkern mit Kernmembran besitzen. Archaeen hingegen haben (wie auch die Bakterien) in sich geschlossene DNA-Moleküle (zirkuläre Chromosomen) im Zellplasma als Kernäquivalent ohne Hülle vorliegen. Die Archaea sind einzellige Organismen.
Bislang sind keine Krankheitserreger aus der Gruppe der Archaeen bekannt.
Eigenschaften
In vielen molekularbiologischen Eigenschaften sind die Archaeen den Eukaryoten ähnlicher als den Bakterien. Dennoch besitzen sie typisch bakterielle Eigenschaften, z. B. die Zellgröße, das Fehlen eines Zellkerns, die Art der Zellteilung, sie besitzen ein in sich geschlossenes DNA-Molekül, ebenfalls verhältnismäßig einfach aufgebaute Fortbewegungsorgane (Flagellen) und – wie die Bakterien – Ribosomen mit dem Sedimentationskoeffizienten 70S (allerdings sind die archaeellen Ribosomen komplexer in ihrer Struktur). Die Gene beider Domänen sind in sogenannten Operons organisiert. Archaeen können auch Plasmide tragen, wie beispielsweise ein Archaeon (mit der vorläufigen Bezeichnung Sulfolobus NOB8H2) der Familie Sulfolobaceae [en] im Phylum Crenarchaeota.
Die zentralen molekularen Prozesse, zum Beispiel Translation und Transkription, sind dagegen denjenigen der Eukaryoten recht ähnlich: Archaeen benutzen ähnliche, aus mehreren Proteinuntereinheiten zusammengesetzte RNA-Polymerasen (Rifampicin- und Streptolydigin-resistent), bei der Translation kommen sehr ähnliche Initiations- und Elongationsfaktoren vor, der Beginn der Transkription wird durch eine sogenannte TATA-Box markiert.
Die Archaeen besitzen jedoch auch viele einzigartige Eigenschaften, besonders der Aufbau der Zellwand zeigt deutliche Unterschiede zu den anderen Domänen: Die archaeellen Zellwände enthalten Pseudopeptidoglycan (Pseudomurein) und sind generell sehr vielfältig in ihrem Aufbau: Manchen Archaeen fehlt eine Zellwand völlig (Thermoplasma), andere besitzen hochkomplexe, aus vielen Schichten bestehende Zellwände (Methanospirillum). Aufgrund des anderen Aufbaus sind Archaeen generell gegen Zellwandantibiotika resistent. Auch die Zusammensetzung der archaeellen Plasmamembran unterscheidet sich: In Bakterien und Eukaryoten sind Fettsäuren über eine Esterbindung an die Glycerolmoleküle gebunden, bei Archaeen findet man Glyceroldiether oder sogar Bis-Glycerol-Tetraether (einschichtige Membran, Monolayer) und verzweigte Isopreneinheiten statt einfacher Fettsäuren. Hyperthermophile Archaeen besitzen häufig derart stabilisierte Zellmembranen (Glycerol-Tetraether), die nicht nur thermostabiler sind, sondern auch Anpassungen an saure Umgebungen darstellen können.
Einige Archaeenarten können sich in Relation zu ihrer Größe sehr schnell fortbewegen. Mit 400 bis 500 „Körperlängen pro Sekunde“ (englisch , abgekürzt „bps“) sind Methanocaldococcus jannaschii und Methanocaldococcus villosus die schnellsten bislang vermessenen Lebewesen. Zum Vergleich: Ein Sportwagen mit 400 bps käme auf eine Geschwindigkeit von über 6000 km/h. Das Bakterium Escherichia coli bewegt sich dagegen mit rund 20 bps fort, ähnlich schnell wie ein Gepard.
Viele kultivierte Arten der Archaeen sind an extreme Milieubedingungen angepasst. So gibt es Arten, die bevorzugt bei Temperaturen von über 80 °C wachsen (hyper-thermophil), andere leben in hoch konzentrierten Salzlösungen (halophil) oder in stark saurem Milieu (pH-Wert zuweilen sogar unterhalb 0; acidophil) bzw. stark basischem Milieu (pH-Wert oberhalb von 10; alkaliphil). Thermoplasmatales der Gattung Picrophilus (P. oshimae und P. torridus) haben ein Wachstumsoptimum bei einem pH-Wert von 0,7 und können sogar bei einem pH-Wert von −0,6 noch überleben.
Archaeen sind in der Forschung von Interesse, da in ihnen vielleicht Merkmale des frühen Lebens auf der Erde erhalten geblieben sind. Aber auch ihr außergewöhnlicher Stoffwechsel ist von Interesse, zum Beispiel die Fähigkeit, bei 110 °C zu wachsen.
Stoffwechsel
Die meisten der bisher bekannten Archaeenarten sind autotroph, d. h. sie benötigen zum Wachstum keine organischen Stoffe, sie gewinnen den Kohlenstoff zum Aufbau ihrer Körperbestandteile ausschließlich durch Assimilation von Kohlenstoffdioxid. Aber auch Heterotrophie, die Gewinnung des Kohlenstoffs aus organischen Verbindungen, ist weit verbreitet.
Die Mehrzahl der bisher kultivierten Archaeen zeichnet sich durch einen anaeroben Stoffwechsel aus; für viele anaerobe Archaeen ist Sauerstoff (O2) toxisch.
Eine Besonderheit archaeellen Stoffwechsels ist die Methanogenese, die ausschließlich von Methan produzierenden Archaeen, den sogenannten Methanogenen, vollbracht werden kann. Sie besitzen eine Reihe einzigartiger Cofaktoren, beispielsweise Coenzym F420 oder Methanofuran.
Die meisten hyperthermophilen Archaeen sind Anaerobier; der energiegewinnende Stoffwechsel ist entweder chemoorganotroph oder chemolithotroph (die Energie wird aus chemischen Umsetzungen organischer bzw. anorganischer Verbindungen gewonnen). Schwefelverbindungen spielen hierbei oft eine große Rolle: Während des Stoffwechsels wird der Schwefel reduziert und dabei Energie freigesetzt.
Bekannt ist aber der Schwefelstoffwechsel der extrem thermo- und acidophilen Art Acidianus ambivalens (früher: Desulfurolobus ambivalens), aus der Ordnung Sulfolobales, welche aerob Schwefel oxidieren kann.
Halophile Archaeen sind meist aerob-chemoorganotroph, sie gewinnen ihre Energie aus chemischen Umsetzungen von organischen Verbindungen. Unter anoxischen Bedingungen oder bei Nährstoffmangel sind viele extrem Halophile sogar zur Nutzung von Lichtenergie fähig: Sie besitzen das Protein Bacteriorhodopsin, das Licht absorbiert und den Protonentransfer durch die Cytoplasmamembran katalysiert; der dadurch erzeugte elektrochemische Gradient treibt die ATPase und damit die ATP-Synthese an.
Morphologie
Wie die Bakterien sind auch die Archaeen in ihrer Form äußerst divers. Die Größen bzw. Längen der archaeellen Zellen variieren von etwa 0,4 (Nanoarchaeum equitans) bis zu 100 µm (Methanospirillum hungatei), durchschnittlich sind die Zellen etwa 1 µm groß. Die Zellen zeigen verschiedene Formen, z. B.: Kokken (z. B. Methanococcus jannaschii), Stäbchen (Thermoproteus neutrophilus), Spirillen-förmig (Methanospirillum hungatei), gelappte Kokken (Archaeoglobus fulgidus), Scheiben (Thermodiscus maritimus), lange Filamente (Thermofilum pendens) oder sogar quadratisch (Haloquadratum walsbyi).
Sie besitzen oft Geißeln (Flagellen) zur Fortbewegung, oder auch fadenartige Anhängsel (Pili) zur Anheftung an Oberflächen.
Habitate
Die meisten der bisher bekannten Archaeen sind Extremophile, d. h. den extremen Bedingungen ihrer Biotope angepasst. Viele Vertreter besitzen die Fähigkeit, bei sehr hohen Temperaturen (Hyperthermophile über 80 °C), sehr niedrigen oder sehr hohen pH-Werten (Acidophile bzw. Alkaliphile), hohen Salzkonzentrationen (Halophile) oder hohen Drücken (Barophilie) zu leben.
Hyperthermophile Archaeen findet man häufig in vulkanischen Gebieten, marinen (Schwarzer Raucher) und terrestrischen (Geysire, Solfatarenfelder), so z. B. vulkanisch geprägten Habitaten des Yellowstone-Nationalparks. Halophile gedeihen gut in Umgebungen mit hohem Salzgehalt, so z. B. im Toten Meer oder auch in natürlich vorkommenden marinen Solen.
Auch methanogene Archaeen sind in gewisser Weise „extrem“: Sie wachsen ausschließlich unter anoxischen Bedingungen und benötigen häufig molekularen Wasserstoff für ihren Stoffwechsel. Diese Archaeenarten sind relativ weit verbreitet und kommen in Süßwasser, Meer und Boden vor, aber auch als Symbionten im Darmtrakt von Tieren und Menschen. Archaeen konnten sogar in den Falten des menschlichen Bauchnabels nachgewiesen werden, wobei dies selten ist.
Wegen dieser „Extremophilie“ hat man die ökologische Bedeutung der Archaeen zunächst als relativ gering eingeschätzt. Erst in den letzten Jahren wurde durch Einsatz feinerer molekularbiologischer Nachweismethoden deutlich, dass Archaeen zu großen Anteilen in verhältnismäßig kaltem Meerwasser, aber auch in Böden und Süßwasser-Biotopen vorkommen. In bestimmten ozeanischen Bereichen machen z. B. Crenarchaeota bis zu 90 % der vorhandenen Lebewesen aus. Insgesamt schätzt man, dass in den Ozeanen etwa 1,3 × 1028 Archaeen und 3,1 × 1028 Bakterien vorkommen.
Die Mehrzahl der isolierten und als Reinkultur im Labor verfügbaren Archaeenarten ist allerdings nach wie vor „extremophil“; in einigen Fällen ist eine Kultivierung auch unter weniger extremen Bedingungen gelungen. Aus den bisherigen Untersuchungen geht hervor, dass die Archaeen eine bedeutende Rolle für den Stickstoff-, Kohlenstoff- und Schwefelkreislauf im Ökosystem der Erde spielen.
Systematik
Die separate Stellung der Archaeen als eine eigenständige Domäne ist begründet durch eine Reihe genetischer, physiologischer, struktureller und biochemischer Merkmale, insbesondere deutliche Unterschiede in der Sequenz der in den Ribosomen enthaltenen RNA (der kleinen ribosomalen Untereinheit, 16S rRNA).
Ende der 1970er Jahre wurde von den US-amerikanischen Mikrobiologen Carl Woese und George Fox die Eigenständigkeit der Archaeen und ihre Zugehörigkeit zu einer eigenen systematischen Einheit neben den Bakterien (Eubakterien) und Eukaryoten erkannt und beschrieben. In der Sequenz der ribosomalen RNA entdeckten die Forscher auffällige Unterschiede zu Bakterien. Auch die Struktur der Zellen und deren Eigenheiten im Stoffwechsel ließen auf eine separate Gruppe von Prokaryoten schließen. Diese Ergebnisse wurden in den folgenden Jahren bestätigt, und weitreichende Fortschritte in der molekularen Biologie machten eine generelle Änderung der Taxonomie notwendig: Eubakterien wurden in Bacteria umbenannt und Archaebakterien in Archaea. Beide wurden 1990 im Rahmen eines Drei-Domänen-Systems als zwei eigenständige Domänen neben der Domäne der Eukarya beschrieben. Dabei stehen die Archaea den Eukarya phylogenetisch vermutlich näher als die Bacteria. Zwar lassen sich in Archaeen keine Zellorganellen finden, doch können sie zur Stabilisierung ihrer Form besondere, einem Cytoskelett vergleichbare Filamente ausbilden.
Für die Beschreibung von Genus und Art gibt es eine festgelegte Prozedur. Durch Publikation oder Validierung im International Journal of Systematic and Evolutionary Microbiology (IJSEM) sind Gattung und Art festgelegt. Höhere Taxa können hier auch beschrieben werden. Der aktuelle Stand kann in der List of Prokaryotic names with Standing in Nomenclature (LPSN), gepflegt durch Jean Euzéby, eingesehen werden. Dies entspricht dem internationalen Code der Nomenklatur von Bakterien (ICNB). Taxa, die diesem Standard nicht entsprechen, werden in Anführungszeichen dargestellt.
Darüber hinaus wurde die globale Einteilung innerhalb der Archaeen und Bakterien mittels phylogenetischer Analyse des 16S-rRNS-Gens reformiert. Eine aktuelle Zusammenstellung der Taxa aus dieser und zahlreichen weiterführenden Publikationen erscheint in Bergey’s Manual, und in Taxonomic Outline of the Bacteria and Archaea, wobei mittlerweile zusätzlich zum 16S-rRNS-Gen teilweise weitere phylogenetische Markergene hinzugezogen werden. Einige dieser Taxa haben ihre Berechtigung, sind aber bis heute nicht valide publiziert oder werden generell nicht vom ICNB erfasst. Solche Taxa werden in Anführungszeichen dargestellt.
Die hier wiedergegebene Systematik enthält die Taxa von Phylum bis Familie. Bei manchen Taxa gibt es widersprüchliche Einträge. Diese wurden anhand von Originalliteratur und einer phylogenetischen Analyse auf Stichhaltigkeit geprüft.
Vor einigen Jahren wurde die Beschreibung der zusätzlichen Phyla „Korarchaeota“ und „Nanoarchaeota“ veröffentlicht. Ein Vertreter des vorgeschlagenen Phylums „Nanoarchaeota“ konnte erfolgreich co-kultiviert und sein Genom sequenziert werden, das sogenannte Nanoarchaeum equitans. Vom vorgeschlagenen Phylum „Korarchaeota“, zunächst anhand seiner 16S rRNA-Gen-Basensequenzen in Proben heißer Quellen nachgewiesen, gibt es Anreicherungskulturen. Daraus konnte nun die komplette Basensequenz des Genoms veröffentlicht werden, mit dem informellen Namen „Candidatus Korarchaeum cryptofilum“ versehen. Ohne isolierte Stämme haben die Vertreter dieser Phyla nach den derzeitigen Regeln des ICSB keinen validierten Platz in der Taxonomie, stellen jedoch zwei von vier bekannten Phyla der Archaeen dar.
Superphylum „Euryarchaeota“ Woese et al. 1990
Klasse Archaeoglobi
Klasse Halobacteria
Klasse Methanobacteria
Klasse „Methanococci“ Boone 2002
Klasse „Methanomicrobia“
Klasse „Methanopyri“ Garrity & Holt 2002
Klasse Thermococci
Klasse Thermoplasmata
Klasse „Eurythermea“ Cavalier-Smith 2002
Klasse „Neobacteria“ Cavalier-Smith 2002
Klasse „Hadesarchaea“
Superphylum „DPANN“
Superphylum „Proteoarchaeota“ Petitjean et al. 2014
Supergruppe „TACK“ (Thermoproteota (GTDB), „Filarchaeota“ Cavalier-Smith 2014)
Supergruppe „Asgardarchaeota“ Violette Da Cunha et al. 2017 (Asgard-Gruppe)
Archaeen und Menschen
Archaeen wurden beim Menschen im Darm (Colon), in der Mundhöhle (Zahnflora), im Bauchnabel und in der Vagina nachgewiesen. Archaeen machen etwa 10 % der anaeroben Gemeinschaft im menschlichen Darm aus. Im Darm treten vor allem Archaeen auf, die der Gattung Methanobrevibacter zugehören, im Speziellen Methanobrevibacter smithii. Diese zählen zu den methanogenen Archaea. Nicht bei allen Menschen kommt M. smithii im Darm vor, und bei Säuglingen unter zwei Jahren wurden bisher noch nie Archaeen identifiziert. In einer Studie wurden Archaeen auch auf der Haut nachgewiesen, die zum Phylum Thaumarchaeota gehören. Möglicherweise korreliert die Anzahl jener Archaeen mit der Häufigkeit des Schwitzens.
Methanogene der Arten Methanobrevibacter smithii und Methanosphaera stadtmanae leben vergesellschaftet mit syntrophen Bakterien im menschlichen Verdauungstrakt, sodass sie einen Einfluss auf die Verdauung ausüben. Diese nutzen die beiden Produkte bakterieller Gärungen, Wasserstoff und Formiat, für die Methanogenese. Eine hohe Konzentration an Wasserstoff hemmt die ATP-Erzeugung anderer Bakterien. M. smithii baut unter Methanbildung auch Methanol ab, das für den Menschen toxisch ist. Daher haben die Methanogenen einen positiven Einfluss auf die menschliche Darmflora. Ob diese auch beeinflussen, wie viel Energie der Mensch aus der Nahrung aufnehmen kann, ist noch Gegenstand der Forschung.
Obwohl Archaeen in engem Kontakt zum Menschen stehen, gibt es keinen Hinweis auf humanpathogene Arten. Es wurde aber eine Korrelation zwischen Erkrankung und Anzahl von methanogenen Archaeen nachgewiesen: Je mehr Archaeen beispielsweise im (entzündeten) Zahnfleisch vorhanden waren, desto stärker war eine entsprechende Parodontitis ausgeprägt. Hierbei treten insbesondere Archaeen der Art Methanobrevibacter oralis auf. Auch bei Patienten mit Darmkrebs bzw. Divertikulose war die Menge methanogener Archaeen in jenen Bereichen erhöht. Dennoch tragen diese Archaeen nur indirekt zur Erkrankung bei, indem sie das Wachstum echt pathogener Bakterien fördern – die Archaeen selbst sind es nicht. Wenn man Archaeen als „Kopathogene“ oder „Pathobionten“ (Symbionten, die unter bestimmten Bedingungen pathologisch werden) betrachtet, dann könnte die Erkrankung mit Medikationen therapiert werden, die diese Archaeen zum Ziel haben. So inhibieren beispielsweise Statine das Wachstum der bei einer Parodontitis vergesellschafteten Methanobrevibacter oralis.
Warum die bekannten Archaeen nicht humanpathogen sind, ist noch nicht eindeutig geklärt. Auch wenn unter den Archaeen keine menschlichen Parasiten bekannt sind, so gibt es in der DPANN-Gruppe zumindest einige kleine Vertreter, die als Epibionten (Parasiten?) auf größeren Archaeen leben (etwa Nanoarchaeum equitans).
Das Fehlen vieler archaeenspezifischer Kofaktoren und Vitamine im Menschen ist nicht notwendigerweise die Ursache für das Nichtvorkommen humanpathogener Archaeen. Selbst dass die durch pathogene Prozesse erzeugten Mikrohabitate besetzt werden, ist kein Alleinstellungsmerkmal der Archaeen – prinzipiell könnten auch Organismen mit ähnlichem (anaeroben, hydrogenotrophen) Stoffwechsel diese Habitate nutzen.
Biotechnologisches Potential
Archaeelle Stoffwechselleistungen, Zellbestandteile oder Enzyme werden industriell angewendet. Vor allem die Extremophilen besitzen viele Eigenschaften, die sich biotechnologisch nutzen lassen. Einige Beispiele, die sich bereits in der Entwicklungsphase oder Anwendung befinden:
Biotechnologie
Biogas-Gewinnung (Methangewinnung in Biogasanlagen)
Mikrobielle Erzlaugung („microbial ore leaching“ oder „bioleaching“): Bei diesem Prozess werden niederwertige, sulfidische Erze ausgelaugt (die Sulfidanteile werden mikrobiell zu Sulfat oxidiert und dadurch die Schwermetalle in einen löslichen Zustand überführt); dies wird zum Beispiel zur Gewinnung von Kupfer, Zink und Nickel angewendet.
Medizin: Verwendung von Zellwandbestandteilen (sogenannte S-Layer) als Träger für Impfstoffe
Nanotechnologie
Verwendung der S-Layer für die Ultrafiltration
Bacteriorhodopsin/ Purpurmembran phototropher halophiler Archaeen als Biosensoren
Biologie
Gewinnung hitzeresistenter Enzyme, z. B. α-Amylasen, proteolytische Enzyme, DNA-Polymerasen
Gewinnung neuer Restriktionsenzyme
Boden- und Gewässersanierung
Literatur
Archaeen in Standardwerken
Georg Fuchs (Hrsg.): Allgemeine Mikrobiologie. (begr. von Hans G. Schlegel). 8. Auflage. Georg Thieme Verlag, Stuttgart/ New York 2007, ISBN 978-3-13-444608-1.
Martin Dworkin, Stanley Falkow, Eugene Rosenberg, Karl-Heinz Schleifer, Erko Stackebrandt (Hrsg.) The Prokaryotes, A Handbook of the Biology of Bacteria. 7 Bände, 3. Auflage. Springer-Verlag, New York u. a., 2006, ISBN 0-387-30740-0.
Joseph W. Lengeler, Gerhart Drews, Hans G. Schlegel (Hrsg.) Biology of the Prokaryotes. Georg Thieme Verlag, Stuttgart 1999, ISBN 3-13-108411-1.
H. König: Archaea. In: Encyclopedia of Life Sciences. John Wiley & Sons, 2003, (doi:10.1038/npg.els.0000443)
Michael T. Madigan, John M. Martinko, Thomas Lazar (Übersetzer) und Freya Thomm-Reitz (Übersetzer): Brock Mikrobiologie. 11., aktualisierte Auflage. Pearson Studium, 2009, ISBN 978-3-8273-7358-8;
Beschreibungen in der wissenschaftlichen Literatur
Carl R. Woese, Otto Kandler, M. L. Wheelis: Towards a natural system of organisms: Proposal of the domains Archaea, Bacteria and Eucarya. In: Proc. Natl. Acad. Sci. U.S.A. Band 87(12), 1990, S. 4576–4579. PMID 2112744; PDF (freier Volltextzugriff, engl.)
B. M. Karner, E. F. DeLong, D. M. Karl: Archaeal dominance in the mesopelagic zone of the Pacific ocean. In: Nature. Band 409(6819), 2001, S. 507–510. PMID 11206545; doi:10.1038/35054051
R. Cavicchioli: Cold-adapted archaea. In: Nat Rev Microbiol. 4(5), 2006, S. 331–343. PMID 16715049; doi:10.1038/nrmicro1390
H. Huber, M. J. Hohn, R. Rachel, T. Fuchs, V. C. Wimmer, K. O. Stetter. A new phylum of Archaea represented by a nanosized hyperthermophilic symbiont. In: Nature. Band 417(6884), 2002, S. 63–67. PMID 11986665; doi:10.1038/417063a
E. Conway de Macario, Alberto J. L. Macario: Methanogenic archaea in health and disease: a novel paradigm of microbial pathogenesis. In: Int J Med Microbiol. 299 (2), 2009, S. 99–108. PMID 18757236; doi:10.1016/j.ijmm.2008.06.011
R. Cavicchioli: Archaea - timeline of the third domain. In: Nat Rev Microbiol. 9(1), 2011, S. 51–61. PMID 21132019; doi:10.1038/nrmicro2482
R. E. Valas, P. E. Bourne: The origin of a derived superkingdom: how a gram-positive bacterium crossed the desert to become an archaeon. In: Biology direct. Band 6, 2011, S. 16, . doi:10.1186/1745-6150-6-16. PMID 21356104. .
Hans-Peter Horz: Archaeal Lineages within the Human Microbiome: Absent, Rare or Elusive? In: Life (Basel). 5(2), 2015, S. 1333–1345. doi:10.3390/life5021333
Weblinks
Archaeen wandeln in sauren Böden Ammonium um, Auf Pflanzenforschung.de vom 20. Dezember 2011: Archaeen oxidieren in sauren Böden Ammoniak zu Nitrat
Nadja Podbregar: Unser Ur-Urahn war ein Archaeon. Auf wissenschaft.de vom 6. Mai 2015
Josephine Franke: Mikrobiom des Darms ist diverser als gedacht – Archaeen machen 1,2 Prozent der mikrobiellen Darmbesiedelung aus. Auf scinexx.de vom 18. Januar 2022
Chris Rinke: Behind the Paper: Standardising archaeal taxonomy, Nature Microbiology Community, 21. Juni 2021
SIB: Archaeal cell – Archaeenzelle, Interaktive Graphik von SwissBioPics
Cindy J. Castelle, Jillian F. Banfield: Major New Microbial Groups Expand Diversity and Alter our Understanding of the Tree of Life. In: Cell, Band 172, Nr. 6, S. 1181–1197; doi:10.1016/j.cell.2018.02.016, PMID 29522741.
Einzelnachweise
Archaea
|
Q10872
| 1,425.121588 |
246407
|
https://de.wikipedia.org/wiki/Pune
|
Pune
|
Pune (Marathi: , , ehemals Punavadi ), früher anglisierend Poona(h), ist eine Stadt im indischen Bundesstaat Maharashtra. Mit 3,1 Millionen Einwohnern in der eigentlichen Stadt und 5 Millionen in der Agglomeration (Volkszählung 2011) ist sie Industriezentrum (Automobile, Leichtindustrie, Softwareentwicklung und Maschinenbau) sowie kultureller Mittelpunkt der Region mit Universität, Theater, Kinos und Museen. Pune gilt als neuntgrößte Stadt Indiens; nach Mumbai ist sie die zweitgrößte Stadt in Maharashtra.
Pune ist Hauptstadt des Distrikts Pune. Die Stadt bezeichnet sich selbst auch als „Oxford of the East“.
Lage
Pune liegt an den Flüssen Mula und Mutha in einer Entfernung von etwa 150 Kilometern (Fahrtstrecke) südöstlich von Mumbai in einer Höhe von etwa 560 Metern ü. d. M. auf dem Dekkan-Plateau. Aurangabad, eine weitere Millionenstadt und ein wichtiges Industriezentrum, liegt knapp 240 Kilometer nordöstlich.
Toponomie
Wie aus zwei aufgefundenen Kupferplatten mit Inschriften hervorgeht, existierte bereits im 9./10. Jahrhundert eine Siedlung mit Namen Punyanagari; der Name wurde später zu Punak, im 13. Jahrhundert Kasbe Pune oder Punavadi. Die Briten machten daraus Poona, was bis zum Jahr 1976 gültig blieb.
Geschichte
Die ersten bekannten Herren der an einem strategisch günstigen Platz an der Handelsstraße zwischen dem Dekkan und dem Arabischen Meer gelegenen Ansiedlung waren die Rashtrakutas (9. Jahrhundert); danach gehörte sie bis 1327 zum Reich der Yadava, die in Devagiri, dem späteren Daulatabad residierten, das von der Tughluq-Dynastie des Sultanats von Delhi im Jahre 1327 endgültig erobert wurde. Doch auch das Sultanat von Delhi war zu weit entfernt, als dass es den Dekkan hätte kontrollieren und beherrschen können und so blieb Pune weitgehend eigenständig, bis das Mogulreich bzw. das konkurrierende Sultanat von Ahmednagar die Kontrolle übernahm.
Unter den Marathen des 17. Jahrhunderts wurde Pune zur Hauptstadt und zum militärischen Hauptquartier eines selbständigen Staates, der sich jedoch stetigen Angriffen der in Bijapur residierenden Adil-Shahi-Dynastie ausgesetzt sah, die sich allerdings 1686 den Truppen des Mogulreiches unter Aurangzeb beugen musste, dessen Truppen bereits in den Jahren 1660 und 1670 Pune wiederholt besetzt hatten. Nach dem Tod Aurangzebs (1707) waren die Marathen weitgehend die unangefochtenen Herrscher über den Dekkan. Im Jahre 1720 wurde Baji Rao I. zum Premierminister (Peshwa) des Marathenstaatswesens ernannt; dieser machte sich in Pune weitgehend unabhängig und seine Nachfolger herrschten über die sich stark entwickelnde Stadt und weite Teile des Umlandes bis zur Ankunft der Briten.
Pune war Schauplatz des Dritten Anglo-Marathen-Krieges (1817). Im Jahre 1820 wählten die Briten Pune zu ihrem präsidialen Zweitsitz neben Bombay (heute Mumbai), um der Sommerhitze und dem Monsun zu entfliehen. Ihre Garnison im Nordwesten der Stadt wird immer noch von den indischen Streitkräften genutzt, und eine Reihe von Kolonialgebäuden wie die Stadthalle und das Dekkan College sind erhalten geblieben.
Gegen Ende des 19. Jahrhunderts war Pune eines der Zentren für Indiens Kampf um die Unabhängigkeit sowie für soziale Reformen. Die wichtigsten Persönlichkeiten dieser Zeit waren
Mahatma Jyotirao Phule, Gopal Krishna Gokhale, Bal Gangadhar Tilak und die Frauenrechtlerin Tarabai Shinde. Sie forderten die Abschaffung des Kastenwesens, gleiche Rechte für Frauen, ein friedliches Zusammenleben von Moslems und Hindus, bessere Schulen für die Armen und die vollständige Unabhängigkeit des Landes. Auch Mahatma Gandhi hielt sich mehrfach in Pune auf, wo er zeitweise von 1942 bis 1944 im Palast des Aga Khan unter Hausarrest stand.
Seit der britischen Kolonialzeit hat sich Pune als wichtige Industriestadt und Zentrum für höhere Bildung entwickelt. Außerdem ist Pune Sitz des Southern Headquarters der indischen Armee. Pune ist daneben Sitz einer 1960 gegründeten und seit 1974 autonomen Filmhochschule Film and Television Institute of India. Im Jahre 1961 zerstörte eine Flutwelle, ausgelöst durch den Bruch der Talsperren Panshet und Khadakwasla, große Teile der Altstadt von Pune, wobei 1.000 bis 2.000 Menschen ums Leben kamen.
Durch einen nie aufgeklärten Bombenanschlag auf das Restaurant German Bakery im Villenviertel Koregaon Park am 13. Februar 2010 starben 17 Personen und 45 wurden zum Teil schwer verletzt.
Religion
In einer Millionenstadt wie Pune sind sämtliche Religionen Indiens vertreten, wobei der Großteil der Einwohner (71 %) Hindus sind. Moslems machen etwa 12 % aus; für Indien überdurchschnittlich groß ist der Anteil der Buddhisten mit 10 %. 4,5 % sind Jainas und etwa 2 % gehören christlichen Kirchen an. Im Jahre 1886 wurde das römisch-katholische Bistum Poona gegründet, das mit jesuitischer Hilfe bis heute besteht. Alle Glaubensgemeinschaften haben ihre Tempel, Moscheen, Kirchen, Synagogen und Gurdwaras.
Bekannt wurde Pune wegen des Religionsführers und spirituellen Lehrers Osho (früher Bhagwan Shree Rajneesh), der im Jahre 1974 seinen Ashram von Bombay hierher verlegte und – nach einem Zwischenspiel in Oregon, Vereinigte Staaten – am 19. Januar 1990 auch hier verstarb.
Sehenswürdigkeiten
Der alte Teil der Stadt, Pesha, im Westen zwischen dem befestigten Shaniwarwada Palast und dem Raja-Dinkar-Kelkar-Museum, ist der bei weitem sehenswertere Teil der Stadt. Alte palastartige Stadthäuser aus Holz (wadas) sind in diesen engen, belebten Straßen erhalten geblieben, und der runde viktorianische „Mahatma Phule Market“ ist ein lebendiges Zentrum.
Interessant ist der westlich der Stadt gelegene Pataleshvara-Höhlentempel – er wurde auf die gleiche Art aus dem Fels geschlagen wie die weitaus kunstvolleren Beispiele anderswo in Maharashtra (Ellora, Karli, Bhaja, Bedsa u. a.); er stammt aus der Rashtrakuta-Periode (8. bis 9. Jahrhundert). Der Tempel ist Shiva geweiht; ungewöhnlich ist ein kreisrunder Nandi-Tempel innerhalb eines rechteckig ummantelten Hofes.
Der Aga Khan Palace, wo im Jahre 1942 Mahatma Gandhi, seine in Pune gestorbene Frau Kasturba und andere Schlüsselfiguren der indischen Unabhängigkeitsbewegung interniert waren, wird heute teilweise als Museum genutzt.
Kultur
In Pune befinden sich seit 1960 das Film and Television Institute of India sowie das National Film Archive of India. Das jeweils im Januar stattfindende „Pune International Film Festival“ (PIFF) ist das bedeutendste Filmfestival in Maharashtra und gehört mit den Filmfestivals in Goa, Kolkata, Trivandrum, Chennai und Delhi zu den wichtigsten in Indien. Pune hat ein lebhaftes Theaterleben. In der Sudarshan-Hall des Maharashtra-Cultural-Centre gibt es immer wieder experimentelle Aufführungen. Seit 25 Jahren gibt es eine enge Beziehung zwischen dem Berliner Grips-Theater und der Theaterszene in Pune. Das Raja-Dinkar-Kelkar-Museum beherbergt eine beeindruckende, vor allem kunstgewerbliche Sammlung, eine der bedeutendsten in Maharashtra. Die Modernisierung des Museums wurde mit deutscher Unterstützung realisiert. Seit 2009 findet ein Jazzfestival statt, das vom Pune-Jazz-Club organisiert wird.
1894 initiierte Bal Gangadhar Tilak das Ganesh Chaturthi, ein jährlich im August oder September in Pune stattfindendes zehntägiges Fest zu Ehren der Gottheit Ganesha. Während der Feiertage findet auch das Pune Festival statt, das klassische indische Musik und Tanz, Film, Theater sowie traditionelle Sportarten präsentiert. Die Stadt ist außerdem Gastgeber des bekanntesten Festivals für indische Klassik, des Sawai Gandharva Music Festivals.
1937 wurde Pune Heimat von B. K. S. Iyengar, dem Begründer des Iyengar-Yoga, dessen 1975 gegründetes Ramamani Iyengar Memorial Yoga Institute von Yoga-Übenden aus aller Welt besucht wird.
Im Villenviertel Koregaon Park (Lage auf der Karte ) befindet sich seit 1974 das „Osho International Meditation Resort“, welches im Jahr 2009 mit rund 200.000 Besuchern das größte Therapie- und Meditationszentrum der Welt war. Gegründet wurde das Meditationszentrum (Ashram) von Bhagwan Shree Rajneesh.
In der Nähe von Pune befindet sich mit dem Pfadfinderinnenzentrum Sangam eines der vier Weltzentren der World Association of Girl Guides and Girl Scouts. Ebenfalls in näherer Umgebung Punes, in den Malavali Hills, befindet sich die „Vedanta Academy“, gegründet durch einen der bekanntesten Vertreter dieser philosophischen Richtung, Swami Parthasarathy.
In einer Rangliste der Städte nach ihrer Lebensqualität belegte Pune im Jahre 2018 den 142. Platz unter 231 untersuchten Städten weltweit. Die Lebensqualität war damit höher als in anderen indischen Städten wie Mumbai (Platz: 154) oder Delhi (Platz: 162) und gemeinsam mit Hyderabad die beste unter allen untersuchten Städten in Indien.
Bildung, Wissenschaft und Forschung
Die Savitribai Phule Pune University gehört mit über 500.000 Studierenden zu den besten des Landes und hat mit ca. 14.000 Ausländern den größten Anteil internationaler Studierender. Eine Hochschulneugründung ist zum Beispiel die FLAME University (Schwerpunkte: Geisteswissenschaften und Kunst). Zahlreiche renommierte Colleges wie Fergusson College (inzwischen Fergusson University), das Sinhgad College of Pharmacy, die Symbiosis International University, St. Vincents und Loyola. Auch Schulen wie die traditionsreiche Bishops-School. Partneruniversitäten sind die Georg-August-Universität Göttingen sowie die Freie Universität Berlin. Die indische Germanistik (heute stärkster Zweig des universitären Ranade-Instituts für Fremdsprachen) nahm in Pune ihren Anfang. Im Stadtteil Bund Garden findet sich seit 1959 ein Goethe-Institut, das in Indien nach dem bedeutenden Sanskritforscher Max Mueller benannt ist. Auch eine Niederlassung der Alliance française und eine British Council Library befinden sich in Pune. Die Vishwakarma University unterhält gemeinsam mit der Hochschule Hof ein Kooperationsbüro in der Stadt.
Pune ist daneben Standort zahlreicher wissenschaftlicher Einrichtungen, darunter das „National Chemical Laboratory“ und das „Inter-University Centre for Astronomy and Astrophysics“.
Wirtschaft
Pune ist eines der drei wichtigsten Zentren der Automobilindustrie Indiens und ein bedeutsamer Standort deutscher Investoren, darunter Liebherr, Volkswagen, Daimler (Mercedes-Benz India), MAN und viele Zulieferer wie Bosch, Dräxlmaier, LEONI, Knorr-Bremse, Behr-Hella Thermocontrol, ARI-Armaturen und ZF Friedrichshafen. Pune ist Sitz der Firodia Group. Daneben ist Pune ein wichtiges Zentrum der IT-Industrie, des Agribusiness, der erneuerbaren Energien (unter anderem Hauptsitz der Windenergiefirma Suzlon Energy), der Impfstoffproduktion (Serum Institute of India) sowie der Darmstädter Döhler GmbH. Auch deutsche Maschinenhersteller wie die Wirtgen Group produzieren und bedienen von hier aus den indischen Markt.
Verkehr
Der Flughafen Pune liegt 10 Kilometer nordöstlich vom Zentrum von Pune. Der Bau eines neuen Flughafens ist geplant. Pune ist über das Eisenbahnnetz mit allen indischen Großstädten verbunden. Es besteht eine autobahnähnliche Fernstraßenanbindung an das ca. 150 Kilometer entfernte Mumbai (Bombay). Derzeit (2020) wird an einem kleinen Metronetz gearbeitet („Metro Pune“, größtenteils als Hochbahn).
Städtepartnerschaft
Die Stadt Pune unterhält mit folgenden Städten eine Städtepartnerschaft:
Tromsø (Norwegen), seit 1966
San José (Vereinigte Staaten), seit 1992
Zwischen der Hansestadt Bremen und Pune besteht seit den 1960er Jahren eine besondere freundschaftliche Beziehung. Henning Scherf weihte ein Denkmal in Pune ein. Der Bremer Senat unterstützt das „Forum Städtesolidarität Bremen–Pune e.V.“, welches Kontakte zwischen den Bürgerinnen und Bürgern beider Städte fördert. Dies geschieht über das Büro der „Agenda 21“, die „Association of Friends of Germany (AFG)“ sowie einer Hochschulkooperation zwischen dem Symbiosis College und Bremer Hochschulen.
Außerdem besteht eine Partnerschaft zwischen dem katholischen Bistum Poona und dem bayerischen Partnerbistum Eichstätt.
Sport
In Pune befindet sich mit dem Maharashtra Cricket Association Stadium ein Test-Cricket-Stadion. In der Stadt bestreitet die Indische Cricket-Nationalmannschaft regelmäßig Heimspiele gegen andere Nationalmannschaften. Im Nehru Stadium fanden unter anderem Spiele bei den Cricket World Cups 1987 und 1996 statt und beim Cricket World Cup 2023 werden im Maharashtra Cricket Association Stadium Spiele ausgetragen.
Söhne und Töchter der Stadt
Shivaji (1630–1680), Anführer der Marathen
Manmohandas Soparkar (1884–1952), Mediziner und Parasitologe
Ardeshir Irani (1886–1969), Filmproduzent und Filmregisseur
Meher Baba (1894–1969), spiritueller Lehrer
Sulochana (1907–1983), Filmschauspielerin der Stummfilm- und frühen Tonfilmzeit
Frank Brewin (1909–1976), Hockeyspieler
John Frost (1912–1993), britischer Generalmajor und Luftwaffenoffizier
Ebrahim Alkazi (1925–2020), Theaterdirektor und Galerist
Balkrishna Vithaldas Doshi (1927–2023), Architekt
Aravind Joshi (1929–2017), Computer- und Kognitionswissenschaftler
Valerian D’Souza (1933–2020), römisch-katholischer Bischof von Poona
Sharad Pawar (* 1940), Politiker
Smita Patil (1955–1986), Schauspielerin
Reuven Yosef (* 1957), israelischer Verhaltensökologe und Naturschutzbiologe
Sunand T. Joshi (* 1958), Literaturwissenschaftler
Chaitan Khosla (* 1964), Chemieingenieur
T. V. Raman (* 1965), Informatiker und Pionier des barrierefreien Webs
Anupama Kundoo (* 1967), Architektin
Bindu De Stoppani (* 1976), Schauspielerin, Regisseurin und Drehbuchautorin
Daso (1981–2018), DJ und Musikproduzent
Eesha Karavade (* 1987), Schachspielerin
Arjun Kadhe (* 1994), Tennisspieler
Devika Vaidya (* 1997), Cricketspielerin
Siddhant Banthia (* 2000), Tennisspieler
Klimatabelle
Literatur
Armin Peter: Vom Entwicklungsprojekt zum Großbetrieb – Die Katraj coop-Molkerei in Poona/Indien. In: Genossenschaften International – 7. Tagung zur Genossenschaftsgeschichte (2012). Hrsg. von der Heinrich-Kaufmann-Stiftung und Adolph von Elm Institut für Genossenschaftsgeschichte e. V. Books on Demand, Norderstedt 2016, ISBN 978-3-7412-6718-5.
Siehe auch
Liste der Städte in Indien
Weblinks
Website der Pune Municipal Corporation
Offizielle Website des Government of India für Pune City und District (englisch)
Zukunftsstädte: Pune in Indien (Artikel im manager Magazin v. 5/2005)
Henryk Broder im SPIEGEL über Pune
Einzelnachweise
Ort in Maharashtra
Municipal Corporation in Maharashtra
Millionenstadt
Namensgeber für einen Marskrater
Hochschul- oder Universitätsstadt in Indien
|
Q1538
| 198.067398 |
141207
|
https://de.wikipedia.org/wiki/Uljanowsk
|
Uljanowsk
|
Uljanowsk (; von 1648 bis 1780 Sinbirsk, russisch , von 1780 bis 1924 Simbirsk, russisch ) ist eine russische Großstadt an der Wolga mit Einwohnern (Stand ) und Hauptstadt des Gebietes Uljanowsk.
Die Stadt liegt an der Wolgaplatte, an den Ufern der Flüsse Wolga (Kuibyschewer Stausee) und Swijaga, an dem Punkt, wo ihre Kanäle zusammenlaufen. Sie liegt 890 km östlich/südöstlich von Moskau.
Die Stadt wurde 1648 durch Erlass von Zar Alexei I. von Bogdan Matwejewitsch Chitrowo als Festung von Sinbirsk gegründet, um die Ostgrenzen des russischen Königreichs vor dem Überfall nomadischer Stämme zu schützen. Während der Verwaltungsreform von Katharina II. im Jahr 1780 wurde sie die Hauptstadt der Statthalterschaft (namestnitschestwo) Simbirsk, die 1796 durch Dekret von Paul I. in das Gouvernement Simbirsk umgewandelt wurde. Simbirsk ist der Geburtsort von Lenin (eigentlich Wladimir Iljitsch Uljanow) und wurde nach seinem Tod 1924 ihm zu Ehren in Uljanowsk umbenannt.
Geografie
Uljanowsk liegt im zentralen Teil des europäischen Russland und erstreckt sich an beiden Seiten des Kuibyschewer Stausees der Wolga, wobei der von der Bevölkerungszahl her größere Teil der Stadt am rechten Ufer liegt. Die Entfernung nach Moskau beträgt knapp 700 Kilometer Richtung Westen. Die nächstgelegene Stadt ist Nowouljanowsk (wörtlich „Neu-Uljanowsk“) etwa 20 km südlich von Uljanowsk.
Stadtgliederung
Uljanowsk ist administrativ in vier Stadtbezirke (sogenannte Rajons) unterteilt (Einwohnerzahlen jeweils mit dem Stand von 2009):
Leninski (Ленинский, „Lenin-Rajon“) – 100.942 Einwohner
Saswijaschski (Засвияжский, „hinter der Swijaga“) – 213.193 Einwohner
Sawolschski (Заволжский, „hinter der Wolga“) – 214.406 Einwohner
Schelesnodoroschny (Железнодорожный, „Eisenbahn-Rajon“) – 75.241 Einwohner
Klima
Geschichte
Das heutige Uljanowsk wurde im Jahr 1648 gegründet. Ursprünglich hieß der Ort Simbirsk (anfangs Sinbirsk, einigen Hypothesen zufolge abgeleitet von einer zu Zeiten der Goldenen Horde existenten tatarischen Festung namens Sinbar) und diente als militärischer Stützpunkt des Russischen Zarentums an dessen östlichen Grenzen. Zu dieser Zeit war Simbirsk als Festung nach dem Vorbild altrussischer Kremls angelegt. 1670 konnte die Festung einem Angriff der aufständischen Bauern um Stenka Rasin standhalten. Allerdings verlor sie später diese Bedeutung und entwickelte sich als normale Provinzsiedlung. Im 18. Jahrhundert war Simbirsk abwechselnd den Gouvernements Kasan und Astrachan unterstellt, bis es 1796 Stadtstatus erhielt und zum Zentrum des neuen Simbirsker Gouvernements wurde.
Im Laufe des 19. Jahrhunderts entwickelte sich die Stadt, auch dank der Lage an der Wolga, zu einer bedeutenden Handelsmetropole und einer der reichsten Städte des Russischen Zarenreichs. In dieser Periode entstanden hier zahlreiche öffentliche Einrichtungen und architektonisch anspruchsvolle Gebäude, von denen eine Reihe bis heute erhalten geblieben ist. 1898 erhielt Simbirsk erstmals einen Eisenbahnanschluss und im Jahr 1913 ein Kraftwerk. 1916 wurde die Wolga-Brücke fertiggestellt, was in den Folgejahrzehnten zur Ausweitung der Stadt auf das linke Flussufer geführt hat.
Es folgten die Oktoberrevolution 1917 und der Bürgerkrieg, in dem Kommunisten die Stadt besetzten. Am 21. Juli 1918 wurde die Stadt durch die Weißgardisten mit Unterstützung der Tschechoslowakischen Legionen erobert. Erst am 12. September 1918 gelang es der Roten Armee unter Führung von G. Gai, die Macht über die Stadt erneut zu erringen.
1924 wurde Simbirsk zu Ehren des kurz zuvor verstorbenen Revolutionsführers Wladimir Iljitsch Uljanow (Lenin), der hier 1870 geboren worden war, in Uljanowsk umbenannt. Diesen Namen behielt die Stadt auch nach dem Ende der Sowjetzeit. In der Stadt bestand das Kriegsgefangenenlager 215 für deutsche Kriegsgefangene des Zweiten Weltkriegs.
Bevölkerungsentwicklung
Anmerkung: Volkszählungsdaten
Wirtschaft
Uljanowsk gilt heute als bedeutendes Industriezentrum vor allem mit dem Automobilwerk UAZ, dem Flugzeughersteller Aviastar-SP (bekannt u. a. für das Transportflugzeug Antonow An-124, welche in 532 m langen und 36 m breiten Endmontagehallen gebaut werden) und dem Rüstungsbetrieb Uljanowski Mechanitscheski Sawod. Außerdem gibt es in der Stadt weitere Betriebe des Maschinen- und Gerätebaus. Darüber hinaus ist Uljanowsk Hauptsitz der Fluggesellschaft Volga-Dnepr Airlines.
Im Jahr 2014 wurde ein Produktionswerk der Schaeffler-Gruppe in Uljanowsk eröffnet, in dem u. a. Kupplungen, Komponenten für Motoren und Kegelrollenlagereinheiten gefertigt werden. 2015 eröffnete DMG Mori Aktiengesellschaft ein Werk für Dreh- und Fräsmaschinen, das in großem Umfang mit lokalen Zulieferern zusammenarbeitet.
Verkehr
Die beiden Wolga-Ufer sind in Uljanowsk durch eine 1916 fertiggestellte Brücke verbunden, die allerdings inzwischen als überlastet gilt. Eine neue Brücke für den Automobil- und Schienenverkehr wurde gebaut und ist für den Verkehr freigegeben. Aus Geldmangel war der Bau der Brücke für zehn Jahre unterbrochen worden. Die unvollendete Brücke, die an keines der beiden Wolgaufer heranreichte, war 2003 Kulisse für das Musikvideo zum Lied Nitschja des gleichnamigen Gesangsduos Nitschja. Der innerstädtische Personennahverkehr ist in Uljanowsk mit einem eigenen Straßenbahn- (am westlichen Ufer der Wolga) und Trolleybusnetz (am östlichen Ufer) relativ gut ausgebaut. Es gibt außerdem Pläne für eine Stadtbahn, die auch die beiden Wolgaseiten miteinander verbinden soll.
Uljanowsk verfügt über einen Fernbahnhof, den internationalen Flughafen Uljanowsk-Wostotschny, den Flughafen Uljanowsk-Baratajewka (auch kurz nur Baratajewka oder Zentralny genannt) und einen Binnenhafen an der Wolga. Uljanowsk ist mit der russischen Hauptstadt Moskau über eine Zweigstrecke der föderalen Fernstraße M5 verbunden. Hier enden die Fernstraßen R178, die die Stadt mit Saransk verbindet, sowie R241, die nach Kasan führt.
Weiterführende Bildungseinrichtungen
Filiale der Internationalen Slawischen G.-R.-Derschawin-Universität (des Instituts)
Filiale der Militärakademie für Etappe und Transport
Filiale der Militäruniversität für Fernmeldewesen
Filiale des A.-S.-Gribojedow-Instituts für internationales Recht und Ökonomie
Höhere militärtechnische Lehranstalt
Landwirtschaftliche Akademie Uljanowsk
Luftfahrthochschule für Zivilluftfahrt Uljanowsk
Ökonomisches Institut Uljanowsk der Staatlichen Ökonomischen Akademie Samara
Staatliche Pädagogische Hochschule Uljanowsk
Staatliche Technische Universität Uljanowsk
Staatliche Universität Uljanowsk
Sport
Die 36. Bandy-Weltmeisterschaft fand 2016 in Uljanowsk und Dimitrowgrad statt. Der Bandyverein HK Wolga Uljanowsk nimmt am Spielbetrieb der Superliga teil.
In Uljanowsk ist der Fußballverein FK Wolga Uljanowsk beheimatet, der die Stadt in der dritthöchsten russischen Spielklasse vertritt.
Militär
In Uljanowsk ist die 31. Luftsturm-Brigade der russischen Luftlandetruppen stationiert. In Uljanowsk befindet sich die Uljanowsker Garden-Suworow-Militärschule, wo Jungen von der 5. bis zur 11. Klasse lernen. Diese Schule ist die einzige in Russland, die unter Leitung der Luftlandetruppen steht.
Städtepartnerschaften
Uljanowsk unterhält unter anderem seit 1993 eine Städtepartnerschaft zur nordrhein-westfälischen Stadt Krefeld.
Söhne und Töchter der Stadt
Iwan Mjasnikow (um 1710–1780), Unternehmer
Platon Beketow (1761–1836), Verleger
Alexander Turgenew (1784–1845), Historiker
Nikolai Turgenew (1789–1871), russischer Wirtschaftswissenschaftler, Staatsrechtler und Publizist
Nikolai Jasykow (1803–1847), Dichter
Iwan Gontscharow (1812–1891), Schriftsteller
Paul Unterberger (1842–1921), russischer Generalleutnant und Gouverneur
Dmitri Sadownikow (1847–1883), Ethnograph
Simon Unterberger (1848–1928), Militärarzt
Alexei Ostroumow (1858–1925), Zoologe, Hydrobiologe und Hochschullehrer
Lenin, eigentlicher Name Wladimir Iljitsch Uljanow (1870–1924), Revolutionsführer und Staatsmann
Yusuf Akçura (1876–1935), Ideologe des Panturkismus
Nadeschda Gernet (1877–1943), Mathematikerin und Hochschullehrerin
Nikolai Brjuchanow (1878–1938), Politiker
Marija Uljanowa (1878–1937), Revolutionärin und die jüngste Schwester von Lenin
Alexander Kerenski (1881–1970), Politiker, 1917 Minister und Regierungschef, Gegner Lenins
Boris Gnedenko (1912–1995), Mathematiker
Anatoli Prudnikow (1927–1999), Mathematiker
Sergei Krutowskich (1928–1981), Computeringenieur
Ljudmila Beloussowa (1935–2017), Eiskunstläuferin
Stanislaw Schuk (1935–1998), Eiskunstlauftrainer
Juri Fjodorow (* 1949), Eishockeyspieler
Wjatscheslaw Lampejew (1952–2003), Hockeyspieler
Nikas Safronov (* 1956), Künstler
Alexander Putschkow (* 1957), Hürdenläufer
Sergei Fokin (* 1961), Fußballspieler
Harry Flosser (* 1967), Trickfilmemacher
Wadim Solotuchin (* 1967), Lepidopterologe
Rustam Waliullin (* 1976), weißrussischer Biathlet tatarischer Herkunft
Iwan Oschogin (* 1978), Opern- und Musicaldarsteller
Alexei Solowjow (* 1984), Lepidopterologe
Juri Schopin (* 1993), Biathlet
Dmitri Jefremow (* 1995), Fußballspieler
Denis Adamow (* 1998), Fußballspieler
Kamil Sakirow (* 1998), Fußballspieler
Einzelnachweise
Weblinks
Stadtverwaltung von Uljanowsk (russisch)
Deutschsprachige Seite des Wirtschaftsausschusses der Region Uljanowsk
Uljanowsk auf mojgorod.ru (russisch)
Uljanowsk-Fotos (russisch)
Website zur Stadt (russisch/englisch)
Ort in der Oblast Uljanowsk
Ort an der Wolga
Wladimir Iljitsch Lenin als Namensgeber
Hochschul- oder Universitätsstadt in Russland
Hauptstadt eines Föderationssubjekts Russlands
Ort mit Binnenhafen
Gegründet 1648
Stadtrechtsverleihung 1796
|
Q5627
| 99.061673 |
238660
|
https://de.wikipedia.org/wiki/Galway
|
Galway
|
Galway [] ( []) ist die Hauptstadt der Grafschaft Galway in der Provinz Connacht der Republik Irland. Galway und das kroatische Rijeka waren 2020 die Kulturhauptstädte Europas.
Geographie
Die Stadt liegt an der Westküste Irlands am nordöstlichen Ufer der Galway Bay. Der stark dem Tidenhub ausgesetzte Fluss Corrib durchfließt die Stadt und mündet in die Bucht.
Ortsname
Der Name des Ortes leitet sich vom irischen Namen des nur 15 Kilometer langen Flusses her, der den Lough Corrib mit der Galway-Bucht (Cuan na Gaillimhe) verbindet. Im Englischen wird der Fluss nach dem See mit dem Namen River Corrib bezeichnet, auf Irisch heißt der Fluss dagegen Abhainn na Gaillimhe oder An Ghaillimh was wörtlich „steiniger Fluss“ bzw. „die Steinige“ bedeutet. Der ursprüngliche Siedlungsort im heutigen Stadtteil Claddagh hieß Dún Bhun na Gaillimhe („Festung an der Mündung des Steinigen Flusses“), später erweiterte sich dies zur Cathair na Gaillimhe („die Stadt am Gaillimh“), oder kurz Gaillimh.
In der ersten Hälfte des 20. Jahrhunderts war das Irische noch die Hauptumgangssprache in Galway. Dies hat sich dann in der zweiten Hälfte des Jahrhunderts, auch aufgrund des Hochschulbaus, massiv zugunsten des Englischen verschoben, so dass die Stadt heute weitgehend englischsprachig ist. Der englische Name wurde früher Gallive geschrieben, was die lautliche Wiedergabe des irischen Namens ist. Später setzte sich dann die heutige Schreibung Galway durch. Die Einwohner des Ortes bezeichnet man (in Analogie zu Norway/Norwegians) auf Englisch als Galwegians.
Geschichte
Die erste feststellbare Besiedlung der Gegend erfolgte, als in Roscam, das am Rande der Stadt liegt, ein Kloster entstand, von dem noch der 10 m hohe Stumpf eines Rundturms, einige Grabsteine und zwei Bullaunsteine erhalten sind. Die Stelle wurde im Jahre 807, also sehr früh, von Wikingern geplündert. Von ihrer weiteren Geschichte ist nichts bekannt.
1124 wurde nahe dem kleinen Fischerdorf eine Befestigung errichtet. Im Jahre 1232 besetzte Richard de Burgh das Dorf und baute es neben Athenry zum normannischen Vorposten im Westen Irlands aus. Das Stadtrecht wurde 1396 durch Richard II. gewährt, und vierzehn anglonormannische Adelsfamilien, die Stämme von Galway (Tribes), lenkten den Handel und die Geschicke der Stadt. Die Namen der Familien waren Athy, Blake, Bodkin, Browne, D’Arcy, Deane, Ffont, Ffrench, Joyce, Kirwan, Lynch, Martin, Morris und Skeritt. Die Stadt war dann ständigen Attacken von dem im Umland lebenden irischen Clan der O’Flahertys ausgesetzt, wobei es allen Einheimischen zeitweilig verwehrt war, die Stadt zu betreten.
Im 15. Jahrhundert ging der englische Einfluss zurück, während sich die Handelsbeziehungen mit Spanien und Portugal verstärkten und den Reichtum der Stadt mehrten. 1473 wurde Galway durch einen Großbrand zerstört, jedoch wieder aufgebaut. Cromwells Truppen eroberten die Stadt 1652, und Wilhelm von Oranien verschonte sie im Jahre 1691 nach seinem Sieg gegen Jakob II. im „Krieg der zwei Könige“ nicht.
Bevölkerung
Mit 83.456 Einwohnern (Stand 2022) ist Galway die bevölkerungsreichste Stadt in der gleichnamigen Grafschaft (County Galway) und im gesamten Westen Irlands. Die Stadt erlebt seit etwa 1990 ein starkes Bevölkerungswachstum und ist Sitz zweier Universitäten, so dass das Durchschnittsalter relativ niedrig ist. Im selben Zeitraum gewann sie auch stark an wirtschaftlicher und kultureller Bedeutung.
City Council
Galway City wird nicht vom County Council des zugehörigen Countys verwaltet, sondern hat einen eigenen City Council. Die letzte Wahl fand im Mai 2019 statt. Die Sitzverteilung ist:
Klima
Wirtschaft und Infrastruktur
Straßenverkehr
Fünf National Routes führen nach Galway: die N17 von Norden her (Tuam, Sligo, Donegal), die N6 aus dem Osten (Athlone, Dublin) und die N18 aus dem Süden (Shannon, Limerick und Cork). Die Planungen sehen einen Ausbau der Straßen zu Motorways zwischen 2010 und 2020 vor. Der M6 motorway (Irland) wurde im November 2009 fertiggestellt und verkürzt die Fahrzeit nach Dublin von ungefähr drei auf zwei Stunden. Unterwegs befinden sich zwei Mautstellen. Die M17 motorway (Irland) in Richtung Sligo und die M18 motorway (Irland) Richtung Limerick sind seit 2017 auf Teilstrecken in Betrieb.
Die Fahrzeit zum Flughafen Shannon beträgt nach Fertigstellung der Gort- und Ennis-Umgehungsstraßen (künftig M18) rund 45 Minuten. Um nach Limerick zu gelangen, benötigt man etwas mehr als eine Stunde. Der 2013 stillgelegte ehemals internationale Flughafen Galway befindet sich ca. 6,5 km nordöstlich der Stadt.
Verschiedene Busunternehmen wie Bus Éireann, GoBus oder Citylink stellen den Linienverkehr mit größeren Städten und Flughäfen sicher.
Schienenverkehr
Galway hat einen Bahnhof (Ceannt Station / Stáisiún Cheannt), den die Midland Great Western Railway am 1. August 1851 eröffnete. Er verband die Stadt über Athenry, Athlone und Mullingar mit dem Dubliner Bahnhof Broadstone Station. Heute verkehren die Züge ab Athlone über Portarlington zum Dubliner Kopfbahnhof Heuston. Ab 1869 konnten vom Eisenbahnknoten Athenry in Richtung Süden auch Ennis und Limerick erreicht werden, nach Norden hin ab 1894 Sligo. 1895 ging mit der Connemara Railway eine Bahnstrecke von Galway nach Clifden in Betrieb, die 1935 als eine der ersten Bahnstrecken Irlands stillgelegt wurde. In den 1970er Jahren wurde der Personenverkehr der Relation Sligo–Athenry–Ennis des Western Railway Corridor eingestellt. Im Jahr 2010 wurde der Abschnitt zwischen Athenry und Ennis reaktiviert; nachdem 34 Jahre lang dort kein Personenzug mehr fuhr, verkehren neben jenen nach Dublin nun auch wieder direkte Züge zwischen Galway und Limerick.
Der Bahnhof befindet sich nahe dem Zentrum am Eyre Square, die Bahnverbindungen werden von Iarnród Éireann (Irish Rail) unterhalten. Das Angebot umfasst zwischen Dublin und Galway an Werktagen 9 und an Sonn- und Feiertagen 6 Zugpaare, zwischen Limerick und Galway an Werktagen 5 und an Sonn- und Feiertagen 4 Zugpaare. Zusätzlich gibt es werktags 2 Zugpaare zwischen Athernry und Galway (Stand 2018).
Luftverkehr
Nachdem die letzte verbliebene Fluggesellschaft, Aer Arann Ende Oktober 2011 den Verkehr zum Galway Airport eingestellt hat, wurde dieser nicht mehr von Linienflügen bedient. Im November 2013 lief die Lizenz für den Flugbetrieb aus und der Galwayer Stadtrat beschloss, das Flughafengelände aufzukaufen und einer anderen Verwendung zuzuführen. Der Flugplatz Connemara mit Flugverbindungen auf die Aran-Inseln liegt 28 Kilometer westlich der Stadt.
Alternative Flughäfen in der Nähe sind der Shannon International Airport und der Knock Airport.
Kultur
Galway war im Jahr 2020 zusammen mit Rijeka (Kroatien) Europäische Kulturhauptstadt.
Bildung und Forschung
In Galway gibt es das Galway-Mayo Institute of Technology (GMIT) und die National University of Ireland, Galway. Öffentliche Bibliotheken stehen der Bevölkerung zur Verfügung. Galway verfügt zudem über mehrere Sprachschulen.
Regelmäßige Veranstaltungen
Jährliche kulturelle Ereignisse stellen das Galway Early Music Festival (Mai), das Galway Film Fleadh (Juli), das Galway Arts Festival (Juli), die Galway Races (August), das Galway International Oyster Festival (September) und das Baboró Galway International Arts Festival for Children (Oktober) dar.
Jeden 3. September findet das Musikfestival Cuarth Millennium statt.
Musik
Mehrere Werke mit dem Titel Galway Girl beziehen sich auf den Ort Galway. Am bekanntesten sind zwei Songs. Steve Earle veröffentlichte im Jahr 2000 seinen Song, zu dem er während eines Aufenthalts in Galway inspiriert wurde. 2008 wurde dieser Song in einer Coverversion von Sharon Shannon und Mundy ein Nummer-eins-Hit und die meistverkaufte Single des Jahres in Irland. Ed Sheeran veröffentlichte 2017 einen eigenen Song Galway Girl, der ein internationaler Hit wurde. Galway verfügt außerdem über eine große Busker-Szene.
Theater und Museen
Das Theater pflegt die irische Kultur und Sprache.Das bietet ein abwechslungsreiches und interessantes Programm. Im kleineren treten kleine Ensembles und Solokünstler auf.
Das liegt am Spanish Arch.Es präsentiert die reiche Archäologie, die Denkmale und die Geschichte der Stadt in mehreren Ausstellungen.
Direkt am Fluss Corrib steht das Fishery Watchtower Museum, ein Gebäude aus der Mitte des 19. Jahrhunderts. Im Jahr 1999 wurde es offiziell als Museum eröffnet.
Bauwerke und Weiteres
Eyre Square ()
Der Stadtplatz befindet sich in der Nähe des Bahnhofs und wurde in den letzten Jahren baulich umgestaltet und Anfang 2006 fertiggestellt. Er bietet jetzt neben dem großen Denkmal für den Galway Hooker viele kleinere Rasenflächen und Bänke, die von vielen Menschen zum Sitzen, Spielen, Jonglieren, Skateboardfahren etc. genutzt werden. Die vielen Bäume spenden angenehmen Schatten. Die Straßen um den Square sind nur noch an zwei Längsseiten befahrbar, bieten aber gute Anbindungen an das Busnetz und den nahen Bahnhof.
Spanish Arch ()
Torbogen, Blake’s Castle
Im Hafen, nahe der Innenstadt, findet der Besucher einen Gedenkstein, auf dem behauptet wird, dass Christoph Columbus, Genueser Seemann, hier den Tipp bekam, mal nach Westen zu segeln.
Stiftskirche St. Nikolaus ()
Die heute anglikanische Kirche ist die größte kontinuierlich genutzte mittelalterliche Pfarrkirche Irlands und wurde 1320 zu Ehren des Schutzheiligen der Seefahrer und Kaufleute, des hl. Nikolaus, geweiht.
Kathedrale Mariä Himmelfahrt und St. Nikolaus ()
Die 1965 vollendete katholische Bischofskirche mit markanter Kuppel machte die Stadt bei der Errichtung beinahe Bankrott. Die Architektur des Bauwerks ist umstritten, ebenso wie der ehemalige Bischof Eamon Casey.
Shop Street ()
Die Shop Street ist die Haupteinkaufsstraße von Galway. 1999 wurde sie komplett neu gestaltet und zur Fußgängerzone umgewandelt.
Lynch’s Castle ()
Die im 16. Jahrhundert erbaute Burg ist mit Wappenschildern verziert und seit einigen Jahren Sitz einer Bank. Die Burg war der damalige Wohnsitz der Familie Lynch, welche mehrheitlich die Bürgermeister zwischen 1480 und 1650 stellte. Das Stadtoberhaupt James Lynch zeichnete sich durch seinen besonderen Gerechtigkeitssinn aus. So verurteilte er der Überlieferung nach einst seinen eigenen Sohn wegen Mordes an einem jungen spanischen Edelmann, der als Gast in Galway weilte und zum Rivalen um die Gunst eines Mädchens geworden war. Da niemand in der Stadt das verhängte Todesurteil vollstrecken wollte, hängte er ihn persönlich und zog sich daraufhin in ein Kloster zurück. Irrtümlich wird mit diesem Ereignis oftmals der Begriff Lynchjustiz in Verbindung gebracht.
Salthill ()
Salthill ist das Vergnügungsviertel von Galway. Hier befinden sich entlang des Badestrands neben Hotels und Pubs insbesondere Spielhallen und Nachtclubs. Als Nachtclubs gelten in Irland Tanzlokale, deren Ausschanklizenz nicht mit der für Pubs üblichen Sperrstunde endet. Insbesondere ist Salthill auch kein Rotlichtbezirk, wie man sie in Deutschland findet, da solche nach irischem Recht verboten sind. In Salthill liegt außerdem der Sport- und Freizeitpark Leisure Land. Es gibt ein Meeresaquarium, in welchem Tiere leben, die in den irischen Gewässern vorkommen. Erwähnenswert ist die Parkanlage, die von der Internationalen Organisation der Organspender angelegt wurde. Sie besteht aus einem Stelenkreis, genannt Circle of Life und einer Teichanlage, um die Findlinge aus fünf Kontinenten gruppiert sind. Die Findlinge stammen aus Orten, die mit der Organspende zusammenhängen wie vom Areal des Groote Schuur Hospital in Südafrika, in dem 1967 durch Christiaan Barnard die erste erfolgreiche Herz-Transplantation erfolgte. Die Entwicklung der Organspende wurde damit angestoßen.
Salmon Weir Bridge ()
Die Salmon Weir Bridge geht zwischen dem Gerichtsgebäude und der Kathedrale über den Fluss Corrib. Von Mitte April bis Juli kann man dort Fischschwärme von Lachs auf ihrem Weg den Fluss Corrib aufwärts beobachten.
Claddagh ()
Das Claddagh ist eine jenseits des Corrib gelegene ehemalige Fischersiedlung. Das ist bis heute an der markanten Bebauung mit weitgehend kleinen, anderthalbgeschossigen Häuschen ersichtlich, die sich von der Umgebung deutlich abhebt. Die ursprünglichen Hütten wurden Anfang der 1930er Jahre ohne Ausnahme durch die heutige Bebauung ersetzt. Claddagh hatte eine eigene Monarchie und war vom englisch regierten Galway unabhängig.
Über Galways Grenzen hinweg bekannt ist der Claddagh-Ring, ein Freundschaftsring, bei dem zwei Hände ein Herz mit Krone halten. Dieser Ring ist in Galways Schmuckgeschäften zu finden. Das Symbol der Hände, die das Herz mit Krone halten, ist auch auf dem Cover des Albums In the City of Light (1987) der Band Simple Minds abgebildet. Auch in einer Folge der US-amerikanischen Fernsehserie Buffy – Im Bann der Dämonen wird der Ring Buffy zum 17. Geburtstag geschenkt.
Medien
Es gibt zwei kostenlose lokale Zeitungen, den Galway Advertiser sowie den Galway Independent. Die Radiostation Galway Bay FM berichtet über lokale Ereignisse.
Pubs und Restaurants
In Galway findet sich eine große Anzahl von Pubs, wie sie für Irland typisch sind. Etliche davon bieten täglich oder zumindest regelmäßig Live-Musik an, von traditioneller irischer Musik bis zu modernem Pop.
Wegen der Küstenlage gibt es in Galway viele Restaurants, die Fischgerichte anbieten. Außerdem finden sich ausländische Restaurants, vor allem mit italienischer und chinesischer Küche, und kleine Take-away-Läden.
Städtepartnerschaften
Galway hat mit den folgenden Städten Städtepartnerschaften oder Freundschaftsabkommen geschlossen:
Persönlichkeiten
Söhne und Töchter der Stadt
Nora Barnacle (1884–1951), Ehefrau des Schriftstellers James Joyce
Séamus Brennan (1948–2008), Politiker (Fianna Fáil), Minister und Abgeordneter
Ken Bruen (* 1951), irischer Schriftsteller
Seán Cannon (* 1940), irischer Sänger und Gitarrist
Mary Coughlan (* 1956), irische Jazz-Sängerin und Schauspielerin
Nicola Coughlan (* 1987), irische Schauspielerin
John Wilson Croker (1780–1857), englischer Parlamentsredner, Dichter und Journalist
Méabh De Búrca (* 1988), irische Fußballspielerin
Eamonn Deacy (1958–2012), irischer Fußballspieler
Eilís Dillon (1920–1994), Schriftstellerin
Frank Fahey (* 1951), Politiker der Fianna Fáil
Niamh Fahey (* 1987), Fußballspielerin
Jerry Flannery (* 1978), irischer Rugbyspieler
Caoilinn Hughes (* 1985), irische Dichterin und Schriftstellerin
Michael Kelly (1872–1923), irisch-US-amerikanischer Sportschütze
Hudson Lowe (1769–1844), britischer General, Gouverneur von St. Helena
James Lynch (etwa 1624–1713), Bischof
Walter Macken (1915–1967), irischer Autor und Schauspieler
Ryan Manning (* 1996), irischer Fußballspieler
James McLoughlin (1929–2005), irischer römisch-katholischer Bischof
Bobby Molloy (1936–2016), irischer Politiker
Fiona Murtagh (* 1995), irische Ruderin
Nora-Jane Noone (* 1984), irische Schauspielerin
Breandán Ó hEithir (1930–1990), irischer Journalist und Schriftsteller
John Sealy Edward Townsend (1868–1957), britischer Physiker
Mit der Stadt verbunden
Mike McCormack (* 1965), irischer Schriftsteller; studierte, arbeitet und lebt in Galway
Literatur
Aktuell
Frank McDonald: Galway, the city of tribes and developers. In: The Irish Times, 9. November 2004 (englisch)
Geschichte
James Hardiman (1782–1855): The history of the town and county of the town of Galway. From the earliest period to the present time. Dublin 1820, galway.net
Peter Harbison: Guide to the National and Historic Monuments of Ireland Gill and Macmillan, Dublin 1992 ISBN 0-7171-1956-4 S. 92 Lynch’s Castle irisches National Monument.
Reise
Ralph-Raymond Braun: Irland. 4. Auflage. Erlangen 2004, ISBN 3-89953-162-0, S. 432–443.
Irland. Dorling Kindersley Vis-À-Vis, München 2003, ISBN 3-928044-28-1, S. 202–203.
Weblinks
Website der Stadt Galway (englisch/irisch)
Abbildung der Stadt 1611 in Civitates orbis terrarum von Georg Braun und Frans Hogenberg
Website des Museums der Stadt Galway (englisch/irisch)
Einzelnachweise
County Town (Irland)
Ort mit Seehafen
Hochschul- oder Universitätsstadt in Irland
Ort im County Galway
|
Q129610
| 143.152625 |
271206
|
https://de.wikipedia.org/wiki/Gelehrtengesellschaft
|
Gelehrtengesellschaft
|
Eine Gelehrtengesellschaft ist ein Zusammenschluss wissenschaftlich gebildeter Personen zur Förderung mehrerer akademischer Disziplinen oder mehrerer Klassen von akademischen Disziplinen.
Mitgliedschaft
Die Mitgliedschaft kann entweder von jedem erworben werden, bestimmte Qualifikationen voraussetzen oder – wie dies bei einigen der ältesten Gelehrtengesellschaften der Fall ist – als Auszeichnung verliehen werden. Letzteres wird beispielsweise von der italienischen Accademia dei Lincei (gegründet 1603), der deutschen Leopoldina (gegründet 1652), der in London ansässigen Royal Society (gegründet 1660) sowie den französischen Akademien, die unter der Dachorganisation Institut de France zusammengeschlossen sind, wie der Académie française (gegründet 1634) und der Académie des sciences (gegründet 1666).
Aufgaben und Tätigkeiten
Die Aufgaben der Gesellschaften reichen von eng abgegrenzten Schwerpunkten, z. B. bestimmten Personen, Sprachen, Städten, hin bis zur Förderung der Wissenschaft insgesamt. Gelehrte Gesellschaften bestehen regional, national und international. Die Forschungsergebnisse werden publiziert, teilweise finden auch Vorlesungen, Ausstellungen und Konferenzen statt. Die Mehrzahl der Gesellschaften unterhält eigene Forschungseinrichtungen und Bibliotheken, vergibt Fördermittel und verleiht Auszeichnungen.
Geschichte
Nach dem Vorbild der 1583 in Italien gegründeten Accademia della Crusca entstanden Akademien und spezielle Gesellschaften wie historische Vereine, geographische und ethnographischen Gesellschaften, Altertumsvereine, Naturforschenden Vereine etc.
Russisches Kaiserreich
1864 standen 28 Gelehrte Gesellschaften unter Aufsicht des Ministeriums der Volksaufklärung, darunter
Die Kaiserlich medicinische Gesellschaft zu Wilna
Die literärisch-praktische Bürgerverbindung in Riga
Die kurländische Gesellschaft für Literatur und Kunst in Mitau
Die lettisch-literärische Gesellschaft in Riga
Die Gesellschaft für Geschichte und Altertumskunde der Ostseeprovinzen Russlands in Riga
Die gelehrte estnische Gesellschaft an der Dorpater Universität
Siehe auch
Liste der wissenschaftlichen Akademien
Gesellschaften:
Real Academia Sancti Ambrosii Martyris
Accademia degli Agiati
Accademia della Crusca
Accademia degli Invaghiti
Accademia Lucchese di Scienze, Lettere ed Arti
Accademia dei Lincei
Académie française
Académie des inscriptions et belles-lettres
Académie des sciences
Royal Society
Royal Historical Society
Royal Geographical Society
Royal Heraldry Society of Canada
Royal Irish Academy
Geological Society of London
Society of Antiquaries of London
Leopoldina
Gesellschaft Naturforschender Freunde zu Berlin
Bayerische Akademie der Wissenschaften
Kurpfälzische Akademie der Wissenschaften
Accademia Etrusca
Institut de France
Institut Grand-Ducal
Leibniz-Sozietät der Wissenschaften zu Berlin
Naturforschende Gesellschaft zu Emden
Niederlausitzer Gesellschaft für Geschichte und Landeskunde
Oberlausitzische Gesellschaft der Wissenschaften
Senckenberg Gesellschaft für Naturforschung
Antiquarische Gesellschaft in Zürich
Gesellschaft Deutscher Naturforscher und Ärzte
British Association for the Advancement of Science
Russische Geographische Gesellschaft
Görres-Gesellschaft
Lettisch-Literärische Gesellschaft
Gelehrte Estnische Gesellschaft
Königliche böhmische Gesellschaft der Wissenschaften
Gelehrte Gesellschaft der Tschechischen Republik
Berlin-Brandenburgische Akademie der Wissenschaften
Einzelnachweise
!
|
Q955824
| 187.883693 |
323952
|
https://de.wikipedia.org/wiki/Normdatei
|
Normdatei
|
In der Bibliotheks-, Informations- und Dokumentationswissenschaft (BID) ist eine Normdatei ein Verzeichnis von normierten Begriffen zur Verwendung als Deskriptor in der Dokumentation. Eine Normdatei ist damit eine Form eines kontrollierten Vokabulars, in dem festgelegt wird, welche Ansetzung bei der Erschließung zu verwenden ist. Im Englischen werden Normdateien als bezeichnet.
Beschreibung
Normierte Begriffe können Personennamen, Körperschaftsnamen und beliebige andere Mengen von Bezeichnungen von Dingen, Vorgängen oder abstrakten Begriffen sein. Der Bildung von Normbegriffen liegt eine Ontologie zugrunde, die die jeweils zu normierenden Begriffe und die Art der Normierung festlegt. Die Normbegriffe gehören nach Vergabe zu den Metadaten des jeweiligen Datensatzes.
Als Vorform kann die freie Vergabe von Kategorien, Schlagwörtern oder Tags gelten, die sich aber an gewisse Regeln hält, wie die Festlegung auf Singular oder Plural, die bevorzugte Nutzung von Komposita etc.
Im deutschsprachigen Raum begannen die Bemühungen um gemeinsame Normdaten im Jahr 1973 mit der Gemeinsamen Körperschaftsdatei (GKD) durch die Bayerische Staatsbibliothek, die Staatsbibliothek Preußischer Kulturbesitz und die Deutsche Bibliothek.
Beispiele
Bekannte bibliothekarische Normdateien sind die Gemeinsame Normdatei (GND), die von der Deutschen Nationalbibliothek (DNB), allen deutschsprachigen Bibliotheksverbünden, der Zeitschriftendatenbank (ZDB) und zahlreichen weiteren Institutionen kooperativ geführt wird, die (LCNAF) und die Système universitaire de documentation (SUDOC) des französischen Verbundkatalogs.
Im Bereich der Museen existieren eine Reihe von Normdateien. Diese sind oftmals fachspezifisch und werden international betrieben, z. B. nomisma.org für die Numismatik oder die vom Getty Research Institute Union List of Artist Names (ULAN) sowie die RKD-ID für Künstler. Diese Normdaten sind frei verfügbar und werden unter anderen von Wikidata genutzt. Interessant sind diese Normdaten, da sie über Programmierschnittstellen verfügen, Spezialwissen repräsentieren und mit Beschreibungen, Bildnachweisen sowie Verweisen auf weitere Normdaten versehen sind.
In dem Projekt (VIAF) werden normierte Personennamen über eine Konkordanz zu einer virtuellen internationalen Normdatei verbunden.
Literatur
C. Boßmeyer: „Normdaten“, in: Lexikon des gesamten Buchwesens Online. ; gedruckt: ISBN 978-3-7772-1412-2, 2014.
Siehe auch
Bibliotheksklassifikation
Ontologie (Informatik)
Weblinks
GND-Webseite der Deutschen Nationalbibliothek
„Informationsseite zur GND“ der Deutschen Nationalbibliothek
Reading List von Lois Schultz für einen Kurs in Bibliothekswissenschaften der Northern Kentucky University 2006
www.nomisma.org
Einzelnachweise
Dokumentationssprache
|
Q118455746
| 38,163.968902 |
2180
|
https://de.wikipedia.org/wiki/Hauptstadt
|
Hauptstadt
|
Eine Hauptstadt ist ein symbolisches, zumeist auch politisches Zentrum eines Staates und oft Sitz der obersten Staatsgewalten: Parlament, Monarch bzw. Staatsoberhaupt, Regierung, Oberstes Gericht. Dieser Status ist oftmals per Verfassungsgesetz deklariert. Selten weicht der Regierungssitz ab; so zum Beispiel in Bolivien, Malaysia, Niederlande, Südafrika und Tansania sowie von 1990 bis 1999 in Deutschland. Auch gibt es Hauptstädte, die räumlich vom judikativen Verfassungsorgan getrennt sind, so in Deutschland (Karlsruhe), in der Schweiz (Lausanne), Südafrika (Bloemfontein) und in Tschechien (Brünn). Vor allem in Bundesstaaten können die obersten Organe der Staatsgewalt auf mehrere Städte verteilt sein. Oft gibt es abweichende Finanz-, Industrie-, Verkehrs-, Wissenschafts- und Kulturzentren.
Hauptstadt als wichtigstes Zentrum
Sehr oft entwickelte sich die Hauptstadt über einen langen Zeitraum hinweg zum unangefochtenen Herzstück eines Nationalstaats. Sie ist nicht nur politisches Zentrum (Residenzstadt), sondern auch Mittelpunkt der Industrie, Wissenschaft, Kunst und Kultur einer Region (Hauptort). Im Städtebau einer Hauptstadt machen sich die Hauptstadt- und Regierungsfunktionen häufig durch monumentale und auf staatliche Selbstdarstellung zielende Gebäude, Straßenzüge, Plätze und Grünanlagen sowie durch die Anlage eines Regierungsviertels bemerkbar.
In Frankreich konnte sich die Hauptstadt Paris zur bedeutendsten Stadt des Landes entwickeln. Bereits im Mittelalter wurde der Grundstein für diese Entwicklung gelegt, als die französischen Könige die Stadt zu ihrer Hauptstadt machten, indem sie damit begannen, zentralörtliche, oft höfische, später zunehmend staatliche Funktionen an diesem Ort zu konzentrieren (Zentralismus). 1257 entstand etwa mit dem Gymnasium Collège de Sorbonne der Vorgänger der ältesten und bekanntesten Universität Frankreichs. Franz I. ließ im 16. Jahrhundert Künstler wie Michelangelo, Tizian oder Raffael nach Paris kommen und legte damit den Grundstock für die königliche Gemäldesammlung, die heute der Louvre beherbergt. In den folgenden Jahrhunderten entstanden weitere für Frankreich bedeutende Einrichtungen wie z. B. die Académie française. Trotz der Verlagerung der Residenz von Paris nach Versailles unter Ludwig XIV. blieb die Stadt weiterhin das politische und wirtschaftliche Zentrum. Die Stadt wurde weiter ausgebaut, sie beherbergte zwischen 1855 und 1937 sechs Weltausstellungen. Während der Belle Époque wurde die Stadt erneut zu einem international anerkannten kulturellen und intellektuellen Zentrum. Noch in den letzten Jahrzehnten errichteten französische Präsidenten monumentale Bauwerke wie den Grande Arche, was die Bedeutung der Stadt weiter unterstrich. Paris ist auch heute nicht nur Zentrum der Kultur und Politik, die Stadt ist größter Verkehrsknotenpunkt und größter Wirtschaftsraum in Frankreich. Es fahren auch viele Besucher in die Hauptstadt.
Auch London durchlief zunächst für England, später für das ganze Vereinigte Königreich eine vergleichbare Entwicklung.
Weitere Beispiele sind Mexiko-Stadt (Mexiko), Buenos Aires (Argentinien) oder Bangkok (Thailand).
Hauptstadt als vorwiegend politisches Zentrum
Von der weit verbreiteten Norm, als Hauptstadt auch das kulturelle und wirtschaftliche Zentrum zu sein, weichen viele Hauptstädte aus verschiedenen historischen oder politischen Gründen ab. So ist die Hauptstadt nicht immer gleichzeitig die größte und bedeutendste Stadt. Ihre Bedeutung beschränkt sich oftmals nur auf die Funktion als Regierungssitz. Oftmals wandeln sich allerdings im Laufe der Jahre anfänglich bedeutungslose, zu Hauptstädten ernannte Städte durch ihren erlangten Status zu wichtigen Zentren über ihre administrative Bedeutung hinaus.
Zur Wahl Berns als Sitz von Bundesregierung und Bundesparlament siehe Hauptstadtfrage der Schweiz. Die Hauptstadt der Vereinigten Staaten, Washington, D.C., belegt in der Reihung nach Einwohnerzahlen nur Platz 27 (auf Rang 1 steht New York City). Aufgrund der geografisch zentraleren Lage und als Zeichen der Abgrenzung vom Osmanischen Reich wurde die Hauptstadt der neu gegründeten Türkischen Republik 1923 von der Metropole Istanbul ins deutlich kleinere und vergleichsweise unbedeutende Ankara verlegt. Die zuvor eher unbedeutende kanadische Stadt Ottawa wurde aufgrund ihrer Lage an der englisch-französischen Sprachgrenze und somit besseren Akzeptanz für beide Bevölkerungsteile als Hauptstadt ausgewählt. Man ging für eine Kleinstadt auch von einer geringeren Bedrohungslage im Kriegsfall aus. Kasachstan verlegte 1997 seine Hauptstadt von Almaty in das halb so große Astana. Zum einen geschah dies wegen der Erdbebengefahr in Almaty, zum anderen wählte man die Stadt in der ungefähren Mitte des Landes zwecks besserer Kontrolle der russischsprachigen Minderheit im Norden.
Im Jahr 1949 wurde in der Bundesrepublik Deutschland die bis dahin wenig bedeutende Stadt Bonn zur (provisorischen) Bundeshauptstadt gewählt. Dies geschah wohl vor allem auf Initiative des Rheinländers und ersten Bundeskanzlers Konrad Adenauer. Ein weiterer Grund für den Erfolg Bonns gegenüber dem Mitbewerber Frankfurt am Main war vermutlich die Befürchtung, dass sich die Bevölkerung nach einer Wiedervereinigung für die Beibehaltung Frankfurts als Hauptstadt hätte aussprechen können. Bei Bonn handelte es sich bei Weitem nicht um die größte Stadt der alten Bundesrepublik; Bonn hatte zu dieser Zeit etwa 115.000 Einwohner, Hamburg z. B. 1,6 Millionen. Im Laufe der Jahre wurde Bonn für die Aufgaben als Hauptstadt ausgebaut; die anfänglich hämisch als Bundesdorf, Bundeshauptdorf oder Konradopolis in Anspielung auf Adenauer bezeichnete Stadt konnte durch Eingemeindungen ihre Einwohnerzahl mehr als verdoppeln. Mit der Wiedervereinigung am 3. Oktober 1990 wurde Bonn durch Berlin als gesamtdeutsche Hauptstadt (wieder) abgelöst. Im Berlin/Bonn-Gesetz wurde Bonn (nun mit dem Zusatztitel „Bundesstadt“) jedoch der Verbleib zahlreicher Bundesministerien und die Zuordnung mehrerer vormals in Berlin ansässiger Bundesbehörden zugestanden, so dass Berlin keine zentralistische Hauptstadt ist. Für das untergegangene Preußen kann man Berlin jedoch durchaus eine mit London oder Paris vergleichbare Entwicklung und Funktion attestieren.
Geplante Hauptstadt
Die Gründe für den Entschluss eines Staates, eine Planhauptstadt zu errichten, sind vielfältig. Pakistan entschloss sich für den Bau der neuen Hauptstadt Islamabad, da man Vorbehalte gegenüber der Konzentration von Investitionen in der bisherigen Hauptstadt Karatschi hatte. Der Grund für den Bau der brasilianischen Hauptstadt Brasília lag darin, dass man Bedarf nach einer neutralen und föderalen Hauptstadt hatte. Zudem sollte die nun im geographischen Zentrum liegende Stadt die Entwicklung des Binnenlandes fördern, was mit der an der Küste liegenden vorherigen Hauptstadt Rio de Janeiro so nicht möglich gewesen wäre.
In den letzten hundert Jahren entstanden weltweit eine Reihe künstlicher Hauptstädte. Die bekanntesten sind neben den schon genannten wohl Abuja in Nigeria, Canberra in Australien, Neu-Delhi in Indien und 2005 Naypyidaw in Myanmar.
Schon in vergangenen Jahrhunderten errichteten Herrscher und Staatsführungen auf dem Reißbrett entstandene Hauptstädte. 1703 ließ Zar Peter I. in den Sümpfen der Newa-Mündung den Grundstein für die neue russische Hauptstadt Sankt Petersburg legen. Von 1712 bis 1918 löste sie Moskau als Hauptstadt ab. Auch Washington, D.C. ist eine geplante Hauptstadt. Gegen Ende desselben Jahrhunderts wurde 1792 an den Ufern des Potomac River mit dem Bau der Hauptstadt der USA begonnen. Am 11. Juni 1800 wurde Washington offiziell zur Hauptstadt.
Auch in Deutschland ließen absolutistische Herrscher des 17. und 18. Jahrhunderts Residenzstädte völlig neu entstehen. Ein Beispiel dafür ist die ehemalige badische Landeshauptstadt Karlsruhe. Markgraf Karl Wilhelm von Baden-Durlach ließ am 17. Juni 1715 den Grundstein für die nach ihm benannte Stadt legen. Die strahlenförmige Anordnung der Straßen und Alleen, in deren Zentrum das Residenzschloss liegt, ist heute noch gut zu erkennen, ihr verdankt die Stadt den Beinamen „Fächerstadt“.
Von der Hauptstadt abweichender Regierungssitz
Der Regierungssitz einiger weniger Staaten befindet sich nicht in der Hauptstadt. So ist Amsterdam sowohl die größte Stadt der Niederlande als auch deren nominelle Hauptstadt, offizieller Regierungssitz und königliche Residenz ist jedoch Den Haag. In Südafrika verteilt sich der Sitz der Verfassungsorgane sogar auf drei Städte, wobei die größte Stadt (Johannesburg) nicht dazugehört. Das Parlament tagt in Kapstadt, das Verwaltungs- und Regierungszentrum ist Pretoria (Tshwane) und die obersten judikativen Einrichtungen (Gerichtshöfe) befinden sich in Bloemfontein.
Staaten ohne bzw. mit nicht international anerkannter Hauptstadt
De jure keine Hauptstadt haben Monaco, Nauru und die Vatikanstadt:
Bei Monaco und der Vatikanstadt gibt es aufgrund der Tatsache, dass es sich um reine Stadtstaaten handelt, keine Hauptstadt, auch wenn für Monaco häufig fälschlicherweise Monte-Carlo als Hauptstadt genannt wird.
In Nauru wird der Ort, an dem sich die Regierung befindet (Yaren), als inoffizielle Hauptstadt aufgefasst.
Sonderfälle finden sich in weiteren Staaten:
In der Schweiz wird Bern zwar durch zwei Bundesgesetze als Sitz von Exekutive und Legislative definiert, aber der Begriff Hauptstadt wird amtlich vermieden (siehe Hauptstadtfrage der Schweiz).
Israel hat das wiedervereinigte Jerusalem zu seiner Hauptstadt bestimmt. Viele Staaten lehnen die Erweiterung der Stadtgrenzen auf Ostjerusalem ab. Einige Staaten verweigern auch Westjerusalem die Anerkennung als Hauptstadt Israels, da Jerusalem nach dem Teilungsplan als Corpus separatum weder zum arabischen noch zum jüdischen Staat gehören sollte. Die meisten ausländischen Botschaften befinden sich in Tel Aviv oder dessen Vorstädten.
In Japan wiederum gibt es die Besonderheit, dass die Stadt Tokio 1943 aufgelöst wurde und die Hauptstadtfunktion von den 23 Stadtbezirken Tokios wahrgenommen wird, die als eigene Städte gelten. Des Weiteren ist unklar, ob Tokio auch de jure die Hauptstadt ist, da es nie eine explizite, offizielle Verlegung der Hauptstadt von Kyōto nach Tokio gab (siehe dazu Hauptstadt Japans).
In Liechtenstein gibt es keine Stadt. Vaduz wird daher als Hauptort des Fürstentums bezeichnet.
Hauptstadt von Teilstaaten
Auch Teilstaaten (beispielsweise Länder in Deutschland und Österreich oder Bundesstaaten in den USA) haben Landeshauptstädte, die für ihr Land außer den politischen auch die übrigen Hauptstadtfunktionen aufweisen. Im Land Preußen gab es auch Provinzhauptstädte. Jeder Schweizer Kanton kennt einen Hauptort, mit Ausnahme des Kantons Appenzell Ausserrhoden, das de jure keinen Hauptort kennt (de facto ist es Herisau).
Hauptstädte von Staaten
Dabei handelt es sich um eine teils historische, teils aktuelle Aufstellung der Hauptstädte der einzelnen Staaten, ihrer eventuellen Vorgängerstaaten (z. B. Deutscher Bund, Deutsches Reich), der obersten Verwaltungseinheiten (Bundesstaaten, Länder, Bundesländer, Provinzen) und der abhängigen Gebiete.
Liste der Hauptstädte der Erde
Hauptstädte Australiens
Hauptstädte Brasiliens
Hauptstädte Deutschlands
Hauptstädte Kanadas
Hauptstädte Kasachstans
Hauptstädte Nigerias
Hauptstädte Österreichs
Hauptstädte Polens
Hauptstädte der Vereinigten Staaten von Amerika
Staaten und subnationale Entitäten mit mehreren Hauptstädten
Staaten, die heute mehrere Hauptstädte haben
Staaten, die in der Vergangenheit mehrere Hauptstädte hatten
Subnationale Entitäten mit zwei Hauptstädten
Indien
Der Bundesstaat Jammu und Kashmir hat je nach Jahreszeit eine andere Hauptstadt, im Sommer Srinagar und im Winter Jammu.
Polen: in Polen gibt es zwei Woiwodschaften, deren Verwaltungsorgane in jeweils zwei Städte geteilt sind. Eine davon ist Sitz des Woiwoden, die andere des Sejmiks (Regionalparlament) und des Woiwodschaftsmarschalls (Parlamentspräsident). Keine der beiden Städte gilt damit offiziell als Hauptstadt, jedoch werden beide im Sprachgebrauch so genannt.
Woiwodschaft Kujawien-Pommern:
Woiwodensitz: Bydgoszcz (Bromberg)
Parlamentssitz: Toruń (Thorn)
Woiwodschaft Lebus:
Woiwodensitz: Gorzów Wielkopolski (Landsberg/Warthe)
Parlamentssitz: Zielona Góra (Grünberg)
Subnationale Entitäten mit gemeinsamer Hauptstadt
Österreich
Die Bundeshauptstadt Wien ist
Stadtstaat
und war außerdem von 1922 bis 1986 Hauptstadt (bis 1996 noch Regierungssitz) von Niederösterreich
Indien
Das Unionsterritorium Chandigarh ist die Hauptstadt der Bundesstaaten
Punjab
Haryana
Als Besonderheit liegt die Hauptstadt außerhalb beider Bundesstaaten.
Hyderabad liegt im 2014 neu gebildeten Bundesstaat Telangana, fungiert aber für weitere zehn Jahre noch als Hauptstadt von Andhra Pradesh
Kleinste und größte Hauptstädte der Welt
Angaben basieren auf Volkszählungen gemäß Liste der Hauptstädte der Erde. Berechnungen auf Grundlage von World Gazetteer.
Die fünf kleinsten Hauptstädte (ohne Agglomeration)
Die fünf größten Hauptstädte (ohne Agglomeration)
Die fünf größten Hauptstädte (mit Agglomeration)
Die kleinsten Hauptstädte nach Kontinenten
Die größten Hauptstädte nach Kontinenten (ohne Agglomeration)
Die größten Hauptstädte nach Kontinenten (mit Agglomeration)
Die fünf größten Hauptstädte um 1900
Hauptstädte, die nicht größte Städte ihres Landes sind
Insgesamt gibt es derzeit 39 Staaten auf der Welt, deren Hauptstädte ihrer Einwohnerzahl nach nicht an erster Stelle des Landes stehen. Das sind wie folgt:
Siehe auch
Hauptstadtbeschluss
Hauptstadtplanung
Hauptstadtfrage
Hauptstadtfrage der Bundesrepublik Deutschland
Literatur
Andreas W. Daum: Capitals in Modern History: Inventing Urban Spaces for the Nation. In: Andreas W. Daum, Christof Mauch: Berlin – Washington, 1800–2000: Capital Cities, Cultural Representation, and National Identities. Cambridge University Press, Cambridge 2011, ISBN 978-1-107-40258-4, S. 3–28.
Jens Kirsch: Hauptstadt – Zum Wesen und Wandel eines nationalen Symbols. LIT-Verlag, Münster 2005, ISBN 3-8258-8593-3.
Weblinks
Hauptstädte der Welt, deutsche Landeshauptstädte inkl. Telefonvorwahlen
Einzelnachweise
Stadttitel
Politische Geographie
!Welt
|
Q5119
| 6,949.352343 |
26463
|
https://de.wikipedia.org/wiki/Franchising
|
Franchising
|
Der Anglizismus Franchising steht in der Wirtschaft für Vertriebssysteme, mit deren Hilfe Produkte, Dienstleistungen, Know-how oder Technologien unter Beachtung von vorgegebenen Standards vermarktet werden, wobei die wirtschaftliche und rechtliche Selbständigkeit der Vertragsparteien erhalten bleibt.
Etymologie
Franchising gilt zwar als Anglizismus, geht aber auf („Abgabenfreiheit“, zu , „frei“) zurück. Im 12. Jahrhundert wurden in Frankreich erstmals formelle Gestaltungen der „Franchise“ () vollzogen, die es weltlichen und geistigen Machthabern ermöglichte, ihren Untertanen gegen eine Gebühr das Nutzungsrecht für Ackerflächen zu übertragen. Ab dem 17. Jahrhundert bezeichnete man in Frankreich und England das vom Staat verliehene Recht, bestimmte Produkte herzustellen und diese zu vertreiben, als „Franchising“. In den USA gilt Coca-Cola als erster Franchise-Geber, als die Gesellschaft 1892 einen langfristigen Vertrag über den Produktvertrieb mit einem Unternehmen in Boston abschloss.
Allgemeines
Franchising bewahrt die wirtschaftliche und rechtliche Selbständigkeit der Vertragsparteien. Vertragsparteien sind der Franchise-Geber und der Franchise-Nehmer auf Grundlage eines Dauerschuldverhältnisses. Der Franchise-Geber will seine Produkte, Dienstleistungen usw. nicht (nur) selbst vermarkten, sondern sucht nach Franchise-Nehmern, die bereit sind, unter umfassenden Vertragsbedingungen diese Produkte im eigenen Namen und für eigene Rechnung zu vertreiben. Der Deutsche Franchiseverband e.V. definiert Franchising folgendermaßen: „Franchising ist ein auf Partnerschaft basierendes Absatzsystem mit dem Ziel der Verkaufsförderung. Der sogenannte Franchisegeber übernimmt die Planung, Durchführung und Kontrolle eines erfolgreichen Betriebstyps. Er erstellt ein unternehmerisches Gesamtkonzept, das von seinen Geschäftspartnern, den Franchisenehmern, selbständig an ihrem Standort umgesetzt wird“.
Geschichte
Das Coca-Cola-System weist die Besonderheit auf, dass die Franchise-Nehmer auch die Produktion übernehmen (Produktionsfranchising). General Motors verkaufte ab 1898 Kraftfahrzeuge auch an seine Handelsvertreter, die ihrerseits Autokäufer finden mussten. Die älteste noch existierende Systemgastronomie auf Franchise-Basis ist die 1922 gegründete A&W. Am 8. April 1929 wurde die erste Flasche Coca-Cola in Essen abgefüllt. Howard Deering Johnson (1897–1972) gründete 1936 in den USA seine Restaurant-Kette Howard Johnson’s als Franchising.
Neben dem Produktionsfranchising entstand auch das Produktfranchising als Vertrieb der vom Franchise-Geber allein hergestellten Produkte. Das Betriebsfranchising wiederum umfasst die Vermarktung eines Geschäftsmodells mit Know-how, wodurch Franchising auch im Dienstleistungssektor möglich ist. So wurde 1953 Neil Fox erster Franchise-Nehmer der Brüder McDonald’s.
Franchising allgemein verbreitete sich in Westeuropa erst nach 1960. In Deutschland wurden durch den Kochlöffel-Gründer Heinrich Lobenberg ab 1965 etwa 35 Wimpy-Filialen eröffnet. Damit gilt Wimpy als das erste Franchise-System auf dem deutschen Markt. Es folgten die Fischrestaurant-Kette Nordsee (1968), die Drogeriekette Ihr Platz (1969), dann die ersten deutschen Franchise-Systeme Quick Schuh (1969) und OBI (1970). Die McDonald’s Fast-Food-Kette startete nach umfangreichen Marktanalysen erst im Dezember 1971 in Deutschland.
Wirtschaftliche Aspekte
Franchising kann vereinfacht als ein vertraglich festgelegtes Geschäftsmodell zur vertikalen Kooperation verschiedener Partner definiert werden, bei dem der Franchise-Geber den rechtlich und finanziell selbständigen Franchise-Nehmern ein Geschäftskonzept nach seinen Vorgaben zur entgeltlichen Nutzung überlässt. Damit ist es deutlich vom Filialsystem unterschieden.
Als Grundtypen werden Produkt-, Vertriebs- und Dienstleistungsfranchising unterschieden. Beim Produktfranchising, missverständlich auch als Konzession bezeichnet, liegen Produktion und Vertrieb in der Verantwortung des Franchise-Nehmers. Beim Vertriebsfranchising oder Distributionsfranchising handelt es sich um ein dezentrales vertikales Absatzsystem mit einer Mischung aus indirektem Verkauf und direktem Verkauf. Beim Dienstleistungsfranchising geht es um standardisierte Serviceleistungen.
Oftmals sind die Nutzungsrechte und -pflichten an Marken, Warenmustern oder Geschmacksmustern neben der Vermittlung von Know-how ein wichtiger Bestandteil der Vereinbarungen der Franchise-Partner. Zentral sind auch die Festlegung der regionalen Zuständigkeit und des Zeitraums.
Aus Sicht des Franchise-Gebers besteht der Vorteil des Franchisings in der Möglichkeit, das Risiko zu streuen und das Geschäft mit Hilfe motivierter Partner vor allem auf internationale Märkte auszuweiten. Aus Sicht des Franchise-Nehmers handelt es sich positiv gesehen um die Nutzung eines erfolgversprechenden Geschäftsmodells mit einer etablierten Marke, mit Hilfe von Kapital, Know-how und Unterstützungsleistungen des Franchise-Gebers.
Kritisch wird am Franchising gesehen, dass es sich nicht um eine gleichwertige Partnerschaft handle. Der Franchise-Geber sei dem -Nehmer deutlich überlegen. Das Vertragsverhältnis enthalte hohe Risiken für den Franchise-Nehmer. Verträgen mangele es oft an Transparenz (vorvertragliche Aufklärungspflicht). Es fehle in Deutschland eine gesetzliche Regelung, und es gebe keine ausreichende Rechtssicherheit für den Franchise-Nehmer.
Dem Franchising wird eine Tendenz zur Standardisierung von Produkten und Dienstleistungen und zum Verdrängungswettbewerb, auch Monopolbildung, vorgeworfen. Damit einher gingen kulturelle Nivellierung (Beispiel Systemgastronomie), Durchsetzung des Massengeschmacks und Qualitätsverlust.
Rechtsfragen
Der Franchise-Nehmer verkauft seine Erzeugnisse oder seine Dienstleistungen rechtlich selbständig, zahlt dafür Gebühren für die Verwendung einheitlicher Ausstattung, für einen einheitlichen Namen und Auftreten nach außen, ein Symbol oder zur Nutzung einer Marke und für ein einheitliches Vertriebssystem sowie oftmals für gemeinsame Buchhaltung. Der Franchise-Geber bildet den Franchise-Nehmer aus, er prüft die Umsetzung des Konzeptes und kann Anweisungen erteilen.
Der Franchise-Nehmer ist rechtlich Händler im eigenen Namen und auf eigene Rechnung.
Merkmale
Es gibt verschiedene Auffassungen des Kooperationsmodelles. Während sich in Europa zunächst eigenständige Systeme wie Genossenschaften, Handelsketten oder Agenturen gebildet haben, wurde in den USA sämtlicher auf gleicher Ebene kooperierender Vertrieb unter dem Begriff Franchising zusammengefasst. Entscheidend für das Bestehen von Franchising ist die enge Zusammenarbeit von Franchise-Gebern und Franchise-Nehmern, die alle als rechtlich selbständige Unternehmung bestehen bleiben. Die Kooperation findet nur in einem vertraglich klar vorgegebenen Rahmen statt.
Ein Franchise-System ist durch Merkmale gekennzeichnet:
Selbständige Unternehmer vereinbaren vertraglich eine auf Dauer angelegte Zusammenarbeit.
Der Franchise-Nehmer erhält gegen Bezahlung die Erlaubnis, über Rechte des Franchise-Gebers in einem genau festgelegten Rahmen zu verfügen, diese Rechte sind u. a.: Benutzung von Markennamen und/oder Firma, Anwendung einer Rezeptur, Erzeugung und/oder Vertrieb einer Warengruppe.
Unterstützung vom Franchise-Geber beim Aufbau sowie der laufenden Führung des Betriebs.
Franchising unterscheidet sich von anderen Vertriebsformen durch Merkmale wie Handbuch, CI/CD, Training-Einarbeitung-Mentoring, Standortanalyse, Gebietsschutz, zivilrechtliche Vertragsunterlagen, zentrale Beschaffungsmöglichkeiten etc.
Grundgedanke ist eine Amortisation der investierten Summe in einer festgelegten Zeit, meistens der Lizenzzeit entsprechend.
Besondere Rechte hat der Franchise-Nehmer in der sogenannten vorvertraglichen Aufklärungsphase. Der Franchise-Geber muss wahrheitsgetreu, verständlich, vollständig und nachweisbar alle relevanten Angaben zum System dem Interessenten aufgeben.
Abfüller von Getränken wie Coca-Cola oder Pepsi gehören zur Gruppe der Waren- und Produktfranchising-Systeme (). In den 1950er Jahren entstand eine weitere Form des Franchisings, das sog. „Business Product Franchising“, wozu z. B. Systeme in Hotellerie, Gastronomie und Handel zählen.
Typen
Hauptunterscheidungsmerkmal innerhalb der verschiedenen Franchise-Konzepte ist der Vertragsinhalt. Beim Waren- und Produktionsfranchising ist die Produktion und der Absatz einer bestimmten Warengruppe oder einzelner Waren Bestandteil der Vereinbarungen. Dabei kann bei dieser Art des Franchisings der Franchise-Geber als Produzent auftreten, der mit einem Abfüller (wie bei Coca-Cola) zusammenarbeitet. Es gibt auch Zusammenarbeiten zwischen Großhändlern und Einzelhändlern. Diese Form von Franchising ist in den Vereinigten Staaten weiter verbreitet als in Deutschland, wobei es auch hier überaus erfolgreiche, größtenteils Fachhandelssysteme wie Fressnapf oder OBI gibt.
In den letzten Jahrzehnten wurde auch das Dienstleistungsfranchising populärer. Beispiele sind neben McDonald’s, Burger King, BackWerk, Hallo Pizza oder Subway in der Gastronomiebranche die französische Hotelgruppe Accor (u. a. Ibis, Mercure, Sofitel, Pullman) oder die Autovermietung Hertz im Bereich der Dienstleistungen sowie Unitymedia und Vodafone in der Telekommunikation. Social Franchising heißen dabei die Dienstleistungen im sozialen Bereich.
Franchise-System
Ein Franchise-System ist ein Vertriebssystem mit selbständigen Unternehmern. Ein Hauptmerkmal ist einheitliches Auftreten am Markt. Geprägt wird es durch das arbeitsteilige Leistungsprogramm der Franchise-Nehmer. Das Franchise-System tritt als Franchise-Geber auf.
Franchise-Vertrag
Franchising ist nicht gesetzlich geregelt und basiert auf dem Franchise-Vertrag. Der Franchise-Vertrag ist ein gemischter Vertrag, der aus Elementen des Lizenzvertrages, Vertriebsvertrag und Know-how-Vertrag sowie darüber hinausgehenden Regelungsinhalten besteht. Der Franchise-Geber ist dem Franchise-Nehmer durch den Franchise-Vertrag in der Regel verpflichtet, Nutzungsrechte an Schutzrechten (Markenrecht, Urheberrecht, Musterrecht, Patentrecht) zu gewähren und das notwendige Know-how bereitzustellen, wofür der Franchise-Nehmer die Franchise-Gebühr zu zahlen hat. Darüber hinaus werden in aller Regel Vertragsgebiet, Schulungskonzepte, Marketing- und Werbekonzepte, Kontrollrechte, Berichtswesen, Buchführung, Abwerbe- und Wettbewerbsverbot, Vertragsdauer und Beendigung geregelt.
Aufbau
Eignung
Nicht jedes erfolgreiche Geschäftskonzept lässt sich auch multiplizieren. Es lässt sich abhängig von der Qualifikation des Franchise-Nehmers sowie der Marktbedingungen eher reproduzieren als nicht erfolgreich erprobte Geschäftsmodelle. Eine Vereinfachung und Standardisierung der Geschäftsabläufe sollte auf dem Weg zum Franchise-System erfolgen. Ein Aspekt des Franchisings ist auch der hohe Wiedererkennungswert und gleichbleibend gute Leistung von allen Franchise-Partnern. Vereinheitlichung ist also notwendig für den Marktauftritt.
Pilotbetrieb
Ein Unternehmen sollte nach dem Europäischen Verhaltenskodex für Franchising mindestens einen erfolgreichen Pilotbetrieb haben, um mittels Franchising expandieren zu können und somit ein Franchise-System zu werden. Der Pilotbetrieb sollte außerdem über einen längeren Zeitraum – ca. 1 bis 2 Jahre – beobachtet werden, da hier die Geschäftsidee erprobt wird. Die Erkenntnisse, die in dieser Zeit gewonnen werden, können ausschlaggebend sein für die erfolgreiche Multiplikation der Geschäftsidee.
Handbuch
Das Handbuch eines Franchise-Systems ist das wichtigste Element für eine erfolgreiche Expansion mit Franchise-Nehmern, denn es enthält alle relevanten Informationen und das Know-how, um das Geschäftskonzept ideal umzusetzen. Es ist äußerst detailreich und beinhaltet konkrete Handlungsanweisungen für den Franchise-Nehmer. Formulare und Statistiken sind hier ebenso zu finden wie Aussagen über die Corporate Identity, Personalpolitik, Marketing und Controlling.
Leistungen
Was Franchise-Systeme den Franchise-Nehmern bieten, variiert von System zu System. Einige Leistungen sind aber spezifisch für ein Franchise-System. Dazu gehören zum Beispiel geschütztes Know-how, ein Franchise-Vertrag, Betreuung der Franchise-Nehmer und Schulungsmöglichkeiten.
Vor- und Nachteile
Vorteile
für den Franchise-Nehmer
der Eintritt in den Markt wird beschleunigt, wenn das System bekannt und etabliert ist
der Franchise-Nehmer hat (oft) Gebietsschutz (lokales Monopol) innerhalb des Systems
der Franchise-Geber stellt ein erprobtes Geschäftskonzept und dazu ein komplettes Leistungspaket zur Verfügung
die Kreditwürdigkeit ist bei manchen Kreditinstituten höher, wenn das unternehmerische Risiko reduziert erscheint
der Franchise-Nehmer kann Größenvorteile (z. B. bei Werbeaktionen oder im Einkauf) nutzen
der Franchise-Nehmer erhält effiziente Arbeitsabläufe, die sich in der Praxis bewährt haben
durch fortlaufende Schulungen und Weiterbildungen verbessert sich die Leistung des Franchise-Nehmers
durch die Kontrolle des Franchise-Gebers werden Missstände erkannt und verändert
für den Franchise-Geber
der Franchise-Geber nutzt insbesondere die Bereitschaft des Franchise-Nehmers, als selbständiger Unternehmer zu handeln
der Franchise-Geber kann den Aufwand eines Filialsystems vermeiden und ein für sein Unternehmen zugeschnittenes Vertriebsnetz aufbauen
der Franchise-Geber kann mit Serviceleistungen Umsatz generieren (Service, Training, Buchhaltung, IT etc.) oder eigene Fixkosten reduzieren
der Franchise-Geber partizipiert an Einkaufsvorteilen
steigende Attraktivität bei den Lieferanten
schnelle Expansionsmöglichkeiten
geringes wirtschaftliches Risiko
geringeres Risiko in einigen Haftungsfragen durch vorgeschaltete Vertragsunternehmen
zivilrechtlicher Vertragshintergrund – weitestgehend freie Vertragsgestaltung
Nachteile
für den Franchise-Nehmer
Zahlung von Eintrittsgeld, laufender Franchise-Gebühr usw. (je nach System existieren hier verschiedene Modelle)
Gefahr, dass das eigene Image durch Aktionen des Franchise-Gebers und der anderen Franchise-Nehmer beeinträchtigt wird
geringere unternehmerische Freiheit
wenig bzw. kaum Einfluss auf die Geschäftsplanung (z. B. den Verkauf des Systems) des Franchise-Gebers
Gefahr von Interessenskonflikten zwischen Franchise-Nehmer und -Geber
z. T. Haftungsübernahme für fremde Produkte und Dienstleistungen
es gibt kein Franchise-Gesetz in Deutschland (z. B. über vorvertragliche Aufklärungspflichten)
für den Franchise-Geber
Verzicht auf einen Teil der Erträge
Risiko, von den Arbeitsgerichten, Sozialversicherungsträgern und dem Finanzamt als Arbeitgeber von Scheinselbständigen angesehen und nachträglich mit rückständigem Arbeitsentgelt und Sozialabgaben belastet zu werden
Fehlverhalten der Franchise-Nehmer fällt auf den Franchise-Geber zurück
aufwendige Kontrollen erforderlich
Gemäß den Richtlinien des DFV (Deutscher Franchiseverband) obliegt dem Franchise-Geber durch seinen Wissensvorsprung die Pflicht, im Rahmen der vorvertraglichen Aufklärung einem Franchise-Nehmer-Bewerber vor Unterschrift des Vertrages nachweislich (schriftlich, in der Landessprache) richtig und vollständig alle relevanten Kennzahlen und Kalkulationsgrundlagen des Systems offenzulegen, um den Franchise-Nehmer in die Lage zu versetzen, Chancen und Risiken seiner Gründung selbst einzuschätzen. Im Falle eines Verstoßes gegen diese Richtlinien drohen dem Franchise-Geber, neben der außerordentlichen Kündigung des Vertrages, Schadensersatzansprüche und Zivilprozesse.
Statistik
Deutschland
Im Jahr 2021 gab es in Deutschland insgesamt 1.020 Franchise-Geber und 141.821 Franchise-Partner mit 787.207 Beschäftigten. Franchise-Systeme setzten im Jahr 2021 bundesweit 135,8 Mrd. Euro um, 2005 waren es 32,3 Mrd. Euro.
Die wichtigsten Franchise-Aktivitäten in Deutschland
(Anzahl der Franchise-Systeme / prozentualer Anteil aller Franchise-Systeme)
Gesamt 614 / 100 %, Stand August 2015
Hotellerie & Gastronomie 124 / 20,20 %
Einzelhandel & Fachhandel 120 / 19,54 %
Personenbetreuung & -pflege 72 / 11,73 %
Beratung & Schulung 71 / 11,56 %
Vermittlung & Vermietung 61 / 9,93 %
Sonstiger Vertrieb 35 / 5,70 %
Reparatur & Renovierung 31 / 5,05 %
Sonstige Dienstleistungen 30 / 4,89 %
Herstellung & Recycling 21 / 3,42 %
Reinigung & Instandhaltung 19 / 3,09 %
Geschäftshilfe & Büroarbeit 16 / 2,61 %
Transport & Zustellung 14 / 2,28 %
Österreich
Im Jahr 2019 gab es in Österreich insgesamt 480 Franchise-Systeme (2/3 davon aus Österreich stammend) mit 9.400 Franchise-Nehmern (davon 2.100 Multi-Unit-Partner) und 87.300 Beschäftigten. Franchise-Systeme setzten im Jahr 2019 geschätzt 10,3 Mrd. Euro um. Ein Franchise-System betreibt im Schnitt 25 Standorte mit 20 Franchise-Nehmern und 180 Beschäftigten. 76 % der Franchise-Systeme führen mindestens einen selbst betriebenen Standort, der nicht in der Hand eines Franchise-Nehmers liegt.
Beispiele
Die bekanntesten Franchise-Systeme stammen sicherlich aus der Systemgastronomie. McDonald’s, Burger King oder Subway sind mit Franchise-Partnern stark auf dem deutschen Markt vertreten. Aber auch in den Branchen Dienstleistung, Einzelhandel, Handwerk oder in der Fitness- und Wellness-Branche sind Franchise-Systeme etabliert. Unternehmen wie Apollo-Optik, Reno, Obi, Portas, Schülerhilfe und Musikschule Fröhlich präsentieren anschaulich die Bandbreite der Franchise-Systeme in Deutschland. Auch die meisten niedergelassenen Autohändler der großen Marken wie Mercedes-Benz oder Volkswagen AG arbeiten als Franchise-System. Ausnahmen bilden lediglich die Direktniederlassungen der Hersteller und markenunabhängige Händler.
Siehe auch
Franchising (Sport)
Social Franchising
Vertrag sui generis
Literatur
Dieter Ahlert, Martin Ahlert (Hrsg.): Handbuch Franchising und Cooperation. Das Management kooperativer Unternehmensnetzwerke. Deutscher Fachverlag, Frankfurt am Main 2010, ISBN 978-3-86641-236-1.
Veronika Bellone, Thomas Matla: Praxisbuch Franchising Konzeptaufbau und Markenführung. 3. Auflage. mi-Wirtschaftsbuch, München 2013, ISBN 978-3-86880-119-4. (Lizenzausgabe Hocharabisch, Arab Nile Group, Cairo/Egypt 2013, )
Veronika Bellone, Thomas Matla: Green Franchising. 1. Auflage. mi-Wirtschaftsbuch, München 2013, ISBN 978-3-86880-137-8.
Jasper J. Bröker: Erfolgreiches Management komplexer Franchisesysteme auf Grundlage des Viable System Model. Dissertation. Bamberg 2005. (online, PDF; 3,12 MB).
Patrick Dieses: Zukunft des Franchising in Deutschland. Analyse von Beschäftigungspotenzialen mit Vorschlägen für verbesserte Wachstumsbedingungen. Dissertation (= Studien zur Wirtschaftspolitik, Bd. 79). Lang, Frankfurt am Main u. a. 2004, ISBN 3-631-52124-3.
Gerd Garmaier: Wirtschaftsethische Aspekte des Franchisings. Die erfolgreiche Überwindung von Dilemmastrukturen. Dissertation. Gabler, Wiesbaden 2010, ISBN 978-3-8349-2087-4.
Patrick Giesler, Jürgen Nauschütt (Hrsg.): Franchiserecht. 2., neubearbeitete und erweiterte Auflage. Luchterhand, Neuwied 2007, ISBN 978-3-472-06387-2.
John F. Love: Die McDonald's Story. Anatomie eines Welterfolges. (= Heyne-Bücher, 19, 1024). Aktualisierte und erweiterte Taschenbuchausgabe. Heyne, München 1996, ISBN 3-453-09916-8.
Waltraud Martius: Fairplay Franchising – Spielregeln einer erfolgreichen Partnerschaft. 3. erweiterte Auflage. Springer-Gabler Verlag, Wiesbaden 2015, ISBN 978-3-658-04827-3.
Jürgen Nebel, Albrecht Schulz, Eckhard Flohr (Hrsg.): Das Franchise System. Handbuch für Franchisegeber und Franchisenehmer. 4., vollständig überarbeitete Auflage, Vahlen, November 2007, ISBN 978-3-8006-3330-2.
peckert public relations: Existenzgründung mit System. Ein Leitfaden des Deutschen Franchiseverbands e.V. Deutscher Franchiseverband e.V., Bonn 1999, (online PDF; 315 KB)
Martin Schäfer (Hrsg.): Verzeichnis der Franchise-Wirtschaft 2019/2020 für Deutschland, Österreich und die Schweiz. Unternehmerverlag, Remagen 2019.
Walther Skaupy: Franchising. Handbuch für die Betriebs- und Rechtspraxis. 2., neu bearbeitete Auflage. Vahlen, München 1995, ISBN 3-8006-1690-4.
Julian Steiff: Opportunismus in Franchisesystemen. Ein Beitrag zur Führung und Bewertung von Franchisesystemen. Dissertation. Deutscher Universitätsverlag, Wiesbaden 2004, ISBN 3-8244-8177-4.
Jürgen Arnold: Franchise-Systeme – Gemeinsam erfolgreicher werden. 2007
Klaus P. Morin: Franchising – Ein moderner Weg zur Existenzgründung. 2001
Dave Thomas, Michael Seid: Franchising für Dummies. 2000
Georg Spranger: Plural Franchise Organizations. 2005, Dissertation, online.
Weblinks
Deutscher Franchiseverband
Österreichischer Franchise-Verband
Internationales Centrum für Franchising & Cooperation (F&C), Münster: Franchise-Forschung
Einzelnachweise
Planung und Organisation
Finanzierung
Distributionspolitik
|
Q171947
| 98.169143 |
592901
|
https://de.wikipedia.org/wiki/Stoffkreislauf
|
Stoffkreislauf
|
Als Stoffkreislauf bezeichnet man in der Ökologie eine periodische Umwandlung von chemischen Verbindungen, in deren Verlauf – nach einer Reihe von chemischen Reaktionen – erneut der Ausgangsstoff entsteht. In Ökosystemen gibt es diverse Stoffkreisläufe, zum Beispiel einen Kohlenstoffkreislauf, einen Stickstoffkreislauf, einen Schwefelkreislauf und einen Phosphorkreislauf.
Faktoren
Für den Aufbau von organischen Geweben und den Stoffwechsel benötigen Lebewesen eine Reihe chemischer Elemente und ihrer Verbindungen. Die Zufuhr und Nachlieferung dieser Nährstoffe kann, ebenso wie die Energiezufuhr, die Produktion eines Ökosystems limitieren. Die Produktion vieler terrestrischer Systeme ist durch Mangel an Stickstoff begrenzt, in aquatischen Systemen ist häufig Phosphor limitierend, in marinen kann Mangel an Eisen die Produktivität begrenzen. Die Nachlieferung der Nährelemente kann von außerhalb des Ökosystems erfolgen, je nach Element durch Verwitterung von Gestein, durch Wassertransport oder durch Zufuhr aus der Atmosphäre. Große Mengen der benötigten Nährelemente werden allerdings innerhalb des Systems ausgetauscht. Dadurch können dieselben Nährstoffe innerhalb des Systems mehrfach verwendet und so seine Produktivität aufrechterhalten werden. Durch diese internen Stoffkreisläufe können Konsumenten und Destruenten indirekt die Produktivität des Ökosystems steuern.
Einen Nährstoffzyklus innerhalb eines Ökosystems können nur Elemente eingehen, die (neben der Speicherung in den Organismen selbst) einen anorganischen Speicher besitzen. Gasförmige Verbindungen in der Lufthülle, wie Kohlendioxid, können im System keinen Zyklus aufbauen, sie werden mit dem gesamten Speicher der Atmosphäre ausgetauscht. Als Ionen gelöste Stoffe können in der Bodenmatrix oder im Wasserkörper eines Gewässers festgehalten und erneut aufgenommen werden. Da die Erde für Stoffe ein (nahezu) geschlossenes System darstellt, müssen aber zwangsläufig auf globaler Ebene alle Nährstoffzyklen geschlossen sein. Innerhalb der Biosphäre, die nur ein Teilsystem darstellt, gilt dies nicht zwangsläufig. Austauschprozesse mit tieferen Schichten wie dem Erdmantel sind auf kurze Sicht gegenüber den Umsätzen innerhalb der Biosphäre gering, können aber in evolutionären und geologischen Zeitskalen gewaltige Auswirkungen haben.
Für die Betrachtung der Stoffkreisläufe ist also neben den zyklischen Vorgängen selbst der Stoffaustausch mit abiotischen Speichern, vor allem der Erdatmosphäre und den Böden und Sedimenten von Bedeutung.
Verursacher
Biologische Stoffkreisläufe werden von Lebewesen angetrieben. Lebewesen, die aus anorganischen Stoffen organische Masse aufbauen werden als Produzenten (Erzeuger) bezeichnet. Neben einigen photo- oder chemoautotrophen Bakterien sind dies ausschließlich Pflanzen. Die so gebildete Biomasse wird von Destruenten (Zersetzern) wieder in anorganische Stoffe mineralisiert. Destruenten sind weit überwiegend heterotrophe Bakterien und Pilze. Das einfachste denkbare Ökosystem besteht also aus einem Produzenten und einem Destruenten.
Fast alle Ökosysteme weisen neben diesen Gruppen noch Konsumenten (Verbraucher) auf, diese verbrauchen organische Stoffe zur Energiegewinnung. Konsumenten nutzen die aufgenommene Biomasse teilweise zum Aufbau der eigenen Körpergewebe, der Rest wird über Kot und andere Abfallstoffe abgegeben. Die Konsumtionsrate, d. h. der Anteil der Primärproduktion, der von den Herbivoren (den Primärkonsumenten) aufgenommen wird, liegt in den meisten terrestrischen Ökosystemen in der Größenordnung von 10 %, er kann ausnahmsweise höher liegen (bis 90 %), z. B. in durch Huftieren beweideten Savannen-Ökosystemen. Der Rest der Produktion geht direkt in die Destruenten-Nahrungskette (als Pflanzenstreu, im Wald z. B. als Totholz und Falllaub). Auch bei geringen Umsatzanteilen kann der indirekte Einfluss der Konsumenten auf die Stoffflüsse beachtlich sein.
Letztlich wird auch die Biomasse der Konsumenten schließlich von Destruenten mineralisiert werden. Über die Nahrungsnetze gelangen die Stoffe somit von den Produzenten teilweise zu den Konsumenten und alles schließlich zu den Destruenten. Durch die Konsumenten wird der Stoffumsatz und damit die Kreisläufe gegenüber der Destruentenkette beschleunigt.
Da viele Tiere wandern, transportieren und verteilen sie außerdem die Nährstoffe. Das führt zu einer Vernetzung der Stoffkreisläufe verschiedener Ökosysteme. Die Verlagerung von Nährstoffen durch Tiere wird als Translokation bezeichnet.
Auswirkungen
In vielen naturnahen Landökosystemen sind die Stoffkreisläufe weitgehend geschlossen, die Stoffeinträge und Stoffausträge sind mit Ausnahme des Kohlenstoffs gering. Durch effektive Speicherung können Ökosysteme Nährstoffe, die wie beispielsweise Stickstoff und Phosphor Mangelfaktoren darstellen, aus den geringen Zufuhren von außen anreichern und damit die Produktivität des Systems enorm steigern. Die Zerstörung des Speichers wie z. B. der Biomasse oder der Humusvorräte des Bodens kann dadurch die Produktivität drastisch senken und das System temporär oder dauerhaft zerstören. Menschen sind bestrebt, die Produktivität der von ihnen unterhaltenen Agrarökosysteme durch Zufuhr von Nährstoffen als Dünger zu steigern. Diese in großen Mengen zugeführten Stoffe können dem System nicht nur wie erwünscht durch die produzierten Güter, sondern auch durch Auswaschung, Erosion oder Ausgasen verloren gehen. Auch durch industrielle Prozesse werden die Zyklen der beteiligten Elemente wie z. B. Kohlenstoff und Stickstoff stark beeinflusst. Natürliche Ökosysteme werden durch die dadurch bedingten Zufuhren verändert, wodurch ihre Stabilität beeinflusst werden kann. Die Auswirkungen sind auch auf globaler Ebene beträchtlich. Beispielsweise hat sich die Stickstoffzufuhr der gesamten terrestrischen Biosphäre durch menschliche Einflüsse in etwa verdoppelt.
Mathematische Beschreibung
Bezeichnet den Stoffanteil auf Ebene der Produzenten, jenen auf Ebene der Konsumenten und jenen auf Ebene der Destruenten bzw. frei verfügbare Anteile, so zeigt ein sehr einfacher Stoffkreislauf folgende Form:
Aus Symmetriegründen gilt:
Unter Ausnutzung dieses Zusammenhangs kann substituiert werden, was für und auf ein System mit nur zwei Variablen führt.
Quellen
Siehe auch
Stoffwechselweg
Sankey-Diagramm zur Veranschaulichung von Stoffkreisläufen
Ökosystemforschung
|
Q846303
| 130.729434 |
813011
|
https://de.wikipedia.org/wiki/Sangiin
|
Sangiin
|
Das Sangiin (japanisch , wörtlich: „Haus der Räte“; in westlichen Publikationen vereinzelt als Senat bezeichnet) ist das Oberhaus des Kokkai, des japanischen Parlaments. Es hat 248 Mitglieder, von denen alle drei Jahre die Hälfte neu gewählt wird. Das Sangiin ist schwächer als das Shūgiin (Abgeordnetenhaus), das Unterhaus, das im Konfliktfall den Ministerpräsidenten bestimmt und das Oberhaus in der Gesetzgebung mit Zweidrittelmehrheit überstimmen kann.
Geschichte
Nach der Meiji-Verfassung von 1889 wurde Japan nach preußischen und britischen Vorbildern konstitutionalisiert und der Reichstag als Zweikammerparlament eingerichtet. Als Oberhaus wurde das Kizokuin (, Herrenhaus) geschaffen, dem wie im Vereinigten Königreich Mitglieder des Adels (Kazoku) und wie im Königreich Preußen weitere ernannte Mitglieder, darunter auch einige von den Spitzensteuerzahlern jeder Präfektur sowie von akademischen Institutionen gewählte Mitglieder angehören durften. In der Verfassung von 1947 wurde das Kizokuin abgeschafft und durch das gewählte Sangiin ersetzt.
Zusammensetzung und Wahl
Das Sangiin wird alle drei Jahre zur Hälfte neu gewählt, die Amtszeit der Abgeordneten liegt bei sechs Jahren. Nach Reformen im Jahr 2018 wurde die Zahl der Mitglieder des Sangiin von bisher 242 bis zur Wahl 2022 auf 248 Mitglieder vergrößert. Wie heute auch beim Shūgiin – dort allerdings Mehrheitswahl ausschließlich in Einmandatswahlkreisen und Verhältniswahl in elf regionalen Wahlkreisen („Blöcken“) – kommt bei ordentlichen/regulären Sangiin-Wahlen ein Grabenwahlsystem mit zwei Stimmen zum Einsatz, das heißt zwei voneinander unabhängige Abstimmungen und Sitzzuteilungsverfahren für die 124 bei einer Wahl zu wählenden Abgeordneten:
74 Abgeordnete werden in 45 Wahlkreisen direkt gewählt; 43 Wahlkreise sind deckungsgleich mit Präfekturen, zwei seit 2016 vereinigte Wahlkreise bestehen jeweils aus zwei benachbarten Präfekturen: Tottori-Shimane und Kōchi-Tokushima. In jedem Wahlkreis werden bis zu sechs Abgeordnete durch nicht übertragbare Einzelstimmgebung gewählt – in den Einerwahlkreisen identisch mit einfachem Mehrheitswahlrecht.
Die übrigen 50 Abgeordneten werden auf nationaler Ebene durch Verhältniswahl im D’Hondt-Verfahren bestimmt. Seit der Wahl von 2001 haben die Wähler die Möglichkeit, durch die Angabe eines einzelnen Kandidaten einer Parteiliste Einfluss darauf zu nehmen, welche Kandidaten gewählt werden, ähnlich der Vorzugsstimme in Österreich, allerdings ohne Quorum: die Reihenfolge der Listenkandidaten, auch die potentieller Nachrücker, folgte bisher ganz der Zahl der Vorzugsstimmen. Ab der Wahl 2019 können Parteien aber, wenn sie wollen, geschützte Kandidaten an die Spitze ihrer Liste stellen.
Im Gegensatz zum Shūgiin kann ein Kandidat nicht gleichzeitig in beiden Segmenten antreten. Bis 1980 stand an der Stelle der Verhältniswahl ein das gesamte Land umfassender Wahlkreis, in dem ebenfalls Kandidaten und nicht Parteilisten gewählt wurden.
Ein Kandidat in einem Präfekturwahlkreis muss bei Registrierung 3.000.000 Yen (2016 rund 27.000 Euro) hinterlegen, die abhängig von seinem Stimmenanteil und der Mandatszahl des Wahlkreises zurückerstattet werden (Stimmen des Kandidaten>gültige Stimmen×1/8÷Mandatszahl, also in einem Einmandatswahlkreis ab 12,5 % der Stimmen, in einem Zweimandatswahlkreis 7,25 % usf.). Bei der Verhältniswahl müssen pro Listenkandidat 6.000.000 Yen hinterlegt werden, eine volle Rückerstattung erfolgt, wenn mindestens die Hälfte der Listenkandidaten der Partei gewählt wurden, bei weniger beträgt die rückerstattete Summe: 6.000.000 ¥×Anzahl der im Verhältniswahlwahlkreis gewählten Kandidaten×2. Zum Vergleich: Bei Kandidaten für das heute ausschließlich in Einmandatswahlkreisen gewählte britische Unterhaus beträgt die zu hinterlegende Summe heute nur 500 Pfund, und eine Rückerstattung erfolgt ab 5 % der Stimmen.
Das gesetzliche Quorum () für eine gültige Wahl beträgt in Mehrheitwahlwahlkreisen 1÷6÷Wahlkreismagnitude, also gerundet 16,7 % in einem Einmandatswahlkreis, 8,4 % in einem Zweimandatswahlkreis usw. Ist ein Kandidat nach seiner Platzierung gewählt, hat dabei aber das gesetzliche Quorum verfehlt, so muss die Wahl dieses Kandidaten so wie auch bei aus anderen Gründen ungültigen Wahlen (etwa durch Verstöße gegen Wahlgesetze) als „Wiederholungswahl“ () wiederholt werden. Im Verhältniswahlwahlkreis gibt es kein gesetzliches Quorum; die effektive Hürde durch das Verhältniswahlsystem und die seit 2019 gültige Wahlkreismagnitude von 50 liegt dort abhängig von den antretenden Parteien und der Stimmenverteilung normalerweise nahe 2 %.
Wählbar sind japanische Staatsbürger über 30 Jahren, die nicht für Wahlvergehen, Korruption oder schwere Straftaten verurteilt sind. Wahlberechtigt sind seit 2016 Bürger ab 18 Jahren (volljährig ist man in Japan aber nach wie vor erst mit 20, auch wenn eine Absenkung bereits damals gesellschaftlich diskutiert und inzwischen mit Wirkung vom Fiskaljahr 2022 gesetzlich beschlossen wurde).
Vakanzen werden in den Wahlkreisen durch Nachwahlen () im April oder Oktober, innerhalb von drei Monaten nach regulären Wahlen oder im Verhältniswahlkreis dagegen durch Nachrücker gefüllt. Fallen reguläre Sangiin-Wahlen mit einer Nachwahl für eine Vakanz in der nicht zur Wahl stehenden Hälfte der Kammer zusammen, so werden sie als eine gemeinsame Wahl durchgeführt: In einem regulären Zweimandatswahlkreis z. B. werden also drei Abgeordnete gewählt, wobei die zwei Kandidaten mit den höchsten Stimmenanteilen für sechs Jahre, der dritte nur für drei Jahre gewählt werden. Auf gleiche Weise wurden auch 1947 die ersten Wahlen in jedem Wahlkreis als eine gemeinsame Wahl zu beiden Hälften der Kammer durchgeführt.
Die Anzahl der Abgeordneten aus den Wahlkreisen ist wie folgt:
Kompetenzen
In der Gesetzgebung ist das Sangiin dem Shūgiin untergeordnet, das ein Gesetz im Konfliktfall mit einer Zweidrittelmehrheit durchsetzen kann. Bei der Wahl des Ministerpräsidenten, bei internationalen Verträgen und beim Haushalt ist das Votum des Shūgiin ausschlaggebend; findet über einen im Shūgiin verabschiedeten internationalen Vertrag oder den Haushalt im Sangiin innerhalb von 30 Tagen keine Abstimmung statt, so gilt er als angenommen. Lediglich bei bestimmten Personalnominierungen ist die Zustimmung beider Häuser zwingend erforderlich. Die Initiierung von Volksabstimmungen über Verfassungsänderungen muss in beiden Kammern mit Zweidrittelmehrheit beschlossen werden.
Das Sangiin kann gegen den Ministerpräsidenten oder einzelne Minister eine „Rügeresolution“ (, monseki ketsugi) verabschieden, die allerdings nicht bindend den Rücktritt nach sich zieht. Dies geschah bisher zehnmal, 1998 gegen den Leiter der Verteidigungsbehörde Fukushirō Nukaga, 2008 gegen Ministerpräsident Yasuo Fukuda, 2009 gegen Ministerpräsident Tarō Asō und 2010 gegen die Staatsminister Yoshito Sengoku und Sumio Mabuchi, 2011 gegen Verteidigungsminister Yasuo Ichikawa und den Leiter der Nationalen Kommission für Öffentliche Sicherheit Kenji Yamaoka, 2012 gegen Verkehrsminister Takeshi Maeda und Verteidigungsminister Naoki Tanaka und 2013 gegen Ministerpräsident Shinzō Abe. Alle zehn wurden bei einem „verdrehten Parlament“, also mit einer Oppositionsmehrheit im Sangiin beschlossen.
Institutionelle Reform
Da das Sangiin in allen entscheidenden Fragen dem Shūgiin untergeordnet ist, gibt es bereits seit seiner Errichtung eine Debatte über Reform oder Abschaffung des Sangiin. Die im Vergleich zum Shūgiin größere Ungleichheit der Wahl – im Extremfall 1992 hatten die Wähler in Tottori ein 6,5-faches Stimmgewicht gegenüber denen in Kanagawa – wurde vom Obersten Gerichtshof für verfassungswidrig befunden und zuletzt in relativ kurzen Abständen mehrfach durch Wahlkreisreformen korrigiert.
Nach dem erstmaligen klaren Verlust der Regierungsmehrheit (Nejire Kokkai) bei der Sangiin-Wahl 1989 hatte das politische Gewicht des Sangiin zunächst zugenommen, da die Regierungsparteien meist nicht über eine Zweidrittelmehrheit im Shūgiin verfügten und in der Regel versuchten, einen Konsens zwischen beiden Kammern herzustellen. Erstmals seit 1951 griff eine Regierung 2008 beim Antiterrorismusgesetz zum Mittel der Zweidrittelmehrheit im Shūgiin, um eine Oppositionsmehrheit im Sangiin zu überstimmen. Wenn eine Regierung über eine Zweidrittelmehrheit im Shūgiin verfügt und sie einsetzt, kommt das institutionelle Kräfteungleichgewicht zum Tragen: Dann kann das Sangiin einen Gesetzentwurf verzögern, aber nicht verhindern.
Letzte Wahl und aktuelle Zusammensetzung
Die letzte, 26. Sangiin-Wahl am 10. Juli 2022 führte zu folgendem Ergebnis:
Präsidium
Am 3. August 2022 (Eröffnungstag der 209. Kokkai) wurden HIdehisa Otsuji (LDP, Kagoshima) zum Präsidenten und Hiroyuki Nagahama (KDP, Chiba) zum Vizepräsidenten des Sangiin gewählt.
Nach Fraktion
Die Parlamentsfraktionen haben (Stand: 26. Oktober 2023, 212. Nationalversammlung) folgende Stärken:
Sitzordnung
Die Sitzordnung der Fraktionen, die vom Präsidenten der Kammer zu Beginn einer Sitzungsperiode festgelegt wird, entspricht nicht politischen links-rechts-Zuordnungen, wie das in manchen anderen Parlamenten, z. B. dem Deutschen Bundestag, der Fall ist. Stattdessen wird die stärkste Fraktion in der Mitte platziert, die kleineren Fraktionen rechts und links davon. So saßen beispielsweise im 55er-Parteiensystem lange die Kommunisten und Sozialisten rechts, die regierenden Liberaldemokraten in der Mitte und die Mitte-links-Opposition aus Demokratischen Sozialisten und Kōmeitō links. In der ersten Sitzung des Sangiin 1947 wurden die Abgeordneten zunächst nach Seniorität platziert.
Siehe auch
Liste der Präsidenten des Sangiin
Weblinks
Offizielle Website (japanisch)
Offizielle Website (englisch)
Einzelnachweise
Parlament (Japan)
Japanische Geschichte (Nachkriegszeit)
|
Q548911
| 116.682002 |
200241
|
https://de.wikipedia.org/wiki/Al-Chwarizmi
|
Al-Chwarizmi
|
Chwarizmi, arabisch al-Chwarizmi, kurz für Abu Dschaʿfar Muhammad ibn Musa al-Chwārizmī (, auch Chārazmī, ), latinisiert Algorismi (geboren um 780; gestorben zwischen 835 und 850), war ein choresmischer Universalgelehrter, Mathematiker, Astronom und Geograph während der abbasidischen Blütezeit im Frühmittelalter. Er stammte aus dem zentralasiatischen Choresmien. Einen großen Teil seines Lebens verbrachte er jedoch in Bagdad und wirkte dort im „Haus der Weisheit“, der berühmten Hochschule von Bagdad. Von seinem Namen leitet sich der Begriff Algorithmus ab.
Chwarizmi, der vor allem als einer der Begründer der Algebra bekannt ist, gilt als einer der bedeutendsten Mathematiker. Auch leistete er bedeutende Beiträge als Geograph, Astronom und Kartograph, dies auch durch Übersetzungen aus dem Sanskrit und dem Griechischen.
Leben
Das Geburts- und Todesjahr al-Chwarizmis sind nicht genau bekannt, doch der Bibliothekar Ibn an-Nadim schreibt über ihn, dass „er choresmischer Herkunft“ war (). Er hat den größten Teil seines Lebens in Bagdad, der Hauptstadt der Abbasiden-Kalifen, verbracht. Sein hauptsächliches Wirken fiel in die Jahre 813 bis 833. Er war Mitglied im „Haus der Weisheit“ () des Kalifen al-Maʾmūn und verfasste alle seine Werke in arabischer Sprache. Als einziger schreibt ihm der Historiker at-Tabarī zusätzlich die Nisba „al-Madschūsi“ () zu. Daraus wird von einigen gefolgert, er sei Zoroastrier gewesen, was zu der Zeit für einen Mann iranischer Herkunft immer noch möglich war. Allerdings deutet das Vorwort zu seinem Meisterwerk Algebra an, dass er ein orthodoxer Muslim war, und so kann at-Tabaris Anmerkung nicht viel mehr bedeuten, als dass al-Chwarizmis Vorfahren, oder vielleicht er selbst in seiner Jugend, Zoroastrier waren.
Die ersten lateinischen Übersetzungen seiner Algebra wurden in Spanien durch Robert von Chester (1145) und unabhängig etwas später von Gerhard von Cremona angefertigt. So beeinflusste er etwa den italienischen Mathematiker Leonardo Fibonacci (ca. 1170–1240).
Werke
Mathematik
In seinem Buch über die Indische Zahlschrift (um 825) – die arabische Urfassung dieses Buches ist verlorengegangen, es blieb nur in einer lateinischen Übersetzung mit dem Titel De numero Indorum erhalten – stellte al-Chwarizmi die Arbeit mit Dezimalzahlen vor und führte die Ziffer Null () aus dem indischen in das arabische Zahlensystem und damit in alle modernen Zahlensysteme ein. Eine lateinische Ausgabe dieser Schrift trug den Titel Algoritmi de numero Indorum („Al-Chwarizmi über die indischen Zahlen“, Rom 1857). Daraus entstand später die Bezeichnung „Algorithmus“, mit der generell genau definierte Rechenverfahren gemeint sind. Die indische Zahlschrift und die Null waren den Arabern und spätantiken Gelehrten (Severus Sebokht) schon vorher durch Kontakte aus Indien bekannt, fanden aber durch al-Chwarizmi weite Verbreitung.
Im Jahr 830 schloss er die Arbeit an Hisab al-dschabr wa-l-muqabala () ab. Es ist eine Zusammenstellung von Regeln und Beispielen. Sein – für die damalige Zeit ungewöhnliches – systematisch-logisches Vorgehen gab den Lösungsansätzen linearer und quadratischer Gleichungen eine völlig neue Richtung, nämlich der geometrischen Bearbeitung dieser Gleichungen, was zu einer neuen Form von Verständnis für diese Aufgabenklasse führte. Diese „bildhafte“ Darstellung mathematischer Probleme macht das Thema nicht nur greifbarer, sondern führt zu einer Art der Erkenntnisgewinnung, welche für „Laien“ weitaus nachvollziehbarer ist. Die Leistung besteht also auch darin, dass er damit ein sehr effizientes mathematisches „Werkzeug“ geschaffen hat. Das Buch wurde vom 12. Jahrhundert an mehrfach ins Lateinische übersetzt und dabei der Begriff „Algebra“ aus dem Titel dieses Werkes () abgeleitet. Es hatte großen Einfluss auf die Mathematik im Vorderen Orient und dann auch auf die weitere Entwicklung im Westen.
Astronomie
Al-Chwarizmis az-Zīdsch al-Sindhind (, kurz ) bestand aus ungefähr 37 Kapiteln, in denen er astronomische und Kalenderberechnungen beschrieb. Es enthielt 116 Berechnungstabellen, unter denen sich auch eine Tabelle mit Werten der Sinus-Funktion befand. Das Wissen, das al-Chwarizmi in dem Buch Zīdsch al-Sindhind niederschrieb, übernahm er zum großen Teil von indischen Astronomen, worauf der Titel Zīdsch al-Sindhind verweist (Sindhind stammt vom Sanskrit Siddhanta für „Lehrbuch oder Abhandlung“ und Zīdsch ist der in der islamischen Welt gebräuchliche arabische Name für ein astronomisches Lehr- und Tafelwerk). Das Buch Zīdsch al-Sindhind stellte einen enormen Wissensgewinn für die arabischen Astronomen dar.
Al-Chwarizmi verfasste das Buch Zīdsch vor dem Jahr 828. Die originale Handschrift ist verloren gegangen. Überliefert wurde eine um das Jahr 1000 entstandene Version des spanischen Astronomen Maslama al-Madschriti in lateinischer Übersetzung von Adelard von Bath. Adelard wiederum baute auf Übersetzungen seines Lehrers Petrus Alfonsi auf. Die vier erhaltenen Manuskripte dieser Fassung werden in der Bibliothèque publique in Chartres, der Bibliothèque Mazarine in Paris, der spanischen Nationalbibliothek und der Bodleian Library in Oxford aufbewahrt.
Aufgrund der schlechten Überlieferung ist nicht sichergestellt, ob al-Chwarizmi nicht zwei verschiedene Bücher unter dem Titel Zīdsch verfasst hat.
Geografie
Ein weiteres Hauptwerk von al-Chwarizmi ist das Buch über das Bild der Erde (), das er im Jahr 833 beendete. Es handelt sich um eine überarbeitete und erweiterte Fassung der Geografie des Ptolemäus, die eine Liste von 2402 Koordinaten von Städten und anderen geografischen Orten enthält. Es existiert nur eine erhaltene Kopie des Werkes in der Bibliothèque nationale et universitaire de Strasbourg; ediert wurde es von Hans von Mžik (Leipzig 1926).
Weitere Publikationen
Al-Chwarizmi beschäftigte sich auch mit dem Jüdischen Kalender (), Kalendern allgemein () und Sonnenuhren. Die von ihm erstellten trigonometrischen Tabellen hatten großen Einfluss auf die Entwicklung der westlichen Mathematik.
Ehrungen
In der Sowjetunion wurde 1983 eine Briefmarke mit seinem Bildnis herausgegeben. In Chiwa und Urganch (beide Usbekistan) wurde ihm zu Ehren ein Denkmal errichtet. In Tunesien trägt ein öffentliches Forschungsinstitut seinen Namen. Im Iran gibt es seit über 40 Jahren das „Festival Kharazmi“ (), in dem Preise für erfinderische Forschungen an Jugendliche vergeben werden. Auf der Mondrückseite ist ein Krater nach al-Chwarizmi benannt. Ein Asteroid wurde 2015 nach ihm benannt: (13498) Al Chwarizmi.
Literatur
Louis Charles Karpinski: Robert of Chester’s Latin Translation of the Algebra of Al-Khowarizmi: With an Introduction, Critical Notes and an English Version, London 1915, online bei archive.org
Kurt Vogel: Mohammed ibn Musa Alchwarizmi’s Algorismus. Das früheste Lehrbuch zum Rechnen mit ind. Ziffern. Zeller, Aalen 1963
Menso Folkerts: Die älteste lateinische Schrift über das indische Rechnen nach al-Ḫwārizmī, Verlag der Bayer. Akad. der Wiss., München 1997, ISBN 3-7696-0108-4, Text und Übersetzung der „Dixit Algorismi“-Handschriften in New York (Hispanic Society of America, HC 397/726) und Cambridge (University Library, Ii. 6.), Faksimile (s/w) aus der New Yorker Handschrift
Fuat Sezgin: Geschichte des arabischen Schrifttums, Band 5, S. 228–241, Leiden 1974
Ali Abdullah al-Daffa’; The Muslim contribution to mathematics. London: Croom Helm. 1977, ISBN 0-85664-464-1.
Aydin Sayili (Hrsg.)/Frederic Rosen (Übers.): Al-Khwârazmi’s Algebra. Islamabad: Pakistan Hijra Council. 1989, ISBN 969-8016-28-7.
Edward Stewart Kennedy: A Survey of Islamic Astronomical Tables. Philadelphia: American Philosophical Society 1956
Bartel Leendert van der Waerden: A history of algebra. From Al-Khwarizmi to Emmy Noether, Springer 1985
Weblinks
Al-Chwarizmi auf Lost Islamic History
Die astronomischen Tafeln des Muhammed Ibn Mūsā al-Khwārizmī (lat. mit dt. Kommentar)
Al-Khwarizmi, Abdu’l-Hamid Ibn Turk and the Place of Central Asia in the History of Science – auf muslimheritage.com
Al-Khawarizmi (780 – 850 CE) – Kurzbiographie auf muslimheritage.com
Overbay, Schorer, und Conger: Al-Khwarizmi (engl.)
Einzelnachweise
Mathematiker (Blütezeit des Islam)
Astronom (islamisches Mittelalter)
Universalgelehrter
Perser
Person als Namensgeber für einen Asteroiden
Person als Namensgeber für einen Mondkrater
Geboren im 8. Jahrhundert
Gestorben im 9. Jahrhundert
Mann
|
Q9038
| 207.559368 |
6595
|
https://de.wikipedia.org/wiki/1576
|
1576
|
Ereignisse
Politik und Weltgeschehen
Frankreich
5. Februar: Nach seiner Flucht aus der Gefangenschaft durch die katholische Partei in Paris legt der hugenottische Anführer Heinrich von Navarra, der spätere König Heinrich IV. von Frankreich, den katholischen Glauben wieder ab.
6. Mai: Mit dem Edikt von Beaulieu wird der Fünfte Hugenottenkrieg beendet. Die Hugenotten erhalten günstige Bedingungen, weil Frankreichs König Heinrich III. vorerst Frieden im Lande favorisiert.
6. November: König Heinrich III. stellt sich in Blois an die Spitze der französischen katholischen Liga und löst damit den sechsten Hugenottenkrieg aus.
Heiliges Römisches Reich
12. Oktober: Kaiser Maximilian II. stirbt überraschend auf dem Reichstag zu Regensburg. Sein Sohn Rudolf II., der bereits im Vorjahr gekrönt worden ist, wird sein Nachfolger als Kaiser des Heiligen Römischen Reichs und Herrscher der Habsburgischen Erblande.
Der Erzbischof von Trier, Jakob III. von Eltz, annektiert die Fürstabtei Prüm und ihre Grundherrschaft in das Kurfürstentum Trier.
Niederlande
4. November: Längere Zeit nicht entlohnte Söldner in Diensten des spanischen Königs Philipp II. beginnen in Antwerpen mit Gewaltakten gegen die Bevölkerung, um Geld herauszupressen. Die Spanische Furie wütet drei Tage und zerstört die Stadt erheblich.
8. November: Holland, Zeeland und die südlichen Provinzen schließen in Gent die Genter Pazifikation, einen Vertrag, durch den sie sich gegenseitig Hilfe versprechen, um die spanischen Truppen vom niederländischen Boden zu vertreiben.
15. Dezember: Der spanische Statthalter in den Niederlanden, Don Juan de Austria, und die Generalstaaten schließen das Ewige Edikt, mit dem der Statthalter die Genter Pazifikation anerkennt. Das Edikt wird keine acht Monate halten.
Osteuropa
1. Mai: Anna Jagiellonica, König von Polen, und Stephan Báthory, Fürst von Siebenbürgen, heiraten und werden nach der zweiten Freien Wahl als gemeinsame Staatsoberhäupter von Polen-Litauen gekrönt.
Die Osmanen erobern die kroatische Festung Bužim.
Afrika
25. Januar: Die Stadt São Paulo da Assunção de Loanda im späteren Angola wird von portugiesischen Siedlern gegründet. Anschließend wird auf Geheiß des Stadtgründers und ersten Gouverneurs Paulo Dias de Novais die Festung São Miguel von Luanda zur Verteidigung der neuen Siedlung errichtet. Die Stadt entwickelt sich zum Zentrum des Sklavenhandels nach Brasilien.
Asien
14. Mai: Nach dem Tod von Tahmasp I. wird sein Sohn Ismail II. dritter safawidischer Schah von Persien.
Entdeckungsfahrten
7. Juni bis 9. Oktober: Der englische Seefahrer Martin Frobisher unternimmt mit 39 Mann und drei Schiffen seine erste Arktisfahrt auf der Suche nach der Nordwestpassage. Dabei entdeckt er unter anderem die nach ihm benannte Frobisher-Bay.
Wirtschaft
In Frankreich wird La Poste gegründet.
Wissenschaft und Technik
Lehre und Forschung
8. August: Der dänische Astronom Tycho Brahe notiert die Grundsteinlegung seines Observatoriums Uraniborg auf der Insel Ven.
15. Oktober: Die von Herzog Julius von Braunschweig-Wolfenbüttel gestiftete Universität Helmstedt, die sich während der Dauer ihres Bestehens zu einer bedeutenden protestantischen Hochschule entwickelt, wird feierlich eröffnet.
Naturwissenschaften
Auf den Campo del Cielo im heutigen Argentinien werden Einschlagkrater und Teile eines Eisenmeteoriten entdeckt.
Humphrey Gilbert veröffentlicht seine Schrift A discourse of a discoverie for a new Passage to Cataia über die Erkundung einer Nordwestpassage von Amerika nach Asien.
Kartographie
Der Kartograph Jos Murer erstellt den Murerplan, einen Holzschnitt der Stadt Zürich.
Religion
4. September: Für den Fall, dass Venedig von der grassierenden Pest erlöst werde, gelobt der Senat den Bau eines Gotteshauses zu Ehren des Erlösers. Da die Seuche kurze Zeit danach tatsächlich verschwindet, wird im Folgejahr mit dem Bau der Kirche Il Redentore begonnen.
Giordano Bruno verlässt den Dominikanerorden und beginnt seinen jahrzehntelangen Weg durch zahlreiche Städte Europas.
Das Griechische Kolleg vom Hl. Athanasius in Rom öffnet seine Pforten.
Kultur
Dezember: Der englische Schauspieler James Burbage eröffnet mit The Theatre das vermutlich erste feste Theater in England seit der Römerzeit.
Katastrophen
Geschichte der Pest: In Oberitalien fordert die Pest zahlreiche Tote, auch der Maler Tizian fällt ihr in Venedig zum Opfer.
Cocolitztli, ein hämorrhagisches Fieber, bricht neuerlich aus und kostet Millionen von Menschen in Mexiko das Leben.
Historische Karten und Ansichten
Geboren
Geburtsdatum gesichert
2. Februar: Alix Le Clerc, französische Ordensschwester und Ordensgründerin der Augustiner-Chorfrauen, katholische Selige († 1622)
1. März: Friedrich von Fürstenberg, kurkölnischer Landdrost im Herzogtum Westfalen († 1646)
27. März: Caspar von Teutleben, deutscher Dichter und Hofmeister († 1629)
31. März: Luise Juliana von Oranien-Nassau, Kurfürstin von der Pfalz († 1644)
3. Juni: Giovanni Diodati, reformierter Theologe und Bibelübersetzer († 1649)
3. Juli: Anna von Preußen, Kurfürstin von Brandenburg († 1625)
16. Juli: Caspar Augspurger, deutscher Unternehmer († 1636)
24. Juli: Hermann Czernin von Chudenitz, österreichischer Diplomat und Soldat († 1651)
13. September: Bruno III. von Mansfeld, Oberstjägermeister in habsburgischen Diensten († 1644)
6. Oktober: Roger Manners, 5. Earl of Rutland, englischer Adliger und Patron der Künste († 1612)
7. Oktober: John Marston, englischer Dramatiker und Schriftsteller († 1634)
10. Oktober: Joachim von Loß, Reichspfennigmeister des Ober- und Niedersächsischen Reichskreises († 1633)
12. Oktober: Thomas Dudley, englischer Gouverneur der Massachusetts Bay Colony († 1653)
28. Oktober: Rudolf, Fürst von Anhalt-Zerbst († 1621)
6. November: Karl Günther, Graf von Schwarzburg-Rudolstadt († 1630)
18. November: Philipp Ludwig II., Graf von Hanau-Münzenberg († 1612)
8. Dezember: Johannes Kromayer, deutscher lutherischer Theologe und Schulreformator Thüringens im Zeitalter der lutherischen Orthodoxie († 1643)
20. Dezember: Johannes Sarkander, böhmisch-mährischer Priester und Märtyrer der katholischen Kirche († 1620)
Genaues Geburtsdatum unbekannt
William Ames, englischer Theologe († 1633)
Thomas Aylesbury, 1. Baronet, hoher englischer Beamter der Royal Navy († 1657)
Salomon de Caus, französischer Physiker und Erfinder († 1626)
Christoph Deichmann, deutscher Jurist und Diplomat sowie Mitglied der Fruchtbringenden Gesellschaft († 1648)
Cornelius Galle der Ältere, niederländischer Zeichner und Kupferstecher († 1650)
Antoine de Montchrétien, französischer Wirtschaftswissenschaftler († 1621)
Gestorben
Erstes Halbjahr
8. Januar: Lope García de Castro, spanischer Jurist und interimistischer Vizekönig von Peru (* um 1516)
10. Januar: Benedikt Burgauer, deutscher Theologe und Reformator (* 1494)
19. Januar: Hans Sachs, deutscher Spruchdichter, Meistersinger und Dramatiker (* 1494)
26. Januar: Juan Ortiz de Zárate, spanischer Konquistador (* 1521)
10. Februar: Guilielmus Xylander, deutscher Gelehrter und Humanist (* 1532)
12. Februar: Johann Albrecht I., Herzog von Mecklenburg-Güstrow und Mecklenburg-Schwerin (* 1525)
15. Februar: Francesco De Marchi, italienischer Architekt, Ingenieur, Autor und Höfling (* 1504)
22. Februar: Bernardino Gatti, italienischer Maler (* 1495/96)
2. März: Georg Kleefeld, Bürgermeister von Danzig (* 1522)
5. März: Luis de Zúñiga y Requesens, spanischer Statthalter in den Niederlanden (* 1528)
9. März: Heinrich Lersner, hessischer Politiker (* 1506)
11. März: Juan de Salcedo, spanischer Konquistador (* 1549)
18. März: Karl I., Graf von Hohenzollern (* 1516)
18. März: Johann Stössel, deutscher evangelischer Theologe und Reformator (* 1524)
20. März: Heinrich Salmuth, deutscher lutherischer Theologe und Reformator (* 1522)
29. März: Valentin Erythräus, deutscher Pädagoge (* 1521)
2. Mai: Bartholomäus von Carranza, Erzbischof von Toledo (* 1503)
14. Mai: Tahmasp I., zweiter Schah der Safawidendynastie im Iran (* 1514)
11. Juni: Anthony Cooke, englischer Adliger, Politiker und Humanist (* 1505/06)
Zweites Halbjahr
7. Juli: Thomas Matthias, Bürgermeister von Berlin (* um 1520)
11. Juli: Simon Musaeus, deutscher evangelischer Theologe und Reformator (* 1521)
16. Juli: Isabella de’ Medici, italienische Adlige (* 1542)
15. August: Valentin Bakfark, ungarischer Komponist (* 1507 oder 1527)
27. August: Tiziano Vecellio, venezianischer Maler (* 1477)
21. September: Gerolamo Cardano, Arzt und Mathematiker (* 1501)
22. September: Walter Devereux, 1. Earl of Essex, englischer Adeliger (* 1539)
27. September: Santi Buglioni, italienischer Bildhauer (* 1494)
12. Oktober: Maximilian II., Kaiser des Heiligen Römischen Reiches (* 1527)
12. Oktober: Adam Neuser, deutscher Theologe (* 1530)
14. Oktober: Konrad Heresbach, deutscher Humanist (* 1496)
20. Oktober: George Gordon, 5. Earl of Huntly, Angehöriger des schottischen Hochadels (* um 1532/34)
26. Oktober: Friedrich III., Kurfürst von der Pfalz (* 1515)
27. November: Georg Parsimonius, evangelischer Theologe, Reformator und Konfessionalist (* um 1512)
30. November: Wolfgang Hilliger, deutscher Geschütz- und Glockengießer (* 1511)
20. Dezember: Henri de Saint-Sulpice, Günstling des französischen Königs Heinrich III.
21. Dezember: Otto IV., Graf von Schaumburg und Holstein-Pinneberg (* 1517)
Genaues Todesdatum unbekannt
Charles Stewart, 1. Earl of Lennox, schottischer Adeliger (* 1555)
Mauritius Piderit, lutherischer Theologe (* 1497)
Weblinks
|
Q6700
| 127.267766 |
1282
|
https://de.wikipedia.org/wiki/Eindhoven
|
Eindhoven
|
Eindhoven ([], ) ist eine Stadt und Gemeinde in den Kempen in der Provinz Noord-Brabant im Süden der Niederlande. Sie liegt auf einer Höhe von .
Stadtteile
Eindhoven besteht aus sieben Bezirken:
Centrum
Stratum
Tongelre
Woensel-Zuid
Woensel-Noord
Strijp
Gestel
Geschichte
Eindhoven wurde auf einem etwas erhöhten Gebiet am Zusammenfluss der Flüsse Dommel und Gender an einem Handelsweg von Holland nach Lüttich gegründet und erhielt 1232 Stadt- und Marktrechte durch den Herzog Heinrich I. von Brabant, blieb jedoch in den ersten Jahrhunderten recht unbedeutend.
Um 1388 wurden die Verteidigungsanlagen der Stadt weiter ausgebaut und zwischen 1413 und 1420 wurde ein neues Schloss innerhalb der Stadtmauern errichtet. 1486 wurde Eindhoven geplündert und niedergebrannt. Der Wiederaufbau und der Bau eines neuen Schlosses dauerten bis 1502. Doch bereits 1543 fiel Eindhoven erneut: Die Verteidigungsanlagen waren wegen der herrschenden Armut nicht instand gehalten worden.
Ein großes Feuer zerstörte 1554 rund drei Viertel der Häuser. Diese wurden jedoch mit Unterstützung von Wilhelm von Oranien bereits 1560 wieder aufgebaut.
Die heutige Stadt Eindhoven entstand durch das Zusammenwachsen der Kirchspiele Eindhoven, Woensel, Strijp, Tongelre, Gestel und Stratum als Folge der industriellen Entwicklung um 1900, als die Glühlampenfabrik Philips immer mehr Arbeitnehmer anzog. Später trug auch DAF (Automobile) zur Expansion der Stadt bei.
Während des Zweiten Weltkrieges war die Stadt ein wichtiges Ziel während der Operation Market Garden. Auch wegen der Philips-Röhrenwerke wurde die Stadt angegriffen.
Schwere Bombardierungen der Westalliierten zerstörten große Teile der Stadt. Während des Wiederaufbaus blieben nur sehr wenige historische Gebäude erhalten. Ein Beispiel für die moderne Architektur Eindhovens ist das 1966 als Museum errichtete Evoluon, jetzt Konferenzgebäude und Museum.
Heute ist Eindhoven mit etwas mehr als 200.000 Einwohnern die fünftgrößte Stadt der Niederlande und gilt als Technologiezentrum im Süden des Landes. Durch die Studentinnen und Studenten der Technischen Universität Eindhoven und durch einige höhere Schulen hat Eindhoven einen relativ niedrigen Altersdurchschnitt.
Sehenswürdigkeiten
DAF Museum
Eindhoven Museum
Evoluon
De Admirant
Genneper Park
Muziekcentrum Frits Philips
Philips Museum
Van Abbemuseum für moderne Kunst
Vesteda-Turm
Bildung
Technische Universität Eindhoven
Fontys Hogescholen
Design Academy Eindhoven
Wirtschaft
Eindhoven ist der wichtigste Produktions- und Forschungsstandort der Firma Philips. Das ehemalige Tochterunternehmen NXP Semiconductors hat hier seinen Hauptsitz. Die VDL Groep hat unter anderem ihren Konzernsitz in Eindhoven. UPS betreibt ein großes Logistikzentrum. Zu den größten in Eindhoven ansässigen Arbeitgebern gehört auch die Fachhochschule Fontys. OTB Solar B.V. fertigt hier Produktionsanlagen für Solarzellen. Weiterhin ist der LKW-Hersteller DAF in Eindhoven ansässig. Die Firma ASML ist im Vorort Veldhoven ansässig.
Seit Mai 2001 befindet sich in der Stadt die Europa-Niederlassung des japanischen Unternehmens Kanefusa, Asiens führendem Hersteller von Werkzeugen für die Holzbearbeitung.
Verkehr
Schienenverkehr
Die Stadt Eindhoven ist ein zentraler Eisenbahnknotenpunkt in den Niederlanden. Hier bündeln sich die Strecken aus dem Norden und Süden des Landes. Am Bahnhof Eindhoven Centraal verkehrt nationaler Regional- und Fernverkehr. Städte wie Den Haag, Rotterdam, Amsterdam, Utrecht und Maastricht sind mit dem Zug von Eindhoven aus direkt erreichbar.
Straßenverkehr
Insgesamt führen fünf Autobahnen durch Eindhoven. Auch im niederländischen Autobahnnetz bündeln sich hier Strecken aus sowohl dem Norden und Süden als auch aus dem Westen des Landes. Weiterhin liegt Eindhoven direkt an der wichtigen E34.
Busverkehr
Den städtischen Busverkehr betreibt das Busunternehmen Hermes.
Flugverkehr
Eindhoven verfügt über einen Flughafen, den Eindhoven Airport (IATA-CODE: EIN). Er ist sowohl Transport- als auch Militärflugplatz der niederländischen Luftwaffe und der größte Regionalflughafen der Niederlande.
Politik
Die grünen Vertreter von GroenLinks konnten die letzte Kommunalwahl im Jahre 2022 für sich entscheiden. In der Legislaturperiode von 2018 bis 2022 formte der vorherige Wahlsieger, die VVD, eine Koalition mit der CDA, GroenLinks und der PvdA.
Gemeinderat
Der Gemeinderat wird seit 1982 folgendermaßen gebildet:
Anmerkungen
College van B&W
Die Koalitionsparteien GroenLinks und VVD stellen dem College van burgemeester en wethouders zwei Beigeordnete bereit, während die CDA und der PvdA durch jeweils einen Beigeordneten vertreten werden. Folgende Personen gehören zum Kollegium und sind in folgenden Bereichen zuständig:
Gemeindepartnerschaften
Eindhoven listet folgende vierzehn Partnerstädte auf:
Sport
Die als Philips Sportvereinigung entstandene PSV Eindhoven hat eine der stärksten Fußballmannschaften in den Niederlanden und ist auch im europäischen Spitzenfußball bekannt.
PSV ist auch der Name des Eindhovener Wasserball- und Schwimmvereines. Der vielfache Europameister und Olympiasieger im Schwimmen, Pieter van den Hoogenband, ist das bekannteste Mitglied der Geschichte dieses Vereins. Nach ihm wurde auch das Schwimmstadion benannt.
Das Jan-Louwers-Stadion ist Heimstadion des FC Eindhoven.
Zwischen den beiden größten Städtischen Fußballvereinen, dem FC Eindhoven und der PSV Eindhoven herrscht eine immer noch sehr große Rivalität.
2010 wurden in Eindhoven die IPC-Schwimmweltmeisterschaften ausgetragen.
Sonstiges
Holland Casino unterhält eine Filiale in der Stadt.
Das rege Nachtleben der Stadt ist in der Umgebung der Straße Stratumsedijk konzentriert.
In der Stadt befindet sich eine Außenstelle der Bundeswehrverwaltungsstelle Niederlande.
Alle zwei Jahre wird in Eindhoven der Dirk Roosenburgprijs vergeben, der besondere architektonische Projekte in der Gemeinde würdigt.
Der Trudo Toren wurde 2021 eingeweiht.
Söhne und Töchter der Stadt
Maikel Aerts (* 1976), Fußballtorhüter
Peter Aerts (* 1970), K-1 Kick,-Thaiboxlegende, mehrfacher Champion im Muay Thai
Christijan Albers (* 1979), Automobilrennfahrer
Daniel Au Yeong (* 2003), österreichischer Fußballspieler singapurischer Abstammung
Otman Bakkal (* 1985), Fußballspieler
Bert Blase (* 1959), Politiker
Jan de Bont (* 1943), Kameramann, Filmregisseur und Filmproduzent
Ron Boots (* 1962), Komponist und Musiker
Arthur Borren (* 1949), neuseeländischer Hockeyspieler
Hans Clevers (* 1957), Immunologe und Molekulargenetiker
Phillip Cocu (* 1970), Fußballspieler
Wisse Dekker (1924–2012), Manager, Vorstandsvorsitzender von Philips
Hans Dekkers (1928–1984), Radrennfahrer
Hans Dekkers (* 1981), Radrennfahrer
Jorrit Dijkstra (* 1966), Jazzmusiker
Discipline (Joost de Graaf, Carlo Geerlings, Erik Wouters, Joost Strijbos), Street-Rock-’n’-Roll-Band aus Eindhoven, gegründet 1990
Sander van Doorn (* 1979), DJ und Musikproduzent
Han Drijver (1927–1986), Hockeyspieler
Johannes von Eindhoven (1439–1509), Weihbischof in Trier
Theo Eltink (* 1981), Radrennfahrer
Rudi Fuchs (* 1942), Kunsthistoriker, Direktor von Kunstmuseen, Kurator
Miek van Geenhuizen (* 1981), Hockeyspielerin
Maarten van Grimbergen (* 1959), Hockeyspieler
Ada den Haan (1941–2023), Schwimmerin
Sanne van Hek (1978–2020), Jazzmusikerin
Wouter Henkelman (* 1974), Althistoriker und Altorientalist
Mathieu Hezemans (1915–1985), Autorennfahrer und Unternehmer
Mike Hezemans (* 1969), Autorennfahrer
Toine Hezemans (* 1943), Autorennfahrer
Robert Högfeldt (1894–1986), schwedischer Maler
Jorryt van Hoof (* 1982), Pokerspieler
Robert van der Horst (* 1984), Hockeyspieler
Eric H. Houwink (1929–2005), Chemiker und Biotechnologe
Mark Janssen (* 1992), Fußballspieler
Tim Janssen (* 1986), Fußballspieler
Jerrely Slijger (* 1988), Rapper Kempi
Peter Kox (* 1964), Autorennfahrer
Lenny Kuhr (* 1950), Sängerin
Maarten Lafeber (* 1974), Profigolfer
Han Lamers (* 1984), Altphilologe
Dietrich Loher (* um 1495, † 1554), Theologe, Kartäusermönch, Kirchenpolitiker und Herausgeber theologischer Schriften
Rob Maas (* 1969), Fußballspieler
Luuk van Middelaar (* 1973), Historiker und politischer Philosoph
David Miedema (* 1989), Schachspieler
Kees Mijnders (1912–2002), Fußballspieler
Meike de Nooy (* 1983), Wasserballspielerin
Laura Nunnink (* 1995), Hockeyspielerin
Bert Oosterbosch (1957–1989), Radrennfahrer
Frits Philips (1905–2005), Industrieller, Konzernpräsident
Rob Reckers (* 1981), Hockeyspieler
Jan de Rooy (* 1943), Unternehmer und Rennfahrer
Gerard de Rooy (* 1980), Unternehmer und Rennfahrer
Johnny Rosenberg (* 1977), Jazzmusiker
Bas Rutten (* 1965), Mixed Martial Arts Legende
Olaf Schöningh (* 1999), Eishockeyspieler
Herman Schoonderwalt (1931–1997), Jazzmusiker und Komponist
Eja Siepman van den Berg (* 1943), Bildhauerin
Iso Sluijters (* 1990), Handballspieler
Fred Smeijers (* 1961), Schrift- und Grafikdesigner
Huub Smit (* 1978), Schauspieler
Peter Pan Speedrock, Peter van Elderen, Bart Geevers und Bart Nederhand bilden das Eindhovener Speedrock-Trio und haben es zur Band Nummer Eins der Niederlande gebracht
Showtek, Hardstyle-Duo
Iso Sluijters (* 1990), Handballspieler
Wim Suurbier (1945–2020), Fußballspieler
Hans Stacey (* 1958), Rallye- und Rallye-Raid-Fahrer
Margje Teeuwen (* 1974), Hockeyspielerin
Henricus Turken (1791–1856), Maler und Radierer
Ria Valk (* 1941), Sängerin
Valentino Vermeulen (* 2001), Fußballspieler
Nick Verschuren (* 1989), Eishockeyspieler
Tony Vos (1931–2020), Jazzmusiker und Musikproduzent
Roelof Wunderink (* 1948), Autorennfahrer
Literatur
Jaap Evert Abrahamse, Giel van Hooff, Wilfried Uitterhoeve: Historische atlas van Eindhoven. Van Brabants marktstadje tot centrum van de Brainport-regio. Thoth, Bussum 2021, ISBN 978-90-6868-829-0.
Arno Kantelberg: Het wonder van Eindhoven. Reizen door de geschiedenis van de lichtstad. Podium, Amsterdam 2013, ISBN 978-90-5759-570-7.
Freke Sens: De kleine geschiedenis van Eindhoven voor dummies. BBNC uitgevers, Amersfoort 2018, ISBN 978-90-453-5385-2.
Weblinks
Website der Gemeinde (niederländisch, englisch)
Website des Van Abbe Museum (niederländisch, englisch)
Eindhoven in Site. Virtuelle Tour
Einzelnachweise
Gemeinde in Noord-Brabant
Ort in Noord-Brabant
Hochschul- oder Universitätsstadt in den Niederlanden
Stadt in den Niederlanden
|
Q9832
| 141.703661 |
21571
|
https://de.wikipedia.org/wiki/Spinnentiere
|
Spinnentiere
|
Die Spinnentiere (Arachnida, eingedeutscht: Arachniden oder Arachnoiden; „Spinne“) sind eine Klasse der Gliederfüßer (Arthropoda) mit über 110.000 bekannten Arten. Gemeinsam mit den Pfeilschwanzkrebsen bilden sie den Unterstamm der Kieferklauenträger (Chelicerata). Zu den Spinnentieren gehören die Webspinnen, aber auch Weberknechte, Skorpione, Pseudoskorpione und Milben (inklusive Zecken).
Körperbau
Im Unterschied zu dem dreigliedrigen Körper der Insekten ist der Körper der Spinnentiere grob in zwei Teile gegliedert, Prosoma (Vorderleib) und Opisthosoma (Hinterleib). Diese Glieder können sowohl deutlich voneinander getrennt (z. B. Webspinnen, Skorpione) als auch miteinander verwachsen sein (Weberknechte, Walzenspinnen, Milben). Markantestes Merkmal sind ihre vier Paar Laufbeine, was sie ebenfalls von den Insekten unterscheidet, die lediglich über drei verfügen. Allerdings haben die Larven vieler Milbenarten nur sechs Beine, während das erste Paar bei den Walzenspinnen nicht der Fortbewegung, sondern zum Tasten und der Orientierung dient. Weitere Extremitäten sind zu Werkzeugen wie Giftklauen, Scheren, Tastern oder Mundwerkzeugen umgebildet. Skorpione besitzen einen langen Schwanz mit Giftstachel. Die meisten Spinnentiere sind Jäger, die ihre Beute mit Gift töten.
Wie alle Gliederfüßer, zu denen auch die Insekten gehören, haben Spinnentiere ein Strickleiternervensystem. Als Augen haben Spinnentiere im Unterschied zu den Insekten keine Facettenaugen, sondern mehrere Punktaugen mit je nach Art erheblich variabler Leistungsstärke.
Fortpflanzung
Bei der Fortpflanzung gibt es diverse Variationen. Da fast alle Arten landlebend sind (Ausnahme: Wasserspinne), gibt es sehr häufig eine innere Befruchtung durch ein penisähnliches Gebilde (etwa bei Weberknechten). Die Männchen anderer Gruppen wie die Skorpione sowie die meisten Milben legen Spermienpakete (Spermatophoren) ab, die von den Weibchen aufgenommen werden. Die Männchen der meisten Webspinnen befüllen ihre Bulbi (lat. bulbus „Kolben, Knolle“) in den Pedipalpen an ihrem eigenen Geschlechtsorgan oder an selbst gewebten Spermatophoren. Die Bulbi werden bei der Paarung in die Epigastralfurche der Weibchen eingeführt. Bulben sind die sekundären Geschlechtsorgane des Männchens der Webspinnen an seinen Tastern.
Systematik
Folgende Ordnungen sind enthalten:
Milben (Acari)
Geißelspinnen (Amblypygi)
Webspinnen (Araneae)
Weberknechte (Opiliones)
Palpenläufer oder auch Tasterläufer (Palpigradi)
Pseudoskorpione (Pseudoscorpiones)
Kapuzenspinnen (Ricinulei)
Skorpione (Scorpiones)
Walzenspinnen (Solifugae)
Geißelskorpione (Uropygi)
Vereinfachtes Kladogramm nach Shultz, 1990. Weitere Aufspaltungen sind mit –II– angedeutet.
Fossile Ordnungen
†Haptopoda
†Phalangiotarbi
†Trigonotarbida
†Uraraneida
Literatur
Peter Ax: Das System der Metazoa. Ein Lehrbuch der phylogenetischen Systematik. Band 2. Spektrum, Akademie-Verlag, Heidelberg 1999, ISBN 3-437-35528-7.
S. J. Braddy, R. J. Aldridge, S. E. Gabbott, J. N. Theron: Lamellate implications. In: Zoological Journal of the Linnean Society. Band 97, 1999, S. 1–56.
P. Weygoldt, H. F. Paulus: Untersuchungen zur Morphologie, Taxonomie und Phylogenie der Chelicerata. I. Morphologische Untersuchungen. II. Cladogramme und Entfaltung der Chelicerata. In: Zeitschrift für zoologische Systematik und Evolutionsforschung. Band 17, 1979, S. 85–116, 177–200.
P. Weygoldt: Evolution and systematics of the Chelicerata. In: Experimental and Applied Acarology. Band 22, 1998, S. 63–79.
Weblinks
Wiki der Arachnologischen Gesellschaft über Spinnen, Weberknechte und andere Spinnentiere
Film/Video: Geliebt und gefürchtet - Spinnen, Tierdokumentation, Deutschland 2002, SWR, 45 Minuten, Drehbuch: Otto Hahn, BR-alpha
Einzelnachweise
Arachnologie
Wikipedia:Artikel mit Video
|
Q1358
| 1,505.267679 |
38242
|
https://de.wikipedia.org/wiki/Hausmaus
|
Hausmaus
|
Die Hausmaus (Mus musculus) ist eine zu den Altweltmäusen (Murinae) gezählte kleine Art der Langschwanzmäuse (Muridae) aus der Ordnung der Nagetiere. Sie kommt in fast allen Ländern vor und lebt als Kulturfolger oft in der Nähe von Menschen.
Zuchtlinien der Hausmaus werden als Farbmäuse bezeichnet und seit Jahrzehnten für Tierversuche genutzt sowie als Haus- und Futtertiere gehalten.
Äußere Merkmale
Im Freiland lebende Hausmäuse erreichen eine Kopf-Rumpf-Länge von 7 bis 11 Zentimetern, eine Schwanzlänge von 7 bis 10 Zentimetern und ein Gewicht von etwa 20 bis 25 Gramm. Die in Laboren gehaltenen weißen Mäuse und die im Tierhandel erhältlichen Farbmäuse können wesentlich schwerer werden, 45 bis 60 Gramm sind keine Seltenheit. Der Körper ist oberseits mausgrau bis braungrau, die Unterseite ist etwas heller. Der Schwanz ist mit deutlich sichtbaren Schuppenringen versehen und spärlich behaart.
Ausgewachsene Hausmäuse haben längere Schwänze als Wühlmäuse. Der Schwanz einer Wühlmaus ist kürzer als ihr halber Rumpf (von Nase bis Schwanzansatz), bei einer Hausmaus ist der Schwanz länger als die Hälfte ihres Rumpfes. Die Nagezähne des Oberkiefers sind etwas eingekerbt.
Ähnlichkeit besteht zur Waldmaus, die sich ebenfalls häufig in Gebäuden aufhält. Bei Waldmäusen ist jedoch die helle Unterseite deutlicher vom dunkleren Fell der Oberseite abgegrenzt als bei Hausmäusen. Im Unterschied zur Hausmaus hat die Waldmaus keine Kerbe an der Rückseite der oberen Schneidezähne.
Karyotyp und Genom
Im Zellkern sind die Gene der Hausmaus in zweimal 20 Chromosomen organisiert, und zwar in zweimal 19 Autosomen plus zwei Geschlechtschromosomen. Das vollständige Genom einer Labormaus wurde erstmals 2002 sequenziert; es besteht, wie das menschliche, aus etwa drei Milliarden Basenpaaren. Die Anzahl der Gene wird auf 24.000 geschätzt.
Verbreitung
Vor rund 500.000 Jahren entwickelten sich im Gebiet des heutigen Indien und Iran mehrere Unterarten der Hausmaus. Als Kulturfolger breiteten diese sich mit der – zumeist unfreiwilligen – Hilfe des Menschen auf der ganzen Erde aus. Ihre Ausbreitung liegt jedoch so lange zurück, dass Hausmäuse in Europa und Ostasien als Archäozoon gelten.
Anhand von Knochenfunden kann man die Ausbreitung der Unterarten rekonstruieren. Die östliche Unterart (Mus musculus musculus) breitete sich zunächst nach Nordasien und Osteuropa aus und passte sich an das kontinentale Klima an. Über Zentralasien kam sie, vermutlich mit frühen Bauern, auch nach Mittel- und Westeuropa; sie erreichte Belgien um 4000 v. Chr. Die Westliche Hausmaus (Mus musculus domesticus) passte sich an Seeklima an und gelangte mit phönizischen Handelsschiffen in den Mittelmeerraum, nach Afrika, Westeuropa und von dort aus mit den ersten europäischen Seefahrern u. a. nach Amerika, Australien, Taiwan und selbst auf die abgelegenen Färöer-Inseln. Um 10.000 v. Chr. ist diese Unterart in Palästina nachgewiesen, 4000 v. Chr. in Griechenland, 1000 v. Chr. in Spanien und um die Zeitenwende gelangte sie mit Booten auf die Britischen Inseln. In jüngerer Zeit hat sie ihr Verbreitungsgebiet in Mitteleuropa von Westen her bis zur Ostsee ausgedehnt. Die dritte Unterart, die Asiatische Hausmaus (Mus musculus castaneus), verbreitete sich von Indien nach Ostasien und brachte aufgrund von Verpaarungen Hybrid-Populationen (genannt Japanische Hausmaus, Mus musculus molossinus) aus Mus musculus castaneus x Mus musculus musculus hervor.
In Deutschland kommen die östliche und die westliche Unterart seit ungefähr 5000 Jahren getrennt voneinander vor. Die Verbreitungsgebiete beider Unterarten überlappen sich jedoch in einer rund 40 Kilometer breiten Kontaktzone, entlang der Klimascheide zwischen atlantischem Klima und kontinentalem Klima, und erzeugen dort Hybrid-Populationen. Die Mischlinge leiden allerdings unter einem schwachen Immunsystem, sie werden häufiger von Parasiten befallen und bringen weniger Nachwuchs zur Welt als vergleichbare Individuen der beiden Unterarten. Diese Hybridzone erstreckt sich quer durch Jütland und von der Lübecker Bucht nach Süden, reicht um den östlichen Rand der Alpen herum Richtung Mittelmeer, folgt dem Gebirgskamm entlang der heutigen kroatisch-bosnischen Grenze und erreicht ungefähr in Höhe von Bukarest das Schwarze Meer.
Wenn die Hausmaus nicht in der Nähe des Menschen lebt, bewohnt sie vor allem Steppen, Wüstengebiete und Kulturland. Dort gräbt sie Gänge und baut Nester, in denen sie ihre Vorräte lagert. Die in Laboren gehaltenen weißen Mäuse stammen ausnahmslos von der westlichen Unterart Mus musculus domesticus ab.
Verhalten
Die Hausmaus ist in Menschennähe meist nachtaktiv, legt Vorräte an und fällt bei Frost und Futterknappheit in einen Erstarrungszustand. Freilebende Mäuse laufen auf geruchsmarkierten Trampelpfaden („Schmierspuren“).
Hausmäuse sind neben den Wanderratten bezüglich ihres Sozialverhaltens (speziell des Eintrageverhaltens) und ihrer Genetik die am besten untersuchten Säugetiere. Sie verständigen sich durch Betasten, Beriechen – siehe den Artikel Olfaktorische Kommunikation bei Hausmäusen – und durch Ultraschall-Laute. Besonders bei Nestlingen kann man das leise Knacken der Stimmlippen hören, wenn sie die für Menschen unhörbaren Ultraschall-Laute produzieren. Diese Kommunikation erfolgt auch in der Balz, dabei „singen“ die Männchen individuelle, immer wiederkehrende Melodiethemen, ähnlich wie Singvögel.
Ernährung
Hausmäuse sind sogenannte Allesfresser: Sie verzehren zwar überwiegend pflanzliche Nahrung (zum Beispiel herabgefallene Samen von Gräsern, Nüsse und Wurzeln), nutzen für ihre Ernährung aber beispielsweise auch lebend erbeutete Insekten.
Fortpflanzung und Jungtiere
Die Weibchen paaren sich in der Regel mit mehreren Männchen (Polyandrie). Bisweilen kommt es zur gemeinsamen Jungenaufzucht zweier Weibchen in einem Nest. Bei entsprechendem Nahrungsangebot ist die Hausmaus das ganze Jahr über fortpflanzungsfähig und wirft bis zu acht Mal jährlich mit durchschnittlich drei bis acht Junge. Bei sozialem Stress wie knapper Nahrung und wenig Platz verzögern sich die Eireifung und die Brunft.
Die Jungtiere sind bei der Geburt nackt, blind, taub, unpigmentiert und wiegen weniger als ein Gramm. Die festverschlossenen Augen sind bei Wildmäusen dunkel und bei weißen Mäusen farblos. Um den 10. Lebenstag herum sind die Nestlinge von einem gleichmäßigen Flaum aus kurzen Haaren überzogen, und am 15. oder 16. Tag nach der Geburt öffnen sie die Augen. Bis zu einem Alter von etwa 21 Tagen werden sie mit Milch gesäugt, dann können sie von der Mutter abgesetzt werden. Im Alter von drei Wochen haben sie ein Körpergewicht von etwa sechs Gramm erreicht und sind mit sechs Wochen geschlechtsreif. Als zuchtreif gelten sie ab der achten Woche. Die Tragezeit beträgt etwa drei Wochen.
Lebenserwartung
Die Lebenserwartung von Wildfängen der Hausmaus beträgt in der Tierhaltung zwei bis drei Jahre, einzelne Tiere können deutlich älter werden. Durch innerartliche Konkurrenz und Feinddruck ist die Lebenserwartung von Hausmäusen im Freiland erheblich geringer.
Natürliche Feinde
Zu den natürlichen Feinden der Hausmaus in Europa zählen im Haus und in dessen Nahbereich vor allem Hauskatzen, Wanderratten und Steinmarder, in Scheunen auch die Schleiereulen. In freier Natur sind ihre Feinde Raubvögel, Wiesel, Marder, Rotfüchse, Schlangen und Wildkatzen.
Hausmäuse und Menschen
Hausmäuse als Heim- und Versuchstiere
Die domestizierte Form der Hausmaus (Farbmaus) wird als Haus- und Futtertier gehalten und ist einer der wichtigsten Modellorganismen in der biomedizinischen Forschung. Domestizierte Hausmäuse sind in der freien Wildbahn nicht längerfristig überlebensfähig. Die Haltung von Wildfängen der Hausmaus in Käfigen erweist sich in der Regel als schwierig, da die Tiere mangels genügenden Auslaufs zu Verhaltensstereotypien bis hin zur Selbstbeschädigung und zum Infantizid neigen. Auch die Handaufzucht junger Hausmäuse und anderer wildlebender Mäusearten gelingt in der Regel nicht.
Schadwirkung
Als sehr anpassungsfähiges Tier gilt die freilebende Hausmaus gemeinhin als Nahrungsmittelschädling.
Hausmäuse sind neben anderen kleinen Nagern ebenfalls Reservoirwirte für diverse Borrelienarten (Bakterien), die dann von Vektoren wie z. B. auch schon in Vorgärten vorkommenden Zecken auf Tier und Mensch übertragen werden können.
Bekämpfung
Siehe auch: Mausefalle und Rodentizid
Jahrhundertelang wurden Hauskatzen gehalten, um Mäuse zu bekämpfen. Heute dürfte die meistverbreitete Bekämpfung der Mäuse wohl neben dem Vergiften mit gebeiztem Getreide, welches zum Tod führt, das Aufstellen von Fallen sein. Früher wurden zur Mäusebekämpfung unter anderem Arsenverbindungen, Bariumcarbonat, Strychnin, Weißer Phosphor und Thalliumsulfat eingesetzt. Diese Stoffe hatten den Nachteil, dass sie auch Menschen und anderen Wirbeltieren schaden konnten. Auch das aktuell erlaubte Zinkphosphid ist in dieser Hinsicht nicht unbedenklich. Für die Umwelt und für andere Lebewesen am wenigsten bedenklich sind Gerinnungshemmer, die dem Vitamin K1 entgegenwirken und die auch in der Natur vorkommen. Bei Nagetieren führen sie nach Einnahme über mehrere Tage zu tödlichen inneren Blutungen. Nur eine Einnahme größerer Mengen ist für Menschen gefährlich. Das Auslegen von Gift führt jedoch nicht selten zu Vergiftungen von Haustieren wie Hunden und Katzen, wenn sie Giftköder oder vergiftete Mäuse oder Ratten fressen.
Mausefallen lassen sich unterteilen in lebendig fangende Fallen, zum Beispiel Kasten- oder Korbfallen aus Holzbrettchen und Draht, und tödlich fangende Fallen, zum Beispiel Schlagfallen mit einem federgespannten Hebel.
Mäuse können mit Drahtgitter (Eisen) oder Lochblech (Aluminium) – beides ist nagebeständig – ausreichend kleiner Lochgröße ausgesperrt werden. Am Einflugschlitz von Bienenstöcken wird Drahtgitter mit 8 mm Maschenweite empfohlen. Das nächstkleinere Gitter mit 6,3 mm Quadratloch ist nötig, um auch die kleinsten Spitzmäuse abzuhalten, behindert Bienen jedoch schon beim Durchkommen mit Beute an den Hinterbeinen und beim Abtransport toter Individuen. Wird die vertikale Höhe des schlitzförmigen Fluglochs durch eine Vorsatzleiste auf 5–6 mm reduziert, wird es ebenfalls mäusedicht.
Um auf Holzstehern errichtete Kellerregale, etwa zur kühlen Lagerung von Äpfeln bis über den Winter, oder
Getreide- oder Futterkästen in alpinem Gebiet sicher gegen Beklettern zu machen, wird in Bodennähe eine Barriere aus Steinen geschaffen. Ein zumindest faust- bzw. kopfgrosser Stein wird wackelsicher so auf dem Boden gebettet, dass seine Oberseite eine daraufgelegte wesentlich größere Steinplatte horizontal und stabil trägt. Diese bildet wiederum die Aufstandbasis für einen Holzsteher, der über das Holzkonstrukt mit den anderen Stehern steif verbunden ist. Ein Nagetier, das hier hinauf will, wird mit einer glatten horizontal überhängenden Steinfläche konfrontiert, die es, wenn ausreichend glatt, nicht beklettern kann.
Systematik
Als anerkannte Unterarten der Hausmaus gelten:
Östliche Hausmaus (Mus musculus musculus)
Westliche Hausmaus (Mus musculus domesticus RUTTY, 1772)
Asiatische Hausmaus (Mus musculus castaneus)
Darüber hinaus wurden u. a. folgende Unterarten benannt:
Mus musculus molossinus (Japanische Hausmaus), die anhand von genetischen Analysen als Hybrid zwischen Mus musculus musculus und Mus musculus castaneus beschrieben wurde
Mus musculus bactrianus (Südwestasiatische Hausmaus), deren genetische Abgrenzung von Mus musculus castaneus ungeklärt ist
Mus musculus manchu (Mandschurische Hausmaus) und Mus musculus wagneri (Wagner-Hausmaus), deren Abgrenzung gegen andere Unterarten ungeklärt ist
Ferner wurde 1949 das Bestehen einer weiteren Unterart auf Helgoland postuliert, genannt Helgoländer Hausmaus (Mus musculus helgolandicus). Tatsächlich vermischen sich laut Max-Planck-Gesellschaft die Helgoländer Hausmäuse „fast gar nicht mehr“ mit neu eingeschleppten Artgenossen.
Literatur
Thomas Cucchi et al.: Tracking the Near Eastern origins and European dispersal of the western house mouse. In: Scientific Reports. Band 10, Artikel Nr. 8276, 2020, doi:10.1038/s41598-020-64939-9 (freier Volltext; deutsche Zusammenfassung)
Kazumichi Fujiwara et al.: Insights into Mus musculus Population Structure across Eurasia Revealed by Whole-Genome Analysis. In: Genome Biology and Evolution. Band 14, Nr. 5, 2022, evac068, doi:10.1093/gbe/evac068. (freier Volltext; deutsche Zusammenfassung)
Weblinks
– Liste von Unterarten
Mouse Genome Informatics (MGI) Daten über die Genetik der Hausmäuse und bekannte Mutationen (englisch)
Einzelnachweise
Mäuse
Wikipedia:Artikel mit Video
|
Q83310
| 108.818226 |
1139
|
https://de.wikipedia.org/wiki/Dezimalsystem
|
Dezimalsystem
|
Das Dezimalsystem (von mittellateinisch decimalis, zu „Zehn“), auch Positionszahlensystem mit der Basis zehn (10) genannt, ist das Standardsystem zur Bezeichnung ganzer und nicht-ganzer Zahlen. Es ist die Erweiterung des hinduistisch-arabischen Zahlensystems auf nicht-ganze Zahlen. Die Art der Bezeichnung von Zahlen im Dezimalsystem wird oft als Dezimalschreibweise bezeichnet. Ein Zahlensystem, das als Basis die Zahl Zehn (10) verwendet, kann auch als Zehnersystem oder dekadisches System bezeichnet werden.
In der Regel wird darunter speziell das Stellenwertsystem zur Basis 10 verstanden, das in der indischen Zahlschrift entwickelt, durch arabische Vermittlung an die europäischen Länder weitergegeben wurde und heute weltweit als ein internationaler Standard etabliert ist.
Als Dezimalsysteme bezeichnet man jedoch auch Zahlensysteme auf der Basis 10 ohne Stellenwertsystem, die zum Teil in Verbindung mit quinären, vigesimalen oder anders basierten Zahlensystemen, den Zahlwörtern vieler natürlicher Sprachen und älteren Zahlschriften zugrunde liegen.
Anthropologisch wird die Entstehung von Dezimalsystemen – und Quinärsystemen – mit den 5 Fingern der zwei menschlichen Hände in Verbindung gebracht. Diese dienten als Zähl- und Rechenhilfe (Fingerrechnen). Gestützt wird diese Erklärung durch Zahlwörter für 5 („Hand“) und 10 („zwei Hände“) in einigen Sprachen.
Dezimales Stellenwertsystem
Ziffern
Im Dezimalsystem verwendet man die zehn arabischen Ziffern
0 (Null), 1 (Eins), 2 (Zwei), 3 (Drei), 4 (Vier), 5 (Fünf), 6 (Sechs), 7 (Sieben), 8 (Acht), 9 (Neun),
die als Dezimalziffern bezeichnet werden.
Die europäischen Zeichen für diese Ziffern stammen aus dem Maghreb und haben nicht die Form, die im Nahen Osten verwendet wird. Auch indische Schriften verwenden andere Zeichen.
Definition
Eine Dezimalzahl wird im deutschen Sprachraum meistens in der Form
aufgeschrieben; daneben existieren je nach Verwendungszweck und Ort noch weitere Schreibweisen. Dabei ist jedes eine der oben genannten Ziffern. Jede Ziffer hat einen Ziffernwert und je nach Position einen Stellenwert. Der Ziffernwert liegt in der konventionellen Zählreihenfolge. Der Index legt den Stellenwert fest, dieser ist die Zehnerpotenz . Die Ziffern werden ohne Trennzeichen hintereinander geschrieben, wobei die höchstwertige Stelle mit der Ziffer ganz links und die niederwertigeren Stellen mit den Ziffern bis in absteigender Reihenfolge rechts davon stehen. Zur Darstellung von rationalen Zahlen mit endlicher Entwicklung folgen dann, nach einem trennenden Komma, die Ziffern bis . Im englischen Sprachraum wird statt des Kommas ein Punkt verwendet.
Der Wert der Dezimalzahl ergibt sich also durch Summierung dieser Ziffern, welche vorher jeweils mit ihrem Stellenwert multipliziert werden; zusätzlich ist das Vorzeichen voranzustellen; ein fehlendes Vorzeichen bedeutet ein Plus:
.
Diese Darstellung nennt man auch Dezimalbruch-Entwicklung.
Beispiel:
Mit aufgelösten Potenzen ergibt sich:
Dezimalbruchentwicklung (periodische Dezimalzahlen in Brüche umformen)
Mit Hilfe der Dezimalbruchentwicklung kann man jeder reellen Zahl eine Folge von Ziffern zuordnen. Jeder endliche Teil dieser Folge definiert einen Dezimalbruch, der eine Näherung der reellen Zahl ist. Man erhält die reelle Zahl selbst, wenn man von den endlichen Summen der Teile zur unendlichen Reihe über alle Ziffern übergeht.
Formal wird mit also der Wert der Reihe bezeichnet.
Man sagt, dass die Dezimalbruchentwicklung abbricht, wenn die Ziffernfolge ab einer gewissen Stelle nur noch aus Nullen besteht, die dargestellte reelle Zahl also selbst schon ein Dezimalbruch ist. Insbesondere bei allen irrationalen Zahlen bricht die Ziffernfolge nicht ab; es liegt eine unendliche Dezimalbruchentwicklung vor.
Zur Umformung periodischer Dezimalbruchentwicklungen verwendet man die Beziehungen:
.
Diese Identitäten ergeben sich aus den Rechenregeln für geometrische Reihen, wonach für gilt. Im ersten Beispiel wählt man und beginnt die Summation erst beim ersten Folgenglied.
Beispiele:
Die Periode wird jeweils in den Zähler übernommen. Im Nenner stehen so viele Neunen, wie die Periode Stellen hat. Gegebenenfalls sollte der entstandene Bruch noch gekürzt werden.
Etwas komplizierter ist die Rechnung, wenn die Periode nicht unmittelbar auf das Komma folgt:
Beispiele:
1. Schritt: man multipliziere die Ausgangszahl mit einer Zehnerpotenz so, dass genau eine Periode (im Beispiel die 32) vor dem Komma steht:
2. Schritt: dann multipliziert man die Ausgangszahl mit einer Zehnerpotenz so, dass die Perioden genau hinter dem Komma beginnen:
3. Schritt: man subtrahiere die beiden durch Schritt 1 und 2 entstandenen Zeilen voneinander: (die Perioden hinter dem Komma fallen dadurch weg)
(Zeile 1)
(Zeile 2)
(Zeile 1 minus Zeile 2)
4. Schritt: umstellen
Ergebnis:
Doppeldeutigkeit der Darstellung
Eine Eigenschaft der Dezimalbruchentwicklung (und allgemein jeder Entwicklung) ist, dass viele rationale Zahlen zwei unterschiedliche Dezimalbruchentwicklungen besitzen. Wie oben beschrieben, kann man umformen und zu der Aussage
gelangen, siehe den Artikel 0,999…. Im dezimalen Fall spricht man von einem Neuner-Ende und im von einem
Die Identität zeigt, dass viele rationale Zahlen (nämlich alle mit endlicher Dezimalbruchentwicklung mit Ausnahme der 0) auf zwei verschiedene Weisen darstellbar sind: entweder als endlicher Dezimalbruch mit Periode 0, oder als unendlicher mit Periode 9. Durch Verbieten einer der beiden Periodenarten kann man Eindeutigkeit der Darstellung erzwingen.
Formel
Für periodische Dezimalbrüche mit einer Null vor dem Komma lässt sich folgende Formel aufstellen:
Dabei ist die rationale Zahl, ihr Zähler, ihr Nenner, die Zahl vor Beginn der Periode (als Ganzzahl),
die Anzahl der Ziffern vor Beginn der Periode, die Ziffernfolge der Periode (als Ganzzahl) und die Länge der Periode.
Die Anwendung dieser Formel soll anhand des letzten Beispiels demonstriert werden:
Periode
In der Mathematik bezeichnet man als Periode eines Dezimalbruchs eine Ziffernfolge, die sich nach dem Komma immer wieder wiederholt. Alle rationalen Zahlen, und nur diese, haben eine periodische Dezimalbruchentwicklung.
Beispiele:
Rein periodische: (nach dem Komma beginnt sofort die Periode)
1/3 = 0,33333...
1/7 = 0,142857142857...
1/9 = 0,11111...
Gemischt periodische: (nach dem Komma kommt erst noch eine Vorperiode, bevor die Periode beginnt)
2/55 = 0,036363636... (Vorperiode 0; Periodenlänge 2)
1/30 = 0,03333... (Vorperiode 0; Periodenlänge 1)
1/6 = 0,16666... (Vorperiode 1; Periodenlänge 1)
134078/9900 = 13,543232... (die Vorperiode ist 54; Periodenlänge ist 2)
Auch endliche Dezimalbrüche zählen zu den periodischen Dezimalbrüchen; nach Einfügung unendlich vieler Nullen ist zum Beispiel 0,12 = 0,12000...
Echte (nicht-abbrechende) Perioden treten im Dezimalsystem genau dann auf, wenn sich der Nenner des zugrunde liegenden Bruches nicht ausschließlich durch die Primfaktoren 2 und 5 (die Primfaktoren der Zahl 10) erzeugen lässt.
Ist der Nenner eine von 2 und 5 verschiedene Primzahl, so ist die Periodenlänge eines Bruches ein Teiler von da 10 dann eine prime Restklasse und damit ist. Die genaue Länge der Periode von (und von allen Brüchen mit ) ist die kleinste natürliche Zahl , bei der in der Primfaktorzerlegung von vorkommt.
Beispiel zur Periodenlänge 6: (106 − 1) = 999.999:
999.999 = 3 · 3 · 3 · 7 · 11 · 13 · 37,
1/7 = 0,142857142857…,
2/7 = 0,285714285714…,
1/13 = 0,076923076923…,
3/13 = 0,230769230769…,
6/13 = 0,461538461538…,
7/13 = 0,538461538461….
Die Beispiele wurden gewählt, um aufzuzeigen, dass bei gleichem Primzahlnenner die Perioden (Ziffernfolgen) für verschiedene Zähler als reine Links-Rechts-Verschiebungen von wenigen Ziffernfolgen vorkommen können – beim Nenner 7 ist es wegen eine einzige, beim Nenner 13 sind es wegen deren zwei.
Sowohl 1/7 als auch 1/13 haben eine Periodenlänge von 6, weil 7 und 13 in der Primfaktorzerlegung von erst ab vorkommen. 1/37 hat jedoch eine Periodenlänge von nur 3, weil bereits ein Vielfaches von 37 ist.
Ist der Nenner keine Primzahl, so ergibt sich die Periodenlänge als die kleinste Zahl , für die der Nenner ein Teiler von ist; eventuelle Primfaktoren 2 und 5 des Nenners bleiben dabei unberücksichtigt.
Beispiele:
1/185 = 1/(5·37) hat die gleiche Periodenlänge wie 1/37, nämlich 3.
1/143 = 1/(11·13) hat die Periodenlänge 6, weil 999.999 = 3 · 3 · 3 · 7 · 143 · 37 (siehe oben)
1/260 = 1/(2·2·5·13) hat die gleiche Periodenlänge wie 1/13, also 6.
Um die Periodenlänge effizient zu bestimmen, kann die Bestimmung der Primfaktorzerlegungen der rasch wachsenden Zahlenfolge 9, 99, 999, 9999 usw. vermieden werden, indem die äquivalente Beziehung genutzt wird, also wiederholtes Multiplizieren (angefangen bei 1) mit 10 modulo des gegebenen Nenners , bis dies wieder 1 ergibt. Zum Beispiel für :
also hat 1/91 im Dezimalsystem die Periodenlänge 6.
Notation
Für periodische Dezimalbruchentwicklungen ist eine Schreibweise üblich, bei der der sich periodisch wiederholende Teil der Nachkommastellen durch einen Überstrich markiert wird. Beispiele sind
,
.
Aufgrund technischer Einschränkungen existieren auch andere Konventionen. So kann der Überstrich vorangestellt, eine typografische Hervorhebung (fett, kursiv, unterstrichen) des periodischen Teils gewählt oder dieser in Klammern gesetzt werden:
1/6 = 0,1¯6 = 0,16 = 0,16 = 0,16 = 0,1(6)
1/7 = 0,¯142857 = 0,142857 = 0,142857 = 0,142857 = 0,(142857)
Nicht-periodische Ziffernfolge
Wie im Artikel Stellenwertsystem erläutert, besitzen irrationale Zahlen (auch) im Dezimalsystem eine unendliche, nicht-periodische Nachkommaziffern-Folge. Irrationale Zahlen können also nicht durch eine endliche und nicht durch eine periodische Ziffernfolge dargestellt werden. Man kann sich zwar mit endlichen (oder periodischen) Dezimalbrüchen beliebig annähern, jedoch ist eine solche endliche Darstellung niemals exakt. Es ist also nur mithilfe zusätzlicher Symbole möglich, irrationale Zahlen durch endliche Darstellungen anzugeben.
Beispiele solcher Symbole sind Wurzelzeichen, wie , Buchstaben wie für die Kreiszahl oder für die Eulersche Zahl, sowie mathematische Ausdrücke wie unendliche Reihen oder Grenzwerte.
Umrechnung in andere Stellenwertsysteme
Methoden zur Umrechnung von und in das Dezimalsystem werden im Artikel zum Stellenwertsystem und in Artikeln zu anderen Stellenwertsystemen beschrieben: Dualsystem, Ternärsystem, Oktalsystem, Duodezimalsystem, Hexadezimalsystem.
Geschichte
Einer der ältesten Hinweise auf das Dezimalsystem prähistorischer Kulturen findet sich in einem Hortfund von Oberding aus der frühen Bronzezeit (um 1650 v. Chr.) mit 791 weitgehend standardisierten Spangenbarren aus Kupfer aus dem Salzburger Land und der Slowakei. Die Mehrzahl dieser Barren war in Gruppen zu 10 mal 10 Bündeln abgelegt worden.
Dezimale Zahlensysteme – noch ohne Stellenwertsystem und ohne Darstellung der Null – lagen im Altertum unter anderem den Zahlschriften der Ägypter, Minoer, Griechen und Römer zugrunde. Es handelte sich dabei um additive Zahlschriften, mit denen beim Rechnen Zahlen zwar als Gedächtnisstütze niedergeschrieben, aber arithmetische Operationen im Wesentlichen nicht schriftlich durchgeführt werden konnten: Diese waren vielmehr mit Kopfrechnen oder mit anderen Hilfsmitteln wie den Rechensteinen (griech. psephoi, lat. calculi, im Spätmittelalter auch Rechenpfennige oder franz. jetons genannt) auf dem Rechnen auf Linien und möglicherweise mit Fingerrechnen zu leisten.
Den in römischer und mittelalterlicher Zeit verbreiteten, in etwas anderer Form auch in der arabischen Welt gebrauchten Fingerzahlen lag ein dezimales System für die Darstellung der Zahlen 1 bis 9999 zugrunde, ohne Zeichen für Null, und mit einem Positionssystem eigener Art. Hierbei wurden durch genau festgelegte Fingerstellungen auf der linken Hand mit kleinem, Ring- und Mittelfinger die Einer 1 bis 9 und mit Zeigefinger und Daumen die Zehner 10 bis 90 dargestellt, während auf der rechten Hand die Hunderter mit Daumen und Zeigefinger spiegelbildlich zu den Zehnern und die Tausender mit den drei übrigen Fingern spiegelbildlich zu den Einern dargestellt wurden. Diese Fingerzahlen sollen nicht nur zum Zählen und zum Merken von Zahlen, sondern auch zum Rechnen verwendet worden sein; die zeitgenössischen Schriftquellen beschränken sich jedoch auf die Beschreibung der Fingerhaltungen und geben keine nähere Auskunft über die damit durchführbaren rechnerischen Operationen.
Auf den Rechenbrettern des griechisch-römischen Altertums und des christlichen Mittelalters stand (demgegenüber) für die Darstellung ganzer Zahlen ein vollwertiges dezimales Stellenwertsystem zur Verfügung, indem für eine gegebene Zahl die Anzahl ihrer Einer, Zehner, Hunderter usw. durch Rechensteine in entsprechenden vertikalen Dezimalspalten dargestellt wurde. Auf dem antiken Abakus geschah dies durch Ablegen oder Anschieben einer entsprechenden Anzahl von Calculi in der jeweiligen Dezimalspalte, wobei zusätzlich eine Fünferbündelung praktiziert wurde, indem je fünf Einheiten durch einen einzelnen Calculus in einem seitlichen oder oberen Sonderbereich der Dezimalspalte repräsentiert wurden. Auf dem Klosterabakus des Frühmittelalters, der häufig mit Gerbert von Aurillac verbunden wird und vom 10. bis 12. Jahrhundert in Gebrauch war, wurde stattdessen die Anzahl der Einheiten in der jeweiligen Dezimalspalte nur durch einen einzelnen Stein dargestellt, der mit einer Zahl von 1 bis 9 beziffert war. Obwohl ein Rechenstein mit einer aus dem Arabischen stammenden Ziffer für Null (mittellateinisch cifra) zur Verfügung stand, wurde er beim abazistischen Rechnen für einen anderen Zweck verwendet – das war eine im 10. bis 12. Jahrhundert auf dem Gerbertschen Abakus gebräuchliche Rechenmethode. Das spätere Mittelalter und die Frühe Neuzeit kehrte wieder zur Verwendung unbezifferter Rechensteine zurück, welche die Spalten – nunmehr horizontal gezogenen Linien – entweder für dezimales Rechnen mit ganzen Zahlen an der Basiszahl 10 (mit Fünferbündelung), oder für das Finanzrechnen an den aus dem karolingischen Münzwesen (1 Pfund = 20 Schilling = 240 Pfennig) ererbten monetären Grundeinheiten verwendete. Auf den antiken wie auf den mittelalterlichen Varianten dieses Hilfsmittels erfolgte die Darstellung des Wertes Null jeweils durch Freilassen der betreffenden Dezimalspalte bzw. Linie, so auch auf dem Abakus. Mithilfe der antiken und mittelalterlichen Rechenbretter ließen sich Addition und Subtraktion erheblich vereinfachen, während sie für Multiplikation und Division wenig geeignet waren oder verhältnismäßig komplizierte Operationen erforderten, die besonders für den Klosterabakus in mittelalterlichen Traktaten beschrieben wurden und in ihrer Schwierigkeit berüchtigt waren.
Eine Zahlschrift mit vollwertigem Stellenwertsystem, bei dem auch die Position des Zahlzeichens dessen Wert bestimmt, entwickelten zuerst die Babylonier auf der Basis 60 und ergänzten es vermutlich schon vor dem 4. Jahrhundert vor Chr. auch um ein eigenes Zeichen für Null. Eine Zahlschrift mit Stellenwertsystem auf der Basis 10, aber noch ohne Zeichen für die Null, entstand in China vermutlich bereits einige Jahrhunderte vor der Zeitenwende (in Einzelheiten bezeugt seit dem 2. Jahrhundert vor Chr.), wahrscheinlich mithilfe von Rechenstäbchen auf einer schachbrettartig eingeteilten chinesischen Variante des Abakus, und wurde erst unter indischem Einfluss seit dem 8. Jahrhundert auch um ein Zeichen für Null ergänzt.
In Indien selbst sind die Anfänge des positionellen Dezimalsystems mit Zeichen für die Null nicht sicher zu bestimmen. Die ältere Brahmi-Zahlschrift, die vom 3. bis zum 8. Jahrhundert in Gebrauch war, verwendete ein dezimales System mit Ansätzen zu positioneller Schreibung, aber noch ohne Zeichen für Null. Die älteste indische Form der heutigen indo-arabischen Ziffern, mit aus der Brahmi-Zahlschrift herzuleitenden Zeichen für 1 bis 9 und einem Punkt oder kleinen Kreis für Null, ist durch sicher datierbare epigraphische Zeugnisse zuerst außerhalb Indiens seit dem 7. Jh. in Südostasien als indischer Export und in Indien selbst seit dem 9. Jahrhundert zu belegen; man nimmt jedoch an, dass die Verwendung dieses Ziffernsystems in Indien bereits im 5. Jahrhundert begann. Das gleiche positionelle Dezimalsystem mit Zeichen für Null lag auch dem in etwa gleichzeitigen gelehrten Zahlwortsystem indischer Astronomen zugrunde, in dem umschreibende Ausdrücke wie „Anfang“ (1), „Augen“ (2), „die drei Zeitstufen“ (3) für die Zahlen 1 bis 9 und „Himmel“, „Leere“, „Punkt“ oder andere Wörter für Null gemäß ihrem dezimalen Stellenwert als sprachliche Umschreibung mehrstelliger Zahlen gereiht wurden. Als frühes Zeugnis einer solchen positionellen Setzung von in diesem Fall weitgehend unmetaphorischen sprachlichen Zahlenbezeichnungen gilt bereits das 458 in Prakrit verfasste Lokavibhaga, das allerdings nur in einer späteren Sanskritübersetzung erhalten ist. Voll ausgebildet findet sich das umschreibende Zahlwortsystem dann bei Bhaskara I. (7. Jh.).
Von den Arabern und den von ihnen arabisierten Völkern wurde für die Schreibung von Zahlen zunächst das dezimale additive System der alphabetischen griechischen Zahlschrift, anfangs vermittelt durch hebräisches und syrisches Vorbild, übernommen und auf die 28 Buchstaben des arabischen Alphabets übertragen. Spätestens seit dem 8. Jahrhundert wurden jedoch zuerst im arabischen Orient und im Verlauf des 9. Jahrhunderts dann auch in Nordafrika und Al-Andalus die indischen Ziffern und darauf beruhenden Rechenmethoden bekannt. Die früheste Erwähnung findet sich im 7. Jahrhundert durch den syrischen Bischof Severus Sebokht, der das indische System ausdrücklich lobt. Eine wichtige Rolle bei der Verbreitung in der arabischen und der westlichen Welt spielte Muhammad ibn Musa al-Chwarizmi, der die neuen Ziffern nicht nur in seinen mathematischen Werken verwendete, sondern um 825 auch eine nur in lateinischer Übertragung erhaltene Einführung Kitāb al-Dschamʿ wa-l-tafrīq bi-ḥisāb al-Hind („Über das Rechnen mit indischen Ziffern“) mit einer für den Anfänger geeigneten Beschreibung des Ziffernsystems und der darauf beruhenden schriftlichen Grundrechenarten verfasste.
Im 10./11. Jahrhundert waren im lateinischen Westen bereits westarabische oder daraus abgeleitete Ziffern (apices genannt) auf den Rechensteinen des Klosterabacus aufgetaucht. Sie wurden aber nicht auch darüber hinaus als Zahlschrift oder sogar für schriftliches Rechnen verwendet. Zusammen mit dem Klosterabacus gerieten sie wieder in Vergessenheit. Al-Chwarizmi verhalf seit dem 12. Jahrhundert in lateinischen Bearbeitungen und daran anknüpfenden volkssprachlichen Traktaten dem indischen Ziffernrechnen zum Durchbruch. Deren Anfangsworte Dixit Algorismi bewirkten, dass „Algorismus“, die lateinische Wiedergabe seines Namens, sich weithin als Name dieser neuen Rechenkunst etablierte. Besonders in Italien, wo Leonardo Fibonacci es in seinem Liber abbaci auch aus eigener, in Nordafrika erworbener Kenntnis bekannt machte, konnte das indische Ziffernrechnen seit dem 13. Jahrhundert den Abacus (mit unbezifferten Rechensteinen) im Finanzwesen und kaufmännischen Bereich nahezu vollständig verdrängen und sogar dessen Namen (abbaco) annehmen. In übrigen Ländern wurde es zwar zum Gegenstand des wissenschaftlichen und kaufmännischen Unterrichts, besaß bis zur Frühen Neuzeit aber im Rechnen auf Linien einen übermächtigen Konkurrenten. Auch als einfache Zahlschrift für die praktischen Zwecke des Niederschreibens von Zahlen und des Nummerierens, für die kein Stellenwertsystem benötigt wird, konnten sich die indo-arabischen Ziffern erst seit der frühen Neuzeit allmählich gegen die römischen Zahlen durchsetzen.
Siehe auch
Zahlennamen
Literatur
Weblinks
Dezimal-/Zehnersystem für Schüler erklärt auf mathematik-wissen.de
Das dezimale Stellenwertsystem verstehen und metakognitiv denken lernen. Vorlagen mit flexiblen Interviews, es ist die Methode der kritischen Exploration, Piaget
Einzelnachweise
Zahlensystem
|
Q81365
| 295.782018 |
442452
|
https://de.wikipedia.org/wiki/Qualcomm
|
Qualcomm
|
Qualcomm Incorporated ist ein US-amerikanischer Halbleiterhersteller und Anbieter von Produkten für Mobilfunkkommunikation mit Sitz in San Diego, Kalifornien. Qualcomm war 2021 nach Umsatz der fünftgrößte Halbleiterhersteller der Welt.
Qualcomm besitzt Produktionsstätten für Bandpassfilter (SAW/BAW) in München, Singapur und Wuxi.
Geschichte
Qualcomm wurde 1985 von Irwin Jacobs und Andrew Viterbi gegründet, die 1969 schon die Firma Linkabit gegründet hatten. Aktueller CEO des Unternehmens ist Cristiano Amon.
Im Oktober 2016 gaben Qualcomm und NXP Semiconductors die einvernehmliche Bekanntmachung heraus, dass Qualcomm den niederländischen Chipproduzenten für rund 47 Mrd. US-Dollar übernehmen wolle, damit würde Qualcomm auch große eigene Fertigungsstätten besitzen. Im Juni 2018 gab Qualcomm seine Übernahmebemühungen auf. Gleichzeitig kündigte Qualcomm den Start eines Aktienrückkaufprogramms mit einem Volumen von 30 Milliarden Dollar an.
Anfang 2021 hat Qualcomm für 1,4 Milliarden US-Dollar das Start-up Nuvia übernommen.
In den Folgejahren hat Qualcomm erfolgreich seine Position im Automobilmarkt ausgebaut. Vor allem durch die Übernahme des schwedischen Zulieferers Veoneer gelang dem Halbleiterhersteller ein wichtiger Schritt. Der Kauf sorgte für Schlagzeilen, da Veoneer bereits mit Magna eine Vereinbarung getroffen hatte. Qualcomm zahlte 37 US-Dollar pro Veoneer-Aktie, also etwa 4,5 Milliarden Dollar. Magna hatte lediglich 31,20 US-Dollar geboten. Der Halbleiterhersteller musste zusätzlich eine Vertragsverletzungsstrafe in Höhe von 110 Millionen US-Dollar an Magna zahlen.
Durch die Übernahme von Veoneers kann Qualcomm nun Software und Hardware für Fahrerassistenzsysteme für die Automobilindustrie anbieten. Dem vorausgegangen war bereits eine Kooperation mit Veoneer. Gemeinsam wurde die Marke Arriver gegründet, unter der Software für solche Assistenzsysteme und für das automatisierte Fahren angeboten werden.
Monopolstellung
Qualcomm besitzt eine annähernde Monopolstellung bei Baseband-Prozessoren für Smartphones. Dies führte zu mehreren Rechtsstreitigkeiten mit Behörden und Unternehmen.
Kartellbehörden
Mehrere Kartellämter, darunter die FTC, werfen dem Unternehmen unfairen Wettbewerb vor. Qualcomm soll Lizenzgebühren erhoben haben, die über dem FRAND-Maßstab lagen, und weitreichende Lizenzbedingungen verlangen. Zur Durchsetzung seiner Bedingungen soll Qualcomm mit dem Abbruch von Lieferungen gedroht haben.
Die Volksrepublik China verhängte 2015 gegen Qualcomm eine Strafe von umgerechnet 882 Mio. Euro, die Qualcomm akzeptierte.
Die südkoreanische Kartellbehörde, Korea Fair Trade Commission (KFTC), belegte Qualcomm mit einer Strafzahlung von 814 Mio. Euro. Sie warf Qualcomm vor, „Patente nur an Smartphone-Hersteller lizenziert, auf angemessene Verhandlung der Lizenzbedingungen verzichtet und andere Hersteller für die Nutzung von deren Patenten nicht fair bezahlt“, sowie Kunden genötigt zu haben, „parallel zum Einkauf von Chips auch Patentlizenzierungsabkommen zu unterzeichnen.“ Hiergegen kündigte Qualcomm Rechtsmittel an. Apple unterstützte die Ermittlungen der KFTC, was einen jahrelangen und bis heute andauernden Rechtsstreit zwischen Apple und Qualcomm auslöste.
Im Januar 2018 verhängte die EU-Kommission gegen Qualcomm eine Buße in Höhe von 997 Millionen Euro (4,9 % des Jahresumsatzes 2017) wegen Missbrauchs seiner Marktmacht. Wettbewerber seien in rechtswidriger Weise mehr als fünf Jahre lang vom Markt für LTE-Baseband-Chipsätze ausgeschlossen worden, indem Preisnachlässe für Apple mit der Bedingung verknüpft wurden, dass in sämtlichen iPhone- und iPad-Geräten ausschließlich Chipsätze von Qualcomm verwendet werden. Qualcomm kündigte am 24. Januar an, hiergegen Berufung vor dem Gericht der Europäischen Union einzulegen.
Im Mai 2019 urteilte ein United States District Court, dass Qualcomm gegen den Federal Trade Commission Act verstoßen hat. Das Gericht verfügte, Qualcomm dürfe Käufer von Chips nicht mehr zu Lizenzierung von Patenten verpflichten, keine Exklusivverträge mit Unternehmen wie beispielsweise Apple schließen und sich nicht mehr weigern, Patentlizenzen nach den FRAND-Prinzipien zu vergeben. Qualcomm kündigte an, in Berufung zu gehen.
Im Juli 2019 belegte die EU-Kommission Qualcomm mit einer Buße in Höhe von 242 Millionen Euro. Das Unternehmen habe seine marktbeherrschende Stellung bei 3G-Baseband-Chipsätzen missbraucht, indem es mit Dumpingpreisen den Konkurrenten Icera vom Markt verdrängte.
Rechtsstreit mit Apple
Seit dem Beginn des Jahres 2017 befinden sich Qualcomm und Apple in einem weltweiten Rechtsstreit. Apple verklagte im Januar 2017 Qualcomm auf Zahlung von einer Milliarde Euro wegen überhöhter Lizenzgebühren und zurückbehaltener Rabatte. Qualcomm wiederum verklagte Apple daraufhin weltweit wegen Verletzung seiner Patente.
Der Hintergrund des Rechtsstreits ist Folgender: Apple bezieht Mikrochips nicht direkt von Qualcomm, sondern über Produktionspartner in China. Diese bezahlen Lizenzgebühren an Qualcomm, die sie Apple wiederum in Rechnung stellen. Apple wiederum zahlt ebenfalls (zusätzlich zu den Produktionspartnern) Lizenzgebühren an Qualcomm. Diese beziehen sich auf die Endprodukte. Hinsichtlich dieser Lizenzgebühren, die Apple an Qualcomm zahlt, gewährt Qualcomm Apple Rabatte hinsichtlich der Verkäufe Qualcomms an die Produktionspartner Apples. Nach der Vertragsbeziehung können die Rabatte im Falle von Rechtsstreitigkeiten zwischen Apple und Qualcomm entfallen. Als die südkoreanische Kartellbehörde gegen Qualcomm ermittelte, unterstützte Apple diese. Daraufhin behielt Qualcomm die Rabatte zurück. Apple verklagte im Januar 2017 Qualcomm auf Zahlung der Rabatte und Rückzahlung der Lizenzgebühren. Apple wirft Qualcomm überhöhte Lizenzgebühren und die Zurückbehaltung der Rabatte vor, sowie an den Verkäufen und Lizenzgebühren doppelt zu verdienen. Im März 2019 urteilte ein kalifornisches Gericht, dass die Forderung Apples gegen Qualcomm bestehe und in Höhe von einer Milliarde Euro weiterhin offen sei.
Qualcomm verklagte wiederum Apple weltweit wegen illegaler Nutzung seiner Patente, darunter auch in Deutschland. Am 20. Dezember 2018 erwirkte Qualcomm vor dem Landgericht München gegen Apple ein Verkaufsverbot für das iPhone 7, das iPhone 8 und das iPhone X in Deutschland wegen Verletzung eines Europäischen Patents zur Stromversorgung für elektrische Verstärker. Qualcomm löste dieses vorläufig vollstreckbare Verkaufsverbot am 3. Januar 2019 durch Hinterlegung einer Sicherheitsleistung in Höhe von 1,34 Milliarden Euro aus. Fünf weitere Klagen Qualcomms gegen Apple wegen Patentrechtsverletzungen, darunter vier Klagen zu Spotlight & Suchen und Siri, wies das Landgericht München ab. Eine weitere Klage wegen Patentrechtsverletzung wies das Landgericht Mannheim ab. Am 27. März 2019 wurde bekannt, dass im Rahmen eines weiteren Patentrechtsstreits Apple ein Verkaufsverbot einiger iPhones in den USA drohen könnte.
Zahlen
Produkte
Prozessoren
Für Mobiltelefone und Tablet-Computer hat Qualcomm die SoCs der Snapdragon-Reihe entwickelt. Die Prozessoren werden unter anderem beim taiwanischen Auftragsfertiger TSMC hergestellt. Als eine von drei Firmen entwickelte Qualcomm auch einen auf der ARM-Architektur basierenden Serverprozessor, den Centriq 2400.
Mobilfunk
Qualcomm entwickelte eine Digitalmobilfunktechnologie, basierend auf CDMA; die erste Version wurde standardisiert als IS-95. Es hat seit seiner Entwicklung neuere Variationen mit demselben Schema gegeben, wie IS-2000 und 1x-EVDO.
Qualcomm stellte ehemals CDMA2000-Mobiltelefone und Funkstationen her.
Qualcomm verkaufte sein Funkstationengeschäft an Ericsson und seine Mobilfunkherstellung an Kyocera und fokussiert sich heute auf das Entwickeln und das Lizenzieren von drahtlosen Technologien und verkauft ASICs, die diese implementieren.
Drahtlose Kommunikation (Kurzstrecke)
Durch die Übernahme von Atheros eignete sich Qualcomm einen führenden Entwickler von WLAN-Chips an, der auch Chips für andere Funkanwendungen wie Bluetooth und GPS entwickelte. 2014 kaufte Qualcomm das britische Unternehmen Cambridge Silicon Radio (CSR), einen ehemals führenden Anbieter für Bluetooth-Chips. Durch diesen Kauf erhielt Qualcomm das Know-how und die bestehenden Vertriebskanäle von CSR. CSR übernahm im Jahr 2009 die Firma SiRF, einem ehemals führenden Hersteller von Chipsätzen für GPS-Empfänger. Dadurch wurde Qualcomm auch zu einem führenden Anbieter von GPS-Chipsätzen.
OmniTRACS
Qualcomms erste Produkte sind das OmniTRACS-Satellitenkommunikations- und Ortungssystem, das von Speditionsunternehmen genutzt wird und anderen, die digitale Radiokommunikation brauchen. Man braucht dazu einen Viterbi-Dekoder.
In Europa wird das System unter dem Namen EutelTRACS vermarktet, sendet auf einer Frequenz von 10 bis 14 GHz und ist seit 1991 in Betrieb.
Die Firma Omnitracs wurde 2013 an Vista Equity Partners verkauft. Das europäische Geschäft wurde 2014 von Astrata erworben.
Projekte
Andere Qualcomm-Projekte umfassen die Entwicklung des Globalstar-Satellitensystems (ein Joint Venture mit Loral Space & Communications) und ein Joint Venture im Bereich Digitalkinematographie mit Technicolor.
Qualcomm entwickelte BREW (Binary Runtime Environment for Wireless) als eine Plattform für Telefone. Qualcomm betreute das mittlerweile eingestellte E-Mail-Programm Eudora.
2009 gründete Qualcomm das Tochterunternehmen Qualcomm Innovation Center (QuIC) für die Entwicklung von quelloffener Software für Mobilfunk.
Qualcomm gehört zu den ersten Hauptmitgliedern der FIDO-Allianz, die seit 2013 den Industriestandard Universal Second Factor (U2F) für eine allgemein anwendbare Zwei-Faktor-Authentifizierung entwickelt hat.
Sonstige
Real-Time Executive (REX)
Automobilindustrie
Fahrerassistenzsysteme/automatisiertes Fahren
Qualcomm ist durch die Übernahme von Veoneer ein Zulieferer von Software für Fahrerassistenzsysteme geworden. Zudem arbeitet man an Systemen zum automatisierten und autonomen Fahren. Ein wichtiger Kunde von Veoneer war beispielsweise Mercedes-Benz. Die Stuttgarter setzten Software und Radar-Sensoren von Veoneer für einzelne Funktionen der Assistenzsysteme der S-Klasse (2020) ein.
Ende 2021 gab BMW bekannt, dass Qualcomm wichtige Komponenten für die Assistenzsysteme des Automobilhersteller liefern werde. Darunter Software zur Bildverarbeitung, ein Computer-Vision-SoC und ein zentrales Steuergerät. Als SoC kommt der Snapdragon-Chipsatz von Qualcomm zum Einsatz.
Auch Ferrari will die Snapdragon-Technik künftig einsetzen.
Automotive Betriebssystem
Gemeinsam mit Opensynergy und Google arbeitet Qualcomm an einer Referenzplattform für ein Automotive Betriebssystem. Der Halbleiterhersteller liefert dafür ein System-on-a-Chip (SoC). Beispielsweise für Kombiinstrumente oder Head-up-Displays soll dieses Android Automotive OS (Operating System) eingesetzt werden.
Sponsoring
2021 wurde Qualcomm Namenssponsor des Snapdragon Stadium, eines College-Football- und Fußballstadions in der US-amerikanischen Stadt San Diego im Bundesstaat Kalifornien.
Weblinks
Qualcomm Incorporated
Einzelnachweise
Softwarehersteller (Vereinigte Staaten)
CPU-Hersteller
Telekommunikationsgeräte-Hersteller
Produzierendes Unternehmen (San Diego)
Unternehmen im NASDAQ-100
Gegründet 1985
Fabless
Hardwarehersteller (Vereinigte Staaten)
|
Q544847
| 90.284352 |
116746
|
https://de.wikipedia.org/wiki/Plioz%C3%A4n
|
Pliozän
|
Das Pliozän ist in der Erdgeschichte eine chronostratigraphische Serie (= Zeitintervall) des Neogen. Es begann vor etwa Millionen Jahren und endete vor etwa Millionen Jahren. Vor dem Pliozän liegt das Miozän. Nach ihm folgt das Pleistozän, das Eiszeitalter, mit einem Wechsel von Warm- und Kaltzeiten bis ins Holozän, die geologische Gegenwart.
Namensgebung und Geschichte
Der Name (von griechisch πλεῖον = mehr und καινός = neu, ungewöhnlich) stammt von Charles Lyell, der ihn 1847 zur Unterteilung des Tertiärs vorschlug.
Bis 2004 wurde das Pliozän als letzte Serie des Tertiärs vor dem Quartär angesehen. Dann wurde von Gradstein et al. in ihrer Publikation A Geologic Timescale vorgeschlagen, das Quartär ganz aufzugeben und Pleistozän und Holozän zum Neogen zu stellen. Dies rief jedoch heftigen Widerspruch von Seiten der verschiedenen Quartär-Vereinigungen hervor mit dem Ergebnis, dass das Quartär als System mit den beiden Serien Pleistozän und Holozän erhalten bleibt. Dem Pleistozän wurde zudem die oberste Stufe des Pliozäns, das Gelasium, zugeschlagen. Die Ratifizierung dieses Vorschlags durch das International Union of Geological Sciences (IUGS) erfolgte im Juni 2009.
Definition und GSSP
Als Basis der Serie (und als Basis der Stufe des Zancleum) wurde die Obergrenze der magnetischen Polaritäts-Chronozone C3r (rund 100.000 Jahre vor der Thvera normal-polaren Subchronozone C3n.4n) definiert. Außerdem liegt die Grenze nahe dem Aussterbehorizont der kalkigen Nanoplankton-Art Triquetrorhabdulus rugosus (= Basis der CN10b-Zone) und dem Erstauftreten der kalkigen Nanoplankton-Art Ceratolithus acutus. Die Obergrenze des Pliozäns (nach Ausgliederung des Gelasiums) ist die Isotopen-Stufe 103, die Basis der magnetischen Polaritäts-Chronozone C2r (Matuyama-Chronozone), und etwas darüber liegen die Aussterbehorizonte der kalkigen Nanoplankton-Arten Discoaster pentaradiatus und Discoaster surculus. Der GSSP (= globaler Eichpunkt) für den Beginn des Pliozäns (und damit auch die Grenze Zancleum/Messinium) liegt in der Nähe der antiken Stadt Herakleia Minoa (Sizilien, Italien).
Untergliederung
Das Pliozän wurde früher in drei Stufen unterteilt, nach der Ausgliederung des Gelasiums sind es nur noch zwei Stufen:
System: Neogen (– mya)
Serie: Pliozän (– mya)
Stufe: Piacenzium (– mya)
Stufe: Zancleum (– mya)
Serie: Miozän (– mya)
In den großen Sedimentationsbecken Mitteleuropas werden die dort abgelagerten Sedimente hauptsächlich mit regionalen Stufen gegliedert. Für das zentrale Paratethys-Becken werden folgende regionale Stufen benutzt:
Romanium (entspricht etwa dem Piacenzium)
Dacium (entspricht etwa dem Zancleum)
Klima
Im Pliozän war das Klima relativ stabil und warm. Der Anteil an Kohlenstoffdioxid in der Erdatmosphäre wurde durch Untersuchung von Δ13C organischen Materials aus Meeressedimenten und versteinerten Blättern ermittelt und betrug Mitte des Pliozän etwa 360 bis 400 ppm; während im Holozän eine Kohlenstoffdioxidkonzentration von ca. 280 ppm vorlag, begann diese ab etwa der Mitte des 19. Jahrhunderts beschleunigt anzusteigen, so dass eine Konzentration von 400 ppm wieder im Jahr 2014 erreicht wurde.
Die Jahresdurchschnittstemperaturen lagen zunächst etwa zwei Millionen Jahre lang rund 2 bis 3 °C über den Temperaturen vorindustrieller Zeit. Verschiedene Klimaproxies dokumentieren einen 15–25 Meter erhöhten Meeresspiegel im Vergleich zu heute.
Ob und wie weit die Vulkanausbrüche des Supervulkankomplexes Altiplano–Puna Vulkan Komplex (APVC) vor 3,5 und 5,6 Mio. Jahren durch den Asche, Schwefeldioxid und Chlorgase für die Temperaturveränderungen als maßgeblicher Treiber verantwortlich sind, ist umstritten. Beide Ausbrüche entsprechen in etwa dem des bekannteren Yellowstone-Supervulkans. Dessen Ausbrechen und die damit einhergehende globale Verdunklung durch Asche gilt allgemein anerkannt als Kipppunkt für eine globale Abkühlung.
Im späten Pliozän vor 3,2 Millionen Jahren kündigte eine allmähliche Abkühlung das bevorstehende Quartäre Eiszeitalter an, wobei der CO2-Gehalt im Verlauf von mehreren 100.000 Jahren auf 275 bis 300 ppm sank, mit einer weiteren Reduzierung während der folgenden Kaltzeitphasen. Mit der Vereisung der Arktis im Gelasium begann das Quartär, das bis heute andauert.
Paläogeographie
Die Landbrücke zwischen Nord- und Südamerika begann sich zu bilden, was stärkere Auswirkungen auf die Ausbreitung vieler Tiergattungen, z. B. der Rüsseltiere von Afrika über Asien nach Nord- und Südamerika hatte. In der südamerikanischen Tierwelt, die sich in der Isolation des Kontinents bis dahin eigenständig entwickelt hatte, verdrängten die eingewanderten Säbelzahnkatzen die Terrorvögel von der Spitze der Nahrungspyramide.
Fauna
Europa
Viele Tiergattungen des Pliozäns hatten bereits im vorangehenden Miozän gelebt. Die größten Tiere Europas wurden am Beginn der Epoche durch das elefantenähnliche Rüsseltier Anancus und durch zygodonte Mastodonten der Gattung Mammut repräsentiert. Giraffen und boselaphine Hornträger (Verwandte der Nilgauantilope) waren in dieser Epoche zum letzten Mal auch in Europa verbreitet. Typisch für Europa waren damals auch Gazellen (Gazella, Hispanodorcas). Große Hornträger überlebten mit Parabos aus dem Miozän und brachten mit der Gattung Alephis noch größere Formen hervor. Die fortschrittlicheren Formen der Hirsche (Croizetoceros und Pliocervus) brachten immer komplexere und größere Geweihe hervor. Unter den Schweinen überlebte Propotamochoerus aus dem Miozän. Außerdem tauchten die ersten echten Schweine der Gattung Sus mit Sus arvernensis auf. In Europa verschwanden vorübergehend die Flusspferde (Hexaprotodon) während die Kamele im Pliozän mit Paracamelus vor allem im Südosten verbreitet waren. Fossile Erdferkel (Orycteropus) sind etwa aus der Gegend von Perpignan bekannt.
Die Nashörner büßten zu Beginn des Pliozäns einen Großteil ihrer Formenvielfalt ein. So starben in Europa und dem östlichen Mittelmeerraum alle hornlosen Formen aus. Die Gattungen Ceratotherium und Diceros, die heute in Afrika noch durch Breitmaulnashorn und Spitzmaulnashorn vertreten sind, sowie das hornlose, flusspferdartige Brachypotherium waren seit dem Beginn des Pliozäns auf Afrika beschränkt. In Europa überlebte von den Nashörnern nur Stephanorhinus. Die Pferde waren mit Hipparion verbreitet, Tapire (Tapirus) kamen vor allem in Südeuropa vor.
Die beiden Säbelzahnkatzen Machairodus und Paramachairodus verschwanden am Beginn des Pliozäns aus Europa. Metailurus wurde durch Dinofelis ersetzt. Hyänen waren durch knochenknackende Formen wie Pachycrocuta und kleine Räuber wie Plioviverrops vertreten. Daneben gab es die so genannten Gepardhyänen (Chasmaporthetes), die weniger an das Aufbrechen von Knochen, sondern eher an schnelle Verfolgungsjagden angepasst waren. Die Gattung Chasmaportestes war auch in Afrika und Asien verbreitet und wanderte über die Beringstraße auch nach Nordamerika ein. Auch Geparde waren in Europa mit Acinonyx pardinensis verbreitet. Kleinere Räuber waren durch Füchse (Vulpes) und Marderhunde (Nyctereutes) vertreten. Mit Agriotherium überlebten auch die Bären aus dem Miozän bis ins Pliozän. Die Gattung Ursus, die sich im Miozän Asiens aus Ursavus entwickelt haben dürfte, tauchte im Pliozän mit Ursus minimus erstmals in Europa auf. Affen waren mit Macaca prisca, einem Verwandten des Berberaffen, sowie durch die Gattungen Paradolichopithecus, Dolichopithecus und Mesopithecus ebenfalls verbreitet. Die Hominoiden waren dagegen im späten Miozän aus Europa verschwunden.
Die Nager waren im Pliozän Europas durch verschiedene Gattungen von Muriden (Apodemus etc.) sowie durch Cricetiden (Ruscinomys und Apocricetus) aus dem Miozän weiterhin vertreten. Außerdem sind Flughörnchen (Pliopetaurista) und Biber (Castor) verbreitet. Im Süden Europas kamen Krokodile und Riesenschildkröten vor. Eine kurze kühle Phase im ansonsten milden Klima des frühen Pliozäns führte vor rund 4 Millionen Jahren zum Einwandern von Steppennagern mit sigmodonten Zähnen wie Trilophomys, Celadensia und Bjornkurtenia nach Europa.
Gegen Ende des Pliozäns vor rund 3,2 Millionen Jahren verschwanden in Europa die letzten Giraffen. Der große Hornträger Parabos wurde zu dieser Zeit durch die Gattung Leptobos ersetzt, der bereits stark an heutige Rinder der Gattung Bos erinnerte. Weitere Hornträger, die nach Europa einwanderten, waren Gazellospira, Megalovis, Pliotragus. Dazu kamen die ersten Hirsche der heutigen Gattung Cervus sowie erste Vertreter der Riesenhirsche (Arvernoceros). Unter den Raubtieren tauchte ebenfalls vor etwa 3 Millionen Jahren die puma-ähnliche Katze Viretailurus schaubi zum ersten Mal auf. Außerdem erschienen erstmals hochentwickelte machairodontine Säbelzahnkatzen wie Megantereon und Homotherium.
Am Ende des Pliozäns vor etwa 2,6 Millionen Jahren setzte eine Abkühlung des Erdklimas ein, in deren Verlauf Mammute (Mammuthus) einwanderten und die alten Rüsseltiere wie Anancus ersetzten. Gleichzeitig wurden die Hipparionen durch moderne Pferde der Gattung Equus ersetzt, die sich vorher in Amerika aus Pliohippus entwickelten. Zwei weitere Einwanderer am Ende der Epoche waren Eucladoceros, ein großer Hirsch mit sehr komplexem Geweih und Libralces, ein früher Elch. Dazu kamen die Hornträger Gallogoral und Preaovibos. Letzterer war ein Vorläufer des heutigen Moschusochsen und ersetzte offenbar Megalovis und Pliotragus. Gleichzeitig verschwanden die Gazellen (Gazella, Gazellospira) aus Europa. Zu den neuen Einwanderern zählten auch Vorläufer der heutigen Wölfe, die in Europa mit Canis etruscus erschienen, sowie der Europäische Jaguar (Panthera gombaszoegensis). Die Gepardhyänen verschwanden zu dieser Zeit, die große Katze Dinofelis hatte sich sogar bereits etwas früher aus Europa zurückgezogen. Die Krokodile, Riesenschildkröten und Tapire verschwanden ebenfalls aus Europa. Durch diese Wechsel bedingt glich die Fauna der folgenden Epoche des Pleistozäns bereits stark der heutigen Tierwelt.
Asien
Asien war mit Europa verbunden und beherbergte größtenteils ähnliche Tierformen. Allerdings überlebten hier einige Formen, wie die Chalicotherien und Giraffen länger. Typisch für das Pliozän Asiens ist auch die Nashorngattung Rhinoceros.
Afrika
Die Rüsseltiere waren im Pliozän Afrikas reichhaltig durch Elefanten (Elephas, Loxodonta, Mammuthus), Gomphotherien (Anancus) und Deinotherien (Deinotherium) repräsentiert. Seit dem mittleren Pliozän kamen die beiden heute noch lebenden Nashornarten (Breitmaulnashorn und Spitzmaulnashorn) vor. Bis zum Ende des Pliozäns vor etwa 2 Millionen Jahren überlebten die Chalicotherien mit Ancylotherium hennigi in Afrika. Die Pferde waren durch Hipparionen vertreten, bis am Beginn des Pleistozäns die Gattung Equus erschien. Verschiedene Schweine (Notochoerus, Kolpochoerus, Metridichoerus) und zahlreiche Hornträger sind bekannt. Die Impalas waren ebenso wie die Gattungen Gazella und Tragelaphus bereits vertreten. Giraffen waren durch langhalsige Formen (Giraffa jumae) ebenso wie durch die ausgestorbenen Rindergiraffen (Sivatherium) vertreten. Flusspferde sind vor allem durch die Gattung Hexaprotodon repräsentiert. Kamele sind im Fossilbericht Afrikas generell selten, erreichten aber im Pliozän südwärts immerhin Malawi. Die großen Raubtiere waren durch verschiedene Hyänen, Hunde und Katzen vertreten. Zu den großen Katzen zählte Dinofelis, Megantereon, Homotherium und seit dem späteren Pliozän auch die Gattungen Panthera und Acinonyx. Löwengroße Panthera-Formen sind etwa aus Laetoli in Tansania bekannt. Im Pliozän waren auch Bären mit Agriotherium bis in den Süden Afrikas verbreitet. Darüber hinaus lebten im Pliozän die Australopithecinen als Vorfahren des Menschen.
Nordamerika
Am Beginn des Pliozäns Nordamerikas waren Pferde, Tapire, Rüsseltiere, Kamele und große Säbelzahnkatzen (Megantereon) vertreten. Die knochenknackenden Hyänen wurden im Pliozän Nordamerikas durch große Hunde der Gattung Osteoborus vertreten.
Im Verlauf des Pliozäns bildete sich die Mittelamerikanische Landbrücke, die zum ersten Mal seit Millionen Jahre währender Isolation den nordamerikanischen mit dem südamerikanischen Kontinent verband. Während dieses großen amerikanischen Faunenaustauschs wanderten Bodenfaultiere, Glyptodonten, Pampatherien und Gürteltiere aus Südamerika ein und besiedelten Nordamerika. Dagegen verschwanden die Nashörner im Verlauf des Pliozäns mit Gattungen wie Teleoceras endgültig aus Nordamerika.
Südamerika
Der südamerikanische Kontinent war stärker vom großen Faunenaustausch betroffen als Nordamerika. Zahlreiche heute für Südamerika typische Säugetierfamilien wanderten im Pliozän über die neu entstandene mittelamerikanische Landbrücke. Darunter waren die Katzen, Hunde, Kamele, Hirsche, Nabelschweine und Tapire. Auch einige Familien, die erst ganz am Ende des Pleistozäns wieder aus Südamerika verschwanden, so etwa die Pferde und Gomphotherien, wanderten damals ein. Sie ersetzten die einzigartige Fauna des südamerikanischen Pliozäns zum großen Teil. Zahlreiche südamerikanische Säuger, die sich in Südamerika isoliert entwickelt hatten, starben aus und wurden durch die Einwanderer aus dem Norden ersetzt. Darunter war der Säbelzahnräuber Thylacosmilus. Unter den Formen, die sich behaupten konnten, befanden sich vor allem verschiedene Nebengelenktiere (Faultiere, Ameisenbären, Glyptodonten, Gürteltiere) sowie einige Südamerikanische Huftiere wie Toxodon und Macrauchenia. Außerdem überlebten zahlreiche Nager und Primaten, die bereits erheblich früher als "Inselhüpfer" über enge Meeresarme nach Südamerika eingewandert waren.
Alpidische Gebirgsbildung
Die im Neogen (vor allem im Miozän) ablaufende alpidische Gebirgsbildung der Alpen, Karpaten und anderer Gebirge in Eurasien (Himalaya) kam fast zum Stillstand (geringe Hebungen gibt es bis heute). Die großen Sedimentmassen in Europas Ebenen und tektonischen Becken wurden im Pliozän nur noch durch eine relativ dünne Formation überdeckt, bevor die Gletscher und Schotter der ersten großen Kaltzeiten die heutigen Landschaften prägten.
Massenaussterben
Am Ende des Pliozän kam es zu einem erst Mitte 2017 entdeckten Massenaussterben. Betroffen war die marine Megafauna. Etwa ein Drittel der Gattungen großer Meerestiere verschwand. Betroffen waren Wale, die Seekühe des Mittelmeeres, Haie, Meeresvögel und Meeresschildkröten, darunter der große Hai Otodus megalodon. Ursache des Massenaussterbens war die globale Abkühlung durch das beginnende Eiszeitalter. Diese ließ den Meeresspiegel sinken, so dass die flachen Küstenmeere der Kontinentalschelfgebiete, Lebensraum der betroffenen Arten, stark schrumpften.
Literatur
Charles Lyell: Principles of geology: or the modern changes of the earth and its inhabitants. 7. Aufl., XVI, 810 S., Murray, London 1847.
Hans Murawski & Wilhelm Meyer: Geologisches Wörterbuch. 10., neu bearb. u. erw. Aufl., 278, Enke Verlag, Stuttgart 1998, ISBN 3-432-84100-0.
John A. Van Couvering, Davide Castradori, Maria Bianca Cita, Frederik J. Hilgen und Domenico Rio: The base of the Zanclean Stage and of the Pliocene Series. Episodes, 23(3): S. 179–187, Beijing 2000 doi:10.18814/epiiugs/2000/v23i3/005.
Jordi Augusti: Mammoths, Sabertooths and Hominids 65 Million Years of Mammalian Evolution in Europe. Columbia University Press, 2002, ISBN 0-231-11640-3
Alan Turner & Mauricio Anton: Evolving Eden. An Illustrated Guide to the Evolution of the African Large-Mammal Fauna. Columbia University Press, New York, 2004. ISBN 0-231-11944-5
Weblinks
Deutsche Stratigraphische Kommission (Hrsg.): Stratigraphische Tabelle von Deutschland 2002. Potsdam 2002, ISBN 3-00-010197-7 (PDF; 6,57 MB).
Kommission für die paläontologische und stratigraphische Erforschung Österreichs der Österreichischen Akademie der Wissenschaften (Hrsg.): Die Stratigraphische Tabelle von Österreich (sedimentäre Schichtfolgen). Wien 2004 (PDF)
Einzelnachweise
Zeitalter des Neogen
|
Q76259
| 271.299619 |
20703
|
https://de.wikipedia.org/wiki/Parallelogramm
|
Parallelogramm
|
Ein Parallelogramm (von „von zwei Parallelenpaaren begrenzt“) oder Rhomboid (rautenähnlich) ist ein konvexes ebenes Viereck, bei dem gegenüberliegende Seiten parallel sind.
Parallelogramme sind spezielle Trapeze und zweidimensionale Parallelepipede. Rechteck, Raute (Rhombus) und Quadrat sind Spezialfälle des Parallelogramms.
Eigenschaften
Ein Viereck ist genau dann ein Parallelogramm, wenn eine der folgenden Bedingungen erfüllt ist:
Gegenüberliegende Seiten sind gleich lang und keine zwei gegenüberliegende Seiten schneiden sich (kein überschlagenes Viereck, sogenanntes Antiparallelogramm).
Zwei gegenüberliegende Seiten sind parallel und gleich lang.
Gegenüber liegende Winkel sind gleich groß.
Je zwei benachbarte Winkel ergeben zusammen 180°.
Die Diagonalen halbieren einander.
Die Summe der Flächen der Quadrate über den vier Seiten ist gleich der Summe der Flächen der Quadrate über den zwei Diagonalen (Parallelogrammgleichung).
Es ist punktsymmetrisch (zweizählig drehsymmetrisch).
Für jedes Parallelogramm gilt:
Jede Diagonale teilt es in zwei gleichsinnig kongruente Dreiecke.
Sein Symmetriezentrum ist der Schnittpunkt der Diagonalen.
Die Mittelpunkte der über seinen Seiten errichteten Quadrate bilden ein Quadrat (Satz von Thébault-Yaglom).
Alle Parallelogramme, die mindestens eine Symmetrieachse besitzen, sind Rechtecke oder Rauten.
Formeln
Beweis der Flächenformel für ein Parallelogramm
Den Flächeninhalt des nebenstehenden schwarzen Parallelogramms kann man erhalten, indem man von der Fläche des großen Rechtecks die sechs kleinen Flächen mit bunten Kanten abzieht. Wegen der Symmetrie und der Vertauschbarkeit der Multiplikation kann man auch vom großen Rechteck das Doppelte der drei kleinen Flächen unterhalb des Parallelogramms abziehen. Es ist also:
Parallelogrammgitter
Parallelogramme können ein Gitter in der Ebene bilden. Wenn die Kanten gleich lang sind oder die Winkel rechte Winkel sind, ist die Symmetrie des Gitters höher. Diese repräsentieren die vier zweidimensionalen Bravais-Gitter.
Das Parallelogrammgitter ist eine Anordnung von unendlich vielen Punkten in der zweidimensionalen euklidischen Ebene. Diese Punktmenge kann formal als die Menge
geschrieben werden, wobei die Vektoren , die Richtungsvektoren zwischen benachbarten Punkten sind. Das Parallelogrammgitter entsteht durch eine affine Abbildung aus dem Quadratgitter.
Das Parallelogrammgitter ist zweizählig drehsymmetrisch, also punktsymmetrisch. Außerdem ist es translationsymmetrisch für alle Vektoren im zweidimensionalen euklidischen Vektorraum.
Konstruktion eines Parallelogramms
Ein Parallelogramm, bei dem die Seitenlängen und sowie die Höhe gegeben ist, ist mit Zirkel und Lineal konstruierbar.
Verallgemeinerungen
Eine Verallgemeinerung auf Dimensionen ist das Parallelotop, erklärt als die Menge sowie deren Parallelverschiebungen. Die sind dabei linear unabhängige Vektoren. Parallelotope sind punktsymmetrisch.
Das dreidimensionale Parallelotop ist das Parallelepiped. Seine Seitenflächen sind sechs paarweise kongruente und in parallelen Ebenen liegende Parallelogramme. Ein Parallelepiped hat zwölf Kanten, von denen je vier parallel verlaufen und untereinander gleich lang sind, und acht Ecken, in denen diese Kanten in maximal drei verschiedenen Winkeln zueinander zusammenlaufen.
Satz von Varignon
Nach dem Satz von Varignon gilt: Wenn man die Mittelpunkte benachbarter Seiten eines Vierecks verbindet, dann erhält man ein Parallelogramm.
Beweis:
Nach Definition gilt .
Betrachte das Dreieck ABC. Es ist ähnlich zum Dreieck EBF. Nimmt man den Punkt B als Zentrum einer zentrischen Streckung, werden A auf E und C auf F mit dem Faktor abgebildet. Wegen der Eigenschaften der zentrischen Streckung sind Bildstrecke und ursprüngliche Strecke parallel. Also ist . Ebenso zeigt man, dass , , und . Die Parallelität in der euklidischen Ebene ist eine Äquivalenzrelation und damit transitiv. Also ist und .
Die gegenüber liegenden Seiten des Vierecks EFGH sind parallel, was der Definition eines Parallelogramms entspricht.
Eine andere Möglichkeit ist, mit dem Strahlensatz zu beweisen, dass und ist, d. h. dass die gegenüber liegenden Seiten des Vierecks EFGH gleich lang sind.
Nach dem Strahlensatz gilt außerdem: Der Umfang des Parallelogramms EFGH ist genau so groß wie die Summe der Diagonalenlängen im Viereck ABCD. Die Fläche des Parallelogramms EFGH ist halb so groß wie die Fläche des Vierecks ABCD.
Parallelogramme mit Quadraten
Gegeben sei ein Parallelogramm , über dessen Seiten Quadrate errichtet sind. Dann sind die Diagonalenschnittpunkte , , und der Quadrate Eckpunkte eines weiteren Quadrats. (Figur 1)
Beweis:
Die vier gelben Dreiecke , , und in Figur 2 stimmen in je zwei Seiten und dem jeweils eingeschlossenen (gelben) Innenwinkel bei , , und überein. Deshalb sind sie nach dem Kongruenzsatz SWS kongruent und damit alle Seiten des Vierecks gleich lang. Da die Diagonalen eines Quadrats orthogonal sind, ist ein rechter Winkel. Da die beiden (gelben) Winkel und gleich groß sind, muss auch ein rechter Winkel sein. Somit ist das Viereck ein Quadrat.
Verwendung in der Technik
Parallelogramme finden sich häufig in der Mechanik. Durch vier Gelenke kann eine bewegliche, parallelentreue Lagerung hergestellt werden, die sogenannte Parallelogrammführung. Beispiele:
Siehe auch
Parallelepiped
Parallelotop
Antiparallelogramm
Literatur
F. Wolff: Lehrbuch der Geometrie. Vierte verbesserte Auflage, Druck und Verlag von G. Reimer, Berlin 1845 (Online-Kopie).
P. Kall: Lineare Algebra für Ökonomen. Springer Fachmedien, Wiesbaden 1984, ISBN 978-3-519-02356-2.
Wilhelm Killing: Lehrbuch Der Analytischen Geometrie. Teil 2, Outlook Verlagsgesellschaft, Bremen 2011, ISBN 978-3-86403-540-1.
Weblinks
. Abgerufen am 18. November 2016.
Einführung in das Thema Parallelogramm. (PDF; 920 kB). Abgerufen am 18. November 2016.
. Abgerufen am 18. November 2016.
Einzelnachweise
Viereck
Vierecksgeometrie
|
Q45867
| 203.058113 |
1307
|
https://de.wikipedia.org/wiki/Euklid
|
Euklid
|
Euklid von Alexandria ( Eukleídēs, latinisiert ) war ein griechischer Mathematiker, der wahrscheinlich im 3. Jahrhundert v. Chr. in Alexandria gelebt hat.
Leben
Über das Leben Euklids ist fast nichts bekannt. Aus einer Notiz bei Pappos hat man geschlossen, dass er im ägyptischen Alexandria wirkte. Die Lebensdaten sind unbekannt. Die Annahme, dass er um 300 v. Chr. gelebt hat, beruht auf einem Verzeichnis von Mathematikern bei Proklos, andere Indizien lassen hingegen vermuten, dass Euklid etwas älter als Archimedes (ca. 285–212 v. Chr.) war.
Aus einer Stelle bei Proklos hat man auch geschlossen, dass er um das Jahr 360 v. Chr. in Athen geboren wurde, dort seine Ausbildung an Platons Akademie erhielt und dann zur Zeit Ptolemaios’ I. (ca. 367–283 v. Chr.) in Alexandria wirkte.
Er sollte nicht mit Euklid von Megara verwechselt werden, wie das bis in die frühe Neuzeit häufig geschah, so dass der Name Euklids von Megara auch auf den Titeln der Ausgaben der Elemente erschien.
Werke
Die überlieferten Werke umfassen sämtliche Bereiche der antiken griechischen Mathematik: das sind die theoretischen Disziplinen Arithmetik und Geometrie (Die Elemente, Data), Musiktheorie (Die Teilung des Kanon), eine methodische Anleitung zur Findung von planimetrischen Problemlösungen von bestimmten gesicherten Ausgangspunkten aus (Porismen) sowie die physikalischen bzw. angewandten Werke (Optik, astronomische Phänomene).
In seinem berühmtesten Werk Elemente (altgriechisch Stoicheia ‚Anfangsgründe‘, ‚Prinzipien‘, ‚Elemente‘) trug er das Wissen der griechischen Mathematik seiner Zeit zusammen. Er zeigte darin die Konstruktion geometrischer Objekte, natürlicher Zahlen sowie bestimmter Größen und untersuchte deren Eigenschaften. Dazu benutzte er Definitionen, Postulate (nach Aristoteles Grundsätze, die akzeptiert oder abgelehnt werden können) und Axiome (nach Aristoteles allgemeine und unbezweifelbare Grundsätze). Viele Sätze der Elemente stammen offenbar nicht von Euklid selbst. Seine Hauptleistung besteht vielmehr in der Sammlung und einheitlichen Darstellung des mathematischen Wissens sowie der strengen Beweisführung, die zum Vorbild für die spätere Mathematik wurde.
Erhaltene Schriften von Euklid sind neben den Elementen, den Data und der Teilung des Kanons: Optika, Über die Teilung der Figuren (auszugsweise erhalten in einer arabischen Übersetzung), Phainomena (geometrische Behandlung der Astronomie) (Fragmente ediert von Johan Ludwig Heiberg). Von weiteren Werken sind nur die Titel bekannt: u. a. Pseudaria (Trugschlüsse), Katoptrika.
Die Elemente waren vielerorts bis ins 20. Jahrhundert hinein Grundlage des Geometrieunterrichts, vor allem im angelsächsischen Raum.
Geometrie – Arithmetik – Proportionslehre
Neben der pythagoreischen Geometrie enthalten Euklids Elemente in Buch VII-IX die pythagoreische Arithmetik, die Anfänge der Zahlentheorie (die bereits Archytas von Tarent kannte) sowie die Konzepte der Teilbarkeit und des größten gemeinsamen Teilers. Zu dessen Bestimmung fand er einen Algorithmus, den euklidischen Algorithmus. Euklid bewies auch, dass es unendlich viele Primzahlen gibt, nach ihm Satz des Euklid genannt. Auch Euklids Musiktheorie baut auf der Arithmetik auf. Ferner enthält das Buch V die Proportionslehre des Eudoxos, eine Verallgemeinerung der Arithmetik auf positive irrationale Größen.
Das bekannte fünfte Postulat der ebenen euklidischen Geometrie (heute Parallelenaxiom genannt) fordert: Wenn eine Strecke beim Schnitt mit zwei Geraden und bewirkt, dass die innen auf derselben Seite von entstehenden Winkel und zusammen kleiner als zwei rechte Winkel sind, dann treffen sich die beiden Geraden und auf eben der Seite von , auf der die Winkel und liegen. Schneiden also zwei Geraden eine Strecke (oder Gerade) so, dass die auf einer Seite von der Strecke und den zwei Geraden eingeschlossenen zwei Winkel kleiner als 180° sind, dann schneiden sich die beiden Geraden auf dieser Seite und begrenzen zusammen mit der Strecke (oder dritten Geraden) ein Dreieck.
Für die Wissenschaftsgeschichte ist die Beschäftigung mit dem Parallelenaxiom von großer Bedeutung, weil sie viel zur Präzisierung mathematischer Begriffe und Beweisverfahren beigetragen hat. Im Zuge dessen wurde im 19. Jahrhundert auch die Unzulänglichkeit der euklidischen Axiome offenkundig. Eine formale Axiomatik der euklidischen Geometrie findet sich in David Hilberts Werk Grundlagen der Geometrie (1899), das zu vielen weiteren Auflagen und anschließenden Forschungen geführt hat. Darin wird zum ersten Mal ein vollständiger Aufbau der euklidischen Geometrie geleistet, bis zu der Erkenntnis, dass jedes Modell des Hilbertschen Axiomensystems isomorph zum dreidimensionalen reellen Zahlenraum mit den üblichen Deutungen der geometrischen Grundbegriffe (wie Punkt, Gerade, Ebene, Länge, Winkel, Kongruenz, Ähnlichkeit usw.) in der Analytischen Geometrie ist.
Schon seit der Antike versuchten viele bedeutende Mathematiker vergeblich, das Parallelenaxiom mit den übrigen Axiomen und Postulaten zu beweisen (es wäre dann entbehrlich). Erst im 19. Jahrhundert wurde die Unverzichtbarkeit des Parallelenaxioms mit der Entdeckung einer nichteuklidischen Geometrie durch Bolyai und Lobatschewski klar. Die Poincaré’sche Halbebene H (Henri Poincaré) ist ein Modell für ein solches Axiomensystem, in dem das Parallelenaxiom nicht gilt. Somit kann das Parallelenaxiom nicht aus den übrigen Axiomen gefolgert werden (siehe nichteuklidische Geometrie).
Musiktheorie
In Euklids musiktheoretischer Schrift Die Teilung des Kanon (griechisch Katatomē kanonos, lat. Sectio canonis), die als authentisch einzustufen ist, griff er die Musiktheorie des Archytas auf und stellte sie auf eine solidere akustische Basis, nämlich auf Frequenzen von Schwingungen (er sprach von Häufigkeit der Bewegungen). Er verallgemeinerte dabei den Satz des Archytas über die Irrationalität der Quadratwurzel und bewies ganz allgemein die Irrationalität beliebiger Wurzeln . Der Grund für diese Verallgemeinerung ist seine Antithese gegen die Harmonik des Aristoxenos, die auf rationalen Vielfachen des Tons (Halbton … n-tel-Ton) aufbaut. Denn in der pythagoreischen Harmonik hat der Ton (Ganzton) die Proportion 9:8, was Euklid zu seiner Antithese „Der Ton ist weder in zwei noch in mehrere gleiche Teile teilbar“ veranlasste; sie setzt allerdings kommensurable Frequenzen voraus, die in der pythagoreischen Harmonik bis zum Ende des 16. Jahrhunderts (Simon Stevin) angenommen wurden. Die Antithese „Die Oktave ist kleiner als 6 Ganztöne“ stützte er auf die Berechnung des pythagoreischen Kommas. Ferner enthält Euklids Teilung des Kanons – wie ihr Titel signalisiert – die älteste überlieferte Darstellung eines Tonsystems am Kanon, einer geteilten Saite, und zwar eine pythagoreische Umdeutung des vollständigen diatonischen Tonsystems des Aristoxenos. Euklids Tonsystem wurde durch Boethius tradiert; es wurde in der Tonbuchstaben-Notation Odos zur Grundlage des modernen Tonsystems.
Eponyme
Nach Euklid sind folgende mathematische Strukturen benannt:
Euklidischer Abstand, die Länge der direkten Verbindung zweier Punkte in der Ebene oder im Raum
Euklidischer Algorithmus, ein Verfahren zur Berechnung des größten gemeinsamen Teilers zweier natürlicher Zahlen
Euklidische Geometrie, die anschauliche Geometrie der Ebene oder des Raums
Euklidischer Körper, ein geordneter Körper, in dem jedes nichtnegative Element eine Quadratwurzel besitzt
Euklidische Norm, die Länge eines Vektors in der Ebene oder im Raum
Euklidischer Raum, der Anschauungsraum, ein reeller affiner Raum mit dem Standardskalarprodukt
Euklidische Relation, eine Relation, für die gilt: stehen zwei Elemente jeweils zu einem dritten in Relation, dann stehen sie auch zueinander in Relation
Euklidischer Ring, ein Ring, in dem eine Division mit Rest möglich ist
Euklidische Werkzeuge, die erlaubten Handlungen bei der Konstruktion mit Zirkel und Lineal
Zudem sind nach Euklid folgende mathematische Sätze und Beweise benannt:
Euklids Beweis der Irrationalität der Wurzel aus 2, der erste Widerspruchsbeweis in der Geschichte der Mathematik
Höhensatz des Euklid: In einem rechtwinkligen Dreieck ist das Quadrat über der Höhe flächengleich dem Rechteck aus den Hypotenusenabschnitten
Kathetensatz des Euklid: In einem rechtwinkligen Dreieck sind die Kathetenquadrate jeweils gleich dem Produkt aus der Hypotenuse und dem zugehörigen Hypotenusenabschnitt
Lemma von Euklid: Teilt eine Primzahl ein Produkt zweier Zahlen, dann auch mindestens einen der beiden Faktoren
Satz von Euklid: Es gibt unendlich viele Primzahlen
Weiter sind nach Euklid benannt:
Euclides (Mondkrater), ein Krater auf der Mondvorderseite
(4354) Euclides, ein Asteroid des Hauptgürtels
Euclid, Weltraumteleleskop der ESA
Ausgaben und Übersetzungen
Johan Ludvig Heiberg, Heinrich Menge (Hrsg.): Euclidis Opera Omnia. 9 Bände, Teubner, Leipzig 1888–1916 (griechisch/lateinisch), genauer 8 Bände mit Supplement (der Kommentar zu den Elementen von Al-Nayrizi in der Übersetzung von Gerhard von Cremona herausgegeben von Maximilian Curtze)
Euklid: Die Elemente. Bücher I–XIII. Hrsg. u. übers. v. Clemens Thaer. (= Ostwalds Klass. d. exakten Wiss. 235). 4. Auflage. Harri Deutsch, Frankfurt am Main 2003, ISBN 3-8171-3413-4.
Euclid: The thirteen books of Euclid’s elements. Hrsg. u. übers. v. Thomas Heath, 3 Bände, Cambridge University Press 1908, Nachdruck Dover 1956 (englische Übersetzung mit ausführlichem Kommentar und Einleitung zu Euklid)
Euklides: Data. Die Data von Euklid, nach Menges Text aus d. Griech. übers. u. hrsg. v. Clemens Thaer. Springer, Berlin 1962.
The Medieval Latin Translation of the Data of Euclid. übersetzt von Shuntaro Ito, Tokyo University Press, 1980, Birkhauser, 1998.
Euklid: Sectio canonis. neu ediert, übersetzt und kommentiert in: Oliver Busch: Logos syntheseos. Die euklidische Sectio canonis, Aristoxenos, und die Rolle der Mathematik in der antiken Musiktheorie. Hildesheim 2004, ISBN 3-487-11545-X.
Paul ver Eecke Euclide, L’Optique et la catoptrique. Paris, Brügge 1938 (französische Übersetzung der Optik)
Literatur
Übersichtsdarstellungen in Handbüchern
Ivor Bulmer-Thomas, John Murdoch: Euclid. In: Dictionary of Scientific Biography. Band 4, Charles Scribner’s Sons, New York 1981, ISBN 0-684-16964-9, S. 414–459.
Bernard Vitrac: Euclide. In: Richard Goulet (Hrsg.): Dictionnaire des philosophes antiques. Band 3, CNRS Éditions, Paris 2000, ISBN 2-271-05748-5, S. 252–272.
Hans-Joachim Waschkies: Euklid. In: Hellmut Flashar (Hrsg.): Grundriss der Geschichte der Philosophie. Die Philosophie der Antike, Band 2/1, Schwabe, Basel 1998, ISBN 3-7965-1036-1, S. 372–392.
Hans Wußing: Euklid. In: Arnold Wußing (Hrsg.): Biographien bedeutender Mathematiker. Berlin 1983.
Gesamtdarstellungen und Untersuchungen
Benno Artmann: Euclid: The creation of mathematics. Springer, 1999.
Jürgen Schönbeck: Euklid: Um 300 v. Chr. Springer, 2002, ISBN 3-7643-6584-6.
Peter Schreiber: Euklid. Teubner, Leipzig 1987.
Christoph J. Scriba, Peter Schreiber: 5000 Jahre Geometrie. Geschichte, Kulturen, Menschen, Springer, Berlin 2005, ISBN 3-540-22471-8, S. 49–65 (die Elemente Euklids und andere Schriften sowie im weiteren Verlauf des Buches deren Kontext und Rezeption in der weiteren Entwicklung der Geometrie)
Rezeption
Max Steck: Bibliographia Euclideana. Die Geisteslinien der Tradition in den Editionen der „Elemente“ des Euklid (um 365–300). Handschriften, Inkunabeln, Frühdrucke (16. Jahrhundert). Textkritische Editionen des 17.–20. Jahrhunderts. Editionen der Opera minora (16.–20. Jahrhundert). Nachdruck, hrsg. von Menso Folkerts. Gerstenberg, Hildesheim 1981.
Arabische Überlieferung
Jan Hogendijk: The Arabic version of Euclid’s ‘On divisions’. In: Vestigia mathematica. Amsterdam 1993, S. 143–162.
Jan Hogendijk: On Euclid’s lost ‘Porisms’' and its Arabic traces. In: Boll. Storia Sci. Mat. Band 7, 1987, S. 93–115.
Weblinks
Die Elemente des Euklid, Euklides: Stoicheia, Buch 1 bis 12, vollständig in Deutsch.
Perseus Euklid. Informative Seite von Perseus mit Übersetzung und weiteren Quellen sowie weiterführenden Links.
Euklids Elemente, alle 13 Bücher in englischer Sprache.
Euklids Elemente, alle 13 Bücher in griechischer Sprache mit der lateinischen Übersetzung des Heiberg. (PDF)
Textausgaben (altgriechisch, arabische, englische Übersetzungen), Amund Bjørsnøs u. a., Oslo Arabic Seminar.
Die sechs ersten Bücher Evclidis, Deß Hochgelaehrten weitberuembten, Griechischen Philosophi und Mathematici: von den anfaengen vnd fundamenten der Geometriae. Amsterdam 1618, Online-Ausgabe der Sächsischen Landesbibliothek – Staats- und Universitätsbibliothek Dresden
Euclidis Megarensis … sex libri priores, de Geometricis principiis. Basileae 1550, Online-Ausgabe der Sächsischen Landesbibliothek – Staats- und Universitätsbibliothek Dresden
Euclidis Megarensis Mathematici Clarissimi Elementorum geometricorum Lib. XV. Basileae 1537, Online-Ausgabe der Sächsischen Landesbibliothek – Staats- und Universitätsbibliothek Dresden
Elementale Geometricum. Argentorati 1529, Online-Ausgabe der Sächsischen Landesbibliothek – Staats- und Universitätsbibliothek Dresden
Elementorum Libri XV. Coloniae 1627, Online-Ausgabe der Sächsischen Landesbibliothek – Staats- und Universitätsbibliothek Dresden
Anmerkungen
Mathematiker der Antike
Musiktheoretiker
Person als Namensgeber für einen Asteroiden
Person als Namensgeber für einen Mondkrater
Person (Alexandria)
Geboren im 4. Jahrhundert v. Chr.
Gestorben im 4. oder 3. Jahrhundert v. Chr.
Mann
|
Q8747
| 348.336852 |
61296
|
https://de.wikipedia.org/wiki/Tragikom%C3%B6die
|
Tragikomödie
|
Eine Tragikomödie beschreibt ein Drama in der Literatur und im Theater sowie Spielfilm, in dem die Merkmale der Tragödie und der Komödie eng miteinander verknüpft sind. Im weiteren Sinne bezeichnet der Begriff eine Tragödie, welche neben den tragischen auch komische Bestandteile enthält, wie z. B. die alten spanischen und englischen Tragödien.
Die Gattung
Erfunden wurde der Begriff „Tragikomödie“ von Plautus (254–184 v. Chr.), um die Verbindung beider Elemente in seinem Amphitruo zu benennen. Aber auch Aristoteles und Euripides hatten im Theater der griechischen Antike bereits ein Komödienende an eine Tragödie angefügt.
Sehr verbreitet war die Gattung der Tragikomödie als tragicomédie im französischen Theater des 17. Jahrhunderts, wo sie in den 1630er Jahren, d. h. zu Beginn der Epoche der französischen Klassik, eine Blütezeit erlebte, z. B. in Gestalt eines der berühmtesten Stücke der französischen Literatur: Le Cid von Pierre Corneille (1636). Die klassische tragicomédie hatte, ganz wie eine tragédie, in fürstlichen oder anderen hochgestellten Kreisen zu spielen, die drei Einheiten von Ort, Zeit und Handlung einzuhalten und paarweise reimende Alexandriner als Versmaß zu benutzen. Der grundlegende Unterschied zur tragédie war, dass sie nicht mit dem Tod des oder der Protagonisten endete, ohne dabei aber obligatorisch einen heiteren oder gar glücklichen Ausgang zu haben. Komik im heutigen Sinne gehörte nicht zum Programm der tragicomédie. Sie war der vorzugsweise in bürgerlichen Kreisen spielenden comédie vorbehalten.
Tragikomisch bezeichnet heute im gängigen Sprachgebrauch ein Geschehen, das in seiner ganzen Entwicklung einen tragischen, d. h. unglücklichen Ausgang erwarten ließ, aber überraschend ein gutes, d. h. glückliches Ende nimmt, das zugleich in seiner Art und Weise komisch wirkt.
Tragikomödien im neueren deutschen Theater
Nach 1945 nahm die Zahl der tragikomischen Dramen stark zu. Friedrich Dürrenmatt schrieb über die Gattung, sie „sei die einzig mögliche dramatische Form, heute das Tragische auszusagen“. Denn die Tragödie setze, wie Dürrenmatt in seinem Text Theaterprobleme von 1955 sagt, „Schuld, Not, Maß, Übersicht, Verantwortung“ voraus, um ihr Ziel, die Läuterung des Einzelnen, zu erreichen. In der Unübersichtlichkeit der modernen Welt, so Dürrenmatt, werde Schuld verwischt und abgeschoben, der Moderne komme nur die Groteske bei.
Bekannte Beispiele sind:
Jakob Michael Reinhold Lenz: Der Hofmeister (1774)
Frank Wedekind: Frühlings Erwachen (1891)
Gerhart Hauptmann: Die Ratten (1911)
Carl Zuckmayer: Der Hauptmann von Köpenick. Ein deutsches Märchen (1931)
Friedrich Dürrenmatt: Der Besuch der alten Dame (1956)
Max Frisch: Biedermann und die Brandstifter (1958)
Friedrich Dürrenmatt: Die Physiker (1962)
Tragikomödien im Film
Der aus der Theaterwelt stammende Terminus der Tragikomödie wird mittlerweile auch häufig auf Filme angewendet. Laut dem Lexikon der Filmbegriffe hat sich allerdings noch keine klare Definition für den Filmbereich etabliert, zumal die Abgrenzung zu den Begriffen Dramedy oder Schwarze Komödie mitunter schwierig ist. Der Begriff Dramedy wird vorrangig auf Fernsehserien angewendet, während die Schwarze Komödie sich in Verbindung mit dem Lachen eher auf das Grauenhafte, die Tragikomödie hingegen mehr auf das Mitleid einlässt. Als bekannte filmische Beispiele einer Tragikomödie können gelten:
Charlie Chaplin: The Kid (1921)
Jean Renoir: Die Spielregel (1939)
Billy Wilder: Das Appartement (1960)
Martin Scorsese: The King of Comedy (1982)
Bruce Robinson: Withnail & I (1987)
Paul Thomas Anderson: Punch-Drunk Love (2002)
Olivier Nakache & Éric Toledano: Ziemlich beste Freunde (2011) und Heute bin ich Samba (2015)
Maren Ade: Toni Erdmann (2016)
Literatur
Karl S. Guthke: Die moderne Tragikomödie. Theorie und Gestalt, 1968
J. M. R. Lenz: Werke und Schriften Bd. 1, Goverts Verlag Stuttgart 1966 S. 418f
Jens Roselt: Tragikomödie. In: Gert Ueding (Hrsg.): Historisches Wörterbuch der Rhetorik. Darmstadt: WBG 1992ff., Bd. 10 (2011), Sp. 1316–1326.
. Biographie über das Leben des Dramatikers Peter Turrini
Einzelnachweise
Weblinks
Tragikomodie
|
Q192881
| 105.710754 |
2880634
|
https://de.wikipedia.org/wiki/Schwei%C3%9Fen
|
Schweißen
|
Das Schweißen ist eine Gruppe von Fügeverfahren zum dauerhaften Fügen (Verbinden) von zwei oder mehr Werkstücken. Das Schweißen gilt als wichtigste Gruppe der Fügeverfahren. Nach DIN 8580 Hauptgruppe 4 Teil 6 wird es als Fügen durch Schweißen definiert. Die meisten Schweißverfahren eignen sich auch zum Beschichten, was in der Praxis und Fachliteratur als Auftragschweißen bezeichnet wird – definiert in der DIN 8580 Hauptgruppe 5 Teil 6 als Beschichten durch Schweißen.
Allgemeines
Unter Schweißen versteht man gemäß EN 14610 und DIN 1910-100 . Die Zusatzwerkstoffe werden üblicherweise in Form von Stäben oder Drähten zugeführt, abgeschmolzen und erstarren in der Fuge zwischen den Fügepartnern, um so die Verbindung zu erzeugen. Sie entsprechen somit dem Lot beim Löten oder dem Klebstoff beim Kleben. Die nötige Schweißwärme wird von außen zugeführt oder entsteht beim Reibschweißen durch Reibung an der Fuge im Material selbst. Schweißhilfsstoffe, wie Schutzgase, Schweißpulver, Flussmittel, Vakuum (beim Elektronenstrahlschweißen) oder Pasten, können das Schweißen erleichtern oder auch erst möglich machen. Schweißen kann durch Wärmezufuhr bis zum Schmelzen des Werkstoffs oder durch Wärmezufuhr und zusätzliche Krafteinwirkung (Druck) auf das Werkstück erfolgen.
Das Schweißen zählt zu den stoffschlüssigen Verbindungsmethoden zusammen mit dem Löten und Kleben. Beim Schweißen werden Verbindungen mit hoher Festigkeit erzeugt; beim Schmelzschweißen durch das lokale Schmelzen der zu verbindenden Bauteile. Beim verwandten Löten wird dagegen nur das Lot flüssig, während die Bauteile zwar erwärmt, aber nicht geschmolzen werden. Lötverbindungen weisen daher eine geringere Festigkeit auf, eignen sich aber auch für Verbindungen von Werkstoffen mit stark unterschiedlichem Schmelzpunkt. Solche Werkstoffpaarungen können jedoch auch mit dem Pressschweißen hergestellt werden.
Die (zwischenzeitlich zurückgezogene) DIN EN 14610:2005:02 definierte das Metallschweißen als einen „Vorgang, der Metall(e) unter Aufwand von Wärme und/oder Druck derart verbindet, dass sich ein kontinuierlicher innerer Aufbau des verbundenen Metalles bzw. der verbundenen Metalle ergibt.“ Das heißt, die verschweißten Bauteile werden durch die gleichen molekularen und atomaren Kräfte zusammengehalten, die auch den Werkstoff der Einzelteile zusammenhalten. Schweißverbindungen sind in der Regel dadurch gekennzeichnet, dass sie artgleich erfolgen, d. h. die Bauteile sowie eventuelle Schweißzusätze zu der gleichen Werkstoffgruppe, z. B. zu den Stählen oder den Aluminiumlegierungen gehören. Das unterscheidet sie vom ebenfalls in die Gruppe der stoffschlüssigen Fügeverfahren einzuordnenden Löten und Kleben, bei dem der Verbund durch Zusatzwerkstoffe entsteht, die einer anderen Werkstoffgruppe als die Bauteile zuzuordnen sind.
Es stehen heute eine Vielzahl von Schweißverfahren zur Verfügung, die sich in der Art der verwendeten Wärmequelle und/oder dem Prozessablauf unterscheiden und in der Folge unterschiedliche Eigenschaften aufweisen, die eine weitgehende Anpassung an die Fügeaufgabe ermöglichen.
Geschichte des Schweißens
Gliederung der Schweißverfahren
Die Einteilung der Schweißverfahren kann vorgenommen werden nach
Art der auf das Werkstück einwirkenden Energie
thermische Energie, etwa beim Schmelzschweißen
thermische Energie mit gleichzeitigem oder anschließendem Zusammenpressen der Werkstücke, etwa bei vielen Widerstandsschweißverfahren
mechanische Energie, etwa beim Kaltpressschweißen
mechanische Energie, die in thermische Energie umgewandelt wird, etwa beim Reibschweißen
Art des Grundwerkstoffs
Metallen
Thermoplasten
andere Werkstoffe und Kombinationen von Werkstoffen, wie beispielsweise Glas
Zweck des Schweißens
Verbindungsschweißen dient dem Zusammenfügen von Werkstücken
Auftragschweißen dient dem Beschichten eines Werkstückes; sind Grund- und der Auftragwerkstoff unterschiedlich, wird weiter unterschieden in das Auftragschweißen von
Panzerungen
Plattierungen
Pufferschichten
physikalischem Ablauf des Schweißens
Schmelzschweißen ist Schweißen bei örtlich begrenztem Schmelzfluss, ohne Anwendung von Kraft mit oder ohne gleichartigen Schweißzusatz (ISO 857-1). Im Gegensatz zum Löten wird dabei die Liquidustemperatur der Grundwerkstoffe überschritten. Prinzipiell können alle Materialien, die in die schmelzflüssige Phase überführbar sind, durch Schmelzschweißen verbunden werden. Bei vielen Verfahren wird zusätzliches Material etwa in Form eines Schweißdrahtes zugeführt.
Pressschweißen bringt die zu verbindenden Werkstoffe durch unterschiedliche Energieformen auf die erforderliche Schweißtemperatur, worauf die Verbindung unter Einwirkung einer Kraft hergestellt wird. Das Pressschweißen kommt ohne das Zuführen von zusätzlichem Material wie Schweißdraht aus. Im Gegensatz zum Schmelzschweißen können Materialien mit unterschiedlichen Schmelzpunkten miteinander verschweißt werden. In diesem Fall können die Werkstücke durch eine große Kraft stoffschlüssig verbunden werden.
Grad der Mechanisierung
Handschweißen
als rein manuelles Schweißen
als teilmechanisiertes Schweißen, bei dem der Zusatzwerkstoff und die Hilfsstoffe (Schutzgase) mechanisiert zugeführt werden, aber der Brenner von Hand bewegt wird,
vollmechanisches Schweißen
(voll-)automatisiertes Schweißen
Schweißbarkeit eines Bauteils
Um ein Bauteil schweißen zu können, muss es schweißbar sein. Darunter versteht man, dass durch das Zusammenwirken der Eignung des Werkstoffs zum Schweißen (Schweißeignung), einer schweißgeeigneten Konstruktion (Schweißsicherheit) und einer geeigneten Fertigungsorganisation (Schweißmöglichkeit) Einzelteile zu Bauteilen mit gewünschter Qualität zusammengeschweißt werden können. Wird dies nicht beachtet, kann das zur Unbrauchbarkeit des Bauteils führen.
Schweißeignung eines Werkstoffs
Infolge der thermischen Einwirkung auf die Schweißteile während des Schweißens ändern sich deren metallurgische Eigenschaften. Je nach Materialzusammensetzung und Art des Temperaturzyklus können Gefüge entstehen, die negative Qualitätseinflüsse haben. Die Schweißeignung beschreibt, inwieweit ein Werkstoff unter jeweils bestimmten Bedingungen qualitativ befriedigend durch Schweißen verbunden werden kann.
Auswahl eines Schweißverfahrens
Für das Fügen von Einzelteilen zum Werkstück stehen zahlreiche Schweißverfahren zur Verfügung. Bei der Auswahl sollten folgende Gesichtspunkte in Betracht gezogen werden:
Aus verfahrenstechnologischer Sicht spielen der Werkstoff, die Bauteilgeometrie, die Zugänglichkeit zur Schweißstelle und die mögliche Schweißposition eine Rolle, ebenso die Qualitätsanforderungen an das geschweißte Produkt. Aus wirtschaftlicher Sicht sind die Stückzahl der herzustellenden Werkstücke, die Kosten für die erforderlichen Schweißeinrichtungen und diejenigen für die Durchführung der Fertigungsarbeiten bei der Verfahrenswahl zu berücksichtigen.
Einteilung der Schweißprozesse in Prozessnummern
Die Festlegung umfasst die Hauptgruppen der Prozesse (eine Ziffer), Gruppen (zwei Ziffern) und Untergruppen (drei Ziffern). Die Referenznummer besteht aus maximal drei Ziffern.
Schweißverbindungsqualität
Durch Schweißen sollen Bauteile so miteinander verbunden werden, dass diese die an sie gestellten Anforderungen über eine erwartete Lebensdauer erfüllen können. Dazu müssen die Verbindungen anforderungsgerechte Qualitätskriterien oder Gütemerkmale erfüllen. Generelle Festlegungen zu den Gütemerkmalen können nicht getroffen werden, denn diese sind immer eng an die jeweiligen Bauteilanforderungen im Einsatz gebunden.
Ausreichende Qualität ist dann zu erwarten, wenn auftretende Unregelmäßigkeiten der Schweißnaht, die während oder nach dem Schweißen entstehen, für die Nutzung des geschweißten Bauteils toleriert werden können. Sind sie nicht mehr akzeptabel, werden die Unregelmäßigkeiten als Verbindungsfehler bezeichnet.
Schweißfehler
Schweißnahtfehler
Qualität des Pressschweißens
Qualität des Schmelzschweißens
Qualitätssicherung beim Schweißen
Schmelzschweißverfahren
Vorbereitung – Schweißstoß
Schweißteile werden durch sogenannte Schweißstöße verbunden, die oftmals eine spezielle Fugenvorbereitung benötigen. Der Bereich, in dem Schweißteile miteinander vereinigt werden, wird Schweißstoß genannt. Die Stoßarten unterscheiden sich je nach konstruktiver Anordnung der Teile und der Fugenvorbereitung, die eine fachgerechte Ausführung und Prüfung der Schweißnaht ermöglicht.
Durchführung – Schweißposition
Je nach Anordnung der Schweißteile und der Zugänglichkeit des Brenners und der Schweißelektrode zur Naht ergeben sich beim Schweißen in der Norm DIN EN ISO 6947:2011-08 definierte Schweißpositionen.
Gasschmelzschweißen
Beim Gasschmelzschweißen oder Autogenschweißen wird das Metall durch die Verbrennung von Brenngasen erhitzt. Das in der Regel verwendete Brenngas ist Acetylen (Ethin), welches mit Sauerstoff in einem Acetylen-Sauerstoff-Gemisch die Schweißflamme erzeugt. Die Temperatur der Flamme beträgt dabei etwa °C. In der Regel wird ein Schweißdraht als Zusatzwerkstoff verwendet.
Das Gasschmelzverfahren eignet sich sowohl für Schweißarbeiten im Werk als auch auf der Baustelle. Das langsame Verfahren eignet sich in erster Linie zum Schweißen dünner Bleche und einiger NE-Metalle sowie für Reparatur- und Auftragsschweißung. Besonders im Heizungs-, Installations- und Rohrleitungsbau kommt dieses Verfahren zur Anwendung, hat aber nur noch geringe Bedeutung.
Lichtbogenschweißen
Beim Lichtbogenschweißen brennt ein elektrischer Lichtbogen (Schweißlichtbogen) zwischen Werkstück und einer Elektrode, die je nach Verfahren abschmelzen kann und dann gleichzeitig als Zusatzwerkstoff dient oder nicht-abschmelzend ist.
Die wichtigsten Verfahren sind
das Lichtbogenhandschweißen
das Schutzgasschweißen mit zahlreichen Untervarianten
und das Unterpulver-Schweißen.
Durch den Elektronenbeschuss heizt sich die Anode (Pluspol) stärker auf. Bei den meisten Schweißverfahren betreibt man verzehrende Elektroden als Anoden, das Werkstück also als Kathode (Minuspol). Bei umhüllten Stabelektroden hängt die Polarität von der Elektrodenumhüllung ab. Besteht die Umhüllung aus schlecht ionisierbaren Bestandteilen, wie dies bei basischen Elektroden der Fall ist, wird die Elektrode am heißeren Pluspol geschweißt, anderenfalls wegen der geringeren Strombelastung am Minuspol.
Siehe auch: Sensoren für das Lichtbogenschweißen
Lichtbogenhandschweißen
Das Lichtbogenhandschweißen oder Elektrodenschweißen ist ein rein manuelles Verfahren (Handschweißen) mit abschmelzender Elektrode. Diese Stabelektroden besitzen eine Umhüllung, die ebenfalls abschmilzt und teils verdampft und dabei Schutzgase und Schlacke bildet, die beide die Schmelze vor ungewollten Einflüssen der Umgebung schützen. Die Schlacke kann außerdem die metallurgische Zusammensetzung der Schmelze ändern, sodass das Verfahren an viele Anwendungsfälle angepasst werden kann. Es ist sehr einfach und mit geringen Investitionen in die Anlagen verbunden, aber nicht besonders produktiv, sodass es vor allem bei Reparaturarbeiten, in Werkstätten und auf Baustellen genutzt wird.
Schutzgasschweißen (SG)
Beim Schutzgasschweißen werden Schutzgase verwendet, die die Elektrode und die Schmelze umströmen. Die Zufuhr der Schutzgase ist im Brenner integriert. Die Verfahren des Schutzgasschweißens sind produktiver als das Elektrohandschweißen und lassen sich auch mechanisieren, manche sogar vollständig automatisieren. Die Kosten sind noch gering und die Flexibilität in der Anwendung deutlich besser als die produktiveren Strahlverfahren (Laser-/Elektronenstrahlschweißen). Das Schutzgasschweißen ist daher bezüglich der Anwendungshäufigkeit die wichtigste Gruppe der Schweißverfahren.
Metallschutzgasschweißen (MSG): Hier schmilzt die Elektrode ab und besteht aus demselben oder ähnlichem Werkstoff wie das Werkstück (wie beim Elektrohandschweißen)
Metall-Inertgas-Schweißen (MIG): Hier werden inerte Gase verwendet, also solche, die keine chemischen Reaktionen mit der Schmelze eingehen. Es wird vor allem für Nichteisenmetalle und hochlegierte Stähle genutzt.
Metall-Aktivgas-Schweißen (MAG): Hier werden reaktionsfreudige Gase verwendet, um die Zusammensetzung der Schmelze bewusst zu verändern. Es wird für un- und niedriglegierte Stähle genutzt.
Wolfram-Inertgasschweißen (WIG): Nutzt eine nicht-abschmelzende Elektrode aus Wolfram. Es sind hohe Nahtqualitäten erreichbar, es ist aber langsamer als das MSG-Schweißen.
Plasmaschweißen: Mit dem WIG verwandt. Der Lichtbogen erzeugt hierbei ein Plasma, das eine höhere Leistungsdichte aufweist als der bloße Lichtbogen. Es ist sehr produktiv, aber auch weniger flexibel als die anderen Schutzgasverfahren und stellt in dieser Hinsicht den Übergang zu den Strahlverfahren dar.
Unterpulverschweißen
Das Unterpulverschweißen (UP-Schweißen, EN ISO 4063: Prozess 12) ist ein Lichtbogenschweißverfahren mit abschmelzender Draht- (Prozess 121) oder Bandelektrode (Prozess 122), bei dem hohe Abschmelzleistungen erzielt werden können. Es wird industriell vor allem zum Schweißen langer Nähte eingesetzt und eignet sich nicht zur manuellen Ausführung.
Beim Unterpulverschweißen wird das Schweißbad von einer Schicht aus grobkörnigem mineralischem Schweißpulver bedeckt. Dieses schmilzt durch die vom Lichtbogen emittierte Wärme und bildet eine flüssige Schlacke, die aufgrund ihrer geringeren Dichte auf dem metallischen Schmelzbad schwimmt. Durch die Schlackeschicht wird das flüssige Metall vor Zutritt der Atmosphäre geschützt. Der Lichtbogen brennt in einer gasgefüllten Kaverne unter Schlacke und Pulver. Nach dem Schweißvorgang löst sich die Schlackeschicht oft von selbst ab; das nicht aufgeschmolzene Pulver kann wiederverwendet werden.
Besonders hervorzuheben ist die weitgehende Emissionsfreiheit dieses Verfahrens, da der Lichtbogen unter der Pulverschicht brennt und nur geringe Mengen Rauch freigesetzt werden. Es ist kein Sichtschutz notwendig. Wegen der Abdeckung des Prozesses hat das Verfahren einen hohen thermischen Wirkungsgrad, was jedoch den Einsatz auf große Blechdicken beschränkt. Gleichzeitig ist hierdurch keine unmittelbare Sichtkontrolle des Prozesses möglich. Jedoch werden im Allgemeinen spritzerfreie Nähte sehr hoher Qualität erzielt, sofern geeignete Schweißparameter verwendet werden.
Durch die Auswahl einer bestimmten Kombination aus Draht und Pulver kann die chemische Zusammensetzung des Schweißgutes beeinflusst werden, da durch die Reaktionen von metallischer Schmelze und Schlacke in der Kaverne ein Abbrand oder Zubrand von Legierungselementen erfolgen kann.
Wegen der großen Schmelzbäder kann das UP-Verfahren nur in Wannenlage oder mit Pulverabstützung auch in Querposition angewandt werden.
Laserschweißen
Das Laserschweißen (EN ISO 4063: Prozess 52) wird vor allem zum Verschweißen von Bauteilen eingesetzt, die mit hoher Schweißgeschwindigkeit, schmaler und schlanker Schweißnahtform und mit geringem thermischem Verzug gefügt werden müssen. Das Laserschweißen oder Laserstrahlschweißen wird in der Regel ohne Zuführung eines Zusatzwerkstoffes ausgeführt.
Die Laserstrahlung wird mittels einer Optik fokussiert. Die Werkstückoberfläche der Stoßkante, also der Fügestoß der zu verschweißenden Bauteile, befindet sich in der unmittelbaren Nähe des Fokus der Optik (im Brennfleck). Die Lage des Fokus relativ zur Werkstückoberfläche (oberhalb oder unterhalb) ist ein wichtiger Schweißparameter und legt auch die Einschweißtiefe fest. Der Brennfleck besitzt typische Durchmesser von einigen Zehntel Millimetern, wodurch sehr hohe Energiekonzentrationen entstehen, wenn der eingesetzte Laser die typischen Leistungen von einigen Kilowatt Laserleistung besitzt. Durch Absorption der Laserleistung erfolgt auf der Werkstückoberfläche ein extrem schneller Anstieg der Temperatur über die Schmelztemperatur des Metalls hinaus, so dass sich eine Schmelze bildet. Durch die hohe Abkühlgeschwindigkeit der Schweißnaht wird diese je nach Werkstoff sehr hart und verliert in der Regel an Zähigkeit.
Elektronenstrahlschweißen
Beim Elektronenstrahlschweißen (EN ISO 4063: Prozess 51) wird die benötigte Energie von durch Hochspannung (60–150 kV) beschleunigten Elektronen in die Prozesszone eingebracht. Die Strahlbildung erfolgt im Hochvakuum (< 10−4 mbar). Der Schweißvorgang erfolgt meistens im Vakuum, kann aber auch unter Normaldruck durchgeführt werden. Hier wird dann mit einer Strahlleistung von bis zu 30 kW gearbeitet, wobei der Arbeitsabstand zwischen Strahlaustritt und Werkstück zwischen 6 und 30 mm liegen sollte.
Das Elektronenstrahlschweißen bietet eine etwa gleich große Leistungsflussdichte wie das Laserstrahlschweißen bei höherem Wirkungsgrad der Strahlerzeugung (Laser: 3 bis 40 %, Elektronenstrahl: etwa 70 %). Darüber hinaus entfällt beim Elektronenstrahlschweißen im Vakuum die Verwendung von Schutzgasen. Beides wirkt sich direkt auf die Betriebskosten aus, sodass eine Elektronenstrahlanlage in der Summe und über die Lebensdauer preiswerter sein kann als ein vergleichbares Lasersystem.
Das Elektronenstrahlschweißen erlaubt hohe Schweißgeschwindigkeiten mit extrem tiefen, schmalen und parallelen Nähten. Durch die geringen Nahtbreiten und die hohe Parallelität kann der Verzug extrem klein gehalten werden. Daher kann dieses Verfahren auch am Ende der Fertigungskette eingesetzt werden. Das Verfahren eignet sich auch für kleine, kompliziert geformte Schweißnähte, da der Elektronenstrahl durch elektrische oder magnetische Felder exakt und schnell abgelenkt werden kann. Damit kann auf die Bewegung des Bauteils verzichtet werden, der Elektronenstrahl führt die Bewegung selbst aus. Das Spektrum möglicher Nahttiefen liegt zwischen 0,1 mm und 300 mm (Aluminium), (Stahl) 150 mm, (Kupfer) 100 mm, (Titan): 100 mm.
Elektronenstrahlschweißanlagen werden häufig in der Massenfertigung von Getriebebauteilen in der Automobilindustrie eingesetzt (vor allem Japan und Deutschland). Neben einfachen und preisgünstigen Lohnaufträgen werden auch Bauteile für die Luft- und Raumfahrt, den Schienenverkehr, die Medizintechnik und die Nahrungsmittelindustrie elektronenstrahlgeschweißt.
Aluminothermisches Schweißen
Aluminothermisches Schweißen ist auch unter dem Namen Thermit-Schweißen bekannt und wird vor allem beim Verschweißen von Bahnschienen angewendet. In einem Tiegel mit einem Loch an der Unterseite, der auf der Verbindungsstelle steht, wird (mit Hilfe eines Magnesiumspanes) eine Mischung aus Eisenoxidpulver und Aluminiumpulver entzündet, woraus sich bei einer Temperatur von circa 2450 °C flüssiges Eisen und darauf schwimmende Aluminiumoxid-Schlacke bilden.
Spleißen von Glasfasern
Zur Datenübertragung genutzte Lichtwellenleiter werden mittels Lichtbogenschweißen ohne Zusatzwerkstoff miteinander verbunden. Der Vorgang wird als Spleißen bezeichnet. Die Kerndurchmesser der zu verbindenden Glasfasern liegen zwischen 3,5 und 1500 µm, die Manteldurchmesser zwischen 125 und 1550 µm. Zur Schweißverbindung genutzte Geräte positionieren die Glasfasern vor der Verbindung entweder automatisch oder manuell mittels Mikroskop und Mikrometerschraube, anschließend erfolgt durch einen Lichtbogen eine Erwärmung bis auf die Schmelztemperatur des Glases und eine Verschmelzung der beiden Fasern. An der Verbindungsstelle werden Signaldämpfungen unter 0,1 dB erreicht.
Schmelzschweißen von Kunststoffen
Thermoplastische Kunststoffe können mit folgenden Schmelzschweißverfahren verbunden werden:
Heißverstemmen
Heizelementschweißen
Heizwendelschweißen
Laserdurchstrahlschweißen
Warmgasziehschweißen
Das Ultraschallschweißen wird zwar oft zu den Pressschweißverfahren gerechnet. Bei der Anwendung mit Kunststoffen schmelzen diese jedoch auf.
Pressschweißverfahren
Feuerschweißen
Beim Feuerschweißen werden die zu verbindenden Metalle im Feuer unter Luftabschluss in einen teigigen Zustand gebracht und anschließend durch großen Druck, zum Beispiel durch Hammerschläge, miteinander verbunden. Diese dürfen anfangs nicht zu stark sein, da sonst die zu verbindenden Teile wieder auseinandergeprellt werden. Im Gegensatz zu den meisten anderen Schweißmethoden wird der Stahl hierbei nicht aufgeschmolzen, sondern bei Schweißtemperatur (1200 bis 1300 °C) gefügt. Zur Vorbereitung des Schweißvorgangs im Schmiedefeuer muss bei den zu verbindenden Werkstücken auf Luftabschluss geachtet werden, damit die Oberflächen nicht oxidieren. Ursprünglich wurde Luftabschluss durch eine stark reduzierende Flamme und feinkörnigen Flusssand erreicht, wobei es schwierig war, einen solchen Sand mit dem richtigen Schmelzpunkt zu finden. Heutzutage benutzt man meist Borax, welches sich ähnlich wie beim Sand als eine flüssige, glasige Haut über die Stahlteile legt und versiegelt. Diese werden dadurch vor Oxidangriff geschützt.
Widerstandsschweißen
Beim Widerstandsschweißen wird der elektrische Widerstand der Fügepartner genutzt. Sie werden zusammengepresst und von Strom durchflossen. An den Berührstellen ist der Widerstand am größten, so dass dort die meiste Wärme frei wird und die Werkstoffe am stärksten erhitzt werden.
Beim Widerstandspunktschweißen (auch kurz Punktschweißen) werden vor allem Bleche geschweißt. Sie werden dabei durch zwei gegenüberliegende Elektroden an einem Punkt zusammengepresst. Durch die Elektroden wird ein Schweißstrom in das Blech eingeleitet. Das Punktschweißen wird besonders häufig zum Schweißen von Karosserien in der Automobilindustrie genutzt.
Beim Rollennahtschweißen sind die Elektroden scheibenförmig ausgeführt und rollen auf den zwischen den Scheiben hindurchgeförderten Fügepartnern ab. Somit lassen sich kontinuierliche Nähte erzeugen. Ein Anwendungsbeispiel ist die Verbindungsnaht des aus Weißblech gebogenen zylindrischen Körpers einer Konservendose.
Widerstandsbuckelschweißen entspricht im Prinzip dem Punktschweißen, wobei aber eines der zu verbindenden Bauteile mit punktförmigen Erhöhungen (Schweißbuckeln) ausgestattet wird. Nur diese Buckel haben Kontakt zum anderen Bauteil. Durch die Geometrie des Buckels ist der Bereich des Stromüberganges genau definiert. Als Elektroden werden (im Unterschied zum Punktschweißen) flächige Kupferelektroden verwendet. Der Schweißstrom schmilzt den Buckel teilweise auf.
Das Pressstumpfschweißen und Abbrennstumpfschweißen lassen sich leicht automatisieren und werden verwendet, um tubulare Strukturen, Rollen, Ringe, Kettenglieder, Schienen-, Beton-Armierungsstähle, Fensterrahmen, Folien und Schläuche zu verbinden. Die Bauteile werden mit zwei Spannbacken gegeneinandergepresst, die mit einer elektrischen Spannung beaufschlagt werden. Dabei fließt ein hoher Strom durch die Bauteile, der die Fügestelle kurzzeitig aufschmilzt.
Kaltpressschweißen
Verbindungen mittels Kaltpressschweißen (EN ISO 4063: Prozess 48) erfolgen unter hohem Druck und unterhalb der Rekristallisationstemperatur der Einzelteile. Hierbei bleiben die Partner im festen Zustand. Allerdings ist eine plastische Verformung erforderlich, um die Atomlagen der Werkstückoberflächen in engen Kontakt miteinander zu bringen. Der Pressdruck erzeugt bei Materialien mit ausreichender Kaltverformbarkeit zwischenatomare Bindekräfte. Verbinden lassen sich etwa Kupfer und Aluminium miteinander und untereinander. Kaltpressschweißen wird unter anderem zur Herstellung stromleitender Verbindungen eingesetzt. Bei Aluminium ist eine vorherige Entfettung und ein Aufreißen der oberflächlichen Oxidschicht hilfreich (Beispiel: Aluminium-Kontaktfahnen von Elektrolytkondensatoren). Unter Hochvakuum können Metalle sogar mit keramischen Werkstoffen kaltpressverschweißt werden.
Reibschweißen
Beim Reibschweißen (EN ISO 4063: Prozess 42) werden die Kontaktflächen unter Druck relativ zueinander bewegt. Durch die entstehende Reibung kommt es zur Erwärmung und Plastifizierung des Materials. Die sogenannte Wärmeeinflusszone ist bei diesem Verfahren deutlich kleiner als bei anderen Schweißverfahren. Es können eine Vielzahl von Werkstoffen, wie beispielsweise Aluminium mit Stahl, miteinander verschweißt werden. Auch die Verbindung von metallischen Werkstoffen, die keine Legierungen miteinander eingehen, ist vielfach möglich.
Verfahrensvarianten sind:
das Rotationsreibschweißen,
das Orbitalreibschweißen,
das Rührreibschweißen und
das Ultraschallschweißen.
Ultraschallschweißen
Das Ultraschallschweißen (EN ISO 4063: Prozess 41) ist ein Verfahren zum Fügen von thermoplastischen Kunststoffen und metallischen Werkstoffen. Das Verfahren findet in vielen Bereichen der Industrie Verwendung. So werden z. B. in der Verpackungsindustrie Kunststoffverpackungen oder in der Automobilindustrie Kabelbäume mittels Ultraschall geschweißt. Bei den metallischen Werkstoffen kommt es vor allem bei Aluminium, Kupfer und deren Legierungen zum Einsatz. Die Verschweißung wird durch eine hochfrequente mechanische Schwingung im Bereich von i. d. R. 20 bis 35 kHz erreicht, welche zwischen den Bauteilen zu Erwärmung durch Molekular- und Grenzflächenreibung, bei Metallen auch zur Verzahnung und Verhakung der Fügepartner führt. Somit gehört das Ultraschallschweißen zur Gruppe der Reibschweißungen.
Mit Hilfe eines Generators wird hochfrequenter Wechselstrom erzeugt und über ein Koaxialkabel zu einem Ultraschallwandler, dem sogenannten Konverter, übertragen, der daraus mit Hilfe des piezoelektrischen oder des magnetostriktiven Effekts eine mechanische Ultraschallschwingung erzeugt. Diese Schwingungen werden über ein Amplitudentransformationsstück auf die Sonotrode übertragen. Unterschiedliche Anwendungen erfordern unterschiedliche Bauformen von Sonotroden, die meist aus Stahl, Aluminium oder Titan hergestellt werden. Die Amplitude der Schwingung und die Impedanzanpassung wird durch die Form und Masse des Amplitudentransformationsstückes beeinflusst. Die Schwingungen werden unter Druck über die strukturierte, oft geriffelte Arbeitsfläche der Sonotrode auf die zu verbindenden Werkstücke übertragen.
Beim Schweißen von Kunststoff wird die Schwingung meist vertikal zu den Fügepartnern eingeleitet. Diese erhitzen sich und beginnen zu erweichen, wodurch der Dämpfungskoeffizient ansteigt. Die Zunahme des Dämpfungskoeffizienten führt zu höherer innerer Reibung, was die Temperaturerhöhung weiter beschleunigt. Die aufgeschmolzenen Werkstoffe verbinden sich und sind nach dem Abkühlen und Erstarren miteinander verschweißt.
Beim Ultraschallschweißen von Metallen wird die Schwingung horizontal zu den Fügepartnern eingeleitet, so dass diese aneinanderreiben. Die Verbindung entsteht nach dem Abscheren von Rauigkeitsspitzen und dem Aufbrechen der Oxidschicht im Wesentlichen durch ein Ineinanderverzahnen und -verhaken der Fügepartner. Dies geschieht durch plastisches Fließen, ohne dass die Materialien schmelzen, was insbesondere bei empfindlichem Material, wie Folien und dünnen Blechen vorteilhaft ist. Drähte werden durch das sogenannte Drahtbonden miteinander verbunden.
Neben punktförmigen Schweißungen sind mit abrollenden Sonotroden auch Nahtschweißungen möglich, so z. B. bei der Fertigung von Solarkollektoren.
Das Verfahren ermöglicht schnelle Taktzeiten und ist besonders wirtschaftlich. Es lassen sich unterschiedliche Materialien miteinander verbinden. Die Werkstücke werden nur im Schweißbereich geringfügig erwärmt, das umliegende Material somit nicht geschädigt.
Sprengschweißen
Mit Hilfe des Sprengschweißverfahrens ist es möglich, zwei nicht schmelzschweißbare Materialien dauerhaft und fest miteinander zu verbinden. Dabei prallen die beiden Schweißflächen unter Zuhilfenahme von Sprengstoff mit mindestens 100 m/s unter einem Winkel von 2° bis 30° aufeinander. Die Kollisionsenergie bringt die Schweißpartner bis zur atomaren Ebene zusammen, so dass auch die Gitterkräfte (bei Metallen) wirken. Da die Schmelztemperatur nicht erreicht wird, können sich keine intermetallischen Phasen bilden. In der industriellen Anwendung werden auf diese Art meist zwei auf konventionelle Weise nicht schweißbare Metallpartner miteinander verbunden, beispielsweise Titan und Kupfer. Als Sprengstoffe kommen vorwiegend hochbrisante plastische PETN-, RDX- und HMX-Sprengstoffe, wie Semtex mit Detonationsgeschwindigkeiten von mehr als 5000 m/s zum Einsatz. Durch den Aufprall der Schweißpartner entstehen an den Grenzflächen wellenartige Verwerfungen, die eine stoffschlüssige Verbindung herstellen.
Elektromagnetisches Pulsschweißen
Das elektromagnetische Pulsschweißen, kurz EMP-Schweißen oder EMPW kann ohne Wärme mithilfe des Verfahrens des Magnetumformens (auch Elektromagnetische Pulstechnik, kurz EMPT) Werkstoffmischverbindungen, aber auch artgleiche Werkstoffe, binnen etwa 25 μs miteinander verbinden, indem einer der Fügepartner mittels eines Magnetfeldes berührungslos einen Impuls erfährt und gegen den anderen Partner prallt. Das Verfahren ist daher mit dem Sprengschweißen und -plattieren verwandt. Es können Rohre, Bleche und Zylinder verschweißt werden. Bei dem Verfahren befinden sich die Bauteile in der Nähe einer Spule, durch die ein sehr hoher Stromimpuls fließt welcher aus einem Impulsgenerator gewonnen wird. Es können zumindest als einer der Fügepartner nur gut leitfähige Materialien wie Aluminium verarbeitet werden. Durch die hohe Geschwindigkeit des Zusammenpralls der Fügepartner kommt es wie beim Sprengschweißen zu einer stoffschlüssigen Verbindung in der festen Phase.
Beim Verbinden von Blechen (Plattieren) beschleunigt der Impuls eines der beiden zu fügenden Bleche über eine Distanz von 0,3–2 mm auf Geschwindigkeiten über 200 m/s. Beim Aufprall dieses Blechs auf ein stationäres Gegenblech werden im Aufschlagbereich die auf beiden Oberflächen haftenden Oxidschichten gelöst und die sich zwischen den Blechen befindliche Luft ausgeblasen. Die so erzeugten reinen Oberflächen sind nun hoch reaktiv und werden mit hohem Druck aufeinandergepresst. Dies bewirkt eine ggf. heliumdichte metallische Bindung durch Elektronenaustausch.
Die Methode bringt kaum Wärme in die Bauteile ein. Daher ist es möglich, metallische Werkstoffe mit stark unterschiedlichen Schmelzpunkten zu verschweißen. Zudem tritt keine Gefügebeeinflussung durch Wärme auf. Daher können beispielsweise auch Verbindungen zwischen Blechen aus Aluminiumlegierungen und hochfesten Stählen hergestellt werden, ohne deren festigkeitsbestimmendes Gefüge zu ändern.
Diffusionsschweißen
Das Diffusionsschweißen (EN ISO 4063: Prozess 45) ist eine etwa 50 Jahre alte Schweißtechnik, um vorwiegend metallische Werkstücke miteinander zu verbinden. Die Qualität der Schweißverbindungen ist außerordentlich hoch und die Zugfestigkeit kann im Bereich des verwendeten Materials liegen.
Diffusionsschweißen erfolgt bei hohem Druck (typische Größenordnung: Fließgrenze) und etwas unterhalb der Solidustemperatur. Aber auch unter Raumtemperatur können Metalle zu Diffusionsverschweißen neigen, sofern ihre Flächen außerordentlich eben und glatt ausgebildet sind. Endmaße beispielsweise können schon nach kurzer Zeit miteinander kaltverschweißen, wenn sie angesprengt sind, also sehr nah beieinander liegen.
Bei dem vorwiegend in der Pulvermetallurgie eingesetzten Verfahren Heißisostatisches Pressen (HIP) werden die Werkstücke in einem Stahlblechkanister eingeschweißt und anschließend evakuiert oder offen in eine Druckkammer gelegt. Ein Schutzgas mit entsprechendem Druck und Temperatur presst die Bauteile zusammen. Die Kraft wirkt so von allen Seiten, also isostatisch.
Die zweite Variante wird auch als Uniaxial Diffusion Weld (UDW) bezeichnet. Hierbei wird eine einachsige Kraft meist mittels einer hydraulischen Presse senkrecht zur verbindenden Fläche ausgeübt. Die Presse verfügt entweder über einen Vakuumbehälter oder es wird ein zum HIP-Verfahren analoger Kanister benutzt.
MBP-Schweißen
Das MBP-Schweißen (Pressschweißen mit magnetisch bewegtem Lichtbogen) ist ein Lichtbogenpressschweißverfahren nach DIN 1910-100:2008-02 und hat die Ordnungsnummer 185 nach EN ISO 4063. Das Verfahren wird auch als MBL- oder Magnetarc-Schweißen bezeichnet. In der englischsprachigen Literatur ist es bekannt als . Mit dem Verfahren werden Profile mit geschlossenem Querschnitt stumpf miteinander verbunden.
Lichtbogenbolzenschweißen
Lichtbogenbolzenschweißen (Kurzform: Bolzenschweißen, engl.: , Ordnungsnummer 78 EN ISO 4063) gehört zu den Lichtbogenpressschweißverfahren. Mit dem Verfahren werden bolzenförmigen Elemente (z. B. Gewindebolzen, Stifte, Buchsen, Haken, Ösen) mit größeren Bauteilen (z. B. Karosseriebleche, Gehäuse, Heizkörper) dauerhaft verbunden.
Pressschweißen von Kunststoffen
Thermoplastische Kunststoffe können mit folgenden Pressschweißverfahren verbunden werden:
Hochfrequenzschweißen
Zirkularschweißen
Rotationsreibschweißen
Ultraschallschweißen
Vibrationsschweißen
Schweißsimulation
Die Schweißsimulation ist ein Werkzeug zur Klärung schweißtechnischer Fragestellungen, die auf der numerischen Lösung eines mathematischen Modells beruht. Ziel ist es, einerseits durch das Ersetzen zahlreicher praktischer Versuche Kosten in den Unternehmen zu senken und andererseits Informationen zu gewinnen, die über Messungen nicht oder nur mit einem sehr hohen Aufwand zu erreichen wären.
Zur schweißtechnischen Ausbildung werden durch einige Schweißtechnik-Hersteller Schweißsimulatoren angeboten. Diese können WIG-, MAG- und Lichtbogenhandschweißen simulieren. Mit dem Simulator können in Echtzeit und unter realitätsnahem Bedingungen verschiedene Schweiß-Aufgaben trainiert werden. Gegenüber dem normalen Schweißen bieten derartige Geräte zum virtuellen Schweißtraining einige Vorteile. Unter anderem wird kein Material verbraucht, es müssen keine Arbeitsschutzmaßnahmen beachtet werden, auch seltene Arbeitsaufgaben bzw. Kombinationen von Materialien und Werkstoffen können genutzt werden, durch die Variation von Parametern kann ein Verständnis für die Abhängigkeiten der Schweißergebnisse erreicht und je nach Brennerhaltung und -Führung die Ergebnisse sofort analysiert und Fehler korrigiert werden. Einzelne Simulatoren nutzen auch reale Lichtbögen.
Schweißnahtnachbehandlung
Die Betriebsfestigkeit dynamisch belasteter geschweißter Metallkonstruktionen wird in vielen Fällen durch die Schweißnähte – insbesondere die Schweißnahtübergänge – bestimmt.
Verschiedene Methoden der Nachbehandlung von Schweißnähten erlauben es, Druckeigenspannungen einzubringen, die Randschicht zu verfestigen und die Kerbwirkung zu verringern.
Die Kerbwirkung lässt sich durch das Ausschleifen der Naht sowie durch das WIG- oder Plasma-Aufschmelzen reduzieren.
Autofrettieren, Laserpeening, Kugelstrahlen, Nadeln, Hämmern sowie hochfrequentes Hämmern eignen sich zum Einbringen von Druckspannungen, wobei insbesondere die letzten drei auch die Randschicht verfestigen.
Speziell das hochfrequente Hämmern mildert darüber hinaus auch die Kerbwirkung ab.
Arbeitsschutz
Gefahren durch Schweißrauch und Schweißgase
Schweißen ist mit Gefährdungen verbunden, die sich aus der Verwendung von elektrischem Strom, durch unter Druck stehende Gase, Wärme sowie aus dem Freiwerden von optischer Strahlung und Gefahrstoffen ergeben können. Die Gefährdungen sind davon abhängig, welches Schweißverfahren angewendet wird.
Gefahrstoffe in Form von Schweißrauch und Schweißgasen werden aus der Schmelze – insbesondere aus abschmelzenden Schweißzusätzen – freigesetzt. Durch Überhitzen der Schmelze bzw. des Schweißzusatzes verdampft Metall. Der Dampf steigt über der Schmelze auf, kühlt ab und bildet durch Kondensation Metallpartikel. Luftgetragene Metallpartikel werden als Schweißrauch bezeichnet. Die Zusammensetzung des Rauches ist abhängig von der Zusammensetzung der zu schweißenden Werkstoffe. Rauche, die beim Schweißen von un- und niedriglegierten Stählen frei werden, bestehen überwiegend aus Eisen und Mangan oder deren Oxiden. Beim Schweißen von Aluminiumwerkstoffen besteht der Rauch vorrangig aus Aluminium bzw. Aluminiumoxiden, das Schweißen von korrosionsbeständigen Chrom-Nickel-Stählen setzt Nickel- und Chromverbindungen frei. Eingeatmete Eisen- und Aluminiumverbindungen können die Atemwege belasten und die Lungenfunktion beeinträchtigen. Eine akute Vergiftung durch Einatmen von Stäuben mit einem sehr hohen Mangangehalt kann zu entzündlichen Reaktionen in der Lunge führen. Diese Toxizität manifestiert sich als Bronchitis und kann sich zu einer fibrösen Lungenerkrankung entwickeln. Manganhaltige Rauche können auch neurologische Störungen, ähnlich einer Parkinson-Krankheit, verursachen, sechswertige Chromverbindungen und Nickeloxid sind als krebserzeugend eingestuft. Die Internationale Agentur für Krebsforschung (IARC) stuft Schweißrauch generell als krebserzeugend ein.
Schweißgase wie Kohlenstoffmonoxid, Kohlenstoffdioxid, Stickstoffmonoxid, Stickstoffdioxid und Ozon können ebenfalls die Atemwege schädigen. MSG-Schweißen setzt diese Gase nur in geringen Mengen frei, sodass die damit verbundenen Gesundheitsgefahren im Allgemeinen als gering eingeschätzt werden. Wird jedoch in engen, schlecht belüfteten Räumen geschweißt, können die Gase den Luftsauerstoff verdrängen, sodass Erstickungsgefahr besteht.
Die deutsche Gesetzgebung hat zum Schutz der Beschäftigten Grenzwerte für die Luftqualität an Arbeitsplätzen festgelegt, die für die Verfahren der Schweißtechnik z. B. in der Technischen Regel für Gefahrstoffe (TRGS) 528 „Schweißtechnische Arbeiten“ aufgeführt sind. Die TRGS 528 beschreibt auch die Vorgehensweise zur Ermittlung der prozessbedingten Gefährdungen und gibt Hinweise zu Schutzmaßnahmen und arbeitsmedizinischer Vorsorge.
Als technische Schutzmaßnahme sollten üblicherweise Filteranlagen und -geräte zum Absaugen und Abscheiden von Schweißrauch eingesetzt werden. Wird die so gereinigte Luft in den Arbeitsbereich zurückgeführt, werden besondere Anforderungen u. a. an die filtertechnischen Eigenschaften der Geräte gestellt. Dies betrifft insbesondere Geräte zur Abscheidung krebserzeugender Rauche, die z. B. beim Schweißen von Chrom-Nickel-Stählen frei werden. In diesen Fällen ist eine Luftrückführung nur für Geräte zulässig, die nach EN ISO 21904 positiv geprüft wurden. Das Institut für Arbeitsschutz der Deutschen Gesetzlichen Unfallversicherung (IFA) bietet für die Gerätehersteller und Inverkehrbringer Prüfungen nach diesen Normen auf freiwilliger Basis an. Die Herstellerfirmen von positiv geprüften Filteranlagen und -geräten erhalten eine DGUV Test-Prüfbescheinigung. Filteranlagen und -geräte, die die sicherheitstechnischen Anforderungen der Norm erfüllen, sind in einer Positivliste aufgeführt.
Maßnahmen
Es ist für Schweißarbeitsplätze eine Gefährdungsbeurteilung zu erstellen. Hier sind alle Inhaltsstoffe des Schweißrauches zu berücksichtigen, unter anderem Titandioxid, Fluoride, Magnesiumoxid, Calciumoxid, Eisenoxide und dessen Legierungsbestandteile wie Nickel, Cobalt, Chrom und Mangan. Bei hochlegierten Stählen ist, wenn möglich, auf Elektrodenschweißungen zu verzichten und auf Schutzgasschweißen oder automatisierte Verfahren auszuweichen, denn durch die fehlende Ummantelung der Elektrode werden weniger Chromate freigesetzt.
Information
Eine entsprechend fachkundige Einweisung ist für alle abhängig Beschäftigte nach dem Arbeitsschutzgesetz (ArbSchG) zwingend erforderlich; weiterhin ist ein Ausbildungsnachweis (Facharbeiterbrief oder Lehrgangsprüfung einer Handwerkskammer) üblich. In vielen Industriebereichen, bei Bahnanwendungen, ist eine Schweißaufsicht erforderlich.
Augenschutz
Beim Autogenschweißen benötigt man Schutzgläser, damit keine glühenden Teile oder Funken in die Augen gelangen. Die Gläser sind eingefärbt, damit man blendfrei die Schweißumgebung beobachten kann.
Strahlungsschutz
Beim Lichtbogenschweißen entsteht Ultraviolettstrahlung, welche die Haut, insbesondere jedoch die Augen schädigt. Weiterhin entsteht Infrarotstrahlung (Wärmestrahlung), die nicht nur auf ungeschützten Körperteilen Verbrennungen erzeugen, sondern auch die Netzhaut schädigen kann. Deshalb müssen Schutzgläser verwendet werden, die diese beiden Strahlungsarten abschirmen. Die Schutzklassen für derartige Gläser sind in der Europäischen Norm EN 169 festgelegt. So sind zum Autogenschweißen die Schutzklassen 2 bis 8, für offenes Lichtbogenschweißen dagegen die Klassen 9 bis 16 vorgesehen. Die Schutzgläser tragen eine Beschriftung, welche die Eigenschaften des Glases charakterisiert. Die Angabe ist wie folgt: Schutzklasse, Herstellerkürzel, optische Klasse 98, Norm. Der moderne Ersatz für Schutzgläser sind automatische Schweißerschutzfilter.
Da die UV-Strahlung auch die Haut schädigt, wird ein Schirm verwendet, der das ganze Gesicht abdeckt. Vor dem eigentlichen fast schwarzen Glas ist meist ein normales Glas, das die Funken abhält und billiger auszutauschen ist. Um beide Hände frei zu haben, kann der Schirm an einem Schutzhelm oder einer auf dem Kopf getragenen Vorrichtung klappbar angebracht werden.
Zusätzlich ist spezielle schwer entflammbare Schweißerkleidung zu tragen, die alle Hautflächen sicher abdeckt. Viele Schweißverfahren sind sehr laut, ein angemessener Gehörschutz ist daher vonnöten.
Eine weitere Gefahrenquelle stellen in diesem Zusammenhang auch thoriumhaltige Wolframelektroden zum WIG-Schweißen dar. So heißt es in der DGUV Information 209-049 (Deutsche Gesetzliche Unfallversicherung e.V. DGUV)
Staubschutz
Beim Schweißen entstehen auch feinste Staubpartikel, die abgesaugt werden müssen, damit sie nicht in die Lunge des Schweißers gelangen und von dort in die Blutbahn diffundieren können. Zu diesem Zweck werden mobile oder stationäre Schweißrauchfilter eingesetzt, die diesen Feinstaub absaugen und filtern. Stand der heutigen Technik sind so genannte ePTFE-Filter (Oberflächenfiltration). Wenn keine effektive Absaugung des Schweißrauchs sichergestellt werden kann, muss der Schweißer durch eine persönliche Schutzausrüstung in Form eines Gebläsefiltergerätes (PAPR) geschützt werden. Vor Sauerstoffmangel oder schädlichen Gasen in Schächten und Behältern schützen diese Geräte nicht. Wenn keine ausreichende Belüftung möglich ist, müssen umluftunabhängige Atemschutzgeräte getragen werden. Besondere Vorsicht ist beim Flammrichten und Vorwärmen mit Gasbrennern, in unzureichend belüfteten engen Räumen geboten, da die Flamme einen Teil des Atemsauerstoffs verbraucht.
Umgebungsschutz
Beim Schweißen müssen auch die Personen in der Umgebung vor der Strahlung und Lärm geschützt werden. Dazu gibt es Schweißlamellen- und Schweißervorhänge sowie Schallschutztrennwandsysteme.
Bei Lichtbogenhandschweißungen ist die elektrische Gefährdung des Schweißers besonders zu beachten. Die Lichtbogenspannung liegt zwar unter dem – im Allgemeinen – gefährdenden Bereich, jedoch ist vor allem bei Arbeiten unter besonderer elektrischer Gefährdung, also beispielsweise bei Arbeiten in engen elektrisch leitenden Räumen (Kessel, Röhren etc.) eine Reihe von Vorsichtsmaßnahmen zu beachten, die unter anderem im Merkblatt BGI 553 der Metallberufsgenossenschaft vorgeschlagen werden.
Maßnahmen beim Laserschweißen
Beim Laserschweißen ist der Laserstrahl selbst eine zusätzliche Gefahrenquelle. Er ist in der Regel unsichtbar. Während Strahlung im Nahen Infrarotbereich (Festkörperlaser, Faserlaser, Diodenlaser) in die Haut und das Auge eindringt und auch bei geringen Intensitäten (Streustrahlung) Netzhautschäden verursacht, wird die Strahlung des CO2-Lasers (Mittleres Infrarot) auf der Oberfläche (Haut und Hornhaut des Auges) absorbiert und verursacht oberflächliche Verbrennungen.
Hautverbrennungen durch Laser im Nahen Infrarot sind unter anderem auch deshalb gefährlich, da die Strahlung in tiefen Gebieten unter der Haut absorbiert wird, wo sich keine temperaturempfindlichen Nerven befinden. Laser-Schweißgeräte sind in der Regel sicher gehaust (verriegelte Schutztüren, Laserschutzfenster), sie fallen dann unter die Laserklasse I und können gefahrlos ohne Laserschutzbrille bedient werden.
Bekleidung
Gegen abspritzende Schlacken- und Schweißgutpartikel wird der Schweißer durch geeignete Bekleidung geschützt, die gegen heiße Partikel widerstandsfähig sein muss, z. B. eine Lederschürze, und die keine Falten bilden darf, in denen sich diese Partikel festsetzen können.
Verbände
Die nationale und internationale Zusammenarbeit bei der Ausbildung, Zertifizierung, Normung und technisch-wissenschaftliche Weiterentwicklung im Bereich Schweiß- und Fügetechnik wird in Deutschland durch den DVS, in Europa durch die EWF und weltweit durch das IIW koordiniert.
Richtlinien
Schweißingenieure verwenden die nach DIN EN ISO 2553:2014 genormten Schweißsymbole bei der symbolischen Darstellung von Schweißverbindungen in technischen Zeichnungen.
Begriffe und Bezeichnungen werden in der ISO/TR 25901:2007 geregelt.
Siehe auch
Schweißgerät
Pneumatic Impact Treatment – Beispiel für ein höherfrequentes Hämmern (HFMI) – Verfahren zur Verlängerung der Ermüdungslebensdauer bzw. Schwingfestigkeit von Schweißnähten
Literatur
Fachgruppe für die schweißtechnische Ingenieurausbildung: Fügetechnik Schweißtechnik. 6., überarb. Auflage. DVS Verlag, Düsseldorf 2004, ISBN 3-87155-786-2.
U. Dilthey, A. Brandenburg: Schweißtechnische Fertigungsverfahren. Band 3: Gestaltung und Festigkeit von Schweißkonstruktionen. 2. Auflage. Springer Verlag, 2001, ISBN 3-540-62661-1.
H. Hügel: Strahlwerkzeug Laser. (= Teubner Studienbücher Maschinenbau). Stuttgart 1992, ISBN 3-519-06134-1.
U. Dilthey (Hrsg.): Laserstrahlschweißen – Prozesse, Werkstoffe, Fertigung, Prüfung. DVS-Verlag, Düsseldorf 2000, ISBN 3-87155-906-7.
H. Schultz: Elektronenstrahlschweißen. (= Fachbuchreihe Schweißtechnik. Band 93). DVS-Verlag, Düsseldorf 2000, ISBN 3-87155-192-9.
K.-J. Matthes, E. Richter: Schweißtechnik. Fachbuchverlag Leipzig im Carl Hanser Verlag, 2002, ISBN 3-446-40568-2.
Weblinks
Überblick über die Geschichte des Schweißens
Einzelnachweise
Fügendes Fertigungsverfahren
Beschichten
Elektrowärme
Wikipedia:Artikel mit Video
Ingenieurwissenschaftliches Fachgebiet
Nahtart
|
Q131172
| 130.357626 |
164250
|
https://de.wikipedia.org/wiki/Cham%C3%A4leons
|
Chamäleons
|
Die Chamäleons (Chamaeleonidae) (griech. χαμαιλέων chamailéōn „Erdlöwe“) sind eine Familie der Leguanartigen (Iguania) innerhalb der Schuppenkriechtiere (Squamata).
Es sind über 200 Arten beschrieben, die sich in zwei Unterfamilien aufteilen: Die Echten Chamäleons (Chamaeleoninae) und die Stummelschwanzchamäleons (Brookesiinae). Nahezu alle Chamäleons sind in ihrem natürlichen Lebensraum gefährdet, weshalb sie unter das Washingtoner Artenschutz-Übereinkommen fallen und ihre Haltung somit meldepflichtig ist.
Entstehung und Evolution
Der früheste fossil nachgewiesene Vertreter der Chamäleons ist Chamaeleo caroliquarti, eine Art, die vor 26 Millionen Jahren in Zentraleuropa lebte und sich bereits in die heute noch existierende Gattung Chamaeleo einordnen lässt. Es ist jedoch sehr unwahrscheinlich, dass es sich um ein basales Chamäleon handelt. Es besteht die Möglichkeit, dass die Familie deutlich älter ist und sich bereits zu Beginn der Oberen Kreidezeit, also vor fast 100 Millionen Jahren, von der Linie ihrer nächsten Verwandten, der Agamen, abgespaltet hat.
Der Entstehungsort der Gruppe ist weiterhin unbekannt, wobei Madagaskar, heute noch der Lebensraum der meisten Arten, als evolutionäre Wiege der Familie häufig diskutiert wird. Jedoch fehlen fossile Nachweise, durch die die Vermutung belegt werden könnte. Funde aus Asien und Europa lassen den Schluss zu, dass Chamäleons einst ein noch größeres Verbreitungsgebiet bewohnten als heute. Wahrscheinlich aufgrund von klimabedingten Lebensraumveränderungen starben die dort lebenden Arten jedoch aus.
Verbreitung
Chamäleons sind auf dem gesamten afrikanischen Kontinent, einschließlich Madagaskar verbreitet und kommen daneben auf der arabischen Halbinsel und im Mittelmeerraum vor.
Daneben findet man sie im westlichen Indien und auf Sri Lanka.
Mittlerweile wurden bestimmte Arten jedoch auch in die US-Staaten Hawaii und Florida eingeführt, wo sie nicht angestammte Habitate bewohnen.
Lebensraum
Allgemein bewohnen Chamäleons, bis auf wenige Ausnahmen, bewaldete Gebiete in warmen Regionen. Trockenheit und Luftfeuchtigkeit spielen eine eher untergeordnete Rolle.
Die beiden Unterfamilien der Gruppe bevorzugen unterschiedliche Lebensräume:
Die Echten Chamäleons sind Busch- und Baumbewohner. Der Körperbau hat sich dem Leben in den Baumkronen angepasst (Greifschwanz, Greiffüße). Dennoch gibt es unter ihnen auch einige Arten, die den Boden bewohnen.
Unter den Erd- bzw. Stummelschwanzchamäleons wird die Laub- und Krautschicht allgemein als Lebensraum bevorzugt.
Chamäleons bewohnen diverse Ökozonen. In der im Norden des Verbreitungsgebiets befindlichen Sahara leben einige Arten innerhalb der Wüsten-Oasen.
Im Gegensatz dazu existieren Chamäleons auch in – für Reptilien – überraschend kühlen Regionen, wie zum Beispiel Chamaeleo schubotzi, das an der Schneefallgrenze des 4500 m hohen Mount Kenia lebt.
Ein weiteres Beispiel für eine ungewöhnlich spezialisierte Art ist Bradypodion occidentale, welches die Muschelkiesdünen von Süd-Westafrika bewohnt. Dort ist es nicht nur besonders heiß, sondern auch wegen des hellen Bodens und der Sonnenreflexion gleißend hell.
Dennoch ist es teilweise schwierig, einer bestimmten Art einen eindeutigen Lebensraum zuzuordnen, da die Lebensumstände im Verbreitungsgebiet der jeweiligen Arten häufig stark variabel sind.
Merkmale
Chamäleons weisen einige typische körperliche Merkmale auf. Auffällig sind ihr gedrungener Rumpf, der hohe Rücken und der kompakte Schädel.
Zu den charakteristischen Merkmalen zählen außerdem ihre spezialisierten, unabhängig voneinander bewegbaren Augen, ihre Greifhände, die ausgeprägte Farbwechselfähigkeit der meisten Arten sowie ihre lange, zur Jagd einsetzbare Zunge.
Chamäleons können ihre Körperform teilweise variieren, indem sie sich aufblähen oder am Kopf befindliche Lappen abspreizen (Physiophrenie). Dadurch ist es schwierig, einige Arten genau zu bestimmen. Die Körperformen und Merkmale sind auch innerhalb einer Art stark variabel und von Alter und Geschlecht abhängig.
Kopf
Der Kopf der Chamäleons fällt durch seine außergewöhnliche Form und die großen Augen auf.
In der Unterfamilie der Echten Chamäleons, seltener auch bei den Stummelschwanzchamäleons, trägt er häufig einen ausgeprägten Schädelschmuck, bestehend aus Hörnern, Schnauzenfortsätzen und charakteristischen Helmformen, die artspezifisch variieren.
Diese festen Merkmale erleichtern die Identifizierung auch sich stark ähnelnder Chamäleonarten.
Es gibt Arten, die sehr kleine Schnauzenfortsätze tragen (Calumma nasutum) oder Tiere mit einem langen Schnauzenfortsatz (Calumma parsonii). Für die Kommunikation unter den Tieren sind diese Fortsätze ein wichtiger Faktor.
Außerdem existieren horntragende Arten, die man nach Anzahl und Form der Hörner leicht unterscheiden kann. Eine Unterart, Trioceros quadricornis gracilior, bildet bis zu sechs Hörner aus, andere wie das bekannte Trioceros johnstoni besitzen nur drei oder auch weniger.
Des Weiteren tragen die Echsen Occipitallappen, eine Art des Kopfschmucks. Diese Lappen sind spreizbar und spielen bei Konkurrenzkämpfen eine Rolle. Daneben wirken Chamäleons mit abgespreizten Lappen größer und können so potentielle Fressfeinde einschüchtern.
Charakteristisch für die Familie sind auch die verschiedenen Schuppenkämme, die an Kehle, Bauch und vor allem am Rücken vorkommen.
Die Form des Rückenkamms variiert je nach Art teilweise stark. Entweder sind es Kegelschuppen oder Stacheln, die ihn bilden, oder er gleicht in seiner Form einem Segel, wie zum Beispiel bei Trioceros cristatus.
Der hinten am Kopf befindliche Helm ist ein Merkmal, das alle Chamäleons teilen. Er wird bei einigen Arten bis zu 8 cm hoch, teilweise ist er jedoch auch kaum sichtbar. Er hat die Funktion, den Umriss des Chamäleons zu verändern, sodass es eher einem Pflanzen-Teil ähnelt als einem Tier.
Außer zur Tarnung dienen die auffälligen Helme auch der Kommunikation.
Augen
Chamäleonaugen sind ein besonders typisches Merkmal dieser Echsen. Sie gelten als sehr hoch entwickelt und sind leistungsfähiger als das menschliche Auge. Sie haben zwar auch eine Linse, allerdings ist nur die Pupille sichtbar. Partien der Hornhaut werden von schuppenartigen Lidern umschlossen, die zum Teil mit dem Augapfel verwachsen sind.
Die Sehschärfe wird durch die Hornhaut bewirkt. Durch das Lidloch und die Pupille tritt zusätzlich ein Effekt ein, der am ehesten mit einer Lochkamera vergleichbar ist und mit der Erhöhung der Schärfentiefe die Wirkung einer stenopäischen Lücke aufweist. Somit kann das Tier mögliche Feinde rasch erkennen und Schutz im Blattwerk suchen.
Eine weitere Besonderheit ist der natürliche Sichtschutz des Chamäleonauges. Auf den Zapfen der Netzhaut, die nebenbei ein Zeichen für Tagaktivität und Farbensehen sind, können sich winzige Öltropfen anlagern, die angrenzende Sehnerven schützen, indem sie den Lichteinfall abschwächen.
Eine weitere Fähigkeit, die in dieser Ausprägung nur bei Chamäleons vorkommt, liegt im unabhängigen Bewegen der Augen.
Die Augen sind so angeordnet, dass sich die Gesichtsfelder nur in einem kleinen Bereich zu einem Bild überlagern können, und so meistens zwei einzelne Bilder entstehen. Allerdings ist bis heute unbekannt, wie die beiden Bilder im Gehirn verarbeitet werden.
Die ungewöhnliche Beweglichkeit der Augen wird durch einen komplexen Muskelapparat gewährleistet.
Der Gebrauch der Augen bei der Jagd folgt einem festen Muster und gilt für jede Chamäleonart:
Zuerst wird unabhängig voneinander die gesamte Umgebung abgesucht.
Ist ein Beutetier gefunden, wird es mit beiden Augen fokussiert.
Die Augen stehen aus dem Kopf regelrecht heraus. Dadurch wird das Blickfeld erheblich vergrößert, vertikal beträgt es 90°, horizontal 180° pro Auge. Es ergibt sich ein beidäugiges Blickfeld von 342°. Dadurch entsteht ein toter Winkel von 18°, der nur einen Teil des Rückens umfasst.
Abgesehen vom Aspekt des Sehens hat das Auge auch die Funktion der innerartlichen Kommunikation. Durch das Färben der Augenpartien wird Paarungsbereitschaft oder Wiedererkennung innerhalb der Art signalisiert.
Zum Schlafen werden die Augen nach unten gesenkt und die Pupillen in eine Hautfalte gedreht, in der sie mit Hornplatten geschützt sind. Manche Arten können auch die gesamten Augen in den Kopf zurückziehen.
Zunge
Auch typisch für Chamäleons ist ihre Schleuderzunge. Sie ist in ihrer Form einzigartig und kann eine Zugkraft von etwa 0,4 Newton aufbringen (Dischnerscher Versuch mit Chamaeleo montinum 1958).
Sie kann das eineinhalbfache der Länge des Chamäleons erreichen.
Die Zunge ist im Kehlsack auf dem Zungenbein, einem Sesambein, zusammengezogen. Dabei wird sie nicht aufgerollt, sondern ist mit einem kurzen Stück Gummiband vergleichbar.
Das Zungenbein ist mit zwei Gelenken ausgestattet, die den gesamten Knochen nach vorne schieben können. Im Falle eines Zungenschusses wird das Zungenbein nach vorne geschoben und die Muskulatur der Zunge angespannt, wodurch die Zunge aus dem Maul herausschnellt. Dieser Vorgang geschieht in einer Zehntelsekunde. Dadurch hat das Beutetier nur eine ausgesprochen geringe Chance zu fliehen.
Kurz bevor die Zunge das Beutetier berührt, kontrahiert ein Muskel an ihrer verdickten Spitze, der für die Bildung eines kegelförmigen Hohlraumes sorgt. Dadurch entsteht ein Sog, der die Beute an die Zunge heransaugt. Zusätzlich ist die Zunge mit einem nicht klebenden Sekret benetzt, was jedoch die Haftfläche vergrößert und deswegen dafür sorgt, dass das Chamäleon die Beute leichter erfassen kann.
Zuletzt schnellt die Zunge samt Beute wieder zurück in das Maul der Echse, indem sie sich erneut zusammenzieht.
Die fünf Phasen des Zungenschusses
Das Beutetier wird fixiert und auf Größe, Form und Art geprüft, Ermittlung des Abstandes zwischen Chamäleon und Beute
Das Maul öffnet sich langsam, die Zunge wird vorbereitet und ein Stück nach vorne geschoben
Die Zunge wird abgeschossen
Das Beutetier wird erfasst
Die Beute wird ins Maul gezogen, im Maul festgehalten, während sich die Zunge in den Kehlsack zurückzieht. Dann wird die Beute als Ganzes hinuntergeschluckt
Auch für die Wasseraufnahme wird die Zunge benutzt. Einige Arten lecken das Wasser von Blättern, andere benutzen sie als Wasserleitung, indem sie die Zunge an Äste oder Blätter legen, über die Wasser fließt. So läuft es an der Zunge herunter direkt ins Maul.
Arten, die auf langsame Beute wie Schnecken spezialisiert sind, benötigen den Zungenschuss nicht. Sie nehmen die Beute direkt mit dem Maul auf.
Weitere Merkmale
Der gesamte Körper der Echten Chamäleons ist für ein Leben in den Bäumen ausgerichtet, obwohl einige Arten nahezu ausschließlich bodenbewohnend sind (z. B. Chamaeleo namaquensis). Mit ihrem Körper imitieren sie verschiedene Teile von Pflanzen. Die Echten Chamäleons erinnern mit ihrem Körper an Blätter und Kronenpartien der Bäume, die Stummelschwanzchamäleons eher an altes Holz oder Laub (z. B. Brookesia decaeyi).
Die Füße sind zangenähnlich umgeformt, sodass sich jeweils zwei oder drei aneinanderliegende Zehen gegenüberstehen. Dadurch wird das Greifen nach Ästen deutlich erleichtert. Einige Arten haben kräftige Krallen, die den Griff zusätzlich sichern.
Die Extremitäten haben einen besonderen Aufbau:
Insgesamt ist jeder Fuß mit fünf Zehen ausgestattet, wobei jeweils zwei und drei Zehen miteinander verwachsen sind. Dabei sind die Hinterfüße genau umgekehrt in der Anordnung zu den Vorderfüßen (2-3 3-2).
Zusätzlich zu den Extremitäten unterstützt bei den Echten Chamäleons der Greifschwanz das Klettern. Jedoch kann der Schwanz nicht abgeworfen werden (Autotomie), wie es bei anderen Echsenarten der Fall ist. Bei Stummelschwanzchamäleons hat der Schwanz, da er relativ unbeweglich ist, nur eine abstützende Funktion.
Chamäleons können bei einem Fall aus größerer Höhe die Lungen aufblähen und damit den Sturz abfangen. Die Körpergröße schwankt innerhalb der Familie stark, wobei die Männchen meist größer sind als die Weibchen. Die größten Arten findet man in der Unterfamilie der Echten Chamäleons, Stummelschwanzchamäleons bleiben deutlich kleiner, unter ihnen befinden sich auch die kleinsten Chamäleons und einige der kleinsten Amnioten.
Das Riesenchamäleon (Furcifer oustaleti) sowie Calumma parsonii erreichen eine maximale Gesamtlänge von ungefähr 68 cm und bilden mit die größten Arten, im Gegensatz dazu ist das 2021 beschriebene Brookesia nana das mit 2,16 cm kleinste Chamäleon.
Der zähe Speichel (400 Mal zäher als der Speichel des Menschen) ermöglicht es Chamäleons, Beute mit einem Drittel ihres Körpergewichts zu erwischen. Nicht Festsaugen, wie man früher dachte, sondern der Speichel dient hierbei der Haftung der Beute auf der Zunge.
Sinne
Während der Sehsinn besonders gut ausgebildet ist, ist das Gehör der Chamäleons relativ schlecht entwickelt. Eine Ausnahme ist das zum Bodenbewohner gewordene Chamaeleo namaquensis, dessen Gehör deutlich feiner als das anderer Chamäleons ist.
Die Nase hat nur eine Atemfunktion. Das Riechen geschieht, wenn es überhaupt stattfindet und kein ausgesparter Sinn ist, über das Jacobson-Organ.
Farbwechsel
Der Farbwechsel dient bei Chamäleons nicht in erster Linie der Tarnung, sondern vor allem zur Kommunikation mit Artgenossen.
Die Bereitschaft zur Balz wird zum Beispiel oft von auffälligeren Farben und Mustern begleitet. Die Färbung hängt zudem von äußeren Faktoren wie Temperatur, Sonneneinstrahlung, Tageszeit oder Luftfeuchtigkeit ab. Bei hohen Temperaturen färben sich die Tiere hell, um das einfallende Licht zu reflektieren. Bei niedrigen Temperaturen nehmen sie eine dunkle Farbe an, um die Energie des Lichts aufzunehmen. Ist es jedoch einer zu hohen Sonneneinstrahlung ausgesetzt, färbt es sich durch UV-absorbierende Melanine schwarz. In der Nacht nimmt es sehr helle Farben an. Mit zunehmendem Alter und bei Krankheit werden die Farben blasser. Das prinzipiell mögliche Spektrum an Farben und Mustern ist stark artspezifisch. Einige Arten haben nur ein sehr kleines Farbspektrum (wie zum Beispiel die Stummelschwanzchamäleons) oder können ihre Farbe gar nicht wechseln. Der Farbwechsel läuft art- und situationsabhängig unterschiedlich schnell ab. Am schnellsten wechseln die Farben in Gefahren- oder Kampfsituationen.
Die rasche, sogenannte physiologische Farbänderung wird durch aktive Veränderungen oberflächennah gelegener Farbzellen (Chromatophoren) möglich, die in Schichten unter der Oberhaut übereinander liegen. Dabei werden Pigment-haltige Organellen innerhalb des Zytoplasmas dieser dermalen Chromatophorenzellen in Form und Anordnung verändert, verteilt ausgebreitet (Dispersion) oder zusammengeballt konzentriert (Aggregation). Einfallendes Licht kann so je nach enthaltenem Pigment, intrazellulärer Anordnung und Zelllage der spezifischen Chromatophorentypen von verschiedenen Schichten lokal unterschiedlich reflektiert werden. Die obere Schicht enthält meist vornehmlich Xanthophoren bzw. Erythrophoren mit gelblicher und rötlicher Färbung durch Carotinoide. Darunter befindet sich eine Zellschicht von Melanophoren mit schwarzbraunen Melaninen. Die Farbzellen der untersten Schichten sind zumeist Guanophoren und durch Eigenschaften ihres kristallinen Farbstoffes Guanin in der Lage, einfallendes Licht zu brechen und irisierende Effekte zu erzeugen (Iridophoren). Bei Chamäleons sind hier charakteristischerweise zwei Schichten von Guanophoren zu unterscheiden, wobei die oberflächennäheren (superfiziellen oder S-)Iridophoren kleinere Guanin-Nanokristalle aufweisen, deren räumliche Anordnung in triangulärem Gitter aktiv verändert werden kann. Der aktuelle Farbeindruck ergibt sich jeweils durch das Zusammenspiel aller Farbzellen gemeinsam. Die untere, deutlich dickere Iridophorenschicht macht die Tiere möglicherweise toleranter gegenüber Sonneneinstrahlung, indem sie einen Teil der Strahlen, insbesondere infrarotnaher Frequenzen, reflektiert.
Haut und Häutung
Die drüsenarme Haut der Chamäleons ist teils regelmäßig (Granula oder Körnerschuppen), teils unregelmäßig (Tuberkeln) mit Schuppen bestückt. Diese Verteilung ist nicht regelmäßig und kann auch innerhalb der Art stark variieren. Dennoch wird sie als wichtiges Unterscheidungsmerkmal herangezogen.
Es gibt mehrere Schuppenarten:
Körnerschuppen → Normale Haut
Tuberkeln → Normale Haut
Tafelschuppen → Normale Haut
Kegelschuppen → Nur an Kämmen (Rücken-, Kehl- oder Bauchkamm)
Plattenschuppen → Nur am Kopf
Dornen und Stachel aus Horn → Nur am Rückenkamm oder als Dorsal-/Occipitalhorn am Kopf
Der Haut-Aufbau gleicht dem anderer Reptilien:
Obenauf liegt die Epidermis (Oberhaut), die alle äußeren Einflüsse abwehrt. Diese Schicht ist starr und verhornt und wächst nicht stetig mit dem Körper mit. Chamäleons wachsen bis zu ihrem Lebensende, wodurch sie sich ihr Leben lang regelmäßig häuten müssen.
Vor der Häutung wird unter der aktuellen Haut eine neue Hautschicht gebildet. Sie wird von einer noch tieferen Schicht gespeist, die ständig neue Hautzellen produziert.
Kurz vor dem Bevorstehen der Häutung ist die Haut heller und trüber als sonst, die Zeichnungen auf der Haut wirken unscharf und verwaschen. Jetzt löst sich nach und nach die alte Epidermis. Durch Reiben und Rubbeln an Ästen u. ä. versuchen die Echsen den Vorgang zu beschleunigen. Selbst mit ihren Füßen und dem Maul ziehen sie ihre alte Haut ab.
Die Häutung ist immer ein Zeichen dafür, wie gut es dem Tier geht. Sie hängt von Temperatur, Luftfeuchtigkeit und Hormonen ab. Bei einer schlechten Häutung geht es dem Chamäleon nicht gut.
Die Dauer einer solchen Prozedur hängt vom Tier ab. Mal dauert sie Tage, manchmal nur ein paar Stunden.
Nach der Epidermis folgt das Corium (Lederhaut). Hier befindet sich die Muskulatur der Haut, die Nerven, Blutgefäße, elastische Fasern, Sinneskörper und Farbzellen enthält. Zum Schluss folgt die Subcutis (Unterhaut), eine Art Verbindungsstück.
Einige Chamäleons, z. B. Ch. namaquensis und Bradypodion occidentale, besitzen eine spezielle Salzdrüse, die sogenannte Hadersche Drüse. Diese ist besonders wichtig für Arten, die in Trockengebieten leben. Sie können überschüssiges, wasserbindendes Salz an einer Drüse an der Nase ausscheiden und dadurch längere Zeit ohne Flüssigkeit auskommen.
Verteidigung und Tarnung
Chamäleons zeigen keine aktive Verteidigung gegenüber potenziellen Feinden, besitzen aber ein gewisses Repertoire an Drohgebärden oder Tarnstrategien zur Feindvermeidung.
Die meisten Chamäleons drohen durch ein Aufreißen des Mauls, einige Arten können dabei sogar gut hörbare Zischlaute von sich geben (z. B. das Jemenchamäleon Chamaeleo calyptratus). Viele der kleineren Arten lassen sich bei Gefahr zu Boden fallen und stellen sich tot (Thanatose).
Mimese
Mimese bezeichnet die Nachahmung der Umgebung zur Tarnung, eine Strategie, die von allen Chamäleonarten zum Schutz angewandt wird. Dabei imitieren Echte Chamäleons häufig Blätter (Blattmimese), was bereits durch die Körperform begünstigt wird.
Ebenso ähnelt die Bewegung diverser Chamäleons im Geäst der sich im Wind bewegender Blätter. Dabei schaukeln die Tiere in ihrem Gang rhythmisch nach vorn und wieder zurück.
Diese Gangart unterstützt zudem das stereoskopische Sehen der Tiere, da sie damit die Einschränkung ihrer Sichtfelder durch Bewegung des Körpers verkleinern können.
Die Stummelschwanzchamäleons sind farblich eher braun, schwarz oder dunkelgrün. Durch ihre zackige Körperform (deutlich sichtbar bei Brookesia decaryi) imitieren sie überwiegend trockenes, am Boden liegendes Laub.
In beiden Gruppen häufig anzutreffen ist die Stockmimese, die Nachahmung von Geästpartien oder auf dem Boden liegender Hölzer.
Es gibt auch einige sehr spezialisierte Mimesen, zum Beispiel die Gras-Mimese bei Rieppeleon kerstenii oder die Mimese eines vertrockneten Blattgerippes, die bei verschiedenen madagassischen Stummelschwanzchamäleons vorkommt.
Thanatose
Die zweite Tarnmethode ist die Thanatose (Schreckstarre), bei der sich das Chamäleon tot stellt (häufig anzutreffen bei Stummelschwanzchamäleons).
Bemerkt das Chamäleon eine potentielle Bedrohung, verharrt es augenblicklich in seiner aktuellen Stellung. Wird sein Körper berührt, lässt es sich sofort fallen. Auf dem Boden ist es dann für mögliche Fressfeinde kaum erkennbar. Beim Fallen drehen sich Chamäleons auf den Bauch, um dem Angreifer den Rücken und damit die unempfindlichste Körperpartie zu zeigen. Dieser Schutz wird zudem durch Knochen effektiver, die sich nach dem Fall „ausfahren“ und das Rückenmark schonen.
Ernährung und Fortpflanzung
Chamäleons ernähren sich von Insekten und anderen Gliederfüßern; größere Exemplare fressen auch kleine Vögel, genauso wie kleinere Artgenossen nicht verschmäht werden.
Als Echsen legen sie meist (durchschnittlich 4 Wochen nach der Begattung) Eier, sind also ovipar. Sie können 5-35 Eier legen. Die Embryonalentwicklung dauert ausgesprochen lange, bei einigen Arten mehr als zwei Monate. Nach dem Schlupf zeichnen sich die Jungen jedoch durch ein schnelles Körperwachstum aus.
Einige Arten wie z. B. mehrere Arten aus der Gattung Trioceros wie das Poroto-Dreihornchamäleon (Trioceros fuelleborni), Helmchamäleon (Trioceros hoehnelii) und das Dreihornchamäleon (Trioceros jacksonii) bringen vollentwickelte Junge zur Welt (ovovivipar). Ovoviviparie tritt besonders häufig bei Reptilien-Arten in sehr kühlen Lebensräumen auf, da der Boden keine ausreichend hohe Temperatur für die Entwicklung der Eier bietet.
Lebenserwartung
Während einige Chamäleons über 15 Jahre alt werden können, existieren auch diverse kurzlebige Arten. Furcifer labordi aus dem Südwesten Madagaskars ist das kurzlebigste Landwirbeltier der Erde. In nur zwei Monaten wachsen die Tiere zur Geschlechtsreife heran, müssen dann rasch einen Partner finden und sich fortpflanzen, bevor sie im Alter von vier bis fünf Monaten sterben.
Systematik
Die über 200 bekannten Chamäleonarten sind zu mehr als 40 % auf die Insel Madagaskar beschränkt.
Chamäleons lassen sich in zwei Unterfamilien einteilen:
Echte Chamäleons (Chamaeleoninae)
Artenreiche Gruppe meist großer, langschwänziger Chamäleons mit auffälligem Gesichtsschmuck und ausgeprägter Farbwechselfähigkeit.
Stummelschwanzchamäleons (Brookesiinae)
Eine Gruppe kleiner Chamäleons mit rudimentären Schwänzen, meist dezent gefärbt, selten mit Gesichtsschmuck und mit geringer Farbwechselfähigkeit.
Die Familie wird in zwölf Gattungen mit etwa 200 Arten unterteilt:
Gattung Archaius , 1865
Seychellen-Tigerchamäleon (Archaius tigris (, 1820))
Gattung Bradypodion , 1843
Bradypodion atromontanum , & , 2006
Bradypodion caeruleogula & , 2008
Bradypodion caffer (, 1889)
Bradypodion damaranum (, 1887)
Bradypodion dracomontanum , 1976
Bradypodion gutturale (, 1849)
Bradypodion kentanicum (, 1935)
Bradypodion melanocephalum (, 1865)
Bradypodion nemorale , 1978
Bradypodion ngomeense & , 2009
Bradypodion occidentale (, 1935)
Buntes Zwergchamäleon (Bradypodion pumilum (, 1789))
Bradypodion setaroi , 1976
Bradypodion taeniabronchum (, 1831)
Bradypodion thamnobates , 1976
Bradypodion transvaalense (, 1930)
Wüstenzwergchamäleon (Bradypodion ventrale (, 1845))
Gattung Brookesia , 1865
Brookesia ambreensis & , 1995
Brookesia antakarana & , 1995
Brookesia bekolosy & , 1995
Brookesia betschi , & , 1974
Brookesia bonsi , 1980
Brookesia brunoi , , , , & , 2012
Brookesia brygooi & , 1995
Brookesia confidens , , & , 2012
Brookesia decaryi , 1939
Brookesia dentata , 1900
Brookesia desperata , , & , 2012
Brookesia ebenaui (, 1880)
Brookesia exarmata & , 1996
Brookesia griveaudi , & , 1974
Brookesia karchei , & , 1970
Brookesia lambertoni & , 1970
Brookesia lineata & , 1995
Brookesia micra , , & , 2012
Brookesia minima , 1893
Brookesia nana et al., 2021
Brookesia perarmata (, 1933)
Brookesia peyrierasi & , 1974
Brookesia ramanantsoai & , 1975
Brookesia stumpffi , 1894
Brookesia superciliaris (, 1820)
Brookesia therezieni & , 1970
Brookesia thieli & , 1969
Brookesia tristis , , & , 2012
Brookesia tuberculata , 1894
Brookesia vadoni & , 1968
Brookesia valerieae , 1991
Gattung Calumma , 1865
Calumma amber & , 2006
Calumma ambreense , 1974
Calumma andringitraensis (, & , 1972)
Calumma boettgeri (, 1888)
Kurzhorn-Chamäleon (Calumma brevicorne (, 1879))
Calumma capuroni (, & , 1972)
Calumma crypticum & , 2006
Calumma cucullatum (, 1831)
Calumma fallax (, 1900)
Calumma furcifer ( & , 1880)
Calumma gallus (, 1877)
Calumma gastrotaenia (, 1888)
Calumma glawi , 1997
Calumma globifer (, 1879)
Calumma guibei (, 1959)
Calumma guillaumeti (, & , 1974)
Calumma hafahafa & , 2006
Calumma hilleniusi (, & , 1973)
Calumma jejy & , 2006
Calumma malthe (, 1879)
Calumma marojezense (, & , 1970)
Calumma nasutum ( & , 1836)
Calumma oshaughnessyi (, 1881)
Parsons Chamäleon (Calumma parsonii (, 1824))
Calumma peltierorum & , 2006
Calumma peyrierasi (, & , 1974)
Tarzanchamäleon (Calumma tarzan , , , , & , 2010)
Calumma tsaratananense ( & , 1968)
Calumma tsycorne & , 2006
Calumma vatosoa , , & , 2001
Calumma vencesi , , & , 2001
Calumma vohibola , , & , 2011
Gattung Chamaeleo , 1768
Basiliskenchamäleon (Chamaeleo africanus , 1768)
Chamaeleo anchietae , 1872
Chamaeleo arabicus , 1893
Chamaeleo calcaricarens , 1985
Jemenchamäleon (Chamaeleo calyptratus & , 1851)
Gewöhnliches Chamäleon (Chamaeleo chamaeleon (, 1758))
Lappenchamäleon (Chamaeleo dilepis , 1819)
Fersensporn-Chamäleon (Chamaeleo gracilis , 1842)
Chamaeleo laevigatus , 1863
Chamaeleo monachus , 1865
Wüstenchamäleon (Chamaeleo namaquensis , 1831)
Chamaeleo necasi , & , 2007
Chamaeleo senegalensis , 1802
Chamaeleo zeylanicus , 1768
Gattung Furcifer , 1843
Furcifer angeli ( & , 1968)
Furcifer antimena (, 1872)
Furcifer balteatus ( & , 1851)
Furcifer belalandaensis ( & , 1970)
Furcifer bifidus (, 1800)
Furcifer campani (, 1872)
Furcifer cephalolepis (, 1880)
Furcifer labordi (, 1872)
Teppichchamäleon (Furcifer lateralis (, 1831))
Furcifer major (, 1971)
Furcifer minor (, 1879)
Furcifer nicosiai , & , 1999
Riesenchamäleon (Furcifer oustaleti (, 1894))
Pantherchamäleon (Furcifer pardalis (, 1829))
Furcifer petteri ( & , 1966)
Furcifer polleni (, 1873)
Furcifer rhinoceratus (, 1843)
Furcifer timoni , & , 2009
Furcifer tuzetae (, & , 1972)
Furcifer verrucosus (, 1829)
Furcifer viridis , , , & , 2012
Furcifer willsii (, 1890)
Gattung Kinyongia , & , 2006
Kinyongia adolfifriderici (, 1912)
Kinyongia asheorum , , , , & , 2009
Kinyongia boehmei ( & , 2002)
Kinyongia carpenteri (, 1929)
Kinyongia excubitor (, 1911)
Kinyongia fischeri (, 1887)
Kinyongia gyrolepis , , & , 2012
Kinyongia magomberae , , , , & , 2009
Kinyongia matschiei (, 1895)
Kinyongia multituberculata (, 1913)
Kinyongia mulyai & , 2015
Kinyongia oxyrhina & , 1988
Zweihornchamäleon (Kinyongia tavetana (, 1891))
Kinyongia tenuis (, 1892)
Kinyongia uluguruensis (, 1957)
Kinyongia uthmoelleri (, 1938)
Kinyongia vanheygeni , 2009
Kinyongia vosseleri (, 1913)
Kinyongia xenorhina (, 1901)
Gattung Nadzikambia , & , 2006
Nadzikambia baylissi & , 2010
Nadzikambia mlanjensis (, 1965)
Gattung Palleon , & & , 2013
Palleon lolontany ( & , 1995)
Palleon nasus (, 1887)
Gattung Rhampholeon , 1874
Rhampholeon acuminatus & , 2006
Rhampholeon beraduccii & , 2006
Rhampholeon boulengeri , 1911
Rhampholeon bruessoworum , & , 2014
Rhampholeon chapmanorum , 1992
Rhampholeon gorongosae , 1971
Rhampholeon hattinghi & , 2015
Marshalls Erdchamäleon (Rhampholeon marshalli , 1906)
Rhampholeon maspictus , & , 2014
Rhampholeon moyeri , & , 2002
Rhampholeon nchisiensis (, 1953)
Rhampholeon nebulauctor , & , 2014
Rhampholeon platyceps , 1893
Erdchamäleon (Rhampholeon spectrum (, 1874))
Rhampholeon spinosus (, 1892)
Rhampholeon temporalis (, 1892)
Rhampholeon tilburyi , & , 2014
Rhampholeon uluguruensis & , 1996
Rhampholeon viridis & , 2006
Gattung Rieppeleon , & , 2004
Rieppeleon brachyurus (, 1893)
Rieppeleon brevicaudatus (, 1892)
Rieppeleon kerstenii (, 1868)
Rieppeleon robecchii (, 1891)
Gattung Trioceros , 1839
Trioceros affinis (, 1845)
Trioceros balebicornutus (, 1998)
Streifenchamäleon (Trioceros bitaeniatus (, 1884))
Trioceros camerunensis (, 1909)
Trioceros chapini (, 1964)
Trioceros conirostratus (, 1998)
Kammchamäleon (Trioceros cristatus (, 1837))
Usambara-Dreihornchamäleon (Trioceros deremensis (, 1892))
Trioceros eisentrauti (, 1968)
Trioceros ellioti (, 1895)
Trioceros feae (, 1906)
Poroto-Dreihornchamäleon (Trioceros fuelleborni (, 1900))
Trioceros goetzei (, 1899)
Trioceros hanangensis & , 2010
Trioceros harennae (, 1995)
Helmchamäleon (Trioceros hoehnelii (, 1891))
Trioceros incornutus (, 1932)
Trioceros ituriensis (, 1919)
Dreihornchamäleon (Trioceros jacksonii (, 1896))
Johnstons Chamäleon (Trioceros johnstoni (, 1901))
Trioceros kinangopensis , , , , , & , 2012
Trioceros kinetensis (, 1943)
Seitenstachel-Chamäleon (Trioceros laterispinis (, 1932))
Marsabit-Chamäleon (Trioceros marsabitensis (, 1991))
Elefantenohrchamäleon (Trioceros melleri (, 1865))
Bergchamäleon (Trioceros montium (, 1874))
Trioceros narraioca (, & , 2003)
Trioceros ntunte (, & , 2005)
Trioceros nyirit , , , , , & , 2011
Trioceros oweni (, 1831)
Trioceros perreti ( & , 1992)
Trioceros pfefferi (, 1900)
Vierhornchamäleon (Trioceros quadricornis (, 1899))
Raues Bergchamäleon (Trioceros rudis (, 1906))
Trioceros schoutedeni (, 1952)
Trioceros schubotzi (, 1912)
Trioceros serratus (, 1922)
Trioceros sternfeldi (, 1963)
Trioceros tempeli (, 1899)
Trioceros werneri (, 1899)
Trioceros wiedersheimi (, 1910)
Symbolische und mythologische Bedeutung
Sprichwörtlich ist das Chamäleon als Begriff für Personen geworden, die es verstehen sich jeder Umgebung anzupassen. Dieser Begriff kann sowohl positiv als auch negativ besetzt werden. In einigen Kulturen steht das Chamäleon für die Zeit, da seine Augen mit der Fähigkeit nach hinten, seitlich und nach vorn gleichzeitig zu blicken, als Symbol für die Einheit von Vergangenheit, Gegenwart und Zukunft gelten.
Besonders in der Mythologie Afrikas spielt das Chamäleon eine sehr große Rolle. Genau wie dem schlauen Fuchs oder der diebischen Elster werden den Chamäleons auch spezielle Eigenschaften angerechnet:
Ein Aspekt ist der Zusammenhang mit dem Tod. Demnach war das Chamäleon der Überbringer einer Botschaft von den Göttern. Diese beschrieben darin die Unsterblichkeit des Menschen. Nachdem sie dem Chamäleon den Auftrag erteilt hatten, machte dieses sich sofort auf den Weg. Allerdings war es nicht besonders schnell, trödelte und verbrauchte viel Zeit mit Fressen. Da wurden die Götter ärgerlich und beauftragten einen Vogel. In seiner Botschaft stand jetzt jedoch die Sterblichkeit des Menschen. Die Menschen bekamen die Botschaft und glauben dem später eintreffenden Chamäleon kein Wort über die Unsterblichkeit mehr. Die einen sagen, wäre das Chamäleon schneller gewesen, wären die Menschen jetzt unsterblich. Daher hassen viele Ureinwohner Afrikas das Tier. Allerdings gibt es auch Stämme, die dem Chamäleon verzeihen, da es sowieso ein langsames Tier ist.
Eine andere Eigenschaft, die dem Tier nachgesagt wird, sind magische Heilkräfte. Hierbei werden Chamäleons erkrankten Menschen auf den Kopf gesetzt und dann abgewartet, wie der Patient reagiert. Aus den Reaktionen wird dann die Diagnose erstellt. Einen weiteren Heilungserfolg verspricht man sich aus getrockneten Chamäleons, die zu Pulver verrieben mittels einer Suppe eingenommen werden.
Der letzte Aspekt sind Unheil bringende Kräfte. Einige Ethnien gehen den Chamäleons aus dem Weg, weil sie Unglück fürchten. Ein weiterer Mythos besagt, dass Frauen keine Chamäleons anschauen sollten, da sie sonst niemand heiraten wird.
Literatur
Mark Carwardine: Extreme der Natur. G und J/RBA, Hamburg 2006, ISBN 3-937606-57-2.
Frank Glaw, Miguel Vences: A Field Guide to the Amphibians and Reptiles of Madagascar. Including Mammals and Freshwater Fish. 2. Auflage. Vences & Glaw, Köln 1994, ISBN 3-929449-01-3.
Friedrich Wilhelm Henkel, Sebastian Heinecke: Chamäleons im Terrarium. Landbuch-Verlag, Hannover 1993, ISBN 3-7842-0493-7.
Charles J. J. Klaver, Wolfgang Böhme: Chamaeleonidae (= Das Tierreich. Teilbd. 112). Walter de Gruyter & Co., Berlin u. a. 1997, ISBN 3-11-015187-1.
Ingo Kober, Andreas Ochsenbein: Jemenchamäleon und Pantherchamäleon. Pflege, Fortpflanzung und Lebensweise. Kirschner & Seufer Verlag, Karlsruhe 2006, ISBN 3-9808264-2-2.
Petr Nečas: Chamäleons. Bunte Juwelen der Natur. 3. verbesserte und überarbeitete Auflage. Edition Chimaira, Frankfurt am Main 2004, ISBN 3-930612-02-X.
Petr Nečas, Wolfgang Schmidt: Stummelschwanzchamäleons. Miniaturdrachen des Regenwaldes. Die Gattungen Brookesia und Rhampholeon. Edition Chimaira, Frankfurt am Main 2004, ISBN 3-930612-48-8.
Wolfgang Schmidt, Klaus Tamm, Erich Wallikewitz: Chamäleons. Drachen unserer Zeit. 5., vollständig überarbeitete und erweiterte Auflage. Natur-und-Tier-Verlag, Münster 2010, ISBN 978-3-86659-133-2.
Einzelnachweise
Weblinks
Arbeitsgemeinschaft Chamäleons
Tarnung
Wikipedia:Artikel mit Video
|
Q37686
| 93.510306 |
9544
|
https://de.wikipedia.org/wiki/Sukkulente
|
Sukkulente
|
Sukkulenten (Einzahl die Sukkulente, von lateinisch sucus für ‚Saft‘ bzw. suculentus für ‚saftreich‘) sind saftreiche Pflanzen, die an besondere Klima- und Bodenverhältnisse angepasst sind. Je nach dem Pflanzenorgan, das zur Wasserspeicherung umgebildet ist, wird zwischen Blatt-, Stamm- und Wurzelsukkulenten unterschieden, wobei alle Kombinationen möglich sind. Im Bereich der Anatomie wird flüssigkeitsreiches Gewebe als sukkulent bezeichnet.
Obwohl Kakteen nur einen sehr kleinen Teil aller existierenden Sukkulenten ausmachen, gelten sie als die bekanntesten Vertreter der sukkulenten Pflanzen. Im Sprachgebrauch wird deshalb zwischen Kakteen und „anderen“ Sukkulenten unterschieden.
Wegen der bei den einzelnen Arten sehr unterschiedlich ausgeprägten Sukkulenz ist eine genaue Trennung zwischen sukkulenten und nicht sukkulenten Arten manchmal sehr schwierig. Selbst innerhalb einer Art können sukkulente und nicht sukkulente Exemplare vorkommen. An der Grenzlinie liegen sowohl eher krautige oder holzige Pflanzen als auch solche, die in ihrer Rübenwurzel eher Zucker und Stärke als Wasser speichern. Sukkulenten werden gelegentlich auch als Fettpflanzen bezeichnet.
Familien und Gattungen
Pflanzenfamilien und -gattungen, in denen sich Sukkulenten befinden, sind in der folgenden Tabelle aufgeführt. Um die Tabelle übersichtlich und lesbar zu halten, sind alle Familien und Gattungen alphabetisch nach ihrem botanischen Namen aufgeführt und mit den deutschen Trivialnamen der Familien, falls vorhanden, ergänzt. An dieser Stelle unberücksichtigt bleiben die deutschen Gattungsnamen, die Autoren der Taxa sowie Angaben über Synonyme und weitere hierarchische Stufe der biologischen Systematik (wie Unterfamilien), die den einzelnen Artikeln zu entnehmen sind.
Literatur
Einzelnachweise
Weiterführende Literatur
U. Eggli, R. Nyffeler: Living under temporarily arid conditions - succulence as an adaptive strategy. In: Bradleya. Band 27, 2009, S. 13–36.
R. Nyffeler, U. Eggli: An up-to-date familial and suprafamilial classification of succulent plants. In: Bradleya. Band 28, 2010, S. 125–144.
Weblinks
Cactus and succulent plant mall, Deutschsprachige Seite Internet-Knotenpunkt mit tausenden von weiteren Links zu sukkulenten Pflanzen
Fachgesellschaft andere Sukkulenten
Sukkulenten-Sammlung Zürich
Pflanzentyp
|
Q189939
| 151.437942 |
9667
|
https://de.wikipedia.org/wiki/Lugano
|
Lugano
|
( , veraltet Lauis, ) ist eine Stadt und politische Gemeinde im Bezirk Lugano des Schweizer Kantons Tessin. Sie liegt im Sottoceneri und ist die grösste politische Gemeinde des Kantons. Sie ist in die Kreise Lugano West, Lugano Ost und seit 2013 auch Lugano Nord gegliedert.
Die Stadt ist nach Zürich und Genf der drittgrösste Finanzplatz der Schweiz. Seit den Eingemeindungen von Pregassona (2004), dann Barbengo, Carabbia und Villa Luganese im Jahr 2008 und von Bogno, Cadro, Carona, Certara, Cimadera, Sonvico und Val Colla im Jahr 2013 ist Lugano flächenmässig die siebtgrösste Schweizer Stadt, belegt den neunten Platz hinsichtlich der Einwohnerzahl und den zehnten Platz bezüglich der vorhandenen Arbeitsplätze. In der Agglomeration der Stadt leben rund 150'000 Menschen.
Die Buchstaben LVGA im Wappen stehen für die Anfangsbuchstaben des Ortsnamens. Die Stadt ist die grösste italienischsprachige politische Gemeinde ausserhalb Italiens.
Lage
Der Ort liegt im Süden des Bezirks Lugano und des Kantons an der Mündung des Flusses Cassarate in den Luganersee. Lugano zieht als Universitäts-, Kongress- und Kulturstadt (vor allem zwischen Frühjahr und Herbst) zahlreiche Besucher aus Italien und von jenseits der Alpen an.
In der vom Schweizer Bundesamt für Statistik definierten statistischen Raumkategorie wurde Lugano der Metropolregion Tessin zugerechnet, die neu zum multipolaren Agglomerationssystem herabgestuft wurde. Dieses umfasst mehrere Agglomerationen des Tessins und der Lombardei mit insgesamt über 500'000 Einwohnern. Es ist mit Como-Chiasso-Mendrisio Nachbaragglomeration der Metropolregion Mailand (Grande Milano) mit rund 7,5 Millionen Einwohnern. Das Zentrum Mailands ist mit dem Auto und der Bahn in zirka einer Stunde erreichbar.
Geographie
Lugano liegt am Luganersee (italienisch Lago di Lugano, in Italien Lago Ceresio) und ist umgeben von den drei Aussichtsbergen Monte Brè () im Osten, Monte San Salvatore () im Westen und dem Sighignola () (am gegenüberliegenden Seeufer), dessen Gipfel Balcone d’Italia bereits auf italienischem Boden liegt.
Die Nachbargemeinden sind Arogno, Melide, Morcote, Vico Morcote, Grancia, Collina d’Oro, Sorengo, Muzzano, Bioggio, Massagno, Savosa, Porza, Vezia, Canobbio, Capriasca und Ponte Capriasca sowie auf italienischem Territorium Valsolda, Campione d’Italia, Alta Valle Intelvi und Brusimpiano.
Klima
Mit einer Jahresmitteltemperatur von 13,0 °C für die Normalperiode 1991–2020 ist Lugano die wärmste Station im Messnetz von MeteoSchweiz. Im Januar werden dabei mit 3,8 °C die kältesten und im Juli mit 22,6 °C die wärmsten Monatsmitteltemperaturen gemessen. Im Mittel sind hier rund 22 Frosttage und jedes zweite Jahr ein Eistag zu erwarten; 1947 gab es 11 Eistage, hingegen gab es zwischen 1964 und 1979 keinen einzigen Eistag. Sommertage gibt es im Jahresmittel rund 75, während normalerweise 11 bis 12 Hitzetage zu verzeichnen sind. Die Messstation liegt auf einer Höhe von
Stadtquartiere
Die Quartiere 1 bis 9 sind die alten Stadtquartiere, die schon vor der grossen Eingemeindung von 2004 zur Stadt gehörten. Bei den Quartieren 11 bis 18 handelt es sich um die Gebiete der 2004 mit Lugano fusionierten Gemeinden. Die Quartiere 19 bis 21 kamen durch die Eingemeindung des Jahres 2008, die Quartiere 22 bis 25 durch die Eingemeindung des Jahres 2013 hinzu.
Geschichte
Allgemeine Geschichte
Aufgrund einiger Bodenfunde und im Raum Lugano aufgefundener Grabinschriften ist anzunehmen, dass das Gebiet um Lugano von Lepontiern besiedelt war. Die Anwesenheit der Römer rund um den Luganersee ist ab dem 1. Jahrhundert v. Chr. belegt; sie hatten nördlich des Sees in Bioggio zumindest ein wichtiges Zentrum.
804, 844 (Kopie um 1300), 854 (Kopie um 1300) und 875 wird Lugano erstmals urkundlich erwähnt; die Namensformen lauteten erst Luanasco, dann Luano. Die Bedeutung des Namens ist unsicher, womöglich geht er auf lateinisch lūcus «Hain, Wald» zurück.
Im Mittelalter war Lugano jahrhundertelang von Konflikten zwischen Como und Mailand betroffen, da diese oft auf Schlachtfeldern ausgetragen wurden, die auf dem Gebiet des heutigen Kantons Tessin liegen. In der zweiten Hälfte des vierzehnten Jahrhunderts gelangte die Stadt unter die Herrschaft der Mailänder Visconti. Später wurde sie von französischen Söldnern besetzt, die 1513 ihrerseits von den Eidgenossen vertrieben wurden; seither stand Lugano unter eidgenössischer Herrschaft.
Mit dem Einrücken französischer Revolutionstruppen 1798 in das Gebiet der Eidgenossenschaft endete der Untertanenstatus des Tessins, und Lugano wurde für einige Jahre zum Hauptort des Kantons Lugano der Helvetischen Republik. 1803 kam Lugano zum Kanton Tessin, dessen Hauptort bis 1878 alle sechs Jahre zwischen Bellinzona, Locarno und Lugano wechselte.
Entwicklung des Stadtgebiets
1972 wurden die früheren Gemeinden Brè-Aldesago und Castagnola in die Stadt Lugano eingegliedert.
2004 fusionierten acht weitere Gemeinden mit der Stadt Lugano: Breganzona, Cureggia, Davesco-Soragno, Gandria, Pambio-Noranco, Pazzallo, Pregassona und Viganello. Dadurch vergrösserte sich sowohl die Fläche als auch die Bevölkerung von Lugano erheblich.
Am 30. September 2007 stimmten die Stimmbürger von Barbengo, Carabbia und Villa Luganese sowie von Lugano der Eingemeindung dieser drei Gemeinden zu. Die Stimmberechtigten der Gemeinde Cadro hingegen lehnten die Fusion ab, weshalb Villa Luganese zu einer Exklave der Stadt Lugano wurde. Die Eingemeindung wurde am 20. April 2008 vollzogen.
Per 14. April 2013 wurden die Gemeinden Bogno, Cadro, Carona, Certara, Cimadera, Sonvico und Val Colla mit Lugano fusioniert, wodurch die Stadt rund 3400 zusätzliche Einwohner erhielt.
Aufgrund der durch See und Berge beengten Verhältnisse im Stadtgebiet spielt sich die wirtschaftliche Entwicklung heute hauptsächlich ausserhalb der Gemeindegrenzen in der Vedeggio-Talebene ab.
Bevölkerung
Sprachen
Amtssprache ist Italienisch. Der Tessiner Dialekt (Ticinées), eine Varietät des zum Arealtypus Norditalienisch oder Padanisch gehörenden Lombardischen, ist auf dem Rückzug; Urbanisierung, Binnenmigration und Tourismus werden als Ursachen angesehen.
Im Jahr 2014 gaben 87,6 % Italienisch, 9,7 % Deutsch, 6,1 % Englisch und 5,8 % Französisch als Hauptsprache an (Nennung von mehr als einer Hauptsprache möglich).
In den Tessiner Schulen wird als erste Fremdsprache Französisch und als zweite Deutsch unterrichtet.
Religionen – Konfessionen
Die Religionen in Lugano verteilten sich 2014 wie folgt:
römisch-katholisch: 65,5 % (68 %)
konfessionslos: 19,3 % (5 %)
andere christliche Gemeinschaften: 6,7 % (5 %)
evangelisch-reformiert: 2,8 % (5 %)
muslimisch: 2,9 % (4 %)
andere: 2,8 % (14 %)
Politik
Legislative
Die Legislative wird durch den consiglio comunale (Gemeinderat) repräsentiert. Er besteht aus 60 Mitgliedern und wird alle vier Jahre durch das Volk neu gewählt. Sitzverteilung 2021 (in Klammern Resultate von 2016 und 2013): FDP 15 (18-19), Lega 14 (18-18), CVP 9 (9-9), SP 7 (9-9), SVP 5 (3-2), GPS 5 (3-3), Movimento Ticino&Lavoro (MTL) 2, Più Donne 2, FA-PdA 1.
Exekutive
Die Exekutive ist der Stadtrat. Er besteht aus sieben Mitgliedern und wird wie der Gemeinderat alle vier Jahre durch das Volk neu gewählt. Stadträte sind: Stadtpräsident Michele Foletti (Lega), Vizepräsident Roberto Badaracco, Lorenzo Quadri (Lega), Tiziano Galeazzi, Karin Valenzano Rossi, Filippo Lombardi, Cristina Zanini Barzaghi (SP).
Nationalratswahlen
Bei den Schweizer Parlamentswahlen 2019 betrugen die Wähleranteile in Lugano: Lega 20,6 %, FDP 20,3 %, CVP 14,0 %, SP 13,9 %, SVP 13,1 %, Grüne 11,1 %, glp 1,0 %, PdA 0,9 %, Più Donne 0,9 %, LEGA VERDE 0,9 %.
Ortsbürgergemeinde (Patriziat)
Aktive Ortsbürgerfamilien von Lugano
Airoldi, Alleoni, Anastasi, Bariffi, Bellasi, Beretta, Beretta-Piccoli, Bernasconi (zwei Stämme), Bianchi, Bossi, Brentani, Camuzzi, Conti (zwei Stämme), Crivelli, De Carli, De Filippis, De Marchi, Domeniconi, Fioratti, Foppa, Gorini, Laghi, Lepori, Lurati, Luvini, Moroni-Stampa, Morosini, Peri-Morosini, Perlasca, Riva (zwei Stämme), Salmini, Snorghi, Solari, Soldini, Torricelli, Vegezzi, Viglezio
Aktive Ortsbürgerfamilien von Brè-Aldesago
Aprile, Caratti, Danesi, Demarchi, Gianini, Gilardi, Malacrida, Monti, Navoni, Pedrotta, Prati, Raselli, Sabbioni, Sala, Scopazzini, Taddei, Zeppi
Ehemalige Ortsbürgerfamilien von Brè-Aldesago
Gedra, Molinari, Snaghi, Talleri
Sehenswürdigkeiten
Das Stadtbild ist im Inventar der schützenswerten Ortsbilder der Schweiz (ISOS) als schützenswertes Ortsbild der Schweiz von nationaler Bedeutung eingestuft.
Grünanlagen, Promenaden, Hausberge
Sehenswert ist der Parco civico mit seiner üppigen südlichen Vegetation und der Villa Ciani. Westlich des Parks schliesst sich die etappenweise zwischen 1864 und 1920 erstellte Seepromenade an, die bis nach Paradiso führt.
Weitere Attraktionen von Lugano sind die beiden Hausberge Monte San Salvatore und Monte Brè, von denen aus sich ein Panorama über die Stadt, den Luganersee und die Tessiner Berge bietet. Beide Berge sind sowohl per Bahn als auch zu Fuss erreichbar. Am Fusse des Monte Brè liegen das Dorf Gandria und die Villa Favorita.
Stadtzentrum
Die mittelalterliche und frühneuzeitliche Altstadt von Lugano wurde auf der Grundlage des Richtplanes von 1902 zwischen 1910 und 1942 zum grössten Teil abgebrochen oder ausgekernt und durch ein neues Stadtzentrum ersetzt. Von der einstigen Baustruktur existieren deshalb heute nur noch einige Kirchen und vereinzelte Profanbauten. Neben diesen sind vor allem die Flaniermeile Via Nassa und die Piazza della Riforma einen Besuch wert.
Kirchen
Die Kathedrale San Lorenzo ist eine frühmittelalterliche Gründung. Als Pfarrkirche wird sie erstmals 818, als Kollegiatkirche 1078 erwähnt; Kathedrale ist sie seit der Gründung des Bistums Lugano 1888. Der heutige Bau, der noch romanische Mauern integriert, stammt im Wesentlichen aus gotischer Zeit, wurde aber später mehrfach (zuletzt 1905–1910) umgebaut. Die kulissenartig vorgeblendete Schaufassade, ein Meisterwerk der lombardischen Renaissance (sehr wahrscheinlich von Giovanni Antonio Amadeo), wurde 1517 begonnen und gegen Ende des 16. Jahrhunderts fertiggestellt.
Die Pfarrkirche Santa Maria degli Angioli gehörte ursprünglich zu einem Franziskanerkloster und wurde zwischen 1499 und 1515 erbaut. Im Innern findet sich der berühmteste Freskenzyklus der Renaissance in der Schweiz: Die Darstellungen «Kreuzigung Christi», «Das Abendmahl» und «Die Muttergottes mit Kind» wurden von Bernardino Luini gemalt, einem Schüler da Vincis.
Die Kirche San Rocco wurde zwischen 1528 und 1723 erstellt. Im Innern weist sie reiche Scheinarchitektur und Fresken aus dem Barock auf.
Der heutige Bau der Kirche Sant’Antonio Abate stammt aus dem 17. Jahrhundert sowie dem frühen 20. Jahrhundert. Das Innere ist in reicher Barockarchitektur gehalten.
Das Kloster San Giuseppe der Kapuziner-Klarissinen wurde 1747 von Bischof von Como Agostino Maria Neuroni gegründet. In seinem Innern befinden sich Säle mit bemalten Holzdecken und Spiegelgewölben mit illusionistischen Malereien sowie um 1774 gemalte Fresken der Gebrüder Giovanni Antonio und Giuseppe Antonio Torricelli.
Das Kapuzinerkloster Santissima Trinità wurde 1646 gegründet, die spätbarocke Kirche 1654 geweiht. Im Süden des Baugevierts befindet sich die 1976–1979 von Mario Botta geplante, vollständig in den Boden eingegrabene öffentliche Bibliothek Salita dei Frati mit Oberlicht über dem Lesesaal.
Weitere Kirchen im Stadtzentrum sind San Carlo (1640–1661), San Giuseppe (1758–1759) und Santa Maria Immacolata (1852 geweiht, Fassade von 1917).
Palazzi und weitere Gebäude
Von der ehemaligen Altstadt sind nur noch wenige zivile Gebäude erhalten. Deren drei tragen den Namen des Adelsgeschlechts der Riva.
La Piccionaia am Corso Pestalozzi ist ein seltenes Zeugnis eines zivilen Renaissancebaus. Er wurde Ende des 15. Jahrhunderts errichtet.
Der Palazzo Riva an der Via Soave erhielt sein heutiges Gepräge um 1730.
Der Palazzo Riva an der Via Magatti ist eines der bedeutendsten Beispiele spätbarocker ziviler Architektur im Tessin.
Der Palazzo Riva an der Via Pretorio ist ein Spätbarockbau, der 1742–1752 errichtet wurde.
Das Rathaus an der Piazza della Riforma ist ein monumentaler klassizistischer Rechteckbau, der 1843–1844 als Regierungsgebäude erbaut wurde.
Die Villa Ciani im heutigen Parco Civico ist einer der schönsten Wohnsitze des 19. Jahrhunderts im Tessin und zeigt sich in schlichten klassizistischen Formen. An ihrer Stelle stand ursprünglich eine 1517 von den Eidgenossen geschleifte Burg der Mailänder Herzöge.
Von Gebäuden, die im Rahmen der Stadterneuerung errichtet wurden, sind etwa der Palazzo Primavesi (1911–1913, dekorative eklektische Architekturelemente), die Palazzi Gargantini (1912–1930, Neobarock bis Art déco), die Palazzina Alhambra (1926, Neorenaissance), der Palazzo degli Studi (1903–1904, Historismus) und die Kantonsbibliothek (1937–1941, ein Meilenstein der modernen Architektur im Tessin) zu nennen. Eines der wichtigsten Beispiele der Kinoarchitektur der 1950er-Jahre ist das nach Plänen von Rino Tami erbaute Corso.
Nördlich des Stadtzentrums, im Quartier Molino Nuovo, liegt der monumentale, 1897–1899 angelegte Stadtfriedhof mit zahlreichen Grabdenkmälern von herausragender künstlerischer Qualität.
Museen
Museo d’arte della Svizzera italiana (MASILugano). im Kulturzentrum Lugano Arte e Cultura (LAC).
Museo d’arte della Svizzera italiana im Palazzo Reali (ehemals Museo Cantonale d’Arte).
Collezione Giancarlo e Danna Olgiati.
Museo delle Culture, Museum der Kulturen in der Villa Malpensata.
Kantonales naturhistorisches Museum (Museo cantonale di storia naturale).
Schweizerisches Zollmuseum (Museo doganale svizzero) in Cantine di Gandria
Villa Ciani und Park
Villa Favorita und Park im Ortsteil Castagnola
Infrastruktur
Wirtschaft
Tourismus, Finanzen und Handel sind die Hauptpfeiler der Wirtschaft Luganos und sichern insgesamt 27'000 Arbeitsplätze. Weiter verfügt Lugano als eine von sieben Schweizer Städten über ein Casino mit A-Konzession.
Lugano ist das drittgrösste Finanzzentrum der Schweiz. Neben der 1873 gegründeten Banca della Svizzera Italiana BSI SA, der ältesten Bank des Kantons Tessin, haben die Banca Arner, Banca Commerciale Lugano, Banca del Ceresio, Banca del Sempione und die Cornèr Bank ihren Sitz in Lugano. Ihren Sitz in Lugano hatte auch die einst grösste Bank des Kantons Tessin, die Banca del Gottardo. Dazu sind in Lugano neben den beiden Schweizer Grossbanken UBS und Credit Suisse auch zahlreiche weitere Schweizer und internationale Private-Banking-Institute mit Niederlassungen vertreten wie Banque Cramer & Cie SA.
Daneben sind in Lugano auch die Rohstoffhandelsunternehmen Duferco, Filofibra und Interbulk Trading ansässig.
Kultur
Die Gemeinde beherbergt das Studio des Schweizer Radios der italienischen Sprache RSI in Lugano-Besso. und das Orchestra della Svizzera italiana (OSI), das aus dem 1935 gegründeten RSI Orchestra hervorgegangen ist. Lugano ist Sitz verschiedener freier Theatergruppen, die sowohl in Lugano und im Tessin, als auch schweiz- und weltweit aktiv sind, u. a. Teatro Pan, Markus Zohner Theater Compagnie, Teatro Sunil, Teatro delle Radici.
International bekannt ist das seit 1979 veranstaltete Estival Jazz, die grösste Jazz-Veranstaltung Europas.
1956 fand in Lugano unter dem Titel Gran Premio Eurovisione della Canzone Europea die erste Ausgabe des Eurovision Song Contest statt.
Berühmt ist auch das Progetto Martha Argerich unter der Leitung der weltbekannten Pianistin.
Die Schweizerische Nationalphonothek (Fonoteca Nazionale Svizzera), gegründet 1987, befindet sich ebenfalls in Lugano.
Verkehr
Der Bahnhof Lugano liegt an der Eisenbahnlinie Zürich/Basel–Mailand (Gotthardbahn). Es halten hier EuroCity-Züge, Intercity, RegioExpress und die S-Bahn. Nach zweijähriger Bauzeit wurde der renovierte Bahnhof am 11. Dezember 2016 eingeweiht.
Die Stadt liegt an der Autobahn A2 (Basel–Gotthard–Lugano–Chiasso) mit zwei Ausfahrten (Nr. 49 Lugano Nord und Nr. 50 Lugano Süd).
In und um Lugano wurden bis in die zweite Hälfte des 20. Jahrhunderts vier meterspurige Strassenbahnen betrieben, nämlich die Strassenbahn Lugano, die Lugano-Cadro-Dino-Bahn (LCD), die Lugano-Tesserete-Bahn (LT) sowie die Lugano-Ponte-Tresa-Bahn (FLP). Die ersten drei wurden später auf Busbetrieb umgestellt, die FLP hingegen schrittweise zur leistungsfähigen Vorortbahn ausgebaut. Für die Zukunft steht eine unterirdische Einführung in die Innenstadt (unter Aufgabe des jetzigen Endpunkts beim SBB-Bahnhof) zur Debatte.
Innerhalb der Stadt wurden die alten, meist einspurigen Tramstrecken zwischen 1954 und 1959 durch den Trolleybus Lugano ersetzt. In den 1990er-Jahren wurde der Unterhalt der Trolleybusse sowie dessen Infrastruktur zunehmend zurückgefahren. Nachdem das Bundesamt für Verkehr für Teile des Fahrzeugparks nur noch befristete Betriebsbewilligungen gewährt und diverse weitere Auflagen an den Weiterbetrieb des Netzes geknüpft hatte, wurde der Trolleybusbetrieb am 30. Juni 2001 auf Dieselbusse umgestellt und die elektrischen Anlagen demontiert. Im Zusammenhang mit den Umbauplänen der FLP wird auch die Wiedereinführung eines Trambetriebs diskutiert.
Heute betreiben die Trasporti Pubblici Luganesi (TPL) 15 Buslinien innerhalb des Gemeindegebiets von Lugano. Für den innerstädtischen Verkehr wichtig und daher stark frequentiert ist auch die 1886 eröffnete Standseilbahn Lugano–Bahnhof SBB, die seit 2016 auch als Sassellina bezeichnet wird, welche die Piazza Cioccaro in der Altstadt mit dem SBB-Bahnhof verbindet. Nach einer zweijährigen Renovation hat die Standseilbahn am 11. Dezember 2016 ihren Betrieb wieder aufgenommen. Die Bahn überwindet eine Höhendifferenz von 50 Metern und ist die höchstfrequentierte Standseilbahn der Schweiz. Sie wird auch von den TPL betrieben.
Westlich der Stadt liegt der Flughafen Lugano, von dem aus Linienflüge nach Genf und Zürich durchgeführt wurden; gegenwärtig dient er nur noch privatem Flugverkehr. Mit dem Zug ist er durch die Lugano-Ponte-Tresa-Bahn (Linie S60 der S-Bahn Tessin) mit dem Stadtzentrum verbunden, mit dem Auto erreicht man ihn in Richtung Ponte Tresa und über die Anhöhe von Sorengo (Abzweigung zur Collina d’Oro).
Die Società Navigazione del Lago di Lugano (Schifffahrtsgesellschaft des Luganersees) verbindet mehrere innerhalb der Stadt liegende Schiffslandestege und die am Luganersee gelegenen Orte.
Schulen, Hochschulen
In Lugano befindet sich die 1996 gegründete Università della Svizzera italiana mit den Fakultäten Kommunikationswissenschaft, Wirtschaftswissenschaft und Informatik. Zur gleichen Universität gehört auch die Architekturakademie in Mendrisio.
Im Zentrum von Lugano bei der Università della Svizzera italiana steht die Scuola Europea di Studi Avanzati in Oftalmologia (ESASO), eine Weiterbildungseinrichtung für Augenärzte.
Das Franklin College, eine von der Schweiz und den USA anerkannte private Universität, hat seinen Sitz in Lugano. Seine Schwerpunkte liegen in den Fächern Internationale Beziehungen, Wirtschaft sowie Geschichte
Im Lugano-Cornaredo unterhält die ETH das nationale Centro svizzero di calcolo scientifico CSCS
Im Manno befindet sich die Università professionale della Svizzera italiana (SUPSI) und die Scuola superiore di teatro di movimento.
Mit der 1992 gegründeten Theologischen Fakultät Lugano befindet sich auch eine Philosophisch-theologische Hochschule in Lugano; sie dient vorwiegend der Priesterausbildung.
Gesundheitswesen
Das Regionalspital von Lugano (Ospedale Regionale di Lugano, ORLugano) ist aus den beiden Spitälern Ospedale Civico und Ospedale Italiano hervorgegangen.
Ferner befinden sich folgende Kliniken in der Stadt Lugano:
Cardiocentro Ticino (auf Herzerkrankungen spezialisierte Klinik)
Neurocentro della Svizzera italiana
Clinica luganese Moncucco e San Rocco (Privatklinik für akute Pathologie einschliesslich Intensivpflege)
Clinica Viarnetto (private Psychiatrieklinik) im Ortsteil Pregassona
Das Gesundheitswesen im Grossraum Lugano wird zudem durch folgenden Institutionen ergänzt:
Ars Medica Clinic (Privatklinik in Gravesano)
Clinica Sant’Anna (private Geburtsklinik in Sorengo)
Eidgenössische Rehabilitationsklinik (Klinik für Rehabilitation des Bewegungsapparates und des Rückens in Novaggio)
Ospedale Malcantonese (halbprivate Klinik für Allgemeinmedizin und Psychiatrie in Castelrotto)
Sport
Der Eishockeyverein HC Lugano spielt in der höchsten Eishockeyliga der Schweiz, der National League, in der Cornèr Arena. Er ist siebenfacher Schweizer Meister (1986, ’87, ’88, ’90, ’99, 2003, ’06) und damit eine der national erfolgreichsten Eishockey-Mannschaften seit Einführung der Play-offs 1985.
Der Fussballverein FC Lugano spielt seit 2015 wieder in der höchsten Fussballliga der Schweiz im Stadio di Cornaredo. Er wurde drei Mal Schweizer Meister (1938, ’41 und ’49) und vier Mal Schweizer Cupsieger (1931, ’68, ’93 und 2022). Ottmar Hitzfeld spielte von 1978 bis 1980 beim FC Lugano.
Hier gibt es auch Football Club Rapid Lugano. Football Club Femminile Rapid Lugano, Football Club Trevano und F. C. Os Lusiadas.
Lugano war einer von sechs Austragungsorten der Fussball-Weltmeisterschaft 1954, der UCI-Strassen-Weltmeisterschaften 1953 und der 1996.
1863 wurde die Società Federale Ginnastica Lugano gegründet.
Zwischen 1999 und 2010 fand im Tennis-Club Lido Lugano das ATP-Challenger-Turnier statt, das der Schweizer Stan Wawrinka zweimal gewann.
Die Società Nuoto Lugano (SNL), die Luganeser Schwimmervereinigung, wurde im Jahr 1928 gegründet. Ihr Trainingsort befindet sich am Lido di Lugano.
Die am 11. April 1886 gegründete Sektion Tessin des Schweizer Alpen-Clubs (SAC) hat ihren Sitz in Lugano.
Persönlichkeiten
Persönlichkeiten, die in Lugano gewirkt haben
In Lugano geborene Persönlichkeiten
Bildergalerie
Literatur
Geschichte
Mario Agliati: La Lugano del buon tempo. Credito Svizzero, Lugano 1963.
Eligio Pometta, Virgilio Chiesa, Vittorino Maestrini: Storia di Lugano. 2 Bände. Hrsg. von der Società dei commercianti di Lugano. Lugano 1975.
Celestino Trezzini: Lugano. In: Historisch-Biographisches Lexikon der Schweiz, Band 4: Liebegg – Mailand. Attinger, Neuenburg 1927, S. 724–727 (Digitalisat).
Kunstgeschichte
Andreas Hauser: Lugano. In: INSA. Inventar der neueren Schweizer Architektur 1850–1920. Band 6. Orell Füssli, Zürich 1991, ISBN 3-280-02058-1, S. 205–356.
Kunstführer durch die Schweiz. Vollständig neu bearb. Ausgabe. Hrsg. von der Gesellschaft für Schweizerische Kunstgeschichte. Band 2. GSK, Bern 2005, ISBN 3-906131-96-3, S. 695–713.
Simona Martinoli u. a.: Lugano. In: Guida d’arte della Svizzera italiana. Hrsg. von der Gesellschaft für Schweizerische Kunstgeschichte. Edizioni Casagrande, Bellinzona 2007, S. 293–321.
Weblinks
Offizielle Webpräsenz der Gemeinde Lugano
Amt für Statistik des Kantons Tessin: Lugano (italienisch)
Lugano: Kulturgüterinventar des Kantons Tessin
Lugano Monte Brè
Bundesinventar ISOS: Lugano (italienisch)
Bundesinventar ISOS: Cantine di Gandria (italienisch)
Bundesinventar ISOS: Castagnola (italienisch)
Bundesinventar ISOS: Biogno (italienisch)
Bundesinventar ISOS: Brè (italienisch)
Bundesinventar ISOS: Gandria (italienisch)
Bundesinventar ISOS: Gandria, Cantine di (Lugano) (italienisch)
Lugano auf elexikon.ch
Lugano, marzo 1890 (italienisch) auf lanostrastoria.ch/entries/
Lugano, aprile 1890 (italienisch) auf lanostrastoria.ch/entries/
Tramvie Elettriche Comunali, marzo 1948 (italienisch) auf lanostrastoria.ch/entries/
Arte Urbana Lugano Info (italienisch)
Einzelnachweise
Ort im Kanton Tessin
Schweizer Gemeinde
Ortsbild von nationaler Bedeutung im Kanton Tessin
Hochschul- oder Universitätsstadt in der Schweiz
Stadt als Namensgeber für einen Asteroiden
Ersterwähnung 804
Stadtrechtsverleihung 1439
|
Q7024
| 92.12911 |
3307544
|
https://de.wikipedia.org/wiki/Isoleucin
|
Isoleucin
|
Isoleucin, abgekürzt Ile oder I, ist in seiner natürlichen L-Form eine essentielle proteinogene α-Aminosäure.
Da Isoleucin von der Asparaginsäure ableitbar ist, wird es zur Aspartatgruppe gezählt. Es gehört zusammen mit seinen Konstitutionsisomeren Leucin, Norleucin und tert-Leucin zur Stoffgruppe der Leucine.
Geschichte
1901 äußerte der spätere Nobelpreisträger Emil Fischer die Vermutung, dass in der von ihm isolierten Leucinfraktion neben Leucin eine „gleich zusammengesetzte, aber stärker drehende Aminosäure enthalten ist“. Tatsächlich konnte der deutsche Chemiker Felix Ehrlich 1903 aus der Melasse von Rübenzucker eine zu Leucin isomere Verbindung isolieren, als Isoleucin. Die Konstitution erkannte Felix Ehrlich 1907 durch weitergehende Untersuchung.
Vorkommen
Isoleucin ist peptidisch gebunden Bestandteil tierischer und pflanzlicher Proteine. Die folgenden Beispiele beziehen sich jeweils auf 100 g des Lebensmittels, zusätzlich ist der prozentuale Anteil von Isoleucin am Gesamtprotein angegeben.
Alle diese Nahrungsmittel enthalten praktisch ausschließlich chemisch gebundenes L-Isoleucin als Proteinbestandteil, jedoch in rohem Zustand kein freies L-Isoleucin.
Stereoisomerie
Isoleucin besitzt zwei Stereozentren, somit existieren vier Stereoisomere; in unserer Umwelt spielt jedoch nur das L-Isoleucin als proteinogene Aminosäure eine Rolle und ist physiologisch bedeutsam. Wenn von „Isoleucin“ ohne weiteren Namenszusatz (Deskriptor) gesprochen wird, ist gemeinhin L-Isoleucin gemeint.
Enantiomer zum natürlichen L-Isoleucin ist das D-Isoleucin. L-allo-Isoleucin und dessen Enantiomer D-allo-Isoleucin sind Diastereomere von L-Isoleucin.
Eigenschaften
Isoleucin liegt am isoelektrischen Punkt (einem bestimmten pH-Wert) als Zwitterion (inneres Salz) vor, wobei das Proton der Carboxygruppe (–COOH) abdissoziiert ist und die Aminogruppe (–NH2) protoniert.
Seitenkette: lipophil
isoelektrischer Punkt: 5,94
Van-der-Waals-Volumen: 124
Lipidlöslichkeit: LogP = 4,5
Biochemische Bedeutung
Einerseits wird Isoleucin als Baustein für den Proteinaufbau benötigt. Andererseits kann es auch zur Energiegewinnung in Muskelzellen dienen. Das spielt bei proteinreicher Kost eine Rolle oder aber bei längeren Anstrengungen und in Hungerphasen, wenn der Körper auf eigene Reserven zurückgreift. Der Abbau von Isoleucin liefert Acetyl-CoA und Propionyl-CoA.
Die Einschätzungen des Tagesbedarfs für gesunde Erwachsene reichen, je nach verwendeter Methode, von 7,5 bis 28 mg Isoleucin pro Kilogramm Körpergewicht. Im menschlichen Organismus kommt Isoleucin fast nur in gebundenem Zustand vor. Die Konzentration von freiem Isoleucin im Blut beträgt rund 7 mg/l, über den Urin werden pro Tag 10 bis 15 mg ausgeschieden.
Gewinnung
Die vorwiegende Gewinnungsmethode sind Fermentationsprozesse, bei denen glukosehaltige Lösungen mit Zusatz von L-Threonin durch L-Isoleucin produzierende Mikroorganismen umgesetzt werden.
Hingegen erhält man durch Hydrolyse von Proteinen und nachfolgende Trennoperationen der Hydrolysate zunächst ein Gemisch der natürlichen Aminosäuren L-Leucin und L-Isoleucin. Diese Konstitutionsisomere lassen sich dann z. B. nach einem enzymatischen Verfahren trennen.
Verwendung
Als Bestandteil von Aminosäure-Infusionslösungen zur parenteralen Ernährung findet L-Isoleucin, neben anderen Aminosäuren, breite Anwendung in der Humanmedizin. Für Patienten mit gestörter Verdauung wurde eine oral anzuwendende „chemisch definierte Diät“ entwickelt, die L-Isoleucin enthält. In dieser Diät bilden die Aminosäuren die Stickstoffquelle; alle lebensnotwendigen Nährstoffe liegen in chemisch genau definierter Form vor.
Weblinks
Einzelnachweise
Proteinogene Aminosäure
Arzneistoff
Alpha-Aminosäure
Aromastoff
Futtermittelzusatzstoff (EU)
|
Q484940
| 99.412808 |
63635
|
https://de.wikipedia.org/wiki/Filmschnitt
|
Filmschnitt
|
Filmschnitt, oft auch synonym als Filmmontage, als Montage oder als Schnitt bezeichnet, ist die Auswahl, Bearbeitung und Strukturierung des aufgenommenen Bild- und Tonmaterials, um dem Film seine endgültige Form zu geben.
Die Begriffe Filmschnitt und Filmmontage werden in der Fachliteratur durchaus differenziert benutzt, im allgemeinen Sprachgebrauch aber als gleichbedeutend empfunden. Das Wort „Schnitt“ hat seinen Ursprung im handwerklichen Auftrennen von physischem Filmmaterial, während „Montage“ eher den kompositorischen Aspekt der Tätigkeit betont: die Anordnung und Zusammenführung des ausgewählten Materials. Der entsprechende englische Begriff ist film editing und die Berufsbezeichnung der ausführenden Kreativen lautet inzwischen auch in den deutschsprachigen Ländern: „Filmeditor“. Damit rückt sprachlich ein weiterer Aspekt der Tätigkeit in den Mittelpunkt: Das Redigieren und Verfeinern des Filmwerkes, bis es inhaltlich und formal zur Veröffentlichung bereit ist.
Der Filmschnitt ist ein wichtiger kreativer Teil des Filmschaffens, der einen bedeutenden Anteil an der Wirkung des fertigen Filmes hat. Und er ist zudem eine Kunstform, die – anders als etwa die Kameraarbeit oder das Szenenbild – ausschließlich dem Filmemachen eigen ist, auch wenn es Parallelen in anderen Kunstgattungen wie der Literatur gibt.
Geschichte
Die ersten, ab etwa 1895 entstandenen und gezeigten Filmaufnahmen waren noch zwischen 30 und 60 Sekunden lang und bestanden aus einer einzigen statischen Kameraeinstellung, der Effekt war der eines sich bewegenden Fotos: der Zuschauer sah beim Abspielen, was die statische Kamera „gesehen“ hatte, bis das Filmmaterial zu Ende war.
Ende der 1890er Jahre experimentierten einige Filmemacher bereits mit ersten Möglichkeiten des Filmschnitts. Der Franzose Georges Méliès wandte in einigen seiner ersten fiktionalen Filme das Stoptrickverfahren an, dessen Effekt er durch das nachträgliche Schneiden des Films optimierte.
Die Verwendung von Filmschnitt zum Erzeugen von „Continuity“, einer fortlaufenden Handlung, die in mehreren Sequenzen erzählt wird, wird allgemein dem britischen Filmpionier Robert W. Paul zugeschrieben. Sein Film Come along, Do! war einer der ersten, die aus mehreren Sequenzen oder Einstellungen bestanden. Weitere Pioniere waren die Mitglieder der Brighton School George Albert Smith und James Williamson, deren Filme wie Stop Thief! und Fire! bereits um 1900 aus vielen per Filmschnitt zusammengefügten Sequenzen bestanden und bis zu 5 Minuten lang waren. Von Edwin Porter stammt der erste US-amerikanische Film mit Filmschnitt und einer Handlung (Life of an American Fireman von 1903) – sein Film The Great Train Robbery von 1903 bestand bereits aus zwanzig verschiedenen Einstellungen und spielte an zehn verschiedenen Innen- und Außenmotiven.
Um diese Zeit wurden einige für das Filmemachen grundlegende Techniken entdeckt und weiterentwickelt. Der Filmschnitt als Montagetechnik ermöglichte die Neuschöpfung eines erzählerischen Ganzen aus Einzelteilen, die an unterschiedlichen Orten zu unterschiedlichen Zeiten und aus unterschiedlichen Perspektiven aufgenommen werden konnten. Damit erst hat der Film begonnen, sich als eigenständige Kunstform zu etablieren und sich von den älteren Künsten wie Theater und Photographie und deren Konventionen zu lösen.
Mit der Einführung des Filmschnitts als Bestandteil jeder Filmproduktion etablierte sich der überlappende Schnitt als wesentliches Merkmal eines frühen Stummfilms mit fiktiver Handlung. Im damaligen Verständnis der Filmregisseure sollte dieser den Zusammenhang zwischen den Szenen verdeutlichen und die Orientierung erleichtern. Zudem sollten besonders wichtig erscheinende Ereignisse auf diese Weise betont werden. Der Schnitt zwischen den Einstellungen erfolgte zudem häufig mit Überblendungen.
Technische Grundlagen
Über lange Zeit war der Filmschnitt ein mechanischer Vorgang an einem sogenannten Schneidetisch mit Zelluloid als Trägermaterial. Das belichtete Filmmaterial, das Kameranegativ, musste dafür zunächst in einem Kopierwerk entwickelt werden. In den Schneideraum wurde dann eine positive „Musterkopie“ geliefert, die zum Auswählen (Ausmustern) der geeigneten Einstellungen diente. Die fügte ein Schnittmeister nach Absprache mit der Regie zu einer finalen Bild- und Szenenfolge zusammen. Diesen aus der Musterkopie zusammengesetzten Film mit seinen unzähligen Schnitt- und Klebestellen nannte man „Schnittkopie“.
Nach der Feinschnittabnahme durch den Produzenten kam die Schnittkopie zurück ins Kopierwerk. Auf dieser Basis wurde dann ein bildgenauer Nach-Schnitt des Negativmaterials hergestellt. Beim Identifizieren der Schnittstellen in Positiv und Negativ halfen sogenannte „Randnummern“ an den Rändern des Negativ- wie Positivmaterials. Das final geschnittene Negativ verblieb im Kopierwerk und diente als Vorlage für die Herstellung von Projektionskopien. Für die Vorbereitung zur Tonmischung oblag es dem Schnittmeister auch, die Tonträger (seinerzeit ebenfalls auf Zelluloid) zusammenzustellen.
Die Möglichkeiten des digitalen Videoschnitts haben diesen Prozess grundlegend verändert.
Wenn noch auf Filmmaterial gedreht wird, wird das belichtete Negativ entwickelt, digitalisiert und in einen digitalen Offline-Schnittplatz eingeladen. Wenn schon das Aufnahmemedium digital ist, werden die Originalaufnahmen kopiert und auf ein kleineres Datenformat heruntergerechnet, um die Datenmengen für den Schnitt niedrig zu halten.
Der digitale Schnittplatz – weitverbreitete Systeme sind Avid und Final Cut Pro – ist in der Lage, alle Bildsequenzen nach Maßgabe von Filmeditor und Regisseur zu einer gewünschten Szenenfolge aneinanderzufügen. Am digitalen Schnittplatz können deutlich mehr Arbeitsschritte vorgenommen werden als zuvor: Ton und Musik können parallel zu den Bildern angelegt und geschnitten werden. Einfache Effekte wie Slow Motions oder Farbkorrekturen können getestet werden. Anders als der analoge Schnittplatz, an dem ausschließlich das Schneiden und Zusammenfügen von Bildmaterial möglich war, ist der digitale Schnittplatz zum zentralen Arbeitsplatz geworden, an dem sämtliche Arbeitsschritte einer klassischen Filmendbearbeitung vorbereitet werden können.
Hat man die Bildsequenzen zu einem kompletten Film zusammengefügt, werden die digitalen Schnitt-Daten als Edit Decision List (EDL) ausgegeben, in der alle Schnittstellen aufgelistet sind – das Pendant zur analogen „Schnittkopie“. Auf deren Basis werden sämtliche weiteren Finalisierungsschritte vorgenommen. Ist das gewünschte Endergebnis ein Film-Negativ, dann wird auf der Basis der EDL ein Negativ-Master erstellt.
Schnitt-Theorie
Die Arbeit des Filmschneidens ist ein schöpferischer Vorgang. Er besteht, nach dem Auswählen der geeignetsten Einstellungen, in der Schaffung einer dramaturgisch konzipierten und dem Zuschauer vermittelbaren Kontinuität. Der für den Filmschnitt verantwortliche Filmeditor arbeitet zwar grundsätzlich nach Maßgabe der Regie (oder des Redakteurs), trägt jedoch durch seine handwerklichen und kreativen Fähigkeiten zur endgültigen Erzählform des filmischen Produkts in entscheidender Weise bei. Das Können eines Editors hat großen Einfluss auf Inhalt und Wirkung der Bilder und Töne im Gesamtwerk. Schon kleine Änderungen im Schnitt können die Aussage, den Rhythmus und die Struktur eines Filmes deutlich verändern.
Schnitt-Techniken
Kameraschnitt
Beim Kameraschnitt wird die Kamera nach jeder Einstellung angehalten bzw. in einen Pausenmodus gestellt und zur Aufnahme der nächsten Einstellung wieder angestellt, so dass ein mechanischer Schnitt im eigentlichen Sinne nicht nötig ist. Diese Technik ist bei den mit Filmmaterial bestückten Kameras eher möglich als bei Digitalkameras mit Chip-Speichermedien, da diese meist jede Aufnahme als gesonderte Datei abspeichern.
Blende
Wechsel der Filmszenen durch Ein- und Ausblenden
Überblende
Die Überblende ( lap dissolve) ist eine Filmschnitttechnik, die im Gegensatz zum harten Schnitt steht. Hierbei wird das alte Bild langsam ausgeblendet und das neue Bild gleichzeitig eingeblendet. Dadurch entsteht ein fließender Übergang zwischen beiden, was häufig verwendet wird, um zwei zeitlich oder räumlich weit voneinander entfernte Szenen zu suggerieren.
Wischblende
Die Wischblende ( wipe) ist eine Filmschnitttechnik, bei welcher das alte Bild vom neuen Bild kontinuierlich überblendet bzw. ersetzt wird. Dies kann in vielfacher Art geschehen, z. B. auch horizontal, vertikal, diagonal, sternförmig oder im Uhrzeigersinn. Diese Schnitttechnik wird verwendet, um eine gleichzeitige Handlung an verschiedenen Orten darzustellen. Diese Technik wird in modernen Filmen nur noch selten verwendet, am bekanntesten dürfte die Verwendung von Wischblenden in den Filmen der Reihe Star Wars sein.
Auf- und Abblenden
Siehe Hauptartikel: Auf- und Abblenden
Trickblende
Siehe Hauptartikel: Trickblende
Akustische Klammer
Bei dieser Methode werden zwei Einstellungen oder Szenen durch den filmischen Ton unterstützt. In den meisten Fällen wird dies durch den Soundtrack oder andere musikalische Beiträge bewerkstelligt; nicht selten wird aber auch das Stilmittel der vorgezogenen Soundeffekte und Dialogteile verwendet. Das heißt, man hört z. B. schon eine Person reden, obwohl sich erst im Szenenwechsel klärt, dass dies zu einem anderen (späteren) Zeitpunkt oder an einem anderen Ort geschieht. Diese Technik des vorgezogenen Wechsels der Tonspur wurde erstmals 1931 von Fritz Lang in M eingesetzt.
Gängig ist auch der umgekehrte Weg, um beispielsweise von der Planung einer Aktion zu deren Durchführung zu schneiden, während die Tonspur mit der Erläuterung des Plans fortfährt. In Monty Pythons Komödie Das Leben des Brian wird die Entführung von Pontius Pilatus’ Frau auf diese Weise umgesetzt. Allerdings scheitert der Coup, was so in der Planung nicht vorgesehen war und damit dieser Erzähltechnik eine interessante Wendung gibt.
Andere Techniken
Schuss-Gegenschuss
Match Cut
Jump Cut
Parallelmontage
Plansequenz
Split Screen
Unsichtbarer Schnitt
Cut In, Cut Out
Siehe auch
Videoschnitt
Mise-en-scène
Literatur
Michaela S. Ast: Geschichte der narrativen Filmmontage. Theoretische Grundlagen und ausgewählte Beispiele. Tectum Verlag, Marburg 2002.
Hans Beller (Hrsg.): Handbuch der Filmmontage. Praxis und Prinzipien des Filmschnitts. UVK, Konstanz 2005, ISBN 978-3-89669-689-2.
Hans Beller: Onscreen/Offscreen. Hatje Cantz Verlag, 2000.
Hans-Peter Gumprecht: Ruhe bitte! Aufnahmeleitung bei Film und Fernsehen. UVK, Konstanz 2002, ISBN 3-89669-380-8.
Jürgen Kühnel: Einführung in die Filmanalyse. Teil 1: Die Zeichen des Films. Universitätsverlag Siegen, 3. Auflage, Siegen 2008, ISBN 3-93653313-X, (Mises en chaîne. Formen und Funktionen der Montage im Spielfilm. S. 209–279.)
Walter Murch: Ein Lidschlag, ein Schnitt. Die Kunst der Filmmontage. Alexander Verlag, Berlin, 4. Auflage 2014, ISBN 978-3-89581-109-8.
Eberhard Nuffer: Filmschnitt und Schneidetisch. Eine Zeitreise durch die klassische Montagetechnologie. (= Reihe Weltwunder der Kinematographie. Beiträge zu einer Kulturgeschichte der Filmtechnik, 7.) Polzer, Potsdam 2003, ISBN 3-934535-24-0.
Paul Read: A Short History of Cinema Film Post-Production 1896–2006. In Zur Geschichte des Filmkopierwerks. On Film Lab History. Reihe: Weltwunder der Kinematographie. Beiträge zu einer Kulturgeschichte der Filmtechnik, 8. Polzer, Potsdam 2006, ISBN 3-934535-26-7, (zweisprachig)
Gabriele Voss: Schnitte in Raum und Zeit. Notizen und Gespräche zu Filmmontage und Dramaturgie. (= Texte zum Dokumentarfilm Band 10). Verlag Vorwerk 8, Berlin 2006, ISBN 3-930916-75-4.
DVD
Gabriele Voss: Film: Schnitte in Raum und Zeit. Zusätzliche Interviews. Verlag Vorwerk 8, Berlin 2006.
Weblinks
Textsammlung zum Filmschnitt stetig wachsende Datenbank bei drippink
Montage – Das große Geheimnis. Essay von Gerhard Schumm in Schnitt Nr. 33
Montage und Filmsichtung. Gerhard Schumm, Professor des Studiengangs Montage an der HFF Potsdam-Babelsberg, über die Bedeutung der Filmsichtung als studentische Lernerfahrung.
Berufsbild Filmeditor vom Bundesverband Filmschnitt Editor e. V. (BFS)
Berufsbild Filmeditor und weiterführende Informationen zum Schnitt vom Österreichischen Verband Filmschnitt (aea)
Literaturliste Schnitt aus der Internet-Zeitschrift Medienwissenschaft / Kiel: Berichte und Papiere
Literaturliste, Werkstattgespräche und theoretische Texte zur Montagetheorie von Gerhard Schumm
Filmräume als Freiräume. Über den Spielraum der Filmmontage Text von Hans Beller
Einzelnachweise
Postproduktion
Filmgestaltung
Filmwissenschaft
|
Q237893
| 340.076521 |
3436525
|
https://de.wikipedia.org/wiki/Esperanto-Wikipedia
|
Esperanto-Wikipedia
|
Die Esperanto-Wikipedia wurde am 15. November 2001 von dem US-Amerikaner Chuck Smith als 11. Sprachversion der Online-Enzyklopädie ins Leben gerufen. Im Juni 2008 überschritt sie die Marke von 100.000, im August 2014 die von 200.000 Artikeln, und im Juli 2021 300.000. Damit gehört sie zu den eher größeren Wikipedias. Auf Esperanto heißt die Wikipedia Vikipedio.
Internes und Besonderes
Wie bei anderen nichtnationalen oder auch bei den plurizentrischen Sprachen gibt es kein Land, auf das die Sprachversion besonderen Bezug hätte. Von den 186 registrierten Benutzern, die Esperanto mindestens auf Niveau eo-3 sprachen und auf der Benutzerseite ihre Muttersprache angegeben haben, nannten 38 (ein Fünftel) das Englische, 35 das Deutsche. Danach kamen Französisch, Niederländisch, Russisch und Spanisch (Stand: März 2008). Unter den registrierten Benutzern der Vikipedio haben zehn Esperanto als Muttersprache angegeben, 54 schätzten ihr Niveau als mit der Muttersprache vergleichbar ein (Stand März 2008).
Im Wikipedia-Code (des Quelltextes) der Esperanto-Wikipedia gilt die Besonderheit, dass die Buchstabenverbindungen cx, gx, hx, jx, sx und ux die Esperanto-Sonderzeichen ergeben (ĉ, ĝ usw.). Möchte man tatsächlich die Buchstabenverbindung schreiben, beispielsweise in Bordeaux, dann verdoppelt man das x: ux wird zu ŭ, uxx wird zu ux. Diese Sonderregelung bereitet zuweilen fremdsprachigen Benutzern, die etwa Interwiki-Arbeit betreiben, Probleme. Sie wurde seinerzeit von Brion Vibber installiert, einem Pionier der Esperanto-Wikipedia und später Cheftechniker der Wikimedia Foundation. Diese Eingabemethode gilt aber nur bei Verwendung des Wikitext-Editors. Im Visual Editor müssen die Sonderzeichen direkt über die Tastatur eingegeben werden.
Im Oktober 2006 gab es eine Kontroverse über eine Liste von Menschen, die Esperanto als Muttersprache haben. Manche haben es als Verstoß gegen das Persönlichkeitsrecht gesehen. Andere hingegen, wie der Slawistik-Professor Jouko Lindstedt, der eine Mailingliste zum Thema Esperanto als Muttersprache moderiert, wiesen darauf hin, dass Esperanto-Muttersprachlichkeit in der Sprachgemeinschaft kein Geheimnis sei. Er schätzte das Persönlichkeitsrecht allerdings im Zweifelsfall als höherstehender ein.
Geschichte und Statistik
Am 11. Mai 2001 meldete ein Wikipedia-Mitarbeiter, dass er – zu der englischsprachigen – neun weitere Wikipedias hinzugefügt habe, nämlich auf Katalanisch, Chinesisch, Esperanto, Französisch, Deutsch, Hebräisch, Italienisch, Japanisch, Portugiesisch, Spanisch und Russisch.
Tatsächlich begonnen wurde mit dem Ausbau der Esperanto-Wikipedia am 15. November 2001, und zwar durch den amerikanischen Informatiker Chuck Smith mit zwei Mitstreitern. Verwenden konnte er dazu 173 Artikel der Enciklopdio Kalblanda von Stefano Kalb. Ein Jahr nach der Gründung gab es insgesamt 51 vikipediistoj (Wikipedianer), zwanzig davon „sehr aktiv“ (mehr als 100 Änderungen im Monat). Zusammen wurden 4.200 Artikel erarbeitet. Die Entwicklung war ziemlich kontinuierlich.
Während des Jahres 2007 kamen monatlich im Durchschnitt zwölf Wikipedianer neu hinzu (2006: 20). Im Januar 2008 zählte die Statistik insgesamt 860 Wikipedianer, davon 41 sehr aktive, die insgesamt etwa 94.000 Artikel produziert hatten.
Mitte Januar 2011 waren auf der Esperanto-Wikipedia über 139.800 Artikel abrufbar, im August 2014 waren es über 200.000 Artikel. Im Jahre 2022 wurde der 300.000ste Artikel erstellt.
Bedeutung für den Sprachraum
Die beiden wichtigsten enzyklopädischen Werke auf Esperanto sind die Enciklopedio de Esperanto (ein Fachwörterbuch, 1934) und Esperanto en perspektivo (ein Handbuch, 1974). Sie beschäftigen sich mit der Sprache Esperanto und ihrer Sprachgemeinschaft. Über sonstige Themen handeln zahlreiche Zeitschriften von Esperanto-Fachverbänden und auch die Scienca Revuo, ohne dass es zu einer Enzyklopädie gekommen wäre. So gesehen ist die Vikipedio die erste eigentliche Enzyklopädie auf Esperanto.
Eine wichtige Textspende für die Vikipedio ist die Enciklopedio de Esperanto. Einige Buchautoren haben erlaubt, unter Herkunftsangabe ihr Übersichtswerk über Esperanto zu verwenden, genauso wie das in Antwerpen erscheinende politisch-gesellschaftliche Magazin Monato.
Der Esperanto-Weltbund ist selbst nicht an den Arbeiten zur Vikipedio beteiligt, stellt aber auf seinen Veranstaltungen Räumlichkeiten für Wikipedia-Treffen und -Kurse zur Verfügung. Die Esperanto-Presse berichtet des Öfteren, beispielsweise Libera Folio oder Kontakto. Mindestens zwei Mitglieder der Esperanto-Akademie sind Wikipedianer, neben Gerrit Berveling auch Bertil Wennergren, der Direktor der Sektion Lexik.
Weblinks
Handbuch auf Vikilibroj (Wikibooks)
Bericht bei Libera Folio, März 2008
Öffentlichkeitsfilm auf youtube.com
Einzelnachweise
Esperanto
Esperanto
Wikipedia:Artikel mit Video
|
Q190551
| 746.847853 |
113976
|
https://de.wikipedia.org/wiki/Lungenfische
|
Lungenfische
|
Die Lungenfische (Ceratodontiformes / Dipneusti) sind eine Ordnung der Knochenfische (Osteichthyes), die mit sechs rezenten Arten in Afrika, Südamerika und Australien vorkommt. Ihre nächsten lebenden Verwandten sind die Landwirbeltiere (Tetrapoda), gefolgt von den Quastenflossern (Crossopterygiformes). Dipneusti, die wissenschaftliche Bezeichnung der Lungenfische als Klasse, geht auf die maskuline Pluralform des griechischen Kunstwortes , zurück und bedeutet „Doppelatmer“, weil die Lungenfische Kiemen zur Atmung im Wasser haben und Lungen, um Luft von der Wasseroberfläche zu atmen. Der deutsche Name Lungenfische leitet sich davon ab, dass sie über eine einfach gebaute Lunge verfügen.
Entdeckungsgeschichte
Fossile Lungenfische aus dem Old-Red-Sandstein sind schon seit mehr als 200 Jahren bekannt. Der Südamerikanische Lungenfisch wurde als erste lebende Art 1836 vom österreichischen Zoologen Johann Natterer entdeckt und 1837 von seinem Kollegen Leopold Fitzinger, dem die Lunge sowie die ungewöhnliche Stellung der äußeren Nasenöffnungen nahe der Oberlippe auffiel, als Reptil beschrieben. Die ersten Wissenschaftler, die lebende Lungenfische zu Gesicht bekamen, konnten nicht glauben, dass sie Fische vor sich hatten. Fitzinger hatte keinen Zweifel, dass der Südamerikanische Lungenfisch ein Reptil sei, zumal man damals die „Kriechtiere“ noch nicht klar in Amphibien und Reptilien unterschied. Der wissenschaftliche Name Lepidosiren bedeutet Schuppenmolch, und diese Bezeichnung hielt sich noch lange im Deutschen, z. B. in Brehms Tierleben.
Der britische Zoologe Richard Owen, der 1839 den Afrikanischen Lungenfisch beschrieb, erkannte dann, dass die Tiere Fische sein müssen. Der Australische Lungenfisch wurde schließlich 1870 in Queensland gefunden, 32 Jahre nachdem sein naher triassischer Verwandter Ceratodus vom Schweizer Paläontologen Louis Agassiz anhand seiner Zahnplatten beschrieben wurde. Albert Günther veröffentlichte 1871 eine genaue anatomische Beschreibung des Australischen Lungenfisches und bestätigte die Fischnatur der Tiere.
Körperbau
Die rezenten Lungenfische werden 44 Zentimeter bis 2 Meter lang (Äthiopischer Lungenfisch). Bei allen sechs Arten sind die Rückenflosse, die protocerke Schwanzflosse und die Afterflosse zu einem Flossensaum zusammengewachsen. Im Unterschied dazu hatten die Lungenfische des Devon deutlich getrennte Rücken-, After- und Schwanzflossen, die noch heterocerk waren. Der Australische Lungenfisch hat Brust- und Bauchflossen, die von einem teilweise verknöcherten und mit Muskulatur versehenen Skelett gestützt werden. Bei den übrigen fünf Arten sind die paarigen Flossen zu fadenartigen Organen ohne Flossenstrahlen umgestaltet.
Der Australische Lungenfisch hat große, rautenförmige Schuppen, die Schuppen der übrigen Arten sind klein und liegen tief eingebettet in einer drüsenreichen Oberhaut.
Die Lunge der Lungenfische ist ein Organ am Darm, das homolog zur Schwimmblase ist. Der Australische Lungenfisch hat einen einzelnen Lungenflügel, der oberhalb des Darms liegt. Die übrigen Arten haben paarige Lungen, die bauchwärts liegen. In der Regel steigen Lungenfische alle 30 bis 60 Minuten zur Wasseroberfläche auf, um Luft zu atmen.
Die Afrikanischen und Südamerikanischen Lungenfische haben als Larve äußere Kiemenblättchen, die dann aber rückgebildet werden. Einige Arten sind auf Luftatmung angewiesen. Werden sie zu lange unter Wasser festgehalten, ersticken sie – eine für Fische recht ungewöhnliche Eigenschaft. Ihre Kiemen nutzen sie in erster Linie zur Abgabe von Kohlenstoffdioxid, zur Regulation des Säure-Basen-Haushalts und zur Abgabe stickstoffhaltiger Abfallprodukte.
Der Körper der Lungenfische ist langgestreckt, äußerlich unterscheiden sich männliche und weibliche Tiere nicht.
Eine Besonderheit der Dipnoi ist das Lymphgefäßsystem, das sie mit den Tetrapoden teilen, nicht aber mit den übrigen Fischen – es muss also im Devon, erst nach der Trennung der Knochenfische in Actino- (Strahlenflosser) und Sarcopterygii (Fleischflosser), entstanden sein.
Lebensweise
Lungenfische sind sehr träge Tiere, die vor allem kleine stehende oder langsam fließende Gewässer bewohnen. Lediglich der Äthiopische Lungenfisch (Protopterus aethiopicus) bewohnt auch große Seen, z. B. den Tanganjikasee. Lungenfische ernähren sich carnivor und fressen langsame Grundfische, Muscheln, Schnecken, Würmer, Krebstiere und Insektenlarven.
Es wurde berichtet, dass Afrikanische Lungenfische sich bis zu vier Jahre in einer aus körpereigenem Schleim und Schlamm bestehenden Hülle verkapseln können.
Zu diesem Zweck graben sie sich in den Schlamm ein und scheiden Schleim ab. Dieser erstarrt und kleidet den in den Schlamm gegrabenen Gang aus. In der Nähe des Mauls bleibt ein Loch, durch das die Lungenatmung ermöglicht wird. In dieser Zeit leben sie von ihrem Muskelgewebe und speichern ihre Ausscheidungsprodukte, denen sie das Wasser entziehen und ihrem Kreislauf wieder zuführen. Sie kugeln sich zusammen und halten ihren Schwanz über die Augen geschlagen, um diese vor Austrocknung zu schützen. Nach einer solchen Phase sehen sie aus wie Trockenfisch und es dauert mehrere Stunden, bis sie sich wieder bewegen können.
Australische Lungenfische (Neoceratodus) können sich im Gegensatz zu ihren Verwandten, den Südamerikanischen Lungenfischen (Lepidosiren) und den Afrikanischen Lungenfischen (Protopterus), nicht bei Trockenheit im Schlamm verkapseln und dort überdauern.
Fortpflanzung
Lungenfische vermehren sich ovipar und legen bis zu 5000 Eier pro Nest. Die Eier des Australischen und der Afrikanischen Lungenfische haben einen Durchmesser von 3 bis 4 mm, die des Südamerikanischen Lungenfisches sind mit 6 bis 7 mm größer. Die Eier werden im Müller-Gang von einer gelatinösen Substanz umhüllt. Afrikanische und Südamerikanische Lungenfische bauen horizontale Gänge in die Gewässerufer, in die die Eier gelegt werden. Der Australische Lungenfisch klebt sie an Wasserpflanzen. Seine Larven schlüpfen nach 25 bis 30 Tagen. Sie haben keine äußeren Kiemen, während die der beiden anderen Gattungen über drei oder vier äußere Kiemenbüschel verfügen.
Evolution
Im Erdaltertum (Paläozoikum) waren Lungenfische sowohl im Meer als auch in Süßgewässern verbreitet.
Die ersten Lungenfische sind aus dem erdgeschichtlichen Zeitalter des Devon aus der chinesischen Yunnan-Provinz bekannt. Aus dieser Zeit stammen auch die ersten, allerdings leeren fossilen Schlammkapseln. In solchen erhaltene Lungenfische sind erst aus dem Perm bekannt.
Die meisten Arten starben bei dem großen Massenaussterben der Perm-Trias-Grenze aus. Nur zwei Gruppen überlebten, die sich bis heute erhalten haben. Die Neoceratodontidae, die heute nur noch mit einer Art vertreten sind, hatten im Erdmittelalter eine weltweite Verbreitung.
Die relativ engen Verwandten der Quastenflosser und Lungenfische, die Rhipidistia, werden in der Paläontologie vielfach als Vorfahren der ersten Landwirbeltiere (Tetrapoda) angesehen. Der Aufbau ihres Skelettes ähnelt Ichthyostega, einem Fossil, das als eines der ersten Amphibien und damit als Landwirbeltier angesehen wird. Tiktaalik ist eine Übergangsform zwischen fischartigen Fleischflossern und Landwirbeltieren.
Für eine enge Verwandtschaft der Lungenfische mit den Landwirbeltieren sprechen zudem eine ganze Reihe von gemeinsamen Merkmalen, insbesondere die Schädelstruktur, der Ansatz einer Trennung von sauerstoffreichem Blut aus der Lunge und sauerstoffarmem Blut aus dem Körper und die vier etwa gleich großen Extremitäten, die in Form und Lage den Beinen der Landwirbeltiere entsprechen.
1996 wurde eine Analyse publiziert, nach der die Erbsubstanz der Lungenfische nahe der stammesgeschichtlichen Wurzel aller Wirbeltiere steht.
Genomgröße
Die noch lebenden Arten der Lungenfische haben das komplexeste Genom aller bekannten Lebewesen. Ihr Erbgut ist teilweise über zwanzigmal umfangreicher als das eines Menschen. Der Südamerikanische Lungenfisch besitzt mit 80 Pikogramm (7,84 × 1010 Basenpaare) das größte bisher bekannte tierische Genom. Ältere, aber wohl ungenauere Untersuchungen zeigen mit etwa 133 Pikogramm noch größere Genome, die bei der afrikanischen Art Äthiopischer Lungenfisch gefunden wurden.
Systematik
Die rezenten Lungenfische und ihre unmittelbaren ausgestorbenen Verwandten werden in der Ordnung Ceratodontiformes zusammengefasst. Sie kommen in sechs Arten in Afrika, Australien und Südamerika vor. Sie werden in drei Familien und drei Gattungen unterteilt, wobei es in Afrika vier Vertreter einer Gattung gibt:
Ordnung Ceratodontiformes
Unterordnung Ceratodontoidei
Familie Ceratodontidae
Ceratodus (Trias)
Familie Neoceratodontidae
Australischer Lungenfisch (Neoceratodus forsteri)
Unterordnung Lepidosirenoidei
Familie Lepidosirenidae
Südamerikanischer Lungenfisch (Lepidosiren paradoxa)
Familie Afrikanische Lungenfische (Protopteridae)
Äthiopischer Lungenfisch (Protopterus aethiopicus)
Ostafrikanischer Lungenfisch (Protopterus amphibius)
Westafrikanischer Lungenfisch (Protopterus annectens)
Kongo-Lungenfisch (Protopterus dolloi)
Die stammesgeschichtlichen Abstammungsverhältnisse der heute lebenden Arten lassen sich dem folgenden Diagramm entnehmen:
Die Trennung der zu Neoceratodus führenden Linie von den Afrikanischen und südamerikanischen Lungenfischen fand vor etwa 300 Millionen Jahren am Ende des Karbon statt, Lepidosiren und Protopterus sind seit dem Ende des Jura vor 145 Millionen Jahren eigenständige evolutionäre Linien.
Literatur
Wilfried Westheide, Reinhard Rieger: Spezielle Zoologie Teil 2: Wirbel- oder Schädeltiere, 1. Auflage, Spektrum Akademischer Verlag, Heidelberg • Berlin, 2004, ISBN 3-8274-0307-3
Joseph S. Nelson: Fishes of the World, John Wiley & Sons, 2006, ISBN 0-471-25031-7
Kurt Fiedler: Lehrbuch der Speziellen Zoologie, Band II, Teil 2: Fische, Gustav Fischer, Jena 1991, ISBN 3-334-00339-6
John A. Long: The Rise of Fishes. Johns Hopkins University Press, 1995, ISBN 0-8018-4992-6
Günther Sterba: Süsswasserfische der Welt. 2. Auflage. Urania, Leipzig/Jena/Berlin 1990, ISBN 3-332-00109-4.
Einzelnachweise
Weblinks
Dipnoi auf Palæos
University of California Museum of Paleontology Introduction to the Dipnoi
Mikko’s Phylogeny Archive Dipnoiformes (auf Englisch/Finnisch)
Fleischflosser
Lebendes Fossil
|
Q168422
| 86.3554 |
102504
|
https://de.wikipedia.org/wiki/Milit%C3%A4rdiktatur
|
Militärdiktatur
|
Eine Militärdiktatur ist ein autoritäres Regime, in dem die politische Führung allein vom Militär oder Teilen des Militärs ausgeübt wird. Sie besitzt Gemeinsamkeiten mit der Stratokratie, ist aber nicht mit ihr identisch. In einer Militärdiktatur hat das Militär die gesamte Regierungsgewalt in Form einer Junta (Offiziersgruppe) oder eines einzelnen Offiziers inne und kontrolliert diktatorisch die Gesellschaft, die Politik und die Medien.
Der Begriff Junta stammt aus dem Spanischen und bedeutet „Regierung“, „Verwaltung“. Hier bedeutet es im engeren Sinne eine Form der Oligarchie, das heißt, einige Wenige (das Militär) dominieren den Staatsapparat. Eine Militärdiktatur entsteht meistens durch einen Putsch, der sich gegen die jeweils bestehende Ordnung und die damit verbundene Regierung richtet. Häufig zeichnen sich Militärdiktaturen durch die Unterdrückung (Repression) der politischen Opposition aus. Dies wird regelmäßig von Gewaltmaßnahmen wie Folter, politischen Morden und dem geheimen „Verschwindenlassen“ politisch missliebiger Personen begleitet.
Verbreitung und Kategorisierung
Militärdiktaturen traten in den letzten Jahrzehnten vor allem in den Entwicklungsländern auf. Besonders charakteristisch und bedeutend sind sie für die politische Entwicklung Lateinamerikas im 20. Jahrhundert, in dem die meisten Staaten Lateinamerikas eine mehr oder weniger lange Zeit durch eine Militärdiktatur regiert wurden. Im Rahmen der vergleichenden Regierungslehre berechnete der Politikwissenschaftler Gabriel Almond 1993, dass Ende der 1980er Jahre über ein Drittel und Anfang der 1990er Jahre über ein Viertel der Staaten von Militärregimen regiert wurden. Innerhalb dieses politikwissenschaftlichen Fachbereichs unterscheidet man solche Herrschaftsformen nach der Ausprägungsintensität des vorherrschenden Autoritarismus und ihren Regierungszielen. Es gibt politisch rechts und, seltener, links ausgerichtete Erscheinungsformen. Insbesondere im Lateinamerika der 1970er und 1980er Jahre waren die Militärherrscher fast durchgehend stark rechts eingestellt, was ihnen auch wegen der ungesetzlichen Gewaltausübung gegen Oppositionelle im Rahmen sogenannter schmutziger Kriege teilweise Vorwürfe des Faschismus einbrachte.
Es gibt auch Fälle, in denen Militärdiktaturen von politisch linksgerichteten Offizieren ausgeübt wurden. 1974 in der Nelkenrevolution wurde die vorher jahrzehntelang herrschende portugiesische Diktatur des rechtsgerichteten Estado Novo beendet. Die Offiziere entließen die portugiesischen Kolonien in die Unabhängigkeit, veranstalteten nach einem angekündigten Zeitplan demokratische Wahlen und übergaben dann die Macht an die neu gewählte Regierung.
Militärdiktaturen neuen Typs
Historisch gesehen sind Militärregime keine Neuerscheinung der Nachkriegsgeschichte, allerdings bildete sich ab den 1960er-Jahren vor allem in Lateinamerika ein neuer Typ von Militärdiktaturen. Sie unterschieden sich von den traditionellen Militärdiktaturen in ihren Herrschaftszielen, die jetzt hauptsächlich die Legitimation ihrer Macht aus einer angeblichen oder tatsächlichen Bedrohung von Staat und Gesellschaft durch so genannte systemfeindliche, „subversive“ Gruppierungen herleiteten, die in der Regel – jedoch nicht nur – im politischen Spektrum links standen. Die Militärdiktaturen traten dabei oft als angebliche Retter von Staat, Wirtschaft und Kultur auf und setzten sich meist für politische Strukturreformen ein. So bezeichneten etwa die argentinischen Militärs die von ihnen angestoßene Entwicklung als Prozess der Nationalen Reorganisation, bei dem die Nation nach ultrakonservativ-christlichen Idealen zwangsweise „reorganisiert“ und dann wieder in die Demokratie „entlassen“ werden sollte. Wie in den Fällen Argentinien und Chile besonders deutlich hervortrat, ging die Machtergreifung und Machtausübung des Militärs meist mit exzessiver Gewalt und außergesetzlichen Maßnahmen einher (siehe Schmutziger Krieg und Desaparecidos). Im Zusammenhang mit der übermäßigen staatlichen Gewaltanwendung entwickelten die beiden amerikanischen Politikwissenschaftler R. D. Duvall und Michael Stohl im Jahr 1983 den Begriff Staatsterrorismus, der sich aber natürlich nicht nur auf Militärdiktaturen bezieht.
In einem Text der Heinrich-Böll-Stiftung wurde diese Phase in der südamerikanischen Geschichte wie folgt beschrieben:
Besonders bekannt sind die Vorgänge während der Militärdiktaturen in Chile unter General Augusto Pinochet (1973–1989) und Argentinien in der Zeit von 1976 bis 1983, wo zehntausende Menschen spurlos verschwanden, die so genannten Desaparecidos. Während des Bürgerkriegs in El Salvador ab 1980 ermordeten die Todesschwadronen der von den USA unterstützten Militärregierung systematisch rund vierzigtausend Oppositionelle (etwa 0,8 % der Bevölkerung), um eine Machtübernahme linker Gruppen zu verhindern. Ähnliche Dimensionen, jedoch mit noch höheren Opferzahlen, hatte der Bürgerkrieg in Guatemala.
Die Gesamtbilanz der lateinamerikanischen Repressionspolitik der Militärdiktaturen der 1970er- und 1980er-Jahre schätzen Menschenrechtsorganisationen wie folgt ein: Etwa 50.000 Menschen wurden direkt ermordet, rund 350.000 gelten als gewaltsam und dauerhaft verschwunden (Desaparecidos), und 400.000 wurden zeitweise aus politischen Gründen gefangen gehalten.
Ideologien
Das Aufkommen der neuen Militärdiktaturen ist neben gesellschaftlichen und innenpolitischen Faktoren jeweils vor dem Hintergrund des Kalten Krieges zu sehen. Die dabei an die Macht gekommenen Militärregierungen reduzieren sich aber nicht auf eine anti-kommunistische Abwehrbewegung, sondern stützten sich darüber hinaus auf eine eigene Ideologie, deren wichtigstes Ideologem die „Doktrin der nationalen Sicherheit“ war. Dieses durch geopolitisches Denken geprägte Ideologem steht in der Mehrheit der Militärdiktaturen mit einem für sie typischen Weltbild in Verbindung. Erst durch diese ideologische Grundlage waren die Militärregime in der Lage, ihr außergesetzliches Vorgehen zu rechtfertigen und zu legitimieren.
Die wesentlichen Elemente dieses Weltbilds sind in Lateinamerika:
Katholischer Traditionalismus spanischen Ursprungs
Nationalismus (Überbetonung des ser nacional, auf deutsch etwa: patriotisch sein)
Kult des Militärischen als Erziehungsideal – Sendungsbewusstsein und Messianismus
Rassismus
Antikommunismus
Beispiele
Beispiele für Militärdiktaturen für Europa sind Spanien (1939–1975) und Griechenland (1967–1974); in Asien gab es derartige Diktaturen u. a. in Südkorea (1961–1987), Indonesien (1965–1998) und Myanmar (1962–2011, 2021 gegenwärtig).
Folgende Übersicht zeigt die Regierungen in Südamerika seit den 50er Jahren. Die Diktaturen oder Militärregime in der Zeit auf dem Kontinent sind dunkel hervorgehoben (darunter die Argentinische Militärdiktatur von 1976 bis 1983):
Theoretische Erklärungsversuche
Der Aufstieg von Militärregimen wurde in der Vergangenheit mit verschiedenen Theorien erklärt. Dabei entstehen unterschiedliche Ansätze, je nachdem ob man eher die inneren Prozesse eines Landes oder die externen Einflüsse betont. Im ersten Fall kann man mit Hilfe der Modernisierungstheorie argumentieren, die vor allem auf ökonomischen Faktoren abhebt. Betont man eher die externen Einflüsse, so lässt sich der Aufstieg der Militärdiktaturen auch dependenztheoretisch begründen, indem man Interventionen aus dem Ausland Imperialismus oder das putschistische Verhalten der politischen Mittelklasse betont.
Aktuelle Entwicklung
Viele Entwicklungsländer sind anfällig für Putsche und somit auch für Militärdiktaturen. So etablierten sich auch in Lateinamerika in den 1960er-, 1970er- und 1980er-Jahren zahlreiche Militärdiktaturen, die jedoch großteils durch die demokratische Transition Anfang der 1990er-Jahre beseitigt wurden. Die Gründe dafür sind meistens soziale und wirtschaftliche Missstände, politische Krisen, Vertrauensverlust der Bevölkerung in die politischen Institutionen und das historisch gewachsene Selbstverständnis des Militärs.
Seit den 1990er-Jahren hat die Zahl der Militärdiktaturen abgenommen, was mit den von Samuel P. Huntington beschriebenen „Demokratisierungswellen“ in den 90ern in Verbindung steht. Außerdem bedingte das Ende des Kalten Krieges durch den Zusammenbruch der Sowjetunion den Bedeutungsverlust eines ihrer wichtigsten ideologischen Elemente, des Antikommunismus.
In den letzten Jahren bildeten sich in der Sahelzone in mehreren afrikanischen Ländern Militärdiktaturen in Burkina Faso, Guinea, Mali und Tschad, wo die Russische Regierung mit Waffenlieferungen und teilweise mit irregulären Truppen (Gruppe Wagner) unterstützte.
Im Niger kam es am 26. Juli 2023 zu einem Militärputsch und am 30. August 2023 auch in Gabun.
Literatur
Alexander Straßner: Militärdiktaturen im 20. Jahrhundert. Motivation, Herrschaftstechnik und Modernisierung im Vergleich. (Habilitation an der Universität Regensburg), Wiesbaden 2013.
Gabriel A. Almond, G. Bingham Powell, Robert J. Mundt (Hrsg.): Comparative Politics. A theoretical framework. HarperCollins, New York (NY) 1993, ISBN 0-673-52282-2.
Raymond D. Duvall, Michael Stohl: Governance by Terror. In: Michael Stohl (Hrsg.): The Politics of Terrorism (= Public administration and public policy 18). 2nd edition, revised and expanded. Dekker, New York (NY) u. a. 1983, ISBN 0-8247-1908-5, S. 179–219.
Samuel P. Huntington: The third wave. Democratization in the late Twentieth Century (= The Julian J. Rothbaum distinguished lecture Series 4). University of Oklahoma Press 1991, ISBN 0-8061-2346-X.
Morris Janowitz, Roger W. Little: Militär und Gesellschaft (= Praxeologie 1, ). Boldt, Boppard am Rhein 1965.
Hans Werner Tobler, Peter Waldmann (Hrsg.): Staatliche und parastaatliche Gewalt in Lateinamerika (= Iberoamericana. Editionen der Ibero-Americana. Reihe 5: Monographien und Aufsätze 31). Vervuert, Frankfurt am Main 1991, ISBN 3-89354-831-9.
Weblinks
Einzelnachweise
Autoritarismus
Sicherheitspolitik
Herrschaftsform
|
Q49896
| 184.642304 |
129551
|
https://de.wikipedia.org/wiki/Populismus
|
Populismus
|
Dem Begriff Populismus (von ‚Volk‘) werden von Sozialwissenschaftlern mehrere Attribute zugeordnet. Charakteristisch ist eine mit politischen Absichten verbundene, auf Volksstimmungen gerichtete Themenwahl und Rhetorik. Dabei geht es einerseits um die Erzeugung bestimmter Stimmungen, andererseits um die Ausnutzung und Verstärkung vorhandener Stimmungslagen zu eigenen politischen Zwecken. Oft zeigt sich Populismus in einem spezifischen Politikstil und dient als Strategie zum Machterwerb. Häufiger erscheint er in der Forschung neuerdings auch als Bestandteil einzelner Ideologien.
Überblick
In der politischen Debatte ist Populismus oder populistisch ein häufiger Vorwurf, den sich Vertreter unterschiedlicher Denkrichtungen gegenseitig machen, wenn sie die Aussagen und Forderungen der anderen Seite für populär, aber unrealistisch oder nachteilig halten. Man spricht dann auch von einem politischen Schlagwort, bzw. „Kampfbegriff“.
Oft thematisieren Populisten einen Gegensatz zwischen den Konstrukten „Volk“ und „Elite“ und nehmen dabei in Anspruch, auf der Seite des „einfachen Volkes“ zu stehen. Dabei wird das Volk als ein homogenes Kollektiv gewertet, das nicht nur als Adressat dient, sondern – moralisch überhöht – auch Quell jeglichen politischen Handelns ist. Maßstab allen Handelns hat der „Volkswille“ zu sein, ein Konstrukt, das als eine Mischung aus reinem Mehrheitswillen und ideeller Überhöhung daherkommt. Volkswille postuliert die Maxime, dass Volk und staatliches Handeln eine Einheit zu bilden hätten. Decker und Lewandowsky heben hervor, dass den Nährboden für die Agitationsweise des Populismus ein Paradoxon bildet, das typisch für entwickelte Demokratien sei: Je mehr Akteure in die Entscheidungsfindung eingebunden sind – nicht nur gewählte Repräsentanten, sondern etwa auch Interessenverbände – desto stärker sei Politik das Ergebnis von Kompromissen, was bedeutet, dass sich hier nicht der Wille der vermeintlichen Mehrheit zeigt, sondern die Einbindung eines möglichst breitgefächerten Meinungsspektrums ihren Ausdruck findet.
So geht Populismus häufig mit der Ablehnung von Machteliten und Institutionen einher, mit Anti-Intellektualismus, einem scheinbar unpolitischen Auftreten, der Berufung auf den „gesunden Menschenverstand“ (common sense) und auf die „Stimme des Volkes“. In der politischen Auseinandersetzung setzen Populisten oft auf Polarisierung, Personalisierung (oft unter Einsatz von Berühmtheiten), Moralisierung und Argumente ad populum oder ad hominem. Ebenfalls bezeichnend ist die Ablehnung traditioneller politischer Parteien. Die Funktion von Parteien, an der politischen Willensbildung der Bürger mitzuwirken (siehe Artikel 21 des Grundgesetzes für die Bundesrepublik Deutschland), deuten Populisten gern als eine Bevormundung mündiger Bürger und fordern stattdessen unmittelbare Willensartikulation durch direkte Demokratie.
Populismus gründet sich nicht auf ein bestimmtes Wertesystem und kann daher mit ganz unterschiedlichen Ideologien und Zielsetzungen einhergehen. Oft ist er Stilmittel von Protestparteien und -politikern, oder auch von sozialen Bewegungen. Historisch sind etwa der Peronismus und der Poujadismus als populistische Bewegungen bekannt. Geläufig sind die Begriffe „Linkspopulismus“ und „Rechtspopulismus“. Letzterer hat Anfang des 21. Jahrhunderts in Europa und in den USA an Einfluss stark zugenommen, vor allem in Verbindung mit einer Abwehrhaltung gegenüber Migranten und zugewanderten Flüchtlingen. Als Ursachen für den populistischen Auftrieb gelten die aus fortschreitender Globalisierung und verstärkter Migration resultierenden Probleme und kulturellen Verunsicherungen in manchen Teilen der Gesellschaft sowie ein verbreiteter Mangel an Zufriedenheit mit Entscheidungsprozessen und politischer Praxis. Waren populistische Parteien in Deutschland lange Zeit eine sporadische Erscheinung, gilt dies für andere europäische Länder nicht. So wurde die Freiheitliche Partei Österreichs in den 1950er Jahren gegründet, der Front National in Frankreich zu Beginn der 70er Jahre. Es kann daher nur bedingt davon gesprochen werden, dass der Populismus per se eine Reaktion auf die Migrationsfrage ist.
Begriff
Ursprung
Populistisch nannte sich selbst als erste politische Partei die Populist Party (1891 bis 1908) Ende des 19. Jahrhunderts in den USA. Sie erreichte die Realisierung einiger ihrer Forderungen und löste sich bald wieder auf. Darum steht seither Populismus dort für eine Politik, die sich, in Opposition zu den Interessen der Etablierten, an das einfache Volk richtet. Der Historiker Thomas Frank sieht davon ausgehend den Populismus durchaus positiv. Denn dieser kämpfte in den USA für sozialen Fortschritt, und seine Eliten-Kritik sei keineswegs wissenschaftsfeindlich gewesen.
Der Begriff ist im Englischen kein Kampfbegriff mit dem oft negativen Beiklang wie im Deutschen.
Das moderne Wort Populismus gründet auf dem Begriff Popularität. Noch im 19. Jahrhundert wurde „populär“ als volkstümlich verstanden – dem Volk verständlich, für das Volk bestimmt, leutselig, in die Volkssitte eingehend. Neben der lateinischen Herleitung gibt es auch die französische Bedeutung populace, zu deutsch Pöbel oder Mob. Dem Volke etwas verständlich machen, wurde als popularisieren bezeichnet.
Lange vor dem politischen Populismus gab es den Begriff Popularphilosophie. Diese diente seit der Aufklärung im 18. Jahrhundert zur Erläuterung philosophischer Probleme in allgemeinverständlicher Form. Vertreter waren z. B. Christian Garve, Johann Jakob Engel, Johann Georg Sulzer, Thomas Abbt und Moses Mendelssohn.
Umgangssprache
Der Duden (21. Auflage) erklärt den Begriff als opportunistische Politik, die „die Gunst der Massen zu gewinnen sucht“. In der Umgangssprache ist dies ein häufiger Vorwurf an bestimmte Parteien und einzelne Politiker. Der Ausdruck wird dann schlagwortartig gebraucht, um eine Manipulation und Instrumentalisierung der Bevölkerung für eigene Zwecke zu kritisieren. Er steht unter anderem für den Vorwurf, mit leeren oder unrealistischen Versprechungen Wählerstimmen gewinnen zu wollen, für persönliches Machtstreben und mangelndes Verantwortungsbewusstsein für die politische Zukunft des Landes und seiner Bürger.
Als Populisten bezeichnete Politiker betonen dagegen oft ihre „Bürgernähe“ im Gegensatz zur „etablierten“ Politik, werfen ihren Gegnern vor, problemblind zu sein, undemokratisch vorzugehen und elitären Partikularinteressen verpflichtet zu sein.
Sozialwissenschaft
In den Sozialwissenschaften gibt es drei grundsätzliche Ansätze zum Verständnis von politischem Populismus: 1.) als („dünne“) Ideologie, 2.) als Strategie, 3.) als Stil; oder als Gesamtheit dieser drei Elemente.
Die Encyclopedia of Democracy definiert Populismus als eine „politische Bewegung, die die Interessen, kulturellen Wesenszüge und spontanen Empfindungen der einfachen Bevölkerung hervorhebt, im Gegensatz zu denen einer privilegierten Elite. Um sich zu legitimieren, sprechen populistische Bewegungen oft direkt den Mehrheitswillen an – durch Massenversammlungen, Referenden oder andere Formen der direkten Demokratie –, ohne großes Interesse für Gewaltenteilung oder die Rechte von Minderheiten.“
Der Politikwissenschaftler Cas Mudde definiert Populismus als „eine Ideologie, die davon ausgeht, dass die Gesellschaft in zwei homogene, antagonistische Gruppen getrennt ist, das ‚reine Volk‘ und die ‚korrupte Elite‘, und die geltend macht, dass Politik ein Ausdruck der volonté générale oder des allgemeinen Volkswillens sein soll“.
Der Soziologin Karin Priester zufolge ist Populismus „kein Substanz-, sondern ein Relationsbegriff“; er könne also nicht aus sich selbst heraus, sondern nur im Verhältnis oder in Abgrenzung zu einem Anderen (Gegner) definiert werden. Von dem Politologen Paul Taggart wird der Populismus als „inhärent unvollständig“ beschrieben; er attestiert ihm ein „leeres Herz“. Die äußeren Merkmale des Populismus könnten daher mit ganz unterschiedlichen inhaltlichen Werten und Zielen gefüllt werden bzw. sich mit diesen verbinden. In der Terminologie von Michael Freeden wird er als „dünne Ideologie“ bezeichnet, die sich an verschiedene „Wirtsideologien“ anlehnen kann. Taggart vergleicht den Populismus mit einem Chamäleon, das seine ideologische Färbung an die Werte der Bevölkerung in seinem jeweiligen „Kerngebiet“ (heartland) anpasst.
Die Soziologen Hartmut Rosa, Henning Laux und Ulf Bohmann beschreiben am Beispiel der Finanzmarktregulierung das „zeitsoziologische Paradox“ des Populismus: Die populistische Forderung „endlich mal zu handeln statt immer nur zu reden“ stärke solche politischen Kräfte, die schnelle und einfache Lösungen versprächen. Systematische Sofortentscheidungen der Exekutive würden jedoch die zeitlich aufwendige Meinungs- und Willensbildung einer pluralistischen Öffentlichkeit unmöglich machen. Je mehr also dem Wunsch nach bedingungsloser politischer Handlungsbeschleunigung entsprochen werde, desto wahrscheinlicher werde es, dass partizipative Prozeduren abgekürzt oder umgangen würden. Ein entsprechender Politikstil könne wiederum zur Bestätigung der populistischen Wahrnehmung führen, dass nur „die da oben“ unter sich entscheiden würden.
Anton Pelinka beschreibt Populismus allgemein als „Protest, der sich gegen die Kontrollmechanismen richtet, die eine direkte ‚Herrschaft des Volkes‘ vermeiden sollen.“ Dem liege ein radikales Demokratieverständnis zu Grunde, wonach Demokratie – in Anlehnung an Abraham Lincoln – „Regierung des Volkes, für das Volk und durch das Volk“ sei. Dabei favorisierten Populisten die plebiszitäre bzw. direkte Demokratie, während sie repräsentative Formen geringschätzten. Für die „wahre“ Demokratie, die der Populismus anstrebe, seien zwischengeschaltete Institutionen wie Parlamente oder Parteien nachrangig, wenn nicht gar hinderlich. Diese Institutionen würden sich – selbst wenn sie im herkömmlichen Sinne demokratisch legitimiert seien – nur anmaßen, für „das Volk“ zu sprechen. Allerdings beklagt Pelinka eine inflationäre Verwendung des Populismus-Begriffs, der oft unscharf und beliebig als Kampfbegriff oder Ausflucht diene.
Der US-Politologe Marc F. Plattner vom National Endowment for Democracy sieht Populismus als ein mehrheitsorientiertes Demokratieverständnis jenseits des Liberalismus und des Konstitutionalismus: „Populisten wollen, dass sich das durchsetzt, was sie für den Willen der Mehrheit halten – oft durch einen charismatischen populistischen Anführer gelenkt –, und das mit so wenig Hindernissen oder Verzögerungen wie möglich.“ Deshalb hätten sie wenig Verständnis für die liberale Betonung von verfahrensrechtlichen Feinheiten und für den Schutz von Individualrechten. Neben ihrer antiliberalen Grundtendenz können populistische Strömungen laut Plattner allerdings auch als ein Weckruf für Angehörige der Eliten eines Landes wirken, falls diese etwa aufgrund der eigenen Privilegien bequem geworden sind und/oder sich in ihrer politischen Positionierung zu weit von der Mehrheitsmeinung entfernt haben.
Als opportunistische Strategie betrachtet Hans-Georg Betz populistische Rhetorik, die darauf abgestellt sei, „in der Bevölkerung latent oder offen vorhandene Ressentiments aufzugreifen, zu mobilisieren und emotional aufzuheizen und daraus politisches Kapital zu schlagen“.
Jan Jagers und Stefaan Walgrave zufolge kann Populismus auch bloß ein bestimmter Kommunikationsstil sein, den politische Akteure dem Volk gegenüber verwenden. In diesem Fall sprechen sie von „dünnem Populismus“ (im Gegensatz zum ideologischen „dicken Populismus“). Benjamin Moffitt und Simon Tormey schlagen vor, Populismus in erster Linie als eine Frage des politischen Stils zu betrachten, der mit dem Abbau ideologischer Gegensätze und der zunehmenden „Stilisierung“ der Politik einhergehe. Sie konzentrieren sich auf seine „performativen“ und „ästhetischen“ Elemente und charakterisieren Populismus durch eine Vereinfachung des politischen Diskurses, „saubere Wir-gegen-die-Gegensätze“ und Lösungsvorschläge, die sich auf kurze, prägnante Schlagworte beschränken („sound-bite solutions“).
Der Politikwissenschaftler Ernesto Laclau versteht Populismus als eine performativ wirksame Diskursstrategie, die auf eine Vereinfachung und bipolare Spaltung des politischen Diskurses abzielt. Dabei werden verschiedene Forderungen gebündelt und gegenüber der etablierten Politik antagonistisch in Stellung gebracht. Für Laclau gibt es keine politische Intervention, die nicht, zumindest zu einem gewissen Grad, populistisch ist.
Jan-Werner Müller sieht als das Kriterium für Populismus weniger Inhalt und Form einer Aussage als vielmehr die Art der Begründung: Wenn diese weder demokratisch noch wissenschaftlich ist, sondern sich aus einem angeblichen „Volkswillen“ ableitet, der weder überprüft noch bewiesen werden kann und damit jeden pluralistischen Diskurs abblockt, handelt es sich um Populismus im methodischen Sinn.
Nach David Van Reybrouck entpuppt sich ihre angebliche „Verpflichtung gegenüber den eigenen Wählern […] oft als eine zynische Art politischen Unternehmertums, das populäre Ressentiments anzapft und schürt, um eine Wahl zu gewinnen und das daraus resultierende Mandat zu nutzen, um weiterhin elitäre Interessen zu verfolgen.“
Der französische Wirtschaftswissenschaftler Thomas Piketty rät, gänzlich auf den Begriff Populismus zu verzichten, da er unterkomplex sei und ignoriere, dass es in Fragen von Grenze und Eigentum durchaus verschiedene legitime Positionen geben könne.
Geschichte
Der begrifflichen Herkunft gemäß wird Populismus auch auf historische Erscheinungsformen bezogen, z. B. auf Tyrannen der griechischen Antike, auf die Popularen (populare) in der späten Römischen Republik, auf die Agitation von Bettelmönchen (Dominikanern, Kapuzinern) im Mittelalter und in der frühen Neuzeit oder auf die sozialrevolutionären russischen Narodniki. Althistoriker wie Lukas Thommen sehen Parallelen zum Politikstil der Popularen in den Römischen Bürgerkriegen und Ständekämpfen, die sich gegen die herrschende konservative Adelselite der Optimaten wendeten.
Anfänge in den USA
Geprägt wurde der Begriff als Selbstbezeichnung der Farmerbewegung in den USA, die – ausgehend von der Farmers’ Alliance der 1870er Jahre in Texas – gegen das in New York City konzentrierte Großkapital für eine Politik billiger Kredite, die Silberwährung, Referendumsdemokratie und landwirtschaftliche Verwertungsgenossenschaften kämpfte und dazu 1889/1890 die People’s Party gründete. Die ersten Populisten sahen ihre Vorstellungen von staatlicher Regulierung und Wohlfahrt in voller Übereinstimmung mit den wissenschaftlichen Erkenntnissen des ausgehenden 19. Jahrhunderts. Zugleich aber standen sie im dauernden Kampf mit den wirtschaftlichen und akademischen Eliten und betrachteten alle Privilegien mit Misstrauen, auch das Prestige, das den akademischen Berufen Autorität verlieh. Ihr Denken war auf radikale Weise demokratisch und schrieb den Experten die Aufgabe zu, der Bevölkerung zu dienen und sie zu informieren, während diese ihrem Tagewerk als Bürger in einer Demokratie nachgingen. Getragen wurde die Partei von der Bauernrevolte gegen hohe Kreditzinsen und Transportgebühren (Eisenbahnoligopol). Sie florierte am stärksten unter den Farmern im Südwesten und in den Great Plains. Etwa 45 Mitglieder der Partei saßen zwischen 1891 und 1902 im Kongress. Die Ziele der Partei waren unter anderem die Abschaffung nationaler Banken, eine gestaffelte Einkommensteuer, die direkte Wahl von Senatoren (17. Zusatzartikel zur Verfassung der Vereinigten Staaten) und eine Reform der öffentlichen Verwaltung. In dieser Bewegung waren Verschwörungstheorien weit verbreitet.
Die Demokratische Partei griff manche dieser Forderungen und Ideen auf, so dass diese im New Deal nachwirkten. Auch US-amerikanische Konsumenten- und Anti-Trust-Bewegungen werden in dieser Tradition des Populismus gesehen. Insgesamt wurde dieser Begriff in den USA meist positiver bewertet als in Europa und von Wissenschaftlern neutral genutzt; er war nicht zwingend – abgesehen von der Ära des McCarthyismus – mit Fremdenfeindlichkeit konnotiert, sondern stellte einen Rückgriff auf das Demokratieversprechen der US-Gründerväter dar.
Als sozial- und politikwissenschaftliches Konzept fand Populismus jedoch erst ab den 1960er Jahren Einzug in die akademische Debatte, wobei als dessen Urvater der US-Soziologe Edward Shils ausgemacht werden kann. Zuvor war der Begriff lediglich Untersuchungsgegenstand von Historikern, welche sich mit den genannten Bauernbewegungen in den Vereinigten Staaten auseinandersetzten.
Modernisierungsbewegung oder antimoderne Reaktion?
Uneinigkeit besteht unter Historikern, ob die Bewegung des US-amerikanischen Populismus Ende des 19. Jahrhunderts eher als antimodern (verbunden mit dem Vorwurf, dass die Bauernbewegung im einfachen und ländlichen Leben einen Idealzustand sah) oder im Gegenteil als modern (z. B. wegen der übergeordneten politischen Ziele, der Förderung von Bildung unter den Bauern und der Förderung der Zusammenarbeit unter den Bauern in der Farmers’ Alliance) anzusehen ist. Tim Spier sieht populistische Bewegungen wie die der US-Farmer als Reaktionen auf mehr oder weniger erfolgreiche oder auch gescheiterte Modernisierungsbewegungen an, deren ambivalente Folgen die Voraussetzungen für eine breite Mobilisierung der Modernisierungsverlierer schaffen.
Obwohl diese Bewegung kein bleibender Bestandteil der politischen Landschaft in den USA war, veranlasste Populist Party wichtige politische Weichenstellungen wie Amtszeitbeschränkungen und die geheime Wahl. Einige ihrer Standpunkte wurden im Lauf der folgenden Jahrzehnte von anderen Bewegungen und Politikern übernommen, etwa in der Programmatik der Modernisierungspolitik des New Deal (siehe oben). Diese führte zur Erneuerung der Landwirtschaft, des Bankwesens, der Elektrizitätsversorgung, der Arbeitslosen- und Sozialprogramme, zur Einführung von Mindestlöhnen, zum Verbot der Kinderarbeit und zu einer kulturellen Erneuerung. Als der New Deal sich jedoch immer weiter nach links öffnete und den Einfluss der Südstaaten auf die Partei bedrohte, reagierte die weiße Südstaatenbevölkerung mit Rassismus.
Erscheinungsformen im 20. Jahrhundert
In den 1970er Jahren nannten die amerikanischen Neokonservativen die Ökologie-, Frauen- und Friedensbewegung in den USA populistisch, um sie als antimodernistische, irrationale und regressive Bewegung abzuwerten („zurück in die Steinzeit“ etc.). Neomarxisten dagegen nannten die Politik Margaret Thatchers populistisch. Dieser britischen Premierministerin war es gelungen, die zuvor regierende Labour-Regierung als „Machtblock“ darzustellen und mit Forderungen für „mehr persönliche Initiative und Freiheit“ gegen „die da oben“ abzulösen, obwohl ihre Politik des Sozialabbaus manche ihrer Wähler selbst benachteiligte.
In Frankreich werden populistische Strömungen wie die von Pierre Poujade (1920–2003) angeführte Steuerstreikbewegung von Kleinhändlern und Handwerkern in den 1950er Jahren auch als poujadistisch bezeichnet.
Laut Pierre Bourdieu ist Populismus „stets nur Ethnozentrismus mit umgekehrten Vorzeichen“, indem Angehörige der Eliten entgegen deren Mainstream und „aus populistischen Motiven … dem Volk ein gleichsam angeborenes Wissen über Politik“ zuerkennen und damit in den unteren Bevölkerungsschichten Proselyten machen.
Als ein Zentrum populistischer Politik gilt Lateinamerika. Für manche Beobachter stellte sie dort die wichtigste politische Kraft des 20. Jahrhunderts dar, da sie die Unterordnung breiter Bevölkerungsschichten unter eine politische Führerfigur bewirkt habe. Dort sind populistische Regime für längere Zeit an die Macht gelangt: Juan Domingo Perón, argentinischer Präsident von 1943–55 und 1973–74, Eva Perón (ohne jedes Ministeramt), Getúlio Vargas, Regierungschef in Brasilien von 1930–45 und von 1950–54 sowie Präsident Lázaro Cárdenas (1934–40) in Mexiko. Die jüngeren linkspopulistischen Regierungen der Präsidenten Hugo Chávez in Venezuela (1999–2013), Luiz Inácio Lula da Silva in Brasilien (2003–2011), Cristina Fernández de Kirchner in Argentinien (2007–2015) oder Evo Morales in Bolivien (2006–2019) werden allerdings an anderen Maßstäben gemessen als den in Europa üblichen: „Wenn Morales der verarmten Bevölkerung Boliviens im Alter eine Mindestrente von umgerechnet kaum 50 Euro garantiert, nennt man das in deutschen Zeitungen ‚populistische Wahlgeschenke‘. Wenn aber in Deutschland der Minimalsatz staatlicher Sozialleistungen auf das Achtfache der bolivianischen Volksrente festgesetzt wird, dann sprechen dieselben Zeitungen von ‚Sozialabbau‘.“
Ursachen
Als Populismus begünstigende Ursachen werden sowohl die Auswirkungen beschleunigten sozioökonomischen Wandels als auch kulturelle Einflüsse und Bedrohungsängste sowie Identifikationsprobleme mit dem politischen Institutionengefüge erwogen. Die zugrunde liegenden Faktoren und Erscheinungsformen beeinflussen einander und bilden einen Ursachenzusammenhang. Die Soziologin Cornelia Koppetsch hält für die Entstehung bedeutender populistischer Protestbewegungen drei Faktoren für notwendig:
strukturelle Deklassierung wesentlicher Teile der Bevölkerung
eine Legitimationskrise der bestehenden Ordnung
strukturbedrohliche Krisenereignisse.
Bürgerferne Politik
Als Ursachen für ein gehäuftes Auftreten von Populismus gelten unter anderem eine zu große Distanz und Distinktion zwischen den Interessen und der Sprache der Bevölkerung einerseits und der Regierenden bzw. des Establishments andererseits. Dies führe zu einem Mangel an direkter bzw. repräsentativer demokratischer Repräsentation und zu fehlender Bürgernähe.
Eine weitere Ursache für den Erfolg von Populisten sehen Politikwissenschaftler in der Unzufriedenheit der Wähler mit der Konsensdemokratie. Ursprünglich sollte sie die Teilhabe aller gesellschaftlichen Gruppen an der Politik gewährleisten. Da sich aber immer weniger Bürger mit den traditionellen Milieus identifizieren, sehen sie ihre Interessen durch die verhandlungsorientierte „Hinterzimmerpolitik“ der etablierten Parteien nur unzureichend vertreten.
Emotionale Aspekte: Furcht vor Abstieg, Entfremdung und Denationalisierung
Tatsächliche und gefühlte Ursachen und Ausdrucksformen von Populismus vermengen sich mitunter, etwa durch Furcht vor Staatsversagen und Arbeitslosigkeit, durch schwindende soziale Sicherheit und Angst vor sozialem Abstieg, sinkendem bzw. bedrohtem Wohlstand, Kriminalitätsfurcht, die sinkende Bedeutung von Volksparteien, als oligarchisch empfundene Verhältnisse, Ablehnung von Werte- und Kulturwandel oder Zeitgeist bzw. Ablehnung des „Mainstreams“, die Ablehnung einer Islamisierung nichtislamischer Regionen, den Gegensatz zwischen ländlichen und urbanen Räumen, Medienkritik, Kapitalismus- und Globalisierungskritik, schwindende Meinungsfreiheit und Souveränitätsverlust, zunehmenden Zentralismus, Staatsgläubigkeit sowie Bürokratisierung. Die Angst vor Souveränitätsverlust ist besonders in der EU verbreitet, geht doch hier der staatliche Souveränitätsverzicht weiter als in der übrigen Welt, da die betroffenen Staaten neben dem durch die Globalisierung erzwungenen Kompetenzverlust weitere Zuständigkeiten z. B. für Grenzsicherung freiwillig an die supranationale EU-Ebene abgaben.
Auch spielen emotionale Aspekte häufig eine Rolle bei der Ausbreitung von populistischer Rhetorik und Politik, etwa Vorurteile, Klischeevorstellungen, Entfremdung und Überfremdungsängste, menschliche Überforderung, der Wunsch nach gesellschaftlicher Entschleunigung oder das Gefühl, Modernisierungsverlierer zu sein.
Cornelia Koppetsch sieht, dass die Deklassierten der absteigenden Milieus ihren Abstieg als Prozess der Entbindung vom zivilisierten Verhaltenskodex, als soziale Entkopplung und De-sozialisierung wahrnehmen. Mit der Entwertung von Kompetenzen oder bislang gültiger Wert- und Verhaltensmaßstäbe sinke das Niveau der Affektkontrolle und Disziplinierung. Das Gefühl, als passives Objekt unbekannten Mächten ausgeliefert zu sein, bedeute Entfremdung. Koppetsch meint, dass es ähnliche Entwicklungen schon früher gegeben habe und zitiert daher Norbert Elias, dass sich von Deklassierung betroffene Gruppen „in ihrem Selbstwert erniedrigt“ fühlen und Machtverlust ihren „erbitterten Widerstand, ein oft kaum mehr realitätsgerechtes Verlangen nach Restauration der alten Ordnung“ auslöse.
Sozioökonomische Ursachen
Verschiedene Autoren sehen den Populismus nicht als Ursache der Gefährdung moderner Demokratien an, sondern als Folge zunehmender ökonomischer und sozialer Ungleichheit und Exklusion, die mit demokratischen Mitteln nicht wirksam reduziert werden kann. Der Historiker Werner Scheidel sieht einen Zusammenhang zwischen der in Deutschland seit den 1980er Jahren steigenden ökonomischen und sozialen Ungleichheit und der Anfälligkeit für Populismus. Da sich aus historischer Sicht ökonomische Ungleichheit nie von selbst und auf friedlichem Wege abgebaut habe, sondern stets nur durch gewaltsame Umverteilung in Form von Kriegen und Katastrophen, sei eine weitere Zuspitzung der Konflikte zwischen ökonomischen Eliten und Benachteiligten durchaus denkbar. Eine ähnliche Position vertritt der schottische Regionalökonom Andrew Cumbers. Er hat einen Economic Democracy Index zur ökonomischen Marginalisierung entwickelt, der in 32 OECD-Ländern den Zusammenhang von sozialer und ökonomischer Exklusion einerseits, Fremdenfeindlichkeit andererseits aufzeigen soll. Der Zusammenhang sei in vernachlässigten altindustriellen Regionen wie South Wales, Ohio oder Michigan besonders deutlich. Cumbers weist aber darauf hin, dass es für Rassismus auch andere Ursachen gebe.
Auch für Norbert Berthold sind es vor allem die wirtschaftlich „Abgehängten“, die populistischen Parteien folgen. Die weltweit offenen Märkte haben insbesondere die Arbeitsplätze von Arbeitnehmern mit einfacher Qualifikation – vor allem männlicher Industriearbeiter – gefährdet. Für den sozialen Zusammenhalt der Gesellschaft sei Sozialkapital entscheidend, das durch gegenseitiges Vertrauen entstehe. Dieses sei in homogenen Gesellschaften mit ähnlichem kulturellem Hintergrund leichter aufzubauen. Mit der massenhaften Zuwanderung entstehen Ängste, dass Zuwanderung das Sozialkapital erodiert und die Gesellschaft destabilisiert.
Der Ökonom Adalbert Winkler kritisiert u. a., dass es „auf europäischer und globaler Ebene für zentrale ökonomische und sozio-kulturelle Fragestellungen keine handlungsfähige politische Instanz (gibt), die in der Lage ist, von Bürgern in diesen Bereichen angemahnte Fehlentwicklungen zu korrigieren“, die darin bestehen, dass „Subventionen, Regulierungen und Privilegien, die die sozio-kulturellen Besonderheiten eines Landes schützten“, ersatzlos abgebaut werden.
Gewichtsverschiebungen im demokratischen Institutionengefüge
Für Michael Zürn sind sowohl die sozioökonomische als auch die kulturelle Ursachenerklärung des jüngeren Populismus-Auftriebs jeweils nur teilweise überzeugend. So bleibe bei der sozioökonomischen Betrachtungsweise unklar, warum Globalisierungsverlierer sich einem autoritären Populismus zuwenden und nicht einem Linkspopulismus, der unmittelbaren sozialen Schutz verspreche. Zürn bevorzugt einen politischen Erklärungsansatz, der eine seit den 1960er Jahren bei „bildungsschwächeren und stärker heimatverbundenen“ Gesellschaftsschichten geringer werdende Akzeptanz in Bezug auf das ihre Wünsche und Interessen zu wenig berücksichtigende politische System beinhaltet.
Eine von Experten und professionalisierten Parteispitzen ausgehandelte, halb pragmatische, halb technokratische Politik der Kompromisse wirke auf viele als zu distanziert und bürokratisiert. Folglich sei es zu einer Entfremdung zwischen Wählern und Parteirepräsentanten gekommen. Andererseits genossen „nicht-majoritäre Institutionen“ wie Zentralbanken und Verfassungsgerichte über lange Zeit allgemein hohes Vertrauen. „In den vergangenen Jahren wurde dann deutlicher, was immer schon in den nicht-majoritären Institutionen angelegt war: eine liberal-kosmopolitische Grundorientierung. Gerichte schützen Individualrechte gegen den Willen der Mehrheit, internationale Institutionen zielen auf offene Grenzen und supranationale Entscheidungskompetenzen und die Zentralbanken stützen eine monetäre Wirtschaftspolitik.“ Bei vielen heimatverbundenen Menschen sei dadurch der Eindruck entstanden, so Zürn, sie würden von nicht-majoritären Institutionen dominiert, aber nicht repräsentiert. Auch Karin Priester nennt als Gründe für zunehmenden Populismus die „Verengung von Politik auf technokratische Governance, auf deliberative Absprachen zwischen politischen Entscheidungsträgern und demokratisch nicht legitimierten Experten sowie die vermeintliche Alternativlosigkeit der Volksparteien“.
Argumentationsstrukturen
Bevorzugt werden solche Themen aufgegriffen, die bei vielen Bürgern starke Emotionen hervorrufen und sich der traditionellen Rechts-Links-Zuordnung entziehen, soweit sie sich auf nationale oder globale Themen beziehen (z. B. Zuwanderung). Der Populismus argumentiert (scheinbar) klassenunspezifisch und beansprucht, damit eine Voraussetzung zur Bildung einer gemeinsamen Identität zu schaffen und das Allgemeine zu repräsentieren.
Karin Priester nennt als Grundelemente populistischer Denk- und Argumentationsstrukturen:
die Gegenüberstellung von „gemeinem Volk“ und Eliten
die Berufung auf das durch die Eliten noch unverfälschte Urteilsvermögen des Volkes oder auf den common sense
die verschwörungstheoretische Denunziation der Machenschaften der Eliten
die Moralisierung des Diskurses (Wahrheit vs. Unwahrheit; moralische Rückgratlosigkeit der Eliten)
die Beschwörung von Krise und Niedergang
die Legitimationsbasis des „gemeinen Volkes“ als „Stimme Gottes“ (höhere Macht)
Typisch sei demnach eine dichotome Weltsicht, die „ihre Legitimation nicht aus politischen Forderungen ableitet, sondern aus einer vorgängigen, höheren Moralität“.
Ähnlich definiert der Politikwissenschaftler Harald Schmidt den Begriff. In den Mittelpunkt der Agitation gerückt wird „das Volk“, dem sowohl politische Reife wie einheitliche Interessen unterstellt werden, wodurch es den paternalistischen und eigennützigen Interessen der „Eliten“ gegenübersteht. Der „brave Bürger“ als vertrauenswürdiger Idealtyp repräsentiert im populistischen Weltbild die breite Bevölkerungsmehrheit, sein Interesse das Volksinteresse und letztlich den generellen Volkswillen. Es entsteht eine fiktive homogene Volksgemeinschaft mit einheitlichem, aber unklar umrissenem Willen, dem verschiedene Gegner gegenüberstehen. Dies sind sowohl die herrschenden Eliten als auch „diejenigen Teile der Bevölkerung, die sich partout weigerten, den Volkswillen als ihren eigenen anzuerkennen und sich mit ihm zu identifizieren“. Populisten präsentieren sich im Namen des „einfachen Volkes“ als Herausforderer dieser „Unterdrücker“. Die Dichotomie zwischen „Wir, das Volk“ und dem „Die, die uns unterdrücken, uns schaden, uns behindern“ ist ein gemeinsames Element ansonsten inhaltlich sehr unterschiedlicher populistischer Bewegungen. Die Anklage der Elite wird bisweilen in Form einer Verschwörungstheorie zugespitzt und weist dann häufig Übereinstimmungen mit antisemitischen Deutungsmustern auf. Im Kontext des Rechtspopulismus tritt häufig eine Ausrichtung auf starke, charismatische Führungspersönlichkeiten hinzu.
Richtungen
Bei einem Verständnis von Populismus als bloße Strategie zur Machtgewinnung kann sich dieser sowohl mit „linken“ wie „rechten“ politischen Zielen verbinden. Laut Florian Hartleb, der in seiner Fallstudie die Partei Rechtsstaatlicher Offensive und die PDS untersuchte und als rechts- bzw. linkspopulistische Parteien klassifizierte, gibt es allerdings keinen festen Kriterienkatalog für die Einstufung einer Partei als rechts- oder linkspopulistisch.
Rechtspopulismus
Herbert Kitschelt beschreibt die Programmatik rechtspopulistischer Parteien als „Kombination von entschieden ‚ultra-liberalen‘ wirtschaftlichen Positionen und eines autoritären und partikularistischen Herangehens an Fragen der partizipativen Demokratie, der Bürgerrechte und der Lebensstile“. Zentrale Mobilisierungsthemen seien dabei meist die Ablehnung des politischen Establishments, „neoliberale“ wirtschaftspolitische Forderungen und eine rassistische, kulturalistische und/oder (standort-)nationalistische Identitätspolitik. Florian Hartleb widerspricht Kitschelt. Ein „prononcierter Neoliberalismus“ treffe nur auf einen Teil der rechtspopulistischen Parteien zu. Parteien wie der Front National oder Vlaams Blok agierten vielmehr am Sozialstaat orientiert.
Das Gefährliche am Rechtspopulismus ist für Wolfgang Merkel und Robert Vehrkamp „sein völkischer Nationalismus im Gewand eines populistisch-illiberalen Demokratiekonzepts. […] Es ist die Ausspielung der großen Idee der Volkssouveränität gegen den Rechtsstaat, der mit der vorbehaltlosen Sicherung von zivilen und politischen Rechten die Demokratie erst ermöglicht.“ Rechtspopulisten deformierten die Demokratie und höhlten sie aus.
Die mit dem Aufstieg rechtspopulistischer Parteien verbundene Marginalisierung des Neofaschismus und die veränderte Programmatik werden teilweise als eine Modernisierungsbewegung des Rechtsextremismus verstanden. Als Beispiele für rechtspopulistische Parteien werden meist die Freiheitliche Partei Österreichs (FPÖ), der französische Front National, die polnische Prawo i Sprawiedliwość, der belgische Vlaams Belang (ehemals Vlaams Blok), die dänische Dansk Folkeparti, die niederländische Partij voor de Vrijheid, die norwegische Fremskrittspartiet, die italienische Lega Nord, die Schweizerische Volkspartei (SVP) sowie die Alternative für Deutschland (AfD) genannt.
Der argentinische Historiker Federico Finchelstein grenzt den modernen Populismus vom Faschismus durch folgende Merkmale ab:
Legitime Machterringung durch Mehrheiten in freien Wahlen (oft sogar mit Zerstörung vorangehender Militärdiktaturen wie durch Perón)
Verzicht auf offene Gewalt, auf Militarisierung und diktatorische Vollmachten
Beherrschung der Presse und Verbreitung von Lügen, die die Inhaber der Macht im Unterschied zu den Faschisten allerdings selbst nicht glauben (Berlusconi, Trump, Bolsonaro)
Verzicht auf extreme Xenophobie und Antisemitismus
Keine Anleihen bei marxistisch-sozialistischer Ideologie, stattdessen Orientierung am Neoliberalismus.
Zu den rechtspopulistischen Parteien in Deutschland werden neben der AfD unter anderen Die Republikaner, die Statt Partei, der Bund freier Bürger, die Partei Rechtsstaatlicher Offensive und Pro Köln gezählt. Im Vergleich mit rechtspopulistischen Parteien in anderen westeuropäischen Ländern war diese Strömung in der Bundesrepublik Deutschland bis in die jüngere Vergangenheit eher erfolglos; die AfD konnte jedoch bei der Bundestagswahl 2017 über 12 % erreichen und zog somit in den Bundestag ein. Die vorhergegangenen eher schwachen Ergebnisse werden in der sozialwissenschaftlichen Debatte mit dem Unvermögen der bisherigen rechtspopulistischen Parteien erklärt, das auch in Deutschland vorhandene Wählerpotential auszuschöpfen. Als Gründe dafür werden unter anderem mangelnde politische Fähigkeiten der rechtspopulistischen Akteure, das Fehlen einer überzeugenden Führungspersönlichkeit und die durch die deutsche Geschichte geprägte politische Kultur genannt.
Auch innerhalb des Rechtspopulismus gibt es deutlich zu unterscheidende Strömungen, die in Teilaspekten sogar gegensätzlich sein können. So vertreten die Perussuomalaiset („Wahren Finnen“) traditionell-konservative Werte und sind in soziokulturellen Fragen autoritär, während Pim Fortuyn in den Niederlanden ein soziokulturell libertäres Programm hatte und sich nicht an der Nation oder einem ethnischen Volksbegriff, sondern an der „westlichen“ Kultur orientierte.
Der Schweizer Politikwissenschaftler Laurent Bernhard schreibt, dass sich der Rechtspopulismus vor allem in Nordeuropa entfalte, während Südeuropa zu Linkspopulismus neige. Ein Sonderfall sei Frankreich, wo beide Formen vorhanden seien.
Linkspopulismus
Auch linkspopulistische Parteien weisen typische Merkmale des Populismus auf. Hinzu kommt bei ihnen jedoch eine dem Sozialismus und der Sozialdemokratie nahestehende politische Ausrichtung. Sie betonen beispielsweise soziale Gerechtigkeit, Antikapitalismus, Antiglobalisierung und Pazifismus. Gegenüber den älteren sozialistischen und sozialdemokratischen Parteien sind Klassenfragen und sozialistische Ideologie bei linkspopulistischen Parteien jedoch weniger wichtig. Im Gegensatz zum Rechtspopulismus, der die Ausgrenzung bestimmter Menschengruppen betreibt, geht es dem linken Populismus um eine möglichst chancengleiche Einbeziehung und Mitwirkung unterprivilegierter Gesellschaftsgruppen. Diese soll durch verbesserte Partizipation und durch Umverteilung des gesellschaftlichen Reichtums erreicht werden. Dazu streben Linkspopulisten typischerweise ein neben den bestehenden staatlichen Institutionen stehendes, parlamentarisch nicht kontrolliertes, sondern direkt an die jeweilige Führungsperson gebundenes Klientelsystem an. Der Linkspopulismus ist heute insbesondere in Lateinamerika (Argentinien, Bolivien, Brasilien, Chile, Ecuador, Guyana, Peru, Uruguay und Venezuela) verbreitet. Bekannte linkspopulistische Politiker sind Evo Morales (Bolivien), Rafael Correa (Ecuador), Fernando Lugo (Paraguay) und Hugo Chávez (Venezuela).
Auch in den Vereinigten Staaten und Kanada hat der Linkspopulismus laut Andrej Zaslove eine lange Geschichte. Beispiele in Europa seien Grüne Politik, in Deutschland die Partei PDS, aus der die heutige Partei Die Linke hervorging, in Italien die gegen die Regierung Berlusconi gerichtete Girotondi-Bewegung von 2002/03, in Tschechien die Komunistická strana Čech a Moravy oder in der Slowakei die Partei Komunistická strana Slovenska.
Weitere Unterscheidungen
Neben dem (radikalen) Rechtspopulismus benennt Cas Mudde zwei weitere Typen populistischer Parteien in Europa: Sozialpopulisten und neoliberale Populisten. Weitere Populismusforscher haben diese Kategorien übernommen. Demnach verbindet sich radikaler Rechts- oder Nationalpopulismus mit Ethnonationalismus als „Wirtsideologie“, verbindet sich neoliberaler (marktradikaler) Populismus mit Neoliberalismus und Sozialpopulismus mit demokratischem Sozialismus.
Christoph Butterwegge konstatierte schon 2008, dass sich „der moderne Rechtsextremismus bzw. -populismus […] nicht von seinen sozioökonomischen Rahmenbedingungen ablösen (lasse), sondern nur im Kontext einer größeren Weltmarktdynamik“ zu verstehen sei. Der marktradikale Neoliberalismus spiele in Tagespolitik wie im Alltagsbewusstsein eine herrschende Rolle; er sei Ausdruck der Tatsache, dass das Primat der Politik beendet sei. Gegen die Zumutung universalistischer Marktgesetze, die die Globalisierung der Arbeitsmärkte und der Kulturen einschließen, versuchen die Rechtspopulisten lokale und nationale Schutzzäune zu errichten, während die Linkspopulisten universelle Gleichheit durch Umverteilung realisieren wollen.
Der Politikwissenschaftler Kai-Olaf Lang unterscheidet bei der Beschreibung populistischer Parteien in den postkommunistischen Ländern Mittel- und Osteuropas sieben Typen von Populisten: Nationalpopulisten, Linkspopulisten, Agrarpopulisten, Populisten der Mitte, Nationalliberale und Nationalkonservative, Sozialpopulisten sowie Law-and-Order-Populisten. Dabei fasst er die drei erstgenannten Gruppen als „harte“ und die vier übrigen als „weiche Populisten“ zusammen. Zu den letzteren zählt er nicht nur an den Rändern des politischen Spektrums stehende Parteien, sondern auch große und relativ gemäßigte, z. B. Občanská demokratická strana in Tschechien und Fidesz in Ungarn (nationalliberal oder nationalkonservativ), Recht und Gerechtigkeit in Polen (Law and Order), Smer in der Slowakei und Estnische Zentrumspartei (sozialpopulistisch) sowie Res Publica in Estland und Jaunais laiks in Lettland (Populismus der Mitte).
Bei Anwendung eines weiten Populismusbegriffs fasst Klaus von Beyme auch die Grünen in ihrer frühen Phase sowie die „WutbürgerInnen“ der internationalen Occupy-Bewegung als Vertreter von Spielarten des Populismus. Die Piratenpartei Deutschland bezeichnet er als „basisdemokratisch-populistisch“. Der Versuch, „alles von der repräsentativen Demokratie Abweichende“ als Populismus zu erfassen, wird aber von anderer Seite kritisiert.
Die österreichische Autorin Sylvia Szely spricht in Bezug auf den Populismus der jungen politischen Führer Europas wie Sebastian Kurz und Luigi Di Maio, die der Generation Y entstammen, von einem Populismus light. Sie setzten sich von rechten Hardlinern ab und seien mit Internet und mobiler Kommunikation, mit Werbung und Marketing aufgewachsen. Sie hätten in jungen Jahren den Terroranschlag auf die Twin Towers in New York und andere globale Krisen miterlebt und seien daher relativ resistent gegenüber Gefühlen von Unsicherheit; sie seien außerdem „Meister im Improvisieren“ und managten ihre Parteien und Regierungen „wie ein CEO seine Firma“.
Strategische Aspekte von Populismus und Populismuskritik
Populismus kann auch in einer Strategie für die Präsentation von politischen Inhalten bestehen. Kern des Rechtspopulismus sei die Provokation, der Bruch von Tabus, heißt es bei Wolfgang Merkel und Robert Vehrkamp. Zu den Merkmalen populistischer Strategie gehören emotionale Kampagnen, in denen vereinfachende Lösungen für komplexe Probleme propagiert werden. Dabei handelt es sich oft um politischen Opportunismus mit dem Zweck, Wähler hinzuzugewinnen. Wer als Populist bezeichnet wird, stellt sich demgegenüber gern selbst als jemand dar, der Tabuthemen aufgreift und eine vermeintlich bürgerferne Politik bekämpft.
Auf der anderen Seite wird kritisiert, dass nahezu jede populäre politische Forderung als populistisch behandelt und abgetan werde, die dem echten oder vermuteten Mehrheitswillen der Bevölkerung entspreche, aber im Widerspruch zu Zielsetzungen bzw. zur politischen Praxis der Regierenden stehe. Kritiker sehen darin ein gestörtes Verhältnis zur Demokratie, besonders wenn unpopuläre Regierungen für ihr Handeln „höhere Einsicht“ reklamieren.
Der Philosoph und Soziologe Oliver Marchart kritisiert die Strategie, massenwirksame Forderungen als „populistisch“ abzuwehren, als Ausdruck eines „liberalen Antipopulismus“, einer Abwehrstrategie gegen denkbare Alternativen, ohne auf die Inhalte der Alternativen eingehen zu müssen: Wenn zutreffe, dass „Populismus an sich noch keinen bestimmten ideologischen Inhalt hat, dann ist auch die pauschale Kritik am Populismus inhaltslos. Denn dann wird nur eine bestimmte Form der Mobilisierung kritisiert. Wofür konkret mobilisiert wird, ist dann nebensächlich.“ Auch die Strategie der Beschämung der Wähler populistischer Parteien hält er für letztlich kontraproduktiv: „Leute zu beschämen ist eine der effektivsten Arten, sie still zu halten, weil sie damit auch ihre eigene untergeordnete Position internalisieren. […] Armut oder Arbeitslosigkeit werden durch die Politik der letzten Jahre immer mehr als selbstverschuldet dargestellt. Aber auch die Beschämung der sogenannten Rechtswähler als männliche, weiße Rassisten wirkt kontraproduktiv.“
Populismus und Medien
Paul Virilio sah den Einfluss der Medien auf die Politik bereits in den 1990er Jahren als eine Hauptursache des Aufstiegs populistischer Strömungen an: Die Virtualisierung der Politik, ihre Verlagerung in den medialen Raum habe in Italien den Boden für den Erfolg Silvio Berlusconis bereitet; an die Stelle des Machtwechsels zwischen parlamentarischen Kräften trete der Machtwechsel zwischen Politik und Medien, an die Stelle der Bedeutung der Wahlen die der Meinungsumfragen und der Einschaltquoten.
Auch wird die „Medienlogik“ der modernen „Mediendemokratie“ in den Medienwissenschaften als Nährboden für „populistische Stimmungen“ gesehen. Die Medienlogik regele vorrangig nach dem System der Selektionslogik die Auswahl der Nachrichten nach ihrem Ereignis- und Nachrichtenwert und nach einem Regelsystem der Präsentationslogik. Nach der Präsentationslogik sei es das Ziel, durch einen Kriterienkatalog von „Inszenierungsformen“ für die ausgewählten Nachrichten ein Maximum eines „anhaltenden Publikumsinteresses“ zu erreichen. Das führe in fast allen Medien zu „Präsentationsebenen“, die durch „spannungsreiche theatralische Inszenierungen“ gekennzeichnet sind.
Als spezieller Nährboden für Populismus zeigt sich in diesem Zusammenhang eine sowohl von den politischen Akteuren als auch von den medialen Beobachtern geprägte Kommunikationsstruktur, bei der die öffentliche Darstellung von Politik und ihr tatsächlicher Vollzug voneinander getrennt werden. Medienwissenschaftler wie Thomas Meyer zählen zu den diesbezüglichen Erscheinungsformen „symbolische Scheinpolitik“, „mediengerechte Theatralisierung“, „Event-Politik“ und „Image-Politik“. Nach Andreas Dörner werden diese Ausformungen Politainment genannt.
Auch manchen Massenmedien wird der Vorwurf des Populismus gemacht, in den USA zum Beispiel dem Fernsehsender Fox News, in Großbritannien dem Boulevardblatt The Sun, in Deutschland der Bild, in Österreich der Kronen Zeitung und in der Schweiz dem Blick.
Populismus und Verschwörungstheorien
In der wissenschaftlichen Literatur werden seit einiger Zeit Korrelationen zwischen dem gegenwärtigen Populismus und Verschwörungstheorien festgestellt. Als Beispiele für das gehäufte Auftreten von Verschwörungstheorien bei Populisten werden unter anderem der venezolanische Präsident Hugo Chavez genannt, die polnische Regierungspartei Prawo i Sprawiedliwość, die ungarische Regierungspartei Fidesz und der deutsche Rechtspopulismus, wo die Ansicht verbreitet ist, die Flüchtlingskrise sei das Werk geheimer Eliten, die eine Umvolkung oder eine Zerstörung der Werte des christlichen Abendlandes im Schilde führten. Die Nähe zwischen beiden Denkweisen wird unter anderem mit der ihnen gemeinsamen Elitenkritik und der für beide typischen Komplexitätsreduktion erklärt. Zudem kann die Verwandtschaft von Populismus und Verschwörungstheorien mit der Tendenz einiger Populisten erklärt werden, die angeblich unbefangenen Beobachtungen „einfacher Leute“ als das einzig wahre Wissen anzusehen und wissenschaftliches Wissen demgegenüber als etwas darzustellen, das von den Macht- und Profitinteressen oder den politischen Überzeugungen einer akademischen Elite geprägt ist, wie die Kommunikationswissenschaftler Niels G. Mede und Mike S. Schäfer mit dem Konzept des „wissenschaftsbezogenen Populismus“ beschreiben. Nach dem deutschen Amerikanisten Michael Butter sind Verschwörungstheorien zwar kein notwendiges Element des populistischen Diskurses, insofern dieser auch ohne sie auskommt, es gelinge ihm aber gut, Verschwörungstheoretiker und Nichtverschwörungstheoretiker zu integrieren.
In zwei sozialpsychologischen Studien aus dem Jahr 2017 ließ sich eine signifikante Parallele zwischen populistischen und verschwörungstheoretischen Überzeugungen hinsichtlich des Glaubens daran nachweisen, dass angeblich kleine Gruppen das Weltgeschehen und den Zugang zu Informationen auf Kosten der Allgemeinheit kontrollieren. Bei Verschwörungstheorien, die der eigenen Regierung Verbrechen und Terrorismus vorwerfen, fand sich kein statistischer Zusammenhang. Gesundheitsbezogene Verschwörungstheorien (Impfgegner, Gedankenkontrolle), eher in bessergestellten, für Populismus weniger anfälligen sozialen Milieus vermutet, sind populistischen Thesen dagegen weniger nah; so werde den „Eliten“ von diesen Verschwörungsgläubigen eher Böswilligkeit unterstellt, während Populisten sie lieber als gierig und egoistisch darstellten. Eine verschwörungstheoretische Weltsicht wird zusammenfassend als starker Prädiktor für Anti-Elitismus und einen als einheitlich imaginierten Volkswillen gesehen.
Die Politikwissenschaftler Nancy L. Rosenblum und Russell Muirhead argumentieren, dass Donald Trump sowohl populistisch als auch verschwörungsideologisch argumentiere: Er präsentiere sich gleichzeitig als Verteidiger des Volkes (zum Beispiel gegen illegale Einwanderung) und als Opfer von Verschwörungen (der National Park Service würde die wahre Zahl der Besucher bei seiner Amtseinführung geheim halten). Beide Argumentationsmuster würden den Pluralismus ablehnen. Dennoch bleibe der Populismus innerhalb der Grenzen der repräsentativen Demokratie und sei grundsätzlich Argumenten, Belegen und dem gesunden Menschenverstand zugänglich. Die neue Verschwörungsideologie, die Rosenblum und Muirhead sehen, setze dagegen allein auf ständig wiederholte Behauptungen. Zudem würden Populisten die angeblich spontan geäußerte, authentische Stimme des Volkes in den Mittelpunkt stellen, während Verschwörungstheoretiker für sich in Anspruch nehmen, sie allein verstünden, was wirklich an False-Flag-Operationen und an Machenschaften des „Deep State“ vorgehe. Insofern sähen sie sich als eine neue Elite mit priviliegiertem Zugang zu Geheimwissen. Diese Verschwörungsideologien stellten somit einen Angriff auf die Demokratie dar.
Politische Gegenmittel
Um die Grundwerte der bestehenden demokratischen Ordnung zu verteidigen, gilt es für Michael Zürn, Kritik am Status quo zu üben, ohne „das System“ verächtlich zu machen. Es gebe nur einen erfolgversprechenden Weg: „für die Demokratisierung der europäischen und internationalen Institutionen eintreten, den politischen Wettbewerb auf internationaler Ebene ermöglichen und diese Institutionen mit regulatorischer Kraft auch zur Verhinderung von neoliberalen Auswüchsen ausstatten.“ Ein Festhalten am technokratischen „Weiter so“ berge die Gefahr, „den autoritären Populisten vollends zu erliegen.“ Deren Bekämpfung durch eine „präventive Renationalisierung“ gleiche hingegen „dem Selbstmord aus Angst vor dem Tod.“
Einen „zweigleisigen Antipopulismus“, der zum einen auf Abgrenzung, zum anderen auf Responsivität im Sinne einer engeren Wähleranbindung setzt, empfehlen Wolfgang Merkel und Robert Vehrkamp. Populisten, die entlang der alten sozialen und der neuen kulturellen Konfliktlinien mobilisierten, hätten zu deren Überwindung keine eigenen Angebote. Diese müssten von der demokratischen, antipopulistischen Gegenmobilisierung kommen. „Eine verteilungsgerechtere Sozialpolitik, mehr sozialer Wohnungsbau, mehr Bildungschancen für alle, mehr Rentengerechtigkeit und bezahlbare Pflege für alle“, meinen die Autoren mit Blick auf die gegenwärtige Lage in Deutschland, „sind deshalb nicht nur vernünftige Politik, sondern Bausteine eines erfolgreichen Antipopulismus.“
Mitunter wird Mitte-Parteien kritisch vorgeworfen, als Reaktion auf den Aufstieg populistischer Akteure diese zu dämonisieren. So würden Mitte-links und Mitte-rechts-Parteien insbesondere Rechtspopulisten als undemokratisch bezeichnen und in die Nähe des Faschismus rücken. Empirisch lässt sich dies jedoch nicht systematisch bestätigen. Jakob Schwörer und Belén Fernández-García kamen zu dem Ergebnis, dass diese Praxis in Westeuropa weniger verbreitet ist als gewöhnlich angenommen und dass Mitte-rechts Parteien sogar davor zurückschrecken, Rechtspopulisten diskursiv scharf anzugreifen. Häufiger würden sie den Begriff Populismus verwenden, um populistische Akteure als solche zu kritisieren.
Siehe auch
Argumentum ad populum
Ochlokratie
Demagogie
Literatur
Akel, Alexander: Strukturmerkmale extremistischer und populistischer Ideologien. Gemeinsamkeiten und Unterschiede. Nomos, Baden-Baden 2021, ISBN 978-3-8487-8012-9.
Thorsten Beigel/Georg Eckert (Hrsg.): Populismus. Varianten von Volksherrschaft in Geschichte und Gegenwart. Aschendorff, Münster 2017, ISBN 978-3-402-13218-0.
Philippe Bernier Arcand: La dérive populiste. Poètes de brousse, 2013. ISBN 978-2-923-33862-0.
Winfried Brömmel, Helmut König, Manfred Sicking: Populismus und Extremismus in Europa. Gesellschaftswissenschaftliche und sozialpsychologische Perspektiven. transcript, Bielefeld 2017, ISBN 978-3-8376-3838-7.
Ralf Dahrendorf: Acht Anmerkungen zum Populismus. In: Transit. 2/2003 (online)
Frank Decker (Hrsg.): Populismus in Europa. VS Verlag, Wiesbaden 2006. Lizenzausgabe für die Bundeszentrale für politische Bildung Bonn, ISBN 3-89331-680-9.
Roger Eatwell, Matthew Goodwin: National Populism. The Revolt Against Liberal Democracy. Pelican Books, London 2018, ISBN 978-0-241-31200-1.
David Goodhart: The Road to Somewhere: The Populist Revolt and the Future of Politics. C. Hurst & Co, 2017, ISBN 978-1-84904-799-9.
Birgitt Haller, Anton Pelinka (Hrsg.): Populismus. Herausforderung oder Gefahr für die Demokratie (= Studienreihe Konfliktforschung. Bd. 27). Sir Peter Ustinov Institut, NAP New Academic Press, Wien 2013, ISBN 978-3-7003-1849-1.
Florian Hartleb: Populismus. In: Martin Hartmann, Claus Offe (Hrsg.): Politische Theorie und politische Philosophie. Ein Handbuch (= Beck’sche Reihe. Bd. 1819). C.H. Beck, München 2011, ISBN 978-3-406-60157-6, S. 53–55.
Florian Hartleb: Populismus als Totengräber oder mögliches Korrektiv der Demokratie? In: Aus Politik und Zeitgeschichte. Nr. 5–6, 2012, S. 22–29.
Everhard Holtmann, Adrienne Krappidel, Sebastian Rehse: Die Droge Populismus – Zur Kritik des politischen Vorurteils. VS Verlag für Sozialwissenschaften, Wiesbaden 2006, ISBN 3-531-15038-3.
Dirk Jörke, Veith Selk: Theorien des Populismus zur Einführung. Junius, Hamburg 2017, ISBN 978-3-88506-798-6.
Alexander Kirchner: Populismus. In: Gert Ueding (Hrsg.): Historisches Wörterbuch der Rhetorik. Bd. 11. WBG, Darmstadt 2011, Sp. 933–946.
Cornelia Koppetsch: Die Gesellschaft des Zorns – Rechtspopulismus im globalen Zeitalter. transcript, Bielefeld 2019.
Seongcheol Kim und Aristotelis Agridopoulos (Hrsg.): Populismus, Diskurs, Staat. (= Staatsverständnisse. Nr. 141). Nomos, Baden-Baden 2020.
Ernesto Laclau: On Populist Reason. Verso, London 2007, ISBN 978-1-84467-186-1 (englisch).
Jürgen P. Lang: Volk und Feind – Der neue deutsche Populismus. Analyse einer Ideologisierung. Lit-Verlag, Münster 2022, ISBN 978-3-643-14998-5
Philip Manow: Die Politische Ökonomie des Populismus. suhrkamp, Frankfurt am Main, 2018, ISBN 978-3-518-12728-5.
Yves Mény, Yves Surel (Hrsg.): Democracies and the Populist Challenge. Palgrave Macmillan, Basingstoke 2014, ISBN 978-0-333-97004-1.
Sergiu Mișcoiu: Au pouvoir par le Peuple! Le populisme saisi par la théorie du discours. L’Harmattan, 2012.
Cas Mudde, Cristóbal Rovira Kaltwasser: Populism. A Very Short Introduction. Oxford University Press, Oxford u. a. 2017, ISBN 978-0-19-023487-4.
Cas Mudde, Cristóbal Rovira Kaltwasser: Populism in Europe and the Americas. Threat or Corrective for Democracy? Cambridge University Press, New York 2012.
Jan-Werner Müller: Was ist Populismus? Ein Essay, Suhrkamp, Berlin 2016, ISBN 978-3-518-12697-4.
Kolja Möller: Volksaufstand & Katzenjammer. Zur Geschichte des Populismus. Wagenbach, Berlin 2020, ISBN 978-3-8031-3696-1.
Kolja Möller (Hrsg.): Populismus. Ein Reader. suhrkamp, Berlin 2022, ISBN 978-3-518-29940-1.
Karin Priester: Populismus. Historische und aktuelle Erscheinungsformen. Campus, Frankfurt am Main/ New York, NY 2007, ISBN 978-3-593-38342-2.
Karin Priester: Rechter und linker Populismus. Annäherung an ein Chamäleon. Campus, Frankfurt am Main 2012, ISBN 978-3-593-39793-1.
Leo Roepert: Die konformistische Revolte. Zur Mythologie des Rechtspopulismus. transcript, Bielefeld 2022, ISBN 978-3-8376-6272-6.
Armin Schäfer. Michael Zürn: Die demokratische Regression. Die politischen Ursachen des autoritären Populismus. Suhrkamp, Berlin 2021, ISBN 978-3-518-12749-0.
Jutta Scherrer: Populismus. In: Joachim Ritter, Karlfried Gründer, Gottfried Gabriel (Hrsg.): Historisches Wörterbuch der Philosophie. Bd. 7. Wissenschaftliche Buchgesellschaft, Sp., Darmstadt S. 1100–1104.
Harald Schmidt: Populismus – Gefahr oder Chance für den demokratischen Verfassungsstaat? Katholische Universität Eichstätt-Ingolstadt, 2015, . (Dissertation Katholische Universität Eichstätt-Ingolstadt, 2009, (Volltext), PDF).
Bernd Stegemann: Das Gespenst des Populismus: Ein Essay zur politischen Dramaturgie. Theater der Zeit, Berlin 2017. (Kurzfassung: Bernd Stegemann: Der liberale Populismus und seine Feinde. In: Blätter für deutsche und internationale Politik. 2017/4, S. 81–94.)
Paul Taggart: Populism. Buckingham, Philadelphia 2000.
Carlos de la Torre (Hrsg.): The Promise and Perils of Populism. Global Perspectives. University Press of Kentucky, 2015.
Bert van Roermund: Populismus und Demokratie: eine Kritik auf den Spuren Leforts. In: Andreas Wagner (Hrsg.): Am leeren Ort der Macht. Nomos, Baden-Baden, S. 143–166.
Nikolaus Werz (Hrsg.): Populismus. Populisten in Übersee und Europa (= Analysen. Band 7). Leske + Budrich, Opladen 2003, ISBN 3-8100-3727-3.
Weblinks
Kai Arzheimer: Forschungsprojekt: Die Wähler der extremen Rechten in Westeuropa 1980–2002/2003.
Populismus, Schwerpunkt auf Eurotopics. Bundeszentrale für politische Bildung.
Franz Walter: Linkspopulismus: Vergreisung als Chance. In: Spiegel Online. 31. Mai 2006.
Wolfgang Gessenharter: (PDF; 155 kB). Vortrag, Tagung „Ursachen und Folgen des Rechtspopulismus in Europa“, Loccum, Mai 2003.
Oliver Geden: Alpiner Rechtspopulismus. (PDF; 260 kB). In: Frankfurter Allgemeine Zeitung. 19. August 2008.
Clemens Knobloch: Beobachtungen über den jüngsten Gebrauch des Wortes Populismus. In: Zeitschrift für Angewandte Diskurstheorie. Nr. 72, 2017, S. 37–46.
Florian Hartleb: Nach ihrer Etablierung. Rechtspopulistische Parteien in Europa. Begriff – Strategie – Wirkung. Zukunftsforum Politik, Sankt-Augustin/Berlin 2011: Konrad-Adenauer-Stiftung, (kas.de)
Karin Priester: Wesensmerkmale des Populismus. Bundeszentrale für politische Bildung, 26. Januar 2012
Michael Kazin: Trump and American Populism. Old Whine, New Bottles. In: Foreign Affairs. 6. Oktober 2016. Kurzer historischer Überblick über amerikanischen Populismus.
Matthijs Rooduijn u. a.: The PopuList. Das Projekt bietet einen Überblick über populistische Parteien in Europa seit dem Jahr 1998.
Philip Manow: Populismus – Eine vergleichende Erklärung. In: Themen Thesen Texte. 7/2018, vom Exzellenzcluster „Kulturelle Grundlagen von Integration“ der Universität Konstanz.
Anmerkungen
Öffentlichkeit
Politische Strategie
|
Q180490
| 205.819891 |
44851
|
https://de.wikipedia.org/wiki/Polarkoordinaten
|
Polarkoordinaten
|
In der Mathematik und Geodäsie versteht man unter einem Polarkoordinatensystem (auch: Kreiskoordinatensystem) ein zweidimensionales Koordinatensystem, in dem jeder Punkt in einer Ebene durch den Abstand von einem vorgegebenen festen Punkt und durch den Winkel zu einer festen Richtung festgelegt wird.
Der feste Punkt wird als Pol bezeichnet; er entspricht dem Ursprung bei einem kartesischen Koordinatensystem. Der vom Pol in der festgelegten Richtung ausgehende Strahl heißt Polarachse. Der Abstand vom Pol wird meist mit oder bezeichnet und heißt Radius oder Radialkoordinate, der Winkel wird mit oder bezeichnet und heißt Winkelkoordinate, Polarwinkel, Azimut oder Argument.
Polarkoordinaten bilden einen Spezialfall von orthogonalen krummlinigen Koordinaten. Sie sind hilfreich, wenn sich das Verhältnis zwischen zwei Punkten leichter durch Winkel und Abstände beschreiben lässt, als dies mit - und -Koordinaten der Fall wäre. In der Geodäsie sind Polarkoordinaten die häufigste Methode zur Einmessung von Punkten (Polarmethode). In der Funknavigation wird das Prinzip oft als „Rho-Theta“ (für Distanz- und Richtungsmessung) bezeichnet.
In der Mathematik wird die Winkelkoordinate im mathematisch positiven Drehsinn (Gegenuhrzeigersinn) gemessen. Wird gleichzeitig ein kartesisches Koordinatensystem benutzt, so dient in der Regel dessen Koordinatenursprung als Pol und die -Achse als Polarachse. Die Winkelkoordinate wird also von der -Achse aus in Richtung der -Achse gemessen. In der Geodäsie und in der Navigation wird das Azimut von der Nordrichtung aus im Uhrzeigersinn gemessen.
Polarkoordinatenpapier ist mit einem Polarkoordinatensystem bedruckt.
Geschichte
Die Begriffe Winkel und Radius wurden bereits von den Menschen des Altertums im ersten Jahrtausend vor Christus verwendet. Der griechische Astronom Hipparchos (190–120 v. Chr.) erstellte eine Tafel von trigonometrischen Sehnenfunktionen, um die Länge der Sehne für die einzelnen Winkel zu finden. Mit Hilfe dieser Grundlage war es ihm möglich, die Polarkoordinaten zu nutzen, um damit die Position bestimmter Sterne festlegen zu können.
Sein Werk umfasste jedoch nur einen Teil des Koordinatensystems.
In seiner Abhandlung Über Spiralen beschreibt Archimedes eine Spirallinie mit einer Funktion, deren Radius sich abhängig von seinem Winkel ändert.
Die Arbeit des Griechen umfasste jedoch noch kein volles Koordinatensystem.
Es gibt verschiedene Beschreibungen, um das Polarkoordinatensystem als Teil eines formalen Koordinatensystems zu definieren. Die gesamte Historie zu diesem Thema wird in dem Aufsatz Origin of Polar Coordinates (Ursprung der Polarkoordinaten) des Harvard-Professors Julian Coolidge zusammengefasst und erläutert.
Demnach führten Grégoire de Saint-Vincent und Bonaventura Cavalieri diese Konzeption unabhängig voneinander in der Mitte des 17. Jahrhunderts ein. Saint-Vincent schrieb im Jahre 1625 auf privater Basis über dieses Thema und veröffentlichte seine Arbeit 1647, während Cavalieri seine Ausarbeitung 1635 veröffentlichte, wobei eine korrigierte Fassung 1653 erschien. Cavalieri benutzte Polarkoordinaten anfangs, um ein Problem in Bezug auf die Fläche der Archimedischen Spirale zu lösen. Etwas später verwendete Blaise Pascal Polarkoordinaten, um die Länge von parabolischen Winkeln zu berechnen.
In dem Werk Method of Fluxions (Fluxionsmethode) (geschrieben 1671, veröffentlicht 1736) betrachtet Sir Isaac Newton die Transformation zwischen Polarkoordinaten, auf die er sich als „Seventh Manner; For Spirals“, (Siebte Methode; Für Spiralen) bezog, und neun anderen Koordinatensystemen.
Es folgte Jacob Bernoulli, der in der Fachzeitschrift Acta Eruditorum (1691) ein System verwendete, das aus einer Geraden und einem Punkt auf dieser Geraden bestand, die er Polarachse bzw. Pol nannte. Die Koordinaten wurden darin durch den Abstand von dem Pol und dem Winkel zu der Polarachse festgelegt.
Bernoullis Arbeit reichte bis zu der Formulierung des Krümmungskreises von Kurven, die er durch die genannten Koordinaten ausdrückte.
Der heute gebräuchliche Begriff Polarkoordinaten wurde von Gregorio Fontana schließlich eingeführt und in italienischen Schriften des 18. Jahrhunderts verwendet.
Im Folgenden übernahm George Peacock im Jahre 1816 diese Bezeichnung in die englische Sprache, als er die Arbeit von Sylvestre Lacroix Differential and Integral Calculus (Differential und Integralberechnung) in seine Sprache übersetzte.
Alexis-Claude Clairaut hingegen war der erste, der über Polarkoordinaten in drei Dimensionen nachdachte, deren Entwicklung jedoch erst dem Schweizer Mathematiker Leonhard Euler gelang.
Polarkoordinaten in der Ebene: Kreiskoordinaten
Definition
Die Polarkoordinaten eines Punktes in der euklidischen Ebene (ebene Polarkoordinaten) werden in Bezug auf einen Koordinatenursprung (einen Punkt der Ebene) und eine Richtung (einen im Koordinatenursprung beginnenden Strahl) angegeben.
Das Polarkoordinatensystem ist dadurch eindeutig festgelegt, dass ein ausgezeichneter Punkt, auch Pol genannt, den Ursprung/Nullpunkt des Koordinatensystems bildet.
Ferner wird ein von ihm ausgehender Strahl als sogenannte Polachse ausgezeichnet. Letztlich muss noch eine Richtung (von zwei möglichen), die senkrecht zu dieser Polachse ist, als positiv definiert werden, um den Drehsinn / die Drehrichtung / die Orientierung festzulegen.
Nun lässt sich ein Winkel, der Polarwinkel, zwischen einem beliebigen Strahl, der durch den Pol geht, und dieser ausgezeichneten Polachse definieren.
Er ist nur bis auf ganzzahlige Umdrehungen um den Pol eindeutig, unabhängig davon, was als Winkelmaß für ihn gewählt wird. Auf der Polachse selbst erfolgt noch eine beliebige, aber feste Skalierung, um die radiale Einheitslänge zu definieren. Nun kann jedem Paar ein Punkt der Ebene eindeutig zugeordnet werden, wobei man die erste Komponente als radiale Länge und die zweite als polaren Winkel ansieht. Solch ein Zahlenpaar bezeichnet man als (nicht notwendigerweise eindeutige) Polarkoordinaten eines Punktes in dieser Ebene.
Ebene Polarkoordinaten (mit Winkelangaben in Grad) und ihre Transformation in kartesische Koordinaten
Die Koordinate , eine Länge, wird als Radius (in der Praxis auch als Abstand) und die Koordinate als (Polar)winkel oder, in der Praxis (gelegentlich) auch als Azimut bezeichnet.
In der Mathematik wird meistens der Winkel im Gegenuhrzeigersinn als positiv definiert, wenn man senkrecht von oben auf die Ebene (Uhr) schaut. Also geht die Drehrichtung von rechts nach oben (und weiter nach links). Als Winkelmaß wird dabei der Radiant als Winkeleinheit bevorzugt, weil es dann analytisch am elegantesten zu handhaben ist. Die Polarachse zeigt in grafischen Darstellungen des Koordinatensystems typischerweise nach rechts.
Umrechnung zwischen Polarkoordinaten und kartesischen Koordinaten
Umrechnung von Polarkoordinaten in kartesische Koordinaten
Wenn man ein kartesisches Koordinatensystem mit gleichem Ursprung wie das Polarkoordinatensystem, dabei die -Achse in der Richtung der Polarachse, und schließlich die positive -Achse in Richtung des positiven Drehsinnes wählt – wie in der Abbildung oben rechts dargestellt –, so ergibt sich für die kartesischen Koordinaten und eines Punktes:
Mit komplexen Zahlen und komplexwertigen Funktionen lässt sich dies schreiben als
Umrechnung von kartesischen Koordinaten in Polarkoordinaten
Die Umrechnung von kartesischen Koordinaten in Polarkoordinaten ist etwas schwieriger, weil man mathematisch gesehen dabei immer auf eine (nicht den gesamten Wertebereich des Vollwinkels umfassende) trigonometrische Umkehrfunktion angewiesen ist.
Zunächst kann aber der Radius mit dem Satz des Pythagoras einfach wie folgt berechnet werden:
Bei der Bestimmung des Winkels müssen zwei Besonderheiten der Polarkoordinaten berücksichtigt werden:
Für ist der Winkel nicht eindeutig bestimmt, sondern könnte jeden beliebigen reellen Wert annehmen. Für eine eindeutige Transformationsvorschrift wird er häufig zu 0 definiert. Die nachfolgenden Formeln sind zur Vereinfachung ihrer Herleitung und Darstellung unter der Voraussetzung angegeben.
Für ist der Winkel nur bis auf ganzzahlige Vielfache von bestimmt, da die Winkel und (für ) den gleichen Punkt beschreiben. Zum Zwecke einer einfachen und eindeutigen Transformationsvorschrift wird der Winkel auf ein halboffenes Intervall der Länge beschränkt. Üblicherweise werden dazu je nach Anwendungsgebiet die Intervalle oder gewählt.
Für die Berechnung von kann jede der Gleichungen
benutzt werden. Allerdings ist der Winkel dadurch nicht eindeutig bestimmt, auch nicht im Intervall oder , weil keine der drei Funktionen , und in diesen Intervallen injektiv ist. Die letzte Gleichung ist außerdem für nicht definiert. Deshalb ist eine Fallunterscheidung nötig, die davon abhängt, in welchem Quadranten sich der Punkt befindet, das heißt von den Vorzeichen von und .
Mit komplexen Zahlen und komplexwertigen Funktionen lässt sich die Transformation schreiben als
Berechnung des Winkels im Intervall (−π, π] bzw. (−180°,180°]
Mit Hilfe des Arkustangens kann wie folgt im Intervall bzw. bestimmt werden:
Einige Programmiersprachen (so zuerst Fortran 77) und Anwendungsprogramme (etwa Microsoft Excel) bieten eine Arkustangens-Funktion mit zwei Argumenten an, welche die dargestellten Fallunterscheidungen intern berücksichtigt und für beliebige Werte von und berechnet.
Zum selben Ergebnis kommt man, wenn man den Punkt in der kartesischen Ebene als komplexe Zahl auffasst und den Winkel
mittels der Argument-Funktion berechnet oder den Imaginärteil des Logarithmus von nimmt.
Mit Hilfe des Arkuskosinus kommt man mit nur zwei Fallunterscheidungen aus:
Durch Ausnutzen der Tatsache, dass in einem Kreis ein Mittelpunktswinkel stets doppelt so groß ist wie der zugehörige Umfangswinkel, kann das Argument auch mit Hilfe der Arkustangens-Funktion mit weniger Fallunterscheidungen berechnet werden:
Berechnung des Winkels im Intervall [0, 2π) bzw. [0, 360°)
Die Berechnung des Winkels im Intervall bzw. kann im Prinzip so durchgeführt werden, dass der Winkel zunächst wie vorstehend beschrieben im Intervall berechnet wird und, nur falls er negativ ist, noch um vergrößert wird:
Durch Abwandlung der ersten obenstehenden Formel kann wie folgt direkt im Intervall bestimmt werden:
Die Formel mit dem Arkuskosinus kommt auch in diesem Fall mit nur zwei Fallunterscheidungen aus:
Verschiebung des Winkels
Bei geodätischen oder anderen Berechnungen können sich Azimute mit Werten außerhalb des üblichen Intervalls mit der unteren Grenze (oder auch ) ergeben. Die Gleichung
verschiebt in das gewünschte Intervall, sodass also gilt. Dabei ist die zur nächsten Ganzzahl abrundende Floor-Funktion, also für jedes reelle die größte ganze Zahl, die nicht größer als ist.
Koordinatenlinien
Die beiden Koordinatenlinien durch den Punkt mit sind die Kurven
,
also eine Halbgerade, die im Koordinatenursprung beginnt, sowie ein Kreis mit dem Radius und dem Koordinatenursprung als Mittelpunkt.
Lokale Basisvektoren und Orthogonalität
In geradlinigen Koordinatensystemen gibt es eine Basis für den gesamten Vektorraum, in krummlinigen muss an jedem Punkt eine lokale Basis berechnet werden. Die lokalen Basisvektoren und an einem Punkt sind Tangentenvektoren an die Koordinatenlinien und ergeben sich aus den Kurvengleichungen durch Ableitung nach dem Kurvenparameter. Zum selben Ergebnis gelangt man auch durch partielle Ableitung der Koordinatentransformation für den Ortsvektor
nach den Koordinaten und :
und .
Die Basisvektoren haben die Längen
und
und sind zueinander orthogonal, denn es gilt:
.
Die entsprechenden Koordinatenlinien schneiden sich also rechtwinklig, die Polarkoordinaten bilden somit ein orthogonales Koordinatensystem.
In der Tensorrechnung werden die lokalen Basisvektoren, die tangential zu den Koordinatenlinien verlaufen, wegen ihres Verhaltens bei Koordinatentransformationen als kovariant bezeichnet.
Metrischer Tensor
Die Komponenten des kovarianten metrischen Tensors sind die Skalarprodukte der kovarianten lokalen Basisvektoren:
.
Nach den Rechnungen im vorigen Abschnitt ist damit
.
Funktionaldeterminante
Aus den Umrechnungsformeln von Polarkoordinaten in kartesische Koordinaten erhält man für die Funktionaldeterminante als Determinante der Jacobi-Matrix:
Flächenelement
Mit der Funktionaldeterminante ergibt sich für das Flächenelement in Polarkoordinaten:
Wie das nebenstehende Bild zeigt, lässt sich das Flächenelement als ein differentielles Rechteck mit der Breite und der Höhe interpretieren.
Linienelement
Aus den obigen Transformationsgleichungen
folgen
Für das kartesische Linienelement gilt
wofür in Polarkoordinaten folgt:
Ortsvektor, Geschwindigkeit und Beschleunigung in Polarkoordinaten
Mit den lokalen Basiseinheitsvektoren
und
ergibt sich für den Ortsvektor :
.
Ist der Ortsvektor abhängig von der Zeit, so müssen die Variablen und und damit auch die lokalen Basisvektoren abgeleitet werden:
.
Mit der Produktregel ergibt sich somit für den Geschwindigkeitsvektor :
.
Eine entsprechende Rechnung führt für die Beschleunigung zu dem Ergebnis
Räumliche Polarkoordinaten: Zylinder-, Kegel- und Kugelkoordinaten
Zylinderkoordinaten
Zylinderkoordinaten oder zylindrische Koordinaten sind im Wesentlichen ebene Polarkoordinaten, die um eine dritte Koordinate ergänzt sind.
Diese dritte Koordinate beschreibt die Höhe eines Punktes senkrecht über (oder unter) der Ebene des Polarkoordinatensystems und wird im Allgemeinen mit bezeichnet. Die Koordinate beschreibt jetzt nicht mehr den Abstand eines Punktes vom Koordinatenursprung, sondern von der -Achse.
Umrechnung zwischen Zylinderkoordinaten und kartesischen Koordinaten
Wenn man ein kartesisches Koordinatensystem so ausrichtet, dass die -Achsen zusammenfallen, die -Achse in Richtung zeigt und der Winkel von der -Achse zur -Achse wächst (rechtsgerichtet ist), dann ergeben sich die folgenden Umrechnungsformeln:
Für die Umrechnung von kartesischen Koordinaten in Zylinderkoordinaten ergeben sich für und die gleichen Formeln wie bei den Polarkoordinaten.
Für Punkte auf der z-Achse gibt es keine eindeutige Koordinatendarstellung: hier ist , aber beliebig.
Koordinatenlinien und Koordinatenflächen
Für die Koordinatentransformation als Vektorgleichung mit dem Ortsvektor
ergeben sich für einen Punkt
die Koordinatenlinien, indem man jeweils zwei der drei Koordinaten fest lässt und die dritte den Kurvenparameter darstellt
die Koordinatenflächen, indem man eine der drei Koordinaten fest lässt und die beiden anderen die Fläche parametrisieren.
Jeweils zwei Koordinatenflächen schneiden sich in einer Koordinatenlinie. Koordinatenlinien und Koordinatenflächen dienen dazu, die lokalen Basisvektoren (siehe unten) zu berechnen.
Durch den Punkt mit verlaufen drei Koordinatenlinien. Es handelt sich dabei
für als Kurvenparameter um eine Halbgerade, die im Punkt beginnt und senkrecht zur z-Achse verläuft
für als Kurvenparameter um einen Kreis senkrecht zur z-Achse mit dem Mittelpunkt und Radius
für als Kurvenparameter um eine Gerade parallel zur z-Achse.
Als Koordinatenflächen durch den Punkt mit ergeben sich
für konstanten Radius eine Zylinderfläche mit der z-Achse als Zylinderachse
für festen Winkel eine Halbebene mit der z-Achse als Rand
für konstanten Wert von eine Ebene senkrecht zur z-Achse.
Lokale Basisvektoren und Orthogonalität
In geradlinigen Koordinatensystemen gibt es eine Basis für den gesamten Vektorraum, in krummlinigen muss an jedem Punkt eine lokale Basis berechnet werden. Die lokalen Basisvektoren , und an einem Punkt sind Tangentenvektoren an die Koordinatenlinien und ergeben sich aus deren Kurvengleichungen durch Ableitung nach dem Kurvenparameter. Zum selben Ergebnis gelangt man auch durch partielle Ableitung der Koordinatentransformation für den Ortsvektor nach den Koordinaten , und :
, und .
Die Basisvektoren haben die Längen
, ,
und sind zueinander orthogonal.
Eine Normierung ergibt die Einheitsvektoren:
Die Basisvektoren , und sind zueinander orthonormal und bilden in dieser Reihenfolge ein Rechtssystem.
In der Tensorrechnung werden die lokalen Basisvektoren, die tangential zu den Koordinatenlinien verlaufen, wegen ihres Verhaltens bei Koordinatentransformationen als kovariant bezeichnet. Die kontravarianten Basisvektoren stehen senkrecht auf den Koordinatenflächen.
Metrischer Tensor
Die Komponenten des kovarianten metrischen Tensors sind die Skalarprodukte der kovarianten lokalen Basisvektoren:
.
Nach den vorangegangenen Rechnungen ist damit
.
Funktionaldeterminante
Die Hinzunahme der geradlinigen Koordinaten hat keinen Einfluss auf die Funktionaldeterminante:
Folglich ergibt sich für das Volumenelement :
Das entspricht auch der Quadratwurzel des Betrags der Determinante des metrischen Tensors, mit dessen Hilfe die Koordinatentransformation berechnet werden kann (siehe dazu Laplace-Beltrami-Operator).
Vektoranalysis
Die folgenden Darstellungen des Nabla-Operators können in der gegebenen Form direkt auf skalare oder vektorwertige Felder in Zylinderkoordinaten angewendet werden. Man verfährt hierbei analog zur Vektoranalysis in kartesischen Koordinaten.
Gradient
Die Darstellung des Gradienten überträgt sich wie folgt von kartesischen in Zylinderkoordinaten:
Divergenz
Bei der Divergenz kommen noch weitere Terme hinzu, die sich aus den Ableitungen der von , und abhängigen Einheitsvektoren ergeben:
Rotation
Die Darstellung der Rotation ist wie folgt:
Ortsvektor, Geschwindigkeit und Beschleunigung in Zylinderkoordinaten
Mit den lokalen Basiseinheitsvektoren
, und
ergibt sich für den Ortsvektor :
.
Ist der Ortsvektor abhängig von der Zeit, so müssen die Variablen , und und damit auch die davon abhängigen lokalen Basisvektoren abgeleitet werden:
.
Mit der Produktregel ergibt sich somit für den Geschwindigkeitsvektor :
.
Eine entsprechende Rechnung führt für die Beschleunigung zu dem Ergebnis
.
Kegelkoordinaten (Koordinaten-Transformation)
Parameterdarstellung
Die Parameterdarstellung des Kegels kann man wie folgt beschreiben. Mit der Abbildung lassen sich die Kegelkoordinaten in kartesische Koordinaten umrechnen. Mit der Abbildung lassen sich die kartesischen Koordinaten in Kegelkoordinaten umrechnen.
Umrechnung eines gegebenen Kegelsegments in Kegelkoordinaten
Die Parameter eines Kegelsegments seien gegeben durch (siehe nebenstehende Abbildung):
,
Dann lassen sich die Grenzen in Kegelparametern wie folgt ausdrücken:
.
Die Parameter eines soliden Kegelsegmentes bewegen sich also im Bereich:
.
Für die entsprechende Mantelfläche dieses Kegelsegmentes gilt folgende Parameterdarstellung:
.
Flächennormalenvektor
Der Flächennormalenvektor ist orthogonal zur Mantelfläche des Kegels. Er wird benötigt, um z. B. Flussberechnungen durch die Mantelfläche durchzuführen. Den Flächeninhalt der Mantelfläche lässt sich als Doppelintegral über die Norm des Flächennormalenvektors berechnen.
Einheitsvektoren der Kegelkoordinaten in kartesischen Komponenten
Die Einheitsvektoren in kartesischen Komponenten erhält man durch Normierung der Tangentenvektoren der Parametrisierung. Der Tangentenvektor ergibt sich durch die erste partielle Ableitung nach der jeweiligen Variablen. Diese drei Einheitsvektoren bilden eine Normalbasis. Es handelt sich hierbei nicht um eine Orthonormalbasis, da nicht alle Einheitsvektoren orthogonal zueinander sind.
Transformationsmatrizen
Jacobi-Matrix (Funktionalmatrix)
Die Funktionalmatrix und ihre Inverse werden benötigt, um später die partiellen Ableitungen zu transformieren.
Transformationsmatrix S
Die Transformationsmatrix wird benötigt, um die Einheitsvektoren und Vektorfelder zu transformieren. Die Matrix setzt sich aus den Einheitsvektoren der Parametrisierung als Spaltenvektoren zusammen. Genaueres findet man unter dem Artikel Basiswechsel.
Transformation der partiellen Ableitungen
Die partiellen Ableitungen lassen sich mit der inversen Jacobi-Matrix transformieren.
Als Ergebnis erhält man:
Transformation der Einheitsvektoren
Die Einheitsvektoren lassen sich mit der inversen Transformationsmatrix transformieren.
Als Ergebnis erhält man:
Transformation von Vektorfeldern
Vektorfelder lassen sich durch Matrixmultiplikation mit der Transformationsmatrix transformieren.
Als Ergebnis erhält man:
Oberflächen- und Volumendifferential
Das Volumendifferential lässt sich über die Determinante der Jacobi-Matrix angeben. Dies bietet die Möglichkeit z. B. das Volumen eines Kegels per Dreifachintegral zu berechnen.
Das Oberflächendifferential lässt sich mit der Norm des Flächennormalenvektors angeben. Damit kann man z. B. per Doppelintegral den Flächeninhalt der Mantelfläche bestimmen.
Transformierte Vektor-Differentialoperatoren
Nabla-Operator
Eine Darstellung des Nabla-Operators in Kegelkoordinaten erhält man, indem man die transformierten Einheitsvektoren und partielle Ableitungen in den kartesischen Nabla-Operator einsetzt:
Gradient
Den Gradienten in Kegelkoordinaten erhält man, indem man den transformieren Nabla-Operator auf ein Skalarfeld in Kegelkoordinaten anwendet.
Divergenz
Den Operator für die Divergenz eines Vektorfeldes erhält man, indem man den Nabla-Operator auf das Vektorfeld in Kegelkoordinaten anwendet:
Laplace-Operator
Der Laplace-Operator ist die Divergenz eines Gradienten. In Kegelkoordinaten ergibt dies den folgenden Operator:
Rotation
Die Rotation eines Vektorfeldes lässt sich als Kreuzprodukt des Nabla-Operators mit den Elementen des Vektorfelds auffassen:
Kugelkoordinaten
Kugelkoordinaten sind im Wesentlichen ebene Polarkoordinaten, die um eine dritte Koordinate ergänzt sind.
Dies geschieht, indem man einen Winkel für die dritte Achse spezifiziert.
Diese dritte Koordinate beschreibt den Winkel zwischen dem Vektor zum Punkt und der -Achse. ist genau dann null, wenn in der -Achse liegt.
n-dimensionale Polarkoordinaten
Es lässt sich auch eine Verallgemeinerung der Polarkoordinaten mit für einen -dimensionalen Raum mit kartesischen Koordinaten für angeben. Dazu führt man für jede neue Dimension (induktiver Aufbau über selbige) einen weiteren Winkel ein, der den Winkel zwischen dem Vektor und der neuen, positiven Koordinatenachse für angibt. Mit demselben Vorgehen kann in konsistenter Weise die Winkelkoordinate des 2-dimensionalen Raumes mittels induktiv aus dem Zahlenstrahl konstruiert werden, sofern für die radiale Koordinate auch negative Werte, also somit ganz , zugelassen wären.
Umrechnung in kartesische Koordinaten
Eine Umrechnungsvorschrift von diesen Koordinaten in kartesische Koordinaten wäre dann:
Wie man nachweisen kann, gehen diese Polarkoordinaten für den Fall in die gewöhnlichen Polarkoordinaten und für in die Kugelkoordinaten über.
Funktionaldeterminante
Die Funktionaldeterminante der Transformation von Kugelkoordinaten in kartesische Koordinaten beträgt:
Damit beträgt das -dimensionale Volumenelement:
Anmerkung: -dimensionale Zylinderkoordinaten sind einfach ein Produkt / eine Zusammensetzung -dimensionaler Kugelkoordinaten und -dimensionaler kartesischer Koordinaten mit und .
Literatur
Weblinks
FooPlot: Funktionsplotter mit Polarkoordinaten
3D-Drucker mit Polarkoordinatensteuerung
Einzelnachweise
Analysis
Analytische Geometrie
|
Q62494
| 208.526785 |
10959
|
https://de.wikipedia.org/wiki/Pizza
|
Pizza
|
Eine Pizza (Aussprache [], ital. [], deutscher Plural: die Pizzas oder die Pizzen) ist ein vor dem Backen würzig belegtes Fladenbrot aus einfachem Hefeteig aus der italienischen Küche. Die heutige international verbreitete Variante mit Tomatensauce und Käse als Basis stammt vermutlich aus Neapel. 2017 wurde die neapolitanische Kunst des Pizzabäckers (Art of Neapolitan ‘Pizzaiuolo’) von der UNESCO in die repräsentative Liste des immateriellen Kulturerbes der Menschheit aufgenommen.
Etymologie
Die Etymologie des Wortes Pizza ist nicht abschließend geklärt. Folgende Spuren wurden verfolgt:
Das Wort stammt vom langobardischen pizzo oder bizzo, was dem deutschen „Bissen“ entspricht, vgl. auch Imbiss. Diese Herleitung wird heute vom Dizionario etimologico della lingua italiana von 1979/1988 (Neudruck 1999) als richtig vermutet.
Das Wort stammt aus dem jüngeren orientalisch-semitischen Raum (z. B. dem Arabischen), ist von dort ins Griechische als Pita eingewandert und von da ins Italienische entlehnt worden.
Das Wort ist noch älter und steht in Zusammenhang mit dem hebräischen Wort פַת pat (Stück Brot; bibl. noch Brocken) oder Mittelägypt. bjt (Fladen).
Ihm liegt das italienische pitta (lateinisch picta) zugrunde, diesem vermutlich wiederum das griechische pēktos (πηκτός; fest, geronnen).
Das Wort stammt von einem anderen italienischen Wort, z. B.
von pestare, „zerstampfen“, wie auch bei Pesto, vgl. lateinisch pista „gestampft, gestoßen“, pistor „Bäcker, Müller“.
von pinza, einem Dialektwort, das immer noch in einigen italienischen Mundarten vorkommt und sich vom lateinischen pinsere (zerstoßen) ableitet. Im Mittellateinischen wurde das Verb in der Bedeutung „backen“ gebraucht. Vgl. auch Italienisch pinza und Venezianisch pinsa.
vom neapolitanischen piceà bzw. pizzà für „zupfen“ abgeleitet, vergleiche Kalabrisch pitta und Mittellateinisch pecia („Stück“, „Teil“, „Fetzen“).
Geschichte
18. Jahrhundert
Die nur mit Olivenöl beträufelte, mit Tomatenscheiben und Oregano oder Basilikum belegte Pizza ist seit etwa der Mitte des 18. Jahrhunderts nachgewiesen, als die Tomate in Süditalien populär wurde. Der Name ist vermutlich älter – die apulische Pizza pugliese oder die kalabresische Pitta inchiusa zum Beispiel enthalten neben Hefeteig nur seit alters bekannte Zutaten wie Olivenöl, Zwiebeln, Salz oder Schweineschmalz. Der ligurischen Focaccia ähnliche Fladenbrote sind seit der Antike verbreitet. Da Pizza bei sehr hoher Temperatur gebacken werden sollte, was in den wenigsten Haushalten möglich war, wurde sie anfangs vorbereitet und ungebacken zum örtlichen Bäcker gebracht, bis ein eigener Handwerkszweig der Pizzamacher, der Pizzaiolo, entstand, der den Teig selbst herstellte und belegte.
19. Jahrhundert / „Pizza Margherita“
Eine Pizza, die heutigen Vorstellungen entspricht, soll erstmals am 11. Juni 1889 in Neapel vom Pizzaiolo Raffaele Esposito von der Pizzeria Brandi hergestellt worden sein, der beauftragt worden sein soll, König Umberto I. und seiner Frau Margherita eine Pizza zu servieren. Diese soll er patriotisch mit Zutaten in den italienischen Nationalfarben belegt haben: Basilikum (grün), Mozzarella (weiß) und Tomaten (rot). Diese ist bis heute unter dem Namen „Pizza Margherita“ eine der bekanntesten und verbreitetsten, wenn nicht die verbreitetste Pizzavariante.
Die Legende dazu ist jedoch mittlerweile von Historikern widerlegt worden. Die Königin ließ sich bereits vorher von jeweils anderen Pizzabäckern Pizza in den Palast bringen. Im Jahr 1880 erschien hierüber ein Zeitungsartikel auch in der Washington Post: Aus einer Liste mit 35 verschiedenen Pizzabelägen wählte sie acht Sorten aus, die dann für sie gebacken wurden. Bei diesen Pizzabäckern handelte es sich nicht nur um Esposito. Er war lediglich der einzige, der die Empfangsbestätigung des Hofes aufbewahrte.
Gegenwart
Durch italienische Auswanderer verbreitete sich die Pizza gegen Ende des 19. Jahrhunderts auch in den USA. Im Oktober 1937 wurde in Frankfurt am Main erstmals eine Pizza auf dem damaligen Festhallengelände im Rahmen der 7. Internationalen Kochkunst-Ausstellung bei der Messe Frankfurt zubereitet. Nach dem Zweiten Weltkrieg wurde Pizza auch in Europa außerhalb Italiens bekannter. Die erste Pizzeria in Deutschland wurde von Nicolino di Camillo (1921–2015) im März 1952 in Würzburg unter dem Namen Sabbie di Capri eröffnet. Von hier aus begann der Siegeszug der Pizza in Deutschland. Die erste Pizzeria in Wien wurde 1975 von Pasquale Tavella eröffnet. Neben Spaghetti ist die Pizza heute das bekannteste italienische Nationalgericht, sie wird weltweit angeboten.
Zubereitung
Zur Zubereitung wird zuerst ein einfacher Hefeteig aus Mehl, Wasser, wenig Hefe, Salz und eventuell etwas Olivenöl hergestellt, gründlich durchgeknetet und nach einer Gehzeit von mindestens einer Stunde bei Zimmertemperatur ausgerollt oder mit den bemehlten Händen dünn ausgezogen. Geübte Pizzabäcker ziehen den Teig über den Handrücken und weiten ihn durch Kreisenlassen in der Luft.
Dann wird der Teig mit den Zutaten je nach Rezept nicht zu üppig belegt, meist mit passierten Dosentomaten oder Salsa pizzaiola, einer vorher gekochten sämigen Tomatensauce. Es folgen Käse (klassisch Mozzarella) und die übrigen Zutaten, zum Abschluss etwas Olivenöl.
Schließlich wird die Pizza bei einer möglichst hohen Temperatur von 400 bis 500 °C für wenige Minuten kurz gebacken. Der traditionelle Kuppelofen ist gemauert, und die Hitze wird über ein Feuer direkt im Backraum erzeugt. Moderne Pizzaöfen werden mit Gas oder Strom beheizt.
Pizza Napoletana
Als Reaktion auf die Verbreitung von Fast-Food-Pizza und Tiefkühlpizza wurde 1984 in Neapel mit Unterstützung der Region Kampanien die Associazione Verace Pizza Napoletana (AVPN) gegründet, die sich die Wahrung der Tradition der Pizza Napoletana zur Aufgabe gestellt hat. Ihre Mitglieder, Pizzerien auf der ganzen Welt, dürfen ihre Pizza als Verace Pizza Napoletana (echte neapolitanische Pizza) bezeichnen. Die traditionelle Herstellungsweise und die Verwendung der korrekten Zutaten wird regelmäßig kontrolliert.
Am 9. Februar 2005 wurde die Pizza Napoletana als Warenzeichen innerhalb der Europäischen Union eingetragen und die zugelassenen Zutaten festgelegt. Die Herstellung einer verace Pizza Napoletana artigianale (echte handgemachte neapolitanische Pizza) als specialità tradizionale garantita (STG, garantiert traditionelle Spezialität) wird in der italienischen Norm UNI 10791:98 und der EU-Verordnung 97/2010 festgeschrieben.
Seit 5. Februar 2010 ist die traditionelle Zusammensetzung oder das traditionelle Herstellungsverfahren des Produktes als garantiert traditionelle Spezialität (g. t. S., engl. TSG) geschützt. Die Pizza Napoletana besteht danach aus folgenden Grundstoffen: Weichweizenmehl, Bierhefe, natürliches Trinkwasser, geschälte Tomaten und/oder kleine Frischtomaten (pomodorini), Meersalz oder Kochsalz und natives Olivenöl extra. Weitere Zutaten, die verwendet werden können, sind Knoblauch und Oregano, frisches Basilikum und Mozzarella di Bufala Campana g.U. oder Mozzarella g. t. S. Das Backen erfolgt ausschließlich in Holzöfen, in denen eine für die Zubereitung wesentliche Backtemperatur von 485 °C erreicht wird. Die Garzeit darf 60 bis 90 Sekunden nicht überschreiten. Typisch für die Pizza Napoletana ist auch der etwas dickere Rand mit „Leopardenmuster“.
Sie wird in zwei Varianten hergestellt:
Pizza Marinara, mit Tomaten, Knoblauch, Olivenöl und Oregano
Pizza Margherita, mit Tomaten, Mozzarella (aus Büffel- oder Kuhmilch, Fior di latte), Olivenöl, Basilikum und (optional) geriebenem Hartkäse.
Klassische Varianten der neapolitanischen Pizza, die nicht unbedingt Tomaten und Käse enthalten müssen, sind:
Pizza aglio e olio, mit Knoblauch, Olivenöl und Oregano
Pizza con cozze, mit Miesmuscheln, Knoblauch, Olivenöl und Petersilie
Pizza alle vongole, mit Venusmuscheln, Tomaten, Knoblauch, Olivenöl, Petersilie und Oregano
Margherita bianca, eine Margherita ohne Tomaten
Im Jahr 2020 entspann sich ein Streit zwischen der Associazione Verace Pizza Napoletana (AVPN) und der 1998 gegründeten Vereinigung der neapolitanischen Pizzabäcker Associazione Pizzaiuoli Napoletani (APN) über die Verwendung von Elektroöfen. Die AVPN hatte mit dem von dem neapolitanischen Ingenieur Giuseppe Carlo Russo Krauss entwickelten Scugnizzonapoletano erstmals einen Elektroofen für die Pizzaherstellung akzeptiert. Das Beharren auf Holzöfen sei nicht zeitgemäß, da diese in vielen Ländern nicht akzeptiert seien, was in 50 Jahren zum Aussterben der Pizza führen könne. Außerdem habe die UNESCO nicht den Holzofen, sondern die „Kunst des ‘Pizzaiuolo’“ in ihre Liste aufgenommen. Die APN kämpft dagegen an und betont, die einzigartige Tradition des Holzofens nicht wirtschaftlichen Überlegungen opfern zu wollen. Zudem sei mit der Verwendung von Elektroöfen die EU-Eintragung als Specialità tradizionale garantita (STG) gefährdet.
Weitere Pizzatypen mit regionaler Tradition
Außer der Pizza Napoletana gibt es in Italien noch weitere Pizzatypen mit regionaler Tradition. Dazu gehört die Pizza Romana, eine sehr dünne und knusprige Pizza, die meist auf dem Blech gebacken wird. Die Pizza Genovese dagegen ist eine dickere Pizza, die eher an die urtypische Form des Fladenbrotes erinnert und eine Weiterentwicklung der Focaccia ist.
Die Pizza cilentana stammt aus dem Cilento und wird im Gegensatz zur neapolitanischen Pizza aus einer Mischung aus Weich- und Hartweizen gebacken. Statt reiner Tomatensauce wird ein Soffritto aus Olivenöl, Zwiebeln und Tomaten aufgetragen, statt Mozzarella wird Ziegenkäse oder Cacioricotta verwendet. Als weitere Beläge können regionale Wurstspezialitäten wie Noglia Verwendung finden.
Pizza-Varianten
Pizzasorten nach der Art des Belags sind z. B. Pizza capricciosa, Pizza alle quattro stagioni sowie Pizzen, die nach den Zutaten benannt wurden, mit denen sie belegt sind: Pizza al salame (mit Salami), Pizza ai funghi (mit Champignons), Pizza al prosciutto (mit Schinken), Pizza al tonno (mit Thunfisch) usw. Pizza quattro formaggi ist mit vier Sorten Käse (zum Beispiel Mozzarella, Parmesan, Gorgonzola und Pecorino), Pizza frutti di mare ist mit Meeresfrüchten belegt.
Verbreitet in Italien ist auch die Pizza bianca (weiße Pizza), jegliche Pizza-Variation, die ohne Tomatensoße zubereitet wird. Eine Calzone (italienisch für „Hose“) ist eine Pizza, bei welcher der Teigfladen vor dem Backen über dem Belag zusammengeklappt wird. Die traditionelle Füllung besteht aus Ricotta, rohem Schinken, Pilzen, Mozzarella, Parmesan und Oregano. Ursprünglich wurde die Calzone nicht im Ofen, sondern in einer Pfanne in Schmalz oder Öl gebacken, wie es als Pizza fritta in Neapel üblich ist.
In ganz Italien verbreitet ist die Pizza al taglio („Pizza am Stück“), die auf einem rechteckigen Blech gebacken und in kleineren rechteckigen Stücken verkauft wird. Angeboten wird sie häufig nicht nur in Pizzerien, sondern auch in Bäckereien.
US-amerikanische Pizza
In den USA sind zwei Typen weit verbreitet, „Chicago-style“ und „New York-style“ Pizza. Während die New Yorker Variante mit ihrem sehr dünnen Boden der italienischen Variante ähnelt, steht die Variante aus Chicago Kopf: Der Teig bildet eine Schüsselform, wird mit Mozzarellascheiben ausgelegt und mit weiteren Zutaten gefüllt. Zum Schluss wird das ganze von oben mit zerkleinerten Tomaten bestrichen und mit Parmesan und Oregano bestreut.
Auch die Pizza Hawaii mit Kochschinken und Ananas ist nordamerikanischen Ursprungs. In Deutschland ist eine weitere Variante als „American Pizza“ populär, die sich vor allem durch einen dicken, luftigen Boden auszeichnet und unter anderem durch die Restaurantkette Pizza Hut bekannt wurde.
Koschere Pizza
Eine sogenannte Pessach-Pizza wird aus Matzen zubereitet. In eine Mischung aus verquirlten Eiern mit Milch, Salz und Pfeffer werden Matzen eingetaucht und kurz sich vollziehen lassen. Ein ausgekochtes Blech mit hohem Rand wird mit Margarine oder Öl eingefettet, hierin die vorbereiteten Matzen eingelegt, Tomatensoße darüber gegossen und mit beliebigen Kräutern und geriebenem „gelbem Käse“ (Hart- oder halbfester Käse gevina tzehuba) bestreut. Danach in einem vorgeheizten Ofen gebacken.
Der Grund warum koschere Pizza so beliebt an Pessach ist, ist der amerikanische Hartkäse wie zum Beispiel Cheddar, der kaum jemals länger als ein halbes Jahr gereift ist, wenn überhaupt, und somit darf anschließend gleich Fleisch gegessen werden. Anhand des Datums auf der Käseverpackung kann man erkennen, wie alt der Käse ist, und entscheiden, ob man sechs Stunden warten muss oder nicht. Fleisch darf nach dem Konsum von Milchprodukten gegessen werden, mit Ausnahme von Hartkäse, der länger als 6 Monate gereift ist.
Pizza in der DDR
Die Pizza war in der DDR ebenfalls als Spezialität beliebt. Bereits 1966 wurden in einigen Tageszeitungen verschiedene Pizza-Rezepte zum Nachbacken veröffentlicht. Besonders in Berlin und in den Bezirksstädten gab es ab den 1970er Jahren einige Einrichtungen, die Pizza im Angebot hatten. So zum Beispiel eine HO-Eisdiele in Berlin-Weißensee die ab 1975 selbstgebackene Pizza verkaufte. Zutaten waren damals nach eigenen Angaben: ungesüßter Hefeteig, Salami, roter und grüner Paprika, saure Gurken, Tomatenketchup, verschiedene Gewürze, und alles wurde noch mit Käse überbacken. Auf dem Weihnachtsmarkt in Ostberlin am Alexanderplatz wurde ab 1976 frisch zubereitete Pizza angeboten.
Im September 1979 begann im Kombinat Bako-Berlin, Betriebsteil VEB Libelle, die Pizzaproduktion in fünf Sorten. Vorerst wurden damit zunächst die Kaufhallen von Konsum und HO in Ostberlin beliefert. Pizzateig wurde dort jedoch auch von der Gastronomie bezogen. Die Pizzas waren dabei je nach Sorte mit Fleisch, Wurst, Äpfeln, Tomaten, Paprika, Eiern, Käse oder auch Nüssen belegt.
Eine Anlage zur Herstellung von Tiefkühlpizza ging im April 1981 bei VEB Bako-Berlin in Betrieb. Es wurden stündlich ca. 600 Pizzas gebacken, gekühlt, gefrostet und danach tiefgekühlt in Folie und Umkartons verpackt. Es wurden dort ab 1980 pro Jahr 1300 Tonnen Pizza hergestellt. Anfang der 1980er Jahre boten dann auch einige Gaststätten und Konditoreien frisch zubereitete Pizza an. Bekannt war eine Konditorei in Berlin-Weißensee, die eine runde Pizza verkaufte. Diese Kreation bestand aus einer würzigen Tomatensoße und war belegt mit Zervelatwurst, Zwiebeln, verschiedenen Gewürzen, Tomaten und Käse. Bekannt war auch die Gaststätte Vierlanden in Berlin-Marzahn, die eine eigene Pizzeria betrieb.
1987 kam zur Jubiläumsfeier „750 Jahre Berlin“ die Jubiläumspizza „Margarethe“ in den Handel. Ab 1988 stellte der VEB Libelle in Berlin-Biesdorf für den Handel Tiefkühlpizza in zehn verschiedenen Sorten her.
In der DDR-Gastronomie wurde zudem eine eigene Pizza-Variation kreiert. Das Gericht erhielt den Namen Krusta, wurde auf einem Backblech gebacken und in rechteckige, etwa handgroße Stücke geschnitten. Sie wurde von einem Kollektiv junger Köche entwickelt und bei der Messe der Meister von Morgen im November 1976 in Leipzig einem breiten Publikum vorgestellt. Die Krusta sollte dabei jedoch nicht die Pizza selbst oder sogar ihren Namen ersetzen.
Der Krustateig war dunkler, da er neben Weizen- auch Roggenmehl enthielt. Als Belag wurden Produkte genutzt, die in der DDR ganzjährig in ausreichender Menge verfügbar waren: Salami, Speck, Bierschinken, Eier, Hackfleisch, Hähnchenfleisch, Fisch, Letscho und Sauerkraut, aber auch Anchovis und kubanische Ananas. Die Krusta wurde in einer eigens dafür gegründeten Schnellimbiss-Gastätte namens Krusta-Stube serviert. Ab 1986 gab es eine Imbisskette namens „Pizza-Büfett“.
Tiefkühlpizza
Vorgebackene und tiefgekühlte Pizza gehört zu den meistverkauften Fertiggerichten. In den 1960er Jahren in den Vereinigten Staaten entwickelt, gelangte sie über Italien nach Europa. 1966 wurde eine „Minipizza“ samt dazugehörigem Aufbackofen vom italienischen Speiseeishersteller Motta auf deutschen Messen vorgestellt.
Tiefkühlpizza in großen Mengen stellte seit 1968 der Backwarenproduzent Romano Freddi aus Mantua her. Er entwickelte die Grundlagen zum Formen des Teigs, des Belegens und des Vorbackens für die industrielle Großproduktion. Neben der italienischen Firma Esselunga belieferte er auch Dr. Oetker, die Firma, die als erste die Tiefkühlpizza auf den deutschen Markt brachte. Ebenfalls 1968 folgten die ersten Hersteller in der Schweiz, 1970 die ersten in Deutschland, darunter auch Wagner, heute europaweit einer der Marktführer von Tiefkühlpizza mit einem Anteil von über 30 % in Deutschland sowie 26 % in Europa. Von Wagner wurde auch 1976 erstmals die tiefgekühlte „Steinofenpizza“ auf den Markt gebracht. Größter Hersteller in Europa ist die Freiberger Lebensmittel GmbH, die 1976 aus der „Pizza-Versandbäckerei“ entstand, einem kleinen Berliner Betrieb, den Ernst Freiberger, Sohn eines Eiscremeherstellers (Efa-Eiskrem), gegründet hatte.
Der Verkauf von Tiefkühlpizza stieg in Deutschland rasch an: 1973 wurden 2.800 Tonnen hergestellt, 2020 277.000 Tonnen. Die absatzstärksten Sorten des Herstellers Dr. Oetker waren 2017 nach Eigenangaben Salami, Speciale (Salami, Schinken, Champignons), Thunfisch, Hawaii (Schinken, Ananas) und Margherita. Dr. Oetker hat diese Sorten über Jahrzehnte vor allem in zwei Produktlinien vermarktet, die in den meisten Supermärkten omnipräsent sind: Die „Ristorante“-Linie und „die Ofenfrische“, deren Teig nicht vorgebacken ist, sondern erst im Backofen des Endverbrauchers aufbäckt.
Die Geschäftsführerin des Deutschen Tiefkühlinstituts, Sabine Eichner, ordnet die Tiefkühlpizza als Lifestyle-Produkt ein. Von Januar bis Juni 2021 wurde mit Tiefkühlpizzen ein Umsatz von 1,3 Milliarden Euro erwirtschaftet. Davon wurden mehr als 1 Milliarde Euro mit Markenprodukten umgesetzt.
Die Herstellung von Tiefkühlpizza weicht in der Reihenfolge von der traditionellen Zubereitung ab. Die ausgestanzten Teigfladen werden zuerst mit Tomatensauce bestrichen und vorgebacken, dann nach dem Abkühlen mit den weiteren Zutaten belegt und schließlich schockgefroren. Der Teig enthält neben Weizenmehl und Hefe auch modifizierte Stärke und zusätzliche Triebmittel wie Natriumhydrogencarbonat, was das Backen ohne vorheriges langsames Auftauen ermöglicht. Sowohl beim Vorbacken als auch beim Fertigbacken im Haushaltsbackofen liegen die Temperaturen weit unter denen eines Pizzaofens.
Als weitere Convenience-Food-Form neben der Tiefkühlpizza bietet der Einzelhandel Pizza-Kits im Kühlregal an. Sie enthalten den Teig (oft bereits aus- und auf Backpapier aufgerollt), der dann mit der ebenfalls enthaltenen Tomatensoße und separat zu erwerbenden Zutaten belegt werden kann.
Literatur
Paul Trummer: Pizza globale. Ein Lieblingsessen erklärt die Weltwirtschaft. Econ, Berlin 2010, ISBN 978-3-430-20100-1.
Dieter Richter: Die Pizza als Weltkulturerbe? Interview mit Antonio Pace, Präsident der Vereinigung „Verace Pizza Napoletana“. In: VOYAGE. Jahrbuch für Reise- und Tourismusforschung 2002, S. 89–95.
Gunther Hirschfelder: Pizza und Pizzeria. In: Pim den Boer, Heinz Duchhardt, Wolfgang Schmale (Hrsg.): Europäische Erinnerungsorte 2. Das Haus Europa. Oldenbourg, München 2012, ISBN 978-3-486-70419-8, S. 319–326.
Weblinks
Geschichte der italienischen und amerikanischen Pizza, goccus.com
Associazione Verace Pizza Napoletana – Vereinigung Echte Neapolitanische Pizza (italienisch, englisch)
Associazione Pizzaiuoli Napoletani – Vereinigung der neapolitanischen Pizzabäcker (italienisch)
Krusta – die DDR-Variante der Pizza auf mdr.de
Einzelnachweise
Italienische Küche
Convenience Food als Thema
Italienische Phrase
|
Q177
| 87.912097 |
95689
|
https://de.wikipedia.org/wiki/Wirtschaftsgeographie
|
Wirtschaftsgeographie
|
Die Wirtschaftsgeographie, auch Wirtschaftsgeografie, als sozialwissenschaftlicher Teilbereich der Geographie erfasst, beschreibt und erklärt Wirtschaftsräume der Erdoberfläche nach deren ökonomischen Strukturen sowie den Prozessen und Funktionsweisen, die diese erzeugen. Hierzu werden räumliche Netzwerke verschiedener Maßstabsebenen untersucht. Die Perspektive kann sich dabei auf Betriebe und Unternehmen, auf regional-/volkswirtschaftliche Aspekte oder vermittelnd auf eine „Mesoebene“ richten. Der Wechselwirkung des wirtschaftenden Menschen mit seiner natürlichen Umwelt gilt ein besonderes Interesse.
Aufgrund des Forschungsgebietes weist die Wirtschaftsgeographie eine Vielzahl von Schnittstellen zu anderen wissenschaftlichen Disziplinen wie etwa den Wirtschafts- und Sozialwissenschaften, den Technikwissenschaften, den Politikwissenschaften, der Immobilienökonomie sowie der Stadtplanung auf.
Einteilungen
Die klassische Einteilung der Wirtschaftsgeographie folgte den drei Wirtschaftssektoren:
Geographie des Primärsektors (z. B. Agrargeographie),
Geographie des Sekundärsektors (z. B. Industriegeographie),
Geographie des Tertiärsektors (z. B. Handelsgeographie).
Traditionell wird oft auch die Verkehrsgeographie zur Wirtschaftsgeographie gezählt.
Andere traditionelle Einteilungen orientieren sich an den Aufgaben der Wirtschaftsgeographie:
Theorie (Erklärung),
Empirie (Beschreibung, Messung),
Politik (Gestaltungsempfehlungen für gesellschaftliche Akteure).
Theorien
Wirtschaftsgeographische Theorien wurden lange Zeit gegliedert in:
Standorttheorien
Räumliche Mobilitätstheorien
Regionale Wachstums- und Entwicklungstheorien
Ansätze
Einige traditionelle theoretische Ansätze sind:
der raumwirtschaftliche Ansatz (z. B. Ludwig Schätzl): in diesem Ansatz sind die Hauptkategorien der Analyse „Struktur“ (räumliche Verteilung zum gegebenen Zeitpunkt), Interaktion (Wechselwirkung oder Wanderung von Produktionsfaktoren und Gütern), Prozess (die Veränderung ersterer im zeitlichen Ablauf); ein wesentliches Kennzeichen ist die Einbeziehung neoklassischer Theorieelemente;
der verhaltenswissenschaftliche Ansatz: Hauptthese ist, dass Unternehmer auch andere als nur rein ökonomische Ziele und nur begrenzte Information haben und sich deshalb oft auch mit „suboptimalen“ Ergebnissen zufriedengeben;
der funktionale Ansatz: Gegenstand sind Verflechtungen zwischen Objekten und Räumen bzw. gruppenspezifischen Aktionsräumen;
der Wohlfahrtsansatz: Gegenstand sind soziale Ziele und die Möglichkeiten, sie zu erreichen.
Neben den traditionellen Ansätzen, die auch heute noch ihre Berechtigung für zahlreiche Forschungsfragen aufweisen, sind zudem auch neuere geographische Ansätze in den Vordergrund getreten, welche als „Neue Wirtschaftsgeographie“ (v. a. von angelsächsischen Autoren ausgehend) bezeichnet werden; Hauptmerkmale sind die Vermittlung der wirtschaftsräumlichen „Realität“ durch Kultur und das Gesellschaftssystem (cultural turn, social turn) und die Betrachtung der Einbindung der Akteure in ihr Umfeld (). Der Ansatz der „relationalen Wirtschaftsgeographie“ (Harald Bathelt/Johannes Glückler) betont Relationalität und die Betrachtungselemente Organisation, Evolution, Innovation und Interaktion.
Aus der Ökonomik heraus entwickelte sich außerdem der für die Wirtschaftsgeographie bedeutende Ansatz der Geographical Economics bzw. New Economic Geography (Paul Krugman): Ausgangspunkt ist die Beobachtung, dass es entgegen den neoklassischen Modellen eine räumliche Dimension der Volkswirtschaft gibt (Ballungsprozesse, regionale Ungleichheiten). Zentrale Begrifflichkeiten sind Skalenerträge, externe Effekte, unvollkommene Märkte und Transportkosten.
Methoden
Unter den von Wirtschaftsgeographen eingesetzten Methoden finden sich beispielsweise
Methoden der empirischen Sozialforschung
Statistische Methoden
Anwendungen aus der Kartografie und Nutzung von Geoinformationssystemen
Forschungsthemen
Die Forschungsschwerpunkte liegen heute im Schnittstellenbereich zwischen den Wirtschafts- und Gesellschaftswissenschaften. Einige Beispiele aktueller Forschungsthemen:
Ein besonders aktuelles Thema der Wirtschaftsgeographen ist der Zusammenhang von Globalisierung und Lokalisierung.
Dabei stehen Aufwertungs-/Lerneffekte (industrial upgrading, organizational learning) wie auch neue Abhängigkeiten von Standorten und regionalen Produktionssystemen im Vordergrund.
Die Sektoren können die Rohstoffgewinnung (z. B. Nahrungsmittelindustrie), das produzierende und verarbeitende Gewerbe (z. B. Automobilindustrie, Elektronikindustrie) und das Dienstleistungsgewerbe (besonders hochwertige Dienstleistungen) umfassen.
Auch die Auswirkungen auf die Arbeitswelt () bilden einen Teil der Wirtschaftsgeographie.
Weitere Bereiche sind Gründungsforschung, Cluster, Logistik u. a. m.
Siehe auch
Bildungsgeographie
Footloose Industry
Industrieller Strukturwandel
Regionalwissenschaft
Literatur
Harald Bathelt, Johannes Glückler: Wirtschaftsgeographie. 3., komplett überarbeitete Auflage. Stuttgart 2012.
Giovanni Danielli u. a.: Wirtschaftsgeografie und globalisierter Lebensraum. Compendio Verlag, Zürich 2007, ISBN 978-3-7155-9367-8.
Weblinks
Vorlesung Humangeographie 2: Wirtschaftsgeographie Videoaufzeichnungen einer Vorlesung. Von TIMMS, Tübinger Internet Multimedia Server der Universität Tübingen.
|
Q187097
| 173.966752 |
5080139
|
https://de.wikipedia.org/wiki/IPad
|
IPad
|
iPad ist der Markenname einer Tabletcomputer-Reihe des US-amerikanischen Unternehmens Apple, die sich durch einen berührungsempfindlichen kapazitiven Bildschirm mit Multi-Touch-Gesten bedienen lässt. Die iPad-Produktlinie besteht aus dem ursprünglichen iPad, das mittlerweile das Einsteigermodell darstellt; dem kleineren iPad mini; dem leichteren und dünneren iPad Air; und dem Flaggschiff-Modell iPad Pro. 2019 wurde das bis dahin für iPads verwendete Betriebssystem iOS, das auch für iPhones und iPod touchs verwendet wird, durch das an Tablets angepasste iPadOS ersetzt. Der Name setzt sich aus dem für Apple-Produkte typischen kleinen „i“ und „Pad“ – englisch für Polster, Unterlage, Notizblock – zusammen.
Bis September 2020 wurden über 500 Millionen iPads verkauft, was Apple zum Marktführer im Tabletcomputer-Bereich macht. Aufgrund seiner Popularität hat sich der Begriff „iPad“ zu einem Gattungsnamen für Tabletcomputer entwickelt.
Beschreibung und Technik
Alle iPads sind Tabletcomputer mit Aluminiumgehäuse, die primär über einen berührungsempfindlichen Bildschirm gesteuert werden. Wie auch bei iPhones bis iPhone 5 und dem iPhone SE und iPod touch gibt es am oberen Gehäuserand einen Ein/Ausschalter, an der rechten Gehäuseseite sind zwei Tasten verbaut, um die Lautstärke zu steuern, bis einschließlich zum iPad Air gab es auch noch einen Sperrschalter, der entweder die Geräteorientation sperrt oder den Ton stummschaltet. Die Home-Taste ist mittig unterhalb des Bildschirms platziert und pausiert Anwendungsprogramme, beziehungsweise startet bei einem Doppelklick eine „App-Umschalter“ () genannte Übersicht über die laufenden und zuletzt benutzen Anwendungen. Neben einem Lautsprecher verfügen alle iPads über 3,5-mm-Headsetanschlüsse außer dem iPad Pro der 3. Generation von 2018. Mit Ausnahme des iPad der 1. Generation besitzen alle Geräte eine Front- und Rückkamera.
Grundsätzlich gibt es in jeder iPad-Modellreihe ein Gerät nur mit WLAN und eins mit WLAN und Mobilfunkmodem. Dabei ist über die Mobilfunktechnik jedoch kein Telefonat führbar. Die Akkulaufzeit aller Geräte wird von Apple im WLAN-Betrieb mit zehn Stunden, im Mobilfunkbetrieb mit bis zu neun Stunden angegeben (Stand: 2015). Alle Geräte arbeiten mit einem eigens von Apple entwickelten SoC, als Betriebssystem kommt seit 2019 iPadOS zum Einsatz.
Geschichte
Apple produzierte bis 1998 PDAs der Produktreihe Newton. Ab 2000 arbeitete das Unternehmen an einem neuen Tablet-Konzept, wobei die Entwicklungen zwischenzeitlich immer wieder eingestellt wurden. Aus diesem Projekt gingen 2007 das iPhone und 2010 das iPad hervor. Der Verkauf des ersten iPad begann am 3. April 2010 in den USA. In Deutschland und in der Schweiz kam das iPad am 28. Mai 2010 auf den Markt, in Österreich war es ab 23. Juli 2010 erhältlich. Das beim Verkaufsstart vorinstallierte Betriebssystem war das iOS 3.2.
Als erste Stadt in den USA setzt seit 2011 die Stadt Auburn iPads in großem Umfang als Unterrichtsmittel an Grundschulen ein. Kritiker glauben jedoch, dass Kinder in diesem Alter ein iPad schlichtweg nicht benötigen.
Am 17. Februar 2012 reichte das chinesische Unternehmen Proview Electronics in den USA eine Klage ein, mit der Apple die Namensrechte für das iPad in China streitig gemacht wurden. Am 23. Februar 2012 lehnte ein chinesisches Gericht die Forderung des Unternehmens ab, dem iPad-Verkauf in China Einhalt zu gebieten. Im Juli desselben Jahres legten Apple und Proview ihren Rechtsstreit endgültig bei, indem sich Apple zur Zahlung einer pauschalen Gebühr für die Nutzung der Marke „iPad“ bereit erklärte. Nachdem im Jahr 2009 lediglich 55.000 US-Dollar für die Marke entrichtet wurden, lizenzierte Apple die Marke von Proview nun für einen Betrag von 60 Millionen US-Dollar. Apple darf das iPad im Gegenzug seither dauerhaft und uneingeschränkt unter der bisherigen Bezeichnung in China verkaufen.
Die Endmontage der einzelnen Hardwarekomponenten übernimmt das taiwanische Unternehmen Foxconn.
iPad
iPad (2010)
Steve Jobs präsentierte das erste iPad am 27. Januar 2010 im Yerba Buena Center for the Arts in San Francisco auf einer Keynote vor Vertretern der internationalen Presse. Als SoC fungierte erstmals der Apple A4. Dieser enthält einen Cortex-A8-Prozessor und 256 MB Arbeitsspeicher. Der 24,6 cm (9,7 Zoll) große Touchscreen (IPS-Display) funktioniert wie beim iPhone kapazitiv und reagiert auf Multi-Touch-Gesten. Der Bildschirm ist hintergrundbeleuchtet; die Helligkeit kann sich über einen Umgebungslichtsensor automatisch an die umgebenden Lichtverhältnisse anpassen. Das Gerät hat einen Beschleunigungssensor auf Siliziumbasis, der Anwendungen steuern kann und den Bildschirminhalt an die Lage des Geräts anpasst. Apple gibt die Laufzeit des fest eingebauten Akkus mit bis zu zehn Stunden und die Standbyzeit mit mehreren Wochen an. Die Lebenszeit des Akkus soll fünf Jahre betragen.
Der Präsentation waren monatelange Spekulationen in den Medien und Blogs vorausgegangen, unter anderem um den Namen für das Gerät – hier war meist iSlate (von engl. slate für „Schiefertafel“) erwartet worden.
Der von Jobs auf Ende März 2010 datierte Verkaufsstart der Wi-Fi-Versionen in den USA wurde später auf den 3. April verschoben. Der erste Käufer weltweit war Richard Gutjahr aus Deutschland. Versionen für Wi-Fi und 3G (UMTS bzw. CDMA) erschienen in den USA Ende April 2010 und weltweit im Sommer 2010.
iPad 2 (2011)
Das „iPad 2“ stellte Steve Jobs am 2. März 2011 erneut im Novellus Theater vor. Als SoC dient der Apple-A5. Die Auflösung (1024 × 768 Pixel) und Displaygröße (9,7 Zoll) blieben im Vergleich zum Vorgängermodell gleich und entsprachen damit der des EVGA-Standards. Die Rückseite ist auch weiterhin aus Aluminium. Zur Ausstattung gehören jeweils eine Kamera auf der Vorder- und der Rückseite. Eine Variante verfügt zudem über ein Mobilfunkmodem; diese Geräte enthalten eine A-GPS-Funktion. Das Gerät war mit 16, 32 oder 64 GB Flash-Speicher und in den Farben Schwarz und Weiß erhältlich. Der Verkaufsstart war in den USA am 11. März 2011 und in Europa am 25. März 2011. Am 18. März 2014 wurde der Verkauf des iPad 2 eingestellt. An dessen Stelle rückte das iPad der 4. Generation, das ab diesem Zeitpunkt nur noch in der 16-GB-Variante verfügbar war.
iPad (3. Generation, Frühjahr 2012)
Die Vorstellung der dritten iPad-Generation, seinerzeit „das neue iPad“ genannt, fand am 7. März 2012 im Yerba Buena Center in San Francisco unter Leitung Tim Cooks statt. Das Gerät entspricht in den äußeren Abmessungen dem Vorgänger, ist aber mit 9,4 Millimetern 0,6 mm dicker. Es verfügt über eine 5-Megapixel-Kamera, die neben Fotos auch Videos mit 1080p und 30 Frames aufzeichnen kann. In Nordamerika ist beim iPad der 3. Generation LTE nutzbar, in Europa steht es nicht zur Verfügung. Diese Gerätegeneration besitzt zusätzlich zum Apple-A5X-SoC ein 264-ppi-Retina-Display mit einer Auflösung von 2048 × 1536 Pixeln. Weiterhin wurde eine Diktierfunktion für Texte integriert. Ab iOS 6 ist die Sprachsteuerung Siri nutzbar. Das iPad der 3. Generation war in den Farben Schwarz und Weiß, in drei Speicherkapazitäten mit 16, 32 oder 64 GB und entweder mit WLAN oder WLAN und Mobilfunknetz verfügbar. Der Verkauf begann in den Vereinigten Staaten, Deutschland, der Schweiz und sieben weiteren Ländern am 16. März 2012, eine Woche später folgten weitere Länder wie Österreich, Italien und Spanien. Am 26. Oktober 2012 startete Apple die Vorbestellungsmöglichkeit für das Nachfolgemodell, das das iPad der 3. Generation ersetzte.
iPad (4. Generation, Herbst 2012)
Das iPad der vierten Generation wurde am 23. Oktober 2012 im California Theatre in San José als „iPad mit Retina Display“ vorgestellt. Die Abmessungen entsprechen denen des iPad der 3. Generation, es besitzt aber einen Lightning-Anschluss. LTE stellt das iPad der 4. Generation auch im 1,8-GHz-Frequenzband zur Verfügung. Die Frontkamera-Auflösung wurde auf 1,2 Megapixel angehoben, die Kamera kann Videos in 720p und Fotos mit 1280 × 1024 Pixeln aufnehmen, die Rückkamera-Auflösung beträgt 5 Megapixel. Darüber hinaus besitzt das Gerät das Apple-A6X-SoC. Apple legte Ende Januar 2013 eine 128-GB-Variante nach. Der Verkauf wurde von Oktober 2013 bis März 2014 ausgesetzt, bevor er im Oktober 2014 endgültig eingestellt wurde.
iPad (5. Generation, 2017)
Das iPad (2017) der fünften Generation wurde am 21. März 2017 vorgestellt und konnte ab dem 24. März 2017 vorbestellt werden. Es ersetzte das iPad Air 2 und war somit das günstigste Modell. Die hauptsächliche Neuerung bestand im schnelleren Apple-A9-System-on-a-Chip, der schon in den iPhones 6s, 6s Plus und SE eingebaut war. Das 9,7 Zoll große Retina-Display löste mit den bekannten 2048 × 1536 Pixeln auf, was zu einer Pixeldichte von 264 ppi führte. Das Gerät unterstützt den WLAN-Standard 802.11ac (Wi-Fi 5) und Bluetooth 4.2. Verbaut sind zwei Kameras – eine 8-Megapixel-Hauptkamera auf der Rückseite, die in 1080p mit 30 fps oder 720p und 120 fps Videos aufnehmen kann, sowie eine 1,2-MP-Frontkamera. Es steht in den Farben Silber, Gold und Space Grau und den Speichergrößen 32 GB und 128 GB zur Verfügung. Die unverbindliche Preisempfehlung betrug 399 € / 387.95 CHF bzw. 499 € / 497.60 CHF je nach Größe des Speichers. Einen SIM-Kartenschacht, der 4G-Mobilfunkkonnektivität ermöglicht, lässt sich für zusätzlich je 160 € / 149.55 CHF hinzufügen.
iPad (6. Generation, 2018)
Am 27. März 2018 wurde auf einer Pressekonferenz mit dem Titel „Let’s take a field trip.“ das nächste Modell des günstigsten iPad vorgestellt. Es verfügt über einen schnelleren und effizienteren Apple-A10-Fusion-System-on-a-Chip und unterstützt wie das iPad Pro den Apple Pencil. Neben Silber und Space Grau ist es in einem neuen Goldton erhältlich, welcher an den des iPhone 8 angeglichen wurde und eine Mischung aus dem Gold und dem Roségold des iPad Pro 10,5″ ist. Die Speichergrößen betragen weiterhin 32 und 128 GB. Im Gegensatz zu den USA, wo die Preise unverändert blieben, wurde das iPad in Deutschland, Österreich und der Schweiz günstiger. So kostet es bei Apple je nach Speichergröße 349 € / 379 CHF bzw. 439 € / 489 CHF. Die Aufrüstung mit einem 4G-Modul kostet jetzt 130 € / 150 CHF. Dieses unterstützt nun LTE-A Cat6, was gegenüber dem Vorgänger doppelt so hohe Downloadgeschwindigkeiten (300 Mbps) ermöglicht.
iPad (7. Generation, 2019)
Am 10. September 2019 wurde auf der Apple-Keynote das neuste Modell des günstigsten iPad vorgestellt. Das Display wurde von 9,7″ auf 10,2″ vergrößert. Neu ist die Unterstützung von Apples Smart Keyboard über den Smart-Connector. Die Speichergrößen betragen weiterhin 32 und 128 GB. Der Arbeitsspeicher wurde von 2 GB auf 3 GB erweitert. Die Preise wurden gegenüber der 6. Generation leicht erhöht. Die beiden Speichervarianten kosten jetzt 379 € beziehungsweise 479 €, das 4G-Model kostet 140 € Aufpreis.
iPad (8. Generation, 2020)
Am 18. September 2020 wurde auf einer virtuellen Apple-Keynote das Nachfolgermodell des iPad 2019 vorgestellt. Neu ist die Verwendung eines A12-SoC anstelle eines A10. Ihm stehen weiterhin 3 GB RAM zur Verfügung. Auch die Speichergrößen von 32 und 128 GB und der Preis sind unverändert.
iPad (9. Generation, 2021)
Am 14. September 2021 wurde auf einer Apple-Keynote das Nachfolgemodell des iPad 2020 vorgestellt. Das ansonsten unveränderte Display unterstützt jetzt True Tone. Die Frontkamera ist nun dasselbe 12-Megapixel-Ultraweitwinkel-Modul mit Folgemodus wie im iPad Pro 2021, verglichen mit der einfacheren 1,2-Megapixel-Kamera des Vorgängers. Es hat einen A13-Bionic-SoC. Die Speichergrößen wurden auf 64 GB und 256 GB verdoppelt. Der Preis für die 64-GB-Speichervariante beträgt 379 €, womit der Einstiegspreis des Vorgängers trotz doppeltem Speicher beibehalten wurde. Die 256-GB-Variante kostet 549 € (verglichen mit 128 GB für 479 € beim Vorgänger). Das 4G-Modul kostet 140 € Aufpreis. Die goldene Variante entfällt, die silberne besitzt nun eine Front mit schwarzem Displayrahmen, wie es bei Space Grau auch der Fall ist. Am 19. Oktober 2022 hat Apple die Preise auf 429 € und 629 € je nach Speicher erhöht. Mobilfunkunterstützung kostet von da an 170 € Aufpreis.
iPad (10. Generation, 2022)
Am 18. Oktober 2022 wurde das iPad 10 zusammen mit neuen iPad Pros über eine Pressemitteilung vorgestellt. Das Design ähnelt dem iPad Air der 4. und 5. Generation, jedoch mit etwas größeren Rändern. Mit dieser Änderung einher geht der Wechsel zum Design mit flachen Kanten. Der 3,5-mm-Klinkenanschluss entfällt. Ebenfalls entfällt der Home Button, TouchID befindet sich jetzt im Anschaltknopf. Der Ladeanschluss wurde von Lightning zu USB-C gewechselt. Der Apple Pencil der ersten Generation ist weiterhin kompatibel. Aufgrund der verschiedenen Anschlüsse lässt er sich nicht mehr direkt am Gerät laden und verbinden. Stattdessen wird ein USB-C auf USB-C und ein USB-C-zu-Lightning-Adapter benötigt. Bei neu produzierten Apple Pencil der ersten Generation liegt dieser Adapter bei. Ansonsten muss der Adapter separat erworben werden. Alternativ wird ein neuer Logitech Crayon mit USB-C angeboten. Das Display ist nun 10,9 Zoll groß, alle anderen Eigenschaften wurden vom Vorgänger übernommen. Dadurch ist es weiterhin etwas dicker als die anderen iPads, der Unterschied ist jedoch nicht mehr so groß. Die Kamera auf der Rückseite wurde verbessert. Sie ragt nun heraus und ist nicht mehr flach mit dem Gehäuse. Die Frontkamera ist nun an der langen Seite angebracht. Als SoC wird der Apple A14 Bionic mit 4 GB Arbeitsspeicher verwendet. Die Farbe Spacegrau entfällt, Silber wird weiterhin angeboten, zusätzlich zu Blau, Pink und Gelb. Der Smart Connector befindet sich weiterhin an der langen Seite (gegenüber der Frontkamera), statt auf der Rückseite wie beim iPad Air und iPad Pro. Damit ist es nicht mit deren Zubehör wie dem Magic Keyboard kompatibel. Stattdessen bietet Apple eine andere Tastaturhülle an, die aus zwei Teilen besteht, das sogenannte Magic Keyboard Folio. Ein Teil wird an der Rückseite befestigt und bietet einen ausklappbaren Standfuß. Der andere Teil beinhaltet die Tastatur. Diese hat, im Gegensatz zum Magic Keyboard, Funktionstasten. Das Magic Keyboard Folio kostet bei Apple 299 €. Das iPad selbst kostet 579 € für 64 GB und 779 € für 256 GB. Die Variante mit Mobilfunkunterstützung kostet jeweils 200 € mehr.
iPad Air
iPad Air (2013)
Am 22. Oktober 2013 wurde von Phil Schiller mit dem „iPad Air“ das fünfte Gerät der iPad-Reihe vorgestellt. Das Design hat sich dem Stil des iPad mini angepasst. Im Vergleich zum iPad der 4. Generation wurden die Abmessungen und das Gewicht reduziert. Neu waren auch das 64-Bit-Apple-A7-SoC und erweiterte LTE-Fähigkeiten, womit die Unterstützung der LTE-Netze von Vodafone, O2 und der Deutschen Telekom gewährleistet war. Zudem führte Apple die WLAN-Technologie MIMO ein. Außerdem verfügt es über ein Stereomikrofon. Die seit dem iPad 1 verbauten Mikrofone konnten nur Einkanaltonspuren aufzeichnen. Bei der Einführung am 1. November 2013 war das iPad Air in vier Speichergrößen verfügbar (16, 32, 64 und 128 GB). Nach der Einführung des Nachfolgers iPad Air 2 im Jahr 2014 verkaufte Apple das Vorgängermodell nur noch mit den Speichergrößen 16 und 32 GB. Es gibt insgesamt drei Varianten des iPad Air: WiFi, WiFi + Cellular (als CDMA-Variante für den nordamerikanischen Markt) und WiFi + Cellular (mit GSM-Modem und anderen unterstützten LTE-Bändern, unter anderem für Deutschland), die in 41 Ländern erhältlich sind.
iPad Air 2 (2014)
Das iPad Air 2 wurde am 16. Oktober 2014 vorgestellt. Neuerungen sind das mit 6,1 mm noch dünnere Gehäuse, das nun auch in der Farbe Gold erhältlich ist, das schnellere A8X-SoC, eine neue 8-Megapixel-Kamera mit Zeitlupenfunktion auf der Rückseite des Tablets, der schnellere WLAN-Standard 802.11ac sowie der Touch-ID-Sensor, den Apple bereits im iPhone 5s eingebaut hatte. Außerdem wurde erstmals bei einem iPad auf einen mechanischen Stummschalter an der Seite des Gerätes verzichtet. Wie auch das iPhone 6 besitzt das iPad Air 2 ein Barometer. Bei den Speichervarianten nahm Apple im Vergleich zum Vorgänger die 32-GB-Variante aus dem Programm, somit ist das iPad Air 2 nur in den Speichergrößen 16, 64 und 128 GB verfügbar. Damit einhergehend wurden auch die Preise der 64- und 128-GB-Varianten im Vergleich zum Vorgänger um 100 € gesenkt.
Das iPad Air 2 war einen Tag nach der Keynote am 17. Oktober 2014 auf der Apple-Seite vorbestellbar. Seit Einführung der kleineren Variante des iPad Pro im März 2016 wurde die 128-GB-Variante aus dem Sortiment genommen und der Preis der 16- und 64-GB-Modelle um jeweils 50 € gesenkt. Im September 2016 wurden die 16- und 64-GB-Varianten durch 32- und 128-GB-Varianten ersetzt und die Preise leicht gesenkt. Die Preise lagen bei 429 € für 32 GB und 539 € für 128 GB. Der offizielle Verkauf des iPad Air 2 wurde am 21. März 2017 zugunsten des iPad 5 eingestellt.
iPad Air (3. Generation, 2019)
Die dritte Generation des iPad Air wurde am 18. März 2019 ohne große Vorstellung im Apple Store zum Verkauf angeboten. Das Air hat ein 10,5-Zoll-Display, wie man es vom iPad Pro (2. Generation) kennt, das nun auch True Tone und den P3-Farbraum unterstützt. Anders als bei den iPad Pros (3. Generation) ist nur ein klassischer Fingerabdrucksensor im Homebutton verbaut. Als Chip wird der Apple A12 Bionic wie bei den iPhones von 2018 eingesetzt, bei dem 3 GB Arbeitsspeicher zur Seite stehen. Neu unterstützt das iPad Air den Apple Pencil der ersten Generation. Dadurch, dass nun ein Smart Connector wie bei den iPad Pros verbaut wurde, kann zusätzlich das Smart Keyboard verwendet werden. Die Auflösung der Frontkamera wurde von 1,2 auf 7 Megapixel erhöht.
iPad Air (4. Generation, 2020)
Die vierte Generation des iPad Air wurde am 15. September 2020 auf dem „Apple September Event“ vorgestellt, es hat einen Bildschirm von 276,9 mm (10,9 in) und die gleiche Hauptkamera mit 12 Megapixel Auflösung, die auch im iPad Pro 2020 eingebaut ist. Das Gerät hat eine Frontkamera mit einer Auflösung von 7 Megapixeln, die vor allem bei wenig Licht bessere Bilder liefern soll. Touch ID ist in die obere Taste (Power Button) integriert. Weiter unterstützt das iPad der vierten Generation den „Apple Pencil“ der 2. Generation und ist in fünf unterschiedlichen Gehäusefarben erhältlich. Der Bildschirm mit einer Auflösung von 2360 × 1640 Pixeln unterstützt den Farbraum P3. Das SoC ist der Apple A14, der im 5-nm-Verfahren hergestellt wird. Das Gerät hat Stereolautsprecher und kann mit dem „Apple Magic Keyboard“ benutzt werden. Der Formfaktor wurde weiterhin dem der iPad Pros 2018 und 2020 angeglichen: Die Bildschirmränder sind schmaler als bisher und die Gehäusekanten sind nicht mehr abgerundet.
iPad Air (5. Generation, 2022)
Die fünfte Generation des iPad Air wurde am 8. März 2022 vorgestellt. Äußerlich ist es baugleich zu dem iPad Air der 4. Generation, verfügt jedoch über veränderte Farboptionen. Als SoC kommt der bereits im iPad Pro verwendete Apple M1 zum Einsatz. Er verfügt über eine 8-Kern-CPU und eine 8-Kern-GPU und kommt mit 8 Gigabyte Arbeitsspeicher. Der USB-C Anschluss ist mit 10 Gigabit pro Sekunde doppelt so schnell wie der des Vorgängermodells. Ebenfalls wurde die Frontkamera aktualisiert, sie verfügt nun über eine Auflösung von 12 Megapixeln und unterstützt Centerstage. Die Cellular Variante funkt nun auch über den Mobilfunkstandard 5G.
iPad mini
iPad mini (2012)
Gemeinsam mit dem iPad der vierten Generation wurde am 23. Oktober 2012 eine „iPad mini“ genannte kleinere Version vorgestellt, die über ein 7,9-Zoll-Display mit 1024 × 768 Pixel verfügt. Als Prozessor (SoC) kommt der überarbeitete Apple A5 zum Einsatz. Die Rückkamera löst wie die des iPad (4. Gen.) mit 5 Megapixel auf und filmt in Full-HD; die Frontkamera hat 1,2 Megapixel und filmt in HD. Wie das iPhone 5 verfügt auch das iPad mini über die neue Lightning-Schnittstelle; bisherige externe Zusatzhardware ist somit nur mit Adaptern zu betreiben. Das Tablet verfügt in der „Cellular“-Variante zudem über ein LTE-Funkmodul im 1,8-GHz-Frequenzband, was in Deutschland nur von der Deutschen Telekom und der E-Plus-Gruppe angeboten wird. Die Abmessungen des iPad mini betragen 200 × 134,7 × 7,2 mm (H × B × T) bei einem Gewicht von rund 300 Gramm. Das iPad mini steht mit Speicherkapazitäten von 16, 32 und 64 GB und in den Farben Schwarz/Graphit sowie Weiß/Silber zur Verfügung. Der integrierte Lithium-Polymer-Akku mit 16,3 Wattstunden ermöglicht laut Apple bis zu zehn Stunden kontinuierliches Surfen im Web sowie Musik- oder Videowiedergabe.
Das iPad mini konnte ab dem 26. Oktober 2012 online vorbestellt werden, die Cellular-Variante wurde ab Ende November 2012 ausgeliefert.
Mit der Vorstellung des iPad mini 2 am 22. Oktober 2013 wurde das erste Modell leicht überarbeitet: Die Variante Schwarz/Graphit wurde durch Schwarz/Spacegrau ersetzt. Die Kombination Weiß/Silber wird weiterhin verkauft. Beide waren nur noch mit 16 GB und optionalen Mobilfunkmodem verfügbar. Der Preis des Modells mit „Cellular“ (also mit Mobilfunk) wurde von 459 € auf 409 € reduziert, der des iPad minis ohne Cellular sank von 329 € auf 289 €. Es wurde ab diesem Tag mit iOS 7 ausgeliefert, was auch bei der Verpackung deutlich wurde. Diese hatte nun ein iPad mini mit iOS 7 abgebildet.
Als am 16. Oktober 2014 der nächste Nachfolger des iPad mini, das iPad mini 3, vorgestellt wurde, wurden die Preise der ersten Generation erneut angepasst. Beide Varianten wurden um 50 € im Preis reduziert. Daraus resultierten Preise von 239 € für die Konfiguration mit 16 GB und 359 € für die mit 16 GB und Cellular. Seitdem wurde es mit iOS 8 ausgeliefert.
Nach fast drei Jahren wurde der Verkauf des iPad mini der ersten Generation am 19. Juni 2015 eingestellt. Die verschiedenen Varianten können aber noch generalüberholt auf der Seite des so genannten „Apple Refurbished Store“ erworben werden.
iPad mini 2 (2013)
Gemeinsam mit dem iPad Air wurde am 22. Oktober 2013 das iPad mini 2 vorgestellt. Es verfügt nun auch über ein „Retina Display“ mit einer Auflösung von 2048 × 1536 Pixeln. Neu sind auch das Apple-A7-SoC und erweiterte LTE-Fähigkeiten (wie beim iPad Air). Des Weiteren verfügt es nun über ein Stereomikrofon, außerdem ist das Apple-Logo auf der Gehäuserückseite nun nicht mehr poliert, sondern ein Einsatz aus Metall. Damit es die gleiche Akkulaufzeit wie der Vorgänger besitzt, wurde der Akku um rund 30 % vergrößert. Dadurch erhöhte sich seine Dicke von 7,2 auf 7,5 mm und sein Gewicht von 308 auf 331 g bzw. von 312 auf 341 g bei der Variante mit LTE. Sein WLAN-Modul ist nun auch MIMO-fähig. Es ist seit dem 12. November 2013 in den Farben Spacegrau und Silber, mit 16, 32, 64 oder 128 GB Speicherkapazität und mit WiFi bzw. Wifi + Cellular erhältlich.
Vor der Präsentation des iPad mini 3 wurde es als „iPad mini mit Retina Display“ verkauft, seitdem schlicht als „iPad mini 2“.
Am 21. März 2017 wurde der Verkauf des iPad mini 2 eingestellt.
iPad mini 3 (2014)
Das iPad mini 3 wurde am 16. Oktober 2014 auf der Apple Keynote vorgestellt. Es ähnelt sehr seinem Vorgängermodell, dem iPad mini 2 (mit Retina Display); die Hauptneuerungen sind der zusätzlich eingebaute Touch ID-Sensor und dass es neben den bisherigen Farben Silber und Spacegrau in der Farbe Gold verfügbar ist. Die Speicherausstattung mit 32 GB wurde wie beim iPad Air 2, iPhone 6 und iPhone 6 Plus entfernt und die darauffolgenden Speichergrößen bekamen die Preise der vorher darunterliegenden Varianten. Die neue Verpackung wurde im Stil des iPad Air 2 gestaltet und um die Kamera herum gibt es keinen eingravierten Ring mehr. In Amerika besitzt es Kompatibilität zur Apple SIM.
iPad mini 4 (2015)
Das iPad mini 4 wurde am 9. September 2015 vorgestellt. Im Vergleich zum Vorgänger veränderten sich die Abmessungen minimal: die Gerätedicke ist um 1,4 mm auf 6,1 mm geschrumpft, die Gerätehöhe ist um 3,2 mm auf 203,2 mm angewachsen und die Gerätebreite ist um 0,1 mm auf 134,8 mm angewachsen. Das Anwachsen der letzten zwei Werte bedeutet bei gleichbleibender Displaygröße größere Bildschirmränder. Das Gewicht des Geräts beläuft sich auf 294,84 Gramm. Laut Hersteller Apple wurde beim Display eine neue Fertigungstechnik angewandt, die durch das Vereinen von LCD, Digitizer und Glas in eine Einheit die Bildqualität verbessern, sowie Spiegelungen reduzieren soll. Als SoC dient dem iPad mini 4 der aus dem iPhone 6 bekannte Apple A8. Die rückseitige Kamera zeichnet Bilder mit einer Auflösung von acht Megapixeln auf, Videos werden in 1080p mit 30 fps aufgezeichnet, auch Zeitraffer- und Zeitlupeaufnahmemodi sind verfügbar; die vom iPhone bekannte 60-fps-Aufnahmemöglichkeit bietet Apple nicht im iPad mini 4 an. Bei den Sensoren kommen wie auch bei den Vorgängermodellen der Touch-ID-Sensor, ein Drei-Achsen-Kreiselinstrument, ein Beschleunigungssensor sowie ein Helligkeitssensor zum Einsatz. Zusätzlich dazu verbaut Apple nun auch ein Barometer. Apple verkaufte das iPad mini 4 zu Beginn mit 16, 64 und 128 GB NAND-Speicher. Mit dem iPad mini 4 gibt es erstmals ein iPad mini ohne mechanischen Stummschalter. Beim großen iPad entfiel dieser bereits mit dem iPad Air 2, das zusammen mit dem iPad mini 3 vorgestellt wurde.
Ab dem 21. März 2017 war das iPad mini 4 nur noch mit 128 GB Speicher verfügbar. Dafür wurde der Preis dieser Variante gesenkt. Der Aufpreis für ein integriertes LTE-Modul wurde ebenfalls reduziert.
iPad mini (5. Generation, 2019)
Das iPad mini wurde am 18. März 2019 ohne große Vorstellung im Apple-Shop zum Verkauf angeboten. Wie beim iPad Air (3. Generation) wurde ein Apple-A12-Chip verbaut. Zudem lässt sich das iPad mit dem Apple Pencil der ersten Generation bedienen.
iPad mini (6. Generation, 2021)
Das iPad Mini wurde am 14. September 2021 auf einer Apple-Keynote vorgestellt. Sein Design wurde an das iPad Air 4 und die Pro-Modelle ab 2018 angeglichen. Das Display wurde, bei gleicher Breite und etwas niedrigerer Höhe des Gehäuses, von 7,9 Zoll auf 8,3 Zoll vergrößert. Der Home Button entfällt. Touch ID ist nun in der oberen Taste integriert. Durch den neuen Magnet-Connector an der rechten Seite unterstützt nun auch das iPad Mini den Apple Pencil der 2. Generation. Die Lautstärketasten sind aber durch den Apple Pencil an der oberen Kante positioniert. Der Lightning-Anschluss wurde durch USB-C ersetzt. Die Frontkamera ist nun das gleiche 12-Megapixel-Ultraweitwinkelmodul mit Folgemodus wie im iPad Pro 2021 und iPad der 9. Generation. Die rückseitige Kamera verwendet nun einen 12-Megapixel-Sensor und einen LED-Blitz, ein Feature das selbst das teurere iPad Air der 4. Generation nicht besitzt. Wie bei allen iPhone 13-Modellen wurde der neue Apple-A15-Bionic-Chip verbaut, verglichen mit dem A12 Bionic beim Vorgänger. Dadurch wird Smart HDR 3 bei beiden Kameras ermöglicht, welches laut Hersteller mehrere Bilder zusammenfügt, um helle und dunkle Bereiche gleichermaßen gut darzustellen. Bei der rückseitigen Kamera ist nun Videoaufnahme in 4K mit 60 fps möglich, statt 1080p mit 30 fps beim Vorgänger. Zeitlupenvideos können bei 1080p mit 120 fps oder 240 fps aufgenommen werden, beim Vorgänger waren es nur 720p bei 120 fps. Die frontseitige Kamera unterstützt 1080p-Videoaufnahme bei bis zu 60 fps statt 30 fps beim Vorgänger. Die Lautsprecher sind nun nicht mehr beide am unteren Ende angeordnet, sondern einer unten und einer oben die auch Stereo-Wiedergabe unterstützen. Statt Wi-Fi 5 mit bis zu 866 Mbit/s unterstützt dieses nun Wi-Fi 6 mit bis zu 1,2 Gbit/s. Neu ist außerdem das 5G Mobilfunknetz bei den Cellular-Varianten. Während die Gehäusefarbe Space Grau weiterhin erhältlich ist, wurden Silber und Gold durch die neuen Farben Rosé, Violett und Polarstern ersetzt. Die Speichergrößen von 64 GB und 256 GB sind gleich geblieben, die Preise wurden um jeweils 100 € auf 549 € und 719 € erhöht.
iPad Pro
iPad Pro (2015)
Mit dem iPad Pro stellte Apple am 9. September 2015 erstmals ein iPad mit einer Bildschirmdiagonale von 12,9 Zoll (32,78 cm) und einer Bildschirmauflösung von 2732 × 2048 Pixel vor. Am 21. März 2016 folgte eine kleinere Variante mit 9,7 Zoll (24,64 cm). Es steht in den Farben Silber, Gold, Rosé-Gold und Space Grau zur Verfügung. Zudem kann zwischen Modellen mit 32, (nur mit WLAN) 128 und 256 GB (wahlweise mit WLAN oder mit WLAN und Mobilfunkmodem) gewählt werden. Das Gerät verfügt über vier Stereo-Lautsprecher, jeweils zwei an der Ober- und Unterseite, sowie einen Touch-ID-Sensor. Das Gewicht der WLAN-Variante beträgt 713 Gramm, die der Variante mit zusätzlichen Mobilfunkmodem 723 Gramm. Die Akkulaufzeit liegt laut Hersteller weiterhin auf dem Niveau der kleineren Geräte, ermöglicht also eine Nutzung von bis zu 10 Stunden beim Surfen im Web mit WLAN, Video- oder Musikwiedergabe bzw. bis zu 9 Stunden beim Surfen im Web über ein mobiles Datennetz.
Das iPad Pro ist seit November 2015 in über 40 Ländern erhältlich, der Verkauf der 9,7″-Variante startete im März 2016. Als Notebookersatz mit Stift-Support (Apple Pencil) werden diese besonders für die Zielgruppe der Kreativen beworben.
iPad Pro (2. Generation, 2017)
Im Juni 2017 wurde die 2. Generation mit einigen Verbesserungen vorgestellt.
Varianten mit 10,5″ und 12,9″ stehen nun mit 4 GB RAM und bis zu 512 GB Speicher zur Verfügung, während 64 GB nun bei den Einstiegskonfigurationen verbaut werden. Der neue A10X erhöht auch die Performancereserven erheblich, so dass diese Geräte sehr lange genutzt werden können. Die Displays erhielten als große Neuerung ProMotion (variable Bildschirmwiederholrate bis 120 Hz), eine Technologie die seither auch sukzessiv in andere Geräte Einzug hielt (iPhone 13 Pro/Max, Macbook Pro 14/16).
iPad Pro (3. Generation, 2018)
Am 30. Oktober 2018 wurde die 3. Generation des iPad Pro in New York City vorgestellt. In den Größen 11 Zoll und 12,9 Zoll erhältlich, ist es das erste Modell mit Gesichtserkennung und einem Apple-A12X-Prozessor. Die Gerätegeneration verfügt über schmale Displayränder. Die Auflösungen dieser Geräte liegen bei 2388 × 1668 Pixeln (11″) bzw. 2732 × 2048 (12,9″), was jeweils einer Pixeldichte von 264 ppi entspricht. Die Geräte verfügen über einen USB-C-Anschluss, welcher auch zum Laden anderer Geräte verwendet werden kann. Mit USB-C wird eine Übertragungsgeschwindigkeit von 5 Gbit/s ermöglicht, die unter anderem für Video-Datenübertragungen genutzt wird. Dafür entfiel der 3,5 mm Kopfhöreranschluss.
iPad Pro (4. Generation, 2020)
Am 18. März 2020 wurde die vierte Generation auf der Apple-Website angekündigt. Es ist wie das Vorgängermodell in den Größen 11" und 12,9" erhältlich. Eine Neuerung gegenüber dem Vorgängermodell ist eine zusätzliche Ultraweitwinkel-Kamera, sodass nun zwei Kameras auf der Rückseite eingebaut sind und ein drittes Modul, der LiDAR-Scanner. Der LiDAR-Scanner ermöglicht eine räumliche Erfassung der Umgebung. Ebenso auf der Rückseite eingebaut ist ein neuer, hellerer „True-Tone“-Blitz mit mehreren LEDs unterschiedlicher Farbe. Ferner ist ein neues SoC mit der Bezeichnung A12Z eingebaut. Das Gerät besitzt nun in allen Speichervarianten 6 GB Arbeitsspeicher, statt nur in der teuersten mit 1 TB Flashspeicher. Entgegen erster Berichte enthält das Gerät nicht den Ultrabreitband-Chip U1. Eine externe drahtlose Tastatur mit Trackpad und hintergrundbeleuchteten Tasten, „Magic Keyboard“ genannt, ist separat erhältlich und auch mit den iPad-Pro-Modellen aus dem Jahr 2018 kompatibel, kam Ende April auf den Markt.
iPad Pro (5. Generation, 2021)
Am 20. April 2021 wurde die 5. Generation vorgestellt. Das iPad Pro wird in 2 Größen (11" und 12,9") angeboten. Als Prozessor ist der Apple M1 Chip verbaut. Der USB-C-Port wurde um Thunderbolt 4 inklusive USB 4 erweitert und damit erheblich beschleunigt. Hier sind damit auch Anwendungen mit 4K-Video und mehr möglich. Die Speichergröße beträgt nun bis zu 2 TB. Die 12,9" Version nutzt Mini-LED-Displaytechnologie. Die Frontkamera verfügt über ein weiteres Sichtfeld und unterstützt den Folgemodus.
iPad Pro (6. Generation, 2022)
Am 18. Oktober 2022 wurde die 6. Generation vorgestellt. Das iPad Pro wird in 2 Größen (11" und 12,9") angeboten. Als Prozessor ist der Apple M2 Chip verbaut.
Technische Daten
iPad
1. bis 4. Generation
ab 5. Generation
iPad Air
iPad mini
iPad Pro
Bedienung
Wie bei Tablets üblich, gibt es beim iPad kein Zeigegerät, das einen Mauszeiger über den Bildschirm bewegt. Die Bedienung erfolgt mit den Fingern des Nutzers, die dabei mit Multi-Touch-Gesten unterschiedliche Funktionen auslösen können. Alle Gesten des iPhones funktionieren auch beim iPad. Zusätzlich wurden weitere Gesten eingeführt. Beispielsweise lässt sich mittels einer Spreiz-Geste eine Vorschau eines Fotostapels öffnen. Außerdem ist es mit der Installation von iOS 5.0 auf dem iPad 2 sowie mit iOS 5.0.1 auf dem iPad 1 möglich, zusätzliche Multitouchgesten auszuführen. Diese wechseln zwischen Programmen und schieben Programme in den Hintergrund, ohne dass der Home-Button verwendet werden muss; sie werden mit vier bis fünf Fingern ausgeführt. Wie beim iPhone und iPod touch ist auch beim iPad die Bedienung mit einem herkömmlichen Stift, beispielsweise einem Stylus oder Kugelschreiber, aufgrund des kapazitiven Touchscreens nicht möglich. Einige Anbieter bieten spezielle Bedienstifte an, die Fingerberührungen simulieren. Diese sind hilfreich, wenn man beispielsweise Handschuhe trägt und so die Finger nicht auf dem Touchscreen verwenden kann. Außerdem bietet Apple seit September 2015 eine eigene Stiftlösung an. Seit März 2020 unterstützen iPads mit iPadOS 13.4 und neuer die Bedienung mit Maus und Trackpads.
Eine virtuelle, an die Anforderungen des Programms angepasste Tastatur wird – wenn nötig – am jeweils unteren Bildschirmrand eingeblendet. Stattdessen kann eine externe Tastatur über Bluetooth oder ein Keyboard-Dock angeschlossen werden. Dafür bietet Apple ein Dock mit Tastatur an, die dem Layout der Apple-Bluetooth-Tastatur Aluminium von 2008 entspricht.
Alle wichtigen Programme des Gerätes können sowohl in vertikaler als auch horizontaler Orientierung des Bildschirms bedient werden; der eingebaute Bewegungssensor erkennt die räumliche Lage und dreht das Bild entsprechend.
Software
Seit Herbst 2019 wird bei allen iPad-Modellen Apples iPadOS als Betriebssystem verwendet.
Zusätzlich zu den bereits integrierten Programmen (sogenannte „Apps“) können nur Apps aus dem App Store und Web Apps, also in HTML und JavaScript geschriebene Programme, installiert werden. Alle diese im App Store für iOS vorhandenen Programme können auf dem iPad verwendet werden. Apps, die nur für iPhone und iPod touch entwickelt wurden, können ebenfalls verwendet werden, dabei kann das Bild hochskaliert werden, um den Bildschirm besser auszunutzen. Von Apple selbst gibt es die einzelnen Office-Anwendungen der iWork-Familie als spezielle, an die Multi-Touch-Bedienung des iPad angepasste Versionen. Die iLife-Programme iMovie, GarageBand und iPhoto hat Apple ebenfalls in Versionen für die Touch-Bedienung des iPad umgesetzt. Die iBooks-App, mit der E-Books gekauft und angezeigt werden können, ist nicht im Lieferumfang enthalten, kann aber kostenlos aus dem App-Store heruntergeladen werden. Mit dem iBookstore versucht Apple, auch in den E-Book-Markt vorzudringen. Dafür hat Apple mit fünf amerikanischen Verlagen Verträge abgeschlossen.
Auch als Wiedergabemedium für elektronische Zeitungen und Zeitschriften versucht Apple, das iPad zu etablieren – mit wachsendem Erfolg. Zahlreiche Zeitschriften und Zeitungen wurden als E-Book für das iPad verfügbar gemacht. Im Februar 2011 präsentierte Rupert Murdoch gemeinsam mit Apple The Daily, die weltweit erste exklusiv für das iPad entwickelte Tageszeitung. Auf der Präsentation des iPad 2 teilte Steve Jobs mit, dass von den rund 350.000 Apps des App Stores über 65.000 speziell für das iPad erstellt wurden. Am 11. Juni 2012 vermeldete Apple 225.000 speziell für das iPad erstellte Apps.
Apples Entwicklungsumgebung Xcode unterstützt das iPad ab der Version 3.2.2. Xcode enthält ab dieser Version auch einen iPad-Simulator und das dazugehörige SDK. Für die Entwicklung wird ein Mac-Rechner mit Mac OS X ab Version 10.6.2 benötigt. Zum Testen der Programme auf dem iPad und um Software im App Store anbieten zu können, ist eine kostenpflichtige Mitgliedschaft am iOS Developer Program notwendig. Bei einer Mitgliedschaft im iPhone Developer University Program ist das Testen kostenfrei.
Das Betriebssystem des iPad ist multitaskingfähig und kann dadurch sowohl mehrere Anwendungen parallel ausführen als auch zwischen verschiedenen laufenden Anwendungen wechseln. Bis iOS 4.2.1 stellte Apple diese Funktionalität jedoch nur einer geringen Anzahl eigener Anwendungen zur Verfügung. Im November 2010 wurde eine Funktionalität eingeführt, um zwischen mehreren laufenden Anwendungen zu wechseln. Durch eine spezielle Technik (teilweise werden inaktive Anwendungen gestoppt und laufen beim Einblenden oder Eintreffen von Benachrichtigungen weiter) wird der Akku geschont, und der Anwender hat trotzdem das Erlebnis von Multitasking.
Wie auf dem iPhone, steht Adobe Flash auch auf dem iPad nicht zur Verfügung. Steve Jobs begründete den offensiven Verzicht auf Flash mit Programmierfehlern von Adobe, die Systemabstürze verursachen und außerdem die Akkulaufzeit verkürzen.
Das iPad unterstützt DRM, um erworbene Medieninhalte und Anwendungen zu schützen. Daten können vom Computer aus nur über iTunes übertragen werden. Für die Aktivierung ist eine Verbindung mit iTunes oder ein Wi-Fi notwendig.
Das iPad ist als persönliches Gerät konzipiert und bietet keine Möglichkeit zur Verwaltung unterschiedlicher Benutzerkonten; lediglich Einschränkungen können vorgenommen werden (Stichwort Jugendschutz). Weiter greifen alle Nutzer eines iPad auf gemeinsame Daten zu und teilen sich E-Mails, Kalender und weitere Informationen.
Über WLAN werden außerdem folgende drahtlose Schnittstellen unterstützt, die teilweise auch für Zubehörhersteller lizenzierbar sind:
AirPlay zum direkten Übertragen von Musik, Video oder Bildschirm an ein AirPlay-fähiges Endgerät wie beispielsweise Apple TV oder HiFi-Anlagen (seit iOS 4)
AirPrint zum direkten Drucken an AirPrint-fähigen Druckern, ohne dazu einen Computer zu benötigen (seit iOS 4)
Synchronisieren (seit iOS 5)
AirDrop Zum Austausch von Inhalten mit anderen iOS-Geräten (seit iOS 7)
Weil das iPhone und später auch das iPad restriktiv auf die Dienste und den App Store von Apple festgelegt sind, wodurch sich viele Benutzer regelrecht „im Gefängnis eingesperrt“ fühlen, hat sich der Begriff Jailbreak etabliert für Software, die das „Ausbrechen“ aus dieser Einschränkung ermöglicht.
Apple beendete mit iOS 5.1.1 die Versorgung des ersten iPad mit aktuellen Versionen von iOS weniger als zwei Jahre nach der Produkteinführung. Dies führte dazu, dass einige Apps, die die aktuelle iOS-Version voraussetzten, nicht installiert werden konnten. Seit dem 17. September 2013 ist es möglich, ältere Versionen der Apps zu installieren.
In iOS 5 sind inzwischen Sicherheitslücken bekannt, die unter anderem unberechtigten Systemzugriff ermöglichen.
Zubehör
Smart Cover und Smart Case
Apple bietet Schutzhüllen in zahlreichen Ausführungen an, die meist aus Polyurethan oder Leder gefertigt sind.
Mit dem iPad 2 wurde das Smart Cover in mehreren Farben eingeführt. Diese Schutzabdeckung wird mit Magneten am Gerät gehalten. Beim Schließen des Covers wird das iPad in den Ruhezustand versetzt und beim Aufklappen wieder aktiviert. Das Cover lässt sich an der Rückseite zu einer Stütze zusammenklappen. Das Smart Case ist eine Weiterentwicklung davon. Es bietet die gleichen Funktionen und schützt zusätzlich die Rückseite des Geräts. Es wird aus Polyurethan gefertigt und in mehreren Farben angeboten.
Adapter und Kabel
Mit Hilfe von zwei Adaptern, die zusammen als Camera Connection Kit verkauft werden, können Digitalkameras über USB angeschlossen werden oder SD-Cards ausgelesen werden. Je nach Gerät können USB-Sticks über den Adapter oder bei den USB-C-iPads auch direkt angeschlossen werden. Außerdem gibt es das Camera Connection Kit auch für den Lightning-Anschluss der neueren Modelle. Dieses besteht aus getrennt zu erwerbenden Produkten, man kann also nicht mehr den USB- und den SD-Adapter gemeinsam kaufen. Separat erhältlich sind ein Digital AV Adapter (HDMI) und ein VGA-Adapter, mit denen das iPad an einen Monitor oder Beamer angeschlossen werden kann. Hierbei wird der komplette Bildschirminhalt 1:1 mit maximal 1080p übertragen. Für die Produkte mit Lightning-Anschluss gibt es darüber hinaus einen Adapter, der altes Zubehör für den 30-poligen Dock-Connector nutzbar macht.
Apple Pencil
Für das iPad Pro stellte Apple am 9. September 2015 den Apple Pencil vor, ein aktiver Eingabestift (auch Digitizer, aktiver Stylus), der zum Zeichnen, Schreiben und Malen genutzt werden kann. Der Stylus ist druckempfindlich und neigungswinkelabhängig. So ist zum Beispiel das Zeichnen von stärkeren Linien mit stärkerem Druck sowie von Schattierungen mit entsprechender Neigung des Stiftes möglich. Laut Hersteller bietet der Stift bei vollständig geladenem Akku eine Nutzungszeit von 12 Stunden. Eine Schnellladefunktion ermöglicht bei einer Ladezeit von 15 Sekunden eine erneute Nutzungszeit von 30 Minuten. Der Stift enthält 15 verschiedene Chips.
Apple Pencil (2. Generation)
Am 30. Oktober 2018 wurde die 2. Generation des Apple Pencil in New York vorgestellt. Der Pencil ist mit den iPad-Modellen 11" iPad Pro und 12,9" iPad Pro (3. Generation und 4. Generation) kompatibel. Der Pencil kann über Magnete am iPad befestigt und geladen werden. Zusätzlich kann er durch ein Doppeltippen am Stift ein Wechsel der aktiven Funktion erfolgen.
Verkaufszahlen
Apple hat nach eigenen Angaben in den 28 Tagen nach dem Verkaufsstart des ersten iPad am 3. April 2010 eine Million Geräte verkauft. Zu diesem Zeitpunkt war es nur in den USA erhältlich. Binnen weniger als zwei Jahren sank der Marktanteil des iPad auf dem Markt für Tablets laut Strategy Analytics von im dritten Quartal 2011 weltweit 66,6 % auf 28 % im zweiten Quartal 2013.
Von den im Jahr 2011 weltweit 40,5 Millionen verkauften iPads wurden allein auf dem US-Markt insgesamt 17,4 Millionen Stück verkauft, was 43 % der weltweiten Verkäufe entspricht.
Kritik
Zum Erscheinen des ersten iPad wurden die Apps und die lange Akkulaufzeit positiv bewertet, während der geringe Lieferumfang, die fehlende Unterstützung für Adobe Flash, sowie der nicht vorhandene USB-Anschluss bemängelt wurden. Michael Spehr kritisierte in der Frankfurter Allgemeinen Zeitung, dass kein direkter Zugriff auf das Dateisystem möglich ist.
David Pogue von der New York Times wies außerdem darauf hin, dass ein Laptop mehr Features zu einem günstigeren Preis bereitstelle.
Da (ähnlich dem iPhone) der Akku fest verbaut ist und sich nicht austauschen lässt, muss das Gerät bei defektem oder schwächer werdendem Akku repariert werden.
Sonstiges
Die Schweizerischen Bundesbahnen (SBB) und Apple verständigten sich im Oktober 2012 auf eine Nutzungsgebühr für das Design der Schweizer Bahnhofsuhr als App. Zuvor war Apple vorgeworfen worden, in der Uhren-App unter iOS 6 das Design dieser Bahnhofsuhr ohne Zustimmung übernommen zu haben. Im November 2012 schrieb der Tages-Anzeiger unter Berufung auf verschiedene Quellen, dass das Nutzungsentgelt offenbar rund 20 Millionen Schweizer Franken (2012 rund 16,5 Millionen Euro) betrage.
Am 1. Januar 2016 wurden die Preise für alle Modelle in Deutschland um 8,32 € bzw. 8,33 € angehoben. Grund dafür war die von der Zentralstelle für private Überspielungsrechte erstmals auch für Smartphones und Tablets erhobene Pauschalabgabe nach Abs. 1 UrhG, welche von Apple direkt an die Kunden weitergegeben wurden.
Weblinks
Offizielle Webseite
Technische Daten des aktuellen iPad
Informationen zu iPadOS-Updates
Die Politik des iPad, Analyse in der FAZ vom 1. Februar 2010
Ohne Bares nichts Wahres, Artikel von Ulrich Hottelet in Cicero, August 2010
Einzelnachweise
Computer von Apple
Tabletcomputer (Produkt)
|
Q2796
| 186.07854 |
302499
|
https://de.wikipedia.org/wiki/Str%C3%B6mungswiderstand
|
Strömungswiderstand
|
Der Strömungswiderstand ist eine physikalische Größe, die in der Fluiddynamik die Kraft bezeichnet, die das Fluid als Medium einer Bewegung entgegensetzt.
Ein Körper, der sich relativ zu einem gasförmigen oder flüssigen Medium bewegt, erfährt einen Strömungswiderstand, eine der Relativgeschwindigkeit entgegengesetzt wirkende Kraft.
Bewegt sich ein Objekt wie ein Flugzeug durch die Luft, so spricht man auch vom Luftwiderstand oder von der Luftreibung, siehe Aerodynamik.
Bei Bewegungen im Wasser spricht man von Wasserwiderstand, siehe Hydrodynamik.
Wenn ein Fluid durch eine Rohrleitung strömt, so erfährt es aufgrund der Rohrreibung entlang der zurückgelegten Strecke einen Druckverlust (siehe Strömungen in Rohrleitungen).
Kräfte auf umströmte Körper
Auf die Oberfläche eines umströmten Körpers übt die Strömung örtlich verschiedene Schubspannung und Druck (Normalspannung) aus. Werden Druck und Schubspannung über die gesamte Oberfläche integriert, erhält man die resultierende Kraft, die die Strömung auf den Körper ausübt.
Diese Kraft hat eine bestimmte Richtung im Raum. Die Kraftkomponente, die in Richtung der Anströmrichtung liegt, ist die Widerstandskraft. Neben der Widerstandskraft sind andere Kraftkomponenten die Auftriebskraft und die Seitenkraft. Oft werden diese Kräfte im Windkanal gemessen.
Bei Kraftfahrzeugen ist es üblich, die Kraftkomponenten bezüglich eines fahrzeugfesten Koordinatensystems anzugeben.
Komponenten des Strömungswiderstands
An der Oberfläche eines Körpers, der einer Strömung ausgesetzt ist, wirken die physikalischen Größen Druck und Schubspannung. Dementsprechend setzt sich der Strömungswiderstand aus dem Druckwiderstand und dem Schubspannungswiderstand zusammen. In Abhängigkeit von der Form des umströmten Körpers und der Anströmrichtung kann der Druckwiderstand oder der Schubspannungswiderstand überwiegen.
Je nach Fall erweist es sich für die Betrachtung und Berechnung als günstig, bestimmte Effekte und Phänomene, die bei der Umströmung des Körpers auftreten, separat zu behandeln. Einige dieser Effekte werden als Interferenzwiderstand, induzierter Widerstand und Wellenwiderstand bezeichnet.
Druckwiderstand (Formwiderstand)
Der Druckwiderstand folgt aus der Druckverteilung (Normalspannung) um einen Körper. Der Druck im Ablösegebiet am Heck von Körpern ist geringer als der im Staupunkt. Die wirksame Fläche dieses Widerstandes ist die projizierte Fläche in Richtung der Anströmung.
Schubspannungswiderstand (Reibungswiderstand, Flächenwiderstand)
Der Schubspannungswiderstand ist Ergebnis der Reibung, also des viskosen Impulsaustausches. Er beruht auf den Schubspannungen, die auf der Oberfläche des Körpers auftreten, indem die Strömung über die Oberfläche streicht.
Interferenzwiderstand
Der Interferenzwiderstand ist ein im Flugzeugbau verwendeter Begriff, der die Differenz zwischen den summierten Strömungswiderständen von verschiedenen Strömungskörpern zum Gesamt-Strömungswiderstand nach dem Zusammensetzen dieser Körper zu dem fertigen Objekt (Flugzeug) bezeichnet.
Ein Beispiel ist ein Flugzeugrumpf und die Flugzeugtragflächen vor dem Zusammenbau und nach erfolgter Montage. Die Summe der Einzelwiderstände der Bauteile Flügel und Rumpf ist höher als der Gesamtwiderstand nach dem Zusammenbau. Qualitativ betrachtet ist der Interferenzwiderstand die gegen die Anströmrichtung wirkende Komponente der Luftkraft an einem Strömungskörper, die durch die gegenseitige Beeinflussung der von verschiedenen Teilen des Flugzeuges ausgelösten Wirbel oder durch Überlagerung der Grenzschichten in den Ecken entsteht.
Induzierter Widerstand
Der induzierte Widerstand entsteht immer, wenn ein Objekt in einem Fluid Kräfte quer zur Strömungsrichtung erzeugt. Das ist zum Beispiel bei der Auftriebserzeugung durch Tragflächen eines Flugzeugs der Fall, bei der zum einen Luft nach unten beschleunigt wird (downwash).
Wellenwiderstand
Der Wellenwiderstand tritt bei umströmten Körpern auf, die sich mit Überschall- oder transsonischer Geschwindigkeit bewegen. An Körperkanten, die der Anströmung entgegen geneigt sind, tritt eine Druckerhöhung auf, während an den Kanten, die der Anströmung abgeneigt sind, eine Druckverminderung auftritt. Dieser Druck führt zu einer entgegen der Bewegung gerichteten Kraft.
Abhängigkeit des Strömungswiderstandes
Die Strömungswiderstandskraft eines Körpers in einer bestimmten Lage ist abhängig von der Anströmgeschwindigkeit , der Dichte und der Viskosität (Zähigkeit) des Fluids sowie der geometrischen Abmessung (einer charakteristischen Länge) des Körpers.
Dieser Zusammenhang, der fünf Variablen umfasst, kann mit Hilfe einer Dimensionsanalyse nach dem Buckinghamschen Π-Theorem auch mittels zweier dimensionsloser Ähnlichkeitskennzahlen formuliert werden. Diese Ähnlichkeitskennzahlen sind der Strömungswiderstandskoeffizient und die Reynolds-Zahl , die definiert sind als
Dabei ist die Größe eine Bezugsfläche, welche definiert sein muss. Üblicherweise wird die Stirnfläche des Körpers als Bezugsfläche verwendet, bei Tragflügeln aber die Flügelfläche.
Der physikalische Zusammenhang kann damit beschrieben werden in der Form
Die Widerstandskraft ist proportional zum Produkt aus -Wert und Bezugsfläche, welches als Widerstandsfläche bezeichnet wird. Man erhält die Strömungswiderstandkraft aus
Der Faktor wird als Staudruck bezeichnet.
Für praktische Anwendungen, z. B. dem Luftwiderstand von Kraftfahrzeugen, kann die Abhängigkeit von der Reynolds-Zahl häufig vernachlässigt werden. Dann wird der -Wert (Strömungswiderstand) als konstanter Wert angesetzt, so dass der Widerstand quadratisch mit der Geschwindigkeit zunimmt. Für einen Vergleich des Strömungswiderstands verschiedener Fahrzeuge kommt als maßgebliches Kriterium die Widerstandsfläche hinzu, die Stirnfläche oder Querschnittsfläche.
Laminare Strömung
Bei laminarer Strömung wird der Strömungswiderstand nur durch die innere Reibung des Mediums verursacht. Ist die dynamische Viskosität des Mediums, so gilt für kugelförmige Körper vom Radius das Stokessche Gesetz
Der Widerstandsbeiwert einer Kugel kann für den allgemeinen Fall einer laminaren Strömung mit Reynoldszahlen kleiner mit folgender Näherungsformel ermittelt werden:
Für Reynoldszahlen kleiner 1 gilt das Stoke'sche Gesetz und der Widerstandsbeiwert nähert sich dem Wert an!
Turbulente Strömung
In einer turbulenten Strömung lässt sich der Strömungswiderstand nur durch Experimente bestimmen, bzw. durch aufwendige numerische Rechnung, z. B. mittels Finite-Volumen-Verfahren, annähern.
Bei Kraftfahrzeugen, aber auch z. B. Fahrradfahrern und Läufern, kann im relevanten Geschwindigkeitsbereich von turbulenter Strömung ausgegangen werden.
Im modernen Automobilbau ist der -Wert, der Luftwiderstandsbeiwert, von großer Bedeutung. Er kann im optimalen Falle 0,07 betragen (TERA Fennek 2013), beim Ford Model T war er 0,9.
Längenbezogener Strömungswiderstand
Poröse Materialien werden zur Schalldämpfung eingesetzt. Ihre Fähigkeit zur Schallabsorption hängt unter anderem von ihrem längenbezogenen Strömungswiderstand ab.
Diese besondere Form des Strömungswiderstands ist Maß für die Fähigkeit des Materials, die kleinen Luftbewegungen zu bremsen, die von auftreffenden Schallwellen ausgelöst werden.
Beim Einsatz in der Zwischensparrendämmung von Dächern etwa sollte der längenbezogene Strömungswiderstand r des Dämmstoffs zwischen 3 und 35 kPa·s/m2 oder – gemäß der DIN EN 13162 in Verbindung mit der DIN 4109-10 – bei mindestens 5 [kN·s/m4] liegen.
Literatur
Ernst Götsch: Luftfahrzeugtechnik, Motorbuchverlag, Stuttgart 2003, ISBN 3-613-02006-8
Thomas Schütz: Hucho – Aerodynamik des Automobils. Springer Vieweg, Wiesbaden 2013, ISBN 978-3-8348-2316-8.
Willi Bohl, Wolfgang Elmendorf: Technische Strömungslehre. Vogel Fachbuch, Würzburg 2008, ISBN 978-3-8343-3129-8
Weblinks
What is Drag: Webseite des Glenn Research Centers: Strömungswiderstand am Beispiel eines Flugzeugs
Luftwiderstand auf Schülerniveau (LEIFI)
Einzelnachweise
Strömungsmechanik
Physikalische Größe
|
Q206621
| 95.431018 |
3163395
|
https://de.wikipedia.org/wiki/Mandschukuo
|
Mandschukuo
|
Mandschukuo, auch Mandschuko (mandschurisch , Mandschu Gurun, ; , ) oder Manshū teikoku (, jap. ) genannt, war ein von Japan errichtetes „Kaiserreich“ in der Mandschurei. Es bestand vom 1. März 1932 bis zum 18. August 1945, wurde aber international nur von 23 Staaten anerkannt. Zum Herrscher wurde Puyi eingesetzt, der als Kleinkind von 1908 bis 1912 der letzte Kaiser von China war; 1932 zunächst als Präsident und ab 1934 als Kaiser von Mandschukuo. Das Staatsgebiet von Mandschukuo ist heute Teil der Volksrepublik China. Viele Historiker sehen Mandschukuo als Marionettenstaat.
Entwicklung
Vorgeschichte
Das Kaiserreich Japan hatte nach dem Ersten Japanisch-Chinesischen Krieg bereits Korea als Einflussbereich gewonnen und interessierte sich auch für die reichen Rohstoffvorkommen in der Mandschurei. Durch die bis 1900 erfolgte Besetzung dieses Gebietes durch Russland sah sich Japan jedoch in seinen Plänen gestört. Nachdem der japanische Botschafter 1903 vergeblich einen Rückzug der russischen Truppen aus der Mandschurei und die Anerkennung der japanischen Interessen in Korea gefordert hatte, mündeten die stetig gewachsenen Spannungen 1904 schließlich in den Russisch-Japanischen Krieg. Japan konnte ihn für sich entscheiden und Russland musste die Mandschurei räumen, die offiziell wieder an China zurückgegeben wurde.
Japan sicherte sich jedoch großen Einfluss und baute die Südmandschurische Eisenbahn, um Rohstoffe aus der Mandschurei nach Korea bringen und von dort nach Japan verschiffen zu können. Die Eisenbahn wurde von der japanischen Kwantung-Armee beschützt. Nach der Weltwirtschaftskrise sahen viele japanische Militärs eine Lösung der Probleme durch eine weitere Expansion in Richtung Mandschurei.
Die Mandschurei besaß zwischen 1916 und 1928 unter dem Kriegsfürsten Zhang Zuolin die De-facto-Unabhängigkeit gegenüber China. Zhang wurde jedoch bei einem Bombenanschlag durch den Befehlshaber der Kwantung-Armee Oberst Kōmoto Daisaku getötet und die Mandschurei konnte von der Kuomintang unter Chiang Kai-shek zurückerobert werden, der in der Nordexpedition bereits seit 1926 einen Krieg gegen Zhang führte.
Okkupation und Gründung
Nach dem von Japan inszenierten Mukden-Zwischenfall vom 18. September 1931 kam es zur Mandschurei-Krise und die Kwantung-Armee besetzte ohne größere Rücksprache mit der japanischen Regierung die Mandschurei. Unter japanischer Einwirkung erklärten lokale Notabeln am 18. Februar 1932 die staatliche Unabhängigkeit. Diese Okkupation wurde von den USA durch die Hoover-Stimson-Doktrin verurteilt und der Völkerbund protestierte. 1933 wurde die chinesische Provinz Jehol, die nicht Teil der eigentlichen Mandschurei ist, an den neuen Staat angegliedert.
Japan versuchte, das Gebiet kulturell an sich zu binden und wirtschaftlich auszubeuten. So wurde die japanische Sprache offizielle Sprache und Shintō die offizielle Staatsreligion. Mit dem Eintrachtverband sollte eine künftige staatstragende Partei aufgebaut werden. Wirtschaft und Infrastruktur wurden massiv ausgebaut.
In Mandschukuo war auch die Einheit 731 der japanischen Armee stationiert, die an biologischen und chemischen Waffen forschte und Menschenversuche unternahm.
Zwischen 1932 und 1939 kam es zu verschiedenen Grenzkonflikten zwischen der Sowjetunion und Japan, als Japan die Grenze der Mandschurei weiter auf sowjetisches bzw. auf das unter sowjetischem Einfluss stehende Staatsgebiet der Mongolei auszudehnen versuchte. 1939 ereignete sich an der Grenze zwischen Mandschukuo und der Mongolei der Nomonhan-Zwischenfall, der sich aus mehreren Grenzgefechten zur Schlacht am Fluss Chalchin Gol entwickelte. Die Kämpfe zwischen sowjetischen Truppen unter der Führung von General Georgi Schukow und der Mongolisch Revolutionären Volksarmee auf der einen und mandschurischen und japanischen Truppen auf der anderen Seite endeten in einer vernichtenden Niederlage der japanischen 6. Armee. Am 16. September 1939 setzte ein Waffenstillstandsabkommen mit der Sowjetunion den Grenzkonflikten ein Ende. In der Folgezeit dehnten die Japaner stattdessen ihre Einflusssphäre in Richtung Südostasien weiter aus.
Zweiter Weltkrieg und Ende des Staates
Im Zweiten Weltkrieg gehörte Mandschukuo wie Japan zu den Achsenmächten. Bis Mitte 1945 fanden auf dem Gebiet Mandschukuos praktisch keine Kampfhandlungen statt, da das Kaiserreich Japan und die Sowjetunion am 13. April 1941 den japanisch-sowjetischen Neutralitätspakt (; ) auf fünf Jahre geschlossen hatten.
Auf der Konferenz von Jalta im Februar 1945 verpflichtete sich Stalin auf Drängen Roosevelts dazu, 90 Tage nach dem Kriegsende in Europa unter Bruch des Neutralitätspaktes den Krieg in Fernost zu beginnen und Japan und seine Verbündeten anzugreifen. Der Termin wurde von der Roten Armee auf den Tag genau eingehalten. Am 8. August 1945 begann die Sowjetische Invasion der Mandschurei. Einen knappen Monat später wurde Mandschukuo aufgelöst, das Gebiet wurde 1946 gemäß den alliierten Kriegszielen aus der Kairoer Erklärung an die Republik China zurückgegeben.
Entgegen den westalliierten Erwartungen gelang es der nationalchinesischen Regierung unter Chiang Kai-shek trotz massiver finanzieller Unterstützung aber nicht, die Mandschurei unter ihre Kontrolle zu bekommen. Mit Hilfe der Sowjetunion bauten die chinesischen Kommunisten die Mandschurei zu ihrer Machtbasis aus. Die Fortsetzung des Chinesischen Bürgerkrieges und schließlich der Sieg der chinesischen Kommunisten stehen mit der zeitweiligen sowjetischen Besetzung daher in engem Zusammenhang.
Internationale Anerkennung
Nur 23 der damals rund 80 Staaten der Welt erkannten Mandschukuo völkerrechtlich oder diplomatisch an. Der Völkerbund erklärte, dass Mandschukuo völkerrechtlich ein Teil der Republik China sei und bleibe. Dies führte nach dem Bericht der Lytton-Kommission zum Austritt Japans aus dem Völkerbund am 27. März 1933. Diplomatisch anerkannt wurde Mandschukuo von folgenden Staaten und Regierungen:
Japan, ab dem 16. September 1932
El Salvador, ab dem 3. März 1934
Vatikanstadt, De-facto-Anerkennung ab dem 18. April 1934
Königreich Italien, ab dem 29. November 1937
Spanien, ab dem 2. Dezember 1937
Deutsches Reich, ab dem 12. Mai 1938
Ungarn, ab dem 9. Januar 1939
Mengjiang (Marionettenstaat Japans), ab September 1939
Polen, De-facto-Anerkennung ab dem 19. Oktober 1939, die 1942 zurückgezogen wurde, beides durch die Polnische Exilregierung
Slowakei, ab dem 1. Juni 1940
Vichy-Frankreich
Dänemark, ab August 1940
Nanjing-Regierung Chinas (Marionettenstaat Japans), ab dem 30. November 1940
Rumänien, ab dem 1. Dezember 1940
Dominikanische Republik
Sowjetunion, indirekte Anerkennung durch den Japanisch-Sowjetischen Neutralitätspakt am 13. April 1941
Mongolische Volksrepublik, indirekte Anerkennung am 13. April 1941
Bulgarien, ab dem 10. Mai 1941
Finnland, ab dem 18. Juli 1941
Kroatien, ab dem 2. August 1941
Thailand, ab dem 5. August 1941
Birma, ab August 1943
Philippinen, ab Oktober 1943
Als 24. diplomatische Anerkennung kam noch Ende Oktober 1943 die japanische Marionetten-Exilregierung Indiens mit Sitz in Singapur hinzu, eine „Regierung“, der zwar auf dem Papier die japanisch besetzten Andamanen und Nikobaren unterstellt wurden, die aber de facto keine Staatsgewalt ausübte.
Bevölkerung
Die Bevölkerung bestand 1937 zum größten Teil aus rund 35,5 Millionen Mandschu und Chinesen. Japan versuchte, in der Region verstärkt Japaner und besonders japanische Bauern anzusiedeln, was aber nicht gelang, da der Lebensstandard in Mandschukuo geringer war und die japanischen Landwirtschaftstechniken nicht für die Bedingungen in der Mandschurei geeignet waren. Zwischen 1931 und 1937 siedelten sich nur 417.759 Japaner in Mandschukuo an. Daher wurde mit dem Immigrationsplan Eine Million Familien in 20 Jahren eine staatliche Förderung von 1060 Yen beschlossen. Die japanischen Familien sollten besonders in den schlecht entwickelten Regionen im Osten und Norden angesiedelt werden. Die 1938 gegründete Mandschurische Entwicklungsgesellschaft unternahm ein Ausbildungsprogramm für Japaner zwischen 16 und 19, um sie an das Leben in der Mandschurei anzupassen. Etwa 19.000 Japaner wurden in dem Programm ausgebildet. Daneben waren die Japaner auch bemüht, Koreaner in der Mandschurei anzusiedeln.
Wirtschaft
Banken und Wirtschaftsorgane waren unter fester Kontrolle der Japaner.
Japan investierte zwischen 1932 und 1942 rund 5,2 Milliarden Yen in Mandschukuo, eine ungewöhnlich hohe Summe für koloniale Investitionen im Vergleich mit europäischen oder amerikanischen Kolonien. Die Infrastruktur und die Städte wurden massiv ausgebaut und modernisiert. Die Industrialisierung wurde vorangetrieben. In Mandschukuo experimentierte Japan erstmals mit Hochgeschwindigkeitszügen, da das in Kapspur (Spurweite 1067 mm) ausgeführte japanische Eisenbahnnetz dafür nicht geeignet waren. Der von der Südmandschurischen Eisenbahn betriebene Ajia fuhr ab 1934 eine Spitzengeschwindigkeit von 120 km/h zwischen Dairen und Xinjing/Shinkyō und war vollklimatisiert. Mandschukuo besaß auch eine nationale Fluggesellschaft, die Manchuria Aviation Company.
Der größte Teil der Wirtschaft bestand aus Landwirtschaft, die staatlich kontrolliert wurde. Mehr als die Hälfte aller Exporte – 1936 65 Prozent – machten Bohnen, vor allem Sojabohnen, und Bohnenprodukte aus. 1936 waren 85 Prozent der Exporte Landwirtschaftsprodukte.
Ein weiterer wichtiger Wirtschaftszweig war der Abbau von Rohstoffen, besonders von Erzen und Kohle, der Exportanteil lag 1936 bei 11 Prozent.
Die Schwer- und Bergbauindustrie war unter Kontrolle der Südmandschurischen Eisenbahn-Gesellschaft, kurz SME. Außerdem wurden die meisten Investitionen und Geldtransfers von der SME organisiert und verwaltet. Dies führte zu einem Machtkampf mit der Guangdong-Armee, die schließlich 1937 zusammen mit Nissan ein Monopol auf die Schwerindustrie gründete und diesen Sektor so der SME entzog. Zwischen 1932 und 1936 wurden Monopol-Firmen gegründet, die in bestimmten Sektoren ein Monopol einnahmen, darunter die Mandschurische Bank und die Manchukuo National Airways.
Japan exportierte dagegen besonders Schwerindustrieprodukte nach Mandschukuo.
Siehe auch
Befriedung von Mandschukuo
Japanische Kolonien
Heer des Mandschurischen Kaiserreichs
Marine des Mandschurischen Kaiserreichs
Luftstreitkräfte des Mandschurischen Kaiserreichs
Postgeschichte und Briefmarken Mandschukuos
Mandschurische Staatsbahn
Literatur
Jasper Wieck: Weg in die »Décadence«. Frankreich und die mandschurische Krise 1931–1933 (= Pariser Historische Studien. 40). Bouvier, Bonn 1995, ISBN 3-416-02554-7 (Digitalisat)
S. Noma (Hrsg.): Manchukuo. In: Japan. An Illustrated Encyclopedia. Kodansha, 1993. ISBN 4-06-205938-X, S. 915.
Weblinks
Einzelnachweise
Chinesische Monarchie
Zweiter Japanisch-Chinesischer Krieg
Historischer Staat (China)
Nicht allgemein anerkannter historischer Staat
Marionettenstaat des Japanischen Kaiserreichs
Republik China
Chinesisch-japanische Beziehungen
Japanische Kolonialgeschichte
Historisches Territorium (China)
Kaiserreich
Gegründet 1932
Aufgelöst 1945
Protektorat
|
Q30623
| 205.928446 |
52659
|
https://de.wikipedia.org/wiki/Aqu%C3%A4dukt
|
Aquädukt
|
Der oder das Aquädukt (lat. aquaeductus „Wasserleitung“) ist ein Bauwerk zum Transport von Wasser.
Der Begriff wird im weiteren Sinne für überwiegend als Freispiegelleitung ausgeführte Wasserversorgungsanlagen von antiken römischen Städten verwendet. Im engeren Sinne wird er für wasserführende Brücken benutzt.
Wasserleitungen in den alten Hochkulturen und in Griechenland
Bereits vor Entstehung des römischen Reiches wurden von den alten Hochkulturen Bauwerke für die Bewässerung errichtet. Die ältesten Aquädukte in der historischen Überlieferung werden Ramses dem Großen, Semiramis und dem König Salomo zugeschrieben.
Die Überreste der Aquädukte von Palmyra und Samos (Tunnel des Eupalinos, im 6. Jahrhundert v. Chr. von Eupalinos von Megara erbaut) sind Beispiele von unterirdischen Kanälen, die das Wasser aus mehr oder minder entfernt liegenden Quellen in die Städte führten.
Für die Wasserversorgung der wachsenden Residenz Ninive ließ der assyrische König Sanherib 691 v. Chr. einen 48 Kilometer langen Kanal bauen, der mit einer 280 Meter langen und neun Meter hohen Brücke mit fünf Spitzbogen aus Kragsteinen über ein Flusstal führte. Vier der Pfeiler sind als Strompfeiler bereits mit Rundungen angelegt. Bereits zwei Jahre nach seiner Thronbesteigung gab der König ein System von vier Kanälen teilweise mit Tunneln und Aquädukten von ca. 150 km Länge in Auftrag, deren Ausführung fünfzehn Jahre dauerte. Die größte Herausforderung war die Querung eines 280 m langen Tales, weshalb das Jerwan-Aquädukt (als ältester Aquädukt angesehenes Bauwerk) als Teil eines dieser Kanäle in der Nähe des heutigen Dorfes Jerwan im Nordirak erbaut wurde. Der künstliche Wasserweg weist ein gleichmäßiges Gefälle von einem Meter auf einen Kilometer auf, wodurch das Wasser stetig fließen konnte. Das Bauwerk war 21 m breit und bestand aus über zwei Millionen behauenen Steinquadern aus Kalkstein und diente späteren römischen Anlagen als Vorbild. Sanherib war sehr stolz auf dieses Bauwerk und hat an dem Punkt, wo der Kanal mittels dieser Brücke ein Tal überspannt, in Keilschrift seine Bauinschrift hinterlassen. Durch seine Maßnahmen wurde Getreideanbau im Süden von Ninive erst möglich, ebenso dienten die Anlagen zur Versorgung der Stadt, der üppigen Palastgärten, Plantagen und Felder.
Die Assyriologin und Keilschrift-Expertin Stephanie Dalley von der University of Oxford legte bereits Anfang der 1990er Jahre Argumente für die Deutung vor, die Hängenden Gärten seien der Palastgarten des assyrischen Königs Sanherib gewesen, der rund 100 Jahre vor dem babylonischen König Nebukadnezar II. gelebt hatte. Dieser Palastgarten in Ninive am Tigris sei für Sanheribs Gattin Tāšmetun-Šarrat erbaut worden. Damit wäre der Jerwan-Aquädukt ein, wenn auch entfernter, Bestandteil dieses Weltwunders.
Auch die Griechen beherrschten den Bau von Aquädukten. In Athen wurde das Wasser vom Hymettos und Pentelikon hergeleitet. Weitere Aquädukte fand man in Griechenland bei Theben, Megara, Samos, Pharsalos, Stymphalos und anderen Orten.
Wasserleitungen im Römischen Reich
Allgemeines
Am bekanntesten sind die Aquädukte der Römer, da sie oft auf gewölbten Bogenstellungen geführt wurden und zu den bedeutendsten Bauwerken der Antike gehören. Die Leitungen der Römer bestanden aus Holz, Blei oder Leder, meist waren es jedoch Steinkanäle. Die in die einzelnen Häuser führenden Leitungen waren, wie Ausgrabungen in Pompeji ergaben, gewöhnlich aus Blei. Einige Aquädukte hatten mehrere Stockwerke, und in jedem floss Wasser einer anderen Quelle. Da das Wasser stetig weiterfließen musste, wurden die Aquädukte so gebaut, dass sie ein stetiges, leichtes Gefälle aufwiesen. Dies wurde durch frühere Architekten genauestens ausgemessen. So betrug das Gefälle nach Vitruvius mindestens 0,5 %.
Der Beginn des Aquädukts ist das Quellhaus. Das Ende des Laufes bildet das sogenannte „Wasserschloss“ (castellum oder nymphäum), in welchem das Wasser von Steinen und grobem Schmutz gereinigt wurde und von wo aus es über Rohrsysteme in die Häuser, Bäder und Gärten geleitet wurde. Besondere Beamte waren für die Regelung der Wasserzuteilung zuständig, die durch strenge Gesetze den Schutz der Anlagen gewährleisteten. Im Gegensatz zu den größeren, steinernen Überlandleitungen mit Freispiegelgefälle verwendete man in der Stadt häufig Druckleitungen und schaltete im Bedarfsfalle „Wassertürme“ dazwischen. Die Druckleitungen bestanden aus Blei- oder Tonrohren. Die Bleirohre wurden industriell aus in der Breite genormten, gegossenen Bleiplatten gefertigt. Durch das Zusammenbiegen und Verlöten erhielten die Rohre einen etwa birnenförmigen Querschnitt. Für die Rohrherstellung wurden aber auch noch andere Baustoffe wie Holz, Stein und sogar Beton eingesetzt.
Aquädukte in Rom
Die imposantesten Aquädukte wurden in Rom errichtet. Sie führten das Quellwasser aus dem Gebirge bis zu 150 Kilometer weit über Täler, Schluchten und Abgründe oder durch Höhlen.
Große Strecken der römischen Aquädukte verliefen also am Erdboden oder unterirdisch. Die eindrucksvollen Brückenbauwerke wurden errichtet, weil man bei großen Entfernungen Druckleitungen vermied. Die Verteilung innerhalb der Städte erfolgte jedoch schon im antiken Römerreich wie bei heutigen Wasserversorgungsnetzen über Druckleitungen.
Die erste Wasserleitung, die Aqua Appia, erbaut 312 v. Chr. durch Appius Claudius Caecus, begann an der Via Praenestina, wurde fast vier Wegstunden lang unterirdisch geführt, trat bei der Porta Capena in die Stadt und endete im Campus Martius.
Im weiteren Verlauf der Republik und in der Kaiserzeit wurden weitere Wasserleitungen errichtet, so dass Rom schließlich aus insgesamt elf Aquädukten versorgt wurde, deren Gesamtlänge mehr als 400 Kilometer betrug, davon 64 Kilometer Bogenaquädukte und 2,5 Kilometer Tunnel. Mit den Aquädukten wurde selbst aus viele Kilometer entfernten Quellen Wasser in die Millionenstadt geführt – die Quelle in Subiaco war ungefähr 100 Kilometer entfernt –, und zwar in einer solchen Menge, dass man sich auch die riesigen Badehäuser, die Thermen, leisten konnte. Nie zuvor hatte eine Stadt über derartige Wassermassen verfügt. Schon die zur Zeit des Sextus Iulius Frontinus vorhandenen neun Wasserleitungen versorgten die Stadt mit täglich 992.200 Kubikmetern Wasser. Bei einer anzunehmenden Bevölkerung von einer Million Einwohnern entsprach das ziemlich genau 1000 Liter pro Einwohner. 1968 waren es nur 475.
Die frühesten römischen Aquädukte verliefen noch in unterirdischen Schächten aus Tuffblöcken. Der Bau der ersten erhöhten Wasserleitung wurde 144 v. Chr. begonnen. Die Wasserleitungen konnten in den Aquädukten in mehreren Etagen übereinander erfolgen. Eine Besonderheit bildet die Stadt Perge an der kleinasiatischen Südküste. Dort verlief eine Wasserleitung in einem Kanal auf erhöhter Ebene auf einem Mittelstreifen der Straße.
Die Aquädukte mündeten am höchsten Punkt der Stadt in einen Verteiler (castellum), der einem heutigen Wasserturm vergleichbar ist. Von dort gingen drei Hauptäste ab, der erste für die öffentlichen Trinkwasserbrunnen, der zweite für die Versorgung der öffentlichen Bäder, der dritte für Privathäuser. Von diesen lag der erste am niedrigsten, so dass er bei Knappheit vorrangig Wasser erhielt.
Fontana di Trevi (Aqua Virgo), von M. Agrippa 22 v. Chr. angelegt, von Papst Pius IV. wiederhergestellt;
Aqua Felice oder di Termini (Aqua Claudia), von Caligula angefangen, von Claudius 50 n. Chr. beendigt, von Papst Sixtus V. wiederhergestellt, und
Algentina, welche die herrlichen Wasserfälle in der Villa Aldobrandini bildet. 1882 ist die Wasserleitung des Bitilenus bei Alatri aufgedeckt worden.
Die Kanäle der römischen Wasserleitungen waren nach Frontinus, der die genaueste Schilderung dieser hinterlassen hat (De aquis urbis Romae), durchweg gemauert, sowohl unter als über der Erde, und hier auf Unterbauten oder Bogengängen in Hausteinen oder Ziegeln ausgeführt und nach oben überall entweder mit Gewölben oder Steinbalken überdeckt. Die inneren Wände und Sohlen der Kanäle erhielten anstelle eines Sandputzes einen wasserdichten, aus Kalk und zerschlagenen Ziegelstückchen gemischten Bewurf, der auch in den durch festes Felsengebirge getriebenen Stollen nicht fehlte.
Aquädukte in Italien und den römischen Provinzen
Alle Aquädukte in den römischen Provinzen stammen aus der Frühen und Hohen Kaiserzeit (d. h. vom 1. bis zum 3. Jahrhundert); von ihnen sind in Deutschland nur noch Reste vorhanden – so die „Römersteine“ in Zahlbach bei Mainz, der so genannte „Römerkanal“ aus der Eifel nach Köln und die Wasserleitung zur Colonia Ulpia Traiana bei Xanten. Andere sind (in Teilen) besser erhalten – z. B. der Pont du Gard bei Nîmes oder der weitgehend unbekannte Aquädukt von Ansignan. Auch die spanischen Aquädukte in Segovia sowie bei Tarraco und Mérida sind erwähnenswert; ebenso die kleinasiatischen Bauten von Pergamon und Phaselis in der heutigen Türkei. Der sogenannte „Aquädukt“ von Aspendos (Kleinasien) sowie nahezu alle Aquädukte von Lyon verfügten in Teilen auch über Druckleitungen (Düker) mit Bleirohren.
Der philhellenische Kaiser Hadrian ließ im Jahr 125 auf dem Peloponnes ein Aquädukt vom Stymphalischen See bis Akrokorinth bauen. Es war bis um 1800 in Betrieb; die ersten fünf Kilometer werden seit einer Restauration um 1885 erneut genutzt.
Aquädukte im Oströmischen Reich
Bald nach den Gotenkriegen ließ der oströmische Kaiser Justinian die inzwischen verfallenen Wasserleitungen aus konstantinischer Zeit erneuern. Die städtische Wasserversorgung von Konstantinopel erfolgte jedoch hauptsächlich über große Zisternenanlagen (z. B. Yerebatan-Serail).
Mittelalterliche Aquädukte
Im Mittelalter wurden kaum noch Aquädukte oder sonstige Wasserleitungen gebaut. Einige wenige römische Aquädukte nutzte man im frühen Mittelalter weiter. Es sind einige innerstädtische Wasserleitungen (Pipen oder Deicheln) aus ausgebohrten und ineinandergesteckten bzw. aneinandergereihten Baumstämmen bekannt. Im Bodenseeraum waren die Aquädukte wohl eher einfache Holzkonstruktionen, also ausgehöhlte Baumstämme und gezimmerte, offene Wasserrinnen: In einer Urkunde aus dem Jahr 890 werden Wasserleitungen und Holzschindeln für das Kloster Sankt Gallen erwähnt, die aus Holz aus dem Rheingau an der Rheinmündung in den Bodensee hergestellt wurden. Diese Leitungen wurden gebraucht, um das Wasser aus der Steinach als Trinkwasser, für Handwerksbetriebe und für Latrinen ins Innere des Klosters zu leiten. Die städtische Bevölkerung versorgte sich aus Brunnen und Zisternen oder holte Wasser vom nahegelegenen Fluss; in vielen größeren Städten gab es den Berufsstand der Wasserträger, der in nordafrikanischen Ländern noch bis weit ins 20. Jahrhundert hinein existierte.
Ein wahrscheinlich im 13./14. Jahrhundert bei Spoleto im Süden Umbriens gebauter Aquädukt (Ponte delle Torri) ist neben dem spanischen Acueducto de Morella das einzige bekannte Beispiel für einen mittelalterlichen Aquäduktbau. Ansonsten ist nur von wenigen Wasserleitungen aus römischer Zeit eine Weiternutzung im Mittelalter bekannt.
Führend in Sachen Wasserbau waren bereits seit der Antike die Araber und Berber (Mauren), die Wasser aus Quellen über unterirdisch verlaufende (Qanate) oder oberirdische steinerne Leitungen auf ihre Oasenfelder und in die Fürstenpaläste leiteten. So hat z. B. die im 14. und 15. Jahrhundert erbaute Alhambra in Granada ein umfangreiches Bewässerungssystem, welches auch die Wasserspiele in den Gärten des Generalife mitversorgt. Auch der wahrscheinlich von maurischen Handwerkern an der Stelle eines älteren Palastes erbaute Alcázar de los Reyes Cristianos in Córdoba verfügt über bedeutende Wasserspiele.
Im Orient waren Aquädukte im Mittelalter weit verbreitet. Derjenige von Fustat (Kairo) ist noch heute in Teilen erhalten.
Die im 15. und 16. Jahrhundert bewohnte Inka-Stadt Machu Picchu wurde über einen etwa drei Kilometer langen und etwa 20 Zentimeter breiten Bewässerungskanal mit Wasser versorgt.
Aquädukte des 16. bis 19. Jahrhunderts
Während und nach der Renaissance kam auch das antike Wasserwesen wieder zu Ehren. Aquädukte aus der Zeit des 16. bis 19. Jahrhunderts stehen in Portugal (etwa der im Jahr 1537 begonnene, aber erst um 1620 fertiggestellte Acueducto de Amoreira in Elvas, der im Jahr 1690 vollendete Aquädukt von Salvador (Serpa), der in den Jahren von 1730 bis 1748 entstandene Aqueduto das Águas Livres in Lissabon und der Aqueduto de São Sebastião in Coimbra, ein 1583 wieder aufgebauter und in Betrieb genommener römischer Viadukt), in Spanien (Acueducto de Bejís), Italien (Caserta bei Neapel), sowie einige in England und Schottland.
In Frankreich entstanden das Aqueduc Médicis (1613–1624 u. a. für den Jardin du Luxembourg in Paris erbaut) und das Aquädukt von Louveciennes, das Aquädukt von Buc und Aquädukt von Maintenon zur Versorgung von Schloss Versailles. Das letztere, unter Ludwig XIV. nach den Entwürfen und unter der Leitung Vaubans begonnen, sollte auf einer sogar dreifachen, 17 km langen, 70 Meter hohen Arkadenreihe von 242 Bogen die Wasser der Eure den Bassins und Wasserkünsten im Schlosspark zuführen, jedoch wurde nur die unterste Bogenreihe mit einem Kostenaufwand von 22 Mill. Livres wirklich vollendet.
In Mexiko bauten die Spanier im 16. Jahrhundert mehrere Aquädukte, darunter das Aquädukt des Padre Tembleque, und im 18. Jahrhundert das Aquädukt El Saucillo. In Morelia, im mexikanischen Bundesstaat Michoacán, existiert ein Aquädukt im aktuellen Zustand aus dem 18. Jahrhundert. Es geht auf ein Bauwerk aus dem 16. Jahrhundert zurück. Das Aquädukt hat eine Länge von 1700 m, die 253 Bögen erreichen eine Maximalhöhe von 9,23 m. Es war bis 1910 in Betrieb und wurde 1998 restauriert. Die Arcos del Sitio sind die größte und längste Aquäduktbrücke Lateinamerikas. Sie steht bei der Stadt Tepotzotlán im Bundesstaat Mexiko; das Bauwerk ist maximal 61 Meter hoch und etwa anderthalb Kilometer lang.
Der in türkischer Zeit (von 1746 bis 1750) erbaute Aquädukt in Larnaka auf Zypern war noch bis in das Jahr 1963 im Betrieb.
Der Croton Aqueduct war die 1842 errichtete erste Wasserversorgung von New York City, die bis 1965 in Betrieb war. Der 66 Kilometer lange Freispiegelstollen führte Wasser aus einem Seitenarm des Hudson Rivers zu einem Reservoir im Central Park. Die Leitung überquerte auf der High Bridge den East River.
In Italien versorgt der Aquedotto pugliese (Acquedotto Pugliese, dt. der „Apulische Aquädukt“) eine 1914 fertiggestellte Wasserleitung große Teile der italienischen Provinz Apulien und kleine Bereiche Kampaniens mit Trinkwasser. Der apulische Aquädukt ist der größte Aquädukt Europas.
Außerdem sind die noch in Verwendung befindlichen Aquädukte der I. Wiener Hochquellenwasserleitung (1870–1873) bei Baden und Mödling, das Aquädukt des Leinakanals bei Gotha sowie das Aquädukt in Rostokino im Nordosten Moskaus zu erwähnen.
Seit Beginn des 19. Jahrhunderts können Aquädukte durch Druckrohrleitungen (Düker) ersetzt werden, wie z. B. beim Bau der Ost-West Eisenbahnlinie nach Nürnberg bei Erbauung des Hauptbahnhofs in Regensburg, wo der Vitusbach seit der Römerzeit und fortgesetzt im Mittelalter auf einem Aquädukt eine Bodensenke überwinden musste.
Zum Wassertransport für landwirtschaftliche Bewässerung wurden jedoch bis weit ins 20. Jahrhundert hinein (z. B. in Spanien) Bewässerungskanäle über kürzere Brückenbauwerke geführt.
Siehe auch
Liste römischer Brücken
Trogbrücke
Wasserleitung
Literatur
Wasserversorgung im antiken Rom. Oldenbourg, München 1982, ISBN 3-486-26111-8.
Die Wasserversorgung antiker Städte. Verlag Philipp von Zabern, Mainz 1987, ISBN 3-8053-0933-3.
Renate Tölle-Kastenbein: Antike Wasserkultur. Beck, München 1990, ISBN 3-406-34602-2.
Waldemar Haberey: Die römischen Wasserleitungen nach Köln. Die Technik der Wasserversorgung einer antiken Stadt. 2. Auflage. Rheinland-Verlag, Bonn 1972, ISBN 3-7927-0146-4.
Weblinks
L'aqueduc romain du Gier Étude et photos de l'Aqueduc du Gier qui alimentait Lugdunum (Lyon).
L'aqueduc romain de Pondel, dans le Val d’Aoste.
http://www.iath.virginia.edu/waters/ -- Aquae urbis Romae – The waters of ancient Rome
Antike Wasserleitungen und Aquädukte
Allgemeine Informationen über das Aquädukt von Segovia in Spanien (deutsch)
Einzelnachweise
Bauform (Wasserbau)
Bautypus
|
Q474
| 153.549252 |
14022
|
https://de.wikipedia.org/wiki/Malm%C3%B6
|
Malmö
|
Malmö () ist eine Großstadt in der historischen schwedischen Provinz Schonen (Skåne) und Hauptstadt der heutigen Provinz Skåne län sowie Hauptort der Gemeinde Malmö und hat etwa 300.000 Einwohner.
Malmö ist nach Stockholm und Göteborg die drittgrößte Stadt Schwedens.
Geographie
Lage
Malmö liegt im äußersten Süden des Landes. Die Entfernung nach Mailand (Luftlinie ca. 1.160 km) ist geringer als die nach Kiruna (ca. 1.414 km). Nach Kopenhagen, das etwa 28 km (Luftlinie) entfernt ist, sind Rostock (ca. 177 km), Kiel (ca. 232 km), Göteborg (ca. 241 km), Lübeck (ca. 244 km), Hamburg (ca. 300 km), Berlin (ca. 345 km), Oslo (ca. 498 km) und Stockholm (ca. 514 km) die nächstgelegenen Großstädte.
Die Hafenstadt liegt an der östlichen Küste des Öresunds, am südöstlichen Ufer der Bucht von Lomma. Im Norden der Stadt mündet der Fluss Sege å in den Öresund.
Malmö ist Hauptort der Gemeinde Malmö. Zum Tätort Malmö gehören auch das unmittelbar nördlich anschließende Arlöv, Hauptort der Gemeinde Burlöv (546 Hektar der Fläche des Tätortes Malmö mit 10.666 Einwohnern, 2015), sowie ein kleiner Teil der noch weiter nördlich von Burlöv liegenden Gemeinde Lomma (2 Hektar ohne Einwohner).
Seit der Einweihung der Öresundbrücke im Jahr 2000 bildet die Metropolregion Malmö zusammen mit dem am Öresund gegenüber liegenden Kopenhagen eines der Zentren der Öresundregion.
Malmö liegt am Ostseeküsten-Radweg EuroVelo 10. Die Stadt hat einen eigenen Strand.
Stadtbezirke der Gemeinde Malmö
Die administrative Gliederung der Gemeinde Malmö wurde am 1. Juli 2013 reformiert. Die seit 1996 zehn Stadtteile sind nun zu fünf Stadtbezirken zusammengelegt. Die Stadtbezirke wiederum sind in zusammen 134 Teilgebiete aufgeteilt.
Klima
Das Klima von Malmö ist kühlgemäßigt mit mäßig warmen Sommern und durch die Lage am Öresund vergleichsweise milden Wintern. Im Juli und August betragen die Tagestemperaturen durchschnittlich 22,7 bzw. 22,3 Grad Celsius, nachts 13,7 Grad. Die Durchschnittstemperaturen im Winter liegen knapp über dem Gefrierpunkt, die Niederschläge fallen meist als Regen, wobei es auch zu starken Wintereinbrüchen kommen kann, welche jedoch selten lange anhalten. Die Niederschläge sind relativ gleichmäßig über das Jahr verteilt, wobei es in den Frühlingsmonaten etwas trockener ist (durchschnittlich 33,6 mm im April) und im August der meiste Niederschlag (über 70 mm) zu erwarten ist.
Bevölkerung
Die Bevölkerungszahl belief sich 2013 auf ca. 313.000 Einwohner, von diesen sind 215.674 (69 %) in Schweden geboren, 42 % (einschließlich 11 %, deren beide Elternteile aus dem Ausland stammen) haben einen Migrationshintergrund. Die Zahl der Menschen mit Migrationshintergrund in der Stadt steigt jährlich um etwa 3.500 oder einen Prozentpunkt der Stadtbevölkerung. Im Stadtteil Rosengård haben 85 % der Bewohner einen Migrationshintergrund.
Geschichte
Ortsname
Der Name der Stadt stammt wahrscheinlich vom altdänischen Malmhaugar. Sie wurde seit 1116 als Landungsstelle unter dem Namen Malmhaug, später als Malmoge, Malmöyghe oder Malmey () erwähnt. Die um 1367 verwendete altschwedische Bezeichnung Malmöughe ist abzuleiten aus den Wurzeln Malm und högar, dem indefiniten (unbestimmten) Plural von „Haufen“, und bedeutet also „Sandhaufen“.
Während der Hansezeit war die Stadt im deutschen Sprachraum vor allem unter dem niederdeutschen Namen Elbogen bekannt. Diese Bezeichnung findet sich auch auf einem Kupferstich der vier schonischen Städte „Helsheborch“, „Lunden“, „Elbogen“ und „Landeskron“ in einer Beschreibung der Städte des Weltkreises von Georg Braun und Frans Hogenberg (Civitates Orbis Terrarum, Köln 1588). In dem lateinischen Werk wird Malmö auch als Ancona Scanorum („schonisches Ancona“) bezeichnet. Die italienische Hafenstadt Ancona war eine ursprünglich griechische Gründung, und der griechische Name Ἀγκών (Ankṓn „Ellenbogen“) bezog sich – ebenso wie die niederdeutsche Benennung Malmös – auf die ellenbogenartige Form des Vorgebirges, welches den Hafen schützte.
Tatsächlich ähnelt der Verlauf der Küstenlinie auch im Falle Malmös bis heute der Form eines Ellenbogens, wobei sich dessen Spitze südlich bei der 1915 eingemeindeten Stadt Limhamn befindet. Diese Ellenbogenspitze bildet zusammen mit der gegenüberliegenden Insel Amager die engste Stelle am Südende des Öresunds. Deshalb befindet sich auch der Brückenkopf der Öresundbrücke, die nun Dänemark mit Schweden verbindet, an dieser Spitze.
Stadtgeschichte
Die Landungsstelle diente zunächst vor allem dem dänischen König, um in das bedeutendere Lund zu gelangen. Sie hob sich bald durch Heringsfischerei und Handel, den deutsche Kaufleute entlang der schonischen Küste betrieben, hervor und profitierte dabei ebenso von ihrer strategischen Lage. Da der dänische König die Kontrolle über die Häfen im Norden und Süden hatte, konnte er den südlichen Öresund abriegeln lassen.
1319 wurde der Grundstein für die St. Petri och Pauli Kyrka gelegt und etwa zur gleichen Zeit entstand auch das erste Rathaus. Die ältesten Stadtprivilegien stammen vom 20. Dezember 1353 und wurden später mehrmals bestätigt und erweitert. Malmö übernahm nun mehr und mehr die Rolle Lunds als wichtigste Stadt in Schonen. Die ältesten, heute noch vorhandenen Gebäude der Stadt stammen aus dieser Zeit, so z. B. auch die Festung Malmöhus, die im 15. Jahrhundert von Erich von Pommern gegründet wurde. Seit seiner Zeit trägt Malmö außerdem den pommerschen Greif im Wappen.
Zwischen 1318 und 1658 wurde die dänische Stadt mehrmals von Schweden besetzt und einmal für kurze Zeit einverleibt. Malmö gilt als Geburtsort der dänischen Reformation, so wurde die erste lutherische Predigt Dänemarks in Malmö gehalten und die erste Bibel in dänischer Sprache gedruckt.
Im 16. und 17. Jahrhundert wurde Malmö abwechselnd von Schweden und Dänemark belagert. Am 23. April 1512 wurde hier der Friede von Malmö zwischen Dänemark und der Hanse und ein Waffenstillstand Dänemarks mit Gustav Wasa von Schweden geschlossen. Zu Hansezeiten stand die Stadt unter deutschem Einfluss. Durch den Frieden von Roskilde unter Karl X. Gustav wurde Malmö 1658 schwedisch. 1775 erhielt die Stadt einen künstlich geschaffenen Hafen.
Am 26. August 1848 wurde in Malmö ein Waffenstillstand zwischen Dänemark und Preußen auf sieben Monate geschlossen. Malmö profitierte stark von der industriellen Revolution.
Am 18. September 1872 starb König Karl XV in Malmö.
1900 bis 1914 verkehrte im Ort die Pferdebahn Limhamn.
Mit Fertigstellung der Öresundbrücke im Jahr 2000 ergaben sich neue Impulse für die wirtschaftliche Lage der Stadt als Verkehrsknotenpunkt zwischen Skandinavien und dem übrigen Europa.
Einwohnerentwicklung
Im Jahr 1886 hatte Malmö 45.143 Einwohner.
Neuen Zahlen der Steuerbehörden zufolge ist im April 2011 die Bevölkerung erstmals über 300.000 auf 300.031 angewachsen.
Kultur
Sehenswürdigkeiten
In der Altstadt Malmös sind viele Fachwerkhäuser erhalten, zum Beispiel der Hedmanska gården am Lilla Torg (kleiner Markt) von 1591.
Rathaus: Am Stortorget in der Altstadt befinden sich das 1546 unter dem Bürgermeister Jörgen Kock errichtete und in der Folge mehrfach umgestaltete Rathaus sowie die Reiterstatue König Karl X. Gustav.
Kockska huset Das in der Altstadt gelegene Haus des Bürgermeisters Jörgen Kocks wurde von 1522 bis 1524 im Stil der Backsteingotik erbaut.
St. Petri Kyrka: Die gotische Kirche befindet sich in der Nähe des Rathauses. Sie ist das älteste Bauwerk in Malmö. Die Grundsteinlegung erfolgte im Jahr 1319.
Die Carolikirche in der Altstadt wurde von 1879 bis 1880 nach Entwurf von Emil Victor Langlet erbaut und 2010 entwidmet. Ihr Vorgängerbau war 1693 für die damalige deutsche Gemeinde geweiht worden. Die Kirche der heutigen deutschen Gemeinde Tyska kyrkan wurde 1931 im Stadtteil Fridhem errichtet.
Die Sankt-Pauli-Kirche in der Kungsgatan wurde von 1879 bis 1882 nach Entwurf von Emil Victor Langlet errichtet
Die Sankt Johannes kyrka im südlich der Altstadt gelegenen Stadtteil Möllevången wurde von 1903 bis 1907 von Axel Anderberg im Jugendstil errichtet.
Seit 1903 besteht die Synagoge Malmö.
Das Malmöhus ist einziger Überrest der ehemaligen Befestigung und war als dänisches Kastell im 15. und 16. Jahrhundert von strategischer Bedeutung. Danach wurde es eine schwedische Festung gegen Dänemark. Zwischen 1828 und 1914 als Zuchthaus benutzt, befindet sich dort heute das Stadtmuseum mit einer Ausstellung zur Stadtgeschichte von der frühen Steinzeit bis heute, einer botanischen Fachausstellung mit Aquarium und Terrarium (u. a. Fledermäuse) sowie wechselnden Kunstausstellungen. Das Malmöhus ist von einer sehenswerten Parkanlage umgeben, in der mit der Schlossmühle eine Holländerwindmühle aus dem Jahre 1851 steht.
Seefahrt- und Technikmuseum: Das Seefahrt- und Technikmuseum mit einem begehbaren U-Boot aus dem Zweiten Weltkrieg befindet sich westlich des Malmöhus.
In Malmö wurde 2001 die ökologische Bauausstellung Bo01 auf dem Gebiet des Westhafens, einem ehemaligen Industriegebiet (u. a. Kockums-Werft) durchgeführt. Dort begann, orientiert an Nachhaltigkeitskriterien, der Neubau des Stadtviertels Västra Hamnen.
Im August 2005 wurde mit dem Turning Torso das mit 190 Metern Höhe höchste Gebäude in Nordeuropa eingeweiht. Seine Besonderheit ist die zur Spitze hin um 90 Grad gewendelte Fassade. Mit dem Ankar Park (auch Kanalpark), dem Dania Park und der Sundspromenade wurden neue Freiräume geschaffen.
Eine Besonderheit ist das kleine Gewächshaus Glasbubbla am Scaniaplatz.
In Malmö-Fosie befindet sich der Skäfehögen, ein bronzezeitlicher Grabhügel.
In der Umgebung Malmös befinden sich viele Schlösser, unter anderem Svaneholm und Torup.
Regelmäßige Veranstaltungen
Malmöfestival: Seit 1984 findet jedes Jahr im August das Malmöfestival statt. Das Hauptaugenmerk der Aktivitäten liegt auf internationaler Küche und musikalischen Darbietungen, die auf verschiedenen Freilichtbühnen stattfinden.
BUFF-Filmfestival: Ein jährlich im März stattfindendes internationales Kinder- und Jugendfilmfestival.
Nordisk Panorama Film Festival: Ein jährlich im September stattfindendes Filmfestival für Kurz- und Dokumentarfilm aus den nordischen Ländern.
Malmö Arab Film Festival (MAFF): Das größte arabische Filmfestival Europas findet jeden Herbst in Malmö statt.
Kulturelle Einrichtungen
Malmö Opera och Musikteater: Das Malmö Opera och Musikteater, das Musiktheater der Stadt, ist Skandinaviens größtes Opernhaus. Es wurde vom Architekten Sigurd Lewerentz entworfen und 1944 eingeweiht. Im Gebäude, das kurzzeitig auch durch Ingmar Bergman geleitet wurde, fand 1995 die Uraufführung des Musicals Kristina från Duvemåla statt.
Das Konzerthaus Malmö Live Konserthus ist u. a. die Heimstätte des Malmö Sinfonieorchesters.
Kunsthalle Malmö: Malmö Konsthall, für moderne und zeitgenössische Kunst, zieht jährlich 200 000 Besucher an.
Moderna Museet Malmö: Ein Museum für moderne und zeitgenössische Kunst, das zum staatlichen schwedischen Moderna Museet gehört.
Casino: Das Restaurant Kungsparken wurde 2001 zum Casino umgebaut. Malmö erhielt dadurch eines der vier staatlich geleiteten Casinos in Schweden.
Vergnügungszentrum Slagthuset: Im Vergnügungszentrum Slagthuset befindet sich Malmös größter Nachtclub sowie ein Hotel, mehrere Büro-, Messe- und Konferenzräume und Theaterbühnen.
Vergnügungspark Folkets Park: Im Park befinden sich unter anderem Tanzlokale, Restaurants, Minigolfanlagen und ein Reptilienzentrum.
Ribersborgs kallbadhus ist das bekannteste Seebadehaus Schwedens. Es wurde 1867 errichtet.
Hylliebadet ist das größte öffentliche Hallenbad Malmös. Es wurde am 15. August 2015 geöffnet.
Malmö Arena: Die Multifunktionsarena Malmö Arena im Stadtteil Hyllievång wird für Sportveranstaltungen und Konzerte eingesetzt. Des Weiteren war sie Austragungsort des Eurovision Song Contest 2013 und wird ihn voraussichtlich ebenfalls 2024 ausrichten.
Sport
Sportstätten
Malmö Arena
Swedbank Stadion
Malmö Stadion
Simhallsbadet ist das größte Hallenbad Malmös für Schwimmvereinen und -Schulen.
Sportvereine
Fußballverein Malmö FF: Der bekannteste Sportverein der Stadt ist der Fußballverein Malmö FF mit seinen 20 Meistertiteln. Ebenfalls einen hohen Bekanntheitsgrad haben die Malmö Redhawks, der Eishockeyverein hat zwei schwedische Meistertitel vorzuweisen.
Weitere bekanntere Fußballmannschaften sind Bunkeflo IF, IFK Malmö und FC Rosengård 1917. Das Damenteam FC Rosengård spielt ebenfalls in der höchsten schwedischen Liga, der Damallsvenskan, und hat 7 Meistertitel (5 als Malmö FF Dam, 2 als LdB FC Malmö).
Im Handball spielt das Herrenteam des HK Malmö in der höchsten Liga und auch die American-Footballer der Limhamn Griffins vertreten die Stadt in der höchsten Liga, der Superserien, die sie bisher dreimal mit dem Meistertitel abschließen konnten.
Sportveranstaltungen
Verschiedene große Sportveranstaltungen fanden in Malmö statt, darunter:
Gruppenspiele der Fußball-Weltmeisterschaft 1958
Die Europameisterschaft im Tischtennis 1964
Die Weltmeisterschaft der Handballjunioren 1977
Die Weltmeisterschaft im Badminton 1977 und 1994
Gruppenspiele und ein Viertelfinalspiel der Fußball-Europameisterschaft 1992
Die Europameisterschaft im Badminton 2002
Die Europameisterschaft im Eiskunstlauf 2003
Die Europameisterschaft im American Football 2005
Gruppenspiele und Endspiel der U-21-Fußball-Europameisterschaft 2009
Die Europameisterschaften im Vielseitigkeitsreiten 2013
Gruppenspiele der Handball-Europameisterschaft 2020
Wirtschaft und Infrastruktur
Industrie
Historisch waren der Schiffbau und seine Zulieferer das wirtschaftliche Standbein Malmös, insbesondere die Werft Kockums. Bis zu seiner Demontage im Jahr 2002 war der Kockumskran, der Kran der Kockums-Werft, ein Wahrzeichen der Stadt. Als Folge der Werftenkrise der 1970er Jahre, die sich bis in die 1990er Jahre hinzog, stieg die Arbeitslosenquote stark an. 1995 hatte Malmö die höchste Arbeitslosenquote in Schweden.
Die wirtschaftliche Wiederbelebung der Stadt erfolgte vor allem durch den Bau der Öresundbrücke (Fertigstellung 2000), die die Möglichkeiten, als Einwohner Malmös in Kopenhagen zu arbeiten, deutlich verbessert hat. Auch die durch die Brücke verbesserte Transportinfrastruktur kam der heimischen Wirtschaft zugute. Dennoch ist die Arbeitslosenquote in Malmö noch immer höher als in Stockholm oder Göteborg. Das Bauunternehmen Skanska ist größter Arbeitgeber in der Stadt. Malmö ist aber auch als Einkaufsstadt bekannt.
Bildung und Forschung
Die Hochschule Malmö (schwedisch Malmö högskola) wurde 1998 gegründet. Mit mehr als 24.000 eingeschriebenen Studenten und etwa 1.800 Mitarbeitern ist sie die neuntgrößte Hochschule in Schweden.
Die zur Universität Lund gehörende Fakultät für Kunst, mit Kunst-, Musik- und Theaterhochschule, befindet sich in Malmö, wie auch einige Institutionen der Medizinischen Fakultät.
Die World Maritime University (WMU) (deutsch: Weltschifffahrts-Universität) hat ihren Hauptsitz in Malmö. Sie wurde 1983 von der Internationalen Seeschifffahrts-Organisation, einer Sonderorganisation der Vereinten Nationen (UN), gegründet.
Verkehr
Straßen- und Schienenverkehr
Südlich von Malmö befindet sich die Öresundbrücke, eine kombinierte Eisenbahn- und Straßenbrücke über den Öresund. Malmö ist das wichtigste Verkehrszentrum in Südschweden, mit großem Bahnhof, von dem Züge nach Stockholm, über Göteborg nach Norwegen, nach Kopenhagen und in die Umgebung abfahren. Die Züge nach Deutschland haben aktuell längere Reisezeiten, die Züge nach Hamburg verkehren über die Jütlandlinie, da die kürzere Vogelfluglinie bis mindestens 2028 wegen des Baus der Festen Fehmarnbeltquerung geschlossen ist. Nach Berlin verkehrt der Berlin-Night-Express ab 2021 ebenfalls über die Jütlandlinie, da der Zugverkehr über die die Königslinie im März 2020 eingestellt wurde. Etwa 20 km östlich von Malmö befindet sich der Flughafen Malmö, dieser wird jedoch vom nahegelegenen Flughafen Kopenhagen dominiert. Malmö ist ein wichtiger Seehafen mit festen Verbindungen nach Lübeck-Travemünde und Rostock. Bis kurz nach der Eröffnung der Öresundbrücke im Jahr 2000 war hier die wichtigste Fährverbindung zwischen Limhamn (Stadtteil von Malmö) und Dragør auf der anderen Seite des Öresunds.
2005 wurde mit dem Bau des Citytunnels begonnen, der am 12. Dezember 2010 eingeweiht wurde. Mit dem Eisenbahntunnel wurde der Hauptbahnhof Malmö centralstation (Malmö C) von einem Kopfbahnhof zu einem Durchgangsbahnhof umgestaltet. Während der Bauzeit des Citytunnels diente auch der mit dem Bau der Öresundbrücke im Jahr 2000 eröffnete Bahnhof Malmö Syd als Halt von Fernverkehrszügen, die den Hauptbahnhof nicht anfuhren. Mit der Eröffnung des Citytunnels wurde Malmö Syd vorübergehend geschlossen und umgebaut und ist seit seiner Wiedereröffnung am 15. August 2011 als Malmö Syd/Svågertorp Haltepunkt für die Pågatåg-Linie 6 in Richtung Ystad–Simrishamn.
Öffentlicher Personennahverkehr
Der innerstädtische Personennahverkehr wird mit Bussen abgewickelt, nachdem der Straßenbahnverkehr 1973 eingestellt wurde. Eine Museumsstraßenbahn verkehrt über eine 2 Kilometer lange Strecke ab dem Museum für Technik zum Park von Malmöhus.
Um die Öresunds-Schienenverbindung zu entlasten, ist eine Erweiterung des Kopenhagener Metronetzes nach Malmö C mit einer Linie unter dem Öresund vorgesehen. Die Linie würde auch das Gebiet Västra Hamnen in Malmö erschließen. Von Kopenhagen H bis Malmö C ist eine Fahrzeit von knapp 20 Minuten geplant, in der Hauptverkehrszeit ist ein Takt von 90 Sekunden vorgesehen. Der Bau soll knapp 30 Milliarden dänische Kronen (ca. 4 Milliarden Euro) kosten, eine Eröffnung wird für 2035 geplant.
Fahrradverkehr
In Malmö ist die Infrastruktur für den Fahrradverkehr auch für schwedische Verhältnisse gut ausgebaut. Nach Angaben der Stadtverwaltung ist Malmö bei einer Radfahrerbefragung als radfahrerfreundlichste Stadt in Schweden bewertet worden.
Sonstiges
Nach der Stadt Malmö wurde ein Asteroid benannt.
Persönlichkeiten
Bildergalerie
Weblinks
malmo.se
malmo.com
Einzelnachweise
Schwedische Hochschul- oder Universitätsstadt
Ort mit Seehafen
Stadt als Namensgeber für einen Asteroiden
Geographie (Gemeinde Malmö)
Hauptort einer Provinz in Schweden
|
Q2211
| 313.420972 |
64761
|
https://de.wikipedia.org/wiki/Ulsan
|
Ulsan
|
Ulsan ist eine Stadt im Südosten von Südkorea. Die Stadt liegt am Japanischen Meer, etwa 70 Kilometer nordöstlich von Busan. In der eigentlichen Stadt leben 938.005 Menschen, in der ganzen Stadtprovinz, zu der auch ein Landkreis gehört, waren es 1.168.469 im Jahr 2019. Ulsan ist politisch unabhängig von der Provinz Gyeongsangnam-do, in der es liegt. In der Stadt ist die Universität Ulsan ansässig.
Stadtbezirke
Das Stadtgebiet ist in vier Stadtteile (Gu) und einen Landkreis (Gun) unterteilt. Diese sind:
Buk-gu (, )
Dong-gu (, )
Jung-gu (, )
Nam-gu (, )
Ulju-gun (, )
Wirtschaft
Die Stadt ist das Herz der gleichnamigen Industriezone, in der auch der international tätige Konzern Hyundai beheimatet ist. Bis 1962 war Ulsan vor allem ein Seehafen und ein Marktplatz für Fischereiprodukte.
1962 wurde Ulsan im Rahmen von Südkoreas erstem Fünfjahresplan ein offener Hafen. Im gleichen Jahr wurde auch der Hafen von Pangojin Teil der Stadt. Zudem wurden große Industrien aufgebaut, besonders Ölraffinerien, Düngerfabriken, Automobilherstellung und Schwerindustrie. Bei Hyundai Heavy Industries werden heute (2012) die größten Containerschiffe der Welt gebaut.
Nach einem Bericht der Nachrichtenagentur Reuters ist Ulsan die Stadt in Südkorea mit dem höchsten Pro-Kopf-Einkommen.
Städtepartnerschaften
Hagi, Japan, seit 1968
Hualien, Republik China (Taiwan), seit 1981
Portland, Vereinigte Staaten, seit 1987
Changchun, Volksrepublik China, seit 1994
İzmit, Türkei, seit 2002
Santos, Brasilien, seit 2002
Khánh Hòa, Vietnam, seit 2002
Tomsk, Russland, seit 2003
Seegefecht bei Ulsan
Während des Russisch-Japanischen Kriegs (1904–1905) fand am 14. August 1904, vier Tage nach der russischen Niederlage in der Seeschlacht im Gelben Meer, das Seegefecht bei Ulsan, auch als „Seeschlacht im Japanischen Meer“ bekannt, zwischen zwei Panzerkreuzergeschwadern statt, das ebenfalls mit einem japanischen Sieg endete.
Söhne und Töchter der Stadt
John A. Choi Jae-seon (1912–2008), römisch-katholischer Bischof von Pusan (1957–1973)
Shin Kyuk-ho (1921–2020), japanisch-südkoreanischer Manager
David Yonggi Cho (1936–2021), christlicher Evangelist
Park Sung-hwa (* 1955), Fußballspieler und -trainer
Kim Ha-gi (* 1958), Schriftsteller
Bang Hyeon-seok (* 1961), Schriftsteller
Lee Jung-mi (* 1962), Richterin
Kim Young-hee (1963–2023), Basketballspielerin
Seo Jung-hyup (* 1965), Politiker
Park Min-gyu (* 1968), Schriftsteller
Kim Tae-hee (* 1980), Schauspielerin
Cho Byung-kuk (* 1981), Fußballspieler
Lee Jin-ho (* 1984), Fußballspieler
Lee Wan (* 1984), Schauspieler
Seo In-guk (* 1987), Sänger und Schauspieler
Cho Young-cheol (* 1989), Fußballspieler
Jung Woo-young (* 1989), Fußballspieler
Cho Ji-hun (* 1990), Fußballspieler
Kim Seung-gyu (* 1990), Fußballspieler
Lee Jae-sung (* 1992), Fußballspieler
Lee So-hee (* 1994), Badmintonspielerin
Masayoshi Takayanagi (* 1994), japanischer Fußballspieler
Han So-hee (* 1994), Schauspielerin und Model
Kim Nam-joon (* 1994), K-pop Idol, Leader BTS
Lee Hye-in (* 1995), Degenfechterin
Jin Sang-min (* 1996), Fußballspieler
Kim Ga-eun (* 1998), Badmintonspielerin
Kim Su-ji (* 1998), Wasserspringerin
Jeong Woo-yeong (* 1999), Fußballspieler
Choo Hyo-joo (* 2000), Fußballspielerin
Einzelnachweise
Weblinks
Ort in Südkorea
Ort mit Seehafen
Verwaltungsgliederung Südkoreas
Millionenstadt
Hochschul- oder Universitätsstadt
|
Q41278
| 111.244003 |
101244
|
https://de.wikipedia.org/wiki/Bodenl%C3%A4use
|
Bodenläuse
|
Die Bodenläuse (Zoraptera) sind eine der kleinsten Ordnungen der Insekten. Die etwa 40 rezenten Arten und die meisten der etwa 10 bekannten fossilen Arten dieses Taxons werden bisher sämtlich der Familie Zorotypidae und der Gattung Zorotypus zugeordnet. Bodenläuse bilden subsoziale Kolonien aus zahlreichen miteinander vergesellschafteten Imagines und Larven. Sie leben vor allem in den Tropen, wenige Arten dringen in subtropische, gelegentlich bis in temperate Breiten vor.
Merkmale
Bodenläuse sind kleine Insekten, sie erreichen eine Körperlänge von 1,5 bis 2,5 Millimeter. Alle Arten treten in zwei Morphen auf: Einige wenige Individuen besitzen Augen und Flügel; diese dienen der Ausbreitung und der Gründung neuer Kolonien; nachdem sie einen Ort für eine neue Kolonie gefunden haben, werfen sie ihre Flügel ab. Die Mehrzahl der Individuen ist flügel- und augenlos und verlässt niemals die unterirdischen Verstecke. Die Tiere der geflügelten Morphe sind braun bis schwarz gefärbt, diejenigen der flügellosen Morphen mehr oder weniger unpigmentiert und weißlich gefärbt. Die Tiere sind relativ dicht kurz behaart.
Der relativ große Kopf ist in Aufsicht etwa dreieckig und etwa so breit wie lang, er ist etwas hängend, die Mundwerkzeuge zeigen nach vorn (orthognath). Geflügelte Tiere besitzen Facettenaugen, diese sind mäßig groß mit auffallend großen Ommatidien, zusätzlich sind drei Ocellen vorhanden. Die Tiere der ungeflügelten Morphen sind völlig augenlos. Der Clypeus der Kopfkapsel ist in einen transparenten Anteclypeus und einen nach hinten stark verengten Postclypeus getrennt, der ohne Naht in die Frons übergeht. Er wird eingeengt durch die Antennengruben, die nahe beieinander liegen, sie sind weniger als ihr Durchmesser voneinander getrennt. Die Antennen sind fadenförmig und bestehen aus neun Gliedern, sie sind etwa so lang wie Kopf und Thorax zusammen. An den Mundwerkzeugen ist das Labrum rückziehbar. Die kauend-beißenden Mandibeln sind an der Spitze gezähnt, im basalen Abschnitt besitzen sie eine breite Kaufläche (Molarregion), ein beweglicher fingerförmiger Anhang (Prostheca) ist vorhanden. Das letzte Glied der Taster von Maxillen und Labium ist stark verlängert und dicht mit Sinneshaaren besetzt.
Am Rumpfabschnitt ist der Prothorax etwas kleiner als der Kopf, er ist größer als der mittlere Mesothorax, der hintere Metathorax ist der kleinste Abschnitt. Das Pronotum ist relativ groß und an den Seiten sattelförmig herabgezogen, es ist in Aufsicht abgerundet rechteckig. Die langen und schlanken Beine sind als Laufbeine ausgebildet. Die Hinterschenkel sind verdickt, sie tragen ein Borstenreihe, die mit einer ähnlichen Reihe auf den Schienen zusammenwirkt. Der Tarsus besteht aus zwei Gliedern mit zwei Krallen. Bei geflügelten Exemplaren sind die Vorderflügel merklich größer als die Hinterflügel. Die Flügeladerung ist stark reduziert, wobei die Vorderflügel nur zwei Längsadern besitzen und mit einem kräftigen Pterostigma ausgestattet sind, der kleinere Hinterflügel enthält nur eine gegabelte Längsader. Die Flügelfläche ist behaart und am Rande bewimpert, die Flügelbasis ist gestielt.
Der Hinterleib ist walzenförmig und schließt breit und ohne Einschnürung an den Rumpfabschnitt an, er besteht aus elf Segmenten, deren hintere aber sehr klein sind. An den Seiten des neunten Tergits sitzt jederseits ein kleiner, eingliedriger Cercus. Beim Männchen sind die Tergite acht bis elf artspezifisch kompliziert umgewandelt, sie dienen bei der Paarung als Kopulationsorgane. Bei den Weibchen bildet der achte Sternit eine Subgenitalplatte, der Ovipositor ist rückgebildet.
Ordnungstypische Merkmale (Autapomorphien) sind die eingliedrigen Cerci beider Geschlechter sowie das Fehlen eines Legerohres (Ovipositor) beim Weibchen. Auch der Dimorphismus zwischen geflügelten und ungeflügelten Morphen wird als Autapomorphie gewertet.
Bodenläuse ähneln bei oberflächlicher Betrachtung den Staubläusen, mit denen sie aber nicht näher verwandt sind.
Lebensweise
Alle Arten sind Saprophage, sie ernähren sich vorwiegend von Pilzgewebe (Mycelien) und Sporen. Daneben verwerten sie opportunistisch weitere Nahrungsquellen wie etwa tote Arthropoden. Außerdem sind sie vermutlich Prädatoren kleiner Arthropoden wie Milben, im Labor wurde beobachtet, wie sie recht effektiv Springschwänze jagten. Sie leben unter der Rinde von abgestorbenen Bäumen (Totholz), oft in Galerien oder Hohlräumen, die ursprünglich von holzfressenden Arten wie Termiten angelegt wurden. Sie bilden kleine Kolonien, die 15 bis 120 Einzeltiere und Nymphen umfassen und sich dort befinden, wo sie kein Sonnenlicht erreicht. Das Zusammenleben in Kolonien scheint für die Tiere förderlich, einzeln lebende gehen meist rasch zugrunde. Gegenseitige Körperpflege („grooming“) ist verbreitet, nicht aber weiteres soziales Verhalten wie gegenseitige Fütterung oder Hilfe bei der Jungenaufzucht. Bei der Kopulation überträgt das Männchen eine große Spermatophore, die sowohl als Nahrungsvorrat für das Weibchen dient als auch andere Männchen an einer späteren Paarung hindern soll. Weibchen der Bodenläuse legen relativ wenige, aber sehr große Eier, deren Durchmesser beinahe die Ausmaße des Hinterleibs des Weibchens erreicht. Die Eier benötigen etwa 6 bis 9 Wochen Entwicklungszeit. Bei der neotropischen Zorotypus gurneyi sind sowohl zweigeschlechtliche als auch rein weibliche Populationen gefunden worden, diese vermehren sich durch (thelytoke) Parthenogenese. Die ersten Nymphen sind augenlos mit achtgliedrigen Antennen. Später kommen nebeneinander Nymphen mit und ohne Flügelscheiden vor. Es werden drei bis fünf Stadien durchlaufen, nach den wenigen vorliegenden Beobachtungen in einem bis zwei Monaten. Die Imagines leben offenbar wenige Monate lang. Die Produktion von geflügelten Tieren soll dann einsetzen, wenn sich die Lebensbedingungen in der Kolonie, z. B. durch Nahrungsmangel, verschlechtern.
Verbreitung
Bodenläuse leben ausschließlich in den Tropen und Subtropen, wobei sowohl Amerika wie Asien besiedelt sind. Einige ozeanische Inseln, auch sehr isolierte wie Galapagos, Hawaii, Fiji und Mauritius besitzen jeweils eine eigene Art. Die nördlichsten Vorkommen reichen bis Tibet und in die USA. Die nördlichsten Populationen der amerikanischen Zorotypus hubbardi, bis Indiana, Iowa und Illinois, könnten auf Sägemehl-Haufen mit interner Wärmeentwicklung durch den Rotteprozess angewiesen sein. Obwohl Arten auf Neuseeland und auf Neubritannien gefunden worden sind, fehlen bis heute Nachweise aus Australien.
Systematik
Die Bodenläuse wurden erst 1913 durch Filippo Silvestri neu entdeckt und beschrieben, nachdem er die erste Art Zorotypus guineensis in Ghana entdeckt hatte. Da ihm zunächst nur ungeflügelte Tiere vorlagen, benannte er sie nach altgriechisch zoros (rein, unvermischt), a- (ohne) und pteros (Flügel) Zoraptera, also „die rein Flügellosen“.
Die Position der Bodenläuse in der Systematik der Insekten ist weitgehend ungeklärt. Die zahlreichen einander widersprechenden Versuche, die Gruppe ins System einzusortieren, haben sogar zum Ausdruck „Zoraptera-Problem“ geführt. Die verbreitete Ansicht sieht in den Tarsenspinnern die Schwestergruppe. Diese ebenfalls auf warme Klimazonen beschränkte und weitgehend unbekannte Insektengruppe teilt mit den Bodenläusen eine Vielzahl von Merkmalen, unter anderem anatomische Eigenschaften der Flügel, das Kolonienleben und das Auftreten geflügelter und ungeflügelter Morphen. Starke Unterstützung erhält diese Gruppierung durch den besonderen Bau des Flügelgelenks, der nur diesen beiden Gruppen gemeinsam ist. Hennig 1953, dem Klausnitzer folgt, stellen die Bodenläuse dagegen die Schwestergruppe der zu den Acercia zusammengefassten Gruppen (Staubläuse, Tierläuse, Fransenflügler und Schnabelkerfe) dar und bilden mit ihnen die Paraneoptera. Sie teilen mit ihnen als gemeinsame Merkmale (mögliche Synapomorphien) eine Verschmelzung der Bauchganglienkette und eine Reduzierung der Malpighischen Gefäße und der Tarsenglieder. Im Gegensatz zu den Bodenläusen zeichnen sich diese Gruppen allerdings durch das Fehlen von Cerci sowie die Umbildung der Mundwerkzeuge in einen Stechapparat aus. Die Gruppierung mit den Paraneoptera wird auch aufgrund der Anatomie des Kopfes unterstützt. Auf der Basis einer Metaanalyse verschiedener morphologischer Untersuchungen stehen die Bodenläuse wiederum in engerer Verwandtschaft zu den Schaben, Termiten und Fangschrecken. Molekularbiologische Untersuchungen, anhand des Vergleichs homologer DNA-Abschnitte sehen die Zoraptera als Schwestergruppe des Verwandtschaftskreises der Polyneoptera. Eine neue genetische Analyse ermittelt als Schwestergruppe die Dermaptera (Ohrwürmer), mit denen sie gemeinsam an der Basis der Polyneoptera stünden.
Innerhalb der Bodenläuse werden etwa 40 Arten unterschieden, die bisher alle einer einzigen Gattung zugeordnet werden. In der folgenden Tabelle (Stand 2004) sind alle bis dahin bekannten Arten aufgelistet. Seither wurde eine Reihe weiterer Arten neu beschrieben.
Arten der Bodenläuse
Für einige kreidezeitliche fossile Arten wurde von Michael S. Engel eine Untergattung Octozoros eingeführt. Andere Bearbeiter unterscheiden hier auch eigene Gattungen. Engel und Grimaldi richteten für eine kreidezeitliche Art mit zahlreichen plesiomorphen Merkmalen, Xenozorotypus burmiticus, eine eigenständige Gattung ein.
Revision durch Kočárek, Horká und Kundrata 2020
In einer 2020 erschienenen Revision der Zoraptera, basierend auf einer Neuanalyse morphologischer und genetischer Merkmale der meisten Arten schlagen diese Autoren eine neue Systematik der Gruppe vor, bei der die bisherige Familie Zorotypideae und auch die Gattung Zorotypus aufgespalten werden. Die neu umschriebene Familie Zorotypidae und die neue Familie Spriralizoridae können morphologisch anhand der Struktur der männlichen Begattungsorgane unterschieden werden. Diese sind bei den Spiralizoridae symmetrisch gebaut, bei den Zorotypidae stark asymmetrisch. Innerhalb der Zorotypidae unterscheiden sie für eine neue Gattung Spermozoros, die eine Reihe orientalischer Arten umfasst, außerdem eine monotypische Unterfamilie Spermozorinae.
Es ergäbe sich die folgende Systematik:
Familie Zorotypidae
Unterfamilie Zorotypinae
Gattung Zorotypus Silvestri, 1913, mit den Arten Zorotypus guineensis Silvestri, 1913; Zorotypus asymmetristernum Mashimo, 2019; Zorotypus delamarei Paulian, 1949; Zorotypus vinsoni Paulian 1951; Zorotypus shannoni Gurney, 1938; Zorotypus amazonensis Rafael & Engel, 2006; Zorotypus caxiuana Rafael, Godoi & Engel, 2008. Afrotropisch (inkl. Madagaskar), Neotropisch
Gattung Usazoros Kukalova-Peck & Peck, 1993, mit der einzigen Art Usazoros hubbardi (Caudell, 1918). Nearktisch (Nordamerika).
Unterfamilie Spermozorinae Kočárek, Horká & Kundrata 2020
Gattung Spermozoros Kočárek, Horká & Kundrata 2020 mit den Arten Spermozoros asymmetricus (Kočárek, 2017), Spermozoros medoensis (Huang, 1976), Spermozoros weiweii (Wang, Li & Cai, 2016), Spermozoros impolitus (Mashimo, Engel, Dallai, Beutel & Machida 2013), Spermozoros huangi (Yin & Li, 2017), Spermozoros sinensis (Huang, 1974). Orientalis: China, Malaysia, Indonesien.
Familie Spiralizoridae Kočárek, Horká & Kundrata 2020
Unterfamilie Latinozorinae Kočárek, Horká & Kundrata 2020
Gattung Latinozoros Kukalova-Peck & Peck, 1993, mit der Art Latinozoros barberi (Gurney, 1938) und weiteren, bisher noch unbeschriebenen Arten. Neotropis, einschließlich Mittelamerika.
Unterfamilie Spiralizorinae Kočárek, Horká & Kundrata 2020
Gattung Spiralizoros Kočárek, Horká & Kundrata 2020, mit den Arten Spiralizoros cervicornis (Mashimo, Yoshizawa & Engel, 2013),Spiralizoros caudelli (Karny, 1922),Spiralizoros hainanensis (Yin, Li & Wu, 2015), Spiralizoros magnicaudelli (Mashimo, Engel, Dallai, Beutel & Machida, 2013), Spiralizoros silvestrii (Karny, 1927), Spiralizoros ceylonicus (Silvestri, 1913), Spiralizoros philippinensis (Gurney, 1938), Spiralizoros buxtoni (Karny, 1932). Orientalis: China, Vietnam, Malaysia, Indonesien (Kalimantan, Sumatra, Java), Sri Lanka, Philippinen.
Gattung Centrozoros Kukalova-Peck & Peck, 1993, mit den Arten Centrozoros snyderi (Caudell, 1920), Centrozoros cramptoni (Gurney, 1938); Centrozoros gurneyi (Choe, 1989); Centrozoros hamiltoni (New, 1978); Centrozoros mexicanus (Bolívar y Pieltain, 1940); Centrozoros neotropicus (Silvestri, 1916); Centrozoros manni (Caudell, 1923). Nearktis und Neotropis.
Gattung Brazilozoros Kukalova-Peck & Peck, 1993, mit den Arten Brazilozoros brasiliensis (Silvestri, 1947), Brazilozoros weidneri (New, 1978), Brazilozoros huxleyi (Bolívar y Pieltain & Coronado, 1963). Neotropis (Brasilien, Peru, Guyana, Ecuador).
Eine Reihe früher beschriebener, wenig bekannter Arten wurden bisher nicht einer der neuen Gattungen zugeordnet.
Ob das neue System sich in der Wissenschaft durchsetzt, ist abzuwarten.
Fossilbericht
Aus Funden im Bernstein sind Bodenläuse seit der frühen Kreide belegt. Die damaligen Vertreter sahen den heutigen Bodenläusen bereits sehr ähnlich, so dass die meisten in die rezente Gattung Zorotypus gestellt worden sind. Auch sie traten ebenfalls in zwei Morphen auf und wurden nur in tropischen Gegenden gefunden, so dass davon ausgegangen wird, dass sich die Bodenläuse in den seither vergangenen Jahrmillionen so gut wie nicht verändert haben. Da Bernsteine mit Insekteneinschlüssen aus früheren Zeitaltern als der Kreide so gut wie nie gefunden werden, ist unbekannt, wann diese Tiergruppe erstmals aufgetreten ist.
Belege
Literatur
Bernhard Klausnitzer: Zoraptera, Bodenläuse. In Westheide, Rieger (Hrsg.): Spezielle Zoologie Teil 1: Einzeller und Wirbellose Tiere. Gustav Fischer Verlag, Stuttgart, Jena 1997; Seiten 646–647.
Rolf G. Beutel, Frank Friedrich, Si-Qin Ge, Xing-Ke Yang: Insect Morphology and Phylogeny. Walter de Gruyter, Berlin und Boston 2014. ISBN 978-3-11-026263-6, Kapitel 6.13 Zoraptera. Seiten 257–265.
Weblinks
Michael S. Engel: Zoraptera In: Tree of Life Web Project
Michael D. Hubbard: A Catalog of the Order Zoraptera (Insecta). Center for Systematic Entomology, Gainesville (Florida) 1990. (PDF)
Fluginsekten
|
Q540502
| 100.823303 |
111765
|
https://de.wikipedia.org/wiki/Dach
|
Dach
|
Ein Dach ist im Bauwesen eine Konstruktion, die darunter liegende Räume und Flächen nach oben hin abschließt und sie dadurch vor Sonne, Witterung und anderen von oben eindringenden Einflüssen schützt. Dabei kann das Dach selbständiges Dach-Bauwerk über Freiflächen sein (z. B. Flugdach), in der Regel ist es aber oberer Abschluss eines Gebäudes. In diesem Fall trennt es zusammen mit den Außenwänden Außenraum von Innenraum und schützt vor der Witterung. Seine Gestaltung ist prägend für das gesamte Bauwerk und abhängig von klimatischen Bedingungen, Baustoffen und Baustilen. Im Verlauf der Architekturgeschichte entwickelten sich unterschiedlichste Dachformen.
Bei den meisten Dächern kann zwischen Dachkonstruktion (dem Tragwerk) und der Dachhaut (der Dachdeckung) unterschieden werden.
Grundbegriffe
Bezeichnungen
Die von außen sichtbaren Flächen des Daches – ob geneigt oder flach, eben oder gewölbt – sind die Dachflächen, deren Begrenzungs- und gemeinsamen Schnittlinien die Dachkanten. Die obere waagrechte Schnittkante zweier Dachflächen nennt man First. Als Traufe bezeichnet man die untere waagrechte Kante der Dachfläche. Meist ist hier die Dachrinne angebracht.
Der Giebel ist die obere abschließende Wandfläche eines Gebäudes im Bereich des Daches. Die Dachkante am Giebel nennt man Ortgang oder Ort. Dieser verbindet Traufe und First und begrenzt den Giebel nach oben. Kanten, an denen zwei Dachflächen in der Schräge zusammentreffen, werden als Grat (Außenkante) oder Kehle (Innenkante) bezeichnet. Einen Punkt, an dem drei oder mehr Dachflächen aufeinanderstoßen, nennt man Anfallspunkt.
Ein Dach versucht immer, möglichst einfachen geometrischen Formen zu folgen, im allgemeinen Fall Rechtecken. Dachausmittlung nennt man die Übertragung des Daches in den Grundriss. Sitzt ein Dach einem aus mehreren geometrischen Formen zusammengesetzten Grundriss auf, spricht man von zusammengesetztem Dach, Dach mit Wiederkehr, zerfallendem Dach oder Dachzerfallung. Über schiefwinkligen Vielecken spricht man vom windschiefen Dach – hier sind die Dachflächen zwangsläufig in sich verkrümmt.
Unterbrechungen oder Durchdringungen der Dachhaut werden als Dachöffnung, zum Beispiel Dachfenster oder Dachgauben aber auch die Durchlässe der Schornsteine (Rauchfänge), bezeichnet. Das Dachgeschoss ist ein Obergeschoss im Dachraum, der Dachboden ein unausgebauter Raum im gleichen Bereich (bei manchen Konstruktionen wird nicht differenziert). Dachschmuck sind alle außen angebrachten zierenden Elemente am Dach.
Maße des Daches
Der Begriff Firsthöhe bezeichnet den Abstand von Oberkante anbaufähiger Straßenverkehrsfläche bis zur Oberkante der Dachhaut des Firstes. Als Traufhöhe bezeichnet man den Abstand von Oberkante anbaufähiger Straßenverkehrsfläche bis zur (theoretischen) Schnittkante von Außenwand und Oberkante der Dachdeckung. Die Dachhöhe ist das Maß von Traufkante zum First in der Senkrechten. Als Grundmaß werden die horizontalen Abstände bezeichnet, wie sie auch unmittelbar in der Dachaufsicht abzulesen sind, sowie gegebenenfalls im Grundriß, sofern hier First, Grat und Kehlen (gestrichelt) eingezeichnet sind. Dachüberstand ist der waagrechte Abstand der Traufkante von der Außenkante Außenmauer.
Die Dachneigung bezeichnet das Gefälle (die Steilheit) einer Dachfläche. Sie wird in der Regel als Winkel in Grad angegeben, gelegentlich auch in Prozent.
Im allgemeinen Falle ist die Dachneigung am gesamten Dach – oder bei zusammengesetzten Dächern eines Dachabschnitts – konstant. Je nach Dachneigung unterscheidet man dann:
Flachdach: 0°–10° (Deutsche Bauordnungen); 0°–5° (Österreich)
Geneigtes Dach: >10° (Deutsche Bauordnungen); >7° (DIN 1055); >5° (Österreich)
Flachgeneigtes Dach: 10°–22°, gelegentlich bis 30° Dachneigung
Steildach: über 22° oder 30° Dachneigung; gelegentlich wird der Begriff Steildach auch synonym zu geneigtem Dach benutzt. Dann spricht man schon ab 7° von einem Steildach.
Geschichtliche Entwicklung des Daches
Die geschichtliche Entwicklung des Daches reicht weit zurück. Etwa 12.000 v. Chr. begannen Jäger und Sammler pultdachähnliche Gebilde aus Stangen und Rundhölzern zu bauen. Das Dach bestand dabei aus Gras, Heidekraut oder Fellen. Einige Jahrtausende später errichteten die Menschen Behausungen in eingetieften Gruben mit Satteldächern. Im Laufe der Zeit entwickelten sich Behausungen mit senkrechten Wänden und die Grubenvertiefung verlor immer mehr an Bedeutung. Satteldächer sowie Walmdächer dienten dem Schutz dieser Häuser. Die regionalen Unterschiede der Dachformen, und damit der Architektur, wurden stets auch vom Holzvorkommen bestimmt. Vom 13. bis zum 16. Jahrhundert fand eine rasante Entwicklung in der Konstruktions- und Bautechnik statt. Zu Beginn des 13. Jahrhunderts stellten Häuser aus Stein noch die Ausnahme dar, doch im späteren Verlauf gewannen die Steinbauten immer mehr an Bedeutung. Das bis zu dieser Zeit konstruktiv schwerfällige Sparrendach wurde im 17. Jahrhundert vom Pfettendach abgelöst und hundert Jahre später kam das Mansarddach hinzu. Kurze Zeit später und durch das ganze 19. Jahrhundert hinweg, entwickelte sich eine Vielfalt an Dachformen. Am Anfang dominierte das Steildach, später gewannen flachgeneigte Dächer sowie das Flachdach an Bedeutung.
Dachkonstruktion
Dachkonstruktion bezeichnet das Traggerüst eines Daches, die für seine Standsicherheit notwendige Konstruktion. Der Begriff grenzt sich insofern von Dachdeckung und Dachhaut ab, als diese von der Dachkonstruktion getragen werden. Ein vergleichbarer Begriff ist Dachtragwerk, als das Tragwerk eines Daches. Dachwerk bezeichnet die Gesamtheit der hölzernen Dachkonstruktion. Dachgerüst ist eine weitere Alternativbezeichnung für die Gesamtheit der die Dachhaut tragenden Konstruktion.
Eine bedeutende Rolle bei Dachkonstruktionen spielt der Baustoff Holz, insbesondere im Rahmen der zwei klassischen Varianten, dem Sparrendach und dem Pfettendach. Der zweite traditionell bedeutende Naturbaustoff der Zimmerei ist Bambus, der in Ostasien eigenständige Formen der Dachkonstruktionen hervorgebracht hat.
Seit dem 19. Jahrhundert finden zunehmend Stahl-Konstruktionen Verwendung, seit dem 20. Jahrhundert zusätzlich Konstruktionen aus Stahl- und Spannbeton, sowie Zeltkonstruktionen. All diese neueren Konstruktionen finden sich insbesondere bei weitspannenden Dächern über Bahnhofshallen, Hangars, Tribünen, sowie andere große Hallen und Flugdächer.
In der Zeitgenössischen Architektur finden zunehmend auch Kunststoffe und Verbundwerkstoffe für die Konstruktion Verwendung.
Dachaufbau
Als Dachaufbau bezeichnet man den baukonstruktiven Aufbau eines Daches, also die Kombination und Schichtung tragender und dichtender Bauelemente. Man unterscheidet:
Einschalige Dächer (früher: Warmdächer, heute: nicht belüftete Dächer)
Umkehrdächer
Zweischalige Dächer (früher: Kaltdächer, heute: belüftete Dächer)
Dachhaut
Als Dachhaut bezeichnet man die äußere Schicht des Daches, also die Dachdeckung bei geneigten Dächern (regensicher, aber nicht wasserdicht) oder die Dachabdichtung (wasserundurchlässig) bei Flachdächern. Ein eingedecktes Dach schützt lediglich gegen Regen, ein abgedichtetes Dach ist wasserdicht. Die Grenze zwischen Eindeckung und Abdichtung ist jedoch fließend. Je nach Bauform, Neigung, Witterungs- und juristischen Bedingungen kommen verschiedene Materialien zum Einsatz. Man unterscheidet zwischen harten und weichen Bedachungen, wobei das Brandverhalten ausschlaggebend ist.
Dachformen
Dächer lassen sich unter anderem nach ihrer Dachform einteilen. Viele Dächer sind jedoch Kombinationen aus verschiedenen Konstruktionen, Formen oder Mischformen, sowie aus mehreren Formen zusammengesetzte Dächer.
Allgemein wird in der menschlichen Siedlungsgeschichte zwischen zwei grundlegenden Dachformen unterschieden: Das flache Dach und das geneigte Steildach. Flachdächer findet man besonders in trockenen, warmen Siedlungsräumen, das geneigte Dach dagegen in Gegenden dieser Erde, die feuchten und wechselnden Witterungseinflüssen ausgesetzt sind. Das flache Dach wurde ursprünglich nicht ausschließlich als reiner Witterungsschutz genutzt, sondern diente zugleich als Aufenthaltsbereich, Wassersammelstelle, Verschattung oder Aussichtsplattform (Pueblo-Bauform in Nordamerika). Das Steildach diente hingegen zunächst als geneigte Ebene, mit der Regenwasser leicht abgeführt werden konnte, und später als zusätzlicher Schutz vor Feuer (harte Bedachung). Diese Dachform ist vor allem in den intensiv klimatisch geforderten Kulturregionen im Norden und Süden Europas und Asiens (China, Japan) anzutreffen. Durch Kolonisation trugen die Eroberer, vor allem aus dem alten Europa, diese Dachform mit in die „Neue Welt“ Südamerikas beziehungsweise in die von ihnen unterworfenen Gebiete. Dort wurde sie vor allem an Kirchen- und Sakralbauten ausgeführt.
Flachdach – ebene oder nur leicht (bis 10 Grad) geneigte Dachfläche
Plattformdach, ein ebenes Flachdach ohne Dachneigung (im Unterschied zu Flachdächern mit geringem Neigungswinkel)
Geneigtes Dach
Berliner Dach, asymmetrische Dachform mit steiler Dachhälfte an der Schauseite
Bogendach, leicht gewölbtes Dach (flacher als das Tonnendach)
Faltdach, ähnlich dem Rhombendach, aber mit nach innen „gefalteten“ Rauten
Glockendach, oben konvexer und unten konkaver Helm
Grabendach, Aneinanderreihung von Schmetterlingsdächern
Halbtonnendach, Dach in Form eines liegenden Viertelzylinders, ähnlich wie das Pultdach mit höherer Wand an der Firstseite
Kegeldach, kegelförmiges Dach
Klebdach, an die Fassade «geklebt» zum Schutz der Fenster vor der Witterung
Krüppelwalmdach, Walmdach mit verkleinertem Walm
Kuppeldach, Dach in Form einer Kuppel
Laternendach, aus zwei entgegengesetzt geneigten Dachflächen, die am Dachfirst aneinandertreffen
Mansarddach, Dachform mit im unteren Bereich steilen, im oberen Bereich flachen Dachflächen
Paralleldach oder Muldendach, Aneinanderreihung von Satteldächern
Pultdach, einzelne schräge Dachfläche
Pyramidendach, Zeltdach über quadratischem Grundriss
Rhombendach oder Rautendach, besteht meistens aus vier Rauten und vier Giebeln über quadratischem Grundriss
Ringpultdach, Pultdach über kreisförmigem Grundriss (in der Regel Teil eines Turmdaches)
Satteldach, klassische Dachform aus zwei geneigten Dachflächen, die im First aufeinandertreffen
Schleppdach, Erweiterung einer Dachfläche über die Traufe hinaus, ähnlich dem Pultdach
Schmetterlingsdach, zwei Dachflächen mit gemeinsamer, innenliegender Traufe und zwei Firsten an den Außenseiten (umgekehrtes Prinzip des Satteldaches)
Sheddach, sägezahnförmige Reihung von zwei unterschiedlich steilen Dachflächen (oft bei Fabrikhallen)
Tätschdach, schwach geneigtes Giebeldach
Tonnendach, Dach in Form eines liegenden Halbzylinders
Walmdach, Dach mit vier Dachflächen, anstelle eines Giebels sind die Schmalseiten ebenfalls abgeschrägt
Zeltdach, mehrere einander zugeneigte Dachflächen
Zollingerdach, eine Zwischenform von Mansarddach und Tonnendach
Zwiebelhelm, oben konkaver, unten konvexer Helm
Gekapptes Dach: Ein gekapptes Dach ist ein geneigtes Dach, das waagerecht unter dem First abgeschnitten ist, so dass kein Spitzboden, sondern ein Flachdach entsteht.
Freigeformtes Dach: Schalen, Kuppeln, andere geometrische Formen, völlig freie Formen der modernen Architektur
Dachaufbauten und Dacheinschnitte
Der Dachraum kann als Lager-, Wirtschafts- oder Wohnraum genutzt werden. Um den Dachbereich für diese Zwecke nutzbar zu machen, gibt es unterschiedliche Arten von Dachaufbauten, -öffnungen und -einschnitten:
Dachbalkon: wie Dachloggia, ragt jedoch teilweise wie ein Balkon aus dem Baukörper heraus
Dachflächenfenster: schrägliegendes Fenster in der Dachfläche, zur Belichtung und Belüftung des Dachraums
Dachgaube: Aufbau zur Vergrößerung und Belichtung des Wohnraums unter dem Dach, von der Fassade zurückspringend
Dachlaterne: Dachaufbau auf dem Giebel mit Fenstern zur Belichtung des Innenraums
Dachreiter: ein (oft hölzernes) schlankes Türmchen auf dem Dachfirst
Loggia (auch: Dachloggia oder Negativgaube): ein Einschnitt in das Dach für eine offene, begehbare Plattform, die im Gegensatz zu einem Balkon nicht aus der Hausfront herausragt, sondern innerhalb des Baukörpers liegt.
Zwerchhaus: Quer aufgeschobener Dachteil (gezwercht), Giebel auf der Fassade aufgesetzt
Technische Installationen im Dachbereich
Weil das Dach in der Regel das oberste Bauteil eines Gebäudes ist, wird der Dachbereich für verschiedene technische Installationen genutzt, die eine hohe Position benötigen. Hinzu kommen Anlagen zur Wartung und Sicherung des Dachbereichs.
Begehungshilfen zur Dachwartung (Treppenstufen)
Blitzschutzanlage
Dachantenne, Satellitenschüssel
Einrichtungen zur Dachentwässerung wie Dachrinne, Fallrohr oder Wasserspeier
Vorrichtungen gegen Dachlawinen, sog. Schneefangsysteme, zum Beispiel Schneefanggitter, Schneefanghaken oder Schneefangbalken
Schornsteine und Lüftungsrohre
Solaranlage, Solarkollektor
Photovoltaikanlage
Eine historische technische Installation im Bereich des Daches waren die sogenannten Dachmühlen.
Brandschutz
Wenn es erforderlich ist, dass eine Brandwand über die Dachfläche hinausragt, so unterteilt diese die Dachfläche deutlich sichtbar. Dies ist immer der Fall beim Einsatz von weichen Bedachungen. Hier muss die Brandwand immer mindestens 50 cm über die Dachfläche geführt werden. Bei Wohngebäuden mit harten Bedachungen und mehr als 3 Vollgeschossen sind Brandwände mindestens 30 cm über die Dachfläche zu führen. Bei Gebäuden bis zu drei Vollgeschossen ohne erhöhte Brandgefahr sowie beim Einsatz harter Bedachungen können die Brandwandkonstruktionen auch so ausgeführt werden, dass sie in der Dachfläche nicht in Erscheinung treten. Auch bei Ausführung der Dachflächen mit Dachpappen oder einer ähnlichen Dachhaut ist selbst bei einer Unterdachführung der Brandwand eine deutliche Teilung zu erkennen, weil im Bereich der Brandwand die Dachpappe durch Blech oder andere nichtbrennbare Baustoffe zu ersetzen ist.
Redewendungen
alles unter Dach und Fach bringen: alles wurde erfolgreich abgeschlossen. Eine Interpretation der Redewendung leitet dies von der Tatsache ab, dass ein Haus(bau) früher als fertig betrachtet wurde, wenn das Dach und die Gefache fertiggestellt waren. Lutz Röhrich leitet dies in seinem Lexikon der sprichwörtlichen Redensarten von dem Bergen der Ernte in den bäuerlichen Lagerräumen ab.
jemandem aufs Dach steigen: stammt aus der germanischen Frühzeit und bedeutet so viel wie ‚jemanden zurechtweisen‘ und ‚öffentlich bloßstellen‘. Sie leitet sich von dem alten Brauch ab, einem Mann das Dach abzudecken, wenn dieser gegen die Ordnung verstoßen hat. Unter Ordnung ist dabei sowohl die Rechtsordnung zu verstehen wie auch die moralisch gesellschaftlichen Regeln. So wurde insbesondere dem das Dach abgedeckt, der die Herrschaftsstellung im Haushalt an seine Frau verloren hatte oder von ihr geschlagen wurde. Der Brauch wurde hauptsächlich von den Nachbarn durchgeführt, die den Mann damit bloßstellen wollten. Das Dach steht dabei synonym für Haus, Schutz und Sicherheit. Der so diskreditierte Mann musste das Dach auch alleine wieder richten.
Das Dachstübchen wird mit dem Verstand, der seinen Sitz oben im Kopf hat, gleichgesetzt. Entsprechend wird ein Dachschaden angenommen, wenn man meint, dass jemand im Kopf „nicht ganz richtig“ sei.
jemandem den roten Hahn aufs Dach setzen: bedeutet 'das Haus einer Person anzünden'. Der 'rote Hahn' ist dabei gleichzusetzen mit dem Wort 'Feuer' oder 'Brand'. Zurückgehend auf das Mittelalter war der Hahn das Symbol für den Feuergott, da sein auffälliges, rotes Gefieder an wildes Feuer erinnerte. Hatte man also schon einen roten Hahn auf dem Dach, glaubte man sich vor Bränden gefeit.
Literatur
Dierks, Schneider, Wormuth: Baukonstruktion. Werner-Verlag, ISBN 3-8041-1374-5.
Hermann Hederich: Elemente der Dachformen, oder Darstellung und Ausmittelung der verschiedensten Arten von Dachkörpern, mit Hinweisung auf ihre Entstehung und Zerlegung, nebst Andeutung zur Berechnung derselben. Weimar 1858, Text: Digitalisat, Tafeln: Digitalisat
Wolfgang Lauter: Dächer und Giebel. (= Die bibliophilen Taschenbücher; Nr. 454). Harenberg, Dortmund 1985, ISBN 3-88379-454-6 (Bildband mit einem Nachwort von Kyra Stromberg).
Erwin Marx, Hugo Koch, Ludwig Schwering: Digitalisat Dachdeckungen. (= Handbuch der Architektur; Teil 3: Die Hochbau-Constructionen; Bd. 2, Raumbegrenzende Constructionen; Heft 5). Bergsträsser (Kröner), Stuttgart 1899.
Friedhelm Maßong: Dachtabellen. Berechnungen und Arbeitshilfen. 3. Auflage, R. Müller, Köln 2011, ISBN 978-3-481-02493-2.
Eberhard Schunck, Heide Wessely (Red.): Dach-Atlas. Geneigte Dächer. 4. Auflage, Institut für Internationale Architektur-Dokumentation, München 2002.
Weblinks
Einzelnachweise
Bauteil (Bauwesen)
|
Q83180
| 237.54219 |
66755
|
https://de.wikipedia.org/wiki/Entwicklungspsychologie
|
Entwicklungspsychologie
|
Die Entwicklungspsychologie ist ein Teilgebiet der Psychologie. Ihr Gegenstand ist die Beschreibung und Erklärung zeitlich überdauernder, aufeinander aufbauender Veränderungen menschlichen Erlebens und Verhaltens über die gesamte Lebensspanne (lifespan psychology). Diese Veränderungen führen zu einer Zunahme oder Abnahme von Fähigkeiten im nicht von Krankheit bestimmten, biologisch artgemäßen Verlauf des Lebens. Kein Gegenstand der Entwicklungspsychologie sind kurzfristige stimmungsabhängige oder reaktive, von plötzlichen äußeren Ereignissen verursachte Veränderungen. Die menschliche seelische Entwicklung ist ebenso ein Studiengebiet in den Erziehungswissenschaften und der Sozialen Arbeit, oft konzentriert in der Kinderpsychologie oder Jugendpsychologie.
Philosophische Positionen vor dem 20. Jahrhundert
Viele Philosophen haben theoretische Positionen auch zur psychischen Entwicklung entwickelt, die oft mit pädagogischen Lehren eng zusammenhängen. Bei Aristoteles gibt es die Entelechie, nach der die Lebewesen ein feststehendes Ziel in ihrer Entwicklung anstreben. Jean-Jacques Rousseau hat im Emile das Wachstum eines Kindes bis zum Jugendalter analysiert.
In Deutschland haben im 19. Jahrhundert Ernst Haeckel (Biogenetische Grundregel) und William Preyer („Tagebuch eines Kindes“) an der Universität Jena die psychische Evolution von Kindern als nachholende Evolution zu erklären versucht. Sie fallen in den Übergang der Entstehung von Psychologie als eigener Disziplin um das Jahr 1900.
Theorien
Einige historische Theorien bilden auch gegenwärtig noch eine Basis für die aktuellen Forschungen, die primär auf eine rein empirisch fundierte, nomothetische Wissenschaft mit ihren konstruierten Kategoriensystemen auf deskriptiv-empirischer Grundlage setzt. Zu diesen Theorien gehören John B. Watsons und B. F. Skinners Behaviorismus (mehr zur Rolle des Behaviorismus bei Verhaltensanalyse der Kindesentwicklung) und Erik Eriksons acht Stufen der psychischen Entwicklung. Andere Theorien wie die Psychoanalyse, die Gestaltpsychologie oder der Kognitivismus haben ebenso zu einzelnen Aspekten der wissenschaftlichen Entwicklung beigetragen. Seit dem 20. Jahrhundert haben viele theoretische Perspektiven versucht, Entwicklung zu erklären; die bekanntesten davon sind:
Albert Banduras Theorie des Sozialen Lernens
Urie Bronfenbrenners ökosystemischer Ansatz
Sigmund Freuds fünf Phasen der psychosexuellen Entwicklung und sein Instanzenmodell
Kurt Lewins Theorie der Differenzierung und Integration des individuellen Lebensraums
Jane Loevingers Stufenmodell der Ich-Entwicklung zur Bedeutungskonstruktion
Jean Piagets Stufenmodell
Lew Wygotskis Sozialer Kontextualismus (und die daraus entstandene Kulturelle Entwicklungstheorie von Michael Cole)
Das umfassende Modell miteinander vernetzter Entwicklungsaspekte Jane Loevingers beschreibt die zehn Stufen der Ich-Entwicklung, indem sie „Bedeutung“-erzeugende Aspekte aus mehreren Modellen verknüpft: Piagets Modell kognitiver Entwicklung, Kohlbergs Theorie der Moralentwicklung, Robert Kegans Entwicklungsstufen des Selbst, William G. Perrys (1913–1998) epistemologisches Wachstum, Harry Stack Sullivans Selbst-System und Robert F. Pecks (1924–2011) Charakterentwicklung.
Zu den Stufen menschlicher Entwicklung war ein Pionier Robert J. Havighurst, der entwicklungsbedingte Aufgaben für sechs grundlegende Altersgruppen auswies. Klaus Hurrelmann hat den Ansatz weiterentwickelt und in einen sozialisationstheoretischen Rahmen gestellt. Entwicklungsaufgaben beschreiben demnach zum einen die Erwartungen, die von der sozialen und physischen Umwelt an einen Menschen herangetragen werden. Zum anderen benennen sie die Anforderungen, die sich aus der körperlichen und psychischen Dynamik der persönlichen Entwicklung ergeben. Die von ihm so genannte „produktive Verarbeitung“ der inneren Realität von Körper und Psyche und der äußeren Realität von sozialer und physischer Umwelt erfolgt lebenslang in vier Dimensionen: Binden, Qualifizieren, Konsumieren und Partizipieren.
Determinanten der Entwicklung
Es können drei Determinante genannt werden, die Einfluss auf die Entwicklung nehmen. Die Vererbung, Reifung und das Lernen.
Vererbung
Jeder Mensch ist bei seiner Geburt mit strukturell-genetischen Merkmalen ausgestattet. Diese vererbte Genstruktur beeinflusst die Fähigkeiten zur Sprachentwicklung, Gewissensbildung und Bindungsfähigkeit. Dazu gibt es noch die individuell-genetischen Merkmale, die das körperliche Erscheinungsbild eines Menschen prägen. Diese angeborenen Anlagen und Dispositionen beeinflussen psychische und physische Merkmale. Auch Instinkte gehören zur angeborenen Genanlage.
Reifung
Das organische Wachstum und das Aufeinanderfolgen von nicht umkehrbaren Entwicklungsschritten wird als Reifung bezeichnet. Am deutlichsten wird das in körperlichem Wachstum und Veränderungen sichtbar. Reifung der Nervenbahnen und des Gehirns manifestieren sich in der Sprachentwicklung, Verbesserung der Wahrnehmung und ausgeprägteren Gedächtnisleistungen. Reifungsprozesse sind automatisiert und bedürfen keiner vorangegangenen Lernprozesse. Dennoch sind Reifungs- und Lernprozesse eng miteinander verknüpft. Etwa durch die Verbesserung und Spezialisierung der durch Reifung erlangten Fähigkeit durch Lernen. Wichtige Reifungsprozesse in der frühen Kindheit bis zur Pubertät sind Muskel- und Nervensystem sowie endogene Drüsen. Durch die Reifung von Nerventätigkeiten verbessern sich auch Hemmungsprozesse und Nervenverbindungen werden schneller gebildet.
Lernen
Veränderungen im Verhalten, welche nicht auf Genetik, Reifung oder aktuelle Umstände zurückgeführt werden können, wurden durch Lernen herbeigeführt. Dabei wiederholt ein Subjekt bestimmte Situationen immer wieder und erlernt durch die wiederholte Erfahrung neue Verhaltensweisen.
Forschungsgebiete
Ursprünglich galt die Entwicklungspsychologie als Kinderpsychologie, da sie sich vor allem mit der Entwicklung zum Erwachsenen hin beschäftigte. Heute geht man demgegenüber von einer während der ganzen Lebensspanne fortdauernden Weiterentwicklung des Menschen aus, was sich bereits in Entwicklungsmodellen wie dem Stufenmodell der psychosozialen Entwicklung von Erik Erikson widerspiegelt.
Die Vorlesung von Rainer Silbereisen (Universität Jena, Sommersemester 2006) stellt zentrale Forschungsfragen der Disziplin vor (s. u. Gliederung).
Der Antrieb hinter der Entwicklung ist das Wechselspiel zwischen genetischem Programm und ökologischen (=Umwelt) Erfahrungen, wozu auch die kulturellen gehören. In der Biologie heißt dieses Zusammenwirken Epigenese. Die Entwicklungspsychologie verwendet den Begriff „proximale Prozesse“ (Bronfenbrenner).
Laut Paul B. Baltes, einem Vertreter der lifespan psychology, fördert die Interaktion mit der Umgebung die Entwicklung in drei relevanten Prozessen (S-O-K-Modell):
a) Selektion: z. B. Informationsauswahl und Informationsverarbeitung
b) Optimierung: Prozess der Aneignung, Festigung und Erhaltung von effektiven Methoden zum Erreichen wünschenswerter Ziele und zur Vermeidung von nicht Wünschenswertem.
c) Kompensation (zwei Arten): 1. Einsatz neuer Strategien zum Erreichen desselben Zieles; 2. Veränderung des Ziels aufgrund eines Verlustes an Fähigkeiten
Beispiel: Der 80-jährige Pianist Arthur Rubinstein a) beschränkt sich auf wenige Stücke, b) übt diese Stücke öfter, c) um seinem Verlust an Geschwindigkeit entgegenzuwirken, spielt er vor schnellen Segmenten einfach langsamer.
Ob psychische Eigenschaften lebenslang veränderbar sind, ist umstritten: Das Konzept der begrenzten sensiblen Phase steht auf der einen, das Konzept lebenslanger Plastizität auf der anderen Seite. Ersteres besagt, dass frühe und frühste Erfahrungen entscheidend und praktisch irreversibel prägend wirken („Was Hänschen nicht lernt, lernt Hans nimmer mehr!“).
Beispiel: Fixierung und psychosexuelle Entwicklung bei Sigmund Freud, Prägungslernen bei Konrad Lorenz (Mutterbild: Versuchsleiter als Gänsemutter), frühkindliche Deprivation bei René A. Spitz (vernachlässigte Heimkinder retardieren).
Dem steht die modernere Annahme lebenslanger Plastizität entgegen, dass Entwicklung während der gesamten Lebensspanne möglich ist. (Fehl-)Entwicklungen seien daher zu einem gewissen Grade korrigierbar. Dafür erbrachte die Forschung in den letzten Jahren immer mehr Anhaltspunkte.
Beispiel: Eine Studie von Michael Rutter aus den 1990er-Jahren an rumänischen Waisenhauskindern untersuchte das Entwicklungspotenzial der aus ungünstigen Verhältnissen stammenden Kinder nach einer Adoption in englische Mittelstandsfamilien. Dabei zeigte sich, dass die vorhandenen Defizite größtenteils (wenn auch nicht immer vollständig) kompensiert werden konnten – und zwar umso besser, je jünger die Kinder zum Zeitpunkt der Adoption waren.
Der Soziologe Glen H. Elder beschäftigte sich mit der Auswirkung von Kriegen auf die psychische Entwicklung. Wann junge Männer (bis ca. 20 Jahre) in den Militärdienst gingen, stellten sich die Entwicklungsaussichten günstiger dar: bessere soziale und berufliche Entwicklungsaussichten, z. B. ermöglichte ihnen das Militär ein kostenfreies Studium. Spät eingezogene Männer, bei denen Entwicklungsstränge unterbrochen wurden, zeigten negative Aspekte. Diese Kohorte wies eine erhöhte Scheidungsrate, negative Gesundheitsfolgen sowie oftmals einen sozialen Abstieg auf.
Die Anthropologen Super und Harkness vergleichen den Einfluss von Kulturen auf Entwicklungen. In der developmental niche finden die proximalen Prozesse statt:
1. physisches Setting
Beispiele: Julian S. hat ein großes Zimmer, in welchem abends die Jalousien herunter gelassen werden. Die Kinder des kenianischen Kipsigi-Stammes schlafen nachts bei ihren Müttern und sind tagsüber alleine. Ihr weniger und unregelmäßiger Schlaf ist kein Entwicklungsrückstand, sondern ein anderes physisches Setting.
2. cultural customs: unbewusste, aber fest verankerte kulturelle Gewohnheiten, die massiv den Entwicklungsgradienten beeinflussen.
Beispiel: In einigen Kulturen ist es üblich, Kinder in Tüchern zu tragen. So fortbewegte Kinder haben ein anderes visuelles Feld und erfahren eine größere motorische Stimulation als Kinder, die in Kinderwägen geschoben werden. Ihr Wachstum und ihre motorische Entwicklung sind aufgrund dieser Stimulation beschleunigt. Die Plastizität des Genoms ist durch An- und Abschalten von Genen zu beeinflussen.
3. Naive Psychologie/ Ethnotheorien: Überzeugungen von Menschen über Entwicklung.
Beispiel: Kipsigis glauben, dass Schweigen besser als Sprechen sei. Daher verläuft die Sprachentwicklung ihrer Kinder langsamer (aber nicht zwingend schlechter).
Dondi untersuchte, ob die Fähigkeit zur sozialen Anteilnahme bereits genetisch angelegt ist oder erst erworben wird, indem er die Fähigkeiten zur Empathie bei Neugeborenen maß, die höchstens drei Tage alt waren. Ihnen wurden sowohl ihre eigenen Schmerzensschreie als auch die Schmerzensschreie anderer, die durch Blutabnahme aus der Ferse verursacht wurden, vorgespielt. Gemessen wurden die Veränderungen im Gesichtsausdruck der Neugeborenen. Zusätzlich wurde am Schnuller mit Messfühlern die Saugfrequenz registriert. Es gab drei Gruppen: Die erste hörte ihre eigenen Schreie, die zweite hörte die Schreie eines anderen Neugeborenen, die dritte Gruppe war eine Kontrollgruppe ohne Reize. Ergebnis: Die Säuglinge reagieren auf fremdes Schreien wesentlich stärker als auf das eigene Schreien mit „facial expressions of distress“. Ein Säugling, der den Schmerzensschrei eines anderen hört, hat den gleichen Gesichtsausdruck wie bei eigenem Schmerz. Dies lässt darauf schließen, dass die Fähigkeit zur Empathie (Ansteckbarkeit durch Emotionen anderer) genetisch angelegt ist. Diese Fähigkeit ist ebenso wie die Sympathie (Nachvollziehen der Emotionen anderer) eine elementare Grundlage des Sozialverhaltens und menschlicher Interaktion.
Piaget hielt das Alter, in dem ein bestimmtes Entwicklungsstadium erreicht wird, für unabhängig von Kultur und Gesellschaftsform. Zwei Fragen wurden zu seiner statischen Entwicklungstheorie gestellt, nach der Kinder mit ca. 12 Jahren das Stadium formal-operativen Denkens erreichten: 1. Gibt es langfristige Veränderungen hinsichtlich des Durchschnittsalters, in welchem ein Entwicklungsstadium erreicht wird? Es gibt viele Beobachtungen, dass mehr Kinder früher diese Stadien erreichen. 2. Existieren Kulturunterschiede hinsichtlich des Durchschnittsalters, in welchem ein Entwicklungsstadium erreicht wird? Barbara Rogoff bestätigte diese Annahme, indem sie nicht beschulte mexikanische Kinder auf ihre Fähigkeiten zu formal-operativem Denken untersuchte. Sie führte zunächst dieselben Aufgaben durch wie Piaget an europäischen Kindern zur Klassifikation von Entwicklungsstadien. In diesen Aufgaben schnitten die mexikanischen Kinder schlecht ab. Konnten diese Defizite aus einer mangelnden „Vertrautheit mit dem Material“ rühren? Eine kulturtypische Aufgabe für formal-operatives Denken, der Erläuterung komplizierter Verwandtschaftsverhältnisse, gelang den mexikanischen Kindern jedoch problemlos. Also war nicht die Kultur entscheidend, das formal-operative Denken konnte auch hier beobachtet werden.
In einem Experiment zum Spracherwerb wurde 1987 Säuglingen ein Märchen auf zwei verschiedene Weisen vorgelesen: einmal mit üblicher Pausensetzung und zum anderen mit einer die Sinneinheiten missachtenden Pausensetzung. Kinder bevorzugen bereits ab dem 7. Lebensmonat Sprachbeispiele mit Pausen an grammatisch sinnvollen Stellen. Außerdem bevorzugen sie eine überdeutlich betonte, übertrieben intonierte Sprechweise, welche als „Ammensprache“ schon immer üblich ist. Bis zum Alter von sechs Monaten können Neugeborene zwischen allen möglichen Lauten differenzieren. Bis zum 10. Lebensmonat geht die maximale Anzahl zurück. In der Muttersprache nicht gebräuchliche Laute können dann weder diskriminiert noch produziert werden. So verlieren Asiaten beispielsweise die Fähigkeit zur Unterscheidung zwischen „l“ und „r“.
Siehe auch
Child Language Data Exchange System – (CHILDES), eine Online-Datenbank für die Erforschung des Spracherwerbs von Kindern
Kinderpsychologie
Klinische Kinderpsychologie
Pädagogikunterricht
Literatur
Einführungsliteratur
Gerd Mietzel: Wege in die Entwicklungspsychologie. Kindheit und Jugend; Weinheim: Beltz, 20024; ISBN 978-3-621-27477-7.
Gerd Mietzel: Wege in die Entwicklungspsychologie. Erwachsenenalter und Lebensende; Weinheim: Beltz, 19972; ISBN 978-3-621-27376-3.
Werner Deutsch: Aus der Kinderstube in die Wissenschaft. Entwicklungspsychologische Tagebuchstudien; in: I. Behnken, J. Zinnecker (Hrsg.): Handbuch Kindheit; Hannover: Velber, 2004.
Peter Rossmann: Einführung in die Entwicklungspsychologie des Kindes- und Jugendalters; Bern: Huber, 19964; ISBN 3-456-82723-7.
Liselotte Ahnert: Theorien in der Entwicklungspsychologie. Springer Verlag, Berlin 2014, ISBN 978-3-642-34804-4
Patricia H. Miller: Theorien der Entwicklungspsychologie; Berlin, Heidelberg: Spektrum Akademischer Verlag, 1993; ISBN 3-86025-077-9
August Flammer: Entwicklungstheorien – Psychologische Theorien der menschlichen Entwicklung, Bern 2009. ISBN 3-456-83921-9.
Werner Wicki: Entwicklungspsychologie. München: Ernst Reinhardt, UTB Basics (2. überarb. Aufl.), 2015 ISBN 978-3-8252-4475-0
Jugendpsychologie
Helmut Fend: Entwicklungspsychologie des Jugendalters; Wiesbaden: VS Verlag für Sozialwissenschaften, 2003; ISBN 978-3-8100-3904-0
Klaus Hurrelmann, Gudrun Quenzel: Lebensphase Jugend; Weinheim, Beltz Juventa, 13. Auflage 2016; ISBN 978-3-7799-2619-1.
Sozialpsychologische Ansätze
Norbert Bischof: Das Kraftfeld der Mythen. Signale aus der Zeit, in der wir die Welt erschaffen haben; München, Zürich: Piper, 1998; ISBN 3-492-22655-8
Steven Pinker: Das unbeschriebene Blatt. Die moderne Leugnung der menschlichen Natur; Berlin: Berlin-Verlag, 2003; ISBN 3-8270-0509-4
Sozialisationstheoretische Ansätze
Klaus Hurrelmann, Ullrich Bauer, Einführung in die Sozialisationstheorie; Weinheim, Beltz, 11. Auflage 2015; ISBN 978-3-407-25740-6.
Klaus Hurrelmann, Ullrich Bauer, Matthias Grundmann, Sabine Walper (Hrsg.): Handbuch Sozialisationsforschung; Weinheim, Beltz. 8. Auflage 2015. ISBN 978-3-407-83183-5.
Liselotte Ahnert: Wieviel Mutter braucht ein Kind. Bindung – Bildung – Betreuung: öffentlich und privat. Springer Spektrum Verlag, 2010
Konstruktivistische Ansätze
Robert Kegan: Die Entwicklungsstufen des Selbst: Fortschritte und Krisen im menschlichen Leben, München: Kindt, 1994. ISBN 978-3-925412-00-4
Jane Loevinger: Ego Development - Questions of Method and Theory, Washington: Psychological Inquiry, 1993.
Psychoanalytische Ansätze
Margaret Mahler, Fred Fine, Anni Bergman: Die psychische Geburt des Menschen. Symbiose und Individuation; Frankfurt a. M. 1996; ISBN 3-596-26731-5
Gestalttheoretische Ansätze
Kurt Koffka: Die Grundlagen der psychischen Entwicklung - eine Einführung in die Kinderpsychologie; Osterwieck a. Harz, A. W. Zickfeldt, 1921. ND 2012: General Books, ISBN 978-1-235-11446-5.
Kurt Lewin: Psychologie der Entwicklung und Erziehung, Kurt Lewin Werkausgabe Bd. 6, Klett-Cotta, 1982. ISBN 978-3-12-935160-4
Anna Arfelli Galli: Gestaltpsychologie und Kinderforschung. Krammer, Wien 2013. ISBN 978-3-901811-66-1.
Anna Arfelli Galli: Bindungstheorie und gestalttheoretische Entwicklungspsychologie. In: Phänomenal, 6 (1/2014), 39–46.
Lehr- und Handbücher
Norbert Kühne: Wie Kinder Sprache lernen. Wissenschaftliche Buchgesellschaft Darmstadt und Primus Verlag, Darmstadt 2003
Rolf Oerter, Leo Montada (Hrsg.): Entwicklungspsychologie. Lehrbuch. Weinheim: Beltz, 20025; ISBN 3-621-27479-0.
Franz Petermann (Hrsg.): Lehrbuch der Klinischen Kinderpsychologie. Göttingen: Hogrefe, 20086; ISBN 978-3-8017-2157-2.
H. M. Trautner: Lehrbuch der Entwicklungspsychologie, 2 Bände; Göttingen: Hogrefe, 1992/1997.
Arnold Lohaus/ Marc Vierhaus: Entwicklungspsychologie des Kindes- und Jugendalters für Bachelor. 2. Auflage. Heidelberg: Springer, 2013, ISBN 978-3-642-34434-3.
Fritz Oser, Wolfgang Althof: Moralische Selbstbestimmung. Modelle der Entwicklung und Erziehung im Wertebereich. Ein Lehrbuch; Stuttgart: Klett-Cotta, 1992. ISBN 3-518-28993-4
Kritik
Peter Gstettner: Die Eroberung des Kindes durch die Wissenschaft - aus der Geschichte der Disziplinierung. rororo 7425, Reinbek 1981; ISBN 3 499 17425 1
Weblinks
Entwicklungspsychologie (ZPID)
Kostenlose Lernmaterialien zum Lehrbuch der Entwicklungspsychologie von Lohaus und Vierhaus: Glossar, Prüfungsfragen, Psycho-Quiz, Lernkarten
Cécile Loetz, Jakob Müller: »O Abschied, Brunnen aller Worte« – Warum Entwicklung auf Verlusten gründet. In: Rätsel des Unbewußten. Podcast zur Psychoanalyse und Psychotherapie (Folge 22).
Einzelnachweise
|
Q175002
| 135.661296 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.