id
stringlengths 2
8
| url
stringlengths 31
75
| title
stringlengths 1
29
| text
stringlengths 209
315k
| qid
stringlengths 2
10
| rank
float64 83.6
38.2k
|
---|---|---|---|---|---|
9666
|
https://de.wikipedia.org/wiki/Niederschlag
|
Niederschlag
|
Unter Niederschlag versteht man in der Meteorologie Wasser inklusive dessen Verunreinigungen, das aus Wolken, Nebel oder Dunst (beides Wolken in Kontakt mit dem Boden) oder wasserdampfhaltiger Luft (Luftfeuchtigkeit) stammt und das
infolge der Schwerkraft in flüssiger oder fester Form auf die Erde fällt
oder vom Wind aufgewirbelt wird
oder sich auf der Erdoberfläche ablagert oder abfließt
oder sich in fester Form aus (unterkühltem) Wasser als Vereisung an Oberflächen anlagert
oder sich als Beschlag direkt durch Kondensation oder Resublimation an Objekten absetzt.
Jegliches Wasser, das aus Niederschlägen auf die Erde gelangt, wird auch als Meteorwasser bezeichnet. Der Begriff ist heute vor allem in der Schweiz gebräuchlich. Umgangssprachlich werden die Begriffe Niederschlag und Regenwasser häufig synonym gebraucht.
Entstehung
Durch Verdunstung und Sublimation gelangt Wasserdampf in die Atmosphäre. Dazu ist die Zufuhr thermischer Energie erforderlich, die als Verdampfungsenthalpie im Wasserdampf gespeichert ist. Wolken entstehen von Kondensationskeimen ausgehend durch Kondensation der Feuchtigkeit in der Luft. Um wieder als Niederschlag auf die Erdoberfläche fallen zu können, muss die Größe (bzw. Masse) der kondensierten Teilchen einen bestimmten Wert überschreiten. Durch den Niederschlag wird der Wasserkreislauf geschlossen.
Auswirkung
Die Häufigkeit und die durchschnittliche Menge des Niederschlages sind charakteristisch für die entsprechenden geographischen Gebiete. Der Niederschlag ist dabei ein hygrischer Faktor, der das lokale Klima mitbestimmt. Besonders für die Landwirtschaft ist er relevant, da erst ab einer bestimmten Niederschlagsmenge erfolgreicher Regenfeldbau möglich ist. Aus einer angetroffenen Ökozone kann daher meist grob auf eine mittlere Niederschlagsmenge gefolgert werden.
Bei der Kondensation aus feuchter Luft wird Kondensationsenthalpie, beim Resublimieren Sublimationsenthalpie aus dem Wasserdampf frei. Beim Gefrieren wird Kristallisationsenthalpie aus dem Wasser in die Umgebung (Luft, Wasser, Bewuchs, sonstige Oberflächen) freigesetzt. Gefriert unterkühlter Nebel oder unterkühlter Regen, so ist der Wärmeübergang gering. Beim Verdunsten und Sublimieren von Niederschlag wird Wärme der Umgebung entzogen, dies wirkt abkühlend auch auf die Erdoberfläche und reguliert teilweise das (Mikro-)Klima.
Beispiele für Niederschlag
Flüssiger Niederschlag
Fester Niederschlag
Spezifikationen
Künstlicher Niederschlag
Niederschlag kann unter bestimmten meteorologischen Konstellationen künstlich erzeugt werden, indem eine große Menge an künstlichen Eiskeimen, also Kondensationskernen (z. B. Silberiodid) in unterkühlte Wolken ausgebracht wird; siehe Hagelflieger. Aus großtechnischen Wasserdampfemissionen stammender Industrieschnee ist ebenso künstlicher Niederschlag, der zivilisatorisch bedingt entstehen kann.
Abgrenzung
Kunstschnee von Beschneiungsanlagen, Kunsteis und Schwarzeis (gefrorenes See- und Meerwasser) werden nicht zu den Niederschlägen gezählt, weil das Wasser nicht direkt und hauptsächlich aus Wolken, Nebel oder Luftfeuchtigkeit stammt. Ortsverlagerter Niederschlag (beispielsweise vom Schneepflug versetzter Schnee, Sprühfahnen, Dachlawinen, Regenwasser in Fließgewässern) bleibt trotzdem Niederschlag.
„Regen“ aus Beregnungsanlagen wird i. A. nicht dem Niederschlag zugerechnet, kann jedoch durch die dadurch erhöhte Verdunstung zu vermehrter Wolkenbildung und erhöhtem „allgemeinem Niederschlag“ führen.
Gesetzmäßigkeiten der räumlichen Verbreitung der Niederschläge
In den Gebirgen hängen die Niederschlagsmengen von der Streichrichtung zum herrschenden Luftstrom ab (siehe Luv und Lee).
Festlandgebiete erhalten geringere Niederschläge als Meeresgebiete auf gleicher geographischer Breite (siehe Seeklima, Kontinentalklima).
Hohe Niederschlagssummen in Äquatornähe und gemäßigten Breiten wechseln sich mit niedrigen Niederschlagssummen in den außeräquatorialen Tropen und Polargebieten ab (siehe Tropen, Subtropen, Gemäßigte Zone, Polarklima).
In den Tropen sind die Ostteile der tropischen Meere ganzjährig feucht, dagegen sind die Westteile nur im Sommer und im Herbst feucht.
Niederschlagsmessung
Messgeräte, Maßeinheiten und Messmethoden
Gemessen wird mit zwei verschiedenen Arten von Messgeräten:
nichtregistrierende Niederschlagsmesser (Regenmesser)
registrierende Niederschlagsmesser (Niederschlagsschreiber, Pluviographen)
Die meisten Niederschlagsmesser sammeln den Niederschlag als punktuelle Niederschlagsmessung in einem Messgefäß. Ein Millimeter (Maßeinheit) entspricht der Wasserhöhe (Niederschlagshöhe) von 1 mm, die sich ergäbe, wenn kein Wasser abflösse oder verdunstete. Alternativ wird oft auch die Wassermenge (Niederschlagsmenge) in (ebene Fläche) angegeben. Ein Millimeter ist gleich einem Liter pro Quadratmeter. Jene Anteile, die nicht in Form flüssigen Wassers vorkommen, werden entweder in die entsprechende Menge desselben umgerechnet (sofern die Dichte bekannt ist), oder bei Schnee und Hagel durch leichte Erwärmung, um die Verdampfung und den Messfehler zu verringern, in Wasser umgewandelt.
Neben der direkten Berechnung vor Ort können Niederschlagsintensitäten auch durch Radarmessungen bestimmt werden. Dazu zieht man die von der Stärke des Regens abhängige Radarreflektivität heran. Über Niederschlagsradare können die gefallenen Mengen inzwischen auch flächendeckend geschätzt werden. Vor allem im Bereich des Hochwassermanagements ist dies von Bedeutung (punktuelle Messwerte verifizieren bzw. kalibrieren). Neben der reinen Niederschlags-Höhe bzw. Menge sind dabei vor allem auch die Niederschlagsintensität und die Niederschlagsdauer wichtig.
Langfristige (klimatologische) Niederschlagsmessungen lassen statistische Berechnungen zu, um die mittlere Häufigkeit von unterschiedlichen Niederschlagsereignissen (v. a. Starkregenereignisse) anzugeben, die Intensität und Dauer zueinander in Bezug setzen.
Niederschlagshöhe
Die Niederschlagshöhe wird in der Meteorologie für Regen üblicherweise in Millimeter (Wasserhöhe) angegeben und für gefrorene Niederschläge in Zentimeter. Sie gibt wiederum Aufschluss über die Niederschlagsmenge.
Mit „kleiner 0,1 mm“ wird eine Niederschlagshöhe, bzw. die daraus resultierende Niederschlagsmenge angegeben, wenn sie nicht messbar ist.
Bei Schneefall, Hagel oder Graupel wird sie in (Zentimeter) angegeben. Eine Umrechnung in die Niederschlagsmenge in Liter bzw. in die wasseräquivalente Niederschlagshöhe pro Quadratmeter kann nur nach Bestimmung der Dichte erfolgen, da bei gefrorenen Niederschlägen große Unterschiede bestehen können:
Für Schnee liegt die Dichte zum Beispiel zwischen (trockener, lockerer Neuschnee) und (stark gebundener Neuschnee): Neuschnee hat also etwa (bis – ) der Dichte von Wasser, setzt sich aber recht schnell (innerhalb von Stunden, insbesondere durch das Gewicht der darübergeschneiten Schichten) auf grob , so dass 1 Meter Neuschnee und 30 cm gesetzter Schnee etwa 100 mm Regen entsprechen.
Bei Hagel bezieht sich die Angabe der Niederschlagshöhe nur auf die Dauer eines Ereignisses und meist nur auf die Höhe der Hagelschicht am Boden (Der Niederschlag in Form von Regen wird extra angegeben). Sie wird entsprechend den Umrechnungen für lose Schüttungen in Wassermenge umgerechnet.
Niederschlagsmenge
Man betrachtet das flüssige Wasser (Niederschlagswasser), das sich bei Niederschlag (Regen, Schnee, Hagel, Nebel usw.) in einer definierten Zeitspanne (siehe auch Niederschlagsintensität) in einem nur nach oben offenen Gefäß mit definierter horizontaler Öffnung sammelt. Als Niederschlagsmenge bezeichnet man das Volumen der Flüssigkeit bezogen auf die Fläche der Öffnung und gibt sie an in Litern pro Quadratmeter (1 Liter ist 1 Kubikdezimeter). Mit der Umrechnung
kann sie auch in der Einheit Millimeter angegeben werden. Möchte man aus der Millimeter-Angabe (bzw. der Angabe in Litern pro Quadratmeter) die tatsächliche Niederschlagsmenge in Litern bezogen auf eine bekannte Sammelfläche berechnen, so muss die genannte Größe mit der waagrecht projizierten Sammelfläche in Quadratmetern multipliziert werden:
Das übliche Messintervall (es ist immer mit anzugeben) sind 24 Stunden (1 Tag), aber auch 48 oder 72 h und so fort für länger dauernde Starkregen-Ereignisse, für Schlagregen auch 1 Stunde und entsprechend mehr, aber auch bis hin zu 5 Minuten (etwa als Bemessung für Abflusseinrichtungen an Gebäuden) sowie ein Monat, eine Jahreszeit und das ganze Jahr für klimatologische Betrachtungen. In den Fällen, in denen man mehrere Standardintervalle addiert, spricht man auch von Niederschlagssumme.
Faktoren wie Verdunstung, Bodenversickerung oder Abfluss werden bei der Messung nicht berücksichtigt.
Niederschlagsdauer
Der Begriff Niederschlagsdauer steht für die Zeitdauer eines einzelnen Niederschlagsereignisses. Auf Basis der Niederschlagsdauer unterscheidet man zwischen Dauerniederschlägen und Schauern. Zudem ist sie für die Festlegung von Wiederkehrsintervallen von Starkregenereignissen und Überschwemmungsszenarien notwendig.
Niederschlagsintensität
Als Niederschlagsintensität bezeichnet man den Quotienten aus Niederschlagshöhe bzw. -menge und Zeit. Sie wird für Regen in der Regel in Millimeter pro Stunde beziehungsweise Liter je Quadratmeter (und Stunde, was oft unerwähnt bleibt), bei Schnee in Zentimeter pro Stunde angegeben.
Regen: 1 Liter pro Quadratmeter und Stunde ergibt 1 mm Regenhöhe/-menge in einer Stunde (mm/h)
Schnee: durchschnittliche Schneehöhe in Zentimeter pro Stunde (cm/h)
Andere Angaben für statistische Zwecke können noch Millimeter (bei Schnee Zentimeter) pro Tag, Woche, Monat oder Jahr sein.
Ein mittelstarker Regenschauer in Mitteleuropa hat eine Intensität um 5 mm/h, ein Starkregen um 30 mm/h oder als Platzregen 5 mm/5 min. Bei einem heftigen Unwetter kann die Regenmenge auf 50 mm/h und mehr anwachsen. Niederschlagsmengen von wenigen 100 mm in einigen Tagen (etwa 300 mm/4 d) führen schon, wenn sie großflächig sind, zu schweren Hochwasserereignissen an den großen Flüssen, aber auch an kleineren Flüssen, s.: Hochwasser in West- und Mitteleuropa 2021. Tropenstürme erreichen Werte von 130 mm/h und weit darüber.
Langfristige Niederschlagsmengen (mittlerer Niederschlag, kumulierter Niederschlag)
Für die durchschnittliche Höhe des Niederschlags im Laufe einer bestimmten Periode an einem definierten Ort oder in einer bestimmten Region existieren folgende meteorologisch-klimatologischen Ausdrücke.
Monatsniederschlag, oder auch Monatsmittel des Niederschlags, ist die gesamte Niederschlagshöhe eines bestimmten Monats gemittelt über eine bestimmte Anzahl von Jahren (meist 30 Jahre), wobei immer über diesen bestimmten Monat gemittelt wird. Die Angabe erfolgt in Millimeter pro Monat und findet Verwendung in diversen Klimadiagrammen. Bezieht man sich nur auf einen ganz bestimmten Monat, so erfolgt die Angabe inkl. des Jahres.
Jahresniederschlag, oder auch Jahresmittel des Niederschlags, ist die gesamte Niederschlagshöhe eines Jahres gemittelt über eine bestimmte Anzahl von Jahren (meist 30 Jahre). Die Angabe erfolgt in Millimeter pro Jahr und findet Verwendung in diversen Klimadiagrammen. Bezieht man sich nur auf ein ganz bestimmtes Jahr, so wird das extra angegeben.
Für die Charakteristika eines speziellen Jahres werden die gemessenen Niederschläge aufsummiert (kumuliert), und dann mit den mittleren Niederschlägen desselben Bemessungszeitraumes verglichen: So kann eine Aussage gemacht werden, ob ein Monat oder Jahr „zu nass“ oder „zu trocken“, ein Winter „schneereich“ ist, oder dass bei einem Starkregenereignis „der Normalniederschlag eines Monats in drei Tagen gefallen“ ist. Ebenso können Klimata und Jahreszeitcharakteristika verglichen werden, also etwa „wintertrocken“, „Niederschlagsmaximum im Spätsommer“.
Niederschlagsrekorde
Regen, Positivrekorde
Deutschland:
Beim Elbhochwasser im August 2002 fielen binnen 24 Stunden im Erzgebirge in Zinnwald-Georgenfeld (Sachsen) 312 Millimeter. Die Wiederkehrperiode für solche 24-stündigen Niederschläge liegt bei rund 500 Jahren; das Elbhochwasser war ein „Jahrhunderthochwasser“.
Bis dahin galten 260 Millimeter innerhalb von 24 Stunden als deutscher Rekord: vom 6. bis 7. Juli 1906 (jeweils 7 Uhr MEZ) in Zeithain, Kreis Riesa (Sachsen) und vom 7. bis 8. Juli 1954 (jeweils 7 Uhr MEZ) in Stein, Kreis Rosenheim (Oberbayern).
Regional begrenzte Extremniederschläge können auch deutlich höher liegen. So wurde für das Regenereignis am 2. Juni 2008 im baden-württembergischen Killer- und Starzeltal ein Niederschlag von rund 240 Millimeter in einer Stunde ermittelt.
Regen, Negativrekorde
Siehe auch
Ausfällbares Niederschlagswasser
Bergeron-Findeisen-Prozess
Cloud Cluster
Liste der Länder nach jährlicher Niederschlagsmenge
Literatur
Peter Bauer, Peter Schlüssel: Globale Niederschlagserfassung mit Satellitendaten. In: Die Geowissenschaften. 11. Jg., Nr. 12, 1993, S. 413–418. doi:10.2312/geowissenschaften.1993.11.413.
Weblinks
Einzelnachweise
|
Q25257
| 2,280.626495 |
3138194
|
https://de.wikipedia.org/wiki/Erlangen
|
Erlangen
|
Erlangen (Regional-Fränkisch: Erlanga) ist eine Großstadt im fränkischen Regierungsbezirk Mittelfranken des Freistaates Bayern. Die kreisfreie Stadt ist Universitätsstadt, Sitz des Landratsamts des Landkreises Erlangen-Höchstadt und mit Einwohnern (Stand ) die kleinste der insgesamt acht Großstädte Bayerns. Die Einwohnerzahl überschritt 1974 erstmals die Grenze von 100.000, wodurch Erlangen zur Großstadt wurde. Erlangen steht aktuell (Stand: Dezember 2022) auf Platz 68 der größten Städte Deutschlands.
Mit den direkt angrenzenden Städten Nürnberg und Fürth bildet Erlangen eine der drei Metropolen in Bayern. Gemeinsam mit ihrem Umland bilden diese Städte die Europäische Metropolregion Nürnberg, eine von 11 Metropolregionen in Deutschland. Erlangen bildet zusammen mit den Städten Nürnberg und Fürth außerdem ein Städtedreieck, das das Kernland des Ballungsraumes Nürnberg darstellt.
Ein in die Geschichte weit zurückreichendes, aber immer noch spürbares Element der Stadt ist die nach der Rücknahme des Edikts von Nantes im Jahre 1685 erfolgte Ansiedlung von Hugenotten. Heute wird die Stadt vor allem durch die Friedrich-Alexander-Universität Erlangen-Nürnberg und den Technologiekonzern Siemens geprägt.
Geographie
Erlangen befindet sich am Rande des mittelfränkischen Beckens. Nordöstlich und östlich erstreckt sich das Erlanger Oberland, daran anschließend befinden sich die Höhenzüge der Fränkischen Schweiz.
Die Stadt liegt im Tal der Regnitz die das Stadtgebiet von Süden nach Norden in zwei etwa gleich große Hälften teilt. Im Westen der Stadt verläuft, parallel zur Regnitz, der Main-Donau-Kanal. Nördlich der Innenstadt mündet die von Osten kommende Schwabach, im Süden der Stadt die von Westen kommende Mittlere Aurach in die Regnitz. Darüber hinaus hat die Stadt mit dem Ortsteil Tennenlohe im Süden Anteil am Knoblauchsland.
Lage und Entfernungen* der nächstgelegenen größeren Städte zu Erlangen:
* Entfernungen sind gerundete Straßenkilometer bis zum Ortszentrum.
Panoramabild
Nachbargemeinden
Folgende Gemeinden, beziehungsweise gemeindefreien Gebiete grenzen an die Stadt Erlangen, sie werden im Uhrzeigersinn, beginnend im Norden, genannt:
Das gemeindefreie Gebiet Mark, die Gemeinden Möhrendorf, Bubenreuth, Marloffstein, Spardorf und Buckenhof sowie das Waldgebiet Buckenhofer Forst (alle zum Landkreis Erlangen-Höchstadt gehörend), die kreisfreien Städte Nürnberg und Fürth, die Gemeinde Obermichelbach (Landkreis Fürth) sowie die Stadt Herzogenaurach und die Gemeinde Heßdorf (beide Landkreis Erlangen-Höchstadt).
Stadtgliederung
Erlangen besteht amtlich aus neun Stadtteilen und 40 statistischen Bezirken. Daneben ist das Stadtgebiet in zwölf grundbuch- und vermessungsrechtlich relevante Gemarkungen unterteilt, deren Grenzen weitgehend von denen der statistischen Bezirke abweichen. Bei den Gemarkungen und statistischen Bezirken handelt es sich teilweise um ehemals selbständige Gemeinden. Andererseits befinden sich darunter neuere Siedlungen, deren Bezeichnungen sich ebenfalls als Stadtteilnamen eingeprägt haben. Die traditionellen und subjektiv wahrgenommenen Grenzen der Stadtteile weichen jedoch oft von den amtlich festgelegten ab.
Stadtteile und statistische Bezirke
Gemarkungen
Die Stadt Erlangen besteht aus den folgenden Gemarkungen:
Ortslagen
Einige noch gebräuchliche Namen von historischen Ortslagen wurden bei den amtlichen Bezeichnungen nicht berücksichtigt. Beispiele sind:
Brucker Werksiedlung (in der Gemarkung Bruck)
Erba-Siedlung (in der Gemarkung Bruck, am Anger)
Essenbach (am Burgberg, nördlich der Schwabach)
Heusteg (in der Gemarkung Großdechsendorf)
Königsmühle (in der Gemarkung Eltersdorf)
Paprika-Siedlung (in der Gemarkung Frauenaurach, auf der ehemaligen Hutweide bei Schallershof)
Schallershof (in der Gemarkung Frauenaurach)
Siedlung Sonnenblick (in der Gemarkung Büchenbach)
Stadtrandsiedlung (in der Gemarkung Büchenbach)
St. Johann (im Statistischen Bezirk Alterlangen)
Werker (am Burgberg, östlich der Regnitz)
Zollhaus (östliche Innenstadt)
Klima
Durch seine Lage in Mitteleuropa befindet sich Erlangen in der kühlgemäßigten Klimazone. Der Ort ist weder eindeutig dem Kontinentalklima noch dem Maritimklima zuzuordnen. Typisch für den kontinentalen Einfluss ist der geringe Jahresniederschlag von 645 mm. Insbesondere im Herbst und Winter sorgt der Regnitzgrund häufig für Nebel. In Erlangen schlugen im Jahr 2020 97 Erdblitze ein.
Geschichte
Allgemeine Geschichte der Stadt
Ur- und Frühgeschichte
In der Urgeschichte Bayerns spielte das Regnitztal als Durchgangsweg in Nord-Süd-Richtung schon frühzeitig eine Rolle. In Spardorf wurde in Löss-Ablagerungen ein Klingenkratzer gefunden, der dem Gravettien zugeschrieben wird und damit etwa 25.000 Jahre alt ist. Aufgrund der relativ kargen Böden sind im Erlanger Raum erst am Ende der Jungsteinzeit (Endneolithikum, etwa 2800–2200 v. Chr.) Ackerbau und damit verbundene Siedlungen nachweisbar. Aus diesem Zeithorizont stammen die „Erlanger Zeichensteine“ im Mark-Forst nördlich der Stadt (mit Petroglyphen versehene Sandsteinplatten), die während der Urnenfelderzeit (1200–800 v. Chr.) sekundär wieder als Grabeinfassungen verwendet wurden.
Der 1913 untersuchte Grabhügel in der Gemarkung Kosbach enthielt Funde aus der Urnenfelderzeit sowie aus der Hallstatt- und Latènezeit. Der Fuß des Hügels stößt an den sogenannten Kosbacher Altar aus der jüngeren Hallstattzeit (etwa 500 v. Chr.), eine in dieser Form einzigartige, quadratische Steinsetzung mit vier aufrecht stehenden, figürlichen Pfeilern an den Ecken und einem ebensolchen in der Mitte. Die Rekonstruktion der Anlage kann im Gelände besichtigt werden, die mittlere Wächterfigur ist im Erlanger Stadtmuseum ausgestellt.
Von der Villa Erlangen bis zum Dreißigjährigen Krieg
Erlangen wird erstmals namentlich in einer Urkunde aus dem Jahre 1002 erwähnt. Die Herkunft des Ortsnamens Erlangen ist nicht geklärt. Versuche der Lokalforschung, den Namen von Erlen (Baumart) und Anger (Wiesengrund) abzuleiten, halten der Ortsnamenforschung nicht stand.
Bereits 976 hatte Kaiser Otto II. die Kirche St. Martin in Forchheim samt Zubehör dem Bistum Würzburg geschenkt (MGH, D. O. II., 132). König Heinrich II. bestätigte 1002 diese Schenkung (MGH, D. H. II., 3) und genehmigte deren Übertragung vom Bistum auf das neu gegründete Stift Haug. Im Gegensatz zur Urkunde Ottos II. wurde hier das Zubehör genauer beschrieben. Zu ihm gehörte auch die im Radenzgau gelegene „villa [Dorf] erlangon“'. Damals erstreckte sich der bayerische Nordgau im Westen bis zur Regnitz, im Norden bis zur Schwabach. Villa erlangon muss daher außerhalb dieser Grenzen gelegen haben und somit nicht im Bereich der heutigen Erlanger Altstadt. Da es den Ortsnamen Erlangen außer für das westlich der Regnitz gelegene, heute eingemeindete Dorf Alt-Erlangen kein zweites Mal in Deutschland gibt, kann mit der Beschreibung „erlangon […] in pago Ratintzgouui“ nur jenes Alterlangen gemeint sein. Dafür liefert die Urkunde einen zusätzlichen Beleg: Heinrich II. schenkte im Jahre 1002 darüber hinaus („partim superaddimus“) weitere Gebiete östlich der Regnitz: eine Meile von der Schwabachmündung nach Osten sowie je eine Meile von dieser Mündung regnitzaufwärts und regnitzabwärts. Diese beiden Meilenquadrate sind in der Urkunde nur durch die Längenangaben und die zwei Flussnamen beschrieben. Jeder Bezug zu einem Ort fehlt. Sie stehen in keinem Zusammenhang mit dem Zubehör von St. Martin, das die villa erlangon einschloss. Auch deswegen muss sie räumlich getrennt von dem Gebiet der Meilenquadrate gelegen haben. Größe und Umfang der beiden Meilenquadrate entsprechen etwa dem Flächenbedarf eines Dorfes zur damaligen Zeit. Das stützt die Annahme, dass zum Zeitpunkt der Beurkundung östlich der Regnitz eine Rodungssiedlung im Entstehen war, die durch diese Schenkung legitimiert werden sollte und die später, wie in vergleichbaren Fällen, den Namen der Muttersiedlung übernommen hat. Die neue Siedlung entstand auf der nach Westen vorgeschobenen, hochwasserfreien Sanddüne in einem Dreieck, das heute von Hauptstraße, Schulstraße und Lazarettstraße eingefasst wird.
15 Jahre später, 1017, bestätigte Heinrich II. einen Tauschvertrag (MGH, D. H. II., 372), durch den St. Martin samt Zubehör (einschließlich Erlangens) an das neu gegründete Bistum Bamberg fiel, bei dem es bis 1361 blieb. In diesen Jahrhunderten erscheint der Ortsname nur vereinzelt in den Quellen.
Am 20. August 1063 errichtete König Heinrich IV. auf einem Kriegszug zwei Urkunden „actum Erlangen“ (MGH, D. H. IV., 109 und 110). Die Lokalforschung schloss daraus, „Erlangen [habe] schon so bedeutend an Umfang gewonnen, daß […] Heinrich IV. im Jahr 1063 […] mit vielen Fürsten und Bischöfen einige Zeit daselbst seinen Aufenthalt nahm“ und sei deshalb Sitz eines Königshofes gewesen. Man glaubte sogar, diesen Königshof im Anwesen Bayreuther Straße 8 lokalisieren zu können. Das Königsgut wäre dann im südlichen Meilenquadrat (s. oben) gelegen und ohne Erwähnung durch die Urkunde von 1002 verschenkt worden. Auch sonst fehlt für eine solche Anlage jeder urkundliche Nachweis. Wahrscheinlich urkundete Heinrich IV. nicht im „neuen“ Erlangen, sondern in der älteren „villa erlangon“, denn „[d]ie Nord-Süd-Talstraße […] wechselte bei Bruck auf das linke Regnitzufer und verlief dann in Richtung Alterlangen, Kleinseebach-Baiersdorf nach Norden, um einen Vorspann zur Überwindung des Erlanger Burgberges zu ersparen“.
Sonst wurde Erlangen meist nur dann erwähnt, wenn es der Bischof wegen Geldmangels verpfändete. Wie sich das Dorf weiter entwickelte, ist nicht bekannt. Allein die Bezeichnung „grozzenerlang“ in einem Bischofsurbar von 1348 kann ein Hinweis sein, dass das bischöfliche Dorf die ursprüngliche villa erlangon überflügelt habe.
Im Dezember 1361 kaufte Kaiser Karl IV. vom Bamberger Bischof Lupold von Bebenburg für 2225 Pfund Heller „daz Dorf zu Erlangen mit allen rechten, nutzen vnd Zugehorungen die dorzu gehoren“ und inkorporierte es dem als Neuböhmen bezeichneten Gebiet, das ein Lehen des Königreichs Böhmen war. Unter der Krone Böhmens entwickelt sich das Dorf rasch. 1367 verbrachte der Kaiser drei Tage in Erlangen und erteilte den „burger und leute zu Erlang“ Weiderechte im Reichswald. 1374 erteilte Karl IV. „den burgern […] zu Erlanngen“ sieben Jahre Steuerfreiheit, „uff das sich unnser Stadt zu Erlanngen mer gebessern muge“. Gleichzeitig verlieh er das Marktrecht. Wahrscheinlich bald nach 1361 baute der neue Landesherr für die Verwaltung des erworbenen Besitzes westlich des Ortes die Veste Erlangen, auf der ein Amtmann residierte. König Wenzel errichtete eine Münzstätte und erhob 1398 Erlangen zur Stadt. Dazu verlieh er die üblichen Privilegien: Erhebung von Wegegeld, Bau eines Kaufhauses mit Brot- und Fleischbank sowie die Errichtung einer Stadtmauer.
Zwei Jahre später, im Jahre 1400, wählten die Kurfürsten Wenzel ab. Er verkaufte wegen Geldmangels 1402 die fränkischen Besitzungen, darunter Erlangen, an seinen Schwager, den Nürnberger Burggrafen Johann III. Von 1413 bis 1432 verpfändete der Burggraf die Stadt an den reichen Nürnberger Patrizier Franz Pfinzing. Bei der Aufteilung des burggräflichen Besitzes in Franken kam Erlangen zum obergebirgischen Fürstentum, dem späteren Fürstentum Bayreuth. Die Erlanger Münze stellte ihren Betrieb ein, weil der Münzmeister wegen Falschmünzerei in Nürnberg hingerichtet wurde.
Beim Hussiteneinfall 1431 wurde das Städtchen zum ersten Mal völlig zerstört. Die Kriegserklärung des Markgrafen Albrecht Achilles an die Stadt Nürnberg führte 1449 zum Ersten Markgräflerkrieg. Da das Heer Albrechts die Reichsstadt nicht vollständig einschließen konnten, brachen Nürnberger Truppen immer wieder aus und verwüsteten die markgräflichen Städte und Dörfer. Sie „…branten den markt am maisten zu Erlang und brochten ein grossen raub“, berichtet ein Nürnberger Chronist. Kaum hatte sich die Stadt erholt, griff Herzog Ludwig der Reiche von Bayern-Landshut 1459 den Markgrafen an. Erlangen wurde erneut überfallen und ausgeplündert, diesmal von bayerischen Truppen. In der Folgezeit erholte sich die Stadt. Von den Bauernkriegen 1525 blieb Erlangen verschont. Auch die Einführung der Reformation 1528 verlief friedlich. Als jedoch Markgraf Albrecht Alkibiades 1552 den Zweiten Markgräflerkrieg auslöste, wurde Erlangen erneut von den Nürnbergern überfallen und teilweise zerstört. Man erwog sogar, die Stadt vollständig zu schleifen. Da Kaiser Karl V. über Albrecht die Reichsacht verhängte, gliederten sich die Nürnberger Erlangen in ihr Hoheitsgebiet ein. Im Januar 1557 starb Albrecht. Sein Nachfolger, Georg Friedrich I., beantragte, die kaiserliche Sequestration über das Fürstentum Kulmbach aufzuheben und konnte bereits einen Monat später die Regierung wieder übernehmen. Unter seiner Herrschaft erholte sich die Stadt von den Kriegsschäden und blieb unbehelligt bis weit in den Dreißigjährigen Krieg hinein.
Über den Ort selbst und über die Menschen, die hier wohnten, ist aus diesem Zeitabschnitt nur wenig überliefert.
Ab 1129 treten Angehörige einer adeligen Familie „von Erlangen“ als Zeugen in Beurkundungen auf, so auch 1288. Wahrscheinlich waren sie Ministeriale derer von Gründlach. Die Familie hatte zahlreiche Besitzungen in und um Erlangen als Afterlehen der von Gründlach’schen Reichslehen. Eine Stammlinie ist trotz mehrfacher Nennungen in Urkunden nicht mehr aufstellbar. Zu Beginn des 15. Jahrhunderts ist das Geschlecht erloschen.
In einer Stiftungsurkunde von 1328 wird ein Gut erwähnt, auf dem „heinrich der alt smit“ sitzt, und zwanzig Jahre später, im bischöflichen Urbar von 1348 (s. oben), sind sieben zinsverpflichtete Grundeigentümer namentlich genannt. Erstmals im Verzeichnis des Gemeinen Pfennigs von 1497 ist die gesamte Stadt erfasst: 92 Haushalte mit 212 Erwachsenen (über 15 Jahre). Nimmt man pro Haushalt 1,5 Kinder unter 15 Jahren an, dann errechnet sich die Einwohnerschaft auf rund 350 Personen. Diese Zahl dürfte sich in der Folgezeit kaum verändert haben. Das Urbar von 1528 nennt 83 abgabepflichtige Hausbesitzer und die Türkensteuerliste von 1567 97 Haushaltsvorstände, dazu fünf unter Vormundschaft stehende Kinder. Ein vollständiges, nach Straßen geordnetes Verzeichnis aller Haushalte, auch der Mieter, hat der Altstädter Pfarrer Hans Heilig 1616 aufgestellt: Die Stadt zählte zu Beginn des Dreißigjährigen Kriegs 118 Haushalte mit ungefähr 500 Personen.
Die Erlanger Altstadt ist mehrfach völlig zerstört worden, zuletzt beim großen Brand 1706. Nur Teile der Stadtmauer in der Nördlichen Stadtmauerstraße sowie das rückwärtige Erdgeschoss des ehemaligen Badhauses (Westliche Stadtmauerstraße 31) reichen bis in die spätmittelalterliche Zeit zurück. Das Stadtbild mit seiner Straßenführung musste nach dem Brand von 1706 rigoros an das regelmäßige Straßenschema des neu erbauten „Christian-Erlang“, das bis zur Verwaltungsreform 1797 eine eigene Verwaltung (Justiz- und Kammerkollegium) hatte, angepasst werden. Nur Schulstraße, Lazarettstraße und Adlerstraße blieben davon verschont. Die tief gelegenen Keller haben jedoch alle Zerstörungen und Brände meist unversehrt überstanden. Über ihnen sind die Gebäude neu errichtet worden. Deshalb vermessen seit 1988 zwei Erlanger Architekten im Auftrag des Heimat- und Geschichtsvereins die Keller der Altstadt. Zur gleichen Zeit hat die Stadtarchäologie Erlangen im Hof des Stadtmuseums Grabungen niedergebracht. Aus beiden Maßnahmen ergibt sich ein ungefähres Bild des spätmittelalterlichen bzw. frühneuzeitlichen Ortes: Die Pfarrstraße verlief nördlicher, die nördliche Hauptstraße etwas östlicher. Die westlichen Häuser am Martin-Luther-Platz ragten verschieden stark in die heutige Fläche hinein, an seiner Ostseite verlief die Bebauung schräg von der heutigen Neuen Straße bis zum „Oberen Tor“ (zwischen Hauptstraße 90 und 91). Die östliche Stadtmauer führte ab Lazarettstraße zunächst nach Süden. Sie bog dann ab Vierzigmannstraße leicht südwestlich ab und schnitt die Grundfläche der heutigen Altstädter Kirche an der Nordostecke des Langschiffes. Fundamente dieser Mauer, die genau in der beschriebenen Richtung verlaufen, sind bei den Grabungen im Hof des Stadtmuseums entdeckt worden. Außerhalb des Oberen Tores siedelte sich die Obere Vorstadt (ab Hauptstraße 88 und 89 bis zur Kreuzung Engelstraße) an. Vor dem Bayreuther Tor lag die Untere Vorstadt (Bayreuther Straße bis Essenbacher Straße) mit der Mühle an der Schwabach. Im Westen der Stadt erhob sich die Veste.
Gründung der Neustadt 1686
Nach dem Dreißigjährigen Krieg wurde das Städtchen relativ rasch wieder aufgebaut. Bereits am 2. Dezember 1655 erfolgte die Weihe der Pfarrkirche auf den Titel Heilige Dreifaltigkeit. Die Situation änderte sich 1685, als der französische König Ludwig XIV. das Edikt von Nantes widerrief, das den calvinistischen Untertanen – von ihren Gegnern Hugenotten genannt – seit 1598 Glaubensfreiheit gewährt hatte. Der Widerruf löste eine Flüchtlingswelle von ca. 180.000 Hugenotten aus, die sich vor allem in den Vereinigten Niederlanden, den britischen Inseln, der Schweiz, in Dänemark, Schweden und in einigen deutschen Fürstentümern niederließen. Eine geringe Anzahl der Glaubensflüchtlinge ging später nach Russland sowie in die niederländischen und britischen Kolonien.
Diese Situation nutzte auch Markgraf Christian Ernst und bot den Flüchtlingen das Recht auf Ansiedlung in seinem noch an den Folgen des Dreißigjährigen Krieges leidenden Fürstentum an, um im Sinne des Merkantilismus dessen Wirtschaft durch die Ansiedlung moderner Gewerbe zu fördern. Er war damit einer der ersten lutherischen Fürsten in Deutschland, der Calvinisten in seinem Land aufnahm und ihnen sogar freie Religionsausübung zusicherte. Die ersten sechs Hugenotten erreichten Erlangen am 17. Mai 1686, etwa 1500 folgten in mehreren Wellen. Daneben kamen auch einige hundert Waldenser, die sich jedoch nicht halten konnten und 1688 weiterzogen. Noch bevor abzusehen war, mit wievielen Flüchtlingen gerechnet werden konnte, beschloss der Markgraf, südlich des seither Altstadt Erlangen genannten Städtchens die Neustadt Erlangen als rechtlich eigenständige Siedlung zu gründen. Mit dem rationalen Motiv, die Wirtschaft des eigenen Landes zu fördern, verband sich in für den Absolutismus typischerweise die Hoffnung auf den Ruhm als Stadtgründer.
Die neue Stadt lag sehr günstig an einer der wichtigsten Handels- und Fernstraßen von und nach Nürnberg. Von der nahen Regnitz wollte man Wasser für einen für bestimmte Gewerbe notwendigen Kanal ableiten, was aber am sandigen Boden scheiterte. Den auf den ersten Blick einfachen, tatsächlich aber außerordentlich differenzierten und höchst anspruchsvollen Grundriss der unter Anwendung des „Goldenen Schnitts“ nach idealen Gesichtspunkten konstruierten Planstadt entwarf der markgräfliche Oberbaumeister Johann Moritz Richter. Die rechteckige Anlage ist charakterisiert durch die als Symmetrieachse ausgebildete Hauptstraße, an der zwei ungleich große Plätze liegen, und die den inneren Kern umschließende „Grande Rue“, deren als rechte Winkel ausgebildete geschlossene Ecken wie Scharniere wirken, die der ganzen Anlage Festigkeit und Geschlossenheit verleihen. Wie der Plan zeigt, kam es nicht auf die individuelle Gestaltung des einzelnen Gebäudes an, sondern auf die übergreifende Einheitlichkeit der ganzen Stadt. Noch heute wird der historische Kern von den einheitlichen, relativ schmucklosen Fassaden der zwei- und dreigeschossigen in schnurgeraden Reihen mit der Traufseite zur Straße stehenden Häuser geprägt. Der Bau der Stadt begann am 14. Juli 1686 mit der Grundsteinlegung zum temple, der Hugenottenkirche. Im ersten Jahr wurden etwa 50 der geplanten 200 Häuser fertiggestellt. Da der Zuzug der Hugenotten nicht den Erwartungen entsprach, weil sich deren Flüchtlingsmentalität erst ab 1715 in eine Einwanderermentalität wandelte, als die Friedensverträge nach dem Spanischen Erbfolgekrieg eine Rückkehr nach Frankreich ausschlossen, aber auch weil der Markgraf als Feldherr von 1688 bis 1697 im Pfälzer Erbfolgekrieg gegen Frankreich engagiert war, stagnierte der weitere Ausbau jedoch. Er erhielt erst ab 1700 durch den Bau des markgräflichen Schlosses und der Entwicklung Erlangens zur Residenzstadt und einer der sechs Landeshauptstädte neue Impulse. Nachdem am 14. August 1706 ein Großbrand fast die gesamte Altstadt Erlangens zerstört hatte, wurde sie nach dem Vorbild der Neustadt mit begradigten Straßen- und Platzfronten und einem zweigeschossigen, etwas individueller gestalteten Haustypus wieder aufgebaut. In Erlangen kam es damit zu dem in der Geschichte der europäischen Idealstädte wohl einzigartigen Sonderfall zweier benachbarter Planstädte, von denen die eigentlich ältere, die noch bis 1812 selbständig verwaltete Altstadt Erlangen, baugeschichtlich jünger ist als die Neustadt Erlangen.
Die Neustadt wurde ab 1701 nach ihrem Gründer Christian-Erlang genannt. Sie wurde nicht nur zum Ziel der Hugenotten, sondern auch von Lutheranern und Deutsch-Reformierten, denen jeweils dieselben Privilegien wie den Hugenotten verliehen worden waren. 1698 lebten 1000 Hugenotten und 317 Deutsche in Erlangen. Aufgrund der Zuwanderung wurden die Hugenotten jedoch bald zu einer französisch sprechenden Minderheit in einer deutschen Stadt. Der französische Einfluss nahm in der Folgezeit weiter ab. So wurde 1822 zum letzten Mal ein Gottesdienst in der Hugenottenkirche in französischer Sprache gehalten.
Eine der ersten Schankgenehmigungen für Wein und Bier in Christian-Erlang erhielt der französische Glaubensflüchtling Paul du Vivier. Sein Wirtshaus war „in der Hauptgasse gegen der alten Stadt zu zwischen Herrn Martels (3 gärtig) und Herrn Jean Trinques halben Haus gelegen“. In Christian-Erlang erhielt per Dekret vom 29. August 1718 Jean Trinques das Recht, der alleinige „Maitre au Caffé“ der Stadt zu sein und war somit der erste Kaffeehaus-Betreiber Erlangens. Im Jahr 1731 bekam dann auch der ebenfalls in Christian-Erlang lebende Perückenmacher André Grenard eine im August 1730, wie zuvor du Vivier, vom Markgrafen Georg Friedrich Karl genehmigte Konzession zum Bier-, Wein-, Likör, Tee-, Schokolade- und Kaffeeausschank. Der „Mundkoch“ der verwitweten Markgräfin Sophia, Johann Albrecht Grunauer, war Gastwirt des „Schwarzen Adler“ in Christian-Erlang und wurde überregional bekannt durch ein von ihm verfasstes und 1733 in Nürnberg gedrucktes und verlegtes Kochbuch. Im Sommer 1732 hatte auch Grunauer die Erlaubnis erhalten im Schwarzen Adler als Kaffeesieder tätig zu werden.
Königreich Bayern
1792 gelangte Erlangen mit dem Fürstentum Bayreuth zum Königreich Preußen und 1806 durch den Sieg Napoleons in der Schlacht bei Jena und Auerstedt als Provinz unter französische Herrschaft. 1810 wurde das Fürstentum Bayreuth für 15 Millionen Franken an das verbündete Königreich Bayern verkauft. 1812 wurden Altstadt und Neustadt – bis dahin weiterhin Christian-Erlang genannt – zu einer Stadt vereinigt, die den Namen Erlangen erhielt. In der Folgezeit kam es zu einem raschen Ausbau von Stadt und Infrastruktur. Vor allem die Eröffnung des Ludwig-Donau-Main-Kanals und der Eisenbahnverbindungen sowie die Garnison und die Universität gaben der Stadtentwicklung wichtige Impulse.
Bereits bei der bayerischen Gemeindereform von 1818 erhielt die Stadt eine eigene Verwaltung, was man später als „kreisfrei“ bezeichnete. 1862 wurde das Bezirksamt Erlangen gebildet, aus dem der Landkreis Erlangen hervorging.
Weimarer Republik
Hochinflation, Reparationszahlungen und Weltwirtschaftskrise bescherten den demokratiefeindlichen Parteien NSDAP, DNVP und KPD nach der Niederlage im Ersten Weltkrieg (in diesem Krieg waren mehr als 700 Einwohner Erlangens ums Leben gekommen) auch in Erlangen einen starken Zulauf. Es etablierte sich eine Zwei-Klassen-Gesellschaft, die durch Industrieansiedlungen noch verstärkt wurde. Bei den Stadtrats-, Landtags- und Reichstagswahlen konnte die SPD zunächst eine relativ stabile Mehrheit um 40 % halten. Demgegenüber standen die Parteien der Mitte und der Rechten, deren Anhänger aus dem Mittelstand, der Universität und dem Beamtentum kamen. Die NSDAP war ab 1924 im Stadtrat vertreten. Sie beherrschte ab 1929 als erste innerhalb der deutschen Hochschullandschaft die Studentenvertretung der Universität. Diese war zu dieser Zeit ein Zentrum nationalistischer und antidemokratischer Gesinnung. Viele Studenten und Professoren wurden geistige Wegbereiter des Nationalsozialismus.
Ab 1930 eskalierte die politische Situation, angefacht durch die von der Weltwirtschaftskrise ausgelöste Massenarbeitslosigkeit. Es kam zu Aufmärschen und Straßenkämpfen der rechten und linken Verbände. Trotz des starken Zulaufs der NSDAP konnte die SPD bei der Reichstagswahl 1933 34 % der Stimmen gewinnen (reichsweit: 18,3 %).
Nationalsozialismus
Nach der Machtergreifung der NSDAP kam es auch in Erlangen zu Boykotten jüdischer Geschäfte, zur Schändung und Zerstörung des dem jüdischen Professor und Erlanger Ehrenbürger Jakob Herz gewidmeten Denkmals auf dem Hugenottenplatz und zu Bücherverbrennungen. Der von der NSDAP beherrschte Stadtrat ernannte Reichskanzler Hitler, Reichspräsident von Hindenburg und Gauleiter Streicher zu Ehrenbürgern, die Hauptstraße wurde in Adolf-Hitler-Straße umbenannt. In der Reichspogromnacht wurden die jüdischen Familien aus Erlangen (zwischen 42 und 48 Personen), Baiersdorf (drei Personen) und Forth (sieben Personen) im Hof des damaligen Rathauses (Palais Stutterheim) zusammengetrieben und erniedrigt, ihre Wohnungen und Läden teilweise zerstört und ausgeplündert, danach die Frauen und Kinder in die Wöhrmühle, die Männer ins Amtsgerichtsgefängnis und dann nach Nürnberg ins Gefängnis verbracht. Wer in der folgenden Ausreisewelle Deutschland nicht verlassen konnte, wurde in Konzentrationslager deportiert, wo die meisten umkamen. 1944 wurde die Stadt als „judenfrei“ deklariert, während sich hier ein vom Polizeichef geschützter „Halbjude“ bis Kriegsende aufhielt.
Die akademische Gemeinschaft unterstützte zum großen Teil die NS-Politik, einen aktiven Widerstand der Universität gab es nicht. In der Heil- und Pflegeanstalt (heute Teil des Klinikums am Europakanal) kam es zu Zwangssterilisationen sowie Selektionen von Kranken für die nationalsozialistische „Euthanasie-Morde (Aktion T4)“.
Ab 1940 wurden Kriegsgefangene und Zwangsarbeiter in den Erlanger Rüstungsbetrieben eingesetzt. 1944 machten diese 10 % der Erlanger Bevölkerung aus. Die Unterbringung in Barackenlagern sowie die Behandlung waren menschenverachtend.
Als eine der ersten Städte in Bayern begann Erlangen 1983 in einer Ausstellung im Stadtmuseum mit der Aufarbeitung seiner Geschichte im Nationalsozialismus. Im selben Jahr wurden Adolf Hitler und Julius Streicher das mit dem Tod automatisch erloschene Ehrenbürgerrecht als symbolische Geste der Distanzierung zusätzlich offiziell aberkannt.
Im Zweiten Weltkrieg wurde Erlangen durch Bombenabwürfe zu 4,8 % zerstört; 445 Wohnungen wurden restlos vernichtet. Beim Anrücken der überlegenen amerikanischen Truppen am 16. April 1945 übergab der örtliche Kommandant der deutschen Truppen, Oberstleutnant Werner Lorleberg, die Stadt kampflos und vermied so einen ebenso aussichtslosen wie verlustreichen Häuserkampf im Stadtgebiet. Lorleberg selbst, der bis zuletzt als Anhänger des nationalsozialistischen Regimes galt, kam am selben Tag bei der Thalermühle ums Leben. Ob er von deutschen Soldaten erschossen wurde, als er eine versprengte Kampfgruppe zur Aufgabe bewegen wollte, oder ob er sich dort nach Überbringung der Kapitulationsnachricht selbst tötete, ist nicht abschließend geklärt. An ihn erinnert in Erlangen der nach ihm benannte Lorlebergplatz. Der Vermerk über Lorleberg, der an dem Platz angebracht ist, weist auf dessen „Tod dafür“ hin, der Erlangen vor der Vernichtung bewahrt habe.
Nach der Übergabe der Stadt beschädigten zunächst amerikanische Panzer das letzte erhaltene Stadttor (das 1717 erbaute Nürnberger Tor) schwer, kurz darauf wurde es gesprengt. Das geschah wohl auch auf Betreiben von in der Hauptstraße ansässigen Geschäftsinhabern, die ebenso wie die durchziehenden amerikanischen Truppen das barocke Tor wegen seiner relativ schmalen Durchfahrt als Verkehrshindernis empfanden. Die anderen Stadttore waren bereits im 19. Jahrhundert abgerissen worden.
Nach dem Zweiten Weltkrieg
Bei der Kreis- und Gebietsreform 1972 wurde der Landkreis Erlangen mit dem Landkreis Höchstadt an der Aisch vereinigt. Erlangen selbst blieb kreisfreie Stadt und wurde Verwaltungssitz des neuen Landkreises, der die Stadt im Westen, Norden und Osten umschließt. Durch Eingliederung von Umlandgemeinden wurde die Stadt erheblich vergrößert, so dass sie im Jahre 1974 die 100.000-Einwohner-Grenze überschritt und damit zur Großstadt wurde.
Aufgrund seiner überaus erfolgreichen Politik, einen Ausgleich zwischen Ökonomie und Ökologie zu schaffen, erhielt Erlangen 1990 und 1991 den Titel „Bundeshauptstadt für Natur- und Umweltschutz“. Als erster deutscher Preisträger und als erste Gebietskörperschaft wurde es 1990 in die Ehrenliste der Umweltbehörde der Vereinten Nationen aufgenommen. Aufgrund des überdurchschnittlich hohen Anteils von medizinischen und medizintechnischen Einrichtungen und Firmen im Verhältnis zur Zahl der Einwohner entwickelte Oberbürgermeister Siegfried Balleis bei seinem Amtsantritt 1996 die Vision, Erlangen bis 2010 zur „Bundeshauptstadt der medizinischen Forschung, Produktion und Dienstleistung“ zu entwickeln.
21. Jahrhundert
Im Jahr 2002 feierte Erlangen sein tausendjähriges Bestehen.
Am 25. Mai 2009 erhielt die Stadt den 2007 im Rahmen einer vom Bundesministerium für Familie, Senioren, Frauen und Jugend, dem Bundesministerium des Innern und dem Beauftragten der Bundesregierung für Migration, Flüchtlinge und Integration zur Stärkung des Engagements der Gemeinden für kulturelle Vielfalt ins Leben gerufenen Initiative von der Bundesregierung den Titel „Ort der Vielfalt“ verliehen.
2015 fand in Erlangen der 10. Tag der Franken statt, der unter dem Motto „Fremde in Franken“ stand. In einer umfassenden Ausstellung wurde dargelegt, wie zu allen Zeiten Einwanderer nach Franken kamen und hier heimisch wurden.
2023 wurde beschlossen, dass Erlangen als eine der ersten Städte Deutschlands den Nahverkehr in der Innenstadt ab 2024 kostenlos anbietet.
Geschichte der Erlanger Garnison
Bis in das 18. Jahrhundert wurden die Soldaten des Markgrafen bei Einsätzen im Erlanger Raum bei Privatleuten einquartiert. Nach dem Übergang in das Königreich Bayern 1810 bemühte die Stadt sich vor allem aus wirtschaftlichen Gründen mehrfach um die Einrichtung einer Garnison, zunächst jedoch ohne Erfolg. Als 1868 die allgemeine Wehrpflicht mit der Option eingeführt wurde, gleichzeitig Militärdienst zu leisten und studieren zu können, wurde die Garnison zu einem lebenswichtigen Standortfaktor für die Stadt und vor allem für die Universität. Ein erneutes Gesuch hatte Erfolg, so dass am 12. März 1868 das 6. Jägerbataillon in Erlangen einzog. Die Bayerische Armee war in verschiedenen städtischen Gebäuden untergebracht und nutzte u. a. den heutigen Theaterplatz für ihre Übungen. Zudem wurde im Meilwald ein Schießstand eingerichtet.
Im Jahre 1877 wurde in der Bismarckstraße die erste Kaserne (Jägerkaserne) fertiggestellt. Ein Jahr später wurde das Jägerbataillon durch das III. Bataillon des Königlich Bayerischen 5. Infanterie-Regiments Großherzog von Hessen abgelöst. Im Jahre 1890 kam es zur Stationierung des gesamten 19. Infanterie-Regiments, welche den Bau der Infanteriekaserne sowie des Exerzierplatzes nach sich zog. 1893 wurde in der Nordwestecke des Exerzierplatzes ein „Barackenkasernement“ eingerichtet und ab 1897 als Garnisonslazarett genutzt. Am 1. Oktober 1901 zog dann noch das 10. Feldartillerieregiment in die Stadt, für das die Artilleriekaserne errichtet wurde. Zu diesem Zeitpunkt hatte die Stadt ca. 24.600 Einwohner, 1160 Studenten sowie nun insgesamt 2200 Soldaten, denen die Bevölkerung vor allem nach den militärischen Erfolgen 1870/71 gegen Frankreich eine hohe Wertschätzung entgegenbrachte.
Im Ersten Weltkrieg kämpften beide Erlanger Regimenter, die der 5. bayerischen Infanteriedivision unterstellt waren, ausschließlich an der Westfront. Über 3.000 Soldaten verloren ihr Leben. Nach dem Krieg behielt Erlangen seinen Status als Garnisonsstadt. Da der Friedensvertrag von Versailles eine Reduzierung des Heeres auf 100.000 Soldaten vorschrieb, verblieben nur das Ausbildungs-Bataillon des 21. (Bayerisches) Infanterie-Regiments der neu gegründeten Reichswehr in der Stadt.
In der Zeit des Nationalsozialismus führte die Wiedereinführung der allgemeinen Wehrpflicht 1935 und die Aufrüstung der Wehrmacht auch in Erlangen zu einer massiven Erweiterung der militärischen Anlagen. So wurden die Rheinlandkaserne, in der nacheinander verschiedene Infanterie-Verbände stationiert waren, die Panzerkaserne, in der das Panzer-Regiment 25 ab Oktober 1937 lag, ein Verpflegungsamt, ein Munitions- und Gerätelager sowie ein Standortübungsplatz im Reichswald bei Tennenlohe errichtet.
Der Einmarsch von Truppen der 7. US-Armee am 16. April 1945 bedeutete für Erlangen nicht nur das Ende des Zweiten Weltkrieges, sondern auch das Ende als Standort für deutsche Truppen. Stattdessen bezogen nun US-amerikanische Verbände die unzerstört gebliebenen Militäreinrichtungen, die seit der Reaktivierung der 7. US-Armee 1950/51 sogar noch beträchtlich erweitert wurden: Der Bereich der nunmehrigen Ferris Barracks (benannt nach dem 1943 in Tunesien gefallenen Lt. Geoffrey Ferris) wurde auf 128 Hektar ausgedehnt, der Wohnbereich für die Soldaten und ihre Angehörigen auf 8,5 Hektar und der Übungsplatz in Tennenlohe auf 3240 Hektar. Im Durchschnitt waren in den 1980er Jahren etwa 2500 Soldaten sowie 1500 Angehörige in Erlangen stationiert.
Die Erlanger Bevölkerung begegnete der Anwesenheit der Amerikaner von Anfang an mit gemischten Gefühlen. Zwar begrüßte man deren Schutzfunktion im Kalten Krieg sowie die mit der Stationierung verbundenen Arbeitsplätze, doch waren die häufigen Konflikte der Soldaten mit der Zivilbevölkerung sowie zahlreiche Manöver ein ständiger Stein des Anstoßes. Zu ersten offenen Protesten kam es während des Vietnamkrieges. Diese richteten sich gegen das Übungsgelände und den Schießplatz in Tennenlohe, wo auch Atomwaffen vermutet wurden, sowie gegen die Munitionsbunker im Reichswald. Helmut Horneber, der für das amerikanische Übungsgelände lange Jahre als Forstdirektor zuständig gewesen war, wies 1993 darauf hin, wie vorbildlich die amerikanischen Truppen die Waldflächen geschützt hätten.
Aufgrund der zahlreichen Probleme gab es bereits Mitte der 1980er Jahre Überlegungen, die Garnison aus dem Stadtbereich zu verlagern. Nach der Öffnung der innerdeutschen Grenze 1989 verdichteten sich die Anzeichen eines bevorstehenden Abzugs. 1990/91 wurden die in Erlangen stationierten Truppen (im Rahmen des VII. US-Korps) zum Einsatz in den Golfkrieg abkommandiert. Nach dessen Ende begann die Auflösung des Standortes, die bis Juli 1993 vollzogen war. Am 28. Juni 1994 wurden die Liegenschaften offiziell dem Bund übergeben. Damit endete die 126-jährige Geschichte Erlangens als Garnisonsstadt.
Geschichte der Erlanger Universität
Das zweite für die Entwicklung Erlangens entscheidende Ereignis war, neben der Gründung der Neustadt, die Gründung der Universität. Bereits zu Zeiten der Reformation existierten dazu entsprechende Pläne, doch erst 1742 stiftete Markgraf Friedrich von Brandenburg Bayreuth eine Universität für die Residenzstadt Bayreuth, die bereits 1743 nach Erlangen verlegt wurde. Die mit bescheidenen Mitteln ausgestattete Einrichtung fand zunächst keinen rechten Anklang. Erst als Markgraf Alexander von Brandenburg-Ansbach-Bayreuth sie auf eine breitere wirtschaftliche Basis stellte, erhöhte sich die Studentenzahl langsam. Dennoch blieb sie unter 200 und sank bei der Eingliederung des Markgrafentums in das Königreich Bayern auf etwa 80 ab. Die drohende Schließung wurde nur deswegen abgewendet, weil Erlangen die einzige lutherische theologische Fakultät des Königreiches besaß.
Der Aufschwung kam wie bei den anderen deutschen Universitäten zu Beginn der 1880er Jahre. Die Studentenzahlen stiegen von 374 am Ende des Wintersemesters 1869/70 auf 1000 im Jahr 1890. Lagen in den Anfangsjahren die Jurastudenten vorn, so war zu Beginn der bayrischen Zeit die Theologische Fakultät am beliebtesten. Diese wurde erst 1890 von der Medizinischen Fakultät überholt. Die Zahl der ordentlichen Professoren stieg von 20 im Jahre 1796 auf 42 im Jahre 1900, von denen fast die Hälfte von der Philosophischen Fakultät angestellt waren, zu der auch die Naturwissenschaften zählten. Diese bildeten erst ab 1928 eine eigene Fakultät. Aktuell gibt es 38.494 Studenten, 261 Studiengänge und 585 Professorinnen und Professoren (Stand: Wintersemester 2019/2020). Die FAU ist die drittgrößte Universität in Bayern und die zwölftgrößte in Deutschland.
1897 wurden die ersten Frauen zum Studium zugelassen, die erste Promotion einer Frau fand 1904 statt. Nach ihrem Gründer Markgraf Friedrich und nach ihrem Förderer Markgraf Alexander erhielt die Universität den Namen Friedrich-Alexander-Universität.
1818 gelangte das markgräfliche Schloss mit dem Schlossgarten in den Besitz der Universität. Ab der zweiten Hälfte des 19. Jahrhunderts wurde an den Rändern des Schlossgarten mehrere größere Universitätsgebäude errichtet, so das Kollegienhaus sowie das Universitätskrankenhaus.
Die Weltkriege überstand die Universität in ihrer Bausubstanz vergleichsweise unbeschadet. Die von der amerikanischen Besatzungsmacht betriebene Entnazifizierung führte nach Kriegsende zur Amtsenthebung zahlreicher Hochschullehrer. Diese wurden u. a. durch Aufnahme von Professoren aus den ehemaligen Ostgebieten ersetzt, was zu einem Wechsel von einem überwiegend protestantischen Lehrkörper zu einem mehrheitlich katholischen führte.
Die Nachkriegszeit führte zu einer weiteren Expansion, nicht nur der Studentenzahlen, sondern auch der Lehrstühle. Vor allem die Zusammenarbeit mit der nach Erlangen zugezogenen Siemens AG gab dem weiteren Ausbau entscheidende Impulse und führte u. a. zum Bau des Südgeländes für die technischen und naturwissenschaftlichen Fakultäten. 1961 wurde die Hindenburg-Hochschule Nürnberg als Wirtschafts- und Sozialwissenschaftliche Fakultät und 1972 die Pädagogische Hochschule Nürnberg als Erziehungswissenschaftliche Fakultät integriert. Der Name der Universität wurde daraufhin in Friedrich-Alexander-Universität Erlangen-Nürnberg geändert.
Die Studentenrevolte der 1960er Jahre kam mit leichter Verspätung und deutlich abgeschwächt nach Erlangen.
Eingemeindungen
Ehemals selbständige Gemeinden und Gemarkungen, die in die Stadt Erlangen eingegliedert wurden:
1. Mai 1919: Sieglitzhof (Gemeinde Spardorf)
1. April 1920: Alterlangen (Gemeinde Kosbach)
1. August 1923: Büchenbach inklusive Weiler Neumühle
15. September 1924: Bruck
1960: Teile von Eltersdorf
1. Januar 1967: Kosbach inklusive Häusling und Steudach
1. Juli 1972: Eltersdorf, Frauenaurach, Großdechsendorf, Hüttendorf, Kriegenbrunn, Tennenlohe sowie die bis dahin gemeindefreien Gebiete Klosterwald und Mönau
1. Juli 1977: Königsmühle (Stadt Fürth)
Vor allem die Eingemeindungen während der Gemeindereform im Jahre 1972 haben wesentlich dazu beigetragen, dass Erlangen 1974 die 100.000-Einwohner-Grenze überschritt und damit offiziell Großstadt wurde.
Bevölkerungsentwicklung
Im Mittelalter und am Beginn der Neuzeit lebten nur wenige Hundert Menschen in Erlangen. Durch zahlreiche Kriege, Seuchen und Hungersnöte stieg die Einwohnerzahl nur langsam. Infolge der Zerstörung im Dreißigjährigen Krieg verödete der Ort 1634 vollständig. Erst 1655 lebten mit 500 Einwohnern in Erlangen wieder so viele wie vor dem Krieg. Am 8. März 1708 wurde Erlangen zur sechsten Landeshauptstadt erhoben. Bis 1760 stieg die Bevölkerung auf über 8000. Durch die Hungersnöte 1770 bis 1772 sank die Bevölkerung bis 1774 auf 7724. Nach einem Anstieg bis 1800 auf 10.000 Personen ging die Einwohnerzahl Erlangens infolge der napoleonischen Kriege bis 1812 auf 8592 zurück.
Im Lauf des 19. Jahrhunderts verdoppelte sich diese Zahl bis 1890 auf 17.559. Auf Grund zahlreicher Eingemeindungen stieg die Bevölkerung der Stadt bis 1925 auf 30.000 und verdoppelte sich bis 1956 auf 60.000. Durch die Kreis- und Gebietsreform 1972 überschritt die Einwohnerzahl der Stadt 1974 erstmals die Grenze von 100.000, wodurch sie zur Großstadt wurde. Nach einem leichten Bevölkerungsrückgang in den 1980er-Jahren ist Erlangen seit 1990 ununterbrochen Großstadt.
Die folgende Übersicht zeigt die Einwohnerzahlen nach dem jeweiligen Gebietsstand. Bis 1820 handelt es sich meist um Schätzungen, danach um Volkszählungsergebnisse (¹) oder amtliche Fortschreibungen des Statistischen Landesamtes. Die Angaben beziehen sich ab 1871 auf die „Ortsanwesende Bevölkerung“, ab 1925 auf die Wohnbevölkerung und seit 1987 auf die „Bevölkerung am Ort der Hauptwohnung“. Vor 1871 wurde die Einwohnerzahl nach uneinheitlichen Erhebungsverfahren ermittelt.
¹ Volkszählungsergebnis
Religionen
Konfessionsstatistik
Gemäß der Volkszählung 2011 waren 33,1 % der Einwohner evangelisch, 31,0 % römisch-katholisch und 35,8 % waren konfessionslos, gehörten einer anderen Glaubensgemeinschaft an oder machten keine Angabe. In Erlangen sind evangelische und katholische Christen inzwischen gleich stark vertreten. Ende 2021 waren 25,2 % der Einwohner evangelisch, 24,8 % katholisch und 50,0 % gehörten einer sonstigen oder keiner Glaubensgemeinschaft an. Die Zahl der Protestanten und Katholiken ist demnach im beobachteten Zeitraum gesunken.
Christentum
Vor der Reformation
Die Bevölkerung Erlangens gehörte anfangs zum Bistum Würzburg, ab 1017 zum Bistum Bamberg.
Lange Zeit glaubte die Lokalforschung, die älteste Kirche Erlangens sei – Jahrhunderte vor der urkundlichen Ersterwähnung des Ortes im Jahr 1002 – auf dem Martinsbühl errichtet worden. Diese Annahme kann durch keinerlei Quellen belegt werden. Urkundlich bezeugt als erste Kirche im heutigen Stadtgebiet ist dagegen bereits 996 die Kirche des Königshofes Büchenbach.
In Erlangen selbst gibt ein Grundstücksgeschäft aus dem Jahre 1288 den ersten Hinweis auf kirchliches Leben, denn es wurde „in cimiterio“, also auf einem Friedhof beurkundet. Friedhöfe wurden damals immer um Kirchen herum angelegt (Kirchhof), und diese Kirche – das folgt aus späteren Quellen – stand dort, wo heute die Altstädter Kirche am Martin-Luther-Platz steht. Knochenfunde bei Tiefbauarbeiten – zuletzt 2003 bei der Umgestaltung des Martin-Luther-Platzes – bestätigen diese Anlage des mittelalterlichen Kirchhofes. In der Folgezeit sind zahlreiche Stiftungen für diese Kirche zu „heil und nucz“ der Seelen bezeugt. Ihr Patrozinium, „frawenkirchen“ (Frauenkirche, somit der Hl. Maria geweiht) ist aus einer Zuwendung von 1424 zu erfahren.
1435 wurde die Kirche – bis dahin Filialkirche von St. Martin in Forchheim – zu einer eigenen Pfarrei erhoben. Hauptaufgabe des Erlanger Pfarrers war die Seelsorge in der Stadt Erlangen und der jetzt erstmals genannten St. Martins-Kapelle auf dem Martinsbühl. Weiter bestimmt die Erhebungsurkunde die seelsorgerische Betreuung auch der umliegenden Dörfer Bubenreuth, Bräuningshof, Marloffstein, Spardorf und Sieglitzhof, deren Einwohner „ab antiquo“ also von alters her, die Marienkapelle besuchten, aus dieser seelsorgerisch betreut und mit den Sakramenten versehen zu werden pflegten. Dieser Zusatz bestätigt, dass es an der Frauenkirche schon vor der Erhebung zur Pfarrkirche mindestens einen Vikar gegeben hat. Das kirchliche Leben war der Zeit entsprechend ausgeprägt und vielfältig. Neben dem Pfarrer gab es noch zwei Vikare für die Früh- und Mittelmesse. Ob die finanziell sehr schlecht ausgestatteten Messbenefizien immer besetzt waren, ist nicht bekannt. Mit der Einführung der Reformation durch Markgraf Georg den Frommen erlosch 1528 in Erlangen das kirchliche katholische Leben vollständig und für lange Jahre. Nur Weniges ist aus dieser Zeit auf unsere Tage gekommen: fünf Heiligenfiguren aus der früheren Marienkirche, die heute an der nördlichen Altarwand in der Altstädter Dreifaltigkeitskirche aufgestellt sind, ein Messbecher und das Reiterstandbild des Heiligen Martin, das alljährlich am 11. November in der Martinsbühler Kirche ausgestellt wird.
Evangelische Kirchen
1528 wurde von Bürgermeister und Rat der erste lutherische Pfarrer verpflichtet und damit die Reformation eingeführt, so dass Erlangen über viele Jahre eine evangelische Stadt blieb. Nach der Rücknahme des Edikts von Nantes im Jahre 1685 erfolgte Ansiedlung von Hugenotten in Erlangen durch Markgraf Christian Ernst.
In der 1686 von diesem für die französischen Glaubensflüchtlinge gegründeten Neustadt gab es nur reformierte Gemeinden. Die französisch-reformierte Gemeinde gab es ab 1686 und nach der Ansiedlung von reformierten Flüchtlingen aus der deutschsprachigen Schweiz und der Pfalz wurde 1693 auch eine deutsch-reformierte Gemeinde gegründet.
1802 wurden die evangelischen Gemeinden Erlangens dem königlich-preußischen Konsistorium in Ansbach unterstellt und nach dem Übergang der Stadt an Bayern wurden sie Teil der Protestantischen Kirche des Königreichs Bayern, die zunächst lutherische und reformierte Gemeinden umfasste. Gleichzeitig wurde Erlangen Sitz eines Dekanats, das alle Gemeinden unter sich vereinigte.
1853 erhielten die reformierten Gemeinden Bayerns eine eigene Synode und 1919 trennten sie sich formell von der Evangelischen Kirche Bayerns. Seither gab es in Bayern zwei evangelische Landeskirchen, die Evangelisch-Lutherische Kirche in Bayern und die „Reformierte Synode in Bayern rechts des Rheins“, die sich seit 1949 „Evangelisch-reformierte Kirche in Bayern“ nannte. Letztere hatte in Erlangen über viele Jahre den Sitz ihres Moderamens. Durch die Vereinigung der deutsch-reformierten und der ehemals französisch-reformierten Gemeinde gab es seit 1920 in Erlangen nur noch eine reformierte Gemeinde, aber mehrere lutherische Gemeinden. Die lutherischen Gemeinden gehören heute noch zum Dekanat Erlangen, das als Dekanat für beide Konfessionen gegründet worden war und seit 1919 nur noch die lutherischen Gemeinden betreut. Es ist Teil des Kirchenkreises Nürnberg.
Die reformierte Gemeinde Erlangen ist inzwischen Teil der Evangelisch-reformierten Kirche. Hier gehört sie zum Synodalverband XI.
Als besondere Gemeindeformen existieren in der lutherischen Kirche die Landeskirchlichen Gemeinschaften mit eigenen Gottesdiensten und Angeboten. Seit 1993 gibt es die ELIA Gemeinde. Diese entstand aus einem Konflikt in der Gemeinde in Bruck um die Charismatische Bewegung. Zunächst stand das Kürzel ELIA für „Erlanger Laien im Aufbruch“, heute deutet die Gemeinde ELIA als „Engagiert, Lebensnah, Innovativ, Ansteckend“. Die Gemeinde ist durch eine Vereinbarung an die Landeskirche gebunden, finanziert und organisiert sich aber wie die Gemeinschaften selbst. Für das Gottesdienstprojekt LebensArt wurde ELIA 2002 beim Förderpreis „Fantasie des Glaubens“ von der EKD ausgezeichnet.
Des Weiteren gibt es in Erlangen seit Jahrzehnten eine Freie evangelische Gemeinde am Fuchsengarten und die Evangelisch-Freikirchliche Gemeinde (Baptisten) an der Äußeren Brucker Straße. 1984 entstand in Tennenlohe die „Gemeinde am Wetterkreuz“ die dem Bund Freikirchlicher Pfingstgemeinden und damit der Pfingstbewegung angehört. Zur „Gemeinde am Wetterkreuz“ gehört der Erlanger Stamm der christlichen Pfadfinderschaft „Royal Rangers“.
Katholische Kirche
Vom Dreißigjährigen Krieg bis zur ersten Messfeier
Gemäß den Vereinbarungen des Westfälischen Friedens blieb Erlangen nach dem Ende des Dreißigjährigen Krieges evangelisches Territorium. Erst mit der Gründung von „Christian Erlang“, also der Neustadt, war auch Katholiken der Zuzug gestattet, sofern sie zum Aufbau der neuen Stadt beitrugen. Ihnen wurde vom Markgrafen 1711 lediglich das im Westfälischen Frieden garantierte konfessionsrechtliche Minimum, die Gewissensfreiheit gewährt. Taufen, Eheschließungen und Beerdigungen waren nach evangelischem Ritus zu vollziehen, Kinder in der evangelischen Religion zu erziehen. Bei zunehmender Zahl drangen die Katholiken seit etwa 1730 auf mehr Glaubensrechte. Der von Markgraf Friedrich einige Male in Aussicht gestellte Bau eines Bethauses scheiterte jedoch immer am erbitterten Widerstand von Magistrat und evangelischer bzw. französisch-reformierter Geistlichkeit.
Mit der Thronbesteigung Friedrichs des Großen begann das Zeitalter des aufgeklärten Absolutismus. Unter dem Einfluss von Friedrichs Toleranzpolitik änderte sich allmählich auch der Standpunkt der markgräflichen Herrschaft. Als 1781 die Verwaltung des Fränkischen Ritterkreises nach Erlangen verlegt worden war, erteilte Markgraf Alexander den katholischen Adeligen die Genehmigung für Privatgottesdienste. Dieses Recht beanspruchte auch deren Dienerschaft. Am 16. Januar 1783 beschloss Alexander die Einrichtung eines katholischen Privatgottesdienst in Erlangen. Im großen Saal des Altstädter Rathauses wurde am 11. April 1784 wieder eine Messe gefeiert, die erste nach über 250 Jahren. Im gleichen Jahr folgte die Erlaubnis zum Bau eines Bethauses.
Vom Bethaus zur Pfarrei Herz Jesu
Die Erlaubnis zum Bau einer Kirche war mit schweren Auflagen belastet: Nur ein schlichtes Bethaus ohne Turm, Glocken und Orgel war gestattet. Die Gottesdienste durften nur bei geschlossenen Türen abgehalten werden, Taufen, Trauungen und Beerdigungen standen weiterhin allein der evangelischen Geistlichkeit zu. Das Bethaus wurde weit außerhalb der Stadt – am heutigen Katholischen Kirchenplatz – errichtet und am Peter-und-Paul-Tag 1790 feierlich eröffnet.
Die katholische Gemeinde, die schon bald Zuwachs durch französische Emigranten erhielt, die vor den Revolutionswirren geflüchtet waren, geriet aber wegen der sich ständig verändernden politischen Verhältnisse in eine wirtschaftliche Notlage. Das Erzbistum Bamberg gehörte seit 1803 zum Kurfürstentum Bayern, Erlangen war bis 1806 preußisch, danach vier Jahre lang französisch. Als im Ausland angestellte Subjekte erhielten die Erlanger Geistlichen von Bamberg keine Besoldung. Erst mit der Eingliederung Erlangens an Bayern wurde dieses Problem gelöst.
Zur Pfarrei erhoben wurde die bisherige Kuratie Erlangen im Jahr 1813. In dieser Zeit hatte sich das Verhältnis zwischen den Konfessionen vollständig entspannt. Als 1843 der katholische Pfarrer Rebhahn zu Grabe getragen wurde, folgte dem Zug auch die gesamte evangelische und reformierte Geistlichkeit. Unter seinem Nachfolger, Pfarrer Dinkel, dem späteren Bischof von Augsburg, erhielt das Kirchenschiff (jetzt Querschiff) 1850 seine heutige Gestalt, außerdem wurde vor der Westfassade ein Turm errichtet.
In der zweiten Hälfte des 19. Jahrhunderts wuchs – auch durch die neue Garnison – die Zahl der Katholiken bald auf 6.000. Deshalb war ein weiterer Neubau erforderlich, der senkrecht zum alten Grundriss errichtet wurde. Damit erhielt der Kirchenbau im Jahr 1895 sein heutiges Aussehen. Mit dem Umbau änderte sich das Patrozinium von Schmerzensreiche Mutter zu Herz Jesu. Der Innenraum der Herz-Jesu-Kirche ist seither mehrfach, zuletzt 2008, einschneidend verändert worden. Nur der Taufstein und eine Holzstatue des Guten Hirten erinnern heute noch an das einstige Bethaus.
Entwicklung im 20. Jahrhundert
Mit dem Umbau von 1895 waren die Erweiterungsmöglichkeiten des alten Bethauses erschöpft. Die Zahl der Erlanger Katholiken wuchs durch Zuzug und Eingemeindungen vor allem nach dem Zweiten Weltkrieg, so dass heute nur noch ein leichtes Übergewicht zu Gunsten der Protestanten besteht. Beginnend 1928 stieg die Zahl der Erlanger Pfarreien innerhalb von 70 Jahren von einer auf zwölf.
Neu gegründet wurden:
1928: St. Bonifaz im damaligen Südosten des Stadtgebiets
1967: Heilig Kreuz in Bruck
1968: St. Sebald in der Sebaldussiedlung und Teilen des Röthelheimparks
1970: St. Heinrich in Alterlangen
1979: St. Theresia in Sieglitzhof und Teilen des Röthelheimparks
1979: Heilige Familie in Tennenlohe
1998: Zu den heiligen Aposteln in Büchenbach
Eingemeindet wurden die nachfolgenden Pfarreien:
1923: St. Xystus in Büchenbach (mit Filialgemeinde Albertus Magnus in Frauenaurach)
1924: St. Peter und Paul in Bruck
1972: St. Kunigund in Eltersdorf
1972: Unsere Liebe Frau in Dechsendorf
Seit 1937 ist Erlangen Sitz eines Dekanats, das im Zuge der staatlichen Gebietsreform zum 1. November 1974 neu geordnet wurde. Neben den Erlanger Pfarreien umfasst es auch Nachbargemeinden aus den Landkreisen Erlangen-Höchstadt und Forchheim.
Siebenten-Tags-Adventisten
Siebenten-Tags-Adventisten sind seit mindestens 1903 in Erlangen vertreten. 1995 bezogen sie in Bruck das neue Gemeindezentrum. Im Jahr 2003 wurde eine weitere Gemeinde (ERlebt) gegründet, die sich in der Hindenburgstraße versammelte; letztere hat im Oktober 2007 ebenfalls in Bruck ein neues Gemeindehaus eingeweiht. Zwischen beiden Gemeinden besteht eine gute Zusammenarbeit. Die Adventisten nehmen am Erlanger Stadtgeschehen aktiv teil. Ihr soziales Engagement zeigt sich u. a. an der Pfadfinderarbeit (Stamm „Erlanger Markgrafen“) oder an öffentlichen Blutspendeaktionen, die in den Gemeinderäumen durchgeführt werden. Beide Gemeinden führen die jährlich stattfindende Aktion „Kinder helfen Kindern“ durch, bei der Weihnachtspakete an bedürftige Kinder nach ganz Osteuropa geschickt werden. Der Verein „Christen für Kultur e. V.“ wurde im Jahr 1999 von Erlanger Adventisten gegründet.
Zeugen Jehovas
Die Zeugen Jehovas meldeten am 22. März 1923 ihre erste Versammlung in Erlangen an, die jedoch polizeilich nicht genehmigt wurde. Nach dem Verbot im April 1933 kam es zu verstärkten Repressionen, die bis zur Ermordung des Erlanger Mitglieds Gustav Heyer in der Tötungsanstalt Hartheim am 20. Januar 1942 führten. Die Gustav-Heyer-Straße in Bruck erinnert seit 2004 daran. 1948 erfolgte die Reorganisation der Gemeinde, die sich 1975 in zwei Versammlungen teilte. 1980 errichteten die Zeugen Jehovas in Bruck einen eigenen Versammlungsraum („Königreichssaal“).
Kirche Jesu Christi der Heiligen der Letzten Tage
Auch die Kirche Jesu Christi der Heiligen der Letzten Tage ist in Erlangen mit einer eigenen Gemeinde und einem Ortsbischof vertreten. Die Gemeinde gehört zum Pfahl Nürnberg. Das Gemeindezentrum der Mormonen befindet sich in Alterlangen.
Neben den oben genannten Glaubensgemeinschaften bestehen noch weitere Freikirchen und Religionsgemeinschaften in Erlangen.
Judentum
1408 wurden erstmals Juden urkundlich in Erlangen erwähnt, 1478 auch ein Rabbiner. Am 26. März 1515 beschloss der markgräfliche Landtag die Ausweisung der Juden. Dies hat vermutlich auch die Existenz der Erlanger jüdischen Gemeinde beendet. Den hugenottischen Einwohnern der Neustadt sicherte Markgraf Christian Ernst 1711 ein Niederlassungs- und Gewerbeverbot für Juden zu. Daher blieb das jüdische Leben auf Erlangens Nachbargemeinden Bruck, Baiersdorf und Büchenbach beschränkt.
In Bruck lebten seit 1431 Juden, 1604 wird ein „Judenhaus“ erwähnt, das wohl als Synagoge für die noch kleine jüdische Gemeinde von sechs Familien (1619) diente. Nachdem diese aber rasch auf 37 Familien (1763) anwuchs, wurde bereits 1707 eine neue Synagoge errichtet. 1811 zählte die Gemeinde 184 Einwohner (ca. 15 % der damaligen Bevölkerung), 1859 waren es noch 108.
In Baiersdorf erfolgte die erste urkundliche Erwähnung einer jüdischen Gemeinde 1473. Deren Bestand wird aber bereits für eine frühere Zeit vermutet, insbesondere weil die ältesten Grabsteine auf dem jüdischen Friedhof ins frühe 14. Jahrhundert datiert werden. Dieser Friedhof hatte einen weiten Einzugsbereich bis nach Forchheim und Fürth. Bereits 1530 bestand eine Synagoge, obwohl nach der 1515 beschlossenen Vertreibung der Juden aus der Markgrafschaft nur noch eine jüdische Familie in Baiersdorf lebte. Nach der Zerstörung im Dreißigjährigen Krieg wurde die Synagoge 1651 wieder errichtet, die Gemeinde war von neun Familien 1619 auf 83 Familien 1771 angewachsen. Als zweitgrößte jüdische Gemeinde im Markgraftum Brandenburg-Bayreuth war hier auch Sitz des Landesrabbinats. 1827 erreichte die jüdische Gemeinde mit 440 Mitgliedern (30 % der Bevölkerung) ihre größte Mitgliederzahl.
In Büchenbach gestattete der Bamberger Dompropst 1681 Juden die Niederlassung. Es entstand eine jüdische Gemeinde, die 1811 74 Mitglieder zählte und 1813 eine Synagoge errichtete. 1833 lebten 103 Juden im Ort.
1861 führte der bayerische Landtag die allgemeine Freizügigkeit für Juden in Bayern ein. Damit wurde Juden die Niederlassung in Erlangen möglich. Viele jüdische Familien aus den Umlandgemeinden zogen wegen der besseren Perspektiven nach Erlangen, zugleich schrumpften die Gemeinden in Bruck, Baiersdorf und Büchenbach, wo bereits 1874 die Gemeinde aufgelöst wurde. 1867 zählte die neue Erlanger Gemeinde bereits 67 Mitglieder, die am 15. März 1873 zur eigenständigen Kultusgemeinde wurde. Die Brucker Gemeinde ging darin auf. 1891 weihte die Gemeinde einen eigenen Friedhof ein. Dagegen wurde das Rabbinat von Baiersdorf 1894 aufgelöst, nach 1900 lebten in Bruck keine Juden mehr. Der Erlanger Gemeinde gehörten dagegen profilierte Persönlichkeiten wie der Arzt und Ehrenbürger Jakob Herz und die Mathematikerin Emmy Noether an. Ersterem wurde am 5. Mai 1875 ein Denkmal errichtet, das am 15. September 1933 zerstört wurde. Eine Stele erinnert seit 1983 an diesen Vorgang mit der Inschrift: Wir denken an Jakob Herz, dem Bürger dieser Stadt ein Denkmal setzten und zerstörten.
Während der nationalsozialistischen Diktatur verringerte sich bis 1938 die Zahl der Erlanger Juden zunächst von 120 auf 44 Personen. In der Reichspogromnacht wurde der Erlanger Betsaal zerstört, die Synagoge in Baiersdorf abgerissen. Am 20. Oktober 1943 wurde die letzte jüdische Einwohnerin Erlangens ins KZ Auschwitz deportiert. 77 Angehörige der jüdischen Gemeinde Erlangens wurden von den Nationalsozialisten ermordet.
Von den ursprünglichen jüdischen Einwohnern kam Rosa Loewi mit ihrer Tochter Marga am 16. August 1945 nach Erlangen zurück, bevor beide ein Jahr später in die Vereinigten Staaten emigrierten. 1980 kehrte Lotte Ansbacher († 19. Dezember 2010) als letzte Erlanger Überlebende des Holocaust dauerhaft in ihre Heimatstadt zurück, vermutlich um das Erbe ihrer Tante Helene Aufseeser anzutreten. Eine Erlanger Besonderheit war die 1980 geschaffene Stelle einer ehrenamtlich tätigen „Beauftragten für die ehemaligen jüdischen Mitbürgerinnen und Mitbürger“. In dieser Funktion war Ilse Sponsel (1924–2010) unermüdlich tätig, Kontakte zu den überlebenden Erlanger Juden und ihren Familien herzustellen und zu pflegen und die Geschichte und das Schicksal der im Holocaust untergegangenen Jüdinnen und Juden in Erlangen, Baiersdorf und Umgebung zu erforschen. Bis in die 1970er-Jahre wuchs die Zahl der Juden soweit an, dass der Verleger Shlomo Lewin die Gründung einer neuen Gemeinde plante. Am 19. Dezember 1980 wurde er mit seiner Lebensgefährtin ermordet, vermutlich durch ein Mitglied der rechtsextremen Wehrsportgruppe Hoffmann. Es kam jedoch nie zu einer Verurteilung, da der mutmaßliche Täter Selbstmord beging. Nach diesem Verbrechen blieb die Gründung der Israelitischen Kultusgemeinde aus. Diese Idee gewann erst durch den Zuzug von jüdischen Auswanderern aus der ehemaligen Sowjetunion neuen Auftrieb. Am 1. Dezember 1997 entstand in Erlangen wieder eine Israelitische Kultusgemeinde, der im Jahr 2000 300 Mitglieder angehörten. Am 2. April 2000 weihte die Gemeinde einen neuen Betraum in der Hauptstraße ein. Nachdem die am 9. März 2008 in der Hindenburgstr. 38 eingeweihte Synagoge wegen Problemen mit der Vermieterin des Hauses aufgegeben werden musste, konnte in der Rathsberger Str. 8b ein Gebäude angemietet und hier am 13. Juni 2010 die neue Synagoge eröffnet werden.
Islam
Seit 1980 besteht in Erlangen der Türkisch-Islamische Kulturverein Erlangen (DITIB). Seitdem entstanden auch weitere Vereine wie der Islamische Studentenverein Erlangen (1984) und die Islamische Glaubensgemeinschaft (1995). Diese drei bilden gemeinsam seit Dezember 1999 die Islamische Religionsgemeinschaft Erlangen e. V. die sich um die Durchführung islamischen Religionsunterrichtes an staatlichen Schulen kümmert. Das erste Mal in Bayern wurde 2001 an der Erlanger Pestalozzi-Grundschule das Fach „Islamisch religiöse Unterweisung in deutscher Sprache“ an einer staatlichen Schule eingeführt. Richtiger „Islamunterricht“ als Unterrichtsfach wurde erstmals in ganz Deutschland an der Grundschule Brucker Lache eingeführt.
Neben den drei erwähnten Verbänden besteht seit 1993 auch noch der Türkische Verein für soziale Dienste.
Politik
In Erlangens Altstadt ist seit dem 14. Jahrhundert ein Rat nachweisbar. An der Spitze der Stadt standen zwei Bürgermeister, die alle vier Wochen wechselten. Ab 1715 gab es sogar vier Bürgermeister.
In der Neustadt lag die Verwaltung zunächst beim reformierten Presbyterium. Im Jahr 1697 gab es vier Bürgermeister, die ein Jahr amtierten, davon drei Franzosen und ein Deutscher. Ab 1701 gab es vier Bürgermeister und acht Räte, die zwei Jahre amtierten. Danach wurde die Verwaltung mehrmals umgestaltet.
Nach der Vereinigung von Altstadt und Neustadt 1812 wurde das bayerische Gemeindeedikt eingeführt. Ab 1818 wurde die Stadt von einem Ersten Bürgermeister geleitet, dem ab 1918 meist der Titel Oberbürgermeister verliehen wurde. Seit 1952 trägt der Erste Bürgermeister entsprechend der bayerischen Gemeindeordnung immer den Titel Oberbürgermeister.
Daneben gab es ab 1818 einen Stadtmagistrat mit zehn, ab 1900 zwölf Magistratsräten und als zweite Kammer die Gemeindebevollmächtigten mit 30, ab 1900 36 Mitgliedern. Nach dem Zweiten Weltkrieg gab es nur noch einen Stadtrat. 1978 zog mit Wolfgang Lederer von der Grünen Liste erstmals ein grüner Politiker in einen bayerischen Stadtrat ein.
In den 1967 und 1972 nach Erlangen eingemeindeten Gemarkungen Eltersdorf, Frauenaurach, Großdechsendorf, Hüttendorf, Kosbach (mit Steudach und Häusling), Kriegenbrunn und Tennenlohe wurde jeweils ein Ortsbeirat eingerichtet. Die Zahl der Mitglieder des Ortsbeirats richtet sich nach der Einwohnerzahl der betreffenden Gebiete und bewegt sich zwischen fünf und sieben. Die Ortsbeiräte werden von den politischen Parteien gemäß dem letzten Kommunalwahlergebnis berufen und wählen aus ihrer Mitte einen Vorsitzenden. Die Ortsbeiräte sind zu wichtigen, die Gemarkung betreffende Angelegenheiten zu hören.
Außerdem gibt es in Erlangen ein von den 12–18 Jahre alten Jugendlichen alle zwei Jahre gewähltes Jugendparlament. Die Senioren werden durch einen Seniorenbeirat (dem ersten in Bayern) vertreten, Menschen mit Migrationshintergrund durch den Ausländer- und Integrationsbeirat. Daneben existieren eine Reihe weiterer Beiräte, die den Stadtrat in bestimmten Themengebieten beraten.
Neben den Parteien und städtischen Gremien sind verschiedene Organisationen in Erlangen kommunalpolitisch aktiv. Dazu zählen Initiativen, die sich jeweils anlässlich konkreter Themen gründen (siehe insbesondere Bürgerentscheide) und anschließend wieder auflösen. Das „Altstadtforum“ ist ein überparteiliches Bündnis aus 19 Organisationen (u. a. alle im Stadtrat vertretenen Parteien, Bürgerinitiativen und Vereine). Es setzt sich für eine attraktive, lebenswerte und zukunftsfähige Erlanger Altstadt ein.
(Ober)Bürgermeister
Der Oberbürgermeister der Stadt Erlangen wird direkt gewählt. Seit 2014 amtiert Florian Janik. Als Stellvertreter wählt der Stadtrat mindestens einen zweiten Bürgermeister, er kann zusätzlich einen dritten Bürgermeister wählen. Derzeit ist der zweite Bürgermeister Jörg Volleth (CSU).
Erste Bürgermeister beziehungsweise Oberbürgermeister waren seit 1818:
Stadtrat
Der Stadtrat besteht aus dem Oberbürgermeister sowie 50 weiteren Mitgliedern. Er wurde zuletzt 2020 gewählt. Als stärkste Fraktion verfügt die CSU über 15 Sitze, die SPD über 11 (und zusätzlich den Oberbürgermeister), der gemeinsame Wahlvorschlag von Bündnis 90/Die Grünen und Grüner Liste über 11, die ÖDP über 3, die FDP, die Erlanger Linke, die Freie Wählergemeinschaft, die AfD und die Klimaliste Erlangen jeweils über 2 Sitze.
Bürgerentscheide
Die Bevölkerung in Erlangen ist politisch vergleichsweise aktiv und nutzt insbesondere die Möglichkeit zur direkten Demokratie, wie die hohe Zahl an Bürgerentscheiden der vergangenen Jahre zeigt, die alle die für ihre Wirksamkeit notwendige Wahlbeteiligung erreicht haben:
1998: Verkauf Erlanger Stadtwerke (Ergebnis: Kontra Verkauf)
1998: Durchgangsstraße Röthelheimpark (Ergebnis: Pro Durchgangsstraße)
2000: Tiefgarage Theaterplatz (Ergebnis: Kontra Tiefgarage)
2004: Erlangen Arcaden (Ratsbegehren, Bau eines Einkaufszentrums) (Ergebnis: Pro Arcaden)
2005: Privatisierung Erlanger Bäder (Ergebnis: Kontra Privatisierung)
2005: Verlagerung Taxistandplatz Altstadt (Ergebnis: Pro Verlagerung)
2005: Erlangen Arcaden (Bürgerbegehren und Ratsbegehren, Ergebnis: Pro Ratsbegehren)
2011: Gewerbegebiet G6 Tennenlohe (Ratsbegehren, Ergebnis: Kontra Gewerbegebiet)
2016: Stadt-Umland-Bahn (StUB) (Bürgerbegehren, Ergebnis: Kontra Ausstieg aus dem Projekt StUB)
2017: Landesgartenschau 2024, Ergebnis: abgelehnt; Abriss ERBA, Ergebnis: angenommen
2018: Fortführung Voruntersuchung Wohngebiet West III (Ergebnis: abgelehnt)
Bundestag, Landtag und Bezirkstag
Erlangen bildet für Bundestagswahlen gemeinsam mit dem Landkreis Erlangen-Höchstadt den Wahlkreis Erlangen. Direkt gewählter Abgeordneter ist Stefan Müller (CSU). Daneben gehört Martina Stamm-Fibich (SPD) dem Deutschen Bundestag an. Die zwei Abgeordneten wohnen nicht im Erlanger Stadtgebiet.
Für die Landtagswahlen umfasst der Stimmkreis Erlangen-Stadt die Stadt Erlangen sowie Möhrendorf und Heroldsberg aus dem Landkreis Erlangen-Höchstadt. Direkt gewählter Abgeordneter ist Joachim Herrmann (CSU). Zudem sind noch die Erlanger Christian Zwanziger (Grüne) und Matthias Fischbach (FDP), die über die mittelfränkische Bezirksliste gewählt worden sind, im Landtag vertreten.
Der Stimmkreis für den Bezirkstag von Mittelfranken ist mit dem Landtagsstimmkreis identisch. Direkt gewählter Abgeordnete ist Alexandra Wunderlich (CSU). Außerdem gehört aus der Stadt Erlangen Gisela Niclas (SPD) dem Bezirkstag an, sie wurde über die Liste ihrer Partei gewählt. Die 2013 ebenfalls gewählte Susanne Lender-Cassens (Grüne) legte ihr Mandat nach ihrer Wahl zur zweiten Bürgermeisterin nieder.
Wappen
Stadtsignet
Seit 1977 verwendet die Stadt Erlangen als Erkennungszeichen neben dem Stadtwappen ein 1976 von dem Münchner Designer Walter Tafelmaier entworfenes Signet mit dem Schriftzug Stadt Erlangen, der mit seinem Entwurf den Leitspruch „Erlangen – offen aus Tradition“ graphisch umsetzte. Auf quadratischem Grundriss sind in fünf vertikalen und horizontalen Reihen 24 Einzelquadrate so angeordnet, dass in der Mitte der rechten Seite ein freier Platz ausgespart bleibt. Das Stadtsignet symbolisiert den Grundriss der barocken Planstadt, das fehlende Quadrat steht für die Offenheit der Stadt. Das Motto wurde 1974 in einem Wettbewerb gefunden. Signet und Motto erinnern laut Stadtlexikon
2007 gab es auf Anregung des Oberbürgermeisters Überlegungen, das Signet wieder durch das Stadtwappen zu ersetzen. Dies wurde jedoch nach Online-Umfragen von der Mehrheit der Bürger abgelehnt und anschließend nicht mehr weiter verfolgt.
Städtepartnerschaften
Erlangen unterhält Städtepartnerschaften mit folgenden Städten:
Eskilstuna (Schweden), seit 1961
Rennes (Frankreich), seit 1964
Wladimir (Russland), seit 1983 beziehungsweise 1987
Jena (Thüringen), seit 1987
Stoke-on-Trent (England), seit 1989
San Carlos (Nicaragua), seit 1989
Beşiktaş (Stadtbezirk von Istanbul, Türkei), seit 2003
Riverside (Kalifornien, USA), seit 2013
Bozen (Italien), seit 2018
Daneben bestehen weitere Partnerschaften:
Venzone (Italien)
Shenzhen (Volksrepublik China), Regionalpartnerschaft seit 1997
Richmond (Virginia, USA), Kooperationsvereinbarung seit 1998
Cumiana (Italien), Freundschaftsstadt seit 2001
Adschman (Vereinigte Arabische Emirate), Kooperationsvertrag seit 2005
Umhausen (Österreich), Partnerschaftliche Vereinbarung seit 2006
Browary (Ukraine), Solidaritätspartnerschaft seit 2022
Patenschaft
1949 wurde die Patenschaft für die vertriebenen Sudetendeutschen aus der Stadt und dem Kreis Brüx übernommen.
1951 wurde die Patenschaft für die vertriebenen Sudetendeutschen aus der Stadt und dem Kreis Komotau übernommen.
Die Heimatstuben der beiden Gebiete befanden sich bis 2006 im „Stutterheim-Palais“ am Marktplatz. Seitdem sind sie im „Frankenhof“ untergebracht.
Wirtschaft
Im Jahre 2016 erbrachte Erlangen, innerhalb der Stadtgrenzen, ein Bruttoinlandsprodukt (BIP) von 10,003 Milliarden € und belegte damit Platz 36 innerhalb der Rangliste der deutschen Städte nach Wirtschaftsleistung. Das BIP pro Kopf lag im selben Jahr bei 91.531 € (Bayern: 44.215 €/ Deutschland 38.180 €) und war das vierthöchste unter allen kreisfreien Städten in Deutschland. In der Stadt gab es 2016 ca. 113.200 erwerbstätige Personen. Die Arbeitslosenquote lag im Dezember 2018 bei 3,4 % und damit über dem bayrischen Durchschnitt von 2,7 %.
Die Wirtschaft in Erlangen wird wesentlich geprägt durch die Aktivitäten der Siemens AG und ihrer verbundenen Unternehmen sowie der Friedrich-Alexander-Universität. Der Wirtschaftsstandort gehört zu den attraktivsten in ganz Deutschland. So belegte die Stadt in der von dem Schweizer Unternehmen Prognos im Jahre 2016 durchgeführten Analyse der Wettbewerbsfähigkeit aller 402 deutschen kreisfreien Städte und Kreise den 6. Platz (2013: Platz 3). Insbesondere im Wachstum erreichte die Stadt dabei weit überdurchschnittliche Werte.
Wirtschaft vor Gründung der Hugenottenstadt 1686
Im frühen 17. Jahrhundert war Erlangen unter dem Namen „Etlang“ bekannt. Bis zur Gründung der Neustadt im Jahre 1686 durch Markgraf Christian Ernst bestand die Wirtschaft in Erlangen praktisch ausschließlich aus der Landwirtschaft. Die Flussauen von Regnitz und Schwabach boten gute Standorte für Äcker und Wiesen, die über Wasserschöpfräder bewässert wurden. Die Flüsse selbst boten Gelegenheit zum Fischfang. Der Wald östlich der Regnitz einschließlich der dort liegenden Steinbrüche bildete über Jahrhunderte eine wesentliche Lebensgrundlage für die frühen Erlanger Bürger. Der Burgberg begünstigte durch sein Klima den Anbau von Obst und Wein. Auf Zeidelweiden wurde eine Waldbienenwirtschaft betrieben.
Neben der Landwirtschaft existierte ein für den lokalen Bedarf produzierendes Kleingewerbe. So boten im Jahre 1619 ein Bader, ein Büttner, ein Glaser, ein Schlosser, ein Schmied, ein Schreiner, ein Wagner, ein Ziegler, zwei Metzger, zwei Müller, zwei Schuster, drei Zimmerleute, fünf Bäcker, fünf Schneider, fünf Steinmetzen, acht Tuchmacher sowie mehrere Wirte und Braumeister in Erlangen ihre Dienste an.
Die immer wieder auftretenden kriegerischen Ereignisse erwiesen sich für die wirtschaftliche Entwicklung als verheerend. So wurde Erlangen im Dreißigjährigen Krieg vollständig zerstört, die Bevölkerung ausgelöscht oder vertrieben.
Entwicklung der Gewerbe 1686 bis 1812
Nach den desaströsen Folgen des Dreißigjährigen Krieges bemühte sich Markgraf Christian Ernst, die völlig am Boden liegende Wirtschaft wieder zu beleben. Er ließ dazu wohlhabende oder wirtschaftliche tüchtige Hugenotten anwerben (welche auf ihrer Flucht etwa in Neustadt an der Aisch keine Aufnahme fanden) und in der 1686 neu gegründeten Hugenottenstadt (Neustadt) ansiedeln. Durch diese aktive Wirtschaftspolitik wurde zunächst das Gewerbe der Strumpfwirker etabliert, ein technisch hochstehender Wirtschaftszweig, der in Deutschland nahezu unbekannt war. Daneben entwickelten sich die Hutfabrikation, die Handschuhfertigung sowie die Weißgerberei wichtigen Gewerbezweigen.
Anfänglich fast ausschließlich in französischer Hand, wurden diese Gewerbe durch die deutsche Zuwanderung zunehmend deutsch. So befanden sich 1775 unter den insgesamt 277 Strumpfwirkermeistern nur noch 19 mit französischer Herkunft. Nur die Handschuhmacherei und die Weißgerberei blieben bis 1811 französische Monopole. Mit der deutschen Zuwanderung gelangten weitere Gewerbezweige nach Erlangen, so der Kattundruck, der auch überregionale Bedeutung gewann und Ende des 18. Jahrhunderts zu den größten Betrieben Erlangen zählte.
Aufgrund der exportorientierten Wirtschaft der Hugenottenstadt galt Erlangen als „Fabrikstadt“, ein Typ, der in Franken nur noch durch Fürth und Schwabach vertreten war.
Industrialisierung 1812–1945
Die Neuordnung Mitteleuropas nach den napoleonischen Kriegen sowie die anschließende protektionistische Zollpolitik führten zum Verlust der traditionellen Absatzmärkte und damit zum Niedergang der Erlanger Gewerbe. Im Jahre 1887 war das Strumpfwirken praktisch erloschen. Ebenso verschwanden die Kattunfabriken und Hutmanufakturen. Nur Weißgerber und Handschuhmacher konnten sich noch bis in das 20. Jahrhundert halten.
In der Mitte des 19. Jahrhunderts konnte sich die Erlanger Wirtschaft auf niedrigem Niveau langsam konsolidieren. Neben der Landwirtschaft, den restlichen Gewerbebetrieben sowie dem lokalen Handwerk trat zunehmend die Industrie als vierter Wirtschaftszweig in Erscheinung. Produziert wurde vor allem Bier. Die Keller im Burgberg waren für die Reifung und Lagerung der Biere hervorragend geeignet, so dass ein qualitativ hochwertiges Produkt entstand, das weltweit gefragt war. Ende 1860 exportierte Erlangen dreimal so viel Bier wie München. Die Erfindung der Kühlmaschine zu Beginn der 1880er Jahre brachte diesem Höhenflug ein jähes Ende. Heute existieren in Erlangen nur noch zwei Brauereien.
Neben der Produktion von Bier erlangte die Fertigung von Kämmen eine große Bedeutung. Mit Hilfe der ersten Erlanger Dampfmaschine wurden durch den Unternehmer Johann Georg Bücking im Jahre 1845 ca. 1,2 Millionen Kämme produziert. Damit beherrschte das Familienunternehmen den gesamten deutschen, europäischen sowie nordamerikanischen Markt. Ebenso international tätig war Emil Kränzlein mit seiner Bürstenfabrik in der Östlichen Stadtmauerstraße, die vor dem Ersten Weltkrieg mehr als 400 Mitarbeiter beschäftigte und ihre Produkte weltweit vertrieb.
Die Gründung der Baumwollspinnerei AG im Jahre 1880 eröffnete einen neuen Wirtschaftszweig in Erlangen. Durch mehrere Fusionen entstand 1927 die Baumwollindustrie Erlangen-Bamberg (ERBA), die vor dem Zweiten Weltkrieg über 5000 Mitarbeiter beschäftigte.
Ein weiterer, für die zukünftige wirtschaftliche Entwicklung Erlangens wesentlicher Betrieb war die Werkstatt des Universitätsmechanikers Erwin Moritz Reiniger, in der er ab 1876 optische und feinmechanische Geräte herstellte. 1886 wurde daraus das Unternehmen Reiniger, Gebbert & Schall gegründet, die bereits erfolgreich mit der Medizinischen Fakultät der Universität kooperierte. Nach der Entwicklung des Röntgengerätes 1895 durch Wilhelm Conrad Röntgen in Würzburg nahm Reiniger sofort Kontakt auf und vereinbarte die Herstellung von Röntgengeräten in seinem Erlanger Werk. 1925 erwarb die Siemens & Halske AG das Unternehmen und gliederte ihre eigene Abteilung für Medizinische Technik ein. Vor dem Zweiten Weltkrieg arbeiteten bereits mehr als 2000 Mitarbeiter am Standort Erlangen der Siemens-Reiniger-Werke AG, deren Zentralverwaltung bereits 1943 von Berlin nach Erlangen verlegt wurde. Ab 1947 war die Stadt auch Sitz des Unternehmens, aus dem der heutige Siemens Sector Healthcare (bis Ende 2007 Siemens Medical Solutions) der Siemens AG hervorging.
Ebenfalls globale Bedeutung erreichte ab 1908 die Bleistiftspitzerindustrie, die zeitweise 80 % des Weltmarktes bediente.
1919 gründete der Unternehmer Paul Gossen die Paul Gossen Co. K.-G., Fabrik elektrischer Messgeräte in Baiersdorf, die im Folgejahr ihren Stammsitz nach Erlangen verlegte. Die Firma fertigte vor allem Messinstrumente wie den weltweit ersten fotoelektrischen Belichtungsmesser OMBRUX ab 1933. Das heute noch existierende Firmengebäude an der Nägelsbachstraße wurde zwischen 1939 und 1943 errichtet. 1963 kam das Unternehmen zur Siemens AG. Heute gibt es die Firma Gossen nicht mehr.
Entwicklung zur Siemens-Stadt ab 1945
Das Ende des Zweiten Weltkrieges hatte für die Erlanger Wirtschaft weitreichende Konsequenzen: Die beiden in Berlin ansässigen Siemens-Unternehmen Siemens & Halske (S&H) und Siemens-Schuckertwerke (SSW) hatten bereits vor dem absehbaren Zusammenbruch Maßnahmen für einen Neuanfang getroffen. Spezielle Teams (sogenannte Gruppenleitungen) sollten den Umzug nach München (S&H) und Hof (SSW) vorbereiten. Aufgrund der Nähe zur sowjetischen Zone suchte die Hofer Gruppe um Günther Scharowsky jedoch bald einen neuen Einsatzort, der nach etlichen Sondierungen im unzerstörten Erlangen gefunden wurde. Dabei spielte die Tatsache, dass mit den Siemens-Reiniger-Werken bereits ein Siemens-Standort in Erlangen existierte, eine wesentliche Rolle.
Gestartet wurde am 25. Juni 1945 mit einem Voraus-Team von zwei Mann. Anfang 1946 waren es bereits 200 SSW-Mitarbeiter, die aufgrund der Raumnot auf 15 Standorte verteilt waren. Um Abhilfe zu schaffen, wurde 1948–1953 nach Plänen von Hans Hertlein auf der damals größten Baustelle Süddeutschlands das neue Siemens-Verwaltungsgebäude errichtet, das wegen seiner Farbe auch „Himbeerpalast“ genannt wird. Für die Mitarbeiter wurden südlich davon große Wohnparksiedlungen gebaut. In den folgenden Jahren entstanden weitere Bürobauten: Das Bingelhaus (1956–1958), das von Hans Maurer entworfene Verwaltungshochhaus „Glaspalast“ (1959–1962) sowie das Siemens-Forschungszentrum (1959–1968). In keiner anderen bayrischen Stadt wurde nach dem Zweiten Weltkrieg so viel und so lange gebaut wie in Erlangen.
1956 beschäftigte SSW über 6000 Mitarbeiter, 1966 bereits über 10.000. Die Zusammenführung der drei Siemens-Unternehmen SSW, SRW und S&H zur Siemens AG im Jahre 1966 bedingte einen erneuten wirtschaftlichen Schub. Allein im Zeitraum von 1985 bis 1995 investierte der Konzern eine Milliarde DM in den Standort Erlangen. Die Mitarbeiterzahl erreichte 1986 mit 31.000 den bisherigen Höchststand. Aufgrund von Verlagerungen nach Nürnberg-Moorenbrunn und Forchheim liegt er heute bei ca. 24.000 (Stand 30. September 2011). Neben dem Siemens Sector Healthcare (Medizintechnik) sind die Sektoren Industry (Automatisierungs- und Antriebstechnik), Energy (Energieerzeugung, Energieübertragung und -verteilung) und Infrastructure & Cities (Mobilität, Bahntechnik, Smart Grid-Technologie) sowie zahlreiche Stabsabteilungen in Erlangen vertreten. In den 1970er Jahren gab es auf dem Forschungsgelände eine 900 m lange Magnetschwebebahnstrecke, auf der der Erlanger Erprobungsträger (EET 01) fuhr. Nach dem Abzug der amerikanischen Truppen wurde auf dem freiwerdenden Gelände der neue Stadtteil Röthelheimpark errichtet, in dem die Siemens-Medizintechnik weitere Fertigungsstätten und Bürogebäude errichtete. Das Gebäude von Reiniger und Schall, das nach dem Zweiten Weltkrieg den Kern des Unternehmensbereichs Medizintechnik (UB Med) beherbergte, wurde Ende 2000 der Stadt Erlangen aus Anlass des bevorstehenden Stadtjubiläums geschenkt. Neben städtischen Referaten befindet sich dort seit März 2012 das „Siemens Unternehmensarchiv für Medizintechnik“, das in einem Ausstellungsbereich diese Siemens-Sparte historisch visualisiert (Eröffnung 2013). Auf dem restlichen Gelände des früheren UB Med steht seit 2008 das Wohngebiet „Im Museumswinkel“.
Weiterhin sind zahlreiche Siemens-Töchter und Siemens-Beteiligungen in Erlangen angesiedelt.
Auf einem ehemaligen Forschungsgelände der Siemens AG im Süden der Stadt entsteht seit 2017 ein neuer Stadtteil, welcher sich vor allem durch moderne Bürogebäude auszeichnet. Ein Großteil der Konzernstandorte im Erlanger Stadtgebiet wurde inzwischen zugunsten des Siemens Campus aufgegeben.
Erlangen zählt zu den wirtschaftlich stärksten Städten in Deutschland.
Andere international tätige Unternehmen
Durch die Zusammenlegung der Nuklearsparte von Siemens mit der Nuklearsparte von Areva, dem anschließenden Ausstieg der Siemens AG und der weitgehenden Konzentration von Areva auf das Nukleargeschäft wurde Erlangen Stammsitz der AREVA GmbH mit 3.350 Beschäftigten am Standort.
Daneben hatte sich mit der Solar Millennium ein weiteres weltweit tätiges Unternehmen der Energiebranche in Erlangen etabliert. Solar Millennium wurde 1998 gegründet und plante und errichtete Solarkraftwerke, die auf der Parabolrinnentechnologie basieren. Seit 2011 ist das Unternehmen insolvent.
Die Publicis Groupe, ein multinationaler Werbedienstleister mit dem Hauptsitz in Frankreich, hatte in Erlangen die größte Niederlassung in Deutschland.
Die KUM GmbH & Co KG war der zweitälteste Hersteller von Bleistiftanspitzern und ist heute international als Hersteller von Schul- und Büroartikeln tätig.
Valeo Siemens eAutomotive, ein Hersteller von Komponenten für Elektroautos, wurde 2016 gegründet und hat seinen Sitz in Erlangen.
Schwerpunkte der aktuellen Wirtschaftspolitik
Förderung von Existenzgründungen und innovativer Technologien
Die Förderung von Fortschritt und Innovation sowie die Schaffung eines investitionsfreundlichen Umfeldes haben in Erlangen eine lange Tradition. So wurde bereits 1985/86 zusammen mit den Städten Fürth und Nürnberg das Innovations- und Gründerzentrum Nürnberg-Fürth-Erlangen GmbH (IGZ) in Tennenlohe gegründet. Aus diesem Gründerzentrum heraus entstanden neue Unternehmen, die neue Impulse für das Wirtschaftsleben setzten später erfolgreich an der Börse platziert wurden. Zu ihnen gehören u. a. die WaveLight AG und die November AG.
Das IGZ wurde 2003 durch das Innovationszentrum Medizintechnik und Pharma (IZMP) ergänzt, welches insbesondere Existenzgründer und innovative Unternehmen aus den Gebieten Medizintechnik, Pharmaforschung sowie Bio- und Gentechnologie unterstützt. Bereits im März 2006 wurde der Grundstein für eine erste Erweiterung des IZMP gelegt.
Darüber hinaus wurde die „Erlangen AG“ als Zusammenschluss von Wissenschaft und Wirtschaft mit dem Ziel gegründet, systematisch und konsequent neue Wissensressourcen zu erschließen, Wege in neue Märkte aufzuzeigen und die positiven Differenzierungsmerkmale des Standortes international zu vermarkten.
Als Ergebnis der langjährigen Bemühungen zur Förderung neuer, innovativer Technologien wurde Erlangen im Jahre 1998 als erste bayrische Großstadt mit dem Titel Wirtschaftfreundlichste Gemeinde von der bayrischen Staatsregierung ausgezeichnet.
Medizin und Medizintechnik
Als Kooperation zwischen der Friedrich-Alexander-Universität, dem Waldkrankenhaus, dem Klinikum am Europakanal, dem Siemens-Geschäftsbereich Healthcare sowie über 100 mittelständischen Unternehmen wurde ein Kompetenzzentrum für Medizin, Medizintechnik und Pharmaindustrie gebildet. Beinahe jeder vierte Arbeitnehmer ist in den Bereichen Medizintechnik und Gesundheit beschäftigt. Dieser Standortvorteil soll zukünftig weiter ausgebaut werden. Die Stadt hat sich das Ziel gesetzt, die Bundeshauptstadt der medizinischen Forschung, Produktion und Dienstleistung zu werden. Um auch die umliegende Region in diese Anstrengungen mit einzubeziehen, wurde das Medical Valley Europäische Metropolregion Nürnberg gegründet.
Infrastruktur und Verkehr
Modal Split
Die Anteile der jeweiligen Verkehrsmittel am Gesamt/Binnenverkehr (Modal Split) stellen sich wie folgt dar:
Im Binnenverkehr (Verkehr innerhalb der Stadt)
Im Gesamtverkehr
Quelle:
Es lässt sich feststellen, dass der Radverkehr in Erlangen einen vergleichsweise hohen Anteil hat, während der ÖPNV einen vergleichsweise niedrigen Anteil am Verkehr hat.
Straßenverkehr
Die Lage Erlangens an der Verbindungsstraße Nürnberg-Bamberg hat schon in frühen Zeiten die Entwicklung der Stadt positiv beeinflusst. Bereits 1653 wurde für die Reit- und Botenpost der Fürsten Thurn und Taxis eine Poststation eingerichtet. Die Gründung der Neustadt 1686 ließ den Verkehr kräftig ansteigen, so dass bereits 1708 mit der Pflasterung der städtischen Straßen begonnen wurde. 1905 wurden acht Motorräder und zwei PKW registriert, danach immer mehr. 1912 wurde die erste Buslinie nach Nürnberg eröffnet. 1925 existierte pro 100 Einwohner ein Kfz, 1939 waren es bereits 20. Nach dem Zweiten Weltkrieg begann die Massenmotorisierung, die das Stadtbild entscheidend veränderte: Der Ludwig-Donau-Main-Kanal wurde zugeschüttet und an seiner Stelle der Frankenschnellweg (A 73) gebaut. Die Nebenbahnen verschwanden, um Platz für den Ausbau des Straßennetzes zu schaffen.
Durch die einsetzende Umweltbewegung wurde eine Wende erreicht und einige schon geplante Bauvorhaben wie die Überquerung des Regnitzgrundes durch den Kosbacher Damm nicht mehr ausgeführt. Stattdessen wurde der öffentliche Nahverkehr sowie seit den späten 1970er Jahren der Fahrradverkehr ausgebaut. In der Altstadt wurden die Verkehrsflächen für den Autoverkehr reduziert sowie eine Straße mit vielen Geschäften zur Fußgängerzone umgewidmet.
Dennoch gab es seitdem immer wieder Straßenbauprojekte, die zu teilweise erheblichen Diskussionen und Protesten geführt haben bzw. noch führen. Dazu gehören u. a.:
Allee am Röthelheimpark: Die Frage, ob diese zentrale Straße im neuen Stadtteil Röthelheimpark zwei- oder vierspurig ausgebaut werden sollte, wurde sehr kontrovers diskutiert. Gegner des vierspurigen Ausbaus argumentierten, dass der Ausbau zu einem erheblichen Anstieg des Durchgangsverkehrs vor allem in Ost-West-Richtung führen würde. Durch einen Bürgerentscheid im Jahre 1998 wurde schließlich die Entscheidung für den vierspurigen Ausbau getroffen.
Südumgehung: Die Einstellung der Sekundärbahn Erlangen–Gräfenberg 1963 führte dazu, dass der Osten Erlangens nur noch mit Bussen durch öffentliche Nahverkehrsmittel erschlossen ist. Während des Berufsverkehrs kommt es zu häufigen Staus entlang der Kurt-Schumacher-Straße sowie besonders im Ortsbereich von Buckenhof und Uttenreuth. Um hier eine Entlastung zu schaffen, plante das Bauamt Nürnberg eine Verbindung der Kurt-Schumacher-Straße und der Staatsstraße 2243 südlich von Buckenhof und Uttenreuth (Südumgehung). Diese Straße hätte durch den Buckenhofer Forst führen sollen, ein beliebtes Naherholungsgebiet. Zusätzliche Probleme ergaben sich aus der Tatsache, dass ein Vogelschutzgebiet und ein Wasserschutzgebiet durchquert hätten werden müssen. Die Gegner der Südumgehung propagierten als Alternative den Ausbau des öffentlichen Nahverkehrs durch Realisierung der Stadt-Umland-Bahn. Durch die Einstellung des Planfeststellungsverfahrens aus Umweltschutzgründen im Juni 2012 wurde schließlich die Entscheidung gegen die Südumgehung getroffen.
Heute liegt Erlangen verkehrsgünstig an zwei Bundesautobahnen und einer Bundesstraße:
Autobahnen
A 3 (Arnheim)-Emmerich am Rhein–Düsseldorf–Köln–Frankfurt am Main–Würzburg–Erlangen–Nürnberg–Regensburg–Passau-(Linz)
A 73 Nürnberg–Fürth–Erlangen–Bamberg–Lichtenfels–Coburg-Suhl
Bundesstraßen
B 4 Bad Bramstedt–Hamburg–Braunschweig–Erfurt–Ilmenau–Coburg–Bamberg–(weiter als A 73)–Erlangen–Nürnberg–Fischbach
Schienengebundener Verkehr
Mit der Eröffnung des Ludwig-Süd-Nord-Bahn-Abschnitts von Nürnberg nach Bamberg am 25. August 1844 kam die Eisenbahn nach Erlangen. Der Zugang zu dem überregionalen Eisenbahnverkehr führte zu einem Sprung in der Verkehrsentwicklung. Am 17. November 1886 wurde die Sekundärbahn Erlangen–Gräfenberg und am 16. April 1894 die Lokalbahn Erlangen-Bruck–Herzogenaurach eröffnet. Der Verkehr auf der Bahnstrecke Nürnberg–Bamberg wuchs nach der Wiedervereinigung rasant an und Erlangen erhielt Zugang zum ICE-Netz. Ende 2010 nahm die S-Bahn-Verbindung zwischen Bamberg und Nürnberg über Erlangen ihren Betrieb auf, die von Nürnberg bis Erlangen im 20-Minuten-Takt bedient wird. Die Linie S1 bedient auf Erlanger Stadtgebiet folgende Bahnhöfe bzw. Haltepunkte: Erlangen, Erlangen-Bruck, Erlangen-Eltersdorf und Erlangen-Paul-Gossen-Straße. Letzterer wurde im Rahmen des S-Bahn-Ausbaus zum Fahrplanwechsel im Dezember 2015 in Betrieb genommen. Auch erhielt Erlangen Anschluss an die Ende 2017 fertiggestellte ICE-Schnellfahrstrecke von München nach Berlin im Rahmen des Verkehrsprojekts Deutsche Einheit Nr. 8.
Demgegenüber konnten die beiden Nebenbahnen im Wettbewerb mit dem Straßenverkehr nicht bestehen: Am 16. Februar 1963 fand die letzte Fahrt auf der Strecke nach Gräfenberg statt, am 28. September 1984 wurde der Personenverkehr nach Herzogenaurach eingestellt, Güterverkehr findet nach Stilllegung des Kohleverkehrs zum Großkraftwerk Franken II nur noch über den Bahnhof Frauenaurach zum Gelände des Hafens Erlangen (Müllumladeanlage) statt.
Schiffsverkehr
Obwohl Erlangen an der Regnitz liegt, konnte sich dort aufgrund der zahlreichen, für die Mühlen eingerichteten Wehre sowie der Wasserschöpfräder kein Schiffsverkehr entwickeln. Erst die Eröffnung eines Teilsabschnitts des Ludwigskanals im Jahre 1843 brachte den Schiffsverkehr nach Erlangen, das damit zur Hafenstadt wurde. Es gab dort den Handelshafen Erlangen für den Güterumschlag, der südlich des Ehrenfriedhofs lag.
Nach anfänglichem Erfolg verlor der für kleine, von Pferden gezogene Schuten ausgelegte Kanal (Treidelverkehr) mit seinen über 100 Schleusen bald Marktanteile an die aufkommende Eisenbahn und erzielte ab 1863 nur noch Verluste. Nach Schäden im Zweiten Weltkrieg wurde der Betrieb in den 1950er Jahren endgültig eingestellt. Der Abschnitt zwischen Nürnberg und Erlangen wurde Anfang der 1960er Jahre aufgefüllt und als Trasse für den Frankenschnellweg überbaut, später nach Norden verlängert als Bundesautobahn 73. Nur ein Denkmal und ein wenige 100 m langes, weitgehend trockenstehendes Überbleibsel der Trasse (nördlich der heutigen Kläranlage) erinnern noch an die ehemaligen Anlagen des Ludwig-Donau-Main-Kanales. Der ehemalige Handelshafen am Ludwigskanal, der dank seines Bahnanschlusses bereits 1844 einen trimodalen Güterumschlag Schiff/Schiene/Straße bot, ist heute mit der Feuerwehr Erlangen überbaut.
Die Idee, Main und Donau mit einem Kanal zu verbinden und so eine Wasserstraße von der Nordsee bis in das Schwarze Meer zu schaffen, wurde jedoch nicht fallengelassen. Bereits 1959 begannen die Arbeiten an dem neuen, wesentlich größeren und leistungsfähigeren Main-Donau-Kanal (Europakanal). Am 30. Oktober 1970 erreichte der Kanal Erlangen; am Hafen Erlangen entstand in den Folgejahren wieder ein trimodales Güterverkehrszentrum für den Umschlag Schiff/Schiene/Straße. 1992 wurde der Kanal in seiner vollen Länge bis zur Donau hin eröffnet. In Erlangen wurden 2006 ca. 82.000 Tonnen an Gütern umgeschlagen. Flusskreuzfahrten entlang des Main-Donau-Kanals durchqueren Erlangen, jedoch nach einem Schiffsunfall im Jahre 2016 üblicherweise ohne Halt oder Fahrgastwechsel.
Flugverkehr
Der nächstgelegene Verkehrslandeplatz ist der Flugplatz Herzogenaurach zehn Kilometer westlich. Für Fracht- und Linienflüge liegt der 12 km südlich gelegene Flughafen Nürnberg verkehrsgünstig. Seit Eröffnung der Straßenbahnverlängerung nach „am Wegfeld“ im benachbarten Nürnberg fährt die Buslinie 30 umsteigefrei von der Erlanger Innenstadt zum Nürnberger Flughafen.
Öffentlicher Nahverkehr
Den ÖPNV versorgen mehrere Stadt- und Überlandbuslinien der Erlanger Stadtwerke AG (ESTW) und des Omnibusverkehr Franken (OVF), die alle in den Verkehrsverbund Großraum Nürnberg integriert sind. Die Buslinien führen fast alle durch das Stadtzentrum. Der größte Teil der Überlandbuslinien startet am Zentralen Omnibusbahnhof westlich des Bahnhofes. Östlich des Bahnhofes befinden sich die Haltestellen Hauptbahnhof und Hugenottenplatz, an denen hauptsächlich die Stadtbuslinien halten. Ein weiterer wichtiger Knotenpunkt befindet sich an der Kreuzung Güterhallen-/Güterbahnhofstraße. Die Haltestelle Hauptpost wurde am 8. September 2007 nach dem an dieser Stelle errichteten Einkaufszentrum in Arcaden umbenannt.
Kostenloser Nahverkehr in der Innenstadt
Im Rahmen eines Pilotprojektes soll der Nahverkehr in der Innenstadt Erlangens ab 2024 kostenlos werden. Das Projekt ist auf drei Jahre befristet.
H-Bahn (verworfene Planung)
Eine Wiederbelebung des schienengebundenen Nahverkehrs wurde zunächst 1977 durch den Vorschlag der Siemens AG diskutiert, über eine ca. 7,5 km lange H-Bahn-Strecke die wichtigsten Siemens-Standorte mit dem Bahnhof zu verbinden. Die H-Bahn, eine der Wuppertaler Schwebebahn ähnliche Konstruktion, fuhr bereits seit 1976 erfolgreich auf einer Versuchsanlage auf dem Siemens-Forschungsgelände in Erlangen. Die Strecke sollte vom Erlanger Gerätewerk über Büchenbach-Nord zum Großparkplatz und von dort durch einen Tunnel bis zur Schuhstraße und anschließend oberirdisch bis zur Siemens-Hauptverwaltung führen. Die von der Stadtverwaltung zusätzlich gewünschten Strecken hätten aufgrund der engen Platzverhältnisse den Abbruch ganzer Häuserzeilen notwendig gemacht. Im November 1978 entschied sich der Stadtrat mit knapper Mehrheit gegen die Durchführung des Projektes.
Stadt-Umland-Bahn (Planung)
Die Idee eines schienengebundenes Verkehrssystem für Erlangen wurde jedoch schon wenig später wieder aufgegriffen. Bereits nach der Stilllegung der Eisenbahnstrecke nach Herzogenaurach 1984 und angesichts der schon 1961 erfolgten Einstellung des Zugverkehrs nach Neunkirchen am Brand gab es seit Mitte der 1980er in Erlangen Überlegungen zur Schaffung einer umweltfreundlichen Verkehrsanbindung des Umlandes (Studie der Arbeitsgruppe Franken-Plan – Kinski/Schmidt/Berthold – 1985: „Eine Stadtbahn für Erlangen“). Das Modell einer Stadtbahn wurde dabei Anfang der 1990er-Jahre zu einem von allen Fraktionen getragenen Konzept einer Regionalstadtbahn weiterentwickelt, die vor Ort als Stadt-Umland-Bahn oder kurz als StUB bezeichnet wird. Ab 1992 beteiligte sich Siemens Transportation Systems sowohl technisch als auch finanziell im Projekt. 1995 beschlossen die Stadt Erlangen sowie die Landkreise Erlangen-Höchstadt und Forchheim grundsätzlich den Bau und Betrieb des StUB-Grundnetzes auf Grundlage vorangegangener Kosten-Nutzen-Analysen und Durchführbarkeitsprüfungen. Das Grundnetz umfasst in Form eines nach Süden, Westen und Osten ausgerichteten, T-förmigen Netzes drei Verbindungen nach Nürnberg-Thon, Herzogenaurach sowie Eckental über Neunkirchen am Brand. Streckenbeginn wäre jeweils im Stadtzentrum Erlangens. In Thon hätten die Fahrgäste Anschluss an das Nürnberger Straßenbahnnetz, in Eckental an die Gräfenbergbahn, im Erlanger Stadtzentrum an die S-Bahn Nürnberg sowie den Regional- und Fernverkehr. Mögliche Erweiterungen führen u. a. von Erlangen aus nach Hemhofen, wo Anschluss an die Aischgrundbahn von Forchheim nach Höchstadt an der Aisch bestünde. Ebenso gehört die Bahn im Wiesenttal von Forchheim nach Ebermannstadt zum Maximalnetz.
In einer Machbarkeitsstudie von 1993 wurden die Gesamtkosten für das StUB-Projekt auf knapp 1 Milliarde D-Mark beziffert, für die Trassen des Grundnetzes davon allein rund 413 Millionen DM. 1997 lehnte das bayerische Wirtschaftsministerium die Aufnahme des Projektes in Förderprogramme des Landes und des Bundes ab. Ohne diese Kofinanzierung stand eine Realisierung der Stadt-Umland-Bahn nicht in Aussicht. Dennoch blieb das Thema regelmäßig Bestandteil der öffentlichen und politischen Debatte in Erlangen und Umgebung. Eine BürgerInitiative für umweltverträgliche Mobilität im Schwabachtal thematisierte das Projekt ebenso immer wieder wie führende Politiker der beteiligten Landkreise. Ab Anfang 2008 wurde eine neue Nutzen-Kosten-Untersuchung für das StUB-Grundnetz erarbeitet.
Seit etwa 2010 werden, vor allem auf Initiative der Städte Herzogenaurach und Nürnberg, die Planungen für eine Stadt-Umland-Bahn wieder intensiver verfolgt. Bis zum Frühjahr 2012 entstand eine Standardisierte Bewertung und ein Vergleich zu einem regional optimierten Busnetz (RoBus). Der Ausbau der Infrastruktur für die StUB bezieht sich auf das so genannte T-Netz mit einer Nord-Süd-Verbindung von Erlangen Bahnhof nach Nürnberg-Wegfeld und von Erlangen Bahnhof mit einem Ast nach Westen über die neu zu bauende Kosbacher Brücke bis Herzogenaurach sowie nach Osten nur noch bis Uttenreuth. Letzteres würde ein Brechen des heute umsteigefreien Busverkehrs zwischen Erlangen und Eschenau bedeuten. Beim regional optimierten Busnetz werden zusätzliche Busspuren und Haltestellen sowie ebenfalls die neue Kosbacher Brücke unterstellt.
Demnach belaufen sich die Investitionen in die Infrastruktur bei der StUB auf circa 281 Millionen Euro, beim RoBus auf rund 12,4 Millionen Euro. Beide Maßnahmen könnten mit hohen staatlichen Zuwendungen, bis zu 80 Prozent auf förderfähige Anteile, rechnen. Andere Quellen sprechen von 365 bzw. 407 Millionen Euro für die StUB.
Maßgeblich für die politischen Entscheidungsträger sind auch die Folgekosten, die von den drei betroffenen Gebietskörperschaften (Städte Erlangen und Nürnberg sowie Landkreis Erlangen-Höchstadt) als Aufgabenträger für den ÖPNV zu tragen sind. Bei der StUB sind diese mit rund elf Millionen Euro etwa zehnmal so hoch wie bei der Busvariante. Mit der Realisierung der StUB ergäbe sich eine Verlagerung von täglich 10.930 Personenfahrten und eine Neuinduzierung von weiteren 2260 Personenfahrten, beim RoBus beliefe sich die Verlagerung auf 6610 Personenfahrten und eine Neuinduzierung von 835 Personenfahrten pro Tag.
Am 21. September 2012 fasste der Kreistag des Landkreises Erlangen-Höchstadt mit deutlicher Mehrheit den Beschluss, einen Förderantrag für die Stadt-Umland-Bahn mit dem Netz Nürnberg-Am Wegfeld – Erlangen – Herzogenaurach/Uttenreuth einzureichen. Am 27. September 2012 beschloss dies auch der Erlanger Stadtrat. Die Städte Nürnberg und Herzogenaurach hatten jeweils schon früher entsprechende Beschlüsse getroffen. Parallel sollen die Planungen für das Projekt konkretisiert werden. Nach dem Bescheid über die Förderung soll abschließend entschieden werden, ob das Projekt umgesetzt wird.
Fernbusverkehr
Der Erlanger Fernbusbahnhof befindet sich zentral in der Parkplatzstraße unmittelbar hinter dem Hauptbahnhof. Ab Erlangen werden über 20 Ziele vorrangig in Süddeutschland angefahren.
Erlanger Stadtwerke und kommunale Betriebe
Die Erlanger Stadtwerke AG (ESTW) haben ihren Ursprung in der 1858 gegründeten Erlanger Gasgesellschaft AG, welche mit einem eigenen Gaswerk die Gasversorgung der Stadt sicherstellte. 1915 wurde der Betrieb umbenannt in Städtische technische Werke Erlangen. Im Jahre 1939 wurde daraus ein Eigenbetrieb der Stadt Erlangen unter der Bezeichnung Stadtwerke Erlangen, 1967 eine Eigengesellschaft unter dem Namen ESTW – Erlanger Stadtwerke AG. Alleiniger Anteilseigner der Gesellschaft ist die Stadt Erlangen.
Die Stadtwerke versorgen Erlangen mit Elektrizität, Wärme, Erdgas und Wasser, betreiben die Erlanger Schwimmbäder, errichten und betreuen die Straßenbeleuchtungs- und Verkehrssignalanlagen und sind zuständig für die Umsetzung des Stadtverkehrs in Erlangen.
Neben den Stadtwerken betreibt die Stadt Erlangen eine Reihe von kommunalen Betrieben zur Errichtung und Wartung von Infrastrukturobjekten. Dazu gehören u. a.:
der Entwässerungsbetrieb EBE, der u. a. das Klärwerk Erlangens betreibt. In der Vergangenheit wurde immer wieder diskutiert, diesen Betrieb den Erlanger Stadtwerken zuzuordnen, bisher jedoch ohne Ergebnis,
der Betrieb Stadtgrün, Abfallwirtschaft und Straßenreinigung ist u. a. für die Müllabfuhr und die städtischen Grünanlagen zuständig.
Erlangen verfügt über einen eigenen Schlachthof, der von der stadteigenen Erlanger Schlachthof GmbH betrieben wird.
Einzelhandel
Seit Herbst 2007 wird die Einzelhandelslandschaft der Erlanger Innenstadt durch die überdachte Einkaufspassage Erlangen Arcaden mit rund 100 Einzelhandelsgeschäften auf drei Etagen geprägt. In zwei Bürgerbegehren (2004 und 2005) hatte sich die Erlanger Bevölkerung für die Errichtung der Passage auf dem Gelände der ehemaligen Hauptpost ausgesprochen.
Die Haupt-Einkaufsstraße verläuft als Nord-Süd-Achse durch Erlangen. Im nördlichen Bereich zwischen Wasserturmstraße über Schloß- und Marktplatz und Hugenottenplatz zur Henkestraße ist sie unter dem Namen Hauptstraße eine echte Fußgängerzone. Im südlichen Bereich zwischen Henkestraße und Rathausplatz verläuft sie unter dem Namen Nürnberger Straße. Dort ist sie nicht als Fußgängerzone ausgewiesen, jedoch autofrei und tagsüber nur von Radfahrern befahren. Die Erlangen Arcaden sind mit Eingängen im Bereich Henkestraße/Nürnberger Straße sowie an der Nürnberger Straße etwa in Höhe des Galeria-Kaufhof-Warenhauses/Neuer Markt an diese Haupt-Einkaufsstraße angebunden.
Bildung und Kultur
Schulen
Über das Stadtgebiet von Erlangen sind 16 Grundschulen verteilt; zudem gibt es vier Hauptschulen, zwei Realschulen, eine städtische Wirtschaftsschule, eine Schule für Kranke, zwei Förderschulen, vier Privatschulen (darunter je eine Montessori- und Waldorfschule), vier berufliche Schulen (darunter die Staatliche Fachoberschule und Berufsoberschule Erlangen) und sechs Gymnasien. Das älteste Gymnasium ist das Gymnasium Fridericianum, gegründet 1745 als Gymnasium Illustre. 1833 eröffnete die Landwirtschaft- und Gewerbeschule am Holzmarkt (heutiger Hugenottenplatz), aus der später das Ohm-Gymnasium wurde. Aus dem 1873 von Rosa († 1919) und Maria Vömel (1840–1886) gegründeten Vömelschen Privattöchterinstitut gingen sowohl das Christian-Ernst-Gymnasium als auch das Marie-Therese-Gymnasium hervor. Neugründungen der zweiten Hälfte des 20. Jahrhunderts aufgrund des Bevölkerungswachstums sind das Albert-Schweitzer-Gymnasium (1965 als Oberrealschule Erlangen-West) und das Emmy-Noether-Gymnasium (1974 als Gymnasium Südwest).
Die fünfte Privatschule ist die Franconian International School (FIS). Seit der Fertigstellung zum Schuljahr 2008/2009 gibt es ein übergreifendes Angebot vom Kindergarten über die Elementary School bis hin zur Middle- und High School. Unterrichtet werden soll nach internationalen Curricula auf Englisch, nach der zwölften Klasse kann das weltweit als Universitäts-Zulassung anerkannte International Baccalaureate erworben werden.
Wissenschaft und Forschung
Erlangen ist seit 1743 Universitätsstadt. Mit rund 40.000 Studenten ist die Friedrich-Alexander-Universität Erlangen-Nürnberg nach der Ludwig-Maximilians-Universität München und der Technischen Universität München die drittgrößte Universität Bayerns.
Im Umfeld der Universität ließen sich zahlreiche Forschungsinstitute in der Stadt nieder, so
das Fraunhofer-Institut für Integrierte Schaltungen (IIS), an dem unter anderem das MP3-Dateiformat entwickelt wurde,
das Fraunhofer-Institut für Integrierte Systeme und Bauelementetechnologie (IISB),
das Max-Planck-Institut für die Physik des Lichts,
das Forschungszentrum der Siemens AG,
das Bayerische Zentrum für Angewandte Energieforschung (ZAE Bayern) Abteilung Thermosensorik und Photovoltaik und
das Bayerische Laserzentrum (BLZ),
das Helmholtz-Institut Erlangen-Nürnberg für Erneuerbare Energien (HI ERN).
Mit dem Thema „Werkstoff Zukunft“ gehörte Erlangen zusammen mit Nürnberg und Fürth zu den zehn deutschen Städten, die im Wissenschaftsjahr 2009 Treffpunkt der Wissenschaft waren. Erlangen ist weiterhin „Korporativ Förderndes Mitglied“ der Max-Planck-Gesellschaft.
Theater und Kinos
Die Stadt Erlangen betreibt als eigenes Stadttheater Das Theater Erlangen. Hauptspielstätte ist das Markgrafentheater, das älteste bespielte Barocktheater in Süddeutschland.
Zum Stadttheater gehört außerdem das „Theater in der Garage“.
Weitere Theater sind die private Kleinkunstbühne „Fifty-Fifty“ und der Theaterverein „Studiobühne Erlangen“.
Darüber hinaus gibt es das Experimentiertheater des Instituts für Theater- und Medienwissenschaft der Universität.
Die freie Theaterszene hat sich in der Arbeitsgemeinschaft „Freies Theater Erlangen“ zusammengeschlossen, die ihre Interessen gegenüber der städtischen Kulturpolitik vertritt.
Erlangen ist Standort des jährlich ausgetragenen internationalen Theaterfestivals ARENA der jungen Künste.
In Erlangen gibt es vier Kinos: Das CineStar-Kino am Neuen Markt, die Lammlichtspiele in der Hauptstraße, das Kulturzentrum E-Werk und das Kino Manhattan.
StummFilmMusikTage Erlangen
Von 1997 bis 2011 wurde das barocke Markgrafentheater einmal jährlich zum Kinopalast. Das Programm bot eine breite Palette klassischer (und manchmal auch aktueller) Stummfilmproduktionen. Anders als bei anderen Stummfilmfestivals wurden die Filme hier fast ausschließlich mit Ensemble- oder Orchester-Begleitung aufgeführt. Zu hören waren dann neben den wenigen erhaltenen Originalkompositionen hochkarätige Neukompositionen zeitgenössischer Komponisten.
Das viertägige Festival ist als Biennale konzipiert, bietet seinem Publikum aber in den „Zwischenjahren“ ein eintägiges „Intermezzo“ mit Stummfilmklassikern. Zum regulären Festivalprogramm gehören darüber hinaus Ausstellungen, Publikumsgespräche mit Musikern, Komponisten und Filmexperten sowie das rund um die Uhr geöffnete Filmcafé mit Live-Musik. Seit 2012 finden die Stummfilmmusiktage in Nürnberg statt.
Museen
Die Stadtverwaltung betreibt im Altstädter Rathaus am Martin-Luther-Platz ein Stadtmuseum, das die Erlanger Geschichte zeigt. Historisch interessant sind auch die antiken, die ur- und frühgeschichtlichen und die graphischen Sammlungen der Friedrich-Alexander-Universität.
Das Kunstpalais Erlangen (früher Städtische Galerie) befindet sich im barocken Palais Stutterheim am Marktplatz (2007 war das Museum wegen Renovierung vorübergehend in den sog. Museumswinkel ausgelagert; 2010 erfolgte die Rückkehr in das Palais und die Umbenennung). Die Leiterin des Kunstpalais und der Städtischen Sammlung Erlangen seit 2015 ist Amely Deiss. Zweites Kunstmuseum ist das Museum im Loewenich’schen Palais, direkt neben den neu errichteten Erlangen Arcaden.
Seit 2014 besteht das Siemens MedMuseum (Siemens Unternehmensmuseum für Medizinische Technik) auf dem ehemaligen Areal von Siemens UB-Med im sog. Museumswinkel an Gebbertstraße/Ecke Luitpoldstraße. Leiterin des Siemens Med Museums ist Doris-Maria Vittinghoff. Dort wird die Geschichte der Siemens Medizintechnik erzählt, von Erwin-Moritz Reinigers Werkstatt am Schloßplatz (1877) bis hin zu Siemens Healthcare (2014).
Medien
Als Tageszeitung sind die Erlanger Nachrichten konkurrenzlos. Den überregionalen Mantel liefern die Nürnberger Nachrichten, deren Verlag Nürnberger Presse Druckhaus Nürnberg beide Zeitungen herausgibt. Der Erlanger Lokalteil wird zwar von einer eigenen Lokalredaktion in Erlangen betreut, aber seit 1998 vollständig in Nürnberg gedruckt. Nur ein Nischendasein führt der Fränkische Tag, dessen Lokalteil über den Landkreis Erlangen-Höchstadt zwar regelmäßig auch die Rubrik „Erlangen“ enthält, im Stadtgebiet jedoch nur über den Einzelhandel oder über den Postvertrieb erhältlich ist.
Mit der Monatszeitung Was Lefft – später kam der Untertitel Worte statt Taten hinzu – gab es seit Januar 1976 ein links ausgerichtetes Stadtmagazin, das lokalpolitische Themen und Fragen der internationalen Politik behandelt. Anfang des neuen Jahrtausends beschloss der Trägerverein die Gründung der raumzeit als neue linke Monatszeitung für den Großraum Nürnberg-Fürth-Erlangen. Sie erschien aber seit 2005 nur noch im Internet und wurde Ende desselben Jahres eingestellt.
Daneben gibt es noch eine ganze Reihe von Zeitschriften, die sich meist an einen eingeschränkten Publikumskreis wenden. Je nachdem, wer hinter diesen Zeitschriften steht, kann Inhalt, Aufmachung, Erscheinungsintervall und Verbreitung sehr unterschiedlich sein. Das Spektrum reicht vom Amtsblatt der Stadt Erlangen über Stadtteilzeitungen bis zu Mitteilungsblättern der Kirchengemeinden. Beispiele für unterschiedliche Stadtteilzeitungen sind die „Altstadtzeitung“ des Altstadtforum Erlangen und das aus gedruckten losen Blättern bestehende Puzzle aus Büchenbach.
Als kostenlos verteilte Szeneinfos mit Veranstaltungstipps liegen v. a. in Kneipen und Einrichtungen der Universität der hugo! sowie die Erlanger Ausgaben der im Großraum Nürnberg erscheinenden Stadtmagazine Doppelpunkt und curt aus.
Vorwiegend an Senioren wendet sich die vierteljährlich erscheinende Zeitschrift Herbst-Zeitlose.
Der Straßenkreuzer ist eine Obdachlosenzeitschrift für den Großraum Nürnberg-Fürth-Erlangen, die im freien Straßenverkauf verbreitet wird.
Mit Radio Downtown gab es ab dem 1. Februar 1987 einen eigenen Hörfunksender für Erlangen, der sich mit einem zunächst neunstündigen Programm, das später auf 16-Stunden ausgeweitet wurde, etablierte. Die Frequenz UKW 95,8 teilte sich Radio Downtown mit dem freien Radiosender Radio Z aus Nürnberg. Populär war Radio Downtown besonders wegen seines breiten Raumes für Bands aus Franken. Über die Regionalcharts konnten sich Bands und Musiker wie Fiddler’s Green, Throw That Beat in The Garbagecan!, Merlons of Nehemiah (seit 2001 Merlons Lichter), J.B.O., die Wellucken Allstars oder auch Kevin Coyne ein breiteres Publikum erschließen. Die Frequenz wurde schließlich am 3. Dezember 1995 von der NRJ Group für den Radiosender Energy Nürnberg übernommen.
Musik
Das Musikleben der Stadt wird hauptsächlich vom Gemeinnützigen Theater- und Konzertverein Erlangen (gVe) sowie den vielen musikalischen Aktivitäten der Kirchengemeinden und der Universitätsmusik geprägt (aus der beispielsweise das Universitätsorchester Erlangen oder die Junge Philharmonie Erlangen hervorgingen).
1945 wurde von Laienmusikern das Erlanger Kammerorchester gegründet.
In Erlangen besteht das Siemens-Orchester Erlangen. Das Liebhaberorchester gibt seit 1950 zwei bis drei Konzerte jährlich, wobei es auch außerhalb der Stadtgrenzen auftritt.
Franz Seeberger, damaliger Besitzer des Musiklokals Starclub, hatte 1978 als Marc Seaberg einen Hit mit dem Song Looking for Freedom, der 1989 in einer Version von David Hasselhoff an der Spitze der deutschen Charts stand.
Michael Holm hatte in den 1970ern mehrere deutsche Top-Hits und wurde später mit seinem Musikprojekt Cusco mehrfach für den Grammy nominiert.
Die Fun-Metal-Band J.B.O. wurde 1989 von vier Erlangern gegründet, auf Konzerten wurde das Bier der Brauerei Kitzmann mit eigenen rosafarbenen Etiketten verkauft.
Mit Fiddler’s Green, Feuerschwanz und Bülbül Manush gibt es drei weitere Erlanger Bands, die deutschlandweit Auftritte geben.
Der Komponist, Pianist und Dirigent Werner Heider wohnt und lebt in Erlangen, ebenso wie der Jazz- und Experimentalmusiker und Komponist Klaus Treuheit.
Erlangen wurde in Wissenswertes über Erlangen, einem Lied der Berliner Band Foyer des Arts aus dem Jahre 1982, das der Neuen Deutschen Welle zugeordnet wird, thematisiert.
Tanz- & Folkfest
Nachdem Erlangen in den 1970er und 1880er Jahren für seine vom städtischen Freizeitamt organisierten Folkfestivals sehr bekannt war, ist diese Veranstaltungsserie schließlich ganz verschwunden. Seit 1998 findet aber wieder alle zwei Jahre ein internationales Folktanzfestival statt, das die Tradition der Folkfeste in Erlangen fortführt. Dieses Folktanzfest ist eines der wenigen Festivals in Deutschland, bei dem die „Tänze der Völker“ (z. B. Tänze aus Irland, der Bretagne, Bulgarien, Griechenland, Israel etc.) in Workshops erlernt und bei Tanznächten zu Live-Musik (Bal Folk, Céilí, Fest-noz) getanzt werden können.
Es findet immer Ende April/Anfang Mai statt und umfasst somit auch einen „Tanz in den Mai“.
Seit Anfang an gibt es jedes Mal ein Schwerpunktthema (z. B. Länderspecial Afrika oder Deutschland, Kinder, Senioren) das von verschiedenen Seiten bedacht wird.
Das drei- bis fünftägige Festival wird ehrenamtlich von den Mitgliedern und Freunden des Vereins „Erlanger Tanzhaus e. V.“ sowie dem Studentenwerk Erlangen-Nürnberg organisiert und durchgeführt und zieht Besucher aus ganz Deutschland an. Es bietet seinen Gästen einerseits die Möglichkeit, sich über verschiedene Tanzstile zu informieren und andererseits auch die eigenen Kenntnisse in den entsprechenden Bereichen weiter zu vertiefen. Im Jahr 2002 fand das Tanz- & Folkfest im Rahmen der Feierlichkeiten zu „1000 Jahre Erlangen“ statt und brachte erstmals die Tanzstile aller Erlanger Partnerstädte auf eine gemeinsame Bühne.
Kulturpreis
Von 1962 bis 1991 und wieder seit 2006 wird der Kulturpreis der Stadt Erlangen vergeben.
Sport
Erlangen weist eine Vielzahl von Sportvereinen auf, die im Sportverband Erlangen zusammengeschlossen sind. Die größten sind die Sektion Erlangen des Deutschen Alpenvereins, der Turnverein (TV) 1848, der Turnerbund (TB) 1888, die Sportgemeinschaft Siemens (SGS), die Spielvereinigung (SpVgg) 1904, der Allgemeine Turn- und Sport-Verein (ATSV) 1898 Erlangen, der Sportverein Tennenlohe 1950 und der Sport-Club 1926 Eltersdorf.
Schon länger bietet die Schwimmsportgemeinschaft Erlangen von 1981 (SSG 81 Erlangen), ein Zusammenschluss der Schwimmabteilungen von TB 1888 und der Schwimmabteilung der SG Siemens Erlangen mit dem Schwimmverein Erlangen, die Grundlage für sportliche Erfolge. Die Zwillingsbrüder Björn und Bengt Zikarsky holten 1996 bei den Olympischen Spielen Bronze. Die Nürnbergerin Hannah Stockbauer wurde 2003 dreifache Schwimmweltmeisterin. Teresa Rohmann holte mehrere internationale Medaillen und nationale Meistertitel, Daniela Götz hat mit der DSV-Staffel bereits mehrere internationale Medaillen geholt, wartet jedoch noch auf einen internationalen Einzeltitel. Auch der Nachwuchs holt immer wieder deutsche Jugendtitel. Die Sportschwimmhalle im Röthelheimbad wurde 2004 auf Betreiben des Oberbürgermeisters Siegfried Balleis auf den Namen „Hannah-Stockbauer-Halle“ getauft. Allerdings fanden das nicht nur viele Bürger und Stadtratsmitglieder übertrieben, auch Stockbauer selbst konnte sich damit nicht recht anfreunden.
Vor der Blüte der Schwimmer war v. a. die Leichtathletik der TB 1888 sehr erfolgreich. Hier wuchs auch der Hürdensprinter Florian Schwarthoff auf, der bei den Olympischen Spielen 1992 Bronze über 110 m Hürden gewann.
Erlangen hat eine lange Tradition im Handball. In den 1990er Jahren spielten zeitweise zwei Vereine in der Zweiten Bundesliga Süd (Hallenhandball): Die Christliche Sportgemeinschaft (CSG) Erlangen (ab der Saison 1989/90) und die Handballgemeinschaft (HG) Erlangen (ab der Saison 1996/97), ein Zusammenschluss der Handballabteilungen des TB 1888 und des TV 1848. Nach der Saison 2000/01 zog sich die HG aus der Zweiten Liga zurück. 2001 fusionierten CSG und HG Erlangen zum Handballclub (HC) Erlangen, der nach der Saison 2003/04 in die Regionalliga Süd abstieg. In der Saison 2007/08 gelang dem Verein der Wiederaufstieg in die Zweite Bundesliga, 2014 stieg er erstmals in die Handball-Bundesliga auf.
Aber auch andere Sportarten sind schon seit langem in Erlangen vertreten. Im Ortsteil Kosbach befinden sich die Stallungen und Reitanlage des Reitclubs Erlangen e. V. Der Tanz-Turnier-Club Erlangen wurde bereits 1949 gegründet, gehört damit zu den ältesten Tanzsportvereinen in Bayern und war Gründungsmitglied des Landestanzsportverbandes Bayern (LTVB). Auf dem Main-Donau-Kanal trainieren die Sportler des Rudervereins Erlangen von 1911 und der Erlanger Wanderrudergesellschaft Franken.
Die am 15. Januar 1890 gegründete Sektion Erlangen des Deutschen Alpenvereins (DAV) ist mit 10.695 Mitgliedern (Dezember 2021) der größte Sportverein der Stadt. Die Sektion betreibt die Erlanger Hütte in den Ötztaler Alpen, das Falkenberghaus bei Artelshofen in der Fränkischen Alb, und das DAV-Kletterzentrum mit der Hanne-Jung-Kletterhalle im Erlanger Stadtteil Röthelheimpark.
2021 bewarb sich die Stadt als Host Town für die Gestaltung eines viertägigen Programms für eine internationale Delegation der Special Olympics World Summer Games 2023 in Berlin. 2022 wurde sie als Gastgeberin für Special Olympics Serbien ausgewählt. Damit wurde sie Teil des größten kommunalen Inklusionsprojekts in der Geschichte der Bundesrepublik mit mehr als 200 Host Towns.
Regelmäßige Veranstaltungen
Monatlich: Poetry Slam im E-Werk (seit 2002)
Januar: Erlanger Spielertage, im E-Werk (seit 1987)
Februar: Regionalwettbewerb Jugend forscht & Schüler experimentieren in der Heinrich-Lades-Halle (seit 1989)
Ende April: Weekend of Fear, Filmfestival für obskure Filme
Mai/Juni (immer ab dem Donnerstag vor dem Pfingstsonntag): Bergkirchweih, Volksfest seit 1755
Mai/Juni in ungeraden Jahren: Internationales Figurentheater-Festival zusammen mit den Städten Nürnberg, Fürth und Schwabach (seit 1979)
Juni in geraden Jahren: Internationaler Comic-Salon (seit 1984)
Juni/Juli: Schlossgartenfest der Friedrich-Alexander-Universität
Juli: Internationales Theater-Festival ARENA der jungen Künste
Juli: Altstadtfest auf dem Altstädter Kirchenplatz
August: Marktplatzfest mit Handwerk, Kunst und Brauchtum
August: Erlanger Poetenfest (seit 1980)
Oktober: Die Lange Nacht der Wissenschaften (seit 2003 biennal)
Dezember: Weihnachtsmarkt auf dem Schloßplatz und Historischer Weihnachtsmarkt auf dem Neustädter Kirchenplatz.
Internationales Figurentheater-Festival, Internationaler Comic-Salon und Erlanger Poetenfest galten um das Jahr 2000 herum aus finanziellen Gründen als existenzbedroht. Zumindest die letzteren beiden Veranstaltungen haben sich – auch durch neue Sponsoring-Konzepte – ihrer städtischen Unterstützung jedoch inzwischen versichern können, zumal besonders der Internationale Comic-Salon für Rekordumsätze in Hotellerie und Gastronomie sorgt.
Umweltschutz
Der Umwelt- und Naturschutz genießt in Erlangen seit Beginn der Umweltbewegung in Deutschland Anfang der 1970er-Jahre einen hohen Stellenwert. Eine Reihe nationaler und internationaler Auszeichnungen belegen den Erfolg der Anstrengungen. So wurde der Stadt 1988 der Titel „Partner des Europäischen Umweltjahres 1987/88“ verliehen sowie 1990 und 1991 der Titel „Bundeshauptstadt für Natur- und Umweltschutz“. Das Jahr 2007 wurde von der Stadtverwaltung zum Umweltjahr unter dem Motto „natürlich ERLANGEN“ ausgerufen. Ein Schwerpunkt ist der Ausbau der Photovoltaik. Von 2003 bis 2011 wurde die in Erlangen installierte Leistung von Photovoltaikanlagen auf 16.700 kW mehr als verzwanzigfacht, so dass jährlich nun über 2,0 % des Erlanger Strombedarfs gedeckt wird.
Erlangen beteiligt sich an der so genannten Solarbundesliga. Im Wettstreit der Großstädte stand Erlangen zur Saison 2012 auf dem dritten Platz und auf einem zweiten Platz in der europäischen Solar-Liga.
Erlangen ist seit 2007 die erste Großstadt, in der jede Schule eine Solaranlage hat. Die Daten der Solaranlagen an den Schulen waren im so genannten Klimaschutzschulenatlas im Internet dargestellt, der an den Schulen im Unterricht genutzt werden konnte. Im Jahr 2011 wurde im Internet ein Solarstadtplan eingerichtet, in dem realisierte Solaranlagen eingetragen werden können.
Verkehr
Bereits in den 70er Jahren wurde mit einer fahrradfreundlichen Verkehrspolitik des damaligen Oberbürgermeisters Dietmar Hahlweg der Grundstein für den hohen Anteil des Fahrrads am Gesamtverkehr gelegt. Sein besonderes Augenmerk galt der Einführung von Radwegen auf den Gehwegen. In der gesamten Bevölkerung ist das Fahrrad ein verbreitetes Verkehrsmittel. Radfahrende Anzugträger mit Aktentasche sind kein ungewöhnlicher Anblick. Früher stritten Erlangen und Münster regelmäßig um den Titel der fahrradfreundlichsten Stadt Deutschlands.
Mit dem Einsatz von Erdgasbussen im öffentlichen Nahverkehr haben auch die Erlanger Stadtwerke einen Beitrag zur Reduzierung von CO2-Emissionen und Feinstaub geleistet.
Natur- und Landschaftsschutz
Es gibt zwei Naturschutzgebiete, die gemäß Artikel 7 des Bayerischen Naturschutzgesetzes den höchsten Schutz für Pflanzen und Tiere bietet. Dies sind:
Das 1964 als Naturschutzgebiet ausgewiesene Feuchtbiotop Brucker Lache, welches 1984 von ursprünglich 76 ha auf 110 ha erweitert wurde. Südlich des Naturschutzgebietes liegt in unmittelbarer Nachbarschaft das Walderlebniszentrum Tennenlohe, eines von neun Walderlebniszentren der Bayerischen Forstverwaltung.
Das im Oktober 2000 eingerichtete Naturschutzgebiet Exerzierplatz, ein 25 ha großes Sandbiotop, das auch Teil der Sandachse Franken ist.
In direkter Stadtnähe liegt zudem das mit 934 ha größte mittelfränkische Naturschutzgebiet, der Tennenloher Forst. Das schon seit Ende des 19. Jahrhunderts bis in die 1990er-Jahre als Schieß- und Standortübungsplatz genutzte Gelände ist eines der letzten großflächigen Sandökosysteme Süddeutschlands. Im Jahre 2003 wurde hier ein 50 ha großes Freigehege für eine Herde von Urwildpferden (Przewalski-Pferde) eingerichtet.
Als weitere Naturschutzgebiete sind in der Diskussion:
Die Dechsendorfer Lohe, ein 56 ha großes Gebiet im Seebachgrund, deren ausgedehnte Feuchtwiesen und Trockenwälder als schützenswert gelten
Ein 47 ha großes Gebiet im nördlichen Regnitztal in der Nähe des Wasserkraftwerkes West, das alle Abstufungen von Sandtrockenrasen bis zu Feuchtwiesen aufweist.
Neben den Naturschutzgebieten gibt es in Erlangen 21 Landschaftsschutzgebiete mit einer Gesamtfläche von 3538 ha, also fast der Hälfte des gesamten Stadtgebietes. Im Unterschied zum Naturschutzgebiet steht bei diesen der Schutz der speziellen Landschaft und ihres Erholungswertes sowie die Erhaltung eines leistungsfähigen Naturhaushaltes im Fokus. Dazu gehören:
Der Holzweg in Büchenbach, ein traditioneller Verbindungsweg zwischen Büchenbach und dem Waldgebiet Mönau, über den sich die Einwohner Büchenbachs über Jahrhunderte mit Holz versorgten. Dadurch hat sich ein Hohlweg gebildet, dessen Ränder mit artenreicher Magerrasenvegetation bewachsen sind.
Der Sandmagerrasen an der sogenannten „Riviera“, einem Fußweg entlang der Schwabach. Dieses Gebiet wurde Anfang 2000 zum Landschaftsschutzgebiet erklärt.
Der Hutgraben Winkelfeldern und Wolfsmantel (186 ha), ein in einer Hangmulde westlich von Kalchreuth entspringender Wasserlauf, der westlich von Eltersdorf in die Regnitz mündet. Dieses Gebiet wurde 1983 zu Landschaftsschutzgebiet erklärt.
Das südwestlich von Büchenbach gelegene Bimbachtal, das 1983 zum Landschaftsschutzgebiet erklärt wurde.
Das 56 ha große Gebiet Grünau
Das Gebiet um den Großen Bischofsweiher (Dechsendorfer Weiher) (169 ha)
Die Mönau (570 ha)
Die Dechsendorfer Lohe (70 ha)
Der Seebachgrund (112 ha)
Das Moorbachtal (50 ha)
Das Regnitztal (883 ha)
Der Meilwald mit Eisgrube (224 ha)
Das Schwabachtal (66 ha)
Der Steinforstgraben mit dem Kosbacher Weiher und Dauerwaldstreifen östlich des Main-Donau-Kanals (157 ha)
Der Rittersbach (66 ha)
Der Schutzstreifen beiderseits der BAB 3 (47 ha)
Der Klosterwald (197 ha)
Das Aurachtal (182 ha)
Römerreuth und Umgebung (110 ha)
Der Bachgraben (9 ha)
Die Brucker Lache (331 ha)
Die von Bebauung freigehaltenen Regnitzwiesen sorgen dafür, dass die Hochwasser, die häufig im Herbst und späten Winter auftreten, gefahrlos ablaufen können. Bedingt durch die weitläufigen Regnitzwiesen konnte sich eine große Weißstorchpopulation bilden. Die Horste in Bruck, Eltersdorf und Frauenaurach sind regelmäßig belegt. Seit einigen Jahren brütet ein Storchenpaar sogar in unmittelbarer Nähe zur Innenstadt auf dem Kamin der Brauerei Steinbach.
In den Aurachwiesen beim Stadtteil Bruck wurde im Jahr 2004 ein historisches Wasserschöpfrad wieder in Betrieb genommen. Etwa 10 weitere Wasserschöpfräder befinden sich nördlich von Erlangen bei Möhrendorf. Diese seit dem 15. Jahrhundert fast unverändert und vollständig aus Holz erbauten Räder waren früher in sehr großer Zahl am gesamten Verlauf der Regnitz zwischen Fürth und Forchheim verbreitet. Die wuchtigen Holzkonstruktionen, die an Mühlräder erinnern, werden heutzutage von ehrenamtlichen Helfern zu Beginn der Sommersaison aufgestellt und am Ende der Saison abgebaut und eingelagert. Zum Teil werden sie heute zur Bewässerung von Feuchtbiotopen genutzt, die dem Erhalt der Nahrungsgrundlage für die heimischen Störche dienen.
Sehenswürdigkeiten
Historische Bauwerke
Die jetzige Innenstadt, die ehemalige Neustadt Erlangen, ist als Ensemble sehenswert. Sie ist als barocke Plan- und Idealstadt errichtet worden und gehört heute mit ihren schnurgeraden Straßen- und Platzfronten und den einheitlichen Fassaden der fast durchwegs zwei- und dreigeschossigen traufständigen Häuser zu den bedeutendsten und am besten erhaltenen Anlagen dieser Art in Deutschland.
Die Schlossanlage mit dem markgräflichen Schloss, dem Schloß- und Marktplatz sowie dem Schlossgarten, in dem sich u. a. die Orangerie, die ehemalige Konkordienkirche (heute Geologisches Institut), der Hugenottenbrunnen sowie das Reiterstandbild des Markgrafen Christian Ernst befinden.
Das Markgrafentheater, das älteste bespielte Barocktheater Süddeutschlands.
Das Palais Stutterheim, in dem sich heute die Stadtbibliothek sowie das Kunstpalais Erlangen (ehemals Städtische Galerie) befinden.
Das Egloffsteinsche Palais, das 1718 am damaligen Stadtrand für Carl Maximilian Freiherr von Egloffstein errichtet wurde. Bemerkenswert ist insbesondere der ehemalige Festsaal mit einer prächtigen Stuckdecke, die Domenico Cadenazzi zugeschrieben wird. 1749 wurde das Gebäude von der Stadt erworben, nachdem es vorübergehend der Universität gehörte. Seitdem wurde das Gebäude unterschiedlich genutzt, unter anderem als Armeninstitut, Tabakfabrik und für verschiedene Schulen. Seit der Renovierung im Jahr 1998 wird es ausschließlich von der Volkshochschule genutzt. In diesem Gebäude befand sich auch die Wohnung des Dichters und Orientalistikprofessors Friedrich Rückert.
Der ehemalige Wasserturm (Apfelstraße 12) wurde 1705 als erster Turm der Neustadt errichtet. Er war ursprünglich sechsgeschossig und diente der Wasserversorgung des Botanischen Gartens, der Springbrunnen und der Wasserspiele in der Orangerie. Seit 1818 ist er im Besitz der Universität, die den Wasserturm zur Wasserversorgung ihrer am Schlossgarten angesiedelten Institute benutzte. Drei Stockwerke wurden 1876 wegen Baufälligkeit abgebrochen. Zwei Räume wurden zwischen 1839 und 1897 als Karzer der Universität genutzt. Ein Raum davon ist noch heute im originalen Zustand erhalten.
Das Altstädter Rathaus am Martin-Luther-Platz. Das Gebäude wurde 1733/1734 bis 1740 in der Mitte der östlichen Front des Martin-Luther-Platzes errichtet, nachdem 1706 das Rathaus beim Altstadtbrand zerstört worden war. Nach der Zusammenlegung der Rathausfunktionen in der Neustadt 1812 diente das Gebäude unterschiedlichen Verwendungen. Seit 1964 wird das Gebäude für das Stadtmuseum genutzt. Es wurde 1988 renoviert.
Die unauffällige kleine Burgbergkapelle ist das älteste Gebäude der Stadt. Sie stammt wahrscheinlich aus dem 15. Jahrhundert, wird aber erstaunlicherweise weder in der Erlanger Stadtgeschichte, noch in der Kirchengeschichte vor 1709 erwähnt. Sie war eine Einsiedelei und hatte wohl den Auftrag der Siechenbetreuung außerhalb der Stadtmauern. In der Nähe befindet sich heute noch das mittlerweile umgebaute Siechenhaus.
Das Platenhäuschen am Burgberg, in dem August Graf von Platen im Sommer 1824 das Lustspiel Der Schatz des Rhampsinit fertigstellte.
Die ehemaligen Bierkeller im Burgberg
Die Reste der alten Stadtmauer inklusive der Gedenktafeln für das 1945 von einem amerikanischen Panzer beim Durchfahren beschädigte Nürnberger Tor, welches anschließend gesprengt werden musste.
Das Loewenichsche Palais, das Mitte des 18. Jahrhunderts von Joachim Christoph Heer im Barockstil erbaut wurde und ab 1817 als Wohngebäude und Tabakfabrik der Familie Loewenich diente. Bis 1941 im Familienbesitz, wurde es anschließend von der Post genutzt und ist heute ein Kunstmuseum.
Die in den Jahren 1910–1913 im Jugendstil erbaute alte Universitätsbibliothek, welche die Hausbibliothek des Markgrafen Friedrich von Brandenburg-Bayreuth beherbergte. Darunter befanden sind u. a. zahlreiche kostbare Handschriften, die Markgräfliche Sammlung sowie eine Münzsammlung.
Moderne Architektur
Die Wohnanlage St. Johann 6, im Volksmund Langer Johann genannt. Der 1972 eröffnete Hochhauskomplex mit fast 24.000 m² Nutzfläche gilt als größtes Wohngebäude Bayerns.
Kirchen
Die evangelisch-reformierte Hugenottenkirche am Hugenottenplatz, die älteste Kirche der Hugenotten außerhalb Frankreichs
Die Altstädter Pfarrkirche (Dreifaltigkeitskirche)
Die Neustädter Pfarrkirche (Universitätskirche)
Die Neustädter Friedhofskirche
Die Martinskirche (Martinsbühler Kirche)
Die Markuskirche im Stadtosten
Die Matthäuskirche am Ohmplatz („Oratorienkirche“)
Die St.-Michael-Kapelle im Ortsteil Steudach
Die Neuapostolische Kirche in der Schuhstraße
Die Russisch-Orthodoxe Kirche
Die Martin-Luther-Kirche in Erlangen/Büchenbach
Die Johanniskirche in Alt-Erlangen
Die katholische Pfarrkirche St. Heinrich in Alterlangen
Die katholische Herz-Jesu-Kirche
Die katholische Pfarrkirche St. Bonifaz
Die katholische Pfarrkirche St. Sebald
Die katholische Kirche Unsere Liebe Frau in Dechsendorf
Die evangelische Christuskirche in Dechsendorf
St. Thomas (Erlangen), evangelisch
Denkmäler
Das Kanaldenkmal (Ludwig-Donau-Main-Kanal)
Das Markgrafendenkmal auf dem Schloßplatz. Das von Ludwig von Schwanthaler entworfene, von Johann Baptist Stiglmaier gegossene überlebensgroße Bronzestandbild, das der bayerische König Ludwig I. der Universität 1843 zu ihrem hundertjährigen Jubiläum schenkte, ist das erste in Deutschland, das ausdrücklich einem Universitätsgründer gewidmet wurde.
Das Reiterdenkmal im Schlossgarten
Brunnen
In der Stadt und ihren Stadtteilen gibt es eine Vielzahl von Brunnenanlagen:
Der Paulibrunnen auf dem Marktplatz
Der Mühlsteinbrunnen, Elise-Spaeth-Str. 7 (Innenhof der Werner-von-Siemens-Realschule).
Der Hugenottenbrunnen im Schlossgarten
Das Delphinbrünnlein im Schlossgarten
Der Rückert-Brunnen im Schlossgarten
Der Ruckerbrunnen, eine schlanke Metallskulptur des Bildhauers Hans Rucker auf dem Rathausmarkt, die an das Überschreiten der 100.000-Einwohner-Grenze Erlangens erinnert.
Der Ringebrunnen, Ecke Brahmsstr. / Werner-von-Siemens-Str., ausgeführt von Bernhard Rein.
Ohmbrunnen auf dem Ohmplatz.
Quellstein im Labyrinth auf dem Bohlenplatz, ausgeführt von Bernhard Rein zum Stadtjubiläum 2002.
Meilwaldbrunnen, Ecke Schleifmühlstr. / Ebrardstr. – Ein als Trog ausgehöhlter Baumstamm, der eingebrannten Inschrift nach 1965 aufgestellt; der morsche Trog wurde im Sommer 2007 entfernt.
Brunnenbuberl auf dem Maximiliansplatz.
Öffentliche Gärten
Schlossgarten
Botanischer Garten
Der Aromagarten Erlangen wurde 1979 bis 1980 auf über 9000 m² an der Palmsanlage in den Schwabachauen auf Initiative des Biologen und Pharmazeuten Karl Knobloch angelegt. Das Gelände wurde früher als Gemüsegarten des Bezirkskrankenhauses Erlangen genutzt. Der Aromagarten beherbergt über 1000 einheimische und exotische Aromapflanzen, die wegen ihrer ätherischen Öle als Arznei- und Gewürzlieferanten oder für Kosmetika genutzt werden.
Burgberggarten mit Skulpturen Heinrich Kirchners
Wichtige Plätze
Martin-Luther-Platz (ältester Platz in Erlangen), nach dem Altstadtbrand 1706 neu geplant und gebaut
Hugenottenplatz (genannt „Hugo“, Stadtzentrum und Knotenpunkt der Innenstadt-Straßen sowie der Stadtbuslinien)
Schloß- und Marktplatz, die das Zentrum der Stadt bilden
Neustädter Kirchenplatz
Lorlebergplatz (ehem. Kaiser-Wilhelm-Platz)
Altstädter Kirchenplatz
Theaterplatz
Bohlenplatz
Langemarckplatz
Neuer Markt
Der Ohmplatz in der Südstadt
Zollhaus-Platz
Bahnhofsplatz
Der Maximiliansplatz in der Altstadt
Wichtige Friedhöfe
Der evangelisch-lutherische Altstädter Friedhof befindet sich seit Beginn des 18. Jahrhunderts an der heutigen Stelle auf dem Martinsbühl bei der Kirche St. Martin (Martinsbühler Kirche).
Der Reformierte Friedhof in der Äußeren Brucker Straße befindet sich seit 1828 an der heutigen Stelle. Die südliche Gräberseite diente der französisch-reformierten Gemeinde, die nördliche Seite der deutsch-reformierten Gemeinde.
Der Neustädter Friedhof (Äußere Brucker Str. 24/26) als „Teutsch Gottesacker“ 1721 vor den Toren der Stadt angelegt. Seit 1775 befindet sich hier die Universitätsgruft. Auf diesem Friedhof befinden sich viele ältere Gräber namhafter Erlanger Familien und Professoren, z. B. das Grab der Kinder Friedrich Rückerts, Ernst und Luise.
Der Israelitische Friedhof (Rudelsweiherstr. 85) ist seit 1891 der Friedhof der Erlanger jüdischen Gemeinde
Der Zentralfriedhof (Städtischer Friedhof) in der Äußeren Brucker Straße wurde 1895 eröffnet.
Der Westfriedhof befindet sich südlich des Stadtteils Steudach.
Sonstiges
Bundesweite Bekanntheit erlangte 1982 das Lied „Wissenswertes über Erlangen“ von Foyer des Arts. Im Liedtext von Max Goldt finden sich keine direkten Bezüge zu den realen Gegebenheiten in Erlangen (mit der Ausnahme, dass Erlangen tatsächlich nicht im Sauerland liegt). Vielmehr muss der Name „Erlangen“ als Platzhalter für eine beliebige deutsche Stadt herhalten.
Die Titelzeile wird von Journalisten oft als Schlagzeile für Artikel benutzt, die irgendetwas mit Erlangen zu tun haben.
Das Erlanger Baby: Ein Vorfall am Universitätsklinikum im Jahre 1992 brachte Erlangen in die bundesweiten Schlagzeilen. Nach dem Verkehrsunfall einer 19-jährigen Schwangeren wurde diese trotz ihres Hirntodes künstlich am Leben erhalten, um den Fötus zu retten. Die Maßnahme blieb ohne Erfolg, der Fötus starb einige Tage später bei einem Spontanabort. Wegen der breiten öffentlichen Debatte über den Fall wählte die Gesellschaft für deutsche Sprache den Ausdruck Erlanger Baby zu einem der Wörter des Jahres 1992.
Auffallend an Erlangen ist auch die hohe Zahl an studentischen Verbindungen. Es gibt 18 schlagende und nicht-schlagende, politische und unpolitische Vereinigungen männlicher Studenten.
Der Erlanger Schriftsteller Tobias Bachmann rechnete in seiner 2006 veröffentlichten Science-Fiction-Erzählung „Der Untergang der Stadt Erlangen“ auf satirisch phantastische Art und Weise mit seiner Heimatstadt ab: Sein Ich-Erzähler beobachtet, wie vogelartige Riesentiere die Hugenottenstadt als Niststadt auswählen und Erlangen in Schutt und Asche legen. Zynismus bleibt hierbei nicht verborgen: „Der Schlot der Stadtwerke war abgeknickt, diverse Hochhäuser in sich zusammengestürzt. Immerhin, so dachte ich, die Vögel scheinen übermäßigen Appetit auf die architektonischen Hässlichkeiten dieser Stadt zu haben.“ Auch wenn zum Ende der Erzählung alles wieder gut wird, bleibt das Fazit, welches die Geschichte eröffnet: „Die Zukunft hatte Franken auch nichts gebracht.“
Auf dem Transport vom SS-Gefängnis Danzig zum KZ Dachau starb am 24. Februar 1945 bei Erlangen der Südtiroler Josef Mayr-Nusser, ein katholischer Pazifist, der 1944 zwangsweise zur Waffen-SS eingezogen wurde und wegen Verweigerung des Fahneneides der Wehrkraftzersetzung angeklagt und verurteilt wurde. Die Fachakademie für Sozialpädagogik in der Hammerbacherstraße 11 ehrte ihn mit ihrer Namensträgerschaft.
An der Stelle, an der Wehrmachtssoldat Werner Lorleberg, der die Stadt kampflos übergeben hatte, gestorben ist (je nach Deutung der Ereignisse durch Suizid oder Ermordung seitens anderer Wehrmachtssoldaten), erinnert ein Denkmal an ihn.
Im Jahr 2024 war in Erlangen die Ausrichtung einer Landesgartenschau auf der Wöhrmühlinsel und dem Großparkplatzgelände geplant. In einem Bürgerentscheid hat die Bevölkerung gegen die Landesgartenschau gestimmt.
Erlanger Bier
Gern zitiert wird eine Passage aus Karl Mays Roman „Durch das Land der Skipetaren“: Einem Orientalen, dem der Held Kara Ben Nemsi darin begegnet, fällt zu Deutschland als allererstes die Stadt „Elanka“ (Erlangen) ein, in der angeblich selbst Säuglinge mit Bier gepäppelt würden. Tatsächlich genoss Erlangen – das einst fast 30 Brauereien beherbergte und, schon sehr früh an das deutsche Eisenbahnnetz angeschlossen, Bier wie Braustoffe fleißig exportierte – im 19. Jahrhundert einen internationalen Ruf als Stadt des Gerstensaftes. Noch heute zeugen hiervon amerikanische und schwedische Biersorten, die unter dem Namen „Erlanger“ verkauft werden.
Im alten Erlangen hatte schon zu Zeiten der Stadtgründung jeder Bürger der Altstadt das Recht, sein eigenes Bier zu brauen. In der Altstadt stand das sogenannte „Gemeinbräuhaus“, das jeder Bürger nutzen konnte. Mit Unterbrechungen war dieses Bräuhaus bis 1813 in Betrieb.
Von den 30 Brauereien sind heute noch zwei übrig:
Einzig verbleibend sind nun die beiden wiedereröffneten Brauereien Steinbach und Weller. Grund dafür war (neben der Weltwirtschaftskrise der 20er-Jahre) u. a., dass die Erlanger Brauer den produktivitätssteigernden Innovationsschub mit moderner Kühltechnik verschliefen. Als in München bereits elektrisch gekühlt wurde, verließen sie sich auf die bewährten Kellergewölbe ihres Burgbergs.
Die über viele Jahrzehnte einzige Erlanger Groß-Brauerei Kitzmann meldete im September 2018 unerwartet Liquidation an und verkaufte ihren Namen in Lizenz an die Kulmbacher Aktienbrauerei. Kitzmann-Bier wird weiterhin in Kulmbach gebraut. Die Kitzmann-Brauerei in der Erlanger Altstadt wurde an einen Objektentwickler verkauft, der Wohnungen auf dem Firmengelände erstellen möchte.
Persönlichkeiten
Bekannte, in Erlangen geborene Persönlichkeiten sind unter anderem die Moderatorinnen Katrin Müller-Hohenstein und Barbara Hahlweg, der Fußballer Lothar Matthäus, der Siemens-Vorstandsvorsitzende Heinrich von Pierer, die Mathematikerin Emmy Noether, der Physiker Georg Simon Ohm, der Historiker Karl Hegel sowie der Kabarettist Klaus Karl-Kraus.
Literatur
1000 Jahre Erlangen 1002–2002. Sonderbeilage der Erlanger Nachrichten vom Januar 2002.
Bayerisches Städtebuch. Band V 1: Teilband Unter-, Mittel- und Oberfranken. aus Deutsches Städtebuch. Handbuch städtischer Geschichte. Im Auftrage der Arbeitsgemeinschaft der historischen Kommissionen und mit Unterstützung des Deutschen Städtetages, des Deutschen Städtebundes und des Deutschen Gemeindetages hrsg. von Erich Keyser. Stuttgart 1971.
Johann Georg Veit Engelhardt: Erlangen in der Westentasche. Ein treuer Führer durch Stadt und Universität. 2. Ausgabe. Theodor Blaesing, Erlangen 1845. (Nachdruck: Palm und Enke, Erlangen 1978, ISBN 3-7896-0051-2)
Andreas Jakob: Die Neustadt Erlangen. Planung und Entstehung. Erlanger Bausteine zur fränkischen Heimatforschung 33/Sonderband, Erlangen 1986, .
Andreas Jakob: Die Entwicklung der Altstadt Erlangen. Von der „villa Erlangon“ zur Stadt der böhmischen Könige. Palm & Enke, Erlangen 1990, ISBN 3-7896-0094-6. (Sonderdruck aus Jahrbuch für Fränkische Landesforschung, Band 50/1990)
Andreas Jakob: „Der Ort stieg aus seiner Asche viel schöner empor“. Der Brand der Altstadt Erlangen am 14. August 1706 und ihr Wiederaufbau als moderne Planstadt bis 1712. In: Erlanger Bausteine zur fränkischen Heimatforschung 51/2006. Nürnberg 2006, , S. 9–47.
Andreas Jakob: Unter dem Schatten der Heerstraße. Erlanger Kriegs- und Militärgeschichte vom Spanischen Erbfolgekrieg bis zum Wiener Kongreß. In: Erlanger Bausteine zur fränkischen Heimatforschung 52. Nürnberg 2008, , S. 71–126.
Andreas Jakob: Eine Idee von Versailles in Franken. Macht- und Kunstpolitik beim Aufstieg Erlangens zur zweiten Residenz- und sechsten Landeshauptstadt des Markgraftums Brandenburg-Bayreuth. In: Axel Gotthard, Andreas Jakob, Thomas Nicklas (Hrsg.): Studien zur politischen Kultur Alteuropas. Festschrift für Helmut Neuhaus zum 65. Geburtstag. Duncker & Humblot, Berlin 2009, ISBN 978-3-428-12576-0, S. 421–460.
Andreas Jakob: In der Nacht, in der die Judenaktion stattfand. Der Pogrom vom 9./10. November 1938 in Erlangen und seine juristische Aufarbeitung nach 1945. In: Veröffentlichungen des Stadtarchivs Erlangen, Nr. 9/1. Nürnberg 2011, ISBN 978-3-930035-15-1.
Andreas Jakob: Erlangen im 18. Jahrhundert. Das bayerische Jahrtausend. Volk Verlag, München 2012, ISBN 978-3-86222-071-7.
Ralf Nestmeyer: Nürnberg, Fürth, Erlangen. Ein Reisehandbuch. Michael Müller Verlag, Erlangen 2012, ISBN 978-3-89953-710-9.
Jürgen Sandweg (Hrsg.): Erlangen. Von der Strumpfer- zur Siemens-Stadt. Palm & Enke, Erlangen 1982, ISBN 3-7896-0055-5.
Jürgen Sandweg, Gertraud Lehmann (Hrsg.): Hinter unzerstörten Fassaden. Erlangen 1945–1955. Palm & Enke; Junge & Sohn, Erlangen 1996, ISBN 3-7896-0555-7.
Martin Schieber: Erlangen. Eine illustrierte Geschichte der Stadt. Beck, München 2002, ISBN 3-406-48913-3.
Rolf Steidel: Erlangen. Geschichte in Geschichten. Erlangen, Rudolf Merkel 1995, ISBN 3-87539-041-5.
Ferdinand Lammers: Geschichte der Stadt Erlangen von dem Ursprunge unter den fränkischen Königen bis zur Abtretung an die Krone Bayerns nach Urkunden und amtlichen Quellen. Erlangen 1834 (Digitalisat).
Georg Tessin: Deutsche Verbände und Truppen 1918–1935. Biblio-Verlag, Osnabrück 1974.
Alfred Wendehorst (Hrsg.): Erlangen. Geschichte der Stadt in Darstellung und Bilddokzumenten. Verlag C. H. Beck, München 1984, ISBN 3-406-09412-0.
Johannes Wilkes: Gebrauchsanweisung für Erlangen. Mönau-Verlag Erlangen 2010, ISBN 978-3-936657-33-3.
Filme
1000 Jahre Erlangen. Ein Stadtporträt. Dokumentarfilm, Deutschland, 2002, 43 Min., Buch und Regie: Alex Mölkner und Martin Rabus, Produktion: Bayerischer Rundfunk, Studio Franken.
18. Jahrhundert – Erlangen. Dokumentarfilm und szenische Dokumentation, Deutschland, 2012, 43:40 Min., Buch: Christian Lappe, Regie: Christian Stiefenhofer, Lisa Reisch, Moderation: Udo Wachtveitl, Produktion: Bayerischer Rundfunk, Reihe: Das Bayerische Jahrtausend, Erstsendung: 10. April 2012 im Bayerischen Fernsehen.
Die Hugenottenstadt Erlangen – Eine der interessantesten Städteanlagen Deutschlands, Erlangen 1930, YouTube
Weblinks
Offizielle Website
Tourist-Information und Stadtmarketing
Erlanger Stadtlexikon
Einzelnachweise
Kreisfreie Stadt in Bayern
Ort mit Binnenhafen
Deutsche Universitätsstadt
Kreisstadt in Bayern
Hugenottenort
Gemeindegründung 1818
Ort an der Regnitz
Ort an der Schwabach (Regnitz)
|
Q3126
| 150.088665 |
90022
|
https://de.wikipedia.org/wiki/Tiefseerinne
|
Tiefseerinne
|
Tiefseerinnen (engl. ) (umgangssprachlich oft auch Tiefseegräben) sind zumeist langgestreckte, aber relativ schmale Vertiefungen des Meeresbodens. Sie stellen die am tiefsten, natürlich vorkommenden Abschnitte der Erdoberfläche dar. Die tiefste aller Tiefseerinnen ist mit maximal 11.034 m Meerestiefe der Marianengraben im Pazifik.
Tiefseerinnen entstehen in der Erdkruste, wenn tektonische Platten infolge plattentektonischer Vorgänge zusammenstoßen und eine unter die andere geschoben wird (Subduktion). An solchen Subduktionszonen taucht eine Platte in einem Winkel von bis zu 90° nach unten hin ab. Die Tiefseerinne markiert die Stelle, an der die beiden Platten aufeinandertreffen, beispielsweise eine kontinentale und eine ozeanische Platte. Dabei liegen die tiefsten Punkte der Rinne noch 3000 bis 4000 m unter dem Niveau des umgebenden Ozeanbodens.
Eine Erhebung des Meeresbodens heißt Schwelle oder Meeresrücken (Tiefseerücken).
Allgemeines
In den meisten Nachschlagewerken (z. B. in Lexika und Atlanten) und Medien werden diese Tiefseerinnen, die sich innerhalb oder am Rand von Tiefseebecken bzw. zwischen Tiefseeschwellen und -rücken befinden, als Gräben bzw. Tiefseegräben bezeichnet; so geschieht dies meist auch im allgemeinen Sprachgebrauch und der Ausdrucksweise der Geowissenschaften. Dies ist jedoch aus der Sicht der Tektonik falsch, weil tektonische Gräben durch Dehnung entstehen, der Subduktionsprozess jedoch durch Konvergenz gekennzeichnet ist. Da ein tektonischer „Graben“ aber immer von abschiebenden Verwerfungen begrenzt wird und insgesamt eine dehnende Struktur darstellt, müssen die langgestreckten Einsenkungen an Subduktionszonen (aktiver Kontinentalrand) korrekt als Rinnen (Tiefseerinnen), nicht „Tiefseegräben“, bezeichnet werden.
Im Unterschied zu einem Meerestief sind Tiefseerinnen meist sehr langgestreckt und können als das „untermeerische“ Gegenteil zu den auf dem Land liegenden Hochgebirgen betrachtet werden.
Wegen der Bewegung der Erdplatten kommt es häufig zu untermeerischen Vulkanausbrüchen und zu Seebeben, die verheerende Flutwellen und Tsunamis hervorrufen können.
Geschichte des Begriffs
Erst in den späten 1940er- und frühen 1950er-Jahren begann die Ozeanografie, eine Vorstellung von der Morphologie jener ungeheuren Tiefen zu entwickeln, die zu den spektakulärsten Erscheinungen an der Oberfläche der Erde gehören. Mehr als die Hälfte der Erdoberfläche ist der Tiefsee zuzurechnen, entzog sich aber wegen der für den Menschen lebensfeindlichen extremen Verhältnisse lange Zeit der Beobachtung und Forschung.
Ende des 19. Jahrhunderts nahm mit der Verlegung der Transatlantikkabel das Interesse an der Bathymetrie, der Vermessung der untermeerischen Landschaften, enorm zu. Aber auch nach der berühmten Challenger-Expedition (1872–1876), die am 23. Februar 1875 in der Marianenrinne den mit 8164 m bis dahin tiefsten gemessenen Punkt der Weltmeere ausgelotet hatte, verwendete man den (heute veralteten) Begriff Tiefseegraben noch nicht, sondern sprach allgemein von einem Meerestief.
Erst in den 1920er Jahren wurde der Begriff Graben für geologische Strukturen verwendet. Als Erster verwendete Johnstone im Jahre 1923 in seinem Lehrbuch über Ozeanographie („An Introduction to Oceanography“) den Begriff Graben (engl. ) für die langgestreckten, aber eng begrenzten Rinnen am Grund der Tiefsee. Der korrekte Fachbegriff für diese morphologische Struktur ist Tiefseerinne. Es handelt sich dabei um eine Struktur, die bei einer kompressiven Plattenbewegung entsteht. Ein Graben hingegen ist immer eine Dehnungsstruktur. Der Begriff Tiefseerinne wurde 1986 von Frisch & Loeschke (1986) in die Literatur eingeführt.
Vier der in Tiefseerinnen gelegenen tiefsten Stellen der Erde wurden nach dem sowjetischen Forschungsschiff Witjas Witjastief genannt. Dasjenige in der Marianenrinne wurde im Jahr 1951 auch von der Besatzung des englischen Vermessungsschiffs Challenger in einer Meerestiefe von 10.899 m mittels Echolot (10.863 m per Drahtlotung) vermessen und erhielt den Namen Challengertief. Heute sind die meisten Tiefseerinnen per Echolot vermessen, einige von Tauchbooten besucht worden.
Übersicht Tiefseerinnen
Die sechs tiefsten Tiefseerinnen der Erde befinden sich alle im westlichen Pazifik:
der Marianengraben (bis 11.034 m)
der Tongagraben (bis 10.882 m)
der Boningraben (bis 10.554 m)
der Kurilengraben (bis 10.542 m)
der Philippinengraben (bis 10.540 m)
der Kermadecgraben (bis 10.047 m).
Siehe auch
Liste der Meerestiefs
Literatur
Wolfgang Frisch, Jörg Loeschke: Plattentektonik. 3., überarbeitete Auflage. Wissenschaftliche Buchgesellschaft, Darmstadt 1993, ISBN 9783534094103.
Wolfgang Frisch, Martin Meschede: Plattentektonik. 5. Auflage. Primus-Verlag, Darmstadt 2013, ISBN 3-89678-525-7.
Karl Krainer: Plattentektonik – eine faszinierende und revolutionierende Entdeckung in den Erdwissenschaften. Mit 25 Abbildungen. In: Carinthia II. Band 180/100, 1990, S. 127–180 (, abgerufen am 21. September 2015).
Weblinks
Tiefseefurche statt Tiefseegraben, abgerufen am 21. September 2015.
Geologie Teil V Entwicklung der Lithosphäre, abgerufen am 21. September 2015.
!
Meeresgeologie
Plattentektonik
|
Q119253
| 208.675752 |
2545
|
https://de.wikipedia.org/wiki/Jugoslawien
|
Jugoslawien
|
Jugoslawien (, ) war ein von 1918 bis 2003 bestehender Staat in Mittel- und Südosteuropa, dessen Staatsform und -territorium sich im Laufe seiner Geschichte mehrfach änderten.
Von 1918 bis 1945 existierte das Königreich Jugoslawien („Erstes Jugoslawien“), danach bestand von 1945 bis 1992 die Sozialistische Föderative Republik Jugoslawien („Zweites Jugoslawien“). Während der Jugoslawienkriege bildete sich von 1992 bis 2003 aus Serbien und Montenegro die Bundesrepublik Jugoslawien, gefolgt 2003 bis 2006 vom territorial und völkerrechtlich identischen Staatenbund Serbien und Montenegro („Restjugoslawien“).
Derzeit gibt es sechs international anerkannte Nachfolgestaaten Jugoslawiens: Bosnien und Herzegowina, Kroatien, Montenegro, Nordmazedonien, Serbien und Slowenien. Der völkerrechtliche Status des Kosovo ist strittig.
Staatsnamen
Die amtlichen Bezeichnungen seit der Gründung vom 29. Oktober 1918 bis zur Auflösung Jugoslawiens am 4. Februar 2003 lauteten:
serbokroatisch (kurz: ), slowenisch – ausgerufen in Zagreb am 29. Oktober 1918
– ausgerufen von König Petar Karađorđević am 1. Dezember 1918
– erste Umbenennung aufgrund der Vidovdan-Verfassung vom 28. Juni 1921
– nach Putsch vom 6. Januar 1929 bis 17. April 1941
– 29. November 1943 bis Ende 1945
– 31. Januar 1946 (neue Verfassung) bis 1963
– 1963 bis 1992
– 27. April 1992 bis 4. Februar 2003 (häufig auch als Rest-Jugoslawien bezeichnet; als Neustaat bestand die BRJ aus den ehemaligen sozialistischen Teilrepubliken Serbien und Montenegro)
Der Name Jugoslawien wurde seit 1915 vom Jugoslawischen Komitee verwendet und wurde international schon vor der offiziellen Umbenennung für den SHS-Staat verwendet.
Staatsrechtliche Entwicklung
Während es zwischen dem ersten (Königreich 1918–1941) und dem zweiten jugoslawischen Staat (Föderative Volksrepublik 1945–1963, Sozialistische Föderative Republik 1963–1992) eine juristische Kontinuität gab, war das 1992 gegründete „dritte“ Jugoslawien (Bundesrepublik bzw. Staatenbund aus Serbien und Montenegro) nach vorherrschender Rechtsauffassung der Badinter-Kommission und der UN-Versammlung nur einer von fünf Nachfolgestaaten des zweiten Jugoslawiens. Die Sozialistische Föderative Republik Jugoslawien zerfiel demzufolge in die folgenden souveränen Republiken, von denen die meisten daraufhin ihre staatliche Unabhängigkeit erklärten und nach und nach international anerkannt wurden: Slowenien, Kroatien, Bosnien und Herzegowina, Bundesrepublik Jugoslawien (Serbien und Montenegro) und Mazedonien (1993 unter dem Namen The former Yugoslav Republic of Macedonia [ehemalige jugoslawische Republik Mazedonien] in die Vereinten Nationen aufgenommen).
Am 4. Februar 2003 wurde die Bundesrepublik Jugoslawien durch die territorial und aus völkerrechtlicher Sicht identische Staatliche Gemeinschaft Serbien und Montenegro abgelöst, da es sich nicht um einen Fall der Staatensukzession handelt.
Die Staatenunion von Serbien und Montenegro, deren Rechtsnachfolge Serbien antrat, löste sich 2006 mit dem Ausscheiden Montenegros auf, sodass heute alle früheren Teilrepubliken der Sozialistischen Föderativen Republik Jugoslawien unabhängige Staaten darstellen. Am 17. Februar 2008 erklärte auch das Kosovo seine Unabhängigkeit von Serbien.
Geographie
Ausdehnung und Grenzen
In der Zeit von 1954 bis 1991 hatte Jugoslawien eine Fläche von 255.804 km². Es bestand aus den sechs Teilrepubliken Slowenien, Kroatien, Bosnien und Herzegowina, Serbien, Montenegro, Mazedonien und den beiden autonomen Provinzen Vojvodina und Kosovo innerhalb Serbiens.
Jugoslawien grenzte an Italien, Österreich, Ungarn, Rumänien, Bulgarien, Griechenland und Albanien und hatte eine lange Küste am Adriatischen Meer mit zahlreichen Inseln.
Topographie
Der Nordosten des Landes war relativ flach, der Rest des Landes eher gebirgig. Höchster Berg war der Triglav (, in den Julischen Alpen nahe Jesenice), gefolgt vom Golem Korab (, im Korabgebirge, auf der Grenze zu Albanien westlich von Gostivar) und dem Titov Vrv (, im Šar Planina nahe Tetovo).
An der Grenze zu Albanien lagen drei große Seen: der Skutarisee, der Ohridsee und der Prespasee. Die Donau durchfloss den Nordosten Jugoslawiens (u. a. die Städte Novi Sad und Belgrad) und bildete einen Teil der Grenze zu Rumänien, das dortige Durchbruchstal wird als Eisernes Tor (serbokroatisch: Đerdap) bezeichnet. Wichtige Nebenflüsse der Donau in Jugoslawien waren die Drau (Drava), die Save (Sava) und die Morava.
Bevölkerung und große Städte
Jugoslawien hatte 1991 rund 23,1 Millionen Einwohner.
1991 gab es 19 Großstädte. Die fünf größten Städte waren in alphabetischer Reihenfolge:
Belgrad (Serbien)
Ljubljana (Slowenien)
Sarajevo (Bosnien und Herzegowina)
Skopje (Mazedonien)
Zagreb (Kroatien)
Größte Hafenstädte waren Rijeka, Split, Ploče, Bar und Koper.
Geschichte
Königreich Jugoslawien (1918–1941)
Die Zerschlagung Österreich-Ungarns und das daraus resultierende neugeschaffene Königreich der Serben, Kroaten und Slowenen wurden nach dem Ersten Weltkrieg im Vertrag von Trianon vom 4. Juni 1920 beschlossen.
Der Vertrag von Sèvres diente anschließend nur noch der abschließenden Bestätigung, wobei der territoriale Neuerwerb Rumäniens und Jugoslawiens durch die Türkei anerkannt wurde, dem letztendlich auch die USA zustimmten (diese hatten vorher dem Trianon-Vertrag wegen der Benachteiligung Rumäniens nicht zugestimmt). Der neue jugoslawische Staat entstand aus den vorher unabhängigen Königreichen Serbien und Montenegro (unter Einschluss der von Serbien in den Balkankriegen 1912/13 erworbenen mazedonischen Gebiete) und Teilen Österreich-Ungarns, hauptsächlich Kroatien-Slawonien mit Dalmatien, das ehemalige Kronland Krain mit südlichen Gebieten der Kronländer Kärnten und Steiermark (heutiges Slowenien), sowie Bosnien, die Herzegowina, Teile des Banats und der Batschka.
Staatsoberhaupt wurde der serbische König Peter I. (Karađorđević). Von Beginn an war die politische Situation des neuen Staates geprägt von dem sich zuspitzenden Konflikt zwischen den nach Autonomie strebenden Teilstaaten und den großserbischen Nationalisten. Der Staat zeichnete sich durch Zentralismus aus. Der Autonomiegedanke hinsichtlich nichtserbischer Ethnien und anderer Religionen blieb weitgehend unterdrückt. Die ethnischen und die konfessionellen beziehungsweise religiösen Spannungen blieben bestehen und verschärften sich zum Teil noch. Das Scheitern eines politischen Ausgleichs führte schließlich zur Staatskrise:
König Alexander I. setzte 1929 die Verfassung außer Kraft und errichtete die erste Königsdiktatur auf dem Balkan. Am 3. Oktober veranlasste er die Umbenennung des Staates in Königreich Jugoslawien (Kraljevina Jugoslavija).
Im April 1941 wurde das Königreich Jugoslawien von NS-Deutschland und dem Königreich Italien besetzt und aufgelöst: Während Serbien als Vasallenstaat militärisch besetzt blieb, wurde Slowenien zwischen Deutschland, Italien und dem Königreich Ungarn geteilt, Kroatien (inkl. Bosnien und Herzegowina) zu einem großkroatischen, de facto faschistischen Vasallenstaat namens Unabhängiger Staat Kroatien, während Montenegro als Unabhängiger Staat Montenegro und einige weitere südliche Gebiete, die zum Königreich Albanien geschlagen wurden, italienisch besetzte Vasallenstaaten wurden.
1942, noch unter deutscher Besatzung, hatten die Kommunisten das aktive und passive Frauenwahlrecht anerkannt.
Föderative Volksrepublik Jugoslawien (1945–1963)
Die AVNOJ-Beschlüsse vom 29. November 1943 legten noch während des Zweiten Weltkrieges den Grundstein für eine neue Föderation südslawischer Völker unter der Führung der Kommunistischen Partei Jugoslawiens (KPJ). Die nach Kriegsende von Josip Broz Titos kommunistischer Volksfront gewonnenen Wahlen führten am 29. November 1945 zur Gründung der Föderativen Volksrepublik Jugoslawien (Federativna Narodna Republika Jugoslavija), bestehend aus den sechs Teilrepubliken Slowenien, Kroatien, Bosnien und Herzegowina, Serbien, Montenegro und Mazedonien. Das Land erhielt am 31. Januar 1946 eine nach dem Vorbild der Sowjetunion gestaltete Verfassung. Das Frauenwahlrecht wurde 1946 eingeführt.
1948 distanzierte sich Tito immer mehr von der Sowjetunion und dem Ostblock. Es kam 1950 schließlich zum Bruch zwischen den Parteien, der bis zum Ende der Stalin-Ära andauerte. Tito verfolgte einen eigenen jugoslawischen Kommunismus, den sogenannten Titoismus. Jugoslawien näherte sich außenpolitisch dem Westen an und pflegte schon bald engere wirtschaftliche Beziehungen zu den kapitalistischen Staaten. Tito wurde zum Mitbegründer der antiimperialistischen Bewegung der Blockfreien Staaten, in der Jugoslawien eine führende Rolle einnahm.
Am 7. April 1963 wurde der Staat in Sozialistische Föderative Republik Jugoslawien (Socijalistička Federativna Republika Jugoslavija), kurz SFRJ, umbenannt.
Sozialistische Föderative Republik Jugoslawien (1963–1992)
1974 wurden die Provinzen Vojvodina und Kosovo in einer neuen Verfassung (Artikel 2) zu autonomen Provinzen innerhalb Serbiens erklärt. Faktisch wurden sie dadurch zu Republiken aufgewertet, die Serbien nur formell unterstanden. Doch wurde ihnen im Gegensatz zu den Republiken kein Recht auf Selbstbestimmung (einschließlich des Rechts auf Sezession) eingeräumt. So bestand die SFRJ aus sechs Teilrepubliken (Bosnien und Herzegowina, Kroatien, Mazedonien, Montenegro, Serbien, Slowenien) und zwei Autonomen Provinzen innerhalb Serbiens (Kosovo, Vojvodina).
Nach dem Tod Titos am 4. Mai 1980 übernahm das Präsidium der Republik die Regierungsgeschäfte. Die acht Mitglieder setzten sich aus je einem Vertreter der sechs Teilrepubliken und der zwei autonomen Provinzen zusammen. Immer mehr kam es jedoch zu Unstimmigkeiten, da die integrative Persönlichkeit Tito fehlte.
Zerfall Jugoslawiens ab 1991
Außer in Serbien wurden in allen Teilrepubliken der SFR Jugoslawien nach durchgeführten demokratischen Wahlen Referenden über die staatliche Souveränität abgehalten. Bei jeweils sehr hohen Wahlbeteiligungen, allerdings vor allem in Kroatien und Bosnien-Herzegowina boykottiert von den jeweils serbischen wahlberechtigten Einwohnern, stimmten für die jeweilige staatliche Souveränität:
94,7 % Kroatien
92,8 % Bosnien-Herzegowina
91 % Mazedonien
88,2 % Slowenien
55,5 % Montenegro
Belgrad versuchte die Unabhängigkeitsbestrebungen zuerst militärisch zu unterdrücken. So intervenierte die Jugoslawische Volksarmee (JNA) zuerst 1991 in Slowenien (10-Tage-Krieg) und daraufhin in Kroatien (Kroatienkrieg). Als dies jedoch misslang, verschoben sich die Kampfhandlungen zunächst auf die von Krajina-Serben beanspruchten Gebiete in Kroatien. Im Folgenden verlagerte sich der Krieg dann immer mehr nach Bosnien-Herzegowina (Bosnienkrieg). Letzten Endes gelang den drei Staaten aber die Durchsetzung der Unabhängigkeit. Die Unabhängigkeitsbestrebungen im Kosovo (Kosovokrieg) führten 1999 zu Interventionen der NATO auf dem gesamten Territorium der Teilrepublik Serbien, die schließlich die Einrichtung einer UN-Verwaltung in der Provinz bei bestehender Zugehörigkeit des Gebietes zur Bundesrepublik Jugoslawien zur Folge hatten.
Viktor Meier, Südosteuropa-Korrespondent für die Neue Zürcher Zeitung und die Frankfurter Allgemeine Zeitung, schrieb 1996, Jugoslawien sei keine „künstliche Schöpfung“ gewesen, . Die internationale Anerkennung Sloweniens und Kroatiens Ende 1991 sei ein überfälliger Akt gewesen.
Nachfolgestaaten von Jugoslawien
Slowenien (Unabhängigkeitserklärung im Juni 1991)
Kroatien (Unabhängigkeitserklärung im Juni 1991)
Nordmazedonien (Unabhängigkeitserklärung im September 1991)
Bosnien und Herzegowina (Unabhängigkeitserklärung im März 1992)
Montenegro (Unabhängigkeitserklärung im Juni 2006)
Serbien (formale Unabhängigkeitserklärung im Juni 2006)
Kosovo (Unabhängigkeitserklärung von Serbien im Februar 2008)
„Serbien-Montenegro“ (1992–2006)
Die Vollversammlung der Vereinten Nationen beschloss am 22. September 1992 durch Mehrheitsbeschluss (Billigung von 127 Ländern bei 26 Enthaltungen und sechs Gegenstimmen), dass die aus Serbien und Montenegro bestehende Bundesrepublik Jugoslawien (BRJ) nicht automatisch die alleinige Rechtsnachfolge der SFRJ als Mitgliedstaat der UN antreten könne, sondern sich ebenso wie die anderen Nachfolgestaaten der SFRJ neu um die Mitgliedschaft bewerben müsse. Die BRJ durfte deshalb den Sitz der SFRJ in der UN-Vollversammlung nicht mehr wahrnehmen. Da die Bundesrepublik Jugoslawien sich weigerte, diesen Beschluss zu akzeptieren, verlor sie de facto ihren Sitz in der Vollversammlung; die Mitgliedschaft von Jugoslawien war ab 1992 suspendiert. Erst im Jahre 2000 wurde die BRJ, nachdem sie sich wie gefordert neu beworben hatte, wieder in die UN aufgenommen und der frühere jugoslawische UN-Sitz ihr wieder übertragen.
Mit der Annahme einer neuen Verfassung im Jahre 2003 benannte sich die Bundesrepublik Jugoslawien um in „Serbien und Montenegro“. Dies stellte das Ende des Begriffs „Jugoslawien“ als Staatsnamen dar. Nach einer Volksabstimmung am 21. Mai 2006 proklamierte Montenegro am 3. Juni 2006 seine Unabhängigkeit. Am 17. Februar 2008 erklärte sich die Provinz Kosovo für unabhängig, wobei ihr völkerrechtliche Status bis heute umstritten ist.
Siehe auch
Hörfunk und Fernsehen in Jugoslawien
Museum der Geschichte Jugoslawiens
Literatur
Geschichte
Gesamtüberblicke (weiterführende Literatur in den Artikeln der einzelnen Staaten)
Marie-Janine Calic: Geschichte Jugoslawiens im 20. Jahrhundert. Beck, München 2010, ISBN 978-3-406-60646-5.
Kultur
Antun Barac: Geschichte der jugoslavischen Literaturen von den Anfängen bis zur Gegenwart. Harrassowitz, Wiesbaden 1977, ISBN 3-447-01874-7.
Udo Kultermann: Zeitgenössische Architektur in Osteuropa. DuMont, Köln 1985, ISBN 3-7701-1554-6.
Ljiljana Blagojević: Modernism in Serbia. The elusive margins of Belgrade architecture, 1919–1941. Inst. za književnost i umetnost, Belgrad 2003, ISBN 0-262-02537-X.
Wolfgang Thaler, Maroje Mrduljas, Vladimir Kulic: Modernism in Between – Architecture in Socialist Yugoslavia. Jovis, Berlin 2012, ISBN 978-3-86859-147-7.
Weblinks
Einzelnachweise
Panslawismus
Historischer Staat in Europa
Gegründet 1918
Aufgelöst 2003
|
Q36704
| 1,028.940037 |
5192
|
https://de.wikipedia.org/wiki/Top-Level-Domain
|
Top-Level-Domain
|
Top-Level-Domain (englisch für „Bereich oberster Ebene“, Abkürzung TLD) bezeichnet den letzten Abschnitt (rechts vom letzten Punkt) einer Domain im Internet und stellt die höchste Ebene der Namensauflösung dar. Ist der vollständige Domain-Name eines Servers beziehungsweise einer Website beispielsweise www.example.com, so entspricht die Buchstabenkombination .com rechts außen der Top-Level-Domain dieses Namens.
Im Domain Name System (DNS) werden die Namen und damit auch die TLDs referenziert und aufgelöst, also einer eindeutigen IP-Adresse zugeordnet. Der Domain Name Registrar legt dabei im Rahmen der Domain-Registrierung einen Datenbank-Eintrag über den Inhaber an, der Whois-Abfragen über das gleichnamige Protokoll, ähnlich einem Telefonbuch, ermöglicht.
TLDs werden von der IANA in zwei Hauptgruppen und einen Sonderfall unterteilt (Stand 2019):
länderspezifische TLDs:
country-code TLDs (ccTLDs)
internationalisierte länderspezifische Top-Level-Domains – Internationalized Domain Name country-code TLDs (IDN ccTLDs)
allgemeine TLDs: generic TLDs (gTLDs),
sponsored TLDs (sTLDs) und unsponsored TLDs (uTLDs)
internationalisierte Top-Level-Domains
die Infrastruktur-TLD (iTLD) .arpa (Sonderfall) und das (jedoch nie in Gebrauch gewesene) .root
Nicht mehr in Gebrauch sind die Sonderfälle .bitnet und .uucp.
Eine Liste aller Top-Level-Domains findet sich auf der Internetseite der IANA, siehe Abschnitt Weblinks „Root Zone Database“.
Generische Top-Level-Domains
Die generischen Top-Level-Domains (gTLD) werden nach gesponserten (sTLD) und nicht gesponserten (uTLD) unterschieden. Die (sehr viel wichtigeren) nicht gesponserten Domains stehen unter der direkten Kontrolle von ICANN und der Internet Society. Die gesponserten Domains werden von unabhängigen Organisationen kontrolliert und finanziert. Diese Organisationen haben das Recht, eigene Richtlinien für die Vergabe von Domainnamen anzuwenden. Ein Beispiel ist .mil. Diese Domain wird ausschließlich vom US-amerikanischen Militär genutzt.
Die mit großem Abstand meist gebrauchte TLD ist .com (ca. 160 Millionen registrierte Domains, Stand 2021). Ursprünglich wurde sie von US-amerikanischen Unternehmen verwendet, heute ist sie aber weltweit verbreitet.
Nicht gesponserte Domains (uTLD)
Nicht gesponserte Top-Level-Domains (, Abk. uTLD) werden von einer bestimmten Gruppe verwendet. Sie bestehen aus drei oder mehr Zeichen und stehen für einen Begriff, der diese Gruppe auszeichnet.
Aufgrund der liberalen Vergabe für die TLD .com, .net, .org sowie (mit kleineren Einschränkungen) .biz und (neuerdings) .name sind die ursprünglichen Bedeutungen dieser TLDs weitgehend abhandengekommen. Eine derartige TLD weist nicht notwendigerweise auf einen entsprechenden Gebrauch hin. So wird etwa die eigentlich für nichtkommerzielle Organisationen gedachte .org-TLD heute auch gelegentlich von kommerziellen Anbietern verwendet. Weiterhin verwenden internationale, nicht-kommerzielle Websites gerne .net (oder .org), um weder auf eine länderspezifische TLD noch auf das verbreitete .com zurückgreifen zu müssen. Während .org von der IANA mittlerweile nur noch als generic TLD gelistet wird, werden die TLDs biz, .name und .pro vorläufig (Stand August 2019) noch als generic-restricted (generisch eingeschränkt) klassifiziert.
Gesponserte Domains (sTLD)
Gesponserte Domains (engl. , Abk. sTLD) werden von bestimmten Unternehmen oder Organisationen vorgeschlagen, die diese Namensräume gemäß detailliert ausgearbeiteter Richtlinien betreiben und auch Kontroll- und Sanktionsrechte haben, mit denen die bestimmungsgemäße und rechtmäßige Verwendung der registrierten Namen durch die Anbieter sichergestellt werden soll. Beispielsweise ist die TLD .aero von SITA gesponsert, die die Nutzung auf Inhalte der Luftfahrt beschränkt, oder die Nutzung von .mobi-Namen daran gebunden, dass der Website-Anbieter die Einhaltung bestimmter Richtlinien sicherstellt, die für die geräteunabhängige Nutzung von Web-Inhalten als elementar angesehen werden, so dass z. B. Mobiltelefone diese Inhalte darstellen können.
Neue Domains
Am 26. Juni 2008 beschloss die ICANN eine Lockerung der Regeln für neue gesponserte Domains. In den folgenden Monaten wurden hierzu Regeln und der Bewerbungsprozess erarbeitet. Am 20. Juni 2011 verabschiedete die ICANN in Singapur ein Antragsverfahren für neue generische Top-Level-Domains (gTLD). Zwischen dem 12. Januar 2012 und dem 30. Mai 2012 konnten sich Interessenten um eine neue TLD bewerben. Am 13. Juni 2012, dem sogenannten Reveal Day veröffentlichte die ICANN eine Liste, für welche neuen gewünschten Top Level Domains von welchen Bewerbern Anträge vorgelegt wurden. In einem Zeitraum von etwa zwei Jahren wollte die ICANN die Vorschläge prüfen und über etwaige Zulassungen entscheiden. Am 23. Oktober 2013 wurden schließlich die ersten vier neuen Top-Level-Domains in Betrieb genommen, in den nächsten Jahren kamen hunderte weitere Top-Level-Domains hinzu. Zugelassene und genutzte Top-Level-Domains diesen neuen Typs sind etwa .berlin, .koeln und .swiss.
Spezialfälle
Es gibt einige, meist historische, Spezialdomains oder Pseudo-Domains sowie für bestimmte Zwecke reservierte Namen, für die aus unterschiedlichen Gründen keine TLD eingerichtet werden:
Länderspezifische Top-Level-Domains (ccTLD)
Es gibt über 200 ccTLDs (cc = country code), dabei ist jedem Land genau ein Zwei-Buchstaben-Code (ALPHA-2) nach ISO 3166 zugeordnet. Daneben gibt es häufig eigene ccTLDs für abhängige Gebiete, die meist geographisch vom Mutterland getrennt sind.
Ausnahmen
Das Vereinigte Königreich benutzt die TLD .uk, obwohl nach ISO seine Kodierung GB lautet (GB,GBR,826). Zusätzlich wurde durch die ISO aber auch ausnahmsweise die Kodierung UK reserviert. Die TLD .gb ist ebenfalls reserviert, wird aber zurzeit wohl bis auf eine einzige Registrierung nicht genutzt.
Die Europäische Union benutzt mit .eu eine ccTLD, obwohl sie kein eigenständiger Staat ist. Die Kodierung EU wurde jedoch durch die ISO 3166 Maintenance Agency ausnahmsweise mit dieser Bedeutung reserviert. Dies erfolgte durch eine Sonderentscheidung aufgrund eines festgestellten praktischen Bedarfs. Im Unterschied zu Staaten hat die EU aber weder eine Drei-Buchstaben- noch eine Drei-Ziffern-Kodierung. Ihre Mitgliedsländer behalten weiterhin ihre eigenen ccTLDs, und es werden auch keine länderspezifischen Subdomains von .eu eingeführt.
Änderungen
.dd wurde für die DDR vorgesehen, jedoch ausschließlich intern bei den Universitäten in Jena und Dresden benutzt. Es gab keine DNS-Delegation in den Root-Nameservern der IANA, die Top-Level-Domain .dd wurde nach der Wende durch .de der Bundesrepublik Deutschland ersetzt.
.cs wurde früher für die Tschechoslowakei verwendet. Diese TLD war später für den inzwischen aufgelösten Staatenbund aus Serbien und Montenegro vorgesehen. Wegen Namenskonflikten mit weiterhin existierenden Websites und E-Mail-Adressen der ehemaligen Tschechoslowakei wurde dies aber offenbar nicht auf den Servern implementiert. Stattdessen wurde für Serbien und Montenegro .yu weiterhin benutzt. Mit dem Zerfall in die Einzelstaaten und deren Domains .rs und .me hat sich die Angelegenheit erledigt. Zukünftig wird .cs nicht mehr benötigt. Die nach der Trennung der Tschechoslowakei verwendeten Kürzel sind .cz für Tschechien und .sk für die Slowakei.
.zr für Zaire wurde 2004 aus den Root-Servern entfernt (jetzt .cd).
.um für die United States Minor Outlying Islands war zwar dem Registrar und Betreiber University of Southern California Information Sciences Institute zugeordnet, aber nie benutzt. Daher wurde in Absprache mit der ICANN, der United States Department of Commerce – National Telecommunications and Information Administration (NTIA) und dem Betreiber die .um-Domäne 2008 in einen nicht belegten Status zurückgesetzt. Dabei wurde vereinbart, dass die ICANN ohne Rücksprache mit der US-Regierung und deren vorheriger Zustimmung keine Maßnahmen in Bezug auf die künftige Verwendung der .um-Domäne ergreifen soll. Seitdem wird .um von der IANA in der Root Zone Database als "Not assigned" (Nicht zugewiesen) bis heute (2022) gelistet.
.yu für Jugoslawien wurde zum 30. September 2009 aufgelöst (seit 30. März 2010 nicht mehr erreichbar), da sie durch die beiden Domainendungen .rs für Serbien und .me für Montenegro ersetzt wurde.
.an für Niederländischen Antillen wurde wegen deren Auflösung 2010 zum 31. Juli 2015 endgültig gelöscht. Ersetzt wurde .an durch die Aufnahme der Top-Level-Domains .bq (für die zu den Besonderen Gemeinden der Niederlande gewordenen drei „Inselgebiete“ Bonaire, Sint Eustatius und Saba) sowie .cw für Curaçao und .sx für Sint Maarten (beide Karibikinseln nunmehr autonome Länder innerhalb des Königreichs der Niederlande), in die Root Zone durch die ICANN am 20. Dezember 2010.
Auslaufend
Einige veraltete TLDs sind aus Gründen der Erreichbarkeit noch aktiv:
In Russland wird neben .ru auch .su (ehemalige Sowjetunion) betrieben. Es werden auch nach Auflösung der Sowjetunion neue Domains unter .su registriert. Dazu gehören auch Präsenzen aus dem deutschen Rhein-Sieg-Kreis (Kfz-Kennzeichen SU).
Osttimor wechselte von .tp auf .tl und betrieb für eine Übergangszeit bis 2015 beide TLDs.
Ungenutzt
Zugeteilt, aber ungenutzt sind zurzeit:
.bq für die Karibischen Niederlande (Bonaire, Sint Eustatius und Saba)
.eh für Westsahara.
Noch nicht zugeteilt
Folgende ccTLDs wurden noch nicht zugewiesen:
.bl Saint-Barthélemy
.mf Saint-Martin
Bedingungen der Zuteilung
Jedes Land hat das Recht, eigene Vergaberichtlinien für seine Domain festzulegen. Diese werden in der weit überwiegenden Zahl von den Vergabestellen eigenständig aufgrund von technischen Notwendigkeiten und rechtlichen Anforderungen aufgestellt und können sich erheblich voneinander unterscheiden.
So musste beispielsweise für die Registrierung unter der französischen TLD .fr ursprünglich ein Wohn- oder Unternehmenssitz in Frankreich (seit dem 6. Dezember 2011 in der Europäischen Union) nachgewiesen werden.
In Deutschland wurde am 23. Oktober 2009 mit der Zuteilung ein- und zweistelliger sowie nur aus Ziffern bestehender Domains mit .de begonnen.
Bis dahin musste die .de-Domain mindestens aus drei Zeichen bestehen, und eines davon musste ein Buchstabe sein. Aus der Anfangszeit des Internets gab es drei zweistellige Domains: db.de, hq.de und ix.de. (Die für lange Zeit vierte Zwei-Buchstaben-Domain bb.de war zur Zeit der Regelung nicht mehr registriert.) Volkswagen klagte vor dem Oberlandesgericht Frankfurt am Main auf die Zuteilung der Domain vw.de, die dann auch zu dem Stichtag in Betrieb genommen wurde.
In der Schweiz haben nur die Kantone eine Domain mit zwei Zeichen, die sich aus dem offiziellen Kürzel ergibt (z. B. ar.ch, ge.ch, ur.ch, zh.ch). Daneben wird von der Bundeskanzlei die Domain ch.ch betrieben. Abgesehen von diesen Ausnahmen müssen Schweizer Domains aus mindestens drei Zeichen bestehen. Ausnahmen sind www.expo.02.ch (zur sechsten Schweizerischen Landesausstellung 2002) und die Domain au.ch der Gemeinde Au im Kanton St. Gallen.
In anderen Fällen sind für die zweite Namensebene nur wenige vorgegebene Namen möglich; der eigentliche Name wird dann als Third-Level-Domain definiert (z. B. example.co.uk). Ein Beispiel war die britische .uk-Domain, die bis zum 9. Juni 2014 nur die folgenden Second-Level-Domains zuließ:
.ac.uk – academic, Bildungsinstitutionen wie Universitäten
.co.uk – commercial
.gov.uk – government, zentrale und regionale Regierungsorganisationen
.ltd.uk – limited company
.me.uk – Präsenzen von Einzelpersonen
.net.uk – ISPs und andere Netzwerkunternehmen
.nhs.uk – National Health Service, staatliches Gesundheitssystem und dessen Institutionen
.nic.uk – Network Information Center, nur für die interne Netzwerkverwaltung
.org.uk – non-profit Organisationen
.plc.uk – public limited companies (börsennotierte Unternehmen)
.sch.uk – Schulen
Darüber hinaus gibt es einige staatlich genutzte Second-Level-Domains wie .police.uk, .mod.uk (Ministry of Defence – Verteidigungsministerium), .british-library.uk (sowie .bl.uk – ebenfalls für die British Library) oder .parliament.uk. Diese stammen aus einer früheren Zeit und genießen Bestandsschutz.
Zweckentfremdungen
Vor allem kleinere oder von Armut betroffene Staaten vermarkten ihre Domains, indem sie ihre Vergabepolitik sehr liberal handhaben und die Registrierung der Domains aktiv bewerben. Dabei entwickelt sich der Domainmarkt zu einem lukrativen Geschäft, da die Registrierungsgebühren teilweise deutlich über die tatsächlich anfallenden Kosten gesetzt werden.
.co
Die Domain von Kolumbien wird auch statt der Endung .com eingesetzt, zum Beispiel mit der Bedeutung „Company“, „Commerce“, „Corporation“, „Community“, „Content“, „Connection“.
.to
Einer der ersten solcher Staaten, die ihre Domains frei registrieren ließen, war 1998 Tonga mit .to. Die Resonanz war sehr gut, denn zu dieser Zeit waren sehr viele kurze und prägnante Domains unter .com nicht mehr erhältlich, und andere ccTLDs hatten zum Teil sehr strenge Registrierungsbedingungen. Außerdem ergaben sich durch die Endung .to interessante Domainnamen, die sich gut in Kurz-URLs nutzen ließen, wie come.to oder go.to. Heute wird die TLD .to gerne für Torrent- oder Warezseiten verwendet, unter anderem auch deshalb, weil das NIC keine Inhaberabfragen erlaubt, so dass diese Domains anonym registriert werden können.
Medien-Domains
.fm
Die TLD .fm der Föderierten Staaten von Mikronesien wird häufig im Rundfunkbereich genutzt. Die Abkürzung FM steht im Hörfunk für Frequenzmodulation, die im UKW-Rundfunk angewendet wird und üblicherweise mit diesem assoziiert wird.
.im
Die Assoziation einer Abkürzung wird beispielsweise auch von Webpräsenzen einiger Instant-Messaging-Dienste (kurz IM) verwendet, deren TLD .im auf die Isle of Man registriert ist, z. B. beim Instant Messenger Pidgin (pidgin.im).
.tv
Eine ebenfalls bekannte fremdgenutzte ccTLD ist .tv des Staates Tuvalu, die als Television vermarktet wird. Dazu wurde ein eigenes Unternehmen DotTV gegründet, das die Domain vermarktet und an dem der Staat Tuvalu Miteigentümer ist. Dieser Coup brachte dem Zwergstaat 50 Mio. US-Dollar ein, die in jährlichen Raten von 5 Mio. Dollar bezahlt werden. Tuvalu würdigt den Domainverkauf sogar mit einer eigenen Briefmarke. Tuvalus Regierung beschaffte von dem Geld IT-Infrastruktur für die wichtigsten staatlichen Einrichtungen und entrichtete die Aufnahmegebühr für die Vereinten Nationen.
.gg
Die ccTLD der britischen Insel Guernsey wird immer häufiger im Computerspielebereich genutzt, da dort die Abkürzung GG (Good Game) am Ende eines kompetitiven Spieles genutzt wird, um Sportlichkeit und Respekt gegenüber den Mitspielern auszudrücken.
Geografische Gebiete
Auch Länder oder die Unternehmen, die deren TLDs vermarkten, versuchen einen Markt zu schaffen, indem Abkürzungen verwendet werden, die die Adresse in einen Kontext stellen sollen, der ursprünglich nicht gegeben war. So vermarktet ein Unternehmen die Domain .la (Laos) als Domain für Los Angeles.
Deutschland
.de: Die deutsche ccTLD wird ebenfalls von Anbietern aus Delaware benutzt.
Bundesländer
.by (Belarus): Diese ccTLD kann für Seiten mit bayerischem Hintergrund und einige Unternehmen in Bayern verwendet werden. Die Landesregierung verwendet bayern.by für touristische Zwecke.
.sh (St. Helena): Einige in Schleswig-Holstein ansässige Unternehmen verwenden diese ccTLD.
.mv (Malediven): Einige in Mecklenburg-Vorpommern ansässige Unternehmen verwenden diese ccTLD.
Kreise und Kreisfreie Städte
Folgende Auflistung ist nur als Auswahl zu verstehen.
.ac (Ascension): Kfz-Kennzeichen AC von Aachen
.hm (Heard und McDonaldinseln): Kfz-Kennzeichen HM des Landkreises Hameln-Pyrmont
.hn (Honduras): Kfz-Kennzeichen HN von Heilbronn
.kn (St. Kitts und Nevis): Kfz-Kennzeichen KN von Konstanz
.la (Laos): Kfz-Kennzeichen LA von Landshut
.li (Liechtenstein): Kfz-Kreiskennzeichen LI von Lindau (Bodensee)
.mg (Madagaskar): Kfz-Kennzeichen MG von Mönchengladbach
.md (Republik Moldau): Kfz-Kennzeichen MD von Magdeburg
.ms (Montserrat): Kfz-Kennzeichen MS von Münster, Nordrhein-Westfalen
.mw (Malawi): Kfz-Kennzeichen MW von Mittweida
.ro (Rumänien): Kfz-Kennzeichen RO der kreisfreien Stadt Rosenheim
.rs (Serbien): Kfz-Kennzeichen RS der kreisfreien Stadt Remscheid
Schweiz
In der Schweiz, wo die Kantone immer zweibuchstabig abgekürzt sind, werden ccTLD teilweise benutzt, um Angebote mit Bezug zu einem Kanton zu vermarkten. So zum Beispiel:
.ag (Antigua und Barbuda): Kanton Aargau
.be (Belgien): Kanton Bern
.bs (Bahamas): Kanton Basel-Stadt
.gl (Grönland): Kanton Glarus
.gr (Griechenland): Kanton Graubünden
.lu (Luxemburg): Kanton Luzern
.sg (Singapur): Kanton St. Gallen
.sh (St. Helena): Kanton Schaffhausen
Österreich
.md (Republik Moldau): Bezirk Mödling in Niederösterreich
.st (São Tomé und Príncipe): Bundesland Steiermark
Italien
.bz (Belize): Bozen an Stelle von .bz.it
.st (São Tomé und Príncipe) als TLD für Südtirol
.to (Tonga): Torino an Stelle von .to.it
Spanien
.as (Amerikanisch-Samoa): Autonome Gemeinschaft Asturien
Weitere Abkürzungen
.ag (Antigua und Barbuda): Die ccTLD dieses Inselstaates wird vom Betreiber neben der vorgesehenen Verwendung gezielt für Unternehmen im deutschsprachigen Raum beworben, um deren Rechtsform einer Aktiengesellschaft (AG) zu verdeutlichen.
.dj (Djibouti): nutzen mittlerweile einige DJs als Domain für ihren Internetauftritt.
.io (Britisches Territorium im Indischen Ozean): Als Abkürzung für „input/output“ (Eingabe und Ausgabe) häufig im Zusammenhang mit IT oder Technologie im Allgemeinen verwendet.
.kg (Kirgisistan): wurde eine Zeitlang deutschen und österreichischen Kommanditgesellschaften (Abkürzung KG) als Domain angeboten.
.sl (Sierra Leone): Seit 2008 wird diese ccTLD vermarktet und wurde vor allem von Anhängern der virtuellen Welt Second Life genutzt.
.tc (Turks- und Caicosinseln): In der Türkei oftmals für Türkiye Cumhuriyeti (Türkische Republik, eigentlich .tr) zweckentfremdet.
.tk (Tokelau): Von Telekommunikationsunternehmen („TK-Unternehmen“) zweckentfremdet.
.ws (Samoa): kann als „Website“ vermarktet werden, obwohl eine solche Abkürzung ungebräuchlich ist.
Sonstige Beispiele
Hier sind TLD aufgeführt, die keine Bedeutung als Abkürzung haben (wie alle oben aufgeführten), sondern aus anderen Gründen zweckentfremdet werden.
.it (Italien): Auf Englisch bedeutet it es, damit lassen sich Domains wie letsdo.it, want.it oder dergleichen generieren.
.me (Montenegro): Mit ihr lassen sich aussagekräftige Domains erstellen, wie z. B. love.me, contact.me usw. Jedoch können solche Domains nicht vom Interessenten registriert werden, sondern sie werden nach der offenen Registrierung versteigert.
.nu (Niue): Ungewöhnlich ist die Verwendung dieser Domain für die Seiten des Dresdner Kulturmagazins, die auf das im lokalen Regiolekt Dresdens gebräuchliche nu für „ja“ anspielt. Eine ähnliche Bedeutung hat die Domain in Schweden, Dänemark und den Niederlanden, da im Schwedischen, Dänischen und Niederländischen nu „jetzt“ bedeutet, sowie in den vielen englischsprachigen Ländern, wo es eine nicht rechtschreibkonforme Variante von new „neu“ ist. Hinzu kommt, dass .se-Domains (Schweden) dort früher für Privatpersonen nicht registrierbar waren. Französischsprachige Erotikseiten verwenden diese Endung gerne, da das Wort nu übersetzt nackt bedeutet.
.cc (Kokosinseln): ist sehr beliebt, da sie von jedermann registriert werden kann und das Whois-System minimalistisch ist (es wird nur der Domain-Registrar preisgegeben, wodurch der Domain-Betreiber faktisch anonym bleibt.)
Neben den hier genannten Domains gibt es noch eine Vielzahl von Domains mit fantasievollen Namen wie .creditcard, .futbol und vielem mehr. Im Bild rechts sind mehr als 600 Top-Level-Domains notiert. Welche dieser möglichen Domains wirklich verwendet werden, ist unbekannt.
Technische und administrative Realisierung
Für jede Top-Level-Domain existiert eine Gruppe von Nameservern, die den gesamten Namensraum dieser Domain verwalten (meist mittels Delegationen auf weitere Server). Diese Domain-spezifischen Nameserver sind über die Root-Nameserver erreichbar. Außerdem existiert eine zentrale Datenbank, die über alle unterhalb dieser TLD angesiedelten Second-Level-Domains administrative Informationen enthält, wie zum Beispiel Name und Adresse des jeweiligen Domain-Inhabers. Auf diese Datenbank kann über den Whois-Dienst zugegriffen werden.
Für den Betrieb der Server und der Datenbank wird von ICANN für jede Domain eine Organisation beauftragt, die in der Internet-Terminologie Domain Name Registry genannt wird. Für die .com-TLD beispielsweise ist das das Unternehmen VeriSign, für .de die DENIC. Eine derartige Registry ist außerdem für die Vergabe von direkt untergeordneten Second-Level-Domains zuständig (z. B. example.com). Diese Aufgabe wird allerdings oft an sogenannte Registrare delegiert (siehe hierzu auch: Domain-Registrierung).
Für jede TLD existieren Richtlinien, die die Vergabe von Second-Level-Domains regeln. Diese sind über die Websites der jeweiligen Registries abrufbar. Für einige TLDs existieren IDN-Sprachtabellen, in denen alle Sonderzeichen aufgelistet sind, die bei der Vergabe von Subdomains verwendet werden dürfen. So sind zum Beispiel bei .biz und .org deutsche Umlaute zulässig. Diese Tabellen werden von der IANA verwaltet und sind über die Websites der Registries einsehbar.
Alternative Root-DNS
Es gibt im Internet auch Organisationen, die alternative Namensserver betreiben, über die zusätzlich zu den oben aufgeführten, quasi-offiziellen, vom ICANN kontrollierten TLDs weitere TLDs verfügbar sind. Ein entscheidender Nachteil dabei ist, dass solche Adressen für herkömmliche Internet-Nutzer nicht erreichbar sind. Auch werden sie von Suchmaschinen wie Google ignoriert. Ein weiterer Nachteil ist, dass die Namensräume zweier Betreiber kollidieren können, vor allem, wenn später weitere Top Level Domains eingeführt werden.
Das Projekt OpenNIC versucht, die alternativen Systeme zusammenzuführen, betrachtet jedoch die ICANN-TLDs als vorrangig und akzeptiert weder konfligierende noch private Namensräume. Die eigenen TLDs sind .glue, .indy, .geek, .null, .oss und .parody.
Statistische Angaben
Im vierten Quartal 2021 lag die Gesamtanzahl registrierter Domains bei über 341 Millionen.
Siehe auch
Liste länderspezifischer Top-Level-Domains
InterNIC
Weblinks
Zu den lokalen Regeln der TLDs (Wohnsitz, zwingende Second Level Domain usw.) findet sich in der englischsprachigen Wikipedia eine Linkliste
Root Zone Database – offizielle Liste aller Top-Level-Domains auf der Internetseite der IANA (englisch)
www.opennic.org
Ausführliche TLD-Auflistung von Hurricane Electric
Einzelnachweise
Liste (Informatik)
Liste (Abkürzungen)
|
Q14296
| 1,100.135157 |
652513
|
https://de.wikipedia.org/wiki/Retroflex
|
Retroflex
|
Ein Retroflex ( „zurück“ u. flectere „biegen“) ist ein apiko-postalveolarer oder sublamino-präpalataler Sprachlaut, das heißt, bei seiner Bildung wird die Zungenspitze oder das Zungenblatt hinter den Zahndamm gelegt. Die Zunge biegt sich nach oben zurück. Eine andere, vor allem in der Indologie gebräuchliche Bezeichnung für Retroflex ist Zerebral (v. lat. cerebrum „Gehirn, Schädel“). In der älteren Literatur, besonders in der nordischen Linguistik, findet man hierfür auch die Bezeichnung kakuminal oder domal.
Vorkommen
Der Kontrast zwischen dentalen und retroflexen Plosiven und Nasalen ist für die im indischen Raum gesprochenen Sprachen charakteristisch, und zwar unabhängig von deren Zugehörigkeit zu einer bestimmten Sprachfamilie. Retroflexe kommen sowohl in indoarischen, dravidischen als in manchen östlichen iranischen Sprachen (z. B. Paschtu) vor. Indische Sprecher substituieren oft die alveolaren Laute des Englischen oder Deutschen, die in ihrer Muttersprache nicht vorkommen, durch Retroflexe, was einer der Gründe für den markanten Klang des indischen Englisch ist.
Im Chinesischen kommen retroflexe Frikative vor, die mit den alveopalatalen Frikativen kontrastieren. Ebenso gibt es Retroflexe im Jaqaru in Zentralperu, die stimmlose retroflexe Affrikate (IPA: , ungefähr wie englisch ausgesprochenes „tr“) auch in einigen Varianten des Quechua in Nord- und Zentralperu (Wanka, Cajamarca, Inkawasi-Kañaris), hier meist mit dem Buchstaben ĉ oder mit ch' wiedergegeben.
In Teilen der schwedischen und norwegischen Sprachgebieten verschmelzen manche Konsonanten mit vorangehendem „r“ zu einem Retroflex. Auch das englische „r“ kann, besonders in den USA, retroflex ausgesprochen werden. Das sardische „dd(h)“ ist ein retroflexes [].
Literatur
John Clark, Collin Yallop, Janet Fletcher: An Introduction to Phonetics and Phonology. 3rd Edition. Blackwell Textbooks in Linguistics, Wiley-Blackwell, 2006.
T. Alan Hall: Phonologie: Eine Einführung. De Gruyter Studienbuch, de Gruyter, Berlin / New York 2000, ISBN 3-1101-5641-5.
Peter Ladefoged, Ian Maddieson: The Sounds of the World’s Languages. Blackwell, Oxford 1996, ISBN 0-631-19814-8.
Weblinks
Phonetik und Phonologie. Kapitel 1–9, Universität Bremen
International Phonetic Association
Einzelnachweise
Artikulationsort
|
Q267753
| 290.600777 |
1245165
|
https://de.wikipedia.org/wiki/T%C3%A4tort
|
Tätort
|
Mit den Begriffen tätort (schwedisch kurz für tätbebyggd ort), taajama (finnisch), tettsted (norwegisch Bokmål), tettstad (norwegisch Nynorsk) und byområde (dänisch) wird in den nordischen Ländern eine Siedlung oder Ansammlung von Häusern bezeichnet, die für statistische Auswertungen gemeinsam als Stadt bzw. Ortschaft erfasst werden. Die schwedischen, finnischen und norwegischen Begriffe bedeuten etwa „dicht bebauter Ort“ oder „Ortschaft“, die dänische Entsprechung bedeutet etwa „Stadtgebiet“ oder „Stadtumgebung“. Die Einteilung in tätorter ist von der Einteilung der politischen Gemeinden unabhängig: Gemeinden können mehrere tätorter umfassen, ebenso können tätorter über Gemeindegrenzen hinweg bestehen.
Definition
1960 einigten sich die nordischen Länder auf folgende Definition:
Schweden
Auf der Grundlage dieser Definition des dichtbebauten Gebiets werden in Schweden vom Statistiska centralbyrån (Statistisches Zentralamt Schweden, SCB) alle fünf Jahre die tätorter („Stadtgebiete“) abgegrenzt, wobei die Abgrenzung der tätorter von der politischen Gliederung in Gemeinden (kommuner) völlig unabhängig ist. Manche tätorter erstrecken sich über Teile von mehreren Gemeinden. 2010 betraf dies 44 tätorter. Darunter erstrecken sich über mehr als zwei Gemeinden die vier tätorter Stockholm (zwölf Gemeinden), Göteborg (fünf Gemeinden: Göteborg, Mölndal, Partille, Ale und Härryda), Täby (drei Gemeinden: Täby, Danderyd und Sollentuna) sowie Gundal och Högås (Kungsbacka, Göteborg, Mölndal). Acht tätorter überschreiten nicht nur Gemeinde-, sondern auch Provinzgrenzen:
Zusätzliches Kriterium für die Einstufung als tätort neben der Mindesteinwohnerzahl von 200 ist ein Anteil ständig bewohnter Häuser von mindestens 50 Prozent. Dies ist oft nicht der Fall in Ortschaften mit höherem Anteil an Ferienhäusern, die seit 2005 als Ferienhausgebiete (schwedisch fritidshusområde) ausgewiesen werden und den Småortern gleichgestellt sind. 2005 gab es 39 solcher Ortschaften, oft im Einzugsbereich der Großstädte. Die größten (2010) waren Älgö in der Gemeinde Nacka mit 751 Einwohnern und Saltarö in der Gemeinde Värmdö mit 735 Einwohnern, beide bei Stockholm. Falls der Anteil ständig bewohnter Häuser 50 Prozent unterschreitet, gilt ein Ort dennoch als Tätort, wenn die „Tagesbevölkerung“ (schwedisch dagbefolkningen) die „Nachtbevölkerung“ (nattbefolkningen) um mindestens 10 Prozent übersteigt.
Im Jahre 2010 gab es in Schweden 1956 tätorter. Besonders bei der Ermittlung der Einwohnerzahlen wird zwischen kommun und tätort streng unterschieden. So hatte beispielsweise Luleå kommun am 31. Dezember 2010 74.178 Einwohner, Luleå tätort als zusammenhängendes Stadtgebiet und Hauptort der Gemeinde (schwedisch centralort) aber nur 46.607. Hauptorte einiger Gemeinden sind keine tätorter, sondern selbst Ortsteile größerer tätorter, beispielsweise Mölndal, das Stadtteil (tätortsdel) von Göteborg, aber zugleich Hauptort der Gemeinde Mölndal ist.
Småort
Ortschaften, die nicht die Größe eines tätort erreichen, werden vom Statistiska centralbyrån als småorter (etwa „Kleinorte“) bezeichnet. Der Begriff beschreibt eine Ansammlung von Gebäuden mit 50 bis 199 Einwohnern und einer maximalen Entfernung von 150 Metern zwischen den Häusern. Gleichgestellt sind Ferienhausgebiete (fritidshusområde), auch wenn sie über 199 Einwohner haben, aber der Anteil an nicht ständig bewohnten Häusern (Ferienhäusern, fritidshus) mindestens 50 Prozent beträgt.
2010 gab es insgesamt 2920 småorter, 43 mehr als 2005. Neue småorter entstehen aus früheren tätorter durch Bevölkerungsrückgang oder, seltener, Veränderung der Einwohnerstruktur (siehe oben unter „Tätort“), andererseits durch Steigen der Bevölkerungszahl auf mindestens 50. Nicht mehr als småorter ausgewiesen werden Ortschaften infolge eines Bevölkerungsrückgangs unter 50 oder durch Zusammenschlüsse mehrerer småorter, manchmal zu einem neuen tätort, oder durch Zusammenwachsen mit einem bestehenden tätort oder Erreichen dieses Status durch Bevölkerungswachstum.
Den höchsten Bevölkerungsanteil in småortern weist (2010) Gotlands län mit gut 8,5 % auf, während es in Stockholms län nur 1,7 % sind. Die größte Anzahl von småortern (427) und die größte absolute Einwohnerzahl in diesen Orten weist Västra Götalands län auf. Gotlands län und Stockholms län nehmen zudem die erste und die letzte Position nach Bevölkerungsanteil außerhalb jeglicher tät- und småorter mit entsprechend 33,0 % und 2,7 % ein. Dabei war der Anteil in allen Provinzen gegenüber 2005 rückläufig.
Wie unter den tätortern gibt es auch unter småortern einige, die sich über mehrere Gemeinden erstrecken. 2010 waren es 30, die alle auf dem Territorium von zwei Gemeinden liegen (2005 noch 32, davon einer auf dem Territorium von drei Gemeinden). Drei småorter überschritten 2010 außerdem Provinzgrenzen:
Finnland
Auch in Finnland ist die Gliederung in Ortschaften (taajamat/tätorter) unabhängig von der Gemeindegliederung. Die Daten dazu werden vom Amt für Statistik (Tilastokeskus/Statistikcentralen) erhoben. Im Jahr 2010 gab es in Finnland 735 Ortschaften. Die meisten von ihnen waren recht klein, mehr als die Hälfte hatte weniger als 1000 Einwohner. Wegen der fortschreitenden Konzentrierung der Bevölkerung auf weniger, dafür aber größere Ortschaften ist deren Anzahl seit Jahrzehnten rückläufig. Vier Fünftel der Bevölkerung Finnlands lebt in Ortschaften, die zusammen nur knapp 2 % der Gesamtfläche des Landes einnehmen. Die sowohl einwohner- als auch flächenmäßig mit Abstand größte Ortschaft des Landes ist der Ballungsraum der Region Helsinki, die im Jahr 2010 mehr als 1,1 Millionen Einwohner zählte und sich über 638 km² auf dem Gebiet von 11 Gemeinden erstreckte. Andererseits gibt es Gemeinden mit mehreren Ortschaften und auch 11 Gemeinden ohne Ortschaft.
Dänemark
Danmarks Statistik veröffentlicht jährlich zum ersten Januar die Bevölkerungszahlen der dort so genannten byer (dt.: „Städte“), deren Definition derer des tätorts bzw. dänisch byområde entspricht. Deren größte ist Hovedstadsområdet (dt.: „Hauptstadtgebiet“) mit Einwohnern am .
Norwegen
Die norwegische Statistikbehörde Statistisk sentralbyrå (SSB) veröffentlicht jährlich aktuelle Zahlen zu Einwohnerzahlen, Fläche und Bevölkerungsdichte der tettsteder, wie tätorter im Norwegischen heißen.
Einzelnachweise
Weblinks
Tätorter 2010 (PDF; 3,0 MB), Informationsschrift des schwedischen Statistikamts SCB (schwedisch)
Småorter 2005 (PDF; 687 kB), Informationsschrift des schwedischen Statistikamts SCB (schwedisch)
Tatort
!
!
!
!
|
Q6566301
| 199.958705 |
197666
|
https://de.wikipedia.org/wiki/Threonin
|
Threonin
|
Threonin, abgekürzt Thr oder T, ist in seiner natürlichen L-Form eine essentielle proteinogene α-Aminosäure.
Im Threonin findet sich am β-Kohlenstoffatom (= 3-Position) eine Hydroxygruppe; es kann auch als 3-Methyl-Serin oder 3-hydroxyliertes Desmethyl-Valin betrachtet werden. Aufgrund der Hydroxygruppe ist Threonin wesentlich polarer und reaktiver als Valin.
Threonin wird zu den polaren Aminosäuren gezählt. Es kann an seiner Hydroxygruppe phosphoryliert werden, was bei der Regulation von Enzymen eine Rolle spielen kann.
Stereochemie
Threonin hat zwei stereogene Zentren an den Kohlenstoffatomen in 2- und 3-Position. Daher gibt es vier Stereoisomere des Threonins mit folgenden absoluten Konfigurationen: (2S,3R), (2R,3S), (2S,3S) und (2R,3R). Das in den Proteinen gebunden enthaltene L-Threonin besitzt (2S,3R)-Konfiguration und wird auch (2S,3R)-2-Amino-3-hydroxy-butansäure (Bezeichnung gemäß der IUPAC-Nomenklatur) genannt. Die anderen drei Stereoisomere [(2R,3S)-Threonin, (2S,3S)-allo-Threonin und (2R,3R)-allo-Threonin] des L-Threonins besitzen nur geringe Bedeutung.
Wenn von „Threonin“ ohne weiteren Namenszusatz (Präfix) gesprochen wird, ist gemeinhin L-Threonin gemeint.
Vorkommen
Threonin ist Bestandteil von tierischen und pflanzlichen Proteinen. Der Tagesbedarf für Erwachsene wird mit etwa 16 mg pro kg Körpergewicht angenommen. Die folgenden Beispiele für den Gehalt an Threonin beziehen sich jeweils auf 100 g des Lebensmittels, zusätzlich ist der prozentuale Anteil am Gesamtprotein angegeben.
Alle diese Nahrungsmittel enthalten L-Threonin chemisch gebunden als Proteinbestandteil, nur ausnahmsweise freies L-Threonin.
In Fischen sind die Anti-Frost-Proteine fast ausschließlich aus L-Threonin und L-Alanin aufgebaut.
Geschichte
Der amerikanische Biochemiker William Cumming Rose beschäftigte sich während seiner wissenschaftlichen Laufbahn intensiv mit der Bedeutung von Aminosäuren für die Ernährung. Bei Versuchen an Ratten in den 1930er Jahren musste er feststellen, dass die Fütterung mit den bis dahin bekannten 19 Aminosäuren nicht für ein Wachstum der Ratten ausreichte. Daraufhin suchte er systematisch nach einer weiteren essentiellen Aminosäure; schließlich konnte er sie aus Fibrin isolieren und ihrer Struktur nach identifizieren. Mit dieser als Threonin bezeichneten Aminosäure war damit die letzte der kanonischen proteinogenen Aminosäuren entdeckt. Der Name Threonin wurde aufgrund der Threose-Grundstruktur dieser Aminosäure gewählt.
Eigenschaften
Die hier angegebenen Daten beziehen sich nur auf L-Threonin und D-Threonin.
Restname: Threonyl
Seitenkette: hydrophil
isoelektrischer Punkt: 5,64
Van-der-Waals-Volumen: 93
Lipidlöslichkeit: log KOW = −0,7
Biosynthese
Da L-Threonin zu den essentiellen Aminosäuren gehört, muss L-Threonin mit der Nahrung durch L-Threonin-haltige Proteine aufgenommen werden. In Pflanzen und Mikroorganismen beginnt die Biosynthese des L-Threonins ausgehend vom L-Aspartat, dessen Ursprünge (Oxalacetat) dem Citratcyclus entstammen. Das L-Aspartat wird über zwei Zwischenstufen, mittels entsprechender Enzyme (Aspartatkinase, Aspartatsemialdehyd-Dehydrogenase, Homoserindehydrogenase) zum L-Homoserin umgesetzt. In einem weiteren Schritt wird der primäre Alkohol vom L-Homoserin von einer Homoserinkinase phosphoryliert. Dieses Phosphohomoserin wird im letzten Schritt von der Homoserinphosphat-Mutaphosphatase (PLP) zum L-Threonin umgesetzt.
Abbau
Für Abbau inklusive Strukturformeln siehe Abschnitt Weblinks
L-Threonin wird entweder zu Acetaldehyd sowie Glycin abgebaut, was von der Threonin-Aldolase () katalysiert wird. Die Aminosäure kann aber auch zu Propionyl-CoA umgesetzt werden.
Stoffwechselkrankheiten
Der Abbau von Threonin ist bei den folgenden Stoffwechselkrankheiten gestört:
Kombinierte Malon- und Methylmalonazidurie (CMAMMA)
Methylmalonazidurie
Propionazidämie
Herstellung
L-Threonin kann nach der Extraktionsmethode mit Hilfe von Ionenaustauschern aus Protein-Hydrolysaten gewonnen werden. Vorwiegend wird L-Threonin heute jedoch durch Fermentation hergestellt.
Verwendung
Als Bestandteil von Aminosäure-Infusionslösungen [Aminoplasmal® (D), Aminosteril®-N-Hepa (D), Primene® (A)] zur parenteralen Ernährung findet L-Threonin, neben anderen Aminosäuren, breite Anwendung in der Humanmedizin. Für Patienten mit gestörter Verdauung wurde eine oral anzuwendende „chemisch definierte Diät“ entwickelt, die L-Threonin enthält. In dieser Diät bilden die Aminosäuren die Stickstoffquelle; alle lebensnotwendigen Nährstoffe liegen in chemisch genau definierter Form vor.
Viele Getreidesorten weisen einen zu geringen Gehalt einer essentiellen Aminosäure auf. Durch diesen Mangel an nur einer Aminosäure sinkt die Verwertbarkeit aller aufgenommenen Aminosäuren auf den durch die in zu geringer Menge enthaltene essentielle Aminosäure („limitierende Aminosäure“) bestimmten Wert. Man steigert den Nährwert des Getreides dann durch den gezielten Zusatz geringer Mengen jener essentieller Aminosäuren, die darin defizitär sind. Mit Ausnahme von Mais enthalten die meisten Getreidearten weniger L-Threonin als von den Nutztieren benötigt wird. Der Zusatz von L-Threonin zu Mischfutter ist in der Futtermittel-Industrie verbreitet und schont so natürliche Ressourcen.
Weblinks
Einzelnachweise
Proteinogene Aminosäure
Arzneistoff
Alpha-Aminosäure
Butansäure
Beta-Hydroxycarbonsäure
Aromastoff (EU)
Futtermittelzusatzstoff (EU)
|
Q186521
| 113.244445 |
153319
|
https://de.wikipedia.org/wiki/Liaoning
|
Liaoning
|
Liaoning () ist eine Provinz im Nordosten der Volksrepublik China.
Geographie
Liaoning liegt in der Mandschurei, dem südlichen Teil vom Nordosten Chinas. Die Provinz wird im Süden vom Gelben Meer, im Südosten von Nordkorea, im Nordosten von der Provinz Jilin, im Westen von Hebei und im Nordwesten durch die Innere Mongolei begrenzt.
Der Yalu ist der Grenzfluss zwischen Nordkorea und China. Er mündet in die Koreabucht zwischen Dandong (Liaoning) und Sinŭiju (Nordkorea).
Administrativ ist Liaoning in 14 bezirksfreie Städte gegliedert (Stand: Zensus 2020):
Stadt Shenyang (), 12.860 km², 9.077.093 Einwohner;
Stadt Dalian (), 12.574 km², 7.450.785 Einwohner;
Stadt Anshan (), 9.252 km², 3.325.372 Einwohner;
Stadt Fushun (), 11.272 km², 1.854.372 Einwohner;
Stadt Benxi (), 8.420 km², 1.326.018 Einwohner;
Stadt Dandong (), 14.967 km², 2.188.436 Einwohner;
Stadt Jinzhou (), 10.111 km², 2.703.853 Einwohner;
Stadt Yingkou (), 5.365 km², 2.328.582 Einwohner;
Stadt Fuxin (), 10.355 km²; 1.647.280 Einwohner;
Stadt Liaoyang (), 4.736 km², 1.604.580 Einwohner;
Stadt Panjin (), 4.071 km², 1.389.691 Einwohner;
Stadt Tieling (), 12.980 km², 2.388.294 Einwohner;
Stadt Chaoyang (), 19.698 km², 2.872.857 Einwohner;
Stadt Huludao (), 10.415 km²; 2.434.194 Einwohner.
Größte Städte
Die zehn größten Städte der Provinz mit Einwohnerzahlen der eigentlichen städtischen Siedlung auf dem Stand der Volkszählung 2010 sind die folgenden:
Geschichte
Die heutige Provinz Liaoning, die bis 1929 den Namen Fengtian trug, war das Kernland der Mandschu mit Shenyang (mandschurisch: Mukden) als Hauptstadt des Mandschu-Reiches. Nach Gründung der Qing-Dynastie verlegten die Mandschu ihre Hauptstadt von Shenyang nach Peking. Nach dem Niedergang der Qing-Dynastie war die Provinz von Japan und Russland besetzt, die die Region auch industrialisierten. Die Häfen von Dalian und Lüshunkou (vormals als „Port Arthur“ bekannt) waren während der russischen Besetzung wegen ihrer Eisfreiheit ein wichtiger strategischer Punkt für die Russische Fernostflotte.
Demographie und Autonomie
Rund 84 % der Bevölkerung sind Han-Chinesen. Obwohl der Anteil der Mandschu nur 13 % und der der Mongolen nur 2 % der Bevölkerung der Provinz ausmacht, umfassen die sechs autonomen Kreise der Mandschu über 17 % und die zwei autonomen Kreise der Mongolen fast 6 % der Fläche der Provinz.
2013 lag die durchschnittliche Lebenserwartung bei 76,4 Jahren und damit über dem chinesischen Durchschnitt. Laut dem Zensus von 2010 beträgt die Fertilitätsrate in der Provinz nur 0,7 Kinder pro Frau und zählt damit zu den niedrigsten in China und weltweit.
Bevölkerungsentwicklung
Bevölkerungsentwicklung der Provinz seit dem Jahre 1954.
Wirtschaft
Mit einem Wirtschaftswachstum von über 13 Prozent besetzte Liaoning von 2008 bis etwa 2012 unter den global vergleichbaren Regionen den ersten Rang. Verglichen werden dabei die Wachstumsraten der acht wirtschaftsstärksten Regionen in den acht wirtschaftsstärksten Ländern, die sogenannten „G8x8“.
Liaoning ist eine traditionelle Schwerindustrieregion. Durch bedeutende Kohle- und Eisenerzvorkommen sind schon in der ersten Hälfte des 20. Jahrhunderts große Stahlwerke aufgebaut worden, in deren Umfeld sich später Metallverarbeitung, Maschinenbau, Schiffbau und Fahrzeugbau angesiedelt haben.
Zentren der chinesischen Steinkohleförderung und Stahlindustrie liegen im Nordosten der Provinzhauptstadt Shenyang bei der Stadt Fushun, im Südwesten mit der Stadt Anshan, und im Osten in Benxi. In Dalian befindet sich die größte Schiffswerft Chinas. Die Automobilindustrie konzentriert sich auf Shenyang mit BMW Brilliance Automotive und Dandong mit dem Bushersteller Huanghai. Auch in der landwirtschaftlichen Produktion spielt Liaoning eine bedeutende Rolle.
Seit 2013 kam es im Zuge des Umbaus der chinesischen Industrie zu vielen Unternehmensschließungen und Massenentlassungen vor allem in staatseigenen Betrieben. 2015 befindet sich die Region in einer tiefen Rezession.
Tourismus
Wichtigster Punkt für den Tourismus ist Dalian. In und um die Stadt gibt es Sandstrände und einige Erholungsorte.
Fossilien
In der Liaoning Provinz befinden sich wichtige Fundorte von Fossilien, wie die Jiufotang-Formation, die Yixian-Formation und die Jiufotang-Formation.
Bei den Fossilien handelt sich um Vögel und andere gefiederte Theropoden, Flugsauriern (Pterosauriern), Säugetieren, Amphibien und wirbellosen Tieren. Die Fundorte befinden sich z. B. in kleinen Steinbrüche oder Felsen, die von Ackerland umgeben sind. Besonders bekannt ist der Fund von Sinosauropteryx, einen kleinen, gefiederten Dinosaurier. Er zählt zu den Coelurosaurieren, Vorläufer der Vögel. Andere Funde sind Caudipteryx und Protarchaeopteryx. Ein weiterer berühmter Fund ist Microraptor. Der ebenfalls hier ausgegrabene Saurier Liaoningosaurus wurde nach diesem Ort benannt.
Persönlichkeiten
Shan Xiaona (* 1983), deutsche Tischtennisspielerin chinesischer Abstammung
Han Ying (* 1983), deutsche Tischtennisspielerin chinesischer Abstammung
Ma Long (* 1988), chinesischer Tischtennisspieler
Zhang Beiwen (* 1990), Badmintonspielerin
Li Wenwen (* 2000), chinesische Gewichtheberin
Einzelnachweise
Provinz (China)
|
Q43934
| 364.562913 |
52132
|
https://de.wikipedia.org/wiki/Feigen
|
Feigen
|
Die Feigen (Ficus) sind die einzige Gattung der Tribus Ficeae innerhalb der Pflanzenfamilie der Maulbeergewächse (Moraceae). Die wohl bekannteste Art ist die Echte Feige (Ficus carica), deren Früchte als Feigen bekannt sind. Die große Gattung („Großgattung“) besteht aus 750 bis 1000 Arten immergrüner und laubabwerfender Bäume, Sträucher oder Kletterpflanzen, die weltweit in den tropischen und subtropischen Regionen beheimatet sind. In frostfreien Gebieten werden einige Arten wegen ihrer dekorativen Blätter oder als Schattenspender in Parks und Gärten angepflanzt. Einige Arten und ihre Sorten sind beliebte Zimmerpflanzen.
Beschreibung
Vegetative Merkmale
Alle Ficus-Arten sind verholzende Pflanzen: immergrüne und laubabwerfende Bäume, Sträucher und Kletterpflanzen. In den Pflanzen befindet sich weißer Milchsaft.
Die meist wechselständigen Laubblätter sind meistens einfach. Es ist ein Nebenblatt zu erkennen, das aus zwei verwachsenen Nebenblättern entsteht. Nur selten sind diese nicht verwachsen. Das Nebenblatt schützt die Blattknospe und fällt beim Entfalten des Laubblattes ab.
Generative Merkmale
Die Blüten sind immer eingeschlechtig und apetal (ohne Kronblätter). Es gibt einhäusige (monözisch) und gynodiözische aber funktionell diözische, zweihäusig getrenntgeschlechtige Arten mit zwittrigen Blüten, die als männliche funktionieren. Jeweils viele Blüten sind in einem Blütenstand, einem krugförmigen, ausgehöhlten Achsengewebe, eingesenkt. Nur eine kleine, durch Schuppen- und Hochblätter verengte, distale Öffnung (Ostiolum) bleibt als Verbindung ins Freie. In einem Blütenstand können drei Blütentypen vorkommen: männliche und fertile weibliche Blüten und sterile weibliche (Gallblüten). Die männlichen Blüten besitzen zwei bis sechs Kelchblätter und meist ein bis drei (selten mehr) Staubblätter. Die fertilen weiblichen Blüten besitzen keine bis sechs Kelchblätter und einen freien Fruchtknoten mit einem oder zwei ungleichen Griffeln.
Die Früchte sind samenähnliche Achänen, gewöhnlich im vergrößerten, hohlen Blütenboden eingeschlossen oder von einem fleischigen Perianth umgeben. Es ist ein Fruchtverband (Achänenfruchtverband), genauer ein Sykonium, Hypanthodium (Scheinfrucht; Pseudocarp), da die vielen weiblichen Blüten sich zu Achänen entwickeln und in den fleischigen, krugförmigen Blütenboden integriert sind.
Die Chromosomengrundzahl beträgt x = 13. Bei den meisten Arten liegt Diploidie vor, mit einer Chromosomenzahl von 2n = 26.
Ökologie
Bestäubung
Die Bestäubung aller Feigenarten erfolgt durch Feigenwespen (Agaonidae). Viele Feigenarten können nur von einer ganz bestimmten Feigenwespenart bestäubt werden. Die Feigenwespen dringen durch die distale Öffnung, das Ostiolum, in den Blütenstand ein. Sie bestäuben manche Feigenblüten und legen ihre Eier in weiteren ab. Die Larven schlüpfen und ernähren sich von Bestandteilen des Fruchtstandes, bis sie sich zur Imago entwickeln. Danach schlüpfen die flugfähigen adulten Erzwespen aus der Öffnung des Fruchtstandes, suchen sich einen Geschlechtspartner und der Zyklus beginnt von Neuem.
Würgefeigen
Einige Ficus-Arten sind Würgefeigen. Die Samen werden von Vögeln gefressen und passieren unbeschädigt den Verdauungstrakt. Wenn sie im Kot der Vögel auf den Ast eines Baumes ausgeschieden werden und dort dank der mistelähnlich schleimigen Samenhülle kleben bleiben, keimen die Samen auf dem Ast. Die Feigenpflanzen wachsen direkt dort; es handelt sich also zunächst um Epiphyten. Doch deren Luftwurzeln wachsen zum Boden hinab. Erreichen die Wurzeln den Boden, beginnen die Feigen ein schnelleres Wachstum und bilden von nun an viel mehr Luftwurzeln. Sie umschließen allmählich ihren Trag- oder Wirtsbaum, der schließlich abstirbt, wodurch sich im Inneren der Würgefeige ein Hohlraum bildet. Die Würgefeige profitiert zusätzlich von den bei der Zersetzung des abgestorbenen Tragbaumes freiwerdenden Nährstoffen.
Einige der zahlreichen Arten von Würgefeigen sind:
Hohe Feige (Ficus altissima )
Ficus aurea , in Amerika bekannt als Florida strangler fig (Florida-Würgefeige)
Ficus barbata , Bartfeige oder bearded fig
Ficus benghalensis
Ficus burtt-davyi
Ficus citrifolia , ebenfalls Bartfeige genannt
Ficus craterostoma
Ficus macrophylla
Ficus obliqua
Ficus tinctoria
Ficus virens
Ficus watkinsiana : Von diesem Endemiten sind nur drei Populationen in Queensland bekannt.
Nahrung für Tiere
Da die meisten Ficus-Arten sehr viele Früchte ausbilden, sind sie für viele Tierarten, darunter Fledertiere, Primaten und Vögel und außerdem für fruchtfressende Käfer wie den Großen Rosenkäfer eine wichtige Nahrungsquelle.
Systematik und Verbreitung
Die Gattung Ficus wurde durch Carl von Linné in Species Plantarum 2, 1753, S. 1059 und Genera Plantarum, 5. Auflage, 1754, S. 482, aufgestellt. Lectotypusart ist Ficus carica Der Gattungsname Ficus leitet sich vom lateinischen Wort für die Echte Feige, ficus, ab, das auch mit dem altgriechischen sykea verwandt ist. Aus dem Lateinischen wurde auch der deutschsprachige Trivialname übernommen. Ficus ist die einzige Gattung der Tribus Ficeae Gaudich. innerhalb der Familie Moraceae.
Die Gattung Ficus enthält 750 bis 1000 Arten, die weltweit in den tropischen und subtropischen Regionen gedeihen.
Innere Gliederung
Die Gattung der Feigen (Ficus) wird in sechs Untergattungen mit Sektionen, Untersektionen und Serien gegliedert:
Untergattung Ficus: Es gibt zwei Sektionen:
Sektion Ficus: Es gibt zwei Untersektionen:
Untersektion Ficus: Sie Enthält drei Arten:
Echte Feige (Ficus carica ): Es gibt Subtaxa. Diese Art liefert als Nutzpflanze die Feigen.
Ficus iidaiana
Ficus palmata
Untersektion Frutescentiae: Sie enthält etwa 25 Arten:
Ficus abelii
Ficus boninsimae
Ficus chapaensis
Mistel-Feigenbaum (Ficus deltoidea ): Sie kommt in Thailand, Indonesien und Malaysia vor.
Ficus edanoi
Ficus erecta
Ficus filicauda
Ficus formosana
Ficus gasparriniana
Ficus glareosa
Ficus heteromorpha
Ficus ischnopoda
Ficus kofmanae
Ficus oleifolia
Ficus neriifolia
Ficus pandurata
Ficus pedunculosa
Ficus pustulata
Ficus pyriformis
Ficus stenophylla
Ficus tannoensis
Ficus tikoua
Ficus trivia
Ficus variolosa
Ficus vaccinioides
Sektion Eriosycea: Es gibt zwei Untersektionen:
Untersektion Auratae : Sie enthält etwa 14 Arten:
Ficus androchaete
Ficus aurata
Ficus aureocordata
Ficus auricoma
Ficus bruneiensis
Ficus brunneoaurata
Ficus diamantiphylla
Ficus endospermifolia
Ficus eumorpha
Ficus inaequipetiolata
Ficus macilenta
Ficus paramorpha
Ficus setiflora
Ficus subglabritepala
Untersektion Eriosycea: Sie enthält etwa 13 Arten:
Ficus hirta
Ficus lamponga
Ficus langkokensis
Ficus litseifolia
Ficus mollissima
Ficus oreophila
Ficus padana
Ficus ruficaulis
Ficus schefferiana
Ficus simplicissima
Ficus subfulva
Ficus tricolor
Ficus tuphapensis
Untergattung Pharmacosycea : Es gibt zwei Sektionen:
Sektion Pharmacosycea: Es gibt zwei Untersektionen:
Untersektion Bergianae : Sie enthält etwa 14 Arten:
Ficus adhatodifolia
Ficus apollinaris
Ficus carchiana
Ficus crassiuscula
Ficus dulciaria
Ficus ernanii : Sie wurde 2012 erstbeschrieben.
Ficus gigantosyce
Ficus insipida (Syn.: Ficus glabrata ): Auch Amatlbaum, Amate genannt. Die Rinde wird zur Herstellung des papierartigen Schreibmaterials Amatl verwendet. Er ist vom nördlichen Mexiko über Zentralamerika bis Südamerika weitverbreitet.
Ficus mutisii
Ficus obtusiuscula
Ficus petenensis
Ficus piresiana
Ficus pulchella
Ficus yoponensis
Untersektion Petenenses: Sie enthält etwa acht Arten:
Ficus ecuadorensis
Ficus guajavoides
Ficus lacunata
Ficus lapathifolia
Ficus macbridei
Ficus maxima
Ficus rieberiana
Ficus tonduzii
Sektion Oreosycea : Es gibt zwei Untersektionen:
Untersektion Glandulosae : Sie enthält etwa 65 Arten:
Ficus asperula
Ficus auriculigera
Ficus austrocaledonica
Ficus balansana
Ficus barraui
Ficus bubulia
Ficus campicola
Ficus carinata
Ficus cataractorum
Ficus comptonii
Ficus crescentioides
Ficus cretacea
Ficus dzumacensis
Ficus edelfeltii
Essbare Feige (Ficus edulis ), Früchte werden gegessen.
Ficus gigantifolia
Ficus granatum
Ficus gratiosa
Ficus habrophylla
Ficus hadroneura
Ficus heteroselis
Ficus hombroniana
Ficus hurlimannii
Ficus ihuensis
Ficus illiberalis
Ficus kjellbergii
Ficus leiocarpa
Ficus leptorhachis
Ficus lifouensis
Ficus longipes
Ficus magnoliifolia
Ficus magwana
Ficus maialis
Ficus matanoensis
Ficus microtophora
Ficus mutabilis
Ficus nervosa
Ficus nitidifolia
Ficus novae-georgiae
Ficus oreadum
Ficus otophora
Ficus otophoroides
Ficus pachysycia
Ficus pallidinervis
Ficus pancheriana
Ficus polyantha
Ficus pseudojaca
Ficus pseudomangiferifolia
Ficus pteroporum
Ficus punctulosa
Ficus racemigera
Ficus rigidifolia
Ficus saruensis
Ficus sclerosycia
Ficus semecarpifolia
Ficus setulosa
Ficus smithii
Ficus subcaudata
Ficus subnervosa
Ficus subtrinervia
Ficus tanensis
Ficus trachyleia
Ficus versicolor
Ficus vieillardiana
Ficus webbiana
Untersektion Pedunculatae: Sie enthält etwa neun Arten:
Ficus albipila
Ficus ampana
Ficus assimilis
Ficus bataanensis
Ficus callosa
Ficus capillipes
Ficus dicranostyla
Ficus variifolia
Ficus vasculosa
Untergattung Sycidium: Es gibt zwei Sektionen:
Sektion Sycidium :
Sie wird nicht in Untersektionen gegliedert und enthält etwa 81 Arten:
Ficus ampelas
Ficus andamanica
Ficus arawaensis
Ficus aspera
Ficus asperifolia
Ficus asperiuscula
Ficus assamica
Ficus badiopurpurea
Ficus balica
Ficus bambusifolia
Ficus barclayana
Ficus bojeri
Ficus brachyclada
Ficus carpentariensis
Ficus capreifolia
Ficus chrysochaete
Ficus complexa
Ficus conocephalifolia
Ficus copiosa
Ficus coronata
Ficus coronulata
Ficus cumingii
Ficus cyrtophylla
Ficus elmeri
Ficus erinobotrya
Ficus eustephana
Ficus exasperata
Ficus fiskei
Ficus floresana
Ficus fraseri
Ficus fulvopilosa
Ficus godeffroyi
Ficus goniophylla
Ficus greenwoodii
Ficus gryllus
Ficus gul
Ficus henryi
Ficus hesperia
Ficus heterophylla
Ficus heteropoda
Ficus imbricata
Ficus lateriflora
Ficus leptoclada
Ficus leptodictya
Ficus leptogramma
Ficus longecuspidata
Ficus macrorrhyncha
Ficus masonii
Ficus melinocarpa
Ficus montana
Ficus myiopotamica
Ficus odorata
Ficus oleracea
Ficus opposita
Ficus pachyclada
Ficus phaeosyce
Ficus podocarpifolia
Ficus politoria
Ficus porphyrochaete
Ficus praetermissa
Ficus primaria
Ficus pseudowassa
Ficus pygmaea
Ficus quercetorum
Ficus riedelii
Ficus samoensis
Ficus sandanakana
Ficus scabra
Ficus schumanniana
Ficus sciaphila
Ficus scobina
Ficus stellaris
Ficus storckii
Ficus subincisa
Ficus subsidens
Ficus tenuicuspidata
Ficus tonsa
Ficus trachypison
Ficus tsiangii
Ficus ulmifolia : Sie kommt auf den Philippinen vor.
Ficus uniauriculata
Ficus wassa
Sektion Palaeomorphe:
Sie wird nicht in Untersektionen gegliedert und enthält etwa 29 Arten:
Ficus anastomosans
Ficus armitii
Ficus aurita
Ficus cauta
Ficus celebensis
Ficus corneriana
Ficus cuspidata
Ficus funiculicaulis
Ficus gracillima
Ficus grewiifolia
Ficus hemsleyana
Ficus heteropleura
Ficus inaequifolia
Ficus jaheriana
Ficus kuchinensis
Ficus lasiocarpa
Ficus leptocalama
Ficus microsphaera
Ficus midotis
Ficus obscura
Kirschen-Feige (Ficus parietalis , Syn.: Ficus cerasiformis Desf., Ficus concentrica , Ficus grandifolia , Ficus junghuhniana , Ficus parietalis var. angustifolia , Ficus parietalis var. ovalis , Ficus parietalis var. rufipila , Ficus parietalis var. tabing , Ficus phlebophylla , Ficus rufipila , Ficus tabing ), Früchte werden gegessen.
Ficus pisifera
Ficus rubrocuspidata
Ficus rubromidotis
Ficus sinuata
Ficus stipata
Ficus subulata
Ficus tinctoria : Sie kommt im tropischen Asien, in China, Taiwan, Japan, in Australien und auf Inseln im Pazifik vor.
Ficus uniglandulosa
Ficus virgata
Untergattung Sycomorus:
Sektion Sycomorus : Es gibt zwei Untersektionen:
Untersektion Sycomorus: Sie enthält etwa 14 Arten:
Ficus botryoides
Ficus karthalensis
Ficus mauritiana
Ficus mucuso
Ficus polyphlebia
Ficus racemosa : Sie kommt im tropischen Asien, in China (Guizhou, Yunnan, Guangxi), Papua-Neuguinea und in Australien vor.
Ficus sakalavarum
Ficus sur
Maulbeer-Feige, auch Esels-Feige, Sykamor-Feige, Sykomore genannt (Ficus sycomorus )
Ficus tiliifolia
Ficus torrentium
Ficus trichoclada
Ficus vallis-choudae
Ficus vogeliana
Untersektion Neomorphe: Sie enthält etwa sechs Arten:
Ficus auriculata
Ficus hainanensis
Ficus nodosa
Ficus robusta
Ficus semivestita
Ficus variegata
Sektion Adenosperma :
Sie wird nicht in Untersektionen gegliedert und enthält etwa 19 Arten:
Ficus adenosperma
Ficus arbuscula
Ficus austrina
Ficus casearioides
Ficus comitis
Ficus endochaete
Ficus erythrosperma
Ficus funiculosa
Ficus indigofera
Ficus megaphylla
Ficus mollior
Ficus pilulifera
Ficus saccata
Ficus subcuneata
Ficus suffruticosa
Ficus trichocerasa
Ficus umbonata
Ficus verticillaris
Ficus vitiensis
Sektion Bosscheria :
Sie wird nicht in Untersektionen gegliedert und enthält nur zwei Arten:
Ficus minahassae
Ficus pungens
Sektion Dammaropsis :
Sie wird nicht in Untersektionen gegliedert und enthält etwa fünf Arten:
Ficus dammaropsis
Ficus pseudopalma
Ficus rivularis
Ficus salomonensis
Ficus theophrastoides
Sektion Hemicardia :
Sie wird nicht in Untersektionen gegliedert und enthält nur drei Arten:
Ficus koutumensis
Ficus prostrata
Ficus semicordata
Sektion Papuasyce :
Sie wird nicht in Untersektionen gegliedert und enthält nur drei Arten:
Ficus itoana
Ficus microdictya
Ficus pritchardii
Sektion: Sycocarpus : Es gibt zwei Untersektionen:
Untersektion Macrostyla: Sie enthält nur zwei Arten:
Ficus macrostyla
Ficus squamosa
Untersektion Sycocarpus: Sie enthält etwa 92 Arten:
Ficus adelpha
Ficus albomaculata
Ficus arfakensis
Ficus baccaureoides
Ficus beccarii
Ficus beguetensis
Ficus bernaysii
Ficus biakensis
Ficus boanensis
Ficus botryocarpa
Ficus bougainvillei
Ficus calcarata
Ficus calopilina
Ficus carpenteriana
Ficus cassidyana
Ficus cereicarpa
Ficus congesta
Ficus conglobata
Ficus cryptosycea
Ficus cuneata
Ficus cynarioides
Ficus d'albertisii
Ficus decipiens
Ficus dimorpha
Ficus dissipata
Ficus fistulosa
Ficus flagellaris
Ficus francisci
Ficus geocarpa
Ficus geocharis
Ficus gilapong
Ficus griffithii
Ficus hahliana
Ficus hispida
Ficus hypogaea
Ficus iodotricha
Ficus immanis
Ficus ixoroides
Ficus lancibracteata
Ficus latimarginata
Ficus lepicarpa
Ficus limosa
Ficus linearifolia
Ficus longibracteata
Ficus macrothyrsa
Ficus manuselensis
Ficus megaleia
Ficus morobensis
Ficus multistipularis
Ficus nana
Ficus nota : Sie kommt in Malaysia und auf den Philippinen vor.
Ficus novahibernica
Ficus obpyramidata
Ficus pachyrrhachis
Ficus papuana
Ficus parvibracteata
Ficus pleyteana
Ficus porrecta
Ficus profusa
Ficus remifolia
Ficus ribes
Ficus rubrosyce
Ficus satterthwaitei
Ficus saurauioides
Ficus scaposa
Ficus schwarzii
Ficus scopulifera
Ficus scortechinii
Ficus septica
Ficus serraria
Ficus stolonifera
Ficus subcongesta
Ficus sublimbata
Ficus subterranea
Ficus sulcata
Ficus tanypoda
Ficus tarennifolia
Ficus ternatana
Ficus treubii
Ficus tunicata
Ficus uncinata
Ficus virescens
Ficus vrieseana
Untergattung Synoecia: Sie wird in zwei Sektionen gegliedert:
Sektion Kissosycea:
Sie wird nicht in Untersektionen gegliedert und enthält etwa 28 Arten:
Ficus allutacea
Ficus apiocarpa
Ficus barba-jovis
Ficus carrii
Ficus cataupi
Ficus cavernicola
Ficus densechini
Ficus detonsa
Ficus diandra
Ficus disticha
Ficus distichoidea
Ficus diversiformis
Ficus grandiflora
Ficus gymnorygma
Ficus hederacea
Ficus peninsula
Ficus phatnophylla
Ficus punctata
Ficus ruginervia
Ficus sarawakensis
Ficus scratchleyana
Ficus singalana
Ficus sohotonensis
Ficus submontana
Ficus trachycoma
Ficus tulipifera
Ficus warburgii
Sektion Rhizocladus: Es gibt vier Untersektionen:
Untersektion Plagiostigma : Sie enthält etwa acht Arten:
Ficus anserina
Ficus impressa
Ficus guizhouensis
Ficus pubigera
Kletter-Feige (Ficus pumila) : Sie kommt in China, Japan, Taiwan und Vietnam vor.
Ficus polynervis
Ficus sarmentosa
Ficus yunnanensis
Untersektion: Pogonotrophe : Es gibt nur eine Art:
Ficus laevis
Untersektion: Punctulifoliae: Sie enthält etwa 24 Arten:
Ficus ampulliformis
Ficus araneosa
Ficus baeuerlenii
Ficus camptandra
Ficus colobocarpa
Ficus devestiens
Ficus excavata
Ficus floccifera
Ficus fuscata
Ficus hypobrunnea
Ficus insculpta
Ficus jacobsii
Ficus lanata
Ficus odoardii
Ficus ovatacuta
Ficus oxymitroides
Ficus pantoniana
Ficus pendens
Ficus recurva
Ficus sabahana
Ficus sageretina
Ficus sagittata
Ficus spiralis
Ficus supperforata
Ficus villosa
Untersektion Trichocarpeae: Sie enthält etwa zehn Arten:
Ficus bakeri
Ficus cinnamomea
Ficus hypophaea
Ficus jimiensis
Ficus nasuta
Ficus perfulva
Ficus phaeobullata
Ficus pleiadenia
Ficus supfiana
Ficus trichocarpa
Untergattung Urostigma :
Sektion Americanae:
Sie wird nicht in Untersektionen gegliedert und enthält etwa 110 Arten:
Ficus acreana
Ficus albert-smithii
Ficus amazonica
Ficus americana : Sie ist von Mexiko über Zentralamerika und auf karibischen Inseln bis Südamerika weitverbreitet.
Ficus andicola
Ficus aripuanensis
Ficus aurea : Sie kommt in Florida, Mexiko, Guatemala, Honduras, Nicaragua, Costa Rica, Panama und auf Inseln in der Karibik vor.
Ficus bahiensis
Ficus blepharophylla
Ficus boliviana
Ficus brevibracteata
Ficus brittonii
Ficus broadwayi
Ficus bullenei
Ficus caballina
Ficus cahuitensis
Ficus caldasiana
Ficus calimana
Ficus calyptroceras
Ficus carautana
Ficus casapiensis
Ficus castellviana
Ficus catappifolia
Ficus cervantesiana
Ficus cestrifolia
Ficus chaparensis
Ficus christianii
Ficus citrifolia : Sie ist in Florida, von Mexiko über Zentralamerika und auf karibischen Inseln bis Südamerika weitverbreitet.
Ficus coerulescens
Ficus colubrinae
Ficus costaricana
Ficus cotinifolia
Ficus cotopaxiensis
Ficus crassinervia
Ficus cremersii
Ficus crocata
Ficus cuatrecasana
Ficus davidsonii
Ficus dendrocida
Ficus donnell-smithii
Ficus duartei
Ficus duckeana
Ficus dugandii
Ficus eliadis
Ficus enormis
Ficus eximia
Ficus goiana
Ficus gomelleira
Ficus gramalotensis
Ficus greiffiana
Ficus guatiquiae
Ficus guianensis
Ficus hartwegii
Ficus hatschbachii
Ficus hebetifolia
Ficus hirsuta
Ficus holosericea
Ficus jacobii
Ficus krukovii
Ficus lagoensis
Ficus laureola
Ficus lauretana
Ficus leiophylla
Ficus longifolia
Ficus luschnathiana
Ficus malacocarpa
Ficus mantana
Ficus mariae
Ficus maroma
Ficus maroniensis
Ficus mathewsii
Ficus matiziana
Ficus membranacea
Ficus mollicula
Ficus nymphaeifolia
Ficus obtusifolia : Sie ist von Mexiko über Zentral- bis Südamerika verbreitet.
Ficus osensis
Ficus pakkensis
Ficus pallida
Ficus paludica
Ficus panurensis
Ficus paraensis
Ficus pertusa
Ficus petiolaris
Ficus popenoei
Ficus richteri
Ficus rimicana
Ficus romeroi
Ficus roraimensis
Ficus salicaria
Ficus schippii
Ficus schultesii
Ficus schumacheri
Ficus sphenophylla
Ficus subandina
Ficus subapiculata
Ficus tepuiensis
Ficus tequendama
Ficus tovarensis
Ficus trapezicola
Ficus trianae
Ficus trigona
Ficus trigonata : Sie kommt auf den karibischen Inseln Kuba, Hispaniola, Dominica, Puerto Rico, Montserrat, Martinique, Guadeloupe und auf den Jungferninseln vor.
Ficus turrialbana
Ficus ursina
Ficus velutina
Ficus venezuelensis
Ficus vittata
Ficus ypsilophlebia
Ficus zarzalensis
Ficus zuliensis
Sektion Galoglychia: Es gibt sechs Untersektionen:
Untersektion Caulocarpae : Sie enthält etwa zwölf Arten:
Ficus artocarpoides
Ficus bizanae
Ficus bubu
Ficus chirindensis
Ficus dryepondtiana
Ficus modesta
Ficus ottoniifolia
Ficus ovata
Ficus polita
Ficus sansibarica
Ficus tremula
Ficus umbellata
Untersektion Chlamydodorae : Sie enthält etwa 17 Arten:
Ficus amadiensis
Ficus antandronarum
Ficus burtt-davyi
Ficus calyptrata
Ficus craterostoma
Ficus faulkneriana
Ficus fischeri
Ficus ilicina
Ficus kamerunensis
Ficus linqua
Natal fig, barkcloth fig, bark-cloth fig, common wild fig, fire-stick, strangler fig, Figuier de Natal, mlandege, Mlumba, utambe, kiditi, amannyedyua, akabofui, eduro, endjuuque, parafi din tera, pov di dalgu, tarafi din tera, ituba, mutuba, laru, khumusonya, kumuluba, tera, kiryanyonyi, mugaire, omugaire, omukosi, soto foro, sotokuro, ekerae, ngagutuo, uchime, mutooma, Kachere Tree (Ficus natalensis ): Sie ist in Afrika weitverbreitet und ist vor allem in Malawi von großer symbolischer Bedeutung.
Ficus persicifolia
Ficus petersii
Ficus psilopoga
Ficus reflexa
Ficus rokko
Ficus thonningii : Sie kommt vom tropischen bis ins südliche Afrika vor.
Untersektion Crassicostae : Sie enthält etwa acht Arten:
Ficus adolfi-friderici
Ficus burretiana
Ficus elasticoides
Ficus leonensis
Ficus louisii
Ficus oreodryadum
Ficus pseudomangifera
Ficus usambarensis
Untersektion Cyathistipulae : Sie enthält etwa 19 Arten:
Ficus abscondita
Ficus ardisioides
Ficus barteri
Ficus conraui
Ficus crassicosta
Ficus cyathistipula : Sie kommt im tropischen Afrika vor.
Ficus cyathistipuloides
Ficus densistipulata
Geigen-Feige (Ficus lyrata )
Ficus oresbia
Ficus pachyneura
Ficus preussii
Ficus sagittifolia
Ficus scassellatii
Ficus scott-elliotii
Ficus subcostata
Ficus subsagittifolia
Ficus tesselata
Ficus wildemaniana
Untersektion Galoglychia: Sie enthält nur drei Arten:
Ficus chlamydocarpa
Zulufeige (Ficus lutea , Syn.: Ficus vogelii ): Sie ist vom tropischen bis südlichen Afrika, auf Madagaskar, den Komoren und Seychellen verbreitet.
Ficus saussureana
Untersektion Platyphyllae : Sie enthält etwa 18 Arten:
Ficus abutilifolia
Ficus bivalvata
Ficus bussei
Ficus glumosa
Ficus grevei
Ficus jansii
Ficus marmorata
Ficus muelleriana
Ficus nigropunctata
Ficus platyphylla
Ficus populifolia
Ficus recurvata
Ficus rubra
Ficus stuhlmannii
Ficus tettensis
Ficus trichopoda
Ficus vasta
Ficus wakefieldii
Sektion Malvanthera : Es gibt drei Untersektionen:
Untersektion Hesperidiiformes: Sie wird in drei Serien gegliedert und enthält etwa zwölf Arten:
Serie Glandiferae: Sie enthält nur drei Arten:
Ficus baola
Ficus glandifera
Ficus rhizophoriphylla
Serie Hesperidiiformes : Sie enthält nur zwei Arten:
Ficus hesperidiiformis
Ficus sterrocarpa
Serie Xylosyciae: Sie enthält etwa vier Arten:
Ficus augusta
Ficus heteromeka
Ficus mafuluensis
Ficus xylosycia
Untersektion Malvantherae: Sie enthält nur zwei Arten:
Großblättrige Feige, auch Australischer Gummibaum genannt (Ficus macrophylla ): Sie kommt in den australischen Bundesstaaten Queensland sowie New South Wales vor.
Ficus pleurocarpa
Untersektion Platypodeae: Sie wird in vier Serien gegliedert und enthält etwa zwölf Arten:
Serie Crassipes: Sie enthält nur zwei Arten:
Ficus crassipes
Ficus destruens : Sie kommt nur in Queensland vor.
Serie Eubracteatae: Es gibt nur eine Art:
Ficus triradiata
Serie Obliquae: Sie enthält etwa fünf Arten:
Ficus cerasicarpa
Ficus lilliputiana
Ficus obliqua : Sie kommt auf den Molukken, in Irian Jaya, Papua-Neuguinea, in Neukaledonien, auf den Salomonen, Fidschi-Inseln, auf Niue, Samoa, Tonga und in den australischen Bundesstaaten New South Wales sowie Queensland vor.
Ficus platypoda : Sie kommt in den australischen Bundesstaaten New South Wales, Queensland, South Australia, Western Australia und in Northern Territory vor.
Ficus subpuberula
Serie: Rubiginosae: Sie enthält etwa vier Arten:
Ficus atricha
Ficus brachypoda
Ficus rubiginosa : Sie kommt in den australischen Bundesstaaten New South Wales sowie Queensland vor.
Ficus watkinsiana : Sie kommt in den australischen Bundesstaaten New South Wales sowie Queensland vor.
Sektion Urostigma : Es gibt zwei Untersektionen:
Untersektion Conosycea : Sie enthält etwa 64 Arten:
Ficus acamptophylla
Hohe Feige (Ficus altissima ): Sie kommt in Indien, Nepal, Bhutan, Myanmar, Thailand, Vietnam, Malaysia, Indonesien, auf den Philippinen und in den chinesischen Provinzen Guangdong, Yunnan, Guangxi sowie Hainan verbreitet.
Ficus annulata
Ficus archboldiana
Ficus balete
Ficus beddomei
Banyan-Feige, auch Banyanbaum oder Bengalische Feige genannt (Ficus benghalensis ): Sie kommt in Indien und Pakistan vor.
Birkenfeige (Ficus benjamina )
Ficus binnendijkii
Ficus borneensis
Ficus bracteata
Ficus calcicola
Ficus callophylla
Ficus chrysolepis
Ficus consociata
Ficus cordatula
Ficus corneri
Ficus costata
Ficus crassiramea
Ficus cucurbitina
Ficus curtipes
Ficus dalhouseae
Ficus delosyce
Ficus depressa
Ficus drupacea : Sie kommt im tropischen Asien, in China und in Queensland vor.
Ficus dubia
Gummibaum (Ficus elastica )
Ficus fergusonii
Ficus forstenii
Ficus glaberrima
Ficus globosa
Ficus hillii
Ficus humbertii
Ficus involucrata
Ficus juglandiformis
Ficus kerkhovenii
Ficus kochummeniana
Ficus kurzii
Ficus lawesii
Ficus lowii
Ficus maclellandii
Ficus menabeensis
Chinesische Feige, oder Lorbeer-Feige, Indischer Lorbeer genannt, (Ficus microcarpa , Syn.: Ficus retusa auct., Ficus nitida auct., Ficus retusiformis )
Ficus microsycea
Ficus miqueliana
Ficus mollis
Ficus pallescens
Ficus paracamptophylla
Ficus patellata
Ficus pellucidopunctata
Ficus pharangensis
Ficus pisocarpa
Ficus pubilimba
Ficus retusa
Ficus rigo
Ficus spathulifolia
Ficus stricta
Ficus subcordata
Ficus subgelderi
Ficus sumatrana
Ficus sundaica
Ficus talbotii
Ficus trimenii
Ficus tristaniifolia
Ficus xylophylla
Untersektion Urostigma : Sie enthält etwa 25 Arten:
Ficus amplissima
Ficus arnottiana
Ficus cardiophylla
Ficus caulocarpa
Ficus concinna
Ficus cordata
Ficus cupulata
Ficus densifolia
Ficus geniculata
Ficus hookeriana
Ficus ingens
Ficus lacor
Ficus madagascariensis
Ficus orthoneura
Ficus prolixa : Sie kommt auf den Fidschi-Inseln, Vanuatu, Neukaledonien, den Pitcairninseln, Französisch-Polynesien, den nördlichen Marianen und Mikronesien vor.
Ficus prasinicarpa
Pappel-Feige, auch Buddhabaum, Bodhibaum, Bobaum, Pepulbaum genannt (Ficus religiosa )
Ficus rumphii
Ficus salicifolia
Ficus saxophila
Ficus subpisocarpa
Ficus superba
Ficus tsjahela
Ficus verruculosa
auch Bengalische Würgefeige, Java-Feige genannt (Ficus virens ): Sie kommt im tropischen Asien, in China, Japan, Taiwan und in Australien vor.
Nutzung
Nutzung in der Küche
Die Feigen einiger Arten werden gegessen. Am bekanntesten ist die Echte Feige (Ficus carica). Verwendet werden beispielsweise auch die Feigen von Ficus macrophylla, Ficus palmata.
In Österreich verkaufte Feigen sind in der Regel getrocknet und braun. Handelsform waren ehemals Ringe zu denen die axial flach gepressten Früchte auf einer Biogenen Faser aufgefädelt und diese verknotet wurden. Heute werden je 250 g Feigen zu einem länglichen Ziegel verpresst, mit Zellophan foliert und in eine Holzkiste oder stabilen Karton geschlichtet. Zumeist verbleibt dabei bis vor dem Verzehr ein 4–8 mm kurzer Stengelrest an der Frucht, der nicht mitgegessen wird, doch das Eindringen von Keimen während des Trocknens verhindert.
Lieferländer sind Türkei und Italien, 2018 werden jedoch, bedingt durch die Klimaerwärmung, auch schon in Wien-Simmering Feigen kultiviert.
Nutzung als Heilpflanze
Die medizinische Wirkung der Echten Feige (Ficus carica) wurde untersucht.
Zierpflanze in Parks und Gärten
Viele Arten werden als Zierpflanzen in Parks und Gärten verwendet.
Zierpflanze in Räumen
Einige Ficus-Arten und ihre Sorten werden als Zierpflanzen in Räumen verwendet (Auswahl):
Birkenfeige, auch Benjamin-Ficus genannt (Ficus benjamina): Häufig und in vielen Sorten (beispielsweise Ficus benjamina ‚Natasja‘) angebotene Art.
Mistel-Feigenbaum (Ficus deltoidea): Diese Art bildet leicht Früchte. In beheizten Räumen robuste Art.
Gummibaum (Ficus elastica): Früher sehr beliebte Zimmerpflanze, die in verschiedenen Sorten wieder häufiger angeboten wird. Sehr robuste Art.
Geigen-Feige (Ficus lyrata): Eine großblättrig, sparrig wachsende Art. In beheizten Räumen sehr einfach zu pflegen.
Chinesische Feige, auch Lorbeer-Feige oder Indischer Lorbeer genannt (Ficus microcarpa, Syn.: Ficus retusa): Robuste Art, die auch mit kühleren Räumen zurechtkommt, beispielsweise als Zimmerbonsai.
Kletter-Feige (Ficus pumila): Eine kleinblättrige Art, die mit Haftwurzeln klettert. Sie wird als Bodendecker oder an Moosstäben kletternd angeboten.
Aufgrund ihrer guten Anpassung an das Klima des Wohnbereiches eignen sich verschiedene Arten als Zimmerbonsai.
Literatur
E. Bolay: Ökologie der Würgefeigen. In: Biologie in unserer Zeit. Band 2, 1977, S. 55–58.
E. Bolay: Feigen und Würgefeigen. In: Pharmazie in unserer Zeit. Band 8, 4, 1979, S. 97–112.
E. Bolay: Eine Würgefeige (Ficus benjamina L.) – Beispiel für eine Unterrichtseinheit zum Thema Epiphytismus und Parasitismus. In: Naturwissenschaft im Unterricht – Biologie. Band 7, 2, 1981, S. 272–279.
Zhengyi Wu, Zhe-Kun Zhou, Michael G. Gilbert: Moraceae.: Ficus, S. 37 – textgleich online wie gedrucktes Werk, In: Wu Zhengyi, Peter H. Raven, Deyuan Hong (Hrsg.): Flora of China. Volume 5: Ulmaceae through Basellaceae. Science Press und Missouri Botanical Garden Press, Beijing und St. Louis, 19. Dezember 2003, ISBN 1-930723-27-X.
Richard P. Wunderlin: Moraceae.: Ficus – textgleich online wie gedrucktes Werk, In: Flora of North America Editorial Committee (Hrsg.): Flora of North America North of Mexico. Volume 3: Magnoliidae and Hamamelidae. Oxford University Press, New York und Oxford, 1997, ISBN 0-19-511246-6.
Weiterführende Literatur
Yinxian Shi, Huabin Hu, Youkai Xu, Aizhong Liu: An ethnobotanical study of the less known wild edible figs (genus Ficus) native to Xishuangbanna, Southwest China. In: Journal of Ethnobiology and Ethnomedicine, Volume 10, 2014, S. 68. doi:10.1186/1746-4269-10-68
Carl Peter Thunberg: Ficus genus., 1786. eingescannt bei bibdigital.
Ephraim Philip Lansky, Helena Maaria Paavilainen: Figs: The Genus Ficus - Traditional Herbal Medicines for Modern Times, CRC Press, 2010, ISBN 1-4200-8967-6.
Bhanumas Chantarasuwan, Cornelis C. Berg, Finn Kjellberg, Nina Rønsted, Marjorie Garcia, Claudia Baider, Peter C. van Welzen: A New Classification of Ficus Subsection Urostigma (Moraceae) Based on Four Nuclear DNA Markers (ITS, ETS, G3pdh, and ncpGS), Morphology and Leaf Anatomy. In: PLOS ONE, Volume 10, Issue 6, e0128289, 24. Juni 2015. doi:10.1371/journal.pone.0128289
Weblinks
La Photothèque PH.S., pág. 45-47: Fotos de númerosas especies de Ficus.
Feigen und Feigen-Wespen - Iziko South African Museum.
Datenblatt bei spektrum.de: Lexikon der Biologie - Spektrum der Wissenschaft.
M. A. Hyde, B. T. Wursten, P. Ballings, M. Coates Palgrave: Flora of Zimbabwe: Datenblatt, 2017.
Einzelnachweise
Maulbeergewächse
|
Q59798
| 91.387117 |
107441
|
https://de.wikipedia.org/wiki/Weltwirtschaft
|
Weltwirtschaft
|
Unter Weltwirtschaft oder Welthandel wird die Gesamtheit der Wirtschaftsbeziehungen der Welt verstanden, die alle staatlichen Volkswirtschaften umfasst. Das ihr zugerechnete nominale Weltsozialprodukt betrug im Jahr 2017 rund 80 Billionen US-Dollar. Sie stellt eine weltweite Integration verschiedener Teilmärkte (Rohstoff- und Gütermarkt, Finanzmarkt, Arbeitsmarkt und Informationsmarkt) dar. Die Weltwirtschaft hat sich im 19. Jahrhundert bedingt durch die Industrialisierung gebildet und war stark abhängig von der Entwicklung der internationalen Arbeitsteilung, des Verkehrs und der Kommunikation.
Über das 19. und 20. Jahrhundert haben sich die Bestandteile der Weltwirtschaft qualitativ und quantitativ verändert. Der Begriff „bipolare Weltwirtschaft“ hebt dabei – angewandt auf das 19. Jahrhundert – die Bedeutung von Europa und Nordamerika und für das 20. Jahrhundert die der Pole der westlichen Industrienationen einerseits und des RGW andererseits hervor. „Tripolare Weltwirtschaft“ bezieht einen dritten Pol Ostasien ein, bzw. seit den 1990er Jahren die Kernzonen Nordamerika – Europa – Ostasien (Triade).
Vertragliche Rahmenbedingungen der Weltwirtschaft sind unter anderem WTO-Verträge, Zoll- und Währungsabkommen, GATT und OWZE.
Der Welthandel wird von den Industrienationen dominiert, insbesondere durch die Europäische Union mit einem Anteil von mehr als einem Drittel. Der gesamte afrikanische Kontinent (ohne Nahost) erreicht hingegen einen Anteil von gerade 2 bis 3 Prozent. Eine zunehmende Rolle im weltwirtschaftlichen Austausch nehmen die Schwellenmärkte ein – allen voran die Volksrepublik China, aber auch die sogenannten Tigerstaaten.
Die heutige Situation der Weltwirtschaft wird allgemein als globalisierte Wirtschaft bezeichnet.
Realgeschichte
Die Entwicklung einer wirtschaftlichen Verflechtung, die die Menschen weit voneinander entfernter Gebiete vernetzt, setzte bereits im Altertum ein: Die damaligen Wirtschaftsräume waren bereits durch vielfältige Handelsrouten wie die Seidenstraße miteinander verbunden, und im Zeitalter der Kreuzzüge verstärkte sich dieser Austausch erheblich, insbesondere zwischen dem arabischen und dem europäischen Raum. Auch das Mongolische Reich war am ost-westlichen Austausch beteiligt, doch erst im Laufe der europäischen Expansion trugen die Wirtschaftsbeziehungen weit entfernter Räume entscheidend zur Kapitalakkumulation eines Raumes bei. Zunächst schafften die Konquistadoren recht einseitig Reichtümer aus den neu entdeckten und eroberten Gebieten nach Europa. Im Zuge der Industriellen Revolution kam es dann zu einem Warenaustausch dieser weit voneinander entfernten Wirtschaftsräume, der den Produktionsaufwand für beide Seiten herabsetzte. Aufgrund dieser praktischen Erfahrung wurde der Merkantilismus als ökonomische Theorie aufgegeben und mehr und mehr durch die Freihandelstheorie ersetzt. In dieser Phase entstand eine Weltwirtschaft im modernen Sinne.
Zwischen 1800 und 1913 nahm der Welthandel auf das 25-fache zu und wuchs damit weitaus stärker als die Weltproduktion. Gründe dafür waren
sinkende Frachtraten,
Zollreduktionen. Bei diesen war Großbritannien (im 19. Jahrhundert die mit Abstand führende Seemacht der Welt) beispielgebend vorausgegangen. Freilich reduzierten nicht alle Staaten freiwillig die Zölle. Indien tat es, weil es Teil des British Empire war. China und das Osmanische Reich wurden im Zuge von Kreditverhandlungen dazu verpflichtet. Der Trend zur Handelsausweitung wurde auch dadurch nicht gebrochen, dass ab 1870 eine Reihe europäischer Staaten zur Schutzzollpolitik überging.
Fortschritte in der Schiffstechnik, z. B. das Aufkommen von Dampfschiffen, größere Schiffe, Schiffe aus Stahl (siehe auch Liste von Schiffstypen)
Nach der durch den Ersten Weltkrieg verursachten Spaltung des Weltmarktes zwischen den verfeindeten Kriegsparteien erlangte die Weltwirtschaft den 1913/14 erreichten Integrationsgrad nicht wieder und im Zuge der Weltwirtschaftskrise ab 1929 brach der Welthandel sogar auf unter 50 Prozent seines früheren Niveaus ein. In den USA dominierte die Great Depression die 1930er Jahre. Großbritannien, Frankreich und Japan bauten mit ihren Kolonien Großwirtschaftsräume auf; Deutschland versuchte ab 1933 osteuropäische Staaten durch bilaterale Verträge an sich zu binden.
Nach 1945 wurde eine stark kooperierende west- und mitteleuropäische Wirtschaft aufgebaut, die über das Bretton-Woods-System in einem Verbund von 40 Staaten durch feste Wechselkurse verbunden war. Welchen Anteil der Marshallplan an diesem Aufbau hatte, war und ist umstritten. Die wirtschaftliche Spaltung verlief jetzt zwischen West- und Ostblock. In den 70er Jahren geriet dieses System durch zwei Entwicklungen in die Krise: zum einen durch stärkere Automatisierung und die parallele Verlagerung von Arbeitsplätzen des ersten und zweiten Sektors in Länder mit billigeren Arbeitskräften, zum andern durch die gestiegene Macht der OPEC-Länder und die dadurch erzwungene Ölpreiserhöhung (Ölkrise). Der daraus resultierende Anstieg von Warenbewegungen sowie der Ölpreisanstieg führte zu einer Vervierfachung des Welthandels und die daraus sich ergebenden Investitionen zu einer Versechsfachung der Auslandsinvestitionen.
Mit dem Zusammenbruch des Ostblocks und der sich daraus ergebenden enormen Ausweitung des marktgesteuerten Wirtschaftsraumes setzte sich Deregulierung, wie sie im Washington Consensus von 1990 vereinbart wurde, weltweit durch. Schon 2005 überschritt der Welthandel die Grenze von einer Billion Dollar, doch seine enorme Steigerung wurde bei weitem übertroffen von den Finanztransaktionen, denen kein Warenaustausch zugrunde lag. Trotz unterschiedlicher Berechnungen besteht Einigkeit darüber, dass der Warenaustausch zu Beginn der Finanzkrise 2007 weniger als 10 % der Finanztransaktionen ausmachte.
Zahlen und Fakten
Daten zur Weltwirtschaft laut dem CIA World Fact Book.
Begriffsgeschichte
Bernhard Harms gilt als Begründer der Weltwirtschaftslehre. Er definiert 1914: „Weltwirtschaft ist der gesamte Inbegriff der durch hochentwickeltes Verkehrswesen ermöglichten und durch staatliche internationale Verträge sowohl geregelten wie geförderten Beziehungen und deren Wechselwirkungen zwischen den Einzelwirtschaften der Erde.“
Der Begriff „Weltwirtschaftslehre“ ist oft von marxistischen Ökonomen verwendet worden in Abgrenzung zum Begriff „International Economics“ der liberalen Ökonomie.
Siehe auch
Außenhandel, Außenhandelstheorie
Die Grenzen des Wachstums
Gruppe der Acht, Gruppe der zwanzig wichtigsten Industrie- und Schwellenländer
Listen: Länder nach Bruttoinlandsprodukt, BIP pro Kopf, Exporten, Importen, Industrieproduktion
Welthandel/Tabellen und Grafiken
Literatur
Mathias Albert u. a.: Die Neue Weltwirtschaft, Frankfurt / M 1999: Suhrkamp, ISBN 3-518-11983-4
Hans-Heinrich Bass: Einführung in die Weltwirtschaftslehre. Weltwirtschaftliche Rahmenbedingungen des Internationalen Managements, Danzig 2006: Universitätsverlag, ISBN 83-89786-70-2
Wolfram Fischer: Expansion – Integration – Globalisierung. Studien zur Geschichte der Weltwirtschaft, Göttingen 1998, ISBN 3-525-35788-5
Bernhard Harms: Volkswirtschaft und Weltwirtschaft, Versuch der Begründung einer Weltwirtschaftslehre, Jena 1912
Hans Pohl: Aufbruch der Weltwirtschaft, Stuttgart 1989, ISBN 3-515-05105-8
Herbert Strunz: Tagebuch der Weltwirtschaft 2000-2010: Kommentare, Kritik, Reflexionen, Peter Lang Frankfurt 2011, ISBN 3-631-60705-9
Weblinks
Bundeszentrale für politische Bildung, bpb.de: Zahlen & Fakten – Globalisierung
2013: Kurze Geschichte der Weltwirtschaft
2008: Weltwirtschaftliche Entwicklungen zu Beginn des 21. Jahrhunderts
visualcapitalist.com, 10. Oktober 2018, Jeff Desjardins: The $80 Trillion World Economy in One Chart (Grafik „Die 80 Billionen-(US-Dollar)-Weltwirtschaft in einem Diagramm“)
Einzelbelege
|
Q473750
| 102.949791 |
512716
|
https://de.wikipedia.org/wiki/Banten
|
Banten
|
Banten (früher auch Bantam) ist eine indonesische Provinz im Westen der Insel Java. Die Provinz wurde im Jahr 2000 von der Provinz Jawa Barat abgetrennt. Sie beansprucht 8,1 % der Fläche und 7,85 % der Bevölkerung der Insel Java.
Im Westen trennt die Sundastraße die Provinz von der Insel Sumatra, im Osten grenzt sie an die Stadt Jakarta und an die Provinz Jawa Barat. Im Großraum Jakartas liegen einige große Städte, darunter die Millionenstadt Tangerang.
Mit über 1.000 Einwohnern pro Quadratkilometer ist Banten sehr dicht besiedelt. Die Bevölkerung besteht zum Großteil aus Sundanesen und bekennt sich überwiegend zum Islam (97 %). Die Hauptstadt Bantens ist Serang.
Geschichte
Banten wurde nach dem Verlust Malakkas an Portugal 1511 zu einem wichtigen regionalen Handelszentrum. Im 16. Jahrhundert wurde die Region islamisiert, als sie 1526 durch Muslime aus Cirebon eingenommen und in den Kulturraum der Nusantara eingegliedert wurde. 1579 erneuerte sich das Sultanat, das sich 1525–1526 aus der Abhängigkeit vom Königtum Sunda Pajajaran mit Sitz in Bogor gelöst hatte. Es erlangte vor allem im Gewürzhandel Bedeutung. Seine höchste wirtschaftliche und kulturelle Entfaltung erreichte es unter dem Sultan Ageng Tirtayasa.
1813 wurde die gesamte Region von der niederländischen Kolonialmacht unterworfen. Die Kolonialherren der Vereenigte Oost-Indische Compagnie übernahmen die Macht. Unter Herman Willem Daendels wurde das Sultanat zu Beginn des 19. Jahrhunderts abgeschafft. Im Zweiten Weltkrieg war Banten japanisch besetzt. Seit der Unabhängigkeit Indonesiens 1949 gehört Banten zu dieser Inselrepublik.
Wirtschaft
Wirtschaftlich profitiert die Provinz von der Nähe zur indonesischen Hauptstadt Jakarta. So liegt der Flughafen dieser Stadt in der Provinz und der Seehandel mit Sumatra wird zu einem bedeutenden Teil über Banten abgewickelt. Einen wachsenden Stellenwert nimmt der Tourismus ein.
Sport
Von Bantam, dem früheren Namen der Provinz, ist der Name einer Gewichtsklasse im Boxsport abgeleitet.
Verwaltungsgliederung
Veränderungen in der Territorialstruktur
Durch das Gesetz Nr. 32/2007 wurde die Stadt (Kota) Serang aus dem gleichnamigen Regierungsbezirk (Kabupaten) als selbständige Verwaltungseinheit ausgegliedert. Gültig ab 10. August 2007.
Durch das Gesetz Nr. 51/2008 wurde die Stadt (Kota) Tangerang Selatan aus dem Regierungsbezirk (Kabupaten) Tangerang als selbständige Verwaltungseinheit ausgegliedert. Gültig ab 26. November 2008.
Literatur
Banten Dalam Angka 2014, Badan Pusan Statistik Provinsi Banten, (E-book, indonesisch/englisch)
Weblinks
Offizielle Website der Provinzregierung (indonesisch)
Publikationen im PDF-Format auf der Statistikseite der Provinz (indonesisch/englisch)
Einzelnachweise
Indonesische Provinz
Gegründet 2000
Geographie (Java)
|
Q3540
| 222.590145 |
68735
|
https://de.wikipedia.org/wiki/Fremdenfeindlichkeit
|
Fremdenfeindlichkeit
|
Fremdenfeindlichkeit oder Xenophobie ( „Furcht vor dem Fremden“, von xénos „fremd“, „Fremder“, und phobía „Flucht, Furcht, Schrecken“) ist eine Einstellung, bei der Menschen aus einem anderen Kulturareal, aus einem anderen Volk, aus einer anderen Region oder aus einer anderen Gemeinde aggressiv abgelehnt werden. Begründet wird die Ablehnung mit sozialen, religiösen, ökonomischen, kulturellen oder sprachlichen Unterschieden. In diesen Unterschieden wird eine Bedrohung gesehen. Fremdenfeindlichkeit kann zusammen mit Nationalismus, Rassismus oder Regionalismus auftreten. Aufgrund einer fremdenfeindlichen Einstellung kann es zu Ungleichbehandlung und Benachteiligung von Fremden in einer Gesellschaft kommen.
Nicht nur Ausländer sind Fremdenfeindlichkeit ausgesetzt. Der Begriff Ausländerfeindlichkeit wird deswegen seltener benutzt.
Begriffsgeschichte
Der Begriff Xenophobie wurde im Französischen im Jahre 1901 in Anatole France’ Roman Monsieur Bergeret à Paris verwendet und 1906 in Albert Dauzats französischem Wörterbuch Nouveau Larousse illustré als Stichwort aufgenommen. In Verbindung mit der Dreyfus-Affäre bezeichnete der Schriftsteller die antisemitischen Demagogen als misoxènes, xénophobes, xénoctones et xénophages.
Erklärungsmodelle
Evolutionsbiologisches Erklärungsmodell
Evolutionsbiologisch gibt es den Ansatz, Xenophobie als übriggebliebenen Schutzmechanismus aus früheren Lebensrealitäten zu beschreiben. Menschliche Gesellschaften, Stämme und Dörfer beanspruchten, wie bereits ihre tierischen Vorläufer (z. B. Schimpansen), Territorien, um sich die darin enthaltenen überlebensnotwendigen Ressourcen zu sichern. Sie strebten bei Ressourcenknappheit danach, diese Territorien auf Kosten anderer Gesellschaften zu erweitern. Umgekehrt versuchten sie die eigenen Territorien zu schützen und Vorstöße fremder Gruppen abzuwehren. Aus diesem Konkurrenzkampf entwickelte sich das Misstrauen gegenüber den „Fremden“, also die Fremdenfeindlichkeit. Andere Modelle erklären Xenophobie als Folge des Ekelempfindens, das einst evolutionär zur Abwehr von Krankheitsrisiken entstand.
Psychologisches Erklärungsmodell
Entwicklungspsychologisch ist der Begriff „Xenophobie“ vor allem durch eine latente Scheu oder Furcht der Kleinkinder vor Ungewohntem oder Fremdem (Fremdeln) abgestützt. Sie wird in den verschiedenen Kulturen unterschiedlich sozial ausgeformt, in Deutschland zum Beispiel mit dem Begriff „Schwarzer Mann“. Entsprechend kann sie später im Leben – individualpsychologisch betrachtet – vertieft, ideologisiert oder (bei sich selbst und/oder anderen) bekämpft werden. Wissenschaftliche Nachweise darüber, dass sie völlig „abgelegt“ werden kann, existieren nicht. Menschen mit starker sozialer Dominanzorientierung (SDO) neigen eher zu Fremdenfeindlichkeit und fordern darüber hinaus eine weitgehende Assimilation von Zuwanderern.
In der klinischen Psychologie gilt krankhaft übersteigerte Xenophobie als eine Form der Angststörung.
Sozialpsychologische Erklärungsmodelle
In der Sozialpsychologie werden diskriminierende Verhaltensweisen mit dem Begriff der Xenophobie unter Interaktions- und gruppenbezogenen Aspekten betrachtet. Sozialpsychologisch gesehen wird mit der Feindseligkeit gegenüber „Fremden“ ein negativ konnotiertes Fremdbild geschaffen, um ein überlegenes Selbstbild zu erzeugen. Dabei geht es in erster Linie um als homogen konstruierte kollektive und nicht um individuelle Identitätskonstruktionen. An den Prozessen der Konstruktion von Bildern über vermeintlich „Fremde“ oder „Andere“ sind wissenschaftliche, mediale, politische und andere Akteure der Gesellschaft beteiligt.
Als Erklärungsmodell für das Auftreten von Fremdenfeindlichkeit schuf Nora Räthzel den Terminus „Rebellierende Selbstunterwerfung“. Darunter versteht die deutsche Sozialwissenschaftlerin ein Phänomen, bei dem Widerstand gegen soziale Ausgrenzung nicht gegen dessen Verursacher selbst gerichtet wird. Das Bild des Sündenbocks wird einem unbeteiligten Dritten in seiner Form des Anderen, des Fremden, angehangen. Diese Ersatzhandlung diene letztlich der eigenen Unterwerfung unter die Zustände, die man zu bekämpfen suche.
Sozioökonomische Erklärungsmodelle
Wie Joseph Henrich im Anschluss an Adam Smith und Montesquieu und anhand von ethnologischen Studien aufgewiesen hat, geht Fremdenfeindlichkeit in einer Gesellschaft in dem Maße zurück, in dem diese von der Marktwirtschaft durchdrungen wird. Henrich erklärt dies damit, dass es sich in einer Marktwirtschaft lohnt, sich auch mit Unbekannten gut zu stellen, da diese potenzielle Kunden oder Geschäftspartner sind. In einer Welt ohne Märkte dagegen überlebt nur, wer gute persönliche Beziehungen hat. Eine wichtige Rolle wird ferner dem Interesse an der Bewahrung bestimmter, an die Abstammung geknüpfter Privilegien beim Zugang zu wohlfahrtsstaatlichen Leistungen zugemessen, die über ethnische Typisierungen und Kategorisierungen legitimiert werden.
Nach Pierre Bourdieu steigt mit der Komplexität der Gesellschaft die Möglichkeit, Xenophobie zu verringern. Ob ein langsamer oder schneller sozialer Wandel xenophobe Reaktionen begünstigt, ist jedoch offen. So hat die Tendenz zur Globalisierung in zahlreichen Ländern zur Zunahme fremdenfeindlicher Gewalt geführt. Die Auflösung soziokultureller Milieus und traditioneller Bindungen führt zu Handlungsunsicherheit, Gewissheitssuche und fremdenfeindlicher Gewalt.
Kulturalistische Erklärungsmodelle
Für das kulturalisierende Erklärungsmodell ist alles soziale Handeln kulturell überformt, d. h. kollektive Distanz und Feindseligkeit kann eine langfristig erworbene Grundstimmung (Mentalität) einer Gesellschaft sein. So wird behauptet, dass sogenannte „Stammesgesellschaften“, aber auch ländliche Gesellschaften mit Grundbesitzerstrukturen, deren Traditionen stark auf fixierten Regeln beruhen, Neubürgern gegenüber eher zurückhaltend bis ablehnend eingestellt seien. Vielfach werden dieselben Gesellschaften jedoch als ausgesprochen gastfreundlich dargestellt; handeltreibende Kulturen (wie das antike Griechenland – vgl. Homer, Herodot oder Aischylos) gelten in diesen Konstruktionen als eher vorurteilsarm.
Wie die Beispiele von Aischylos’ Tragödie Die Perser oder von Herodots Historien zeigen, war jedoch in der Antike das maßstabsetzende und abgrenzende Kriterium für das Eigene und das Fremde die Religion und vielfach auch die Sprache, die die Haltung gegenüber „Fremden“ (barbaros) bestimmte. Jeder, der außerhalb der eigenen Polis lebte, gehörte nicht zur Rechtsgemeinschaft und durfte getötet werden, wenn er nicht Gastrecht genoss. In diesem antiken Kontext erscheint eine Definition von Xenophobie als Fremdenhass unsinnig.
Legitimierende Erklärungsmodelle
Der Begriff Xenophobie wird auf unterschiedliche Weise gelegentlich dazu benutzt, um Rassismus und Diskriminierung als zwingendes Resultat biologischer oder ökonomischer Gegebenheiten zu legitimieren:
Beispiele für biologisierende Erklärungsmodelle: Tierarten verteidigen das eigene „Territorium“ gegen Eindringlinge. Inwieweit es sich bei Xenophobie des Menschen um biologische Determinanten, durch Sozialisation erworbenes Verhalten beziehungsweise in engem Rahmen freie Entscheidungen handelt, ist umstritten. Was im konkreten Fall als „fremd“ wahrgenommen (und abgelehnt) wird, hängt nachweislich in erster Linie von historisch-kulturellen Faktoren ab.
Beispiele für ökonomische Erklärungsmodelle: Fremdenfeindlichkeit tritt vermehrt in Ländern auf, in denen die Arbeitslosenzahl steigt. Das heißt, je höher der Arbeitslosenanteil einer Bevölkerung, desto höher der Anteil fremdenfeindlicher Tendenzen. Diese These wird durch zahlreiche empirische Studien belegt und gilt als wissenschaftlich verifiziert (valide) im Sinne einer intersubjektiven Überprüfbarkeit.
Der Ethologe Irenäus Eibl-Eibesfeldt deutet die Abwehr des Fremden beziehungsweise als fremd Empfundenen sowie die sich historisch unterschiedlich darstellende Abgrenzung von Gruppen als anthropologisches Erfordernis zur Aufrechterhaltung einer stabilisierenden Gruppennorm. Normen machten „das Verhalten voraussehbar, tragen Ordnung in die Gemeinschaft und vermitteln damit Sicherheit“. Eibesfeldt verweist auf die prägende Funktion kultureller Normen:
Gemeinsam ist diesen Erklärungsmodellen, dass geschichtliche und gesellschaftliche Konstruktionsprozesse für Selbst- und Fremdbilder nicht untersucht werden, sondern als quasi natürliche Gegebenheiten akzeptiert werden.
Auswirkungen
Es wird angenommen, dass Erfahrungen rassistischer Ausgrenzungen (Alltagsrassismus) zum Entstehen psychischer Erkrankungen beitragen können und dass soziale Unterstützung und Solidarisierung dem entgegenwirken können. Eine EU-Studie kam zum Schluss, dass Ausgrenzung und Diskriminierung zur Entstehung von Gewalt beitragen.
Laut einer Studie von 1994 stellt Rassismus in Deutschland die Hauptursache psychosomatischer Krankheiten bei Migranten, Flüchtlingen und ihren Kindern dar.
Verbreitung fremdenfeindlicher Einstellungen im deutschsprachigen Raum
In der European Values Study wurde EU-weit der Anteil der lokalen Bevölkerung ermittelt, der angibt, keine Immigranten oder ausländischen Arbeitskräfte als Nachbarn zu wollen. Von 257 erhobenen Regionen war im deutschen Regierungsbezirk Oberpfalz in Bayern mit 51 % dieser Anteil EU-weit am dritthöchsten, im österreichischen Bundesland Kärnten mit 55 % am höchsten (EU-Durchschnitt 15,4 %).
Deutschland
In der „Mitte“-Studie von 2015 wurde die Zustimmung zu ausländerfeindlichen und antisemitischen Aussagen in einzelnen deutschen Bundesländern untersucht. 33,1 % der Bayern stimmten ausländerfeindlichen Aussagen zu. Unter westdeutschen Bundesländern (Durchschnitt: 20 %) ist dies die höchste Zustimmungsrate und die zweithöchste bundesweit (Bundesdurchschnitt: 24,3 %). Die höchste Zustimmung zu ausländerfeindlichen Aussagen gab es im Bundesland Sachsen-Anhalt (42,2 %). Darüber hinaus ist von allen Bundesländern in Bayern mit 12,6 % die Zustimmung zu antisemitischen Aussagen am höchsten (Bundesdurchschnitt: 8,4 %).
Sonstiges
Ein wesentliches Kennzeichen der Propaganda im Ersten Weltkrieg war, dass zur Motivation der eigenen Bevölkerung der teilnehmenden Länder zum Kriegsdienst mit fremdenfeindlichen Vorurteilen und patriotischen Symbolen geworben wurde.
Begriffskritik
Auf einem Workshop des Bundesamts für Migration und Flüchtlinge im Jahr 2013 wurde die Verwendung des Begriffs „Fremdenfeindlichkeit“ von der Arbeitsgruppe „Rassismus“ kritisiert: „Die Bestimmung von Fremdheit und Fremdsein ist beliebig und willkürlich. Der Begriff enthält ein Moment der Ausgrenzung, weil er vorgibt, dass die Personen, gegen die sich die feindliche Einstellung richtet, fremd sind – heißt, nicht Teil unserer Gesellschaft, dass sie nicht dazu gehören. In Wirklichkeit wird eine Tat jedoch nicht verübt, weil das Opfer eine bestimmte Eigenschaft oder Herkunft hat, sondern weil der Täter eine bestimmte Einstellung hat. In den Medien wird das Wort fast immer dann verwendet, wenn es um rassistisch motivierte Straftaten geht. Es handelt sich also meistens um Rassismus.“ Diese Zuschreibung von Fremdheit kann auch als Othering bezeichnet werden.
Christoph Butterwegge führt aus, der Begriff suggeriere, dass eine persönliche Abneigung gegenüber „den Anderen“ angeboren sei. Damit würde ein sozialpsychologischer „Etikettierungs- und Stigmatisierungsprozess“ ignoriert und somit eine quasi kausale naturgegebene Erklärung für Gewalt und Ausgrenzung nahelegt.
Eine ähnliche Kritik brachte 2018 auch der Journalist Peter Maxwill bei Spiegel Online zum Ausdruck, indem er bemängelte, dass die Begriffe Ausländerfeindlichkeit und Fremdenfeindlichkeit im medialen Diskurs meist unscharf verwendet werden. So werden Anfeindungen vor allem Menschen aus dem Nahen Osten, Afrikanern und Roma entgegengebracht, nicht jedoch beispielsweise gegenüber Franzosen oder Polen, die auch Ausländer seien. Folglich müsste der Begriff Rassismus verwendet werden, um das Phänomen präziser zu beschreiben, zumal für die Täter die Staatsangehörigkeit der Betroffenen – als Definitionskriterium eines In- oder Ausländers – meist keine Rolle spielt.
Siehe auch
Das Pendant Oikophobie
Heterophobie
Xenophilie
Gruppenbezogene Menschenfeindlichkeit
Othering
Stereotyp
Europäische Stelle zur Beobachtung von Rassismus und Fremdenfeindlichkeit
Agentur der Europäischen Union für Grundrechte (ihre Nachfolgeorganisation)
Weltkonferenz gegen Rassismus (internationale UN-Konferenzen 1978, 1983, 2001, 2009)
Flüchtlingsfeindliche Angriffe in der Bundesrepublik Deutschland
Filmografie
Jo Goll, Torsten Mandalka, Olaf Sundermeyer: Dunkles Deutschland – die Front der Fremdenfeinde. rbb, 2015
Literatur
Ulrich Arnswald, Heiner Geißler, Sabine Leutheusser-Schnarrenberger, Wolfgang Thierse: Sind die Deutschen ausländerfeindlich? 49 aktuelle Stellungnahmen zu einem aktuellen Thema. Pendo, Zürich/München 2000, ISBN 3-85842-389-0.
Jan Christopher Cohrs: Von konstruktiven Patrioten und schwarzen Schafen: Nationale Identifikation und Engagement gegen Fremdenfeindlichkeit. Dissertation an der Universität Bielefeld, 2004, .
Eva-Maria Elsner, Lothar Elsner: Ausländerpolitik und Ausländerfeindschaft in der DDR 1949–1990 (= Texte zur politischen Bildung. Heft 13). Rosa Luxemburg-Verein, Leipzig 1994, ISBN 3-929994-14-3 (Dokumentarteil: Gesetze, bilaterale Abkommen. etc., S. 53–90).
Eva Feldmann-Wojtachnia, Adrian Nastula: Praxishandbuch Aktiv eintreten gegen Fremdenfeindlichkeit. Wochenschau Verlag, Schwalbach 2008, ISBN 978-3-89974-439-2.
Elke M. Geenen: Soziologie des Fremden. Leske + Budrich, Opladen 2002, ISBN 3-8100-3599-8.
Hans-Gerd Jaschke: Rechtsextremismus und Fremdenfeindlichkeit. Begriffe, Positionen, Praxisfelder. VS, Opladen 2001, ISBN 3-531-32679-1.
Corinna Kleinert: Fremdenfeindlichkeit: Einstellungen junger Deutscher zu Migranten. VS, Opladen 2004, ISBN 3-531-14202-X.
Kurt Möller, Florian Neuscheler (Hrsg.): „Wer will die hier schon haben?“ Ablehnungshaltungen und Diskriminierung in Deutschland. Kohlhammer, Stuttgart 2017, ISBN 978-3-17-032799-3.
Erhard Oeser: Die Angst vor dem Fremden. Die Wurzeln der Xenophobie. Theiss Verlag / Wissenschaftliche Buchgemeinschaft Darmstadt 2015, ISBN 978-3-8062-3151-9.
Günther Rathner: Xenophobie, Autoritarismus und Antisemitismus. (PDF; 65 kB).
Ulrike Riemer, Peter Riemer: Xenophobie – Philoxenie. Franz Steiner Verlag, 2005, ISBN 3-515-08195-X.
Fridolin Schley: Fremd. Anthologie gegen Fremdenfeindlichkeit. P. Kirchheim Verlag, 2015, ISBN 978-3-87410-134-9
Franz Seifert: Das Argument der menschlichen Natur in der Einwanderungsdebatte veranschaulicht am Beispiel Irenäus Eibl-Eibesfeldt: Für einen neuen Umgang mit Doppelnaturen. In: Österreichische Zeitschrift für Politikwissenschaft. Band 25, Nr. 2, 1996, S. 193–206, academia.edu
María do Mar Castro Varela, Paul Mecheril (Hrsg.): Die Dämonisierung der Anderen. Rassismuskritik der Gegenwart. transcript, Bielefeld 2016, ISBN 978-3-8376-3638-3.
Hans-Jürgen Wirth: Fremdenhaß und Gewalt als familiäre und psychosoziale Krankheit. In: Psyche. Heft 11, Stuttgart, November 2001, S. 1217–1244, .
Martin Weinmann: Ausländerfeindlichkeit in der Bundesrepublik Deutschland. Der Einfluss von Intergruppenwettbewerb und Intergruppenkontakten (= Neue Studien über Fremdenfeindlichkeit). Drewipunkt, Wiesbaden 2010, ISBN 978-3-941174-13-9.
Cornelia Weins: Fremdenfeindliche Vorurteile in den Staaten der EU. VS Verlag für Sozialwissenschaften, 2004, ISBN 3-531-14465-0.
Weblinks
Gudrun Hentges: Rassismus – Streit um die Ursachen, 1. Juni 2005
Zusammenfassende Darstellung des Forschungsprojekts Gruppenbezogene Menschenfeindlichkeit, uni-bielefeld.de
Oliver Decker und Elmar Brähler unter Mitarbeit von Norman Geißler: Vom Rand zur Mitte, November 2006 (PDF; 732 kB)
Fremdenfeindlichkeit und Gewalt, Aus Politik und Zeitgeschichte (APuZ 37/2007)
Michael Kubink: Fremdenfeindliche Straftaten – Ein Überblick
Einzelnachweise
Ethnosoziologie
Kulturwissenschaft
Sozialpsychologie
Wikipedia:Artikel mit Video
|
Q166005
| 115.421528 |
51858
|
https://de.wikipedia.org/wiki/Latiner
|
Latiner
|
Die Latiner (lateinisch Latini) waren ein Hauptstamm der Italiker, eng verwandt mit den Faliskern. Sie wanderten möglicherweise zu Beginn des 1. Jahrtausends v. Chr. in das Gebiet des heutigen Italien ein. Die nach den Latinern benannte lateinische Sprache (lingua Latina) wurde mit dem Aufstieg Roms zu einer Weltsprache.
Geschichte
Die Latiner lebten am Unterlauf des Tiber. In der römischen Überlieferung wird die Bezeichnung „Latiner“ auf Latinus, den König der mythischen Aborigines zurückgeführt.
Es bestand ein Bund latinischer Städte unter der Führung von Alba Longa, verbindendes Element war der Kult des Iuppiter Latiaris. Weitere latinische Städte waren Aricia, Astura, Bovillae, Circei, Gabii, Lanuvium, Lavinium, Praeneste, Tarracina, Tibur und Tusculum. In Latium befanden sich außerdem die Städte Antium und Velitrae (Volsker), Ardea (Rutuler) und später die römische Kolonie Ostia.
Noch im 6. Jahrhundert v. Chr. waren die Latiner deutlich mächtiger als Rom, das in seiner späteren Überlieferung allerdings die Zerstörung Alba Longas in das 7. Jahrhundert datierte und so seinen Herrschaftsanspruch untermauerte. In den beiden so genannten Latinerkriegen erkämpfte sich Rom die Vorherrschaft über Latium: Im 4. Jahrhundert v. Chr. gewann es die Oberhand und diktierte einen Vertrag, wonach Handel nur „über Rom“ stattfinde. Der Sieg Roms im Zweiten Latinerkrieg (340–338 v. Chr.) markiert einen wichtigen Schritt der Ausdehnung römischer Landmacht über die Grenzen des Stadtgebietes hinaus.
Latinerrecht
Die latinischen Gemeinden in der unmittelbaren Nachbarschaft Roms nahmen unter den italischen Bundesgenossen Roms eine Sonderstellung ein (das sogenannte Latinische Recht). Ihre Bürger waren den Römern privatrechtlich gleichgestellt und durften in der römischen Volksversammlung abstimmen. Sie erwarben durch Übersiedelung nach Rom das römische Bürgerrecht.
Daneben gab es eine zweite Gruppe von Gemeinden latinischen Rechts: Es waren die Siedlungen, die Rom als Kolonien anlegte. Die Bürger dieser Kolonien genossen in etwa die gleichen Rechte wie die Altlatiner (sogenannte Latinität). Solche Kolonien mit Latinerrecht gab es vor allem in Spanien, Nordafrika und Südfrankreich.
Literatur
Francesca Fulminante: The Latins. In: Gary D. Farney, Guy Bradley (Hrsg.): The Peoples of Ancient Italy. De Gruyter, Boston/Berlin 2017, ISBN 978-1-61451-520-3, S. 473–497.
Weblinks
Italisches Volk
|
Q202335
| 87.850153 |
262990
|
https://de.wikipedia.org/wiki/Kreuzfahrtschiff
|
Kreuzfahrtschiff
|
Ein Kreuzfahrtschiff ist ein Passagierschiff, dessen Hauptzweck nicht die Beförderungsleistung von einem Hafen zu einem anderen, sondern die Reise (Kreuzfahrt) an sich ist. In der Regel werden mehrere touristisch interessante Ziele einer Region oder eines Seegebiets in einem bestimmten Zeitraum planmäßig angelaufen.
Einteilung
In erster Linie lassen sich Kreuzfahrtschiffe aufgrund ihres Einsatzgebietes in Hochsee- und Fluss-Kreuzfahrtschiffe einteilen.
Weltweit standen Kreuzfahrtinteressenten im Hochseebereich im Jahr 2008 insgesamt 310 Schiffe mit einer Kapazität von 370.000 Betten zur Verfügung.
Es gibt unterschiedliche Möglichkeiten, Kreuzfahrtschiffe zu kategorisieren: Insbesondere Hochseekreuzfahrtschiffe können auf eine bestimmte Art der Kreuzfahrt spezialisiert sein, etwa Luxuskreuzfahrten, klassische Komfortkreuzfahrten oder zeitgemäße Kreuzfahrten (siehe Kreuzfahrtarten). Aufteilungen nach Größe, Geschäftsmodellen oder Lebensstilen sind üblich. Je nach Interessen, Charakter, Alter und finanzieller Situation der Reisenden stehen Luxus, Abenteuer, Bildung und Kultur, Unterhaltung, Fitness, Wellness, Erholung oder spezielle Themen im Vordergrund. Die Größe, Ausstattung und Besatzung ist der jeweiligen Zielgruppe angepasst.
Kreuzfahrtschiffe lassen sich auch durch die Vergabe von Sternen klassifizieren. Dabei kann jede Reederei im Prinzip ihren Schiffen eigenständig Sterne vergeben, was jedoch kaum genutzt wird, vielmehr übernehmen die meisten Reedereien das Urteil des anerkannten britischen Schiffsbewerters Douglas Ward, der jährlich seine Bewertungen aus praktischen Tests in einem Buch veröffentlicht: Berlitz Complete Guide to Cruising & Cruise Ships (spöttisch „Kreuzlinerbibel“).
Eine Besonderheit stellen „Expeditions-Kreuzfahrtschiffe“ dar: Diese in der Regel besonders ausgestatteten Schiffe verfügen z. B. über eine höhere Eisklasse, wenn sie etwa in polaren oder subpolaren Gebieten eingesetzt werden. Ein modernes Expeditions-Schiff ist z. B. die Fram. Die Bremen wird von einem deutschen Reeder betrieben. Bei der Polar Star handelt es sich um einen umgebauten Eisbrecher, der für die norwegische Reederei Hurtigruten AS in den Polargebieten im Einsatz ist.
Voraussetzungen
Bevor ein Kreuzfahrtschiff Passagiere befördern darf, muss es von einer der weltweiten Klassifikationsgesellschaften abgenommen werden. Das erhaltene Zertifikat nach SOLAS bescheinigt dem Schiff dann seine Seetüchtigkeit sowie die Sicherheit der Passagiere.
Geschichte
Die Erfindung der Kreuzfahrt wird der Peninsular and Oriental Steam Navigation Company (P&O) zugeschrieben. Dieses Unternehmen begann als Schifffahrtslinie zwischen England und der Iberischen Halbinsel (). 1840 nahm es den Postdienst nach Alexandria auf. Ab 1844 bot es Luxuskreuzfahrten nach Gibraltar, Malta und Athen an. P&O Cruises gelten als ältestes Kreuzfahrtunternehmen Europas.
Als Pionier der Nutzung der freien Winterkapazitäten der Schifffahrtslinien für Kreuzfahrten gilt der deutsche Reeder Albert Ballin, Generaldirektor der Hamburger Hapag. Da im Winter die Transatlantik-Passagen wegen des schlechten Wetters und der unruhigen See deutlich weniger gebucht wurden, sandte Ballin die Augusta Victoria 1891 testweise zu einer „Bildungs- und Vergnügungsfahrt“ ins Mittelmeer. Diese Fahrt war durch und durch erfolgreich – das Schiff war komplett ausgebucht, die „Kreuzfahrt“ geboren. Diese Form der Seereise wurde sehr schnell beliebt, viele Reedereien boten in ihrem Programm zusätzlich Kreuzfahrten an.
In der zweiten Hälfte des 20. Jahrhunderts wechselte die Nachfrage vollständig von der Passage (Überfahrt) zur Kreuzfahrt: Durch die Entwicklung des Verkehrsflugzeugs nahm der Anteil des Flugverkehrs auf Langstrecken zu; Reedereien verloren entsprechend im Passagegeschäft und konzentrierten sich zunehmend auf Kreuzfahrten und entdeckten weitere Einnahmequellen wie die Landaufenthalte mit organisierten Ausflügen. Bis Ende der 1990er/Anfang der 2000er Jahre waren noch sehr viele Kreuzfahrtschiffe im Einsatz, die als Passagierschiff gebaut worden waren. Beispiele dafür sind das ehemalige französische Flaggschiff France, später Norway, die Queen Elizabeth 2 oder die Rotterdam. Vereinzelt wurden auch Segelschiffe für diesen Zweck umgebaut, wie etwa die Sea Cloud oder auch neu gebaut, wie die Royal Clipper.
Situation heute
Inzwischen werden große Passagierschiffe meistens nur noch als Kreuzfahrtschiffe, wie beispielsweise die Wonder of the Seas, das zurzeit größte Kreuzfahrtschiff, oder als Fähren gebaut. Klassische „Liner“ (die Linienschiffe der Handelsmarine) sind nur noch in Marktnischen im Einsatz. Ein Beispiel ist dafür die Queen Mary 2 der britischen Cunard Line, die saisonal Liniendienste zwischen New York und Southampton neben Kreuzfahrten anbietet. Das rechnet sich selbst heute noch, da unter anderem zahlreiche Passagiere mit Flugangst diese Fahrten buchen. Die Schiffe der spezialisierten Reedereien ähneln sich untereinander weitgehend und unterscheiden sich vor allem daran, ob sie für das Mittel- oder Hochpreissegment gebaut wurden, was sich in Kabinengröße und -anzahl, Zahl der Speisesäle und Plätze in Casinos und Frequenz der Passagierwechsel an speziellen Terminals niederschlägt. Die meisten Neubauten mit ihren zahlreichen Standardkabinen sind bewusst auf ein mittelständisches Massenpublikum ausgelegt, die wenigen großen Luxussuiten sind eher ein Zuschussgeschäft, jedoch wichtig zur Imagebildung des Schiffes.
Die Deutschland war das letzte Kreuzfahrtschiff, welches unter deutscher Flagge betrieben wurde. Es wurde nach der Insolvenz der Reederei Peter Deilmann verkauft und 2015 auf die Billigflagge der Bahamas ausgeflaggt.
Bei den neuen Schiffen wird ein Trend zu mehr Größe erkennbar. Zwei Drittel der neuen Schiffe haben Platz für mehr als 2000 Passagiere und gehören somit der Kategorie Megaschiffe an. Den vorläufigen Höhepunkt dieser Entwicklung bildete die Wonder of the Seas mit einer Bruttoraumzahl von 235.600 und Platz für 6.988 Passagiere, die am 4. März 2022 als bisher größtes Kreuzfahrtschiff in Dienst gestellt wurde.
Diese sogenannten Megaschiffe entwickeln sich immer mehr zum eigentlichen Reiseziel (mit Parkanlagen, Einkaufszentren, Eislaufbahnen etc.) und stehen Aufenthaltsorten an Land auf Grund vieler innovativer Einrichtungen und Freizeitmöglichkeiten in nichts nach. Megaschiffe stellen viele der traditionellen Anlaufhäfen und -orte vor schwierige und teure logistische Probleme; so bei der Bereitstellung des überlangen Piers, bei Bus-, Restaurant- und Einkaufskapazitäten usw. So können etwa auf den beliebten einwöchigen Karibikfahrten von Florida aus anstatt fünf bis acht Häfen nur noch drei große Häfen angelaufen werden. Vor allem der allgemeine Wellness- und Gesundheitstrend spiegelt sich beim Bau neuer Schiffe wider. An Bord werden eine Vielzahl von modernen Behandlungen, Restaurants für Gesundheitsbewusste und kleinere kosmetische Eingriffe angeboten.
Mit Ende des Jahres 2018 existieren weltweit 317 Kreuzfahrtschiffe mit einer Gesamtkapazität von 537.000 Passagieren. Gegenüber dem Jahr 2011 mit ca. 19 Millionen auf Kreuzfahrtschiffen transportieren Passagieren stieg die Anzahl der beförderten Passagiere im Jahr 2018 auf ca. 26 Millionen an. 2019 existierten rund 5000 Passagierschiffe, davon 500 Kreuzfahrtschiffe. Hinzu kommen etwa 800 Flusskreuzfahrtschiffe weltweit.
Covid-19-Pandemie
Stand Juni 2019 waren 124 Kreuzfahrtschiffe mit einem Ordervolumen von mehr als 69 Mrd. Dollar in Planung. Die COVID-19-Pandemie brachte die Branche in eine schwere Krise. Große Teile der Flotte wurden zeitweise aufgelegt, Neubauten verschoben und ältere Schiffe vermehrt abgewrackt. In den Jahren zuvor noch jährlich kontinuierlich angestiegen, brach die Passagierzahl auf Kreuzfahrten seit 2020 um 93 Prozent im Vergleich zum Vorjahr ein. Vom Ausbruch der Pandemie bis Juli 2022 wurden 38 Kreuzfahrtschiffe mit einer Vermessung von 1,51 Millionen BRZ verschrottet. Die Schiffe wurden überwiegend in Indien, der Türkei und Pakistan verschrottet. Der Altersdurchschnitt verschrotteter Schiffe sank von 43 Jahren zwischen 2017 und 2019 auf 37 zwischen 2020 und 2022. Mit 18 verschrotteten Schiffen wurde im Jahr 2022 ein Rekordniveau seit mindestens 1977 erreicht.
Personal an Bord
Auf Kreuzfahrtschiffen gibt es verschiedene Kategorien von Besatzung. Darunter fallen Offiziere, Mannschaft und Personal, bei größeren Schiffen gibt es auch noch Zwischenstufen. Offiziere sind Angestellte mit besonderer Verantwortung und Entscheidungsbefugnis, die in den Bereichen Nautik, Technik oder Hotel arbeiten. Sie haben Einsatzzeiten von 3 – 6 Monaten und werden gut bis sehr gut bezahlt. Der größte Teil der Besatzung ist die Mannschaft, die ebenso in den drei Bereichen arbeitet. Zum Personal zählen alle Mitarbeiter, die entweder über externe Unternehmen (Konzessionäre) oder in Geschäften, Schönheits-/Haarsalons und Kasinos an Bord arbeiten. Das zahlenmäßige Verhältnis von Personal zu Gästen beträgt etwa 1 zu 3, auf Luxusschiffen oft sogar 1 zu 1,5. Auf den größten Kreuzfahrtschiffen arbeiten über 2000 Menschen. Das Service-Personal wird Steward oder Stewardess genannt. Das Verhalten von Mitarbeitern mit direktem Kundenkontakt ist wie in jedem Unternehmen von besonderer Bedeutung.
Kreuzfahrtschiffe sind in der Regel personell straff organisiert und fahren meist unter der Flagge eines internationalen Zweitregisters bzw. sogenannten Gefälligkeitslandes wie Panama, den Bahamas oder Liberia. Diese Länder haben schwächere Arbeitsschutzgesetze, sodass besonders die Mannschaft über externe Unternehmen im Hotelbereich entsprechend wenig Rechte an Bord hat. Crewmitglieder haben befristete Arbeitsverträge mit einer Vertragsdauer von bis zu zwölf Monaten. Die Schichten dauern häufig bis zu 12 Stunden pro Tag oder mehr bei sieben Tagen pro Woche. Die Freizeitmöglichkeiten an Bord ist für die Crewmitglieder meist auf den Personalraum beschränkt. Lediglich höhere Angestellte, zum Beispiel Offiziere, dürfen Teile der öffentlichen Passagierbereiche nutzen.
Folgende Flaggen werden (Okt. 2018) von der Internationale Transportarbeiter-Föderation ITF als Billigflaggen geführt:
Technik
Die allermeisten Kreuzfahrtschiffe haben einen dieselelektrischen Antrieb und verfügen über Stabilisierungsflossen, um Rollbewegungen zu dämpfen.
Schiffsnetzwerke
Vor allem auf großen Kreuzfahrtschiffen ist moderne Technik wichtig. Mit der Entwicklung der digitalen Technologien und des Internets wuchsen auch die Anforderungen an Kreuzfahrtschiffe hinsichtlich der Netzwerkausstattung. Das betrifft nicht nur den Komfort der Passagiere (Internetzugang etc.), sondern auch die Antriebs- und Überwachungstechnik und die Kommunikation der Crew mit der restlichen Welt. Aus diesem Grund sind moderne Kreuzfahrtschiffe mit leistungsfähigen und ausfallsicheren Computernetzwerken ausgestattet. Da oft sehr raue Einsatzbedingungen für die Verkabelung auf Schiffen bestehen (Vibration und Hitze in den Maschinenräumen etc.), kommen oft die gleichen Produkte zum Einsatz wie im Bereich der industriellen Datenverkabelung (Industrial Ethernet).
Emissionen
Schiffsdieselmotoren werden überwiegend mit Schweröl betrieben, das ein Abfallprodukt aus der Erdölraffinerie ist und lange Zeit einen hohen Schwefelgehalt hatte. Die daraus entstehenden Umweltauswirkungen wurden und werden kontrovers diskutiert. Moderne Kreuzfahrtschiffe werden teilweise statt mit Schweröl mit Flüssigerdgas (LNG) angetrieben. Nach einer Studie des NABU fuhren 2019 von 76 untersuchten Kreuzfahrtschiffen, mit Ausnahme der AIDAnova, alle mit Schweröl. Einzig die damals in Bau befindliche Costa Smeralda, die wie die AIDANova der Helios-Klasse angehört, wird ebenfalls mit Flüssigerdgas betrieben. 2023 fahren einige weitere Schiffe mit LNG.
Am weltweiten Ausstoß des Treibhausgases CO2 hat der gesamte Schiffsverkehr wie auch die Luftfahrt einen Anteil von rund drei Prozent. Pro Passagier berechnet emittiert ein Schiff weniger Kohlenstoffdioxid als ein Auto. Allerdings liegt die Konzentration von Kohlenstoffdioxid, Stickoxiden und Feinstaub an Bord von Kreuzfahrtschiffen und in den Häfen weit über den Grenzwerten, die für den Straßenverkehr gelten. So ergaben Messungen auf der AIDAsol in der Spitze 475.000 ultrafeine Partikel je Kubikzentimeter Umgebungsluft, und damit eine Konzentration, welche die Spitzenwerte von etwa 30.000 Partikeln je cm³ im deutschen Straßenverkehr, die ebenfalls über den gesetzlich festgelegten Grenzwerten liegen, um ein Vielfaches übersteigen. Bei einer halbstündigen Messung auf der AIDAprima wurden im Durchschnitt 68.000 Partikel je Kubikzentimeter registriert. In der Spitze lag die Konzentration bei 500.000 Partikel. AIDA Cruises wies die Kritiken zurück. Die Messungen entbehrten jeder wissenschaftlichen Grundlage und stellten kein anerkanntes Prüfverfahren dar.
Auch während der Liegezeiten im Hafen versorgen sich die Schiffe weiter selbst mit Energie durch die Schiffsdieselmotoren, wodurch Schwefeldioxid, Kohlenstoffdioxid, Stickoxide, Ruß und Feinstaub entstehen. Dies ist auch für innerstädtische Häfen mit benachbarten Büros und Wohnungen umweltrelevant. Daher wurde vorgeschlagen, Landstromanschlüsse einzurichten, damit die Schiffe daraus ihre elektrische Energie beziehen und die Motoren abschalten können. Da es bei den verschiedenen Schiffstypen noch keine einheitlichen Anschlüsse und Standards für Stromstärke und -spannung zur Versorgung mit Landstrom gibt, konnte in Europa hierfür bisher noch keine einheitliche Lösung gefunden werden.
Bei der Belastung durch Schwefeldioxid konnten weltweit Fortschritte erzielt werden. Für Schweröl galt ab 2010 ein Grenzwert von 3,5 % Schwefelanteil, in schwefelkontrollierten Zonen von 1 %. Seit dem 1. Januar 2020 dürfen Schiffe weltweit nur noch mit schwefelarmem Treibstoff fahren. Dieser Schiffstreibstoff darf nur noch 0,5 Prozent Schwefel enthalten. Auf der Nord- und Ostsee, in den deutschen Häfen und vielen Küstenbereichen gilt schon länger ein Grenzwert von 0,1 Prozent.
Im Juli 2017 thematisierte der NABU, dass sich die Betreiber von Kreuzfahrtschiffen sträubten, auf sauberere Treibstoffe oder effiziente Abgasreinigungsverfahren umzusteigen. Die Cruise Lines International Association kritisierte die Aussagen des NABU als „undifferenzierte Betrachtung“, die zu „Fehlschlüssen und Missverständnissen“ führten, sowie nicht standardisierte Untersuchungen. Der britische TV-Sender Channel 4 berichtete, dass es an Deck der Schiffe zu Schadstoffkonzentrationen aus Abgas wie in stark belasteten asiatischen Großstädten käme. Norwegen hat 2020 begonnen, die bereits vorhandenen Grenzwerte für den Schadstoffausstoß von Schiffen sukzessive zu verschärfen und plant ab 2026 mit Schweröl betriebenen Schiffen die Einfahrt in die Fjorde zu verbieten. Bereits untersagt ist das Verbrennen von Abfall und das Ablassen von Abwasser in den Fjorden.
2019 wurde eine Studie von Transport and Environment veröffentlicht, wonach allein die Kreuzfahrtschiffe von Carnival im Jahr 2017 fast zehnmal so viel Schwefeloxide entlang Europas Küsten ausgestoßen haben sollen wie alle Personenkraftwagen (über 260 Millionen) in Europa zusammen.
Werften
Derzeit existieren zwei Werftgruppen, die große Kreuzfahrtschiffe bauen:
Die Fincantieri – Cantieri Navali Italiani S.p.A. mit Sitz in Triest ist das größte europäische Schiffbauunternehmen und baut Kreuzfahrtschiffe in seinen Werftbetrieben in Monfalcone, Marghera (Venedig) und Sestri Ponente (Genua). 2018 übernahm die italienische Gruppe Fincantieri 50 % der Anteile an STX France. Das Unternehmen wurde daraufhin in Chantiers de l’Atlantique umbenannt. Die Werft befindet sich in Saint-Nazaire, Frankreich, an der Mündung der Loire in den Atlantik.
Die Meyer-Werft in Papenburg ist ein deutsches Schiffbauunternehmen, das vor allem durch seine große Werft in Papenburg (Landkreis Emsland) bekannt wurde. Seit April 2015 ist die Meyer-Werft Alleineigentümerin der Werft Meyer Turku. Sie besitzt die Neptun Werft in Rostock, wo Flusskreuzfahrtschiffe und Maschinenraummodule entstehen.
Siehe auch
Liste von Kreuzfahrtschiffen
Liste von Reedereien von Kreuzfahrtschiffen
Liste der größten Schiffe der Welt
Cruisemapper.com
Literatur
Andreas Stirn: Traumschiffe des Sozialismus. Die Geschichte der DDR-Urlauberschiffe 1953–1990. 2. Auflage. Metropol Verlag, Berlin 2011, ISBN 978-3-940938-79-4
Kreuzschifffahrt im Wandel. In: Schiff & Hafen, Heft 12/2009, S. 22–25. Seehafen-Verlag, Hamburg,
Douglas Ward: Complete Guide to Cruising & Cruise Ships 2006. Polyglott, 2005, ISBN 3-493-60252-9, 672 S.
Oskar Levander: Clever & clean, der kleine Kreuzfahrer. In: Deutsche Seeschifffahrt, Heft 2/2012, S. 52–57, Verband Deutscher Reeder, Hamburg 2012,
Weblinks
Klaus Ahrens: Milliardärsjacht „Sea Cloud“. Lady zwischen Dienstboten. Spiegel Online – Reise, 25. September 2006 (Vergleicht mit ähnlichen Schiffen)
vesselfinder.com
Einzelnachweise
Passagierschiffstyp
Wikipedia:Artikel mit Video
|
Q39804
| 112.634065 |
202545
|
https://de.wikipedia.org/wiki/Nguy%E1%BB%85n-Dynastie
|
Nguyễn-Dynastie
|
Die Nguyễn-Dynastie (vietnamesisch: Nhà Nguyễn; Hán Nôm: , Nguyễn triều; Hán Tự: ) war die letzte vietnamesische Kaiserdynastie. Sie regierte von 1802 bis 1945, ab 1883 allerdings machtlos unter französischer Oberherrschaft. Nguyễn Phúc ist dabei der Familienname der Kaiser. Die Hauptstadt des zunächst Việt Nam und später Đại Nam genannten Reiches war Huế.
Geschichte
Entstehung und Aufstieg
Die kaiserliche Dynastie stammt von den Nguyễn-Lords ab, die ab Mitte des 16. Jahrhunderts Zentral- und Südvietnam beherrschten, aber nie den Kaisertitel beanspruchten. In den 1770er-Jahren wurden sie von der Tây-Sơn-Rebellion besiegt und massakriert. Nguyễn Phúc Ánh, ein überlebendes Familienmitglied, konnte die Tây Sơn schließlich nach jahrzehntelangem Krieg mit siamesischer, chinesischer und französischer Unterstützung besiegen und einen geeinten vietnamesischen Staat schaffen. Er bestieg 1802 unter dem Äranamen Gia Long den Kaiserthron, der sich nun erstmals nicht mehr im Norden, sondern in Huế in Zentralvietnam befand.
Der Staat war streng konfuzianisch organisiert und orientierte sich stark an den Praktiken der chinesischen Qing-Dynastie, der zeremoniell auch Tribut geleistet wurde. Die ersten Kaiser herrschten mit absoluter Macht und schufen eine starke Zentralregierung sowie eine effiziente, aber repressive Verwaltung.
Unter den frühen Nguyễn-Kaisern wurden das Mekongdelta und die letzten autonomen Cham-Gebiete endgültig in den vietnamesischen Staat eingegliedert. Auch gerieten große Teile von Kambodscha und Laos unter vietnamesische Oberherrschaft, was zu mehreren Kriegen mit Siam führte, etwa 1831–1834 und 1841–1845.
Während Kaiser Gia Long (1802–1820) noch eine verhältnismäßig weltoffene und fortschrittliche Politik betrieben hatte, setzten seine Nachfolger Minh Mạng (1820–1841), Thiệu Trị (1841–1847) und Tự Đức (1847–1883) auf Isolationismus und Abschottung des Landes. Das aufstrebende katholische Christentum wurde verboten und seine Anhänger verfolgt. 1833 rebellierte Lê Văn Khôi, Sohn des verstorbenen südlichen Vizekönigs Lê Văn Duyệt, gegen die Herrschaft Minh Mạngs und wurde dabei hauptsächlich von Christen unterstützt. Nach der Niederschlagung des Aufstandes 1835 ließ Minh Mạng sie massenhaft hinrichten.
Unterwerfung durch Frankreich
Frankreich, das seit den Missionsreisen des Alexandre de Rhodes im 17. Jahrhundert ein Interesse an Vietnam entwickelt hatte, nahm die Christenverfolgungen zum Anlass, sich zunehmend in die dortige Situation einzumischen. 1847 bombardierten französische Kriegsschiffe Tourane (Đà Nẵng) und versenkten die dortige Flotte, um die Freilassung des gefangengenommenen Missionars Dominique Lefèbvre zu erreichen. Er war bereits zwei Jahre zuvor in Gefangenschaft geraten; damals hatte die amerikanische USS Constitution einen erfolglosen Befreiungsversuch unternommen.
1857 ließ Kaiser Tự Đức zwei spanische Missionare hinrichten. Da das Französische Kaiserreich aufgrund des Zweiten Opiumkrieges gerade einen Kampfverband in die Region entsandt hatte, nahm man dies als Begründung für eine „Strafexpedition“ gegen Vietnam: Unter der Führung von Admiral Rigault de Genouilly fand von 1858 bis 1862 der Cochinchina-Feldzug statt. 1859 fiel Gia Định (Saigon) an die Franzosen. Im Friedensschluss von Saigon musste Kaiser Tự Đức 1862 die Abtretung der Stadt und der drei umliegenden Provinzen an Frankreich akzeptieren. In weiteren, darauf aufbauenden Verträgen setzten die Franzosen in den folgenden Jahren die Öffnung vietnamesischer Häfen, die freie Navigation auf dem Mekong und dem Roten Fluss, die ungehinderte Missionierung und schließlich die Annexion der verbliebenen drei südlichen Provinzen durch. Das so entstandene Gebiet wurde als Kolonie Cochinchina organisiert. Der kambodschanische König Norodom unterstellte sich kurz darauf ebenfalls der französischen Oberherrschaft.
Für das vietnamesische Kaisertum stellte diese Niederlage einen schweren Machtverlust dar. Ab 1865 setzten sich chinesische Rebellen, die sogenannten Schwarzen Flaggen, im Norden Vietnams (Tonkin) fest. Unfähig sie zu bekämpfen beschloss Tự Đức stattdessen mit ihnen zusammenzuarbeiten und sie als Mittel gegen die Franzosen einzusetzen.
In Frankreich wurden in den folgenden Jahren zunehmend kolonialistische Stimmen laut, die eine Eroberung des nördlichen Vietnams forderten, da die Region zum einen als reich an Bodenschätzen galt und zum anderen als „Tor nach China“ angesehen wurde. 1873 besetzte der Marineoffizier und Abenteurer Francis Garnier entgegen seinen Befehlen die Zitadelle von Hanoi, wurde aber kurz darauf im Kampf von den Schwarzen Flaggen getötet. Knapp zehn Jahre später wiederholte Henri Rivière diese Aktion und wurde 1883 ebenfalls getötet. Dieses Mal entsandte die französische Regierung allerdings ein Expeditionskorps unter Admiral Courbet. Da man dem vietnamesischen Kaiserhof die Unterstützung der Schwarzflaggen vorwarf, stürmte zunächst ein Marineverband die Thuận-An-Forts bei Huế, rückte dann gegen die nun schutzlose Hauptstadt vor und zwang die kaiserlichen Beamten zur Unterzeichnung eines äußerst harten Protektionsvertrages (Harmand-Vertrag). Vietnam verlor somit seine Souveränität und wurde zum französischen Protektorat. 1884 sollte der Patenôtre-Vertrag folgen, der zwar milder formuliert war, aber die entscheidenden Bedingungen der französischen Oberherrschaft beibehielt.
Da Kaiser Tự Đức zuvor kinderlos verstorben war, kämpften nun seine Verwandten und mächtige Hofbeamte um die Macht; innerhalb von einem Jahr wurden drei Kaiser (Dục Đức, Hiệp Hòa und Kiến Phúc) ermordet.
Die französischen Truppen wandten sich währenddessen dem Norden des Landes zu und besiegten in der Tonkin-Kampagne bis 1886 trotz zwischenzeitlicher Rückschläge sowohl die Schwarzen Flaggen als auch die zu Hilfe eilenden chinesischen Streitkräfte. Das Kaiserreich China musste mit dem Vertrag von Tientsin 1885 sämtliche Ansprüche auf die Oberhoheit über Vietnam aufgeben. Nordvietnam (Tonkin) wurde als eigenständiges Protektorat abgespalten; die Nguyên-Dynastie damit zu Marionettenherrschern über Zentralvietnam (genannt Annam) degradiert. Da die Franzosen auch den Kaisertitel nicht anerkannten, wurde die Bezeichnung König von Annam im westlichen Ausland üblich.
Kolonialherrschaft
Noch 1885 kam es in Annam zu einem Aufstand (Cần-Vương-Bewegung), woraufhin die Franzosen den Kindkaiser Hàm Nghi absetzten, gefangen nahmen und nach Algerien verbannten. Sein Nachfolger Đồng Khánh (1885–1889) befand sich völlig in der Hand der Franzosen. Nach dessen frühem Tod folgte Thành Thái (1889–1907), der schließlich wegen vermeintlicher Unzurechnungsfähigkeit abgesetzt und durch seinen jungen Sohn Duy Tân (1907–1916) ersetzt wurde. Als dieser wiederum während des Ersten Weltkrieges einen Aufstand gegen die französische Herrschaft plante, wurde er zusammen mit seinem Vater auf die Insel Réunion verbannt.
Die Franzosen setzten nun Khải Định (1916–1925) auf den Thron, der wie bereits sein Vater Đồng Khánh eine harmlose und äußerst schwache Repräsentationsfigur war. Er besaß keinerlei Rückhalt in der Bevölkerung; die Vietnamesen wandten sich stattdessen den Führern der Nationalbewegung Phan Bội Châu und Phan Châu Trinh zu. Nach seinem frühen und unbetrauerten Tuberkulose-Tod folgte ihm sein Sohn Bảo Đại (1925–1945) nach, der allerdings erst noch knapp sieben Jahre lang in Frankreich seine Ausbildung abschloss, ehe er nach Vietnam zurückkehrte. Bảo Đại versuchte sich zunächst ernsthaft an Reformen, die aber zu nichts führten, worauf er sich mit dem Status quo zufrieden gab und ein Leben fernab der Politik führte. Gegen Ende des Zweiten Weltkrieges machten ihn die Japaner überraschend zum Kaiser der vietnamesischen Marionettenregierung, obwohl er zuvor keinerlei Sympathie für die japanische Sache gezeigt hatte. Er dankte schließlich im August 1945 zugunsten von Hồ Chí Minh und der Demokratischen Republik Vietnam ab. Die zurückkehrenden Franzosen machten ihn allerdings 1949 während des Indochinakrieges noch zum „bürgerlichen“ Staatsoberhaupt des Staates Vietnam. Nach der französischen Niederlage 1954 verließ Bảo Đại endgültig das Land und zog nach Frankreich, wo seine Familie bereits seit einigen Jahren lebte. Er blieb trotz seiner Abwesenheit noch bis zur Gründung der Republik Vietnam durch Ngô Đình Diệm 1955 Staatsoberhaupt.
Die Nachkommen der Dynastie leben heute in Frankreich und gehören der katholischen Kirche an.
Name des Nguyễn-Staates
1802 entsandte der frisch gekrönte Kaiser Gia Long eine zeremonielle Tributmission an den chinesischen Hof und ersuchte Kaiser Jiaqing um die Anerkennung seines Kaisertums, was auch sogleich erfolgte. Gia Long konnte dadurch seine Thronbesteigung legitimieren, Jiaqing hingegen den Schein einer Oberherrschaft über die Vietnamesen aufrechterhalten. Zugleich bat Gia Long darum, die seit Jahrhunderten übliche Reichsbezeichnung Đại Việt (Große Việt) durch den antiken Namen Nam Việt (Südliche Việt) ersetzen zu dürfen. Der chinesische Kaiser vertauschte allerdings die beiden Silben zu Việt Nam, um Verwechslungen mit dem antiken Reich zu verhindern, umfasste es doch einen größeren Teil des späteren Südchinas.
Der vertauschte Name fand am Kaiserhof in Huế jedoch wenig Zustimmung, so dass Gia Longs Nachfolger Minh Mạng 1839 das Land in Đại Nam (Großer Süden) umbenannte, was bis 1945 formal die offizielle Staatsbezeichnung blieb. Die vietnamesische Bevölkerung wurde währenddessen als Hán bezeichnet, ein Zeichen für die starke Sinisierung des Landes zu dieser Zeit.
Die Franzosen verwendeten keine der beiden Namen, sondern sprachen stets vom Königreich Annam (royaume d’Annam) und den Annamiten (les Annamites). Die Bezeichnung Annam war dabei eine Verballhornung des chinesischen Annan (安南, Befriedeter Süden) und bezeichnete ursprünglich eine chinesische Provinz, die den Norden des heutigen Vietnams umfasste.
Der Name Việt Nam wurde erst Anfang des 20. Jahrhunderts von der Nationalbewegung „wiederentdeckt“ und in bewusster Abgrenzung zu den als abwertend empfundenen Bezeichnungen Đại Nam und Annam verwendet.
Stammliste
Die meisten Kaiser hatten mit zahlreichen Frauen dutzende Kinder, aufgeführt sind daher nur bedeutende Mitglieder der Dynastie.
Nguyễn Phúc Khoát, Nguyễn-Lord von 1738–1765
Nguyễn Phúc Chương
Nguyễn Phúc Luân
Nguyễn Phúc Ánh (Gia Long), erster Kaiser (1802–20)
Nguyễn Phúc Cảnh, Kronprinz
Nguyễn Phúc Mỹ Đường
Nguyễn Phúc Lệ Trung (Lệ Chung)
Nguyễn Phúc Ánh Như (Tang Như)
Nguyễn Phúc Đan (Cường Để), Thronprätendent
Nguyễn Phúc Đảm (Minh Mạng), zweiter Kaiser (1820–41)
Nguyễn Phúc Miên Tông, (Thiệu Trị), dritter Kaiser (1841–47)
Nguyễn Phúc Hồng Bảo
Nguyễn Phúc Hồng Nhậm (Tự Đức), vierter Kaiser (1847–83)
Nguyễn Phúc Hồng Y
Nguyễn Phúc Ưng Ái (Dục Đức), fünfter Kaiser (1883)
Nguyễn Phúc Bửu Lân (Thành Thái), zehnter Kaiser (1889–1907)
Nguyễn Phúc Vĩnh San (Duy Tân), elfter Kaiser (1907–1916)
Nguyễn Phúc Hồng Cai
Nguyễn Phúc Ưng Kỷ (Đồng Khánh), neunter Kaiser (1885–1889)
Nguyễn Phúc Bửu Đảo (Khải Định), zwölfter Kaiser (1916–1925)
Nguyễn Phúc Vĩnh Thụy (Bảo Đại), dreizehnter und letzter Kaiser (1925–1945)
Nguyễn Phúc Bảo Long, letzter Kronprinz
Nguyễn Phúc Ưng Đăng (Kiến Phúc), siebter Kaiser (1883–84)
Nguyễn Phúc Ưng Lịch (Hàm Nghi), achter Kaiser (1884–1885)
Nguyễn Phúc Hồng Dật (Hiệp Hòa), sechster Kaiser (1883)
Nguyễn Phúc Hạo (Hiệu)
Nguyễn Phúc Dương, Mitherrscher 1776–1777
Nguyễn Phúc Thuần, Nguyễn-Lord von 1765–1777
Siehe auch
Geschichte Vietnams
Liste der Kaiser der Nguyễn-Dynastie
Literatur
Bruce M. Lockhart, William J. Duiker: Historical Dictionary of Vietnam, Scarecrow Press, 2006, S. 266f (Eintrag Nguyễn dynasty)
Danny J. Whitfield: Historical and Cultural Dictionary of Vietnam, Scarecrow Press, 1976, S. 198f (Eintrag Nguyễn dynasty)
K. W. Taylor: A History of the Vietnamese, Cambridge University Press, 2013, S. 365–483
Weblinks
Christopher Buyers, The Royal Ark: Royal and Ruling Houses of Africa, Asia, Oceania and the Americas: Vietnam
Einzelnachweise
Vietnamesische Geschichte (19. Jahrhundert)
Vietnamesische Geschichte (20. Jahrhundert)
Vietnamesische Dynastie
Vietnam
Adelsgeschlecht
Huế
Stammliste
|
Q6500483
| 97.221062 |
2061372
|
https://de.wikipedia.org/wiki/Kastanien
|
Kastanien
|
Die Kastanien (Castanea) oder Edelkastanien sind eine Pflanzengattung in der Familie der Buchengewächse (Fagaceae). Die Gattung ist mit etwa zwölf Baum- und Straucharten in der nördlich gemäßigten Zone verbreitet. In Europa ist nur die Edelkastanie (Castanea sativa) heimisch.
Rosskastanien (Aesculus) sind eine von den Kastanien verschiedene Gattung, die in die Familie der Seifenbaumgewächse (Sapindaceae) gestellt wird. Die teilweise Namensübereinstimmung beruht auf der oberflächlichen Ähnlichkeit der Früchte mit dem Fruchtstand der Kastanien (brauner Kern in stacheliger Hülle) und nicht auf botanischer Verwandtschaft.
Beschreibung
Die Kastanien sind Bäume oder Sträucher. Die Borke ist gefurcht und eichenähnlich. Die Verzweigung erfolgt sympodial: die Endknospe jeden Zweiges stirbt ab, das Wachstum übernimmt eine Seitenknospe. Die Knospen sind von drei bis vier Knospenschuppen umgeben.
Blätter
Die Laubblätter sind wechselständig, an Seitenzweigen stehen sie scheinbar zweizeilig. Die Blattform ist länglich-elliptisch bis breit-lanzettlich, die Blattspitze ist meist zugespitzt oder spitz. Die zahlreichen Nebennerven verlaufen parallel. Sie sind an der Oberseite eingesenkt, an der Unterseite hervorstehend. Der Blattrand ist gezähnt, häufig tragen die Zähne einen Stachelspitz. Nebenblätter sind vorhanden. Die Kastanien sind laubwerfend, die Herbstfärbung ist gelb-orange.
Blütenstände und Blüten
Alle Arten sind einhäusig getrenntgeschlechtlich (monözisch), das heißt auf einem Pflanzenexemplar sind weibliche und männliche Blüten vorhanden.
Die männlichen Blüten stehen in köpfchenartigen Teilblütenständen an langen, aufrechten Kätzchen. Sie besitzen eine einfache Blütenhülle aus einem sechsfach geteilten Perianth. Die Außenseite ist häufig dicht behaart, kann aber auch fast kahl sein. Die 10 bis 12 Staubblätter haben lange Staubfäden. Die Anthere sind klein, haben zwei Theken und öffnen sich mit einem Längsschlitz. Im Zentrum der Blüte sitzt ein Stempel-Rudiment.
Die weiblichen Blüten sind sitzend und stehen meist zu dritt in einem stachligen Involucrum. Diese befinden sich an der Basis von männlichen Kätzchen. Das Perianth ist wie bei den männlichen Blüten sechsteilig und außen behaart. Der Fruchtknoten ist vier- bis siebenfächrig, unterständig und außen kahl. Die 4 bis 10 Griffel sind nadelförmig, an der Basis behaart und tragen spitze Narben.
Früchte
Die Nussfrüchte sind groß und braun. Ihre Form ist rund oder plan-konvex, an der Basis besitzen sie eine auffällige Narbe. Ein bis sieben, meist drei Nüsse befinden sich im stacheligen Fruchtbecher (Cupula), der sich aus dem Involucrum entwickelt hat. Die Stacheln der Fruchthülle sind behaart.
Wurzeln
Die meisten Kastanienarten sind Herz- oder Tiefwurzler, es gibt aber auch Flachwurzler, z. B. die Kalifornische Kastanie.
Wirtschaftliche Bedeutung
Laut der Statistik der FAO wurden im Jahr 2021 weltweit 2.269.924 Tonnen Kastanien geerntet.
Systematik und Verbreitung
Die Gattung Castanea wurde 1754 durch Philip Miller aufgestellt. Ein Synonym für Castanea ist Castanophorum
Die Gattung Castanea ist in den gemäßigten Gebieten der Nordhalbkugel verbreitet. Das disjunkte Areal besteht aus drei Teilarealen: einige Arten kommen im östlichen Nordamerika vor; die Edelkastanie ist im Mittelmeerraum und den nördlich angrenzenden Gebieten; die übrigen Arten in Ostasien (vor allem China und Japan) heimisch.
Die Gattung Castanea wird in zwei Sektionen gegliedert. Je nach Autor sind in der Gattung Castanea acht bis zwölf Arten enthalten:
Sektion Eucastanon mit drei Früchten pro Cupula
Amerikanische Kastanie (Castanea dentata ): Sie ist in Nordamerika verbreitet.
Edelkastanie (Castanea sativa ): Sie kommt ursprünglich von der Balkanhalbinsel bis zum nördlichen Iran vor.
Japanische Kastanie (Castanea crenata ): Sie kommt ursprünglich in Korea und Japan vor.
Chinesische Kastanie (Castanea mollissima ): Sie kommt ursprünglich in China und im nördlichen Korea vor.
Castanea seguinii : Sie kommt im zentralen und östlichen China vor.
Sektion Balanocastanon mit einer Frucht pro Cupula
Castanea henryi : Sie kommt im südwestlichen und im südlich-zentralen China vor.
Castanea ozarkensis : Sie kommt in den US-Bundesstaaten Texas, Arkansas, Missouri, Oklahoma, Alabama und Louisiana vor.
Castanea pumila (Syn.:Castanea alnifolia , Castanea ashei , Castanea floridana , Castanea paucispina ): Sie kommt in den zentralen und östlichen Vereinigten Staaten vor.
Die Arten bilden auch Hybride untereinander, die auch kommerziell angebaut werden:
Castanea ×neglecta = Castanea dentata × Castanea pumila: Sie kommt in den östlichen Vereinigten Staaten vor.
Verwechslungen
Da in Südamerika ähnlich lautende Begriffe für die Paranuss bekannt sind („castañas de Pará“ oder „castaña del Brasil“), kommt es bisweilen zu Verwechslungen.
Paläobotanik
Kastanienähnliche Blütenstände sind aus dem mittleren Eozän von Tennessee bekannt; kastanienähnliches Holz ist im Eozän und Miozän recht häufig. Die Blätter von Castaneopyllum (früher Formgattung Dryophyllum) sind einfach, schmallanzettliche Blätter von bis zu 28 Zentimeter Länge. Die Seitennerven enden am Blattrand. Dieser Blatttyp wird von manchen Autoren als der für die Familie ursprüngliche angesehen.
Nutzung
Die drei Arten Edelkastanie, Japanische und Chinesische Kastanie werden als Schalenobst angebaut. Ihr Holz wird ebenfalls genutzt; das der Edelkastanie ist auch ohne Konservierung verwitterungsbeständig. Einige Arten, auch die strauchförmigen, werden als Zierpflanzen angebaut.
Kulturgeschichte
Bestimmte Kastanien werden als heilige Bäume verehrt, wie der Castaño Santo in der Sierra de las Nieves in Andalusien.
Weiterführende Literatur
Joey Shaw, J. Hill Craddock, Meagan A. Binkley: Phylogeny and Phylogeography of North American Castanea Mill. (Fagaceae) Using cpDNA Suggests Gene Sharing in the Southern Appalachians (Castanea Mill., Fagaceae). In: Castanea. 77, Nr. 2, 2012, , doi:10.2179/11-033, S. 186–211.
Weblinks
Artbeschreibung in der Flora of Taiwan, Band 2, S. 52 f.
Einzelnachweise
|
Q129324
| 89.943196 |
6536
|
https://de.wikipedia.org/wiki/1508
|
1508
|
Ereignisse
Politik und Weltgeschehen
Heiliges Römisches Reich
4. Februar: Maximilian I. wird Römischer Kaiser. Den Titel des Erwählten Römischen Kaisers nimmt er in Trient, nicht in Rom, an. Papst Julius II. gibt seine Zustimmung.
28. Februar: Ludwig V. wird nach dem Tod seines Vaters Philipp Pfalzgraf und Kurfürst von der Pfalz. Wegen des Landshuter Erbfolgekrieges befindet sich die Kurpfalz zu diesem Zeitpunkt unter der Reichsacht.
18. März: Nach dem Tod seines Vaters Albrecht IV., des Weisen, wird Wilhelm IV. Herzog von Bayern. Er regiert vorläufig unter der Vormundschaft seines Onkels Wolfgang.
5. Mai: Aufgrund drückender finanzieller Nöte muss der Rat der Stadt Erfurt die Wasserburg Kapellendorf an Kurfürst Friedrich den Weisen und Herzog Johann von Sachsen verpfänden, was ein Jahr später Anlass zu einem Aufstand – das sogenannte Tolle Jahr der Erfurter Bürger gegen ihren Rat ist.
27. September: Uriel von Gemmingen wird nach dem Tod von Jakob von Liebenstein zum Erzbischof und Kurfürsten von Mainz gewählt. Damit steht er an der Spitze der größten deutschen Kirchenprovinz, der Kirchenprovinz Mainz und ist gleichzeitig Reichserzkanzler für Deutschland und Reichsfürst.
1. November: Wolfgang wird nach dem Tod seines Vaters Waldemar VI. Fürst von Anhalt-Köthen.
13. November: Philipp II. von Daun wird Kurfürst und Erzbischof von Köln. Er folgt dem am 19. Oktober verstorbenen Hermann von Hessen nach. Er setzt sich gegen Herzog Erich II. von Sachsen-Lauenburg durch, der seine Kandidatur zurückzieht und als Nachfolger des am 9. Februar verstorbenen Konrad IV. von Rietberg Bischof von Münster wird.
Erich von Braunschweig-Grubenhagen wird ebenfalls als Nachfolger Hermanns von Hessen Fürstbischof von Paderborn. Außerdem wird er als Nachfolger von Konrad IV. von Rietberg Fürstbischof von Osnabrück.
Süd- und Westeuropa
11. April: Francesco Maria I. della Rovere wird nach dem Tod seines Onkels Guidobaldo I. da Montefeltro Herzog von Urbino.
Mai: Nachdem sein Versuch, die Herrschaft Monaco in seinen Besitz zu bringen, fehlgeschlagen ist, lässt der französische König Ludwig XII. den von ihm seit dem Vorjahr gefangengehaltenen Lucien de Monaco wieder frei.
6. Juni: Kaiser Maximilian I. wird im Friaul von venezianischen Truppen besiegt. Er muss einige Gebiete an Venedig abtreten, ein dreijähriger Waffenstillstand wird vereinbart.
10. Dezember: Italienische Kriege: Die Liga von Cambrai wird gebildet. Offiziell dem Kampf gegen die osmanischen Türken verpflichtet, richtet sich das Bündnis mehrerer Herrscher und des Papstes real gegen die Republik Venedig.
10. Dezember: René II., Herzog von Lothringen, stirbt. Ihm folgt sein Sohn Anton II. auf den Thron.
Mittel- und Osteuropa
19. September: Eine litauische Gesandtschaft kommt nach Moskau und unterzeichnet einen „ewigen Frieden“. Die Personalunion Polen-Litauen verzichtet auf der Basis des Waffenstillstandes von 1503 auf alle an Iwan III. verlorengegangenen Gebiete.
Nordafrika
23. Juli: Spanier unter dem Befehl von Pedro Navarro erobern die Insel Peñón de Vélez de la Gomera, die von Mittelmeer-Piraten verteidigt wird. Die spanische Exklave an Marokkos Küste ist heute ein umstrittenes Territorium.
Oktober: Pedro Navarro erobert die Stadt Mers-el-Kébir in Nordafrika für Spanien.
Portugal besetzt Safi an der Küste Marokkos.
Äthiopien
31. Juli: Na’od I., Negus von Äthiopien, wird bei einem Feldzug gegen das Sultanat Ifat getötet. Nachfolger wird David II., der den Einfluss der Portugiesen in seinem Reich begrenzen möchte.
Portugiesisch-Indien
März: Lourenço de Almeida, Sohn des indischen Vizekönigs Francisco de Almeida, kommt bei einer Niederlage gegen eine von Venedig unterstützte ägyptisch-arabisch-indische Flotte bei Chaul ums Leben.
Im April verlassen zwei weitere portugiesische Indien-Armadas Lissabon.
Unter Afonso de Albuquerque beginnt der Bau der Festung São Sebastião auf der Ilha de Moçambique.
Eine portugiesische Flottille unter Afonso de Albuquerque zerstört den arabischen Handelsstützpunkt Qalhat im heutigen Oman.
6. Dezember: Der designierte neue Gouverneur von Portugiesisch-Indien, Afonso de Albuquerque, erreicht seinen Bestimmungsort, wird jedoch von seinem Vorgänger Francisco de Almeida nicht anerkannt und stattdessen gefangengesetzt.
Japan
Sengoku-Zeit in Japan: Ashikaga Yoshitane besiegt Ashikaga Yoshizumi und wird neuerlich Shōgun.
Europäische Entdeckungsfahrten
Sebastiano Caboto unternimmt im Auftrag des englischen Königs Heinrich VII. eine Reise auf der Suche nach der Nordwestpassage, die ihn möglicherweise nördlich bis in die Hudson Bay und südlich bis in die Chesapeake Bay führt.
Wissenschaft und Technik
12. September bis Oktober: Leonardo da Vinci verfasst Manuskript F seiner Pariser Manuskripte. Die Hauptthemen des Manuskripts sind Wasser, Optik, Geologie und Astronomie, wie die Natur des Mondlichts.
Amerigo Vespucci wird zum ersten piloto mayor der spanischen Casa de Contratación ernannt. Damit ist er vor allem für die Aktualisierung des Padrón Real zuständig, der Landkarte, auf der alle Neuentdeckungen festgehalten werden.
Kultur
Bildende Kunst
21. Februar: Michelangelo stellt in Bologna die Bronzestatue von Papst Julius II. fertig und wird von diesem daraufhin wieder nach Rom zurückgerufen, allerdings nicht, wie er annimmt, um das Grabmal des Papstes fertigzustellen, sondern um die Sixtinische Kapelle auszumalen, ein Unterfangen, das Michelangelo nur mit Vorbehalt und wenig Begeisterung annimmt.
Albrecht Dürer fertigt als Skizze für den Heller-Altar eines seiner berühmtesten Werke an: Betende Hände.
um 1508: Giorgione fertigt das Gemälde La Tempesta (Das Gewitter).
Literatur und Theater
5. März: Die Komödie La Cassaria von Ludovico Ariosto hat ihre Uraufführung am Hof von Ferrara. Es ist die erste bedeutende Komödie in italienischer Sprache.
Die niederdeutsche Satire Bruder Rausch erscheint erstmals in hochdeutscher Sprache.
Poeta laureatus Heinrich Bebel schreibt Proverbia Germanica.
Sonstiges
Graf Edzard I. verleiht dem Ort Leer das Marktrecht. Seither wird dort der Gallimarkt abgehalten, mittlerweile das größte Volksfest in Ostfriesland.
Religion
Der zum Christentum konvertierte Johannes Pfefferkorn verfasst den Judenspiegel, eine polemische Schrift, mit der er die Juden „zum wahren, christlichen Glauben“ führen will.
Thomas Cajetan wird Ordensgeneral der Dominikaner.
Die Filialkirche Kleinsöding wird erbaut.
Geboren
Geburtsdatum gesichert
6. März: Humayun, Großmogul von Indien († 1556)
16. März: Sebastian von Heusenstamm, Erzbischof von Mainz, Reichserzkanzler († 1555)
4. April: Ercole II. d’Este, Herzog von Ferrara, Modena und Reggio, Sohn der Lucrezia Borgia († 1559)
23. April: Georg Sabinus, deutscher Gründungsrektor der Universität zu Königsberg († 1560)
9. Juni: Primož Trubar, protestantischer Prediger; gilt als Begründer des slowenischen Schrifttums († 1586)
13. Juni: Alessandro Piccolomini, italienischer Dichter, Philosoph und Astronom († 1578)
24. Juli: Andreas von Barby, dänischer Politiker und Bischof von Lübeck († 1559)
1. September: Franziskus Joel, ungarischer Pharmakologe und Mediziner († 1579)
23. September: Simon Sulzer, Schweizer reformierter Theologe und Reformator († 1585)
September: Sebastian Aitinger, Sekretär des Schmalkaldischen Bundes († 1547)
23. November: Franz, Herzog von Braunschweig-Lüneburg, jüngster Sohn von Herzog Heinrich dem Mittleren von Lüneburg-Celle († 1549)
30. November: Andrea Palladio, der bedeutendste Architekt des Manierismus in Oberitalien († 1580)
9. Dezember: Gemma R. Frisius, flämischer Mediziner, Astronom, Mathematiker, Kartograf und Instrumentenbauer († 1555)
21. Dezember: Thomas Naogeorg, deutscher Theologe und Schriftsteller († 1563)
Genaues Geburtsdatum unbekannt
Bertram Graf von Ahlefeldt, Gutsherr des Adligen Gutes Lehmkuhlen († 1571)
Paolo Antonio del Bivi, italienischer Komponist († 1584)
Jerónimo Cardoso, portugiesischer Latinist, Romanist, Lusitanist und Lexikograph († 1569)
Pankraz von Freyberg zu Hohenaschau, bayerischer Unternehmer, Politiker und Befürworter der Reformation († 1565)
Kamiizumi Nobutsuna, japanischer Schwertkämpfer († 1577)
Ștefan Lăcustă, Fürst von Moldau († 1540)
Francisco Pacheco de Toledo, spanischer Kardinal, Erzbischof und Diplomat († 1579)
Bernardo Salviati, Florentiner Adeliger, Kardinal der katholischen Kirche († 1568)
Petar Zoranić, kroatischer Schriftsteller († um 1569)
Geboren um 1508
Thomas Seymour, 1. Baron Seymour of Sudeley, englischer Edelmann, Heerführer, Diplomat und Politiker († 1549)
Gestorben
Erstes Halbjahr
25. Januar: Heinrich III. von Schauenburg, Bischof von Minden
4. Februar: Conrad Celtis, deutscher Dichter und Humanist (* 1459)
9. Februar: Konrad IV. von Rietberg, Bischof von Osnabrück und Münster
15. Februar: Giovanni II. Bentivoglio, italienischer Adeliger und Despot (* 1443)
24. Februar: Georg von Ehingen, schwäbischer Reichsritter, Diplomat und Reisender (* 1428)
28. Februar: Philipp der Edelmütige, Pfalzgraf und Kurfürst von der Pfalz (* 1448)
13. März: Dietrich Brömse, Ratsherr der Hansestadt Lübeck (* 1470)
18. März: Albrecht IV., der Weise, Herzog von Bayern, (* 1447)
18. März: Antonio Trivulzio der Ältere, italienischer Kardinal (* 1455 oder 1457)
29. März: Christoph von Baden, Titular-Markgraf von Baden, Domherr von Straßburg und Köln (* 1477)
11. April: Guidobaldo I. da Montefeltro, Herzog von Urbino (* 1472)
26. April: Georg Zingel, deutscher katholischer Theologe (* 1428)
7. Mai: Nil Sorski, russischer Starez (* 1433)
13. Mai: Martial d’Auvergne, französischer Schriftsteller (* 1430)
21. Mai: Giles Daubeney, 1. Baron Daubeney, englischer Adeliger, Militär und Staatsmann (* 1451 oder 1452)
27. Mai: Ludovico Sforza, Herzog von Mailand (* 1452)
6. Juni: Ercole Strozzi, italienischer Hofmann und Dichter, (* 1471)
Zweites Halbjahr
31. Juli: Na’od I., Kaiser von Äthiopien (* vor 1494)
30. August: Hieronymus Biechelberger, Abt der Reichsabtei Ochsenhausen (* 15. Jh.)
15. September: Jakob von Liebenstein, Erzbischof und Kurfürst von Mainz, deutscher Erzkanzler (* 1462)
23. September: Beatrix von Aragón, Königin von Ungarn und Böhmen (* 1457)
27. September: Simone del Pollaiuolo, italienischer Architekt der Renaissance (* 1457)
8. Oktober: Martin von Weißenburg, Abt des Klosters Reichenau (* um 1470)
10. Oktober: Johann I. Thurzo, ungarischer Patrizier, Kaufmann und Montanunternehmer (* 1437)
19. Oktober: Hermann IV. von Hessen, Erzbischof von Köln und Fürstbischof von Paderborn (* um 1450)
1. November: Waldemar VI., Fürst von Anhalt-Köthen (* 1450)
25. November: Ursula von Brandenburg, Herzogin von Münsterberg und Oels sowie Gräfin von Glatz (* 1450)
10. Dezember: René II., Herzog von Lothringen (* 1451)
16. Dezember: Heinrich der Jüngere zu Stolberg, Statthalter von Friesland (* 1467)
22. Dezember: Erich II., Herzog zu Mecklenburg (* 1483)
Genaues Todesdatum unbekannt
Isaak Abrabanel, jüdischer Bibelkommentator und Philosoph, Politiker und Finanzmann im Dienste der Könige von Portugal, Spanien und Neapel und der Dogen von Venedig (* 1437)
Lourenço de Almeida, portugiesischer Seefahrer und Entdecker (* um 1480)
Johann Bere, Ratsherr der Hansestadt Lübeck (* vor 1460)
Wolfgang Katzheimer, deutscher Maler und Grafiker (* um 1450)
Nephon II., Patriarch von Konstantinopel und orthodoxer Heiliger
Weblinks
|
Q6170
| 108.767798 |
99616
|
https://de.wikipedia.org/wiki/Ausgrabung
|
Ausgrabung
|
Unter einer Ausgrabung () beziehungsweise Grabung wird im deutschen Sprachraum die archäologische oder paläontologische Freilegung eines von Erdboden oder von Erd- oder Steinauftragung verdeckten Befundes (Bodendenkmal) verstanden, bei dem dieser Vorgang mit wissenschaftlicher Zuverlässigkeit dokumentiert wird. Es ist letztlich eine kontrollierte Zerstörung des Befundes. Die Größe der Grabungsfläche richtet sich nach dem Befund an sich, den zur Verfügung stehenden Mitteln und der akuten Notwendigkeit (Grabungsumfang) sowie den handlungsbestimmenden Zielen. Die Abtragung des Erdbodens erfolgt schichtweise, sie zählt zu den „invasiven archäologischen Methoden“. Zentral ist neben der (Einzel-)Fundbergung auch die Datierung, hier bieten sich verschiedene Datierungsmethoden an. Bauten, Gebäude, Grabanlagen etc. werden ebenfalls freigelegt, verbleiben aber zumeist in situ (latein. „am Platze“) und erfahren hiernach nur selten einen gerichteten Transport.
Geschichte
Im deutschsprachigen Raum hatte bereits der gräflich-hohenlohische Archivar und Hofrat Christian Ernst Hanßelmann (1699–1776) erste schriftliche und zeichnerische Dokumentationen seiner Grabungen vorgenommen. Als eigentliche Pioniere der modernen Forschungsgrabung und Feldarchäologie gelten unter anderem der britische Autodidakt Flinders Petrie (1853–1942), der italienische Archäologe Giacomo Boni (1859–1925) und die deutschen Wissenschaftler Ernst Curtius (1814–1896), Alexander Conze (1831–1914) und Wilhelm Dörpfeld (1853–1940). Ihre Bedeutung für die Forschung übertrifft bei weitem die Arbeiten des wesentlich populäreren Autodidakten Heinrich Schliemann (1822–1890), der allerdings bereits vor den Genannten mit Ausgrabungen begann und sich anschließend langsam an die damals entstehenden wissenschaftliche Forschungsmethoden heranarbeitete. Für die Entwicklung archäologischer Ausgrabungstechniken in Deutschland selbst ist insbesondere die Reichs-Limeskommission mit Kapazitäten wie Ernst Fabricius (1857–1942) von größter Bedeutung. Der Archäologe Adolf Michaelis (1835–1910), ein Studienkollege Alexander Conzes, formulierte 1906 im Rückblick auf die archäologischen Entdeckungen des neunzehnten Jahrhunderts die Ansprüche an eine wissenschaftliche Ausgrabung wie folgt:
Die ursprüngliche Gestaltung sowohl der Gesamtanlage wie aller einzelnen Teile zu ermitteln, die allmählichen Umgestaltungen durch den Lauf der Zeiten zu verfolgen, jeder Einzelheit ihren festen Platz in dieser Entwickelung [sic!] anzuweisen und so die Ausgrabung zugleich zu einer Rekonstruktion des verlorenen Ganzen zu machen, das ist das auszeichnende Merkmal dieser neuen Methode.
Definition
Unter einer archäologischen Ausgrabung wird eine nach fachlichen Standards durchgeführte, die gesetzlichen Normen des jeweiligen Denkmalschutzgesetzes der einzelnen staatlichen Agenturen und Administrationen einhaltende, amtlich angemeldete und kontrollierte Freilegung anthropologischer Strukturen (Befunde) und die Bergung darin eingebetteter Fundobjekte (Funde) aus rezent ungestörten Bodenschichten verstanden. Dabei besteht das intentionale Handeln des Ausgrabungsteams in dem rationalen Einsatz der ihnen zur Verfügung stehenden Mittel, zum Zweck der Erweiterung des Wissens über vergangene menschliche Lebensformen oder Kulturen.
Befunde können in ihrem Fundkontext zu historischen Quellen werden. Paul Kirn (1972) definierte den Begriff der „Geschichtsquellen“ allgemein wie folgt:
In Anlehnung an frühere Autoren führte Kirn aus, dass zwischen den Begriffen der „Tradition“ und der „Überreste“ zu unterscheiden sei. Erstere intendierten eine Übermittlung oder Kunde an die Mit- oder Nachwelt von Geschehenem, während sich in der Absichtslosigkeit im Hinblick auf dieses Ziel die übrigen Quellen definierten.
Kosten, Logistik, Gesetzliche Regelungen, Meldepflicht, EU-Übereinkommen
Wird während eines Bauvorhabens eine archäologische Fundstelle aufgedeckt oder soll eine Baumaßnahme in der Nähe schon bekannter Fundplätze begonnen werden, ist eine archäologische Baubegleitung notwendig. Die wissenschaftliche Dokumentation und Bergung der archäologischen Funde so wie die Sicherung des Fundkontextes während der laufenden Baugeschehen stellen sowohl für den Bauträger als auch für die tätigen Wissenschaftler eine große logistische und auch kommunikative Herausforderung dar. Die Ausgrabung eines Bodendenkmals im Vorfeld eines geplanten Bauprojektes bedeutet für den Bauträger zumeist eine Steigerung der Kosten, nicht zuletzt wegen der zusätzlichen Dauer der Ausgrabung auf das Bauzeitenkonto.
Aber auch die interne Logistik, die das archäologische Grabungsteam leisten muss, verlangt Erfahrung und Professionalität sowie kommunikative Kompetenz.
Es gibt Rechtsfolgen die bei der Aufdeckung eines archäologischen Denkmals konsekutiv sind. Bedeutendste Rechtsfolge nach der Aufdeckung eines archäologischen Denkmals ist, neben der denkmalschutzrechtlichen Meldepflicht (Raubgrabung), die Verpflichtung des Finders, die Fundstelle des entdeckten Artefakts ebenso wie dieses selbst, für einen gewissen Zeitraum unverändert zu belassen und dafür allfällige weitere, von ihm geplante (Bau-)Arbeiten an Ort und Stelle augenblicklich einzustellen.
Kommt die archäologische Baubegleitung in ihren Untersuchungen zu dem Schluss, das etwa im Plangebiet keine relevanten Befunde festgestellt werden konnten, also der Verdacht auf Bodendenkmäler sich nicht bestätigt hat, können die Baumaßnahmen sofort fortgesetzt werden. Die Bodenuntersuchungen können von den entsprechenden, zuständigen föderalen Administrationen auch an privatwirtschaftliche Unternehmen (Grabungsunternehmen) vergeben werden, die sich auf die archäologische Prospektion, Sondage, Sachstandsermittlung und Ausgrabung etc. spezialisiert haben.
Am 9. Oktober 2002 hat für die Bundesrepublik Deutschland der Bundespräsident nach Zustimmung von Bundesrat und Bundestag gemäß Artikel 59 Abs. 2 Satz 1 GG das „Europäische Übereinkommen zum Schutz des archäologischen Erbes (revidiert)“ ratifiziert (BGBl. 2002 II, 2709-2719). Dieses Übereinkommen ist gemäß seinem Art. 14 Abs. 5 am 23. Juli 2003 in Kraft getreten (BGBl 2003 II, S. 309). Die bisher gültigen föderalen Denkmalschutzgesetze weisen erhebliche Differenzen hinsichtlich ihrer Konformität mit dem revidierten Europäischen Übereinkommen zum Schutz des archäologischen Erbes auf.
Grundlagen
Das Primat eines wissenschaftlich bestimmten, archäologischen Handelns in einer Ausgrabung, ist die sachgerechte, vollständige Dokumentation vermittels Vermessung sowie Zeichnung, Fotografie etc. und schriftlicher Erfassung der getanen Arbeit, denn wurde ein Erdbefund und damit der Fundkontext zerstört, ist er unwiederbringlich verloren. Eine Ausgrabung ist im Grunde die kontrollierte und an einem bestimmten Zeitpunkt ausgeführte Zerstörung, eines stattfindenden (natürlichen) Verfallsprozesses. Neuere, insbesondere naturwissenschaftlich-technische, Methoden können eine vermehrte Datenlage über Fundmaterial und -kontext gewähren. Der Widerspruch des Handelns ist, dass ein zerstörter aktueller Fundhorizont für mögliche zukünftige Methoden nur noch eine wahrscheinlich suboptimale Datengewinnung ermöglichen wird.
Zur Dokumentation für die wissenschaftliche Bearbeitung und Auswertung der Ausgrabung im Sinne der Rekonstruierbarkeit gehören auch supportive Maßnahmen, etwa Probenentnahmen für die Archäobotanik, Mikrobiologie, Radiokarbonmessung (14C), aDNA-Bestimmung, Isotopenuntersuchung, Thermolumineszenzdatierung der Bodenschichten etc. Dabei ist unbedingt auf eine ausreichend große Probenmenge und auf die Vermeidung „moderner Kontamination“, je nach spezifischer Fragestellung, zu achten. In Zusammenarbeit mit klimageschichtlichen Erkenntnissen (Klimaarchiv, Eisbohrkern etc.) ergeben sich zusätzliche Möglichkeiten der späteren Fundbewertung.
Was wird gesucht und methodische Probleme
Zunächst einmal in der Archäologie, die Zeugnisse menschlichen Handelns, die sich materiell in Artefakten zeigen (im Soziotop), direkte Produkte menschlichen Schaffens. Aber auch Faunen- und Florenreste (im Ökotop). Der Raumaspekt, der Fundplatz in der Landschaft. Durch Einbeziehung paläoökologischer Daten lassen sich etwa Rückschlüsse über die Besiedlungsdichte der Träger der materiellen Kulturen geben. Sodann, hier das Gebiet der Anthropologie, die erhaltenen Überreste menschlicher Körper.
In der Archäologie sind etwa fragmentarischer Zustand der Artefakte, deren momentaner Erhaltungszustand im natürlichen Verfallsprozess der Objekte Zeugnisse der Sachkultur. Aber auch die Anthropologie weist methodische Restriktionen auf wie zum Beispiel die fragmentierten Zustände körperlicher Überreste mit zum Teil kleinsten Fundmengen.
Biologisches Profil, die erhaltenen Überreste menschlicher Körper
Das biologische Profil beschreibt eine Gesamtheit aller physischen Merkmale eines ausgegrabenen Individuums, deren Nachweis mittels wissenschaftlicher Methoden angestrebt werden. Das sind im Konkreten unter anderem: Individualalter, Geschlecht, Konstitution, degenerative und pathologische Veränderungen, ethnische Zugehörigkeit sowie spezielle phänotypische Merkmale wie zum Beispiel Augenfarbe, Haarfarbe, Hautfarbe, Zahnmerkmale. Über die Datensammlung aus der Einzelbetrachtung des Individuums kann auch eine auf das ganze Kollektiv übertragbare Zustandbeschreibung, so etwa in Form von Merkmalsverteilungen, Geschlechterverteilung, Ernährungs- bzw. Mangelzuständen etc., rückgeschlossen werden. Damit werden komplexe Strukturen in Populationen freigelegt und abgebildet. Die Methoden, mit denen es möglich wird Hinweise auf entsprechende Individualmerkmale zu erlangen, beruhen auf unterschiedlichen Grundprinzipien, hängen aber stark von den quantitativen oder qualitativen Materialeigenschaften der Funde ab. Der klassische Anthropologe nutzt zur Beurteilung von Geschlecht, Alter oder pathologischen Veränderungen in den meisten Fällen verschiedene morphologische Merkmale und diverse Messstrecken am Knochen (Anthropometrie, Morphometrie) im Vergleich. Ergänzt werden diese Ergebnisse durch DNA-basierte Merkmale, die mittels molekularbiologischer Analysetechniken untersucht werden. Charakteristika wie Ethnie oder auch populationsgenetische Aspekte, welche für die Entwicklungsgeschichte der verschiedenen Gruppen relevant sind, können so ausschließlich über eine DNA-Analyse oder Isotopenanalyse ermittelt werden. Letztere können u. a. Wanderungs- bzw. Migrationsbewegungen nachzeichnen. Wichtig ist die Vermeidung einer Kontamination. Zunächst werden die Knochen von eventuellen Anhaftungen, Sand, Erdresten etc. vorsichtig befreit. Um einer Kontamination vorzubeugen, trägt der archäologische Excavator während des gesamten Vorganges Einmalhandschuhe, die im Verlauf der Ausgrabung zu wechseln sind, Kopf- und Mund-Nasen-Schutz sollten obligat sein, um nicht die eigene DNA auf das Material aufzubringen. Der Arbeitsplatz und die Arbeitsgeräte müssen vor und nach einer Bearbeitung sowie nach jeder Probe gründlich und DNA-spurensicher gereinigt werden. Die erhaltenen Proben werden sorgfältig verpackt und gekühlt transportiert. Im Untersuchungslabor sind die eingetroffenen Proben in der Originalverpackung unter Einhaltung der Dekontaminationsprozedur weiter zu bearbeiten. Sollten die Proben langfristig aufbewahrt werden, sind Lagerungstemperaturen in entsprechenden Kühlschränken bei −20 °C anzustreben. Für die Bearbeitungsphase wird eine Temperatur von 4 °C angestrebt, um ständige Gefrier- und Auftauzyklen zu vermeiden.
Prospektion, Geoarchäologie, Survey
Die Fernerkundungsverfahren gehören zu den „non-invasiven Methoden“, wie die Fernerkundung („Remote Sensing“) archäologischer Landschaften und Fundplätze anhand von Satellitenaufnahmen, Luftbildern oder Laserscans. Auch die non-invasiven Methoden der Geophysik wie Geomagnetik, Bodenradar, elektrische Leitfähigkeitsmessung der Bodenhorizonte, magnetische Suszeptibilitätsmessungen gehören hierzu. Ferner die klassischen Verfahren der Feldbegehung. „Minimal invasive Verfahren“ sind Bohrungen, Rammkernsondierung und Testgrabungen mit angeschlossenem chemisch-physikalischen Aufarbeiten der gewonnenen Proben im Labor.
Fundplätze
Um einen späteren Ausgrabungsort zu lokalisieren sind zwei prinzipielle Wege offen: entweder es wird gezielt danach gesucht oder aber er wird zufällig gefunden.
So setzt die Auffindung obertägig nicht sichtbarer archäologischer Fundstellen in der Regel ihre vorherige partielle Freilegung voraus. Mit dem geomorphologischen Begriff der Reliefenergie, sie ist der Höhenunterschied (Isohypse, Isolinie) zwischen höchstem und tiefstem Punkt eines Gebietes, können Aussagen über die potenzielle Fundfreilegung getroffen werden. Sie gilt als Maß für die potenzielle Energie, die ein bestimmter Ausschnitt der Erdoberfläche besitzt oder, qualitativ formuliert, als Maß der Oberflächenrauhigkeit; wobei die Reliefenergie von der absoluten Höhenlage aber gänzlich unabhängig ist. So könnten hypothetisch in Gebieten, die eine geringere Reliefenergie aufweisen, überproportional weniger Fundstellen zu finden sein. In Gebieten mit stärkerem Relief kehrt sich dieses Bild um. Dennoch ist bisher nicht grundlegend geklärt, ob eine erhöhte Reliefenergie zu erhöhter oder verringerter Auffindungswahrscheinlichkeit von archäologischen Funden führt und inwieweit weitere Faktoren maßgeblich Einfluss nehmen.
Da sich die topographische Lage, etwa einer Siedlung als Siedlungsfaktor, über die Zeit kaum verändert, hängt das Ausmaß der Veränderung vorwiegend von den naturräumlichen und klimatischen Bedingungen ab. Hierbei können großflächige von kleinräumigen Umgestaltungen unterschieden werden. Großflächige Umwandlungen treten vorwiegend in zusammenhängenden Ebenen mit einem leichten Bodensubstrat und geringer Reliefenergie auf. Im Bereich von Flüssen sind Landschaftsveränderung etwa durch die Auenlehmauflagerungen bekannt. Die durch Erosion abgetragenen und durch Fließgewässer verlagerten Substrate werden anderen Ortes als Auenlehme wieder aufgelagert. Zu den lokoregionären Landschaftsveränderungen kann die Erosion durch fließendes Wasser und die dementsprechende Akkumulation von Bodenmaterial in tiefergelegenen Gebieten wie etwa Talgründen und Hangfüßen gerechnet werden.
So findet sich in Landschaften, die nur niedrige Reliefenergie aufweisen und damit weitestgehend ebene, häufig bewirtschaftete Flächen darstellen, ein unmittelbarer Zerstörungszusammenhang der oberflächennahen archäologischen Befunde durch den mechanischen Eingriff der Bodenbearbeitung.
Grabung und methodische Grundlagen einer Feldarchäologie
Grabungstypen
Es gibt folgende Typen von Ausgrabungen:
Forschungsgrabung:
Der Befund hat höchste Priorität. Es stehen genügend Zeit und Mittel für eine umfassende wissenschaftliche Ausgrabung zur Verfügung.
Rettungsgrabung beziehungsweise Notgrabung (englisch: rescue archaeology)
Der Befund ist durch unmittelbar bevorstehende Baumaßnahmen akut gefährdet oder bereits beschädigt oder durch Erosion freigelegt worden und wird nun unter großem Zeitdruck bestmöglich dokumentiert. Die Übergänge zwischen Not- und Rettungsgrabung und Trassenarchäologie sind oft fließend.
Präventivgrabung hierbei werden die Kosten für die archäologischen Untersuchungen vom Träger des Bauvorhabens übernommen, der einen Eingriff in das (potentielle) Bodendenkmal verursacht. Diese Präventivgrabung ist in einigen Ländern der EU die obligatorische Art der Ausgrabung bei geplanten Bauprojekten.
Lehrgrabung (englisch: training excavation)
Der Befund wird im Rahmen einer Lehrveranstaltung, in den meisten Fällen eines archäologischen Universitätsinstitutes, mit Studentinnen und Studenten ergraben, damit diese einen Einblick in die praktische Grabungstechnik erhalten. Anschließend erfolgt eine Grabungsaufarbeitung (Material- und Befundauswertungen) in einer oder mehreren weiteren Lehrveranstaltungen. In der Regel ist die Teilnahme an einer Lehrgrabung im Laufe eines Studiums archäologischer Fächer Pflicht.
Die Grabungstechnik kennt drei prinzipielle Verfahren:
die Sondierungsgrabung (englisch: exploratory excavation). Hierbei wird kleinräumig gegraben, um erste Erkenntnisse über die Boden- und Befundsituation zu gewinnen: Sie wird ausgeführt als:
Punktgrabung, eine Untersuchung an einer Stelle, etwa um einen Einzelfund zu bergen, oder eine aus einer Messung gewonnene Besonderheit zu sichten,
Sondierschnitt beziehungsweise Suchschnitt: Ein Schnitt legt ein lokales Profil durch eine Befundlage frei. An ihm lassen sich allgemeines Ausmaß der Grabungsstätte und zu erwartende Fundschichten ablesen.
Bekanntester Sondierschnitt ist wohl der Schliemanngraben, der sich durch den Hügel von Hisarlık (Troja) zieht, damals ein revolutionäres und richtungsweisendes Vorgehen, heute wird die Methode kritisch gesehen.
die eigentliche Ausgrabung, die als Freilegung den gesamten Befund aufdeckt und alle Funde birgt. Heute ziehen sich Freilegungen aufgrund der sorgfältigen Arbeit, und um nicht übermäßig viel Fundmaterial, das dann nicht ausgewertet werden kann, zu bergen, über etliche Jahre hin, beziehungsweise werden überhaupt nur mehr im begrenzten Rahmen angelegt.
die Sichtungsgrabung: Ist schon im Voraus abzusehen, dass ein Fund nicht zu bergen ist (etwa aus finanziellen Gründen) und auch nicht bedroht ist, führt man heute Grabungen aus, die die eigentlichen Fundschichten unbehelligt lassen, dokumentiert diese, birgt einzelne repräsentative Objekte und deckt die Fundstelle wieder ein.
Fast alle Ausgrabungen richten sich nach der Stratigraphie des Befundes. Sie ist die in einem vertikalen Schichtenprofil feststellbare Abfolge mehr oder weniger horizontal verlaufender Straten. Als untere Grenze einer Ausgrabung wird im Idealfall bei Forschungsgrabungen versucht, die natürlichen, ohne Menscheneinwirkung entstandenen Erdschichten beziehungsweise das gewachsene Gestein zu erreichen. Bei Notgrabungen soll zumindest die Tiefe ergraben werden, die auch von der Baumaßnahme selbst erreicht wird.
Von den wissenschaftlichen Grabungen zu unterscheiden sind die Raubgrabungen (englisch: archaeological looting) die in ihrem Fokus auf Sonderfunde in der Befundlage verheerende Schäden hinterlassen – von rechtlichen und moralischen Aspekten abgesehen.
Grabungstechnik
Die definierte und vermessene Grabungsfläche, auch Grabungsschnitt, wird manuell und sukzessive abgetragen. Folgt die Abtragung willkürlich festgelegten Bodenschichten, liegt eine Planagrabung vor. Folgt sie den natürlich unterscheidbaren und damit evidenten Schichten, so ergibt sich eine stratigraphische Grabung. Dabei tritt häufig ein sogenannter geschlossener Fund zu Tage, das ist dann eine Gruppe von Funden, deren zugehöriger Befund darauf schließen lässt, dass nach einem bestimmten Ereignis oder Zeitpunkt kein weiteres Artefakt mehr hinzukam.
Zum Zwecke der erleichterten Dokumentation und damit der späteren Rekonstruktion werden größere Grabungsflächen, -schnitte in kleinere Grabungsschnitte unterteilt, zwischen denen Stege stehen bleiben. Solche Grabungsschnitte sollten zum einen eine einheitliche Abmessung haben, geometrisch entweder Rechtecke oder Quadrate, zum anderen nebeneinander in einer Reihe angelegt werden. Die Ränder der Grabungsschnitte werden penibel vertikal abgetragen, um das Profil der Bodenschichten zu erhalten.
Prinzipiell werden in der Archäologie zwei verschiedene Grabungstechniken unterschieden (bei vielen Varianten in der Anlage der Schnitte und der Dokumentation):
Grabung nach künstlichen Schichten (besser: nach willkürlichen Schichten), Planagrabung.
Grabung nach natürlichen Schichten (besser: nach evidenten Schichten), Schichtengrabung oder Stratagrabung.
Nach der horizontalen Ausprägung wird unterschieden:
Deutsche Grabung (besser: Flächengrabung)
Englische Grabung (Wheeler-Kenyon-Methode)
Grabungen, die an einer Stelle besonders viele Schichtungen umfassen, werden als Tiefschnitte bezeichnet. Für sie gelten besondere Sicherheitsbestimmungen infolge der Gefährdung durch Abrutschen. Unterschieden wird auch zwischen einer Ausgrabung und einer Schürfung. Letzteres ist eine sehr kleine, nur Ausschnitte eines zu behandelnden Objekts betreffende Grabung, bei der erste grundsätzliche Fragen geklärt werden sollen.
Planagrabung
Eine Planagrabung ist eine Grabung nach künstlichen (vom Ausgräber willkürlich gewählten) Schichten. Dabei werden Plana (latein. planum „Ebene“) oder Abstiche von regelmäßiger Stärke unabhängig vom Verlauf der einzelnen Kulturschichten (vergleiche hierzu Begehungshorizont) abgetragen und auf diesen ebenen Flächen die Befunde eingemessen. Gegraben wird in horizontalen Abträgen willkürlich festgelegter Stärke (z. B. 5 cm). Zugewiesen werden die Funde über Einzeleinmessung oder zu den Abträgen. Die Anlage von Profilen ist von zentraler Bedeutung.
Stratigraphische Grabung
Sind an einem Ausgrabungsort stratifizierbare Befunde vorhanden, kommt der stratigraphischen Methode bei der Erstellung einer lokalen relativen Chronologie eine zentrale Bedeutung zu. Hierbei ist streng zwischen Abfolge der Schichten, strata selbst und den archäologisch relevanten gewinnbaren Objekten zu unterscheiden. Jede Stratigraphie gilt nur für loko-regionalen Befund, den sie beschreibt. Das Erstellen jeweils singulärer, lokaler zunächst einmal fundarealspezifischer Abfolgen ist der wissenschaftliche Drehpunkt.
Eine Stratigraphische Grabung oder Schichtengrabung ist eine Grabung nach evidenten (natürlich vorgegebenen) Schichten. Dabei wird jede einzelne authentische Kulturschicht minutiös freigelegt. Die Stärke der Schicht spielt dabei keine Rolle, sie ist allenfalls ein arbeitstechnisches Problem. Hierbei wird mit dem jüngsten Befund beginnend Befund für Befund abgetragen. Dabei entstehen keine ebenen Grabungsflächen, doch ist die Zuweisung der Funde zum Befund eindeutig.
Auf dieser Grabungstechnik beruht auch die Harris-Matrix oder Harris-Winchester-Matrix. Sie wurde im Februar 1973 von Edward Cecil Harris entwickelt.
Die Harris Matrix ist ein grafisches Werkzeug, das zwischen den Jahren 1969 bis 1973 entwickelt wurde. Die graphische Darstellung, im Sinne einer technischen Zeichnung bzw. Bauzeichnung, dient der Prüfung und Interpretation der Stratigraphie archäologischer Stätten. Für die Darstellung, letztlich eines dreidimensionalen Körpers in einer zweidimensionalen Zeichnung, werden in der Regel vorgefertigte Formblätter mit einem Kastenraster verwendet.
Harris wies u. a. darauf hin, dass es archäologische Schichten gibt, in denen keine Artefakte eingeschlossen sind. Die archäologische Stratifizierung sei aber unabhängig hiervon, also ohne Berücksichtigung des eingeschlossenen Fundinventars, zu analysieren. Denn erst auf der Basis einer solchen fundunabhängigen, rein auf die archäologische Stratifizierung ausgerichteten Analyse einzelner Straten, sei eine eindeutige und reproduzierbare Zuordnung der relativ-zeitlichen Positionen möglich.
Die stratigraphische Methode legt vier Regeln zu Grunde, die erstmals von Edward. C. Harris (1979) systematisch ausformuliert worden sind:
Das Stenosche Lagerungsgesetz ()
Das Gesetz der ursprünglichen Horizontalität ()
Das Gesetz der ursprünglichen Kontinuität ()
Das Gesetz der stratigraphischen Abfolge ().
Diese ersten drei Regeln wurden bereits in der Geologie (Stratigraphisches Prinzip) von Nicolaus Steno formuliert, jedoch wurde die vierte Regel in der Archäologie entwickelt.
Grabungsarten, die Flächengrabung und Wheeler-Kenyon-Grabungsmethode
Nach der horizontalen Ausprägung einer Grabung wird in die:
„Deutsche Grabung“ korrekter Flächengrabung
„Englische Grabung“ korrekter Wheeler-Kenyon-Methode
unterschieden.
Flächen- oder deutsche Grabung
Bei der deutschen Grabungsmethode oder Flächengrabung werden die einzelnen Befunde auf dem Planum markiert und danach ausgehoben. Das bedeutet, dass die gesamte Fundstelle flächig ergraben wird. Dies ist jedoch zeitlich wie finanziell sehr aufwendig und wird deshalb in Reinform kaum betrieben.
Wheeler-Kenyon-Methode oder englische Grabungsmethode
Die Technik hat ihren Ursprung in den Arbeiten (1930–1935) von Mortimer Wheeler und Tessa Wheeler in Verulamium, der drittgrößten Stadt in der römischen Provinz Britannia. Später wurde die Grabungstechnik von Kathleen Kenyon während ihrer Ausgrabungen in Jericho (1952–1958) verbessert. Die Englische Grabung oder Wheeler-Kenyon-Methode teilt das Planum in regelmäßige Quadrate auf und wird daher auch Quadrantenmethode genannt. Diese Quadrate werden dann ausgehoben, wobei lediglich schmale Stege, balk, so genannte Kontrollstege, stehenbleiben, weil in ihnen der Verlauf der Straten überprüfbar bleibt. Der Vorteil der englischen Grabungsart ist die Exaktheit, nachteilig ist der immense Arbeitsaufwand. Die Bezeichnung „Englische Grabung“ ist missverständlich und historisch bedingt, da in der britischen Archäologie heute überwiegend Flächengrabungen durchgeführt werden.
Diese vertikalen Erdscheiben ermöglichen es den Archäologen, die genaue Herkunft eines gefundenen Objekts oder Merkmals mit benachbarten Erdschichten („Schichten“) zu vergleichen. Diese Methode bietet den Archäologen in erster Linie ein Rastersystem, um ihre Funde besser zu organisieren, während sie graben; denn mit den Quadraten wird den Archäologen ein guter Einblick in die Schichtung des Grabungshorizontes gegeben. Der Hauptgrund für diese Methode besteht darin, die verschiedenen Horizonte und des Standorts zu kennzeichnen und detailliert zu erfassen.
Fund und Befund in der Feldarchäologie
In der Grabungstechnik wird zwischen Funden (bewegliche Gegenstände) und Befunden (unbewegliche Strukturen) unterschieden.
Ein Fund bezeichnet ein Fundobjekt, also in der Regel einen oder mehrere Gegenstände – auch Artefakte genannt, die archiviert werden können. Allerdings gewinnt erst durch die Einbettung des Fundstücks in seinen Umgebungszusammenhang (Kontext) der jeweilige Fund seine wissenschaftliche Bedeutung. Hierzu müssen die Funde eingemessen werden, das heißt die geographischen Koordinaten sind zu bestimmen und zu dokumentieren.
Ein Befund hingegen bezeichnet ein nach einer Untersuchung oder Prüfung festgestelltes Ergebnis eines Fundkontextes beziehungsweise die Fundumstände. Das sind in der Regel Bodenkonsistenzen, die ebenfalls dokumentiert werden können und für die wissenschaftlichen Archäologen zumeist bedeutender als das Fundstück selbst sind. Als Befunde werden dabei alle sichtbaren Strukturen (Mauern, Abfallgruben, Gräben, Pfostengruben, Schichten) beschrieben, wobei prinzipiell auch auf der Grabung nicht sofort sichtbare Strukturen als Befund zu bezeichnen sind (beispielsweise Fundkonzentrationen, Muster der Fundverteilung, Schwermetallbelastung des Bodens, Phosphatgehalt des Bodens). Wenn nichts archäologisch Relevantes aufgefunden werden sollte, wird diese Tatsache in der archäologischen Fachsprache auch als negativer Befund bezeichnet.
Verlauf einer Ausgrabung
Administrative Verfahren, geodätische Vermessungen, Archäoinformatik
Zunächst sind die behördlichen Bestimmungen des jeweilig zuständigen Amtes zu klären und die Ausgrabung zu planen. Sodann muss das Grabungsgebiet geodätisch erfasst, sprich „eingemessen“ werden; denn die Voraussetzung für eine Ausgrabung ist die zerstörungsfreie Exploration (Survey) der Grabungsoberfläche des Terrains mittels archäologischer und geophysikalischer Prospektionsmethoden. Zur geophysikalischen Prospektion stehen Bodenwiderstands- und Suszeptibilitäts-Messsysteme, Georadar-, Geomagnetik-Messapparaturen bereit.
Obligat ist bei einem archäologischen Survey die Erhebung präziser geodätischer Daten um aus diesen geodätische Netze zu errechnen. Eine kartografische Erfassung des Grabungsterrains, inklusive der vorliegenden Befunde und deren topografischer Kontexte, schließen die Phase ab.
Da zumeist eine große Anzahl von Punkten auf dem Gelände mit hoher Präzision aufzunehmen sind, erfolgt die Einmessung mittels eines über trigonometrische Punkte stationierten Gerätes (Tachymetrie, Tachymeter) und nicht über Global Positioning System (GPS).
In zunehmendem Maße spielt die Archäoinformatik eine wichtige Rolle, so zur Erfassung, Dokumentation und Berechnung der umfangreichen Datenmengen der archäologisch-historischen Befunde. Entstanden aus der Erkenntnis im Zusammenhang mit den technischen Möglichkeiten eigene Problem‐ und Informationsstrukturen zu entwickeln, welche spezifische informations‐
technische Ansätze dieser Wissenschaft einbezieht.
Vorbereitung der Fläche
Nachdem die Grabungsfläche festgelegt ist, wird als Erstes mit Hilfe eines Baggers die Pflugschicht abgehoben. Von „Pflugschicht“ (in eigentlichen Sinne des Abtragens des Oberbodens) kann man bestenfalls in unüberbauten Gebieten sprechen. Im Rahmen der mittelalterlichen Stadtkernarchäologie kann die Pflugschicht durchaus aus meterdicken Packungen von Weltkriegsschutt bestehen.
Die hierdurch entstandene rechteckige Grube, deren Anfangstiefe vom Zerstörungsgrad der Oberflächendeckschicht abhängt, nennt man Grabungsschnitt. Jeder Schnitt bekommt nun eine fortlaufende Nummer und wird einem Schnittleiter, normalerweise ein erfahrener Grabungsarbeiter oder ein angehender Grabungstechniker, unterstellt, der eine eigene Dokumentationsmappe führt. Zunächst werden dann die Schnittkanten per Spaten gerade abgestochen, um Profile zu gewinnen, und die Fläche per Schaufel grob glatt geschoben, um ein erstes Planum zu erhalten. Im Feinputz wird danach die gesamte Fläche des Schnitts mit Archäologenkellen von letzten Resten der Pflugschicht befreit.
Auf dem so freigelegten Boden können dann erste Befunde bereits erkennbar sein, wenn sie sich farblich vom umgebenden Boden abheben. Bevor diese markiert werden, wird jedoch zuerst mit Hilfe eines elektronischen Tachymeters (Totalstation) ein Netz von Koordinaten über die Fläche gelegt, das sich an der geografischen Länge und Breite orientiert. Anschließend können die Befunde markiert und die Fläche fotografiert werden. Theodolite sind bei Ausgrabungen in Deutschland inzwischen mehr in den Hintergrund gerückt. Mit dem Gauß-Krüger-Koordinatensystem ist eine winkeltreue Verortung möglich. Als neuester Technologieschub sind in einigen deutschen Bundesländern auch auf dem amerikanischen GPS-System gestützte Messgeräte zulässig. Hier ist aber die Genauigkeit zu berücksichtigen.
Da in Deutschland je nach Bundesland verschiedene Verfahren und Richtlinien zur Bearbeitung der Grabungsflächen bestehen, werden teilweise die Umrisse des Schnitts im Maßstab 1:100 gezeichnet. In diese Zeichnung wird ein Teilblattsystem eingetragen. Die Teilblätter selbst stellen die Fläche im Maßstab 1:20, bei besonderen Befunden auch im Maßstab 1:10 dar. Um später die Höhenunterschiede nachvollziehen zu können, wird die Fläche nivelliert und die Niv-Punkte auf den Teilblättern eingetragen. In Bayern wird in der Regel kein kompletter Schnitt in Umrissen gezeichnet. Hier nehmen die Archäologen mittels Befundblättern den Einzelbefund an der Oberfläche auf. Auf diesen vorgedruckten Befundblättern, die den Vorgaben des Bayerischen Landesamtes für Denkmalpflege entsprechen, findet neben einer Beschreibung und vorläufigen Interpretation auch eine Skizze des Befundes ihren Platz. Wichtige Befunde – beispielsweise Gräber – werden anschließend im Planum im Maßstab 1:10 mit Buntstiften detailgetreu wiedergegeben. Lediglich bei Stadtkerngrabungen werden große Flächen in den Plana zeichnerisch erfasst. Gruben oder Pfostensetzungen hingegen werden in Bayern lediglich in den Profilschnitten, in der Regel im Maßstab 1:20 gezeichnet. Neben dem von den Ämtern vergebenen Maßnahmennamen, der Flurstücksnummer und weiteren Angaben werden auf den Zeichnungen auch die Nivellements in metrischen Koordinaten eingetragen.
Befundbearbeitung und Dokumentation
Schon während der Grabung beginnt die archäologische Dokumentation, die zugleich schon eine erste Form der Interpretation ist und die letztlich oft erst mehrere Jahre nach der Grabung publiziert wird. Heute wird die Dokumentation meist weitgehend durch EDV gestützt. Dabei müssen sämtliche Befunde im Planum und im Profil fotografiert, gezeichnet und beschrieben werden. Aus den Einmessungen der Plana bzw. der Profile müssen sich später 3D-Schichtoberflächen rekonstruieren lassen.
Beispielhafter Ablauf einer Befundbearbeitung: Die auf dem ersten freigelegten Planum markierten Befunde bekommen zunächst fortlaufende Nummern und werden meist im Maßstab 1:20 gezeichnet. Anschließend wird jeder einzelne Befund nivelliert und folgendermaßen beschrieben: Form, Ausrichtung, Größe, Lage, Zusammensetzung und vermutliche Funktion. Dies ist die Erstansprache. Wird innerhalb eines Befundes ein weiterer Befund entdeckt oder grenzen mehrere Befunde aneinander, so ist es ein Befundkomplex, der eine eigene Nummer und Erstansprache erhält.
Danach wird der Befund geschnitten, um ein Profil zu erhalten. Zunächst wird eine Profilschnur über den Befund gespannt, die ihn in zwei Hälften teilt. Die eine Hälfte wird nun mit der Kelle bis auf eine neue Schicht abgetragen. Ist die neue Schicht eine eingelassene Schicht, wird ein Zwischenplanum gezeichnet, die Schicht erneut nivelliert und dann bis auf die darunterliegende abgetragen. Entlang der Profilschnur wird das Profil lotrecht abgestochen und fotografiert. Bevor nun das Profil im Maßstab 1:10 gezeichnet wird, muss die Profilschnur gespannt und waagerecht nivelliert werden. So kann später auf der Zeichnung der Verlauf des Profils genau dargestellt werden.
Nachdem dies erledigt ist, wird die zweite Hälfte des Befundes ausgehoben und der gesamte Befund, das so genannte Negativplanum, fotografiert. Dieses Negativplanum wird nun wiederum nivelliert und kurz beschrieben. Zum Schluss wird wie bei der Erstansprache noch mal der gesamte Befund nach denselben Kriterien beschrieben und die tatsächliche Funktion festgestellt (Endansprache). Auch das jeweilige Planum erhält eine fortlaufende Nummer und wird schriftlich, fotografisch sowie zeichnerisch dokumentiert.
Normale Fundstücke (Keramikscherben, gebrannter Lehm, Knochen, Kohle) werden unter Angabe der Befundnummer eingetütet. Sonderfunde hingegen, wie Münzen, Waffen etc. werden einzeln eingemessen und nivelliert. Größere Befunde, wie Mauern, Öfen und dergleichen, werden fotografiert, nivelliert und im Maßstab 1:10 in einer separaten Zeichnung dokumentiert.
Danach wird die gesamte Fläche bis auf das darunter neu anzulegende, zweite Planum abgetragen und der Arbeitsablauf beginnt von vorn. Die so ermittelten Daten werden als Grabungsbericht aufbereitet und veröffentlicht.
Eine wissenschaftlich brauchbare Interpretation von Befunden besteht darin, dem Charakter des Befundes als Resultat eines (historischen) Ereignisses gerecht zu werden und dabei die zu ihm führenden Kausalitäten in sinnvoller und nachvollziehbarer Weise zu strukturieren und zu erzählen. Oder anders formuliert, wenn die Interpretation der Befunde als ein Ereignis erzählt wird, dann schafft diese Narration „Geschichte“. Oder wie Veyne (1971) es zusammenfasste, die „Geschichte“ ist die Erzählung von Ereignissen.
Dreidimensionale (3D-)Rekonstruktionen von Grabungsfeldern (Auswertung)
Bei archäologischen Ausgrabungen werden vor Ort verschiedene Befunde freigelegt, die es gilt, nach wissenschaftlichen Methoden exakt zu dokumentieren. Sie können zur Grundlage weiterer Überlegungen werden. Häufig werden die Daten durch eine dreidimensionale Dokumentation mittels terrestrischen 3D-Laserscanverfahren oder Structure-From-Motion-Technik (SfM) erhoben. Sind etwa die Fundamentreste und damit der Grundriss von Gebäuden oder allgemein eines Bauwerkes freigelegt, stellt sich, über die Frage der exakten Einmessung hinaus, noch das Problem einer modellhaften Rekonstruktion der vorgefundenen Artefakte zu einem ursprünglich Ganzen. Wenn nun wenige Fundamentreste früherer Bauwerke freigelegt werden – oft sind es nur einige Gruben, in denen einst die Pfosten der Häuser befestigt waren – ist es in den meisten Fällen dennoch möglich, ein relativ genaues räumliches Modell des Ursprünglichen zu generieren, also darzustellen wie die Bauwerke in einer bestimmten Zeit in einem bestimmten Gebiet ausgesehen haben könnten. Die Grabungsdokumentation und die Datierung der Befunde liefert die Grundlage zur Rekonstruktion.
Der Vorgang der Rekonstruktion besteht darin, die unterschiedlichen Hinweise zu einem schlüssig rekonstruierten und virtuellen Gesamtbild zusammenzufügen. Die archäologischen Architekturmodelle (virtuelle Gebäudemodelle) werden zumeist mittels CAAD entworfen und dann mittels CAAM erzeugt. Diese Modelle werden auf verschiedene Arten weiter verwendet, etwa in einer fotorealistischen Visualisierung.
Mittels Analogieschlüssen lassen sich fehlende Informationen, also vorhandene (Re-)Konstruktionslücken schließen. Die Ergebnisse führen zu differenten Rekonstruktionen und damit zu unterschiedlichen Hypothesen über den fiktiven ursprünglichen Zustand. In einem Computermodell sind sie weiter überprüf- und veränderbar.
Eine weitere in zunehmendem Maße wichtige Methode der digitalen Dokumentation und damit Rekonstruierbarkeit, vor allem auch in kleinräumigen und schwierig zugänglichen Fundplätzen, liegt in der Photogrammetrie. Neben der Hardware (Digitalfotografie) ist eine entsprechende Software entscheidend, welche die Rohdaten in eine 3D-Datei umwandelt, etwa durch 3DF Zephyr Free oder Autodesk ReCap in ihren professionellen Versionen.
Fundbergung
Eine „Bergung“ ist allgemein die lokale Verlagerung eines Objektes aus einer gegebenen Situation (Ausgrabung, Fundplatz, Fundensemble, Fundkontext), unter Zuhilfenahme von entsprechenden Mitteln (Grabungswerkzeugen etc.). Damit steht die Bergung in Beziehung zum Begriff des „Transportes“, also der Ortsveränderung von Objekten mit Hilfe von Transportmitteln.
Eine Bergung bedeutet eine Veränderung der mikroklimatischen Verhältnisse und führt damit zu potentiell relevanten Veränderungen des chemischen und physikalischen Zustands eines Artefakts durch äußere Einflüsse. Ferner ist die mechanische Belastung mit der damit einhergehenden Veränderung der Kraftvektoren durch die Herausnahme aus der ursprünglichen Fundumgebung, zu berücksichtigen; etwa durch das Eigengewicht des Objektes beim Transport. Die Daten zum Fund sollten auf einem gut sichtbaren, vor Feuchtigkeit und mechanischer Beschädigung gesicherten Fundzettel vollständig erfasst sein. Praktisch haben sich zum Schutz handelsübliche Plastiktüten mit Klettverschluss als Transportmittel bewährt, für organische Materialien können Adhäsionsfolien benutzt werden. Der weitere Transport kann in säurefreien Fundkartons oder -kisten, die ebenfalls beschriftet werden, erfolgen.
Können die bei der Grabung gemachten Funde im Feld nicht angemessen dokumentiert werden, steht die Möglichkeit der Blockbergung zur Verfügung. Hierbei wird ein ganzes Fundensemble in toto entnommen und später unter möglichst optimalen Bedingungen im Restaurierungslabor freigelegt. Ein solches Vorgehen ist, je nach Beschaffenheit des Bodens, mehr oder weniger schwierig. Eine Option besteht in der Verwendung von Cyclododecan. Cyclododecan (CDAN) soll sich besonders für fragile Objekte und für Objekte mit instabiler Oberfläche, für Bergungen in Sand- und Kiesböden und als Trennmittel bei Abformungen eignen. Zunächst wird das Fundensemble mit der Airbrush-Methode oberflächlich weiter freigelegt. Das Luft-Wasser-Gemisch wird durch Druckluft und einer Sprühpistole aufgebracht. Anschließend imprägnieren die Exkavateure die so gereinigte Oberfläche mit Cyclododecan. Dabei wird Cyclododecan als Lösung in Benzinen unterschiedlicher Siedebereiche oder als Schmelze (Schmelzpunkt ca. 60 °C) verwendet. Cyclododecan ist ein alicyclischer gesättigter Kohlenwasserstoff, genauer ein Cycloalkan. Die verflüssigte wachsartige Masse umfasst und festigt die potentiell lockeren Gegenstände sowie das umgebende Erdmaterial und verhindert ein Verrutschen beim Bergen und dem späteren Transport. Der verfestigte Bereich wird behutsam abgegraben, der entstandene Block mit Gipsbinden oder Polyurethanschäumen eingepackt und schließlich unterhöhlt, bis er sich herausheben lässt. Eine Röntgen- und/oder Computertomographieuntersuchung des Fundblocks differenziert die einzelnen Gegenstände in situ, im Innern des vorliegenden Fundblocks. Cyclododecan verdampft rückstandsfrei. Eine Aufarbeitung des Blockes im archäologischen Laboratorium ist nunmehr gegeben.
Niedermolekulares Polyethylenglykol (PEG) (M = 400) kann u. a. später zur Konservierung von gefundenem archäologischem Nassholz eingesetzt werden. Schon im Jahre 1959 fand die Substanz ihren Einsatz, war aber aufgrund der unpassenden Molekularmassen (M) zunächst nicht suffizient verwendbar. Anschließend findet eine weitere Aufarbeitung der Holzartefakte in den archäologischen Labors bzw. Restaurierungswerkstätten statt; sie werden gereinigt und sodann in Lösungen mit unterschiedlichen PEG-Konzentrationen getränkt, um anschließend gefriergetrocknet zu werden. Bei der Bergung ist der Erhalt der Feuchtigkeit im Artefakt vorauszusetzen.
Fundbeschriftung
Die Beschriftung der Funde erfolgt nach einem einheitlichen System. Dabei wird das entsprechende Fundinventar beschriftet, etwa das keramische-, lithische Inventar. In der Regel sollte jeder Fund, der von der Größe her eine Beschriftung zulässt, mit einer Fundnummer versehen werden; dies gilt auch bei Fundkomplexen. Für die spätere Aufbewahrung in Museen etc. ergeben sich weitere spezifische Bedingungen.
Grundsätzlich werden Funde beschriftet. Für die wissenschaftliche Bearbeitung ist eine Beschriftung unerlässlich, um die richtige Zuordnung der Funde auch dann zu gewährleisten, wenn sie aus ihren Verpackungen entnommen wurden. Die Fundtüten enthalten neben den Funden einen beschrifteten Fundzettel; für diesen gilt generell, dass er das Format DIN A6 aufweist. Er soll so in die Fundtüte gelegt werden, dass er von außen lesbar ist und, wenn er gefaltet wird, die linke Seite mit den Funddetails nach außen zeigt. Jeder Fundzettel hat eine eindeutige Bezeichnung, bestehend aus Aktivitätsnummer, Stellen-, Positions- und Unternummer. Diese Bezeichnung (Komponenten durch Bindestrich getrennt) findet sich oben links auf dem Fundzettel.
Es können aber auch wie folgt, der Fundort (Stadt/Gemeinde, Landkreis, Gewann), Fundstellennummer (oder Aktivitätsnummer), Befundnummer, Höhe ü NN, Art des Fundes (Anzahl und Art des Fundmaterials), Zeitstellung, GPS-Koordinaten, Funddatum und der Finder notiert werden. Eine entsprechend generierte Fundnummer vom Fundzettel kann zur Sicherheit auch noch auf das Artefakt aufgetragen werden. Durch die Verwendung einer Excel-Datei oder Ähnlichem kann eine eigenständige Funddatenbank generiert und durch Programmierung individuell angepasst werden.
Wird die Excel-Datei in ein CSV-Dateiformat umgewandelt, kann sie als Textdatei in ein Geoinformationssystem, etwa der freien Geoinformationssystemssoftware QGIS eingebunden werden. Das Ergebnis kann sodann in ein Shapefile umgewandelt werden, welches die Fundpunkte als Punktelayer auf eine topografische Karte projiziert.
Fundaufbewahrung, Sammlungen, Museen, Institute
Nach Beendigung einer Grabung schließt sich eine weitere Stufe von wissenschaftlichen Untersuchungen und Analysen der Befunde und des Fundmaterials an. Auch hierbei bzw. in einem noch größeren Ausmaß spielt die Interdisziplinarität eine bedeutende Rolle. Diese Forschungsarbeiten dauern in der Regel länger an, als die eigentliche Grabung. Zunächst gehören hierzu die Erstellung eines Plans der Befunde, die Aufarbeitung der Grabungsskizzen, die Analyse der Stratigrafie, die Datierung der verschiedenen Siedlungsschichten durch das Fundmaterial (Fundinventar), ferner die Restaurierung der Funde am entsprechenden Arbeitsplatz für Konservierung und Restaurierung. Einige Fundobjekte gelangen auch in die Dauerausstellung eines Museums, während das Allermeiste des Fundmaterials im Depot der Sammlung eingelagert und aufbewahrt wird. Zum interdisziplinären Spektrum gehören die verschiedenen Archäologen, Philologen und Geschichtswissenschaftler, die unterschiedliche Kulturen im Blickpunkt haben. Je nach Quellengattung und Fundsituation werden sie durch stärker spezialisierte Disziplinen ergänzt, etwa durch die historische Bauforschung, die Dendrochronologie, die Epigraphik oder die Numismatik. Aber auch Fächer und Methoden, die eigentlich in anderen Fachdomänen zentral verankert sind, aber dennoch wichtige Informationen zu historischen Phänomenen beitragen können werden mit einbezogen. Hier sind insbesondere die Anthropologie, forensische Anthropologie, Soziologie, Paläogenetik, Archäobotanik und Archäozoologie, die Geologie und Geographie sowie naturwissenschaftliche und medizinische Untersuchungen unvollständig aufzuzählen.
Professionelle, privatwirtschaftliche Feldarchäologie (Unternehmen)
Durch die Schaffung des Berufs eines Grabungstechniker einerseits, der auf dem Gebiet der archäologischen Denkmalpflege sowie der archäologischen Forschung tätig ist, andererseits aber durch den gesetzlichen Auftrag der Denkmalschutzbehörden die im Interesse der Öffentlichkeit Bodendenkmäler vor der Zerstörung und Beseitigung schützen, sichern und dokumentieren müssen, wurden zu Beginn der 1990er Jahre in einigen deutschen Bundesländern private Unternehmen, in die bis dahin hoheitliche Aufgabe der Bodendenkmalpflege mit einbezogen. Die Unternehmensführung rekrutiert sich häufig aus Archäologen und Vermessungstechnikern. Je nach Spezialisierung des Unternehmens gestaltet sich sowohl die technische Ausstattung, als auch die spezialisierten weiteren Mitarbeiter des Teams. Die Leistungen reichen z. B. von der bodendenkmalfachlichen Beratung und Vorbereitung eines Bauvorhabens, Baubegleitung, Montanarchäologie, Voruntersuchung, Vermessung, Planerstellung, Erschließung und Grabung (archäologische Ausgrabungen bzw. Totalgrabung) bis zum Gutachten und der Recherche sowie Luftbild- und LiDAR-Auswertungen, Geophysik/Geomagnetik (Messung, Auswertung) und 3D-Laserscanning und deren Auswertungen, Fundmagazinierung. Auch archäozoologische und anthropologische Arbeiten und Fundaufarbeitungen gehören bei einigen Grabungsfirmen zum Portfolio. Ferner wird häufig auch die Übernahme der gesamten Kommunikation mit den zuständigen Dienststellen bzw. Landesämtern für Denkmalpflege (LfD) etc. übernommen. Aber auch Archäologische Dienstleistungsvermittler für die Grabungsfirmen selbst sind auf dem Markt, diese bieten je nach Bedarf Mitarbeiter mit Einzelfertigkeiten für die Grabungsfirmen und deren aktuellen Projekte an.
Dabei ist das Angebot und der Markt für Grabungsfirmen nur wenig übersichtlich. Die kommerziellen Grabungsfirmen müssen wirtschaftlich arbeiten, ihr Dienstleistungsangebot ist deshalb zumeist nicht auf ein Bundesland oder einen europäischen Staat beschränkt. Es existieren verschiedene Zertifizierungssysteme, etwa nach dem Berufsverband Deutscher Geowissenschaftler (BDG), ISO 9001, Chartered Institute for Archaeologists (CIfA), u. a. m. Die CIfA hat sich zum Ziel gesetzt ein einheitliches Gütezeichen zu schaffen, das das bestehende Registrierungssystem für archäologische Fachfirmen und Organisationen des international agierenden CIfA an deutsche Rechtsverhältnisse anpasst um es im deutschen Vergaberecht zu verankern (§ 34 VgV).
Die CIfA hat hierfür drei Akkreditierungsgrade geschaffen: „Practitioner (PCIfA)“, „Associate (ACIfA)“ und „Member (MCIfA)“, sie orientieren sich streng an der CIfA-Kompetenzmatrix. Bei einer „MCIfA“ akkreditierten Firmenleitung ist eine hohe Qualitätsgarantie zu erwarten.
Auch Mitgliedschaften im Verband archäologischer Fachfirmen, dem bayrischen Landesverband selbständiger Archäologen in Bayern oder dem Bundesverband freiberuflicher Kulturwissenschaftler (BfK) sind weitere Optionen.
Ebenso sind mehrfach Zertifizierungen geläufig. Aufgrund der ökonomischen Konkurrenzsituation einerseits, der Motivationslage und sozialen Verantwortung der Unternehmer sowie der Ausgabenpolitik öffentlicher Auftraggeber und staatlicher Behörden andererseits – um nur einige Faktoren des komplexen Zusammenwirkens zu nennen – sind Arbeitsbedingungen und Entlohnung in einigen Firmen durchaus prekär.
Darüber hinaus aber sind viele hochprofessionelle Grabungsunternehmen mit ihren Wissenschaftlern und Technikern in zunehmendem Maße an wissenschaftlichen Publikationen und Forschungsvorhaben beteiligt.
Grabungswerkzeuge, Hilfsmittel für die Feldarchäologie (Auswahl)
Neben der Archäologenkelle, dem Truffel, finden noch eine Vielzahl weiterer Werkzeuge und Hilfsmittel Verwendung. So werden für gröbere Bodenarbeiten diverse Schaufeln oder Hacken und Hämmer eingesetzt, bevor die Archäologen unter Verwendung feinerer Werkzeuge wie Spitzkelle, Spatel und Pinsel die Grabung detaillierter weiterführen.
Die in einem Planum bergungsbereiten Artefakte können mit Feinwerkzeugen freigelegt werden, auch als „freiputzen“ bezeichnet. Handfeger, Rund- und Borstenpinsel sowie Handschaufeln werden zur Entfernung des Aushubs eingesetzt. Verschieden geformte Spatel eignen sich für die Feinarbeit beim Freilegen der Funde, aber auch Pinsel oder Dentalwerkzeuge wie Sonden etc.
Mittels unterschiedlicher Siebe, etwa Stapelsiebe, deren Maschenweite von oben nach unten abnimmt, können Objekte wie Pflanzenreste, kleine Knochen, Zähne, Fischgräten, Schmucksteine usw. aus dem Grabungsaushub aussortiert und geborgen werden.
Zum genauen Vermessen, dem „Einmessen“ der Grabungsfläche bedarf es entsprechender Vermessungsinstrumente; ferner Senklot, Lotschnur, Lotdraht, Wasserwaagen, sowie dokumentierte Druckverschlussbeutel und -dosen für die Aufbewahrung der Artefakte.
Für die Erstellung von Fundzeichnungen ist ein entsprechendes Equipment Voraussetzung. Solche Zeichnungen sind Bestandteil der wissenschaftlichen Dokumentation und werden durch Fotodokumentation, Laserscanning etc. komplettiert. Eine Fundzeichnung soll eine klare und eindeutige Wiedergabe des Objekts bzw. Fundorts leisten.
Hilfsmittel und Werkzeuge (Auswahl): in der Reihenfolge Begehung, Prospektion, Sondage, Grabung:
Siehe auch
Klassische Archäologie
Lackabzug
Grabungsschutzgebiet
Siedlungsarchäologie
Literatur
Rolf d’Aujourd’hui (Hrsg.): Archäologie in Basel. Organisation und Arbeitsmethoden. Verlag Archäologische Bodenforschung Basel-Stadt, Basel 1989, ISBN 3-905098-06-7.
Jörg Biel, Dieter Klonk (Hrsg.): Handbuch der Grabungstechnik. Gesellschaft für Vor- und Frühgeschichte, Stuttgart 1994.
Susi Ulrich-Bochsler: Grabungstechnik. Einführung in die Archäoanthropologie für das archäologisch-technische Grabungspersonal. Vereinigung des Archäologisch-technischen Grabungspersonals der Schweiz, Basel 1993.
Egon Gersbach: Ausgrabung heute. 3. Auflage. Wissenschaftliche Buchgesellschaft, Darmstadt 1998, ISBN 3-534-13879-1.
Grabung e. V. (Hrsg.): Grabungs-Wörterbuch. Schloemer, Düren 1998.
Rolf Hachmann, Arnulf Kuschke: Vademecum der Grabung Tell Kamid el-Loz. Habelt, Bonn 1969.
Matthias Knaut, Martin Körber, Ruth Keller-Kempas: Freigelegt. Zehn Jahre Studium Restaurierung/Grabungstechnik in Berlin (= Berliner Beiträge zur Konservierung von Kulturgut und Grabungstechnik. Band 1). Siegl, München 2003, ISBN 3-935643-11-X.
Andreas Kinne: Tabellen und Tafeln zur Grabungstechnik. 5. Auflage. Selbstverlag, Dresden 2009, ISBN 978-3-00-040324-8.
Anna Kieburg (Hrsg.): Grabungswörterbuch. von Zabern, Darmstadt/ Mainz 2012, ISBN 978-3-8053-4533-0.
Periodika
Felix Rösch: GIS als Werkzeug archäologischer Grabungsdokumentation – zwei Fallbeispiele aus Sachsen-Anhalt. LSA VERM 1/2019 (Volltext als PDF; auf: lvermgeo.sachsen-anhalt.de).
Rainer Schreg: Konzepte der Quellenkritik in der Forschungsgeschichte (= Archäologische Quellenkritik. Band 3). 28. Januar 2013 (archaeologik.blogspot.com auf: archaeologik.blogspot.com – Archaeologik – Der Wissenschaftsblog von Rainer Schreg).
Rainer Schreg: Formationsprozesse und ihre Faktoren (= Archäologische Quellenkritik. Band 4). 3. April 2013 (online; auf: archaeologik.blogspot.com).
Rainer Schreg: Die Identifikation und Einschätzung von Formationsprozessen (= Archäologische Quellenkritik. Band 5). 24. Juli 2013 (online; auf: archaeologik.blogspot.com).
Verband der Restauratoren (Hrsg.): VDR Beiträge zur Erhaltung von Kunst- und Kulturgut. Verband der Restauratoren e. V. (VDR), Bonn seit 2003, .
Arbeitsgemeinschaft der Restauratoren (Hrsg.): AdR-Schriftenreihe zur Restaurierung und Grabungstechnik. Theiss, Stuttgart seit 1994 (ab 2003 siehe VDR-Beiträge).
Fachhochschule für Technik und Wirtschaft Berlin (Hrsg.): Berliner Beiträge zur Konservierung von Kulturgut und Grabungstechnik. Siegl, München seit 2003.
Vereinigung des Archäologisch-Technischen Grabungspersonals (Hrsg.): Grabungstechnik – Technique des fouilles. VATG, Wettingen seit 1983.
Im Feld. Wie der Grabungsalltag wirklich aussieht (= Antike Welt. – Zeitschrift für Archäologie und Kulturgeschichte, Sonderheft). wbg, Darmstadt 2020, ISBN 978-3-8053-5275-8.
Verband der Landesarchäologen in der Bundesrepublik Deutschland. Ausgrabungen und Prospektion Durchführung und Dokumentation. überarbeitete Fassung vom 3. April 2006 (Volltext als PDF; auf: dnk.de).
Grabungsrichtlinien für archäologische Maßnahmen in Westfalen-Lippe. LWL-Archäologie für Westfalen, Stand Juni 2017 (Volltext als PDF; auf: lwl.org).
Reflexionen
Sebastian Brather: Ethnische Identitäten als Konstrukte der frühgeschichtlichen Archäologie. In: Germania. Heft 78–2000, S. 139–177, hier S. 143 (journals.ub.uni-heidelberg.de).
Stefan Schreiber: Theoretische und methodische Grundlagen der Kulturwissenschaften. In: Denitsa Dimitrova, Nicole Kühn, Angela Pencheva, Stefan Schreiber, Evelina Teneva, Marina Unger, Arianna Zischow: Zur Aktualität der ethnischen Deutung in der Archäologie. Präsentation der Ergebnisse. Projekttutorium WS 2007/08 – SS 2008 Humboldt-Universität zu Berlin, S. 3–12, hier S. 9 (hu-berlin.de).
Undine Stabrey: Archäologische Untersuchungen. Über Temporalität und Dinge (= Histoire. Band 98). transcript, Bielefeld 2017, ISBN 978-3-8394-3586-1 (Volltext als PDF; auf: boris.unibe.ch).
Ulrich Veit: Archäologiegeschichte als Wissenschaftsgeschichte: Über Formen und Funktionen historischer Selbstvergewisserung in der Prähistorischen Archäologie. In: Ethnographisch-Archäologische Zeitschrift. (EAZ), Jahrgang 52, 2011, S. 1, S. 34–58, hier S. 43 (online; auf: waxmann.com).
Gerry Wait: Das „Chartered Institute for Archaeologists“: Der systematische Aufbau von Professionalität, Macht und Einfluss in Archäologie und Denkmalpflege. In: Archäologische Informationen. Band 40, 2017, S. 121–130 (online; auf: journals.ub.uni-heidelberg.de).
Weblinks
Verband für Grabungstechnik und Feldarchäologie e. V.
Literaturliste zur Grabungstechnik auf ausgraeberei.de
Grabung, Verein für Grabungstechnik, Archäologie, Bodendenkmalpflege und Nachbargebiete
Verband der Restauratoren
Studiengang Grabungstechnik In: Hochschule für Technik und Wirtschaft Berlin (Informationen zum Studiengang).
Kommission Grabungstechnik im Verband der Landesarchäologen
Grabungsdokumentation. IT-Empfehlungen. Für den nachhaltigen Umgang mit digitalen Daten in den Altertumswissenschaften, IANUS (= IANUS – Forschungsdatenzentrum Archäologie & Altertumswissenschaften), November 2017 (ianus-fdz.de)
Grabungspraxis. Grabungspraxis e. V. (grabung-ev.de)
Medien
Basiswissen auf Anarchaeologie.de (anarchaeologie.de)
Unterschied zwischen Befund und Fund. Basiswissen auf Anarchaeologie.de, 28. Juni 2016 (anarchaeologie.de)
Theorien in der Archäologie. Basiswissen auf Anarchaeologie.de, 22. Februar 2018 (anarchaeologie.de)
Frank Nikulka: Archäologie: Mehr als Schatzsucherei. Was wie wofür studieren? 2. Januar 2019 (youtube.com)
Gesetzliche Regelungen
Details of Treaty No. 143 European Convention on the Protection of the Archaeological Heritage (Revised) (coe.int)
NRW Exemplarischer Text: Text des Denkmalschutzgesetzes mit Stand vom 1. April 2020
Die aktuellen Versionen des jeweils gültigen Denkmalschutzgesetzes für jedes Bundesland sind erreichbar über die Internetseiten der Landesämter für Denkmalpflege und der Obersten Denkmalschutzbehörden.
Einzelnachweise
Paläontologische Präparation
Archäologischer Fachbegriff
Archäologie und Öffentlichkeit
Archäologischer Fundplatz
|
Q959782
| 104.077625 |
4166
|
https://de.wikipedia.org/wiki/Prion
|
Prion
|
Prionen sind Proteine, die im tierischen Organismus sowohl in physiologischen (normalen) als auch in pathogenen (gesundheitsschädigenden) Konformationen (Strukturen) vorliegen können. Sie vermehren sich nicht durch Teilung, sondern durch induzierte Veränderung benachbarter Moleküle.
Die englische Bezeichnung prion wurde 1982 von Stanley Prusiner vorgeschlagen, der für die Entdeckung der Prionen 1997 den Nobelpreis erhielt. Sie ist ein Kofferwort, abgeleitet von den Wörtern protein und infection und bezieht sich auf die Fähigkeit von Prionen, ihre Konformation auf andere Prionen zu übertragen. Es handelt sich also nicht um Lebewesen, sondern um organische Toxine (Gifte) mit infektiösen Eigenschaften.
Körpereigene Prionen kommen vermehrt im Hirngewebe vor, so dass pathologische Veränderungen schwerwiegende Folgen für den Organismus haben können. Die pathogenen Prionen sind mit großer Wahrscheinlichkeit für die Creutzfeldt-Jakob-Krankheit beim Menschen, BSE („Rinderwahn“) beim Rind oder Scrapie („Traberkrankheit“) bei Schafen verantwortlich. Sie gelangen am wahrscheinlichsten durch kontaminierte Nahrung in den Körper (z. B. bei BSE, Chronic Wasting Disease oder Kuru). Andere Infektionswege wie etwa die Schmierinfektion konnten noch nicht ausgeschlossen werden. Pathogene Prionen können aber auch durch die spontane Umfaltung körpereigener Prionen entstehen (z. B. familiäre Variante der Creutzfeldt-Jakob-Krankheit, familiäre Schlaflosigkeit).
Auch in der heutigen modernen Medizin ist eine kurative Behandlung von Prionenerkrankungen nicht möglich, so dass Maßnahmen lediglich im palliativmedizinischen Rahmen möglich sind. Alle Krankheiten haben ebenfalls gemein, dass sie zu einem spongiformen (schwammartigen) Zerfall des Gehirns bzw. des vegetativen Nervensystems führen und somit grundsätzlich letal (tödlich) verlaufen. Die pathogene Prävalenz von durch Prionen verursachten Erkrankungen gilt gemeinhin als extrem niedrig.
Grundsätzlich sind pathogene Prionen von anderen Krankheitserregern wie Viren, Bakterien oder Pilzen zu unterscheiden, da sie keine DNA oder RNA enthalten. Sie sind nicht nur von großem wissenschaftlichen und medizinischen Interesse, sondern hatten durch die „BSE-Krise“ auch starke Auswirkungen auf Gebiete wie Landwirtschaft, Verbraucherschutz und Politik.
Die vereinfachte Prionhypothese und Besonderheiten der Prionkrankheiten
Eines der zahlreichen im tierischen Körper vorkommenden Eiweiße heißt PrPC (Prion Protein cellular = zelluläres Prion-Protein). Es findet sich vor allem im Nervensystem, speziell im Gehirn. Zwischen den verschiedenen Tierarten und gegebenenfalls auch innerhalb einer Tierart unterscheiden sich die Prionen mehr oder weniger geringfügig. PrPC kommt vor allem an der Zelloberfläche vor und schützt die Zellen vor zweiwertigen Kupfer-Ionen, H2O2 und freien Radikalen. Des Weiteren wird vermutet, dass es einer der ersten Sensoren in der zellulären Abwehr von reaktivem Sauerstoff und freien Radikalen ist und Auswirkungen auf den enzymatischen Abbau von freien Radikalen hat.
Gerät dieses normale Eiweiß PrPC in Kontakt mit einem PrPSc genannten Eiweiß (Prion Protein Scrapie; pathogene Form des Prion-Proteins, das in der Form zuerst bei an Scrapie erkrankten Tieren gefunden wurde), nimmt PrPC die Form von PrPSc an, „es klappt um“, es ändert seine Konformation. Es entwickelt sich eine Kettenreaktion, in der immer mehr PrPC in PrPSc umgewandelt werden. Große Mengen an PrPSc wirken zerstörerisch auf das Gehirn, da sie unlöslich sind und sich in den Zellen ablagern. Infolgedessen sterben diese Zellen ab; es entstehen Löcher im Gehirn, eine schwammartige Struktur entsteht. Daher auch der Name dieser Krankheit: spongiforme Enzephalopathie, schwammartige Gehirnerkrankung. Prionerkrankungen enden stets tödlich.
Die Initiation der Krankheit kann auf drei Weisen erfolgen, was unter allen Krankheiten einmalig ist:
sporadisch, d. h. zufällig bzw. ohne erkennbare Ursache: PrPC faltet sich „zufällig“ in PrPSc um und löst dadurch die Kettenreaktion aus. Ein Beispiel ist die klassische Form der Creutzfeldt-Jakob-Krankheit (sCJD).
genetisch, d. h. durch einen „Fehler“ im Erbmaterial: Das Gen PRNP, auf dem in Form von DNA die Information für die Herstellung von PrPC hinterlegt ist, kann eine Mutation enthalten. Das dann veränderte Protein ist anfälliger für eine Umwandlung in PrPSc. Die Mutation kann von den Eltern auf die Kinder vererbt werden. Beispiele sind die familiäre Form der Creutzfeldt-Jakob-Krankheit (fCJD), das Gerstmann-Sträussler-Scheinker-Syndrom (GSS) und die tödliche familiäre Schlaflosigkeit (FFI, Fatal Familial Insomnia: Letale familiäre Insomnie).
durch Übertragung bzw. „Ansteckung“: Führt man sich von außen PrPSc zu, kann dies das eigene PrPC wiederum in PrPSc umwandeln, allerdings nicht unter allen Umständen. Es kommt darauf an, welche Menge zugeführt wird, in welcher Weise und um welche Art von PrPSc es sich genau handelt. Eine Ansteckung im alltäglichen Kontakt mit Patienten ist nicht möglich. Gut möglich ist dagegen eine Übertragung, wenn stark PrPSc-haltiges Material, also z. B. Gehirn von kranken Tieren oder Menschen, ins Blut oder schlimmstenfalls direkt ins Gehirn gelangt. Dies ist zum Beispiel bei der iatrogenen Form der Creutzfeldt-Jakob-Krankheit (iCJD) der Fall. Bei Operationen am Gehirn wurden durch nicht ausreichend sterilisierte Instrumente versehentlich Prionen von Erkrankten in das Gehirn von Gesunden gebracht. Ein anderes Beispiel ist Kuru, eine Krankheit auf Papua-Neuguinea; Angehörige des betroffenen Volksstamms führten sich dabei im Rahmen von kulturellen Riten das Gehirn von Verstorbenen und damit hohe Mengen an PrPSc zu. Das prominenteste Beispiel ist aber sicherlich die BSE („Rinderwahnsinn“). Nach der in der Wissenschaft als weitgehend gesichert anerkannten Theorie wurden diese PrPSc durch Tiermehl verbreitet, welches u. a. aus Kadavern von an Scrapie erkrankten Schafen hergestellt und dann an Rinder verfüttert wurde. Hinzu kam, dass man im Vereinigten Königreich die Verfahren zur Herstellung von Tiermehl so verändert hatte (niedrigere Temperatur bzw. Druck), dass diese PrPSc den Herstellungsprozess überstehen konnten. In geringerem Umfang haben sich wahrscheinlich auch andere Tiere (Katzen, Zootiere) durch dieses Tiermehl bzw. durch Verfütterung von Teilen von erkrankten Rindern infiziert. Schließlich erkrankten besonders in Großbritannien auch Menschen wohl aufgrund des Verzehrs von Fleisch bzw. Hirn- oder Rückenmarksgewebe von BSE-Kühen an einer neuen Form der Creutzfeldt-Jakob-Krankheit, der „neuen Variante“ (nvCJD oder vCJD). Schweizer Forscher entdeckten bei Versuchen mit Mäusen einen neuen Infektionsweg, über die Atemluft. Ob eine solche Infektion auch beim Menschen möglich ist, ist noch umstritten.
Auch die familiären Formen von Prionkrankheiten lassen sich im Experiment übertragen, so kann beispielsweise das in einem Menschen aufgrund der genetischen Disposition entstandene PrPSc bei Mäusen die Krankheit auslösen, wenn es zuvor ins Gehirn gespritzt wurde.
Prionen sind sehr widerstandsfähig gegen übliche Desinfektions- bzw. Sterilisationsverfahren, was auch ein Grund für die iCJD-Fälle und die BSE-Krise war. Heute gibt es auf die erschwerte Inaktivierung von Prionen abgestimmte strenge Vorschriften für die Sterilisierung von Material, das mit möglicherweise prionhaltigem Gewebe in Kontakt gekommen ist. Da Infektionen oft erst bei der Obduktion entdeckt werden, muss ein Umgang mit Leichen immer so erfolgen, als läge eine Infektion vor. Für den Umgang mit Leichen mit bestätigten Prionenerkrankungen sowie für Kontakt mit potentiell infektiösem Gewebe gelten aufgrund der hohen Resistenz der Erreger strengste Maßnahmen, die bis zur Exzision der betroffenen Stelle reichen.
Die Prionhypothese gilt heute als relativ gesichert. Dass außer dem PrPSc noch ein weiterer Faktor eine Rolle spielt, kann jedoch noch nicht endgültig ausgeschlossen werden. Nachdem auch die intensive Suche nach Viren, Viroiden oder Nukleinsäure überhaupt erfolglos blieb, gibt es kaum noch Wissenschaftler, die diesen Weg weiter verfolgen. In der Öffentlichkeit kursieren gelegentlich Außenseitermeinungen wie etwa die Organophosphattheorie, nach der BSE im Zusammenhang mit Insektengiften steht, wofür es jedoch keine wissenschaftlichen Hinweise gibt.
Geschichte der Prionforschung
Einzelne Prionkrankheiten wurden schon vor langer Zeit beschrieben (Scrapie, die Prionkrankheit des Schafes, 1759 von Johann George Leopoldt; CJD 1920 von Hans Gerhard Creutzfeldt), ohne dass man etwas über die Ursache dieser Krankheiten wusste oder sie in eine Gruppe einordnen konnte. Nachdem 1932 die Übertragbarkeit von Scrapie nachgewiesen und 1957 erstmals Kuru beschrieben worden war, wurde Ende der 1950er Jahre von William J. Hadlow die Ähnlichkeit dieser Krankheiten festgestellt und Kuru ebenfalls experimentell auf Affen übertragen. Tikvah Alper und Mitarbeiter stellten 1966 fest, dass der Erreger zu klein war, um ein Virus zu sein, und offenbar keine Nukleinsäure enthielt. Daher kam es zu einer „nur Protein“-Hypothese für den Erreger, wobei allerdings unklar blieb, wie sich so ein Protein vermehren könnte. Viele gingen daher am ehesten von Lentiviren als Ursache aus.
Die 1982 von Stanley Prusiner, der an Arbeiten von Daniel C. Gajdusek, welcher bereits unbewusst ein pathogenes Prion entdeckt hatte, anknüpfte, veröffentlichte „Prionhypothese“ wurde zunächst in der Wissenschaft kritisch aufgenommen, da ein nukleinsäurefreies infektiöses Agens bis dahin nicht vorstellbar war. Im Nachhinein erwies sich diese Hypothese jedoch als bahnbrechend und 1997 wurde Prusiner für seine Arbeiten auf dem Gebiet der Prionforschung mit dem Nobelpreis geehrt. In den Jahren nach der Aufstellung dieser Hypothese konnten in zahlreichen Experimenten Hinweise für die Richtigkeit dieser Hypothese gewonnen werden, allerdings kein endgültiger Beweis. 1986 begann die BSE-Epidemie in Großbritannien, 1996 wurden die ersten Fälle von vCJD beschrieben.
Der Nachweis, dass rekombinantes Prion-Protein Krankheiten auslösen kann (womit das Koch’sche Postulat erfüllt war), gelang 2010.
In den folgenden Jahren wurden zahlreiche Arbeitsgruppen neu eingerichtet, Zentren erbaut und Verbünde gegründet. Die Prionforschung wurde intensiviert und beschleunigt.
2007 ergaben sich Zweifel, ob der Gehalt eines Gewebes an pathogenen Prionen in jedem Fall mit dessen Infektiosität korreliert.
Neue Forschungsergebnisse um die US-amerikanische Forscherin Susan Lindquist zeigen, dass Prionen eine wichtige Rolle bei der Neurogenese (Entwicklung neuer Nervenzellen im Gehirn) spielen.
Struktur des Prion-Proteins
Physiologische (d. h. normale oder apathogene) Prionen haben zu 43 % die Struktur von Alpha-Helices. Die pathogenen Formen bestehen nur zu 30 % aus Alpha-Helices, zu 43 % bestehen sie aus Beta-Faltblatt-Strukturen. Die Gefahr der pathogenen Prionen besteht darin, dass sie in der Lage sind, die physiologischen, nicht pathogenen Prionen in pathogene umzuwandeln.
Das Prion-Protein ist ein beim Menschen aus 253 Aminosäuren (AS) bestehendes Glykoprotein, das im Prion-Protein-Gen (PRNP) codiert wird. Die AS-Homologie zu anderen Säugetieren beträgt 85 % oder mehr, zwischen Rind und Mensch gibt es z. B. 13 AS-Unterschiede. Es sind jeweils eine oder mehrere Mutationen bekannt, die zu fCJD, GSS oder FFI führen. Am Codon 129 besteht ein Methionin/Valin-Polymorphismus, der für Krankheitsausbruch und -verlauf mitentscheidend ist. PrPC enthält zum großen Anteil alpha-Helices, PrPSc mehr beta-Faltblattstrukturen, aber beide enthalten die gleiche Aminosäure-Primärsequenz.
Der genaue Vorgang der „Umfaltung“ von PrPC in PrPSc ist noch unbekannt. Diese verändert die Eigenschaften des Prion-Proteins; das PrPSc ist schlechter wasserlöslich, weil die hydrophoben Ketten nicht, wie bei der α-Helix üblich, zur Innenseite der Protein-Tertiärstruktur zeigen. Außerdem ist PrPSc weitestgehend resistent gegenüber vielen Desinfektionsmitteln, ionisierender und UV-Strahlung und hitzestabil. Feuchte Hitze (131 °C) in zur Sterilisation in der Medizin eingesetzten Autoklaven zerstört das PrPSc erst nach zwei Stunden, so dass medizinische Instrumente viermal hintereinander autoklaviert werden müssen, bei trockener Hitze wird das Prion bei 200 °C erst nach 60 Minuten inaktiviert und durch Proteasen nur schwer verdaulich (Proteasen können ein Protein am besten im entfalteten Zustand „zerschneiden“, die Denaturierung im Körper ist jedoch durch die veränderte Sekundärstruktur schlechter möglich). PrPC ist vor allem an Synapsen lokalisiert.
Die PrPC spielen laut neuester Erkenntnisse eine Rolle bei der Bildung von blutbildenden Stammzellen (s. u.). Prionprotein-Knockoutmäuse zeigen nach einem Schlaganfall eine verlangsamte Genesung, zudem neigen die Mäuse zu Fettleibigkeit. Es gibt jedoch Hinweise auf eine Rolle als kupferbindendes Protein an der Synapse.
Laut einer Veröffentlichung von US-Forschern in der Fachzeitschrift PNAS erhalten normale Prion-Proteine die Regenerationsfähigkeit von blutbildenden Stammzellen. In diesen Zellen treten Prionen in der Zellmembran auf und erfüllen offenbar keine wichtigen Aufgaben – zumindest solange der Körper gesund ist.
Pathologie und Symptomatik von Prionkrankheiten
Prionkrankheiten sind vor allem durch motorische Störungen wie Ataxie und – am auffallendsten beim Menschen – kognitive Probleme bis zur Demenz gekennzeichnet. Nach einer Inkubationszeit von Jahren bis Jahrzehnten enden die Krankheiten stets tödlich. Im Gehirn finden sich bei der neuropathologischen Begutachtung unter dem Lichtmikroskop spongiöse (schwammartige) Veränderungen und, je nach Krankheit, unterschiedlich ausgeprägte Ablagerungen wie Amyloide, Kuru-Plaques und floride Plaques.
Auswahl aktueller Forschungsgebiete
Funktion des PrPC
genaue Struktur von PrPC und PrPSc
Übertragungswege
Blut-(Schnell-)Tests
Therapieoptionen
Möglichkeiten zur Prävention, Risikoabschätzung und Überwachung
Es wird angenommen, dass die Ansteckung mit der Prionenkrankheit durch Prion-assoziierte Proteine erfolgt und nicht durch das eigentliche Prionprotein. Von besonderem Interesse ist deshalb die Erforschung der Prion-assoziierten Proteine.
Meldepflicht
In der Schweiz ist der positive laboranalytische Befund zu «Prionen» für Laboratorien meldepflichtig und zwar nach dem Epidemiengesetz (EpG) in Verbindung mit der Epidemienverordnung und der Verordnung des EDI über die Meldung von Beobachtungen übertragbarer Krankheiten des Menschen. Dies wird verstanden als «Positiver Nachweis von PrPSc in klinischem Material (insbesondere Gehirn)».
Literatur
Beat Hörnlimann, D. Riesner, H. Kretzschmar: Prionen und Prionenkrankheiten. de Gruyter, Berlin/ New York 2001, ISBN 3-11-016361-6.
Martin H. Groschup: Prion diseases – diagnosis and pathogenesis. Springer, Wien 2000, ISBN 3-211-83530-X.
Claudio Soto: Prions – the new biology of proteins. CRC, Taylor & Francis, Boca Raton 2006, ISBN 0-8493-1442-9.
Sylvain Lehmann: Techniques in prion research. Birkhäuser, Basel 2004, ISBN 3-7643-2415-5.
Andrew F. Hill: Prion protein protocols. Humana Press, Totowa 2008, ISBN 978-1-58829-897-3.
Weblinks
Website Nationales Referenzzentrum für Prionerkrankungen, Georg-August-Universität Göttingen
Ingrid Schütt-Abraham, Roland Heynkes: Theoretische TSE-Forschung. Website von Roland Heynkes
Einzelnachweise
!Prion
Protein
Meldepflichtiger Erreger
|
Q47051
| 131.806557 |
780034
|
https://de.wikipedia.org/wiki/Gr%C3%B6nlandsee
|
Grönlandsee
|
Die Grönlandsee (selten: Grönlandmeer) ist das 1,2 Millionen Quadratkilometer große Meer, das sich zwischen Grönlands Ostküste, Islands Nordküste, Jan Mayen und Spitzbergen erstreckt. Sie wird sowohl als Nebenmeer des Arktischen Ozeans als auch des Atlantischen Ozeans betrachtet.
Im Westen verbindet die Dänemarkstraße die Grönlandsee mit dem Atlantik. Im Osten und Südosten schließt sich das Europäische Nordmeer an die Grönlandsee an, und im Norden jenseits des Punktes Nordostrundingen ist die Grönlandsee über die Framstraße mit der Wandelsee verbunden.
Geographie
Abgrenzung und Unterteilung
Die International Hydrographic Organization (IHO) legt die Grenzen der Grönlandsee fest:
Norden: Linie vom nördlichsten Punkt Spitzbergens zum nördlichsten Punkt Grönlands.
Osten: Westküste Spitzbergens
Südost: eine Linie vom südlichsten Punkt West-Spitzbergens (Sørkapp) zum nördlichsten Punkt Jan Mayens, die Westküste Jan Mayens bis zum südlichsten Punkt der Insel, dort folgt die Grenze einer Linie bis Gerpir (65° 05′ N, 13° 30′ W) auf Island.
Südwesten: Eine Linie von Straumnes (Nordwestlichster Punkt Islands) nach Cape Nansen (68° 15′ N, 29° 30′ W) auf Grönland.
Westen: Ost- und Nordostküsten Grönlands zwischen Cape Nansen und dem nördlichsten Punkt der Insel.
Bisweilen wird der südliche Teil der Grönlandsee als Islandsee bezeichnet und als eigenes Meer angesehen. Gemäß einem noch nicht verabschiedeten Entwurf der IHO trennt die Linie zwischen dem am Ausgang des grönländischen Fjords Kangertittivaq gelegenen Kap Brewster im Westen und dem Sørkapp an der Südspitze Jan Mayens im Osten die Islandsee von der Grönlandsee.
Bei einer Fläche von 1.205.000 km² hat die Grönlandsee ein Wasservolumen von 2.408.000 km³. Das ergibt eine Durchschnittstiefe von 1440 Metern.
Bodenrelief
Die Grönlandsee besteht aus zwei Hauptbecken: Grönlandbecken und Boreas-Becken. Das Grönlandbecken ist das größere und, mit Tiefen von bis zu 3600 Metern, tiefere. Es wird im Südosten durch den Mohn-Rücken begrenzt. Nördlich, getrennt durch die in West-Ost-Richtung verlaufende Grönland-Bruchzone, liegt das Boreas-Becken mit Tiefen von um die 3200 Metern. Den östlichen Rand des Boreas-Beckens bildet der Knipovich-Rücken, im Norden liegt die Molloy-Störungszone und die bis in etwa 2600 Meter Tiefe reichende Framstraße, die die Hauptverbindung zum Arktischen Ozean darstellt. In der Molloy-Störungszone liegt die tiefste Stelle der Grönlandsee und des Arktischen Ozean, das Molloytief vor der Westküste Spitzbergens, das ca. 5600 Meter unter der Meeresoberfläche liegt.
Südlich des Grönlandbeckens, abgegrenzt durch die Jan Mayen-Bruchzone, liegt das Island-Plateau, das den im Mittel ca. 1100 tiefen Boden der Islandsee bildet. Es wird im Westen durch den Jan-Mayen-Rücken begrenzt, der sich von Jan Mayen bis zum Nordatlantik erstreckt. Westlich des Jan-Mayen-Rückens liegt das mit 50 km Durchmesser kleine Jan Mayen-Becken, das eine Tiefe von bis zu 2200 Metern erreicht. Das Island-Plateau wird durch den Kolbeinsey-Rücken in einen östlichen und einen westlichen Bereich geteilt. Im Süden des westlichen Island-Plateaus, zwischen Grönland und Island, bildet die Dänemarkstraße die Verbindung zur Irmingersee und damit zum Atlantischen Ozean.
Westlich entlang der Hauptbecken und des Island-Plateaus zieht sich der grönlandische Schelf. Die am östlichen Rand der Grönlandsee liegenden Mohn- und Knipovich-Rücken sowie der Kolbeinsey-Rücken gehören zum nördlichen Ausläufer des Mittelatlantischen-Rückens, an dem sich die nordamerikanische und eurasische Platte spreizen. Sie weisen vulkanische Aktivität auf.
Hydrologie
Die Grönlandsee ist zusammen mit der Barentssee und der Labradorsee einer der wichtigsten Entstehungsorte von kaltem Tiefenwasser in der nördlichen Hemisphäre. Sie gehört damit zu den wenigen Meeren, in denen es direkten Austausch zwischen den verschiedenen Wasserlagen in verschiedenen Meerestiefen gibt.
Die Hydrologie der Grönlandsee wird vor allem durch den Ostgrönlandstrom bestimmt, einer Oberflächenströmung von Nordosten nach Südwesten, die ihren Ursprung in einem Strom hat, der den arktischen Ozean durchschneidet. Der Strom reicht bis zu 600 Meter tief und wird dort durch das grönländische Festlandsschelf nach unten begrenzt. An der Oberfläche wird er durch häufige nordöstliche Winde verstärkt und erreicht Strömungsgeschwindigkeiten von 25 cm/s. Östlich des Stroms befindet sich eine Gegenströmung. Dabei reicht das Wasser des Ostgrönlandstroms im Sommer deutlich weiter nach Osten als im Winter. Nördlich von Jan Mayen bildet sich eine Zweigströmung, die in einem Wirbel gegen den Uhrzeigersinn große Teile des Meeres einnimmt. In deren Zentrum wiederum kommt es zu einem Wasseraustausch zwischen Oberflächen- und Tiefenwasser.
Nördlich von Island zweigt der Islandstrom vom ostgrönländischen Strom ab und fließt nach Südosten. In der Dänemarkstraße trifft er auf den Irmingerstrom und fließt mit diesem durch die Dänemarkstraße.
Die Ostküste Grönlands ist dauerhaft mit Meereis bedeckt, wobei die Eisdecke im September am kleinsten ist. Die größte Eisdecke weist das Meer im April auf, wenn die gesamte Grönlandsee von Eis bedeckt ist.
Insgesamt gibt es fünf größere Wassermengen in der Grönlandsee: Arktisches Oberflächenwasser kommt mit dem Ostgrönlandstrom aus dem arktischen Ozean. Es befindet sich auf dem größeren westlichen Teil des Meers, ist im Sommer 200 Meter und im Winter 600 Meter tief, hat mit 31,5 bis 34 g/kg eine niedrigere Salinität als der Atlantik und weist Temperaturen zwischen −2 Grad Celsius und +1 Grad Celsius auf. Das Grönlandseeoberflächenwasser entsteht im östlichen Teil des Meeres durch Interaktion zwischen Atlantik- und arktischem Wasser, hat eine Salinität von 34,7 bis 34,9 g/kg und Temperaturen zwischen 0 und 2 Grad Celsius. Entlang der grönländischen Küste gibt es ein schmales Band Wassers, das etwa 150 Meter tief reicht, durch die Entwässerung Grönlands gebildet wird und dementsprechend große saisonale Unterschiede aufweist.
In Wassertiefen unter 500 Metern nimmt intermediäres Wasser den Großteil des Volumens ein, das durch Mischung aus arktischem Wasser und dem atlantischen Wasser des Europäischen Nordmeers entsteht. Es hat eine Temperatur von etwa −0,44 Grad Celsius und eine Salinität von 34,9 g/kg. Das Wasser in den tiefsten Schichten ähnelt dem Wasser des europäischen Nordmeers, hat Temperaturen zwischen −0,9 Grad Celsius und −1,1 Grad Celsius, und eine Salinität von über 34,92.
Meteorologie
Meist befindet sich eine arktische Luftmasse über der nördlichen Grönlandsee, und eine polare Luftmasse über der südlichen Grönlandsee. Im Winter verläuft die Grenze zwischen beiden Fronten etwa auf einer Linie von Island nach Nowaja Semlja, wobei an dieser Grenze Wirbelstürme häufig sind. Die maximalen Lufttemperaturen betragen im Sommer etwa 8 bis 9 Grad im gesamten Meer, im Winter sinken sie im Normalfall bis auf −10 Grad im südlichen Teil und −37 Grad im nördlichen Teil des Meeres.
Weblinks
Einzelnachweise
Meer (Arktischer Ozean)
Meer (Atlantischer Ozean)
Nordeuropa
|
Q132868
| 224.962228 |
6606
|
https://de.wikipedia.org/wiki/1588
|
1588
|
Ereignisse
Politik und Weltgeschehen
England / Spanien
28. Mai: Die ersten Schiffe der spanischen Armada brechen in Lissabon zum Ärmelkanal auf. Die restliche Flotte startet an beiden Folgetagen.
31. Juli: Die Spanische Armada taucht im Ärmelkanal auf, woraufhin es in den nächsten Tagen zu mehreren kleinen Gefechten kommt, die aber keine Entscheidung bringen.
8. August: Die englische Flotte sendet Brander in den Hafen von Calais, wo die Armada vor Anker liegt, um sich mit der Invasionsarmee aus den Spanischen Niederlanden zu vereinen. Die Armada verlässt in Panik den Hafen und wird in der anschließenden Seeschlacht von Gravelines von den Engländern bekämpft, jedoch endet die Schlacht unentschieden.
19. August: In Unkenntnis der gewonnenen Schlacht hält Königin Elisabeth I. ihre berühmte Tilbury-Rede, in der sie den Truppen Mut zuspricht, die sich in Tilbury versammelt haben, um die spanische Invasion abzuwehren.
Die Armada versucht in der Folge, England und Irland zu umsegeln, wobei sie in schwere Stürme gerät und den Großteil ihrer bereits durch die Gefechte beschädigten Schiffe verliert.
Frankreich
9. Mai: Henri I. de Lorraine, duc de Guise, Führer der katholischen Liga in Frankreich, zieht im Achten Hugenottenkrieg in Paris ein und bedrängt König Heinrich III.
12. Mai: Die Bürger von Paris vertreiben aufgestachelt von Henri de Guise am „Tag der Barrikaden“ König Heinrich III. aus der Stadt. Dieser flieht nach Blois.
Heinrich III. und Henri de Guise schließen die Union von Rouen, mit der dem hugenottischen Heinrich von Navarra der französische Thron verwehrt werden soll.
23. Dezember: Der unbewaffnete Henri I. de Lorraine, duc de Guise wird in Blois von der königlichen Wache ermordet. Sein Bruder Louis II. de Lorraine-Guise, Kardinal von Lothringen und Erzbischof von Reims, wird als Tatzeuge festgenommen und tags darauf auf Befehl König Heinrichs III. getötet. Das führt zum Aufstand in Paris. Heinrich III. muss daraufhin ein Bündnis mit dem Hugenotten Heinrich von Navarra schließen.
Heiliges Römisches Reich
März bis September: Während des Truchsessischen Krieges kommt es zur Belagerung von Bonn durch die von Charles III. de Croÿ kommandierten Spanier. Die Verteidiger auf Seiten des abtrünnigen Erzbischofs Gebhard I. von Waldburg werden von Martin Schenk von Nideggen geführt, der die Stadt schließlich übergeben muss, aber einen ehrenvollen Abzug gewährt bekommt. Durch Flugschriften und zeitungsähnliche Berichte wurde die Belagerung zu einem zeitgenössischen Medienereignis.
Nachdem die Niederlande die Unterstützung seiner Sache beendet haben, gibt Gebhard den Kampf auf, siedelt nach Straßburg über und wird evangelischer Domdechant am Hof von Herzog Friedrich I. von Württemberg.
Skandinavien
4. April: Der minderjährige Christian IV. folgt seinem verstorbenen Vater Friedrich II. auf dem Thron von Dänemark und Norwegen nach. Seine Mutter Sophie von Mecklenburg führt während seiner Unmündigkeit gemeinsam mit Vertretern des Reichsrats die Regierungsgeschäfte.
Persien
Safawiden-Schah Abbas der Große wird im Pavillon Tschehel Sotun gekrönt.
Wissenschaft und Technik
In Venedig erscheint der Afrika-Atlas (Geografia dell’ Africa) des italienischen Kosmographen Livio Sanuto, ein Kartenwerk (12 Kupferstiche), das für die damalige Zeit äußerst präzise ist und von anderen führenden Kartographen und Kosmographen fast ein Jahrhundert lang als Grundlage für ihre eigenen Arbeiten verwendet wird.
Der italienische Ingenieur und Offizier in französischen Diensten Agostino Ramelli veröffentlicht das Werk Le Diverse Et Artificiose Machine. Unter anderem präsentiert er darin ein Bücherrad und den Vorläufer eines Amphibienfahrzeugs.
Kultur
10. September: Der englische Seefahrer Sir Thomas Cavendish kehrt von seiner dreijährigen Weltumsegelung wieder nach Plymouth zurück. Er bringt von einer Reise erstmals Sternanis aus Ostasien nach Europa.
22. November: Das Werk Orchésographie et traité en forme de dialogue, par lequel toutes personnes peuvent facilement apprendre et pratiquer l’honneste exercice des dances von Thoinot Arbeau über die Tänze seiner Zeit bekommt das Druckprivileg erteilt.
Gesellschaft
Die Hexenprozesse in Ellwangen beginnen. Bis 1618 werden hier rund 450 Menschen hingerichtet.
Religion
22. Januar: Mit der Apostolischen Konstitution Immensa Aeterni Dei setzt Papst Sixtus V. nach dem Konzil von Trient (1545–1563) neue Kongregationen ein und führt eine Umgliederung der vorhandenen Kongregationen durch. Eine dieser Kongregationen ist die Sacra Congregazione della Consulta, die schon seit 1559 gerichtliche und beratende Aufgaben für die Kurie wahrnimmt.
Die von Herzog Bogislaw XIII. gegründete Fürstliche Druckerei in Barth druckt die Barther Bibel in mittelniederdeutscher Sprache.
Der ehemalige Unitarier Andreas Eössi gründet in Siebenbürgen die Gruppe der Sabbatianer.
Das Kapuzinerkloster Solothurn wird gegründet.
Historische Karten und Ansichten
Geboren
Erstes Halbjahr
10. Januar: Nicolaes Eliaszoon Pickenoy, niederländischer Maler († 1653/56)
12. Januar: John Winthrop, englischer Puritaner und Gouverneur der Massachusetts Bay Colony († 1649)
20. Januar: Francesco Gessi, italienischer Maler († 1649)
21. Februar: Franz Christoph von Khevenhüller, kaiserlicher Gesandter in Madrid und österreichischer Historiker († 1650)
21. Februar: Cassiano dal Pozzo, italienischer Gelehrter und Mäzen († 1657)
21. März: Egon VIII. von Fürstenberg-Heiligenberg, Reichsgraf, bayrischer Generalfeldzeugmeister und Heerführer († 1635)
5. April: Thomas Hobbes, englischer Philosoph († 1679)
15. April: Claudius Salmasius, französischer Altphilologe und Universalgelehrter († 1653)
18. April: Thomas Weinrich, deutscher lutherischer Theologe († 1629)
1. Mai: Joseph Bergaigne, Erzbischof von Cambrai und Politiker in spanischen Diensten († 1647)
2. Mai: Étienne Pascal, französischer Anwalt, Verwaltungsbeamter und Mathematiker, Vater von Blaise Pascal († 1651)
11. Juni: George Wither, englischer Dichter († 1667)
21. Juni: Johann Leuber, kursächsischer Gesandter bei den Westfälischen Friedensverhandlungen († 1652)
28. Juni: Per Banér, schwedischer Staatsmann († 1644)
Zweites Halbjahr
7. Juli: Johann II. Freiherr von Viermund zu Neersen, deutscher General († 1632)
7. Juli: Wolrad IV., Graf von Waldeck († 1640)
1. September: Henri II. de Bourbon, Fürst von Condé († 1646)
8. September: Marin Mersenne, französischer Mathematiker und Theologe († 1648)
14. September: Josua Stegmann, deutscher Theologe und Kirchenliederdichter († 1632)
30. September: Godart van Reede, niederländischer Staatsmann († 1648)
17. Oktober: Matthias Gallas, Kaiserlicher General im Dreißigjährigen Krieg († 1647)
22. Oktober: Hans Jakob Zörnlin, Schweizer Offizier in fremden Diensten und Beamter († 1659)
9. November: Bénédict Turrettini, Schweizer Theologe († 1631)
11. November: Martin Trost, deutscher Orientalist († 1636)
25. November: Johann Affelmann, deutscher Theologe († 1624)
26. November: Anton von Ditfurth, Mitglied der Fruchtbringenden Gesellschaft († 1650)
2. Dezember: Leonhard Kern, deutscher Bildhauer († 1662)
10. Dezember: Johann Graf von Aldringen, Feldherr der Katholischen Liga († 1634)
10. Dezember: Isaac Beeckman, holländischer Universalgelehrter und Naturphilosoph († 1637)
15. Dezember: Adolf Friedrich I., Herzog zu Mecklenburg († 1658)
24. Dezember: Constanze, Erzherzogin von Österreich, Königin von Polen und Großfürstin von Litauen († 1631)
Genaues Geburtsdatum unbekannt
Richard Brathwaite, englischer Autor († 1673)
Robert Filmer, englischer politischer Theoretiker († 1653)
Louise Marguerite de Lorraine, princesse de Conti, französische Adelige und Autorin († 1631)
Hendrick ter Brugghen, niederländischer Barockmaler († 1629)
William Seymour, 2. Duke of Somerset, englischer Adliger († 1660)
Heinrich Wolter von Streversdorf, Weihbischof zu Köln und Mainz († 1674)
Gestorben
Todesdatum gesichert
9. Februar: Alvaro de Bazán, spanischer Flottenkommandant (* 1526)
12. Februar: Joachim I. von Alvensleben, Gelehrter und Reformator (* 1514)
24. Februar: Johann Weyer, flämischer Arzt und Gegner der Hexenverfolgung (* 1515/1516)
28. Februar: Wiguleus Hund, bayrischer Rechtsgelehrter und Staatsmann (* 1514)
3. März: Heinrich XI., Herzog von Liegnitz (* 1539)
5. März: Henri I. de Bourbon, Fürst von Condé, französischer Feldherr (* 1552)
9. März: Pomponio Amalteo, italienischer Maler (* 1505)
10. März: Theodor Zwinger, Schweizer Gelehrter und Sohn des Kürschners Leonhard Zwinger (* 1533)
17. März: Petrus Dathenus, flämischer Theologe und Reformator (* 1531/32)
17. März: Elisabeth von Sayn, Fürstäbtissin des Stifts Essen
4. April: Friedrich II., König von Dänemark und Norwegen (* 1534)
18. April: Paolo Veronese, italienischer Maler und Freskant (* 1528)
3. Mai: Joachim Mynsinger von Frundeck, Jurist der Humanistenzeit (* 1514)
6. Mai: Johann Aicholz, österreichischer Mediziner und Botaniker (* um 1520)
21. Mai: Melchior Siegel, deutscher Unternehmer (* 1515)
10. Juni: Valentin Weigel, deutscher mystischer Schriftsteller (* 1533)
13. Juni: Anna, Gräfin von Nassau-Dillenburg (* 1563)
10. Juli: Edwin Sandys, Erzbischof von York (* 1519)
15. Juli: Georg Israel, mährischer Prediger (* um 1505)
4. August: Archibald Douglas, 8. Earl of Angus, schottischer Adeliger (* 1555)
4. September: Robert Dudley, 1. Earl of Leicester, englischer Adeliger (* 1532)
18. September: Johannes Matthaeus, deutscher evangelischer Theologe (* 1526)
20. September: Niklaus Zurkinden, Schweizer Politiker (* 1506)
25. September: Tilemann Hesshus, deutscher lutherischer Theologe (* 1527)
12. Oktober: Lampert Distelmeyer, kurfürstlicher Kanzler der Mark Brandenburg (* 1522)
17. November: Peter Obernburger, Reichshofrat des Kaisers Rudolf II (* um 1530)
23. Dezember: Henri I. de Lorraine, Herzog von Guise und Heerführer (* 1550)
24. Dezember: Louis II. de Lorraine-Guise, französischer Kardinal, Erzbischof von Reims (* 1555)
31. Dezember: Luis de Granada, spanischer Dominikaner, Mystiker und Schriftsteller (* 1504)
Genaues Todesdatum unbekannt
Tüsiyetü Khan Abdai, Fürst der Khalka-Mongolen und ein Dschingiside (* 1554)
Giulio Sanuto, italienischer Zeichner und Kupferstecher (* 1540)
Jacopo Strada, italienischer Gelehrter, Maler, Architekt, Goldschmied, Numismatiker, Schriftsteller und Kunstsammler (* 1507)
Weblinks
|
Q6757
| 162.841936 |
55118
|
https://de.wikipedia.org/wiki/Sportler
|
Sportler
|
Als Sportler wird eine Person bezeichnet, die regelmäßig und intensiv eine oder mehrere Sportarten betreibt. Berufssportler sind von den Hobbysportlern zu unterscheiden, denn diese verdienen durch Teilnahmen an Wettkämpfen Einkommen und stehen bei einem Verein oder einer Organisation unter Vertrag.
Begriffsgeschichte
Die Bezeichnung „Sport-ler“ leitet sich ab von der Sachbezeichnung „Sport“. Aus altlateinisch dēportāre (‘wegbringen, wegtragen, fortschaffen’, spätlateinisch auch ‘belustigen, amüsieren’), gelangte der Basisbegriff als disport (‘Zeitvertreib’) bzw. to disport (‘sich vergnügen, sich unterhalten, ausgelassen sein’) zunächst in die französische und englische und in der ersten Hälfte des 19. Jahrhunderts durch Aphärese auch in die deutsche Sprache. Das englische Wort „sport“ (ursprünglich ‘Vergnügen, Kurzweil’) nahm allmählich die Bedeutung ‘Wettkampf betriebene körperliche Ertüchtigung bzw. Körperübung’ an.
Die Suffixe „–er“ bzw. „–ler“ dienen als sprachliches Mittel, um ein sogenanntes „Nomen Agentis“, also eine Personenbezeichnung, zu bilden. Während die Endung „–er“ jedoch eine seriöse Markierung bedeutete und sich bis heute in Wörtern wie „Handwerk-er“, „Gewerkschaft-er“, „Wirtschaft-erin“ oder „Wissenschaft-er“ erhalten hat, gelten die Varianten mit dem Suffix „-ler“, wie schon der Sprachkritiker Karl Kraus herausstellte, als sogenannte Pejorative, ein in der Sprachwissenschaft verwendeter Ausdruck, der so viel wie „abwertend“ oder auch „abfällig“ bedeutet. und in der Regel auch als stigmatisierend wahrgenommen wird: Bezeichnungen wie „Handwerk-ler“, „Intelligenz-ler“, „Gewerkschaft-ler“ oder „Wirtschaft-lerin“ werden als beleidigend empfunden. Diese Abwertung war ursprünglich auch mit den Wortbildungen „Wissenschaft-ler“, „Burschenschaft-ler“ und „Sport-ler“ beabsichtigt. Manche Ausdrücke sind noch heute in beiden Varianten im Umlauf, wie etwa der Begriff „Wissenschaft-er“, der in der Schweiz und in Österreich bevorzugt wird. Eine noch gesteigerte abwertende Tendenz zeigt sich in weiteren Wortbildungen wie „Bettelei“, „Werkelei“, „Sportelei“, „Schafftelei“ und in den Verbformen „werkeln“, „sporteln“, „schaffteln“.
Aus der Derivation (Ableitung) „Sport-ler“ entstanden über ein weiteres Suffix die weibliche Form der „Sport-ler-in“ und durch die Bildung von Komposita Bezeichnungen für die Aktiven in den zahlreichen Sportarten und Sportbereichen, wie „Skisportler“, „Wassersportler“, „Luftsportler“ als sportartbezogene Ableitungen oder „Amateursportler“, „Profisportler“, „Spitzensportler“ als Leistungsvarianten.
Während sich im deutschen Sprachraum die als polemischer Kampfbegriff benutzte Sprachbildung „Sport-ler“ schnell verbreitete und schließlich sogar zur beherrschenden Bezeichnung wurde, verwendete man in England das Wort Sportsman, für das kein weibliches Pendant existierte, als allgemeine Bezeichnung für einen Sport treibenden Menschen. Doch auch in deutschen Texten gab es das dem englischen Wortprofil entsprechende Wort „Sportsmann“ mit der Pluralbildung „Sportsleute“. Auch im Deutschen war eine weibliche Sprachvariante nicht üblich.
Im Gegensatz zu dem Ausdruck „Sportler“ findet sich das Wortprofil „Sportsmann“ auch in deutschen Texten nahezu durchgängig in positiver Konnotation, etwa bei den damals viel gelesenen Romanautoren Hans Fallada oder Ludwig Ganghofer. Im Gegensatz zum verfemten Sportler erscheint hier der „Sportsmann“ als ein „untadeliger“, „vorbildlicher“, „großartiger“, „fairer“, „sympathischer“ Mensch, dem Respekt gebührt.
Bedeutungswandel
Der im 18. Jahrhundert in England entstandene Begriff Sport bezeichnete ursprünglich die dort übliche spezifische Form der zum Spaß ausgeübten körperlichen Betätigungen. Der sie betreibende Mensch wurde als „sportsman“ bezeichnet und hatte eine positive Reputation.
Auf dem Festland haftete dem englischen Sporttreiben jedoch das Odium der Exklusivität an, dadurch geprägt, dass es zunächst einer elitären Bürger- und Adelsschicht vorbehalten blieb. Es entwickelte sich historisch zudem in Konkurrenz mit dem von Deutschland ausgehenden, national geprägten und allen Volksschichten zugänglichen „Turnen“ und dessen andersartiger Ideologie. Es war entsprechend auf dem Kontinent, vor allem unter dem mächtigen Einfluss der von Friedrich Ludwig Jahn ausgegangenen vaterländischen Form des „Turnens“ und der entsprechenden Turnerbewegung, verpönt.
In diesem Streit der Ideologien etablierte sich, vor allem aus den Kreisen der Turnerschaft heraus betrieben, eine kämpferische und oft agitatorisch vorgetragene Abwehr der englischen Sportvorstellungen, die sich in der Bezeichnung „Sport-ler“ und anderen Schmähwörtern manifestierte.
Der englische Sport war im krassen Gegensatz zum deutschen Turnen konkurrenz- und rekordorientiert. Er wollte im Kontrast zum Turnwesen weniger einer kameradschaftlichen Freizeitgestaltung mit pädagogischem Anspruch dienen, sondern verstand sich eher als eine die aufbrechende Leistungsgesellschaft abbildende Einrichtung.
Die typische englische Art der körperlichen Betätigung wurde auf dem Festland von neutralen Beobachtern mit ungläubigem Staunen und Verwunderung zur Kenntnis genommen. So notierte beispielsweise der österreichische Schriftsteller und Journalist Michelangelo von Zois in seinem viel gelesenen Buch über den Radrennsport vom Jahre 1908:
Drastischer formulierte und polemisierte der im Streit der Ideologien stark engagierte Turnlehrer Karl Planck in seiner Streitschrift von 1898 mit dem Titel „Fusslümmelei“. Außer der bereits auf dem Cover abgebildeten Karikatur eines englischen Sportlers zog er auch in seinem Buchtext vehement gegen die „Anglomanie“ und das „Nachäffen fremder Sitten“ zu Felde, welche auf das Festland überzugreifen drohten. Die Schmähschriften der Zeitgenossen gegen die „ungehobelten“, „groben“ und „gefährlichen“ Sportler der Insel und die entsprechende Bebilderung fokussierten sich besonders auf das Paradebeispiel „Fusslümmeln“, bei dem getreten, gerempelt und gestoßen würde. Eine Reihe dieser historischen Karikaturen der verachteten Sportler aus den Jahren 1721, 1810, 1871, 1898, 1900 und 1908 und eine Rezeption des Buches von Planck finden sich in einem Zeitschriftenbeitrag von Siegbert A. Warwitz sowie in einem Werk des Sporthistorikers F.K. Maths.
Die ursprünglich negative Konnotation des Ausdrucks „Sportler“ geriet mit der Zeit in Vergessenheit, als sich die Sportbewegung auch auf dem Festland allmählich gegen die Turnbewegung durchsetzte und mit seinen leistungs- und konkurrenzorientierten Prinzipien etablierte. Einen entscheidenden Einfluss darauf hatte der französische Baron Pierre de Coubertin mit seinem Vorstoß, die antike olympische Idee wiederzuerwecken, die er mit dem Leitwort „Citius, altius, fortius“ (Schneller, höher, stärker) versah und damit dem athletischen Vorbild der Antike und dem englischen Leistungsprinzip und Rekordgedanken nachbildete. Der Sportbegriff und die den Sport betreibenden Personen wurden in der Folge in allen Bereichen, auch in den Bergsport-, Wassersport-, Luftsportarten und den konkurrierenden Strömungen der schwedischen Gymnastik oder des deutschen Gerätturnens unter dem Begriff Sportler subsumiert. Die Bezeichnung verlor damit ihre abwertende Bedeutung. Heute finden sich die Turner, Gymnasten, Bergsteiger Kanuten, Fallschirmspringer oder Gleitschirmpiloten allesamt unter der Sammelbezeichnung „Sportler“ vereint. In Komposita werden sie in einem neutralen Begriffsverständnis nach ihren jeweiligen Sportgeräten als Skisportler, Radsportler oder Kanusportler, nach ihrem Anspruchsniveau als Hochleistungssportler, Freizeitsportler oder Breitensportler, nach dem Bereich ihrer sportlichen Betätigung als Wassersportler, Bergsportler oder Flugsportler, nach ihrem Status als Berufssportler oder Amateursportler und nach weiteren Besonderheiten, z. B. als Behindertensportler, Individual- oder Mannschaftssportler, unterschieden.
Synonyme
Als Synonyme mit einer dem Wort „Sportler“ annähernd vergleichbaren Bedeutung sind die Bezeichnungen „Athlet“ (traditioneller Begriff aus dem antiken Griechenland für einen Wettkämpfer) und „Sportsmann“ (wortgetreue Übersetzung der englischsprachigen Kennzeichnung für eine Sport betreibende männliche Person) in Verwendung.
Redewendungen
(spöttisch für den Gedanken: „sie betreiben nichts Ernsthaftes“)
Der Vater werkelt im Hobbyraum, und der Sohn sportelt auf der Wiese.
Dann werkelt oder sportelt mal schön!
Siehe auch
Sportler des Jahres
Literatur
Dudenredaktion (Hrsg.): Duden, Die deutsche Rechtschreibung. In: Der Duden in zwölf Bänden. 25. Auflage. Band 1, Dudenverlag, Mannheim/Leipzig/Wien/Zürich 2009, ISBN 978-3-411-04015-5, „Sportler“, Seite 1008.
DWDS, Stichwort „Sportler“: Das digitale Wörterbuch der deutschen Sprache des 20. Jahrhunderts
Weblinks
https://de.wiktionary.org/wiki/Sportler, Abruf am 10. Dezember 2017
https://www.dwds.de/wp/Sportsmann, Abruf am 10. Dezember 2017.
Einzelnachweise
Beruflicher Status
|
Q2066131
| 394.898229 |
843020
|
https://de.wikipedia.org/wiki/Wikipedia
|
Wikipedia
|
Wikipedia [] () ist ein gemeinnütziges Projekt zur Erstellung einer freien Enzyklopädie auf Basis des sogenannten Wiki-Prinzips.
Die Inhalte der Wikipedia werden von freiwilligen Autorinnen und Autoren erstellt und gepflegt, dafür erhalten sie keine finanzielle Entschädigung. Nach dem Prinzip des kollaborativen Schreibens sollen sie fortwährend bearbeitet und diskutiert werden. Die freiwillige Mitarbeit steht jeder Person offen. Fast alle Inhalte der Wikipedia stehen unter freien Lizenzen. Die Wikipedia bietet derzeit etwa 60 Millionen enzyklopädische Artikel und andere Inhalte wie Listen in über 300 Sprachen und Dialekten. Zu finden sind sie unter lexikalischen Einträgen (Lemmata) oder über Portale nach Themengebieten sowie Navigationsleisten.
Betrieben wird die Wikipedia von der Wikimedia Foundation (WMF), einer Non-Profit-Organisation mit Sitz in San Francisco (Vereinigte Staaten), die auch noch andere Wikis betreibt. Ihre Finanzierung erfolgt durch Spenden. In vielen Staaten der Welt gibt es zudem unabhängige Wikimedia-Vereine, die mit der Stiftung zusammenarbeiten, die Wikipedia jedoch nicht betreiben; im deutschen Sprachraum sind dies die 2004 gegründete Wikimedia Deutschland (WMDE), seit 2006 in der Schweiz die Wikimedia CH (WMCH) sowie die zwei Jahre später entstandene Wikimedia Österreich (WMAT).
Die Wikipedia wurde am 15. Januar 2001 gegründet. Gemäß Publikumsnachfrage und Verbreitung gehört sie zu den Massenmedien. Anfang Januar 2022 lag die Wikipedia auf dem vierzehnten Platz der weltweit am häufigsten besuchten Websites. In Deutschland rangierte sie auf Platz sieben, in Österreich auf Platz sechs, in der Schweiz auf Platz vier und in den Vereinigten Staaten auf Platz elf. Die Webpräsenz ist weltweit – ebenso wie in den deutschsprachigen Staaten – die einzige nichtkommerzielle Website unter den ersten 50.
Name und Logo
Der Name Wikipedia ist ein Schachtelwort, das sich aus „Wiki“ und „Encyclopedia“ (dem englischen Wort für Enzyklopädie) zusammensetzt. Der Begriff „Wiki“ geht auf das hawaiische Wort für ‚schnell‘ zurück. Wikis sind Hypertext-Systeme für Webseiten, deren Inhalte von den Benutzern nicht nur gelesen, sondern auch online im Webbrowser verändert werden können. Die Artikel sind netzartig untereinander verlinkt.
Das Logo besteht aus einer Kugel, die sich aus Puzzleteilen zusammensetzt und nicht abgeschlossen ist, weil am oberen Pol mehrere Teile fehlen. Die einzelnen Puzzleteile tragen die Aufschrift von Glyphen verschiedener Schriftsysteme. Unter der Kugel wird auf den Webseiten die Wortmarke der jeweiligen Sprachversion angezeigt.
Auch die grafischen Inhalte werden durch „Wikipedianer“ (ehrenamtliche Mitmacher) geschaffen. Die ehemals in der Schriftart Hoefler Text gesetzten Wörter „Wikipedia – Die freie Enzyklopädie“ werden im Wikipedia-Logo seit 2010 in allen Sprachausgaben der Wikipedia verwendet und mit Linux Libertine gesetzt. Seitdem ist ein eigens entworfenes gekreuztes (das ursprünglich aus zwei „V“ zusammengesetzt wurde) als OpenType-Feature in der Schrift enthalten. Der Schriftzug wird in Kapitälchen mit einem großen A am Ende geschrieben.
Geschichte
Hintergrund
Es wird angenommen, dass der erste, der die Idee hatte, das Internet zur gemeinsamen Entwicklung einer Enzyklopädie zu verwenden, der Internet-Pionier Rick Gates war. In einem nicht mehr erhaltenen Beitrag am 22. Oktober 1993 stellte er die Idee in einer Newsgroup im Usenet zur Diskussion. Das Projekt, das den Namen Interpedia erhielt, kam jedoch nicht über das Planungsstadium hinaus. Auch der 1999 von Richard Stallman angeregten GNUPedia war kein Erfolg beschieden.
Im März 2000 startete der Internet-Unternehmer Jimmy Wales mit dem damaligen Doktoranden der Philosophie Larry Sanger über das Unternehmen Bomis ein erstes Projekt einer englischsprachigen Internet-Enzyklopädie, die Nupedia. Der Redaktionsprozess der bisherigen Enzyklopädien diente der Nupedia als Vorbild: Autoren mussten sich bewerben und ihre Texte anschließend ein Peer-Review-Verfahren durchlaufen, wobei Sanger als Chefredakteur amtierte.
Gründung
Ende 2000/Anfang 2001 wurden Sanger und Wales auf das Wiki-System aufmerksam, mit dessen Hilfe Benutzer Webseiten nicht nur lesen, sondern auch direkt über den Browser verändern können. Am 15. Januar 2001 war das Wiki der Nupedia unter der eigenständigen Adresse wikipedia.com abrufbar, was seither als die Geburtsstunde der Wikipedia gilt.
Ursprünglich war die Wikipedia von Sanger auf Nupedia als „fun project“ neben der Nupedia angekündigt worden. Dank ihrer Offenheit entwickelte sich die Wikipedia jedoch – zur Überraschung von Sanger und Wales selbst – so schnell, dass sie die Nupedia in den Hintergrund rückte und im September 2003 ganz verdrängte.
Am 15. März 2001 kündigte Wales in der Wikipedia-Mailingliste an, Versionen in weiteren Sprachen einzurichten; unter den ersten waren die deutschsprachige (nur einen Tag später, am 16. März 2001), die katalanische und die französische Wikipedia. Ende 2001 existierten 18 Sprachversionen, darunter bereits eine in einer leichten Sprache (Simple-English-Wikipedia) und eine in einer Plansprache (Esperanto-Wikipedia).
Im Februar 2002 entschied sich Bomis, nicht länger einen Chefredakteur zu beschäftigen, und kündigte den Vertrag mit Larry Sanger, der wenig später seine Mitarbeit bei Nupedia und Wikipedia aufgab. Als eine der Ideen, Autoren zu motivieren, hochwertige Artikel zu schreiben, wurde am 27. August 2002 die Bewertungsstufe „exzellent“ eingeführt, mit der nach einer Abstimmung herausragende Artikel bewertet werden konnten; am 22. März 2005 folgte die in der Wertigkeit darunterliegende Stufe „lesenswert“. Bis Anfang 2016 wuchs deren Zahl in der deutschsprachigen Wikipedia auf über 3800 an, die der „exzellenten“ Artikel auf über 2400.
Zur gleichen Zeit entschlossen sich zahlreiche Autoren der spanischen Wikipedia zu einer Abspaltung und gründeten die Enciclopedia Libre Universal en Español, da sie, nach einer entsprechenden Mitteilung von Sanger, befürchten mussten, in der Wikipedia werde künftig Werbung eingeblendet. Um weitere Aufspaltungen zu verhindern, erklärte Wales im selben Jahr, dass die Wikipedia werbefrei bleiben werde. Außerdem wurde von der wikipedia.com-Website-Adresse zu der üblicherweise mit nichtkommerziellen Organisationen assoziierten Top-Level-Domain .org gewechselt.
Am 20. Juni 2003 schließlich kündigte Wales die Gründung der gemeinnützigen Wikimedia Foundation an. Er übereignete ihr die Namensrechte (die bei Bomis oder ihm persönlich lagen) und später ebenfalls die Server. Im September wurde Nupedia eingestellt. Die Foundation ist mit einer Stiftung vergleichbar, insofern sie keine Mitglieder hat. Geleitet wird sie von einem Board of Trustees (Kuratorium oder Stiftungsrat). Wales ist eines der ständigen Kuratoriumsmitglieder.
Kooperationen
Währenddessen intensivierte man, etwa in Deutschland, die Kooperation mit Wissenschaftseinrichtungen. So kam es zu einem Kooperationsvertrag zwischen Wikimedia Deutschland und dem Bundesarchiv über die kostenlose Bereitstellung von mehr als 80.000 Bildern. Im März 2009 kam es zu einem ähnlichen Vertrag mit der Universitätsbibliothek Dresden. Sie stellte 250.000 Bilddateien aus der Deutschen Fotothek zur Verfügung. 2009 stellte das Niederländische Königliche Tropeninstitut der Wikimedia 49.000 Abbildungen zur Verfügung, am 6. September 2010 folgte das Nationaal Archief mit 13.000 Abbildungen.
Vom 16. bis 17. Juni 2006 fand zur stärkeren Einbindung in die akademische Sphäre die erste Wikipedia-Academy an der Universitätsbibliothek Göttingen statt. Mit Wikipedia in den Wissenschaften folgte eine Tagung am Historischen Seminar der Universität Basel. Auf der zweiten Academy in Mainz wurde der Artikel Ludwig Feuerbach von Josef Winiger mit der Johann-Heinrich-Zedler-Medaille ausgezeichnet, die eine Jury namhafter Geisteswissenschaftler vergab. Deren Vergabe wurde ab 2007 von Wikimedia Deutschland ausgelobt. 2010 erweiterten die Träger den Preis um einen Bilderwettbewerb. Ab 2012 wurde die Medaille vom Zedler-Preis für Freies Wissen abgelöst. Erstmals wurde 2015 auch ein Preis für Besonderes langjähriges Engagement vergeben.
Das seit dem Sommer 2011 bestehende „Wikipedia Ambassador Programm“ wurde ab September in Deutschland als „Wikipedia-Hochschulprogramm“ in Kooperation mit den Universitäten Halle, Marburg, München, Potsdam und Stuttgart aufgelegt, jedoch bereits nach 15 Monaten wieder eingestellt.
Am 23. April 2014 führte die wörtliche, aber nicht angemessen gekennzeichnete Übernahme von Textbestandteilen aus Wikipedia in dem 2013 beim Verlag C. H. Beck publizierten Werk Große Seeschlachten. Wendepunkte der Weltgeschichte von Salamis bis Skagerrak von Arne Karsten und Olaf Rader dazu, dass das Werk zurückgezogen werden musste.
Am 15. Januar 2011 feierte die Wikipedia ihr zehnjähriges Jubiläum. Aus diesem Anlass fanden 470 Veranstaltungen in 113 Staaten statt.
Am 28. November 2014 befasste sich eine internationale Konferenz in der Zentralen Nationalbibliothek Florenz mit der Thematik Sfide e alleanze tra Biblioteche e Wikipedia (Herausforderungen und Allianzen zwischen Bibliotheken und Wikipedia).
Außerdem existiert eine Kooperation mit dem ZDF. Der Fernsehsender gab Ende 2019 einige Videos der ZDF-Sendereihe Terra X zur Nachnutzung frei – ein erster Erfolg der Gespräche, die Wikimedia Deutschland seit 2018 mit Vertretern von Rundfunk, Bildung, Kultur und Politik führt, um „die Freigabe wissensrelevanter Teile der öffentlich-rechtlichen Rundfunkproduktion“ für allgemeine Nutzung und Veränderung zu erreichen.
Eine andere Kooperation strebt die am 25. Oktober 2021 gegründete Tochter der Wikimedia Foundation Wikimedia Enterprise an. Als kommerzielles Projekt will sie durch Lizenzvergütungen maximal 30 Prozent der Stiftungseinnahmen erwirtschaften, indem sie Wikipedia-Inhalte verkauft. So sollen zum Beispiel Apple und Amazon dafür zahlen, dass sie mit Siri und Alexa das Wikipedia-Lexikon nutzen, was sie bisher kostenlos tun.
Einordnung in historische Prozesse, Weltkulturerbe-Chancen, Bedeutung im Netz
Zahlreiche Publikationen befassten sich fast seit der Gründung der Wikipedia mit verschiedenen Gesichtspunkten der Netzenzyklopädie, die die gedruckten Enzyklopädien inzwischen verdrängt hat. So sah Peter Burke 2012 die Wikipedia im Rahmen seiner Sozialgeschichte des Wissens als den bis dato bedeutendsten Endpunkt einer Entwicklung seit den ersten Versuchen, Wissen zu sammeln und einem größeren Publikum darzubieten.
Richard David Precht ordnet Wikipedia in seiner Betrachtung der heraufziehenden digitalen Gesellschaft im Kapitel „Abschied vom Monetozän“ dem Betätigungsfeld Allmendeproduktion zu: „So ist Wikipedia eine Allmendeweide, auf der jeder seine Schafe weiden lassen kann und auf der zum Nutzen aller gearbeitet wird.“ Zwar zeige der Blick hinter die Kulissen eine äußerst ungleiche Verteilung von Deutungsmacht; doch das Prinzip erscheint Precht gleichwohl ehrenwert. Christine Brinck verweist auf die Wikipedia als geeignetes Recherchemedium für den nötigen Kompetenzerwerb im Zuge der Digitalisierung.
2011 begann Wikimedia Deutschland eine Kampagne, um die Wikipedia zum immateriellen Unesco-Weltkulturerbe zu machen. Die Wochenzeitung Die Zeit bemerkte, dass die Anerkennung eines „digitalen Ortes“ als Kulturerbe der Menschheit ein Novum sei. Doch sei etwas anderes ebenso von Bedeutung: „Denn praktisch alle Kulturgüter der Liste wurden von oben geschaffen, von Potentaten oder Organisationen wie der Kirche angeordnet und finanziert. Die Wikipedia wäre das erste Werk darin, das von unten kommt“.
Die Website der Wikipedia lag Anfang 2016 auf Platz sieben der am häufigsten besuchten Websites, in Deutschland ebenfalls. In Österreich lag sie auf Platz sechs, ebenso in den USA und sogar auf Platz fünf in der Schweiz. Sie ist dabei mit der Top-Level-Domain .org die einzige nichtkommerzielle Website unter den ersten 50. Zum 15. Geburtstag im Januar 2016 gratulierten auch die ARD- und die SRF-Tagesschau.
Eintägige Abschaltung von mehreren Wikipedia-Sprachversionen 2019
Einem „Meinungsbild“ in der Community folgend protestierte die deutschsprachige Wikipedia am 21. März 2019 gegen die geplante EU-Urheberrechtsreform. So war die Web-Version für 24 Stunden nicht nutzbar, da alle Artikel komplett geschwärzt angezeigt wurden. Dem Protest schlossen sich weitere Wikipedia-Sprachversionen wie die dänische, tschechische oder slowakische an. Insbesondere wurde mit der Protestaktion das im Artikel 11 der EU-Urheberrechtsreform vorgesehene strenge Leistungsschutzrecht für Presseverleger sowie die in Artikel 13 verankerten Pflichten für Internet-Plattformen kritisiert. Befürchtet wird, dass mit der Einführung von Upload-Filtern unter anderem eine Einschränkung der Meinungs-, Kunst- und Pressefreiheit einhergeht. Der Protest fand großen Widerhall in der deutschsprachigen Presse.
Funktionsweise
Grundsätze
Vier Grundsätze sind den Angaben des Projekts zufolge unumstößlich und können auch nach Diskussionen nicht geändert werden. Die freiwillige Mitarbeit steht jeder Person offen, die sich an diese Grundprinzipien hält.
Wikipedia ist eine Enzyklopädie.
Beiträge sind so zu verfassen, dass sie dem Grundsatz des neutralen Standpunkts entsprechen.
Inhalte sind frei, sie müssen unter einer freien Lizenz stehen.
Andere Benutzer sind zu respektieren und die Wikiquette einzuhalten (eine Ableitung von dem Schachtelwort Netiquette, das wiederum auf das englische ‚net‘ und das französische ‚étiquette‘ für Benimmregeln zurückgeht).
Als Verhaltensvorschrift wird in der Wikiquette von Mitarbeitern gefordert, ihre Mitautoren zu respektieren und niemanden in Diskussionen zu beleidigen oder persönlich anzugreifen. Grundlage ist dabei die Regel „Gehe von guten Absichten aus!“. Die Grundsätze neutraler Standpunkt, Nachprüfbarkeit und Keine Theoriefindung (womit Originäre Forschung gemeint ist) sollen die inhaltliche Ausrichtung der Artikel festlegen. Um unweigerlich aufkommende Meinungsverschiedenheiten und Auseinandersetzungen um Artikelinhalte zu deeskalieren oder zu schlichten und um den Lesern zu ermöglichen, sich eine eigene Meinung zu bilden und um ihre intellektuelle Unabhängigkeit zu unterstützen, hat Wikipedia die Richtlinie des neutralen Standpunkts (NPOV, von englisch neutral point of view) aufgestellt. Existieren zu einem Thema verschiedene Ansichten, so soll ein Artikel sie fair beschreiben, aber nicht selbst Position beziehen. Der neutrale Standpunkt verlangt jedoch nicht, dass alle Ansichten gleichwertig präsentiert werden (siehe auch herrschende Meinung). Soziale Prozesse sollen gewährleisten, dass er eingehalten wird, was bei kontroversen Themen oft zu langen Diskussionen führt.
Welche Themen in die Enzyklopädie aufgenommen werden und in welcher Form, entscheiden die Bearbeiter in einem offenen Prozess. Konflikte entstehen in diesem Zusammenhang meist darüber, was „Wissen“ darstellt, wo die Abgrenzung zu reinen Daten liegt und was unter enzyklopädischer Relevanz zu verstehen ist. Abgesehen von groben Leitlinien, die Wikipedia von anderen Werktypen wie Wörterbuch, Datenbank, Link- oder Zitatesammlung abgrenzen, gibt es keine allgemeinen Kriterienkataloge (zum Beispiel für Biographien), wie sie in traditionellen Enzyklopädien gebräuchlich sind. Im Zweifel wird über den Einzelfall diskutiert. Empfindet ein Benutzer ein Thema als ungeeignet oder einen Artikel als dem Thema nicht angemessen, kann er einen Löschantrag stellen, über den anschließend alle Interessierten diskutieren.
Mit dem Speichern ihrer Bearbeitung geben die Autoren ihre Einwilligung, dass ihr Beitrag unter der GNU-Lizenz für freie Dokumentation (GFDL) und seit 15. Juni 2009 auch unter der Creative-Commons-Lizenz „Namensnennung – Weitergabe unter gleichen Bedingungen 4.0“ (CC-BY-SA) veröffentlicht wird. Diese Lizenzen erlauben es anderen, die Inhalte nach Belieben zu ändern und – auch kommerziell – zu verbreiten, sofern die Bedingungen der Lizenzen eingehalten werden und die Inhalte wieder unter den gleichen Lizenzen veröffentlicht werden. Durch dieses Copyleft-Prinzip ist es unmöglich, Wikipedia-Artikel und auf ihnen basierende Texte unter Berufung auf das Urheberrecht exklusiv zu verwerten.
Obwohl die Autoren überwiegend unter Pseudonym arbeiten, wird auch ihre Urheberschaft innerhalb der Wikipedia geschützt. So muss beispielsweise bei einer Zusammenführung oder Übersetzung von Artikeln oder Artikelteilen die zugehörige Versionshistorie übertragen werden, mit der sich nachvollziehen lässt, welcher Autor welchen Beitrag geleistet hat.
Aufbau
Die Wikipedia besteht aus vielen Sprachversionen, wobei jede Sprachversion eine eigene Subdomain hat (zum Beispiel de.wikipedia.org, en.wikipedia.org) und technisch ein eigenes Wiki darstellt. Die Sprachversionen sind weitgehend autark, was ihre Inhalte, Richtlinien und Organisatorisches angeht. Die enzyklopädischen Artikel werden in jeder Sprachversion individuell erstellt. Artikel zum gleichen Gegenstand in verschiedenen Sprachen und Dialekten können miteinander verknüpft werden. Sie werden jedoch üblicherweise nicht voneinander übersetzt oder inhaltlich miteinander synchronisiert.
Die Webseiten jedes Wikis sind in Gruppen aufgeteilt, die als „Namensräume“ bezeichnet werden. Der wichtigste Namensraum ist der Artikelnamensraum (ANR) mit den enzyklopädischen Artikeln. Daneben gibt es weitere Namensräume, beispielsweise den Wikipedianamensraum mit Seiten über Wikipedia-Metadiskurse, unter anderem mit den Richtlinien. Im Hilfenamensraum sind Hilfeseiten zusammengefasst, die Anleitungen zur methodischen Umsetzung von Artikelbearbeitungen enthalten. Angemeldete Benutzer verfügen jeweils über Benutzerseiten im Benutzernamensraum (BNR), die sie jeweils frei mit Inhalten füllen und gestalten können, wobei ein Bezug zu Wikipedia bestehen soll. Häufige Einträge dort betreffen persönliche Angaben zu Alter, Herkunft und Beruf, benutzerspezifische technische Hilfen, Bearbeitungsschwerpunkte, Nennung der vom Benutzer eröffneten Artikel sowie Kritik an Wikipedia.
In allen Namensräumen hat jede Seite eine ihr zugeordnete Diskussionsseite. Die Diskussionsseiten können prinzipiell genauso wie normale Seiten bearbeitet werden. Hier gibt es jedoch bestimmte eigene Konventionen, wie die Signierung und das Einrücken von Diskussionsbeiträgen, um den Diskussionsverlauf erkenntlich zu machen.
Der Inhalt aller Seiten ist als Hypertext organisiert. Querverweise und Formatierungsanweisungen geben die Autoren in einer einfachen Syntax ein. So wandelt die Software in doppelte eckige Klammern ([[...]]) gesetzte Begriffe automatisch in einen internen Link auf den betreffenden Artikel um. Existiert der verlinkte Artikel bereits, wird der Link in blauer Farbe dargestellt. Existiert der Artikel noch nicht, erscheint der Verweis in Rot, und beim Anklicken öffnet sich ein Eingabefeld, in dem der Benutzer den neuen Artikel verfassen kann. Diese einfache Verknüpfungsmöglichkeit hat dafür gesorgt, dass die Artikel der Wikipedia wesentlich dichter miteinander vernetzt sind als die anderer Enzyklopädien auf CD-ROM oder im Internet.
Neben den im Kontext angebrachten Hyperlinks auf andere Artikel bestehen noch weitere Navigationsmöglichkeiten wie Kategorien (unten auf jeder Seite), Infoboxen, Navigationsleisten oder der alphabetische Index, die jedoch eine untergeordnete Rolle spielen.
Aufgaben der Autoren
Die Wikipedia-Autoren suchen sich ihre Tätigkeitsfelder selbst. Kern ist das eigentliche Schreiben von Artikeln. Daneben beschäftigen sich Benutzer mit dem Korrekturlesen und Verbessern, Formatieren und Einordnen oder mit der Bebilderung der Artikel. Andere Benutzer schreiben oder verbessern daneben Hilfe-Seiten, betreuen neue Wikipedianer im Mentorenprogramm und beantworten Fragen im Support-Team. Administratoren, die von der Community mit einer Zwei-Drittel-Mehrheit gewählt werden, fördern die Durchsetzung von „Recht und Ordnung“, zum Beispiel durch das Sperren von „Vandalen“, Nutzern, die Artikel verfälschen, löschen, unenzyklopädisch arbeiten oder andere Benutzer beschimpfen oder beleidigen. Wikipedianer mit Programmierkenntnissen erstellen Hilfsprogramme zur Unterstützung der Arbeit an der Wikipedia.
Organisationsstruktur
Betreiber der Wikipedia ist die Wikimedia Foundation mit Sitz in San Francisco. Die einzelnen Sprachversionen der Wikipedia sind nach dem gleichen Grundkonzept aufgebaut, genießen aber große Eigenständigkeit.
Die Organisationsstruktur wird hauptsächlich durch in informellen Organisationsprozessen entstandene Normen bestimmt. Benutzer können sich mit ihren Beiträgen in der Gemeinschaft (Community) einen Ruf erwerben. Neben der Überzeugungskraft von Argumenten spielt der – etwa durch Fachkenntnis in bestimmten Gebieten, aber auch durch Aufnehmen von Kontakten und Bilden von informellen Cliquen erworbene – soziale Status innerhalb der Wikipedia-Gemeinschaft eine Rolle für die Akzeptanz von Bearbeitungen im Artikelnamensraum.
Angemeldete Benutzer, die bereits eine bestimmte Zahl von Bearbeitungen vorgenommen haben, verfügen über zusätzliche Rechte. Besonders engagierte Teilnehmer können von der Autorengemeinschaft zu Administratoren gewählt werden. Administratoren haben erweiterte Rechte und Aufgaben, wie das Recht, die Bearbeitung von umstrittenen Artikeln für nicht angemeldete Benutzer zu sperren oder Bearbeiter zeitweise auszuschließen, die grob oder wiederholt gegen die Regeln verstoßen.
Die meisten Regeln der Wikipedia entstehen dadurch, dass viele Teilnehmer einen einzelnen Vorschlag aufgreifen und anwenden. Wird ein derartiger Vorschlag von einer qualifizierten Mehrheit der Benutzer getragen, gilt er als akzeptiert und kann zur Regel werden.
Bei umstrittenen Entscheidungen wird in der Wikipedia traditionellerweise versucht, einen Konsens zu finden. In der Praxis ist ein echter Konsens unter der Vielzahl von Mitarbeitern jedoch oft nicht möglich. In solchen Fällen werden die Entscheidungen in Verfahren getroffen, die zwischen Diskussion und Abstimmung anzusiedeln sind.
Den größten persönlichen Einfluss – vor allem in der englischsprachigen Wikipedia – hat der Gründer Jimmy Wales, der zu Beginn Konflikte in der Gemeinschaft schlichtete. Einen Teil seiner Aufgaben in der englischsprachigen Wikipedia übertrug er Anfang 2004 einem von den Teilnehmern gewählten „arbitration committee“. Diese einem Schiedsgericht vergleichbare Institution existiert auch in anderen Sprachversionen, unter anderem in der deutsch- und französischsprachigen Wikipedia, wobei sich die jeweiligen Befugnisse deutlich unterscheiden.
Mit der Zeit haben sich gegensätzliche Überzeugungen herausgebildet, wie sich die Wikipedia entwickeln soll. Eine wesentliche Meinungsverschiedenheit besteht zwischen den „Inklusionisten“ und den „Exklusionisten“. Dabei plädieren die Inklusionisten dafür, möglichst viele Informationen in die Wikipedia aufzunehmen und möglichst keine Artikel zu löschen. Ein Projekt, das aus dieser Auseinandersetzung im englischsprachigen Raum hervorging, war die Deletionpedia. Die Gegenposition vertreten die Exklusionisten, die davor warnen, allzu detaillierte und irrelevante Informationen aufzunehmen.
Finanzierung
Die Wikipedia finanziert sich ausschließlich über Spenden von Privatpersonen und Unternehmen, wobei Spendenaktionen nur so lange laufen, bis die vorgegebene Spendensumme erreicht wird. Kritisiert wurde, dass die Spendenaufrufe immer höhere Summen als Ziel haben, obwohl die Wikimedia Foundation 2015 über ein Vermögen von 78 Millionen Dollar verfügte.
Die Gesamteinnahmen (einschließlich Zinserträge) im Geschäftsjahr 2022/2023 betragen 175 Mio. USD. Die Ausgaben verteilen sich auf 3 verschiedene Bereiche: rund 76 % der Ausgaben (132,8 Mio. USD) wurden für Programmarbeit aufgewendet, rund 10 % (17,7 Mio. USD) für Fundraising und rund 14 % (24,5 Mio. USD) für allgemeine Kosten und Verwaltung.
Programmarbeit ist zum einen die Weiterentwicklung der zugrunde liegenden Software und der Serverinfrastruktur, diese umfasst rund 45 % der Ausgaben. Dies betrifft zum Beispiel die leichtere Handhabbarkeit der Software, um auch für nicht-technik affine Autoren zugänglich zu sein, Upgrades an der Software, Datensicherheit und Investitionen in die Serverfarmen. Weitere 31 % der Ausgaben der Kategorie Programmarbeit fließen in die Unterstützung der inhaltlichen Arbeit, zum Beispiel durch rechtliche Unterstützung im Bereich von Urheberrechtsfragen, Unterstützung von lokalen Communitys und Vor-Ort-Veranstaltungen. Wesentlich ist, dass die inhaltliche Weiterentwicklung der Artikel nur von Ehrenamtlichen gewährleistet ist und von der Wikipedia Foundation nicht finanziell unterstützt wird. Daher ist diese Position auch nicht in der Übersicht enthalten.
Die gesamten Vermögenswerte der Wikipedia Foundation beliefen sich Juni 2022 auf 250,9 Mio. USD, die Verbindlichkeiten und das Nettovermögen beliefen sich auf die gleiche Summe. Die Bilanz ist damit ausgeglichen. Von den Ausgaben ist der größte Posten Gehälter, dieser belief sich auf 88 Mio. USD.
In den letzten 3 Jahren (Stand 2023) ist die Wikimedia Foundation schnell gewachsen, allein 2020 sind 200 neue Mitarbeiter dazugekommen. Laut WMF soll sich das im Haushaltsjahr 2022–2023 nicht wiederholen, der Fokus liege auf Stabilisierung und Ausbau der vorhandenen Ressourcen. Der Gesamtanstieg beinhaltet auch gestiegene Mittel für andere Teilorganisationen, so fließen zum Beispiel zusätzlich 2,4 Mio. USD in die Weiterentwicklung von Wikidata.
An der Finanzierung der Wikipedia beteiligen sich auch die nationalen Wikimedia-Chapter, die sonst relativ eigenständig sind. In Deutschland gibt es zwei Wikipedia-bezogene Organisationen: Wikimedia Deutschland e.V. (WMDE) und dessen 100%iger Tochter Gemeinnützige Wikimedia Fördergesellschaft mbH (WMFG). Die WMFG ist die Empfängerin der Spenden, diese leitet auch einen Teil an die US-amerikanische Wikimedia Foundation (WMF) weiter, um den Betrieb und Ausbau der verschiedenen Wikimedia-Projekte zu unterstützen.
Die WMDE hatte 2021 Erträge im Umfang von 11 Mio. €, davon entfielen 3,9 Mio. € auf Spenden und 2,5 Mio. € auf Mitgliedsbeiträge und 2,4 Mio. € auf Projektförderung der WMF. Die WMFG hatte 11,9 Mio. € durch Spenden eingenommen. 8,8 Mio. € wurden von der WMFG an die Muttergesellschaft WMF weitergeleitet. Die Ausgaben in Deutschland entfielen auf folgende Bereiche:
Wikimedia Deutschland hat 2023 rund 150 Angestellte und betrieb lange den Toolserver, auf dem Werkzeuge für Wikipedia-Autoren bereitstanden, inzwischen jedoch nur noch den Kartenserver OpenStreetMap.
Wikimedia Österreich hatte 2021 Ausgaben von 303,9 k€, davon wurden 168 k€ für Personal, 49 k€ für Operations und 77,6 k€ für Community Unterstützung ausgegeben.
Technik
Wikipedia basiert auf der Software MediaWiki und läuft auf Linux-Servern, überwiegend auf der Server-Variante von Ubuntu, und mit einigen OpenSolaris-Servern für ZFS. HTTP-Anfragen gelangen zuerst an Varnish-Caches, die nicht angemeldete Besucher, die nur lesen wollen, mit vorgenerierten Seiten versorgen. Die anderen Anfragen kommen an load-balanced Server auf Basis der Software Linux Virtual Server, von wo sie zu einem der Apache-HTTP-Server gelangen. Dieser nutzt die Skriptsprache PHP und die Datenbank MariaDB, um die Seiten benutzerspezifisch zu generieren. Die MariaDB-Datenbank läuft auf mehreren Servern mit Replikation im Master-Slave-Betrieb.
Mit steigenden Zugriffszahlen erhöhten sich die Anforderungen an die Hardware. Waren es im Dezember 2003 noch drei Server, sind zum Betrieb der Wikipedia und ihrer Schwesterunternehmungen im September 2014 mittlerweile 480 Server in Tampa, Amsterdam und Ashburn im Einsatz, die von einem Team sowohl ehrenamtlicher als auch fest angestellter Administratoren betreut werden. Das Prinzip, die Server nach berühmten Enzyklopädisten zu benennen, wurde 2005 aufgegeben.
Wikipedia-Server verarbeiten zwischen 25.000 und 60.000 Zugriffe pro Sekunde, je nach Tageszeit.
Mehrere Unternehmen und Organisationen boten in der Vergangenheit der Wikimedia Foundation ihre Unterstützung an.
Die Entwicklung der Software, etwa den Einbau neuer Funktionen, bestimmt das von der Community unabhängige Team der Programmierer, das einerseits versucht, sich an den Wünschen der Nutzer zu orientieren, andererseits neue Ideen, wie zum Beispiel Erweiterungen, von außerhalb zu implementieren.
Hauptseite
Jede Sprachversion der Wikipedia hat eine eigene Hauptseite, die individuell gestaltet wird. In den meisten Sprachversionen wird zu Anfang der Hauptseite Wikipedia kurz vorgestellt, die aktuelle Artikelanzahl angegeben und stellenweise auf weiterführende Links, etwa Portalseiten, verwiesen. Es folgen Rubriken, wo Artikel der Wikipedia auf unterschiedliche Art und Weise vorgestellt werden. Die meisten Sprachversionen weisen eine Rubrik Artikel des Tages auf, in der ein spezieller, ausgezeichneter Artikel umrissen wird, ferner eine Rubrik In den Nachrichten, in der anhand des Tagesgeschehens auf Artikel verwiesen wird, eine Rubrik Was geschah am…?, in der auf historische Ereignisse verwiesen wird, sowie eine Rubrik Schon gewusst?, in der neu angelegte Artikel vorgestellt werden. Teilweise wird auf das Bild des Tages aus Wikimedia Commons, auf andere Wikiprojekte oder andere ausgewählte Sprachversionen verwiesen.
Bewertung der Artikel, Anreize
Die Wikipedia Community setzt verschiedene Anreize für Autoren, Artikel zu verfassen und gute Artikel zu schreiben. Dafür gibt es beispielsweise den Artikelmarathon, den Denkmal-Cup oder den Schreibwettbewerb. Stellt ein Artikel umfassend, fachlich korrekt, valide belegt, allgemeinverständlich und anschaulich dar, kann er sich auch für eine Prädikatsauszeichnung bewerben und wird von der Gemeinschaft innerhalb einer bestimmten Zeit bewertet. Ist die Kandidatur erfolgreich, kann der Artikel die Auszeichnung lesenswert erhalten. Hat er sogar herausragende Qualität, kann er als exzellent ausgezeichnet werden. Darüber hinaus können gute Listen und Portale das Prädikat informativ erhalten. Solchermaßen ausgezeichnete Artikel sollen anderen Autoren als Musterbeispiel zur Erstellung von Artikeln hoher Qualität dienen. Sie werden ferner in der Regel auf der Hauptseite der Wikipedia präsentiert. Ein weiterer Wettbewerb, der kalenderjährlich angeboten wird, ist der WikiCup, bei dem Artikelschreiber und Fotografen Punkte sammeln können. Quartalsweise werden die Punktbesten ermittelt, die dann in die nächste Runde vorrücken, bis am Ende des Jahres ein Punktsieger feststeht.
Bots
Einige Sprachversionen der Wikipedia nutzen Bots, Computerprogramme oder Skripte, die ihren Betreibern automatisierbare regelmäßige oder wiederholende Aufgaben abnehmen (zum Beispiel Tippfehlerkorrekturen). Sie werden vereinzelt auch eingesetzt, um automatisch Artikel zu erstellen. Das wird häufig kritisiert und von einigen Sprachversionen abgelehnt, weil dadurch massenhaft sehr kurze Artikel entstehen; das zeigt sich beispielsweise bei der Volapük-Wikipedia oder der niederländischsprachigen Wikipedia.
Innerhalb von 18 Monaten konnte die niederländische Wikipedia ihren Artikelbestand von 768.520 auf 1.548.591 erhöhen, da ihre Anzahl durch automatisierte Skripte drastisch erhöht wurde. Deren Qualität ist allerdings umstritten. Ähnlich hohe Zahlen erreichte dadurch die schwedischsprachige Wikipedia.
Kategorisierung von Artikeln
Kategorien sind in der Wikipedia ein Mittel, mit dem Seiten nach bestimmten Merkmalen eingeordnet werden können. Eine Seite kann einer oder mehreren Kategorien zugewiesen werden; die Kategorien können ihrerseits wieder anderen Kategorien zugeordnet sein. Sie werden stets am Ende einer Seite angezeigt. Dadurch entsteht eine inhaltliche Systematik und Artikel können unterschiedlichen Themenbereichen zugewiesen werden. Sie bilden dadurch die Grundlage für statistische Auswertungen über die Zusammensetzung der Artikel. Stammverzeichnis des Kategoriesystems der Wikipedia ist die !Hauptkategorie.
Relevanzkriterien und Löschdiskussionen
Die Entscheidung für oder gegen die Aufnahme in eine Enzyklopädie richtet sich auch danach, ob Personen, Ereignisse oder Themen mit aktuell breiter Öffentlichkeitswirkung nach sinnvollem Ermessen auch zeitüberdauernd von Bedeutung sein werden. Auch anhaltende öffentliche Rezeption kann ein Anhaltspunkt für Relevanz sein. Damit möglichst wenig Zweifelsfälle entstehen, sind die Relevanzkriterien aus dem mehrjährigen Konsens entstanden.
Entspricht ein Artikel nicht den Relevanzkriterien, kann er gelöscht werden; das gilt auch für mangelnde Qualität, Vandalismus, Urheberrechtsverletzung etc. Dabei gibt es zwei Möglichkeiten der Löschung: Bei offensichtlichen Fällen oder bei bereits früher gelöschten Artikeln gibt es einen Schnelllöschantrag, der Artikel wird dann meist innerhalb weniger Minuten von einem Administrator gelöscht. Meist wird jedoch im Rahmen einer Löschdiskussion für mindestens 7 Tage diskutiert, ob ein Artikel den Regeln entspricht und ob er gelöscht werden soll.
Martin Haase, Sprachwissenschaftler, Mitglied der Piratenpartei und des Chaos Computer Clubs und ehemaliges Vorstandsmitglied bei Wikimedia Deutschland, betonte 2011, dass es mit Blick auf die Frage, wie das freie Wissen gesammelt werden soll – eher breit oder eher tief –, Unterschiede zwischen der deutschsprachigen Wikipedia „und dem ganzen Rest“ gebe. In der deutschsprachigen Wikipedia seien „bestimmte Relevanzkriterien [der gedruckten Lexika] unreflektiert übernommen“ worden, „die heute aufzubrechen […] fast nicht möglich“ sei.
Probleme kollaborativer Texterstellung
Das Wiki-System sieht vor, dass jeder Besucher der Wikipedia-Webseiten Artikel und Beiträge verfassen und Texte ändern kann, ohne sich anmelden zu müssen. Eine Anmeldung mit eigenem Benutzernamen wird allerdings gerne gesehen und bringt auch gewisse Vorteile für den Benutzer mit sich. Jede Seite verfügt über eine eigene Diskussionsseite, auf der jeder Benutzer Verbesserungs- oder Änderungsvorschläge einbringen kann. Sie kann zudem Aufschluss über die Entwicklungsgeschichte eines Artikels und eventuelle Kontroversen geben. Mehrere Themenbereiche unterhalten Fachredaktionen. Mit Redaktionen sind Plattformen gemeint, auf denen Ansprechpartner für Fragen, Anregungen und Diskussionen zu einem bestimmten Themengebiet bereitstehen. Einige der Redaktionen sind ausgesprochen fachspezifisch, wie die Redaktion Chemie, die Redaktion Geschichte, die Redaktion Musik oder die Redaktion Medizin, um nur einige Redaktionen exemplarisch zu nennen. Weitere Redaktionen wurden eingerichtet, um speziell bei fachübergreifenden Anfragen zur Verfügung zu stehen. Das Prinzip basiert auf der Annahme, dass sich die Benutzer gegenseitig kontrollieren und korrigieren. Wer Fachwissen beisteuern kann, ist eingeladen, sich auf der jeweiligen Liste der Ansprechpartner einzutragen.
Das Wiki-Prinzip bezeichnet funktionale und psychosoziale Merkmale, die beim Einsatz von Wiki-Software charakteristisch sind. Kennzeichnend für das Wiki-Prinzip ist ein Mehrwert gegenüber der reinen Funktion der Wiki-Software, der durch die gegenseitige Beeinflussung von Inhalt und Kommunikation (Stigmergie) entsteht. Damit erfüllt das Wiki-Prinzip alle wesentlichen Merkmale einer Kulturtechnik.
„Edit-Wars“ und Sperrungen
Bei sehr strittigen Artikelinhalten kann es zu Edit Wars („Bearbeitungs-Kriegen“) zwischen verschiedenen Bearbeitern kommen, die sich typischerweise so äußern, dass die jeweilige Änderung des anderen wiederholt rückgängig gemacht wird. Falls sich das über eine Weile hinzieht und keine der Parteien nachgeben oder sich auf einen Kompromiss einigen will, kann der betreffende Artikel durch Administratoren für eine Weile vor Bearbeitungen geschützt werden. Das soll dazu dienen, dass die Auseinandersetzung von der Ebene des gegenseitigen Löschens auf die Ebene der inhaltlichen Auseinandersetzung um die strittigen Inhalte, beispielsweise auf der Diskussionsseite des Artikels, transferiert wird. Nach einer Weile wird der Seitenschutz des Artikels meist wieder aufgehoben.
Anstelle eines vollständigen Seitenschutzes kann auch ein Halbschutz verhängt werden. Dies führt dazu, dass ein Artikel nur noch von Benutzern bearbeitet werden kann, die schon eine gewisse Zeit angemeldet sind, nicht aber von nicht oder neu angemeldeten Benutzern. Das Mittel des Halbschutzes dient vor allem der Abwehr von Vandalismus von unangemeldeten Benutzern. Auch dieses Mittel ist nur für den vorübergehenden Einsatz gedacht.
Als „Sockenpuppe“ oder Mehrfachkonto wird ein zusätzliches Benutzerkonto eines angemeldeten Wikipedianers bezeichnet. Diese Mehrfachkonten dienen vielfach dem Schutz der sich dahinter verbergenden Person, werden häufig aber auch missbraucht, um bei Diskussionen Mehrheitsmeinungen vorzutäuschen, interne Wahlen und Abstimmungen zu beeinflussen oder den Urheber von Vandalismus zu verschleiern. Der Missbrauch von Sockenpuppen kann durch „Checkuser“ kontrolliert und gegebenenfalls bestraft werden und zu Benutzersperrungen führen. Ebenfalls können Beleidigungen, Drohungen und das Fortsetzen von Edit-Wars zu Benutzersperrungen führen, die je nach Fall temporär oder dauerhaft verhängt werden.
Vandalismus und das Sichten von Artikeln
Unter Vandalismus wird im Kontext der Wikipedia die Änderung von Textinhalten oder Bildern durch Benutzer mittels Einstellung offensichtlich unsinniger oder beleidigender, diffamierender, vulgärer oder obszöner Inhalte verstanden. Vandalismus wird typischerweise durch unangemeldete Benutzer verübt, die nur über ihre IP-Adresse identifizierbar sind. Vandalismus durch angemeldete Benutzer ist selten und kann zur Folge haben, dass der entsprechende Benutzeraccount „gesperrt“ wird, um die Person von der weiteren Artikelarbeit auszuschließen. Es wurde beobachtet, dass sich in der Wikipedia manchmal Trolle betätigen, die Vergnügen daran finden, der Gemeinschaft oder einzelnen Menschen zu schaden.
Von Vandalismus sind vor allem Artikel betroffen, die sich mit kontroversen Inhalten oder umstrittenen Persönlichkeiten befassen. So waren beispielsweise die Biografie-Artikel von George W. Bush und Tony Blair in der englischsprachigen Wikipedia während des Irakkrieges häufig von Vandalismus betroffen. Regelmäßig trifft Vandalismus aber auch Artikel zu Themen, die abseits des Mainstreams liegen.
Die deutschsprachige Wikipedia hat im Mai 2008 das System der Sichtung eingeführt. Dadurch wird allen unangemeldeten Benutzern standardmäßig die letzte gesichtete Version eines Artikels angezeigt. Inhaltsänderungen eines Bearbeiters ohne „Sichter-Status“ werden erst dann für die Allgemeinheit sichtbar, wenn ein Benutzer mit Sichter-Status sie freigeschaltet hat. Ziel des Systems der Sichtungen ist es vor allem, offensichtlichen Vandalismus, der meist durch unangemeldete Benutzer erfolgt, unattraktiver zu machen. Seit Einführung der Sichtungen ist der Vandalismus in der deutschsprachigen Wikipedia zurückgegangen.
Beim Sichter-Status werden „passive Sichter“ und „aktive Sichter“ unterschieden. Bearbeitungen von passiven Sichtern müssen nicht mehr von anderen Personen kontrolliert werden, während aktive Sichter auch die Bearbeitungen anderer Benutzer kontrollieren dürfen. Den Status des passiven oder aktiven Sichters erwirbt ein angemeldeter Benutzer automatisch, sobald er eine definierte Zeit lang im Projekt aktiv war, eine bestimmte Anzahl von Bearbeitungen getätigt hat und nicht durch Regelverstöße oder destruktives Verhalten aufgefallen ist.
Auch in anderen Sprachversionen, so der russisch- und der polnischsprachigen Wikipedia, wurde das Prinzip der Sichtung übernommen.
Der Umgangston
In der Wikipedia treffen unterschiedliche Charaktere in der Anonymität des Internets und meist mit Pseudonymen aufeinander. Der überwiegend sachliche Ton unter den Wikipedianern soll – auch bei Meinungsverschiedenheiten – zum Konsens führen. Dafür dienen die Diskussionsseiten, die zu jedem Artikel im Artikelnamensraum (ANR) angelegt werden können. Ein kleiner Teil der Autoren, auch einzelne Administratoren, halten sich jedoch nicht an die allgemeinen Regeln zum Umgangston untereinander. Im Beitrag Wikiliebe wird eine generelle Einstellung der Kollegialität und Gemeinsamkeit in der Wikipedia beschrieben. Auf einer eigenen Seite sind daneben die Grundregeln für das Miteinander zusammengestellt. Die wichtigste lautet: „Es gibt keine Rechtfertigung für Angriffe auf andere Benutzer.“ Trotzdem kommen Beleidigungen, Herabwürdigungen, üble Nachreden und Verleumdungen durch falsche oder nicht nachweisbare Tatsachenbehauptungen oder Diskreditierungen vor, bis hin zu persönlichen Drohungen und Drohungen zur Einleitung rechtlicher Schritte.
Zur Eindämmung dieses Verhaltens gibt es wikipediainterne Maßnahmen. So können angegriffene Benutzer das auf der Seite Vandalismusmeldung kundtun. Administratoren können schlichtend eingreifen, aber auch ohne Vorwarnung mit einer befristeten Schreibzugriffssperre oder einer unbefristeten Benutzersperrung Übergriffe ahnden. Ein Administrator legt Form und Dauer der Sanktion fest. Wiederholte Ausfälle führen in der Regel zu Sanktionsverschärfungen bis hin zum Ausschluss.
Autoren wiederum können sich gegen Sanktionen zur Wehr setzen. Dafür gibt es die Sperrprüfung, den Vermittlungsausschuss, das Schiedsgericht zur Lösung von Konflikten zwischen Benutzern und schließlich eine Meldeseite bei Konflikten mit Administratoren.
Universeller Verhaltenskodex für Wikipedia
20 Jahre nach der Entstehung der Wikipedia führt die Wikimedia Foundation einen universellen Verhaltenskodex (UV) ein. Ziel ist es, die bestehenden Richtlinien des Projektes zu erweitern und so einen globalen Rahmen von Community-Standards für den Umgang innerhalb aller Wikimedia-Projekte zu schaffen.
Zitierfähigkeit
Der Wikipedia ist oft die Zitierfähigkeit abgesprochen worden. Die Fakultät für Physik der Universität Wien gestattete 2008 explizit, die Wikipedia zu zitieren. In der deutschsprachigen Wikipedia müssen seit Mai 2008 Wikipedia-Beiträge von IPs und von Anfängern gesichtet werden, bevor sie angezeigt werden. Vorher dominierte die Meinung, die deutschsprachige Wikipedia sei wegen der großteils anonymen Autoren unzuverlässig, wenig vertrauenswürdig, habe zu geringe Qualitätsstandards und sei anfällig für Vandalismus und die inhaltliche Beeinflussung durch Unternehmen und Organisationen. Spätere Untersuchungen der zwischenzeitlich erheblich weiterentwickelten Wikipedia haben belegt, dass eine problembewusste Nutzung der Wikipedia als Informationsquelle sehr wohl möglich ist.
Verbote, Wikipedia im Rahmen der universitären Lehre als „Quelle“ zu nutzen, stehen der Praxis einer angemessenen Zitation der Wikipedia auch im akademischen, politischen und juristischen Bereich gegenüber. Mit Blick auf die Zitierfähigkeit sind Vorschläge erarbeitet worden, ebenso Hinweise auf Möglichkeiten, wie die Wikipedia für die universitäre Didaktik genutzt werden kann, etwa als Mittel zu einer qualitativen Verbesserung der Enzyklopädie im Interesse der Geschichtswissenschaft. Im akademischen Bereich wird die Wikipedia reichlich genutzt.
Sie wird aber selten als Quelle genannt; stattdessen wird in Wikipedia-Artikeln als Beleg vorhandene oder auf andere Weise erschlossene zitierfähige Literatur angegeben.
Bei Jugendlichen gilt Wikipedia als besonders vertrauenswürdige Quelle. Catarina Katzer schrieb 2016, es sei allgemein wenig bewusst, dass in der Wikipedia auch lücken- oder fehlerhafte Beiträge stehen. „Wikipedia ist weltweit eine Online-Marke für Wissen geworden – und dieses Image hat sich bereits in unser Gehirn eingebrannt.“
Eine 2023 erschienene Studie, die qualitativ die Entwicklung der englischsprachigen Wikipedia untersuchte, kam zum Ergebnis, dass diese zu Beginn eine zweifelhafte Quelle war, anschließend aber immer zuverlässiger wurde. Während am Anfang die Forderung nach neutraler Darstellung so interpretiert worden sei, dass es u. a. durch Falsche Ausgewogenheit und ähnliche Darstellungsweisen zu einer Normalisierung von Pseudowissenschaft, Verschwörungstheorien, randständigen Meinungen und Extremismus gekommen sei, habe die Forderung nach neutraler Darstellung im Laufe der Zeit eine Neuinterpretation erfahren. Durch diesen Wandel in der Autorenschaft sei die Wikipedia sukzessive zu einer Plattform geworden, die als Faktenprüfer fungiere, proaktiv Außenseitermeinungen identifiziere und sie widerlege. Dabei sei es zu einer internen Machtverschiebung von Autoren, die Pseudowissenschaften und Verschwörungstheorien pushten, hin zu anderen Autoren gekommen, die sich dezidiert gegen Außenseitermeinungen aussprachen, woraufhin sich letztere zunehmend durchsetzten, während erstere demotiviert wurden und sich eher zurückzogen.
Digitale Kluft
Angesichts der digitalen Kluft bestehen bezüglich des Zugangs zu PC, Internet und somit Wikipedia sowohl global als auch lokal erhebliche Niveauunterschiede. Sie stehen dem Ideal der für jedermann gleichermaßen verfügbaren Enzyklopädie entgegen. In globaler Hinsicht verursachen sie zudem ein unerwünschtes Gefälle in der Vollständigkeit des enzyklopädischen Wissens.
Ein Blick auf die Zahl der Artikel zu Aspekten der Staaten rund um das Mittelmeer verdeutlicht – neben anderen Ursachen wie den Themenvorlieben der ehrenamtlich arbeitenden Autorenschaft – dieses Gefälle. Der Artikelbestand mit Bezug zu Deutschland (), Schweiz () und Österreich () ist besonders hoch; mit Bezug zu dem deutschen Sprachraum direkt benachbarten Staaten wie Frankreich () und Italien () besteht auch noch eine relativ hohe Zahl an Artikeln. Dagegen hinkt die Repräsentation anderer Staaten in der deutschsprachigen Wikipedia deutlich hinterher. Während weitere Mittelmeeranrainerstaaten wie Spanien () und die Türkei () inzwischen aufholen, sind beispielsweise Staaten aus der Sahelzone – wie der Tschad mit Artikeln – bislang deutlich unterrepräsentiert.
Machtprozesse
Wie stark sich die Organisationshierarchie gemäß dem Ehernen Gesetz der Oligarchie entwickelt, wird bisher wenig diskutiert. Während Adrian Vermeule von der Harvard Law School 2008 davon ausging, dass auch die Wikipedia darin den Gesetzmäßigkeiten aller Wissensgemeinschaften unterliege, also eine Tendenz zur Abschottung durch Selbstergänzung der Experten, mithin der Langzeit-Wikipedianer bestehe, sah der Soziologe Christian Stegbauer 2009 eher den Aspekt einer aufkeimenden Bürokratenmacht, die er in den Administratoren festmachen zu können glaubte. Im Unterschied zu individualistischen Handlungstheorien oder bloßen Ableitungen aus Strukturen resultieren seiner Auffassung nach die Handlungen der Akteure aus der Positionierung in einem Netzwerk (relationale Perspektive). Stegbauer konstatiert einen Wandel der egalitären Anfangs- zu einer Produktideologie, die die Wikipedia nunmehr als Marktteilnehmer wahrnehme, die in Konkurrenz zu anderen Online-Enzyklopädien stehe. Die Qualität der Inhalte rangiere nunmehr vor der Partizipation aller oder zumindest möglichst vieler. Darüber hinaus glaubt Stegbauer eine Zentrum-Peripherie-Struktur feststellen zu können, bei der zentrale Teilnehmer aufgrund höherer Aktivität und eines ausgeprägten sozialen Zusammenhalts über erhebliche Entscheidungsgewalt verfügen. Schließlich soll das Führungspersonal auch ein informelles Netzwerk, das sich etwa bei physischen Treffen der „Stammtische“ manifestiere, entwickelt haben. Diese Auffassung und ihre Grundannahmen wurden in einer Rezension der Medienwissenschaftlerin Linda Groß bemängelt, denn „sowohl der Einfluss von Normen auf das Handeln als auch die kommunikative Herstellung der Verhaltenskonventionen werden in der Untersuchung nicht berücksichtigt.“
Piotr Konieczny arbeitete in einem Aufsatz heraus, dass seit längerem mitarbeitende Autoren einen gewissen Machtvorsprung bei der Arbeit an Artikeln hätten. Jedoch verhinderten nach seiner Auffassung verbesserte Kommunikationsmöglichkeiten, breitere Partizipation und höhere Transparenz, dass das besagte eherne Gesetz greife, zumal niemand zur Wikipedia beitrage, um in deren Hierarchie aufzusteigen, da materielle Anreize fehlen würden.
Der Soziologe René König beobachtet wissenssoziologische Machtprozesse in der deutschsprachigen Wikipedia. Am Beispiel von Verschwörungstheorien zu den Anschlägen vom 11. September 2001 zeigt er auf, wie Anhänger der „Wahrheitsbewegung“ scheiterten, als sie unter Hinweis auf den Neutralitätsgrundsatz alternative Sichtweisen auf die Ereignisse in den Artikel einbringen wollten. Dies wurde unter Hinweis auf das Verbot originärer Forschung unterbunden. Da es, wie bei einem Laienprojekt zu erwarten, allen an der Diskussion Beteiligten an Expertise gemangelt habe, sei eine offene Deliberation der zahlreichen Details und eine diskursive Abwägung der unterschiedlichen Positionen gescheitert. Stattdessen hätten Strategien der Kanalisierung und der Exklusion gegriffen, indem Inhalte, die nicht dem Mainstream entsprachen, in den Artikel Verschwörungstheorien zum 11. September 2001 ausgelagert worden seien. Diese Praxis sei schließlich auch auf der Diskussionsseite des Artikels angewandt worden, so dass nicht einmal dort von der offiziellen Version abweichende Inhalte zur Sprache gebracht werden konnten. König sieht die Wikipedia in einem „partizipativen Dilemma“: Einerseits sei sie abhängig vom aktiven Partizipationswillen von möglichst vielen Laien, andererseits führe deren massenhafte Partizipation dazu, dass als Kriterium für die Aufnahme von Inhalten „wieder nur die etablierten Wissenshierarchien“ genutzt würden, wodurch das Potenzial der Wikipedia begrenzt werde.
Autoren
Identität und Sachkompetenz
Die Identität der Wikipedia-Autoren („Wikipedianer“) ist meist nicht bekannt. Ein erheblicher Anteil arbeitet unangemeldet, also ohne Benutzerkonto mit. Angaben zur eigenen Person machen viele angemeldete Autoren auf ihrer Benutzerseite, doch sind sie freiwillig und nicht überprüfbar. 2007 geriet der Fall des 24-jährigen US-amerikanischen Wikipedia-Autors Essjay in die Schlagzeilen, der sich als Universitätsprofessor ausgegeben hatte und in der englischsprachigen Wikipedia in die höchsten Community-Ämter aufgestiegen war. Teilweise werden Inhalte für Wikipedia auch in Zusammenarbeit mit Institutionen erstellt: Beispielsweise war es zeitweise möglich, an der Universität Heidelberg einen Wikipedia-Eintrag statt einer Hausarbeit zu erstellen.
Im Juni 2014 änderte die Wikimedia-Foundation die Nutzungsbedingungen: Nun müssen sich Autoren zu erkennen geben, die Beiträge im Namen von Unternehmen usw. erstellen und dafür bezahlt werden. Anfang September 2015 sperrte die englische Wikipedia 381 Nutzerkonten von Autoren, die gegen Geld Artikel geschrieben hatten, ohne ihre Auftraggeber anzugeben. Eine organisierte Gruppe habe von Personen und Unternehmen teils sogar Geld für den „Schutz“ oder die Aktualisierung ihrer Artikel verlangt. 210 Artikel wurden zunächst gesperrt.
Sozialstruktur und Geschlechterkluft
Die Sozialstruktur der Wikipedia-Autoren zu ermitteln, ist ein schwieriges Unterfangen. Vielfach werden bloße Umfragen eingesetzt. Eine Umfrage von Würzburger Psychologen von 2009 ergab einen Männeranteil von 88 Prozent. Etwa die Hälfte waren demnach Singles. 43 Prozent der Befragten arbeiteten Vollzeit. Eine große Gruppe bildeten Studenten. Das Durchschnittsalter betrug 33 Jahre. Zu ihrer Motivation befragt, bewerteten mehr als vier von fünf der Befragten die Erweiterung des eigenen Wissens als wichtig bis sehr wichtig. Deutlich wird auch ein hoher Anteil der 13- bis 23-Jährigen.
In einer Analyse des Partizipationsverhaltens angemeldeter Teilnehmer stellte Jimmy Wales 2004 fest, dass die Hälfte aller Beiträge von nur 2,5 Prozent der Nutzer stammte. Er stützte damit seine These von der Wikipedia als „community of thoughtful users“, die er einer Auffassung als emergentem Phänomen gegenüberstellte, in dem sich aus den Beiträgen einer Vielzahl anonymer Internetnutzer eher spontan eine Enzyklopädie herausbildet.
2008 untersuchte Joachim Schroer in seiner Dissertation, was die Autoren zur Mitarbeit motivierte – sieht man einmal von Autoren ab, die externe Interessen verfolgen oder dafür bezahlt werden. Danach waren insbesondere Autonomie, Rückmeldung und die Bedeutsamkeit der Tätigkeit von erheblicher Bedeutung. Prädikatoren der intrinsischen Motivation waren, folgt man der Einschätzung der Autoren selbst, zum einen das Ziel des Projekts, nämlich freies Wissen. Dieses Ziel war sowohl antreibend als auch wichtig für die Identifikation, beeinflusste aber kaum die Intensität des Engagements. Für den Übergang vom Leser zum Autor waren fehlende Informationen in der Wikipedia häufig auslösend, kollektive Motive und Generativität hingegen waren von geringer Bedeutung.
K. Wannemacher stellt in einem Sammelband desselben Jahres fest, dass die Kritik zu sehr im Vordergrund stehe, weniger jedoch die Möglichkeiten des Unterrichts genutzt würden: „Gegenwärtig dominieren Aspekte wie die Transitionalität von Einträgen der Online-Enzyklopädie, die Untauglichkeit im Sinne einer wissenschaftlichen Referenz, die studentische Nachlässigkeit im Umgang mit Internet-Quellen und die daraus resultierende Notwendigkeit zur Überprüfung von Seminararbeiten auf Internet-Plagiate mithilfe kommerzieller Software (turnitin.com, plagiarism.org etc.) die Wahrnehmung der Wikipedia an den Hochschulen.“ „Zu den Vorzügen dieser Unterrichtsform zählen die didaktisch aktivierende Methode, die Einübung in quellenkritisches Arbeiten, die propädeutisch akzentuierte Textarbeit und das kollaborative Trainieren von Schreibkompetenz sowie prüfungsrelevante Lerneffekte (S. 154).“
Die zu geringe Beachtung angeblich weiblicher Aspekte der Kultur, aber auch der populären Kultur führte 2007 in der englischen Wikipedia zu einer heftigen Debatte. Ein Artikel zu Kate Middletons Brautkleid löste diese aus, nachdem unmittelbar nach Einstellung des ansonsten tadellosen Artikels ein Löschantrag gestellt worden war. Bei der Wikimania 2012 führte Jimmy Wales, der sich für das Behalten des Artikels eingesetzt hatte und sich in seiner Begründung auf die Berichterstattung beim Onlinemagazin Slate bezog, das Kleid als Beispiel für den Gendergap – die mangelnde Beteiligung von Frauen wie die mangelnde Beachtung von Frauenthemen bei Wikipedia allgemein – an. Wikipedia habe kein Problem, Dutzende von Linuxvarianten in separaten Artikeln zu beschreiben, aber die vor allem männlich geprägte Community würdige ein derart kulturgeschichtlich wichtiges Kleidungsstück nicht ausreichend. Wales’ Zuspitzung und die Kontroverse an sich hatten ein mehrfaches Presseecho.
Autorenzahl
Im Frühjahr 2007 wurde der bisherige Höhepunkt der Zahl der Bearbeitungen sowie der Anmeldungen erreicht. Seither sinkt er kontinuierlich. Für die Verwaltung der Mediendateien wurde Wikimedia Commons am 7. September 2004 eingerichtet. Am 13. Juni 2004 bestanden 100.000 Artikel in der deutschsprachigen Wikipedia, die englischsprachige Version erreichte die Millionengrenze bereits am 1. März 2006. Die deutschsprachige Wikipedia erreichte am 23. November 2006 die Marke von 500.000 Artikeln, um am 27. Dezember 2009 gleichfalls die Millionengrenze zu überschreiten. Die Zahl von zwei Millionen Artikeln in der deutschsprachigen Wikipedia wurde am 19. November 2016 erreicht.
Dabei wurden verschiedene Maßnahmen ergriffen, um unsinnige Beiträge oder gar rechtswidriges Verhalten einzudämmen, aber auch um Glaubwürdigkeit zu gewinnen. So wurde am 6. Mai 2008 die „Sichtung“ in der deutschsprachigen, später auch anderen Wikipedien eingeführt. Sie soll verhindern, dass Änderungen an Artikeln, die noch nicht von erfahreneren Autoren geprüft wurden, für den Besucher der Website sichtbar werden. Schon seit dem 9. August 2005 sollten neue Informationen belegt werden, die in Artikel der deutschsprachigen Fassung eingefügt werden. Auch wurde die Frage der Urheberrechtsverletzungen immer wieder virulent. Infolge der Nutzung von DDR-Literatur im Zeitraum von November 2003 bis November 2005 erfolgte die Löschung und Abänderung mehrerer hundert Artikel. Erstmals wurde die Wikipedia am 30. Januar 2004 von einer Rechtsinstanz zitiert, dem Verwaltungsgericht Göttingen.
Die wachsende Bekanntheit machte das Onlinelexikon anfälliger für Manipulationen durch Interessengruppen. Günter Schuler diagnostizierte 2007 „das zielgerichtete Hijacken von Artikel-Inhalten für die jeweilige Sicht sowie die Praxis des Artikel-Aufschönens zu PR-Zwecken“. Technische Mittel ermöglichen es seit 2007, anonym agierende Lobbyisten oder Adressen von diffamierenden Nutzern zu sperren und sie einsehbar zu machen. Angemeldete Akteure können nur dann gesperrt werden, wenn sie erheblich gegen die Regeln der Wikipedia verstoßen haben, insbesondere gegen die Wahrung eines neutralen Standpunktes.
Seit geraumer Zeit hat die Wikipedia-Gemeinschaft zunehmend Schwierigkeiten, engagierte Autoren zu finden und zu halten. Bereits eine im Herbst 2007 veröffentlichte Erhebung in der englischsprachigen Version ergab, dass die Wikipedia erstmals seit ihrer Gründung ein sinkendes Engagement ihrer aktiven Benutzer zu verzeichnen hatte und auch die Zahl der Neuanmeldungen rückläufig war.
Einer der Hauptgründe war laut einer Studie ein immer rauer werdender Umgangston. Allein 27 % der Frauen begründeten ihre Abwendung vom Projekt damit, dass ihnen das Klima zu aggressiv sei.
Eine weitere Erklärung ist, dass die Einstiegsschwierigkeiten für technisch nicht versierte Erstautoren zu groß seien. Dem soll seit April 2010 mit einem von der Stanton Foundation mit 890.000 Dollar finanzierten Projekt zur Verbesserung der Benutzerfreundlichkeit abgeholfen werden.
Im Juli 2013 wurde der VisualEditor eingeführt, der die Bearbeitung der Artikel erleichtern soll. Die vielfach als kompliziert empfundene Syntax galt als eine der Ursachen für die rückläufige Zahl der Autoren.
In der deutschsprachigen Wikipedia wurde zudem 2007 ein Mentorenprogramm ins Leben gerufen, um durch Hilfe erfahrener Wikipedianer neuen Autoren den Einstieg zu erleichtern.
Diese Maßnahmen sollen die Anfänger in ein komplexer werdendes Projekt einführen. Doch ein weiteres Problem ist die kurze Verweildauer vieler Anfänger im Projekt. Erhöhte Abweisung führt zum Schwinden dieser erwünschten Neuautoren. Darauf weist eine Untersuchung aus dem Jahr 2012 hin. Demnach wird eher abgewiesen, weil es für die übrigen Autoren weniger Arbeit verursacht. Außerdem verdrängen Bots die typischen Einsteigerarbeiten, wie Rechtschreibkorrektur. Zudem fällt es neuen Autoren immer schwerer, mit dem anwachsenden Regelwerk zurechtzukommen oder gar Regeländerungen durchzusetzen.
Die zunehmende relative Macht der als Gruppe aufgefassten, sich sozial abschließenden Administratoren und Experten, der häufig verletzende Tonfall auf den Diskussionsseiten und in Projektdebatten, die brüske Behandlung von unangemeldeten Mitarbeitern („IPs“) und neu angemeldeten Benutzern könnten, so eine Untersuchung von 2009, eine problematische Entwicklung kennzeichnen, wie sie als typisch für Expertennetzwerke dargestellt wurde.
Schließlich wurde lange nicht wahrgenommen, so das Ergebnis einer spanischen Dissertation, dass der überwiegende Teil der eigentlichen Artikelarbeit von sehr aktiven Autoren geleistet wird und nicht von gelegentlich vorbeischauenden; daher sollte der Fokus nicht nur auf die Erhöhung der Mitarbeiterzahl gelegt werden, sondern vor allem auf den Erhalt der aktiven Autorenschaft. Zudem sollte der Anteil akademischer Institutionen nicht unterschätzt werden.
Mehrsprachigkeit und internationale Zusammenarbeit
Die Wikipedia entwickelte sich schon kurz nach ihrer Gründung zu einem mehrsprachigen Unterfangen. Mittlerweile existieren über 300 aktive Sprachversionen der Wikipedia. Eine neue Wikipedia in einer anderen Sprache kann jederzeit gegründet werden, sobald sich genügend Interessierte finden. Inzwischen gibt es mehrere Wikipedien in Regional- und Minderheitensprachen wie dem Plattdeutschen oder den friesischen und sorbischen Sprachen sowie in Dialekten wie Kölsch oder Bairisch. Auch ausgestorbene oder Plansprachen sind grundsätzlich zulässig, wenn sie eine ausreichend große Sprachgemeinschaft und Nutzerkreis haben. Die klingonische Version wurde 2005 geschlossen, mit der indirekten Begründung, dies würde die Glaubwürdigkeit und Seriosität von Wikipedia schmälern.
Artikel zum gleichen Gegenstand werden üblicherweise in jeder Sprache eigens verfasst und gewartet. Nur gelegentlich werden Artikel ganz oder in Abschnitten wörtlich von einer Wikipedia-Sprachversion in eine andere übersetzt. Durch Interwiki-Links werden Artikel zum gleichen Gegenstand in verschiedenen Sprachversionen miteinander verknüpft. 2014 besaßen nur 51 Prozent der größten (der englischsprachigen) Wikipedia ein Gegenstück in der damals zweitgrößten (der deutschsprachigen) Wikipedia. Mehrsprachige Nutzer leisten dabei einen wertvollen Beitrag, gleiche Artikel in mehreren Sprachen und Dialekten zugänglich zu machen.
Die Sprachversionen der Wikipedia sind weitgehend voneinander unabhängig. Jede Sprachversion hat ihre eigene Community, die über die erwünschten und unerwünschten Inhalte und über ihre eigenen Richtlinien entscheidet (etwa Relevanzkriterien oder Löschregeln). Eine Untersuchung eines britischen Forscherteams zeigte, dass der kulturelle Hintergrund einen erheblichen Einfluss auf das Editierverhalten der Autoren hat. So wird in der deutschsprachigen Wikipedia deutlich öfter Text gelöscht als in der niederländisch-, französisch- oder japanischsprachigen.
Austausch zwischen den Sprach-Communitys
Die Autorenschaft der Wikipedia wird als eine „methodenorientierte Community“ beschrieben.
Bedingt durch Sprachbarrieren besteht zwischen den einzelnen Sprachgemeinschaften meist wenig Austausch; die Communitys organisieren und entwickeln sich unabhängig voneinander. Einzelne Initiativen wie die „Übersetzung der Woche“ versuchen, diese Barriere zu überwinden und für mehr Austausch zu sorgen.
Besonders die Gründung von Wikimedia Commons bewirkte einen Aufschwung in der internationalen Zusammenarbeit. Auf den mehrsprachig angelegten Commons arbeiten Wikipedia-Teilnehmer aus allen Sprachversionen am Aufbau eines zentralen Medien-Repositoriums.
Kontakt
Direkten Kontakt zu den Autoren eines Artikels bekommt man auf der jeweiligen „Diskussionsseite“ des Artikels. Für viele Themen und Fachbereiche gibt es ein „Portal“ beziehungsweise eine „Redaktion“. Die Autoren treffen sich im „Autorenportal“. Für allgemeine Fragen gibt es die Seite Fragen zur Wikipedia. Weitere Kontaktmöglichkeiten finden sich auf Wikipedia selbst in der linken Menüleiste unter „Kontakt“.
Rechtsfragen
Die Wikimedia Foundation hat eine Abteilung „Community Advocacy“ gegründet, die die Community in rechtlichen Belangen berät und bei gerichtlichen Auseinandersetzungen unterstützt. Zu den häufigsten Fragen wurde eine FAQ-Liste zu Rechtsfragen eingerichtet, die vor allem Unterstützung beim Urheberrecht und der Lizenzierung bietet. Ferner ist der Datenschutz der Mitgliederdaten ein wichtiges Thema.
Urheberrecht
Die offene Natur eines Wikis bietet keinen Schutz vor Urheber- und anderen Rechtsverletzungen. Ergibt sich ein entsprechender Verdacht, so prüfen aktive Nutzer Artikel darauf, ob sie von anderen Quellen kopiert wurden. Wenn sich der Verdacht bestätigt, werden diese Artikel von den Administratoren nach einer Einspruchsfrist gelöscht. Vollständige Sicherheit bietet dieses Verfahren jedoch nicht.
Lizenzierung
Die Texte der Wikipedia unterstehen gemäß den Nutzungsbedingungen der Wikimedia Foundation zwei freien Lizenzen. Diese Lizenzen sind zum einen eine Creative-Commons-Lizenz „Namensnennung – Weitergabe unter gleichen Bedingungen 4.0“, und zum anderen die GNU-Lizenz für freie Dokumentation (GFDL). Für Mediendateien (zum Beispiel Bilder, Videos, Audiodateien) können abweichende Lizenzbestimmungen gelten, die jeweils auf der Beschreibungsseite einer Mediendatei vermerkt sind.
Zunächst standen die Wikipedia-Inhalte nur unter der GFDL. Es zeigte sich aber, dass diese Lizenz für die Wiki-basierte Erstellung einer freien Enzyklopädie nur bedingt tauglich ist. Die GFDL wurde ursprünglich für freie EDV-Dokumentationen entwickelt, bei denen die Anzahl der Textrevisionen und der beteiligten Autoren meist überschaubar ist. In der Wikipedia hingegen ist gerade an Artikeln zu populären oder kontroversen Themen mitunter eine große Anzahl von Autoren beteiligt. Artikelverschmelzungen und -aufspaltungen, Übersetzungen aus anderssprachigen Wikipedia-Versionen sowie anonyme Textspenden aus unklaren Quellen sind an der Tagesordnung. Der komplexe Entstehungsprozess vieler Artikel lässt sich oft nur mühsam rekonstruieren.
Daher wird unter Juristen diskutiert, wie die GFDL-Lizenzbedingungen im Einzelnen anzuwenden sind. Dies gilt etwa für die Bereitstellung der vollständigen Versionsgeschichte, die Ermittlung von Hauptautoren oder die Pflicht zur vollständigen Wiedergabe des Lizenztextes.
Nach einer Abstimmung innerhalb der Wikipedia gab die Wikimedia Foundation am 21. Mai 2009 bekannt, dass die Texte der Wikipedia ab 15. Juni 2009 sowohl unter GNU-Lizenz für freie Dokumentationen als auch unter Creative-Commons-Lizenz „Namensnennung – Weitergabe unter gleichen Bedingungen 4.0“ lizenziert werden. Die Creative-Commons-Lizenzen sind im Gegensatz zur GNU-Lizenz nicht nur für EDV-Dokumentationen konzipiert und bieten somit vor allem bei gedruckten Medien Vorteile.
Datenschutz
Die aktuelle Wikipedia-Datenschutzrichtlinie wurde vom Kuratorium (Board of Trustees) der Wikimedia Foundation beschlossen und trat am 6. Juni 2014 in Kraft. Demnach müssen Daten wie der richtige Name, die Adresse oder das Geburtsdatum nicht angegeben werden, um ein Standard-Konto einzurichten oder Inhalte zu den Wikimedia-Seiten beizutragen. Jeder Autor hat ein Recht auf Anonymität. Benutzer, die der Benutzergruppe Oversighter (englisch für „Aufsicht“) angehören, können Versionen aus einer Versionsgeschichte oder dem Logbuch so verbergen, dass sie auch von Administratoren nicht mehr einsehbar sind, wenn jemand die Identität eines Nutzers gegen dessen Willen offenbart.
Zensurversuche
In der Reihe bisheriger Zensurmaßnahmen gegen die Wikipedia waren die Sperrungen in der Volksrepublik China im Zeitraum zwischen Juni 2004 und Oktober 2006 am bedeutendsten. Zeitweise waren davon große Teile Chinas betroffen. Im September 2006 widersetzte sich Jimmy Wales einer Aufforderung der chinesischen Regierung, politische Einträge für eine chinesische Version der Wikipedia zu blockieren. Er begründete seine Entscheidung damit, dass Zensur der Philosophie der Wikipedia widerspreche. Gegenüber dem Observer äußerte Wales: „Wir stehen für die Freiheit von Information, und wenn wir einen Kompromiss eingingen, würde das meiner Ansicht nach ein ganz falsches Signal senden, nämlich dass es niemanden mehr […] gibt, der sagt: ‚Wisst ihr was? Wir geben nicht auf.‘“ Am 31. Juli 2008 wurde die Seite im Vorfeld der Olympischen Spiele in Peking endgültig wieder freigegeben.
Der Organisation Reporter ohne Grenzen zufolge blockierte der Iran 2006 mehrere Monate lang die kurdische Wikipedia. In Tunesien wurde die Wikimedia-Seite vom 23. bis 27. November 2006 gesperrt. Thailändische Nutzer berichteten im Oktober 2008 von einer Sperrung des englischen Artikels über König Bhumibol, die usbekische Sprachversion wurde vom 10. Januar bis 5. März 2008 gesperrt, in Syrien vom 30. April 2008 bis zum 13. Februar 2009.
Am 13. November 2008 ließ Lutz Heilmann, Mitglied des Deutschen Bundestages für die Partei Die Linke, den Zugang zur deutschsprachigen Wikipedia über die Weiterleitungsdomain wikipedia.de durch eine einstweilige Verfügung des Landgerichtes Lübeck sperren, weil im Artikel über ihn zeitweise Tatsachenbehauptungen aufgestellt waren. Während es ihm nach seiner nachträglichen Darstellung um falsche, ehrabschneidende und deshalb sein Persönlichkeitsrecht verletzende Inhalte ging, unter anderem dass der Immunitätsausschuss im Bundestag die Immunität Heilmanns in Bezug auf ein Ermittlungsverfahren wegen Bedrohung aufgehoben habe, wurde in den Medien gemutmaßt, die einstweilige Verfügung sei erfolgt, weil über ihn zu lesen war, er sei früher hauptamtlicher Mitarbeiter des Ministeriums für Staatssicherheit der DDR gewesen.
Im Dezember 2008 blockierten britische Provider den Artikel über das Scorpions-Album Virgin Killer wegen des dort abgebildeten Album-Covers, das die Internet Watch Foundation, eine halbstaatliche britische Organisation zur Bekämpfung von Kinderpornografie im Internet, als Kinderpornografie eingestuft und auf ihre Sperrliste gesetzt hatte.
Umgekehrt sperrte Wikipedia bestimmten Nutzergruppen den Zugang. Am 28. Mai 2009 setzte sich die englische Wikipedia gegen Scientology durch, eine Organisation, die seither keine Artikeländerungen mehr vornehmen darf. 2014 sperrte die englische Wikipedia mehrfach den Zugang zu ihrer Website für Mitarbeiter des amerikanischen Repräsentantenhauses, die willkürliche Änderungen an Artikeln vorgenommen hatten.
Die Wikipedia schloss ihre Website auch immer wieder aus Protest gegen Gesetzesinitiativen, die ihren Rechtsrahmen einzuschränken oder zu gefährden schienen. Am 4. Oktober 2011 schloss die italienische Wikipedia ihren Zugang, um gegen ein Gesetz der Regierung unter Silvio Berlusconi zu protestieren. Dieses Gesetz sah vor, dass innerhalb von 48 Stunden jegliche Korrektur vorzunehmen sei, die der Antragsteller im Interesse seiner Reputation forderte. Aufgrund des Protests der englischsprachigen Wikipedia am 18. Januar 2012 für 24 Stunden gegen zwei Gesetzesvorschläge im US-Congress, den Stop Online Piracy Act (SOPA) und den PROTECT IP Act (PIPA), änderten einige Abgeordnete ihre Meinung. Weniger Einfluss hatte der eintägige Protest der russischsprachigen Wikipedia gegen ein Gesetz. In Russland wurde am 1. Oktober 2014 die Panoramafreiheit eingeführt, was der Wikimedia eine große Zahl von Fotografien zuführt. Die Gesetzesänderung geht auf eine Initiative der Wikimedia Russland zurück. Wegen eines Artikels über eine Form von Cannabis wurde die Wikipedia im August 2015 erstmals in Russland gesperrt, da man sich nicht in der Lage sah, einzelne Artikel zu sperren.
Der französische Geheimdienst DCRI erzwang am 4. April 2013 die Löschung des Artikels zu der militärischen Funkstation Pierre-sur-Haute in der französischen Wikipedia, der jedoch inzwischen in 36 Sprachversionen existiert (Stand: Februar 2017), darunter der deutschen unter dem Lemma Militärische Funkstation Pierre-sur-Haute. Am 10. März 2015 reichte Wikipedia Klage gegen den Auslandsgeheimdienst der USA, die NSA, ein, da diese mittels eines Programms namens Upstream das Verhalten der Nutzer in der Wikipedia verfolge. „Diese Aktivitäten sind sensibel und privat: Sie können alles über die politischen und religiösen Überzeugungen einer Person verraten, über ihre sexuelle Orientierung oder ihre Krankheiten“ und „durch die Zusammenarbeit der NSA mit anderen Geheimdiensten könnten Wikipedia-Autoren in anderen Staaten gefährdet werden, die sich kritisch über ihre Regierung äußern“, begründeten Wales und Lila Tretikov, die Leiterin der Wikimedia-Stiftung, die Klage. Diese wurde mit Bürgerrechtsgruppen vorbereitet, darunter Amnesty International und Human Rights Watch; Vertreter der Klage war die Bürgerrechtsorganisation American Civil Liberties Union.
Am Morgen des 29. April 2017 wurde auf der Internetseite Turkey Blocks bekanntgegeben, dass bei mehreren türkischen Internet-Providern der Zugriff auf alle Ausgaben der Wikipedia blockiert wurde. Hasan Gökkaya schrieb in der Wochenzeitung Die Zeit, dass die türkische Regierung den Wikipediabetreibern „Terrorpropaganda“ vorwerfe.
Am 4. Februar 2023 ließ die Pakistan Telecommunication Authority (PTA), die nationale Regulierungsbehörde für den Internetzugang in Pakistan, den Internetzugang zu Wikipedia sperren. Vorangegangen war ein 48-stündiges Ultimatum der Behörde an die Wikimedia Foundation, bestimmte „blasphemische Inhalte“ zu entfernen. Nach Aussagen eines Behördensprechers habe die Wikimedia Foundation „einiges Material, aber nicht alles“ entfernt, weshalb die angedrohte Sperre in Kraft gesetzt wurde. Digitale Aktivisten protestierten und warfen den pakistanischen Autoritäten vor, dass der eigentliche Zweck der Maßnahme die Unterdrückung kritischer freier Meinungsäußerung sei. Die Wikimedia Foundation bedauerte in einer Erklärung die Sperrung, die den Pakistanern den „Zugang zum größten freien Repositorium an Wissen“ verwehre. In Pakistan war zuvor wiederholt der Zugang zu verschiedenen Internetplattformen wie YouTube und Facebook im Jahr 2010 und der Dating-Plattformen Tinder und Grindr wegen vermeintlich blasphemischer bzw. unmoralischer Inhalte gesperrt worden.
Rezeption
Verbreitung
Die New York Times berichtete im Februar 2014, unter Bezugnahme auf Comscore, ein international tätiges Internet-Marktforschungsunternehmen, das regelmäßig Berichte zur Internetnutzung veröffentlicht, dass weltweit monatlich 15 Milliarden Wikipediaseiten von einer halben Milliarde Menschen aufgerufen werden.
Anfang Januar 2022 lag die Wikipedia auf dem vierzehnten Platz der weltweit am häufigsten besuchten Websites. In Deutschland rangierte sie auf Platz sieben, in Österreich auf Platz sechs, in der Schweiz auf Platz vier und in den USA auf Platz elf. Die Website ist dabei weltweit, genauso wie in den deutschsprachigen Staaten, die einzige nichtkommerzielle Website unter den ersten 50. Ihre Finanzierung erfolgt durch Spenden.
2022 ermittelte die ARD/ZDF-Onlinestudie, dass 37 % der Deutschen mindestens einmal die Woche „Online-Nachschlagewerke wie Wikipedia“ benutzen.
Presseberichte
In ausführlichen Presseberichten wurde über die Wikipedia, deren Bearbeiter und Motivationen berichtet.
Vertrauen
Eine im August 2014 von YouGov durchgeführte repräsentative Umfrage im Vereinigten Königreich ergab, dass 60 % der Befragten die in der Wikipedia enthaltenen Informationen für größtenteils vertrauenswürdig halten, sieben Prozent für besonders vertrauenswürdig. 28 % vertrauten der Wikipedia eher nicht, sechs Prozent überhaupt nicht. Das Vertrauen in die Encyclopædia Britannica war deutlich größer; 83 % vertrauten ihr größtenteils oder besonders. Autoren der Wikipedia genossen jedoch ein größeres Vertrauen, die Wahrheit zu sagen, als Journalisten. 64 % vertrauten zumindest größtenteils Wikipedia-Autoren im Vergleich zu 61 % für BBC-Journalisten und je nach Zeitung teilweise deutlich weniger für Zeitungsjournalisten.
Verweise in Wikipedia sind ein Schlüsselmechanismus zur Überwachung und Aufrechterhaltung ihrer hohen Qualität.
Ökonomischer Einfluss
Der ökonomische Wert der Wikipedia wird auf 3,6 bis 80 Milliarden US-Dollar geschätzt, je nach Berechnungsmethode. Im Vergleich dazu erzielte der deutsche Buchhandel 2015 einen Umsatz von 9,2 Milliarden Euro.
2017 wurde ein starker Einfluss von Wikipedia-Artikeln auf wissenschaftliche Veröffentlichungen nachgewiesen. Für die Untersuchung wurden gleiche Formulierungen in Wikipedia-Artikeln und neuen wissenschaftlichen Veröffentlichungen untersucht und mit unveröffentlichten Wikipedia-Artikeln als randomisierte Kontrolle verglichen. Etwa jedes dreihundertste Wort wurde dabei von Wissenschaftlern aus Wikipedia übernommen. Aus der Untersuchung ergibt sich ein Bild der Wikipedia als Archiv wissenschaftlichen Wissens, das effektiv und kostengünstig verbreitet wird. Dabei wird Wikipedia insbesondere von Wissenschaftlern aus Schwellenstaaten verwendet, die nur eingeschränkten Zugang zur oft teuren wissenschaftlichen Fachliteratur besitzen.
Wikipedia im Vergleich zu anderen Enzyklopädien
Im Dezember 2005 veröffentlichte die Zeitschrift Nature einen Vergleich der englischen Wikipedia mit der Encyclopædia Britannica. In einem Blindtest hatten 50 Experten je einen Artikel aus beiden Werken aus ihrem Fachgebiet ausschließlich auf Fehler geprüft. Mit durchschnittlich vier Fehlern pro Artikel lag die Wikipedia nur knapp hinter der Britannica, in der im Durchschnitt drei Fehler gefunden wurden.
Britannica reagierte darauf im März 2006 mit einer Kritik der Nature-Studie, in der sie dem Wissenschaftsmagazin schwere handwerkliche Fehler vorwarf – so seien etwa Artikel herangezogen worden, die gar nicht aus der eigentlichen Enzyklopädie, sondern aus Jahrbüchern stammten, außerdem seien die Reviews selbst nicht auf Fehler geprüft worden. Die Zeitschrift Nature wies die Vorwürfe zurück und erklärte, sie habe die Online-Ausgaben verglichen, die auch die Jahrbuchartikel enthielten. Dass die Reviews auf Fehler geprüft seien, habe sie nie behauptet; und dadurch, dass die Studie als Blindtest durchgeführt worden sei, träfen sämtliche Kritikpunkte auch auf die Reviews der Wikipedia-Artikel zu, das Gesamtergebnis ändere sich folglich nicht.
Gute Vergleichsnoten erhielt Wikipedia von Günter Schuler im Juli 2007 sowohl in der Konkurrenz zu den bekannten Universalenzyklopädien als auch in der Gegenüberstellung mit diversen Fachlexika und Online-Suchmaschinen wie Yahoo und Google. Die Vorzüge der Wikipedia gegenüber den klassischen Online-Suchmaschinen sah Schuler vor allem in der günstigen Kombination aus Weblinks, die „vom Feinsten“ seien, und der Tatsache, dass zumindest „die größeren Wikipedia-Sprachversionen mittlerweile so gut wie alle Themenbereiche abdecken.“ Ein Vergleich mit dem Brockhaus führte zu einem ähnlichen Ergebnis.
Erheblich ungünstiger fiel das Urteil von Lucy Holman Rector 2008 aus. Sie verglich neun Artikel in der englischsprachigen Wikipedia mit denen zum selben Thema in der Encyclopaedia Britannica, The Dictionary of American History und American National Biography Online. Sie kritisierte, dass Wikipedias Verlässlichkeitsrate nur bei 80 % liege, während die Vergleichslexika bei 95–96 % gelegen hätten. Außerdem wurden mindestens fünf Zitate gefunden, die nicht einem Autor zugewiesen waren.
Positiv fiel wiederum das Urteil von Christoph Drösser und Götz Hamann (Die Zeit) aus, die anlässlich des zehnten Geburtstags der Wikipedia hervorhoben, dass sie, anders als gedruckte Lexika, stets auf der Höhe der Zeit sei und dass ihre Wirkung allenfalls mit der von Denis Diderots Encyclopédie aus dem Jahre 1751 verglichen werden könne: „Diderot verband mit seinem Werk die Hoffnung, dass ‚unsere Enkel nicht nur gebildet, sondern gleichzeitig auch tugendhafter und glücklicher werden.‘ Nach dem Erscheinen der ersten Bände seiner Enzyklopädie verbreitete sie sich in Europa wie keine vor ihr. In einer Welt aus Hörensagen, mündlicher Überlieferung, einzelnen aufklärerischen Schriften und kleineren Lexikon-Editionen erleuchtete das umfassende Werk den Kontinent. Mit Diderot bekam die Aufklärung ein intellektuelles Fundament. Gebildete Menschen in Europa bedienten sich mit einem Mal aus demselben Wissensschatz. Indem sie die Enzyklopädie nutzten und zitierten und übersetzten, verständigten sie sich darüber, wie die Welt ist. Eine ähnliche Wirkung entfaltet heute Wikipedia.“
Richard David Precht hob in Anna, die Schule und der liebe Gott 2013 hervor, dass die Vertrauenswürdigkeit des in der Wikipedia gespeicherten Wissens nicht mehr von der Autorität eines Einzelnen oder eines ausgewiesenen Teams abhänge, sondern sich aus der Summe an Beiträgen und Sichtungen ergebe. „Je häufiger eine Seite bearbeitet wird, umso mehr steigt die Wahrscheinlichkeit, dass die auf ihr genannten Informationen auf Wahrhaftigkeit und Relevanz überprüft wurden.“ Dabei sei die Motivation der Beitragenden nur bedingt von Bedeutung. „Selbst Geltungsbedürfnis, Neid, Hass oder Rechthaberei verwaschen sich mit der Zeit. Und einzelne Bewertungen schleifen sich, mitunter mühevoll, unter permanenter Qualitätskontrolle zu enzyklopädisch Relevantem ab. So gesehen ist Wikipedia vor allem eins: eine soziale Zustimmungsgemeinschaft, ein diskursiver Prozess der Wahrheitsfindung, dessen langfristiger Weisheit der Nutzer vertrauen muss, um das in ihr gespeicherte lebendige Wissen übernehmen zu können.“
Laut Thomas Grundmann (Oktober 2020) kann Wikipedia in puncto Zuverlässigkeit mit renommierten kommerziellen Enzyklopädien mithalten. „Ein klarer Vorteil ist es, dass bei Wikipedia alle nötigen Informationen für jedermann leicht und zudem auf Deutsch verfügbar sind.“ Er empfahl die deutschsprachige Wikipedia als verlässlichen digitalen Ratgeber durch die Kontroversen der Expertenmeinungen zur COVID-19-Pandemie. Den in Wikipedia verfügbaren wissenschaftlichen Lebensläufen und Dokumentationen der Verläufe von wissenschaftlichen Debatten könne man in der Regel trauen.
Formen der Nutzung
Wikipedia-Inhalte werden von zahlreichen Websites dank der freien Lizenz aufgenommen (zum Beispiel Wikiwand), einige verdienen dabei an der Einblendung von Werbung. Auch viele Medien verwenden für ihre Berichte Beiträge aus der Wikipedia, oft ohne sie zu überprüfen.
In der ersten Zeit der Wikipedia entstanden Formate, die eine Nutzung erlaubten, wenn keine Verbindung zum Internet zur Verfügung steht, so auch eine Ausgabe der zenodot Verlagsgesellschaft mbH in Berlin. Einerseits wurden Freeware-Offline-Reader wie WikiTaxi erstellt. Andererseits wurden gedruckte Fassungen der Wikipedia veröffentlicht, wie etwa eine tausendseitige Druckfassung auf Basis der 2007/2008 am häufigsten aufgerufenen Artikel vom Bertelsmann Verlag (Das Wikipedia-Lexikon in einem Band), ein individuell zusammenstellbares Book-on-Demand im A5-Format – einem Lambert M. Surhone sagt man die Mitherausgeberschaft von mehr als 235.000 Books-on-Demand auf der Basis von Wikipedia-Artikeln nach – sowie inzwischen vielfach kritisierte Geschäftspraxis einiger Print-on-Demand-Buchverlage. Diese Nutzungsformen verloren aber mit dem zunehmenden Umfang der Wikipedia und der zunehmend jederzeitigen Verfügbarkeit des Internet-Zugangs immer mehr an Bedeutung.
Durch die immer größere Verbreitung von Smartphones spielt auch die mobile Nutzung der Wikipedia eine steigende Rolle. Sowohl eine angepasste („mobile“) Darstellung der Webseite als auch speziell angepasste Apps stellen die Wikipedia-Inhalte auf den meist kleinen Bildschirmen der Geräte passend dar. Auch der Zugang durch natürliche Sprache wird dabei immer wichtiger. Mobile Sprachassistenten (zum Beispiel Siri oder Google Assistant) greifen bei Definitionsfragen auf Inhalte der Wikipedia zurück und lesen teilweise die Einleitungen der entsprechenden Artikel vor. Des Weiteren verknüpfen zunehmend Informationssysteme, die eine erweiterte Realität unterstützen, Informationen aus der Wikipedia etwa mit Videobildern aus der umgebenden Realwelt des Benutzers.
Wikipedia als Modell
Wikipedia inspirierte die Gründung zahlreicher anderer Wikis, so zum Beispiel das Enzyklopädieprojekt Citizendium. Ebenso wie das mittlerweile eingestellte deutsche Projekt Wikiweise sah es sich als Gegenentwurf zur freien Wikipedia und wollte einen höheren Qualitätsstandard bieten. Aus der Wikipedia-Gemeinschaft entwickelten sich ab 2004 die Parodien Kamelopedia, Uncyclopedia und Stupidedia. Im Juli 2008 wurde von Google ein verwandtes ebenfalls mehrsprachiges Projekt namens Knol gestartet, das als mögliche ernsthafte Konkurrenz zur Wikipedia angesehen wurde, jedoch zum 1. Mai 2012 eingestellt worden ist. Das Projekt OpenStreetMap bezieht sich in der Arbeitsweise gerne auf die Wikipedia und bezeichnet sich häufiger als „Die Wikipedia für Karten“. Ein Bereich, in dem Wikis fast zum Massenphänomen wurden, ist die Populärkultur; wo sie dabei sind, andere Formen der Fan-Kommunikation und -Kollaboration abzulösen.
Mehr dazu im Abschnitt „Wikipedia und die Popularisierung des Konzeptes: 2001 bis 2005“ (und folgenden) des Artikels „Wiki“.
Markenbildung
Erfolg und Publizität des offenen Enzyklopädiekonzepts (Wikipedia lag 2007 erstmals auf Platz Vier der international bekanntesten Marken). 2017 wurde Wikipedia nach einer Untersuchung von Marketagent.com zur sympathischsten Marke in Österreich gekürt.
Interne Statistik
Die Wikipedia wird intern umfassend statistisch erfasst. Das Hauptranking der einzelnen Sprachversionen basiert auf der absoluten Artikelzahl. Die Mindestanforderungen an einen Artikel sind in den einzelnen Sprachversionen allerdings sehr unterschiedlich, weshalb die Artikelanzahl allein kein ausreichendes Vergleichskriterium ist. Daher werden die einzelnen Wikipedien nach Umfang der Artikel, nach Anzahl der Besuche der Website oder nach Anzahl der Bearbeitungen aufgelistet. Insgesamt gibt es 325 aktive Wikipedien mit über 245 Millionen Beiträgen, davon 59.271.995 Artikel, die von über 100 Millionen registrierten Benutzern durch 3,2 Milliarden Edits angefertigt wurden und von rund 2,76 Millionen Bildern illustriert werden (Stand: 15. August 2022). 3750 Administratoren wachen über die Einhaltung der Wikipedia-Regeln. Führend ist die englischsprachige Wikipedia mit über 6,5 Millionen Artikeln (Stand August 2022). Weitere 17 Wikipedien können mit jeweils mehr als einer Million Artikeln aufwarten, weitere 52 Wikipedien bringen es auf mehr als 100.000 Artikel und weitere 87 Sprachversionen haben mehr als 10.000 Artikel. Die deutschsprachige Wikipedia wies zum Stichtag 2.715.944 Artikel auf und nimmt damit hinter der englischsprachigen und der cebuanosprachigen Platz drei ein. Am 14. November 2020 wurde der 2,5 millionste Artikel in der deutschsprachigen Wikipedia angelegt.
Gemessen an anderen Kriterien (nach der Zahl der Artikel-Bearbeitungen, der Administratoren, der Autoren und der besonders aktiven Autoren) ist die deutschsprachige Wikipedia jedoch die zweitgrößte nach der englischsprachigen Wikipedia.
Die englischsprachige Version wird mit Abstand am häufigsten aufgerufen, gefolgt von der japanischsprachigen Ausgabe und der russischsprachigen Wikipedia.
In der schwedischen und der niederländischen Version wurden Artikel automatisiert erstellt, was die meisten anderen Sprachversionen ablehnen.
Bisher haben international mehr als 2,0 Millionen angemeldete und eine unbekannte Zahl nicht angemeldeter Nutzer zur Wikipedia beigetragen. Rund 16.793 Autoren arbeiten regelmäßig an der deutschsprachigen Ausgabe (Stand: August 2022).
Laut Presseberichten ist der US-Amerikaner Steven Pruitt mit 5 Millionen Edits (Stand: August 2022) und 31.000 Artikeln (Stand: Januar 2019) der Wikipedianer mit den meisten Edits. Er wurde deshalb 2017 vom Time Magazine auf eine Liste der 25 einflussreichsten Menschen im Internet gesetzt.
Sprachwissenschaftliche Forschung
Wikipedia wurde häufig als Korpus für linguistische Forschung auf den Gebieten Computerlinguistik, Informationsabruf und natürliche Sprachverarbeitung verwendet. Insbesondere dient es häufig als Zielwissensbasis für das Entity-Linking-Problem, das dann „Wikification“ genannt wird, und für das verwandte Problem der Wortsinn-Disambiguierung. Wikifikationsähnliche Methoden können wiederum verwendet werden, um „fehlende“ Links in Wikipedia zu finden.
Preise, Auszeichnungen und Ehrungen
Wikipedia wurden folgende Preise und Auszeichnungen verliehen:
2004: Goldene Nica in der Kategorie „Digital Communities“ des Prix Ars Electronica
2004: Webby Award in der Kategorie „Community“
2005: Grimme Online Award
2006: LeadAward als „Webleader des Jahres“
2006: DMMA OnlineStar in der Kategorie „News“
2008: Quadriga-Preis des Berliner Vereins Werkstatt Deutschland für „Eine Mission der Aufklärung“, den Jimmy Wales am 3. Oktober 2008 in der Berliner Komischen Oper entgegennahm. Das Preisgeld von 25.000 Euro ging an die Wikimedia Deutschland.
2013: Der Asteroid (274301) Wikipedia wurde zu Ehren der Wikipedia benannt.
2014: In der westpolnischen Stadt Słubice wurde das erste Wikipedia-Denkmal enthüllt.
2015: Erasmuspreis für die Wikipedia-Community
2015: Prinzessin-von-Asturien-Preis in der Kategorie „Internationale Zusammenarbeit“
2016: GDCh-Preis für Journalisten und Schriftsteller für die Redaktion Chemie der deutschsprachigen Wikipedia
Alternative Angebote
Mit Marjorie-Wiki entstand ein Projekt, um relevanzkritische Artikel aufzubewahren, die in der deutschsprachigen Wikipedia gelöscht wurden. Bis Oktober 2020 sammelten sich dort über 41.300 Artikel.
Die Aufrufzahlen von Wikipedia-Artikeln gingen zurück, seit Google am 16. Mai 2012 seinen Knowledge Graph verfügbar machte, der grundlegende Daten zu den eingegebenen Stichworten auf der Seite seiner Suchmaschine liefert. Am 4. Dezember folgte neben anderen Sprachversionen auch eine deutsche Fassung.
Im November 2014 wurde bekanntgegeben, dass die bereits 2007 gegründete Präsidentenbibliothek Boris Jelzin in Sankt Petersburg eine eigene, online verfügbare Enzyklopädie aufbauen will, da die Wikipedia „nicht in der Lage [sei], detaillierte und zuverlässige Informationen über die Regionen Russlands und das Leben im Land zu geben“. Das Projekt sieht sich explizit als Alternative zur Wikipedia und will zudem Mediendateien, historische Dokumente und Onlineausstellungen bereitstellen. Im November 2019 plante die russische Regierung die Bereitstellung von 24 Millionen Dollar für den Aufbau einer russischen Alternative zu Wikipedia. Der Tages-Anzeiger zitierte Präsident Putin mit „Das werden dann wenigstens verlässliche Informationen sein“.
Mit dem Klexikon entstand im Dezember 2014 ein Onlinelexikon, das sich an Kinder im Alter von sechs bis zwölf Jahren richtet und das nach einem Jahr über 1000 Artikel aufwies. Im November 2020 waren es etwa 3000. Bereits in der Gründungsphase wurde das Klexikon durch Wikimedia Deutschland unterstützt, im Mittelpunkt stand dabei ein Konzept für eine freie Online-Enzyklopädie für Kinder. Wikimedia Deutschland bezeichnet das Klexikon inzwischen als „Wikipedia für Kinder“.
Dokumentarfilm
Das Wikipedia Versprechen – 20 Jahre Wissen für alle? Buch und Regie: Lorenza Castella und Jascha Hannover, 52 Minuten, Deutschland 2020.
Hörfunk
Florian Felix Weyh: Wikipedia – Weltwissen ohne Gewähr. In: Deutschlandfunk Kultur. Lange Nacht. Beitrag vom 26. Februar 2022.
Literatur und Projekte
Einen Überblick über die Lehr- und Forschungstätigkeit zu Wikis im Allgemeinen und der Wikipedia im Besonderen geben englisch die Wiki Research Bibliography und deutsch die „Wikipedistik“. Es gibt eine Reihe von Publikationen, die sich analysierend mit Wikipedia befassen. 2010 wurde die Forschungsinitiative Critical Point of View gegründet, die sich mit Wikipedia und ihrer Bedeutung für die Gesellschaft befasst. Aus der Community bzw. von der Wikimedia Foundation und den -Fördervereinen sind ebenfalls Forschungsprojekte zur Erforschung der Wikipedia kreiert worden.
Überblickswerke
Amy S. Bruckman: Should You Believe Wikipedia? Online Communities and the Construction of Knowledge. Cambridge University Press, Cambridge 2022, ISBN 978-1-108-78070-4, DOI:10.1017/9781108780704.
Hermann Cölfen: Wikipedia. In: Ulrike Haß (Hrsg.): Große Lexika und Wörterbücher Europas, Europäische Enzyklopädien und Wörterbücher in historischen Porträts. De Gruyter, Berlin 2012, S. 509–524, ISBN 3-11-024111-0.
Rico Bandle: Die dunkle Seite von Wikipedia. In: Die Weltwoche, Nr. 47 (2013) S. 20–23.
Peter Burke: A Social History of Knowledge II: From the Encyclopédie to Wikipedia. Polity Press, Cambridge 2012, ISBN 978-0-7456-5042-5.
Peter Haber: Wikipedia. Ein Web 2.0-Projekt, das eine Enzyklopädie sein möchte. In: Geschichte in Wissenschaft und Unterricht, 63. Jahrgang (2012), Heft 5/6, S. 261–270.
Dariusz Jemielniak: Common Knowledge? An Ethnography of Wikipedia. Stanford University Press, Stanford 2014. ISBN 978-0-8047-8944-8.
Torsten Kleinz: Teenagerjahre einer Online-Enzyklopädie. 15 Jahre Wikipedia – und die Zukunft. In: c’t – magazin für computertechnik, 2/2016, S. 32. Online auf heise.de.
Thorsten Seeberger: Wikipedia. Entwicklung, technischer Aufbau, Organisationsstruktur und Inhaltserstellung. München 2016.
Wikimedia Deutschland e. V. (Hrsg.): Alles über die Wikipedia und die Menschen hinter der größten Enzyklopädie der Welt. Hoffmann und Campe, Hamburg 2011, ISBN 978-3-455-50236-7.
Mitarbeit, Binnenperspektiven
Marius Beyersdorff: Wer definiert Wissen? Wissensaushandlungsprozesse bei kontrovers diskutierten Themen in „Wikipedia – Die freie Enzyklopädie“. Eine Diskursanalyse am Beispiel der Homöopathie. Lit, Berlin/Münster 2011, ISBN 978-3-643-11360-3.
Ziko van Dijk: Wikipedia. Wie Sie zur freien Enzyklopädie beitragen. Open Source Press, München 2010, ISBN 978-3-941841-04-8.
Linda Groß: Die Offenheitssemantik der Wikipedia. Ideen und Verwirklichungen der erweiterten Beteiligungspotentiale des Internets im Kontext kollaborativer Wissensproduktion. Dissertation, Universität Bielefeld 2015.
Peter Grünlich: Der Alleswisser. Wie ich versucht habe, Wikipedia durchzulesen, und was ich dabei gelernt habe. Yes Publishing, München 2020, ISBN 978-3-96905-026-2 (Buchvorschau bei Google Books).
Kerstin Kallass: Schreiben in der Wikipedia. Prozesse und Produkte gemeinschaftlicher Textgenese. Springer, Wiesbaden 2015, ISBN 978-3-658-08265-9 (zugleich Dissertation, Universität Dissertation Koblenz-Landau 2013).
Manuel Merz: Die Wikipedia-Community. Typologie der Autorinnen und Autoren der freien Online-Enzyklopädie. Springer, Wiesbaden 2019, ISBN 978-3-658-28113-7.
Pavel Richter: Die Wikipedia-Story: Biografie eines Weltwunders. Mit einem Vorwort von Jimmy Wales. Campus-Verlag, Frankfurt am Main 2020, ISBN 978-3-593-51406-2.
Joachim Schroer: Wikipedia: auslösende und aufrechterhaltende Faktoren der freiwilligen Mitarbeit an einem Web-2.0-Projekt. Logos, Berlin 2008, ISBN 978-3-8325-1886-8.
Christian Stegbauer: Wikipedia. Das Rätsel der Kooperation. VS Verlag für Sozialwissenschaften, Wiesbaden 2009, ISBN 978-3-531-16589-9.
Nando Stöcklin: Wikipedia clever nutzen – in Schule und Beruf. Orell Füssli, Zürich 2010, ISBN 978-3-280-04065-2.
Wikimedia Deutschland e. V. (Hrsg.): Alles über Wikipedia und die Menschen hinter der größten Enzyklopädie der Welt. Hoffmann und Campe, Hamburg 2011, ISBN 978-3-455-50236-7
Verhältnis zu den Wissenschaften
Hedwig Richter, „Erklärmaschine. Früher waren Fachkenntnisse eine Herrschaftsbastion. Mit dem Nachschlagwerk Wikipedia explodiert nun das Wissen. Und alle haben Zugang zu den Informationen“, in: Süddeutsche Zeitung, 19./20. Juni 2019, S. 5.
Thomas Wozniak, Jürgen Nemitz, Uwe Rohwedder (Hrsg.): Wikipedia und Geschichtswissenschaft. Walter de Gruyter, Berlin 2015, ISBN 978-3-11-037634-0. (Open access) – Tobias Hodel: Rezension. In: H-Soz-Kult, 5. Februar 2016
Thomas Wozniak: 15 Jahre Wikipedia und Geschichtswissenschaft. Tendenzen und Entwicklungen. In: Zeitschrift für Geschichtswissenschaft. 66. Jahrgang (2018), S. 433–453.
Marcel Minke: Wikipedia als Wissensquelle. Die Online-Enzyklopädie als Basis einer Lernumgebung. Hamburg 2013.
Jan Hodel: Wikipedia und Geschichtslernen. In: Geschichte in Wissenschaft und Unterricht, 63. Jahrgang (2012), Heft 5/6, S. 271–284.
Ilja Kuschke: Ein produktorientierter Ansatz zum kritischen Umgang mit Wikipedia im Geschichtsunterricht. In: Geschichte in Wissenschaft und Unterricht. 63. Jahrgang (2012), Heft 5/6, S. 291–301.
Johannes Mikuteit: Informations- und Medienkompetenz entwickeln. Studierende als Autoren der Online-Enzyklopädie Wikipedia. In: Geschichte in Wissenschaft und Unterricht. 63. Jahrgang (2012), Heft 5/6, S. 285–290.
Daniela Pscheida: Das Wikipedia-Universum. Wie das Internet unsere Wissenskultur verändert. Transcript, Bielefeld 2010, ISBN 978-3-8376-1561-6.
Friederike Schröter: Vorsichtige Annäherung. Die Wissenschaft entdeckt das Wikipedia-Prinzip für sich. In: Die Zeit Nr. 3/2011, S. 29.
Maren Lorenz: Repräsentation von Geschichte in Wikipedia oder: Die Sehnsucht nach Beständigkeit im Unbeständigen. In: Barbara Korte, Sylvia Paletschek (Hrsg.): History Goes Pop. Zur Repräsentation von Geschichte in populären Medien und Genres. transcript, Bielefeld 2009, ISBN 978-3-8376-1107-6, 289–312. (kritisiert die mangelnde Wissenschaftlichkeit, also fehlenden oder unwissenschaftlichen Umgang mit Belegen und Literaturlage, Rückgriff auf veraltete Literatur, den Anschein von Verlässlichkeit und Genauigkeit, etwa durch Infoboxen zu Schlachten).
Maren Lorenz: WIKIPEDIA. Zum Verhältnis von Struktur und Wirkungsmacht eines heimlichen Leitmediums. In: WerkstattGeschichte 43/2006, S. 84–95 (PDF-Datei).
Peter Hoeres: Geschichtsvermittlung und Geschichtspolitik in der Wikipedia. In: Jahrbuch für Politik und Geschichte, Bd. 7, 2016–2019, S. 81–101. Eine frühere Version des Aufsatzes findet sich im Open-Access hier: degruyter.com.
Wissenschaftliche Untersuchungen
Christian Vater: Hypertext – Die Wikipedia und das Software-Dispositiv: Eine digitale kollaborative Onlineenzyklopädie für die „Turing-Galaxis“ – und die Geschichte des Hypertextes. In: Eva Gredel, Laura Herzberg, Angelika Storrer (Hrsg.): Linguistische Wikipedistik (= Diskurse – digital. Sonderheft 1). 2019, S. 1–25 (OpenAccess+PDF, CC BY NC 4.0)
Gregor Franz: Die vielen Wikipedias. Vielsprachigkeit als Zugang zu einer globalisierten Online-Welt. Werner Hülsbusch, Boizenburg 2011, ISBN 978-3-86488-002-5.
Eva Gredel, Laura Herzberg, Angelika Storrer: Linguistische Wikipedistik. In: Zeitschrift für germanistische Linguistik. Band 46, Nr. 3, 2018, S. 480–493. (doi:10.1515/zgl-2018-0029).
Angelika Storrer: Web 2.0: Das Beispiel Wikipedia. In: Karin Birkner, Nina Janich (Hrsg.): Handbuch Text und Gespräch (= Handbücher Sprachwissen. Band 5). De Gruyter, Berlin u. a. 2018, S. 387–417.
Weblinks
Wikimedia
Internationales Wikipedia-Portal www.Wikipedia.org – Übersicht über die verschiedenen Wikipedia-Ausgaben
Wiki Research Bibliography (englisch) – mit wissenschaftlichen Arbeiten über Wikipedia und Wikis
Deutschsprachige Wikipedia
Wikipedistik – Informationen über laufende Forschungsprojekte zur Wikipedia auf Deutsch
Rechtsprechung zur Wikipedia
Externe Websites
Dossier Wikipedia – Materialien der Bundeszentrale für politische Bildung zu Wikipedia
Einzelnachweise
Onlinelexikon oder -enzyklopädie
Online-Community
Wikiprojekt
Kollektive Autorschaft
Kofferwort
Gegründet 2001
Namensgeber für einen Asteroiden
Träger des Grimme Online Award
Werk unter einer Creative-Commons-Lizenz
Träger des Erasmuspreises
|
Q52
| 19,084.336908 |
23043
|
https://de.wikipedia.org/wiki/Tripelpunkt
|
Tripelpunkt
|
In der Thermodynamik ist ein Tripelpunkt (auch Dreiphasenpunkt) ein Zustand eines aus einer einzigen Stoffkomponente bestehenden Systems, in dem Temperatur und Druck dreier Phasen im thermodynamischen Gleichgewicht stehen.
Die beteiligten Phasen können die drei Aggregatzustände des Stoffes darstellen, aber auch verschiedene Modifikationen der festen oder der flüssigen Phase; ein Beispiel hierfür sind die verschiedenen möglichen Kristallstrukturen des Wassereises. An Tripelpunkten können je nach Stoff also eine feste, eine flüssige und eine dampfförmige Phase koexistieren, aber auch zwei feste Phasen und eine flüssige, oder zwei feste und eine dampfförmige, oder drei feste, in seltenen Fällen auch zwei flüssige und eine dampfförmige.
In einem Druck-Temperatur-Diagramm (kurz p-T-Diagramm) wird ein Tripelpunkts-Zustand als ein Punkt dargestellt. Handelt es sich insbesondere um ein p-T-Phasendiagramm und bei den drei koexistierenden Phasen um die drei verschiedenen Aggregatzustände, dann ist der Tripelpunkt der Schnittpunkt der beiden Phasengrenzlinien Sättigungsdampfdruck und Schmelzkurve: Auf der Sättigungsdampfdruckkurve stehen die flüssige und die dampfförmige Phase im Gleichgewicht, auf der Schmelzkurve die flüssige und die feste Phase, am Schnittpunkt beider Kurven alle drei.
Anzahl der Tripelpunkte
Gibt es mögliche Phasen im System, dann besitzt es Tripelpunkte. Schwefel beispielsweise kann in vier Phasen vorliegen: einer dampfförmigen, einer flüssigen und zwei festen (einer mit rhombischem und einer mit monoklinem Kristallgitter). Im Phasendiagramm des Schwefels existieren daher vier Tripelpunkte. Hätte Wasser nur die drei Phasen fest, flüssig und dampfförmig, dann besäße es genau einen Tripelpunkt. Aufgrund der Existenz verschiedener Eis-Modifikationen gibt es weitere Tripelpunkte.
Tripelpunkt und Gibbssche Phasenregel
Ein Tripelpunkt stellt einen Spezialfall der Gibbsschen Phasenregel dar:
Der Freiheitsgrad des Systems (hier eines Einkomponentensystems: , mit drei Phasen: ) ist in Tripelpunkten nach der Phasenregel immer : Verändert man eine intensive Zustandsgröße, wird sofort das Gleichgewicht der Phasen verlassen. Dies ist auch der Grund dafür, dass es in einem einkomponentigen System keine 4 Phasengrenzlinien geben kann, die sich in einem Punkt treffen (hier wäre ).
Beispiel: Tripelpunkt des Wassers
Der Tripelpunkt des Wassers ist jener Punkt im p-T-Diagramm des Wassers, in dem die drei Phasen reines flüssiges Wasser, reines Wassereis und Wasserdampf im Gleichgewicht stehen. Dabei ist der allen drei Phasen gemeinsame Druck gleich dem Sättigungsdampfdruck des reinen Wassers bei der allen drei Phasen gemeinsamen Temperatur.
Dieser Druck beträgt gemäß dem international akzeptierten Bestwert von Guildner, Johnson und Jones 611,657 (± 0,010) Pa (ca. 6 mbar).
Die Tripelpunktstemperatur betrug bis zum 19. Mai 2019 – als definierender Fixpunkt der Temperaturskala – exakt 273,16 K (oder 0,01 °C). Seit der Neudefinition der SI-Einheiten 2019 ist die Temperaturskala unabhängig vom Wasser definiert, sodass die Tripelpunktstemperatur wieder mit einer gewissen Messunsicherheit experimentell bestimmt werden muss. Diese Unsicherheit betrug bei Einführung der Neudefinition 100 µK, innerhalb dieser Unsicherheit ist der Zahlenwert nach wie vor 273,16 K.
Sind die drei Phasen in einem Behälter (etwa in einer Tripelpunktzelle) ins Gleichgewicht gebracht, bleiben Tripelpunkttemperatur und Tripelpunktdruck längere Zeit erhalten, auch wenn ein geringer Wärmestrom durch die nicht perfekt isolierende Wand des Behälters fließt. Wie bei allen Phasenübergängen des Wassers wird der Zu- oder Abstrom von Wärme durch entsprechenden Latentwärmeumsatz kompensiert, indem sich das Mengenverhältnis der Phasen durch Schmelz-, Gefrier-, Verdunstungs-, Kondensations- oder Sublimationsvorgänge entsprechend verschiebt. Druck und Temperatur bleiben konstant, bis eine der Phasen aufgezehrt ist. Wegen dieser Eigenschaft und des genau definierten Tripelpunkts eignet sich eine solche Tripelpunktzelle für Kalibrierzwecke.
Neben dem hier beschriebenen Koexistenzpunkt von flüssigem, gefrorenem und dampfförmigem Wasser gibt es im Phasendiagramm des Wassers noch weitere aber weniger bedeutende Tripelpunkte, an denen zwei oder drei verschiedene Eismodifikationen beteiligt sind (siehe die Tabelle weiter unten).
Tripelgebiet
Der Tripelpunkt ist, wie beschrieben, ein Punkt im p-T-Diagramm, so dass Druck und Temperatur eines im Tripelpunkt befindlichen Systems eindeutig bestimmt sind. Dennoch kann das System, wenn es sich in diesem Punkt befindet, verschiedene Gleichgewichtszustände einnehmen – solange dabei keine der Phasen ganz verschwindet. Das System kann etwa Wärme mit der Umgebung austauschen, und sein Volumen kann sich ändern; dabei ändern sich die relativen Anteile der drei Phasen. Als Zustandskoordinaten sind hier die extensiven Koordinaten inneren Energie und Gesamtvolumen brauchbar. Im U-V-Diagramm füllen die Zustände der gleichzeitigen Koexistenz der drei Phasen ein zwei-dimensionales Gebiet aus, während Druck und Temperatur hier zu einem konstanten Wert entartet sind. Neben der Erkennbarkeit ist es gerade diese Unempfindlichkeit gegenüber kleinen Schwankungen des Volumens und der Wärme Zu- und Abfuhr, die den Tripelpunkt zur Nutzung für eine Temperaturreferenz auszeichnet.
Bei einer Darstellung der Gleichgewichtszustände als Fläche in einem Druck-Volumen-Temperatur-Raum, siehe Grafik, schrumpft das Tripelgebiet zu einer eindimensionalen Linie, der Tripellinie, die durch die konstanten Tripelpunktswerte für Druck und Temperatur gekennzeichnet ist. Entlang der Tripellinie korrespondieren verschiedene Volumenwerte mit Änderungen der Mengenanteile der Phasen.
Die Variabilität der extensiven Größen Volumen und innere Energie widerspricht nicht der Gibbsschen Phasenregel, da diese Regel nur Aussagen über intensive Variablen macht.
Skalenfixpunkte und andere Werte
Die Eindeutigkeit des Tripelpunkts liefert besonders gute Temperatur-Fixpunkte für die Kalibrierung der Skalen von Thermometern.
Gängige Tripelpunkt-Temperaturangaben, z. B. nach der Internationalen Temperaturskala von 1990, sind:
Wasser: 273,16 K (0,01 °C) bei 611,657 ± 0,010 Pa
Quecksilber: ITS-90-Fixpunkt 234,3156 K (−38,8344 °C) bei 1,65 · 10−4 Pa
Weitere Temperaturen für Tripelpunkte liefert die ITS-90.
Höhere Zustände ohne Freiheitsgrad
Wie die Phasenregel zeigt, hat ein Zustand eines einkomponentigen Systems, in dem drei Phasen im Gleichgewicht existieren, keine verbleibenden Freiheitsgrade (er ist ein „invarianter“ oder „nonvarianter“ Zustand), und es können in einem solchen System nicht mehr als drei Phasen koexistieren. Aus der Phasenregel folgt aber auch, dass in Systemen, die aus mehreren unabhängigen Komponenten bestehen, mehr als drei Phasen an invarianten Punkten im Gleichgewicht stehen können.
Quadrupelpunkt
Kann ein aus zwei unabhängigen Komponenten bestehendes System in vier verschiedene Phasen zerfallen, dann ist ein Zustand, in dem alle vier Phasen im Gleichgewicht stehen, ein invarianter Zustand. Ein Beispiel für einen solchen Quadrupelpunkt ist der eutektische Punkt eines binären Systems mit den im Gleichgewicht stehenden
beiden festen Phasen,
einer flüssigen Phase und
einer gasförmigen Phase.
Quintupelpunkt
Kann ein aus drei unabhängigen Komponenten bestehendes System in fünf verschiedene Phasen zerfallen, dann ist ein Zustand, in dem alle fünf Phasen im Gleichgewicht stehen, ein invarianter Zustand. Ein Beispiel ist ein System, das aus den drei Komponenten
Wasser, H2O
Natriumsulfat, Na2SO4
Magnesiumsulfat, MgSO4
besteht. Bei einer Temperatur von 22 °C können die folgenden fünf Phasen koexistieren:
Wasserdampf
eine flüssige Mischung aus Wasser, Natriumsulfat und Magnesiumsulfat
Kristalle von Natriumsulfat-Decahydrat, Na2SO4·10 H2O
Kristalle von Magnesiumsulfat-Decahydrat, MgSO4·10 H2O
Kristalle von Natriummagnesiumsulfat-Tetrahydrat, Na2Mg[SO4]2·4 H2O
Trivia
Die einzige bekannte Substanz, die keinen Tripelpunkt fest/flüssig/gasförmig besitzt, ist Helium. Es hat einen Tripelpunkt, an dem flüssiges Helium I, flüssiges Helium II und gasförmiges Helium koexistieren, sowie einen Tripelpunkt, an dem flüssiges Helium I, flüssiges Helium II und festes Helium im Gleichgewicht stehen.
Siehe auch
Die Tripelpunkttemperatur des Wassers (273,16 K) ist jene Temperatur, bei der reines Wasser und reines Eis mit ihrem Dampf unter der Bedingung im Gleichgewicht stehen, dass der Druck in allen drei Phasen gleich dem Sättigungsdampfdruck des Wassers bei dieser Temperatur ist. Setzt man jedoch einen anderen Druck voraus als den eigenen Sättigungsdampfdruck des Wassers, dann stehen die drei Phasen bei einer anderen Temperatur im Gleichgewicht. Bei einem Druck von 1013,25 hPa stehen luftgesättigtes flüssiges Wasser, luftgesättigtes Wassereis und wasserdampfgesättigte Luft bei einer Temperatur im Gleichgewicht, die um etwa 0,01 K niedriger ist als die Tripelpunktstemperatur, nämlich bei der Eispunkttemperatur 273,15 K.
Weblinks
Verzeichnis von Datenbanken und Nachschlagewerken mit Tripelpunkten
Einzelnachweise
Schwellenwert (Temperatur)
Stoffeigenschaft
|
Q106410
| 295.697503 |
629529
|
https://de.wikipedia.org/wiki/Terengganu
|
Terengganu
|
Terengganu (yawi , früher geschrieben Trengganu; ) ist ein Bundesstaat in Malaysia.
Lage
Terengganu befindet sich in der Nähe der thailändischen Grenze, im Nordosten der malaiischen Halbinsel und hat eine Fläche von 12.955 km². Die zu dem Staat gehörenden Perhentian-Inseln und Redang liegen im Golf von Thailand, mit dem Terengganu eine 225 Kilometer lange Küstenlinie hat. Auf dem Festland grenzt der Bundesstaat im Südwesten an Pahang und im Nordwesten an Kelantan.
Geschichte
Das Srivijayareich, Majapahit und das benachbarte Siam waren bedeutende Imperien, in die Terengganu als Vasallenstaat eingebunden war. 1909 wurde das Sultanat britisches Protektorat und in der weiteren Folge Teil der Unfederated Malay States. Im Zweiten Weltkrieg wurde es von den Japanern besetzt, die es im Oktober 1943 wieder an Thailand zurückgaben. Diese Maßnahme wurde nach der Wiedereroberung Malaysias durch die Briten wiederum rückgängig gemacht.
Wirtschaft
Die Ölindustrie mit riesigen petrochemischen Anlagen in der Nähe von Paka und Kijal ist der wichtigste Wirtschaftszweig. Es entstanden viele Joint-Ventures zwischen der staatlichen malaysischen Ölgesellschaft Petronas und Multinationalen Konzernen. Früchte wie Bananen, Wassermelonen, Durian und Rambutan sind wichtige landwirtschaftliche Produkte.
Bevölkerung
In Terengganu leben 1.149.440 Menschen (Stand: 2020). Nicht viele indische und chinesische Immigranten kamen nach Terangganu, sodass die malaiische Kultur mehr als in anderen malaysischen Staaten dominiert. Über 90 % der Bevölkerung sind Malaien, etwa 4 % Chinesen und etwa 0,5 % Inder. Daneben gibt es noch andere Minderheiten.
Politik
In Terengganu regierte von 1999 bis 2004 die islamistische PAS. In den Wahlen im Jahr 2004 erreichte die UMNO wieder die Mehrheit.
Die PAS konnte sich auf eine breite muslimische Mehrheit stützen, da die überwältigende Mehrheit der Bevölkerung Malaien sind. Dennoch vermieden die Islamisten es, die ethnischen Minderheiten zu sehr einzuschränken, vor allem die Chinesen, die die mit Abstand größte und wohlhabendste Minderheit Malaysias sind. Bei Wahlen auf Landesebene benötigt die PAS für einen Sieg vermutlich auch die Stimmen der Minderheiten, weil nur etwa 60 % Prozent der Bevölkerung Muslime sind und es unwahrscheinlich ist, dass sich die überwältigende Mehrheit der Malaien von der UMNO abwendet. Deshalb umwarb die PAS die Chinesen in Terengganu. In Terengganu gab es weiterhin (zu hohen Preisen) Bier und Schweinefleisch zu kaufen, obwohl ihr Konsum „haram“, unrein, zum Islam nicht konform ist.
Seit 2003 ist es nicht mehr erlaubt, die Dienste eines Fremdenführers in Anspruch zu nehmen, der dem anderen Geschlecht angehört. Wenn man einen Familienausflug macht, muss man die Familie aufteilen und Besichtigungen getrennt nach Frauen und Männern unternehmen.
Verwaltungsgliederung
Die sieben Distrikte von Terengganu sind:
Besut
Dungun
Kemaman
Marang
Hulu Terengganu
Kuala Terengganu
Setiu
Ortschaften:
Keropok Lekor
Marang
Rantau Abang
Weblinks
Geschichte von Terengganu und Statistiken (englisch)
Einzelnachweise
Bundesstaat in Malaysia
Sultanat (Malaysia)
|
Q189701
| 202.172276 |
11944
|
https://de.wikipedia.org/wiki/Posaune
|
Posaune
|
Die Posaune ist ein tiefes Blechblasinstrument, das wegen seines weitgehend zylindrischen Rohres (enge Mensur) zu den Trompeteninstrumenten zählt. Der Ton wird mittels Anregung der natürlichen Resonanzen der Luftsäule im Instrument durch Lippenschwingungen (siehe Polsterpfeife) des Bläsers an einem Kesselmundstück erzeugt.
Aufbau und Funktion
Die Posaune besteht aus einem S-förmig gebogenen zylindrischen Rohr (im Allgemeinen aus Messing), in das an einem Ende ein Mundstück eingesetzt wird und das sich am anderen Ende zum Schalltrichter öffnet (das auch Stürze oder Schallbecher genannte kegelförmige Schallstück). Der Zug dient zur Modifizierung der physikalisch bedingten Naturtöne, um das Instrument chromatisch spielbar zu machen.
Alle Bauformen der Posaune werden mit einem Kesselmundstück gespielt.
Aufgrund ihrer relativ engen Mensur klingen die Töne der Posaune härter als bei den Instrumenten der Bügelhornfamilie, die ein sanfteres Klangvolumen zeigen. Die Mensur wirkt sich auch auf die Schallenergie aus. So wird der Schall bei einer Posaune stärker gebündelt als beispielsweise bei einem Tenorhorn.
Der Ton entsteht wie bei allen Blechblasinstrumenten durch die Vibration der Lippen des Spielers am Mundstück zur Anregung stehender Wellen in der Luftsäule des Instruments.
Die dynamische Spannbreite liegt bei etwa 37 dB. Die Schallpegel nehmen in allen Dynamikstufen zur Höhe hin zu. In 16 Metern Entfernung erreichen die Werte beim Pianissimo (pp) 40 dB in der Tiefe und 70 dB in der Höhe. Die Werte im Fortissimo (ff) liegen bei 85 dB und 100 dB. Am Ohr des Spielers erreicht das Instrument Spitzenwerte von über 115 dB.
Geschichte
Etymologie
Der italienische, französische und englische Name des Instruments, trombone, bedeutet wörtlich nichts anderes als „große Trompete“. Der deutsche Name entwickelte sich hingegen aus der altfranzösischen Bezeichnung , die ihrerseits auf lateinisch bucina „Signalhorn, Jagdhorn, Trompete“ zurückgeht. Mit B anlautende Schreibungen wie Busaun, Busaune, Bosaune, Busane und Buson finden sich bis ins 16. Jahrhundert im deutschen Schrifttum noch häufig, wurden aber letztlich durch die Form Posaune verdrängt, die Martin Luther in seiner Bibelübersetzung wählte; Luther übersetzte damit zum einen (u. a. und ), zum anderen (u. a. , und ).
Renaissance
Über die Entstehung der Posaune gibt es nur wenige Daten. Zu den ältesten Existenz-Belegen des Instruments zählen ein englisches Dokument von 1495 und ein Gemälde des 1495 verstorbenen Matteo di Giovanni. Die Posaune ist neben der Violine eines der ältesten voll chromatisch spielbaren Orchesterinstrumente.
Weil eine Naturtrompete (Tromba) mit dem Grundton b eine unhandliche Länge von etwa 2,80 Meter (9 Fuß) aufweist, wurden die Instrumente in S-Form gebogen, gerollt oder in „Brezelform“ hergestellt.
Bis etwa 1700 wurde die Posaune als genau intonierbares Blasinstrument häufig im Ensemble mit Sängern und Streichern, aber auch eigenständig eingesetzt. In Bläserensembles dieser Zeit („Alta capella“, Stadtpfeifer) wurden neben anderen damals gebräuchlichen Instrumenten wie Zinken, Schalmeien und Zugtrompeten eben auch (Renaissance-)Posaunen gespielt. Sie traten in der Regel bei gesellschaftlichen, mitunter auch kirchlichen, jedoch weniger bei höfischen Anlässen auf und griffen mangels spezieller Kompositionen häufig auf Vokalmusik zurück, auch zur Tanzbegleitung.
Barock
Der europäische Adel bevorzugte traditionell Saiten- und Streichinstrumente zur Unterhaltungsmusik, eine Präferenz, die mit steigendem Wohlstand auch von bürgerlichen Schichten zunehmend imitiert wurde. Dadurch kam es im 17. Jahrhundert, obgleich zu dieser Zeit das Posaunen-Stimmwerk als Trio aus Altposaune, Tenorposaune und Bassposaune entstand, zu einem gewissen Rückgang der Bläsermusik, im Zuge dessen die Posaune in weiten Teilen Europas aus der Mode geriet. So wurde sie beispielsweise in italienischen Kanzonen und Sonaten ab 1630 kaum mehr besetzt. Nicht zuletzt infolge des Dreißigjährigen Krieges ist über die Musik und die Komponisten dieser Zeit heute jedoch weniger bekannt als über andere Epochen. Johann Sebastian Bach sah nur in 15 seiner überaus zahlreichen Kantaten Posaunen vor und setzte sie lediglich zur Verdoppelung der Chorstimmen ein.
18. und 19. Jahrhundert
Eine bemerkenswerte Ausnahme dieses Trends bildet das Oratorium La Resurrezione des jungen Georg Friedrich Händel aus dessen Zeit in Italien. Händel griff auch in seinen späteren Oratorien Saul und Israel in Egypt von 1739 wieder auf Posaunen zurück und inspirierte damit möglicherweise Christoph Willibald Gluck dazu, das Instrument in seinem Ballett Don Juan (1761) sowie Orfeo ed Euridice (1762) und seinen späteren Opern einzusetzen. Gluck wiederum bildete eine Inspiration für Mozart.
Mozart komponierte noch für die Renaissanceposaune (auch „Sackbutt“ genannt), die er nicht nur in einigen Opern (unter anderem der Zauberflöte) verwendete, sondern etwa auch in seinem Requiem. Es enthält mit dem Tuba mirum eine der bekanntesten solistisch geprägten Orchesterpassagen für die Tenorposaune.
Die ersten „modernen“ Posaunen, die auch das metallische Forcieren des Klanges ermöglichten, wurden erst nach Mozarts Tod gebaut. Erst seit dieser Zeit wird die Posaune auch im Satz mit Trompeten eingesetzt.
Das klassische Sinfonieorchester ging aus dem Opernorchester hervor. Bereits im 18. Jahrhundert hatten einige wenige bedeutende Komponisten die Posaune einbezogen; etabliert wurde sie dort durch Beethoven: Er besetzte sie erstmals im vierten Satz seiner 5. Sinfonie.
Seit der romantischen Epoche bis in die heutige Zeit beinhaltet die übliche Besetzung eines Sinfonieorchesters zwei bis drei Tenorposaunen und eine Bassposaune. Im modernen Blasorchester sind für gewöhnlich vier Posaunenstimmen üblich.
Zu den wichtigsten Solokonzerten für Posaune zählen die in der Mitte des 19. Jahrhunderts entstandenen Werke von Ferdinand David, Ernst Sachse und Friedrich August Belcke. Der überwiegende Teil der Sololiteratur für die Posaune entstammt jedoch dem 20. Jahrhundert, wie etwa die Sonate für Posaune und Klavier von Paul Hindemith.
20. und 21. Jahrhundert
In der klassischen Musik des 20. Jahrhunderts behielt die Posaune ihre bedeutende Stellung im Sinfonieorchester und erhielt markante Passagen in Werken praktisch aller bedeutenden Komponisten dieser Epoche.
Nach dem Zweiten Weltkrieg entdeckten Komponisten das Instrument nach und nach auch wieder neu als Solo-Instrument und für die Kammermusik. Stücke wie Edgar Varèses Octandre, Paul Hindemiths Sonate und Luciano Berios Sequenza V bereiteten weniger bekannten Komponisten den Weg bei der Schaffung eines breiteren Repertoires. Der bekannteste Posaunist der Neuen Musik der zweiten Hälfte des zwanzigsten Jahrhunderts ist Vinko Globokar, der auch als Komponist hervorgetreten ist.
Zu den beliebtesten Vortragsstücken zählen heute Stjepan Suleks Vox Gabrieli, die Sonatinen von Jacques Castérède und Bertold Hummel, sowie die Deux Danses von Jean-Michel Defaye. Zu den bekanntesten Posaunenkonzerten der Zeit nach dem Zweiten Weltkrieg zählen etwa Werke von Launy Grøndahl, Lars-Erik Larsson, Gordon Jacob und Derek Bourgeois.
In den letzten 20 Jahren haben u. a. Kalevi Aho (Sinfonie Nr. 9 für Posaune und Orchester – Sinfonia concertante Nr. 2 / 1994), Anders Eliasson und Jan Sandström Konzerte für Christian Lindberg geschrieben, der auch als Komponist – darunter einer Reihe von Werken für Posaune in verschiedenen Besetzungen – in Erscheinung tritt. Ein neues Konzert für Posaune und Orchester von Kalevi Aho wurde am 2. März 2012 in Den Haag uraufgeführt. 2015 schrieb Klaus Miehling ein Konzert in Es für Tenorposaune und Streichorchester (op. 234).
Zugleich kam es im 20. Jahrhundert zu zahlreichen konstruktiven Weiterentwicklungen, etwa bei den verwendeten Werkstoffen. Die Durchmesser von Mundstücken, Bohrungen und Schalltrichtern stiegen, innovative Ventilkonstruktionen und verschiedene Typen von Dämpfern wurden entwickelt.
Heute wird die Posaune in allen Arten der Blasmusik, Sinfonie-Orchestern, Marsch- und Militärkapellen, Brass Bands, Posaunenchören und anderen Genres gespielt. Sie kann auch in kleineren Gruppen mitspielen wie etwa Blechbläserquintetten, -quartetten und -trios und reinen Posaunentrios (Altposaune, Tenorposaune und Bassposaune, oder zwei Tenorposaunen und eine Bassposaune, seltener drei Tenorposaunen) oder -quartetten.
Die Posaune ist darüber hinaus aus dem Swing, Jazz, Salsa und Ska nicht mehr wegzudenken. Gerade Jazz und Swing sind für die wohl größten spieltechnischen Entwicklungen seit dem Anfang des 20. Jahrhunderts verantwortlich und brachten eine Vielzahl herausragender Jazz-Posaunisten hervor, in Deutschland vor allem Albert Mangelsdorff und Conny Bauer, in Großbritannien Chris Barber, in Schweden Nils Landgren, in den USA Musiker wie Kid Ory, Jack Teagarden, Trummy Young, Tommy Dorsey, Glenn Miller, Ted Heath, Kai Winding, J. J. Johnson, Curtis Fuller, Ed Neumeister, Bill Watrous, Urbie Green, Frank Rosolino, Carl Fontana, Wycliffe Gordon, Richard Roblee und Don Lusher, die Jazz-Posaunistinnen (Swing) Melba Liston und Gunhild Carling.
Bauformen und Stimmlagen
Unter einer Posaune versteht man im Allgemeinen eine Zugposaune. Die Ventilposaune (siehe unten) bildet eine Sonderform.
Der Zug dient der Tonhöhenänderung, da durch Hinausschieben die Luftsäule verlängert wird. Er besteht aus den beiden über einen Quersteg verbundenen Rohren des Innenzugs und dem U-förmigen Außenzug, in der Regel mit Wasserklappe. Die Innenrohre sind am Ende zum Schuh etwas größer im Außendurchmesser und berühren hier fast den Außenzug. Der Zug muss regelmäßig „geschmiert“ werden: Durch auf den Innenzug aufgetragenes Posaunenfett bildet dazukommendes Wasser kleine Perlen, ähnlich den Kugeln eines Kugellagers, auf denen dann die beiden Teleskoprohre reibungsarm laufen. Ein direkter Materialkontakt (Messing/Neusilber/Chrom) oder sogar das trockene Laufen auf dem Fett hätte eine extrem hohe Haftreibung zur Folge, die eine leichtgängige Funktion des Zuges nicht gewährleistet. Aus diesem Grund befeuchtet der Posaunist den Zug auch während des Musizierens regelmäßig mit vorhandenem Kondenswasser aus dem Zug oder mit einer kleinen Pump-Wasserflasche. Alternativ zur Fett/Wasser-Kombination kann auch ein Siliconölgemisch aus verschiedenen Konsistenzen verwendet werden.
Die Posaune besitzt in der Regel sieben Zugpositionen (auch: Lagen), die sich jeweils um einen Halbton unterscheiden. Der Zug kann stufenlos verschoben werden, so dass die Posaune als einziges Blechblasinstrument von einer Tonhöhe zu einer anderen "gleiten" kann (echtes Glissando).
Wie bei allen gängigen Blechblasinstrumenten kann die Stimmung der Posaune über einen Stimmzug kalibriert werden. Er befindet sich in der Regel im hinteren Bogen vor dem Schallstück. Diese Anordnung ist kostengünstig und mit geringem Aufwand zu realisieren. Sie ist aber für die Ansprache und die Intonation nicht ganz unproblematisch, da ein Bereich des Instruments, der sich bereits deutlich konisch erweitert, hier nochmals durch zylindrische Passagen unterbrochen wird. Eine wenig gängige Alternative besteht darin, die Stimmvorrichtung in den Zug zu integrieren.
Die heute am weitesten verbreiteten Stimmlagen sind die Tenor- und Bassposaune. Vergleichbar anderen Instrumenten der Renaissance wie etwa der Blockflöte wurde die Posaune historisch jedoch in allen Stimmlagen von Piccolo bis Kontrabass gebaut.
Tenorposaune
Die bei weitem gängigste Bauform ist die der Tenorposaune, heute in der Regel in B und mit einer Bohrung von etwa 12,2 bis 13,89 mm. Dieses Instrument ist ab dem großen E aufwärts voll chromatisch spielbar (siehe jedoch auch unter Falsett).
Die Tenorposaune wird ohne Transposition (klingend, in C) und überwiegend im Bassschlüssel notiert, im sinfonischen Bereich häufig auch im Tenorschlüssel, seltener im Altschlüssel. Eine Ausnahme bilden Noten für englische Brass Bands, wo die Posaune im Violinschlüssel und transponierend in B notiert wird, um den Musikern den Wechsel zwischen verschiedenen Instrumenten zu erleichtern.
Ebenso wie das Erreichen der selten geforderten Pedaltöne vom Kontra-B bis zum Kontra-E richtet sich der Tonumfang in der Höhe nach dem Können des Spielers. Anfänger erreichen in der Regel bald das d' und nach einiger Zeit das f'; von Fortgeschrittenen wird das b' erwartet. Im professionellen Bereich ist ein Tonraum bis zum f'' erforderlich.
Quartposaune, Tenorbassposaune
Der deutsche Instrumentenbauer Christian Friedrich Sattler stattete im 19. Jahrhundert erstmals eine Tenorposaune mit einem zusätzlichen Quartventil zum Umstimmen von B nach F aus. Diese heute noch verbreitete Bauform (Quartposaune) bezeichnet man mitunter auch als Tenorbassposaune, da das Instrument bei betätigtem Ventil in F gestimmt ist wie die vor Sattlers Innovation gängige Bauform der Bassposaune.
Die Länge des Zuges ist so bemessen, dass die Quarte zwischen dem ersten und dem zweiten Naturton chromatisch überbrückt werden kann. In höheren Lagen muss der Zug meist nur noch wenig ausgezogen werden, weil die Naturtöne dort enger beieinander liegen. Zugleich lassen sich höhere Töne auf mehreren Stellungen des Zuges erreichen. Eine vollständige Tabelle der Zugpositionen mit und ohne Verwendung des Quartventils ist in der nebenstehenden Tabelle angegeben.
Posaunen mit Quartventil sind nicht nur ab dem großen C voll chromatisch spielbar: Ein mindestens ebenso wesentlicher spieltechnischer Vorzug besteht darin, dass mit Ventil alternative Zugpositionen möglich werden, eine bedeutende Erleichterung besonders im unteren Register. So braucht der Zug für das kleine c nicht mehr bis auf die sechste Position ausgezogen zu werden, sondern dieser Ton ist mit Ventil bereits auf der ersten Position erreichbar; das große H liegt mit Ventil zwischen der zweiten und der dritten Lage statt ganz am Ende des Zuges.
Da sich bei Betätigen des Quartventils wegen der verlängerten Luftsäule die Abstände zwischen den einzelnen Zugpositionen gegenüber dem Spielen ohne Quartventil vergrößern, ist die siebte Zugposition nicht mehr erreichbar. Daher ist das Kontra-H nur durch Ausziehen des Ventilstimmzugs zu erreichen, was die letzte Lücke zu den Pedaltönen schließt. Manche Modelle besitzen eigens dazu einen zweiten Ventilstimmzug. Bei Instrumenten mit weiterer Bohrung sprechen die Ventil- und Pedaltöne in der Regel besser an und klingen auch meist besser.
Um zu erreichen, dass der Klang und die Ansprache einer Quartposaune sich bei betätigtem Ventil möglichst wenig ändert, gingen manche Hersteller in den 1980er Jahren dazu über, die Ventilschleife in möglichst wenigen, großen Radien zu winden, so dass sie nach hinten über den Bogen des Schalltrichters hinaus ragt (open wrap). Vor diesem Hintergrund entstanden auch das Thayer-Ventil und die dadurch angeregten, anderen innovativen Ventilkonstruktionen. Eine heute verbreitete Kompromisslösung mit wenigen weiten Radien, die jedoch nicht über den hinteren Bogen hinausragt, bezeichnen einige Hersteller als semi-open. Manche Posaunisten bevorzugen jedoch nach wie vor eine eng innerhalb des Korpus verlegte Ventilschleife (traditional wrap).
Wieder andere wählen nach wie vor ventillose Posaunen, etwa weil das untere Register für ihre Musikrichtung weniger bedeutend ist und weil diese Instrumente, besonders mit enger Bohrung, meist etwas besser ansprechen. Besonders Jazz-Solisten verwenden bevorzugt eng gebaute Tenorposaunen mit kleinem Schalltrichter und ohne Ventil.
Bassposaune
Die Bassposaune ist eigentlich nur eine etwas größere Tenorbassposaune. Wie diese ist sie in B gestimmt, hat also die gleiche Rohrlänge und unterscheidet sich von ihr nur durch eine weitere Bohrung (etwa 14,30 bis 14,89 mm), einen größeren Schalltrichter und ein meist etwas größeres Mundstück. Dadurch spricht sie in der tiefen Lage besser an, klingt voller und kann lauter gespielt werden. Das hohe Register klingt dafür matter und erfordert eine größere Anstrengung.
Die Bassposaune wird in der Regel nichttransponierend im Bassschlüssel notiert. Der Tenorschlüssel bildet die Ausnahme, der Altschlüssel kommt, wenngleich selten, ebenfalls vor.
Die moderne Bassposaune besitzt mindestens ein Ventil, heute in der Regel wie bei der Tenorposaune auf eine Quarte gestimmt. Meistens ist zusätzlich ein zweites Ventil vorhanden, mit dem die Grundstimmung zugunsten voll chromatischer Spielbarkeit ab dem tiefsten Pedalton weiter herabgesetzt werden kann. Die gängigsten Grundstimmungen in der Ventilkombination sind Es und D, doch es gab auch Versuche mit allen Stimmungen zwischen G und E.
Das zweite Ventil ist entweder in die Rohrschleife des Quartventils integriert und kann nur mit diesem zusammen benutzt werden (versetzte Bauweise, offset, abhängige Konfiguration) oder es befindet sich vor oder hinter dem Quartventil und kann auch einzeln benutzt werden (in-line, unabhängige Konfiguration). Die abhängige Bauweise wurde erstmals von den amerikanischen Bassposaunisten Kauko Kahila (BSO) und Edward Kleinhammer (CSO) unabhängig voneinander in den 1950er Jahren propagiert. Ihre Landsleute Burt Herrick und Larry Minnick leiteten einige Jahre später aus diesem Konzept die unabhängige Bauweise ab. Beide Bauformen besitzen ihre Eigentümlichkeiten; die Entwicklung des Instruments kann noch nicht als abgeschlossen betrachtet werden.
Der Tonumfang der Bassposaune reicht in der Tiefe je nach Stimmung des zweiten Ventils – theoretisch – bis zum Subkontra-B und in der Höhe bis zum c2 und höher. In der Praxis sind nur talentierte und geübte Spieler in der Lage, tiefere Töne als das Kontra-E im normalen Vortrag zu nutzen. Die Literatur geht kaum über den Bereich zwischen Kontra-B und b1 hinaus. Eine Ausnahme bildet das Konzert für Orchester von Béla Bartók. Dieser ging von einer „echten“ Bassposaune in F aus, die neben Instrumenten in G, E, Es, D und C1 von der Renaissance bis zur Einführung der Tenorbassposaune üblich war.
Altposaune
Die Altposaune ist heute deutlich seltener als die Tenor- und Bassposaune. Sie ist zumeist in Es, selten in F gestimmt und wird in der Regel nichttransponierend im Altschlüssel notiert.
Bei einigen Posaunenlehrern wird die Altposaune für Einsteigerkinder gebraucht.
Konstruktiv unterscheidet sich die Altposaune von der Tenorposaune durch eine kürzere Rohrlänge und einen kleineren Schalltrichter mit einem Durchmesser zwischen 165 und 177 Millimetern (6,5 bis 7 Zoll). Ihre Bohrung ist jedoch nur selten kleiner als die einer engen Tenorposaune. Manche Instrumente besitzen ein Quart- oder Sekundventil.
Die Altposaune klingt brillanter als die größeren Instrumente. Ihr Tonumfang reicht (ohne Pedal- und Ventiltöne) in etwa vom großen A bis zum zweigestrichenen b, doch höhere Töne als das zweigestrichene f werden nur selten gefordert.
Infolge des kürzeren Zuges unterscheiden sich ihre Lagen deutlich von denen auf der Tenor- und Bassposaune, was den Wechsel zwischen diesen Instrumenten, über die für Tenorposaunisten ungewohnte Notation hinaus, weiter erschwert. Von professionellen „hohen“ Posaunisten wird heute jedoch erwartet, dass sie auch die Altposaune beherrschen.
Vom 16. bis zum 18. Jahrhundert bildete die Altposaune die reguläre Oberstimme des dreistimmigen Posaunensatzes. Anfang des 19. Jahrhunderts ging ihre Verbreitung infolge der Entwicklung der Ventiltrompete jedoch deutlich zurück. Als sich der Posaunensatz im klassischen und romantischen Sinfonieorchester etablierte, wurde die Oberstimme in der Regel mit einer Tenorposaune besetzt, deren in dieser Zeit nach oben erweiterter Tonumfang dazu meist ausreichte. Zwar griffen Tenorposaunisten noch bis ins 20. Jahrhundert vereinzelt auf die Altposaune zurück, doch erst in jüngster Vergangenheit nimmt die Beliebtheit des Instruments wieder merklich zu.
Die Altposaune wird in erster Linie in der Chormusik sowie im symphonischen und Opernbereich besetzt, doch es existiert auch ein bescheidenes solistisches Repertoire, insbesondere aus der Wiener Klassik. Zeitgenössische Komponisten haben das Instrument erst in jüngster Zeit wieder neu entdeckt.
Kontrabassposaune
Die frühesten Kontrabassposaunen („Octavposaune“ bei Praetorius, gelegentlich auch „Doppelposaune“ (trombone doppio)) wurden in der Renaissance gebaut und waren in Kontra-B (16 Fuß) gestimmt. Sie hatten zunächst einen überlangen Zug mit Schwengel, um die äußersten Lagen zu erreichen. Später kamen Bauformen mit doppelt gewundenem verkürztem Zug auf.
Im späten 19. Jahrhundert kam es zur Neuentdeckung der Kontrabassposaune, als Richard Wagner für den Ring des Nibelungen erstmals ein Opernorchester mit einem vierstimmigen Posaunensatz vorsah. Ihm folgten beispielsweise Richard Strauss mit seiner Oper Elektra von 1908 und Arnold Schönberg 1913 mit den Gurre-Liedern. Dennoch, und trotz einiger konstruktiver Innovationen, konnte sich die Kontrabassposaune nicht dauerhaft im modernen symphonischen Orchester etablieren und wurde im 20. Jahrhundert nur vereinzelt von Komponisten besetzt.
Bei modernen Kontrabassposaunen handelt es sich um in F oder Kontra-B gestimmte Sonderanfertigungen in gleicher Stimmlage (und entsprechend mit gleicher Rohrlänge) wie die Bass- beziehungsweise Kontrabasstuba. Ihre Bohrung ist meist etwas weiter als die der modernen Bassposaune, und sie besitzen ein bis zwei Ventile.
Seit dem Zweiten Weltkrieg ist im Orchester eigentlich nur noch die Kontrabassposaune in F mit zwei Ventilen in Gebrauch. Ursprünglich aus Platzgründen war das Schallstück mit einer Windung versehen, aber ab den 1970er Jahren setzte sich die lange, gerade Bauform durch. Durch die Kombination der beiden Ventile erübrigte sich auch der Schwengel, und man kommt mit fünf Positionen am Zug aus. Übliche Ventilkombinationen sind Sekund- und Quintventil, Terz- und Quintventil oder seltener Terz- und Quartventil.
Sopranposaune, Piccoloposaune, Diskantposaune, Zugtrompete
Die Sopranposaune gehört erst seit Ende des 17. Jahrhunderts zur Familie der Posaunen. Sie wurde und wird selten verwendet. Wenn in der Renaissance- und Barockzeit ein Posaunensatz für mehrstimmige Musik benutzt wurde, die Stimmen in hoher Sopranlage umfasste, so wurden für die höchsten Stimmen andere Instrumente wie zum Beispiel Zinken oder Violinen verwendet.
Drei Kantaten von J. S. Bach enthalten einen vierstimmigen Posaunensatz für Mitglieder der Leipziger Stadtpfeifer, bei denen eine Sopranposaune für die höchste Stimme vorgesehen ist. Die Verwendung der Sopranposaune ist in Leipzig bis mindestens 1769 belegt.
Die Posaunenchöre der Herrenhuter Brüdergemeine haben zum Teil die Besetzung von Sopranposaunen als höchste Stimme in einem reinen Posaunensatz als Tradition aus dem 18. Jahrhundert erhalten.
Posaunen höherer Stimmlage als die Altposaune besitzen heute nur noch Exotenstatus und werden meist von Trompetern als Gag eingesetzt, wie etwa von Matthias Höfs bei Auftritten von German Brass.
Der Name Zugtrompete ist umgangssprachlich gebräuchlich, da sie den gleichen Tonumfang und Mundstückgröße wie eine Trompete besitzt. Die Grundstimmung heutiger Instrumente ist in B. Die Notation der Sopranposaune ist mangels Spieltradition nicht geklärt. Nach dem Instrumentenhandbuch in Tabellenform von Winfried Pape wird die Sopranposaune nichttransponierend in klingend C notiert. Da aber sowieso kein konventioneller Posaunist wegen des Trompetenmundstücks und der extrem kurzen Lagenwege auf die Sopranposaune zurückgreifen kann und nicht vorausgesetzt werden darf, dass ein solcher auch den Violinschlüssel lesen kann, sondern nur Trompeter, empfiehlt sich eine transponierende Notation nach B einen Ganzton höher, wie sie für die B-Trompete traditionell üblich ist.
Deutsche und amerikanische Bauweise
In Deutschland wurden Posaunen historisch mit den verschiedensten Bohrungen und Schallstückdurchmessern gefertigt. Die Deutsche Konzertposaune unterscheidet sich konstruktiv in mehrfacher Hinsicht deutlich von der heute üblichen, amerikanischen Bauweise. Sie wird meist mit einem eher kleinen Mundstück gespielt, hat jedoch ein sehr langes Mundrohr von mindestens 30 bis 60 Zentimetern.
Das gesamte Instrument besteht in der Regel aus Goldmessing, stellenweise auch aus Neusilber, was sich auf den Klang auswirkt. Das Metall ist hart, aber biegsam. Seine Wandstärke ist insgesamt geringer als bei der amerikanischen Bauweise und nimmt vor allem zum Schallstück hin kontinuierlich ab. Getreu der Philosophie von Eduard Kruspe gilt dabei das Prinzip der Fragilität: Je leichter und dünnwandiger, desto hochwertiger das Instrument.
Das Schallstück ist einteilig mit gerader Lötnaht und besitzt einen Kranz aus Neusilber, oft mit Gravur, der jedoch nicht flächig aufgelötet ist. Dieser Schmetterkranz bewirkt das sogenannte unendliche Fortissimo: Die Lautstärke kann kontinuierlich gesteigert werden, ohne dass der Ton „aufbricht“, wobei die absolut erreichbare Lautstärke hinter der amerikanischen Bauweise zurückbleibt.
Der Zug ist grundsätzlich „konisch“: das obere Rohr hat eine kleinere Bohrung als das untere. Man gibt dabei keine konkreten Durchmesser an, sondern teilt die Instrumente in fünf „deutsche Weiten“" ein (1 = eng, Soloposaune bis 5 = weiteste Bassposaune). Die Strebe des Außenzugs ist nicht fest verlötet.
Die in Deutschland üblichen Bohrungen galten im 19. Jahrhundert als vergleichsweise groß, blieben jedoch seit 150 Jahren in etwa auf dem gleichen Stand, sodass die Deutsche Konzertposaune heute insgesamt etwas enger ausfällt als ihr amerikanisches Gegenstück. Die Schallstückdurchmesser dagegen sind mit 254 Millimetern und mehr im internationalen Vergleich immer noch am größten (hyperbolische Bauweise).
Schwerere und leichtere Baugruppen wechseln sich „rhythmisch“ ab. Das Ventil befindet sich deutlich weiter hinten im Korpus und wird traditionell per Lederriemen betätigt; weniger radikale Konstruktionen setzen inzwischen jedoch auf den üblichen metallenen Hebel.
Wie bei der Deutschen Konzerttrompete kommen ausschließlich Drehventile zum Einsatz, selbst bei den Ventilposaunen deutscher Bauweise.
Zu den weiteren häufigen Merkmalen der Deutschen Konzertposaune zählen die lange Wasserklappe (mit Betätigungseinrichtung am Quersteg des Außenzuges) sowie Schlangenverzierungen an den Bögen von Zug und Schallstück. Insgesamt zeichnen sich Instrumente deutscher Bauweise bei der Fertigung durch einen hohen Anteil an Handarbeit aus, sind also als kunsthandwerkliche, individuell auf den Auftraggeber zugeschnittene Produkte zu verstehen.
In der Summe unterscheidet sich die Deutsche Konzertposaune daher stark im Klang, im Obertonspektrum sowie in der Abstrahlcharakteristik und in der Ansprache, auch je nach Dynamikbereich, worauf sich der Spieler bei der Klangformung einstellen muss.
Ventilposaune
Die Ventilposaune besitzt statt eines Zuges zur Tonhöhenveränderung drei bis vier Ventile wie viele andere Blechblasinstrumente. Ihr Tonumfang ist gleich der entsprechenden Zugposaunenstimmlage, doch sie unterscheidet sich leicht in Ansprache und Klang, da sie von der Bau- und Spielweise her eher einer großen Trompete ähnelt. Mit einer solchen hat sie unausweichlich auch die Spielgeschwindigkeit in allen Lagen und die generelle Ventiltechnik gemeinsam (z. B. chromatische und diatonische Triller auf fast allen Tönen). Es gibt eine kurze und eine lange Bauform.
Manche Posaunisten vertreten die Auffassung, dass dieses Instrument eine problematische Intonation aufweist, zumal es in der Regel nicht kompensiert und nur bei höherwertigen Instrumenten Trigger oder andere Intonationshilfen besitzt. Eine Minderheit zieht sie der gängigeren Zugposaune jedoch vor.
Historisch gab es Ventilposaunen in allen Stimmlagen von Alt bis Kontrabass, doch die Tenorventilposaune erreichte stets die größte Verbreitung. Eine Variante der Ventilposaune, die 1867 von Václav František Červený entwickelt wurde und die in Tubaform mit gebogenem Schallstück beziehungsweise in Helikonform konstruiert war, war die sogenannte Armeeposaune.
Den Zenit ihrer Beliebtheit erreichte die Ventilposaune im 19. Jahrhundert, als die Ventiltechnik die größten Fortschritte machte. Als gegen Ende dieses Jahrhunderts Zugposaunen besserer Qualität mit industrieller Präzision preisgünstig in Serie gefertigt wurden, gewann diese Bauform wieder die marktbeherrschende Stellung zurück. Regional überwiegt jedoch bis heute die Ventilposaune, etwa in Österreich, Italien, Tschechien, der Slowakei, Spanien, Portugal, Südamerika und Indien.
In der Blasmusik in Österreich und in der alpenländischen Volksmusik wird die Ventilposaune im Violinschlüssel transponierend in B♭ notiert wie das Tenorhorn, was den Musikern bei Bedarf den Wechsel des Instruments, etwa auch zur Trompete, erleichtert.
Bestimmte Bass- und Kontrabass-Ausführungen der Ventilposaune tragen die Bezeichnung Cimbasso und werden im Wesentlichen für die Musik von Giuseppe Verdi und Giacomo Puccini eingesetzt.
Manche Passagen sind auf einer Ventilposaune einfacher zu spielen, andere auf einer Zugposaune. Auf der Ventilposaune sind schnelle technische Passagen in der Regel mit größerer Geläufigkeit zu spielen. Viele (Zug-)Posaunisten bemängeln jedoch ihren matteren, weniger offenen Klang. Im sinfonischen Kontext wird die Ventilposaune heute nicht mehr verwendet, wenngleich insbesondere Verdi eindeutig auf ihre technischen Möglichkeiten setzte. So ist die Ouverture zur Oper Die Macht des Schicksals auf der Zugposaune nur von Virtuosen zu bewältigen. Auch Posaunisten von Weltformat wie etwa die Mitglieder von German Brass griffen vor diesem Hintergrund auf bestimmten Aufnahmen zu einer Ventilposaune, die deshalb beispielsweise auch zu den auf dem Cover ihres Albums Bach 300 abgebildeten Instrumenten zählt.
Auch im Jazz wird die Ventilposaune eher selten eingesetzt. Zu den bekanntesten Ventilposaunisten zählen Bob Brookmeyer, Raul de Souza, Juan Tizol vom Duke Ellington Orchestra sowie Bob Enevoldsen. Da die Fingersätze der Ventilposaune denen der B-Trompete entsprechen, wird sie zudem als Zweitinstrument von einigen Jazz-Trompetern gespielt.
Eine neuartige Bauform besitzt sowohl einen Zug als auch eine Ventilmaschine. Solche Instrumente wurden erstmals im frühen 20. Jahrhundert produziert und sind heute dank dem Einfluss von Jazzmusiker Maynard Ferguson als Superbone bekannt.
Pädagogik
Beim Einstiegsalter gelten ähnliche Grundsätze wie beim Waldhorn und den anderen Blechblasinstrumenten. Insbesondere für Kinder, die infolge ihrer Armlänge die äußersten Zugpositionen noch nicht erreichen können, bringen verschiedene Hersteller in jüngster Zeit die wiederentdeckte Bauform der B/C-Posaune mit Sekund-Verkürzungsventil (und meist mit nur sechs Zugpositionen) auf den Markt, beispielsweise Günter Frost, Thein und Yamaha („Kompaktposaune“).
Zunehmend werden als Erstinstrument für junge Posaunen-Anfänger auch Altposaunen eingesetzt. Da die in Es stehenden Instrumente aufgrund ihres Tonumfanges deutlich kleiner als die üblichen Tenorposaunen sind, können schon Kinder ab etwa sechs Jahren auf einem solchen Instrument lernen. Als mögliche Schwierigkeit ergibt sich daraus, dass beim späteren Umstieg auf die Tenorposaune die zu den einzelnen Zügen gehörenden Töne umgelernt werden müssen. Zum Teil wird aus diesem Grund transponierend gelehrt: Jeder Ton klingt dann eine Quarte höher, als er benannt wird; auf der Tenorposaune ergibt sich dadurch später ohne Umlernen die Übereinstimmung von Notenname und klingendem Ton.
Verwendung im Film
Die Posaune wird von Komponisten, etwa in der Filmmusik, entsprechend der biblischen Konnotation immer wieder eingesetzt, wenn Endzeitszenarien musikalisch untermalt werden. Ein Beispiel ist Thirteen Days, worin das Motiv im Anschluss an die Szene, in der Dean Acheson in einer Konferenz mit Präsident John F. Kennedy erstmals andeutet, dass die Kubakrise zum nuklearen Holocaust führen könnte, erscheint.
Literatur
Erich Valentin: Handbuch der Musikinstrumentenkunde. Mit Zeichnungen von Franz Mazura. Gustav Bosse, Regensburg 1954, S. 346–350 und 435.
Weblinks
Einzelnachweise
Blechblasinstrument
Wikipedia:Artikel mit Video
|
Q8350
| 197.2297 |
98376
|
https://de.wikipedia.org/wiki/Venetien
|
Venetien
|
Venetien bzw. Venezien, amtlich , , ist eine Region in Nordostitalien mit 18.345 km² und Einwohnern (Stand ), deren regionale Hauptstadt Venedig ist.
Geografie
Venetien ist mit 18.345 km² flächenmäßig die achtgrößte Region Italiens und liegt bei der Einwohnerzahl mit etwa 4,9 Millionen Einwohnern an vierter Stelle.
Die Region grenzt im Osten an Friaul-Julisch Venetien, im Nordwesten an Trentino-Südtirol, im Westen an die Lombardei und im Süden an die Emilia-Romagna. Der Nordzipfel Venetiens grenzt an die österreichischen Bundesländer Tirol (Bezirk Lienz) und Kärnten (Bezirk Hermagor). Es gibt jedoch keine direkte Straßenverbindung nach Österreich.
Nördlichster Punkt der Region ist die Cima Vanscuro oder Pfannspitze (2678 m ü. d. M.) an der österreichischen Grenze, südlichster Punkt ist die Punta del Mezzanino rechtsseitig der Mündung des Po di Goro.
Geomorphologisch lässt sich Venetien folgendermaßen einteilen:
die Alpenzone mit den Dolomiten (höchster Berg ist die Marmolata, 3343 m ü. d. M.)
die venetischen Voralpen
eine weitreichende Hügellandschaft (Euganeische Hügel, Colli Berici, Colli Asolani und Montello-Gebiet)
eine große Ebene, die Poebene, die von zahlreichen Flüssen durchflossen wird: Po, Etsch, Brenta, Piave, Sile, Livenza
die Ostküste des größten italienischen Sees, des Gardasees;
die 150 km lange Adriaküste, wo sich zahlreiche Lagunen erstrecken
56,4 % des Regionalgebietes sind eben, 29,3 % bergig und 14,3 % hügelig.
Provinzen
Die Region ist in sechs Provinzen und eine Metropolitanstadt unterteilt. Die flächenmäßig größte ist die Provinz Belluno, die Provinz Padua die bevölkerungsreichste.
Die größten Gemeinden
Geschichte
Historisch ist die Region lange Zeit zur Republik Venedig gehörig gewesen, deren Terraferma, also Festlandbesitz, sie bildete. 1797 kam der größte Teil des Gebietes nach dem Frieden von Campo Formio zur Habsburgermonarchie. Nach der Niederlage Österreichs gegen Napoleon in Austerlitz und dem Pressburger Frieden wurde Venetien 1805 dem Königreich Italien, einem napoleonischen Satellitenstaat, zugeschlagen; 1815 kam es durch den Wiener Kongress als Königreich Lombardo-Venetien zurück zum nunmehrigen Kaisertum Österreich.
Nach dem dritten Unabhängigkeitskrieg wurde die Region 1866 schließlich ein Teil Italiens: Da das mit Italien verbündete Preußen Österreich in der Schlacht von Königgrätz besiegt hatte, musste Österreich Venetien trotz seiner militärischen Erfolge im Süden an Frankreich (das eine nicht unbedingt neutrale, eher mit Piemont sympathisierende Vermittlerrolle einnahm) abtreten, das es dann an Italien weitergab, im Tausch gegen Savoyen und Nizza.
Venetien war ein bedeutender Schauplatz des Ersten Weltkrieges. Dort wurde 1918 die entscheidende Schlacht von Vittorio Veneto geschlagen, woraufhin bei Padua der Waffenstillstand von Villa Giusti zwischen dem Königreich Italien und Österreich-Ungarn unterfertigt wurde. Nach der Annexion Südtirols wurden die ladinischen Gemeinden Cortina d’Ampezzo, Livinallongo und Colle Santa Lucia der venetischen Provinz Belluno, die Gemeinde Pedemonte der venetischen Provinz Vicenza zugeschlagen
Zwischen 1943 und 1945 gehörte Venetien großteils zur Italienischen Sozialrepublik, die Provinz Belluno wurde der deutschen Operationszone Alpenvorland einverleibt. Zahlreiche Städte wurden durch die Alliierten bombardiert. Insbesondere traf es Treviso und Vicenza sowie die Hafenanlagen von Marghera; auch Padua und Verona wurden Ziel der Bombenangriffe.
Im Jahre 1963 wurde die Region von der Katastrophe von Vajont getroffen. Am 9. Oktober löste sich eine 270 Millionen Tonnen schwere Flanke vom Monte Toc. Geröll und Steine rutschten in den Vajont-Stausee. 25 Millionen Tonnen Wasser schwappten über den neu gebauten Staudamm. Eine 160 Meter hohe Flutwelle vernichtete fünf Dörfer im Tal, unter anderem die Ortschaft Longarone. Fast 2000 Menschen kamen ums Leben. Es war eine der größten von Menschen verursachte Katastrophe, die sich je in Europa ereignet hat.
Infolge des italienischen Wirtschaftswunders (miracolo economico) entwickelte sich Venetien in den 1960er und 1970er Jahren von einer armen und kleinbäuerlich geprägten Region zu einer der industrialisiertesten und wirtschaftlich fortgeschrittensten Italiens. Landwirtschaft wird vor allem in großflächigen Plantagen betrieben, entlang der Adriaküste ist der Tourismus ein bedeutender Wirtschaftsfaktor. Aufgrund des Wohlstands kam es zu starker Zuwanderung aus anderen Gebieten Italiens und aus dem Ausland (siehe unten), was zusammen mit dem Strukturwandel zur Abschwächung lokaler Traditionen beitrug. Daher entstanden in den letzten Jahren Autonomie- und Unabhängigkeitsbestrebungen. Zu unterscheiden sind die Lega Nord, die den Regionalpräsidenten Venetiens stellt und deren Ziel in der Vergangenheit die Schaffung einer autonomen „padanischen“ Nation in Nord- und Mittelitalien war, und diverse Bewegungen, die das Padanien-Konzept ablehnen und sich für ein autonomes Venetien in seinen historischen Grenzen einsetzen (Venetischer Nationalismus).
Am 28. November 2012 nahm der Regionalrat von Venetien mit 29 Ja-, zwei Nein-Stimmen und fünf Enthaltungen die Regionalregierung in die Pflicht, sich auf internationaler Ebene um die Verwirklichung des Selbstbestimmungsrechts des Volkes von Venetien zu bemühen, um eine Volksabstimmung abhalten zu können, die gegebenenfalls zur Loslösung von Italien führen könnte. Eine von einem privaten Komitee organisierte und daher nicht rechtsverbindliche Volksbefragung fand vom 16. bis 21. März 2014 statt. An der Befragung, die über das Internet sowie eigens eingerichtete Wahllokale stattfand, nahmen laut Angaben der Organisatoren 2,36 Millionen Wahlberechtigte teil, was einer Beteiligung von 73 % entsprach. 89 % stimmten für die Unabhängigkeit und dafür, dass im Falle der Unabhängigkeit das Veneto an der EU, am Euro und der NATO festhalten solle. Am 22. Oktober 2017 fand ein amtliches konsultatives Referendum über eine vergrößerte Lokalautonomie Venetiens statt: Bei einer Wahlbeteiligung von 57,2 % sprachen sich 98,1 % der abstimmenden Bürger Venetiens dafür aus.
Bevölkerung
Bis Anfang der 1970er Jahre war Venetien ein Auswanderungsland. Zwischen 1870 und 1970 verließen über 3 Millionen Menschen die Region, bis 1930 vor allem in Richtung Lateinamerika, später verstärkt in andere Gegenden Italiens.
Seit der Industrialisierung im Zuge der 1970er Jahre sind sowohl zahlreiche Süditaliener als auch viele Ausländer, hauptsächlich Osteuropäer, nach Venetien gezogen, so dass zum 31. Dezember 2008 454.453 ausländische Staatsangehörige (9,30 % der Bevölkerung) in der Region ihren Wohnsitz hatten.
Sprachen
Neben Italienisch sprechen die meisten Einwohner Venetisch, das aufgrund der tiefgreifenden Unterschiede zum Standarditalienischen als eigenständige Sprache betrachtet werden kann. Es werden auch Deutsch und Zimbrisch – insbesondere in den Sieben Gemeinden (Provinz Vicenza) und Dreizehn Gemeinden (Provinz Verona) -, Furlanisch (Friaulisch) (in der Metropolitanstadt Venedig) und Ladinisch in der Provinz Belluno als Minderheitensprachen anerkannt.
Da die Region über keinen Autonomiestatus verfügt, werden die Minderheitensprachen kaum gepflegt und die Belange der dünn besiedelten Berggebiete an der Grenze zu Trentino-Südtirol und zu Friaul-Julisch Venetien (beide autonome Regionen) kaum berücksichtigt. Deshalb haben Lamon im Oktober 2005, Sovramonte im Oktober 2006, die zimbrischen Sprachinseln in den Sieben Gemeinden im Mai 2007, die drei alttirolischen ladinischen Gemeinden Cortina d’Ampezzo/Anpezo, Livinallongo del Col di Lana/Fodom und Colle Santa Lucia/Col im Oktober 2007, die alttirolische Gemeinde Pedemonte im März 2008, Taibon Agordino im April 2013 und Voltago Agordino im August 2014 in jeweiligen Volksabstimmungen für die Angliederung an das autonome Trentino-Südtirol gestimmt, die bisher nicht durchgeführt wurde. Cinto Caomaggiore stimmte im Jahr 2006 für den bisher nicht vollzogenen Anschluss an das ebenfalls autonome Friaul-Julisch Venetien. Anders im Falle der deutschen Sprachinsel Sappada/Plodn, die sich in einer Volksabstimmung im März 2008 für den Anschluss an Friaul-Julisch Venetien aussprach und die mit dem staatlichen Gesetz vom 5. Dezember 2017 Nr. 182 den Regionenwechsel vollzogen hat. Auch in anderen Gemeinden fanden Volksabstimmungen über einen Regionenwechsel statt, die aber bereits am erforderlichen Quorum scheiterten.
Politik
Die traditionell konservativ und katholisch geprägte Region war über Jahrzehnte eine Hochburg der italienischen Christdemokraten. Seit den 1990er-Jahren wird die Region von Mitte-rechts-Bündnissen regiert.
Durch die Erinnerung an die lange Selbständigkeit und stolze Tradition Venedigs sind autonomistische und separatistische Tendenzen besonders ausgeprägt. Die Lega Nord-Liga Veneta ist stark vertreten.
Seit 2010 stellt die Lega mit Luca Zaia den Präsidenten der Region (bei der Wahl am 20. September 2020 mit 76,8 % für eine dritte Amtszeit bestätigt).
Wirtschaft
Venetien gehört zu den wirtschaftsstärksten Regionen Italiens, die seit dem Zweiten Weltkrieg einen strukturellen Wandel von einer landwirtschaftlich geprägten Gegend in eine Industrieregion erlebt hat.
Dennoch hat die Landwirtschaft nach wie vor eine bedeutende Rolle, an die Stelle der zahlreichen kleinen Höfe sind aber plantagenähnliche Großbetriebe getreten. Venetien ist eine bedeutende Weinbauregion: hier werden die Weine Valpolicella und Prosecco erzeugt. Auch der Radicchio ist ein typisch regionales Produkt.
Mittelständische und exportorientierte Betriebe entlang der Autobahnverbindung Mailand-Verona-Venedig (Autostrada Serenissima) sind das Rückgrat der Industrie und der Wirtschaft der Region.
In der Metropolitanstadt Venedig findet man Öl-Raffinerien, vor allem in Porto Marghera, Chemieindustrien und Schiffswerften. In Noale ist der Motorrad- und Motorrollerhersteller Aprilia ansässig. In den Provinzen Verona und Rovigo ist die Lebensmittelindustrie besonders stark vertreten. In Porto Tolle bei Rovigo befindet sich Italiens zweitgrößtes thermoelektrisches Stromkraftwerk. Vicenza ist ein Zentrum der Goldschmiedekunst. Die Provinz Padua ist in der Metallverarbeitung stark. Zu den wichtigsten Unternehmen in der Gegend von Treviso gehören Electrolux und De’Longhi. In Agordo (Provinz Belluno) sitzt Luxottica, der weltweit größte Brillenhersteller. Die Modeindustrie ist in der ganzen Region stark vertreten: Benetton, Geox, Calzedonia, Dainese, Diesel und Bottega Veneta sind große Modenamen aus Venetien.
Sehr bedeutender Wirtschaftszweig ist der Tourismus: Venetien ist Italiens erste Touristenregion, mit über 14 Millionen Touristen im Jahr 2007 (davon kamen über 20 % aus Deutschland). Neben Venedig sind auch die Opernstadt Verona und die Universitätsstadt Padua beliebte Touristenziele, wie auch der Dolomitenort Cortina d’Ampezzo, die Gardaseegemeinden Peschiera, Lazise, Bardolino, Garda und Malcesine, der Thermalkurort Abano Terme, die Seebäder Jesolo, Caorle und Cavallino-Treporti.
Im Vergleich mit dem BIP der EU ausgedrückt in Kaufkraftstandards erreicht die Region einen Index von 110 (EU-28:100) (2015). Nominell beträgt das Pro-Kopf-BIP 30.800 €.
Venetien liegt mit über 151 Milliarden € regionalem Bruttoinlandsprodukt nach der Lombardei und Latium italienweit an dritter Stelle. Im Jahr 2017 betrug die Arbeitslosenquote 6,3 % und damit unter dem Landesschnitt.
Mit einem Wert von 0,896 erreicht Venetien Platz 7 unter den 21 Regionen und autonomen Provinzen Italiens im Index der menschlichen Entwicklung.
Sehenswürdigkeiten
Siehe auch
Sistema Ferroviario Metropolitano Regionale
Veneter
Weblinks
Einzelnachweise
Italienische Region
Verwaltungseinheit als Namensgeber für einen Asteroiden
|
Q1243
| 416.648273 |
5102716
|
https://de.wikipedia.org/wiki/Prozessor
|
Prozessor
|
Ein Computer-Prozessor ist ein (meist stark verkleinertes und meist frei) programmierbares Rechenwerk, also eine elektronische Schaltung, die gemäß übergebenen Befehlen Aktionen ausführt, wie andere elektronische Schaltungen und Mechanismen zu steuern. Es handelt sich dabei um eine hochkomplexe Form integrierter Schaltkreise (ICs). Da diese Art von Prozessoren im Vergleich zu den ersten programmierbaren Rechenmaschinen dramatisch miniaturisiert wurden, wird synonym auch von „Mikroprozessoren“ gesprochen. Gleiches gilt für Mikrocontroller, bei denen es sich um Prozessoren handelt, die einen vollständigen Computer enthalten und nicht nur eine CPU sind.
Am bekanntesten sind Computer-Prozessoren als Hauptprozessor, Zentrale Recheneinheit, Zentraleinheit oder Zentrale Verarbeitungseinheit (kurz ZVE, englisch , kurz ) für Computer oder elektronische Geräte, in denen sie Befehle ausführen. Daneben sind auch Grafikprozessoren (GPUs, englisch ) weit geläufig.
Tatsächlich bestehen Personal Computer aus viel mehr Prozessoren, die man zur Unterscheidung „Co-Prozessoren“ nennt. Teilweise sind Peripheriegeräte selbst prinzipiell eigenständige Computer mit einer eigenen CPU. Smartphones, Spielkonsolen oder moderne Fahrkartenautomaten sind ohnehin PCs, aber auch Waschmaschinen, DVD-Spieler oder Fernseher enthalten vollständige Computer.
Begriffsverständnis
Im früheren Sprachgebrauch wurde unter dem Begriff „Prozessor“ sowohl das Bauteil verstanden (ein Halbleiter-Chip in einem Plastikgehäuse, der mit seinen Beinchen in einen Sockel eingesteckt wird oder auf die Platine gelötet ist), als auch eine datenverarbeitende Logik-Einheit. Heutzutage besitzen jedoch viele Mikroprozessoren mehrere sogenannte Prozessorkerne, wobei jeder Kern für sich eine (weitgehend) eigenständige Logik-Einheit darstellt. Unter dem Begriff Prozessor wird heute im Allgemeinen das Bauteil verstanden; ist die datenverarbeitende Logik-Einheit gemeint, wird meist vom (Prozessor-)Kern gesprochen.
Übertragene Bedeutungen des Begriffs CPU
Der Begriff CPU wird umgangssprachlich auch in anderem Kontext für Zentraleinheit (ZE) benutzt, hierbei kann dies für einen zentralen Hauptrechner (ein kompletter Computer) stehen, an dem einzelne Terminal-Arbeitsstationen angeschlossen sind. Teilweise wird der Begriff auch als Metapher benutzt, bei Computerspielen zum Beispiel als „Ein Spiel gegen die CPU“.
Grundlegende Informationen
Hauptbestandteile eines Prozessor(kern)s sind das Rechenwerk (insbesondere die arithmetisch-logische Einheit, ALU) sowie das Steuerwerk (inkl. Adresswerk). Darüber hinaus enthalten sie meist mehrere Register und einen Speichermanager (engl. , MMU), der den Arbeitsspeicher verwaltet. Zu den zentralen Aufgaben des Prozessors gehören die Abarbeitung des Maschinenprogramms: arithmetische und logische Operationen zur Verarbeitung von Daten aus internen oder externen Quellen, beispielsweise dem Arbeitsspeicher.
Neben diesen Hauptbestandteilen, die die Grundfunktionen bereitstellen, kann es weitere Recheneinheiten geben, die spezialisierte Funktionen zur Verfügung stellen und den eigentlichen Prozessor entlasten sollen – diese Einheiten werden meist als Koprozessor bezeichnet. Beispiele hierfür sind der bis in die 1990er Jahre separate mathematische Koprozessor für Gleitkommaoperationen (die Gleitkommaeinheit) sowie Grafik- und Soundprozessoren. In diesem Zusammenhang wird der zentrale Prozessor mit seinen im vorhergehenden Absatz beschriebenen Grundfunktionen auch als Hauptprozessor (oder kurz, mit der englischen Abkürzung, als ) bezeichnet. Weitere Synonyme sind Zentrale Verarbeitungseinheit (kurz ZVE oder auch Zentraleinheit). Die moderne Form des Prozessors ist der Mikroprozessor, der alle Bausteine des Prozessors in einem integrierten Schaltkreis (Mikrochip) vereinigt. Moderne Prozessoren für Desktop-Computer und Notebooks, aber auch für Smartphones und Tabletcomputer, sind oft Mehrkernprozessoren mit zwei, vier oder mehr Prozessorkernen. Die Prozessorkerne sind hierbei oft eigenständige „Prozessoren“ mit Steuer-/Leitwerk und Rechenwerk auf einem Chip. Beispiele hierfür sind der Intel core i9-13900k, der Ryzen 9 5950X oder der Snapdragon 8 Gen 2. Eine klare Abgrenzung der Begriffe Prozessor, Hauptprozessor, CPU und Prozessorkern ist in der Literatur nicht zu finden, siehe Abschnitt Hauptprozessor, CPU und Prozessorkern.
Prozessoren werden oft im Bereich der eingebetteten Systeme () eingesetzt: zur Steuerung von Haushaltsgeräten, Industrieanlagen, Unterhaltungselektronik usw.
In Großrechnern (englisch ) wurden früher meist herstellereigene Prozessorarchitekturen verwendet, wie etwa bei IBM (PowerPC, Cell-Prozessor) oder SUN (SPARC-Prozessor); heute werden überwiegend angepasste Versionen der verbreiteten PC-Prozessormodelle verwendet.
Prozessoren für eingebettete Systeme machen etwa 95 Prozent des Prozessormarkts aus, wobei davon 90 Prozent sogenannte Mikrocontroller sind, die neben dem eigentlichen Prozessor weitere Funktionen (zum Beispiel spezielle Hardwareschnittstellen oder direkt integrierte Sensoren) enthalten. Nur etwa 5 Prozent werden in PCs, Workstations oder Servern eingesetzt.
Historische Entwicklung
In den 1940er Jahren wurden die vormals rein mechanischen Rechenwerke durch Computer aus Relais und mechanischen Bauelementen abgelöst. Die ZUSE Z3 gilt als der erste funktionsfähige Digitalrechner weltweit und wurde im Jahr 1941 von Konrad Zuse in Zusammenarbeit mit Helmut Schreyer in Berlin gebaut. Die Z3 bestand aus 600 Relais für das Rechenwerk und 1400 Relais für das Speicherwerk. Diese ersten Computer waren also elektromechanische Rechner, die äußerst störanfällig waren. Noch in den 1940ern begannen findige Elektroingenieure damit, Computer mit Hilfe von Elektronenröhren zu bauen. Der erste funktionsfähige Rechner dieser Generation war der ENIAC. Der ENIAC verfügte über 20 elektronische Register, 3 Funktionstafeln als Festspeicher und bestand aus 18.000 Röhren sowie 1.500 Relais. Damit konnten die Rechenautomaten komplexere Berechnungen ausführen und wurden weniger störanfällig, aber von einzelnen Prozessoren in späteren Sinne konnte noch keine Rede sein. Waren diese Rechner anfangs teure Einzelprojekte, so reifte die Technik im Laufe der 1950er Jahre immer mehr aus. Röhrencomputer wurden nach und nach zu Artikeln der Serienfertigung, die für Universitäten, Forschungseinrichtungen und Unternehmen durchaus erschwinglich waren. Um dieses Ziel zu erreichen, war es notwendig, die Anzahl der benötigten Röhren auf ein Mindestmaß zu reduzieren. Aus diesem Grund setzte man Röhren nur dort ein, wo sie unabdingbar waren. So begann man damit, Hauptspeicher und CPU-Register auf einer Magnettrommel unterzubringen, Rechenoperationen seriell auszuführen und die Ablaufsteuerung mit Hilfe einer Diodenmatrix zu realisieren. Ein typischer Vertreter dieser Rechnergeneration war der LGP-30.
Erste Erwähnungen des Begriffes CPU gehen in die Anfänge der 1950er Jahre zurück. So wurde in einer Broschüre von IBM zu dem 705 EDPM aus dem Jahr 1955 der Begriff „Central Processing Unit“ zuerst ausgeschrieben, später mit der Abkürzung CPU in Klammern ergänzt und danach nur noch in seiner Kurzform verwendet. Ältere IBM-Broschüren verwenden den Begriff nicht, so z. B. die Broschüre „“ von 1954, in der zwar ebenfalls die IBM 705 dargestellt wird, an den entsprechenden Stellen jedoch lediglich von „“ die Rede ist. Auch in dem Informationstext von IBM zur 704 EDPM, dem Vorgänger der 705 EDPM, aus dem Mai 1954 sucht der Leser den Begriff vergeblich.
In den 1950er Jahren wurden die unzuverlässigen Elektronenröhren von Transistoren verdrängt, die zudem den Stromverbrauch der Computer senkten. Anfangs wurden die Prozessoren aus einzelnen Transistoren aufgebaut. Im Laufe der Jahre brachte man aber immer mehr Transistorfunktionen auf integrierten Schaltkreisen (ICs) unter. Waren es zunächst nur einzelne Gatter, integrierte man immer häufiger auch ganze Register und Funktionseinheiten wie Addierer und Zähler, schließlich dann sogar Registerbänke und Rechenwerke auf einem Chip. Der Hauptprozessor konnte in einem einzelnen Schaltschrank untergebracht werden, was zum Begriff Mainframe, also „Hauptrahmen“, bzw. „Hauptschrank“ führte. Dies war die Zeit der Minicomputer, die nun keinen ganzen Saal mehr ausfüllten, sondern nur noch ein Zimmer. Die zunehmende Integration von immer mehr Transistor- und Gatterfunktionen auf einem Chip und die stetige Verkleinerung der Transistorabmaße führte dann Anfang der 1970er Jahre fast zwangsläufig zu der Integration aller Funktionen eines Prozessors auf einem Chip, dem Mikroprozessor. Anfangs noch wegen ihrer vergleichsweise geringen Leistungsfähigkeit belächelt (der Legende nach soll ein IBM-Ingenieur über den ersten Mikroprozessor gesagt haben: „Nett, aber wozu soll das gut sein?“), haben Mikroprozessoren heute alle vorangegangenen Techniken für den Aufbau eines Hauptprozessors abgelöst.
Dieser Trend setzte sich auch in den nachfolgenden Jahrzehnten fort. So wurde Ende der 1980er Jahre der mathematische Coprozessor und Ende der 2000er Jahre auch der Grafikprozessor in den (Haupt-)Prozessor integriert, vgl. APU.
Aufbau / Funktionale Einheiten
Ein Prozessor(kern) besteht mindestens aus Registern (Speicher), einem Rechenwerk (der Arithmetic Logic Unit, kurz ALU), einem Steuerwerk sowie den Datenleitungen (Busse), die die Kommunikation mit anderen Komponenten ermöglichen (Abbildung siehe weiter unten). Diese Komponenten sind im Allgemeinen weiter unterteilbar, zum Beispiel enthält das Steuerwerk zur effizienteren Bearbeitung von Befehlen die Befehls-Pipeline mit meist mehreren Stufen, unter anderem den Befehlsdecoder, sowie ein Adresswerk; die ALU enthält unter anderem zum Beispiel Hardwaremultiplizierer. Darüber hinaus befinden sich vor allem in modernen Mikroprozessoren mitunter sehr viel feiner unterteilte Einheiten, die flexibel einsetzbar/zuteilbar sind, sowie mehrfach ausgeführte Einheiten, die das gleichzeitige Abarbeiten mehrerer Befehle erlauben (siehe zum Beispiel Simultaneous Multithreading, Hyper-Threading, Out-of-order execution).
Oft ist in heutigen Prozessoren die Memory Management Unit sowie ein (evtl. mehrstufiger) Cache integriert (Level-1-Cache „L1“ bis Level-4-Cache „L4“). Mitunter ist auch eine I/O-Unit integriert, oft zumindest ein Interrupt-Controller.
Zusätzlich finden sich auch häufig spezialisierte Recheneinheiten z. B. eine Gleitkommaeinheit, eine Einheit für Vektorfunktionen oder für Signalverarbeitung. Unter diesem Aspekt sind die Übergänge zu Mikrocontrollern oder einem System-on-a-Chip, die weitere Komponenten eines Rechnersystems in einem integrierten Schaltkreis vereinen, mitunter fließend.
Hauptprozessor, CPU und Prozessorkern
Ein Prozessor besteht primär aus dem Steuer-/Leit- und dem Rechenwerk (ALU). Es gibt jedoch weitere Recheneinheiten, die zwar kein Steuer- bzw. Leitwerk enthalten, aber dennoch oft ebenfalls als Prozessor bezeichnet werden. Diese im Allgemeinen Koprozessor genannten Einheiten stellen in der Regel spezialisierte Funktionen zur Verfügung. Beispiele sind die Gleitkommaeinheit sowie Grafik- und Soundprozessoren. Zur Abgrenzung dieser Koprozessoren zu einem „echten“ Prozessor mit Steuer- und Rechenwerk wird der Begriff CPU (englisch []) oder zu Deutsch Hauptprozessor genutzt.
Moderne Mikroprozessoren sind häufig als sogenannte Mehrkernprozessoren (Multi-Core-Prozessoren) ausgelegt. Sie erlauben zusammen mit entsprechender Software eine weitere Steigerung der Gesamtrechenleistung ohne eine merkliche Erhöhung der Taktfrequenz (die bis in die 2000er Jahre übliche Technik die Rechenleistung eines Mikroprozessors zu erhöhen). Mehrkernprozessoren bestehen aus mehreren voneinander unabhängigen Einheiten mit einem Rechen- und Steuerwerk, um die herum weitere Komponenten wie Cache und Memory Management Unit (MMU) angeordnet sind. Diese Einheiten werden als Prozessorkern (engl. core) bezeichnet. Im Sprachgebrauch sind die Begriffe Single-Core-Prozessor, Dual-Core-, Quad-Core- und Hexa-Core-Prozessor (Sechskernprozessor) gebräuchlich (nur selten: Triple-Core-, Octa-Core-Prozessor (Achtkern), Deca-Core-Prozessor (Zehnkern)). Da die Kerne eigenständige Prozessoren sind, werden die einzelnen Kerne häufig auch als CPU bezeichnet. Diese Bezeichnung „CPU“ wird synonym zu „Core“ genutzt, beispielsweise um in Mehrkernprozessoren oder System-on-a-Chip (SoC) mit weiteren integrierten Einheiten, z. B. einem Grafikprozessor (GPU), die Kerne mit Steuer- und Rechenwerk von den anderen Einheiten zu unterscheiden, siehe u. a. Accelerated Processing Unit (APU).
Die klassische Einteilung, dass ein Steuerwerk und eine ALU als ein CPU (Hauptprozessor), Kern (Core) bzw. Prozessor bezeichnet werden, verschwimmt zunehmend. Heutige Prozessoren (auch Einkernprozessoren) besitzen oft Steuerwerke, die jeweils mehrere Hardware-Threads verwalten (Multi-/Hyper-Threading); das Betriebssystem nutzt die von den Steuerwerken gemeldeten Prozessorkerne (aus Betriebssystem-Sicht als „CPUs“ oder „Prozessoren“ gelistet), was nicht zwangsläufig mit den tatsächlich vorhandenen (vollwertigen) Steuerwerken übereinstimmen muss. Außerdem betreibt ein Steuerwerk oft mehrere ALUs sowie noch weitere Baugruppen wie z. B. Gleitkomma-Recheneinheit, Vektoreinheit (siehe auch AltiVec, SSE) oder eine Kryptographie-Einheit. Umgekehrt müssen sich manchmal mehrere Steuerwerke diese Spezial-Recheneinheiten teilen, was eine eindeutige Zuordnung verhindert.
Steuer- bzw. Leitwerk
Das Steuerwerk, auch Leitwerk genannt, kontrolliert die Ausführung der Anweisungen. Es sorgt dafür, dass der Maschinenbefehl im Befehlsregister vom Befehlsdecoder dekodiert und vom Rechenwerk und den übrigen Komponenten der Rechenanlage ausgeführt wird. Dazu übersetzt der Befehlsdecoder binäre Maschinenbefehle mit Hilfe der Befehlstabelle (englisch ) in entsprechende Anweisungen (Microcode), welche die für die Ausführung des Befehls benötigten Schaltungen aktivieren. Dabei werden drei wesentliche Register, das heißt sehr schnell ansprechbare prozessorinterne Speicher, benötigt:
Das Befehlsregister (englisch ): Es enthält den aktuell auszuführenden Maschinenbefehl.
Der Befehlszähler (englisch ): Dieses Register zeigt bei der Befehlsausführung auf den nächstfolgenden Befehl. (Ein Sprungbefehl lädt die Adresse seines Sprungziels hierher.)
Das Statusregister: Es zeigt über sogenannte Flags den Status an, der von anderen Teilen der Rechenanlage, u. a. dem Rechen- und dem Leitwerk, bei der Ausführung bestimmter Befehle erzeugt wird, um ihn in nachfolgenden Befehlen auswerten zu können. Beispiel: Ergebnis einer arithmetischen oder einer Vergleichsoperation ergibt ‚Null‘, ‚Minus‘ o. ä., ein Übertrag (Carry) ist bei einer Rechenoperation zu berücksichtigen.
In RISC-Prozessoren ist mitunter kein Befehlsdekoder notwendig – in manchen RISC-Prozessoren verschalten die Befehls-Bits die entsprechenden ALU- und Register-Einheiten direkt. Dort gibt es dann auch keinen Microcode. Die meisten modernen Prozessorarchitekturen sind RISC-artig oder besitzen einen RISC-Kern für die häufigen, einfachen Befehle sowie eine übersetzende Emulationsschicht davor, die komplexe Befehle in mehrere RISC-Befehle übersetzt.
Ebenso kann ein explizites Befehlsregister durch eine Pipeline ersetzt sein. Mitunter sind mehrere Befehle gleichzeitig in Bearbeitung, dann kann auch die Reihenfolge ihrer Abarbeitung umsortiert werden (Out-of-order execution).
Rechenwerk und Register
Das Rechenwerk führt die Elementaroperationen eines Prozessors durch. Es besteht zum einen aus der arithmetisch-logischen Einheit (ALU), zum anderen aus den Arbeitsregistern. Es kann sowohl arithmetische (etwa die Addition zweier Zahlen) als auch logische (etwa AND oder OR) Operationen ausführen. Aufgrund der Komplexität moderner Prozessoren, bei denen meist mehrere Rechenwerke mit spezialisierten Funktionen vorhanden sind, spricht man auch allgemein vom Operationswerk.
Die Arbeitsregister können Daten (als Datenregister) und, abhängig vom Prozessortyp, auch Adressen (als Adressregister) aufnehmen. Meist können nur mit den Werten in den Registern Operationen direkt ausgeführt werden. Sie stellen daher die erste Stufe der Speicherhierarchie dar. Von den Eigenschaften und insbesondere der Größe und Anzahl der Register (abhängig vom Prozessortyp) hängt u. a. die Leistungsfähigkeit des jeweiligen Prozessors ab.
Ein spezielles Adressregister ist der Stapelzeiger (englisch ), der die Rücksprungadresse bei einem Unterprogrammaufruf aufnimmt. Auf dem Stack werden dann zusätzlich oft Registerkopien gesichert und neue, lokale Variablen angelegt.
Datenleitungen
Über verschiedene Busse (Signalleitungen) ist der Prozessor mit anderen Komponenten verbunden.
Über den Datenbus werden Daten mit dem Arbeitsspeicher ausgetauscht, etwa die Informationen für die Arbeitsregister und das Befehlsregister. Je nach verwendeter Prozessorarchitektur hat ein Hauptprozessor (eine CPU) einen einzigen Bus für Daten aus dem Arbeitsspeicher (Von-Neumann-Architektur) oder mehrere (meist zwei) separate Datenleitungen für den Programmcode und normale Daten (Harvard-Architektur).
Der Adressbus dient zur Übertragung von Speicheradressen. Dabei wird jeweils eine Speicherzelle des RAM adressiert (ausgewählt) in die – je nach Signal des Steuerbusses – die Daten, die gerade auf dem Datenbus liegen, geschrieben oder aus denen die Daten gelesen, d. h. auf den Datenbus gelegt, werden.
Mit dem Steuerbus (Kontrollbus) steuert der Prozessor u. a., ob Daten gerade geschrieben oder gelesen werden sollen, ob er einem anderen Bus-Master im Rahmen eines Speicherdirektzugriffs (DMA) den Bus überlässt, oder der Adressbus statt des RAMs einen Peripherie-Anschluss meint (beim Isolated I/O). Eingangsleitungen lösen beispielsweise einen Reset oder Interrupts aus, versorgen ihn mit einem Taktsignal oder empfangen eine „Bus-Anforderung“ von einem DMA-Gerät.
Zwischen die Datenleitungen und das Registerwerk ist als Teil des Steuerwerks das sogenannte Bus-Interface geschaltet, das die Zugriffe steuert und bei gleichzeitigen Anforderungen verschiedener Untereinheiten eine Priorisierung vornimmt.
Caches und MMU
Moderne Prozessoren, die in PCs oder anderen Geräten eingesetzt werden, die eine schnelle Datenverarbeitung benötigen, sind mit sogenannten Caches ausgestattet. Caches sind Zwischenspeicher, die die zuletzt verarbeiteten Daten und Befehle zwischenspeichern und so die rasche Wiederverwendung ermöglichen. Sie stellen die zweite Stufe der Speicherhierarchie dar. Normalerweise besitzt ein Prozessor heutzutage bis zu vierstufige Caches:
Level-1-Cache (L1-Cache): Dieser Cache läuft mit dem Prozessortakt. Er ist sehr klein (etwa 4 bis 256 Kilobyte), dafür aufgrund seiner Position im Prozessorkern selbst sehr schnell abrufbar.
Level-2-Cache (L2-Cache): Der L2-Cache befindet sich meist im Prozessor, aber nicht im Kern selbst. Er umfasst zwischen 64 Kilobyte und 12 Megabyte.
Level-3-Cache (L3-Cache): Bei Mehrkernprozessoren teilen sich die einzelnen Kerne den L3-Cache. Er ist der zweit-langsamste der vier Caches, aber meist bereits sehr groß (bis zu 256 Megabyte).
Level-4-Cache (L4-Cache): Wenn vorhanden, dann meist außerhalb der CPU auf einem Interposer oder dem Mainboard. Er ist der langsamste der vier Caches (nur selten über 128 Megabyte).
Die Memory Management Unit übersetzt die virtuelle Adressen der in Ausführung befindlichen Prozesse in reale Adressen, für alle Prozessorkerne gleichzeitig, und stellt die Cache-Kohärenz sicher: Ändert ein Kern einen Speicherinhalt, so muss sichergestellt werden, dass die anderen Caches keine veralteten Werte enthalten. Abhängig von ihrer genauen Ansiedlung beinhalten die Cache-Stufen Daten entweder bezüglich virtueller oder realer Adressen.
Verarbeitung eines einzelnen Befehls
Um die Rollen der Untereinheiten konkreter zu veranschaulichen, hier der Ablauf der Verarbeitung eines einzelnen Maschinenbefehls. Die aufgeführten Einzelschritte können teilweise gleichzeitig oder überlappend ablaufen, die Nummerierung hat nichts mit der Anzahl der Taktzyklen zu tun, die der Befehl benötigt. Zusätzliche Feinheiten wie Prozessor-Pipelines oder Sprungvorhersage (Branch Prediction) führen zu weiteren Timing-Finessen, die hier im Sinne der Vereinfachung vorerst weggelassen werden. Aus dem gleichen Grund sind komplexe Berechnungen abhängig von der gewählten Adressierungsart zur Ermittlung einer endgültigen Speicheradresse nicht erwähnt.
Laden des nächsten Befehls: Der Befehlszähler, der die Adresse des nächsten Befehls enthält, wird vom Steuerwerk über das Bus-Interface auf den Adressbus gelegt; dann wird ein Leseimpuls an die Speicherverwaltung signalisiert.Der Befehlszähler wird parallel dazu auf die nächste Adresse weitergezählt.
Die Speicherverwaltung legt den Datenwert aus dieser (virtuellen) RAM-Adresse auf die Datenleitungen; sie hat den Wert im Cache oder im RAM gefunden. Nach der Verzögerung durch die endliche Zugriffszeit des RAMs liegt an den Datenleitungen der Inhalt dieser Speicherzelle an.
Das Steuerwerk kopiert diese Daten über das Bus-Interface in das Befehlsregister.
Der Befehl wird vor-decodiert, ob er komplett geladen ist.
Wenn es ein Befehl ist, der aus mehreren Bytes besteht, werden sie (falls das durch eine größere Busbreite nicht schon geschehen ist) durch Wiederholung der Schritte 1 bis 4 aus dem Speicher geholt und in die zuständigen Prozessorregister kopiert.
Gehört zum Befehl auch das Auslesen einer Speicherzelle des RAMs, wird vom Steuerwerk die Adresse für diese Daten auf die Adressleitungen gelegt, ein Leseimpuls wird signalisiert. Danach muss genügend lange Zeit gewartet werden, dass das RAM diese Informationen sicher bereitstellen konnte. Anschließend wird der Datenbus ausgelesen und in das zuständige Prozessorregister kopiert.
Der Befehl wird fertig-decodiert und die zu seiner Abarbeitung benötigten Untereinheiten aktiviert, die internen Datenpfade werden entsprechend geschaltet.
Das Rechenwerk erledigt die eigentliche Verarbeitung innerhalb des Prozessors, beispielsweise die Addition zweier Registerinhalte. Das Ergebnis landet wieder in einem der Prozessorregister.
Wenn der Befehl ein Sprung- oder Verzweigungsbefehl ist, wird das Ergebnis nicht in einem Datenregister abgelegt, sondern im Befehlszähler.
Das Steuerwerk aktualisiert je nach Ergebniswert ggf. das Statusregister mit seinen Zustandsflags.
Gehört zum Befehl auch das Rückspeichern eines Ergebnisses/Registerinhalts in das RAM, wird vom Steuerwerk die Adresse für diese Daten auf die Adressleitungen gelegt und der Dateninhalt auf die Datenleitungen, ein Schreibimpuls wird signalisiert. Danach muss genügend lange Zeit gewartet werden, dass das RAM diese Informationen sicher aufnehmen konnte.
Der Befehl ist jetzt abgearbeitet, und es kann oben bei Schritt 1 zum nächsten Befehl weitergeschritten werden.
Verschiedene Architekturen
Die beiden wesentlichen Grundarchitekturen für CPUs sind die Von-Neumann- und die Harvard-Architektur.
Bei der nach dem Mathematiker John von Neumann benannten Von-Neumann-Architektur gibt es keine Trennung zwischen dem Speicher für Daten und Programmcode. Dagegen sind bei der Harvard-Architektur Daten und Programm(e) in strikt voneinander getrennten Speicher- und Adressräumen abgelegt, auf die typischerweise durch zwei separierte Bussysteme parallel zugegriffen wird.
Beide Architekturen haben ihre spezifischen Vor- und Nachteile. In der Von-Neumann-Architektur können
Programmcode und Daten grundsätzlich identisch behandelt werden. Hierdurch sind einheitliche Betriebssystem-Routinen zum Laden und Speichern verwendbar. Auch kann der Programmcode im Gegensatz zur Harvard-Architektur sich selbst modifizieren oder als „Daten“ behandelt werden, wodurch Maschinencode z. B. per Debugger leicht bearbeitbar und modifizierbar ist. Nachteile/Risiken liegen im Bereich der Softwareergonomie und -Stabilität, zum Beispiel können Laufzeitfehler wie ein Pufferüberlauf den Programmcode modifizieren.
Durch die Trennung in zwei physikalische Speicher und Busse hat die Harvard-Architektur potenziell eine höhere Leistungsfähigkeit, da Daten- und Programmzugriffe parallel erfolgen können. Bei einer Harvard-Architektur sind durch die physische Trennung von Daten und Programm einfach eine Zugriffsrechtetrennung und Speicherschutz realisierbar. Um z. B. zu verhindern, dass bei Softwarefehlern Programmcode überschrieben werden kann, wurde (vor allem historisch) für Programmcode ein im Betrieb nur lesbarer Speicher (z. B. ROM, Lochkarten) verwendet, für die Daten dagegen schreib- und lesbarer Speicher (z. B. RAM, Ringkernspeicher).
Praktisch alle modernen CPUs stellen sich aus Programmsicht als Von-Neumann-Architektur dar, ihr interner Aufbau entspricht aber aus Leistungsgründen in vielen Aspekten eher einer parallelen Harvard-Architektur. So ist es nicht unüblich, dass eine CPU intern mehrere unabhängige Datenpfade (insbesondere beim L1-Cache) und Cachehierarchiestufen besitzt, um mit möglichst vielen parallelen Datenpfaden eine hohe Leistung zu erzielen. Die dadurch potenziell möglichen Daten-Inkohärenzen und Zugriffs-Race-Conditions werden intern durch aufwändige Datenprotokolle und -management verhindert.
Auch werden heutzutage Arbeitsspeicher-Bereiche, die ausschließlich Daten beinhalten, als nicht ausführbar markiert, sodass Exploits, die ausführbaren Code in Datenbereichen ablegen, diesen nicht ausführen können. Umgekehrt kann das Schreiben in Bereiche mit Programmcode verweigert werden (Pufferüberlauf-Exploits).
Befehlssatz
Der Befehlssatz bezeichnet die Gesamtheit der Maschinenbefehle eines Prozessors. Der Umfang des Befehlssatzes variiert je nach Prozessortyp beträchtlich. Ein großer Befehlssatz ist typisch für Prozessoren mit CISC-Architektur (englisch – Rechnen mit komplexem Befehlssatz), ein kleiner Befehlssatz ist typisch für Prozessoren mit RISC-Prozessorarchitektur (englisch – Rechnen mit reduziertem Befehlssatz).
Die traditionelle CISC-Architektur versucht, immer mehr und immer komplexere Funktionen direkt durch Maschinenbefehle auszudrücken. Sie zeichnet sich besonders durch die große Anzahl zur Verfügung stehender Maschinenbefehle aus, die meist 100 (weit) überschreitet. Diese sind außerdem in der Lage, komplexe Operationen direkt auszuführen (etwa Gleitkommazahl-Operationen). Dadurch können komplexe Vorgänge durch wenige, „mächtige“ Befehle implementiert werden. Das Nebeneinander von komplexen (langwierigen) und einfachen (schnell ausführbaren) Befehlen macht ein effizientes Prozessordesign schwierig, besonders das Pipelinedesign.
In den 1980er Jahren entstand als Reaktion darauf das RISC-Konzept, mit dem bewussten Verzicht auf das Bereitstellen von komplexer Funktionalität in Instruktionsform. Es werden ausschließlich einfache, untereinander ähnlich komplexe Instruktionen bereitgestellt. Dabei wird versucht, sehr schnell abzuarbeitende Befehle zur Verfügung zu stellen, dafür jedoch nur wenige (weniger als 100), sehr einfache. Hierdurch vereinfachte sich das Prozessordesign deutlich und ermöglichte Optimierungen, die üblicherweise eine höhere Prozessortaktung und wiederum schnellere Ausführungsgeschwindigkeit erlaubten. Dies geht unter anderem darauf zurück, dass weniger Taktzyklen benötigt werden und die Dekodierung aufgrund geringerer Komplexität schneller ist. Ein einfacheres Prozessordesign bedeutet jedoch eine Verschiebung des Entwicklungsaufwands hin zur Software als Bereitsteller komplexerer Funktionalität. Der Compiler hat nun die Aufgabe einer effizienten und korrekten Umsetzung mit dem vereinfachten Instruktionsatz.
Heute ähnelt die weit verbreitete x86-Architektur – als (früher) typischer Vertreter der CISC-Klasse – intern einer RISC-Architektur: Einfache Befehle sind meist direkt µ-Operationen; komplexe Befehle werden in µ-Ops zerlegt. Diese µ-Ops ähneln den einfachen Maschinenbefehlen von RISC-Systemen, wie auch der interne Prozessoraufbau (z. B. gibt es keinen Microcode mehr für die µ-Operationen, sie werden „direkt verwendet“).
Eine weitere Art eines Prozessordesigns ist die Verwendung von VLIW. Dort werden mehrere Instruktionen in einem Wort zusammengefasst. Dadurch ist von Anfang an definiert, auf welcher Einheit welche Instruktion läuft. Out-of-Order-Ausführung, wie sie in modernen Prozessoren zu finden ist, gibt es bei dieser Art von Befehlen nicht.
Zusätzlich unterscheidet man auch noch zwischen der Adressanzahl im Maschinenbefehl:
Null-Adressbefehle (Stackrechner)
Ein-Adressbefehle (Akkumulatorrechner)
Zwei-, Drei- und Vier-Adressbefehle (ALTIVEC hatte z. B. Vieroperanden-Befehle)
Funktionsweise
Die Befehlsbearbeitung eines Prozessorkerns folgt prinzipiell dem Von-Neumann-Zyklus.
„FETCH“: Aus dem Befehlsadressregister wird die Adresse des nächsten Maschinenbefehls gelesen. Anschließend wird dieser aus dem Arbeitsspeicher (genauer: aus dem L1-Cache) in das Befehlsregister geladen.
„DECODE“: Der Befehlsdecoder decodiert den Befehl und aktiviert entsprechende Schaltungen, die für die Ausführung des Befehls nötig sind.
„FETCH OPERANDS“: Sofern zur Ausführung weitere Daten zu laden sind (benötigte Parameter), werden diese aus dem L1-Cache-Speicher in die Arbeitsregister geladen.
„EXECUTE“: Der Befehl wird ausgeführt. Dies können zum Beispiel Operationen im Rechenwerk, ein Sprung im Programm (eine Veränderung des Befehlsadressregisters), das Zurückschreiben von Ergebnissen in den Arbeitsspeicher oder die Ansteuerung von Peripheriegeräten sein. Abhängig vom Ergebnis mancher Befehle wird das Statusregister gesetzt, das durch nachfolgende Befehle auswertbar ist.
„UPDATE INSTRUCTION POINTER“: Sollte kein Sprungbefehl in der EXECUTE-Phase erfolgt sein, wird nun das Befehlsadressregister um die Länge des Befehls erhöht, sodass es auf den nächsten Maschinenbefehl zeigt.
Gelegentlich unterscheidet man auch noch eine Rückschreibphase, in der eventuell anfallende Rechenergebnisse in bestimmte Register geschrieben werden (siehe Out-of-order execution, Schritt 6).
Erwähnt werden sollten noch sogenannte Hardware-Interrupts. Die Hardware eines Computers kann Anfragen an den Prozessor stellen. Da diese Anfragen asynchron auftreten, ist der Prozessor gezwungen, regelmäßig zu prüfen, ob solche vorliegen und diese eventuell vor der Fortsetzung des eigentlichen Programms zu bearbeiten.
Steuerung
Alle Programme liegen als eine Folge von binären Maschinenbefehlen im Speicher. Nur diese Befehle können vom Prozessor verarbeitet werden. Dieser Code ist für einen Menschen jedoch beinahe unmöglich zu lesen. Aus diesem Grund werden Programme zunächst in Assemblersprache oder einer Hochsprache (etwa BASIC, C, C++, Java) geschrieben und dann von einem Compiler in eine ausführbare Datei, also in Maschinensprache übersetzt oder einem Interpreter zur Laufzeit ausgeführt.
Symbolische Maschinenbefehle
Um es zu ermöglichen, Programme in akzeptabler Zeit und verständlich zu schreiben, wurde eine symbolische Schreibweise für Maschinenbefehle eingeführt, sogenannte Mnemonics. Maschinenbefehle werden durch Schlüsselworte für Operationen (z. B. für , also „bewegen“ oder „[ver]schieben“) und durch optionale Argumente (wie BX und 85F3h) dargestellt. Da verschiedene Prozessortypen verschiedene Maschinenbefehle besitzen, existieren für diese auch verschiedene Mnemonics. Assemblersprachen setzen oberhalb dieser prozessortypenabhängigen Mnemonik auf und beinhalten Speicherreservierung, Verwaltung von Adressen, Makros, Funktionsheader, Definieren von Strukturen usw.
Prozessorunabhängige Programmierung ist erst durch Benutzung abstrakter Sprachen möglich. Dies können Hochsprachen sein, aber auch Sprachen wie FORTH oder gar RTL. Es ist nicht die Komplexität der Sprache wichtig, sondern deren Hardware-Abstraktion.
MOV BX, 85F3h(movw $0x85F3, %bx)Der Wert 85F3h (dezimal: 34291) wird in das Register BX geladen.
MOV BX, word ptr [85F2h](movw 0x85F2, %bx)Die Inhalte der Speicherzellen mit den Adresse 85F2h und 85F3h (dezimal: 34290 und 34291) relativ zum Start des Datensegments (bestimmt durch DS) werden in das Register BX geladen. Dabei wird der Inhalt von 85F2h in den niederwertigen Teil BL und der Inhalt von 85F3h in den höherwertigen Teil BH geschrieben.
ADD BX, 15(addw $15, %bx)Der Wert 15 wird zum Inhalt des Arbeitsregisters BX addiert. Das Flagregister wird entsprechend dem Ergebnis gesetzt.
Binäre Maschinenbefehle
Maschinenbefehle sind sehr prozessorspezifisch und bestehen aus mehreren Teilen. Diese umfassen zumindest den eigentlichen Befehl, den Operationscode (OP-CODE), die Adressierungsart, und den Operandenwert oder eine Adresse. Sie können grob in folgende Kategorien eingeteilt werden:
Arithmetische Befehle
Logische Befehle
Sprungbefehle
Transportbefehle
Prozessorkontrollbefehle
Befehlsbearbeitung
Alle Prozessoren mit höherer Verarbeitungsleistung sind heutzutage modifizierte Harvard-Architekturen, da die Harvard-Architektur durch die strikte Trennung zwischen Befehlen und Daten einige Probleme mit sich bringt. Zum Beispiel ist es für selbstmodifizierenden Code nötig, dass Daten auch als Befehle ausgeführt werden können. Ebenso ist es für Debugger wichtig, einen Haltepunkt im Programmablauf setzen zu können, was ebenfalls einen Transfer zwischen Befehls- und Datenadressraum nötig macht. Die Von-Neumann-Architektur findet man bei kleinen Mikrocontrollern. Der Laie darf sich nicht durch den gemeinsamen Adressraum von Befehlen und Daten eines oder mehrerer Kerne irritieren lassen. Das Zusammenfassen von Befehls- und Datenadressraum findet auf Ebene von Cache-Controllern und deren Kohärenzprotokollen statt. Das gilt nicht nur für diese beiden Adressräume (wo dies meist auf L2-Ebene erfolgt), sondern bei Multiprozessor-Systemen auch zwischen denen verschiedener Kerne (hier erfolgt es meist auf L3-Ebene) bzw. bei Multi-Sockel-Systemen beim Zusammenfassen deren Hauptspeichers.
Mikroprozessoren sind bis auf wenige Ausnahmen (z. B. der Sharp SC61860) interruptfähig, Programmabläufe können durch externe Signale unterbrochen oder aber auch abgebrochen werden, ohne dass das im Programmablauf vorgesehen sein muss. Ein Interrupt-System erfordert zum einen ein Interrupt-Logik (d. h. auf Zuruf einschiebbare Befehle) und zum anderen die Fähigkeit, den internen Zustand des Prozessors zu retten und wiederherzustellen, um das ursprüngliche Programm nicht zu beeinträchtigen. Hat ein Mikroprozessor kein Interruptsystem, muss die Software durch Polling die Hardware selbst abfragen.
Neben der geordneten Befehlsausführung beherrschen vor allem moderne Hochleistungsprozessoren weitere Techniken, um die Programmabarbeitung zu beschleunigen. Vor allem moderne Hochleistungsmikroprozessoren setzen parallele Techniken wie etwa Pipelining und Superskalarität ein, um eine evtl. mögliche parallele Abarbeitung mehrerer Befehle zu ermöglichen, wobei die einzelnen Teilschritte der Befehlsausführung leicht versetzt zueinander sind. Eine weitere Möglichkeit, die Ausführung von Programmen zu beschleunigen, ist die ungeordnete Befehlsausführung (englisch ), bei der die Befehle nicht strikt nach der durch das Programm vorgegebenen Reihenfolge ausgeführt werden, sondern der Prozessor die Reihenfolge der Befehle selbständig zu optimieren versucht. Die Motivation für eine Abweichung von der vorgegebenen Befehlsfolge besteht darin, dass aufgrund von Verzweigungsbefehlen der Programmlauf nicht immer sicher vorhergesehen werden kann. Möchte man Befehle bis zu einem gewissen Grad parallel ausführen, so ist es in diesen Fällen notwendig, sich für eine Verzweigung zu entscheiden und die jeweilige Befehlsfolge spekulativ auszuführen. Es ist dann möglich, dass der weitere Programmlauf dazu führt, dass eine andere Befehlsfolge ausgeführt werden muss, sodass die spekulativ ausgeführten Befehle wieder rückgängig gemacht werden müssen. In diesem Sinne spricht man von einer ungeordneten Befehlsausführung.
Adressierungsarten
Maschinenbefehle beziehen sich auf festgelegte Quell- oder Zielobjekte, die sie entweder verwenden und/oder auf diese wirken. Diese Objekte sind in codierter Form als Teil des Maschinenbefehls angegeben, weshalb ihre effektive (logische*) Speicheradresse bei bzw. vor der eigentlichen Ausführung des Befehls ermittelt werden muss. Das Ergebnis der Berechnung wird in speziellen Adressierungseinrichtungen der Hardware (Registern) bereitgestellt und bei der Befehlsausführung benutzt. Zur Berechnung werden verschiedene Adressierungsarten (-Varianten) verwendet, abhängig von der Struktur des Befehls, die je Befehlscode einheitlich festgelegt ist.
(*) Die Berechnung der physikalischen Adressen anhand der logischen Adressen ist davon unabhängig und wird in der Regel von einer Memory Management Unit durchgeführt.
Die folgende Grafik gibt einen Überblick über die wichtigsten Adressierungsarten, weitere Angaben zur Adressierung siehe Adressierung (Rechnerarchitektur).
Registeradressierung
Bei einer Registeradressierung steht der Operand bereits in einem Prozessorregister bereit und muss nicht erst aus dem Speicher geladen werden.
Erfolgt die Registeradressierung implizit, so wird das implizit für den Opcode festgelegte Register mit adressiert (Beispiel: der Opcode bezieht sich implizit auf den Akkumulator).
Bei expliziter Registeradressierung ist die Nummer des Registers in einem Registerfeld des Maschinenbefehls eingetragen.
Beispiel: | C | R1 | R2 | Addiere Inhalt von R1 auf den Inhalt von R2; C=Befehlscode, Rn=Register(n)
Einstufige Adressierung
Bei einstufigen Adressierungsarten kann die effektive Adresse durch eine einzige Adressberechnung ermittelt werden. Es muss also im Laufe der Adressberechnung nicht erneut auf den Speicher zugegriffen werden.
Bei unmittelbarer Adressierung enthält der Befehl keine Adresse, sondern den Operanden selbst; meist nur für kurze Operanden wie '0', '1', 'AB' usw. anwendbar.
Bei direkter Adressierung enthält der Befehl die logische Adresse selbst, es muss also keine Adressberechnung mehr ausgeführt werden.
Bei Register-indirekter Adressierung ist die logische Adresse bereits in einem Adressregister des Prozessors enthalten. Die Nummer dieses Adressregisters wird im Maschinenbefehl übergeben.
Bei der indizierten Adressierung erfolgt die Adressberechnung mittels Addition: Der Inhalt eines Registers wird zu einer zusätzlich im Befehl übergebenen Adressangabe hinzugerechnet. Eine der beiden Adressangaben enthält dabei i. d. R. eine Basisadresse, während die andere ein 'Offset' zu dieser Adresse enthält. Siehe auch Registertypen.
Beispiel: | C | R1 | R2 | O | Lade Inhalt von R2 + Inhalt (Offset) ins R1; O=Offset
Bei Programmzähler-relativer Adressierung wird die neue Adresse aus dem aktuellen Wert des Programmzählers und einem Offset ermittelt.
Zweistufige Adressierung
Bei zweistufigen Adressierungsarten sind mehrere Rechenschritte notwendig, um die effektive Adresse zu erhalten. Insbesondere ist im Laufe der Berechnung meist ein zusätzlicher Speicherzugriff notwendig.
Als Beispiel sei hier die indirekte absolute Adressierung genannt. Dabei enthält der Befehl eine absolute Speicheradresse. Das Speicherwort, das unter dieser Adresse zu finden ist, enthält die gesuchte effektive Adresse. Es muss also zunächst auf die gegebene Speicheradresse im Speicher zurückgegriffen werden, um die effektive Adresse für die Befehlsausführung zu ermitteln. Das kennzeichnet alle zweistufigen Verfahren.
Beispiel: | C | R1 | R2 | AA | Lade nach R1 = Inhalt R2 + an Adr(AA) stehenden Inhalt
Leistungsmerkmale
Die Leistung eines Prozessors wird maßgeblich durch die Anzahl der Transistoren sowie durch die Wortbreite und den Prozessortakt bestimmt.
Wortbreite
Die Wortbreite legt fest, wie lang ein Maschinenwort des Prozessors sein kann, d. h. aus wie vielen Bits es maximal bestehen kann. Ausschlaggebend sind dabei folgende Werte:
Arbeits- oder Datenregister: Die Wortbreite bestimmt die maximale Größe der verarbeitbaren Ganz- und Gleitkommazahlen.
Datenbus: Die Wortbreite legt fest, wie viele Bits gleichzeitig aus dem Arbeitsspeicher gelesen werden können.
Adressbus: Die Wortbreite legt die maximale Größe einer Speicheradresse, d. h. die maximale Größe des Arbeitsspeichers, fest.
Steuerbus: Die Wortbreite legt die Art der Peripherieanschlüsse fest.
Die Wortbreite dieser Einheiten stimmt im Normalfall überein, bei aktuellen PCs beträgt sie 32 bzw. 64 Bit.
Prozessortakt
Die Taktrate () wird besonders in der Werbung oft als Beurteilungskriterium für einen Prozessor präsentiert. Es wird allerdings nicht vom Prozessor selbst bestimmt, sondern ist ein Vielfaches des Mainboard-Grundtaktes. Dieser Multiplikator und der Grundtakt lässt sich bei einigen Mainboards manuell oder im BIOS einstellen, was als Über- oder Untertakten bezeichnet wird. Bei vielen Prozessoren ist der Multiplikator jedoch gesperrt, sodass er entweder gar nicht verändert werden kann oder nur bestimmte Werte zulässig sind (oft ist der Standardwert gleichzeitig der Maximalwert, sodass über den Multiplikator nur Untertakten möglich ist). Das Übertakten kann zu irreparablen Schäden an der Hardware führen.
CPU-Ausführungszeit = CPU-Taktzyklen × Taktzykluszeit
Weiterhin gilt:
Taktzykluszeit = 1 / Taktrate = Programmbefehle × CPI × Taktzykluszeit
Die Geschwindigkeit des gesamten Systems ist jedoch auch von der Größe der Caches, des Arbeitsspeichers und anderen Faktoren abhängig.
Einige Prozessoren haben die Möglichkeit die Taktrate zu erhöhen, bzw. zu verringern, wenn es nötig ist. Zum Beispiel, wenn hochauflösende Videos angeschaut oder Spiele gespielt werden, die hohe Anforderungen an das System stellen, oder umgekehrt der Prozessor nicht stark beansprucht wird.
Anwendungsbereich
Im Bereich der Personal Computer ist die historisch gewachsene x86-Architektur weit verbreitet, wobei für eine genauere Diskussion dieser Thematik der entsprechende Artikel empfohlen wird.
Weniger bekannt ist der Einsatz von Embedded-Prozessoren und Mikrocontrollern beispielsweise in Motorsteuergeräten, Uhren, Druckern sowie einer Vielzahl elektronisch gesteuerter Geräte.
Siehe auch
Digitaler Signalprozessor (DSP)
Mikroprogrammsteuerwerk
Ring (CPU)
Physikbeschleuniger (PPU)
Neuromorpher Prozessor (NPU)
Liste von Mikroprozessoren
Literatur
Helmut Herold, Bruno Lurz, Jürgen Wohlrab: Grundlagen der Informatik. Pearson Studium, München 2007, ISBN 978-3-8273-7305-2.
Weblinks
umfassende Sammlung von Prozessoren (englisch)
FAQ der Usenet-Hierarchie de.comp.hardware.cpu+mainboard.*
cpu-museum.de Bebildertes CPU-Museum (englisch)
CPU-Sammlung/CPU-Museum
Selbstbauprojekt einer CPU aus einzelnen TTL-Bausteinen
Intel Engineering Samples verifizieren
25 Microchips that shook the world, ein Artikel des Institute of Electrical and Electronics Engineers, Mai 2009
Einzelnachweise
Hardware
Rechnerarchitektur
|
Q1466064
| 151.876467 |
278088
|
https://de.wikipedia.org/wiki/Futsal
|
Futsal
|
Futsal ist eine Hallensportart und seit 1989 die internationale Hallenfußballvariante des Weltfußballverbandes FIFA. Der Begriff Futsal ist eine Abkürzung der portugiesischen und spanischen Ausdrücke für Hallenfußball (futebol de salão bzw. fútbol sala). Futsal wird im 5 gegen 5 auf einem handballähnlichen Spielfeld mit einem sprungreduzierten Ball gespielt. Das Spiel wird nach den internationalen FIFA-Futsal-Spielregeln ausgetragen.
Futsal ist weltweit verbreitet und wird durch den Weltfußballverband FIFA und seine Mitgliedsverbände organisiert. Eine der bekanntesten Futsal-Ligen der Welt ist die spanische División de Honor mit 16 professionellen Futsal-Mannschaften. Auf Klubebene nehmen die besten Futsal-Mannschaft Europas bei der UEFA Futsal Champions League teil, die europäischen Nationalmannschaften messen sich unter anderem bei der FIFA Futsal-Weltmeisterschaft der Männer, der FIFA-Futsal-Weltmeisterschaft der Frauen, der UEFA Futsal-Europameisterschaft der Männer und der UEFA Futsal-Europameisterschaft der Frauen. Zu den bekanntesten europäischen Sportvereinen, die eine Futsalabteilung führen, zählen Benfica Lissabon, FC Barcelona als auch Sporting Lissabon. Auch in Deutschland sind Futsalabteilungen in bekannten Sportvereinen verankert, wie Fortuna Düsseldorf, FC St. Pauli, FC Carl Zeiss Jena, Hamburger SV, Hannover 96, Karlsruher SC, SSV Jahn Regensburg, SV Darmstadt 98 und TSV 1860 München.
Futsal weist naturgemäß ein hohes Maß an aktiver Teilnahme und motorischer Betätigung auf: Die Spieler sind ständig – direkt oder indirekt – ins Geschehen involviert und verbringen viel Zeit mit aktivem und intensivem Spielen. Der für die Halle sprungoptimierte Ball erleichtert das Erlernen der motorischen Grundhandlungen des Fußballspiels, weshalb sich Futsal auch für den Schulsport als Einstieg bestens eignet. Viele internationale Stars wie Pelé, Ronaldo, Cristiano Ronaldo, Messi, Xavi und Ronaldinho haben in ihrer Kindheit mit Futsal begonnen.
Geschichte
Die Ursprünge des Futsals gehen auf das Jahr 1930 und den uruguayischen Sportlehrer Juan Carlos Ceriani zurück. Ceriani hatte es sich zum Ziel gesetzt, eine altersgerechte Spielform des Fußballs für Kinder zu entwickeln und Kindern, denen keine Spielfelder im Freien zur Verfügung standen, das Fußballspielen auf Basketballfeldern zu ermöglichen. Diese kleineren Spielfelder waren die Lösung für das mangelnde Platzangebot. Ceriani zog die Rahmenbedingungen und Spielregeln anderer Mannschaftssportarten wie Basketball, Handball und Wasserball heran und passte die Größe des Spielfeldes, die Spieleranzahl, die Spieldauer und die Spielregeln für die neue Hallenfußballvariante an. In Uruguay, wo Fußball nach den Titelgewinnen bei den Olympischen Spielen 1928 und bei der Fußball-Weltmeisterschaft 1930 außerordentlich populär war, stieß die neue Fußballvariante auf Anhieb auf Begeisterung und breitete sich schnell in ganz Südamerika aus. Bereits 1942 hat der südamerikanische Sportlehrerbund den Futsal für den Schulsport empfohlen. 1952 wurde in São Paulo die erste offizielle Institution, die Liga „Futebol de Salão“, gegründet. In den darauffolgenden Jahrzehnten verbreitete sich der Futsal allmählich rund um den Globus als offizielle Hallenvariante des Fußballs, die durch die Übernahme bestimmter Elemente aus anderen Mannschaftssportarten einen eigenen Charakter besitzt.
Im Jahr 1989 wurde Futsal von der FIFA als offizielle, internationale Hallenfußballvariante aufgenommen. Die erste FIFA Futsal-Weltmeisterschaft wurde 1989 in den Niederlanden ausgetragen. Im Finale gewann Brasilien gegen Niederlande mit 2:1. Die erste UEFA Futsal EURO fand 1996 in Spanien statt. Im ersten Finale der Futsal-Europameisterschaft gewann Spanien gegen Russland mit 5:3. 2019 wurde die erste UEFA Women's Futsal EURO in Portugal ausgetragen. Siegreich gingen die Spanierinnen hervor, die im Finale Portugal mit 4:0 besiegten. Im europäischen Vereins-Futsal wird seit der Saison 2001/02 die UEFA Futsal Champions League von der UEFA ausgetragen.
Die FIFA-Futsal-Spielregeln
Futsal unterscheidet sich von anderen Arten des Hallenfußballs vor allem dadurch, dass das Spielfeld durch Linien (Handballfeld) und nicht durch Banden begrenzt wird. Es wird generell mit fünf Spielern, von denen einer der Torwart ist, auf Handballtore mit einem sprungreduzierten Ball gespielt, der einen Umfang von mindestens 62 und höchstens 64 cm hat (Fußball 68 bis 70 cm). Der Ball hat relativ wenig Druck (0,6 bis 0,9 bar Überdruck gegenüber 0,6 bis 1,1 bar beim Standard-Fußball der Größe 5). Zusätzlich gibt es die Vorgabe, dass der Ball beim Futsal bei einer Fallhöhe von 2 m nach dem ersten Aufprall nicht weniger als 50 und nicht mehr als 65 cm aufspringen darf. Das Spielfeld misst bei internationalen Wettkämpfen 38–42 m × 20–25 m.
Gewechselt werden darf unbegrenzt und fliegend innerhalb der mannschaftseigenen Wechselzone, der Einwurf ist durch den Einkick ersetzt, die Spielzeit beträgt zweimal 20 Minuten. Der Strafstoß wird aus sechs Metern Entfernung ausgeführt. Fouls werden restriktiv geahndet. Dabei ist Futsal keineswegs körperlos, wie es oft fälschlicherweise beschrieben wird. Der Körperkontakt in den Zweikämpfen ist ähnlich intensiv wie beim Fußball. Durch die Sanktionierung mit direktem Freistoß (kumuliertes Foul) halten sich die Spieler erfahrungsgemäß zurück. Die Mannschaftsfouls werden (ähnlich wie beim Basketball) gezählt, wobei es ab dem fünften Mannschaftsfoul (je Halbzeit) für jedes weitere Foul einen direkten Freistoß ohne Mauer gibt, der auf den Zehn-Meter-Punkt verlegt werden darf. Nach einer roten Karte darf der betreffende Spieler nach Ablauf von zwei Minuten oder nachdem die gegnerische Mannschaft ein Tor erzielt hat durch einen anderen Spieler ersetzt werden. Zudem gilt beim Futsal eine verschärfte Rückpass-Regel: Der Torwart darf den Ball nur einmal berühren und dabei höchstens vier Sekunden kontrollieren (dazu gehört auch der Abwurf). Danach darf er den Ball erst wieder berühren, wenn zwischenzeitlich ein Gegner Ballkontakt hatte, oder wenn der Torwart sich in der gegnerischen Hälfte befindet. Der Torwart kann ähnlich wie beim Handball durch einen weiteren Feldspieler ersetzt werden. Die Rückpass-Regel ist dabei aber weiterhin zu beachten. Jede Mannschaft kann einmal pro Halbzeit eine Auszeit von einer Minute erhalten, sofern sie bei der folgenden Spielfortsetzung im Ballbesitz ist.
Außerdem unterscheidet sich Futsal vom klassischen Hallenfußball durch die „Vier-Sekunden-Regel“. Für ruhende Bälle (sowie Kontrolle des Balles durch den Torwart mittels Hand oder Fuß in der eigenen Spielfeldhälfte) stehen jeweils nur vier Sekunden zur Ausführung zur Verfügung. Wird die zulässige Zeit überschritten, wechselt der Ballbesitz zur gegnerischen Mannschaft. Die Zeit wird vom Schiedsrichter angezeigt, der den Ablauf der vier Sekunden deutlich mit den Fingern am nach oben gestreckten Arm mitzählt.
Rahmenbedingungen des Futsalspiels
Das Spielfeld misst bei internationalen Wettkämpfen 38–42 m × 20–25 m und ist durch zwei Seiten- und zwei Grundlinien begrenzt.
Die Tore haben die Größe 3 × 2 m.
Gespielt wird mit dem sprungreduzierten Futsalball der Größe 4 mit einem Gewicht von 410–440 g.
Das Spiel wird im 5 gegen 5 ausgetragen (4 Feldspieler und 1 Torspieler pro Team).
Bei internationalen Wettkämpfen können bis zu 9 Auswechselspieler gemeldet werden.
Internationale Wettkämpfe werden von 3 Schiedsrichtern und 1 Zeitnehmer geleitet.
Die Netto-Spielzeit beträgt 2× 20 Minuten. Befindet sich der Ball im Aus oder ist das Spiel unterbrochen, wird die Spielzeit bis zur Wiederaufnahme des Spiels angehalten.
Die wichtigsten Spielregeln des Futsalspiels
Time Out: Pro Halbzeit kann jedes Teams ein Time-Out nehmen. Das Time-Out dauert 60 Sekunden.
Auswechslung: Die Spieler dürfen fliegend ein- und ausgewechselt werden.
Foulspiel: Die erfolgten Fouls eines Teams werden pro Halbzeit zusammengezählt (kumulierte Teamfouls).
10-Meter-Freistoß: Nach dem fünften kumulierten Teamfoul erhält die gegnerische Mannschaft nach jedem weiteren Foul einen 10-Meter-Freistoß ohne Mauer vom 10-Meter-Punkt.
6-Meter-Strafstoß: Nach einem Foul im 6-Meter-Raum gibt es einen Strafstoß vom 6-Meter-Punkt.
Platzverweis: Erhält ein Spieler eines Team einen Platzverweis, spielt sein Team für 2 Minuten solange in Unterzahl, bis ein Gegentor fällt.
Spieleröffnung bei Seitenaus und Ecken: Der Ball wird nach dem Seitenaus und bei Ecken mit einem Einkick ins Spiel gebracht. Die Verteidiger halten dabei einen Abstand von 5 Meter zum Ball.
Spieleröffnung für Torspieler: Der Ball muss mit der Hand im 6-Meter-Raum innerhalb von 4 Sekunden ins Spiel gebracht werden (Abwurf statt Abstoß).
Regel für Torspieler in der eigenen Hälfte: Der Torspieler darf in der eigenen Hälfte nur einmal in Ballbesitz für 4 Sekunden sein.
Regel für Torspieler in der gegnerischen Hälfte: Der Torspieler darf in der gegnerischen Hälfte unbegrenzt und ohne Zeitbegrenzung in Ballbesitz sein (Flying Goalkeeper).
Standardsituationen: Abwürfe, Freistöße, Ecken und Einkicks müssen nach Freigabe des Balles innerhalb von 4 Sekunden ins Spiel gebracht werden.
Schiedsrichter
Geleitet werden Futsal-Spiele oder auch Turniere von 2 bis 4 Schiedsrichtern, dem Ersten, Zweiten, Dritten und Vierten Schiedsrichter.
Der Erste Schiedsrichter befindet sich während des Spiels an der Seitenlinie des Feldes auf der Seite der Spiel- oder Turnierleitung. Seine Aufgabe ist, den Futsalregeln Geltung zu verschaffen, Spielfortsetzungen anzuzeigen und Disziplinarstrafen zu verhängen. Bei Fehlentscheidungen des Zweiten Schiedsrichters kann er diesen überstimmen.
Der Zweite Schiedsrichter befindet sich während des Spiels an der Seitenlinie gegenüber dem Ersten Schiedsrichter. Seine Aufgabe ist, ebenso wie der Erste Schiedsrichter den Futsalregeln Geltung zu verschaffen, Spielfortsetzungen anzuzeigen und Disziplinarstrafen zu verhängen.
Grundsätzlich werden Signale, welche einer der beiden ersten Schiedsrichter anzeigt, vom anderen der beiden übernommen. Das soll den Spielern dazu dienen, sich nicht auf nur einen Schiedsrichter konzentrieren zu müssen. Während des Spiels steht einer der beiden ersten Schiedsrichter grundsätzlich hinter dem Spielgeschehen, der Andere davor, so dass sich das Spielgeschehen immer zwischen den beiden abspielt. Die Positionen vor oder hinter dem Spielgeschehen wechseln im Spiel durch Einkick, Eckstoß oder Abwurf. Das macht das Spiel auch für die Schiedsrichter schneller und dynamischer.
Der Dritte Schiedsrichter befindet sich auf der Seite der Spiel- oder Turnierleitung zwischen den beiden Wechselzonen der Mannschaften. Seine Aufgabe ist, die Auswechselbänke zu beaufsichtigen und den korrekten Ablauf von Wechselvorgängen sicherzustellen.
Der Vierte Schiedsrichter befindet sich unmittelbar bei der Spiel- oder Turnierleitung. Er übernimmt die Aufgabe der Zeitnahme und zählt kumulierte Fouls. Er kann auch von der Turnier- oder Spielleitung ersetzt werden.
Internationale Futsal-Meisterschaften der FIFA und der Kontinentalverbände
Für Nationalmannschaften der Männer
FIFA Futsal-Weltmeisterschaft
AFC Futsal-Asienmeisterschaft
CAF Futsal-Afrikameisterschaft
CONCACAF Futsal-Meisterschaft (Meisterschaft von Nord-, Mittelamerika und der Karibik)
CONMEBOL Futsal-Südamerikameisterschaft
CONMEBOL Campeonato Sudamericano Sub-20 de Futsal – U20-Südamerikameisterschaft
OFC Futsal-Ozeanienmeisterschaft
UEFA Futsal-Europameisterschaft
UEFA U19 Futsal-Europameisterschaft
Grand Prix de Futsal
Futsal Finalissima (UEFA/CONMEBOL)
Für Nationalmannschaften der Frauen
FIFA Futsal-Weltmeisterschaft der Frauen
AFC Futsal-Asienmeisterschaft der Frauen
CAF Futsal-Afrikameisterschaft der Frauen
CONCACAF Futsal-Meisterschaft der Frauen (Meisterschaft von Nord-, Mittelamerika und der Karibik)
CONMEBOL Futsal-Südamerikameisterschaft der Frauen
CONMEBOL Campeonato Sudamericano Sub-20 Femenino de Futsal – U20-Südamerikameisterschaft der Frauen
OFC Futsal-Ozeanienmeisterschaft der Frauen
UEFA Futsal-Europameisterschaft der Frauen
Für Klubmannschaften der Männer
Futsal-Weltpokal – Vereinsmannschaften
AFC Futsal Club Championship – Asienpokal für Vereinsmannschaften
CONMEBOL Copa Libertadores Futsal – Südamerikapokal für Vereinsmannschaften
UEFA Futsal Champions League – Europapokal für Vereinsmannschaften
Für Klubmannschaften der Frauen
CONMEBOL Copa Libertadores Futsal de Femenina – Südamerikapokal für Vereinsmannschaften
Futsal in Deutschland
In Deutschland ist Futsal eine seit 2003 wachsende Hallensportart. Eine der ersten Futsal-Veranstaltungen in Deutschland war der Futcon-Springtime-Cup, der dreimal von 2003 bis 2005 ausgetragen wurde. Einmal konnte der UFC Münster gewinnen, zweimal schaffte das der 1. MSC Strandkaiser Krefeld. Futsal ist seit 2013 Teil des Masterplan Amateurfußball des DFB, der beim 2. Amateurfußball-Kongress 2012 als gemeinsamer und verbindlicher Maßnahmenkatalog zwischen dem DFB und den Landesverbänden vorgestellt wurde. Der Masterplan sieht unter anderem die bundesweite Verankerung des Futsal vor. Nachdem die FIFA-Futsal-Regeln in der Hallensaison 2014/2015 bereits für die von den Landes- und Regionalverbänden ausgetragenen Hallenturniere und -ligen im Juniorenbereich zum Einsatz gekommen waren, wurde zur Saison 2015/2016 auch im Seniorenbereich umgestellt. In der Futsal-Ordnung des DFB heißt es in der Präambel dazu:
Futsal-Bundesliga
Im April 2006 fand zum ersten Mal der DFB-Futsal-Cup statt. Erster Sieger des DFB-Futsal-Cups wurde der UFC Münster, der die SVG Göttingen 07 mit 3:1 nach Sechsmeterschießen besiegte. Ab der Saison 2015/2016 bis zur Saison 2020/2021 wurde eine offizielle deutsche Futsal-Meisterschaft ausgespielt. Seit der Saison 2021/22 veranstaltet der DFB die Futsal-Bundesliga mit zehn Mannschaften.
Rekordmeister der deutschen Futsal-Meisterschaft sind die HSV-Panthers (seit 2017 zugehörig zur Futsalabteilung des Hamburger SV) mit vier Titeln. Jeweils zweimal erfolgreich war der UFC Münster, TSV Weilimdorf, VFL 05 Hohenstein-Ernstthal und SD Croatia Berlin.
Deutsche Futsalnationalmannschaft
Eine offizielle Futsalnationalmannschaft wurde durch den DFB in Deutschland erst Anfang 2016 gegründet. Zuvor spielten zwischen 2010 und 2012 jeweils im Rahmen des DFB-Futsal-Cups Auswahlmannschaften unter dem Namen DFB All-Stars gegen andere Futsalnationalmannschaften. 2010 verlor man gegen Polen 0:4, 2011 unterlag man gegen Kroatien 1:11 und 2012 erreichte man ein 4:4-Unentschieden gegen Dänemark. Im März 2015 führte der DFB erste Sichtungslehrgänge zur Bildung einer Nationalmannschaft in Kamen-Kaiserau und Grünberg durch. Am 4. Dezember 2015 gab der DFB die Gründung einer DFB-Futsal-Nationalmannschaft bekannt und erklärte, dass diese bereits an der Qualifikation zur Futsal EM 2018 teilnimmt. Der Kader wurde in verschiedenen Sichtungslehrgängen zusammengestellt. Nach dem abschließenden Lehrgang vom 13. bis 15. März 2016 in der Sportschule Hennef wurde im April 2016 der erste Kader der deutschen Futsalnationalmannschaft benannt, mit dem am 30. Oktober und 1. November 2016 die ersten Länderspiele bestritten wurden. Die englische Futsalnationalmannschaft wurde mit 5:3 besiegt. Der 16-köpfige Kader nahm im April 2016 an einem Gemeinschaftslehrgang mit Georgien in Tiflis teil. Die beiden Trainingsspiele während des Trainingslagers konnte Georgien mit 5:0 und 4:0 gewinnen. Die EM-Endrunde fand ohne deutsche Beteiligung 2018 in Ljubljana (Slowenien) statt.
Landesauswahlturnier
Vom 23. bis zum 26. Januar 2014 wurde das erste, deutschlandweite Futsal-Landesauswahlturnier in der Sportschule Wedau (Duisburg) ausgerichtet. Erstmals stellten alle 21 Fußballverbände eine Futsal-Auswahl, wodurch das Turnier erstmals einen Gesamtüberblick über die deutsche Futsal-Landschaft ermöglichte. Sieger wurde Hamburg, vor Schleswig-Holstein und Württemberg. Das zweite Landesauswahlturnier vom 15. bis 18. Januar 2015 in Duisburg gewann ebenfalls Hamburg. Die dritte Austragung dieses Turniers fand vom 15. bis 17. Januar 2016 abermals in Duisburg statt. Den Titel holte sich diesmal Sachsen.
Futsal in Österreich
In Österreich gewinnt Futsal zunehmend an Bekanntheit. In den vergangenen Jahren wurde der österreichische Meister zunächst anhand einzelner Turniere ausgespielt. Später gab es regionale Ausscheidungen, ebenfalls mit einem Abschlussturnier. Seit der Saison 2006/07 gibt es eine österreichische Futsal-Bundesliga, die Murexin Bundesliga. Bis zur Saison 2016/17 wurde die Meisterschaftsspiele in Miniturnieren ausgetragen. Das bedeutet die einzelnen Meisterschaftsbegegnungen wurden an einen Spielort zusammengelegt, wodurch jedes Team pro Spieltag (zumeist) zwei Spiele absolvierte. Gespielt wurde in diesem Modus 2× 20 Minuten Brutto-Spielzeit und die letzten fünf Minuten als Netto-Spielzeit. Ab der Saison 2017/18 wurde in der 1. und 2. ÖFB Futsal Liga sowie der neu gegründeten KFV Futsal Liga auf Einzelspiele mit der international üblichen Spielzeit von 2× 20 Minuten Netto-Spielzeit umgestellt.
Der österreichische Meister ist berechtigt, an der Qualifikation zum UEFA Futsal Cup teilzunehmen. Der österreichische Cupsieger (tipp3-Futsal Cup) spielt beim UEFA Recopa Cup. Der amtierende Meister ist Stella Rossa tipp3. Neben Meisterschaft und Cup gibt es noch den Futsal-Supercup (Meister gegen Cupsieger) und als Saisonabschluss den Futsal-Ligapokal (zw. Meister, Vizemeister, Cupsieger und Meister 2. ÖFB Futsal Liga). Jedoch ist derzeit lediglich die Meisterschaft ein offizieller Bewerb des ÖFB.
Österreichische Bundesliga-Futsalvereine 2019/20:
Die österreichischen Futsal-Bewerbe im Überblick
Ab 2006/07 wurde die Murexin Bundesliga als offizieller, bundesweiter Bewerb und ab der Saison 2010/11 unter der Schirmherrschaft des ÖFB ausgetragen. Der bis dahin als inoffizieller Bewerb ausgetragene Cup wurde 2018 erstmals durch den ÖFB als ÖFB Futsal Cup ausgetragen.
ÖFB Futsal Challenge
Seit der Saison 2016 wird in Österreich erstmals nicht mehr nur über die Wintermonate Futsal gespielt. Der neue Bewerb des ÖFB soll der Vorreiter für eine Ganzjahresmeisterschaft als offizielle Staatsmeisterschaft darstellen. Im ersten Jahr (2016) wird lediglich bis Ende Mai gespielt. In der ÖFB Futsal Challenge sind nur Futsal-Stammvereinsspieler spielberechtigt und die Spielzeit beträgt 2× 20 Minuten netto in Form von Einzelspielen anstatt der Miniturnieren in der derzeitigen Meisterschaft.
Abschlusstabelle der ÖFB Futsal Challenge 2017:
Stella Rossa tipp3 (Wien)
1. FC Futsal Innsbruck (Tirol)
Futsal Club Liberta Wien (Wien)
FUTSAL Klagenfurt (Kärnten)
SC Vienna Walzer (Wien)
1. FC Allstars Wiener Neustadt (NÖ)
ÖFB-Futsal-Nationalmannschaft
Am 13. April 2018 wurde nach einem einstimmigen Beschluss des ÖFB-Präsidiums beschlossen, ein Futsal-Nationalteam einzurichten.
Futsal in der Schweiz
In der Schweiz wurde in der Saison 2006/07 erstmals eine offizielle Meisterschaft durchgeführt. Auch wenn Futsal eher eine Randsportart darstellt, erfreut sie sich steigender Beliebtheit.
Futsal bei den Olympischen Jugendspielen / Youth Olympic Games (YOG)
-> Hauptartikel: Olympische Jugendspiele
Im Jahr 2016 haben der IOC und die FIFA gemeinsam entschieden, Futsal anstelle des Feldfußballs bei den Olympischen Jugendspielen 2018 in Buenos Aires, Argentinien einzuführen. Die teilnehmenden Spieler mussten zwischen dem 1. Januar 2000 und dem 31. Dezember 2003 geboren worden sein. Argentinien hatte als Gastgeber und austragende Nation das Recht, eine Mannschaft in einem Geschlecht ihrer Wahl direkt zu qualifizieren.
Die Startplätze wurden durch separate Qualifikationsturniere in den Kontinentalverbänden ausgetragen. Dabei erhielten AFC, CONCACAF, CONMEBOL und UEFA jeweils zwei Quotenplätze, CAF und OFC jeweils einen. Das Turnier der U19-Junioren gewann Brasilien im Finale gegen Russland mit 4:2. Das Turnier der U19-Juniorinnen gewann Portugal im Finale gegen Japan mit 4:1.
Futsal bei den Special Olympics
Futsal wird auch seit 2019 bei den Special Olympics World Games für geistig und mehrfach behinderte Menschen angeboten. Bei den Veranstaltungen der Special Olympics ist Futsal eine der Sportarten, in denen Unified Sports® Wettbewerbe angeboten werden. Dies bedeutet, dass Menschen mit und ohne Behinderung in einem Team zusammen spielen. Anders als bei den Wettbewerben der FIFA, seiner Mitgliedsverbände und des IOC findet Futsal bei den Special Olympics nicht in der Halle statt, sondern auf Rasen.
Weblinks
FIFA-Positionierung zu Futsal inkl. Spielregeln
Einzelnachweise
Fußballvariante
Torspiel
|
Q171401
| 269.249984 |
70573
|
https://de.wikipedia.org/wiki/Diplomatie
|
Diplomatie
|
Diplomatie ist die Kunst und Praxis des Verhandelns zwischen bevollmächtigten Repräsentanten verschiedener Gruppen oder Nationen (Diplomaten). Der Begriff bezieht sich meist auf die internationale Diplomatie, also die Pflege zwischenstaatlicher und überstaatlicher Beziehungen durch Absprachen über Angelegenheiten wie Friedenssicherung, Kultur, Wirtschaft, Handel und Konflikte. Internationale Verträge werden in der Regel von Diplomaten ausgehandelt; dabei handeln diese im Auftrag ihrer Regierungen und vertreten deren Interessen.
Im übertragenen Sinne versteht man unter diesem Begriff auch die auf Verhandlungen oder Treffen beruhenden Kontakte zwischen zwei oder mehr Gruppen jedweder Art.
Diplomatisches Verhalten nennt man das Tun und Lassen eines Verhandelnden,
das den Agierenden dabei Kompromissbereitschaft und den Willen bescheinigt, die Absichten und die Wünsche jedes Beteiligten zu erkennen;
das sogenannte Win-win-Situationen sucht;
das es möglichst vermeidet, andere Verhandelnde bloßzustellen oder in die Enge zu treiben;
das geeignet ist, den langfristigen Nutzen zu maximieren (es wäre also undiplomatisch, sich einen kurzfristigen Nutzen zu sichern, dabei aber langfristig Nachteile oder Konflikte zu riskieren bzw. in Kauf zu nehmen).
Englisch und Französisch gelten heute (wie schon seit Jahrhunderten) als weltweite Sprachen der Diplomatie. Beide sind, neben Arabisch, Chinesisch, Russisch und Spanisch, die Arbeitssprachen der Vereinten Nationen (UN).
Überblick
Begriffserläuterungen, wichtige Bestandteile
Eine Sammelbezeichnung für eine Gruppe von Diplomaten aus demselben Herkunftsland ist die diplomatische Vertretung. Dabei kommt der höchste diplomatische Rang innerhalb dieser Gruppe dem Botschafter (weltlich) beziehungsweise dem Apostolischen Nuntius (kirchlich) zu. Eine von einem Botschafter angeführte diplomatische Vertretung in einem Gebäude heißt Botschaft. Ihre Mitglieder sind die offiziellen Vertreter und Ansprechpartner eines Staates, einer Nation oder einer Organisation (etwa UN-Botschafter) in einer fremden Nation. Die Sammelbezeichnung für alle Diplomaten in einem fremden Staat ist das diplomatische Korps (französisch corps diplomatique), weshalb auch die Kfz-Kennzeichen von Diplomaten in aller Welt oft mit den Buchstaben CD beginnen oder in der Form eines Nationalitätszeichens (ovales Schild) neben dem Kfz-Kennzeichen angebracht sind.
Je besser der Diplomat oder die diplomatische Mission im fremden Land organisiert ist, desto besser kann den eigenen Interessen Ausdruck verliehen werden. Hierbei ist eine Botschaft sehr hilfreich, weshalb es heute ein enges Netz aus Botschaften und diplomatischen Beziehungen rund um die Welt gibt.
Formen
Die einfachste und älteste Diplomatieform ist die bilaterale (zweiseitige), also die Diplomatie zwischen zwei Staaten. Eine weitere ist die multilaterale (mehrseitige) Diplomatie, wobei viele Staaten gleichzeitig zu einem gemeinsamen Ergebnis zu kommen versuchen, das dann für alle verbindlich ist. Im Gegensatz zu diesen Formen steht der Unilateralismus (Alleinhandeln), wo ein Staat nur im eigenen Interesse handelt, ohne Absprache oder Rücksichtnahme auf anderen Nationen.
Diplomatischer Kontakt
Diplomatischer Kontakt zwischen verschiedenen Nationen findet z. B. zwischen den jeweiligen Botschafte(r)n und Regierungen oder im Rahmen von diplomatischen Foren statt. Bedeutende Gesprächs-Foren der Diplomatie sind etwa die Vereinten Nationen (UNO), die Europäische Union (EU), die Vereinigung der süd-ost-asiatischen Nationen (ASEAN) und die Union Südamerikanischer Nationen (UNASUR). Bei Verhandlungen und Konferenzen auf supranationaler Ebene werden in der Regel Diplomaten, die an diese Organisation entsandt werden, tätig.
Über die Aufnahme oder einen Abbruch diplomatischer Kontakte zu einem Land entscheidet in der Regel das jeweilige Bundesparlament, in Deutschland der Deutsche Bundestag.
Funktionsweise bzw. Besonderheiten
Jede Diplomatie funktioniert auf der Basis des verbalen Taktgefühls, welches gewährleistet, dass sachlich über Fakten diskutiert werden kann.
Vorgehensweisen
Es existieren unzählige diplomatische Vorgehensweisen oder Strategien, um die Interessen eines Staates bei einem anderen durchzusetzen. Eine Vorgehensweise ist die informelle Diplomatie. Sie wird seit Jahrhunderten zur Kommunikation zwischen den Großmächten verwendet. Viele Diplomaten bemühen sich, Kontakt zu einflussreichen Figuren in anderen Staaten herzustellen, um auf diesem Weg Zugang zur Führungsspitze eines Landes zu erhalten. In einigen Fällen, zum Beispiel zwischen den USA und der Volksrepublik China, läuft ein Großteil der Diplomatie über halboffizielle Kanäle unter Verwendung von Gesprächspartnern wie akademischen Mitgliedern politischer Stiftungen (Denkfabriken) ab. Dies geschieht zumal in Angelegenheiten, in denen Regierungen Empfehlungen oder Ratschläge geben möchten, ohne dies über die offiziellen Kanäle verlautbar werden zu lassen.
In Europa werden seit langem auch vertrauensbildende Maßnahmen praktiziert, um Spannungen zwischen Völkern langfristig abzubauen oder Gemeinsamkeiten zu fördern. So werden zum Beispiel Programme zum Jugendaustausch, akademische Austauschprogramme wie das Erasmus-Programm oder das Sokrates-Programm vereinbart.
Weitere vertrauensbildende Maßnahmen sind das Schließen internationaler Städtepartnerschaften und die Förderung des Fremdsprachenunterrichtes (an Schulen).
Im Orient und anderen Teilen der Welt gab es eine ganz andere Vorgehensweise. Im osmanischen Reich, Persien und anderen Staaten wurden Diplomaten als eine Garantie für gutes Verhalten angesehen. Sofern eine Nation ein Abkommen brach oder Angehörige dieser Nation sich schlecht verhielten, zum Beispiel ein Schiff kaperten oder ein Grenzdorf plünderten, dann wurden die Diplomaten dafür bestraft. Diplomaten waren also ein Mittel dazu, Abkommen und Völkerrecht durchzusetzen. Damit gesichert war, dass die Bestrafung von Diplomaten den Herrschenden auch etwas bedeutete, bestand man auf hochrangige Diplomaten. Diese Tradition findet sich schon im Römischen Reich der Antike. Die Römer forderten von den unterworfenen Stämmen in Germanien häufig Geiseln, meist Kinder des Stammeshäuptlings oder nahe Verwandte. Diese wurden nicht als Gefangene gehalten, sondern als eine Art von Gästen. So kamen sie in den Genuss römischer Erziehung und Lebensart. Nur bei Fehlverhalten ihres Stammes konnte es zu drastischen Repressalien gegen sie kommen.
Diplomatische Immunität
Diplomatische Immunität ist der Schutz von Diplomaten vor strafrechtlicher, zivilrechtlicher oder administrativer Verfolgung in einem fremden Staat.
Diplomatische Rechte wurden in Europa in der Mitte des siebzehnten Jahrhunderts etabliert und haben sich seitdem in der ganzen Welt ausgebreitet. Diese Tradition wurde 1961 im Wiener Übereinkommen über diplomatische Beziehungen formell niedergelegt. Der Vertrag schützt Diplomaten davor, belangt oder verfolgt zu werden, während sie sich auf diplomatischer Mission befinden. Sie erhalten diese Immunität durch die Ausweisung als Handlungsbefugte im Namen einer Regierung (Akkreditierung) und nicht allein durch den Besitz eines Diplomatenpasses. Es ist jedoch üblich, Diplomaten mit solchen Pässen auszustatten.
Der akkreditierte Diplomat genießt Immunität nur im Empfangsstaat. Ist er bei einer internationalen Organisation akkreditiert, richtet sich seine Immunität in einem Staat nach den Vereinbarungen der Organisation mit jeweils diesem Staat. Besitzt der Diplomat auch oder nur die Staatsangehörigkeit des Empfangsstaates, ist er wegen seiner dienstlichen Handlungen immun, nicht aber wegen seines privaten Verhaltens.
Auch mitreisenden Familienangehörigen von Diplomaten wird vom Empfangsstaat Immunität gewährt.
Auf die Immunität kann der Entsendestaat – nicht der Diplomat oder Familienangehörige – durch Erklärung gegenüber dem Empfangsstaat ganz oder teilweise verzichten. Hauptsächlich findet dies statt, wenn der Empfangsstaat einem Familienangehörigen des Diplomaten die Ausübung einer Erwerbstätigkeit gestattet. Damit keine Wettbewerbsverzerrungen gegenüber Berufstätigen aus dem Empfangsstaat entstehen, wird im Zusammenhang mit der Berufsausübung auf die Immunität verzichtet. So muss beispielsweise der Ehepartner eines Diplomaten, der in Deutschland als Arzt tätig werden will, nicht nur die Zulassungsvoraussetzungen erfüllen, sondern auch Beiträge an die Ärztekammer leisten und kann für Sorgfaltspflichtverletzungen bei Behandlungen vor deutschen Zivilgerichten in Anspruch genommen sowie vor Strafgerichten angeklagt werden; wegen des bei einem privaten Sonntagsausflug verursachten Verkehrsunfalls würde hingegen nach wie vor die Immunität greifen.
Die diplomatische Kommunikation wird ebenfalls als unverletzlich betrachtet, und Diplomaten ist es seit langem erlaubt, Dokumente mit dem sog. „Diplomatenkoffer“ oder der „Diplomatenpost“ außer Landes zu bringen, ohne durchsucht zu werden. Die Fortentwicklung der Verschlüsselungstechnik hat diese Methode jedoch in den letzten Jahren zunehmend obsolet gemacht. Das völkerrechtliche Verbot des Abhörens diplomatischer Telekommunikation wird häufig nicht beachtet, weshalb zwischen den Auslandsvertretungen eines Staates und der Zentrale brisante Inhalte häufig in stark verschlüsselter Form übermittelt werden.
In Zeiten von Feindseligkeiten werden Diplomaten zum eigenen Schutz oft ins Heimatland beordert. Dies geschieht manchmal auch, wenn das Gastland zwar befreundet ist, es aber Anschlagsdrohungen von Dissidenten gibt. Botschafter und andere Diplomaten werden von ihren Heimatländern manchmal auch abgezogen, um Missfallen mit dem Gastgeberland auszudrücken. In solchen Fällen bleiben Botschaftsangehörige niederen Ranges zurück und erledigen die anfallenden Aufgaben. In anderen Fällen führt die Botschaft eines anderen, befreundeten Staates die konsularischen oder diplomatischen Aufgaben weiter.
Eine reduzierte Immunität genießen auch weitere entsandte Mitarbeiterinnen und Mitarbeiter von Konsulaten nach den Vorgaben des Wiener Übereinkommens über konsularische Beziehungen.
Diplomatische Anerkennung
Diplomatische Anerkennung ist das Maß der Akzeptanz einer Nation bei allen anderen nicht-unilateral agierenden Staaten.
Heutzutage gibt es eine ganze Anzahl de facto unabhängiger Gebiete, denen die diplomatische Anerkennung durch weite Teile der Welt verweigert wird, zum Beispiel die Republik China (Taiwan). Da die VR China Taiwan mit ihrer Ein-China-Politik als „abtrünnige Provinz“ betrachtet, sind diplomatische Beziehungen nur mit jeweils einer Regierung möglich. Viele Staaten erkennen die Republik China nicht offiziell an, um Verstimmungen mit der weit größeren VR China zu vermeiden. Es werden aber oft informelle Kontakte unterhalten.
Andere nicht oder von einem großen Teil der Staatengemeinschaft (Vereinte Nationen) nicht als staatliche Völkerrechtssubjekte anerkannte Länder sind Abchasien, Arzach, die Cookinseln, Kosovo, Niue, Nordzypern, Somaliland, Südossetien, Transnistrien und Westsahara. Im Gegensatz zu Taiwan besitzen diese Länder jedoch eine deutlich geringere wirtschaftliche oder politische internationale Bedeutung und sind deswegen viel isolierter. Israel wird von etwa 30 UN-Mitgliedern nicht anerkannt, ist selbst aber Mitglied im Staatenbund, der Staat Palästina wird von 55 UN-Mitgliedern nicht anerkannt, verfügt aber nur über einen Beobachterstatus.
Obwohl die Anerkennung ein Faktor ist, um Souveränität zu bestimmen, besagt Artikel 3 der Konvention von Montevideo, dass die politische Existenz eines Staates unabhängig von der Anerkennung durch andere Staaten ist. Da diese Konvention nur von amerikanischen Staaten unterzeichnet wurde, ist sie völkerrechtlich nicht allgemein anerkannt.
Trotz fehlender diplomatischer Beziehungen kann ein Staat als solcher anerkannt sein. So hat die Bundesrepublik Deutschland bis Ende der 1960er Jahre diplomatische Beziehungen zu Ländern beendet oder nicht aufgenommen, die mit der DDR diplomatische Beziehungen unterhielten (Ausnahme: Sowjetunion). Der Grund war die Hallstein-Doktrin. Trotzdem waren diese Staaten existent und es wurde mit ihnen auf z. B. wirtschaftlichem und sportlichem Gebiet zusammengearbeitet, und es gab z. B. normalen Post- und Telefonverkehr.
Diplomatie und Spionage
Diplomatie und Spionage sind eng miteinander verbunden. Botschaften sind Ausgangspunkte sowohl für Diplomaten als auch für Spione, und einige Diplomaten sind im Wesentlichen offen anerkannte Spione. Zum Beispiel besteht eine Aufgabe des Militärattachés darin, so viel wie möglich über das Militär einer Nation, in deren Land er tätig ist, in Erfahrung zu bringen. Es wird nicht versucht, diese Rolle zu verbergen, und es wird ihnen auch nur erlaubt, auf Einladung an Veranstaltungen wie Paraden oder Manövern teilzunehmen. Es gibt jedoch auch verdeckte Spione, die von Botschaften aus operieren. Diesen werden Tarntätigkeiten an den Botschaften gegeben. Ihre wirkliche Aufgabe besteht jedoch darin, Kontakte zu knüpfen, Informanten zu rekrutieren und Informationen zu sammeln. Im Extremfall werden sie auch beauftragt, Regimegegner im Exil zu beseitigen oder Sabotageakte durchzuführen. In den meisten Fällen jedoch ist die Identität der Spione bekannt, die aus den Botschaften heraus operieren. Wenn sie enttarnt werden, können sie ausgewiesen werden. Zumeist bevorzugt die Spionageabwehr jedoch, diese Agenten unter Beobachtung zu halten, um Erkenntnisse über undichte Stellen auf der eigenen Seite zu erlangen.
Die von Spionen gesammelten Informationen spielen eine immer gewichtigere Rolle in der Diplomatie. Rüstungskontrollabkommen würden ohne Aufklärungssatelliten und Agenten kaum zu überwachen sein. Solche gesammelten Informationen sind in allen Bereichen der Diplomatie nützlich, von Handelsabkommen bis hin zu Grenzstreitigkeiten.
Sanktionsmöglichkeiten zwischen Empfangsstaat und Entsendestaat
Die Regierung des Empfangsstaats kann bei diplomatischen Verstimmungen mit der Regierung des Entsendestaats gegenüber dem ausländischen Botschaftspersonal im eigenen Land oder gegenüber dem Botschafter selbst nach dem Wiener Übereinkommen über diplomatische Beziehungen verschiedene Maßnahmen ergreifen. Je nach Bedeutung des Vorfalls reichen die Möglichkeiten von offiziellen Gesprächen mit dem Botschaftspersonal bis hin zur Aufforderung an den Entsendestaat, dessen Botschaftspersonal im Empfangsstaat abzuberufen (umgangssprachlich „Ausweisung“) oder gar dem Abbruch der diplomatischen Beziehungen. Umgekehrt kann auch der Entsendestaat sein Botschaftspersonal anweisen, bestimmte diplomatische Maßnahmen im Empfangsstaat zu ergreifen. Diese Maßnahmen haben oft symbolischen Wert, um dem Missfallen der jeweiligen Regierung gegenüber den Handlungen des anderen Staates offiziell Ausdruck zu verleihen, und galten besonders in früheren Zeiten als gewichtige Sanktionsmöglichkeiten. Im modernen Zeitalter kommunizieren Regierungen zweier Staaten, besonders wenn diese ansonsten freundschaftliche diplomatische Beziehungen zueinander unterhalten, überdies in der Regel direkt miteinander.
Falls ein Diplomat oder ein Angehöriger im Empfangsstaat darüber hinaus ein schweres Verbrechen begehen oder der dortigen Regierung politisch unliebsam werden sollte – etwa durch unangemessene öffentliche Einmischung in innere Angelegenheiten des Gastlandes –, wird er üblicherweise zur persona non grata, also zur unerwünschten Person, erklärt. Ein gerichtliches Verfahren wegen einer Straftat kann im Heimatland, wegen der diplomatischen Immunität aber nicht im Empfangsstaat, stattfinden.
Sanktionsmöglichkeiten des Empfangsstaats
Einladung des ausländischen Botschafters oder seines Vertreters zum Gespräch, beispielsweise in das Außenministerium
Einbestellung/Zitieren des Botschafters in das Außenministerium, Überreichen einer sogenannten Protestnote
Aufforderung des Empfangsstaats an den Entsendestaat, den (zur persona non grata erklärten) ausländischen Botschafter beziehungsweise das Botschaftspersonal aus dem Empfangsstaat abzuberufen oder deren Tätigkeiten bei der Mission zu beenden (umgangssprachlich „Ausweisung“), in der Regel mit einer Frist von 48 Stunden. Bei Verstreichen der Frist ohne Reaktion des Entsendestaats kann der Empfangsstaat den Diplomatenstatus des ausländischen Botschaftspersonals aufheben.
Abbruch der diplomatischen Beziehung und damit einhergehend Schließung der ausländischen Botschaft im Empfangsstaat
Sanktionsmöglichkeiten des Entsendestaats
Bitte um Gespräche mit den Repräsentanten des Empfangsstaats
Rückholung des Botschafters „zu Konsultationen“ auf unbestimmte Zeit ins Heimatland
Dauerhafte Rückholung des Botschafter und/oder Botschaftspersonals aus der Botschaft im Empfangsstaat, (vorübergehendes) Schließen der dortigen Botschaft
Abbruch der diplomatischen Beziehungen mit dem Empfangsstaat und Schließung der dortigen Botschaft
Geschichte
Die Fähigkeit, Diplomatie zu betreiben, ist eines der bestimmenden Elemente eines Staates. Die Anfänge finden sich schon bei den ersten Stadtstaaten, die sich vor Jahrtausenden bildeten. Für die meiste Zeit der menschlichen Zivilisation wurden Diplomaten nur für spezifische Verhandlungen entsandt, um nach deren Ende zügig zurückzukehren. Diplomaten waren üblicherweise Verwandte der Herrscherfamilien oder von hohem Rang, um ihnen die erforderliche Legitimität zu geben, wenn sie mit anderen Staaten verhandelten.
Eine frühe dauerhafte Mission bildeten die päpstlichen Gesandten (apocrisiarii) am Hofe des byzantinischen Kaisers in Konstantinopel (Byzanz). Nach der Verschlechterung der Beziehungen am Ende des achten Jahrhunderts wurden diese jedoch abgebrochen. Später waren es die Ottonen, die im Zuge des Zweikaiserproblems durch Gesandtschaften wieder diplomatischen Kontakt zu Byzanz suchten und Gesandtschaften austauschten.
Die Ursprünge der modernen Diplomatie gehen auf die norditalienischen Stadtstaaten der frühen Renaissance zurück, wobei die ersten Botschaften im dreizehnten Jahrhundert gegründet wurden. Dabei spielte Mailand unter Francesco I. Sforza eine führende Rolle. Er gründete Botschaften in den anderen Städten Norditaliens. Dort begannen viele Traditionen der modernen Diplomatie, so z. B. das Akkreditieren des Botschafters beim Staatschef des Gastgeberlandes.
Von Italien breitete sich diese Praxis auf die anderen europäischen Mächte aus. Mailand war der erste Staat, der einen Vertreter an den Hof in Frankreich entsandte, im Jahr 1455. Mailand lehnte jedoch ab, im Gegenzug einen französischen Vertreter zu akzeptieren, aus Furcht, er könne spionieren oder sich in innere Angelegenheiten einmischen. Als sich ausländische Mächte wie Frankreich und Spanien zunehmend in die italienische Politik einmischten, wurde ein Bedarf an Botschaftern akzeptiert. Bald schon tauschten die europäischen Mächte Botschafter aus. Spanien war 1487 unter den ersten Nationen, die einen Vertreter dauerhaft an den Hof von England entsandten. Ab dem Ende des sechzehnten Jahrhunderts wurden dauerhafte Missionen üblich. Der Kaiser des Heiligen Römischen Reiches Deutscher Nation entsandte jedoch als Staatschef keine dauerhaften Vertreter, da er wegen deren faktischer Unabhängigkeit nicht die Interessen aller deutschen Fürsten vertreten konnte. Während dieser Zeit wurden auch die Regeln der modernen Diplomatie weiterentwickelt: Botschafter war bald der höchste Rang eines Vertreters.
Zu dieser Zeit war der Botschafter ein Adliger, wobei der Rang des entsandten Adligen davon abhing, für wie wichtig man das Land hielt, in das er entsandt wurde. Es wurden höchste Standards für Botschafter geschaffen, und man erwartete oft, dass sie große Gebäude besaßen, aufwändige Empfänge veranstalteten und eine wichtige Rolle im höfischen Leben ihrer Gastländer spielten. In Rom, das für einen katholischen Vertreter am meisten geschätzt wurde, besaßen die französischen und spanischen Vertreter ein Gefolge von bis zu einhundert Personen. Selbst in weniger wichtigen Botschaften waren die Botschafter sehr teuer. In kleinere Staaten wurden Gesandte geschickt, die im Rang unter den Botschaftern standen.
Diplomatie war eine komplexe Angelegenheit, damals mehr noch als heute. Die Botschafter aller Staaten wurden im diplomatischen Protokoll in unterschiedliche Stufen der Wichtigkeit und des Vortritts eingeteilt, die häufig umstritten waren. Staaten wurden normalerweise entsprechend dem Titel des Souveräns eingeordnet, wobei für katholische Staaten der Gesandte des Vatikans der höchste war. Danach folgten diejenigen aus Königreichen, darauf die aus Herzogtümern und Fürstentümern. Vertreter aus Republiken wurden als die Niedrigsten der Niedrigen betrachtet. Die Bestimmung der Rangfolge zwischen zwei Königreichen hing von einer Vielzahl von Faktoren ab, die häufig variierten, sodass Streitigkeiten garantiert waren.
Botschafter mit nur geringer Auslandserfahrung und wenig diplomatischem Talent benötigten die Unterstützung durch viel Botschaftspersonal. Diese Profis wurden für lange Zeit entsandt und verfügten über weit mehr Kenntnisse über ihre Gastländer als ihre Vorgesetzten. Botschaftsangehörige verfügten über eine Vielzahl von Fähigkeiten; einige widmeten sich zum Beispiel der Spionage. Der Bedarf an ausgebildeten Individuen zur Besetzung der Botschaften wurde durch Universitätsabsolventen gedeckt, was zu einer Ausweitung der Studien in Völkerrecht, modernen Sprachen und Geschichte an den Universitäten in ganz Europa führte. Zur gleichen Zeit wurden permanente Außenministerien eingerichtet, um die Vielzahl an Botschaften und deren Personal zu koordinieren. Diese Ministerien entsprachen bei weitem noch nicht der heutigen Form. Großbritannien hatte bis 1782 zwei Abteilungen mit sich häufig überschneidenden Kompetenzen. Sie waren auch um etliches kleiner als heute. Frankreich, das sich um 1780 eines der größten Außenministerien rühmte, hatte lediglich 70 Vollzeitbeschäftigte.
Die Elemente moderner Diplomatie breiteten sich, beginnend im frühen 18. Jahrhundert, langsam nach Osteuropa und Russland aus. Dieses ganze System wurde durch die Französische Revolution und die darauf folgenden Kriegsjahre unterbrochen. Die Französische Revolution brachte mit sich, dass Bürgerliche die Diplomatie Frankreichs und all derjeniger Staaten, die durch Revolutionsarmeen erobert wurden, übernahmen. Etablierte Vortrittsrechte und Protokolle wurden verworfen. Napoleon weigerte sich auch, diplomatische Immunität anzuerkennen, wobei er einige britische Diplomaten verhaften ließ, denen er vorwarf, gegen Frankreich zu intrigieren. Zudem hatte er keine Zeit und Geduld für den oft zeitraubenden Prozess formeller Diplomatie.
Nach der Niederlage Napoleons etablierte der Wiener Kongress von 1815 ein internationales System diplomatischer Ränge. Streitigkeiten über Rangfolgen von Nationen gab es noch über ein Jahrhundert lang, bis nach dem Zweiten Weltkrieg der Rang des Botschafters die Norm wurde.
Diplomatische Traditionen außerhalb Europas waren sehr unterschiedlich. Eine wichtige Voraussetzung für die Existenz von Diplomatie ist die Existenz einer Anzahl von Staaten, die in etwa die gleiche Macht besitzen, so wie es im Italien der Renaissance und im Europa der modernen Zeit der Fall war. Im Gegensatz dazu zögerten die Mächte im Mittleren Osten, das Kaiserreich China und das osmanische Reich, bilaterale Diplomatie zu betreiben, da sie sich allen ihren Nachbarn gegenüber als unumstritten überlegen fühlten. Die Osmanen zum Beispiel entsandten keine Missionen in andere Staaten, da sie erwarteten, dass diese nach Istanbul kommen sollten. Diese Praxis dauerte bis ins achtzehnte Jahrhundert an. Als sich die europäischen Mächte im achtzehnten und neunzehnten Jahrhundert über die Welt ausdehnten, verbreitete sich ebenso ihr diplomatisches System.
Mit der technischen Entwicklung während des 20. und 21. Jahrhunderts haben sich zwei moderne Formen der Diplomatie herausgebildet. Die Public Diplomacy hat das Ziel, die Öffentlichkeit eines anderen Staates zu beeinflussen. Die Digital oder E-Diplomacy beruht auf der Verwendung technischer Mittel.
Bedeutende Diplomaten
Kardinal Richelieu: „Der Zweck heiligt die Mittel“, Westfälischer Friede 1648.
Klemens Wenzel Lothar von Metternich: Heilige Allianz zwischen Österreich, Preußen und Russland, führende Rolle beim Wiener Kongress 1815.
Charles-Maurice de Talleyrand: gilt als einer der bekanntesten Diplomaten aller Zeiten, besonderer Erfolg war auch für ihn der Wiener Kongress 1815.
Otto von Bismarck: Realpolitik u. a. gegenüber Österreich 1866, Bündnispolitik des Deutschen Reichs.
Henry Kissinger und Lê Đức Thọ: Beendigung des Vietnamkrieges 1973.
Willy Brandt: Ostpolitik ab 1970.
Hans-Jürgen Wischnewski: insbesondere Nahostpolitik.
Hans-Dietrich Genscher: Entspannungspolitik in den 1980er Jahren, Anerkennung von Kroatien und Slowenien 1991.
Zitate
Wie wird die Welt regiert und in den Krieg geführt? Diplomaten belügen Journalisten und glauben es wenn sie's lesen. (Karl Kraus)
Diplomatie heißt, die hässlichsten Dinge auf netteste Art zu tun und zu sagen. (Ambrose Bierce, Das Wörterbuch des Teufels)
Diplomatie ist die Auffassung, dass die Wahrheit Nuancen hat. (Jiří Gruša, Direktor der Diplomatischen Akademie Wien)
Diplomatie ist die Kunst, einen Hund so lange zu streicheln, bis Maulkorb und Leine fertig sind.
Diplomatie ist die Kunst, mit 100 Worten das auszudrücken, was man mit einem Wort sagen könnte.
Diplomatie ist, mit dem Schwein freundlich aber zielorientiert über die Notwendigkeit des Sonntagsbratens zu verhandeln.
Siehe auch
Literatur
deutschsprachig
Enrico Brandt und Christian F. Buck: Auswärtiges Amt. 4. Auflage, VS-Verlag, Wiesbaden 2005, ISBN 3-531-14723-4.
Tobias Bunde und Benedikt Franke (Hrsg.): Die Kunst der Diplomatie. 75 Blicke hinter die Kulissen der internationalen Politik. Econ, Berlin 2022, ISBN 978-3-43021-071-3.
Pietro Gerbore: Formen und Stile der Diplomatie („Il vero diplomatico“). Rowohlt, Hamburg 1964 (Rowohlts deutsche Enzyklopädie; 211–212).
George F. Kennan: Memoiren eines Diplomaten („Memoirs“). Dtv, München 1982, ISBN 3-423-10096-6.
Helmut Kreicker: Immunität und IStGH. Zur Bedeutung völkerrechtlicher Exemtionen für den Internationalen Strafgerichtshof. In: Zeitschrift für internationale Strafrechtsdogmatik (ZIS), Heft 7/2009, abrufbar unter (PDF; 250 kB).
Helmut Kreicker: Völkerrechtliche Exemtionen. Grundlagen und Grenzen völkerrechtlicher Immunitäten und ihre Wirkungen im Strafrecht. Duncker & Humblot, Berlin 2007, ISBN 978-3-86113-868-6 (2 Bände; siehe auch ).
Helmut Kreicker: Die Entscheidung des Internationalen Gerichtshofs zur Staatenimmunität – Auswirkungen auf das (Völker-)Strafrecht? Anmerkungen zum Urteil des IGH vom 3.2.2012 aus strafrechtlicher Sicht. Zeitschrift für internationale Strafrechtsdogmatik (ZIS) 2012, S. 107–123; abrufbar unter .
Jakob Lempp: Morphologie diplomatischer Dienste. In: Werner J. Patzelt (Hrsg.): Evolutorischer Institutionalismus. Ergon-Verlag, Würzburg 2007, ISBN 978-3-89913-554-1.
Wladimir Petrowitsch Potjomkin (Hrsg.): Geschichte der Diplomatie. SWA-Verlag Berlin 1948 (u. a. zusammen mit Jewgeni Tarle und Isaak Minz).
[Hauptband].
Die Diplomatie der Neuzeit. 1872–1919.
Die Diplomatie in der Periode der Vorbereitung des zweiten Weltkrieges. 1919–1939.
Frank Naumann: Die Kunst der Diplomatie. 20 Gesetze für sanfte Sieger. Rowohlt, Reinbek 2003, ISBN 3-499-61570-3.
Christian Saehrendt: Kunst als Botschafter einer künstlichen Nation. Studien zur Rolle der bildenden Kunst in der Auswärtigen Kulturpolitik der DDR. Steiner, Stuttgart 2009, ISBN 978-3-515-09227-2.
Gregor Schöllgen: Die Außenpolitik der Bundesrepublik Deutschland. Von den Anfängen bis zur Gegenwart. Beck-Verlag, München 2004, ISBN 3-406-51093-0.
Berndt von Staden: Zwischen Eiszeit und Tauwetter. Diplomatie in einer Epoche des Umbruchs; Erinnerungen des deutschen Botschafters a.D. in Washington. wjs-Verlag, Berlin 2005, ISBN 3-937989-05-6.
Jörg von Uthmann: Die Diplomaten. Affären und Staatsaffären von den Pharaonen bis zu den Ostverträgen. Dtv, München 1988, ISBN 3-421-06289-7.
Jörg Ernesti: Friedensmacht. Die vatikanische Außenpolitik seit 1870. Herder, Freiburg i. Br. 2022, ISBN 978-3-451-39199-6.
Paul Widmer: Diplomatie. Ein Handbuch. Verlag Neue Zürcher Zeitung, Zürich 2014, ISBN 978-3-03823-881-2.
Heinrich Wildner: Die Technik der Diplomatie („L'art de négocier“) Springer, Wien 1959.
Ramy Youssef: Die Anerkennung von Grenzen. Eine Soziologie der Diplomatie. Campus, Frankfurt am Main 2020, ISBN 978-3593513171.
französischsprachig
Yvan Bazouni: Le métier de Diplomate. L’Harmattan, Paris 2005, ISBN 978-2-7475-8482-1.
François de Callières: Der staatserfahrne Abgesandte, oder Unterricht, wie man mit hohen Potentaten in Staatssachen klug tractieren soll („De la manière de négocier avec les souverains“). Leipzig 1716.
Jules Cambon: Der Diplomat („Le Diplomate“). Hobbing-Verlag, Berlin 1927.
Jean-Paul Pancracio: Dictionnaire de la Diplomatie. Edition Micro Buss, Clermont-Ferrand 1998, ISBN 2-85395-037-9.
englischsprachig
Geoff R. Berridge: Diplomacy. Theory & Practice. 3. Aufl. Palgrave-Macmillan, Basingstoke 2010, ISBN 978-0-230-22959-4.
Tobias Bunde und Benedikt Franke (Hrsg.): The Art of Diplomacy. 75 Views Behind the Scenes of World Politics. Econ, Berlin 2022, ISBN 978-3-43021-077-5.
George Cunningham: Journey to Become a Diplomat. With a Guide to Careers in World Affairs. FPA Global Vision Books 2005, ISBN 0-87124-212-5.
Todd H. Hall: Emotional Diplomacy: Official Emotion on the International Stage. Cornell University Press, Ithaca 2015, ISBN 978-0-8014-5301-4.
Henry Kissinger: Die Kunst der Nationen. Über das Wesen der Außenpolitik („Diplomacy“). Siedler Verlag, Berlin 1994, ISBN 3-88680-486-0.
Peter Macalister-Smith, Joachim Schwietzke: Diplomatic Conferences and Congresses. A Bibliographical Compendium of State Practice 1642 to 1919, W. Neugebauer, Graz, Feldkirch 2017, ISBN 978-3-85376-325-4.
Geoffey Moorhouse: The Diplomats. The Foreign Office Today. Cape, London 1977, ISBN 0-224-01323-8.
Ernest Satow: A Guide to Diplomatic Practice. A standard reference work used in many embassies across the world (though not British ones). Ganesha Publ., Bristol 1998, ISBN 0-582-50109-1 (2 Bde., Nachdr. d. Ausg. New York 1922).
Weblinks
Die Vereinten Nationen (arabisch, chinesisch, englisch, französisch, russisch, spanisch)
eDiplomat.com (englisch)
Fletcher School of Law and Diplomacy (englisch)
Georgetown University School of Foreign Service (englisch)
Interview mit Eva Schlotheuber bei Q History
Einzelnachweise
Internationale Beziehungen
Friedensforschung
Völkerrecht
|
Q1889
| 562.811622 |
21562
|
https://de.wikipedia.org/wiki/Unterabteilung
|
Unterabteilung
|
Unterabteilung (auch Referatsgruppe; Dezernatsgruppe oder kurz Gruppe) ist ein Organisationselement in der deutschen öffentlichen Verwaltung. Sie bildet unterhalb der Behördenleitung nach der Abteilung die zweite Hierarchieebene und wird von einem Unterabteilungsleiter (Referatsgruppenleiter; Dezernatsgruppenleiter, Gruppenleiter) geführt.
Bundesverwaltung
Oberste Bundesbehörden
In den obersten Bundesbehörden steht die Unterabteilung in der Behördenhierarchie zwischen der Abteilung und dem Referat. Die Bundesministerien gliedern sich grundsätzlich in Abteilungen und Referate ( Abs. 1 GGO). Unterabteilungen werden de jure nur gebildet, wenn es sachlich notwendig ist; dafür werden in der Regel mindestens fünf Referate zusammengefasst ( Satz 2 GGO). Faktisch sind fast alle Abteilungen der Bundesministerien in zwei bis vier Unterabteilungen gegliedert. Die Dienstposten der Unterabteilungsleiter sind im Stellenplan grundsätzlich für Ministerialdirigenten ausgewiesen, im Bundesministerium der Verteidigung (BMVg) auch für Brigadegenerale. Bis 2012 entsprach die Unterabteilung in den Führungstäben des BMVg der Stabsabteilung.
Obere Bundesbehörden
In den Bundesoberbehörden wird das Organisationselement zwischen Abteilung und Referat grundsätzlich Referatsgruppe, manchmal auch kurz Gruppe, genannt. Sie wird in der Regel von einem Leitenden Regierungsdirektor geführt.
Bundesmittel- und -ortsbehörden
In den Bundesbehörden, die keiner obersten Behörde unmittelbar nachgeordnet sind, ist das der Unterabteilung vergleichbare Strukturelement die Dezernatsgruppe.
Übrige Verwaltung
Aufgrund des Föderalismus und der kommunalen Selbstverwaltung in Deutschland und der dadurch bedingten Organisationshoheit der Körperschaften, Anstalten und Stiftungen des öffentlichen Rechts besteht für die Landes- und kommunaler Ebene keine einheitliche Regelung.
In den Landesministerien des Landes Nordrhein-Westfalen heißt die Unterabteilung beispielsweise Gruppe.
Einzelnachweise
Behörde (Deutschland)
Exekutive (Deutschland)
|
Q3491997
| 256.232637 |
1960
|
https://de.wikipedia.org/wiki/Gilgamesch
|
Gilgamesch
|
Gilgamesch (Aussprache: oder ) wird in der sumerischen Königsliste, in späteren Epen und anderen späteren Texten als ein früher König von Uruk genannt. Da er in einer Götterliste um 2600 v. Chr. als Gott genannt wird und da ihm (aber auch einem anderen Herrscher) andererseits der Bau der Mauer von Uruk, wohl kurz nach 3000 v. Chr. zugeschrieben wird, kann man Gilgamesch an den Anfang des 3. Jahrtausends v. Chr. datieren. Es ist aber nicht völlig auszuschließen, dass es sich lediglich um eine literarische Gestalt handelt. Mit etwas Unsicherheit bei der genauen Aussprache lässt sich der Name als pagbilgames oder verkürzt gbilgames rekonstruieren. Er bedeutet in etwa „der Vorfahr (war) ein Prinz(?)…“ und ist die Kurzform eines längeren Namens. Ein solcher längerer Name ist als Pagbilgameš-Utu-pada bereits um 2700 v. Chr. in den archaischen Texten von Ur belegt. Dieser Personenname bedeutet „der Vorfahr (war) ein Prinz(?), den der (Sonnengott) Utu berufen hat“. Die Verbalform ist aber vom Zeichen her nicht sicher. Sumerisch wurde der Name wohl zu Bilgameš, akkad. Gilga(meš) (š = sch in wissenschaftlicher Transliteration). Der sehr kompliziert geschriebene Name wurde früher fälschlich Gištubar, Izdubar, auch Iztubar gelesen.
Die Heldentaten des früh vergöttlichten Königs und seines Freundes Enkīdu werden im Gilgamesch-Epos bzw. den ihm vorangehenden Erzählungen berichtet. Immer wieder taucht auch das Thema des Todes von Enkidu und Gilgameš auf. Daneben spielt das Verhältnis des Herrschers zu seinen Untertanen eine wichtige Rolle. Nach der Wiederentdeckung des Epos am Ende des 19. Jahrhunderts n. Chr. sorgte der Umstand, dass eine Erzählung über eine Sintflut eingebettet ist, die Parallelen zur Sintflutgeschichte der Bibel aufweist, für großes Aufsehen.
Totengott
Bevor Gilgamesch als irdischer König belegt ist, wurde er als Totengott der Unterwelt mit dem Namen „(Pa)bilgamesch“ verehrt. Im Ur-Nammu-Text ist Gilgamesch, zusammen mit Nergal, Namtaru, Nin[…], Dumuzi, Ningišzida und Ḫušbišag, einer der sieben Unterweltsgötter (lugal kurra), von denen jeder in einem eigenen Palast wohnt.
Historische Belege
Es ist bis heute nicht ganz gesichert, ob Gilgamesch eine reale Person war, da die sumerische Königsliste teilweise unglaubwürdig lange Regierungszeiten für die Könige angibt – im Falle Gilgameschs 126 Jahre. Gilgamesch war vermutlich einer der wichtigsten Herrscher der Sumerer und wurde noch über viele Jahrhunderte in Mesopotamien verehrt und vergöttlicht. Uruk war in seiner Zeit, aber auch bereits davor das wichtigste städtische Zentrum in einem weiten Umkreis mit Arbeitsteilung, Handwerk und Bürokratie.
Die meisten Informationen über Gilgamesch stammen aus dem Gilgamesch-Epos und seinen Vorläufern. Es wird häufig als das älteste bekannte literarische Epos der Weltgeschichte bezeichnet. Eine Erzählung über seinen Vater Lugalbanda ist aber wesentlich früher belegt, wobei der Fundzufall eine Rolle spielen mag. Das Epos wurde in Keilschrift auf Tontafeln niedergeschrieben. Die Gilgameš-Texte hatten eine große räumliche Verbreitung und sind in vier Sprachen bezeugt: Sumerisch, Akkadisch, Hethitisch und Hurritisch. Nimmt man die historischen Informationen des Epos und anderer Quellen ernst, was angesichts des großen zeitlichen Abstandes aller dieser Informationen zur mutmaßlichen Regierungszeit des Gilgameš und auch angesichts des literarischen Charakters dieser Quellen gewagt ist, so gelang es König Gilgamesch, nach einer militärischen Auseinandersetzung die volle Unabhängigkeit von der Stadt Kisch zu erlangen. Außerdem soll er neue Handelswege eröffnet, Tempel und vor allem die für ihre Zeit riesige Stadtmauer um Uruk erbaut haben.
Nach dem Gilgamesch-Epos war er Sohn der Göttin Ninsun und des vergöttlichten Königs Lugalbanda. Die Götter hatten entschieden, dass Gilgamesch zu seiner menschlichen Natur zwei göttliche Attribute erhalten sollte: Die Manneskraft von Šamaš [Sonnengott] und den Heldensinn von Adad. Damit war Gilgamesch zu zwei Dritteln göttlich und einem Drittel menschlich und somit auch sterblich.
Gilgamesch-Epos
Das Gilgamesch-Epos geht auf verschiedene Erzählungen zurück. Die ältesten Textzeugnisse stammen aus der Zeit der 3. Dynastie von Ur, etwa zwischen 2100 und 2000 v. Chr. Es erzählt die Geschichte Gilgameschs und seines Freundes Enkidu: Um die Fronherrschaft des Königs über die Stadt Uruk abzumildern, erschaffen ihm die Götter einen Gefährten, Enkidu. Wie die ersten Menschen wird Enkidu aus Lehm geschaffen und er wächst mit den Tieren in der Steppe auf. Durch die Liebeskunst der Tempelprostituierten Schamkat hat er erstmals mit anderen Menschen Kontakt, wird den Tieren entfremdet und lernt die Zivilisation kennen. Die Ungerechtigkeit des Königs Gilgamesch erregt ihn, doch nach einem Ringkampf werden sie zu Freunden. Die beiden töten Chumbaba, den Wächter des Zedernwaldes, und fällen die heiligen Zedern. Nach seiner Rückkehr fordert Ištar den hünenhaften König zur „heiligen Hochzeit“ auf. Als dieser ablehnt, entsendet Ištar zur Strafe den Himmelsstier, doch gelingt es den beiden Helden, das riesige Tier zu töten. Als Strafe für ihre Taten entscheiden die Götter, dass Enkidu sterben muss.
Der weitere Verlauf des Epos kreist um die Sterblichkeit der Menschen und den Versuch Gilgameschs, ihr zu entrinnen. In seiner Trauer um Enkidu führt ihn die Suche nach einer Möglichkeit, dem Tod zu entrinnen, zu dem Weisen Utnapischtim. Der babylonische Noah rettete die Menschheit vor der Sintflut und wurde von den Göttern mit Unsterblichkeit belohnt. Doch Utnapischtim sagt Gilgamesch, dass das ein Einzelfall war. Wenn er weiterleben wolle, so könne das nur im Andenken der Menschen geschehen. Er solle sich als König um die Benachteiligten kümmern. Schließlich hat Utnapischtim doch Mitleid mit Gilgamesch und schenkt ihm das Kraut des Lebens, das Gilgamesch aber verliert. Mit einem neuen Freund, dem Fischer Uršanabi, kehrt er nach Uruk zurück und zeigt ihm seine Stadtmauer. Die Mauer, die in der letzten Fassung auch am Anfang steht, umschließt mit ihrer Nennung am Ende nicht nur Uruk, sondern auch das Epos.
Literarische Umsetzung
Wie der größte Teil der altorientalischen Literatur sind auch die meisten Erzählungen um Gilgamesch anonym verfasst. Für die letzte Fassung ist allerdings der Name Sîn-leqe-unnīnnī als Autor überliefert. Er lebte vermutlich im 13. Jahrhundert v. Chr. Das endgültige Werk ist aber erst ab dem Beginn des 7. Jahrhunderts überliefert, insbesondere aus der Bibliothek des Assyrerkönigs Assurbanipal (669–631/627 v. Chr.).
Musikalische Umsetzung
Große Teile des Gilgamesch-Epos hat der Wiener Komponist Alfred Uhl 1956 in Form eines Oratoriums vertont. Es wurde Anfang 1957 unter dem Titel Gilgamesch. Oratorisches Musikdrama im Wiener Musikverein uraufgeführt. Dem tschechoslowakischen Komponisten Bohuslav Martinů diente es 1958 als Grundlage für The Epic of Gilgamesh, eine oratorienähnliche Kantate.
Gilgamesch in frühen Dichtungen
Um Gilgamesch kreiste eine ganze Reihe von Erzählungen in sumerischer Sprache, die dann teilweise Eingang in das spätere Epos fanden. Die ältesten Fragmente gehen auf die Zeit der 3. Dynastie von Ur zurück, also auf die letzten Jahrzehnte des 3. Jahrtausends v. Chr. Diese Dynastie bezog sich sehr stark auf Gilgamesch. Es sind fünf Erzählungen erhalten, wenn auch die meisten erst in etwas späteren Abschriften: Gilgamesch und Huwawa (oder besser Hubebe), Gilgamesch und der Himmelsstier, Gilgamesch, Enkidu und die Unterwelt, Gilgamesch und Akka von Kisch und Gilgameschs Tod.
Gilgamesch, Enkidu und die Unterwelt
Der Mythos Gilgamesch, Enkidu und die Unterwelt besteht aus drei Abschnitten, die wohl nachträglich zu einem Mythos zusammengesetzt wurden. Eine Schöpfungsgeschichte, Inanna und ihr Huluppu-Baum und Gilgamesch und die Welt der Toten. Der Mythos wird in verschiedenen deutschen Sammlungen auch als „Inanna und der Ḫuluppu-Baum“ bezeichnet.
Am Anfang der Zeit bleibt Enki mit seinem Schiff an einem jungen Bäumchen hängen und reißt es versehentlich aus. Inanna findet dieses Bäumchen und pflanzt es in ihren Garten. Sie hofft, wenn es groß genug ist, dass sie aus dem Holz einen Stuhl und ein Bett schnitzen kann.
Als der Baum groß genug geworden ist, kommt Inanna zurück, um den Baum zu fällen. Jedoch haben sich in der Zwischenzeit drei Wesen in den Baum eingenistet. Der Anzu-Vogel wohnt in dem Wipfel, die dunkle Jungfrau Lilith wohnt im Stamm und die Schlange, die nicht verzaubert werden kann, lebt in den Wurzeln.
Also bittet sie ihren Bruder Utu um Hilfe, der lehnt aber ab. Also fragt sie ihren anderen Bruder Gilgamesch um Hilfe.
Gilgamesch legt seine Bronzerüstung an, nimmt seine Axt und erschlägt die Schlange. Vor lauter Entsetzen fliehen der Vogel Anzu und die dunkle Jungfrau. Daraufhin formt Gilgamesch aus dem Stamm des Baumes einen Stuhl und ein Bett für Inanna. Inanna ihrerseits formt aus den Wurzeln und der Baumkrone ein Spielzeug für Gilgamesch.
Damit spielt Gilgamesch nun Tag und Nacht. Da die jungen Frauen Angst um ihre Männer haben, flehen sie zu den Göttern, sie mögen Gilgamesch das Spielzeug wegnehmen. Daraufhin fallen die Gegenstände durch ein Loch in die Unterwelt. Enkidu, ein Diener von Gilgamesch bietet sich an, die Gegenstände aus der Unterwelt zu holen. Gilgamesch warnt Enkidu vor den Gefahren der Unterwelt, in der alle Regeln der Lebenden nicht gelten. Enkidu hört jedoch nicht auf ihn und missachtet alle Regeln der Unterwelt, der er daher nicht mehr entkommen kann. Gilgamesch trauert über den Verlust und bittet Enki um Hilfe. Dieser befiehlt, dass man Enkidu aus der Unterwelt befreien möge. Nachdem Gilgamesch sich über seinen zurückgekehrten Diener freut, fragt er ihn allerlei über die Dinge, die er in der Unterwelt gesehen habe. Es folgen verschiedene Aufzählungen, wie sich die Menschen zu verhalten haben, um in der Unterwelt gut zurechtzukommen.
Der Tod des Gilgamesch
Der sumerische Text „Der Tod des Gilgamesch“ ist nach wie vor nicht ganz vollständig. Neue Fragmente wurden erst im Jahr 2000 entdeckt und erweiterten das Verständnis des Textes. Er stellt eine Art Auskopplung zum Gilgamesch-Epos dar und verweist seinerseits auf bestehende Mythen wie den Kampf mit dem Stier und die Suche nach Ziusudra/Utnapischtim. Im babylonischen Gilgamesch-Epos wurden Elemente bei der Erzählung zum Tod des Enkidu übernommen.
Der Text handelt vom sterbenden Gilgamesch, der am Ende seines Lebens einen Traum hat, in dem er vor die Götterversammlung tritt. Trotz seiner Taten und Verdienste können die Götter ihm das Schicksal des Todes nicht ersparen, das seit der Sintflut so festgesetzt wurde. Man stellt ihm jedoch in Aussicht, dass er als König in die Unterwelt einziehen werde (siehe Gilgamesch als Gott der Unterwelt). Ein zweiter Traum ereilt ihn, in dem es um die Ehre als König geht. Nach seinem Tod wird der Euphrat umgeleitet und im Flussbett sein Grab errichtet. Es wird mit Steinen gebaut und mit allerlei Gaben bestückt. Zum Grab kommen seine Frauen und Kinder, um ihn zu betrauern. Das Grab wird verschlossen, mit Erde bedeckt und der Euphrat wieder darüber geleitet, so dass nie jemand das Grab des Gilgamesch finden soll.
Gilgamesch und Agga
Der Mythos, der auch als „Gilgamesch und Agga“ in der Literatur zu finden ist, beschreibt einen Zwist zwischen dem Herrscher von Kiš, Agga und seinem Vasallen Gilgamesch. Die komplette Handlung ist nicht in das Gilgamesch-Epos eingegangen und beschreibt vielleicht wirklich eine reale Begebenheit. Entsprechend werden die beiden Herrscher auch auf der Inschrift von Tummal erwähnt. Da Gilgamesch Akka selbst nach dessen Gefangennahme als Befehlshaber anredet, ist hier deutlich der Vasallenstatus von Uruk zu erkennen.
Akka, der Herr von Kiš schickt Boten nach Uruk, um die Stadt daran zu erinnern, ihren Frondienst zu leisten. Gilgamesch beruft darauf seine Berater und Ältesten ein. Diese raten ihm, sich der Stadt Kiš zu unterwerfen. Gilgamesch ist damit nicht einverstanden und befragt darauf die jungen Männer. Diese wollen wie er, sich von der Unterdrückung von Kiš befreien. Daraufhin beginnt man mit der Kriegsvorbereitung. Wenig später trifft das Heer von Kiš ein und Gilgamesch sendet einen Boten. Dieser wird im Lager von Akka zu Gilgamesch befragt. Der Bote schwärmt indes von der Macht des Gilgamesch und dass die Feinde Uruks verlieren werden, sobald sich Gilgamesch auf der Mauer zeigen würde. Darauf wird der Bote misshandelt, rückt aber nicht von seiner Meinung ab.
Als nun wirklich Gilgamesch sich auf den Mauern von Uruk zeigt und Enkidu mit dem Heer aus der Stadt stürmt, flieht das Heer von Kiš und Akka wird gefangen genommen. Gilgamesch entlässt Akka aber, da er in seiner Schuld stehe (der Grund für diese Schuld ist bis heute unbekannt), erkennt die Vorherrschaft von Kiš weiterhin an, besteht aber auf der Unabhängigkeit von Uruk.
Gilgamesch in späteren Quellen
Die Figur des Gilgamesch hatte große Auswirkungen auf die zeitgenössische Literatur. Das beweist die große Anzahl verschiedener Übersetzungen und Neudichtungen des Stoffes aus Bogazköy, Amarna, Ugarit, Emar und Megiddo. In den Qumranrollen, dem Buch der Giganten sowie im enochischen ‚Buch der Wächter‘ werden Gilgamesch und Hobabish (Ḫumbaba) als Riesen vor der Flut erwähnt.
Literatur
Allgemeiner Überblick
Helmut Freydank u. a.: Lexikon Alter Orient. Ägypten, Indien, China, Vorderasien. VMA-Verlag, Wiesbaden 1997, ISBN 3-928127-40-3.
Brigitte Groneberg: Die Götter des Zweistromlandes. Kulte, Mythen, Epen. Artemis & Winkler, Stuttgart 2004, ISBN 3-7608-2306-8.
Harald Haarmann: Geschichte der Sintflut. C. H. Beck, München 2003, ISBN 3-406-49465-X.
Hans Ulrich Steymans: Gilgamesch. Ikonographie eines Helden. Epic and Iconography. (= Orbis Biblicus et Orientalis, 245) Fribourg 2010, ISBN 978-3-525-54366-5.
Zum Gilgamesch-Epos
Andrew R. George: The Babylonian Gilgamesh Epic: Introduction, critical Edition and cuneiform Texts; Bd. 1. Oxford University Press, Oxford 2003, ISBN 0-19-927841-5.
Stefan Maul: Das Gilgamesch Epos. C. H. Beck, München 2008 (4., durchgesehene Auflage), ISBN 978-3-406-52870-5.
Wolfgang Röllig: Das Gilgamesch-Epos. Reclam, Stuttgart 2009, ISBN 978-3-15-010702-7.
Walther Sallaberger: Das Gilgamesch-Epos: Mythos, Werk und Tradition. C. H. Beck, München 2008, ISBN 3-406-56243-4.
Romane
Harald Braem: Der Löwe von Uruk. Ein Gilgamesch Roman. Piper, München 1988, ISBN 3-492-03225-7.
Stephan Grundy: Gilgamesch – Herr des Zweistromlandes. Krüger, Frankfurt / Main 1999, ISBN 3-8105-0861-6.
Thomas R. P. Mielke: Gilgamesch. König von Uruk. Schneekluth, München 1988, ISBN 978-3868204902.
Burkhard Pfister: Gilgamesch: Graphic Novel nach Motiven des Gilgamesch-Epos aus dem 2. Jahrtausend vor unserer Zeitrechnung. Projekte-Verlag Cornelius, Halle 2010, ISBN 978-3-86237-230-0.
Helmut Schinagl: Die Trommel der Göttin. Das abenteuerliche Leben des Königs Gilgamesch. Tyrolia, Innsbruck 1990, ISBN 3-7022-1736-3.
Vertonungen
Alfred Uhl: Gilgamesch, „Oratorisches Musikdrama“. Musikverein Wien 1957 (UA)
Bohuslav Martinů: The Epic of Gilgamesh, dreiteiliges Oratorium für Solisten, gemischten Chor und Orchester. Basel 1958 (UA)
Kristine Tornquist und René Clemencic: Gilgamesch, szenisches Oratorium und Schattenspiel. sirene Operntheater Wien 2015 (UA)
Weblinks
Gilgamesch Enkidu und die Unterwelt englische Interlinearübersetzung und Transkription
Der Tod des Gilgamesch englische Interlinearübersetzung und Transkription
Anmerkungen
König (Uruk)
Mythischer Herrscher
Totengottheit
Sumerische Gottheit
27. Jahrhundert v. Chr.
Geboren im 3. Jahrtausend v. Chr.
Gestorben im 3. Jahrtausend v. Chr.
Mann
Gottheit als Namensgeber für einen Asteroiden
|
Q159709
| 139.834896 |
21489
|
https://de.wikipedia.org/wiki/Ostblock
|
Ostblock
|
Der Begriff Ostblock ist ein politisches Schlagwort aus der Zeit des Ost-West-Konflikts für die Sowjetunion (UdSSR) und ihre Satellitenstaaten, die nach dem Zweiten Weltkrieg in den sowjetischen Macht- und Einflussbereich geraten waren. Der Ostblock stand antagonistisch zur westlichen Welt. In alternativer Weise wurden die Staaten des Ostblocks auch als Staaten östlich des „Eisernen Vorhangs“ oder des „kommunistischen Lagers“ und – in der selbst zum Ostblock gehörenden DDR – als „sozialistische Staatengemeinschaft“ bezeichnet.
Überblick
Nach Wolfgang Leonhard wurde zwischen zwei Wirtschaftszonen unterschieden: jene der europäischen Ostblockstaaten und jene der asiatischen Verbündeten. Die politisch eng zusammenarbeitende Gruppe wurde durch ein System zweiseitiger Freundschafts- und Beistandsabkommen zwischen der Sowjetunion und den mit ihr verbündeten Staaten sowie zwischen letzteren untereinander gebildet. Der Ostblock fiel seit der Öffnung der Grenzen des Eisernen Vorhangs ab dem Herbst 1989 auseinander, gefolgt vom Zerfall der Sowjetunion bis Ende 1991.
Zum Ostblock zählten die in der Sowjetunion vereinigten Unionsrepubliken, die Volksrepublik Polen, die Deutsche Demokratische Republik (DDR), die Tschechoslowakische Sozialistische Republik (ČSSR), die Ungarische Volksrepublik, die Volksrepublik Bulgarien und die Volksrepublik bzw. Sozialistische Republik Rumänien (SRR). Bis in die 1960er Jahre galt auch die Sozialistische Volksrepublik Albanien als Ostblockstaat. Weitere Länder außerhalb Mittel- und Osteuropas sowie Nord- und Mittelasiens wurden zum Ostblock gezählt, solange sie unter dem beherrschenden Einfluss der Sowjetunion standen: die Republik Kuba, Nordvietnam (ab 1976: Sozialistische Republik Vietnam), die Demokratische Volksrepublik Korea, die Mongolische Volksrepublik und die frühe Volksrepublik China.
Die europäischen Staaten des Ostblocks schlossen sich 1949 im Rat für gegenseitige Wirtschaftshilfe (RGW) und 1955 im Warschauer Pakt zusammen. Im gleichen Jahr beschloss der Rat die wirtschaftliche Integration. Die Volksdemokratien sollten ein einheitliches Wirtschaftsgebiet bilden, in dem die Produktionsaufgaben unter den Ländern aufgeteilt wurden. Der ursprünglich, besonders zu Zeiten des Spätstalinismus bis 1953 noch monolithisch erscheinende Ostblock zersplitterte sich allmählich aufgrund wirtschaftlicher, politischer und ideologischer Interessengegensätze. Insbesondere bestanden immer noch nationale Interessen. Der Volksaufstand des 17. Juni (in der DDR) wie auch der Volksaufstand in Ungarn im Oktober/November 1956 machten bewusst, dass die sozialistische (Werte-)Ordnung in vielen Ländern auf mehr oder weniger starke Ablehnung stieß und sich die dortigen Regimes nur mit massiver sowjetischer Unterstützung behaupten konnten. Einige sozialistische Länder begannen eine von der Sowjetunion unabhängige Politik zu verfolgen, insbesondere widersetzte sich China immer stärker dem sowjetischen Führungsanspruch, sodass es in den 1960er Jahren zum offenen Bruch kam (→ chinesisch-sowjetisches Zerwürfnis). In den 1980er Jahren wurden nur noch die Mitglieder des Warschauer Paktes unter dem Begriff „Ostblockstaaten“ zusammenfassend bezeichnet. Die Sozialistische Föderative Republik Jugoslawien wird manchmal verallgemeinernd als „Ostblockstaat“ eingeordnet, war jedoch ein unabhängiger sozialistischer Staat. Sie gehörte nie zum Warschauer Pakt und war kein Mitglied des Rates für gegenseitige Wirtschaftshilfe. Jugoslawiens Staatspräsident Josip Broz Tito war einer der Mitbegründer der Bewegung der Blockfreien Staaten; außerdem verfolgte er mit dem Titoismus einen eigenen, von der UdSSR unabhängigen „Weg zum Sozialismus“.
Der Begriff „Ostblock“ wurde im Westen geprägt. Er spiegelte dessen Verständnis wider, welches während des Kalten Krieges von der Staatengruppe unter Führung der Sowjetunion als kompakte Formation herrschte. In allen entscheidenden Bereichen wurde eine einheitliche Politik verfolgt, die sich auf die ausgeprägte Abhängigkeit der jeweiligen Regierung einer Volksrepublik von der Führung der Sowjetunion gründete. Nicht alle Regierungen des Ostblocks erkannten die Führungsrolle der KPdSU an, wohl aber die der sowjetischen Regierung.
Geschichte
Die Bildung des Ostblocks 1945–1968
Auf drei Konferenzen – Teheran-Konferenz (28. November bis 1. Dezember 1943), Konferenz von Jalta (4. bis 11. Februar 1945) und Potsdamer Konferenz (17. Juli bis 2. August 1945) – verhandelte die Anti-Hitler-Koalition aus Sowjetunion und den Westalliierten über die Nachkriegsordnung in Europa. Dabei beharrte die Sowjetunion auf den Staatsgrenzen von 1939, die auf dem Vertrag mit dem Deutschen Reich von 1939 beruhten. Das betraf die Eingliederung der zwischen den Weltkriegen selbstständigen baltischen Staaten Estland, Lettland und Litauen als Sowjetrepubliken in die UdSSR und außerdem die Annexion Bessarabiens. In diesem Vertrag wurde vorgesehen die Sowjetrepubliken Weißrussland (Belarus) und Ukraine auf Kosten polnischen Territoriums (→ Kresy) nach Westen auszudehnen. Als Ergebnis des Winterkrieges musste Finnland Ostkarelien abgeben (Karelo-Finnische Sozialistische Sowjetrepublik).
Von 1945 bis 1949 errichtete die Sowjetunion in allen Ländern ihres Einflussbereiches sozialistische Staaten wie im Ostteil Deutschlands die DDR. Sie förderte die Machtübernahme der einheimischen kommunistischen Kräfte wie in Polen oder in der Tschechoslowakei. Der britische Premierminister Winston Churchill sprach bereits 1945/46 vom Iron Curtain („Eiserner Vorhang“), der Europa „zwischen der Ostsee und Triest“ trenne. Grundsätzlich vertieften sich nach dem Zweiten Weltkrieg die Risse zwischen Ost und West im Jahr 1947, als US-Präsident Harry Truman einen neuen politischen Kurs verkündete: Die Vereinigten Staaten von Amerika werden allen Staaten beistehen, die vom (sowjetischen) Kommunismus bedroht würden (Truman-Doktrin/Containment-Politik) und der gebeutelten europäischen Wirtschaft bot er den Marshallplan an. Josef Stalin untersagte den osteuropäischen Ländern die Teilnahme an diesem Aufbauprogramm und nach der Einführung der DM in den Westsektoren von Berlin blockierte die Sowjetunion die Energie- und Lebensmittelversorgung West-Berlins, worauf die Westalliierten die Berliner Luftbrücke errichteten. Zwar wurde diese Blockade 1949 aufgehoben, doch die Teilung der Welt in das westliche Lager und den abgeschotteten Ostblock mit seinen Volksdemokratien hatte Bestand.
Das politische Klima der Volksdemokratien kennzeichneten in deren Aufbauphase Kollektivierungen und Enteignungen von Industriebetrieben, Sachwerten und Grundstücken, Verhaftungen und Deportationen. Eine rasch eingerichtete Geheimpolizei und der gleichgeschaltete Justizapparat führten Säuberungen mit Todesurteilen und extralegalen Hinrichtungen durch. Besonders im harten Klima der Anfangsjahre und mit Einfluss des Stalinismus gab es wiederholte parteiinterne Säuberungen. Stalinistische Regime wie etwa das tschechoslowakische unter Klement Gottwald wollten sich so vor Unterwanderung, der Gefahr titoistischer Abweichung und opportunistischen Parteigängern schützen. Ihr neu hinzugewonnener Staatengürtel war für die tonangebende Klasse der Sowjetunion, die Nomenklatura der Staatspartei, als Cordon sanitaire und militärisches Glacis von erheblicher Bedeutung. Er wurde politisch eng verflochten und entlang der Grenzlinie gegenüber Westeuropa zunehmend „hermetisch“ abgesichert. In den bislang wenig industrialisierten und vorwiegend agrarischen Staaten wie Polen, Ungarn und Bulgarien förderte die Sowjetunion den Aufbau einer Schwerindustrie, nicht zuletzt im Interesse der Rüstung und der Schaffung einer Arbeiterklasse. Fortschritte im Bildungs-, Sozial- und Gesundheitssystem dienten letztendlich demselben Zweck, den neuen sozialistischen Staaten durch technisch-industriellen Fortschritt eine militärische Selbstbehauptung zu ermöglichen, oder gegebenenfalls den vom Kapitalismus unterdrückten Arbeitern im Westen beim Systemumsturz „brüderliche Hilfe“ erweisen zu können – wie der Sachverhalt eines gerechten Krieges in realsozialistischer Sichtweise zu umschreiben wäre.
Im Zeichen des System-Antagonismus wurde ein klarer Trennungsstrich zu Ländern mit kapitalistischem, marktwirtschaftlichem Gesellschaftssystem gezogen. Es wurde der Begriff „Nichtsozialistisches Wirtschaftsgebiet“ (NSW) für „Entwicklungsländer“ (EL) und „Kapitalistische Industrieländer“ (KIL) geschaffen, wobei letzteren andauernd militärisch aggressive Absichten gegen das angeblich „sozialistische Weltsystem“ (SW) unterstellt wurde.
Verbindende Elemente
Der Ostblock wurde auf vier Ebenen zusammengehalten:
politisch-ideologisch durch das Bündnis der Kommunistischen Parteien, das Kommunistische Informationsbüro (Kominform), gegründet 1947;
wirtschaftlich durch den Rat für gegenseitige Wirtschaftshilfe (RGW, Comecon), gegründet 1949;
militärisch durch die Warschauer Vertragsorganisation, gegründet 1955;
Stärkung hegemonialer Maßnahmen, die ein gemeinsames Bewusstsein erzeugen sollten, wie z. B. der Unterricht des Russischen als erste Fremdsprache in der Schulausbildung oder eine koordinierte Sportpolitik.
Die innere Staats- beziehungsweise Regierungsform wurde einheitlich als Einparteiendiktatur gestaltet. Demokratische Elemente nach westlichem Verständnis, wie Pressefreiheit, Meinungsfreiheit, Reisefreiheit wurden wie in der Sowjetunion nur in Ansätzen gestattet, um eine Opposition einzugrenzen und den Zusammenhalt zu sichern. Ein (Pseudo-)Mehrparteiensystem gab es nur in Form der Blockparteien in einigen Staaten. Auf allen Ebenen forderte die Sowjetunion konkret in der Person des Generalsekretärs der KPdSU absolutes Weisungsrecht. Dieses Weisungsrecht war formal nicht festgelegt, wurde jedoch dann gewaltsam angewendet, wenn ein Staat des Ostblocks oder dessen Bürger versuchten, einen eigenen Weg zu gehen.
Die ersten Auseinandersetzungen und unterschiedliche Auffassungen zur sowjetischen Führungsrolle fanden bereits 1947 zwischen der Sowjetunion und Jugoslawien unter Führung Titos statt. Das führte 1948 zum Bruch zwischen Jugoslawien und der Sowjetunion. 1961 brach Albanien mit der Sowjetunion und orientierte sich fortan an Rotchina. Albanien trat im September 1968, kurz nach dem Einmarsch von sowjetischen und anderen Truppen in die Tschechoslowakei, endgültig aus dem Warschauer Pakt aus.
Soweit möglich wie 1953 in der DDR sowie 1956 in Ungarn schlug die Sowjetarmee Aufstandsbewegungen nieder. 1968 wurde die seit Jahren beargwöhnte Emanzipation der ČSSR hin zu einem „Sozialismus mit menschlichem Antlitz“ gewaltsam beendet, als in einer konzertierten Aktion Truppen der Sowjetunion und weiterer Ostblockstaaten ins Land einmarschierten; da die Sozialistische Einheitspartei Deutschlands (SED) eine Ausbreitung des Reformkommunismus auf die DDR befürchtet hatte, wurde die Niederschlagung des Prager Frühlings im August 1968 von ihr verteidigt. Dies war die erste Manifestation der Breschnew-Doktrin. Ähnliches drohte 1981 wegen der Absetzbewegungen in Polen, nachdem das dortige kommunistische Regime auf seinem schwierigen Terrain (in Polen war die Kollektivierung der Landwirtschaft weitgehend ausgefallen) bereits 1956 und 1970 Protestbewegungen gewaltsam unterdrücken musste. 1981 war die Sowjetunion in Afghanistan gebunden; in diesem Fall genügten Mahnungen und Drohungen aus Moskau, um die Staatsführung in Form einer Militärdiktatur unter Wojciech Jaruzelski einstweilen wieder auf die harte sowjetische Linie zu bringen. Es gab unter besonderen Bedingungen und in Teilbereichen die Möglichkeit für einzelne Staaten einen Sonderweg zu gehen: die konsumorientierte, aber schuldenfinanzierte Wirtschaftspolitik Polens, der sogenannte ungarische Gulaschkommunismus nach 1970.
Rumänien konnte sich eine durchaus eigensinnige Politik erlauben. Die sowjetischen Besatzungstruppen waren seit 1958 aus dem Land abgezogen und die Zustimmung der Bevölkerung gegenüber der Sowjetunion, aber auch der politischen Klasse war außerordentlich gering. Zum einen war Rumänien historisch und kulturell nicht an Russland, sondern an Frankreich sowie Deutschland angelehnt; zum anderen hatte es territoriale Verluste in Bessarabien, das Herza-Gebiet, die nördliche Bukowina und die Schlangeninsel erlitten. Der bewaffnete antikommunistische Widerstand in Rumänien dauerte besonders lang und erst 1976 konnte der letzte bewaffnete Kämpfer verhaftet werden.
Ein weiterer Grund war die Weigerung der Sowjetunion, den rumänischen Staatsschatz zurückzugeben. Rumänien hatte historisch keine bedeutende kommunistische Bewegung: Ende 1944 besaß die Kommunistische Partei weniger als 1000 Mitglieder. Dadurch bestand die politische Elite entweder aus sowjettreuen Personen, die aus der Sowjetunion nach Rumänien gesandt wurden (diese wurden nach dem Tod Stalins nach und nach marginalisiert), oder aus einheimischen Rumänen, die aus opportunistischen Gründen sich der Kommunistischen Partei anschlossen und nur eine begrenzte Sympathie für die Sowjetunion hegten. Rumänien durchbrach wiederholt die Blocksolidarität, wofür der Beifall des Westens nicht ausblieb. So hatte das Land die Militäraktion gegen die Tschechoslowakei verurteilt und weigerte sich, daran teilzunehmen. Es ignorierte den Olympiaboykott des Ostblocks 1984. Dabei geriet aus dem Blick, dass Rumäniens langjähriger Staats- und Parteichef Nicolae Ceaușescu, der in seinen Anfangsjahren eine Politik der Öffnung zum Westen führte, sich später zu einem bizarren Despoten entwickelte, um den in den 1980er Jahren ein selbst im Ostblock beispielloser Personenkult betrieben wurde.
Die Volksrepublik Bulgarien galt als linientreuester Verbündeter der Sowjetunion. Das führte zum Spottnamen „16. Sowjetrepublik“. Wie in Rumänien befand sich dort kein sowjetisches Truppenkontingent. Jedoch hatte Bulgarien historisch und kulturell eine enge Anlehnung an Russland und es besaß eine starke kommunistische Bewegung bereits in der Zwischenkriegszeit. In Bulgarien fehlten die schlechten Erfahrungen mit der Sowjetunion, wie beispielsweise in Rumänien.
Auch die Zusammenarbeit zwischen den Mitgliedern blieb nicht immer frei von Spannungen. Die Beziehungen zwischen der DDR und Polen waren in den 1980er Jahren wegen des Wohlstandsgefälles angespannt. Andererseits wurden Rivalitäten im Zeichen der „Brüderlichkeit“ innerhalb des Paktsystems unterbunden, so etwa das von vielerlei alten Grenzstreitigkeiten und Zwistigkeiten belastete Verhältnis zwischen Rumänien und Ungarn. Wirtschaftlich stellte die Sowjetunion nach 1980 erhöhte Rohstoff- und Energiepreise in Rechnung, was den Verbündeten daraus resultierende erhebliche Probleme in der Industrie und Energieversorgung bereitete.
Die Staatengruppe war den letzten Jahren des Bestehens nicht mehr ein in jeder Hinsicht einheitlicher Block. Die „Satellitenstaaten“ waren in unterschiedlichem Grad von der Sowjetunion abhängig. Dies betraf die Machtdurchsetzung der Führungskader, die Wirtschaft und die Stationierung starker Truppenkontingente der Sowjetarmee in mehreren Staaten. Von den insgesamt 600.000–700.000 Mann der sowjetischen Streitkräfte standen rund zwei Drittel in der DDR. Bis in die 1980er Jahre hinein konnte keine entscheidende Maßnahme eines Ostblocklandes ohne Rücksprache mit dem Zentralkomitee der KPdSU erfolgen.
Containment und andere antikommunistische Reaktionen
Der Westen unter Führung der USA versuchte in der Phase des Kalten Krieges, nach den erheblichen Gebietsgewinnen der Sowjetunion, eine weitere Ausdehnung des kommunistischen Machtbereichs einzudämmen, die vor allem in Asien bedrohliche Ausmaße anzunehmen schien. Dagegen setzten die USA die Truman-Doktrin und verfolgten eine Containment-Politik. Auf ökonomischer Ebene wurde durch den Marshallplan 1947 den westlichen europäischen Ländern eine großzügige finanzielle Hilfe für den Wiederaufbau der kriegszerstörten Wirtschaft angeboten. Der Prager Februarumsturz 1948, die Berlinkrise 1948/49, der „Verlust Chinas“ 1949 und umso mehr 1950 der Ausbruch des Koreakriegs verstärkten den Eindruck einer kommunistischen Bedrohung des Westens nachhaltig. In den USA und Europa setzte ab Anfang der 1950er Jahre eine Aufrüstungswelle ein. Zwischen den beiden Supermächten kam es zum Rüstungswettlauf.
Die NATO war seit 1949 das westliche Militärbündnis gegen die drohende Expansion der Sowjetunion nach Westen. Daraufhin folgte ihrerseits 1955 die Gründung des Warschauer Pakts. Auf politischer Ebene wurden aus dem Westen Oppositionsbewegungen der Ostblockstaaten unterstützt. Bis zu deren endgültiger Zerschlagung in den 1950er Jahren stärkten die USA auch bewaffnete Separatisten-Gruppierungen innerhalb der Sowjetunion, etwa im Baltikum. Parallel dazu gab es anfangs weitere Konzepte, durch Konfrontation den Ostblock aufzubrechen.
In den späten 1940er und 1950er Jahren wurden in vielen Teilen Westeuropas wie 1956 in der Bundesrepublik Deutschland die kommunistischen Parteien verboten oder in ihrem Wirken behindert. Allerdings geschah dies in einigen europäischen Ländern nicht. Besonders in Frankreich und Italien (Eurokommunismus) erreichten kommunistische Parteien bis in die 1970er Jahre hinein nennenswerte Stimmenanteile in den Parlamentswahlen. Die Idee des US-Präsidenten Dwight D. Eisenhower, durch Rollback-Politik den Kommunismus zurückzudrängen, gilt eher als Wahlkampfphrase. Eine militärische Operation erschien der US-Politik in Europa zu gefährlich. Die anfangs noch gegebene klare nuklearstrategische Überlegenheit der USA konnte nicht in politisches Kapital umgesetzt werden und blieb insofern bedeutungslos.
Poststalinismus
In der Tauwetter-Periode unter Nikita Chruschtschow Mitte der 1950er Jahre wurde im Ostblock von der Lehrmeinung abgerückt, dass die Systemauseinandersetzung notwendigerweise in einem Krieg kulminieren müsse. Die Erhaltung der Friedlichen Koexistenz hatte nun Vorrang. 1954 hatte sich mit Georgi Malenkow zum ersten Mal ein sowjetischer Spitzenfunktionär besorgt über die Möglichkeit eines Atomkrieges geäußert, der besser zu vermeiden wäre. In den späten 1950er und frühen 1960er Jahren gelangen der Sowjetunion einige Erfolge, die im Westen Bestürzung und Erstaunen über die Leistungsfähigkeit „des Ostens“ hervorriefen: beispielsweise der Sputnikschock von 1957 und Juri Gagarins Weltraumflug von 1961. 1958 gab es eine neue Berlin-Krise, und ein knappes Jahr darauf – am 15. September 1959 – kam der sowjetische Staatschef Chruschtschow zu einem Staatsbesuch in die USA.
Allerdings verschärfte sich Anfang der 1960er Jahre die Lage wiederum. Die Blockkonfrontation drohte zu einem Krieg zu eskalieren. Der gefährlichsten Phase zwischen dem Mauerbau im August 1961 und der Kubakrise im Herbst 1962 folgte auf beiden Seiten eine gewisse Ernüchterung hinsichtlich konfrontativer Lösungsmöglichkeiten. Erstmals verbreitete sich ein wirkliches Bewusstsein von den drohenden möglichen Folgen einer mit Kernwaffen geführten militärischen Auseinandersetzung zwischen den Paktsystemen.
Den realsozialistischen Ländern gelang in den 1960/1970er Jahren eine gewisse Stabilisierung. Im Westen wurde die mit erheblichen Anstrengungen verbundene Aufrüstung und die gesteigerte militärische Schlagkraft der Sowjetunion und des Warschauer Pakts insgesamt festgestellt, insbesondere was strategische Atomwaffen betraf. Auf diesem Gebiet hatte die UdSSR nach allgemeiner Ansicht eine annähernde Parität mit den USA erreicht (Gleichgewicht des Schreckens). So setzte sich im Westen die Ansicht durch, dass die Entspannungspolitik ein geeigneteres Mittel bot, um die Macht- und Einflusssphäre des Kreml allmählich zurückzudrängen. Misstrauisch-orthodoxe Kräfte beispielsweise in der DDR argwöhnten dahinter frühzeitig und in gewisser Weise treffend eine „Aggression auf Filzlatschen“, konnten der sich anbahnenden Entwicklung aber auf Dauer keinen wirksamen Widerstand entgegensetzen. Die DDR – wie auch andere Ostblockstaaten – waren ab Ende der 1970er Jahre wegen der immer mehr zunehmenden ökonomischen Schwierigkeiten auf intensivierte Wirtschaftsbeziehungen und westliche Unterstützung angewiesen. Sinnfälliger Ausdruck für diese Entwicklung war der von Franz Josef Strauß 1983 vermittelte Milliardenkredit (dem 1984 ein zweiter folgte).
Noch zu Zeiten der westdeutschen Hallstein-Doktrin galt das von der Sowjetunion zusammengehaltene östliche Bündnis letztlich als einziger Garant der Nachkriegsgrenzen. Daraus bezog es besonders in der Tschechoslowakei und sogar in Polen einen nicht zu unterschätzenden Teil seiner Legitimation und einen wichtigen Restbestand an Akzeptanz. Ab Anfang der 1970er Jahre verlor dieser Faktor mit der geänderten Position der Bundesrepublik und den abgeschlossenen Ostverträgen an Bedeutung.
Anfang bis Mitte der 1970er Jahre schien der Ostblock den Höhepunkt seines internationalen Status erreicht zu haben. 1975 zeigte dies die Schlussakte der Konferenz für Sicherheit und Zusammenarbeit in Europa, die von den sozialistischen Staaten unterzeichnet wurde. Darin wurde ihre wichtige Rolle im Zusammenhang mit der Menschen- und Bürgerrechtsfrage definiert, welcher schließlich der Zusammenbruch der parteikommunistischen Systeme Osteuropas zuzuschreiben ist.
Die Zonengrenze zwischen dem politischen Osten beziehungsweise Westen, der Eiserne Vorhang, war insbesondere eine Wohlstandsgrenze, die noch bis heute zu spüren ist. Während es nach dem Zweiten Weltkrieg im Ostblock durch Planwirtschaft, Kommandostrukturen aber auch die starke Dominanz der UdSSR zu einem langsamen wirtschaftlichen Niedergang kam, führten im Westen Demokratie, Marktwirtschaft, die Gründung der Organisation für europäische wirtschaftliche Zusammenarbeit (OEEC) und Marshallplanmittel zu einem stetigen Wiederaufbau. Gerade diese Schaffung von Wohlstand und Attraktivität im Westen in Verbindung mit deren medialer Verbreitung über TV und Radio führten dann zu einer zunehmenden Unzufriedenheit der Bevölkerung im Osten und Fluchtbewegung in den Westen.
Ende des Ostblocks 1985–1990
Die unabhängige Gewerkschaft Solidarność war neben der katholischen Kirche Hauptkraft der Bewegung, die das Ende des Kommunismus in Polen bedeutete. Mit Johannes Paul II. amtierte dazu seit 1978 ein polnischer Papst, der sich durch seine Besuchsdiplomatie für polnisch-katholische Belange einsetzte. Michail Gorbatschow schrieb 1992 in seinen Memoiren:
Im März 1985 wurde Gorbatschow Generalsekretär der KPdSU. Er änderte den Kurs der Gängelung und Unterdrückung der sowjetischen Satellitenstaaten. Schon bei der Beerdigung von Konstantin Tschernenko (er war 13 Monate Generalsekretär) rief Gorbatschow die Ostblockführer zusammen und teilte ihnen mit, was später als „Sinatra-Doktrin“ bekannt wurde. Diese gestand den sozialistischen Bruderländern einen eigenen Weg zum Sozialismus zu und war Teil des Programms Perestrojka (Umbau). Einige Staaten lösten sich bis 1989 zunehmend aus dem Ostblock; die Staatsführung der DDR versuchte erfolglos, diesen noch zusammenzuhalten. Zusätzlich zu den aufkommenden innerstaatlichen Protestbewegungen wurde im Frühjahr und Sommer 1989 die bisher strikte Abschottung Osteuropas durch den Eisernen Vorhang durch einzelne Länder teilweise gelockert und im weiteren aufgehoben. Ungarn baute ab 2. Mai 1989 die Grenzanlagen zu Österreich ab. Das ungarische Drahtzaun-System mit seinen elektrischen Meldevorrichtungen war zu dieser Zeit schon vollkommen veraltet bzw. verrostet und fast 99 Prozent der Alarme waren Fehlmeldungen; bei jedem Alarm wurden bis zu 400 Soldaten in Marsch gesetzt. Die Ungarn wollten aber durch verstärkte Bewachung der Grenze die Bildung einer grünen Grenze verhindern oder die Sicherung ihrer Westgrenze kostengünstiger und technisch anders lösen. Nach dem Abbau von Grenzanlagen wurden weder die Grenzen geöffnet noch die bisherigen strengen Kontrollen eingestellt. Noch am 4. Juni 1989 begrüßte die DDR-Führung öffentlich die gewaltsame Niederschlagung der Studentenproteste auf dem Platz des Himmlischen Friedens in Peking, was als Drohung zu verstehen war, dass solches auch in der DDR denkbar wäre; dies führte später dazu, dass die VR China ihrerseits ihre Unterstützung durch Überlassung von Arbeitskräften gegen ein Ausbluten des Landes während der Massenflucht anbot.
Im Frühjahr 1989 gab es innerhalb der Sowjetunion in Tiflis und im Baltikum Armeeeinsätze gegen Demonstrationen. Es war zu diesem Zeitpunkt unklar, ob die Sowjetunion oder insgesamt der Ostblock militärisch intervenieren würde, falls es zu einer ungelegenen antikommunistischen und antisowjetischen Entwicklung käme.
Die Öffnung eines Grenztors zwischen Österreich und Ungarn beim Paneuropäischen Picknick am 19. August 1989, das durch die Medien verbreitet Nachahmung fand, verstärkte den Trend und löste schließlich die für den Ostblock historische „Krise des Herbstes 1989“ aus. Die Schirmherren des Picknicks waren der Initiator Otto von Habsburg und der ungarische Staatsminister Imre Pozsgay. Diese sahen im geplanten Picknick eine Chance, die Reaktion Gorbatschows auf eine Grenzöffnung am Eisernen Vorhang zu testen. Schon am 10. Juli 1989 wurde in Akten des ungarischen Staatssicherheitsdienstes notiert, dass aufgrund eines Vorschlages von Otto von Habsburg an der Grenze eine Veranstaltung geplant war, und am 31. Juli 1989 informierte die ungarische Abwehr gegen die innere Reaktion ihre Vorgesetzten über die Vorbereitungen des Paneuropäischen Picknicks bei Sopron. Die Paneuropa-Bewegung ließ tausende Flugzettel verteilen, mit denen zu einem Picknick nahe der Grenze bei Sopron eingeladen wurde. Unter dem Motto „Baue ab und nimm mit!“ sollten sich die Teilnehmer am Abbau des Eisernen Vorhangs beteiligen dürfen. Flugblätter, die Ort und Zeitpunkt des Picknicks bekanntgaben und eine Wegbeschreibung enthielten, kursierten auch unter DDR-Flüchtlingen in Budapest. Viele der DDR-Bürger verstanden die Botschaft und reisten an.
Bei der Veranstaltung am 19. August 1989 gelangten 661 Ostdeutsche durch den Eisernen Vorhang über die Grenze von Ungarn nach Österreich. Es war die größte Fluchtbewegung von Ost-Deutschen seit dem Bau der Berliner Mauer. Die UdSSR griff bei den diesbezüglichen Vorgängen nicht ein. Primäres Opfer der sich aus der sowjetischen Passivität ergebenden Situation war anfänglich besonders die DDR-Führung in Berlin, die Moskau dann am 21. August um (nicht gewährte) Unterstützung bat.
Die durch die Massenmedien verbreiteten Informationen über die Grenzöffnung lösten weitere Ereignisse aus. Am 22. August 1989 überquerten erneut 240 Menschen die österreichisch-ungarische Grenze, diesmal jedoch ohne vorbereitende Absprachen mit ungarischen Sicherheitsbehörden. Den Versuch, diese Aktion am 23. August zu wiederholen, unterbanden Grenzer, unterstützt durch „Arbeitermilizen“, mit Waffengewalt und verletzten dabei mehrere Flüchtlinge. Mit der Massenflucht ohne Eingreifen der Sowjetunion brachen die Dämme. Ostdeutsche kamen zu Zehntausenden nach Ungarn, das nicht mehr bereit war, seine Grenzen dicht zu halten. Die DDR-Führung in Ost-Berlin reagierte unentschlossen und wagte nicht, die Grenzen des eigenen Landes zu verriegeln. Die im August 1989 folgenden Besetzungen von bundesdeutschen Botschaften durch DDR-Flüchtlinge samt den dazu anschließend getroffenen Ausreiseprozeduren und der ungarische Verzicht auf Grenzkontrollen ab dem 11. September 1989 führte zu weiteren unkontrollierten Massenfluchten von DDR-Bürgern. Ungarn ließ ohne vorherige Absprache mit der DDR-Regierung alle anwesenden ausreisewilligen DDR-Bürger in den Westen passieren. Bis Ende September kamen 30.000 Übersiedler auf diesem Weg in die Bundesrepublik.
Am 30. September 1989 erreichte der damalige Bundesaußenminister Hans-Dietrich Genscher nach Verhandlungen mit dem sowjetischen Außenminister Eduard Schewardnadse und anderen, dass einige Tausend auf das Gelände der Prager Botschaft geflüchtete Ostdeutsche mit Sonderzügen per Umweg durch die DDR in den Westen ausreisen durften.
Im Herbst und Winter 1989 verloren die kommunistischen Staatsführungen in allen Ostblockstaaten (außer der Sowjetunion) ihr Herrschaftsmonopol, sodass der Ostblock auseinanderfiel. Die Abschottung war beendet und die Möglichkeit gegeben, die Länder Richtung Westen über den nunmehr zerbrochenen Eisernen Vorhang zu verlassen. Die Kettenreaktion ausgehend vom Paneuropäischen Picknick erodierte die Macht der Kommunisten im Ostblock. Das bewirkte bis Dezember 1989 einen Wechsel des Regierungssystems in der DDR, in Polen, in Ungarn, in der ČSSR (Samtene Revolution) sowie in Bulgarien und in Rumänien. Die grundlegende Ursache für die Unzufriedenheit der Bevölkerung lag neben dem Mangel an Selbstbestimmung und Freiheit im wirtschaftlichen Zusammenbruch der gleich aufgebauten Staaten. Für diese Entwicklung waren wesentliche Systemfaktoren des Ostblocks ursächlich:
wirtschaftliche Probleme durch Staatswirtschaft,
Verschuldung bei westlichen Kreditgebern,
innere Probleme durch Parteidiktatur,
außenwirtschaftliche Probleme durch die Abschottungspolitik.
Die UdSSR zerfiel 1991, wobei beim ersten Referendum in der Geschichte der Sowjetunion am 17. März 1991 (bei dem allerdings einige Unionsrepubliken nicht mehr teilnahmen) noch eine Mehrheit für den Bestand der Union stimmte.
Reisefreiheit
Reisen für DDR-Bürger unter 65 Jahren in das nichtsozialistische Ausland waren seit dem Mauerbau im August 1961 auf Antrag und nur zu bestimmten Anlässen möglich. Meist nur, wenn eine Rückkehr in die DDR wahrscheinlich war, etwa weil Kinder oder Ehepartner nicht mitreisten oder es keine Westverwandtschaft gab. Ab 1964 durften alle Rentner einmal im Jahr Besuchsreisen zu Westverwandten machen, später gab es weitere Reiseerleichterungen.
In anderen Ostblockstaaten war dies ähnlich geregelt. So konnten Bürger aus der ČSSR, der Ungarischen VR oder auch der VR Bulgarien bereits mit Beginn der 1970er Jahre bei begründeten Anlässen, wie Studienreisen, das Land nach Westeuropa verlassen.
In Ungarn war es bereits zu Anfang der 1980er Jahre möglich, Privatreisen gegen Devisenzahlung zu unternehmen. Ungarn führte Anfang 1988 die allgemeine Reisefreiheit für seine Bürger ein. Es gab auch schärfere Reisebeschränkungen, wie in Rumänien oder der Sowjetunion.
Die Bürger der SFR Jugoslawien waren als Staatsangehörige eines sozialistischen, aber blockfreien Staates privilegierter, da es keinem Militärblock angehörte. Nach Jugoslawien zu reisen war für Westeuropäer nicht komplizierter als nach Italien oder Frankreich, insbesondere profitierten die Jugoslawen von devisenbringenden westlichen Touristen, die jährlich zu Millionen an die Adriaküste kamen. Jugoslawien war das einzige sozialistische Land, dessen Staatsbürger visafrei nach Westeuropa, Nordamerika und andere Teile der Erde ausreisen konnten. Schon in den 1960er Jahren kamen im Zuge von Freizügigkeitsregelungen als Gastarbeiter bezeichnete Arbeitskräfte aus Jugoslawien nach Deutschland, Österreich und in die Schweiz.
Siehe auch
Wettrüsten
Literatur
Zbigniew K. Brzeziński: Der Sowjetblock. Einheit und Konflikt. Kiepenheuer & Witsch, Köln [u. a.] 1962.
Jens Hacker: Der Ostblock. Entstehung, Entwicklung und Struktur 1939–1980. Nomos, Baden-Baden 1983, ISBN 3-7890-1067-7 (zugl. Habil.-Schr. Univ. Köln 1980).
Meyers großes Taschenlexikon. In 24 Bänden. Band 16: Nord – Pel. 4., vollständig überarbeitete Auflage, B.I.-Taschenbuchverlag, Mannheim [u. a.] 1992, ISBN 3-411-11164-X, S. 162.
Henrik Bispinck, Jürgen Danyel, Hans-Hermann Hertle, Hermann Wentker: Aufstände im Ostblock. Zur Krisengeschichte des realen Sozialismus. Links, Berlin 2004, ISBN 3-86153-328-6.
Ostblock. In: Microsoft Encarta. Online-Enzyklopädie, 2009.
Weblinks
Einzelnachweise
Terminologie des Kalten Krieges
Warschauer Pakt
Politik (Europa)
Kommunismus
Marxismus-Leninismus
Sozialismus
|
Q170541
| 374.69203 |
20943
|
https://de.wikipedia.org/wiki/Turku
|
Turku
|
Turku , , ist eine Stadt an der Südwestküste Finnlands und die älteste Stadt des Landes. Von der Gründung im 13. bis ins 19. Jahrhundert war Turku die wichtigste Stadt Finnlands. Heute ist Turku mit Einwohnern (Stand ) die sechstgrößte Stadt und Zentrum des drittgrößten Ballungsraumes des Landes. Sie ist Sitz des Erzbistums Turku der Evangelisch-Lutherischen Kirche Finnlands, der Åbo Akademi und der Universität Turku. 5,2 % der Einwohner Turkus sind schwedischsprachig, offiziell ist die Stadt zweisprachig.
Geografie
Geografische Lage
Turku liegt in der südwestfinnischen Landschaft Varsinais-Suomi an der Mündung des Flusses Aurajoki in die Ostsee. Der Stadt vorgelagert ist das Schärenmeer mit einem ausgedehnten Archipel aus über 20.000 Schären. Der Aurajoki fließt auf einer Strecke von neun Kilometern in Ost-West-Richtung durch die Stadt. Innerhalb Turkus beträgt seine Breite durchschnittlich 50 Meter. Am Unterlauf im Bereich des Stadtzentrums ist der Fluss 2,5 bis 5 Meter tief, auf Höhe des Domes wird die Fahrrinne aber wesentlich schmaler und flacher. Weitere Flüsse im Gebiet von Turku sind der Vähäjoki, der im Norden der Stadt beginnt und im Stadtteil Koroinen in den Aurajoki fließt, und der Raisiojoki, der gegenüber der Insel Ruissalo in die Ostsee mündet.
Turku hat eine Landgrenze zu den Gemeinden Raisio, Rusko, Aura, Lieto und Kaarina. Zur See hin grenzt Turku an Naantali und Pargas. Der Großraum Turku, zu dem neben Turku die Städte Naantali, Raisio, Kaarina und Lieto und einige weitere Nachbargemeinden gehören, hat insgesamt rund 290.000 Einwohner. Damit ist er nach der Region Helsinki und dem Großraum Tampere das drittgrößte Ballungszentrum Finnlands.
Ausdehnung des Stadtgebiets
Turku hat eine Gesamtfläche von 306,41 km². Unter Ausschluss der Meeresgebiete sind es 249,09 km², davon weitere 3,46 km² Binnengewässer. Das Stadtgebiet hat eine längliche Form und ragt keilförmig ins Binnenland hinein. Die Entfernung zwischen dem nördlichsten und südlichsten Punkt der Stadt beträgt 45 km, die maximale Ost-West-Ausdehnung nur 15 km.
Das Zentrum von Turku liegt am Unterlauf des Aurajoki kurz vor dessen Mündung. Es hat ein schachbrettförmiges Straßennetz und ist dicht bebaut. Auf einigen Hügeln und am Flussufer befinden sich Grünflächen. In den Stadtteilen um das Zentrum herum besteht die Bebauung hauptsächlich aus Einfamilienhäusern. Diese Stadtteile wurden größtenteils erst im Laufe des 20. Jahrhunderts nach Turku eingemeindet. Viele von ihnen, wie Port Arthur, Nummi oder Raunistula, waren ursprünglich Wohngebiete der ärmeren Arbeiterschaft. Heute sind sie wegen ihrer zentrumsnahen Lage gefragte und teure Wohnlagen. Seit den 1970er Jahren entstanden große Vorortsiedlungen am Stadtrand. Die größten Siedlungen sind Varissuo, Runosmäki, Pansio und Jäkärlä. Die nördlichen Stadtteile Maaria und Paattinen wurden erst in der zweiten Hälfte des 20. Jahrhunderts eingemeindet und sind eher ländlich geprägt.
Im Süden gehört ein Teil des Schärengebiets mit den Inseln Ruissalo, Hirvensalo, Satava und Kakskerta zur Stadt. Die Inseln sind eher dünn besiedelt und mit Laubwäldern bedeckt. Mit Ausnahme von Teilen von Hirvensalo, die sich seit den 1990er Jahren zu Vorstädten der oberen Mittelschicht entwickelt haben, befinden sich auf den Inseln hauptsächlich Ferienhäuser. Auf Ruissalo liegt ein ausgedehnter Campingplatz.
Stadtgliederung
Turku besteht aus 78 Stadtteilen (finn. ). Parallel dazu existiert eine Unterteilung in neun Stadtbezirke (suuralue). Die Grenzen der Stadtbezirke folgen nicht immer den Stadtteilgrenzen, so dass einige Stadtteile zwischen zwei Stadtbezirken geteilt sind. Weder Stadtbezirken noch Stadtteilen kommt eine verwaltungstechnische Aufgabe zu.
Der Fluss Aurajoki teilt Turku in zwei Hälften. Das historische Zentrum der Stadt befindet sich südöstlich des Aurajoki und wird im lokalen Dialekt täl pual jokke („diesseits des Flusses“) genannt. Die nordwestliche Seite mit der modernen Innenstadt heißt entsprechend tois pual jokke („jenseits des Flusses“). Diese Bezeichnungen sind absolut und unabhängig vom tatsächlichen Standpunkt des Sprechers. Manchmal wird auch der schwedische Name Åbo für den südöstlichen und der finnische Name Turku für den nordwestlichen Teil der Stadt verwendet.
Die Stadtteile Turkus nach Stadtbezirken (Einteilung seit 2006):
Klima
Das Klima in Turku ist kaltgemäßigt. Dank des Einflusses der Ostsee und der durch die vorgelagerten Schären geschützten Lage im Süden des Landes ist es für finnische Verhältnisse recht mild. So gedeihen in Turku unter anderem Eichen, die im Rest Finnlands nicht vorkommen.
Die Jahresdurchschnittstemperatur in Turku beträgt 4,8 °C, das Jahresmittel des Niederschlages liegt bei 576 mm. Der meiste Niederschlag fällt im August (77 mm im Monatsmittel), der wenigste im März (23 mm). Der kälteste Monat ist der Februar mit einer Durchschnittstemperatur von −6,5 °C, der wärmste Monat der Juli mit 17,1 °C. Die Sommer in Turku sind mit Temperaturen bis zu 30 °C warm. Die Winter sind dagegen relativ kalt. Eine bleibende Schneedecke fällt meist um die Jahreswende. Der Aurajoki weist zuweilen eine tragende Eisdecke auf, das Eis schmilzt meist im März oder April.
Geschichte
Vorgeschichte und Gründung
Das Gebiet der heutigen Stadt Turku war bereits in der Steinzeit besiedelt, wie archäologische Funde aus den Stadtteilen Kärsämäki und Jäkärlä beweisen. Während der Eisenzeit wurde im Flusstal des Aurajoki Landwirtschaft und Handel betrieben. Darauf weisen unter anderem Grabstätten aus der Vendelzeit hin, die bei der Alten Burg von Lieto und im Stadtteil Kurala gefunden wurden. Die Landschaft Varsinais-Suomi, in der Turku liegt, geriet indes ab 1154 durch den Kreuzzug von König Erik IX. unter schwedische Herrschaft. Der erste Bischofssitz in Finnland war Nousiainen.
Während des 13. Jahrhunderts entwickelte sich Turku zur ersten Stadt in Finnland. Der Name Turku stammt nach einer allgemein anerkannten Theorie von dem altrussischen Wort tǔrgǔ mit der Bedeutung „Marktplatz“ ab. Der schwedische Name Åbo bedeutet so viel wie „Wohnsitz (schwed. bo) am Fluss (schwed. å)“. Als Gründungsjahr der Stadt gilt traditionell 1229. Dies beruht allerdings auf einer Fehlinterpretation mittelalterlicher Urkunden. Im Jahr 1229 stimmte Papst Gregor IX. der Verlegung des Bischofssitzes zu, offenbar von Nousiainen nach Koroinen. Das Dorf Koroinen, heute ein Stadtteil von Turku, befand sich einige Kilometer flussaufwärts. Es gibt keine Hinweise darauf, dass es zu diesem Zeitpunkt bereits die eigentliche Stadt Turku gegeben hätte. Daher ist die Gründung der Stadt wahrscheinlich eher auf das Ende des 13. Jahrhunderts zu datieren. Als der Pegel des Aurajoki durch die Landhebung niedriger wurde, konnten die Händler mit ihren Schiffen nicht mehr bis Koroinen segeln und der Handelsplatz wurde nach Turku verlegt. Eine Gründungsurkunde, in der Turku die Stadtrechte zugesprochen würden, ist nicht überliefert. Dennoch kann es als gesichert gelten, dass Turku die älteste Stadt Finnlands ist, denn die nächstälteste Stadt Porvoo wurde nachweislich erst 1346 gegründet.
Schwedische Herrschaft
Schon im späten 13. Jahrhundert gab es in Turku ein Dominikanerkloster und einen Bischofssitz. Der Dom von Turku wurde im Jahr 1300 geweiht. Allerdings ist es ungeklärt, inwieweit die heutige aus Stein und Ziegeln erbaute Kirche auf den damaligen Bau zurückgeht; nach Ansicht mancher Forscher könnte der erste Dom aus Holz gebaut gewesen sein. Der Bau der Burg von Turku, die außerhalb der Stadt gelegen war, könnte bereits Ende des 13. Jahrhunderts begonnen worden sein. Die Burg, das Kloster und der Dom samt Bischofssitz machten Turku neben Viborg zur wichtigsten Stadt im mittelalterlichen Finnland. Während der gesamten Zeit der schwedischen Herrschaft blieb es das politische, geistige und kulturelle Zentrum Finnlands. Im Mittelalter unterhielt Turku rege Handelsbeziehungen zur Hanse, ohne jedoch deren Mitglied zu sein. Insbesondere der lebhafte Handel mit den Hansestädten Reval (estn. Tallinn), Danzig und Lübeck machte Turku zum größten Handelsplatz in Finnland.
Turku war während der schwedischen Zeit mehrfach Angriffen ausgesetzt. 1318 wurde die Stadt in die Auseinandersetzungen zwischen Schweden und Nowgorod hineingezogen. Die Russen plünderten den Dom und brannten die Stadt nieder. Während der Endphase der Kalmarer Union wurde Turku in die schwedisch-dänischen Machtkämpfe hineingezogen: 1509 überfielen die Dänen unter Otte Rud Turku, brandschatzten die Stadt und plünderten einen Großteil des Domschatzes. 1523 eroberte Gustav I. Wasa die Stadt, nachdem er ein Jahr zuvor ergebnislos die Burg belagert hatte. Kurz nachdem er zum schwedischen König gekrönt worden war, leitete er in seinem Land die Reformation ein. Martin Skytte, Bischof von Turku 1528–1550, war ein gemäßigter Befürworter der Reformation. Sein Nachfolger wurde Mikael Agricola, der wichtigste Reformator Finnlands, der in Wittenberg Schüler Martin Luthers gewesen war und mit seiner Bibelübersetzung von 1548 den Grundstein für die finnische Schriftsprache gelegt hatte.
Im Jahr 1556 ernannte Gustav Wasa seinen Sohn Johann III. zum Herzog von Finnland. Johann und seine Gemahlin Katharina Jagiellonica residierten in Turku und führten an der Burg das prunkvolle Hofleben der Renaissancezeit ein. Nach dem Tod Gustav Wasas kam es zu Machtwirren zwischen seinen Söhnen: 1563 ließ König Erik XIV. Turku erobern und seinen Bruder in die Gefangenschaft nach Schweden verschleppen.
Die Herrschaft von Gustav II. Adolf (1611–1632) und seiner Tochter Christina I. (1632–1654) war eine Zeit des Fortschritts für Turku. Die Provinzverwaltung wurde 1617, das Hofgericht 1623 gegründet. 1630 folgte ein Gymnasium. 1637 wurde Per Brahe der Jüngere zum Generalgouverneur von Finnland ernannt und bezog die Burg von Turku. Er gründete 1640 die Akademie zu Turku, die erste Universität Finnlands.
Im 18. Jahrhundert stand Turku ebenso wie der Rest Finnlands zweimal unter russischer Besatzung: 1714–1721 während des Großen Nordischen Krieges und 1741–1743 während des Schwedisch-Russischen Krieges. In der zweiten Hälfte des Jahrhunderts entstanden durch die merkantilistische Wirtschaftspolitik Schwedens in Turku zahlreiche Manufakturen. Die 1732 gegründete Werft wurde mit der Zeit zu einem wichtigen Wirtschaftsfaktor der Stadt. Zu dieser Zeit wurden die Bürger Turkus in drei Klassen eingeteilt: Die schwedische Bürgerschaft, die finnische Bürgerschaft und die Handwerker. Die Einwohnerzahl stieg indes bis 1791 auf 8.504, 1805 betrug sie bereits 11.300 Personen.
Russische Herrschaft
Im Russisch-Schwedischen Krieg eroberten die russischen Truppen Turku 1808 kampflos. Als Schweden 1809 im Vertrag von Fredrikshamn Finnland an Russland abtreten musste, wurde Turku zunächst zur Hauptstadt des neugeschaffenen Großfürstentums Finnland erkoren. Aus Sicht von Zar Alexander I. war Turku aber zu weit von Sankt Petersburg entfernt, weshalb 1812 der Beschluss erging, die Hauptstadt in das bis dahin unbedeutende Helsinki zu verlegen. Nachdem Helsinki unter der Ägide des Architekten Carl Ludwig Engel zur repräsentativen Hauptstadt ausgebaut worden war, fand die Verlegung 1819 statt. Endgültig wurde die Bedeutung Helsinkis gefestigt, als Turku im großen Stadtbrand von 1827 fast völlig zerstört wurde. Die verheerende Feuersbrunst vernichtete innerhalb eines Tages drei Viertel der Häuser Turkus. Infolge des Brandes wurde die Akademie Turku, ebenso wie die anderen in Turku verbliebenen Institutionen, 1828 nach Helsinki verlegt und in die Universität Helsinki umgewandelt. Damit hatte Turku endgültig seine vorherrschende Stellung in Finnland verloren. Carl Ludwig Engel wurde mit dem Wiederaufbau Turkus beauftragt. Er entwarf einen schachbrettförmigen, brandsicheren Grundriss. Turku blieb für weitere zwanzig Jahre die größte Stadt Finnlands, bis es von Helsinki überholt wurde.
Zur Mitte des 19. Jahrhunderts hin war Turku mit seinen großen Manufakturen neben Helsinki die wichtigste Handwerksstadt Finnlands. Die industrielle Revolution erlebte Turku aber erst um das Jahr 1900. Der Erste Weltkrieg hatte für die Industrie der Stadt positive Folgen, denn die Ausfuhrprobleme betrafen hauptsächlich die Holzwirtschaft, die in Turku keine Rolle spielte. Dagegen konnte Turku dank seiner Lage problemlos Rohstoffe aus dem neutralen Schweden importieren.
Nach Erlangung der Unabhängigkeit
Nachdem Finnland 1917 die Unabhängigkeit erlangt hatte, blieb die Hauptstadt in Helsinki. Schon Ende 1917 war es in Turku zu sozialen Unruhen gekommen, in deren Verlauf die sozialistischen „Roten“ Geschäfte plünderten. Im folgenden Finnischen Bürgerkrieg brachten die Roten Garden die Stadt Ende Januar 1918 unter ihre Kontrolle und hielten sie bis zum 12. April, als deutsche Truppen, die auf Seiten der bürgerlichen Weißen kämpften, in Turku einmarschierten.
1918 erhielt Turku nach 90 Jahren wieder eine Universität, die schwedischsprachige Åbo Akademi. Zwei Jahre später wurde die finnischsprachige Universität Turku gegründet. Im Winterkrieg und im Fortsetzungskrieg erfolgten verschiedene sowjetische Luftangriffe auf die Stadt, die insgesamt 52 Todesopfer unter der Zivilbevölkerung forderten; außerdem wurden 1,8 % der Wohnungen zerstört und 3,3 % schwer beschädigt.
Bevölkerung
Ende 2005 betrug die Einwohnerzahl von Turku 174.906 Personen. Turku ist nach Helsinki, Espoo, Tampere, Vantaa und Oulu die sechstgrößte Stadt Finnlands. Espoo und Vantaa sind allerdings faktisch Vororte Helsinkis. Der Großraum Turku ist nach der Region Helsinki und dem Großraum Tampere das drittgrößte Ballungszentrum des Landes.
Selbstverständnis
Die Turkuer besitzen nicht zuletzt aufgrund der Vergangenheit ihrer Stadt ein ausgeprägtes regionales Selbstbewusstsein. In Turku kursiert ein Sprichwort, nach dem man nicht zu einem Turkuer werden, sondern nur als Turkuer geboren sein kann. Vor allem der lokale Dialekt (Turun murre) ist identitätsstiftend. In dem südwestfinnischen Dialekt werden auch Mundartdichtung und Comics veröffentlicht.
Die Stadt Helsinki, die nicht über eine so lange Geschichte verfügt und die erst im 19. Jahrhundert Hauptstadt wurde, wird von vielen Turkuern als „Emporkömmling“ angesehen. Besonders ausgeprägt ist aber die Rivalität zu Tampere, das Turku in den 1960er Jahren als zweitgrößte Stadt Finnlands überholt hat.
Bevölkerungsgruppen
Traditionell gab es in Turku einen großen finnlandschwedischen Bevölkerungsanteil. Um 1870 sprach die Hälfte der Bewohner Turkus Schwedisch als Muttersprache. Im Laufe der Zeit nahmen aber viele Finnlandschweden die finnische Sprache an. Zudem erfolgte die Zuwanderung nach Turku hauptsächlich aus finnischsprachigen Gegenden, sodass der Anteil der schwedischsprachigen Bevölkerung konstant sank. Um die Jahrhundertwende war es nur noch ein Viertel, 1950 ein Zehntel. Heute sind 5,2 % der Turkuer schwedischsprachig. Obwohl in Turku der Anteil unter der im finnischen Sprachgesetz festgeschriebenen 6-%-Schwelle liegt, ist die Stadt aufgrund der zahlenmäßigen Größe der schwedischsprachigen Minderheit (9000 Personen) offiziell zweisprachig mit Finnisch als Mehrheits- und Schwedisch als Minderheitssprache. Daher haben beispielsweise sämtliche Straßen einen finnischen und einen schwedischen Namen.
4,2 % der Einwohner Turkus sind Ausländer, hauptsächlich aus Russland, Estland, dem Irak und dem Iran. Für finnische Verhältnisse ist dieser Ausländeranteil hoch. Die steigende Zahl der Einwanderer besonders in den östlichen Vororten der Stadt hat teilweise zu Fremdenfeindlichkeit geführt, was sich in den relativen Wahlerfolgen der nationalistischen Partei Suomen Kansan Sinivalkoiset (Blau-Weiße Front) widerspiegelt. Während in ganz Finnland diese rechtsextreme Partei nie mehr als 0,1 % der Stimmen bekam, konnte sie in Turku, der Heimatstadt ihres Parteivorsitzenden Olavi Mäenpää, im Jahr 2004 mit 3,9 % der Stimmen einen Stadtrat stellen. Dieser war auch in den Nachfolgeorganisationen aktiv. Er wurde 2017 wegen Betrugs zu sieben Monaten Haft verurteilt und starb 2018. Bei der Parlamentswahl 2015 blieb die rechtspopulistische Partei Wahre Finnen aber mit 16,2 % in Turku hinter dem finnischen Landesdurchschnitt von 17,7 % zurück.
Religionen
Die überwiegende Mehrheit der Bevölkerung Turkus gehört der evangelisch-lutherischen Kirche an. Der Dom von Turku ist Sitz des Erzbischofs von Turku, des Oberhauptes der Evangelisch-Lutherischen Kirche Finnlands. Zum Erzbistum Turku gehören die finnischsprachigen Gemeinden von Varsinais-Suomi und Satakunta.
Außerdem gibt es in Turku eine orthodoxe Gemeinde. Ihre Hauptkirche ist die repräsentativ am zentralen Marktplatz gelegene Kaiserin-Alexandra-Märtyrerinnen-Kirche. Die Rotunde ist dem Pantheon in Rom nachempfunden und wurde 1845 nach Plänen von Carl Ludwig Engel fertiggestellt.
Es gibt auch eine kleine katholische Pfarrei in Turku, die Gemeinde der heiligen Birgitta und des seligen Hemming. Die Kirche von Turku wurde 1966 gebaut und befindet sich im Zentrum der Stadt. Die katholische Gemeinde ist besonders durch die Zuwanderung asiatischer und polnischer Immigranten gewachsen. Neben der katholischen Gemeinde hat sich auch der Orden der Birgitten, ein katholischer Konvent, in Turku niedergelassen.
Seit dem 19. Jahrhundert ist in Turku eine kleinere Gruppe von muslimischen Tataren ansässig, daneben sind in letzter Zeit muslimische Immigranten eingewandert. Die jüdische Gemeinde von Turku hat ungefähr 120 Mitglieder. Die Synagoge von Turku ist neben der in Helsinki die einzige in Finnland.
Von Turku aus wird alljährlich am 24. Dezember um 12 Uhr mittags der Weihnachtsfrieden für ganz Finnland ausgerufen.
Einwohnerentwicklung
Bis etwa 1970 nahm die Einwohnerzahl Turkus konstant zu. Darauf folgte eine Phase leichten Rückgangs, bis die Einwohnerzahl ab 1990 wieder zu steigen begann.
Politik
Turku ist die Hauptstadt der Landschaft (/) Varsinais-Suomi. Daneben ist die Stadt als Sitz des Erzbischofs von Turku, des Oberhauptes der finnischen evangelisch-lutherischen Kirche, und des Domkapitels von Turku das kirchliche Zentrum Finnlands.
Stadtrat
Wie in allen finnischen Städten ist auch in Turku der Stadtrat (finn. ) die höchste Entscheidungsinstanz bei lokalen Angelegenheiten. Dazu zählen Stadtplanung, Schulen, Gesundheitswesen und öffentlicher Verkehr. Der aus 67 Mitgliedern bestehende Rat wird auf vier Jahre gewählt.
Die stärkste Partei in Turku ist die konservative Sammlungspartei, gefolgt von den Sozialdemokraten. Diese beiden Parteien dominieren seit Jahrzehnten die Politik Turkus, während die dritte große Partei des Landes, die finnische Zentrumspartei, wie in anderen Großstädten nur eine untergeordnete Rolle spielt. Auch das Linksbündnis und der Grüne Bund sind mit Wahlergebnissen im zweistelligen Prozentbereich verhältnismäßig stark.
Die Wahlbeteiligung lag 2021 bei 55,7 %.
Der Stadtdirektor (finn. ) von Turku ist dem Stadtrat unterstellt und wird von diesem ernannt. Seine Aufgabe ist es, die Verwaltung zu führen und den Haushalt der Stadt zu verwalten. Seit 2006 hat Mikko Pukkinen von der Sammlungspartei diesen Posten inne.
Wappen
Blasonierung: „In Blau ein goldenes, stilisiertes „A“, kreuzweise begleitet von vier silbernen Lilien. Auf dem Schildrand eine mit silbernen Perlen besteckte goldene Blattkrone mit wechselnd rechteckigen blauen und rautigen roten Steinen im Kronenring.“
Das Wappen geht auf ein mittelalterliches Siegel aus dem Jahr 1309 zurück. Der Buchstabe „A“ steht für Aboa, die lateinische Namensform Turkus, während die Lilien mit der Jungfrau Maria, der Schutzpatronin des Doms von Turku, assoziiert werden. Die Krone weist auf das historische Herzogtum Finnland hin, das der heutigen Landschaft Varsinais-Suomi entspricht.
Städtepartnerschaften
Turku unterhält mit folgenden Städten Partnerschaften:
Mit seinen skandinavischen Partnerstädten verbindet Turku, dass sie alle „zweite Städte“ ihres Landes mit einer langen Geschichte sind. Daneben hat Turku Kooperationsverträge mit der estnischen Stadt Tallinn und mit Tianjin in der Volksrepublik China.
Kultur und Sehenswürdigkeiten
Museen
Im Zentrum oder in der Nähe zum Zentrum gibt es über zehn Galerien in den Bereichen Bildhauerei, Fotografie und Malerei. Unweit des Doms (siehe Bauwerke), am Ufer des Aurajoki, befindet sich das Sibelius-Museum, das nicht nur den finnischen Komponisten Jean Sibelius würdigt, sondern auch eine Sammlung von Musikinstrumenten beherbergt. Etwa 500 m weiter südwestlich befindet sich das Museum Aboa Vetus & Ars Nova, das Ausgrabungen aus dem 14. Jahrhundert und moderne Kunst ausstellt.
Bauwerke
Burg Turku
Die Burg Turku liegt unweit des Hafens am nördlichen Ufer des Aurajoki. Sie ist eines der wenigen Beispiele für die Burgenarchitektur Finnlands und zugleich das größte erhaltene mittelalterliche Gebäude des Landes. Die Burg wurde wahrscheinlich um 1280 gegründet und lag damals noch auf einer Flussinsel an der Mündung des Aurajoki. Sie wurde mehrfach umgebaut und erhielt im 16. Jahrhundert durch den Bau der Vorburg im Renaissance-Stil ihre heutige Form. Zu jener Zeit diente die Burg Turku Johann III., dem Herzog von Finnland, und seiner Frau Katharina Jagiellonica als Residenz. Im Zweiten Weltkrieg wurde sie bei einem sowjetischen Bombenangriff stark beschädigt, bis 1961 wurde sie aber wieder instand gesetzt. Heute beherbergt die Burg das Historische Museum der Stadt Turku.
Kirchen
Der Dom von Turku ist das Wahrzeichen Turkus und als Sitz des Erzbischofs von Turku die Hauptkirche der Evangelisch-Lutherischen Kirche Finnlands. Zugleich ist er das bedeutendste Beispiel für den mittelalterlichen Kirchenbau Finnlands. Der Bau des Domes begann Ende des 13. Jahrhunderts, geweiht wurde er wahrscheinlich im Jahr 1300. Es ist aber unklar, ob es sich bereits um den Steinbau, der den Kern der heutigen Kirche bildet, oder einen hölzernen Vorgängerbau handelte. Womöglich wurde der steinerne Dom erst Ende des 14. oder Anfang des 15. Jahrhunderts erbaut. In jedem Fall ist der Dom von Turku aber die älteste erhaltene Kirche auf dem finnischen Festland. Im 15. Jahrhundert wurde der Dom mehrfach erweitert, sodass er als einzige mittelalterliche Kirche in Finnland die Größe mitteleuropäischer Kathedralen erreichte. Er zeigt deutlich den Einfluss der deutschen Backsteingotik. In den nächsten Jahrhunderten wurde der Dom mehrfach umgebaut und erweitert; zuletzt musste er nach dem Stadtbrand von 1827 instand gesetzt werden. Dabei erhielt er die von Carl Ludwig Engel entworfene Turmspitze. In der Kirche befinden sich die Grabmäler vieler bedeutender Persönlichkeiten, darunter etwa der schwedischen Königin Karin Månsdotter.
In den Stadtteilen Turkus befinden sich zwei weitere mittelalterliche Kirchen, die beide Mitte des 15. Jahrhunderts errichtet wurden: Die Kirche von Maaria war die Pfarrkirche der 1967 eingemeindeten Gemeinde Maaria. Die St.-Katharinen-Kirche diente ursprünglich als Kirche von Kaarina, liegt aber seit 1939 im Stadtgebiet von Turku. Beide Kirchen sind von bescheideneren Ausmaßen als der Dom, können aber als guterhaltene Beispiele für die mittelalterlichen Feldsteinkirchen Finnlands gelten. Von der im 13. Jahrhundert erbauten Bischofskirche von Koroinen sind hingegen nur die Fundamente erhalten.
Am Marktplatz befindet sich die orthodoxe Kaiserin-Alexandra-Märtyrerinnenkirche. Die klassizistische Rundkirche wurde 1839–1845 nach Plänen von Carl Ludwig Engel errichtet.
Auf der Insel Hirvensalo befindet sich die Ökumenische „Kunstkapelle“ (finn. ), eine 2005 eingeweihte Holzkirche, die auch als Konzert- und Ausstellungsraum dient.
Sonstige Bauwerke
Die Markthalle in der Eerikinkatu, entworfen vom Architekten Gustaf Nyström, wurde 1896 eröffnet. Sie ist 118,50 Meter lang, 30 Meter breit und 13 Meter hoch. Die ursprünglichen Strukturen der Dachkonstruktion sind noch in ihrem Ursprung erhalten. In der Halle befinden sich etwa vierzig Verkaufsstände. Hier werden neben lokalen südwestfinnischen Spezialitäten traditionelles Brot, Fisch, Milch, Fleisch und auch Pferdewürstchen angeboten. Auch ein Blumenladen, ein Friseur, ein Café, Souvenirläden sowie weitere Verkaufsshops sind vorhanden. Fast 2 Millionen Besucher verzeichnet die Halle jährlich.
Der Fernmeldeturm Pääskyvuori () ist 134 Meter hoch und wurde 1964 erbaut.
Weitere Sehenswürdigkeiten
historisches Observatorium von 1819 (erbaut von Carl Ludwig Engel)
Rathaus
Forum marinum (Seefahrtsmuseum)
Der Dreimaster Suomen Joutsen (Finnischer Schwan) und die Schonerbark Sigyn auf dem Aurajoki
Das Freilichtmuseum und Kunsthandwerkmuseum Luostarinmäki auf dem Klosterbacken besteht aus einem Stadtteil, der den Stadtbrand von 1827 unversehrt überstanden hat. Seit dieser Zeit wurden keine baulichen Veränderungen vorgenommen. Auf Modernisierungen im Innern der Häuser wurde ebenfalls verzichtet, so dass das Museum einen realistischen Eindruck von den Lebensumständen zu Beginn des 19. Jahrhunderts gibt.
Apothekenmuseum am Aurajoki (Verkaufsraum aus einer alten Apotheke in Oulu, im hinteren Teil Ausstellung alter Apothekergeräte)
Synagoge
Auszeichnungen
Turku war gemeinsam mit Tallinn Kulturhauptstadt Europas des Jahres 2011. Das Kulturhauptstadtprogramm wurde am 15. Januar 2011 eröffnet und steht unter dem Motto „Turku in Flammen“. Dies soll einerseits eine Anspielung auf die vielen Brandkatastrophen sein, die im Laufe der Geschichte die Stadt heimgesucht haben. Andererseits ist es als Würdigung der künstlerischen Dynamik und Kreativität Turkus zu verstehen.
Für die Feierlichkeiten wurde unter anderem eine ehemalige Reparaturhalle für Lokomotiven zum neuen Kulturzentrum Logomo umgebaut und wurden die Wege am Fluss Aura restauriert.
2014 wurde Turku der Titel „Reformationsstadt Europas“ durch die Gemeinschaft Evangelischer Kirchen in Europa verliehen.
Sport
Bekanntester Sportverein der Stadt ist Turun Palloseura (TPS), dessen Eishockeymannschaft und Fußballmannschaft in der jeweils höchsten Liga Finnlands spielen und mehrfach den Meistertitel gewannen. Mit Inter Turku ist die Stadt zudem mit einem zweiten Verein in der ersten Fußballliga vertreten. Sowohl TPS als auch Inter tragen ihre Heimspiele im Veritas-Stadion in Kupittaa aus, das über 9000 Zuschauern Platz bietet. Die Eishockeyspiele von TPS finden in der 1990 eröffneten Multifunktionshalle HK-areena (inzwischen umbenannt in „Gatorade Center“) statt.
Daneben existiert im Sportpark Turku das Paavo-Nurmi-Stadion, das 13.000 Zuschauern Platz bietet. Benannt ist das Stadion nach dem in Turku geborenen Paavo Nurmi (1897–1973), der bei Olympischen Spielen neun Goldmedaillen in Laufwettbewerben gewann. Seit 1992 wird in Turku der Paavo-Nurmi-Marathon veranstaltet. Der Orientierungslaufverein Turun Suunnistajat feierte in den Jahren um 2000 seine größten Erfolge.
Wirtschaft
Als Verkehrsknotenpunkt ist Turku Warenumschlagsort und Verarbeitungszentrum der umliegenden, landwirtschaftlich geprägten Landesteile. Über den Seehafen und den Flughafen wird zusätzlich auch Passagierverkehr abgewickelt (siehe Verkehr).
Von diversen Werften ist in der Gegenwart nur mehr Meyer Turku OY (ehemals Wärtsilä) als Großwerft mit etwa 2000 Arbeitnehmern übrig geblieben. Diese zählt zu den weltweit führenden im Bau von Fähren und Kreuzfahrtschiffen. Mit der Icon of the Seas entsteht hier das größte Kreuzfahrtschiff der Welt.
Ein bedeutender Wirtschaftsfaktor sind auch die verschiedenen Hochschulen und Forschungseinrichtungen; so beschäftigt beispielsweise Bayer Pharma in Turku 600 Mitarbeiter, die Arzneimittel entwickeln und herstellen, und die Wärtsilä Corporation unterhält, nach dem Rückzug aus dem Schiffbau, noch eine Fortbildungsakademie in Turku.
Mit den Gründungszentren SciencePark, BioCity, PharmaCity & DataCity wird aktiv in Zukunftstechnologien investiert.
Bildung
Turku hat drei Universitäten:
Die finnischsprachige Universität Turku integrierte 2010 die Handelshochschule Turku.
Die Turku University of Applied Sciences
Die Åbo Akademi ist die einzige rein schwedischsprachige Universität Finnlands.
Auch die Schwedische Novia University of Applied Science hat Niederlassungen in Turku. Außerdem bestehen hier mehrere Berufshochschulen.
Mit den diversen Hochschulen, Akademien und forschenden Unternehmen, etwa in den Gründungszentren, ist Turku ein bedeutender Forschungsstandort Finnlands.
Verkehr
Schiff
Der Hafen von Turku liegt an der Mündung des Aurajoki in unmittelbarer Nähe der Burg von Turku. Er ist zusammen mit dem Hafen von Kotka nach Helsinki der zweitgrößte des Landes. Jährlich werden vier Millionen Tonnen Fracht umgeschlagen, und vier Millionen Passagiere passieren den Hafen. Die Fährlinien Silja Line und Viking Line verkehren täglich über Mariehamn, die Hauptstadt der autonomen Provinz Åland, nach Stockholm. Reisen mit den sogenannten „Schwedenschiffen“ (ruotsinlaiva), die an Bord Restaurants, Nachtclubs und Tax-Free-Shops bieten, sind seit langem populär. Wöchentlich bestehen Fährverbindungen nach Travemünde, Hamburg, Lübeck, Antwerpen, Harwich und Paldiski. Daneben verbinden Wasserbusse Turku mit dem vorgelagerten Schärenmeer und mit Naantali.
Die Personenfähre Föri pendelt zwischen den Ufern des Aurajoki und kann unentgeltlich genutzt werden.
Luftverkehr
Der Flughafen Turku befindet sich acht Kilometer nördlich des Stadtzentrums an der Grenze zur Nachbargemeinde Rusko. Mit 339.920 Fluggästen pro Jahr (2006) ist er der fünftgrößte Flughafen Finnlands. Der Flughafen wird hauptsächlich regional aus anderen Städten Finnlands und den Nachbarländern angeflogen; jedoch werden auch einige überregionale Routen bedient.
Bahn
An das Eisenbahnnetz ist Turku seit der Fertigstellung der Strecke Hämeenlinna–Tampere–Turku im Jahr 1876 angeschlossen. Die Küstenstrecke nach Karis wurde 1899 eröffnet und 1902 bis Helsinki verlängert. 1924 folgte die Strecke nach Uusikaupunki; sie wird nur noch für den Güterverkehr benutzt. Zwischen Turku und der Hauptstadt Helsinki verkehren jährlich etwa 1,2 Millionen Passagiere mit Hochgeschwindigkeitszügen der Baureihe VR Sm3. Heute hat Turku drei Personenbahnhöfe. Turku Hauptbahnhof verfügt über eine Verladestelle für Autoreisezüge.
Eingestellter Straßenbahnbetrieb
Bis in die Mitte des 20. Jahrhunderts verkehrte in Turku die Straßenbahn Turku, zuerst von 1890 bis 1892 als Pferdebahn, dann ab 1908 als elektrische Straßenbahn. Die Gleise wurden bis in die 1950er Jahre instand gehalten; danach begannen sie zu verfallen, bis sie 1965–1972 ganz entfernt wurden. Viele sehen das Ende der Straßenbahn als Fehlentscheidung an, da Turku damit ein funktionierendes, die ganze Innenstadt abdeckendes Verkehrssystem verlor. Heute sind von der einstigen Bahn keine Schienen mehr vorhanden. Auf dem Marktplatz im Zentrum befindet sich während des Sommers ein Eisstand mit Sitzgelegenheit in einem alten Straßenbahnwagen.
Straße
Turku ist Knotenpunkt des Straßenverkehrs in Südwestfinnland und durch eine Autobahn (Staatsstraße 1) mit der Hauptstadtregion verbunden.
Persönlichkeiten
Söhne und Töchter der Stadt
In Turku gestorben
Literatur
Philip Ward: Finnish cities: Travels in Helsinki, Turku, Tampere and Lapland (= Oleander travel books). Oleander Press, Cambridge, England / New York, N. Y., USA 1987, ISBN 0-906672-98-8.
Weblinks
offizielle Webpräsenz (finnisch, schwedisch, englisch)
Informationen zur Europäischen Kulturhauptstadt Turku 2011. In: www.turku2011.fi (finnisch, schwedisch, englisch)
Einzelnachweise
Ort mit Seehafen
Ehemaliger Residenzort
Ehemalige Hauptstadt (Finnland)
Hochschul- oder Universitätsstadt
Gegründet im 13. Jahrhundert
|
Q38511
| 420.389735 |
182817
|
https://de.wikipedia.org/wiki/Lansing
|
Lansing
|
Lansing ist die Hauptstadt des US-Bundesstaates Michigan.
Geographie
Lansing liegt im Ingham County südlich der Mitte von Michigan an der Mündung Red Cedar River in den Grand River. Die Landschaft ist flach, wenig bewaldet und von Landwirtschaft geprägt.
Lansing ist die einzige Hauptstadt innerhalb der Vereinigten Staaten, die nicht Sitz des Countys ist, in dem sie liegt.
Die Innenstadt ist schachbrettartig gegliedert, das Stadtbild ist durch einige Wolkenkratzer und ein Finanzviertel bestimmt.
Geschichte
Die Stämme der Ottawa, Potawatomi und Ojibway (Anishinabe) lebten ursprünglich im Gebiet von Lansing. Im Jahr 1847 wurde die Hauptstadt Michigans von Detroit in das wilde Landesinnere verlegt. Der Ort wurde ursprünglich Michigan, Michigan genannt und dann in Lansing, Michigan umbenannt, nach der Herkunft vieler Siedler aus Lansing, New York. Zu diesem Zeitpunkt befanden sich an dem Ort lediglich ein Blockhaus und eine Sägemühle. Nach Errichtung der Ortschaft wurden 1857 die Stadtrechte verliehen.
Ransom Eli Olds und Frank G. Clark gründeten ein Automobilwerk und bauten den ersten Oldsmobile. Das Werk existiert als General Motors’ Lansing Grand River Assembly bis heute.
Kultur und Sehenswürdigkeiten
Michigan State Capitol, errichtet 1873–1879
African World Museum
R. E. Olds Transportation Museum, mit dem ersten Oldsmobile von 1897
W.J. Beal Botanischer Garten, ältester seiner Art in den USA von 1873
Lansing ist Sitz des Bistums Lansing.
In Lansing liegt mit dem Michigan State Capitol eine National Historic Landmark. 31 Bauwerke und Stätten der Stadt sind im National Register of Historic Places (NRHP) eingetragen (Stand 6. November 2018).
Städtepartnerschaften
Akuapim, Ghana
Belmopan, Belize
Guadalajara, Mexiko
Ōtsu, Japan
Sankt Petersburg, Russland
Saltillo, Mexiko
Sanming, China
Befreundete Städte:
Cosenza, Italien
Lanzhou, China
Sakaide, Japan
Bildung
Die Michigan State University befindet sich am Red Cedar River in East Lansing.
Sie hat eines der besten Ringer-Teams in den USA.
Söhne und Töchter der Stadt
John Munroe Longyear (1850–1922), Holzbauunternehmer
Ray Stannard Baker (1870–1946), Autor und Journalist
Claude E. Cady (1878–1953), Politiker
Roy D. Chapin (1880–1936), Unternehmer und Politiker
Eric DeLamarter (1880–1953), Komponist
Carl Benton Reid (1893–1973), Schauspieler
Frederic C. Lane (1900–1984), Wirtschaftshistoriker (Republik Venedig)
Fred Alderman (1905–1998), Sprinter und Olympiasieger
Harold R. Collier (1915–2006), Politiker
Big Nick Nicholas (1922–1997), Jazzmusiker
Edward George Farhat (1924–2003), Profi-Wrestler
Bethany Beardslee (* 1927), Konzert- und Opernsängerin
Suzanne Toolan (* 1927), Lehrerin, Musikerin und Komponistin
Jonathan Farwell (* 1932), Filmschauspieler
J. Hunter Holly (1932–1982), Science-Fiction-Autorin
Tony Earl (1936–2023), Politiker
Dick Hyde (1936–2019), Jazz- und Studiomusiker
Burt Reynolds (1936–2018), Filmschauspieler
Gary Starkweather (1938–2019), Ingenieur und Erfinder
Bob Kindred (1940–2016), Jazzmusiker
Alexei Panshin (1940–2022), Science-Fiction-Autor und -Kritiker
Lebbeus Woods (1940–2012), Architekt und Hochschullehrer
Donald Keck (* 1941), Physiker und Lichtwellenleiter-Pionier
David N. Cutler (* 1942), Softwaretechniker
Susan Montgomery (* 1943), Mathematikerin
Robert Holmes Bell (1944–2023), Jurist
Robert Knapp (* 1946), Historiker
Nancy H. Rogers (* 1948), Juristin und Politikerin
Timothy Patrick Barrus (* 1950), Schriftsteller
Paul Gentilozzi (* 1950), Autorennfahrer und Rennstallbesitzer
John Hughes (1950–2009), Filmregisseur, -produzent und Drehbuchautor
Thom Hartmann (* 1951), Journalist, Autor und Radiomoderator
Andrew Beal (* 1952), Unternehmer
Steven Seagal (* 1952), Filmschauspieler
Cary Adgate (* 1953), Skirennläufer
William Malone (* 1953), Regisseur von Horrorfilmen
Barbara de Koy (* 1954), Schauspielerin
Tom Price (* 1954), Politiker
Alice Cook (* 1955), Eiskunstläuferin
Terry Date (* 1956), Musikproduzent
John Adrian Delaney (* 1956), Politiker
Timothy Busfield (* 1957), Schauspieler
Magic Johnson (* 1959), Basketballspieler
Lori Garver (* 1961), stellvertretende Leiterin der NASA
Kelly Miller (* 1963), Eishockeyspieler und -trainer
Ioannis Koufis (* 1965), amerikanisch-griechischer Eishockeyspieler
Kevin Miller (* 1965), Eishockeyspieler
Bion Tsang (* 1967), Cellist
Tim Kane (* 1968), Offizier, Ökonom und Publizist
Kip Miller (* 1969), Eishockeyspieler
Matthew Lillard (* 1970), Schauspieler
Tommie Boyd (* 1971), Footballspieler
Gretchen Whitmer (* 1971), Politikerin
Susan May Pratt (* 1974), Schauspielerin
Ryan Devlin (* 1980), Schauspieler
Lawrence Leathers (1981–2019), Jazzmusiker (Schlagzeug)
Marcus Taylor (* 1981), Basketballspieler
Corey Potter (* 1984), Eishockeyspieler
Drew Stanton (* 1984), Footballspieler
Dash Dudley (* 1986), Pokerspieler
Abigail Mason (* 1989), Theater- und Filmschauspielerin sowie Musicaldarstellerin
Ra’Shede Hageman (* 1990), Footballspieler
Josh Lambo (* 1990), Fußballspieler und American-Football-Spieler
Madison Hubbell (* 1991), Eistänzerin
Ahney Her (* 1992), Schauspielerin
Billy Strings (* 1992), Musiker
Denzel Valentine (* 1993), Basketballspieler
Taylor Moton (* 1994), Footballspieler
Chioma Onyekwere (* 1994), nigerianische Diskuswerferin und Kugelstoßerin
DeJuan Jones (* 1997), Fußballspieler
Einzelnachweise
Weblinks
https://www.lansing.org/
Hauptstadt in den Vereinigten Staaten
Ingham County
Eaton County
Gemeindegründung 1835
|
Q28237
| 156.921864 |
12907
|
https://de.wikipedia.org/wiki/Online
|
Online
|
Der Anglizismus online ([]; ) bezeichnet in der Informatik einen Zustand, in dem ein Gerät, das über eine Kommunikationsschnittstelle verfügt, bereit ist, Daten über diese Schnittstelle zu empfangen oder zu senden. Das Gegenteil davon ist offline.
Allgemeines
„Online“ leitet sich von () ab, wurde zunächst für eine aktive Telefonleitung benutzt und war ursprünglich mit „telefonisch, durch das Telefon verbunden oder am Telefon“ zu übersetzen. Heute besitzt das Wort einen anderen Begriffsinhalt und bedeutet die temporäre oder permanente Verbindung von Computern durch Telekommunikationsnetze oder eine Vernetzung mit anderen Computern oder Peripheriegeräten, insbesondere mit dem Internet.
Der Begriff „online“ ist in der wissenschaftlichen Methodenliteratur nicht eindeutig definiert. Online ist eine bestehende Verbindung zu einem Netzwerk, die verschiedene Aktivitäten ermöglicht. „Wer mit dem Internet verbunden ist und E-Mails abruft, surft, chattet oder in Newsgroups stöbert, ist online“ ist eine praxisorientierte Definition. Die Medientheorie versteht hierunter einen Arbeitsmodus in Datennetzwerken, die aus mehreren, untereinander verbundenen Computern bestehen, welche Zugriff auf das Intranet oder Internet haben.
Geräte ohne Netzanbindung werden auch als Standalone bezeichnet. In der ON/OFF-Skala kann man "online" aus Sicht von Internet-Nutzern abgestuft verstehen: Die Skala reicht von 1 (Zugang zu Online-Inhalten, ohne ans Internet angeschlossen zu sein) bis 6 (hypervernetzt). Die Abstufungen ergeben sich aus der Art des Internet-Zugangs, aus dem aktiven Interagieren mit webfähigen Geräten sowie dem Risiko, dass Daten verfolgt werden.
Die Herstellung einer online-Verbindung ist im Regelfall von einem Login begleitet, bei dem sich der Benutzer durch Benutzerkennung und/oder Passwort insbesondere bei Benutzerkonten anmelden und nach der Session wieder abmelden muss.
Rechtsfragen
Online hat sich inzwischen zum Rechtsbegriff entwickelt. So gehören Online-Verkaufsplattformen im Reiserecht zu den Vertriebsstellen im Sinne des Abs. 2 Nr. 2 BGB. Ein Zahlungsdienstnutzer ist nach Abs. 3 BGB berechtigt, einen Zahlungsauslösedienst oder einen Kontoinformationsdienst zu nutzen, es sei denn, das Zahlungskonto des Zahlungsdienstnutzers ist für diesen nicht online zugänglich. Im Strafprozessrecht ist gemäß StPO eine Online-Durchsuchung ohne Wissen des Betroffenen unter bestimmten Voraussetzungen möglich.
Verwendung
Als online wird der Status eines Benutzers verstanden, der beispielsweise über einen Instant Messenger mit dem entsprechenden Server oder Kommunikationspartner verbunden ist. Computer sind online, wenn sie über eine Datenverbindung mit anderen Computern, oft mit übergeordneten Servern, verbunden sind. Im Internet gelten Computer oder Webcams als online, wenn sie mit dem Internet verbunden sind. Bei Druckern, die an einen Computer angeschlossen sind, kann online bedeuten, dass die Verbindung zwischen Drucker und Computer hergestellt und betriebsbereit ist. In diesem Fall braucht nicht unbedingt ein Netzwerk involviert zu sein, eine direkte Verbindung z. B. via USB genügt. Bei Server-Programmen bedeutet online, dass sie über ein Netzwerk angesprochen werden können. So wird zum Beispiel ein laufender und erreichbarer Webserver als „online“ bezeichnet. Online kann gerade im technischen Bereich auch stellvertretend für „zur Laufzeit“ oder „während des Betriebs“ stehen. So können sich beispielsweise manche Dateisysteme „online“ defragmentieren oder reparieren oder Dateien online (d. h. automatisch im Hintergrund) komprimiert oder dekomprimiert werden.
Gelegentlich wird der Begriff „Online-Verarbeitung“ auch als Synonym für Dialogverarbeitung bzw. als Gegenteil von Stapelverarbeitung benutzt. Beides ist jedoch nur bedingt korrekt. Denn einerseits kann z. B. auch eine automatische Datenübertragung (-Stapeln) mit Speicherung zur späteren Weiterverarbeitung „online“ erfolgen, auch das Drucken an entfernten Druckern wäre Online-Stapelverarbeitung; andererseits werden klassische Vertreter der Dialogverarbeitung, z. B. Computerspiele und Tabellenkalkulation auch an „stand-alone“-Rechnern, also nicht „on line“ betrieben.
Als Bestimmungswort kommt es unter anderem vor in Online Banking, Online-Community, Online-Datensicherung, Online-Demonstration, Onlinedienst, Online-Forschung, Online-Journalismus, Online-Marketing, Online-Petition, Online-PR, Online-Shop, Online-Umfrage oder Online-Veranstaltung und benennt die dort mögliche Aktivität. Teilweise schildern diese Begriffe Aktivitäten, die vor den Neuen Medien bereits „offline“ vorhanden waren (wie etwa „analoge“ Umfragen, Veranstaltungen). „Online“ ermöglicht Kontakte ohne persönliche Präsenz, so etwa anstelle des Präsenzunterrichts das Homeschooling oder Besprechungen durch Videokonferenzen.
Einige Telekommunikationsunternehmen tragen den Fachbegriff im Firmennamen (America Online, T-Online, SwissOnline).
Trivia
In Glen Campbells Musiktitel „Wichita Lineman“ (Oktober 1968) ist am Schluss zu hören: „…and the Wichita lineman is still on the line…“. Hiermit ist die Überlandleitung gemeint, die durch einen „lineman“ () überwacht und gewartet wird.
Weblinks
Einzelnachweise
Internet
Rechnernetze
Englische Phrase
zh:在线和离线
|
Q73368
| 299.642906 |
437698
|
https://de.wikipedia.org/wiki/Stirn
|
Stirn
|
Mit Stirn (Plural Stirnen, ; auch Vorhaupt oder Vorderhaupt) wird der über den Augen liegende Teil des Gesichts von Menschen, Säugetieren und anderen Tieren bezeichnet. Die entsprechende Kopfregion wird als Regio frontalis bezeichnet.
Die Stirn beginnt beim Menschen über den Augenhöhlen und endet am Haaransatz. Seitlich wird sie von den Schläfen begrenzt. Die knöcherne Grundlage der Stirn nennt man Stirnbein (Os frontale), in der sich die paarige Stirnhöhle (auch Stirnbeinhöhle, Sinus frontalis), eine Nebenhöhle der Nase befindet.
Beim sogenannten Stirnrunzeln bilden sich Falten auf der Stirn, die im höheren Alter immer deutlicher hervortreten. Diese Bewegung der Stirnhaut wird durch einen mimischen Muskel, den Musculus frontalis ermöglicht. Manche Menschen versuchen, aus den Faltenlinien der Stirn Rückschlüsse auf den Menschen zu ziehen (→ Metoposkopie).
Redewendungen
einer Sache die Stirn bieten = unerschrocken einer Sache entgegentreten
er hat die Stirn, zu behaupten... = er ist so dreist (unverschämt) zu behaupten...
eine hohe Stirn haben = scherzhaft für: eine Glatze haben
in Schillers „Lied von der Glocke“ lautet eine vielzitierte Zeile: „Von der Stirne heiß, rinnen muß der Schweiß“
etwas mit eisener Stirn tun = unerschütterlich; unerbittlich
In manchen Kulturkreisen besonders in Indien wird die Stirn der Frau, manchmal auch die des Mannes, mit einer Bemalung, einem Bindi, versehen.
Als Stirn oder auch Stirnseite wird oft die Frontseite oder die Vorderseite eines Gegenstandes oder eines Gebäudes bezeichnet.
Siehe auch
Bagelhead
Weblinks
Kopf
Körperregion
|
Q41055
| 108.22209 |
16360
|
https://de.wikipedia.org/wiki/Neologismus
|
Neologismus
|
Ein Neologismus (von , „neu“ und , „Wort“ oder „Rede“) ist eine innerhalb einer Sprachgemeinschaft in den allgemeinen Gebrauch übergegangene sprachliche Neuprägung, das heißt:
ein neu geschaffener sprachlicher Ausdruck, also ein Wort (Neuwort) oder eine Wendung (genauer: eine lexikalische Einheit siehe Lexem) oder
eine neue Bedeutung, mit der ein bereits vorhandenes Wort bzw. ein ebensolcher Ausdruck versehen wird (Neubedeutung), oder auch das Wort bzw. der Ausdruck selbst, dem die Neubedeutung zukommt.
Wenn es in der Sprachgemeinschaft Verbreitung findet, findet es Eingang in die Wörterbücher, die den Wortschatz dieser Sprache kodifizieren. Charakteristisch für Neologismen ist, dass die Sprecher sie für eine gewisse Zeit als neu empfinden. Welche Wörter (noch) Neologismen sind, hängt also auch von dem Zeitpunkt ab, zu dem der Wortschatz einer Sprache betrachtet oder untersucht wird. Neben den in allgemeinsprachlichen Standardwörterbüchern erfassten Neologismen gibt es für viele Sprachen auch Spezialwörterbücher, die ausschließlich diesen Teil des Wortschatzes behandeln.
Dem Ausdruck Neologismus liegen die altgriechischen Wörter „neu“ und „Wort“ zugrunde; auf Deutsch könnte man daher auch mit Neuwort oder neues Wort wiedergeben.
Zur Problematik des Begriffs
Neologismen entstehen zumeist über Wortbildung, aber auch über Entlehnung, Bedeutungsveränderung oder, selten, Urschöpfung/Kunstwortbildung. Die Verwendung des Begriffs Neologismus ist in der Linguistik nicht ganz einheitlich.
Hadumod Bußmann definiert ihn als „neu eingeführten oder neuartig gebrauchten sprachlichen Ausdruck“. Solche Wörter kommen durch Wortbildung, Entlehnung oder Bedeutungsübertragung zustande. Lediglich für die Neurolinguistik wird ein Verständnis des Begriffs im Sinne von Neuschöpfung oder Urschöpfung eingeräumt.
Helmut Glück setzt Neologismus zwar mit Neuschöpfung gleich, insofern das von ihm herausgegebene Lexikon unter dem Lemma „Wortneuschöpfung“ auf den Eintrag Neologismus verweist; die dort angeführten Beispiele sind aber ausschließlich Fälle von Wortbildung, Entlehnung oder Bedeutungsübertragung. Die linguistische Tradition unterscheidet hingegen spätestens seit dem Ende des 19. Jahrhunderts zwischen „Wortschöpfung/Urschöpfung“ „Wortbildung“.
Abgrenzung
Sprecher lebender Sprachen erfinden unentwegt neue Wörter, um spontan entstehende Benennungslücken schließen oder stilistische respektive emotionale Aspekte sprachlich zu realisieren. Die Anwendung der meisten davon bleibt auf den situativen Kontext beschränkt, in dem sie zur Erfüllung eines spezifischen denotativen oder konnotativen Zwecks entstehen. Diese Gelegenheitsbildungen (Okkasionalismen) werden nicht lexikographisch erfasst, bilden aber das Anfangsstadium jedes neuen Wortes. Gerade dieses Anfangsstadium ist für die Mechanismen der Wortschatzerweiterung äußerst aussagekräftig, da unterschiedliche Varietäten unterschiedlich kreativ sind und unterschiedliche Voraussetzungen für eine mögliche Etablierung bieten. Denn die Absicht, ein fehlende bereits etablierte Wörter durch Okkasionalismen zu ersetzen, stellt nur eine von vielen möglichen Erklärungen für deren Entstehung dar. Oft spielen ludische, sprachökonomische oder klangsymbolische Faktoren, die etwa zu Kunstwörtern (Urschöpfungen) führen, wie im Fall von Kodak, mit hinein. Neologismen dienen in der Regel einem bestimmten kommunikativen Zweck. Die Mechanismen, vermöge deren manche von ihnen sich lange genug erhalten, um schließlich lexikographische Berücksichtigung finden, sind noch nicht vollständig bekannt. Die Kriterien der Aufnahme in Lexika bedeuten für die Kodifizierung von Neologismen eine zusätzliche Restriktion, denn Namen und viele Komposita sind grundsätzlich nicht Gegenstand der Lexikographie. So sind viele Neologismen längere Zeit in Gebrauch, ohne in die Wörterbücher aufgenommen zu werden, bspw. Knödelstimme und Knopfaugen. Die Aufnahme in ein Lexikon kann darum nur bedingt als Hinweis auf die Neuartigkeit eines Wortes gelten.
Wörter, die aus einer anderen Sprache entlehnt sind (beispielsweise downloaden aus dem Englischen) und in den allgemeinen Sprachgebrauch übergehen, werden gemeinhin so lange zu den Neologismen gezählt, wie sie sich noch nicht im Lexikon etabliert haben.
Die Lexik einer lebenden Sprache ist ein komplexes Gebilde aus allgemeinsprachlichen, fachsprachlichen und gruppensprachlichen Wörtern. Allgemeinsprachliche Wörterbücher erfassen nur den Kernbereich der Lexik, den die Alltagssprache verwendet. Gelegentlich kommt es vor, dass Wörter, die in einer Fachsprache schon lange zuvor gebräuchlich gewesen sind, in die Alltagssprache vordringen. Das gilt zum Beispiel für die Fachsprachen technischer Schlüsselbereiche wie der Informationstechnik und der Telekommunikation. Wörter, die in der jeweiligen Fachsprache bereits vor ihrem Übergang in den allgemeinen Sprachgebrauch usuell gewesen sind, werden nicht als Neologismen betrachtet. Besonders zahlreich, allerdings oft auch ephemer sind die Neubildungen im Jargon der Jugendlichen.
In der Praxis der Lexikographie ist die Abgrenzung zwischen Neologismen einerseits und Okkasionalismen, wiederbelebten Archaismen und Fachwörtern andererseits recht schwierig. Besonders Textkorpora, die den aktuellen Sprachgebrauch dokumentieren, leisten bei der Erfassung und Beschreibung von Neologismen nützliche Dienste. In der Lexikologie wird auf die Abgrenzung verzichtet, da sie objektiv nicht möglich ist und da gerade seltene neue Wörter für soziolinguistische und kognitionslinguistische Fragestellungen wichtig sind und in der Praxis, etwa bei Übersetzungen und im DaF-Unterricht, durchaus eine Rolle spielen.
Die Psychiatrie misst Neologismen (vgl. Paraphasie) beim Erheben des psychopathologischen Befunds im Zusammenhang mit Erkrankungen wie der Schizophrenie spezifischere Bedeutung zu als dem linguistischen Verständnis.
Typen von Neologismen
Folgende Arten von Neologismen lassen sich unterscheiden:
Neue sprachliche Ausdrücke und Neuwörter
Ausdruck und Bedeutung sind neu. Ein Beispiel für ein Neuwort ist das Verb simsen aus SMS für das Versenden von Kurznachrichten.
Neubedeutungen
Ein alter Ausdruck erhält eine neue (weitere) Bedeutung. So steht als ein etwas älteres Beispiel Maus auch für die Computermaus, ein „technisches Gerät, Teil der Computerperipherie“.
Ein Ausdruck erhält eine neue Bedeutung mit einem abwertenden oder aufwertenden Sinnbezug. Zum Beispiel erhält ein Ausdruck mit einem ursprünglich positiven Sinnbezug eine pejorative Bedeutung und findet als Schlagwort Verwendung. Es kann sich dabei z. B. um einen politischen und/oder ideologischen Kampfbegriff gegen unterschiedliche sprachliche Konventionen und Verhaltensweisen handeln. Beispiele dafür sind Gutmensch oder Politische Korrektheit.
Neue Wortkombinationen
Hier ist das Zusammenziehen von gebräuchlichen Wörtern (Internetcafé, Laptop-Tasche, auch als Retronym: Analoguhr) von metaphorischen Neubildungen zu unterscheiden. Bei letzteren entscheidet für die Verwendung nicht die tatsächliche Bedeutung, sondern eine charakteristische Eigenschaft. Beispiele dafür sind Modezar, Literaturpapst, Börsenzwerg, Wirtschaftsauguren oder Erzeinwohner, aber auch Geizhals.
Neologismen und Sprachnorm
Wenn ein neues Wort in Gebrauch kommt, haben Sprecher oft Normunsicherheiten.
Die Aussprache wird erst im täglichen Gebrauch gesichert. Besonders bei Lehnwörtern tritt oft, aber nicht immer, ein Anpassungsprozess ein, bei dem die Aussprache dem Phonemsystem der entlehnenden Sprache angepasst wird. Ein Beispiel ist Download, das sich von // nach // entwickelt.
Die Flexion kann angepasst oder originär sein. Heißt es des Piercing oder des Piercings? Heißt es im Plural die PC oder die PCs?
Es kann Mehrdeutigkeit auftreten; so wird „der Download“ sowohl für den Ladevorgang als auch für herunterzuladende oder bereits heruntergeladene Dateien verwendet.
Das Genus ist oft nicht eindeutig. Heißt es der Blog oder das Blog?
Die Rechtschreibung ist ungeklärt. Schreibt man Spinoff, Spin-off oder Spin-Off?
Oft muss sich eine Norm erst etablieren. Dies gilt zum Beispiel für das Genus von Lehnwörtern aus dem Englischen, wo das Genussystem nur schwach ausgeprägt ist. Sprecher, die ein Neuwort verwenden, signalisieren manchmal, dass sie das entsprechende Wort noch nicht als Teil der Sprachnorm akzeptieren. Häufig dafür verwendete Mittel sind Anführungszeichen oder abgrenzende Ausdrücke: „Der ‚Break-even‘ sei noch nicht erreicht“, „der sogenannte Break-even“ oder „wie man heutzutage sagt, der Break-even“.
Über den Wert von Neologismen
Nicht immer besteht die Hauptfunktion eines Neologismus darin, einen neuen Sachverhalt zu bezeichnen. Mit der Verwendung von Neologismen möchte man oft etwas verdeutlichen: Zugehörigkeit zu einer bestimmten Gruppe, Modernität oder einfach nur Aufmerksamkeit erregen (Beispiel: „Entschleunigung“ statt „Verlangsamung“). Diese pragmatischen Funktionen sind die Ursache dafür, dass vor allem die Sprache der Werbung Neuwörter verwendet. Die Signalfunktion neuer Wörter wird soweit ausgereizt, dass man gegen grammatische Regeln verstößt (unkaputtbar, hier werden Sie geholfen).
Rudolf Merta unterschied 1966 zwischen „wirklichen Neologismen“ und den „Mode- und Schlagwörtern“, die der Sprache Gewalt antäten und allmählich ihre Ausdruckskraft verlören.
Der Linguist Wilhelm Bondzio stellte die These auf, dass Neologismen am zweckmäßigsten seien, wenn sie durch ihren Wortstamm Merkhilfen böten.
Neologismen haben auch kulturellen Wert. Durch Wortneuschöpfungen können Denkanstöße und Neuassoziationen gefördert werden. Die zeitgenössische Kunstrichtung expressiver Neologismus (kurz auch als neolog bezeichnet) befasst sich auf kritische Art mit der Sprache als Massenmedium und Beeinflussungsinstrument.
Neologismen werden auch als ersetzende Bezeichnungen verwendet, wenn dem Bezeichneten eine andere Wertung oder ein anderes Ansehen gegeben werden soll. Beispiel für eine solche Sprachpolitik ist die Deutsche Bahn AG: Aus Schaffner wird Zugbegleiter, der Schalter wird zum und neuerdings zum .
Zugleich entzündet sich an Neologismen als Symptom oft ein sprachkritischer Diskurs. Konservative Sprachkritiker machen an Neologismen, und vor allem an Lehnwörtern, einen von ihnen behaupteten Verfall der Sprache fest. Andererseits wird mit den Neologismen ebenfalls die Wandlungsfähigkeit einer Sprache und ihre Fähigkeit belegt, die den sich ständig wandelnden Benennungsanforderungen gerecht wird.
Neologismen sind auch ein häufiges Instrument von Propaganda. Beispielhaft dafür die 1942 erstmals verwendete Bezeichnung gesetzloser Kämpfer () zur Einführung einer Klassifizierung von Kriegsgefangenen, die das Völkerrecht umgeht. Weitere Beispiele sind das internationale Finanzjudentum, Islamo-Faschismus, sozialbehinderte Jungmigranten.
Herkunft von Neuwörtern
Eine Quelle von Neologismen ist die Entlehnung aus anderen Sprachen (Buzzer, Cache, Edutainment). Auch können vorhandene Lexeme in veränderter Bedeutung genutzt werden (Opfer (Beleidigung), Ampel (Kennzeichen auf Verpackungen für mehr oder weniger gesunde Lebensmittel)). Viele Neologismen entstehen über Wortbildung, wobei alle produktiven Verfahren genutzt werden (Coronakrise, aufpoppen, ADHS, containern, riestern). Selten werden neue Wörter ohne morphologische Struktur geschaffen (Zalando).
Ein Sprachsystem stellt eine ganze Reihe von Mitteln für die Neuwortbildung bereit:
Komposition
Die Zusammensetzung neuer Wörter aus existierenden ist im Deutschen der produktivste Wortbildungsprozess und entsprechend eine ergiebige Quelle für Neologismen (Dosenpfand, Genmais).
Derivation
Die Ableitung mittels Affixen (insbesondere Präfixe oder Suffixe) ist ebenfalls eine ergiebige Quelle. Dabei können Affixe selber Neuprägungen sein (beispielsweise Cyber-) und eine größere Gruppe von Neuwörtern prägen (Cyberpunk, Cyberkriminalität; ergoogeln).
Kurzwörter
sind ein wichtiges Mittel sprachlicher Ökonomie. Sie entstehen aus Teilen von Wörtern oder Wortgruppenlexemen. Solange sich ihr Gebrauch noch nicht verfestigt hat, sind es Neologismen (ALG/Arbeitslosengeld, ADS/Aufmerksamkeitsdefizitstörung).
Kontamination
Portmanteauwörter werden durch Zusammenziehungen aus dem ersten Teil eines Wortes und dem zweiten Teil eines zweiten Wortes gebildet, Beispiel: education + entertainment → Edutainment. Solche Zusammenziehungen sind im Deutschen selten, sie werden meist aus anderen Sprachen entlehnt.
Konversion
Die Verwendung eines Wortes als neue Wortart ist eine weitere Methode, neue Wörter zu schaffen (riestern zu Riester).
Verballhornung
Bei Verballhornungen bilden sich neue Worte durch bewusste Verzerrung. Beispiel: „Nervenkostüm“ statt „Nervensystem“, „nichtsdestotrotz“ statt „nichtsdestoweniger“ oder „trotzdem“.
Mechanismen
Ein typischer Fall für ein neu entstehendes Wort ist, dass ein Wort durch ein anderes ersetzt wird. Oft geschieht dies aus Gründen des Marketing oder der politischen Korrektheit – insbesondere als Euphemismus, also um ein negativ belegtes Wort (Pejorativ) durch ein positiv klingendes Wort zu ersetzen („eine Ehrenrunde drehen“ statt „sitzen bleiben“).
Manche Wörter unterliegen zudem einer „sprachlichen Inflation“ (Abnutzung, vergleiche dazu Euphemismus-Tretmühle), und Neuschöpfungen oder die Verwendung außergewöhnlicher Bezeichnungen dienen dazu, den Sensationswert zu steigern und Aufmerksamkeit zu erregen. Beispiele aus der Werbung: Technologie, wo eigentlich Technik oder Methode/Verfahren gemeint ist, Zahncreme anstelle der gewöhnlichen Zahnpasta oder exklusive Schreibweise Cigaretten.
Ursache ist häufig, dass neue Trends und Entwicklungen – heute meist aus dem englischsprachigen Raum – zu uns gelangen (Kulturdominanz) und die Szene oder das Fachpublikum die zugehörigen Begriffe (Xenismen) unreflektiert auch im deutschen Kontext verwendet oder eine weniger gelungene Übertragung vornimmt. Das geschieht sogar, wenn es einen synonymen Begriff bereits gibt, eventuell gerade in der Absicht, den Benutzer neudeutscher Wörter als Insider durch Nutzung der Szenesprache (Jargon) auszuweisen.
Das Wort Neudeutsch selbst kann als Beispiel dafür dienen: Es ist eine Neuschöpfung in Analogie zu Neusprech (englisch: Newspeak) aus dem Roman 1984 von George Orwell. Die Verwendung des Wortes impliziert zumindest eine kritische Distanz des Verwenders gegenüber Neologismen und das Bewusstsein um die „Macht der Sprache“, soll ihn also als einer gebildeten und aufmerksamen, wertebewussten Schicht zugehörig auszeichnen.
Im Unterschied dazu stehen Fremdwörter, die sich durchsetzen, weil kein angemessener deutscher Begriff verfügbar ist. Sie dienen oft zunächst der präzisen Ausdrucksweise in Fachkreisen, verbreiten sich dann teilweise in das gehobene Allgemeinwissen, bis einige schließlich im alltäglichen Sprachgebrauch ankommen und nicht mehr als fremd empfunden werden.
Nicht nur Fremdes, auch regionale Unterschiede können über den Jargon der Massenmedien in das Standarddeutsch eingehen. Ein Beispiel sind autochthone Varianten, die sich in den Jahren der Teilung Deutschlands in der Mitte des 20. Jahrhunderts unterschiedlich entwickelt haben, wie Goldbroiler und Brathähnchen.
Beispiele
Blog, Vlog, abgeleitet von web-log bzw. video-log (engl. für Internet-/Video-Tagebuch) – häufig aktualisierte Webseite.
Folksonomy, kollaborative Praxis und (Selbst-)Organisationsform von Menschen (etwa in der Arbeit von Wikipedia).
Gendersternchen, bezeichnet eine Methode der geschlechtergerechten Sprache in der schriftlichen Form des Deutschen.
Islamophobie, Feindseligkeit gegen und kategorische Abwertung und Benachteiligung von Muslimen.
Listicle, ein journalistischer Text in Aufzählungsform.
Mansplaining ist ein substantivisches Portmanteauwort aus man (englisch: Mann) und -splaining (von explaining= ‚erklären‘), das 2015 Eingang in die deutsche Sprache gefunden hat.
Menschenmaterial, Koppelung von Lebendig-Menschlichem und toter Sache.
Podcast, zusammengesetzt aus Apples „iPod“ und broadcast (engl. ‚Sendung‘): Eine Sendung, die man nachträglich anhören kann, indem man diese aus dem Internet herunterlädt.
sitt, als Anlehnung an satt: nicht mehr durstig, im Rahmen eines Wettbewerbs zur Suche eines entsprechenden Wortes erfunden.
Neologismen bei gesellschaftlichen und politischen Veränderungen
Gesellschaftliche Veränderungen, die eine politische Legitimation benötigen, führten oft zur Neuschöpfung von Wörtern. Beispielhaft dafür sind Neologismen aus der Zeit des Kolonialismus, der Entwicklung von Rassetheorien und einer sogenannten „Afrikaterminologie“. Hier war Sprache ein wichtiges Medium zur Herstellung und Vermittlung des Legitimationsmythos, Afrika sei das homogene und unterlegene »Andere« und bedürfe daher der »Zivilisierung« durch Europa. Dieser Ansatz schlug sich in einer kolonialen – die afrikanischen Eigenbezeichnungen ignorierenden und vermeidenden – Benennungspraxis nieder, für gegenwärtige europäische Gesellschaften gültige Begriffe auf den afrikanischen Kontext zu übertragen.
Siehe auch
Kunstwort
Phono-semantische Angleichung
Sprachnorm
Sprachregelung
Sprachmanipulation
Sprachgebrauch in der DDR
Morphologie (Linguistik) #Kontamination (Blending)
Literatur
Wörterbücher
John Algeo: Fifty years among the new words: a dictionary of neologisms, 1941–1991. CUP, Cambridge 1991, ISBN 0-521-41377-X.
Alfred Heberth: Neue Wörter. Neologismen in der deutschen Sprache seit 1945. Verlag der Wissenschaften, Wien 1977.
Dieter Herberg, Michael Kinne, Doris Steffens: Neuer Wortschatz. Neologismen der 90er Jahre im Deutschen. Walter de Gruyter, Berlin 2004, ISBN 3-11-017751-X.
Susan Arndt, Antje Hornscheidt (Hrsg.): Afrika und die deutsche Sprache. Ein kritisches Nachschlagewerk. Unrast Verlag, Münster 2005, ISBN 3-89771-424-8.
Uwe Quasthoff (Hrsg.): Deutsches Neologismenwörterbuch. Neue Wörter und Wortbedeutungen in der Gegenwartssprache. De Gruyter, Berlin 2007, ISBN 978-3-11-018868-4.
Doris Steffens, Doris al-Wadi: Neuer Wortschatz. Neologismen im Deutschen 2001–2010. 2 Bände. Institut für Deutsche Sprache, Mannheim 2013, ISBN 978-3-937241-43-2.
Doris Steffens, Olga Nikitina: Deutsch-russisches Neologismenwörterbuch. Neuer Wortschatz im Deutschen 1991–2010. 2 Bände. Institut für Deutsche Sprache, Mannheim 2014, ISBN 978-3-937241-47-0.
Darstellungen
Robert Barnhart, Clarence Barnhart: The Dictionary of Neologisms. In: Franz J. Hausmann (Hrsg.): Wörterbücher, Dictionaries, Dictionnaires. Ein internationales Handbuch zur Lexikographie. De Gruyter, Berlin
Teilband 2, 1990, ISBN 3-11-012420-3, S. 1159–1166
Sandra Innerwinkler: Neologismen. Universitätsverlag Winter, Heidelberg 2015, ISBN 978-3-8253-7511-9.
1975 bis 1983: Neue Wörter und ihre Bedeutungen. In: Meyers Großes Jahreslexikon (jeweils unter dem Stichwort „Wort“).
Wolfgang Müller: Neue Wörter und neue Wortbedeutungen in der deutschen Gegenwartssprache. In: Universitas 8/1976, S. 867–873.
1994 bis 2005: Neue Wörter. In: Brockhaus Enzyklopädie Jahrbuch (jeweils unter dem Stichwort „Wort“).
Wolfgang Müller: „Schlammschlacht“. Schon gehört? Ein Desiderat: Das deutsche Neologismenwörterbuch. In: Sprache und Literatur in Wissenschaft und Unterricht 60/1987, S. 82–90.
Doris Steffens: Von „Aquajogging“ bis „Zickenalarm“. Neuer Wortschatz im Deutschen seit den 90er Jahren im Spiegel des ersten größeren Neologismenwörterbuches. In: Der Sprachdienst 51, H. 4, 2007, S. 146–159.
Wolfgang Teubert (Hrsg.): Neologie und Korpus. Narr, Tübingen 1990, ISBN 3-8233-5141-9 (Studien zur deutschen Sprache 11).
Oliver Siebold: Wort – Genre – Text. Wortneubildungen in der Science Fiction. Narr, Tübingen 2000, ISBN 3-8233-5850-2.
Corinna Peschel: Zum Zusammenhang von Wortneubildung und Textkonstitution. Niemeyer, Tübingen 2002, ISBN 3-484-31237-8.
Hilke Elsen: Phantastische Namen. Die Namen in Science Fiction und Fantasy zwischen Arbitrarität und Wortbildung. Narr, Tübingen 2008, ISBN 978-3-8233-6396-5.
Linda Holz: Untersuchungen zu Neologismen in der Tagespresse. Grundlagen, Erscheinungsformen und Funktionen. Saarbrücken 2009, ISBN 978-3-639-12220-6.
Hilke Elsen: Neologismen. Formen und Funktionen neuer Wörter in verschiedenen Varietäten des Deutschen. 2., überarbeitete Auflage. Narr, Tübingen 2011, ISBN 978-3-8233-6646-1.
Sabine Heyne, Bastian A. Vollmer: Innovation und Persuasion in der Presse. Eine komparative Korpusanalyse zur Form und Funktion von Neologismen. Springer, Wiesbaden 2016, ISBN 978-3-658-10851-9.
Weblinks
Neologismenwörterbuch im Wörterbuchportal OWID des Instituts für Deutsche Sprache
Die Wortwarte – Eine private Sammlung von Neologismen
Einzelnachweise
Anmerkungen
Sprachwandel
|
Q130989
| 270.324733 |
20514
|
https://de.wikipedia.org/wiki/Tempel
|
Tempel
|
Tempel (über althochdeutsch tëmpal, ‚Heiligtum‘, mit anderen christlichen Wörtern entlehnt von lateinisch templum) ist die deutsche Bezeichnung von Gebäuden, die seit dem Neolithikum in vielen Religionen als Heiligtum dienten. Die ältesten Bauten, auf die die Bezeichnung direkt angewendet wird, sind die Tempel von Göbekli Tepe (ab ca. 9600 v. Chr.) und die maltesischen Tempel (ab 3800 v. Chr.).
Von der Grundbedeutung des Wortes ausgehend ist lateinisch templum (in der etruskischen und römischen Religion) zunächst nichts anderes als ein vom Bereich des Profanen abgegrenzter Bezirk, in dem Auguren die Beobachtung und Deutung des Vogelfluges und anderer Zeichen ausübten. In der altgriechischen Religion war der Tempel der Aufbewahrungsort für das Götterbild, während die Gottesverehrung und das rituelle Opfer im Freien, am Altar, der sich ebenfalls innerhalb des Temenos genannten heiligen Bezirks befand, stattfanden.
Der Tempel ist auf vielfältige Weise in das Religionssystem eingebunden. Der visuelle Aspekt steht anfangs noch nicht im Vordergrund. Der Tempel ist der Ort, an dem rituelle Handlungen für oder durch die Gläubigen (eher durch die in ihrem Auftrag Handelnden) ausgeführt werden. In manchen Kulturen repräsentiert der Tempel den Kosmos schlechthin. Tempel werden oftmals als Aufenthaltsort der Götter aufgefasst. Stellt man sich den Berg als Sitz der Götter vor (Olymp), so ist unter Umständen auch der Tempel als Berg (Pyramide, Ziggurat) konzipiert. Es kommt schließlich zur Vorstellung eines häuslichen Lebens der Götter, das dem der Menschen entspricht, z. B. Tagesabläufe mit Weckung, Toilette, Speisung. Der sakrale Bezirk ist immer vom profanen Raum getrennt; der Tempel kann bestimmten Göttern vorbehalten oder in verschiedene Bereiche aufgeteilt sein.
In vielen Stadtkulturen ist der Tempel das zentrale Bauwerk und prägt die Siedlung. Neben der religiösen Bedeutung des Tempels ist, besonders in Hochkulturen, auch die wirtschaftliche nicht zu unterschätzen. Auch die Bildungseinrichtungen sind häufig an den Tempel gebunden.
Ägyptische Tempel
Zu den ältesten steinernen Tempelbauten gehören die nur teilweise erhaltenen Totentempel der Ägypter, die in der Frühzeit vielerorts an die Grabbauten der Pharaonen (Mastabas und Pyramiden) gebunden waren; später lösten sich viele Tempel aus der Bindung an den Pharaonenkult und bildeten eigenständige, aus mehreren hintereinander liegenden und von riesigen Pylonen unterteilte Baukomplexe – so der riesige, über einen langen Zeitraum erbaute und dem Gott Amun-Re geweihte Karnak-Tempel bei Luxor. Im Tal der Könige finden sich nur noch Grabstätten, aber keine religiösen Bauwerke mehr; bedeutende Ausnahmen stellen jedoch die Totentempel aus der dem Tal der Könige gegenüberliegenden Nekropole von Deir el-Bahari dar, allen voran der Totentempel der Hatschepsut († um 1450 v. Chr.).
Tempel in Mesopotamien
Eine wichtige Bauform der mesopotamischen Tempel war die Zikkurat. Es war ein Tempelturm in Form einer Stufenpyramide, wobei sich das Allerheiligste auf der obersten Plattform befand. Zumindest auf einigen Zikkuraten wurde nach der Überlieferung hier die Heilige Hochzeit zwischen dem König und einer Priesterin als Vertreterin der Stadtgöttin vollzogen.
Die israelitischen Heiligtümer
Die Hebräer besaßen jeweils nur ein einziges offizielles Heiligtum zur gleichen Zeit, obgleich es weitere untergeordnete Heiligtümer gab. Das älteste israelitische Heiligtum war der Mischkan bzw. die Stiftshütte, auch „Zelt der Zusammenkunft“ (hebr. אֹהֶל מוֹעֵד, ohel mo'ed) genannt, von dem in der Hebräischen Bibel berichtet wird. Als erster Steinbau wurde um 950 v. Chr. der salomonische Tempel errichtet. Nach seiner Zerstörung durch Nebukadnezar II. im Jahr 586 v. Chr. wurde durch Serubbabel bis 515 v. Chr. der Zweite Tempel errichtet. Nach seiner Umgestaltung und Erweiterung durch Herodes den Großen wurde er auch herodianischer Tempel genannt. Die Tempel des Judentums unterschieden sich von den Tempeln des klassischen Altertums, große Vorhöfe mit Brandopferaltar und ein vielgliedriges Tempelgebäude mit mehrgeschossigen Zimmerfluchten waren ihr Kennzeichen. Der herodianische Tempel auf dem Tempelberg zu Jerusalem wurde im Jahr 70 nach Christi Geburt in der Regierungszeit des Kaisers Vespasian von den Römern zerstört. Heute erheben sich auf dem Tempelberg der moslemische Felsendom mit seiner goldenen Kuppel und die Al-Aqsa-Moschee.
Aus der Barockzeit stammt ein mehr als 12 m² großes Holzmodell des Salomonischen Tempels, das von 1680 bis 1692 in Dresden gebaut wurde. Seit dem Jahre 1734 wurde es im Wallpavillon des Dresdner Zwingers zusammen mit anderen Judaica ausgestellt und war dort bis in die 1830er Jahre zu sehen. Es erreichte über verschiedene Umwege etwa Ende des 19. Jahrhunderts Hamburg und steht heute im Museum für Hamburgische Geschichte. Zu diesem Modell gaben Michael Korey und Thomas Ketelsen im Jahre 2010 im Deutschen Kunstverlag einen Band mit dem Titel Fragmente der Erinnerung. Der Tempel Salomons im Dresdner Zwinger heraus.
Seit dem 19. Jahrhundert wurden Reformsynagogen häufig Tempel genannt. Der erste Tempel dieser Art war der Israelitische Tempel in Hamburg. Die Orientierung auf den Tempel in Jerusalem wurde umgedeutet auf den Tempel vor Ort.
Tempel der Griechen
Der griechische Tempel ( – Wohnung, inhaltlich nicht gleichzusetzen mit dem lateinischen templum – Tempel) ist ursprünglich das Kultbild bergende Gebäude eines griechischen Heiligtums. Er diente im Allgemeinen nicht dem Kult, da die Gottesverehrung ebenso wie Opfer im Freien stattfand, konnte aber Weihgeschenke oder Kultgerät aufnehmen. Der Tempel war also kein zwingend erforderlicher Bestandteil eines griechischen Heiligtums. Er ist der bedeutsamste und am weitesten verbreitete Gebäudetypus der griechischen Baukunst.
Innerhalb weniger Jahrhunderte entwickelten die Griechen den Tempel von den kleinen Lehmziegelbauten des 9. und 8. Jahrhunderts v. Chr. zu monumentalen Bauten mit doppelten Säulenhallen des 6. Jahrhunderts v. Chr., die ohne Dach leicht über 20 m Höhe erreichten. Für die Gestaltung griffen sie hierbei auf die landschaftlich geprägten Bauglieder der dorischen und der ionischen Ordnung zurück, zu denen ab dem späten 3. Jahrhundert v. Chr. die korinthische Ordnung trat. Eine Vielzahl unterschiedlicher Grundrissmöglichkeiten wurde entwickelt und mit den verschiedenen Ordnungen der aufgehenden Architektur kombiniert. Ab dem 3. Jahrhundert v. Chr. ließ der Bau großer Tempel nach, um nach einer kurzen letzten Blüte im 2. Jahrhundert v. Chr. vollständig zum Erliegen zu kommen. Der griechische Tempel wurde nach festen Regeln entworfen und gebaut, deren wichtigste Bezugsgrößen der untere Durchmesser der Säulen oder die Maße des Fundamentes sein konnten. Optische Verfeinerungen lösten die Starre der sich so ergebenden fast mathematischen Gestaltungsgrundlagen. Entgegen heute immer noch verbreiteter Vorstellung waren die griechischen Tempel bemalt, wobei satte Rot- und Blautöne neben das dominierende Weiß traten. Überaus reich war bei aufwendig gestalteten Tempeln der figürliche Schmuck in Form von Reliefs und Giebelfiguren. In der Regel wurden die Bauten von Städten und Heiligtumsverwaltungen beauftragt und finanziert, doch konnten auch Einzelpersonen, meist hellenistische Herrscher, als Bauherren und Stifter auftreten.
Tempel der Römer
Der Begriff Tempel ist eine direkte Entlehnung aus dem Lateinischen. Templum stellt sich zum griechischen Verbum τέμνω (= schneiden) oder zum indogermanischen *temp- (spannen, strecken). Ursprünglich bezeichnete Templum jenen Bereich, den der Augur aus der natürlichen Topographie „herausschnitt“ oder „umspannte“, um in diesem Bereich seine Beobachtungen zu machen. Nur dasjenige wurde als Auspizien gedeutet und zum göttlichen Zeichen erhoben, was in diesem Bereich, eben im Templum, geschah. Diese Tätigkeit des Auguren nannte man „contemplatio“, woher sich der Begriff der Kontemplation, die verinnerlichte Betrachtung, ableitet. Die Entwicklung zum Gebäude verlief vermutlich dergestalt, dass ein solches Fanum, also Heiligtum, später materiell vom „Profanen“, also der sich außerhalb des Heiligtums befindenden Welt, abgetrennt wurde. Immerhin galten die Zeichen als Manifestationen eines Gottes, und damit beanspruchte dieser Gott dann das Areal für sich.
Im römischen Sakralbau vermischen sich etruskische und griechische Einflüsse. Die etruskischen Tempel erheben sich auf einem hohen Sockel als Unterbau und setzen sich somit deutlich von der Umgebung ab. Sie sind richtungsbezogen und haben einen rechteckigen Grundriss. Eine Freitreppe an der Schmalseite führt in die Vorhalle, eine offene Säulenhalle, die vor der oft dreiteiligen Cella, dem Innenraum, liegt. Das Ganze wird von einem flachen Satteldach mit Tonziegeln abgedeckt.
Die römischen Tempel übernehmen die etruskischen Vorbilder, griechische Einflüsse werden aber im Laufe der Zeit – vor allem nach der römischen Eroberung Griechenlands im 2. Jahrhundert v. Chr. – immer stärker: der Grundriss wird in Längsrichtung gestreckt, die Cella wird im Verhältnis zur Vorhalle größer, ihre Dreiteilung wird zugunsten eines Großraums aufgegeben. Ein gut erhaltenes Beispiel aus augusteischer Zeit ist die Maison Carrée in Nîmes.
Tempel im Christentum
Im Judenchristentum spielte in der ersten Zeit der Jerusalemer Tempel noch eine Rolle. Da sich Jesus kritisch gegenüber dem Tempel verhalten hatte und der getaufte Mensch selbst als Tempel Gottes verstanden wurde, endete der Tempelkult im Christentum mit der Zerstörung des Herodianischen Tempels.
Ab Konstantin I. (Rom) entstand eine neue Form in den Kirchenbauten. Die Bauform der Basilika ist grundsätzlich eine neutrale, da auch Gerichts- und Marktgebäude ähnlich aussahen, hatte zuletzt aber auch dem Kult der vergöttlichten Kaiser gedient und machte insofern die Ablösung des Kaiserkultes durch die neue Religion sichtbar.
Auch in der Orthodoxen Kirche werden die Gotteshäuser als Tempel (griechisch naos) bezeichnet, während das Wort Kirche (griechisch ekklesia) nur für die Gemeinschaft selbst verwendet wird.
Unter den neueren Gemeinschaften auf christlicher Basis ist die Kirche Jesu Christi der Heiligen der Letzten Tage („Mormonen“) für ihre weltweit errichteten Tempel bekannt. Eine weitere Gemeinschaft, die sich auf die gleiche Gründerfigur Joseph Smith beruft, die Gemeinschaft Christi, besitzt zwei Tempel. Auch die Gemeinschaft in Christo Jesu nennt ihr zentrales Heiligtum, die Eliasburg, Tempel.
Tempel im Hinduismus
Im Hinduismus repräsentiert der Tempel (mandir) den Kosmos schlechthin. Im Tempel „berühren“ sich die Welt der Götter und die Welt der Menschen. Im Gegensatz zu den Hausriten ist der Tempelbesuch für gläubige Hindus jedoch nicht obligatorisch.
Tempel im Buddhismus
Zu den Religionen, die Tempel als Heiligtümer haben, gehört der Buddhismus, zu dem auch Zen, Tantra(-ismus) und Lamaismus zählen. Im Buddhismus ist der Begriff Tempel eng mit Kloster verbunden und nicht immer klar zu trennen.
Wichtige Elemente eines buddhistischen Tempels sind Pagode und die Dhamma-Halle für Zeremonien und Lehrvorträge, in Thailand auch Bot und in Japan Zendo genannt.
Ein Ritual, das in Tempeln häufig abgehalten wird, ist die Puja, eine Andacht zu Ehren Buddhas. Es werden zwar auch kleine Opfer wie Rauch, Blumen, Speiseopfer etc. erbracht, aber große Opfer wurden von Buddha als sinnlos abgelehnt.
Die Tempel können je nach Schule und Kulturkreis sehr unterschiedlich sein. So sind z. B. Indien und Sri Lanka für ihre Höhlentempel bekannt. Mit der Verbreitung in Deutschland entstanden auch dort buddhistische Tempel, die den klimatischen und kulturellen Bedürfnissen angepasst sind, wie z. B. Das Buddhistische Haus.
Tempel im Shintō
Zur besseren Unterscheidung von den buddhistischen Tempeln in Japan hat sich für die religiösen Baustätten des Shintō der Begriff „Schrein“ bzw. „Shintō-Schrein“ eingebürgert, obwohl lange Zeit in Japan kein wesentlicher Unterschied zwischen den Religionen Buddhismus und Shintō gemacht wurde.
Tempel der Bahai
Die Bahai errichten weltweit ihre Häuser der Andacht, die der Einheit der Religionen gewidmet sind und allen Menschen offenstehen. Im Mittelpunkt der Andacht stehen die Heiligen Schriften aller Weltreligionen, welche ohne Predigt, Auslegung oder Kommentar in der Originalsprache oder Übersetzung rezitiert werden.
Gesungene Gebete in allen Sprachen und spirituellen Traditionen der Menschheit sind in den Tempeln willkommen. Die Akustik des zentral angelegten Kuppelbaus trägt die menschliche Stimme. Keine anderen Geräusche sollen die individuelle Reflexion und Meditation stören.
In der Kuppelspitze, der Ampel, ist eine arabische Kalligrafie zu sehen, ein Ausdruck des Lobpreises: „O Herrlichkeit des Allherrlichen!“. Ein weiteres Merkmal verbindet die Tempel: Neun Tore nach allen Seiten symbolisieren die Offenheit für die Anhänger der verschiedenen Religionen.
Ansonsten zeichnen sich die Häuser der Andacht gerade durch ihre architektonische Vielfalt aus, die ganz bewusst verschiedene Stile und Symbole der unterschiedlichen Kulturen repräsentieren.
Der bekannteste Bahai-Tempel steht in Delhi, Indien, und ist als Lotustempel bekannt.
Tempel des Voodoo
Die Tempel des haitianischen Voodoo werden als Hounfours bezeichnet.
Tempel der Freimaurer
Die Freimaurer bezeichnen die Versammlungsstätten ihrer Logen als Tempel. Dabei kann das gesamte Gebäude – so vor allem in den USA – oder auch nur der Raum für die rituellen Arbeiten in diesem Gebäude so bezeichnet werden. Freimaurertempel zeichnen sich häufig durch einen eigenen „masonischen Architekturstil“ aus.
Tempel in Mesoamerika (Maya, Tolteken, Azteken u. a.)
Die mesoamerikanischen Tempel stehen – von wenigen Ausnahmen (z. B. Malinalco) abgesehen – auf einem gestuften und mehr oder weniger hohen Unterbau, der auch über dem Grab eines Priesterkönigs oder anderer Personen errichtet worden sein konnte (siehe Tempelpyramide). Der eigentliche Tempel bestand ursprünglich aus Astgeflecht und Blattwerk oder Stroh; Steintempel sind das Resultat späterer Entwicklungen. Bis in die Spätzeit hinein bestand er nur aus einem kleinen, durch das nicht verschließbare Portal belichteten Raum, in welchem ein (oft blutverschmiertes) Götterbild aufgestellt war. Die Außenseite der Steintempel war in der Regel verputzt und farbig bemalt. Zahlreiche Maya-Tempel verfügten darüber hinaus über einen imposanten steinernen Dachaufbau (crestería).
Literatur
Gottfried Gruben: Griechische Tempel und Heiligtümer. 5., völlig überarbeitete und erweiterte Auflage. Hirmer, München 2001, ISBN 3-7774-8460-1.
Patrick Schollmeyer: Römische Tempel. Kult und Architektur im Imperium Romanum. Darmstadt 2008, ISBN 978-3-534-19693-7.
Ernst Seidl (Hg.): Lexikon der Bautypen. Funktionen und Formen der Architektur. Stuttgart 2006, ISBN 978-3-15-010572-6.
Weblinks
Indische Tempel
Aufstellung sämtlicher Tempel der Kirche Jesu Christi der Heiligen der Letzten Tage
Einzelnachweise
Archäologischer Fachbegriff
|
Q44539
| 339.732568 |
24645
|
https://de.wikipedia.org/wiki/Maya-Zivilisation
|
Maya-Zivilisation
|
Die Maya sind ein indigenes Volk bzw. eine Gruppe indigener Völker in Mittelamerika, die insbesondere aufgrund der von ihnen im präkolumbischen Mesoamerika gegründeten Reiche und ihrer hoch entwickelten Kultur als Maya-Zivilisation bekannt sind.
Hintergrund
In ihrer Blütezeit stellten die Maya eine mächtige Hochkultur dar. Man spricht zumeist von „der“ Maya-Kultur; tatsächlich gibt es auch viele Gemeinsamkeiten zwischen den verschiedenen Fundstellen aus der Vergangenheit – doch stehen hinter dieser Kultur verschiedene Völker mit miteinander mehr oder weniger eng verwandten Maya-Sprachen. Nicht nur wegen der räumlichen Gegebenheiten unterscheidet man traditionell zwischen Hochland-Maya (in Chiapas und Guatemala) und Tiefland-Maya (auf der Halbinsel Yucatán, in Petén und Belize). Im Lauf der Geschichte lässt sich eine Verlagerung der kulturellen Zentren vom Hochland ins Tiefland und dann in den Norden der Halbinsel Yucatán (z. B. Chichen Itza) beobachten.
Zur Zeit der Ankunft der Spanier Ende des 15. Jahrhunderts lagen die meisten Zentren der nachklassischen Maya-Kultur im Norden von Yucatán, während das zentrale Tiefland nur noch dünn besiedelt war. Im südwestlichen Hochland existierten zu diesem Zeitpunkt recht eigenständige Maya-Kulturen, bspw. die Kultur der Quiché (Q'umarkaj), der Cakchiquel (Iximché), der Mam (Zaculeu) oder der Pocomam (Mixco Viejo). Im Gegensatz zu vielen anderen indigenen Völkern existieren die Maya noch heute und leben im mexikanischen Teil von Yucatán, in Chiapas und in Tabasco, sowie in Belize und Guatemala, ferner auch in El Salvador und Honduras.
Berühmt sind die Maya für den Anbau von Mais, ihre Mathematik und für ihren hoch entwickelten Kalender, geschrieben in Maya-Schrift, aber auch für Menschenopfer und ständige Kriege zwischen ihren Stadtstaaten.
Die mittlerweile weitgehend entzifferte Schrift war bis zur Ankunft der Spanier das einzige bekannte voll entwickelte Schriftmedium in Amerika. Kunsthandwerk (Bearbeitung von Stein, Keramik, Holz, Textilien) und Malerei waren hoch entwickelt, Metallverarbeitung (Gold, Silber, Kupfer) spielte erst spät und fast nur für rituelle Zwecke eine Rolle, nicht für die Werkzeugherstellung. In den Maya-Städten gab es hohe Tempelpyramiden, Maya-Akropolis, Paläste, Observatorien und Ballspielplätze.
Geographie
Das ausgedehnte historische Siedlungsgebiet der Maya umfasste ungefähr 350.000 km². Im Norden des damaligen Mayalandes ragt die Halbinsel Yucatán weit in die Karibik hinaus. Die Niederschlagsmenge in diesem Gebiet war stets extrem gering, dazu ungleich verteilt, die Region war daher weitestgehend versteppt und mit Dornbüschen bewachsen. Im südlichen Tiefland herrschte eine Savannenlandschaft vor, deren Bodenhöhe kaum einmal über 200 Metern liegt. Da die Gegend schon immer tektonisch sehr aktiv war, ist ihr Boden mit vielen Mineralien angereichert, wodurch sie für den Ackerbau sehr attraktiv wurde.
Im mexikanischen Bundesstaat Chiapas, in Guatemala und in Belize ist im Tiefland das Klima tropisch, ausgedehnte Dschungelwälder prägen hier das Landschaftsbild. Entlang der Pazifikküste von Guatemala und Chiapas erstreckt sich das Hochland mit durchgehend mildem Klima, die Wälder sind von Nadelbäumen geprägt. Im Hochland gibt es zahlreiche Vulkane, von denen die meisten als geologisch aktiv gelten.
Geschichte
Frühe Präklassik (ca. 3000–900 v. Chr.)
In der Frühen Vorklassik kam es am Ende der Archaischen Periode zu ersten dauerhaften Siedlungen und zur Entwicklung der Landwirtschaft. Erste den Maya zugerechnete archäologische Funde aus Cuello (Belize) werden auf etwa 2000 v. Chr. datiert. Von diesem Ort soll eine Aufspaltung und Migration nach Norden (Golf von Mexiko) stattgefunden haben. Vor oder um 1500 v. Chr. wurde Lamanai (Belize) gegründet, das etwa 3000 Jahre permanent bewohnt wurde und damit zu den am längsten besiedelten Städten der Maya gehört. Um ca. 1100 v. Chr. wurden Jäger in Copán (Honduras) ansässig. Ca. 1200 v. Chr. entstand Cahal Pech (Belize) und blieb bis ca. 900 n. Chr. bewohnt.
2017 wurden als älteste bisher bekannte Monumentalbauten der Maya rechteckige aus Erde aufgeschüttete Plateaus in Aguada Fénix gefunden, die Ähnlichkeiten mit Bauten der älteren Kultur der Olmeken haben. Die größte Plattform hat eine Länge von 1400 m und eine Breite von 400 m und ihr Bau wird auf die Zeit von (spätestens) 1000 bis 800 v. Chr. datiert. Schon davor wurden in Seibal ähnliche Anlagen der Maya gefunden, die um 950 v. Chr. entstanden.
Mittlere Präklassik (ca. 900–400 v. Chr.)
In der mittleren Vorklassik kam es zur durchgehenden Besiedlung im gesamten Mayagebiet und zur Entwicklung von Handel zwischen den Städten. Auf etwa das 7. Jahrhundert v. Chr. werden die ersten Siedlungsspuren im Gebiet von Tikal in Guatemala datiert. Am Golf von Mexiko wurden Siedlungsbauten und steinerne Tempel erstmals auf etwa 500 v. Chr. bestimmt. Zu den ersten großen Städten der Maya gehörten El Mirador mit der höchsten bekannten Maya-Pyramide (72 m) und Nakbé im heutigen Guatemala, von denen letztere ihre Glanzzeit zwischen 800 und 400 v. Chr. hatte.
Späte Präklassik (ca. 400 v. Chr. – 250 n. Chr.)
In der späten Vorklassik entstanden durch starkes Bevölkerungswachstum große Mayazentren, und es kam zur Bildung von Herrschereliten. Die Verwendung von Kalkstuck für Straßen auf Dämmen und für „monumentale architektonische Zierelemente“ z. B. an Treppen usw. (siehe z. B. das Kapitel Stuck – das künstlerische Medium der späten Präklassik) bildete ein wesentliches Element der architektonischen Entwicklung der späten Präklassik.
Frühe Klassik (ca. 250–600 n. Chr.)
In Tikal wurde die erste datierte Maya-Stele von 292 n. Chr. gefunden. Im Jahr 562 kam es zu einem großen Krieg zwischen Calakmul und Tikal. Chichén Itzá wurde um das Jahr 650 gegründet.
Späte Klassik (ca. 600–900 n. Chr.)
Die klassische Maya-Zivilisation umfasste eine Reihe von Stadtstaaten, die jeweils einen eigenen Herrscher und ihm untergebene Verwalter hatten. Mit der Ausbreitung über die ganze Halbinsel Yucatán erreichte die Hochkultur der Maya ihre Blütezeit. Zu dieser Zeit wurden auch Uxmal und Cobá gegründet. Weitere wichtige Städte waren Tikal, Calakmul, Bonampak und Quiriguá. Viele Städte waren durch Dammstraßen (Sakbe) miteinander verbunden. Die Städte hatten teilweise mehr als 10.000 Einwohner und waren damit größer als die größten Städte des damaligen Mitteleuropa. Die Bevölkerung der Maya-Zivilisation zu ihrer Blütezeit wird auf bis zu 10.000.000 Einwohner geschätzt.
Zu den Maya-Zentren der Klassik gehörten unter anderen Bonampak, Calakmul, Caracol, Xunantunich, Lubaantun, Copán, Dos Pilas, Nakum, Naranjo, Palenque, Piedras Negras, Rio Azul, Tikal, Yaxchilán oder Yaxha. Funde aus der Spätklassik wie auch der Zeit seit der Späten Präklassik wurden in der Höhle Actun Tunichil Muknal in Belize gemacht, in der neben Skelettresten auch Keramiken und Steinzeug gefunden wurden.
Der Kollaps der Maya-Zentren im zentralen Tiefland
Bereits im 9. Jahrhundert kommt es zur Aufgabe einzelner Maya-Zentren im südlichen Tiefland und in der Folgezeit zu einem rapiden Bevölkerungsverlust in der gesamten Zentralregion Yucatáns. Zahlreiche Städte werden verlassen, die Bewässerungssysteme verfallen. Nach der Mitte des 10. Jahrhunderts werden im gesamten Tiefland keine monumentalen Steinstelen mehr errichtet. Der Zusammenbruch der Maya-Gesellschaft ist Gegenstand einer breiten und langanhaltenden Forschungsdiskussion. Dabei lassen sich zwei Hauptansätze unterscheiden: ökologische und nicht-ökologische Erklärungsmodelle.
Die „nicht-ökologischen Erklärungsmodelle“ umfassen Erklärungsansätze der unterschiedlichsten Art, wie Invasionen, Katastrophen und Epidemien. Archäologische Belege für das Eindringen der Tolteken in Nordyucatán (Seibal) scheinen die Invasions-Hypothese zu stützen. Die Mehrzahl der Maya-Forscher bezweifelt jedoch, dass eine Eroberung als Hauptgrund für den flächendeckenden gesellschaftlichen Zusammenbruch im Tiefland infrage kommt. Als ein weiterer Grund für den Zusammenbruch der klassischen Maya-Gesellschaft im zentralen Tiefland wird das Ende der Metropole Teotihuacán in Zentralmexiko diskutiert, welches angeblich ein außerordentliches Machtvakuum hinterließ, das sich bis nach Yucatán hin auswirkte und von den rivalisierenden Stadtstaaten der Maya nicht ausgefüllt werden konnte. Dagegen spricht jedoch, dass der Untergang Teotihuacáns mittlerweile eher in das 6./7. Jahrhundert datiert wird, also noch vor der kulturellen und machtpolitischen Hochblüte der klassischen Maya im 8. Jahrhundert stattgefunden hat. Wahrscheinlich lässt sich mit dem Niedergang der zentralmexikanischen Metropole eher die Schwächephase in der Geschichte Tikals erklären, nicht jedoch der Kollaps der Maya im 9. Jahrhundert.
Die „ökologischen Erklärungsmodelle“ konzentrieren sich auf das Verhältnis zwischen Mensch und Umwelt. Während der späten klassischen Periode scheint sich dieses Verhältnis deutlich verschlechtert zu haben. Einer stark gewachsenen Bevölkerung stand eine begrenzte Ackerbaufläche mit zum Teil nur geringwertigen Böden gegenüber, die – trotz Bewässerung – offenbar hauptsächlich im traditionellen und flächenintensiven Milpa-System bearbeitet wurde. Aufgrund dieser Beobachtungen formulierte Orator Fuller Cook im Jahre 1921 seine Hypothese der Bodenverarmung. Die Vermutung, dass Klimaschwankungen und insbesondere Dürren für den Untergang der Hochkultur verantwortlich gewesen seien, hat durch den Nachweis verminderter Niederschläge im 9. und 10. Jahrhundert in Venezuela unter Leitung des Geologen Gerald Haug im Jahre 2003 Auftrieb erhalten. Computersimulationen des NASA-Forschers Benjamin Cook haben ergeben, dass die Dürren durch die starken Rodungen verstärkt wurden, man hier also wahrscheinlich von einer durch den Menschen mitbeeinflussten lokalen Klimaschwankung sprechen kann. Die Wissenschaftler Martín Medina Elizalde vom Yucatán Center for Scientific Research in Mexico und Eelco Rohling von der University of Southampton in England bestätigten im Februar 2012 diese These. Wie sie im Wissenschaftsmagazin Science schrieben, fanden sie bei einem Vergleich der Niederschlagsmengen zwischen dem Jahr 800 und dem Jahr 950 heraus, dass diese um bis zu 40 Prozent zurückging, was ihrer Ansicht nach verheerende Dürren auslöste. Wolfgang Seidel betont in seiner „Weltgeschichte der Pflanzen“, dass die „Maya-Zivilisation […] in einem Kreislauf von erfolgreichem Feldfruchtanbau, darauf beruhender Bevölkerungsvermehrung, Ausweitung der Anbauflächen unter zunehmend schwierigen Bedingungen wie Bodenerosion bei immer noch ansteigender Bevölkerung an die Grenzen ihres Wachstums“ kam und daraufhin zusammenbrach. Diesem langanhaltenden Prozess „in diesem Teufelskreis aus Raubbau, Überbevölkerung, Hunger“ folgten „Kontrollverlust und Anarchie“. Dementsprechend zieht Seidel folgendes Fazit: „Der Untergang der Maya-Kultur, deren Aufstieg so eng mit dem Maisanbau verbunden war, wird von prominenten Historikern […] interpretiert […] als ein warnendes Beispiel für das, was passiert, wenn die Abhängigkeit von der lokalen oder globalen Ökologie nicht erkannt wird, Anpassungsleistungen nicht erfolgen, die Ressourcenausbeute überdehnt und der Bevölkerungsdruck zu hoch wird.“
Postklassik (ca. 900–1697)
Der Epoche der Postklassik gemein ist ein alle Lebensbereiche durchdringender Einfluss aus dem nördlicheren Mesoamerika. Wesentliche Kulturelemente der Klassik blieben jedoch erhalten. Obwohl das die Klassik bestimmende Gottkönigtum endete, war es nach wie vor der Adel, welcher an der Spitze der Gesellschaft die Geschicke der Maya bestimmte. Die Schrift war durchgängig in Gebrauch, ebenso der Kalender, wenn auch die Lange Zählung nicht mehr angewandt wurde. Auch die meisten verehrten Götter waren bereits aus der Klassik bekannt. Es bildeten sich auf Yucatán und im Hochland zwei unabhängige Zentren der Mayakultur heraus, zwischen denen nur wenige kulturelle Wechselwirkungen bestanden, die jedoch dennoch eine sehr vergleichbare Entwicklung nahmen. Entsprechend ist das Ende der Postklassik auch differenziert festzusetzen. Während das Hochland bereits in den 1520er Jahren unterworfen wurde, konnten die Spanier auf Yucatán erst in den 1540er Jahren ihre Herrschaft tatsächlich etablieren. In Petén fand die Mayakultur der Postklassik erst 1697 ein jähes Ende.
Nach dem Kollaps der klassischen Mayakultur im Tiefland hatten die Zentren im Norden Yucatáns noch einige Zeit Bestand. So hatte Uxmal seine kulturelle Blüte erst im 9. und 10. Jahrhundert, als etwa Copán und Palenque bereits verlassen waren. Im 12. Jahrhundert scheint auch Uxmal verlassen worden zu sein. Spätestens ab dem 13. Jahrhundert lassen sich auf Yucatán in der Architektur, Keramik, Kultur und Religion vermehrt toltekische Einflüsse feststellen. Den Chilam Balam zufolge wäre Chichén Itzá, das zuvor die bestimmende Macht Yucatáns war, 1221 erneut verlassen worden und es beginnt eine Vorherrschaft der Cocom, die ihre Residenz Ich Paa gründeten und weite Teile Yucatáns dominierten. (Vgl. auch die sogenannte Liga von Mayapán.) Erst 1441 wurde diese durch einen Aufstand, angeführt von den Xiu die mit Uxmal in Verbindung gebracht werden, das auch tatsächlich auf deren nachmaligen Territorium lag, gebrochen. Der Konflikt zwischen den Xiu und Cocom als den führenden Familien blieb Yucatán erhalten, die Spanier machten sich dies zu Nutze. Im gleichen Zeitabschnitt wurden klassische Zentren wie Cobá, Ek Balam oder Izamal wiederbesiedelt. In Xuch, Puuc-Region, etwa 15 km südwestlich von Uxmal wurde von der Klassik bis ins 16. Jahrhundert kontinuierlich Monumentalarchitektur errichtet. Auch Dzibilchaltún und Lamanai sind von der Klassik bis in die frühe Kolonialzeit durchgängig bewohnt gewesen. Jedenfalls bildeten sich nach dem Fall Chichén Itzás oder spätestens dem Mayapáns ca. 16 unabhängige Fürstentümer auf Yucatán heraus, die bis in die Zeit der Konquista bestand hatten. Urbane und kulturelle Zentren der Postklassik, mit mehreren tausend Einwohnern waren vor allem die Residenz- oder Hauptstädte der einzelnen Fürstentümer. Zu nennen sind auf Yucatán vor allem Kaan Peec, Champoton (Chanputun), Maní, Motul, Sotuta, Tihosuco, Tecoh und Ch’aak Temal. Allein im Fürstentum Ecab an der Westküste gab es zahlreiche Orte wie El Rey, El Meco, Polé, Xel Há, Zama oder Muyil, die sämtlich über Steinarchitektur, teilweise monumentalen Ausmaßes verfügten. San Gervasio auf Cozumel und Tiho waren zudem überregionale religiöse Zentren der Götter Ix Chel und Itzamná. Auch Uxmal, mehr noch Chichén Itzá wurden nach wie vor für kultische Handlungen aufgesucht. Die Ko’woj-Maya und die Itzá verließen in der Postklassik im Zuge der genannten Umbrüche Yucatán und zogen nach Petén, um mit Topoxté bzw. Tayasal neue Zentren zu gründen, wovon letzteres zudem für die gesamte Mayakultur am längsten Bestand haben sollte.
Auch in Chiapas, im Hochland des nachmaligen Guatemala und in El Salvador verlief die Entwicklung der postklassischen Mayakultur vergleichbar. So wurden etwa Casa Blanca, Tazumal und San Andrés erst um 1200 aufgegeben, ersteres jedoch weiterhin als Kultstätte besucht. Ein kultureller Einfluss aus dem nördlicheren Mesoamerika machte sich auch hier bemerkbar. So wurden bspw. Doppeltempel nach dem Vorbild des Templo Mayor errichtet. Die Mam wählten um 1250 Zaculeu zu ihrer Hauptstadt. Im Hochland begann der Aufstieg der K’iche mit ihrer Hauptstadt Q'umarkaj, die vor allem durch militärische Expansion ihr Einflussgebiet stetig vergrößerten, bis sie zum Ende des 15. Jahrhunderts durch ihre Nachbarn und ehemaligen Verbündeten die Cakchiquel gestoppt wurden. Letztere entführten das Götterbild des Tohil in ihre Hauptstadt Iximché, worauf die K’iche ihre Kriegszüge zumindest gegen die Cakchiquel einstellten, das Hochland jedoch weiterhin zu dominieren versuchten. Nachdem die Mexica 1486 Xoconochco erobert hatten, wurden auch die K’iche 1510 zu Tributzahlungen aufgefordert. Die Feindschaft zwischen den K’iche und den Cakchiquel blieb bis in die Zeit der Spanischen Eroberung (Konquista) von Yucatán erhalten und katalysierte dort den Untergang der Mayakultur bereits in den 1520er Jahren.
Spanische Konquista und Kolonialzeit (1520–1821)
Im Jahr 1511 landeten 13 spanische Schiffbrüchige auf Yucatán, wo zu diesem Zeitpunkt 16 unabhängige Fürstentümer existierten. Als der Konquistador Hernán Cortés 1519 auf Yucatán ankam, lebten nur noch zwei von ihnen. Einer der Überlebenden, Gerónimo de Aguilar, zog mit Cortés weiter nach Mexiko und half ihm als Übersetzer. Der andere Überlebende, Gonzalo Guerrero, wollte weiter mit den Maya leben und kämpfte später mit ihnen gegen die Spanier.
Im Jahr 1527 zog ein Veteran von Cortés’ Truppen, Francisco de Montejo, mit 400 Männern nach Yucatán, um es zu unterwerfen. Zuerst bekam er sogar Unterstützung von der indigenen Bevölkerung, doch als diese seine Absichten erkannte, wurde er bekämpft. Auch Krankheiten und Unterernährung machten den Eindringlingen zu schaffen, teilweise plünderten sie in der Folge die Felder der Maya. Schließlich trat Francisco de Montejo das Kommando an einen seiner Untergebenen, Alonso Dávila, ab, der ebenfalls ein Veteran aus Cortés’ Truppe war. Dieser konnte sich jedoch nicht gegen die Maya wehren und rettete sich mit den letzten Überlebenden nach Honduras. Inzwischen versuchte sein Sohn Francisco de Montejo y León, von Westen her Yucatán zu erobern. 1532 gründete er die Stadt Ciudad Real im Zentralyucatán. Die angrenzenden Maya zogen jedoch einen Belagerungsring um die Stadt und die 200 Spanier mussten auf Grund von Nahrungsmangel fliehen. Die Nachricht von Francisco Pizarros Eroberung des Inkareichs und den großen Goldfunden dort ereilte die Expedition, und viele Männer desertierten nach Peru.
Nun gingen die Spanier diplomatischer vor, die Provinz Maní wurde friedlich unter spanische Herrschaft gebracht. Die dort herrschenden Xiu stellten sogar Hilfstruppen zur Verfügung, vermutlich aufgrund eines langwährenden Konflikts mit den Kokom. Der Plan der Spanier war jetzt, drei Städte in Yucatán zu errichten, der ihnen auch im Jahr 1544 durch die Gründung von Mérida, Valladolid und Salamanca de Bacalar gelang. Es wurde entschieden, dass das Land von Mexiko aus verwaltet werden sollte.
Schließlich wurden Versuche unternommen, die Maya zu christianisieren. Unter anderem durch den Mönch Diego de Landa, der mit harter Hand gegen Maya vorging, die sich nicht zum christlichen Glauben bekehren wollten. Am 12. Juli 1562 ließ de Landa vor dem Franziskanerkloster in Maní Schriften und religiösen Symbole der Maya verbrennen. Nur noch einzelne Teile von vier Maya-Codices sind heute erhalten geblieben. In seinem Werk Relación de las cosas de Yucatán schildert de Landa die Geschehnisse von Mani. Später wurde er in Spanien dafür angeklagt, allerdings 1569 in allen Anklagepunkten freigesprochen und 1571 sogar zum Bischof von Yucatán ernannt.
Am Ende der Eroberung waren die Spanier nominell Herrscher über das Mayagebiet. Ganze Landstriche waren aufgrund von Seuchen und Krieg entvölkert. Die ehemals herrschenden Fürstengeschlechter und führenden Familien der Maya blieben nicht selten zumindest bis ins 18. Jahrhundert in führenden Positionen der Verwaltung. Die Cupul-Maya, die noch 1546 einen Aufstand gegen die Spanier begannen, nannten sich die „unbesiegbaren Cupul“, da sie militärisch nie bezwungen wurden.
19. und 20. Jahrhundert
Ab dem Jahr 1847 rebellierten die Maya in Yucatán im sogenannten Kastenkrieg gegen die Autorität des mexikanischen Staates und bauten um den 1850 errichteten Tempel des Sprechenden Kreuzes ihre Hauptstadt Chan Santa Cruz, die erst 1901 von der mexikanischen Armee erobert werden konnte.
Gegenwart
Heute leben rund 6,1 Millionen Maya in Mexiko (auf Yucatán, in Chiapas und in Tabasco) sowie in Belize, in Guatemala, in Honduras und in El Salvador, wobei die ursprünglich in El Salvador lebenden Pocomam und Chortí im 20. Jahrhundert in ihrer eigenständigen Kultur und Sprache infolge staatlich-gewalttätiger Unterdrückung ausgerottet wurden. Durch den guatemaltekischen Bürgerkrieg haben sich jedoch etwa 12.000 Kekchí in El Salvador angesiedelt. Eine noch kleinere Gruppe Kekchí lebt in Honduras, wie ca. 4.000 Chortí im Wesentlichen im Gebiet um Copán. In Guatemala zählen etwa 40 Prozent (ca. 5 Mio. Menschen) der Gesamtbevölkerung zu den Maya, in Belize sind es rund zehn Prozent, was etwa 35.000 Personen ausmacht, darunter Lacandonen, Kekchí und Mopan. In Mexiko zählen die Mayathan (etwa 800.000 Angehörige), Tzeltal (etwa 470.000 Angehörige) und Tzotzil (etwa 430.000 Angehörige) zu den größeren Maya-Völkern.
Auch heute noch leben die meisten Maya vom Maisanbau. Die heutige Mayareligion ist eine Mischung aus Christentum und alten Maya-Bräuchen. Jede Maya-Gemeinde hat ihre eigenen religiösen und weltlichen Oberhäupter. Opfergaben von Hühnern, Gewürzen oder Kerzen sind üblich. Die einzelnen Mayagruppen identifizieren sich über besondere Elemente ihrer traditionellen Kleidung, in der sie sich jeweils von anderen Maya-Gruppen unterscheiden und deren Ornamentik anteilig magisch symbolische Funktion besitzen (siehe hierzu Artikel: Chamula).
Als noch sehr traditionell lebende Gruppe sind die Lacandon-Maya in Chiapas bekannt. Der deutsche Schriftsteller B. Traven schreibt in einem Reisebericht von 1928, dass die meisten Lacandonen unbekleidet gewesen sind. Heute tragen nur noch wenige von ihnen die weiße Baumwollkleidung, die auch auf alten Abbildungen zu sehen ist. Und auch das Christentum hatte bei ihnen bis vor kurzem allenfalls sehr oberflächlich Einzug gehalten. Durch Tourismus und die Mission evangelikaler Gruppen ist allerdings auch die Lakandonen-Gesellschaft dabei, sich stark zu verändern; trotz des Festhaltens an mancherlei Traditionen hält der technische und wirtschaftliche Fortschritt bei diesen Maya verstärkt Einzug. Immer mehr von ihnen tragen mittlerweile moderne Kleidung, haben Strom, Radios oder auch Fernsehen; und in den Maya-Dörfern gibt es bereits das eine oder andere Auto. Eine besondere Vorliebe haben Lacandonen für Armbanduhren entwickelt. Diese tragen sie so zahlreich wie eben möglich an ihren Unterarmen und sind immer begehrte Tauschobjekte. Manche Maya leben inzwischen auch vom Tourismus, da immer mehr Besucher die Welt der Maya und die alten Bauwerke kennenlernen wollen.
Eine besondere Situation besteht bei den von den Zapatistas kontrollierten Dörfern der Maya im mexikanischen Bundesstaat Chiapas, die in den letzten Jahren eine weitgehende Autonomie gewonnen haben und sich selbst verwalten. Dort leben vor allem Maya vom Stamm der Tzotzil. Die Hauptstadt dieses Stammes ist Chamula.
Religion
Gottkönigsstädte im Regenwald
Auffällig an den Ruinenstätten der Maya-Kultur ist das Vorherrschen religiöser Bauten. Deren ethnische Religion und ihre Funktionäre (Priester u. a.) scheinen im Leben der klassischen Maya eine herausragende Rolle gespielt zu haben. In klassischer Zeit wurden die Stadtstaaten zumeist von Königen geleitet, die die höchste oder doch zumindest eine sehr wichtige religiöse Funktion innehatten. Darstellungen zeigen allerdings, dass sich gerade auch Herrscher und Führungsschicht der Mayagesellschaft den religiösen Ritualen unterwarfen.
Zeit und Kosmos
Ähnlich anderen mesoamerikanischen Völkern glaubten die Maya an einen zyklischen Charakter der Zeit. Die Rituale und Zeremonien waren eng mit den astronomischen und irdischen Zyklen der Natur verbunden. Immer wiederkehrende Vorgänge wurden systematisch beobachtet und in verschiedenen Kalendern der Maya verzeichnet. Die Aufgabe der Maya-Priester lag darin, die Zyklen zu interpretieren, was insbesondere dadurch geschah, dass verschiedene Zyklen (Kalendermessungen) numerisch aufeinander bezogen wurden.
Die Erforschung der Mythologie der Maya kann sich nur auf die Interpretation sehr weniger Quellen stützen und ist Gegenstand anhaltender wissenschaftlicher Debatten. Gesichert scheint jedoch, dass die Maya sich den Kosmos in (mindestens) drei Ebenen gegliedert vorstellten, nämlich Unterwelt, Erde und Himmel.
Götter und Opfer
Die Maya-Religion war polytheistisch, wobei die Götter der Maya analog den Menschen als sterbliche, menschen- oder tierähnliche Wesen vorgestellt wurden. Wie bei den Azteken und anderen mittelamerikanischen Religionen auch, dienten Opfer daher auch nicht allein dazu, die Götter gewogen zu machen, sondern auch, um die Götter in gewisser Weise am Leben zu erhalten. So wird die durchaus übliche Darstellungsweise in der Maya-Kunst verständlich, die uns Könige zeigt, welche einen Gott als Säugling im Arm tragen. Gleichwohl wurden die Götter zugleich als Wesen vorgestellt, die uralt sein konnten.
Trotz der Vielzahl an Göttern hat die Maya-Religion eine dualistische Ausrichtung: So hat vor allem das „Weltelternpaar“ (wie bei den meisten Feldbauern) eine wichtige Bedeutung, das aus dem alten Sonnengott und der jungen Mondgöttin gebildet wird. Das Leben wird als (beschwerlicher) Weg von Osten (duale Symbole: Mondaufgang, Leben, Farbe Rot) nach Westen (Sonnenuntergang, Tod, Farbe Schwarz) betrachtet.
Wie bei anderen Kulturen Mittelamerikas spielt auch bei den Maya das (rote, lebenserhaltende) menschliche Blut eine besondere Rolle. Hochgestellte Persönlichkeiten gewannen das Blut etwa, indem sie sich dornige Fäden durch Lippe oder Zunge zogen oder auch den Penis mit Seeigelstacheln anstachen. Abbildungen aus klassischer Zeit verbinden das dargestellte Blutopfer zudem oft mit der Darstellung einer sogenannten Visionsschlange. Ob dies ein Hinweis darauf ist, dass der Blutverlust zu religiösen Eingebungen führte, ist bis heute ungeklärt. Aus Sicht der Maya war das Blut Sitz der Seele und Lebenskraft, die Seele selbst stellte man sich jedoch luft- oder rauchförmig vor (Atemseele). Daher fing man das gewonnene Blut durch Papierstreifen auf, die man anschließend verbrannte.
Menschenopfer waren, wie in ganz Mesoamerika allgemein verbreitet, auch der Religionsausübung der Maya üblich. Geopfert wurden sowohl Kriegsgefangene als auch Mitglieder der eigenen Gruppe, auch aus der Oberschicht. Durch Darstellungen gut belegt ist die Tötung von Kriegsgefangenen im größeren Maßstab, vielleicht aus der Oberschicht des gegnerischen Staates. Ob die Maya wie die Azteken Kriege zur Gewinnung von möglichen Menschenopfern geführt haben oder die Könige mit der Opferung ihrer Gegner ihre Macht vor den Menschen und ihre Pietät vor den Göttern belegen wollten, ist noch unklar. Das frühere Bild, dass die Maya friedfertiger als die Azteken seien, ergab sich daraus, dass die Spanier bei ihrer Ankunft in Mittelamerika noch Augenzeugen der aztekischen Religionsausübung wurden, während die klassische Maya-Kultur längst untergegangen war. Durch neuere Forschungsergebnisse, insbesondere seit der teilweisen Entzifferung der Schrift 1973, wurde dies jedoch relativiert. In den postklassischen Städten im Norden Yucatáns hatte sich die Kultur bei Ankunft der Spanier deutlich verändert. So lässt sich zum Beispiel an den Bauten der heutigen Ruinenstädte aus der Zeit der spanischen Eroberung gut ablesen, dass die Religion offensichtlich nicht mehr die herausragende Rolle spielte wie in der Zeit der Klassik.
Viele herausragende kulturelle Leistungen der Maya sind eng mit ihrer Religion verbunden, hierzu zählen Kalenderwesen, Schrift und Bauwesen.
Architektur
Maya-Hütten
Ausgangspunkt für die spätere Entwicklung ist die sogenannte Maya-Hütte, ein – zum Schutz vor eindringendem Wasser und am Boden lebenden Tieren – meist geringfügig erhöht stehender Bau aus ca. 2 m langen Ästen, die mit Hilfe von dünnen Zweigen oder Pflanzenfasern zusammengebunden waren; dies erfolgte meist auf drei Ebenen: unten, in der Mitte und oben. Die etwa 3 m breiten Schmalseiten der insgesamt ca. 8 bis 10 m langen Hütten waren abgerundet – es gab also keinen Giebel. Die Dächer waren mit Schilf oder Maisstroh gedeckt. Die Hütten hatten nur eine Tür und keine Fenster. Im Innern dienten Querhölzer zur Stabilisierung der Außenwände und zum Befestigen von Körben oder Tüchern mit Nahrungsmitteln etc. Die noch heute in nahezu unveränderter Art gebauten Hütten sind in vielfältiger Weise an den Außenwänden der späteren Steinbauten abgebildet worden.
Steinarchitektur
Viele Bauwerke der Maya haben den Kollaps ihrer Kultur als Ruinen überdauert und zählen zu den reichhaltigsten Zeugnissen der präkolumbischen Völker Amerikas. Die heute sichtbaren Überreste bestehen ausschließlich aus Steingebäuden; Bauwerke aus Holz oder Lehm sind aufgrund der Witterung Mittelamerikas im Laufe der Jahrhunderte verrottet und allenfalls als Fundamentspuren erhalten.
Von den Bauten der Maya haben sich vor allem zwei unterschiedliche Grundtypen erhalten: Die in vertikaler Ausrichtung errichteten Tempelpyramiden und die in vorwiegend horizontaler Ausrichtung erbauten Palastanlagen; beiden Typen gemeinsam ist das Fehlen von Giebelfronten. Die Pyramidenbauten dienten, anders als die Pyramiden der Ägypter, nur selten als Grabmäler, sondern fanden vor allem als Unterbau von Opferstätten eine kultische Verwendung. Auf ihrer Spitze befand sich in der Regel ein Tempel, auf dem die Opferzeremonien durchgeführt wurden. Die genaue Verwendung der sogenannten Paläste ist dagegen unklarer und nicht vollständig erforscht. Ob sie dem Stadtadel oder der religiösen Kaste als Wohnstätten oder den Pyramiden gleich zu rituellen Zwecken dienten, ist nicht gesichert. Neben den Palästen und Pyramiden gab es Mischformen aus beiden Gebäudetypen, zu den weiteren bedeutenden Bauwerken gehören unter anderem „Triumphbögen“, die manchmal den Beginn (oder das Ende) einer Prozessionsstraße (Sacbé) markierten, sowie die steinernen Einfassungen der Ballspielfelder und die Observatorien.
Die Maya erfanden eine Form des Betons und entwickelten einen Schalenbau, indem doppelte Mauern aus behauenem Stein ausgegossen und verfüllt wurden. Als Baustoff diente vor allem gestampfte Erde, der reichlich vorhandene Naturstein und auch eine Form von Stuck. Der für den Maya-Beton und -Stuck notwendige Kalk wurde in einfachen Schichtöfen gebrannt. Kennzeichnend für die Maya-Architektur ist das völlige Fehlen von Rundbögen und echten Gewölben. Diese waren den Maya unbekannt und der Stil ihrer Baukunst ist somit sehr von horizontalen, vertikalen und gewinkelten Linien geprägt. Aus der Verwendung von Kraggewölben ergab sich, dass Innenräume nicht besonders weit überspannt werden konnten und somit relativ klein und eng – ihren Hütten gleich – blieben. Anstelle weniger großer Räume entwickelten die Maya stattdessen häufig eine Reihenfolge zahlreicher kleinerer Räume, die zu sogenannten Kammerpalästen mit ornamentalen Grundriss führten. Da die Maya zudem so gut wie keine Fenster nutzten und Licht lediglich durch die Türöffnungen einfiel, entwickelten sie keine bedeutende Innenarchitektur. Ihre Bauten waren vor allem auf die Außenwirkung konzipiert und die vorwiegend liturgischen Zwecken dienenden Räume waren allenfalls mit Wandbehängen geschmückt, selten wurden auch Spuren von Malereien gefunden.
Ein weiteres Merkmal der Maya-Architektur ist, dass ältere oder zu klein gewordene Bauten in der Regel nicht abgerissen, sondern bei Bedarf vergrößert und überbaut wurden. So sind im Inneren der Baumasse von vielen Tempeln und Pyramiden ihre Vorgängerbauten verborgen. Dies gibt der heutigen Wissenschaft die Möglichkeit, die bautechnische Entwicklung der Maya zu entschlüsseln. Stilistisch wiederkehrende Formen sind die mächtigen verzierten Dachgesimse, welche mit ihrem Eigengewicht die Kraggewölbe hielten oder die von den Spaniern sogenannten cresteria („Hahnenkämme“), Aufbauten aus komplizierten Steinornamenten zur Bekrönung der Dächer. Vielerorts wurden die Fassaden der Gebäude mit Masken und Tiermotiven dekoriert. Die Maya entwickelten in verschiedenen Regionen des von ihnen bewohnten Gebiets unterschiedliche Baustile und nahmen auch stilistische Einflüsse benachbarter Völker wie den Tolteken auf.
Ebenso wie den übrigen Völkern Amerikas (mit Ausnahme der Inkas, die in geringem Umfang Lamas nutzten), standen den Maya keine Lasttiere zur Verfügung. Das Rad (obwohl prinzipiell bekannt und für Spielzeug in Form von Tierfiguren verwendet) fand als mechanisches Hilfsmittel keine Verwendung, was meist auf den Mangel an Zugtieren und das unwegsame Gelände zurückgeführt wird. Die großen Mengen Baumaterial wurden daher ausschließlich durch Menschenkraft bewegt.
Politische und gesellschaftliche Situation
Die Maya waren vor allem außenpolitisch stark engagiert. Dies war unter anderem dadurch begründet, dass die einzelnen Stadtstaaten ständig untereinander rivalisierten und gleichzeitig die Handelswege zur Versorgung mit Ferngütern kontrollieren mussten. Die politischen Strukturen waren je nach Region, Zeitraum, Einzelvolk und auch nach Stadt unterschiedlich. Neben erblichen Königtümern unter der Herrschaft eines Ajaw (auch weibliche Herrscherinnen sind überliefert), treten oligarchische und aristokratische Herrschaftsformen auf. Bei den Quiché gab es verschiedene Adelsfamilien, die unterschiedliche Aufgaben im Staat wahrnahmen. In der Postklassik Nordyucatáns scheint es Städtebünde und kollektive Adelsherrschaften (Liga von Mayapán) gegeben zu haben, die in manchem an die antiken Handelsrepubliken Griechenlands erinnern. Auch demokratische Strukturen sind zumindest auf der unteren gesellschaftlichen Ebene zu beobachten: Die noch heute existierende Tradition, alle drei Jahre einen neuen Bürgermeister, den „Maya-Bürgermeister“, zu wählen, scheint bereits lange zu existieren.
Kriegswesen
Die Maya führten häufig untereinander Kriege. Manche Historikern sehen darin einen der Gründe für den Untergang der klassischen Maya-Kultur. Bei den klassischen Maya waren Kriegsführung und die kulturelle Blüte (etwa 500–1200) jedoch offenbar jahrhundertelang Hand in Hand gegangen. So kann auch beispielsweise auch in der klassischen griechischen Kultur die Bedeutung des Krieges kaum überschätzt werden. Möglicherweise hat jedoch die Kombination der Tradition der Auseinandersetzungen untereinander mit der Veränderung von anderen Bedingungen wie des Klimas zur Niederlage gegen die Spanier beigetragen. Es finden sich eine Reihe von Indizien dafür, dass es in der Zeit des Niedergangs der klassischen Zentren vermehrt zu Kriegshandlungen kam.
Häufiges Ziel des Krieges war die dynastische Kontrolle über konkurrierende Stadtstaaten. Der Krieg wurde geführt, um eine feindliche Dynastie durch abhängige Herrscher zu ersetzen. In politischer Hinsicht ebenfalls wichtig war die Reputation, die siegreiche Herrscher und teilnehmende Adlige im Krieg gewinnen konnten. In wirtschaftlicher Hinsicht war die Kontrolle des Fernhandels sowie die „Einwerbung“ von Tributen wichtig. Es wurden wohl auch Einwohner besiegter Städte versklavt. In klassischer Zeit wurden Kriege offenbar nicht geführt, um eine gegnerische Stadt zu zerstören oder um das eigene Territorium zu erweitern. Stattdessen wurde eine besiegte Stadt und ihr Gebiet über Tribute und ergebene oder verwandte Herrscher abhängig gemacht. Es kam nicht zur Ausbildung von territorial bestimmten größeren Königreichen. Vielmehr begnügten sich mächtige Herrscher mit dem Titel eines „Oberkönigs“ und abhängigen Königen, die auf ihren Herrscherstelen den Hinweis verewigten „König W von Y wurde eingesetzt durch König X von Z“. Ein Nachteil des auf persönliche Abhängigkeit zielenden Herrschaftssystems der Maya war, dass die Bindungen zwischen den Städten fragil waren und so regelmäßig Grund für neue Kriege bestand.
Bewaffnung
Die Maya-Krieger benutzten Speerschleudern (atlatl), Blasrohre sowie mit Obsidian-Klingen ausgestattete Schlagwaffen wie Keulen, Speere, Äxte und Messer. Ebenfalls verwendet wurden Pfeil und Bogen. Diese scheinen jedoch in klassischer Zeit keine große Rolle gespielt zu haben, während Abbildungen aus der Zeit der spanischen Eroberung zahlreiche Kämpfe zeigen, in denen Pfeil und Bogen von (den allerdings hier verschanzten) Maya-Kriegern verwendet werden. Während Helme anscheinend wenig benutzt wurden, gebrauchten die Maya aber Schilde aus Holz und Tierhaut und auch aus gewebten Matten.
Formen des Kriegswesens
Über die Formen der Kriegsausübung bei den klassischen Maya ist man auf Mutmaßungen angewiesen. Spanische Darstellungen aus der Zeit der Eroberung zeigen uns zumeist einfach gekleidete Kämpfer im weißen Baumwollkostüm und mit dem typischen Rundschild, während ältere Darstellungen aus klassischer Zeit wie die Wandgemälde von Bonampak auch äußerst aufwändig kostümierte Krieger darstellen. Die aufwändige Kriegstracht – wahrscheinlich militärischen Führern und Spezialisten vorbehalten und vorausgesetzt, sie diente nicht nur der Siegesdarstellung nach dem Kampf, sondern kam wie bei den späteren Azteken auch zum Einsatz – kann man sich am besten veranschaulichen, wenn man sich traditionelle südamerikanische Karnevalskostüme vorstellt. Der Umstand, dass es sicher schwierig war, in solcher Kostümierung zu kämpfen, zeigt schon, dass Form und Funktion des Kampfes bei den Maya zum Teil offenbar anders waren als bei vergleichbaren Völkern (vor allem außerhalb Mittelamerikas).
Bei den Maya scheint es keine Soldaten („bezahlte Berufskrieger“) – also kein stehendes Heer im eigentlichen Sinn – gegeben zu haben, wahrscheinlich wurden im Kriegsfall der Adel, als militärische Führer mit den ihnen unterstehenden, kurzfristig ausgehobenen Bauern u. a. ergänzt. Dieses Rekrutierungsverfahren erlaubte es in Zeiten geringer bäuerlicher Arbeitslast, auch sehr große Kampfverbände zusammenzustellen. Da nicht wenige Siege über Könige und ganze Städte überliefert sind, muss die militärische Mobilisierung von Zeit zu Zeit beträchtlich gewesen sein. Andererseits sind die erhaltenen Verteidigungsanlagen (Systeme aus Gräben und Palisaden) der Stadtstaaten bei weitem nicht so ausgebaut, wie man es von anderen Kulturen kennt. In der Zeit der Postklassik hingegen kommt es auch zur Anlage regelrechter Befestigungen. Besonders im südlichen Hochland, das dem Druck der Azteken ausgesetzt war, werden nun Siedlungen vermehrt auf Bergen angelegt und durch massive Steinbauten geschützt.
Krieg wurde offenbar nicht in Formation geführt. Überfallartige Kriege wurden anscheinend bereits in der Zeit der Klassik ausgetragen. Dabei entführte man zuerst den feindlichen König, um im Anschluss die führungslos gewordenen Bewohner seines Reichs zu unterwerfen.
Maya-Forscher
Einige bekannte Maya-Forscher sind:
Bekannte Maya
K'inich Janaab Pakal (603 – 683), bedeutendster Fürst der Klassik in Palenque
Waxaklajuun Ub’aah K’awiil (ca. 675 – 738), bedeutendster Fürst der Klassik in Copán
K’ak’ Tiliw Chan Yopaat (686/696 – 785), bedeutendster Fürst der Klassik in Quiriguá
Ukit Kan Lek Tok (ca. 740 – 801), bedeutendster Fürst der Klassik in Ek Balam
Chan Chak K'ak'nal Ajaw († nach 915), bedeutendster Fürst der Klassik in Uxmal
Tecun Uman (um 1500 – 1524), Feldherr der Quiché gegen die Konquista
Kayb'il B'alam (um 1500 – nach 1527), Feldherr der Mam gegen die Konquista
Nachi Cocom (um 1510 – 1560/1562), Mayafürst und Führer des Widerstandes gegen die Konquista auf Yucatán
Humberto Ak’abal (1952–2019), zeitgenössischer Lyriker
Rigoberta Menchú (* 1959), Friedensnobelpreisträgerin
Rezeption
Architektur
In den Vereinigten Staaten haben in den 1920er und 1930er Jahre Architekten wie Frank Lloyd Wright und sein Sohn Lloyd Wright zur Popularisierung eines Mayan Revival Style beigetragen. Der an den Art déco angelehnte Baustil zeichnete sich unter anderem durch eine opulente Ornamentik aus.
Unterhaltungsfilme (ohne Authentizitäts- oder Dokumentationsanspruch)
Könige der Sonne, USA, 1963
Apocalypto, USA, 2006
Dokumentarfilme
Ein Ort namens Chiapas, Kanada, 1998
Der Maya-Code, Kanada, 2008
Herz des Himmels, Herz der Erde, Deutschland / USA, 2011
Naachtun – Verborgene Stadt der Mayas, Arte, 2015
Literatur
B. Traven: Land des Frühlings, Büchergilde Gutenberg, Berlin 1928
Videospiele
Shadow of the Tomb Raider, 2018
Siehe auch
Liste der Maya-Ruinen
Indigene Völker Mittelamerikas und der Karibik
Maya-Zahlschrift
Maya Research Program
Chibcha
Literatur
Viola Zetzsche: Maya: die letzte Botschaft der Götter. NOTSchriften-Verlag, Radebeul 2012, ISBN 978-3-940200-76-1.
Raimund Allebrand (Hrsg.): Die Erben der Maya: indianischer Aufbruch in Guatemala. Horlemann, Unkel (Rhein)/Bad Honnef 1997, ISBN 3-89502-063-X.
Gerard W. van Bussel: Der Ball von Xibalba. Das mesoamerikanische Ballspiel. Kunsthistorisches Museum mit Museum für Völkerkunde und Österreichisches Theatermuseum, Wien 2002, ISBN 3-85497-037-4.
Michael D. Coe: Das Geheimnis der Maya-Schrift: ein Code wird entschlüsselt. Rowohlt, Reinbek bei Hamburg 1997, ISBN 3-499-60346-2.
Herbert Wilhelmy: Welt und Umwelt der Maya – Aufstieg und Untergang einer Hochkultur. 2. Auflage, Piper Verlag 1989, ISBN 3-492-11139-4
Arthur Demarest: Ancient Maya. The Rise and Fall of a Rainforest Civilization. Cambridge University Press, Cambridge 2005, ISBN 0-521-53390-2.
Jared Diamond: Kollaps. Warum Gesellschaften überleben oder untergehen. Fischer, Frankfurt am Main 2005, ISBN 3-10-013904-6.
Nikolai Grube (Hrsg.): Maya, Gottkönige im Regenwald. Könemann, Köln 2000, ISBN 3-8290-1564-X.
Klaus Helfrich: Menschenopfer und Tötungsrituale im Kult der Maya. Mann, Berlin 1973, ISBN 3-7861-3013-2.
Diego de Landa: Bericht aus Yucatan. Übersetzt aus dem Spanischen von Ulrich Kunzmann. Reclam, Stuttgart 2007, ISBN 3-15-020528-X.
Timothy Laughton: Die Lebenswelt der Maya. Bechtermünz, Augsburg 1999, ISBN 3-8289-0719-9.
Victor Montejo: Voices from Exile: Violence and Survival in Modern Maya History. University of Oklahoma Press, Norman 1999, ISBN 0-8061-3171-3.
Berthold Riese: Die Maya: Geschichte, Kultur, Religion. 6., durchges. Auflage. Beck, München 2006, ISBN 3-406-46264-2.
Jens Rohark & Mario Krygier: Don Eric und die Maya – 23. Dezember 2012 – Werden die Götter wiederkommen? docupoint, Magdeburg 2006, ISBN 3-938142-72-3.
Linda Schele & David Freidel: Die unbekannte Welt der Maya: das Geheimnis ihrer Kultur entschlüsselt. Weltbild-Verlag, Augsburg 1995, ISBN 3-89350-737-X.
Éric Taladoire & Jean-Pierre Courau: Die Maya. Primus, Darmstadt 2006, ISBN 3-89678-278-9.
Henri Stierlin (Hrsg.): Maya: Guatemala, Honduras, Yukatan. Taschen, Köln 1994, ISBN 3-8228-9528-8.
David Webster: The Fall of the Ancient Maya: Solving the mystery of the Maya collapse. Thames & Hudson, London 2002, ISBN 978-0-500-05113-9.
Frauke Sachse: Einführung in die Ethnologe Mesoamerikas – Ein Handbuch zu den indigenen Kulturen. Waxmann Verlag, New York/Münster 2019, ISBN 978-3-8309-3804-0.
Frauke Sachse, Dürr Michael (Hrsg.): Diccionario k'iche' de Berlín. Gebr. Mann Verlag, Berlin 2017, ISBN 978-3-7861-2782-6.
Weblinks
3sat Dokumentation am 24. Oktober 2016: Die Welt der Maya. Von verlorenen Städten und dem Weltuntergang
Guatemala, Cradle of the Maya Civilization (Englisch, mit Fotos)
Das Schriftsystem der Maya
Bilder von Maya-Ruinen (englisch)
Bilder von Maya-Ruinen (englisch)
Mayaweb: Culture and History of the Ancient Maya (niederländisch und englisch)
FAMSI (englisch und spanisch)
Maya-Hütten und Familienleben (englisch)
WAYEB (Europäische Mayanisten-Vereinigung)
Umfangreiche Maya-Seite
Wissenswertes über die Welt der Maya
Lebensläufe von Maya-Forschern (Englisch, mit Fotos)
Grundlagen und spezielle Themen, Kalendersoftware, Codexreproduktionen und Übersetzung des Popol Vuh
Mesoweb, Seite über mesoamerikanische Kulturen mit Akzent auf den Maya und ihrer Schriftsprache; ältere Artikel sind als PDF downloadbar. Englisch und Spanisch.
„Maya-Kultur: Im Königreich der Schlange“, SpiegelOnline vom 9. März 2008
Einzelnachweise
Historische amerikanische Ethnie
Hochkultur
|
Q28567
| 266.542873 |
108863
|
https://de.wikipedia.org/wiki/Kr%C3%BCmmung
|
Krümmung
|
Krümmung ist ein Begriff aus der Mathematik, der in seiner einfachsten Bedeutung die lokale Abweichung einer Kurve von einer Geraden bezeichnet. Der gleiche Begriff steht auch für das Krümmungsmaß, welches für jeden Punkt der Kurve quantitativ angibt, wie stark diese lokale Abweichung ist.
Aufbauend auf dem Krümmungsbegriff für Kurven lässt sich die Krümmung einer Fläche im dreidimensionalen Raum beschreiben, indem man die Krümmung von Kurven in dieser Fläche untersucht. Ein gewisser Teil der Krümmungsinformation einer Fläche, die gaußsche Krümmung, hängt nur von der inneren Geometrie der Fläche ab, d. h. von der ersten Fundamentalform (bzw. dem metrischen Tensor), die festlegt, wie die Bogenlänge von Kurven berechnet wird.
Dieser intrinsische Krümmungsbegriff lässt sich verallgemeinern auf Mannigfaltigkeiten beliebiger Dimension mit einem metrischen Tensor. Auf solchen Mannigfaltigkeiten ist der Paralleltransport längs Kurven erklärt und die Krümmungsgrößen geben an, wie groß die Richtungsänderung von Vektoren beim Paralleltransport längs geschlossener Kurven nach einem Umlauf ist. Eine Anwendung ist die Allgemeine Relativitätstheorie, welche Gravitation als eine Krümmung der Raumzeit beschreibt. Noch allgemeiner lässt sich dieser Begriff auf Hauptfaserbündel mit Zusammenhang übertragen. Diese finden Anwendung in der Eichtheorie, in welcher die Krümmungsgrößen die Stärke der fundamentalen Wechselwirkungen (z. B. des elektromagnetischen Feldes) beschreiben.
Krümmung einer Kurve
Unter der Krümmung einer ebenen Kurve versteht man in der Geometrie die Richtungsänderung beim Durchlaufen der Kurve. Die Krümmung einer Geraden ist überall gleich null, weil sich ihre Richtung nicht ändert. Ein Kreis(bogen) mit dem Radius hat überall die gleiche Krümmung, denn seine Richtung ändert sich überall gleich stark. Je kleiner der Radius des Kreises ist, desto größer ist seine Krümmung. Als Maß für die Krümmung eines Kreises dient die Größe , das Verhältnis von Zentriwinkel und Länge eines Kreisbogens. Der Zentriwinkel ist gleich dem Außenwinkel zwischen den Kreistangenten in den Endpunkten des Kreisbogens. Um die Krümmung einer beliebigen Kurve in einem Punkt zu definieren, betrachtet man entsprechend ein Kurvenstück der Länge , das den fraglichen Punkt enthält und dessen Tangenten in den Endpunkten sich im Winkel schneiden. Damit wird die Krümmung in dem Punkt durch
definiert, falls dieser Differentialquotient existiert. Ist die Krümmung in einem Punkt ungleich null, dann bezeichnet man den Kehrwert der Krümmung als Krümmungsradius; dies ist der Radius des Krümmungskreises durch diesen Punkt, also des Kreises, der die Kurve in diesem Punkt am besten annähert. Der Mittelpunkt dieses Kreises heißt Krümmungsmittelpunkt und kann konstruiert werden, indem der Krümmungsradius senkrecht zur Tangente der Kurve abgetragen wird, und zwar in die Richtung, in die sich die Kurve krümmt.
Ist die Kurve als Graph einer Funktion gegeben, dann gilt für den Anstiegswinkel der Kurve
, also mit der Kettenregel . Für die Bogenlänge gilt bzw. . Damit erhält man für die Krümmung
Hierbei kann die Krümmung positiv oder negativ sein, abhängig davon, ob der Anstiegswinkel der Kurve bei zunehmender Abszisse wachsend oder fallend ist, d. h. ob die Funktion konvex oder konkav ist.
Definitionen
sei der Ortsvektor eines Punktes auf der Kurve als Funktion der Bogenlänge . Die Krümmung der Kurve ist dann definiert als
Die Krümmung ist also durch den Betrag der Ableitung des Einheitstangentenvektors nach der Bogenlänge gegeben und gibt damit an, wie schnell sich beim Durchlaufen der Kurve die Tangentenrichtung in Abhängigkeit von der Bogenlänge ändert. Die Krümmung in einem Punkt der Kurve ist unabhängig von der gewählten Parametrisierung nach der Bogenlänge.
Für ebene Kurven kann man die Krümmung mit Vorzeichen bezüglich einer Orientierung des Normalenbündels der Kurve definieren. Eine solche Orientierung ist gegeben durch ein stetiges Einheitsnormalenvektorfeld längs der Kurve. Es existiert stets, da jede ebene Kurve orientierbar ist. Ist die Krümmung ungleich null, dann ist die Krümmung mit Vorzeichen durch das Skalarprodukt
definiert. Die Krümmung ist also positiv, wenn sie sich in Richtung von krümmt (d. h. wenn gleich dem Hauptnormaleneinheitsvektor mit ist) und negativ, wenn sie sich in die entgegengesetzte Richtung krümmt (d. h. wenn gilt). Die Definition ist wieder unabhängig von der Parametrisierung nach der Bogenlänge, aber das Vorzeichen ist abhängig von der Wahl von längs der Kurve. Der Betrag liefert die oben gegebene Definition der Krümmung ohne Vorzeichen.
Einer regulär parametrisierten Kurve in der Ebene lässt sich über die Durchlaufrichtung eine Orientierung zuordnen. Ist zusätzlich eine Orientierung der Ebene vorgegeben, so wird dadurch eine Orientierung auf dem Normalenbündel induziert. Dazu sei der Einheitsnormalenvektor, so dass die geordnete Basis positiv orientiert ist. Damit wird das Vorzeichen der Krümmung einer parametrisierten Kurve abhängig von der Orientierung der Ebene und dem Durchlaufsinn der parametrisierten Kurve. In einer Linkskurve ist positiv und in einer Rechtskurve negativ.
Einer Kurve , die als Nullstellenmenge einer Funktion mit regulärem Wert gegeben ist, kann die Krümmung mit Vorzeichen bezüglich des auf die Kurve eingeschränkten normierten Gradientenfeldes zugeordnet werden.
Eigenschaften
Der Krümmungskreis ist der eindeutig bestimmte Kreis, dessen Kontaktordnung mit der Kurve im Berührungspunkt ist. Die Krümmung in einem Punkt ist genau dann gleich null, wenn dort die Kontaktordnung mit der Tangente ist. Die Evolute einer Kurve ist die Ortskurve ihrer Krümmungsmittelpunkte. Man erhält einen Krümmungsmittelpunkt als den Grenzwert von Schnittpunkten zweier Normalen, die sich einander annähern. Nach Cauchy kann damit die Krümmung einer ebenen Kurve definiert werden.
Die Krümmung einer Raumkurve ist wie die Windung eine bewegungsinvariante Größe, die den lokalen Verlauf einer Kurve beschreibt. Beide Größen kommen als Koeffizienten in den frenetschen Formeln vor.
Ist die Krümmung mit Vorzeichen für eine nach der Bogenlänge parametrisierte Kurve in der orientierten Ebene, dann gelten die folgenden Gleichungen:
Jede der beiden Gleichungen ist äquivalent zur Definition der Krümmung mit Vorzeichen für parametrisierte Kurven. In kartesischen Koordinaten bedeuten die Gleichungen, dass und ein Fundamentalsystem von Lösungen für die lineare gewöhnliche Differentialgleichung
bilden, deren Lösung durch
mit
gegeben ist. Aus der Abbildung wiederum erhält man durch Integration die Parametrisierung der Kurve nach der Bogenlänge. Die Vorgabe eines Startpunktes , einer Startrichtung und der Krümmung als Funktion der Bogenlänge bestimmt also die Kurve eindeutig. Da durch eine Drehung von um den Winkel gegeben ist, folgt weiterhin, dass sich zwei Kurven mit derselben Krümmungsfunktion nur durch eine eigentliche Bewegung in der Ebene unterscheiden. Außerdem folgt aus diesen Betrachtungen, dass die Krümmung mit Vorzeichen durch
gegeben ist, wobei der Winkel des Tangentenvektors zu einer festen Richtung ist und wachsend im positiven Drehsinn gemessen wird.
Schränkt man die Parametrisierung einer ebenen Kurve in der Umgebung eines Kurvenpunktes so ein, dass sie injektiv ist, dann kann man jedem Kurvenpunkt eindeutig den Normalenvektor zuordnen. Diese Zuordnung kann man als Abbildung von der Kurve in den Einheitskreis auffassen, indem man den Normalenvektor an den Ursprung des Koordinatensystems anheftet. Zu einem Kurvenstück der Länge , das den Punkt enthält, gehört dann ein Kurvenstück auf dem Einheitskreis der Länge . Für die Krümmung im Punkt gilt dann
Diese Idee kann auf Flächen im Raum übertragen werden, indem man ein Einheitsnormalenvektorfeld auf der Fläche als Abbildung in die Einheitskugel auffasst. Diese Abbildung bezeichnet man als Gauß-Abbildung. Betrachtet man das Verhältnis von Flächeninhalten anstelle der Bogenlängen und versieht dabei das Flächenstück in der Einheitskugel mit einem Vorzeichen, abhängig davon, ob die Gauß-Abbildung den Umlaufsinn der Randkurve bewahrt oder umkehrt, dann liefert das die ursprüngliche Definition der gaußschen Krümmung durch Gauß. Allerdings ist die gaußsche Krümmung eine Größe der intrinsischen Geometrie, während eine Kurve keine intrinsische Krümmung besitzt, denn jede Parametrisierung nach der Bogenlänge ist eine lokale Isometrie zwischen einer Teilmenge der reellen Zahlen und der Kurve.
Betrachtet man eine normale Variation , , einer parametrisierten ebenen Kurve auf einem Parameterintervall und bezeichnet mit die Bogenlänge des variierten Kurvenstücks, dann gilt für die Krümmung mit Vorzeichen bezüglich :
Die Krümmung in einem Punkt gibt also an, wie schnell sich die Bogenlänge eines infinitesimalen Kurvenstückes in diesem Punkt bei einer normalen Variation ändert. Auf Flächen im Raum übertragen führt dies auf den Begriff der mittleren Krümmung. Der entsprechende Grenzwert mit Flächeninhalten anstelle von Kurvenlängen liefert dann die zweifache mittlere Krümmung.
Diese Charakterisierung der Krümmung einer ebenen Kurve gilt auch dann, wenn man allgemeiner die Variation durch den lokalen Fluss eines Vektorfeldes (d. h. ) mit betrachtet. Man erhält
mit der Jacobi-Matrix und der Divergenz des Vektorfeldes. Als Anwendung erhält man die folgende Formel für die Krümmung mit Vorzeichen bezüglich des normierten Gradientenfeldes längs einer Kurve, die als Nullstellenmenge einer Funktion gegeben ist (der Beitrag zweiter Ordnung in Richtung verschwindet):
wobei mit der Hesse-Matrix , die Spur und die Einheitsmatrix ist. Für Abbildungen liefert diese Formel die zweifache mittlere Krümmung von Flächen als Nullstellenmengen im Raum und wird als Formel von Bonnet bezeichnet. Ausgeschrieben und in eine andere Form gebracht lautet die Formel im Fall ebener Kurven:
Dabei bezeichnet z. B. die partielle Ableitung von nach dem ersten Argument und die Adjunkte von . Für Abbildungen liefert der zweite Ausdruck die Gaußsche Krümmung für Flächen als Nullstellenmengen im Raum.
Berechnung der Krümmung für parametrisierte Kurven
Die oben gegebene Definition setzt eine Parametrisierung der Kurve nach der Bogenlänge voraus. Durch Umparametrisierung erhält man daraus eine Formel für beliebige reguläre Parametrisierungen . Fasst man die ersten beiden Ableitungen von als Spalten einer Matrix zusammen, dann lautet die Formel
.
Für ebene Kurven ist eine quadratische Matrix und die Formel vereinfacht sich mit Hilfe der Produktregel für Determinanten zu
.
Ist die Ebene durch den mit der Standardorientierung gegeben, dann erhält man die Formel für die Krümmung mit Vorzeichen durch Weglassen der Betragsstriche im Zähler.
Ebene Kurven
Ist die Parametrisierung durch die Komponentenfunktionen und gegeben, dann liefert die Formel für die Krümmung mit Vorzeichen im Punkt den Ausdruck
.
(Die Punkte bezeichnen dabei Ableitungen nach .)
Das liefert die folgenden Spezialfälle:
Fall 1 Die Kurve ist der Graph einer Funktion . Die Krümmung im Punkt ergibt sich aus
.
Fall 2 Die Kurve ist in Polarkoordinaten gegeben, also durch eine Gleichung . In diesem Fall erhält man für die Krümmung im Punkt die Formel
.
Raumkurven
Für Kurven im dreidimensionalen Raum kann man die allgemeine Formel mit Hilfe des Kreuzproduktes folgendermaßen ausdrücken:
Krümmung einer Fläche
Einer gewölbten regulären Fläche merkt man ihre Krümmung an einer nach außen quadratisch zunehmenden Abweichung der Fläche von ihrer Tangentialebene an. Eine verstärkte Krümmung macht sich dann als stärkere Abweichung von der Ebene bemerkbar.
In der Differentialgeometrie betrachtet man an jedem Punkt die Krümmungsradien der Schnittkurven mit den in errichteten Normalebenen (d. h. die Fläche senkrecht schneidenden Ebenen). Dabei wird den Krümmungsradien und Krümmungen das Vorzeichen bezüglich eines Einheitsnormalenvektorfeldes auf der Fläche, eingeschränkt auf die ebene Schnittkurve, zugeordnet. Unter diesen Krümmungsradien gibt es einen maximalen () und einen minimalen (). Die Kehrwerte und werden als Hauptkrümmungen bezeichnet. Die entsprechenden Krümmungsrichtungen stehen senkrecht aufeinander.
Die gaußsche Krümmung und die mittlere Krümmung einer regulären Fläche in einem Punkt berechnen sich wie folgt:
Die Gesamtkrümmung oder auch totale Krümmung einer Fläche ist das Integral der gaußschen Krümmung über diese Fläche:
Krümmung in der riemannschen Geometrie
Da riemannsche Mannigfaltigkeiten im Allgemeinen in keinen Raum eingebettet sind, wird in diesem Teilgebiet der Differentialgeometrie eine Krümmungsgröße gebraucht, die unabhängig von einem umgebenden Raum ist. Dazu wurde der riemannsche Krümmungstensor eingeführt. Dieser misst, inwieweit die lokale Geometrie der Mannigfaltigkeit von den Gesetzen der euklidischen Geometrie abweicht. Aus dem Krümmungstensor werden weitere Krümmungsgrößen abgeleitet. Die wichtigste Krümmung der riemannschen Geometrie ist die Schnittkrümmung. Diese abgeleitete Größe enthält alle Informationen, die auch im riemannschen Krümmungstensor enthalten sind. Andere einfachere abgeleitete Größen sind die Ricci-Krümmung und die Skalarkrümmung.
Eine Krümmung auf einer riemannschen Mannigfaltigkeit zeigt sich beispielsweise, wenn man das Verhältnis zwischen Kreisumfang und Radius innerhalb der Mannigfaltigkeit ermittelt und zu dem Wert , den man in einem euklidischen Raum erhält, in Verhältnis setzt.
Anwendung in der Relativitätstheorie
In der allgemeinen Relativitätstheorie wird die Gravitation durch eine Krümmung der Raum-Zeit beschrieben, die von den Massen der Himmelskörper verursacht wird. Körper und Lichtstrahlen bewegen sich auf den durch diese Krümmung bestimmten geodätischen Bahnen. Diese Bahnen erwecken den Anschein, dass eine Kraft auf die entsprechenden Körper ausgeübt werde.
Literatur
Wolfgang Walter: Analysis II. 2. Auflage. Springer, 1991, ISBN 3-540-54566-2, S. 171–174.
Konrad Königsberger: Analysis 1. 2. Auflage. Springer, 1992, ISBN 3-540-55116-6, S. 238–41, 257.
Ilja Nikolajewitsch Bronstein, Konstantin Adolfowitsch Semendjajew, Gerhard Musiol, Heiner Mühlig: Taschenbuch der Mathematik. 7. Auflage. Verlag Harri Deutsch, 2008, ISBN 978-3-8171-2007-9, S. 251 ff. ( (Google))
Matthias Richter: Grundwissen Mathematik für Ingenieure. 2. Auflage. Vieweg+Teubner 2001, 2008, ISBN 978-3-8348-0729-8, S. 230 ( (Google))
A. Albert Klaf: Calculus Refresher. Dover 1956, ISBN 978-0-486-20370-6, S. 151–168 ( (Google))
James Casey: Exploring Curvature. Vieweg+Teubner, 1996, ISBN 978-3-528-06475-4.
Weblinks
Animierte Illustrationen selbst erstellen: begleitendes Zweibein und Krümmungsfunktion (Maple-Worksheet)
Curvature in der Encyclopaedia of Mathematics
(englisch)
Curvature, Intrinsic and Extrinsic auf MathPages.com (englisch)
Einzelnachweise
Riemannsche Geometrie
Elementare Differentialgeometrie
Allgemeine Relativitätstheorie
|
Q214881
| 92.145197 |
215071
|
https://de.wikipedia.org/wiki/Gesundheits%C3%B6konomie
|
Gesundheitsökonomie
|
Gesundheitsökonomie () ist eine fachübergreifende Wissenschaft, die sich mit der Produktion, der Verteilung und dem Konsum von knappen Gesundheitsgütern in der Gesundheitsversorgung beschäftigt und somit Elemente der Gesundheitswissenschaften und der Volks- und Betriebswirtschaftslehre vereinigt.
Grundsätzlich werden das Angebot und die Nachfrage von Gesundheitsleistungen sowie von Krankenversicherungsleistungen analysiert, wobei die Berücksichtigung bestehender Informationsasymmetrien von besonderer Bedeutung ist. Zudem sind unterschiedliche Gesundheitssysteme zu beleuchten. Der Spannungsbogen zwischen medizinischer Wirksamkeit („Gesundheits...“) und Wirtschaftlichkeit („…ökonomie“) wird erweitert durch die Qualität von Gesundheitsversorgung und die gerechte Verwendung von Gesundheitsgütern. Die optimale Verwendung begrenzter Gesundheitsbudgets steht im Vordergrund. Die häufigste praktische Anwendung gesundheitsökonomischer Methoden ist die Entscheidungsanalyse, in welche Gesundheitsleistungen bevorzugt investiert werden soll.
Bedeutung und Entwicklung
Die Ressourcen des Gesundheitswesens sind von immerwährender Knappheit gekennzeichnet. In Deutschland besagt das Wirtschaftlichkeitsgebot, dass die von den Gesetzlichen Krankenversicherungen (GKVen) zu erstattenden und von den medizinischen Dienstleistern zu erbringenden Leistungen „ausreichend, zweckmäßig und wirtschaftlich sein müssen; sie dürfen das Maß des Notwendigen nicht überschreiten. Leistungen, die nicht notwendig oder unwirtschaftlich sind, können Versicherte nicht beanspruchen, dürfen die Leistungserbringer nicht bewirken und die Krankenkassen nicht bewilligen“.
Vor diesem Hintergrund ergibt sich die Aufgabe, einen Ausgleich zwischen den medizinischen Möglichkeiten, ihrer Finanzierbarkeit, sowie Qualität und Gerechtigkeit herzustellen. Mit wissenschaftlichen Methoden unterstützt die Gesundheitsökonomie somit die Entscheidungsfindung im Gesundheitswesen. Man spricht vom magischen Viereck der Gesundheitsökonomie (Abbildung).
Die Entwicklung und die Bedeutung werden durch die in Deutschland erlassenen Gesetze deutlich. Die Entwicklung begann 1977 mit der ersten Gesundheitsreform, dem Krankenversicherungs-Kostendämpfungsgesetz. Geregelt waren unter anderem die Zuzahlungen für Arznei-, Verband- und Heilmittel sowie die Kürzung von Zuschüssen zu Zahnersatzleistungen. Seitdem erfolgten kontinuierlich weitere Gesundheitsreformen. Im Jahr 2007 wurde mit dem § 35b SGB V die Wirtschaftlichkeitsprüfung für neue Arzneimittel und für Medikamente von „besonderer Bedeutung“ verbindlich eingeführt.
Zielsetzung
Eine von vielen Aufgaben der Gesundheitsökonomie ist die Entwicklung von Modellen und Werkzeugen zur Messung und Bewertung von Veränderungen der Methoden und Prozesse im Gesundheitswesen durch medizinische oder gesundheitspolitische Interventionen und neue Gesundheitstechnologien. Der Begriff Technologie ist dabei sehr weit gefasst und beinhaltet unter anderem auch Arzneimittel, Heil- und Hilfsmittel, Labortechnologie oder Diagnostika sowie Versorgungs- und Versicherungsformen. In der vergleichenden gesundheitsökonomischen Analyse können ökonomisch günstigere, qualitativ gleichwertige oder bessere Alternativen aufgezeigt werden. Hierzu kann auch Stacking zählen, da es geringere Dosierungen und damit meist auch geringere Kosten bedingen kann.
Die Gesundheitsökonomie verfolgt den Gedanken nach Erfüllung wirtschaftlicher Prinzipien: Es wird eine Beziehung zwischen dem zusätzlichen Nutzen einer Intervention und der Knappheit von verbrauchten Ressourcen hergestellt.
Des Weiteren ist es Intention der Gesundheitsökonomie, Wechselwirkungen zwischen dem Gesundheitssystem und der Volkswirtschaft zu analysieren.
Kernelemente der gesundheitsökonomischen Evaluation
In der gesundheitsökonomischen Analyse haben Standards zur Durchführung und zur Publikation von gesundheitsökonomischen Studien einen hohen Stellenwert erhalten. Sie legen notwendige Inhalte und Verfahren für die gesundheitsökonomische Analyse fest.
Perspektiven
Bei der Betrachtung der Kosten und Nutzen einer spezifischen Gesundheitsleistung oder -maßnahme ist die Beachtung unterschiedlicher Sichtweisen wichtig. Je nach gewählter Betrachtungsperspektive wird eine gesundheitsökonomische Analyse zu völlig unterschiedlichen Ergebnissen führen. Was für den Patienten vorteilhaft ist, muss nicht für die in der Zahlungsverpflichtung stehende Krankenversicherung oder für den Arbeitgeber erstrebenswert sein.
Üblicherweise wird zwischen folgenden grundlegenden Perspektiven unterschieden:
Patient: zum Beispiel finanzielle Belastung oder Zuzahlungen.
Leistungserbringer (Arzt, Krankenhaus): zum Beispiel Vergütung von Dienstleistungen oder Kostenstruktur.
Krankenkasse: zum Beispiel Kostenerstattung.
Gesellschaft: zum Beispiel Verteilungsgerechtigkeit, Allokation oder Erhalt der Gesundheit und Arbeitsfähigkeit.
Arbeitgeber: zum Beispiel Arbeitsausfall oder Frühberentung.
Versichertengemeinschaft der GKV: Neueinführung durch das Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen
Nutzenbewertung
Bei der Bewertung spielen neben den direkten Kosten und Nutzen vor allem die indirekten, positiven und negativen externen Effekte einer Gesundheitsleistung eine erhebliche Rolle. Da Nutzen nicht nur aus monetären Größen besteht, müssen auch medizinische oder epidemiologische Outcome-Einheiten berücksichtigt werden. Beispiele hierfür sind gewonnene symptomfreie Tage, die Anzahl vermiedener Tumoren, Veränderungen des Blutdrucks oder zusätzlich gewonnene Lebensjahre bei lebensrettenden Maßnahmen.
Kostenbewertung
Kosten in der Gesundheitsökonomie sind unter anderem der Verbrauch von monetären Mitteln für eine oder mehrere durchgeführte medizinische Maßnahmen.
Kosten stehen allerdings nicht nur in Zusammenhang mit Geldmitteln; viel mehr können Kosten in der Gesundheitsökonomie auch negative Effekte (z. B. Nebenwirkungen) sein, die durch eine Maßnahme entstehen. Sie stehen damit in direktem Zusammenhang mit dem Nutzen.
Die Bedeutung der Kosten ist abhängig von der Sichtweise.
Für einen Patienten sind die monetären Kosten einer von der Krankenkasse abgedeckten Behandlung uninteressant, während sie für die Krankenkasse am bedeutendsten sind.
Die Nebenwirkungen der Behandlung sind die für den Patienten wichtigen Kosten.
Die Gesundheitsökonomie unterscheidet für eine genauere Definition verschiedene Arten von Kosten.
Die wichtigsten sind:
Direkte Kosten
Direkte Kosten sind die monetären Mittel, die zur Behandlung eines Patienten notwendig sind.
Sie umfassen Kosten für Medikamente, Labor, Personal, Verwaltung und andere Materialien, die zur Behandlung benötigt werden.
Auch Kosten, die durch eine Behandlung entstehen, sind direkte Kosten. (z. B. Kosten zur Behandlung von Nebenwirkungen).
Direkte Kosten sind bei Retrospektiven Studien nur schwer zu ermitteln, da häufig eine genaue Erfassung der Kosten nicht möglich ist.
Bei einer Prospektiven Studie können die Kosten beliebig genau ermittelt werden.
Indirekte Kosten
Indirekte Kosten sind monetäre Kosten, die für den Patienten im persönlichen Umfeld, z. B. durch Verdienstausfall aufgrund von Krankheit entstehen.
Dem gegenüber steht der indirekte Nutzen, der durch Verbesserung der Gesundheit des Patienten und der damit verbesserten Leistungsfähigkeit einhergeht (z. B. Patient ist wieder arbeitsfähig).
Häufig wird zur Abschätzung von Kosten und Nutzen der Humankapital-Ansatz verwendet, der zur Berechnung des Produktivitätsverlustes durch Behandlung oder Krankheit das Einkommen des Patienten zu Grunde legt. Benachteiligt werden hier Personen ohne Verdienst, die keinen indirekten Nutzen durch Steigerung ihrer Produktivität haben.
Intangible Kosten
Nicht direkt monetär messbare Kosten und Nutzen bezeichnet man als intangibel.
Man unterscheidet physische, psychische und soziale Faktoren.
Dazu zählen beispielsweise Angst, Schmerz, Stress, Freude, Glück, Veränderung der Compliance oder der Lebensqualität.
Zum Messen von intangiblen Effekten gibt es mehrere Ansätze. Der QALY Ansatz (Quality adjusted Lifeyears) ist hier sehr geläufig.
Die Zuordnung von Kosten ergibt sich aus der Bereitschaft Geld auszugeben, um positiv besetzte Ergebnisse wie Glück zu erzielen oder um negativ bewertete Ergebnisse wie Schmerz oder Angst zu vermeiden.
Methoden der gesundheitsökonomischen Evaluation
Grundlage einer methodisch wohl begründeten Evaluation sind Modelle und Daten. Diese Daten werden entweder systematisch erfasst oder in Stichproben erhoben oder aus anderen Daten geschätzt. Durch ein Prozessmodell werden die Daten strukturiert und für die Analyse bereitgestellt. Die Granularität der Modellierung wird dem Ziel der Evaluation angemessen bestimmt.
Kostenanalysen
Kostenanalysen sind elementarer Bestandteil von Wertprojekten, bei denen es stets um die Wertoptimierung des betrachteten Produktfokus (z. B. Produkt, Baugruppe, Unternehmensbereich, Geschäftsprozess) geht. Dabei werden die wertbestimmenden Komponenten Nutzen und Aufwand entsprechend der Projektzielsetzung, des Projektumfelds und der verfügbaren Ressourcen abgebildet und analysiert.
Kosten-Minimierungs-Analysen
Die Kosten-Minimierungs-Analyse stellt die einfachste Variante einer ökonomischen Studie dar. Belegen klinische Daten mindestens die Gleichwertigkeit zweier Therapiealternativen, wird des geringeren Aufwandes wegen oft nur noch die Kostenseite betrachtet. Ziel ist es, die kostengünstigere Alternative zu ermitteln. Die Kosten-Minimierungs-Analyse, die gelegentlich auch als Kosten-Kosten-Analyse bezeichnet wird, stellt einen Spezialfall der weiter unten behandelten Kosten-Effektivitäts-Analyse dar.
Kosten-Nutzen-Analysen
Bei der Kosten-Nutzen-Analyse (auch KNA) werden alle zukünftigen, auf die Gegenwart bezogenen diskontierten Erträge und Kosten eines Projektes errechnet und, vorausgesetzt es gibt Alternativen, mit deren Wert verglichen.
Es handelt sich dabei um ein Analyseverfahren, bei dem die dringend benötigten Kosten gegen die vermuteten Erträge aufgewogen werden. Hierbei werden sowohl die Kosten als auch die Nutzen in Geldeinheiten gemessen, so dass man die Wirtschaftlichkeit einer Behandlung direkt ermitteln kann. Übersteigt der (monetarisierte) Nutzen die Kosten, ist die Behandlung sinnvoll. Problem: Wenn mehrere Projekte gleichzeitig stattfinden, ist es schwierig, die Kosten und Nutzen den Projekten angemessen zuzurechnen.
Kosten-Effektivitäts-Analysen
Die Kosten-Effektivitäts-Analyse (abgekürzt KEA) stellt die Kosten von Arzneitherapien ihren Wirkungen gegenüber. Im Gegensatz zur Kosten-Nutzen-Analyse wird das therapeutische Ergebnis nicht monetär, sondern als eine klinische oder physikalische Größe dargestellt. Dies können Surrogatparameter (Laborwert, Blutdruck) oder patientenrelevante Wirksamkeitsmaße (Outcome) wie zum Beispiel vermiedene Krankheitstage oder gewonnene Lebensjahre sein. Voraussetzung ist, dass die untersuchten Interventionen identische klinische Endpunkte haben und die Verdichtung auf einen einzigen Zielparameter den oft komplexen Wirkungen und Nebenwirkungen einer Arzneimitteltherapie noch gerecht wird. Darüber hinaus existiert die Annahme oder gegebenenfalls das Problem, dass die Endpunkte, wie zum Beispiel die gewonnenen Lebensjahre, qualitativ gleichwertig sind.
Das Ergebnis einer Kosten-Effektivitäts-Analyse könnte absolut als für eine klinische oder physikalische Einheit aufgewendeter Geldbetrag dargestellt werden. Da in der Regel Therapiealternativen untersucht werden, ist jedoch die inkrementelle Darstellung sinnvoller und deshalb Standard: Die zusätzlichen Kosten einer neuen im Vergleich zur etablierten Therapie werden zur zusätzlich gewonnenen Effektivität ins Verhältnis gesetzt. In der englischsprachigen Literatur hat sich dafür die Abkürzung ICER für »incremental cost-effectiveness ratio« eingebürgert.
Einer der häufigsten Ergebnisparameter einer KEA sind die Kosten pro zusätzlich gewonnenem Lebensjahr (engl. cost per life-year gained, kurz CLYG).
Kosten-Nutzwert-Analyse
Die Kosten-Nutzwert-Analyse ist eine ökonomische Untersuchung, in welcher die Kosten monetär, die Konsequenzen jedoch als Nutzen respektive Nutzwerte ausgedrückt werden.
Der Nutzwert ist eine Größe, welche die Präferenzen der betroffenen Zielgruppe wiedergibt und den Gesundheitszustand derselben reflektiert.
Eine der häufigsten Anwendungen ist die Beurteilung der Lebensqualität von Patienten in gesundheitsökonomischen Analysen. Hierbei werden Werte zwischen 0 (Tod) und 1 (vollkommene Gesundheit) definiert. Die Multiplikation dieses so genannten Nutzwertes mit der Lebenserwartung ergibt die qualitätsbereinigten Lebensjahre. Die Messung der Lebensqualität aus Sicht des Patienten hat sich zu einer eigenen Forschungsrichtung entwickelt. Sie ist sehr aufwändig. Auch besteht noch kein Konsens über ein ideales Verfahren. Dennoch führt die Betrachtung der Patientensicht dazu, dass nicht mehr nur die reine Lebensverlängerung als primäres therapeutisches Ziel gesehen wird und unter Umständen alle verfügbaren Mittel bindet, sondern auch subjektiv relevante Lebensqualitätsverbesserungen – wie zum Beispiel die Verbesserung des Sehvermögens – einen angemessenen Stellenwert erhalten. Als Wirksamkeitsmaß hat sich die Maßeinheit des qualitätsbereinigten Lebensjahres QALY für »quality-adjusted life year« durchgesetzt, dem die dafür aufzuwendenden Kosten gegenübergestellt werden.
Mit einer solchen indikationsunabhängigen Normierung des Behandlungsergebnisses werden Vergleiche zwischen verschiedenen Maßnahmen im Gesundheitswesen möglich.
Wirtschaftlichkeitsanalysen für Arzneimittel in Deutschland
Seit 2007 ist das IQWiG ein gesetzlich verankertes Institut, das sich mit der Prüfung des Nutzens im Verhältnis zu den Kosten neu zugelassener Arzneimittel beschäftigt. Eine Vorreiterrolle hatte Australien, das eine solche Einrichtung schon 1987 etabliert hat. Neben Kanada und der Schweiz folgten auch viele europäische Staaten 1994.
Bisher galt, sobald die Zulassung für neue Medikamente nach Prüfung der Qualität, Wirksamkeit und Unbedenklichkeit erteilt war, dass die pharmazeutische Industrie die Preise frei festlegen konnte und die Krankenkassen die Kosten bei ärztlicher Verschreibung erstatten mussten.
Kritik und Grenzen
Die Analyse und Steuerung der Gesundheitsökonomie wird von vielen im Gesundheitswesen beschäftigten Experten kritisch betrachtet. Oftmals entscheiden sich Politiker gegen die Rationalisierungs- und Rationierungsempfehlungen der Gesundheitsökonomen, da diese aus politischen Gründen nicht umsetzbar sind (e.g. Krankenhausschließungen).
Da die Gesundheitsökonomie sehr medizin- und pharmalastig ist, wird die soziale Lebenswelt jedes einzelnen Patienten in weiten Teilen außer Acht gelassen. Eine sehr starke Konzentration auf Preis- und Marktmechanismen sowie deren Eigennutzen lassen viele Experten an den Methoden der Gesundheitsökonomen zweifeln. Die Unabhängigkeit gesundheitsökonomischer Analysen wird oft bezweifelt, weil die meisten Studien im Auftrag von Interessengruppen (wie der Pharmaindustrie, der Mediziner oder der Krankenversicherungen) erstellt und finanziert werden.
Gefordert werden bessere Erklärungen und tragfähige Lösungen, die durch eine leicht verständliche Gesundheitsökonomie umgesetzt werden können. Methoden wie „Standard-Gamble“ und „Time-Trade-Off“ sind nur bedingt geeignet, da sie sehr aufwändig, kostspielig und somit schwer in den Alltag einzubringen sind.
Die Gesundheitsökonomie wird stark von methodischen Grenzen beeinflusst. Hierzu zählt die Lebensqualität sowie die Monetarisierung von Nutzen. Eine weitere, nicht außer Acht zu lassende Grenze ist die Wertschätzung des Lebens. Ethische Konfliktsituationen treten häufig auf und sind auch Gegenstand der Medizinethik.
Studium
Mehrere deutsche Hochschulen bieten mittlerweile ein interdisziplinär ausgerichtetes Studium zur Gesundheitsökonomie an. Es ist in der Regel in die Bereiche Betriebs- und Volkswirtschaftslehre, Sozialwissenschaften sowie zunehmend auch Wirtschaftsinformatik eingebettet.
Ziel ist es zum einen das Verständnis für gesundheitsökonomische Zusammenhänge in einem Gesamtkonzept zu vermitteln, zum anderen die Effizienz von Gesundheitsmitteln gegen ihre Kosten abzuwägen. Dazu werden neben dem Hauptfach Gesundheitsökonomie unter anderem Module für Management im Gesundheitsbereich, Qualitätssicherung, Entscheidungstheorie sowie gesundheitsökonomische Evaluation aber auch Kosten- und Leistungsrechnung, Organisation und Personalwesen oder Marketing gelehrt. Medizin und die Arbeit mit Patienten spielen dagegen keine wesentliche Rolle.
Ethik
Neben den betriebswirtschaftlichen und finanziellen Zielen ergeben sich ebenso ethische Fragen nach Gerechtigkeit und Gleichheit im modernen Gesundheitswesen. Gesundheitsökonomen stehen der schwierigen Aufgabe gegenüber, das ökonomische und ethische Gleichgewicht in ihren Analysen zu vereinigen.
Siehe auch
Epidemiologie, Gesundheitsberichterstattung, Gesundheitsmanagement, Pharmakoökonomie
Deutsche Gesellschaft für Gesundheitsökonomie
Literatur
Kornelia van der Beek, Gregor van der Beek: Gesundheitsökonomik – Einführung. Oldenbourg Verlag, München 2011, ISBN 978-3-486-58686-2.
Hartmut Berghoff, Malte Thießen (Hrsg.): Themenheft Gesundheitsökonomien. In: Zeithistorische Forschungen, 2020, 17, Heft 2.
Friedrich Breyer, Peter Zweifel, Mathias Kifmann: Gesundheitsökonomik. 5., überarb. Auflage, Springer, Berlin / Heidelberg 2005.
Michael F. Drummond u. a.: Methods for the Economic Evaluation of Health Care Programmes. 3., überarb. Auflage. Oxford University Press, Oxford 2005, ISBN 3-540-22816-0.
Leonhard Hajen, Holger Paetow, Harald Schuhmacher: Gesundheitsökonomie. Strukturen – Methoden – Praxisbeispiele. 4., überarb. u. erw. Auflage. Kohlhammer, Stuttgart 2007, ISBN 978-3-17-019938-5.
Karl W. Lauterbach, Matthias Schrappe (Hrsg.): Gesundheitsökonomie, Qualitätsmanagement und Evidence-based Medicine. eine systematische Einführung. 2., überarb. Auflage. Schattauer, Stuttgart / New York 2003,
Karl W. Lauterbach, Stephanie Stock, Helmut Brunner (Hrsg.): Gesundheitsökonomie. Lehrbuch für Mediziner und andere Gesundheitsberufe. Hans Huber, 2006, ISBN 3-456-84333-X.
Oliver Mast, Inga–Marion Thate–Waschke: Kleines Bayer–Lexikon Gesundheitsökonomie. Bayer Vital GmbH, Leverkusen 1999, ISBN 3-00-005002-7.
Peter Oberender, Thomas Ecker: Grundelemente der Gesundheitsökonomie. PCO-Verlag, Bayreuth 2001, ISBN 3-931319-78-4.
David Matusiewicz, Jürgen Wasem: Gesundheitsökonomie in Deutschland – ein Blick zurück nach vorne. In: Mühlbauer u. a.: Zukunftsperspektiven der Gesundheitswirtschaft. LIT-Verlag, 2012, S. 420–439.
G. Noelle, E. Jaskulla, P. T. Sawicki: Aspekte zur gesundheitsökonomischen Bewertung im Gesundheitssystem. In: Bundesgesundheitsblatt – Gesundheitsforschung – Gesundheitsschutz. 49, 2006, S. 28–33.
Thomas Rice: Stichwort: Gesundheitsökonomie. Eine kritische Auseinandersetzung. KomPart-Verlag, Bonn 2004.
Reinhard Rychlik: Gesundheitsökonomie. Gesundheit und Praxis. Ferdinand Enke Verlag, Stuttgart 1999.
Herbert Rebscher: Gesundheitsökonomie und Gesundheitspolitik. Economica Verlag, Heidelberg 2006.
Dennis Häckl: Neue Technologien im Gesundheitswesen. Gabler Verlag / Springer Fachmedien, Wiesbaden / Leipzig 2010, ISBN 978-3-8349-2410-0.
O. Schöffski, J. M. Graf v. d. Schulenburg: Gesundheitsökonomische Evaluationen. 3. Auflage. Springer, 2007, ISBN 978-3-540-49559-8.
Christian Thielscher (Hrsg.): Handbuch Medizinökonomie I. Grundlagen und System der medizinischen Versorgung. ISBN 978-3-658-17782-9
Weblinks
Michael und Barbara Thieme: Kommentierte Literatur- und Linkliste zu Gesundheitsökonomie
HealthEconomics.Com – Übersichtsseite für gesundheitsökonomische Ressourcen im Web (englisch)
International Health Economics Association iHEA – Die internationale Vereinigung der Gesundheitsökonomen (englisch)
Einzelnachweise
Wissenschaftliches Fachgebiet
Forschung (Gesundheit)
Gesundheitswesen
Gesundheitswissenschaft
Krankenversicherungswesen
Gesundheitswirtschaft
Wirtschaftswissenschaft
|
Q31218
| 84.982841 |
410794
|
https://de.wikipedia.org/wiki/Schulleitung
|
Schulleitung
|
Die dienstlichen Aufgaben der Schulleitung (Schulleiter bzw. Schulleiterin, teilweise auch Direktor/Direktorin bzw. Rektor/Rektorin) sind in Deutschland in den verschiedenen Schularten durch die 16 verschiedenen Landesschulgesetze geregelt.
Bei den Grund- und Hauptschulen ist die Schulleitung den Lehrkräften vorgesetzt. Bei den weiterführenden Schulen ist die Schulleitung dienstvorgesetzt und hat insbesondere auch eine Beurteilungsfunktion.
In Baden-Württemberg ist für alle Schularten der Regierungspräsident Dienstvorgesetzter. Der Schulleiter ist nur für schriftliche Missbilligungen nach der Landesdisziplinarordnung als Dienstvorgesetzter tätig.
Formale Aspekte
Formal vertritt die Schulleitung die Schule nach außen (auch dem Elternbeirat (je nach Bundesland unterschiedlich) und der Presse gegenüber). Sie trägt Verantwortung für den ordnungsgemäßen Dienstbetrieb, den gleichmäßigen Einsatz der Lehrkräfte sowie einen geregelten Stunden- und Aufsichtsplan.
Die Schulleitung beruft die Schulkonferenz ein sowie die Gesamtlehrerkonferenz, die unter ihrer Leitung stattfindet. Sie erlässt und vollzieht Verwaltungsakte wie z. B. die Aufnahme und Entlassung von Schülern.
Darüber hinaus trägt sie Sorge für die Erfüllung der Schulpflicht (z. B. Schulversäumnisse oder Beurlaubung von Schülern) und verfügt über das Hausrecht. Je nach Schulart hat sie eine Funktion als Vorgesetzte bzw. als Dienstvorgesetzte der Lehrkräfte (z. B. zur Beurteilung der Lehrkräfte, Disziplinarmaßnahmen). Ebenfalls wirkt sie in verschiedenen Gremien mit.
Inhaltliche Aspekte
Von der Schulleitung wird hohe Stabilität erwartet, weil sie in einem komplexen Spannungsfeld aus Ministerium, Schulträger, Schüler- und Elternschaft sowie Lehrerkollegium und Öffentlichkeit agieren muss. Die wichtigste Forderung an die Schulleitung ist, sich über das vertretene Konzept von Schule und Unterricht, von Bildung und Erziehung klar zu sein.
An der Schulleitung liegt es, integrierend zu wirken und an der Schule ein Klima der Freiheit und Offenheit zu schaffen. Sie kann den Teamgeist innerhalb eines Lehrerkollegiums nicht verordnen, kann dessen Entwicklung aber fördern, zum Beispiel durch partnerschaftliche Haltung ihrerseits und durch Motivation.
Aufgabe der Schulleitung ist auch, Anstöße zu notwendigen Veränderungen aus dem Kollegium wahrzunehmen und zu unterstützen, um Prozesse der Schulentwicklung und Schulerneuerung in Gang zu setzen und zielgerichtet zu kanalisieren.
Fort- und Weiterbildung
Zu den wichtigen Aufgabengebieten der Schulleitung zählt eine nachhaltige Verbesserung der Personalentwicklung. Diese basiert auf Grundlage einer kontinuierlichen Fort- und Weiterbildung der Lehrer.
Professionalisierung
Angesichts der zunehmenden Komplexität von Schulleitungsaufgaben werden Überlegungen wichtig, wie Schulleitungen das leisten können.
Eine Professionalisierung der Schulleitung soll eine qualifizierte Ausbildung für dieses Amt sichern sowie eine den Anforderungen gerechten Auswahl, Maßnahmen der Weiterqualifizierung/systematische Personalentwicklung, eine angemessene Dienststellung und Unterstützungssysteme.
Nach dem Konzept der Kooperation und kooperativen Führung ist Kooperation in Schulen sowohl Mittel als auch Ziel. Die Schulleitung schafft Rahmenbedingungen und unterstützt die Umsetzung an der Schule, zudem ist sie ein Vorbild für kooperatives Handeln.
Ein integratives Führungskonzept in Schulen geht von einer klaren pädagogischen Zielorientierung aus und ist pädagogischen Werten verpflichtet.
Siehe auch
Schulrecht
Rektor
Oberstudiendirektor
Literatur
Allgemeine Dienstordnung für Lehrer und Lehrerinnen, Schulleiter und Schulleiterinnen an öffentlichen Schulen in Nordrhein-Westfalen. (ADO), RdErl. d. Kultusministeriums vom 20. September 1992.
B. J. Caldwell, J. M. Spinks: Leading the self-managing school. Falmer Press, London 1992.
D. Esp: Competences for school managers. Kogan Page, London 1993.
R. Glatter: Tasks and capabilities. In: N. E. Stegö, K. Gielen, R. Glatter, S. M. Hord (Hrsg.: The role of school leaders in school improvement. ACCO, Leuven 1987, S. 113–121).
S. G. Huber (Hrsg.): Handbuch Führungskräfteentwicklung. Grundlagen und Handreichungen zur Qualifizierung und Personalentwicklung im Schulsystem. Link, Köln 2013, ISBN 978-3-556-06033-9.
S. G. Huber, F. Ahlgrimm: Kooperation. Aktuelle Forschung zur Kooperation in und zwischen Schulen sowie mit anderen Partnern. Waxmann, Münster 2012.
S. G. Huber, S. Hader-Popp: Kooperation in der Schule: Schulleitung ist Vorbild, schafft Rahmenbedingungen und unterstützt die Umsetzung. In: A. Bartz, J. Fabian, S. G. Huber, Carmen Kloft, H. Rosenbusch, H. Sassenscheidt (Hrsg.): PraxisWissen Schulleitung. Wolters Kluwer, München 2006, S. 81.12.
S. G. Huber: Kooperative Führung in der Schule: Entlastung oder Entmachtung von Schulleitung. In: A. Bartz, J. Fabian, S. G. Huber, Carmen Kloft, H. Rosenbusch, H. Sassenscheidt (Hrsg.): PraxisWissen Schulleitung. Wolters Kluwer, München 2006, S. 10.42.
S. G. Huber: Jahrbuch Schulleitung. Befunde und Impulse zu den Handlungsfeldern des Schulmanagements. Wolters Kluwer Deutschland, Köln/ Neuwied 2012.
D. Jirasinghe, G. Lyons: The competent head: A job analysis of heads’ tasks and personality factors. The Falmer Press, London 1996.
A. Jones: Leadership for tomorrow’s schools. Basil Blackwell, Oxford 1987.
K. A. Leithwood, D. J. Montgomery: Improving principal effectiveness: The principal profile. OISE Press, Toronto 1986.
C. Morgan, V. Hall, H. Mackay: The selection of secondary school head-teachers. Open University Press, Milton Keynes 1983.
A. Prestele: Schule, Jugend, neues Bewusstsein. Aufbruch im Bildungswesen. Books on Demand, Norderstedt 2004.
Weblinks
Institut für Bildungsmanagement und Bildungsökonomie der Pädagogischen Hochschule Zug
Schulleitungssymposium
Website für Schulleitung
Schul-Wissen.Info mit guten Informationen für Schulleitungen
Tresselt.de mit vielen formellen Informationen
Einzelnachweise
Pädagoge (Ausbildung und Beruf)
Berufliche Funktion
|
Q1056391
| 105.7318 |
58292
|
https://de.wikipedia.org/wiki/Maine
|
Maine
|
Maine (e Aussprache ) ist ein Bundesstaat der Vereinigten Staaten und Teil der Region Neuengland.
Die Herkunft des Namens ist unklar. Wahrscheinlich ist er nach der französischen Landschaft Maine benannt, möglicherweise ist der Name aber auch eine Kurzform von „Mainland“ („Festland“, „Hauptland“). Die postalische Abkürzung des Staates ist ME. Der Spitzname Maines ist The Pine Tree State („Kiefernstaat“). Die Hauptstadt ist Augusta.
Geografie
Maine liegt als östlichster Bundesstaat der Continental States am äußersten Rand der Vereinigten Staaten. Betrachtet man deren Territorium insgesamt, liegen einige Inseln Alaskas in der östlichen Hemisphäre.
Der höchste Punkt Maines ist der Mount Katahdin im Piscataquis County (1.606 m).
Maine ist der US-Bundesstaat mit dem höchsten Waldanteil. Da mehr als 90 % der Landfläche unter anderem mit Kiefern bewachsen ist, lautet der Beiname des Staates „Pine Tree State“ („Kiefernstaat“). Die landschaftliche Schönheit zieht zahlreiche Touristen an. Der Acadia-Nationalpark ist der einzige Nationalpark der Gegend und einer der meistbesuchten in den USA. Eastport ist die östlichste Stadt, West Quoddy Head die östlichste Landmarke der USA.
Von den 91.646 km² Fläche sind 12,8 % (11.715 km²) Wasserflächen.
Ausdehnung des Staatsgebiets
Der Bundesstaat hat eine Ausdehnung von Nord nach Süd von 515 km zwischen 43° 4′ N und 47° 28′ N. Von Ost nach West hat der Bundesstaat eine Breite von 305 km zwischen 66° 57′ W und 71° 7′ W.
Nachbarstaaten
Im Südosten von Maine befindet sich der Atlantik. Im Nordosten liegt die kanadische Provinz New Brunswick. Im Nordwesten befindet sich das ebenfalls kanadische Québec. Im Südwesten liegt New Hampshire. Maine ist der einzige US-Bundesstaat, der an genau einen anderen Bundesstaat grenzt.
Gliederung
Liste der Countys in Maine
Klima
Maine liegt zwar allgemein in der kühl-gemäßigten Zone, lässt sich aber in etwa in drei klimatische Zonen einteilen: Das nördliche Binnenland, welches 60 % der Fläche umfasst und in dem Kontinentalklima herrscht, hat für die klimatische Region vergleichsweise warme Sommer, aber auch sehr harte Winter. Das südliche Binnenland ist der wärmste Teil Maines und von vergleichsweise warmen Sommern geprägt. Im etwa 30 km ins Land gehenden Küstenbereich schließlich sind aufgrund der Meeresnähe die Temperaturen gemäßigter als im Binnenland.
Wirbelstürme sind in Maine die Ausnahme, selten gibt es Orkane, häufig sind aber die „Küstenstürme“, die starken Regen und Wind bringen, mitunter auch Schnee im Winter.
Geschichte
Frühgeschichte
Paläoindianer
Während der Eiszeiten, deren letzte als Wisconsin Glaciation bezeichnet wird, konnten auf dem Gebiet Maines kaum Menschen leben. Der Eisschild Nordamerikas erstreckte sich südwärts bis nach Pennsylvania. Im Gebiet von Maine ragte dieser Schild bis über 1500 m auf. Die großen Wassermengen, die in den Eismassen der Polargebiete gebunden waren, wurden den Ozeanen entzogen, so dass der Meeresspiegel über 100 m tiefer lag. Um 19.000 v. Chr. war die Vergletscherung am stärksten, um 16.000 v. Chr. begann der Rückzug der Gletscher, zwischen 13.000 und 12.000 v. Chr. gaben die Eismassen das Land auch in Maine frei. Um 9000 v. Chr. war der Bundesstaat eisfrei. Zugleich stieg der Meeresspiegel, so dass der Atlantik bis zu 100 km ins Land vorrückte. Dieser Effekt wurde partiell wieder aufgehoben, da das Land, das von den Eismassen befreit war, langsam anstieg. Dabei entstanden große Seen, wie der Degeer-See. Zwischen 8000 und 7000 v. Chr. lag der Meeresspiegel wieder rund 60 m unterhalb des heutigen Standes, die Küste lag bis zu 20 km östlich der derzeitigen Küstenlinie. Seither steigt der Meeresspiegel ungleichmäßig an, was zahlreiche Artefakte vernichtet haben dürfte.
Moose, Flechten und Gräser kehrten in das wasserreiche, immer noch kühle, jedoch eisfreie Gebiet zurück, später folgten Baumarten, die in der Tundrenlandschaft überleben konnten. Während Maines Norden und die Gebirgszonen noch lange eine Tundra blieben, siedelten sich im Süden Wälder aus Eichen, Lärchen und Ulmen an, wobei in der Mitte eher Birken, Fichten und Kiefern dominierten. Die Megafauna, die die Periode kennzeichnete, und deren Vertreter etwa Wollhaarmammut (Mammuthus primigenius), Präriemammut (Mammuthus jeffersonii oder columbi) sowie Mastodon waren, wurde durch Pferde, Bisons und Karibus ergänzt. Überreste eines Mammuts fanden sich bei Scarborough, die auf die Zeit um 12.200 Before Present datiert werden konnten. In Massachusetts verschwanden sie wohl erst nach 9000 v. Chr.
Die ersten menschlichen Bewohner Maines jagten die Großsäuger, doch bis vor wenigen Jahrzehnten waren nur verstreute Funde ihrer Projektilspitzen bekannt, die bei Lebanon im äußersten Südwesten, Lewiston, Monmouth, Arrowsic, Boothbay, Rumford Center, am Graham- am Brassta- und am Flagstaffsee entdeckt worden waren. Erst in den späten 1970er Jahren fand man am Munsungan- und am Chasesee nördlich des Baxter State Parks zwei Werkstätten, Stellen also, an denen bestimmte Steinarten gewonnen und zu rohen Stücken verarbeitet wurden. Dadurch ließ sich der Prozess von der Gewinnung des Steins bis zur Herstellung von Speerspitzen, ebenso wie von Kratzern und Schabern rekonstruieren. Weitere Fundstätten am Magalloway River im Nordwesten von Maine gestatteten Schlüsse auf das Leben in den Lagern der Jäger, Fischer und Sammler. Die größte dieser Fundstätten ist die Vail site, die heute vom Wasser des Aziscohos Lake bedeckt ist. Um 9000 v. Chr. lag sie jedoch am Ostufer des Magalloway. An acht Stellen ließen sich Fundverdichtungen (loci) nachweisen, die Zelte der Bewohner maßen 4,5 mal 6 m und wurden von einer vertieft angelegten Feuerstelle erwärmt. Wahrscheinlich bestanden die loci nicht zur gleichen Zeit, sondern wurden saisonal in verschiedenen Jahren genutzt. Insgesamt fand man mehr als 4000 Werkzeuge, wobei die Projektilspitzen große Ähnlichkeiten zu denen der Debert site im kanadischen Neuschottland aufweisen. Auch wenn etwa 25 km nördlich der Stätte, im Quellgebiet des Magalloway, Stein gewonnen wurde, so stammten viele Sorten doch von den Champlain Lowlands im westlichen Vermont oder vom Munsungan-See, ja, sogar aus New York und Pennsylvania.
Ähnliches gilt für die Adkins site, doch bestehen die dortigen Artefakte zu einem Drittel der Masse aus kristallinem Quarz, hinzu kommen Rhyolith (wahrscheinlich aus New Hampshire). Diese variable Zusammensetzung der Rohmaterialien ist kennzeichnend für alle Fundstätten des Magalloway-Komplexes, wie etwa die Michaud site. Dort herrschen vier Feuersteinsorten vor, nämlich schwarzer und graugrüner, sowie Munsungan-Flint; Grünstein wurde nur für einfachste, grobe Werkzeuge eingesetzt. Im nahe gelegenen Moose Brooke entdeckte Henry Lamoreau die nach ihm benannte Fundstätte, die wohl in der gleichen Zeit bewohnt war, wie die Michaudstätte. Ähnlich wie diese beiden Stätten, lag die Dam site in Wayne in einem Gebiet alter Sanddünen, deren oberste Schicht vom Wind davongetragen wurde und so die Funde freigab. Auch hier fanden sich drei oder vier loci. Die Steinartefakte stammten aus weitem Umkreis, nämlich aus Neuschottland und Nordmaine im Norden, aus Zentralnewyork und Westvermont im Westen sowie aus Pennsylvania.
Generell sind die großen Fundstätten in Neuengland, in denen sich saisonal mehrere Familienverbände zusammenfanden, von einem Cluster kleinerer Lager umgeben. Wahrscheinlich bestimmten nicht nur Fundstätten besonders schöner oder praktischer Steine die saisonalen Wanderungen, sondern vor allem die Wanderungen der Beutetiere, allen voran der Karibus. Um 8000 v. Chr. endete die Herstellung der für die Paläoindianer kennzeichnenden kannelierten Spitzen, der fluted points.
Archaische Periode (8000–1500 v. Chr.)
Der Begriff archaische Periode wurde 1932 erstmals von William A. Ritchie aufgebracht und bezeichnet heute die Epoche zwischen den paläoindianischen Kulturen und den frühen bäuerlichen Kulturen Nordamerikas, also die Zeit zwischen etwa 8000 und 1500 v. Chr. Üblicherweise wird diese Epoche in eine Frühe, eine Mittlere und eine Späte Phase eingeteilt, deren Abgrenzungen um 6000 und um 4000 v. Chr. liegen.
Die Kultur der Paläoindianer war an eine offene Landschaft gebunden, jedoch breitete sich nun dichter Wald in Neuengland aus. Damit verschwanden die großen Tierherden, denen zudem der Rückzug der Gletscher weitere Wanderungen nach Norden gestattete. Darüber hinaus veränderte sich dieses Waldgebiet in Maine um 8000 v. Chr. von einer von Pappeln, Birken und Fichten dominierten borealen Landschaft in eine gemäßigte Region, in der ab etwa 7000 v. Chr. Eichen und Hemlocktannen zunahmen. Elche, Hirsche, Amerikanischer Schwarzbär (Ursus americanus) und zahlreiche andere Säugetiere dehnten ihren Lebensraum aus den südlichen und westlichen Gebieten nordwärts aus. Ob die Paläoindianer den Karibuherden folgten, oder ob sie sich den neuen Bedingungen anpassten, ist, im Gegensatz zum mittleren Westen und dem Südosten, wo eine Anpassung erfolgte, im Nordosten unklar. Zwar fanden sich in Québec keine kannelierten Spitzen, doch wurden dort neue Formen entwickelt, die möglicherweise eine Anpassung während der Nordwanderung darstellten.
Über die frühe archaische Phase ist wenig bekannt, was möglicherweise damit zusammenhängt, dass die meisten Menschen am Küstensaum lebten, so dass ihre Überreste durch den steigenden Meeresspiegel zerstört worden sind. An vielen Seen hingegen fiel zwischen 6500 und 3000 v. Chr. durch eine globale Erwärmung der Wasserspiegel. Es scheint, als seien die örtlichen Gesteinsarten weiterhin in Gebrauch gewesen, wenn auch härteren Steinen der Vorzug gegeben wurde. Doch kamen Techniken und möglicherweise neue Bewohner aus dem Süden, etwa aus dem heutigen North Carolina. Außerdem kamen Holzbearbeitungstechniken auf, wie der Bau von Einbäumen, wie sich insgesamt Wasserwege als die wichtigsten Verkehrswege, und Boote als Hauptfortbewegungsmittel etablierten. Dies glaubt man zumindest daraus schließen zu können, dass die Fundstätten dieser Zeit an Wasserwegen liegen. Statt Bisons und Karibus jagte man nun Bären, Hirsche, Biber und Bisam, Vögel und Schildkröten. Spuren von Ritualen fanden sich vielfach, die Toten wurden verbrannt.
Die Menschen der nachfolgenden, mittleren archaischen Periode setzten diesen Lebensstil fort. Doch als auffällige Neuerungen nutzte man geriefte oder gekerbte Beile (grooved axes) und Speerschleudern (möglicherweise mit Gewichten). Sie stammten wahrscheinlich von mittelarchaischen Gruppen aus dem Süden; hingegen wurden vor Ort so genannte „ground slate points“ hergestellt. Sie bestanden aus Schiefer, ein Material, das weniger geeignet, aber in Maine bei Weitem nicht so selten wie Feuerstein war. Auch wurden aus diesen häufigeren Materialien wie Quarz und Schiefer Messer hergestellt. Weiterhin lebten Gruppen von 20 bis 25 Mitgliedern meist an Ufern und Küsten. Am Sebasticook Lake bei Newport konnte man ein Fischwehr nachweisen. Anscheinend war Aal der bevorzugte Fisch. Bei Begräbnisritualen wurde nun vielfach Ocker benutzt.
Die späte archaische Periode wird in zwei Phasen eingeteilt, nämlich die Vergennes-Phase ab 3000 v. Chr. und die Small Stemmed Point Tradition, die etwa in derselben Zeit begann und gleichfalls bis 1500 v. Chr. reichte. Sie war durch kleine gestielte oder geschäftete Projektilspitzen gekennzeichnet. Die Vergennesphase ist in Maine selten anzutreffen, doch wurden Otter Creek Points gefunden, Speerspitzen, die zu dieser Phase gehören und die der Jagd auf große Tiere dienten. Möglicherweise gehörten diese Artefakte zu kleinen Gruppen, die in das Gebiet von Maine eingedrungen waren. Kleine gestielte Speerspitzen, meist aus Quarz, sind zwar in Neuengland verbreitet, in Maine jedoch seltener und dort fast ausschließlich an der Küste. Die Spitzen dienten der Jagd auf Hirsche, jedoch spielten Muscheln und Fische, insbesondere Kabeljau oder Dorsch (Gadus morhua) eine bedeutende Rolle. Eine weitere Gruppe ist in der Moorehead-Phase repräsentiert, die gleichfalls von 3000 bis 1500 v. Chr. belegbar ist. Die Menschen nutzten rote Farbe bei Begräbnissen und verbrannten dabei persönlichen Besitz der Toten, wie Waffen oder Werkzeuge, aber auch Schmuck und schöne Gegenstände. Ihre Kultur wies so starke Ähnlichkeiten mit der der kanadischen Seeprovinzen bis nach Neufundland auf, dass man annimmt, sie gehörten einer weiträumigen, übergreifenden Kultur an.
Waldland-Periode, Handelskriege, Bevölkerungszusammenbruch durch Epidemien
Die Waldlandkultur (woodland culture) folgte der archaischen Periode. Um 800 war sie durch Birkenrindenkanus, Wigwams und vor allem Keramik gekennzeichnet. Die Bewohner des heutigen Maine waren Algonquin sprechende Indianer der östlichen Abenaki der Stämme der Pigwacket, Arosaguntacook, Kennebec und Penobscot sowie spätestens in historischer Zeit kleinere Stämme wie die Amaseconti, Arsicantegou, Kwapahag, Ossipee, Rocameca und Wewenoc, zudem Mi'kmaq, Maliseet und Passamaquoddy.
Mi'kmaq
Die Mi'kmaq, von denen heute in den USA nur die in Maine lebende Aroostock Band of Micmac staatlich anerkannt ist, kamen als erste mit Europäern in Kontakt. Sie nutzten Petroglyphen als Mittel der Kommunikation mit transzendenten Mächten. Ihre Dörfer waren sieben verschiedenen politischen Zentren zugeordnet. Jedes Dorf hatte einen Häuptling, Ältere, einen Frauenrat und einen Grand chief oder Oberhäuptling. Die Dörfer bestanden aus Wigwams, in denen 10 bis 20 Menschen lebten. Sie folgten saisonal vor allem den Elchen, jagten aber auch Hirsche oder Karibus, wobei sie Ahornbögen benutzten. Im Sommer lebten sie in Fischerdörfern an der Küste. Einen Elch erlegt zu haben war die Voraussetzung, sich in den politischen Körperschaften zu betätigen. Die Mi'kmaq-Konföderation stellte ein loses Bündnis zahlreicher Gruppen dar, die interne Organisation folgte Gesetzmäßigkeiten der Clans.
Giovanni Caboto brachte 1497 drei Mi'kmaq nach England. Schon bald handelten die Indianer mit den Europäern, wobei Felle und Fische die Hauptgüter waren. 1564 bis 1570 wütete eine erste Epidemie unter den Mi'kmaq, 1586 war es Typhus. Derweil profitierten Penobscot und Abenaki stärker vom Handel, so dass sie die Vormacht der Mi'kmaq bedrohten. 1607 bis 1615 kam es zum offenen Krieg zwischen Abenaki und Penobscot auf der einen und Mi'kmaq und Maliseet auf der anderen Seite. Als einige Mi'kmaq den Sachem (Häuptling) der Penobscot töteten, endete der Krieg. Die Sieger überfielen zahlreiche Abenaki-Dörfer. Dabei schleppten sie Krankheiten ein, die drei Viertel der Stammesangehörigen das Leben kosteten. 1620 lebten nur noch 4000 der zuvor etwa 20.000 Mi'kmaq in Maine.
Maliseet und Passamaguoddy
Die Maliseet standen oftmals mit den Mi'kmaq im Bunde. Ihr Name stammt von den mächtigen Nachbarn und er bedeutet „Volk, das nicht richtig sprechen kann“. Sie selbst nennen sich Wolastoqiyik. Wolastoq ist ihr Name für den Saint John River, den „leuchtenden Fluss“. Diesen Fluss wanderten sie im Frühjahr abwärts, im Herbst aufwärts. Sie jagten, fischten, trieben aber auch Ackerbau.
1604 kam es durch Samuel de Champlain zu einer ersten Begegnung mit Europäern; zu dieser Zeit standen sie im Krieg mit den Abenaki. Sie begrüßten den Franzosen mit Biberpelzen und Karibufleisch. Missionare bekehrten einen Teil des Stammes zum Christentum, der andere Teil hielt an ihrer Religion, Midewin genannt, fest.
Sie waren nah verwandt mit den Passamaguoddy, so dass sie von Europäern gemeinsam als „Etchmins“ bezeichnet wurden. Wie die Mi'kmaq litten die Passamaguoddy, die überwiegend an der Flussmündung lebten und nur wenn es notwendig war, auf die Jagd gingen, unter schweren Epidemien. Auch ihre Bevölkerung brach von etwa 20.000 auf 4000 zusammen. 1586 folgte eine Typhusepidemie. Die wenigen Überlebenden fanden sich mit Abenaki und Penobscot in der Wabanaki-Konföderation zusammen.
Penobscot
Die Penobscot lebten überwiegend von der Jagd auf Bären, Biber, Elche und Otter, doch fischten sie auch und betrieben Ackerbau. Nur im Winter zogen sie in wildreichere Gebiete. Durch den Handel mit den Europäern gingen bald die Biberbestände zurück, da die Felle und Pelze dieser Tiere das Haupttauschmittel gegen europäische Güter, wie Gewehre, Werkzeuge, Pfannen und Töpfe, Tabak, Mehl oder Zucker waren. Auch sie litten unter Epidemien und dem Konsum von Alkohol, gerieten zudem in Auseinandersetzungen mit der Wabanaki-Konföderation um Handelsvorrechte. Die wenigen Überlebenden ließen sich taufen, doch gerieten sie Mitte des 17. Jahrhunderts in Konflikte mit den Mohawk. Gab es zu Beginn des Kontakts mit den Europäern noch etwa 10.000 Penobscot, so zählte man 1803 nur noch 347.
Pennacook
Reichliche Niederschläge, dazu kalte und lange Winter, machten die Bodenbebauung, etwa den Anbau von Kürbissen schwierig. Jagd und Fischfang waren daher die Hauptnahrungsquellen. Ahornbäume lieferten Sirup und Zucker. Die im Süden New Hampshires lebenden Penacook genossen hingegen ein milderes Klima. Sie bauten Mais, Bohnen und Kürbisse an, die in Maine kaum gediehen. Doch 1668 trieben die Mohawk die Pennacook durch New Hampshire in das südliche Maine. Die vielleicht 2500 Überlebenden schlossen sich der Wabanaki-Konföderation an, ihre Nachfahren sind heute in der Cowasuck Band of the Pennacook-Abenaki People organisiert und leben in den Bundesstaaten Vermont, New Hampshire und Massachusetts, andere leben in Kanada.
Erste Europäer, englisch-französischer Streit, Abenaki und Mohawk
Von 1497 bis 1499 hielt sich Giovanni Caboto, Italiener in englischen Diensten, an der amerikanischen Ostküste auf. Anfang des 17. Jahrhunderts beanspruchte der englische König James I. mit Hinweis auf die Reisen „John Cabots“ das gesamte Territorium Neuenglands.
Doch die ersten europäischen Siedler waren 1604 Franzosen. Samuel de Champlain versuchte auf St. Croix Island eine Kolonie zu errichten, doch wurde sie 1607 nach Port Royal im späteren Neuschottland verlagert. In diesem Jahr kam es zu einem Angriff der Souriquois auf Almouchaquois am Saco River. Erstere lassen sich nur durch die relativ lange Wortliste in Marc Lescarbots Histoire de la Nouvelle France mit einer der heutigen Stammesgruppen identifizieren, nämlich den Mi'kmaq, die auch heute noch in der Region leben. Bereits damals spielte der Pelzhandel eine wichtige Rolle für die Wabanaki. Bessabez war Häuptling und beherrschte den Handel im großen Gebiet zwischen Mount Desert Island und dem Saco River, bekannt als Mawooshen. 1604 traf er Champlain, der den Penobscot River hinabfuhr. Er kam jedoch bei Kämpfen mit Etchemin-Stämmen 1615 ums Leben. 1616–1619 töteten Pockenepidemien wahrscheinlich drei Viertel der Indianer von Maine.
1607 siedelten sich die ersten von der Plymouth Company unterstützten Engländer an. George Popham und Raleigh Gilbert versuchten die Popham Colony an der Mündung des Kennebec zu errichten. Sie musste jedoch nach Pophams Tod 1608 aufgegeben werden. Hingegen überlebte die Kolonie Jamestown im südlicheren Virginia, und von dort kamen bereits 1610 erstmals Fischer an die Küste von Maine. Sie richteten dort erste feste Stationen ein.
Doch die englischen und französischen Kolonien bekämpften einander. Zwar konnte Biard, ein französischer Jesuit, 1613 eine Siedlung am Somes Sound auf Mount Desert Island gründen, das die Penobscot Pemetic (abschüssiges Land) nannten, doch der englische Kapitän Samuel Argall aus Virginia zerstörte die französischen Siedlungen am Somes Sound, von Port Royal und auf St. Croix Island. 1614 kam John Smith nach Maine und verfasste seine Description of New England, die einige Engländer zur Auswanderung dorthin bewog.
Die Küstengebiete wurden ab 1621 vom König an den Council for New England vergeben, eine Gruppe Adliger, die das Gebiet besiedeln wollte. Daher gilt Ferdinando Gorges, der „Vater der englischen Kolonisation“, ab 1622 auch als Gründer von Maine. Sein Interesse an der Kolonisierung war durch Kapitän George Weymouth geweckt worden, der ihm gefangene Indianer präsentiert hatte. Er war als Teilhaber der Plymouth Company an der gescheiterten Popham-Kolonie beteiligt. Zusammen mit John Mason erhielt er 1622 eine Landschenkungsurkunde für ein Gebiet, das zunächst zwischen Merrimack und Kennebec lag. 1625 entstand ein Handelsposten in Pejepscot, 1628 bestanden Posten in Cushnoc (Augusta) und auf Richmond Island. 1634 entstand die erste Sägemühle Nordamerikas am Piscataqua, 1636 tagte das erste Gericht in Saco im Süden Maines. Das östliche, weniger besiedelte Maine nördlich des Kennebec wurde im 17. Jahrhundert als Territorium von Sagadahock bezeichnet. 1630 wurden die Siedlungsbemühungen der in diesem Jahr gegründeten Massachusetts Bay Colony verstärkt. Es entstanden Siedlungen in York, Cape Porpus und Saco, 1631 in Kittery.
Die Franzosen verfolgten ihrerseits weiterhin ihr Ziel, die Region für Neufrankreich, ihre amerikanische Kolonie zu gewinnen. 1640 wurde der erste Abenaki-Häuptling von französischen Missionaren für den Katholizismus gewonnen und Jean Baptiste getauft. 1671 wurde der Osten Maines wieder französisch. Kurzzeitig schien es, als würde Mount Desert Island von Franzosen besiedelt werden. 1688 wurden Antoine Laumet etwa 400 km² Land an der Küste einschließlich der ganzen Insel zugesprochen. Laumet, der sich selbst den Titel Sieur de la Mothe Cadillac verliehen hatte, wollte dort eine Feudalherrschaft errichten, doch scheiterte das Vorhaben.
Doch nicht nur Engländer und Franzosen bekämpften sich gegenseitig. 1642 überfielen Mohawk den Westen Maines, 1661 töteten Abenaki 30 der angreifenden Mohawk bei dem Versuch, ihr Gebiet den Irokesen zu unterwerfen. Im nächsten Jahr schlugen die Mohawk zurück und attackierten Etchemin; dabei kamen beinahe 100 Gegner ums Leben oder wurden gefangen genommen. Erst 1671, als der überwiegende Teil der Stämme bereits schweren Epidemien zum Opfer gefallen war, kam es zu einem Friedensschluss.
Das Gebiet in seinen damaligen Grenzen, also der Südwesten Maines, wurde 1652 Teil der Massachusetts Bay Colony. Um 1690 schien es beinahe, als würde es Franzosen und Abenaki gelingen, die englisch-protestantischen Kolonisten aus Maine zu vertreiben. William Dummer, der von London eingesetzte Gouverneur der Kolonie, setzte sich zum Ziel, die Abenaki und die französischen Jesuiten unter Führung von Sebastien Rale zu vernichten. Dieser kämpfte sowohl im König-Williams-Krieg (1689–1697) als auch im Königin-Anne-Krieg (1702–1713) gegen die Engländer. Während des Krieges von 1722 bis 1725 kam der Jesuitenpater beim Massaker von Norridgewock, das heute beschönigend als „Battle of Norridgewock“ bezeichnet wird, ums Leben. Bezeichnenderweise wird dieser Krieg von den Angelsachsen mit verschiedenen Namen belegt, darunter „Father Rale’s War“ oder „Governor Dummer’s War“, während die Frankophonen ihn meist als „Guerre anglo-wabanaki“ bezeichnen. Nach der Niederlage der Franzosen in den 1740er Jahren fiel das Gebiet östlich des Penobscot unter die nominelle Verwaltung der Provinz Neuschottland.
Streitigkeiten zwischen Briten und Amerikanern gingen dann vom Amerikanischen Unabhängigkeitskrieg bis zum Krieg von 1812, der bis 1814 dauerte. Britische Truppen besetzten Maine in beiden Konflikten.
Bundesstaat der USA, Grenzkonflikte
Nach der Unabhängigkeit der USA war Maine, obwohl nicht direkt daran angrenzend, bis 1820 ein Teil des Bundesstaats Massachusetts. Im Krieg von 1812 besetzte Großbritannien acht Monate lang fast das gesamte östliche Maine und beabsichtigte, es dauerhaft für Kanada zu annektieren. Auch nach dem Friedensschluss von 1814 blieb die Grenze zwischen Kanada und den USA unklar. Durch den Missouri-Kompromiss, der vorsah, dass der Sklavenstaat Missouri in die Union aufgenommen werden könnte, wenn gleichzeitig ein nicht sklavenhaltender Staat aufgenommen würde, um den Stimmengleichstand im Senat der Vereinigten Staaten zu erhalten, wurde es von Massachusetts abgetrennt und am 15. März 1820 als 23. Bundesstaat in die Union aufgenommen. Daher war neben Maine auch Massachusetts beteiligt, denn ein großer Teil des umstrittenen Gebiets am Saint John und Madawaska war noch in seinem Besitz. Die Mehrzahl war französischer Abstammung, während die ab den 1820er Jahren einwandernden Siedler vor allem Amerikaner und Briten waren, die überwiegend am Aroostook und westlich des Saint John lebten. Die Frankophonen waren so genannte Brayons und betrachteten sich als Angehörige der inoffiziellen République du Madawaska. John Baker hisste am 4. Juli 1827 eine amerikanische Flagge am Westufer des Saint John beim heutigen Baker Brook. Er erklärte seinen Wohnort zur Hauptstadt der Republik Madawaska, doch wurde er von der britischen Kolonialbehörde umgehend festgesetzt, bis er eine Geldstrafe gezahlt hatte. Im Sommer 1830 wurden Truppen eingesetzt und der britische und der amerikanische Außenminister sahen sich zu einem Treffen veranlasst. König Wilhelm I. der Niederlande versuchte im Grenzstreit zu vermitteln und London akzeptierte seinen Vorschlag. Doch der Bundesstaat Maine lehnte ab, Präsident Andrew Jackson wurde eingeschaltet, der Senat lehnte den Vermittlungsvorschlag schließlich ab.
Maines Hauptstadt war ursprünglich Portland, bis 1832 Augusta diese Rolle übernahm. Die endgültige Grenze zu New Brunswick wurde 1842 nach dem Aroostook-Krieg (1838/39) im Webster-Ashburton-Vertrag festgelegt. Bis dahin war es immer wieder zu Auseinandersetzungen gekommen. Im Februar 1839 hatte Maine tausend Freiwillige zur Verstärkung an den oberen Aroostook geschickt. Auf der anderen Seite sammelten sich britische Truppen, die Mohawk boten ihre Unterstützung an und Neubraunschweigs Streitkräfte sammelten sich am Saint John. Damit standen rund 32.000 Bewaffnete im umstrittenen Gebiet.
Der Kongress genehmigte eine Streitmacht von 50.000 Mann, während Maine 3000 bis 10.000 Milizionäre bereitstellte. General Winfield Scott, der die Zwangsumsiedlung der Cherokee geleitet hatte, wurde in die Konfliktregion abkommandiert. Er veranlasste, dass die Milizen aus Maine im Mai und Juni 1839 zurückgerufen und gegen reguläre Truppen ausgetauscht wurden. Im Spätsommer begann der Bau von Fort Fairfield und Fort Kent. 1840 gründete Maine das Aroostook County. Schließlich einigten sich die beteiligten Staaten auf eine Grenzkommission und am 9. August 1842 wurde der Webster-Ashburton-Vertrag unterzeichnet, der die Grenzstreitigkeiten beendete. Er billigte den USA 18.170 und Kanada 12.890 km² des umstrittenen Gebiets zu. Die Wohngebiete der Brayons wurden geteilt, was wiederum die Ursache für die heutige Zweisprachigkeit Maines wurde.
Sezessionskrieg bis heute
Maine war der erste Staat im Nordosten, der die Anti-Sklavereibewegung unterstützte. Während des Sezessionskrieges (1861–1865) stand die Bevölkerung Maines treu zur Union und schickte prozentual gesehen die meisten Soldaten pro Bundesstaat.
Im 20. Jahrhundert hatte Maine mit dem Rückgang der Textilindustrie und Schiffahrtsindustrie zu kämpfen, so dass es zum ärmsten Staat im Nordosten wurde und blieb.
Bevölkerung
Maine hat 1.328.361 Einwohner (Stand: Census 2010). Davon waren 95,2 % Weiße, 1,2 % Schwarze und Afro-Amerikaner, 1,0 % Asiaten, 0,6 % Indianer, knapp 0,3 % Hawaiianer und Pazifikinsulaner, 0,3 % anderer Ethnizität und 1,6 % zweier oder mehrerer Ethnizitäten. Maine hat mit ca. 20 % die meisten Einwohner im Alter über 65 Jahre.
Größte Städte
Liste der Städte in Maine
Sprachen
Die in Maine am weitesten verbreitete Sprache ist Englisch, gefolgt von Französisch. Frankophone leben vor allem im Norden, wo sie Brayons genannt werden. 1993 waren auch die Bewohner von Fort Kent, Van Buren und Madawaska zu 88 % mit Französisch aufgewachsen. Bis 1960 war das Französische in der Politik Maines obsolet und Schulunterricht in dieser Sprache war ausdrücklich verboten. Allein von 1987 bis 1991 ging ihr Gebrauch um 18 % zurück. Im Census 2012–2016 gaben sogar nur rund 40,000 Personen, also etwa 3 % der Bevölkerung des Bundesstaates Maine an, Französisch zu beherrschen. Andererseits intensiviert sich der Kontakt mit den Frankokanadiern auf der anderen Seite des Saint-John-Flusses, wo Edmundston die französischsprachige Metropole darstellt.
Daneben existieren die indianischen Sprachen Abenaki, Micmac und Passamaquoddy, die zu den Algonkin-Sprachen gehören. Hinzu kommen Sprachen der Zuwanderer, wie jüngst mehrere Tausend Somalier.
Religionen
Die mitgliederstärksten Religionsgemeinschaften waren im Jahre 2000 die römisch-katholische Kirche mit 283.024, die United Methodist Church mit 31.689 und die United Church of Christ mit 29.122 Anhängern.
Laut einer Studie aus dem Jahr 2010 hat Maine mehr nicht-religiöse Bewohner als jeder andere Bundesstaat der Vereinigten Staaten.
Bildung
Die wichtigsten staatlichen Hochschulen sind in dem University of Maine System mit Hauptstandort in Orono zusammengefasst. Weitere Hochschulen sind in der Liste der Universitäten in Maine verzeichnet.
Politik
Der Bundesstaat Maine zeichnet sich politisch in erster Linie durch das differenzierte Wahlverhalten seiner Bürger aus. Zwar wählte Maine von 1992 bis 2012 bei Präsidentschaftswahlen stets demokratische Kandidaten, stellte aber von 1995 mit Olympia Snowe und Susan Collins zwei weibliche Senatoren, die – allerdings als deren mit Abstand liberalste Fraktionsmitglieder – der Republikanischen Partei angehören. Nach Snowes Verzicht auf eine erneute Kandidatur im Jahr 2012 wurde der ehemalige Gouverneur Angus King als unabhängiger Kandidat zu ihrem Nachfolger gewählt. Damit ist Maine neben New Hampshire der einzige der „New England States“, der keine klare Bindung zur Demokratischen Partei hat. Das Gouverneursamt übt seit Januar 2019 mit Janet T. Mills eine Demokratin aus.
Die Vergabe der Wahlmännerstimmen Maines unterscheidet sich durch das besondere Wahlrecht von der anderer Bundesstaaten der USA. Maine vergibt zwei seiner insgesamt vier Wahlmännerstimmen an den Sieger im Gesamt-Staat. Die zwei restlichen Wahlmänner werden durch die „Popular Vote“ in den beiden Kongresswahlbezirken Maines bestimmt. Damit ist es möglich, dass ein Kandidat den Gesamtbundesstaat und nur einen der beiden Wahlbezirke gewinnt, sein Gegner aber im zweiten Distrikt vorne liegt. In diesem Fall geben für Maine im Electoral College drei der Wahlmänner ihre Stimmen für den ersten und einer seine Stimme für den zweiten Kandidaten ab. Dieses „Splitting the Votes“ ist seit Wiedereinführung dieses Wahlmodus (1972) in Maine das erste Mal bei der Wahl 2016 eingetreten. Hillary Clinton erhielt drei Stimmen und Donald Trump eine Stimme. Der einzige andere Bundesstaat, der auch nach diesem Verfahren wählt, ist Nebraska.
Gouverneure
Kongress
Liste der Senatoren der Vereinigten Staaten aus Maine
Liste der Mitglieder des US-Repräsentantenhauses aus Maine
Mitglieder im 117. Kongress
Gleichgeschlechtliche Ehe
Am 6. November 2012 entschied sich die Bevölkerung von Maine in einem Referendum mehrheitlich dafür, gleichgeschlechtlichen Paaren die gesetzliche Möglichkeit zur Eheschließung zu geben. Zwischen dem 6. Mai 2009 und dem 3. November 2009 war Maine schon einmal kurzzeitig der fünfte Bundesstaat der USA gewesen, der gleichgeschlechtliche Ehen ermöglicht hatte – allerdings hatte damals eine Mehrheit von 53 % der Wähler durch ihre Stimmabgabe bei einer Volksabstimmung die Eheschließung wieder auf heterosexuelle Paare beschränkt.
Legalisierung von Marihuana
Im November 2016 entschied sich die Mehrheit bei einer Volksabstimmung für die Legalisierung von Verkauf und Besitz von Marihuana in kleinen Mengen für Erwachsene über 21 Jahren.
Wirtschaft und Infrastruktur
Das reale Bruttoinlandsprodukt pro Kopf (engl. per capita GDP) lag im Jahre 2016 bei USD 44.518 (nationaler Durchschnitt der 50 US-Bundesstaaten: USD 57.118; nationaler Rangplatz: 41). Die Arbeitslosenrate lag im November 2017 bei 3,3 % (Landesdurchschnitt: 4,1 %).
Haupterzeugnisse der Landwirtschaft sind Meeresfrüchte (berühmt ist der Maine-Hummer), Geflügel, Eier, Kartoffeln, Molkereiprodukte, Viehzucht, Blaubeeren und Äpfel. Industrielle Erzeugnisse sind Papier, Holz und Möbel, Elektronik, Lebensmittel, Leder und Textilien. Maine ist Fremdenverkehrsgebiet für die Großstädte der amerikanischen Ostküste (siehe Tourismus).
Des Weiteren befand sich der 49 km² große und über 1600 Mann zählende US-Marine Stützpunkt Brunswick Naval Air Station in Maine, der die einzige Militärbasis in New England darstellte. Stationiert waren hier Seeaufklärungs- und Transporteinheiten. Jedoch wurde im August 2005 beschlossen, dass der Stützpunkt geschlossen wird und dessen Einheiten nach Florida verlegt werden.
Tourismus
Eine bedeutende Touristenattraktion ist in Maine der 1929 gegründete Acadia-Nationalpark. Der einzige Nationalpark der Neuenglandstaaten gehört mit über zwei Millionen Besuchern im Jahr zu den zehn meistbesuchten Parks der USA (Stand 2003). Auf der und um die Insel Mount Desert Island gelegen bietet er Küstenabschnitte und bis zu 470 Meter hohe Berge mit Ausblicken auf die Insel mit ihren kleinen Seen und zahllose kleinere Inseln.
Maines Küste zieht auch andernorts Touristen an. Sandstrände liegen vor allem im Süden des Staates an Badeorten wie York, Ogunquit, Wells Beach und Kennebunkport; die Wassertemperaturen liegen allerdings selbst im Sommer bei etwa 12–14 °C. Weiter im Norden überwiegen felsige Abschnitte.
Maine unterhält über 40 State Parks und State Historic Sites, die jährlich über zwei Millionen Besucher zählen.
Schienenverkehr
Der Bundesstaat Maine ist auch heute noch trotz der dünnen Besiedlung sehr gut durch Eisenbahnen erschlossen. Die erste Eisenbahn, die Bangor and Piscataquis Canal and Railroad, fuhr bereits im November 1836 und verband Bangor mit Old Town. Der weitere Ausbau des Streckennetzes ging hauptsächlich von Portland aus.
1842 wurde die Strecke nach Portsmouth durch Portland, Saco and Portsmouth Railroad eröffnet, die Verbindungen nach Boston und damit an das restliche US-Eisenbahnnetz hatte. 1846 eröffnete die Atlantic and St. Lawrence Railroad den ersten Streckenabschnitt der Strecke nach Montreal, die 1853 fertiggestellt wurde. Von 1849 bis 1855 ging die Verbindung Portland–Bangor (spätere Maine Central Railroad) abschnittsweise in Betrieb. Ab 1851 war Gorham durch die York and Cumberland Railroad angebunden, die 1871 Rochester erreichte. Die Verbindung nach Augusta wurde 1852 fertiggestellt. Ab 1869 eröffnete die Portland and Ogdensburg Railway abschnittsweise eine Eisenbahn in Richtung der White Mountains, die 1877 bis Swanton (Vermont) in Betrieb ging. 1873 eröffnete die Boston and Maine Railroad eine neue Hauptstrecke in Richtung Dover. Da die vielen Bahngesellschaften, die sich in Portland trafen, jeweils einen eigenen Endbahnhof hatten, beschloss die Stadt, einen gemeinsamen Hauptbahnhof zu bauen, der 1888 durch die Portland Union Railroad Station Company eröffnet werden konnte.
Auch Bangor entwickelte sich zu einem Eisenbahnknotenpunkt. Von 1868 bis 1871 baute die European and North American Railway die Strecke nach Vanceboro und weiter nach New Brunswick. 1874 eröffnete die Eastern Maine Railway eine Strecke nach Bucksport, 1883 ging die Strecke der Maine Shore Line Railroad nach Mount Desert Ferry in Betrieb. 1905 schließlich nahm die Northern Maine Seaport Railroad die Nord-Süd-Tangente von South La Grange nach Searsport in Betrieb, die westlich an Bangor vorbeiführte. Die Bahnen von Bangor nach Vanceboro und nach Portland waren wie die Atlantic&St. Lawrence zunächst in einer Spurweite von 1676 Millimetern („Kolonialspur“) gebaut worden, mussten jedoch aus wirtschaftlichen Gründen bis 1877 in die in den USA allgemein übliche Normalspur (1435 mm) umgebaut werden.
Der Nordosten des Bundesstaats wurde ab 1893 hauptsächlich durch die Bangor and Aroostook Railroad erschlossen. Zahlreiche kleinere Gesellschaften erschlossen die weniger wichtigen Verkehrsachsen. Ab 1879 begann auch in Maine der Bau von Schmalspurbahnen, die eine Spurweite von 2 Fuß (610 mm) aufwiesen.
Ab Ende der 1920er Jahre begann der Rückbau des Eisenbahnnetzes. Zunächst verschwanden bis 1943 die Schmalspurbahnen. Von den ehemals wichtigen Hauptstrecken sind noch heute fast alle in Betrieb, lediglich die Strecken von Portland nach Portsmouth und in die White Mountains sind stillgelegt. Die meisten Nebenstrecken fielen jedoch im Laufe der Zeit der Konkurrenz Straße zum Opfer.
Personenverkehr gibt es nach 35-jähriger Unterbrechung erst seit dem 5. Dezember 2001 wieder, als die Amtrak die Expressverbindung Boston–Portland in Betrieb nahm. Viermal täglich besteht die Verbindung, die über die Strecke der ehemaligen Boston and Maine Railroad verkehrt. Den Güterverkehr auf dem noch bestehenden Netz wickeln hauptsächlich die Montreal, Maine and Atlantic Railway (im Norden) und die Pan Am Railways ab. Dazu kommen noch die lokalen Gesellschaften Eastern Maine Railway, Maine Eastern Railroad, New Hampshire Northcoast und die St. Lawrence and Atlantic Railroad sowie die Rangiergesellschaft Turners Island LLC. Insgesamt bestand zum 31. Dezember 2005 ein Streckennetz von 1869 km. Es wurden 2005 rund sieben Millionen Tonnen Güter mit insgesamt 101.652 Wagenladungen bewegt. Wichtigstes Transportgut waren dabei Papiererzeugnisse.
Literatur
Geschichte
John F. Bauman: Gateway to Vacationland. The Making of Portland, Maine. University of Massachusetts Press, Amherst MA u. a. 2012, ISBN 978-1-55849-909-6.
Bruce J. Bourque: Diversity and Complexity in Prehistoric Maritime Societies. A Gulf of Maine Perspective. Plenum Press, New York NY u. a. 1995, ISBN 0-306-44874-2.
Bruce J. Bourque: Twelve Thousand Years. American Indians in Maine. University of Nebraska Press, Lincoln NE u. a. 2004, ISBN 0-8032-6231-0.
Mary Frances Farnham: Documentary History of the State of Maine. s. l., Gale Ecco 2012, ISBN 978-1-277-08889-2 (umfasst die Zeit von 1620 bis 1926).
Harry Gratwick: Mainers in the Civil War. History Press, Charleston SC 2011, ISBN 978-1-59629-962-7.
Patricia M. Higgins: Hidden History of Midcoast Maine. The History Press, Charleston SC 2014, ISBN 978-1-62619-365-9.
Jeffrey D. Merrill Sr.: Maine State Prison, 1824–2002. Arcadia Publishing, Charleston SC 2009, ISBN 978-0-7385-6244-5.
Daniel S. Murphree (Hrsg.): Native America. A State-by-State Historical Encyclopedia. Band 2: Maine – Ohio. Greenwood, Santa Barbara CA u. a. 2012, ISBN 978-0-313-38126-3, S. 469–471.
Judy Monroe Peterson: Maine. Past and Present. Rosen Central, New York NY 2011, ISBN 978-1-4358-9484-6.
Don Whitney, Michael Daicy: Portland's Greatest Conflagration. The 1866 Fire Disaster. The History Press, Charleston SC 2010, ISBN 978-1-59629-955-9.
Politik
Kenneth T. Palmer, G. Thomas Taylor, Marcus A. LiBrizzi, Jean E. Lavigne: Maine Politics and Government. 2nd Edition. University of Nebraska Press, Lincoln NE 2009, ISBN 978-0-8032-8785-3.
Kimberly A. Huisman, Mazie Hough, Kristin M. Langellier, Carol Nordstrom Toner (Hrsg.): Somalis in Maine. Crossing Cultural Currents. North Atlantic Books, Berkeley CA 2011, ISBN 978-1-55643-926-1 (fliehen seit 2001 v. a. nach Lewiston).
Weblinks
Regierung von Maine
Website des Maine State Museum in Augusta (größte prähistorische Sammlung Neuenglands)
Einzelnachweise
Bundesstaat der Vereinigten Staaten
Gegründet 1820
|
Q724
| 1,739.763227 |
105826
|
https://de.wikipedia.org/wiki/Fiktion
|
Fiktion
|
Fiktion ( „Gestaltung“, „Personifikation“, „Erdichtung“ von fingere „gestalten“, „formen“, „sich ausdenken“) bezeichnet die Schaffung einer eigenen Welt durch Literatur, Film, Malerei oder andere Formen der Darstellung sowie den Umgang mit einer solchen Welt. Bei der Fiktion handelt es sich um eine bedeutende Kulturtechnik, die in weiten Teilen der Kunst zum Einsatz kommt.
Ansätze und Beschreibungen
Zur Erklärung von Fiktion werden in der Literatur- und Kunsttheorie unter anderem fehlender Wahrheitsanspruch und mangelnde Übereinstimmung mit der Realität herangezogen. Es gibt viele unterschiedliche Ansätze, Fiktion zu erklären. Eine allgemein akzeptierte Theorie der Fiktion gibt es bis heute nicht.
Martínez und Scheffel (2019) unterscheiden und definieren „fingieren“, „fiktional“ und „fiktiv“, wie folgt:
„fingieren“ steht für im Sinne von (vor-)täuschen;
„fiktional“ steht im Gegensatz zu „faktual“ bzw. „authentisch“ und bezeichnet z. B. den pragmatischen Status einer Rede;
„fiktiv“ steht im Gegensatz zu „real“ und bezeichnet den ontologischen Status des in der Rede ausgesagten.
Wolf Schmid sieht in einem fiktionalen Werk alle thematischen Elemente der erzählten Welt als fiktiv an. So sind Personen, Räume, Zeiten, Handlungen, Reden, Gedanken, Konflikte, Motive etc. Bestandteile einer homogenen Ontologie in der fiktiven Welt des Erzählwerks. Gleichgültig wie eng sie mit real existierenden Personen oder Objekten assoziiert wurden, sie bleiben grundsätzlich fiktiv.
Damit bleibt die erzählte Welt, jene Welt, die der Erzähler entwirft. Aber die vom Autor dargestellte Welt hat einen höheren Ordnungsgrad, in sie gehen der Erzähler, sein Adressat ebenso ein, wie das Erzählen selbst. Der Adressat ist der vom Autor intendierte Empfänger.
Grundzüge der fiktionalen Darstellung
Obwohl es keine unumstrittene Theorie der Fiktion gibt, lassen sich die grundlegenden, charakteristischen Eigenschaften der Phänomene beschreiben, die als Fiktion bezeichnet werden.
Darstellung und Welt
Fiktive Welten
Fiktion erzeugt eine eigene Welt, die sogenannte „fiktive Welt“. Mit „Welt“ wird die Annahme bezeichnet, dass man sich über Handlungen, Ereignisse, Personen, Orte etc. so unterhalten kann, als wären sie denjenigen Regeln der Kontinuität unterworfen, von denen angenommen wird, dass sie für die reale Welt gelten.
Dass die Fiktion eine Welt erzeugt, ermöglicht das Reden über die fiktiven Ereignisse und Gestalten, die in der fiktionalen Darstellung nicht genannt werden. So kann man sich fragen, ob ein fiktives Paar auch „nach dem Ende der Geschichte“ glücklich zusammen bleibt. So kann man etwa davon ausgehen, dass eine fiktive Figur, die sich erst an einem Ort und dann an einem anderen Ort befindet, zwischen beiden Orten gereist ist. Die Kontinuitätserwartung kann auch als gezieltes Gestaltungsmittel eingesetzt werden. Ein sehr radikales Beispiel liefert Die Marquise von O... von Heinrich von Kleist: In dieser Novelle wird eine Vergewaltigung nicht erzählt; dass sie vorgefallen ist, lassen aber die übrigen Ereignisse vermuten.
Für den Fiktionalitätsstatus der Darstellung ist es unerheblich, wie ähnlich eine fiktive Welt der realen ist. In phantastischen Darstellungen können völlig andere physikalische Gesetze herrschen als in der realen Welt. Im Gegensatz zur realen Welt existiert jedoch ein Außerhalb der fiktiven Welt, in dem die fiktive Welt (durch die Darstellung) erzeugt wird, nämlich die reale Welt selbst. Dies ermöglicht Metalepsen, bei denen die Fiktivität der Ereignisse in der fiktiven Welt bekannt und für die Darstellung wichtig ist. Beispielsweise erfährt die Heldin in Sofies Welt von Jostein Gaarder nach einiger Zeit, dass sie eine Romanfigur ist.
Fiktiv und fiktional
Im Deutschen lassen sich die Ausdrücke fiktiv und fiktional unterscheiden. Das, was fiktional ist, bringt die fiktive Welt hervor, während alles, was sich in der fiktiven Welt befindet, als fiktiv bezeichnet wird. Fiktionalität liegt also im Außerhalb der fiktiven Welt, während mit Fiktivität das Innerhalb bezeichnet wird. Faktual ist dagegen eine nicht-fiktionale Darstellung, die der Beschreibung der realen Welt dient. Fiktionale Rede redet also von fiktiven Dingen, faktuale Rede von realen Dingen.
Ein einfaches Beispiel: Während die Romanfigur Bilbo Beutlin fiktiv ist, ist Tolkiens Werk Der Herr der Ringe fiktional. Denn Beutlin ist nicht real, der Roman dagegen existiert in unserer Realität sehr wohl. Er erzählt jedoch von einer fiktiven Welt, die Beutlin enthält.
Komplizierter liegen Fälle, in denen intradiegetische Erzählungen vorliegen. Beispielsweise ist Zum wilden Mann von Wilhelm Raabe eine fiktionale Erzählung, in der ein Erzähler wiederum eine Geschichte vorträgt. Diese für die Personen in der fiktiven Welt der Novelle faktuale Binnenerzählung ist jedoch aus Sicht des Lesers von Raabes Novelle ebenso fiktional wie die ganze Novelle, und was sie erzählt, ist für ihn gleichermaßen fiktiv.
Allerdings werden selbst in der Fachliteratur die beiden Ausdrücke manchmal verwechselt. Zudem lassen sie sich nicht exakt ins Englische und Französische übersetzen. Das englische fictional bezeichnet sowohl Fiktives als auch Fiktionales; man spricht ferner von fictional worlds; die Ausdrücke fictive und fictitious bedeuten in etwa „fiktiv“, sind aber vergleichsweise ungebräuchlich. Ähnlich ist es im Französischen: Der Ausdruck fictif ist gebräuchlich und bezeichnet Fiktives und Fiktionales; das Wort fictionnel ist seltener als fictif und wird meist im Sinne von „fiktional“ gebraucht. Der Vergleich zum Englischen wird dadurch erschwert, dass fiction eher mit „Dichtung“ als mit „Fiktion“ zu übersetzen ist.
Erfundenheit
Die wichtigste Eigenart fiktionaler Darstellungen ist, dass in ihnen in der Regel erfundene Geschehnisse stattfinden und erfundene Gestalten handeln können. Mit Erfundenheit ist gemeint, dass bestimmte Begebenheiten, Gestalten, Orte etc. in der realen Welt nach allgemeiner Überzeugung nicht nachweisbar oder auffindbar sind und daher angenommen werden muss, dass es sie nicht gibt.
Keine der gängigen Fiktionstheorien sieht Erfundenheit als notwendigen Bestandteil fiktionaler Darstellungen an. Es wird sogar die Auffassung vertreten, dass es fiktionale Darstellungen geben kann oder gibt, die völlig ohne Erfundenheit auskommen. Als Beispiel kann Abfall für alle von Rainald Goetz gelten, da alle Ereignisse in diesem Roman offenbar tatsächlich stattgefunden haben. Umgekehrt gibt es Erfundenheit auch in faktualen Texten (zum Beispiel bei Lügen). Erfundenheit steht damit in keinem notwendigen Zusammenhang zu Fiktion. Dennoch ist Erfundenheit mit Blick auf Fiktion nennenswert, da sich eine große Zahl fiktionaler Darstellungen durch ein recht hohes Maß an Erfundenheit auszeichnet und Erfundenheit gerade in Fiktion sinnvoll und produktiv eingesetzt werden kann.
Ältere Positionen unterscheiden zwischen Fiktivität und Erfundenheit nicht.
Phantastik und Realistik
Im Sinne der Fiktionstheorie sind Phantastik und Realistik Bezeichnungen, die auf den Anteil an Erfundenem beziehungsweise auf die Ähnlichkeit zwischen realer und fiktiver Welt verweisen. Darstellungen werden als phantastisch bezeichnet, wenn sie einen sehr hohen Anteil an Erfundenem besitzen. Dabei ist Phantastik im Sinne der Fiktionstheorie nicht zwangsläufig mit dem Genre der Fantastik oder des Fantasy gleichzusetzen, selbst wenn es sich bei diesen in der Regel um Genres handelt, die phantastisch auch im Sinne der Fiktionstheorie sind. Darstellungen gelten als realistisch, wenn die Ähnlichkeit zwischen realer und fiktiver Welt sehr hoch ist, sie also einen geringen Anteil an Erfundenem haben. Realistik im Sinne der Fiktionstheorie ist nicht notwendig mit der Epoche des Realismus oder mit realistischem Stil (effet de réel) verknüpft. Die Verwechslung der jeweiligen Bedeutungslinien führt oft zu Verwirrung um die Bedeutung von „Realismus“ und „Phantastik“.
Erfundene und nicht erfundene Gestalten
Es gibt in der fiktionalen Literatur erfundene Gestalten wie etwa Don Quijote im gleichnamigen Roman von Cervantes. Diese zeichnet aus, dass es sie gemäß verlässlicher Quellen nie gegeben hat. Anders verhält es sich etwa mit Napoleon in Die Elenden von Victor Hugo. Der Napoleon des Romans entspricht in seiner Biografie, seinem äußeren Erscheinen und seinen Taten dem realen Napoleon, dessen Geschichte durch Quellen hinreichend bezeugt ist.
Es kann sein, dass nicht erfundene Gestalten in fiktionalen Darstellungen erfundene Taten begehen. Da sich die Identität von realer und fiktiver Person erst aus dem gleichen oder ähnlichen Lebenslauf erschließen lässt, stellt diese Situation einen recht komplizierten Fall dar – der allerdings keineswegs selten ist. Hier ist auf den Einzelfall zu schauen, um zu bestimmen, welche Funktion die Erfindung hat. So sind zum Beispiel die Tischgespräche der Familie Buonaparte in Napoleon Symphony von Anthony Burgess erfunden; sie dienen aber trotzdem dazu, den historischen Napoleon und seine Taten zu veranschaulichen und zu kritisieren.
Erfundene und nicht erfundene Orte
Orte können erfunden oder nicht erfunden sein. So ist etwa der Ort Middlemarch im gleichnamigen Roman von George Eliot erfunden, während das Paris in Auf der Suche nach der verlorenen Zeit von Marcel Proust dem realen Paris sehr genau entspricht. Auch hier liegen oft kompliziertere Mischungen von Erfundenheit und Tatsachenentsprechung vor: So sind erfundene Straßen in nicht erfundenen Städten möglich. In Prousts Roman ist zwar Paris nicht erfunden, aber die Stadt Balbec.
Besonders in der Malerei sind viele Orte erfunden. Schwierig und fragwürdig ist die Abgrenzung bei Gemälden, die von bestimmten Landschaften oder Personen inspiriert, aber in Teilen erfunden sind. Hier ist wie bei erfundenen Gestalten auf die komplizierteren Einzelfälle zu schauen. Vom realen Vorbild stark abweichende Porträts berühmter Personen beispielsweise sind in der Regel nicht fiktional; die Abweichungen dienen dann dazu, äußerliche Makel nicht zu zeigen oder durch bestimmte Darstellungstechniken die Macht oder den besonderen Charakter der abgebildeten Person zu zeigen.
Weitere Bereiche der Fiktion
Da sich Fiktion auf alles erstreckt, was dargestellt werden kann, gibt es keine vollständige Liste aller möglichen „Arten“ von Fiktion. So spielen in den Romanen von J. R. R. Tolkien erfundene Sprachen eine wichtige Rolle.
Autofiktion
In den vergangenen Jahren ist eine größere Zahl an Romanen erschienen, die praktisch erfindungsfrei sind und vom Leben des Autors handeln. Hierzu zählen etwa Pawels Briefe von Monika Maron und der schon genannte Roman Abfall für alle von Rainald Goetz. Gérard Genette schlägt für dieses Phänomen die auf Serge Doubrovsky zurückgehende Bezeichnung Autofiktion vor. Die Abgrenzung von der Autobiografie und anderer Fiktion wird gegenwärtig intensiv diskutiert. Ein verhältnismäßig neues Genre ist die fiktionale Autobiografie, wie sie zum Beispiel von Sasa Stanisic oder dem angolanischen Schriftsteller Ondjaki vorgestellt wird.
Fiktion im Verhältnis zu nicht-fiktionalen Darstellungen
Fiktionalität ist eine Eigenschaft, die bestimmten Darstellungen als Merkmal zugeschrieben wird. Nicht-fiktionale Darstellungen gelten als „unmittelbar gültige“ Beschreibung der realen Welt.
Wie weit diese Unterscheidung reicht, ist in der literaturwissenschaftlichen Diskussion noch kaum untersucht. Es gibt nach wie vor eine große Zahl an Theorien, die davon ausgehen, dass Darstellungen entweder fiktional oder nicht-fiktional sind.
Faktuale Darstellungen
Als faktual bezeichnet man eine Darstellung, die die reale Welt in ihrer unmittelbar gegebenen Beschaffenheit beschreibt. Unter den Darstellungen sind vor allem Erzählungen hervorzuheben (beispielsweise Zeitungsberichte).
Eine faktuale Darstellung kann offenbar richtig oder falsch sein. Die Unterscheidung zwischen Faktualität und Fiktionalität hat also nichts mit der Richtigkeit oder Wahrheit einer Bestimmung zu tun. Falsche faktuale Berichte können Lügen, Irrtümer etc. sein; und auch eine fiktionale Erzählung kann falsch oder zumindest irreführend sein: Hier spricht man von unzuverlässigem Erzählen.
Die Unmittelbarkeit der faktualen Darstellung ist demgegenüber von besonderer Wichtigkeit. Sie besteht in der Eigentlichkeit der Ausdrucksmittel, zumindest in einem zurückhaltenden Gebrauch von Zweideutigkeiten, und konzentriert sich auf die Vermittlung von Fakten, also die Beschreibung von Orten, Personen, Gegenständen, Handlungen und Ereignissen. (Das heißt natürlich nicht, dass eine faktuale Beschreibung nicht auch durch Kommentare oder Wertungen ergänzt werden kann, doch gehören diese ohnehin nicht der „Darstellung“ an.) Aus Sicht einiger poststrukturalistischer Positionen ist jedoch eine figurenfreie Sprache, rein eigentliches Sprechen, nicht möglich. Akzeptiert man diese Annahme, kann faktuales Sprechen nur als Minimierung der Amphibolien und als bestimmte Semantik begriffen werden, die zwar einen Austausch über Fakten weitgehend ermöglicht, aber nicht sicherstellen kann.
Die Abgrenzung zwischen faktualem und fiktionalem Darstellen wird auf vielfache Weise gezogen. Dabei gilt mehrheitlich das faktuale Darstellen als der unmarkierte Normalfall; das heißt, man geht in der Regel vom faktualen Bericht aus, wenn es keine Indizien dafür gibt, dass es keiner ist. Das bedeutet, dass die Regeln des faktualen Darstellens indirekt in den Fiktionstheorien aufgearbeitet werden; sie sind darüber hinaus Gegenstand der Allgemeinen Sprachwissenschaft.
Beispiele
Apologe
Unter Apolog versteht man einen Text, der zwar darstellerisch ist und möglicherweise ein Geschehen vermittelt, aber trotzdem weder faktual noch fiktional genannt werden kann. Apologe lassen sich schwerlich katalogisieren. Die Kategorie des Apologs ist unabhängig davon, ob es sich um eine künstlerische Darstellung handelt; es gibt Apologe beispielsweise in der Dichtung, aber durchaus nicht nur dort. Im Folgenden sind zwei der wichtigsten Formen genannt: Heilige Texte und Fabeln.
Viele der Apologe signalisieren einen Anspruch auf Wahrheit, Richtigkeit und Verbindlichkeit, doch gelten sie nur eingeschränkt als unmittelbare Darstellungen im Sinne der Faktualität.
Heilige Texte
Heilige Texte, auch als Heilige Schriften bezeichnet, sind normative religiöse Texte. Texte mit religiöser Bedeutung enthalten oft Darstellungen (von Ereignissen, Personen etc.), ohne dass diese Darstellungen als faktual gewertet werden, weil sie entweder anderen Textstellen desselben Heiligen Textes widersprechen oder mit Naturgesetzen nicht vereinbar sind. Dennoch lässt sich keine Fiktionstheorie sinnvoll auf die Heiligen Texte anwenden, sofern man ihren Wahrheitsanspruch ernst nimmt. Denn heilige Texte schaffen keine fiktive Welt, sondern befassen sich mit der realen Welt; Heilige Texte sprechen nicht über Erfundenes, sondern gelten entweder selbst als historische Quellen oder lassen die Deutung zu, dass nicht nachweisbare Ereignisse oder Gestalten symbolisch eine bestimmte Wahrheit vermitteln.
Beispielsweise erheben die beiden Schöpfungsberichte der Genesis den Anspruch, wahre Darstellungen der Erschaffung der Erde und der Menschen zu sein. Dabei widersprechen sie sich beide untereinander hinsichtlich ihrer unmittelbaren Darstellung, so dass sie weder eine Beschreibung der realen Welt sein noch eine konsistente fiktive Welt erzeugen können. Ihre Wahrheit kann – für den gläubigen Christen oder Juden – nur durch Exegese ermittelt werden. Diese Exegese kann jedoch berücksichtigen (und so hat sie lange Zeit verfahren), dass die Darstellungen zumindest teilweise als unmittelbare Beschreibung der realen Welt gelten können (etwa dass „wörtlich“ zu nehmen ist, dass Gott für die Erschaffung von Tag und Nacht genau einen Tag brauchte).
Fabeln
In Fabeln treten oft Tiere oder andere Wesen auf, deren Funktion in der Erzählung ist, ganz allgemein einen beliebigen Menschen zu bezeichnen oder einen beliebigen Menschen mit bestimmten Charaktereigenschaften, also einen Typus und keine Person. Die Handlung zielt darauf ab, eine allgemeingültige Moral zu vermitteln. Im Gegensatz zu fiktionalen Darstellungen wird keine fiktive Welt mit eigenen Gesetzmäßigkeiten erschaffen, sondern die Fabel verschlüsselt auf kunstvolle Art und Weise ihre Behauptungen über die reale Welt und speziell über moralische Grundsätze.
Fiktion und Realität
Oft werden alltagssprachlich „Realität“ und „Fiktion“ als Gegensatzpaar benutzt. Diese Ausdrucksweise charakterisiert das Verhältnis von fiktiver und realer Welt nur unzureichend, weil sie die vielfältigen gegenseitigen Abhängigkeiten übergeht.
Bei der Bestimmung dessen, was Realität ist, gibt es sehr unterschiedliche Auffassungen. Die Überlegungen zu den Wechselwirkungen zwischen Fiktion und Realität können allerdings davon abstrahieren, weil sie sich mit dem Verhältnis von fiktiver und realer „Welt“ beschäftigen und damit die zugrundeliegenden Vorstellungen von Realität ausblenden können.
Realitätsprinzip
Die fiktive Welt ist wie die reale Welt beschaffen, solange nichts Gegenteiliges durch die fiktionale Darstellung angezeigt wird. Dieses Phänomen wird als Realitätsprinzip bezeichnet. Auch ist von „minimaler Abweichung“ die Rede: Die fiktive Welt weicht in ihrer Gestalt so wenig wie möglich in ihrer Gestalt von der realen ab.
Das bedeutet beispielsweise, dass in einem Roman ein Kaninchen, von dem berichtet wird, das Aussehen und das Verhalten eines „normalen“ Kaninchens hat. Erst wenn ausdrücklich gesagt wird, dass das Kaninchen etwa sprechen kann (wie in Alice im Wunderland von Lewis Carroll), so darf man annehmen, dass hier eine Abweichung vorliegt.
Wirkung auf die Realität
Es ist zu beobachten, dass fiktive Gegebenheiten als Anregungen für die Beschreibung der realen Welt genommen werden. Dabei ist möglich, dass einerseits komplexe Semantiken durch Fiktion geformt werden, andererseits aber einfache fiktive Sachverhalte irrtümlich für reale gehalten werden. Die Möglichkeiten, wie fiktionale Darstellungen auf die Wirklichkeit wirken, sind umfangreich und nicht zu katalogisieren.
Beispielsweise weist Niklas Luhmann nach, dass die fiktionale Literatur der letzten Jahrhunderte das westliche Verständnis von Sexualität, Liebe und Partnerschaft massiv geprägt hat. Hier handelt es sich also um die Schaffung oder Änderung einer Semantik. Ein Beispiel für eine irrtümliche Übertragung liegt vor, wenn ein Schüler im deutschsprachigen Unterricht, nachdem er den Monumentalfilm Ben Hur von William Wyler gesehen hat, die Auffassung vertritt, im antiken Rom habe man Deutsch gesprochen. Anlass zu einer solchen Übertragung gibt die vom Film suggerierte Treue zur realen Welt, was Kleidung, politische Umstände und Lebensweise angeht.
Erst in jüngster Zeit wird verstärkt auch von Fiktionstheoretikern darauf hingewiesen, dass fiktionale Darstellungen das Realitätsbild sehr nachhaltig beeinflussen. Zwar hat es recht früh einschlägige Aufarbeitungen gegeben (von Bernd W. Seiler), doch sind sie weitgehend unbeachtet geblieben. Erst in den letzten Jahren wird auch von Fiktionstheoretikern der Einfluss von Fiktion auf das Wirklichkeitsbild verstärkt erforscht. Als Begriff wird – komplementär zum Realitätsprinzip – der Ausdruck „Korrealitätsprinzip“ vorgeschlagen.
Die Literaturwissenschaft bestreitet jedoch nach wie vor in nicht geringen Teilen, dass fiktionale Darstellungen korrekte Beschreibungen der (realen) Realität liefern. Dies ist entweder einem puristischen Verständnis von Welt (Welten sind getrennt) oder einem rigiden Wahrheitsbegriff geschuldet. Tatsächlich vorkommende Übertragungen von Wissen über die fiktive Welt auf die reale werden von solchen Positionen als Regelverletzungen betrachtet: Wer beispielsweise von einem Kinofilm auf die Wirklichkeit schließe, wisse nicht korrekt mit Fiktion umzugehen. Denkt man an das obige Beispiel der unzulässigen Übertragung, so würden klassische Positionen auch behaupten, man dürfe einen fiktionalen Film auch nicht dazu einsetzen, um etwa Schülern einen Eindruck von antiken Rom zu geben, da fiktionale Darstellungen „grundsätzlich“ nicht wahrheitsgetreu seien.
Von den Positionen, die von einer Wirkung auf Realität ausgehen, sind diejenigen zu unterscheiden, die lediglich anerkennen, dass in fiktiven Welten durchaus „reale“ oder „der Realität völlig gleichende“ Entitäten vorkommen.
Orthogonalitätsprinzip
Realität und Fiktion schließen einander nicht aus: Auch in fiktiven Welten gibt es die Unterscheidung zwischen fiktionaler und faktualer Darstellung. Dies wird im Anschluss an Elena Esposito als Orthogonalitätsprinzip bezeichnet.
Beispielsweise liest die Protagonistin Emma in Madame Bovary von Gustave Flaubert fiktionale Romane. Das Geschehen der Romane im Roman ist hinsichtlich der fiktiven Welt von Madame Bovary wiederum fiktiv, während Emma und Emmas Lektüre in der fiktiven Welt real sind.
Fiktion und Historiographie
Prominent und mit einiger Überspitzung hat Hayden White darauf hingewiesen, dass Geschichtsschreibung mit ihrer Strukturierung Ereignisse so sehr „glättet“, dass sie Fiktion ähnelt. Vergleichbare Thesen haben auch Reinhart Koselleck und Hans Robert Jauß geäußert, doch haben sie die These nicht in den Vordergrund gestellt und damit weniger Resonanz erlangt. Die Einsicht lautet, dass die Geschichtsschreibung sich in Erzählungen organisiert, weil nur Erzählungen in der Lage sind, die einzelnen Fakten logisch und chronologisch zu verbinden. Erzählungen legen Kausalitäten nahe oder schaffen Kontinuitäten, die regelmäßig von den Quellen, vor allem wenn diese selbst keine konkreten Kausalitätsvermutungen anstellen, nicht belegt werden können. Darin liegt ein Moment des Erfindens oder Fingierens.
Nach mehrheitlicher Auffassung ist die besondere Glättung, die die Geschichtsschreibung vornimmt, von Fiktion aber deutlich zu unterscheiden. Unabhängig davon, welches aktuelle Modell der Fiktion man zugrunde legt, ist die moderne Historiographie nicht als fiktionale Darstellung zu begreifen: Sie bezieht sich auf die reale Welt, der Historiograph übernimmt als Autor und Sprecher im Text die volle Verantwortung für seine Behauptung, und Erfindungen im engeren Sinne sind nicht gestattet.
Die erzählspezifischen Glättungen sind ein Effekt der erzählerischen Darstellung und nicht der Fiktion. Es zeigt sich damit auch an der Hayden-White-Kontroverse, dass die Abgrenzung zwischen Darstellung und Fiktionalität bislang unscharf ist und weiterer Ausarbeitung bedarf.
Rezeption von Fiktion
Wenn sich Fiktion als eingeschränkte Verantwortung für Äußerungen und als Schaffung fiktiver Welten verstehen lässt, stellt sich die Frage, woran man erkennt, dass eine Darstellung fiktional ist. Die Beantwortung der Frage ist entscheidend für die Beschreibung des gesamten Verhaltens bei der Rezeption von Darstellungen. Nach herrschender Auffassung gibt es auf der Ebene der Darstellungsstrukturen keine notwendigen Unterschiede zwischen fiktionalen und nicht-fiktionalen Werken (siehe: Überblick über Fiktionstheorien). Zwar unterscheiden sich fiktionales Erzählen im Roman und faktuales Erzählen im Freundeskreis oft stilistisch, aber kein Stil ist an die Fiktionalität oder Faktualität gebunden. Das Problem liegt nicht in der Erfundenheit: Eine faktuale Erzählung kann erlogen sein und eine fiktionale kann exakt den Tatsachen entsprechen.
Dabei können im Anschluss an das „Verstehen“ von Fiktion durchaus fiktionsspezifische Reaktionen auftreten. Zu den Unterschieden zählt beispielsweise, dass man sich auf fiktionale Darstellungen in der Regel nicht verlässt. (Wenn man zum Beispiel einen fiktionalen Historienfilm sieht, darf man keineswegs sicher sein, dass in der dargestellten Epoche die Menschen genau solche Kleidung getragen haben, wie der Film zeigt, selbst wenn die Filmemacher die Forschungslage zur Bekleidung berücksichtigt haben sollten.) Bei fiktionalen Darstellungen ist ferner die Neigung signifikant höher, dass man sich für ästhetische Fragen interessiert, speziell sich mit der Machweise und der Darstellungstechnik beschäftigt. (Wenige Leser interessieren sich demgegenüber dafür, welche Wortwahl einen Zeitungstext beherrscht, während sich vergleichsweise viele Leser für die sprachliche Gestaltung eines Romans interessieren.) Dabei handelt es sich allerdings um rein soziale Regelmäßigkeiten; je nach Bildung und Beruf ändern sich Verhaltensweisen. (Ein Journalist mag sich etwa stärker für die Schreibtechnik bei faktualen Berichten interessieren. Bei Kleinkindern ist die Fähigkeit, fiktionale Filme mit Distanz anzusehen, nicht ausgeprägt.)
Damit stellen sich zwei Fragen. Die erste lautet, ob man physiologisch bzw. kognitiv mit fiktionalen Darstellungen anders als mit nicht-fiktionalen umgeht. Da man anders auf Fiktion als auf Nicht-Fiktion reagiert, stellt sich als zweite Frage, welche Indizien eine so abgestimmte Reaktion auslösen.
Kognitiver Umgang mit fiktionalen Darstellungen
Die aktuelle psychologische Kognitionsforschung stellt fest, dass fiktionale Darstellungen kognitiv nicht anders verarbeitet werden als faktuale. Das bedeutet jedoch nicht, dass aus kognitionspsychologischer Sicht Fakten und Erfindungen „gleich“ behandelt würden. Wenn eine Darstellung als fiktional markiert ist, so gibt es durchaus soziale, erlernbare Regeln, die dafür sorgen, dass bei und nach der Betrachtung einer fiktionalen Darstellung grundsätzliche andere Verhaltensweisen als etwa bei einer faktualen auftreten. Die Kognitionspsychologie beschränkt sich darauf festzustellen, dass beim Verstehen des „Handlungsgehalts“ fiktionaler Darstellungen im Gehirn nichts anderes passiert als beim Nachvollzug faktualer Beschreibungen.
Die Kognitionspsychologie interessiert sich für das Problem, dass fiktionale Darstellungen, die von Unangenehmem sprechen, physiologisch Stress erzeugen. Sie sind daher – selbst wenn sich der Rezipient fiktionaler Darstellungen von der „Nicht-Wirklichkeit“ des Dargestellten überzeugt – stets emotional wirksam.
Fiktionssignale
Fiktionssignale sind alle Merkmale, die die Fiktionalität eines Werkes anzeigen, das heißt alle Merkmale, durch die sich fiktionale Texte als solche zu erkennen geben. Der Gebrauch von Fiktionssignalen unterliegt historischem Wandel und ist durch Konventionen bedingt. Die Theorie der Fiktionssignale geht auf Käte Hamburger zurück und ist inzwischen ausgearbeitet worden.
Man kann zwischen Fiktionalitätssignalen und Fiktivitätssignalen unterscheiden. Fiktionalitätssignale zeigen im Erzeugungsakt der fiktiven Welt an, dass es sich um Fiktion handelt; sie gehören also der realen Welt an. (Beispielsweise gehört dazu der paratextuelle Hinweis „Roman“ auf dem Umschlag eine Buches.) Fiktivitätssignale sind hingegen Anzeichen für die Eigenständigkeit der Welt, von der erzählt wird; gerade fantastische Ereignisse sind fast eindeutige Fiktivitätssignale.
Ein aktueller Fall, in dem die Wirkung einer ausdrücklich angezeigten Intention debattiert wird, ist der Roman Esra von Maxim Biller. Gerichte haben die Verbreitung des Romans untersagt, weil in ihm erkennbar zwei Frauen dargestellt werden, die ihre Persönlichkeitsrechte verletzt sehen. Dabei ist unerheblich gewesen, dass ein paratextueller Hinweis die Unterschiedlichkeit zwischen fiktiver und realer Person betont. Diese Rechtsprechung hat das Bundesverfassungsgericht in seiner Entscheidung bestätigt.
Fiktivitätssignale sind jedoch eher als heuristische Mittel zu begreifen, um sich der Einschätzung des Fiktionsstatus zu nähern. Absolut eindeutige Fiktivitätssignale gibt es nach mehrheitlicher Überzeugung der Forschung nicht. Problematisch ist es beispielsweise, wenn Fiktivitätssignale lediglich durch den Stil oder durch bestimmte Phrasen gegeben werden. Klassisches Beispiel ist die Formel zu Beginn von Märchen: „Es war einmal…“ Auch wenn es sich um ein Indiz handelt, wird diese Formel gelegentlich etwa von Journalisten gebraucht, um in den faktualen Bericht eines besonders absurd-märchenhaften Geschehen einzuführen. Von sehr ungewöhnlichen Ereignissen, die der gängigen naturwissenschaftlichen Weltbeschreibung widersprechen, berichtet die Boulevard-Presse gelegentlich, ohne dass es sich damit um Fiktion handelte. Auch religiöse Texte widersprechen dem physikalisch-biologischen Weltbild oft, ohne dass sie damit einen Fiktionsstatus erwürben.
Da sich fiktionale und faktuale Darstellungen in ihrer Struktur grundsätzlich nicht unterscheiden, kann es bei realistischen Fiktionen durchaus zu Verwechslungen kommen. Beispielsweise wurden die Winnetou-Erzählungen von Karl May als faktuale Reiseberichte gelesen, obwohl sie zunächst als „Reiseromane“ bezeichnet wurden; erst später nutzte May diesen Irrtum aus und änderte auch die paratextuelle Bezeichnung in „Reiseerlebnisse“, um gezielt die Texte als faktuale Berichte zu vermarkten.
Wahrheit und die Funktion der Fiktion
Wahrheit und Fiktion
Seit jeher ist das besondere Verhältnis von Fiktion und Wahrheit von Interesse. Wie man das Verhältnis begreift, hängt vom zugrunde liegenden Wahrheitsbegriff ab, der seinerseits wiederum davon abhängen kann, was man unter Kunst versteht.
Emphatischer Kunstbegriff
Die wichtigste Diskussion des Verhältnisses von Fiktion und Wahrheit betrifft fiktionale Darstellungen, insofern sie als Kunst angesehen werden. Dies setzt einen emphatischen Kunstbegriff voraus, also vor allem die Vorstellung, dass Kunst überkomplex ist und zu Erkenntnisgewinn beiträgt. Dann ist nicht unbedingt jede fiktionale Darstellung künstlerisch und dann gibt es eine besondere „Wahrheit in der Kunst“. Diese drückt sich darin aus, dass gerade fiktionale Darstellungen in der Lage sind, Wesentliches über die Welt zu verraten, selbst wenn sie dies auf poetische oder metaphorische Weise tun.
Die Auffassung, dass Kunst eine ihr eigene Wahrheit vermittelt, besteht schon in der Antike. Zum Beispiel behauptet Aristoteles in seiner Poetik, dass Dramen aufschlussreicher als historiographische Texte sind. Vor dem Hintergrund eines modernen Fiktionsverständnisses legt Philip Sidney im 16. Jahrhundert ausdrücklich Wert darauf, dass gute Literatur wahrer als die faktuale Beschreibung ist. Hinsichtlich der Kunst wird diese Position bei den Romantikern ausgebaut und in der ästhetischen Theorie des 20. Jahrhunderts energisch vertreten (bei Theodor W. Adorno, Käte Hamburger).
Teils wird aus Respekt vor dem logischen, wissenschaftlichen oder speziell naturwissenschaftlichen Wahrheitsverständnis auf den Ausdruck „Wahrheit“ verzichtet und allgemeiner von „Erkenntnis“ oder Ähnlichem gesprochen, so etwa in der Philosophie (v. a. bei Nelson Goodman), in der Soziologie (v. a. bei Niklas Luhmann) oder in der Hirnforschung (v. a. bei Wolf Singer). Als begriffliche Option wird aufgrund der ästhetischen Tradition oft der Ausdruck „Schönheit“ vorgeschlagen.
Wahrheit im Sinne der analytischen Philosophie
In logiknahen Theorien der Fiktion wird Wahrheit im Sinne der Aussagenlogik verstanden. In der Regel gilt dann – je nach konkreter Auffassung –, dass fiktionale Sprechhandlungen entweder hinsichtlich ihres Wahrheitsgehalts nicht bewertet werden können oder aber falsch sind. Im Rahmen dieser Positionen wird folglich abgelehnt, dass fiktionale Darstellungen wahr sein können.
Funktionen der Fiktion
Über die Funktion von Fiktion besteht keine Einigkeit. Zunächst ist die Abgrenzung gegenüber der Funktion von Kunst zu treffen; sofern eine fiktionale Darstellung zugleich im emphatischen Sinne als Kunst begriffen wird, steht die Fiktionalität im Dienst der Funktion von Kunst.
Damit ist die Erörterung der Funktion von Fiktion eng an die Wahrheitsdebatte gebunden. Geht man nämlich davon aus, dass Kunst zu Erkenntnisgewinn beiträgt, so dient künstlerische Fiktion dazu, Erprobungsräume für Weltbeschreibungen zu bieten. Fiktion ermöglicht, sich mit einer anderen Welt auseinanderzusetzen und realitätsbezogene Beschreibungen auf Tauglichkeit zu prüfen. Kognitionspsychologische Ansätze gehen davon aus, dass Fiktion eine Möglichkeit bietet, sich eine eigene Theory of Mind zu schaffen.
Analysen, die nicht von Kunst ausgehen oder einen emphatischen Kunstbegriff ablehnen, postulieren eine Unterhaltungsfunktion der Fiktion. Konkret erlaubt demnach Fiktion das Eintauchen in fremde Welten und Distanz zur Realität (Entspannung). Einige, zum Beispiel Steven Johnson, vertreten die Auffassung, dass fiktionale Erzeugnisse der Populärkultur die kognitiven Fähigkeiten des Rezipienten trainieren.
Fiktion im Verhältnis zu Gattungen und Genres
Literatur
Unter den drei traditionell unterschiedenen literarischen Gattungen Epik, Drama und Lyrik finden sich fiktionale Texte zumindest in den epischen und den dramatischen Werken sehr häufig. Speziell der Roman, die Kurzgeschichte und die Novelle gelten oft als fiktional und ihre Gattungsbezeichnungen auf dem Buchdeckel als Fiktionalitätssignal.
Es ist umstritten, ob Lyrik fiktional ist, allerdings wird die Diskussion kaum geführt. Die klassische Position, die vor allem auf das späte 18. Jahrhundert zurückgeht, besagt, dass Lyrik unmittelbarer Ausdruck der Persönlichkeit des Dichters ist; sie ist in diesem Sinne nicht fiktional, sondern eine eigene Form nicht-fiktionalen Ausdrucks. Dagegen wird zunehmend die Auffassung vertreten, dass auch lyrische Texte eine Vorstellungswelt schaffen.
Unstrittig ist inzwischen, dass Fiktionalität die Dichtung keineswegs charakterisiert, es also viele literarische Formen gibt, die nicht fiktional sind, sich allerdings auch nicht dem traditionellen Gattungsschema fügen. Dazu zählen etwa Lehrgedichte, Fabeln oder Aphorismen. Auch lassen sich Autobiografien, Reiseliteratur sowie Ratgeberliteratur in der Regel nicht als fiktionale Gattungen begreifen. Ein Grenzbereich ist der Historische Roman.
Film
Die meisten Genres des Kinofilms sind fiktional. Man kann sagen, dass im Falle des Kinos der fiktionale Film vom Rezipienten vorausgesetzt wird und umgekehrt im Falle faktualer Darstellungen eigens darauf hingewiesen werden muss (zum Beispiel beim Dokumentarspielfilm). Zu den besonders erfindungsreichen fiktionalen Genres gehören Fantasy und Science Fiction.
Theorien der Fiktion
Es existieren verschiedene literaturwissenschaftliche, philosophische und soziologische Theorien, Fiktion zu erklären. Viele der Ansätze beanspruchen nicht, eine einheitliche Beschreibung der Fiktion zu geben. Das heißt, dass davon ausgegangen wird, dass der Breite der Phänomene, die als Fiktion bezeichnet werden, nur vielfältige Erklärungsansätze gerecht werden.
Das wiederum rührt an dem Problem, dass Fiktion als Phänomen sowohl systematisch als auch historisch noch nicht hinlänglich eingegrenzt ist. Überdies haben sich die fiktionalen Phänomene im Laufe der Jahrhunderte auch verändert; es ist umstritten, ob die heutige Fiktion mit erfindungsreichen Geschichten aus dem europäischen Altertum oder Mittelalter oder aus anderen Kulturen vergleichbar ist (siehe: Geschichte der Fiktion). Der Ausdruck „Fiktion“ ist lange als Eigenart von Dichtung (engl. fiction) verstanden worden. Die frühsten Ansätze sind daher zunächst dichtungstheoretisch. Sie versuchen aber, die mögliche „Nichtwahrheit“ von Dichtung begrifflich zu fassen und lassen sich damit als Vorläufer einer Fiktionstheorie begreifen. Solche Anstrengungen gehen bis in die Antike zurück.
Die ursprüngliche Verengung auf Literatur führt dazu, dass erst vergleichsweise spät, nämlich im 20. Jahrhundert, die Fiktionsfähigkeit anderer Darstellungsmedien in den Blick gerät. Zwar werden vor allem seit Gotthold Ephraim Lessings Laokoon die spezifischen Qualitäten diskutiert, die die verschiedenen Medien wie Plastik und Literatur der Darstellung zur Verfügung stellen, aber dabei stehen Ausdrucksmöglichkeiten und nicht Fiktionalität im Vordergrund. Erst die Erfindung des Films und seine Nutzung für fiktionales Erzählen haben das Bewusstsein dafür geschärft, dass Fiktion nicht an das literarische Medium gebunden ist. Inzwischen ist aber deutlich, dass auch andere Medien – etwa die Malerei – fiktional darstellen können.
Doch auch ohne Berücksichtigung der historischen Veränderlichkeit der als fiktional bezeichneten Phänomene wird nicht selten die Auffassung vertreten, dass die Beschreibung solcher Phänomene aufgrund ihrer besonderen Struktur (und nicht nur wegen ihrer historischen Veränderlichkeit und Vielfalt) grundsätzlich nicht im Rahmen einer allgemeingültigen Theorie gelingen kann. Die Vielfalt der Teilerklärungen ist demnach schon das Optimum. Dennoch können die aktuellen Bestimmungsversuche ein weitgehend kohärentes Bild von der Wirkweise von Fiktion vermitteln.
Die Fiktion ist ein wichtiger Gegenstand des Streits zwischen Positionen, die eher dem Poststrukturalismus, speziell der Dekonstruktion, angehören, und solchen, die sich eher einem positivistischen Erkenntnisbemühen widmen oder der analytischen Philosophie nahestehen. Der Grund dafür ist, dass jede Erklärung der Fiktion vom Verständnis der Realität abhängt und damit Fragen der Metaphysik und der Erkenntnistheorie stark berührt.
Aktuelle Fiktionstheorien
Welttheorien
Das Phänomen der Fiktion lässt sich über das Weltkonzept und die Idee der Kontinuität sehr gut charakterisieren. Offen bleibt dabei, was genau unter „Welt“ zu verstehen ist und wie es möglich ist, dass fiktive Welten mit der realen Welt verglichen werden können. Hier liefern die Welttheorien Ansätze.
Dabei stößt die Beschreibung von Fiktion über die Idee einer mehr oder minder abgeschlossenen Welt bei sehr verschiedenen Erklärungsansätzen für Fiktion auf Zustimmung. Das liegt daran, dass das Problem, wie mit Realität umzugehen ist, elegant auf die Erklärung von Welt ausgelagert wird. So können beispielsweise Positionen, die der analytischen Philosophie nahestehen, Welt über Propositionen und logische Verknüpfungen beschreiben, während konstruktivistische Theorien darauf abheben können, dass das Konzept Welt bloß die Möglichkeit, Ontologie zu denken, griffig zusammenfasst. Das heißt, dass die Fähigkeit, mit Welt umzugehen, in allen Welttheorien unabhängig davon gedacht wird, auf welche Grundlagen sich diese Fähigkeit überhaupt stützt.
Eine besondere Variante der Welttheorien bilden die Mögliche-Welten-Theorien (possible world theories, PWT). Sie stützen sich auf die analytischen Theorien möglicher Welten, die ihren Ausgangspunkt in der Modallogik nehmen. Hauptanliegen der possible worlds theories ist seit ihren Anfängen (die unabhängig von der Fiktionstheorie sind), das Funktionieren kontrafaktischer Behauptungen erklären zu können. Die Mögliche-Welten-Theorien wenden sich ausdrücklich gegen die Korrespondenztheorie der Wahrheit und heben die Relativität der Vorstellung einer realen Welt hervor. Viele Mögliche-Welten-Theorien gehen ferner davon aus, dass man nicht von nur einer einzigen realen Welt ausgehen dürfe, sondern sich die Welt je nach Beobachter unterscheidet. Vereinfacht ausgedrückt: Jeder lebt in seiner eigenen Welt. Fiktion ist das Verfahren, sich in eine andere Welt zu versetzen oder, genauer gesagt, andere Beobachterpositionen zu simulieren (deictic shift).
Die Fiktionstheorie von Cohn und Genette
Im Kontext der Autor-Erzähler-Unterscheidung der Literaturwissenschaft und den Analysen von Autobiografien, die Philippe Lejeune vorgelegt hat, haben zu Beginn der 90er Jahre Gérard Genette (Fiction et diction) und Dorrit Cohn (The Distinction of Fiction) unabhängig voneinander den Vorschlag entwickelt, dass Fiktion genau dann vorliegt, wenn der Autor vom Erzähler unterschieden werden kann. Dabei ist unter Erzähler der im Sinne von Genettes Erzähltheorie gemeint; es muss kein Ich-Erzähler sein. Die auf diesem Grundgedanken aufgebaute Fiktionstheorie stellt heraus, dass damit eine besondere Einschränkung der Verantwortung des Autors für das Gesagte gemeint ist. Genette und Cohn stellen diesen Vorschlag als eine Möglichkeit unter anderen dar; sie gehen nicht davon aus, dass es eine ganzheitliche Theorie der Fiktion geben kann.
Die Theorie von Cohn und Genette steht im Einklang mit der Weltenformulierung, da der Erzähler sozusagen in der fiktiven Welt für seine Äußerungen verantwortlich ist. Günstig ist dieser Ansatz, wenn es darum geht, erfindungsarme Fiktion und die Funktion von Fiktion zu ergründen. Nachteilig ist er, weil die Äquivalenz zwischen dem Fiktionsstatus und dem Kriterium der Unterscheidbarkeit von Autor und Erzähler zu einer Zirkularität des Konzepts führt: Fiktion liegt vor, wenn Fiktion vorliegt. Es gibt also keine Anhaltspunkte dafür, wann und weshalb die Unterscheidung zwischen Autor und Erzähler gelingt.
Spieltheorien
Der Philosoph Kendall L. Walton schlägt in Mimesis as Make-Believe vor, dass Fiktion als Make-Believe-Spiel zu erklären ist. Der englische Ausdruck make believe bedeutet „das Vorspiegeln“ im Sinne von „jemandem etwas weismachen“. Für Walton heißt Make-Believe so, dass ein Gegenstand bestimmte Anweisungen gibt, wie mit ihm umzugehen ist; darin besteht Fiktion. Der Ausgangspunkt ist die Beschreibung des Spiels von Kindern, die einen Baumstumpf zum Bären erklären und dann vor ihm flüchten. Der Baum ist ein Requisit (engl. prop), das die grundlegenden Regeln für das Spiel gibt. Auch fiktionale Romane lassen sich als solche Requisiten begreifen; im Umgang mit ihnen gelten ebenfalls sehr bestimmte Regeln, auf die man sich bei der Rezeption einlässt, die man aber – ähnlich wie im Spiel mit dem Baumstumpf – selbst bei der Lektüre festlegen kann.
Waltons Ansatz gilt als originell, ist jedoch schon kurz nach Erscheinen der Monographie kritisiert worden, weil sich seine Beschreibung nicht nur auf fiktionale Romane, sondern auch auf faktuale Fotografien oder auch Zeitungsberichte anwenden lässt. Denn auch diese geben Anweisungen, sich bestimmte Gegebenheiten vorzustellen. In der Diskussion ist aber deutlich geworden, dass dennoch Gewinn aus Waltons Thesen gezogen werden kann, weil sie klarstellt, dass zwischen Darstellung und Fiktion Verwandtschaft besteht und beide bislang nicht hinreichend auseinandergehalten worden sind. Angesichts der Möglichkeiten der Bearbeitung gerade von digitaler Fotografie stellt sich darüber hinaus die Frage, ob nicht Waltons funktionale Definition der Fiktion, die neben der Fotografie, der Bildenden Kunst auch die Musik als darstellendes Medium und somit als fiktionales begreift, trotz seiner intuitiv zu weiten Definition letztlich über den Funktionsbegriff Fiktion schlüssiger definiert als andere derzeit aktuelle Fiktionstheorien.
Unabhängig von der Kritik an Waltons Ansatz wird der Versuch weiter verfolgt, Fiktion als spielerischen Umgang mit gesetzten Situationen zu begreifen.
Isers Fiktionstheorie
Vor allem in seiner Monographie Das Fiktive und das Imaginäre schlägt Wolfgang Iser vor, die verbreitete Gegenüberstellung von Fiktion und Wirklichkeit zu verabschieden und durch eine Dreiteilung in Fiktives, Imaginäres und Reales zu ersetzen. Dabei versteht er unter dem Fiktiven sowohl den Akt des Fingierens oder Erfindens von Unwirklichem als auch das Produkt; das Imaginäre dagegen ist die Schaffung eines kohärenten Vorstellungsraums (in Einschränkung mit dem Weltkonzept vergleichbar) und erneut auch das Produkt der Vorstellungskraft; das Reale schließlich ist das als wirklich so und so Gegebene.
Isers Ansatz ist zwar immer wieder von einzelnen Literaturtheoretikern aufgegriffen worden, doch wird er mehrheitlich von der Fiktionsforschung als zu wenig konturiert abgelehnt. Dabei wird von Kritikern grundsätzlich nicht bestritten, dass eine einfache Unterteilung in Reales und Fiktives kein hohes Auflösungsvermögen besitzt; doch hat Iser nicht überzeugen können, dass sich seine drei Pole auf derselben semantischen Ebene befinden und damit überhaupt vergleichbar sind.
Operationsorientierte Fiktionstheorien
Neuere Ansätze basieren auf einer Operationalisierung des Fiktionsbegriffes.
Epistemologisch ansetzende Arbeiten interessieren sich für die Unterscheidungen, die ein als fiktional bezeichneter Text ermöglicht. Dabei gibt es keine grundsätzlich fiktionalen Unterscheidungen, die „anders“ als nicht-fiktionale sind. Verwechslungen zwischen fiktionaler und nichtfiktionaler Darstellung sind daher immer möglich und müssen anders gesichert werden.
Rezeptionsorientierte Ansätze fragen dagegen nicht danach, ob Texte etwa fiktional ‚sind‘, sondern danach, wie zum Beispiel fiktionale Lektüren ablaufen. Fiktionalität ist aus dieser Perspektive keine Qualität von Texten mehr, sondern vielmehr eine bestimmte Form der Textrezeption bzw. der Medienwirkung. Mit Textverstehensmodellen aus der Psychologie, etwa dem Construction-Integration-Modell von Walter Kintsch, lassen sich diskursive Fiktionstheorien entwerfen, die empirisch überprüfbar sind und dadurch auch konkrete Lektüreprozesse in ihren individuellen Eigenschaften beschreibbar machen.
Auch neuere Ansätze in der Nachfolge der analytischen Philosophie orientieren sich stärker an den Zuschreibungen, die Texte ermöglichen, und entfernen sich so gleichfalls von „starren“ Konzepten der Referenz.
Klassische Fiktionstheorien
Im Folgenden werden ältere, einflussreiche Beiträge zur Fiktionstheorie aufgeführt. Sie sind nach wie vor bedeutsam, um die gegenwärtige Diskussion zur Fiktion nachvollziehen zu können.
Wahrscheinlichkeit, Poiesis und Mimesis (Aristoteles)
In der antiken Literaturtheorie hat es kein der Fiktion vergleichbares Konzept gegeben. Dies erklärt sich aus dem andersgearteten Realitäts- und Dichtungsverständnis (siehe: Geschichte der Fiktion). Besonders wichtig für das antike Realitätsverständnis ist das Konzept des Wahrscheinlichen (veri similia, eikota). Das Wahrscheinliche ist dabei plausibel und daher oft überzeugend, obwohl es der Wahrheit bloß ähnlich ist („dem Wahren ähnlich“ ist die wörtliche Übersetzung von „veri similis“). Allerdings lässt sich für das antike Verständnis die Wahrheit oft nicht ermitteln; sie bleibt praktisch auf die philosophisch-reine Erkenntnis beschränkt. Wenn aber Dichtung auf das Wahrscheinliche setzt, so nutzt sie, dass das Unwahre wie das Wahre aussehen kann, und damit einen realistischen Eindruck erzeugt.
Aristoteles’ Verständnis der Poiesis weist Vergleichbarkeiten zu Fiktion auf, wie vor allem Käte Hamburger hervorgehoben hat. „Poiesis“ heißt wörtlich „das Tun“ oder „das Machen“, bedeutet aber zugleich „Dichtung“ und steht damit in großer Nähe zur „fictio“ („das Bilden“, „das Formen“, „das Erdichten“). Wenn Aristoteles die Herstellung von Dichtung thematisiert, befasst er sich mit der Erzeugung von Vorstellungsinhalten und bietet so eine Theorie der Dichtung, die bereits Teile der späteren Fiktionstheorie vorformuliert.
Ein zentrales antikes Konzept zur Erklärung von Dichtung ist Mimesis (lat. imitatio). Gängig meint der Begriff in erster Linie die naturgerechte Wiedergabe; er wird meist mit „Nachahmung“, aber auch mit „Darstellung“ übersetzt. Da jedoch für Aristoteles ausdrücklich etwas, was nicht „vorhanden“ ist, „nachgeahmt“ werden kann, ist die antike Mimesistheorie ein Versuch zu erklären, wie man über bloß sprachlich erzeugte Gegenstände sprechen kann.
Die klassischen Thesen sind von Genette, Hamburger und anderen aufgenommen und wieder gestärkt worden. Insbesondere der deutsche Anglist Ansgar Nünning hat in Verbindung mit der Erzähltheorie eine neue Konzeption des Mimesisbegriffs im Zusammenhang mit der Erzählung etabliert, die er „Mimesis des Erzählens“ bezeichnet. Sie spielen aber nur eine Rolle in der historischen Fiktionsforschung.
Als-ob (Vaihinger, Hamburger, Searle)
Hans Vaihinger schlägt in seinem Hauptwerk Die Philosophie des Als-ob eine erkenntniskritische Theorie der Hilfsoperationen vor. Eine Fiktion ist dem nach eine Hilfsvorstellung, die das Denken erleichtert oder erst ermöglicht und keine Tatsachen impliziert. Bemerkenswert sind seine Ausführungen zu den „zweckmäßigen Fiktionen“ in der er die „Methode der entgegengesetzten Fehler“ (Kapitel XXVI) mit Mathematik, Jurisprudenz und Naturwissenschaften zusammenführt.
Auch Immanuel Kant bestimmt die Vernunftbegriffe als „doch nicht gedichtete und zugleich dabei für möglich angenommene Gegenstände“ und „als heuristische Fiktionen“; Vaihinger stützt sich auf Kant. Vaihingers Theorie will sich vor allem auf die Naturwissenschaften anwenden lassen und bedenkt nur in einem Exkurs die Literatur. Auch für die „literarische Fiktion“, wie es bei Vaihinger heißt, nimmt der Rezipient bewusst die falschen Annahmen, die die Literatur ihm vorsetzt an, und behandelt sie, als ob sie gültig wären, um zu einem positiven Ergebnis zu kommen (bei Vaihinger etwa zum Genuss des schönen Kunstwerks).
Die Idee, Fiktion mittels einer Als-ob-Struktur zu erklären, ist von Käte Hamburger und John R. Searle aufgegriffen worden. Hamburger modifiziert den Gedanken, indem sie darauf besteht, dass man eher von einer Als-Struktur sprechen sollte: Der Clou der Fiktion besteht demnach darin, dass man die fiktiven Entitäten als genau diese Entitäten betrachtet und so „eine Welt der Fiktion auf Augenblicke als eine Welt der Wirklichkeit“ erscheint. Searle dagegen verlagert den Akzent auf die Feststellung, dass sich die sprachliche Struktur von fiktionalen und faktualen Behauptungssätzen nicht unterscheidet. Aus dieser Feststellung leitet Searle ab, dass das zentrale Kriterium der Fiktion die Intention des Sprechers ist, so zu tun, als ob er ernsthaft etwas behauptet.
Intention (Danto, Searle)
Zahlreiche Theorien machen Intention zur Voraussetzung dafür, dass man über Fiktion oder Kunst sprechen kann. Searle stellt heraus, dass sich fiktionales und nicht-fiktionales Sprechen nicht in der sprachlichen Struktur unterscheiden. Daraus zieht er den Schluss, dass der Unterschied in der Haltung zur eigenen Äußerung liegen muss. Fiktion zeichnet sich durch die mangelnde Ernsthaftigkeit aus, mit der behauptende Sprechakte geäußert werden. Arthur C. Danto hebt die Bedeutung der Intention für den Umgang mit allen künstlerischen Erzeugnissen, speziell auch der Fiktion, hervor.
Zwar wird die Bedeutung des Autors für den Produktions- und auch Rezeptionsprozess heute wieder sehr hervorgehoben („Rückkehr des Autors“). Da Intention nicht einwandfrei feststellbar ist, spielt sie jedoch selbst für Theorien, die an der Autorintention festhalten, keine zentrale Rolle in der Erklärung von Fiktion mehr. Der Akzent hat sich darauf verlagert, die Zuschreibung von Intention und ihre Manifestation mit Hilfe kognitionswissenschaftlicher Ansätze zu untersuchen. Hier gilt die Forschung zur Theory of Mind als wegweisend. Die aktuelle Debatte um den Status der Intention ist angesichts dieser erst jungen Diskussion noch offen.
Searles Behauptung, die sprachliche Struktur fiktionaler und nicht-fiktionaler Darstellungen unterscheide sich nicht, ist inzwischen weitgehend akzeptiert und wird in aktuellen Fiktionstheorien bestätigt.
Mangelnde Referenzialisierbarkeit (Gabriel)
Eine wirkungsreiche und in auch noch aktuellen Arbeiten zur Fiktion wiederkehrende These lautet, dass fiktionale Aussagen keine Referenz haben. Diese Position steht der analytischen Philosophie nahe.
Besonders beachtet worden ist der Vorschlag von Gottfried Gabriel. Dieser erklärt fiktionale Rede als „diejenige nicht-behauptende Rede, die keinen Anspruch auf Referenzialisierbarkeit oder auf Erfülltheit erhebt.“ („Erfülltheit“ meint, dass zu einer erfüllbaren Aussage eine Belegung besteht, mit der die Aussage wahr ist.) Damit muss die Möglichkeit einer Bezugnahme überhaupt erst geklärt sein, bevor ein Urteil über die Wahrheit eines fiktionalen Satzes gefällt werden kann; fiktionale Aussagen sind also weder wahr noch falsch. Die Genauigkeit des Vorschlags liegt darin, dass er die Möglichkeit geglückter Referenz nicht ausschließt, sondern lediglich die Bereitschaft beschreibt, auf eine Bezugnahme auf die reale Welt zu verzichten.
Gabriels Theorie trägt auch der Tatsache Rechnung, dass fiktionale Literatur durchaus auf die reale Welt erfolgreich und gezielt Bezug nehmen kann (siehe: Wirkung der Fiktion auf Realität). Gabriel geht nämlich davon aus, dass es "unterschiedliche Grade von Fiktionalität" gibt. Auch ist ein spezifischer Anspruch auf Erfülltheit oft gegeben. Es bleibt jedoch die Frage, wie sich ein Anspruch artikuliert – will man nicht auf die Intentionstheorien zurückgreifen. Gabriels heute als klassisch geltende Position geht in der analytischen Welttheorie auf. Besonders diejenigen Welttheorien, die eine strikte Trennung zwischen fiktiver und realer Welt annehmen, profitieren nach wie vor von Gabriels Theorie.
Fiktionsvertrag (Coleridge)
Theorien des Fiktionsvertrags nehmen an, dass Autor und Leser eine Übereinkunft erzielen, nach der der Leser die Angaben einer fiktionalen Darstellung für den Moment glaubt, aber letztlich weiß, dass diese Darstellung nicht wahrheitsgemäß ist. Diese Theorien gehen nicht zuletzt auf die Formel „willing suspension of disbelief“ (willentliche Aussetzung der Ungläubigkeit) zurück, die der Dichter Samuel Taylor Coleridge geprägt hat. Demnach willigt der Leser auf Einladung des Autors für den Moment der Lektüre bewusst ein, „den Unglauben zu suspendieren“, also für die Zeit des Rezeptionsvorgangs der Darstellung des fiktionalen Textes Glauben zu schenken. Nach dieser Lektüre wird diese Suspendierung, so Coleridge, wieder außer Kraft gesetzt, der Leser weiß dann wieder, dass er dem Text nicht zu glauben hat. Coleridges romantisch-dichterische Idee einer zeitlichen Abfolge von "Belief" und "Disbelief" erklärt jedoch nicht die latente Doppelstruktur einer Repetionshaltung ästhetischer Illusion.
Die These von Fiktionsvertrag ist außerhalb der Fiktionsforschung populär, allerdings innerhalb ihrer nie sehr stark vertreten worden. Zum einen liegt eine unklare Analogie mit dem juristischen Begriff des Vertrags vor. Zum anderen handelt es sich bei dem Nichtglauben bloß um eine der Rezeptionsmöglichkeiten fiktionaler Darstellungen. Das gängige bewusste Nichtglauben ist zudem Teil des Phänomens Fiktion und nicht seine Erklärung.
Poststrukturalistische Kritik an klassischen Fiktionstheorien
Von poststrukturalistischer und konstruktivistischer Seite sind viele Einwände gegen einige der Annahmen vorgetragen worden, von denen die eher analytischen Fiktionstheorien ausgehen. Es handelt sich nicht um eigene Theorien der Fiktion, sondern um einflussreiche Anfechtungen analytischer oder hermeneutischer Positionen.
Weite Teile der etablierten Fiktionstheorie haben die Einwände abgelehnt, allerdings kaum diskutiert. Von einer nennenswerten Zahl gegenwärtiger Fiktionstheoretiker wird eine Neubewertung der postmodernen Kritik gefordert oder in Ansätzen durchgeführt. Den konstruktivistischen und poststrukturalistischen Positionen gelten die hier aufgeführten Einwände gegen Annahmen der Fiktionstheorie bereits als kanonisiert.
Referenz (Luhmann, Derrida, Rorty)
Zahlreiche Vertreter sehr unterschiedlicher Denkschulen, etwa Jacques Derrida und Niklas Luhmann, stellen grundsätzlich in Zweifel, dass Referenz im Sinne der analytischen Philosophie und der klassischen Metaphysik möglich ist. Der sprachliche Bezug auf die sogenannte außersprachliche Realität ist demnach immer brüchig und keine letztgültige unhinterfragbare Erfolgskontrolle ist möglich. Da erfolgreiche Referenz damit grundsätzlich unprüfbar ist, zeichnet ihr Mangel Fiktion nicht aus; sie bildet daher kein Kriterium für Fiktion. Richard Rorty diskutiert das Problem, dass analytische Positionen unter der Unsicherheit leiden, dass man nicht wissen kann, ob eine Weltbeschreibung das „Wesen“ der realen Welt trifft; deshalb sind Fiktionstheorien, die auf Referenz setzen, ungeeignet, da sie darauf beruhen, den grundsätzlichen Zweifel einfach zu ignorieren. Rorty widmet sich vor allem der Frage, ob Referenz überhaupt die Annahme von Existenz voraussetzt. Die Debatte bewegt sich um die Frage, wie überhaupt geeignete Weltbeschreibungen möglich sind und ob Wahrheit und Referenz notwendige Voraussetzungen einer Fiktionstheorie sind. Selten wird diese Kritik radikalisiert, indem behauptet wird, dass es keinen Unterschied zwischen fiktionaler und faktualer Beschreibung gibt. Die breiter vertretene gemäßigte Fassung enthält keine positive These zur Fiktion und ist damit nur als Kritik an bestehenden Theorien zu verstehen, nicht als eigenes Erklärungsangebot.
Es gibt hier durchaus Anknüpfungspunkte an einige der Vertreter der analytischen Philosophie, etwa Willard Van Orman Quine, von denen die Unschärfe der Referenz stark hervorgehoben wird. Die weiterführende Diskussion steht noch aus.
Intention (Derrida)
Intention lässt sich nicht am Verhalten oder der konkreten sprachlichen Äußerungen eines Sprechers feststellen. Sie lässt sich im Bestfall nur wieder an anderen Äußerungen messen. Daher ist eine absolute Klärung der Intention eines Sprechers unmöglich. Dieses „phänomenologische“ Problem der Intention lässt es nicht zu, die Intention zur Hervorbringung fiktionaler Rede zu prüfen.
Besonders Derrida richtet seine Kritik an der Logik der Intention gegen Searles Fiktionstheorie und polemisiert: Wenn Searle ins Weiße Haus ginge und mit aller Intention so täte, als ob er ernsthaft zugangsberechtigt wäre (hier nimmt Derrida Searles Fiktionsdefinition auf), könnte er davon ausgehen, dass die Sicherheitsbeamten das nicht als Fiktion ansähen, sondern als Versuch werten würden, widerrechtlich ins Weiße Haus einzudringen. Die Auseinandersetzung zwischen Searle und Derrida ist für die Bewertung des Verhältnisses von Analytischer Philosophie und Poststrukturalismus zentral.
Die Intentionsthese wird nicht nur wegen der mangelnden Überprüfbarkeit der Intention abgelehnt. Das Problem ist vielmehr, dass auch eine ausdrückliche Erklärung einer Nichtübereinstimmung von fiktivem und realem Tatbestand wirkungslos sein kann. Anders ausgedrückt: man kann nicht einfach behaupten, dass alle Figuren „erfunden“ sind, und damit sicherstellen, dass man nicht zur Verantwortung gezogen wird, falls es doch zu starke Ähnlichkeiten zwischen fiktivem und realem Tatbestand gibt.
Fiktion als verabschiedetes Paradigma (A. Assmann)
Die Anglistin Aleida Assmann hat die Auffassung vorgetragen, die Differenz zwischen Fiktion und Realität sei ein „verabschiedetes Paradigma“. Damit ist gemeint, dass in den letzten Jahren in der modernen Gesellschaft das Bedürfnis geschwunden ist, zwischen wahren und bloß erfundenen Tatsachen zu unterscheiden. Ob beispielsweise ein wahrheitsgetreuer oder reißerisch übertriebener Bericht die Fernsehöffentlichkeit erregt, spielt gemäß dieser These heute eine geringere Rolle.
Assmanns Einschätzung ist mehrheitlich zurückgewiesen worden. Im Gegenteil wird zum Beispiel in der Werbung Authentizität gern suggeriert. Rezipienten unterscheiden nach wie vor in der Regel zwischen faktualen und fiktionalen Berichten und passen ihr Verhalten an ein Vorliegen des Fiktionalitätsstatus an.
Geschichte der Fiktion
Es ist nach wie vor umstritten, ob man die antike und frühmittelalterliche Literatur als im modernen Sinne fiktional bezeichnen kann oder ob es sich nicht um ein recht junges Phänomen handelt. Auch ist man sich nicht einig, ob es in allen Kulturen Fiktion gibt oder gegeben hat. Entsprechend hängt der Streit sehr eng damit zusammen, ob es sich bei Erzählen und Fiktion um anthropologische Grundbestände handelt (also „alle Menschen einander immer schon erfundene Geschichten erzählen“) oder ob diese recht junge kulturelle Phänomene sind. Die folgenden Ausführungen beschränken sich auf die Geschichte der Fiktion in der sogenannten westlichen Welt; ein interkultureller Vergleich steht noch aus.
In der Antike wird zwischen zutreffenden (wahren, wahrscheinlichen) und unzutreffenden (falschen, unwahrscheinlichen) Darstellungen unterschieden. Die Vorstellungen von Wahrheit und Wahrscheinlichkeit unterscheiden sich dabei allerdings deutlich von den modernen Entsprechungen. Der Antike ist durchaus vertraut, Ablehnungsgründe für die Wahrheit oder Wahrscheinlichkeit einer Darstellung zu finden. Etwas kann erlogen, unmöglich oder aber fabelhaft sein. Das Fabelhafte bildet dabei am ehesten eine Vorform der Fiktionalität. (Die klassische Dreiteilung ist die in historia, argumentum und fabula, wobei historia eine wahre, argumentum eine nicht wahre, aber dem Wahren ähnliche und fabula eine nicht nur falsche, sondern überdies unmögliche Erzählung ist.) Die Lüge ist von der fabelhaften Erzählung nicht klar geschieden; diese fehlende Unterscheidung ist der Grund dafür, dass Platon den Vorwurf erhebt, alle Dichter würden lügen: Denn wissentlich Unwahrscheinliches so vorzutragen, als sei es wahrhaftig, ist verwirrend und daher anstößig.
Kompliziert wird die antike Situation durch ein anderes Verständnis von Geschichtsschreibung und dem besonderen Status der Mythen. Historische Schriften werden in der Antike noch beim Kopieren und beim Überliefern verändert, wenn dem neuerlichen Autor bestimmte Dinge unplausibel oder ergänzungswürdig erscheinen. Es ist ihm sogar gestattet, Tatsachenbehauptungen hinzuzufügen, wenn sie wahrscheinlich sind. Ein solches Verhältnis zur historischen Quelle und zum Fakt erschwert es, bei freien Ergänzungen von Fiktion im modernen Sinne zu sprechen. Die Mythen sind gleichfalls problematisch; fabula ist die lateinische Entsprechung von griechisch mythos; der Antike ist durchaus bekannt, dass die Göttergeschichten einen anderen Status besitzen als die Geschichtsschreibung. Dennoch haben die Göttergeschichten eine gewisse religiöse Verbindlichkeit und werden zugleich als mögliche Beschreibungen tatsächlicher Vorkommnisse in der Götterwelt gedeutet. Oftmals gibt es verschiedene, einander ausschließende Varianten (zum Beispiel über die Zeugung der Aphrodite). Es liegt eine ähnliche Situation vor wie bei Heiligen Texten, doch ist die geschichtliche Verbindlichkeit höher. Die Mythen bestehen in der einen einzigen Welt; sie schaffen keine unzulängliche und andere Welt.
Die Situation im Mittelalter ist – zumindest bis zum 12. Jahrhundert – mit dem Altertum weitgehend vergleichbar. Es wird weiterhin zwischen zutreffenden und unzutreffenden Darstellungen unterschieden. Die Garanten für Triftigkeit wechseln jedoch: An die Stelle der Mythologie und der Philosophie treten das Christentum und philosophische Autoritäten wie Aristoteles. Wie in der Antike werden Quellen, Zeugenaussagen, große und kleine Autoritäten sowie Plausibilitätserwägungen zusammen berücksichtigt. Darstellungen in mittelalterlichen Romanen bilden stets mögliche Beschreibungen der Welt, Sichtweisen gewissermaßen, die keine andersartige Welt erzeugen, wie dies für moderne Fiktion charakteristisch ist. Selbst bei Chrétien de Troyes, einem der innovationsreichsten Autoren des Mittelalters, wären Beschreibungen unzulässig gewesen, die den Autoritäten widersprochen hätten. Im Mittelhochdeutschen ist es üblich, von „lüge“ (Lüge) zu sprechen, wenn erzählte Sachverhalte nicht den Tatsachen entsprechen, ohne dass dies zwingend abwertend gemeint ist. Im Anschluss an den lateinischen Ausdruck fabula wird von einer narratio fabulosa gesprochen, wenn eine Erzählung viele unwahre Elemente enthält. Erst etwa im 13. Jahrhundert wächst das Bewusstsein dafür, dass Handlungselemente erfunden werden, dass also nichtwahre Elemente gezielt eingesetzt werden können.
Bei der Bibelexegese wird im Mittelalter angesichts einer immer komplexeren Philosophie eine geschickte Interpretationstechnik erforderlich; es bildet sich eine komplexe Hermeneutik aus. Als unzutreffend oder falsch gilt, was der christlichen Botschaft widerspricht. Doch schon die Widersprüche zwischen Altem und Neuem Testament erzwingen Deutungen, die vom wörtlichen Sinn abweichen. Der Überlieferungszusammenhang und die kanonisierten Deutungen werden wichtiger als der Heilige Text selbst.
Erst in der späteren Neuzeit entsteht Fiktion im modernen Sinne. Im 16. Jahrhundert verbreitet sich dank Philip Sidneys Apology for Poetry die Auffassung, dass Dichter nicht lügen. Im 17. Jahrhundert lassen sich Tendenzen erkennen, die erlauben, eigenständige (autonome) und „selbstbezogene“ andere Welten als die reale zu denken. Deutlich ist der Übergang bei Gottfried Wilhelm Leibniz vollzogen, der das Konzept „möglicher Welten“ vorstellt. Als mögliche Erstlinge der modernen Fiktion werden Don Quijote von Cervantes und Robinson Crusoe von Daniel Defoe diskutiert.
Eine exakte Datierung der Entstehung von Fiktion ist allerdings weder möglich noch sinnvoll, da es nicht um das Hervorbringen neuer Textqualitäten geht, sondern um ein neuartiges Verständnis von Realität und Welt. Dieser Wandel vollzog sich in der Frühen Neuzeit langsam und nicht überall im gleichen Maße. Erst spät begünstigte er das Hervorbringen moderner fiktionaler Literatur. Doch sobald sich ein neuartiges Verständnis von Realität und von Wahrscheinlichkeit ausgebildet hatte, konnten auch viele der früheren Texte – etwa die mittelalterlichen Romane, die Göttliche Komödie von Dante oder die antiken Epen – von da an als fiktional gelesen werden, selbst wenn sie unter Bedingungen verfasst worden waren, in denen es die moderne Fiktion noch nicht gegeben hatte.
Es werden zwei maßgebliche Gründe für das Entstehen von Fiktion genannt. Der erste, kleinere Grund liegt in der „Entdeckung der Neuen Welt“ und mit der damit einhergehenden Erfahrung, dass es völlig andere Lebensräume geben kann. Der zweite, gewichtigere Grund besteht im Aufkommen des Rationalismus – vor allem mit René Descartes’ radikaler Infragestellung aller bestehenden Wahrheiten. Der Rationalismus verlangt eine kritische Prüfung der Voraussetzungen sicheren Wissens. Die zuvor erlaubten Schwebezustände zwischen wahren und plausiblen Aussagen geraten in Diskredit. Texte – auch dichterische – müssen sich von da an hinsichtlich ihres Wahrheitsanspruchs und damit des Weltbezugs ausweisen.
Literatur
Klassische fiktionstheoretische Schriften
Dorrit Cohn: The Distinction of Fiction. Johns Hopkins University Press, Baltimore MD u. a. 1999, ISBN 0-8018-5942-5 (Sammlung auch älterer Aufsätze von Dorrit Cohn).
Gottfried Gabriel: Fiktion und Wahrheit. Eine semantischen Theorie der Literatur. (= Problemata. 51). Frommann-Holzboog, Stuttgart 1975, ISBN 3-7728-0573-6.
Gérard Genette: Fiction et diction. Seuil, Paris 1991, ISBN 2-02-012851-9 (Deutsche Übersetzung: Fiktion und Diktion. Fink, München 1992, ISBN 3-7705-2771-2).
Käte Hamburger: Die Logik der Dichtung. Klett, Stuttgart 1957 (4. Auflage. Klett-Cotta, Stuttgart 1994, ISBN 3-608-91681-4).
Wolfgang Iser: Das Fiktive und das Imaginäre. Perspektiven literarischer Anthropologie. Suhrkamp, Frankfurt am Main 1991, ISBN 3-518-58077-9.
Kendall L. Walton: Mimesis as Make-Believe. On the Foundations of the Representational Arts. Harvard University Press, Cambridge MA u. a. 1990, ISBN 0-674-57619-5.
Klaus W. Hempfer: „Zu einigen Problemen einer Fiktionstheorie“, in: Zeitschrift für französische Sprache und Literatur 100 (1990), S. 109–137.
Aktuelle literaturwissenschaftliche und soziologische Arbeiten
Martin Andree: Archäologie der Medienwirkung. Faszinationstypen von der Antike bis heute. (Simulation, Spannung, Fiktionalität, Authentizität, Unmittelbarkeit, Geheimnis, Ursprung). Fink, München 2005, ISBN 3-7705-4160-X (Zugleich: Köln, Univ., Diss., 2004).
J. Alexander Bareis: Fiktionales Erzählen. Zur Theorie der literarischen Fiktion als Make-Believe. (= Göteborger germanistische Forschungen. 50). Acta Universitatis Gothoburgensis, Göteborg 2008, ISBN 978-91-7346-605-9, (Zugleich: Göteborg, Univ., Diss., 2007).
Thorsten Benkel: Soziale Welt und Fiktionalität. Chiffren eines Spannungsverhältnisses. Kovac, Hamburg 2008, ISBN 978-3-8300-3112-3 (Socialia 89).
Remigius Bunia: Faltungen. Fiktion, Erzählen, Medien. (= Philologische Studien und Quellen. 202). Erich Schmidt, Berlin 2007, ISBN 978-3-503-09809-5, (Zugleich: Siegen, Univ., Diss., 2006).
Elena Esposito: Die Fiktion der wahrscheinlichen Realität. (= Edition Suhrkamp. 2485). Suhrkamp, Frankfurt am Main 2007, ISBN 978-3-518-12485-7.
Stephanie Metzger: Theater und Fiktion. Spielräume des Fiktiven in Inszenierungen der Gegenwart. (= Theater. 18). transcript, Bielefeld 2010, ISBN 978-3-8376-1399-5, (Zugleich: München, Univ., Diss., 2009).
Jürgen H. Petersen: Die Fiktionalität der Dichtung und die Seinsfrage der Philosophie. Fink, München 2002, ISBN 3-7705-3758-0.
Frank Zipfel: Fiktion, Fiktivität, Fiktionalität. Analysen zur Fiktion in der Literatur und zum Fiktionsbegriff in der Literaturwissenschaft. (= Allgemeine Literaturwissenschaft – Wuppertaler Schriften. 2). Erich Schmidt, Berlin 2001, ISBN 3-503-06111-8, (Zugleich: Mainz, Univ.3-503-06111-8, Diss., 1999).
Aktuelle kognitionspsychologische Arbeiten
Richard J. Gerrig: Experiencing Narrative Worlds. On the Psychological Activities of Reading. Yale University Press, New Haven CT u. a. 1993, ISBN 0-300-05434-3.
Lisa Zunshine: Why we Read Fiction. Theory of Mind and the Novel. Ohio State University Press, Columbus OH 2006, ISBN 0-8142-1028-7.
Sammelwerke
Dieter Henrich, Wolfgang Iser (Hrsg.): Funktionen des Fiktiven. (= Poetik und Hermeneutik. 10). Fink, München 1983, ISBN 3-7705-2056-4.
Maria E. Reicher (Hrsg.): Fiktion, Wahrheit, Wirklichkeit. Philosophische Grundlagen der Literaturtheorie. (= KunstPhilosophie. 8). Mentis-Verlag, Paderborn 2006, ISBN 3-89785-354-X.
Weblinks
beim Netzwerk Fiktion der DFG
Das Imaginarium, ein Internetforum über die Entwicklung fiktiver Welten
Einzelnachweise
Literarischer Begriff
|
Q8253
| 366.738172 |
67847
|
https://de.wikipedia.org/wiki/Montpellier
|
Montpellier
|
Montpellier (okzitanisch Montpelhièr) ist eine der größten Städte an der französischen Mittelmeerküste und gehört zur Région Okzitanien, welche am 1. Januar 2016 durch Zusammenschluss der ehemaligen Regionen Midi-Pyrénées und Languedoc-Roussillon entstanden ist. Von letzterer war Montpellier bis dahin die Hauptstadt. Montpellier ist Sitz der Préfecture des Départements Hérault. Die Einwohnerzahl beträgt (Stand ) (1999: 225.392), zusammen mit den Vororten liegt die Einwohnerzahl bei über 400.000.
Geographie
Montpellier liegt etwa 240 km östlich von Toulouse und 170 km westnordwestlich von Marseille in hügeligem Gebiet, etwa 10 km von der Mittelmeerküste entfernt, am Fluss Lez.
Der ursprüngliche Name Monspessulanus leitet sich entweder vom Mont Pelé (nackter Hügel, vegetationsarm), dem Mont de la Colline oder dem Monte Pestelario ab.
Geschichte
Montpellier ist eine der wenigen bedeutenden französischen Städte ohne antiken Hintergrund. Es wurde erstmals am 26. November 986 urkundlich erwähnt, als Graf Bernard de Melgueil (Melgueil entspricht dem heutigen Mauguio) Wilhelm I. Land an der antiken Via Domitia, zwischen den Flüssen Lez und Mosson für seine selbstlosen Verdienste überschrieb. Seine Erben errichteten eine Burg, die ein Schloss und eine Kapelle beherbergte. Durch die hervorragende Lage zwischen Katalonien und Italien an der Via Domitia neben dem Hafen Lattes wurde Montpellier schnell ein Handelszentrum mit Verbindungen über das Mittelmeer, nach Spanien und nach Nordeuropa und entwickelte eine gemischte Bevölkerung aus Juden, Moslems und Christen. Es siedelten sich Goldschmiede, Tuchmacher und auch Kaufleute an, und noch heute erkennt man an den Straßennamen im historischen Zentrum, mit welcher Ware dort Handel getrieben wurde. An der Wende des 13. zum 14. erreicht die 1137 erstmals erwähnte Hochschule von Montpellier, die über bedeutende Dozenten wie Bernhard von Gordon verfügte, als Ausbildungsstätte für Mediziner einen Höhepunkt. Am 9. November 1202 endete die Dynastie der Herren von Montpellier aus der Familie der Guilhems (auf Deutsch Wilhelm) mit dem Tod von Wilhelm VIII.
Montpellier kam über die Hochzeit von Marie von Montpellier mit Peter II. aus Aragon im Jahre 1204 und deren Tod 1213 in den Besitz der Könige von Aragon. Montpellier erhielt 1204 die Stadtrechte und das Recht, jährlich zwölf regierende Stadträte zu ernennen. Die sehr weiträumigen Privilegien blieben bis zum Tod von Jakob II. erhalten.
Im Mittelalter wurde die Via Domitia als Pilgerweg nach Santiago de Compostela benutzt. Die Kirche Notre-Dame-des-Tables in Montpellier war ein bedeutender Halt für die Jakobspilger. Durch den Pilgertourismus und durch die Vertreibung der Juden und Mauren aus Spanien entwickelten sich in Montpellier einige Hospitale und karitative Einrichtungen. 1220 gründete Stadtrat Konrad von Urach (nach 1170–1227), Legat des Papstes Honorius III., die medizinische Schule Montpellier. Ende des dreizehnten Jahrhunderts war der Ruf der Schule schon legendär.
1289 erhielt die medizinische Schule durch Papst Nikolaus IV. den Status einer Universität verliehen. Die Universität wurde von der jüdischen, arabischen und christlichen Kultur gleichermaßen geprägt. Anhänger aller genannten Kulturen studierten dort. Dies war ein geradezu revolutionärer Zustand, dem die Universität ihre enorme Fortschrittlichkeit zu verdanken hatte. Montpellier wurde 1349 durch König Jakob III. von Mallorca an den französischen König Philipp VI. von Frankreich verkauft, um die Kriegskasse im Kampf gegen Peter IV. von Aragón zur Rückeroberung von Mallorca zu füllen. Die Stadt war nach Paris die zweitwichtigste im französischen Königreich. Doch in der zweiten Hälfte des 14. Jahrhunderts verlor die Stadt mehr als ein Drittel ihrer Bevölkerung durch Seuchen.
Anfang des 15. Jahrhunderts erlebte die Stadt einen wirtschaftlichen Aufschwung dank ihres Nachbarhafens Lattes und eines kaufmännischen Genies namens Jacques Cœur, Geldgeber des Königs von Frankreich Karl VII. In dieser wirtschaftlichen Blütezeit leistete sich die medizinische Fakultät einen Pflanzengarten (1593-Jardin des Plantes) den man noch heute besichtigen kann und der der älteste seiner Art in Frankreich ist. Nach weiterem Wachstum zog schließlich 1536 der Bischof von Maguelone in die Nachbargemeinde Montpelliéret, welche später von Montpellier vereinnahmt wurde (siehe Erzbistum Montpellier). Die Kathedrale Saint-Pierre wurde an der Stelle des Klosters Saint-Benoît (gegründet 1364) erbaut. Im 16. Jahrhundert gewannen die Hugenotten immer mehr an Einfluss in der Stadt, bedingt auch durch die Hugenottenkriege, die dazu führten, dass die Hugenotten Frankreichs in den Süden zurückgedrängt wurden. Nach 36 Jahren Krieg brachte das Edikt von Nantes 1598 der Stadt für die nächsten 20 Jahre Frieden.
Ludwig XIII. von Frankreich führte trotz des Ediktes von Nantes Krieg gegen die Hugenotten. Er ließ die Stadt 1622 belagern und eroberte sie nach zwei Monaten. Doch durch den starken Widerstand der Hugenotten vor allem in La Rochelle sowie Montauban erkannte der König schließlich im Frieden von Montpellier am 21. Oktober 1622 das Edikt von Nantes an. Um jeden zukünftigen Widerstand im Keim zu ersticken, ließ Kardinal Richelieu eine gewaltige Zitadelle direkt vor den Toren der Stadt errichten. Montpellier wurde zum Verwaltungszentrum des niederen Languedoc. Im Edikt von Fontainebleau wurde 1685 das Edikt von Nantes widerrufen und die katholische Religion als einzige Staatsreligion festgelegt. Es kam zu einer Massenflucht der Hugenotten aus Frankreich. 1693 wurde der Arc de Triomphe Porte du Peyrou zu Ehren Ludwig XIV. und dessen Sieg über die Hugenotten in Montpellier eingeweiht.
Die Industrialisierung machte im 19. Jahrhundert aus der Stadt ein regionales Industriezentrum, und in den 1960ern sorgte die Einwanderung der französischen Algerier („Pieds-noirs“) für ein rasantes Wachstum (siehe Demografie).
Der Sozialist Georges Frêche wurde 1977 zum Bürgermeister gewählt. Unter seiner Leitung änderte sich das Stadtbild rapide. In seiner Amtszeit wurde u. a. das Antigone gebaut, eine Sozialbau-Siedlung im postmodernen „römischen Stil“ im Osten des Stadtzentrums. Montpellier wandelte sich von einer südfranzösischen Großstadt zu einer Metropole mit starkem internationalen Einfluss. So besitzt es u. a. ein internationales Orchester, ein Zentrum des Modern Dance, das Kongresszentrum Corum sowie ein Messegelände. Ferner finden dort das Festival RadioFrance wie auch das Festival Montpellier Danse statt.
1943/44 unterhielt die Kriegsmarine ein Marinelazarett in Montpellier.
Demografie
Im Laufe der ersten Hälfte des 20. Jahrhunderts verzeichnete Montpellier ein geringes Bevölkerungswachstum, im Schnitt 0,47 % pro Jahr. Danach steigerte sich das Wachstum explosionsartig auf durchschnittlich 2,2 % pro Jahr zwischen 1954 und 1999 mit einem Rekordwachstum von 5,3 % zwischen 1962 und 1968. Dies waren die Jahre, in denen die „Pieds-noirs“ aus Algerien nach Frankreich geflohen sind. Nach Hochrechnung des INSEE hatte Montpellier im Jahre 2004 244.100 Einwohner. Dadurch wurde Montpellier die achtgrößte Stadt Frankreichs vor Bordeaux. Mit seinem enormen Bevölkerungswachstum belegt Montpellier seit Jahren die vordersten Plätze in Frankreich.
Nach der Volkszählung von 1999 setzt sich die Bevölkerung Montpelliers aus 20,9 % Menschen im Alter von 0–19 Jahren, 60,7 % im Alter von 20–59 Jahren und 18,4 % im Alter von über 60 Jahren zusammen.
Politik
Nach Georges Frêche (PS) (1977–2004) war Hélène Mandroux (PS) von 2004 bis 2014 Bürgermeisterin, nach ihr von 2014 bis 2020 Philippe Saurel und seit 2020 ist Michaël Delafosse (PS) Bürgermeister.
Wirtschaft
Die Stadt ist ein Industriezentrum und bekannt für Medizintechnik, Metallverarbeitung, Druckindustrie, Chemikalien, Agrartechnik, Textilien und Weinerzeugung.
Verkehr
Montpelliers Flughafen Aéroport International de Montpellier Méditerranée liegt rund zwölf Kilometer südöstlich des Stadtzentrums nahe der Küste des Mittelmeers. Der Flughafen wurde im Jahr 2009 von rund 1,2 Millionen Fluggästen genutzt.
Der wichtigste Bahnhof ist Montpellier-Saint-Roch im Stadtzentrum, von dem aus Paris seit der Fertigstellung der Schnellfahrstrecke LGV Méditerranée in 3 Stunden 19 Minuten erreicht werden kann. Mit dem Contournement de Nîmes et Montpellier, welches die LGV Méditerranée nach Südwesten verlängert, erhielt Montpellier einen weiteren Bahnhof Montpellier-Sud-de-France auf halbem Weg zum Flughafen für einen Teil des durchgehenden TGV-Verkehrs. Eine weitere Verlängerung der Hochgeschwindigkeitsstrecke nach Perpignan mit Anschluss an die bestehende Strecke zur spanischen Grenze und weiter Richtung Barcelona ist unter dem Namen Neubaustrecke Montpellier–Perpignan im Planungsstadium.
Der öffentliche Nahverkehr wird durch die Transports de l’agglomération de Montpellier (TaM) durchgeführt. Diese betreibt zahlreiche Buslinien und vier Straßenbahnlinien in der Region. Eine fünfte Straßenbahnlinie ist im Bau. Die TaM betreibt außerdem den Fahrradverleih Vélomagg mit 1200 Fahrrädern. Seit dem 1. September 2021 werden Einwohner unter 18 und ab 65 Jahren kostenlos befördert. Die kostenlose Beförderung wird ab dem 21. Dezember 2023 auf alle Einwohner ausgeweitet.
Autobahn: A 9 und A 7 (via Rhônetal) oder A 75 (über das Zentralmassiv mit dem Viadukt bei Millau zwischen Clermont-Ferrand und Béziers)
Bildung
Montpellier ist heute neben Paris, Toulouse und Aix-en-Provence eine der größten Studentenstädte Frankreichs. Mit mehr als 60.000 Studenten ist jeder vierte Bewohner der Stadt an einer der zahlreichen Hochschulen eingeschrieben.
Heute gibt es drei Universitäten in Montpellier.
Darüber hinaus gibt es mehrere Grandes écoles in Montpellier:
École Nationale Supérieure de Chimie, Hochschule für Chemie
École Nationale de l'Aviation Civile, Luftfahrtuniversität
Institut national d’études supérieures agronomiques de Montpellier, Hochschule für Agrarwissenschaften
Montpellier Business School, Hochschule für Betriebswirtschaftslehre
Außerdem ist Montpellier Sitz einer von zwei französischen Fakultäten für Evangelische Theologie, des Institut Protestant de Théologie. Es hat den Status einer unabhängigen Fakultät, der Faculté de Théologie Protestante de Montpellier. Seit 1972 bildet sie mit der Faculté de Théologie Protestante de Paris das Institut Protestant de Théologie. Seit 2006 besteht wechselseitige Anerkennung der Studienleistungen mit der Université Paul-Valéry-Montpellier III; seit 2007 beteiligt sich die Fakultät zudem an den Ecoles Doctorales dieser Universität.
Sehenswürdigkeiten
Die Place de la Comédie: Zwischen dem Hauptbahnhof und der Altstadt gelegen mit dem Brunnen der drei Grazien (Les trois graces) von Étienne Dantoine, der Oper und den charakteristischen Gebäuden. Wegen seiner ovalen Form wird der Platz auch „das Ei“ (l’œuf) genannt. Er gilt als Zentrum und Treffpunkt der Einwohner.
Die Kathedrale Sankt Peter (Saint-Pierre): Nach dem Willen Papst Urbans V. Ende des 14. Jahrhunderts erbaut
Medizinische Fakultät: Gleich neben der Kathedrale, gegründet 1220 gilt sie als eine der ältesten Europas mit berühmten Absolventen wie François Rabelais.
Die Kirchen Sainte Anne, die heute als Ausstellungshalle genutzt wird, und Saint Roch im historischen Zentrum.
Der Triumphbogen Porte du Peyrou: 1691 im dorischen Stil gebaut, später zu Ehren Ludwigs XIV. erweitert, befindet sich am Ende der Rue Foch gleich neben dem Justizpalast.
Die Promenade du Peyrou: Gegenüber dem Triumphbogen, Ende des 17. Jahrhunderts auf dem höchsten Punkt Montpelliers angelegt, bietet es einen Ausblick auf die umliegenden Stadtviertel und das Aquädukt, welches auch das dort gelegene Wasserreservoir mit seinen beiden 22 Meter hohen Arkaden speist. In der Mitte des Platzes befindet sich eine Statue Ludwigs XIV.
Der Aquädukt St–Clément: Im 17. Jahrhundert entstanden, erstreckt sich die Wasserleitung über eine Länge von 800 m durch das Stadtviertel Les Arceaux. Die ganze Wasserleitung führte von der 14 Kilometer entfernten Quelle bei St. Clément in die Stadt und füllte einen Wassertank nahe dem Triumphbogen, von wo aus Springbrunnen und öffentliche Wasserentnahmestellen befüllt wurden.
Der Jardin des plantes: Der erste botanische Garten Frankreichs, angepflanzt im Jahr 1593.
Musée Fabre: Das 1828 vom Maler François-Xavier Fabre gegründete Museum ist mit einer Kunstschule verbunden. Das Museum besitzt eine der bedeutendsten öffentlichen Gemäldesammlungen Frankreichs.
Musée Atger: Kunstmuseum in der Medizinischen Fakultät der Universität Montpellier mit Zeichnungen und Drucken französischer, italienischer und flämischer Meister
Musée Fougau: Volkskundliches Museum in einem Hôtel particulier des 18. Jahrhunderts
Pavillon Populaire: 1891 errichtetes Ausstellungsgebäude an der Esplanade Charles de Gaulle mit Wechselausstellungen zur Fotografie
Tour de la Babote: Ein ehemaliger Stadtturm, heute Sitz der astronomischen Gesellschaft, die dort ein Observatorium betreibt.
Das Stadtviertel Antigone: Östlich des Stadtzentrums mit mehreren großen Monumentalbauten des katalanischen Architekten Ricardo Bofill, die im neoklassizistischen Stil gebaut sind.
Mittelalterliche Mikwe
Kultur
Montpellier Danse
Seit 1981 ist Montpellier Heimat des von Dominique Bagouet gegründeten Tanzfestivals Montpellier Danse. Unter der Leitung von Bagouets ehemaligem Assistenten Jean-Paul Montanari, der 1983 die Position des Direktors übernahm, entwickelte sich das Festival zu einem der wichtigsten Anlaufpunkte der internationalen Tanzszene. Zu den von Montpellier Danse regelmäßig koproduzierten Weltpremieren gehören u. a. Choreografien der Batsheva Dance Company, Nederlands Dans Theater, Rosas, William Forsythe, Sasha Waltz & Guests, Jan Fabre, Raimund Hoghe, Boris Charmatz und Emanuel Gat.
1996 wurde das ursprünglich auf den Sommer limitierte Festival um eine ganzjährige Theatersaison erweitert. Sitz ist die, mitten in der Innenstadt im ehemaligen Couvent de Saint-Gilles gelegene, Agora – cité internationale de la danse.
Das direkt nebenan situierte Institut Chorégraphique International / Centre Chorégraphiqe National Montpellier, eines der 19 französischen Produktionszentren für zeitgenössischen Tanz, wird nach Dominique Bagouet (1984–1992) und Mathilde Monnier (1994–2013) seit 2015 von Christian Rizzo geleitet.
Montpellier Contemporain
Montpellier Contemporain ist ein Zentrum für zeitgenössische Kunst im Herzen der Stadt. Es vereint die drei Abteilungen MO.CO. (das Hauptgebäude mit Fokus auf internationale Ausstellungen), MO.CO. Panacée (ein Eventspace für Ausstellungen, Lectures & Shows) und MO.CO. Esba (die École Supérieure des Beaux-Arts de Montpellier).
Nach einem Skandal um den ehemaligen Direktor Nicolas Bourriaud leitet seit 2021 Numa Hambursin das Zentrum.
Persönlichkeiten
Berühmte Söhne und Töchter von Montpellier sind unter anderem der Botaniker Pierre Magnol, der Staatsmann Jean-Jacques Régis de Cambacérès, der Philosoph und Religionskritiker Auguste Comte, die Sängerin Juliette Gréco sowie der Politiker Jean-Luc Dehaene.
Städtepartnerschaften
(Kentucky, USA) seit 1955
(Deutschland) seit 1961 (vertreten mit dem Maison de Heidelberg / Heidelberg-Haus). Stadtteile von Montpellier haben Partnerschaften mit Stadtteilen in Heidelberg: La Mosson mit dem Emmertsgrund und Les Aubes-Rimbaud-Pompignane-Pasquier-Jean Monnet mit Kirchheim.
(Katalonien, Spanien) seit 1963
(Sichuan, Volksrepublik China) seit 1981
(Israel) seit 1983
(Marokko) seit 2003
(Algerien) seit 2009
(Brasilien) seit 2011
(Griechenland) seit 2012
(Québec, Kanada) seit 2013
Sport
Rugby: Der 1986 durch eine Fusion entstandene Montpellier Hérault Rugby ist das sportliche Aushängeschild der Stadt und spielt in der erstklassigen französischen Liga Top 14 sowie im europäischen Wettbewerb Champions Cup, dessen Sieger die Mannschaft in der Saison 2015/16 wurde. Heimstätte ist das 2007 erbaute und kunstvoll gestaltete Stade Olympique Yves-du-Manoir. Montpellier war einer der Austragungsorte der Rugby-Union-Weltmeisterschaft 2007. Für die Rugby-Union-Weltmeisterschaft 2023 waren wieder Partien in Montpellier geplant.
Handball: Montpellier ist die Heimat des 1982 gegründeten und mehrfachen französischen Handballmeisters Montpellier HB, der zu den erfolgreichsten Clubs im französischen Handball zählt und in der erstklassigen französischen Starligue spielt.
Fußball: Der 1974 gegründete Montpellier HSC spielt in der erstklassigen französischen Ligue 1 und trägt seine Heimspiele im 1972 erbauten Stade de la Mosson aus. In der Saison 2011/12 wurde der Verein erstmals französischer Fußballmeister.
Radsport: Montpellier war unter anderem 1993, 1994, 2005, 2007, 2011 und 2013 Etappenzielort der Tour de France.
Karate: 2016 war die Stadt Austragungsort der 51. Europameisterschaft im Karate.
Klimatabelle
Literatur
Heike Schmoll: Montpellier. In: Hans Dieter Betz, Don S. Browning, Bernd Janowski, Eberhard Jüngel (Hrsg.): Religion in Geschichte und Gegenwart. Handwörterbuch für Theologie und Religionswissenschaft. Band 5: L–M. 4. völlig neu bearb. Auflage. Mohr Siebeck, Tübingen 2002, ISBN 978-3-16-146904-6.
Ralf Nestmeyer: Languedoc-Roussillon. Michael-Müller-Verlag, Erlangen 2012, ISBN 978-3-89953-696-6.
Félix Platter, Thomas Platter: Récits de voyages entre 1499 et 1628. In: Emmanuel Le Roy Ladurie (Hrsg.): Le Siècle des Platter. 2 Bände, Edition Fayard, 1995 und 2000
Gérard Cholvy (dir.): Histoire de Montpellier. Selbstverlag, 1984.
Josef Smets: Quatre voyageurs allemands à Montpellier, XVIIe–XIXe siècles. In: Bulletin historique de la ville de Montpellier, 1998, S. 51–65.
Alexandre Germain: La Renaissance à Montpellier. BiblioBazaar, 2009, ISBN 978-1-113-00577-9.
Weblinks
Offizielle Website (französisch)
Einzelnachweise
Ort in Okzitanien
Präfektur in Frankreich
Hochschul- oder Universitätsstadt in Frankreich
Ersterwähnung 986
Stadt in Frankreich
Weinbauort in Frankreich
|
Q6441
| 350.54556 |
58985
|
https://de.wikipedia.org/wiki/Sicherheit
|
Sicherheit
|
Sicherheit bezeichnet allgemein den Zustand, der für Individuen, Gemeinschaften sowie andere Lebewesen, Objekte und Systeme frei von unvertretbaren Risiken ist oder als gefahrenfrei angesehen wird.
Für Individuen und Gemeinschaften bezeichnet Sicherheit den Zustand des Nicht-bedroht-Seins der Freiheit ihrer ungestörten Eigenentwicklung in zweierlei Hinsicht:
im Sinne des tatsächlichen (objektiven) Nichtvorhandenseins von Gefährdung – als Sicherheit im objektiven Sinne, sowie
im Sinne der Abwesenheit von (subjektiver) Furcht vor Gefährdung – als Sicherheit im subjektiven Sinne.
Der Begriff „Sicherheit“ umfasst innere wie äußere Sicherheit von Gemeinschaften und schließt – insbesondere im Fall von Staaten – die politische, militärische, ökonomische, soziale, rechtliche, kulturelle, ökologische, technische u. a. Sicherheiten in sich ein.
Begriffsgeschichte
Begriffsherkunft
Der Begriff Sicherheit geht auf (eigentlich auf sēcūrus „sorglos“, aus sēd „ohne“ und cūra „Fürsorge“) zurück. Die Bedeutungsentwicklung wird als kompliziert und nicht immer durchsichtig beschrieben. Noch vor dem 9. Jahrhundert wurde das mittelhochdeutsche sichel (althochdeutsch sihhur, altsächsisch sikor, altenglisch sicor) auch als ´schuld- und straffrei` gedeutet. In der modernen Sprachform erscheint das Abstraktum die Sicherheit.
Begriff Sicherheit – versus Schutz, Sicherung, Betriebssicherheit
Umstritten ist die Möglichkeit zur klaren semantischen Unterscheidung zwischen den Begriffen Sicherheit und Schutz im Deutschen.
Zum Beispiel werden bei Objekten und Systemen im Englischen die beiden Bezeichnungen Security (englisch für „Schutz“, „Eingriffs-/Angriffssicherheit“) und Safety (englisch für „Gefahrlosigkeit“, „Betriebssicherheit“) für zwei voneinander in der Wortbedeutung (semantisch) unterschiedliche Begriffe verwendet.
Während „Safety“ den Schutz der Umgebung vor einem Objekt, also eine Art Isolation beschreibt, handelt es sich bei „Security“ um den Schutz des Objektes vor der Umgebung, d. h. die Immunität bzw. die Sicherung. Die beiden unterschiedlichen Sachverhalte werden stattdessen im Deutschen häufig mit demselben Wort „Sicherheit“ benannt. Dies führt regelmäßig zu Verständigungsschwierigkeiten, da beide Seiten dieses Wort unterschiedlich interpretieren können. Die einschlägigen Normen verwenden daher für den Schutz der Umgebung vor einem Objekt den Begriff funktionale Sicherheit.
Demzufolge sollte es nicht ausreichen, an einer Fluchttür lediglich „Sicherheit“ zu fordern. Im Sicherheitskonzept sind die Anforderungen zu spezifizieren. Eine „Betriebssicherheit/Safety“-Anforderung wäre hier die Gewährleistung eines möglichst gefahrlosen Flucht- und Rettungsweges für Betroffene beziehungsweise hilfeleistende Kräfte, während Forderungen zur Vermeidung einer unberechtigten Nutzung der Tür im Normalbetrieb dem Bereich „Sicherung/Security“ zuzuordnen sind.
Im Russischen ist eine ähnliche semantische Zweideutigkeit festzustellen. Der Begriff Sicherheit (russisch – безопасность, Adjektiv безопасный) wird sowohl mit der Bedeutung „nicht bedroht durch Gefahr“ (russisch – не угрожающий опасностью) als auch mit „geschützt vor Gefahr“ (russisch – защищающий от опасности) wiedergegeben. Daneben wird der Begriff Schutz (russisch – защита) mit wechselnden Bedeutungen verwendet.
Entwicklung des Sicherheitsbegriffs in der Politik
In der akademischen Diskussion wird der Sicherheitsbegriff sehr kontrovers behandelt. Generell gibt es keinen Konsens über die Spannweite des Begriffs. Traditionell beschäftigen sich Sicherheitsstudien mit der Identifikation von und Reaktion auf bedrohliche Aktionen für einen Nationalstaat. Die ursprünglich militärische Definition stellt den Nationalstaat und militärische Reaktionsschemata in den Vordergrund. Im nationalstaatlichen Kontext können Staatsgebiet, Staatsvolk und Staatssouveränität durch eine äußere Bedrohung konfrontiert werden.
Spätestens mit der tief greifenden Veränderung der internationalen Realität und einer weltweiten Regionalisierung nach dem Kalten Krieg rückt das Referenzobjekt Nationalstaat zunehmend in den Hintergrund. Der Sicherheitsbegriff wird allgemeiner gefasst und auf verschiedenste Lebensbereiche ausgedehnt, so z. B. auf die Ölkrise in den 1970er-Jahren, den Kriegsschulden der USA und dem Zusammenbruch des Bretton-Woods-Systems im Bereich Wirtschaft, in den 1990er-Jahren mit der Rio-Konferenz (Konferenz der Vereinten Nationen über Umwelt und Entwicklung) auf den Bereich Umwelt und spätestens mit dem UNDP-Report 1994 auf den Bereich Humanitäre Angelegenheiten (Menschliche Sicherheit).
Damit verschieben sich auch die Referenzpunkte für den Sicherheitsbegriff, im militärischen Bereich: vom Nationalstaat zur Umwelt; wirtschaftlich und bei humanitären Angelegenheiten zudem das Individuum: die Menschheit, die Region usw. Der Begriff der Sicherheit wird damit aus dem militärischen Bereich losgelöst, allerdings ohne die ehemals rein militärischen Reaktionsschemata aufzugeben. Dafür steht die Bezeichnung erweiterter Sicherheitsbegriff.
Charakteristische Merkmale der Sicherheit
Merkmale der Sicherheit von Individuen und Gemeinschaften
Sicherheit ist für Individuen und Gemeinschaften generell eine sehr komplexe Befindlichkeit, die durch die Freiheit ungestörter Eigenentwicklung gekennzeichnet ist.
Sicherheit gestaltet sich dabei stets historisch konkret, beinhaltet sie doch die Abwendung konkreter Gefährdungen und Bedrohungen für die Freiheit der ungestörten Eigenentwicklung von konkreten Individuen und Gemeinschaften zu einem aktuell konkreten oder einem vorhergesehenen Zeitpunkt. Mithin ist keine allgemeine, vom Historisch-konkreten abgehobene Sicherheit festzustellen. Bei der Bestimmung dessen, was jeweils als Sicherheit angesehen wird, spielen somit historische Erfahrungen, gegenwärtiges Erleben und Zukunftsängste eine beträchtliche Rolle.
Sicherheit ist stets relativ – absolute Sicherheit gibt es ebenso wenig wie absolute Freiheit oder absolute Unabhängigkeit. Unsicherheit hingegen kann sich viel stärker der Absolutheit nähern als Sicherheit.
Der Begriff „Sicherheit“ umfasst innere wie äußere Sicherheit von Gemeinschaften und schließt die politische, ökonomische, soziale, rechtliche, ökologische, kulturelle, technische, militärische u. a. Sicherheit in sich ein.
Risiken, Gefahren, Gefährdungen für die Sicherheit
Ereignisse, die mit einer möglichen negativen Auswirkung (Gefahr, Gefährdung) auf die Handlungsfreiheit verknüpft sind, tragen ein Risiko in sich, weil die Einflussfaktoren nicht vollständig bekannt sind und/oder dem Zufall unterliegen. Gefahren, Risiken, Gefährdungen gehören potenziell und latent zu einer widersprüchlichen Welt. In komplexen Systemen ist es unmöglich, Risiken völlig auszuschließen.
Jedes Einlassen auf ein Risiko ist mit einem Wagnis verbunden, d. h. mit der Kunst des richtigen Abschätzens, ob sich das „Eingehen eines Risikos bzw. das Einlassen auf eine risikohaltige Situation“ auch wirklich lohnt und zu bewältigen ist. Das vertretbare Risiko für jede mögliche Art der Beeinträchtigung hängt von vielen Faktoren ab und wird zudem subjektiv, historisch und kulturell unterschiedlich bewertet.
Gefahren (Gefährdungen) für die Gemeinschaft können globale, kontinentale oder regionale und lokale Dimension besitzen. Werden Naturereignisse ausgeblendet und nur Gefährdungen betrachtet, die durch das Handeln der Menschen selbst entstehen, gehören zu dieser komplexen Welt unter anderen:
soziales Konfliktpotenzial im beträchtlichen Ausmaß, verbunden mit gravierenden Unterschieden im Lebensstandard und Gesundheitsschutz sowie ungleichmäßiger demografischer Entwicklung;
wirtschaftliche Instabilität durch disproportionale Entwicklung und ökologischen Raubbau, verbunden mit finanzieller Massenverschuldung sowie Verknappung von Ressourcen;
Gefährdungen aus Umweltschäden;
soziale Folgen überstürzter, ungeordneter politischer und ökonomischer Prozesse;
Fehlhandlungen der Menschen im Alltagsleben und in der Produktion;
Gefahren aus den sachlichen Fertigungsbedingungen und neuen Technologien sowie
Risiken aus dem Vorhandensein von Streitkräften.
Zur Verringerung dieser Risiken wird versucht, diesen Gefährdungen durch Schaffen von solchen Sicherheitsmechanismen oder -systemen zu begegnen, die einem möglichst realistischen Gefahrenspektrum effektiv entsprechen.
Im Allgemeinen werden höhere Wahrscheinlichkeiten für Beeinträchtigungen mit steigendem Nutzen (beispielsweise Aktien-Spekulation, Teilnahme am Straßenverkehr, Betreiben von Wagnissport) als vertretbar angesehen.
Bedrohungen für die Sicherheit
Die Begriffe Gefahr (Gefährdung) und Bedrohung sind nicht bedeutungsgleich zu verwenden. Der subjektiven Befindlichkeit Bedrohung geht das Einwirkungsverfahren Drohung voraus.
Das Empfinden einer Bedrohung ist in der Regel aktuell, setzt konfrontative Ankündigung von Gewalt (Drohung mit Gewalt) an einen Adressaten voraus, um gefügig zu machen bzw. den Willen aufzuzwingen oder ein bestimmtes Verhalten auszulösen.
Beim politischen Handeln kann das Bestreben bereits einer Seite eine Eskalation der Sicherheitslage bewirken. Zur Deeskalation bedarf es dagegen des Willens beider Seiten zum Konfliktabbau, d. h. der politischen Verständigungs-/Verhandlungsbereitschaft.
Das Fehlen von Bedrohungen schließt die Existenz von Gefahren nicht aus. Jede gesellschaftliche Organisation muss selbst zur Erkenntnis über mögliche Gefährdungen ihrer Existenz gelangen.
Sicherheit als relativer Zustand
Allgemein wird Sicherheit jedoch nur als relativer Zustand der Gefahrenfreiheit angesehen, der stets nur für einen bestimmten Zeitraum, eine bestimmte Umgebung oder unter bestimmten Bedingungen gegeben ist. Im Extremfall können sämtliche Sicherheitsvorkehrungen versagen, etwa bei Vorkommnissen, die sich nicht beeinflussen oder voraussehen lassen (beispielsweise einem Naturereignis). Sicherheit bedeutet daher nicht, dass Beeinträchtigungen vollständig ausgeschlossen sind, sondern nur, dass sie hinreichend (beispielsweise im Vergleich zum allgemeinen „natürlichen“ Risiko einer schweren Erkrankung) unwahrscheinlich sind.
Ein prägnantes Modell für die Relativität von Sicherheitsmaßnahmen ist das Kraftfahrzeugwesen, in dem es zahlreiche sicherheitstechnische Vorschriften und auch regelmäßige Überprüfungen gibt. Dennoch können weder Vorschriften noch Prüfungen verhindern, dass mit dem Kraftfahrzeug absichtlich, böswillig oder unabsichtlich gefährliche Zustände herbeigeführt werden oder dass Teile des Kraftfahrzeugs in gefährlicher Weise nicht mehr funktionieren.
Auch im Sport, vermehrt im Erlebnis-, Abenteuer- und Wagnissport, gilt die Regel der relativen Sicherheit: Die intensive physische und psychische, oft bis an Leistungsgrenzen gehende Beanspruchung sowie die objektive äußere Gefährdungssituation, in die sich der Sportler begibt, enthalten hohe Verletzungsrisiken, die nur bedingt beherrschbar sind. Im Sinne des intensiven Sporterlebens müssen diese unvermeidbaren Restrisiken und Schädigungsmöglichkeiten jedoch einkalkuliert und damit akzeptiert werden. Wagnissport lässt sich nicht mit Sicherheitsgarantie betreiben, da Wagnisse das Eingehen von Risiken per definitionem implizieren. Verantwortliches Handeln versucht jedoch, das Gefahrenpotenzial in vertretbaren Grenzen zu halten. Der Wagende unterscheidet sich insofern vom sogenannten „Risiker“, der seine Sicherheit mehr einem ihm gewogenen Schicksal als seiner Wagniskompetenz anvertraut.
Spannungsverhältnis von Sicherheit und Freiheit
Der Wunsch nach größtmöglicher Sicherheit einerseits und möglichst weitgehender individueller Freiheit andererseits stehen in einem starken Spannungsverhältnis. So muss der einzelne sich im Alltagsleben einer großen Zahl von Vorschriften und Einschränkungen fügen, die vom Staat oder von Institutionen „aus Sicherheitsgründen“ erlassen werden.
Vor allem Kritiker aus dem liberalen Spektrum warnen davor, dass die erhöhte Bereitschaft dazu auch ausgenutzt werde, um in als unsicher empfundenen Zeiten eine stärkere Überwachung der Bürger durchzusetzen und damit die allgemeinen Bürgerrechte zu schwächen. Angebliche „Sicherheitsgründe“ seien mitunter lediglich vorgeschoben oder zumindest im Vergleich zur tatsächlich drohenden Gefahr unverhältnismäßig. Moral, Sexualität, Jugendschutz, Kriminalität und Terrorismus würden als Argumente für eine Beschränkung der Grundrechte herangezogen. Im Übrigen sei das Motiv einschränkender Vorschriften häufig weniger im Schutz des Einzelnen vor Gefahren zu suchen, als vielmehr darin, den Staat oder eine Institution von juristischen Schadensersatzansprüchen freizuhalten.
Technisches und zwischenmenschliches Vertrauen auf Sicherheiten
Technische (objektive) Sicherheiten unterscheiden sich grundsätzlich von zwischenmenschlichen (subjektiven) Sicherheiten:
Das Vertrauen in Mechanismen ist ein Vertrauen in ihre Gleichgültigkeit und Interesselosigkeit. Zum Beispiel reagiert ein Geldautomat gegenüber sämtlichen Benutzern gleich; er hat kein Interesse an ihnen.
Einem Menschen oder einer Personengruppe vertraut man dagegen in dem Glauben, individuell und loyal behandelt zu werden.
Dieser immanente Widerspruch führt in allen soziotechnischen Systemen zu interessanten Paradoxien – Die soziale Sicherheit etwa hat sich im Laufe der Geschichte von einer vorwiegend zwischenmenschlichen zu einer mehrheitlich technischen gewandelt.
Arten der Sicherheit
Individuelle Sicherheit
Die Sicherheit einer Person kann in physische und wirtschaftliche Sicherheit unterschieden werden. Die physische Sicherheit beschreibt die unmittelbare körperliche Unversehrtheit und Bedrohungsfreiheit, die wirtschaftliche Sicherheit die dauerhafte Gewährleistung der existenziellen Basis, welche die Zukunft der Person absichern.
Sicherheit für den Menschen bezeichnet nicht nur objektive Gefahren- oder Risikofreiheit, wie z. B. eine geschützte Unterbringung mit einer gewährleisteten Versorgung aller Bedürfnisse, sondern auch die subjektive Empfindung der Geborgenheit, unabhängig davon, ob sie zutrifft. Dieses Gefühl kann einzelne Personen oder ganze Bevölkerungsgruppen einnehmen.
Kollektive versus kooperative äußere Sicherheit
Unter Sicherheit wird in diesem Abschnitt die äußere politische Sicherheit von Staaten und Koalitionen verstanden, die durch Anwesenheit und Gebrauch militärischer Macht gewährleistet wird und für deren rechtlich geordnete systematische Gestaltung die Regelung der Staatenbeziehungen auf militärpolitischem Gebiet relevant ist. Die Rolle, die der militärische Faktor in diesen Beziehungen spielt, kann graduell unterschiedlich sein und sollte tendenziell reduziert werden.
Der Begriff kollektive Sicherheit oder System gegenseitiger kollektiver Sicherheit stammt aus der Außenpolitik, genauer – aus dem Fachgebiet Internationale Beziehungen. Damit wird ein mehrere Staaten umfassendes vertraglich vereinbartes System der Friedenssicherung bezeichnet; es steht für eine völkerrechtlich und vertraglich fixierte Form der Konfliktlösung zwischen Bündnispartnern. Kern der Vereinbarungen sind der Verzicht auf Anwendung oder Androhung von Gewalt und die wechselseitige Garantie militärischen Beistands für den Fall einer Aggression oder einer militärischen Bedrohung eines Mitglieds oder mehrere Bündnispartner.
Beispiele finden sich im Vertrag von Locarno (1925) oder im NATO-Bündnis (seit 1949).
Die kollektive Sicherheit bedeutet in Konfliktsituationen, dass man gemeinsam Maßnahmen entwickelt, um die Sicherheit für sämtliche Vertragspartner zu gewährleisten.
Der Begriff kooperative Sicherheit (von lateinisch cooperari – mitwirken) umfasst demgegenüber einzelne völkerrechtlich vereinbarte Verfahren und Prozeduren zwischen unterschiedlichen Staaten. Für mehrere Seiten soll die Sicherheitslage als Multilaterale Sicherheit günstiger gestaltet werden. Das können zum Beispiel Rüstungskontroll-Vereinbarungen oder Verträge sein, in denen sich die Seiten verpflichten, ihre Konflikte friedlich zu lösen und einen unbeteiligten Dritten als Schiedsrichter einschalten.
Innere Sicherheit (Öffentliche Sicherheit)
Im Kontrast dazu, jedoch nicht losgelöst von der äußeren Sicherheit, steht die Innere Sicherheit, der Schutz, den eine Gemeinschaft aufbaut und deren Mitglieder ad hoc einbezieht.
Die Innere Sicherheit (Öffentliche Sicherheit) umfasst die institutionellen Bedingungen, Vorgänge, Inhalte und Ergebnisse des politischen Handelns, das darauf gerichtet ist, Ordnungs- und Schutzaufgaben zugunsten eines jeden Mitglieds der Gesellschaft und des Gemeinwesens zu erfüllen.
Im Polizeirecht bezeichnet die öffentliche Sicherheit die Wahrung der objektiven Rechtsordnung, der Einrichtungen des Staates sowie der Rechtsgüter und Grundrechte des Einzelnen.
Die dazu erforderliche Rechtssicherheit umfasst die Rahmenbedingungen, die der Gesetzgeber schafft, um das Funktionieren eines Rechtssystems zu garantieren.
Wirtschaftliche Sicherheit
Wirtschaftliche Sicherheit bezeichnet einen Zustand, bei dem das Vorhandensein der materiellen oder finanziellen Mittel für die Existenz oder für vorgesehene oder geplanten Abläufe und Vorhaben im vorgesehenen Zeitraum für ein Wirtschaftssubjekt gewährleistet ist. Dies kann sowohl das einzelne Individuum betreffen als auch Kollektive (betriebswirtschaftliche Unternehmen oder ganze Staaten).
Um gegen unabweisbare Gefahren gesichert zu sein, können Versicherungen abgeschlossen werden, zum Beispiel Unfallversicherung oder Berufsunfähigkeitsversicherung. Die Versicherung erhöht zwar nicht objektiv die Sicherheit, wohl aber kann sie subjektiv zum Sicherheitsgefühl beitragen und im Eintrittsfall eine Behebung oder anderweitigen Ausgleich des Schadens ermöglichen.
Spezielle wirtschaftliche Sicherheitsaspekte sind folgende:
Betriebswirtschaftliche Sicherheit umfasst technische, logistische und organisatorische Maßnahmen in Bezug auf Maschinen oder Anlagen im industriellen Bereich, wie in den Begriffen Ausfallsicherheit, Verlässlichkeit und Verfügbarkeit verwendet (siehe operationelles Risiko).
Im Bereich Recht, Finanz- und Betriebswirtschaft und werden hinterlegte Pfänder oder Kautionen als Sicherheiten bezeichnet.
Im Bankwesen dienen Wertpapiere, Hypotheken oder sonstige Sicherheiten für Kredite als Kreditsicherheit. Sie sollen den Kreditgeber vor Verlusten schützen, wenn dem Kreditnehmer die Rückzahlung des Kredits mit Zinsen nicht möglich ist.
Bei Lieferanten dient der Eigentumsvorbehalt als Sicherheit für die gelieferte und noch unbezahlt gebliebene Ware.
Schließlich gibt es eine Vielzahl von gesetzlichen Pfandrechten, die dem Gläubiger als Sicherheit für seine noch unbezahlten Leistungen dienen, so etwa Unternehmerpfandrecht, Gastwirtpfandrecht oder Vermieterpfandrecht.
Objektive versus subjektive Sicherheit
Während die objektive Sicherheit die statistisch und wissenschaftlich nachweisbare Sicherheit meint (beispielsweise in Bezug auf Unfalldaten), meint die subjektive Sicherheit die „gefühlte“ Sicherheit. Insbesondere im ÖPNV gibt es hier Untersuchungen und Überlegungen der zuständigen Stellen, auch die subjektive Sicherheit zu erhöhen.
Im Themenfeld des Erlebnissports beschreibt die objektive Sicherheit, die durch Geräte, Persönliche Schutzausrüstung etc. gewährleistete Unfallprophylaxe. Während Letztere zum Ziel hat, Verletzungen und/oder Unfälle zu verhindern und sich somit stets auf einem aktuellen Stand bewegen sollte, wird die subjektive Sicherheit durch verschiedene Hilfsmittel (Höhe, Dunkelheit etc.) herabgesetzt, um ein Risikoerlebnis zu erzeugen.
Kritik durch die Kopenhagener Schule
Quellenzuordnung fehlt
Die Kopenhagener Schule um Buzan, Waever und de Wilde argumentiert für einen konstruktivistischen Sicherheitsbegriff und fordert damit sowohl die traditionelle, als auch die um Erweiterung des Objekts bemühte Sichtweise heraus, da sie die generelle Objektivität des Begriffs hinterfragt und Sicherheit als „Sprechakt“ definiert. Mit der Assoziation eines Lebensbereiches mit Sicherheit entstehe eine soziale Wirklichkeit. Dieser „Sprechakt“ konstruiere in diesem Lebensbereich einen Ausnahmezustand, rechtfertige außerordentliche Maßnahmen und setze bestehende Entscheidungswege außer Kraft. Die Kopenhagener Schule um Buzan und Waever fordert eine sozial konstruktivistische Herangehensweise, bei der der Prozess der Versicherheitlichung und Entsicherheitlichung in den Vordergrund rückt. Entscheidend sei, die Reaktionen auf den „Sprechakt Sicherheit“ zu untersuchen. Obwohl noch kein Konsens über die Konzeptionalisierung von Versicherheitlichung und Entsicherheitlichung besteht, existiert bereits eine Anzahl an empirischen Studien bzw. politischen Kommentaren zur Versicherheitlichung einzelner Themengebiete.
Technische Sicherheit, Betriebssicherheit
Definition der Technischen Sicherheit
Bei technischen Konstruktionen oder Objekten bezeichnet Sicherheit den Zustand der voraussichtlich störungsfreien und gefahrenfreien Funktion. Im technischen Bereich ist „Sicherheit“ oft davon abhängig, wie sie definiert ist oder welcher Grad von Unsicherheit für die Nutzung der technischen Funktion akzeptiert wird. Tritt bei einer möglichen Störung keine Gefährdung auf, so spricht man einfach nur von Zuverlässigkeit. Die Norm IEC 61508 definiert Sicherheit als „Freiheit von unvertretbaren Risiken“ und verwendet den Begriff der funktionalen Sicherheit als Teilaspekt der Gesamtsicherheit eines technischen Systems.
Gesetzliche Vorschriften der Sicherheitstechnik dienen in erster Line der Arbeitssicherheit, also der Sicherheit und dem Gesundheitsschutz bei der Arbeit, und dem Umweltschutz.
Primäre Grundlage für die Betriebssicherheit ist die Bauteilzuverlässigkeit, das heißt, Bauteile dürfen nicht durch Überbelastung oder Materialversagen ihre Funktionsfähigkeit verlieren. Das heißt, die funktional notwendigen mechanischen, elektrischen, elektronischen, pneumatischen, hydraulischen etc. Eigenschaften dürfen nicht so verändert werden, dass die Funktionalität so beeinträchtigt wird, dass die (Personen)Sicherheit gefährdet wird.
Zunehmende Bedeutung für die Funktionalität und somit für die Sicherheit von technischen Systemen erlangt die Software. Um Software für sicherheitskritische Systeme zu entwickeln, muss ein hoher Aufwand für die Sicherstellung der Fehlerarmut der Software betrieben werden. Im Allgemeinen müssen strenge Maßstäbe an den Softwareentwicklungsprozess gelegt werden. Für verschiedene Industrien, z. B. die Luftfahrtindustrie, sind die Anforderungen an sicherheitsgerichtete Softwareentwicklungsprozesse in Normen festgelegt. Für die Eisenbahn ist das die Norm EN 50128.
Häufig stehen kostenaufwändige Sicherheitsmaßnahmen den wirtschaftlichen Belangen zur Gewinnerzielung entgegen.
Begriffe und Verfahren der Sicherheitstechnik
Untersuchungen zu Problemen und Lösungen der Sicherheit in der Technik führt die Sicherheitstechnik durch. Die Maßnahmen, mit denen die Sicherheit von technischen Objekten, Anlagen oder Systemen erreicht werden soll, sind im Grunde Spezialfälle zur Gewährleistung entweder von individueller oder kollektiver Sicherheit der beteiligten Menschen, oder sie sind wirtschaftlich motiviert, um z. B. kostspielige Reparaturen oder Produktionsausfälle oder aber rechtlich begründete Sanktionen bei Schadensfällen zu vermeiden.
Die Sicherheitstechnik unterscheidet folgende Begriffe:
unmittelbare Sicherheit bezeichnet Lösungen, bei denen die Gefahrenentstehung verhindert wird. Dabei gibt es den safe-life-Ansatz, bei dem durch Klärung aller äußeren Einflüsse, sicherem Bemessen und weiterer Kontrolle ein Versagen ausgeschlossen wird. Der fail-safe-Ansatz bewirkt, dass bei einem beschränkten Versagen noch eine gefahrlose Außerbetriebnahme möglich ist. Ein weiterer Ansatz ist die redundante Anordnung von Baugruppen, so dass bei einem Ausfall eines Teils dennoch die Gesamtfunktion weiterhin gewährleistet ist.
mittelbare Sicherheit bezeichnet Lösungen, mit denen zusätzliche Schutzeinrichtungen eine mögliche Gefährdung abweisen. So verhindern zum Beispiel Maschinenverkleidungen bei Drehmaschinen eine Gefahr durch die bewegten Teile und verhindern gefährliche Eingriffe von außen. Andere Schutzsysteme arbeiten mit Sensoren. So wird etwa eine Fahrstuhltür nicht geschlossen, wenn Personen sich im Bereich der Tür befinden.
hinweisende Sicherheit ist die schwächste und rechtlich geringste Form von Sicherheitsmaßnahmen. Hier wird lediglich auf die Gefahren hingewiesen (Gefahrenhinweis), etwa durch Gefahrensymbole (etwa auffällige Warnhinweise bei elektrischen Anlagen), Gefahrenpiktogramme (bei chemischen Substanzen) oder Verkehrszeichen an Gefahrenpunkten. Des Weiteren gehören dazu auch Sicherheitshinweise in Bedienungsanleitungen von elektrischen Geräten sowie die Verwendung auffälliger Signalfarben oder Reflektoren an gefährdeten Objekten, zum Beispiel Fußgängern bei Nacht.
Beim Einsatz innovativer Sicherheitssysteme ist stets auch mit unbeabsichtigten Folgen zu rechnen, die den angestrebten Sicherheitsgewinn zunichtemachen können.
Beispiele dafür sind der Einsatz von Antiblockiersystemen, solange nur wenige Autos damit ausgerüstet sind, der Einsatz von sensorgesteuerten automatischen Bremssystemen bei fahrerlosen Transportfahrzeugen, die das Erschrecken und Weglaufen von Mitarbeitern provozieren oder der Einsatz des Radars, das die Kollisionshäufigkeit an einigen Brennpunkten des Weltschifffahrtsverkehrs zunächst sogar erhöhte.
Ursachen dafür sind ungeplante Interaktionen zwischen den Akteuren eines Systems, die erst durch die Einführung der Abschalt-, Warn- und anderer Systeme zustande kommen oder systembedingt unterschiedliche Warn- und Reaktionszeiten der Akteure, aber vor allem auch bewusst riskantere Verhaltensweisen. So zeigt Cramer, dass der Ausbau komplexer Sicherheitssysteme in der küstennahen Schifffahrt des 19. Jahrhunderts (Leuchtfeuer, Fahrwasserbetonnung, Wetterdienste) in Verbindung mit der Optimierung der Kursplanung durch Nutzung großräumiger Windverhältnisse zu riskanteren Segelstrategien führte.
Auch heute wird der auf Prognosen setzenden ingenieurwissenschaftlichen Sicherheitsforschung vorgeworfen, dass sie die empirische Beobachtung der Systeme vernachlässige.
Verfahren der Sicherheitstechnik sind:
Auswirkungsanalyse
Fehlerbaumanalyse
PAAG-Verfahren
Spezielle Anwendungsgebiete sind:
Verkehrssicherheit
Fahrzeugsicherheit
Flugsicherheit
Informationssicherheit
Netzwerksicherheit
Gebäudesicherheit
Elektrosicherheit
Biosicherheit
Safety versus Security bei der Technischen Sicherheit
Im Englischen stehen die beiden Bezeichnungen Security (englisch für „Schutz“) und Safety (englisch für „Gefahrlosigkeit“) für zwei verschiedene Begriffe (Konzepte). Im Deutschen werden beide mit dem gleichen Wort „Sicherheit“ bezeichnet. Dies führt regelmäßig zu Verständigungsschwierigkeiten, da beide Seiten die Bezeichnung unterschiedlich interpretieren können.
Der Begriff Security hat in Deutschland eine sehr weitreichende Bedeutung (von Cyber-Security bis hin zum Security-Personal). Es handelt sich somit um personelle Sicherungsmaßnahmen (Objekt- und Personenschutz) bzw. technische Sicherungsmaßnahmen (Sicherungstechnik). In den Normen, Richtlinien und Regelwerken wird – wenn Security gemeint ist – in der Regel das Wort Sicherungstechnik verwandt, wenn es um die materielle Sicherheit bzw. die Angriffsicherheit geht, wie z. B. beim Einbruchschutz bzw. Objektschutz und der Sicherheit bzw. Vertraulichkeit von Daten (Verschlüsselungstechnologien, Authentifizierungsmechanismen). Bei der Sicherungstechnik handelt es sich grundsätzlich um die Erkennung, Begrenzung und Abwehr von Bedrohungen gegen materielle bzw. virtuelle Einrichtungen, Gegenstände bzw. Sachen. Es handelt sich hierbei um vorbeugende Maßnahmen gegen den Eintritt von Ereignissen (Handlungen, Delikten und anderen unerwünschten Zuständen), die durch Personen in böswilliger Absicht begangen werden, sowie um die Begrenzung oder Beherrschung solcher Vorfälle und des daraus resultierenden Schadens.
Dies im Gegensatz zum Begriff Safety, bei dem grundsätzlich die Betriebssicherheit gemeint ist. Im Deutschen steht hierfür das Wort „Sicherheit“, der allerdings sehr weit gefasst ist, da er auch für den Eigenschutz (Maschinen-Sicherheit, Sicherheitskleidung u. v. m.) genutzt wird. Somit steht hier das Verhindern von Einwirkungen auf lebende Individuen (z. B. Schutz von Menschen) im Vordergrund. Hierbei handelt es sich um vorbeugende Maßnahmen gegen den Eintritt von Ereignissen (Vorfällen, Unfällen und anderen unerwünschten Zuständen), die ihren Ursprung in nichtbeabsichtigten menschlichen und/oder technischen Unzulänglichkeiten haben, sowie mit der Begrenzung oder Beherrschung solcher Vorfälle, und mit allgemeinen Problemen der Arbeitssicherheit.
Oftmals wird im Deutschen leider oft nur der Begriff Sicherheit genutzt, ohne genauer zu differenzieren. Das führt leider dazu, dass man oft der Meinung ist, wenn z. B. eine Maschine sicher ist (hier im Sinne von Maschinen-Sicherheit / Safety), dann ist auch die Fernwartung sicher (Zugriffssicherheit bzw. Angriffssicherheit / Security). Das muss jedoch nicht so sein, da es sich, wie oben erläutert, um unterschiedliche Sicherheiten (Safety bzw. Security) handelt. Oftmals ist Safety nicht mehr ohne Security zu haben, weil der böswillige Zugriff über die Security-Schwelle die Safety sogar aushebeln kann.
Aus gesetzlicher Sicht ist die Gewährleistung der Safety zwingend erforderlich (z. B. aufgrund der Produktsicherheitsrichtlinie), während die Security eine (noch weitestgehend) freiwillige und durch wirtschaftliche Faktoren beeinflusste Investition ist. Dies könnte sich aufgrund der zunehmenden Gefahren, die mit der Digitalisierung einhergehen, zwar in Zukunft ebenfalls ändern (siehe z. B. den sich in Diskussion befindlichen Cyber Resilience Act), im Moment ist der Anreiz Safety zu implementieren und zu dokumentieren jedoch ein ganz anderer als bei der Security.
Schutzeinrichtungen
Dies können sein:
trennende Schutzeinrichtungen (Verkleidung, Verdeckung)
ortsbindende Schutzeinrichtungen (Zweihandbedienung, Tipptaster)
abweisende Schutzeinrichtungen (Handabweiser, Fingerabweiser)
Schutzeinrichtungen mit Annäherungsreaktion (Lichtschranke, Pendelklappen)
Technische Normen (Auswahl)
Gefahrstoffverordnung
DIN EN ISO 12100:2011 Sicherheit von Maschinen
Siehe auch
Sicherheitsforschung
Sicherheitserziehung
Verwundbarkeit
Datenschutzkonzept
Fehler
Schutz- und Sicherheitsmodell
Sicherheitsethik
Literatur
Allgemein:
Peter Melichar, Andreas Rudigier (Hrsg.): Auf eigene Gefahr. Vom riskanten Wunsch nach Sicherheit (vorarlberg museum Schriften 58), Wien 2021.
Zur technischen Sicherheit:
Günter Lehder, Reinald Skiba: Taschenbuch Arbeitssicherheit.
Arno Meyna, Olaf H. Peters: Handbuch der Sicherheitstechnik.
Adam Merschbacher: Sicherheitsanalyse für Gewerbebetriebe. VdS-Verlag, ISBN 3-936050-04-X.
Adam Merschbacher: Sicherheitsanalyse für Haushalte. VdS-Verlag, Köln 2002, ISBN 3-936050-03-1.
A. Neudörfer: Konstruieren sicherheitsgerechter Produkte; Methoden und systematische Lösungssammlungen zur EG-Maschinenrichtlinie. Springer, Berlin/ Heidelberg/ New York 2005, ISBN 3-540-21218-3.
Bundesanstalt für Arbeitsschutz und Arbeitsmedizin: Informationsdienst Sicherheitstechnik
Siegfried Altmann: Bewertung der Elektrosicherheit – Eine Einführung in die Theorie der Elektrosicherheit. Wissenschaftliche Berichte der TH Leipzig 1988, Heft 9, 105 Seiten, .
Siegfried Altmann: Sicherheit elektrotechnischer Betriebsmittel – Eine Entscheidungshilfe für eine quantitative Bewertung. VDE-Fachbericht 50. VDE-Verlag Berlin/Offenbach 1996, S. 43–64.
Siegfried Altmann: Elektrosicherheit – Quantitative Bewertungsverfahren. Selbstverlag 2013 und 2014, ISBN 978-3-00-035816-6, Abstracts (deutsch und englisch) mit 105 Seiten, Anlagenband mit 56 eigenen Publikationen, Vertiefungsband (Elektroschutzgüte – Angewandte Qualimetrie) mit 115 Seiten und 26 Anlagen (Inhalte: http://profaltmann.24.eu).
Zum politwissenschaftlichen Sicherheitsbegriff:
Buzan: Change and Insecurity Reconsidered. In: Croft (Hrsg.): Critical Reflections on Security and Change. Introduction, Frank Cass, London 2000.
Buzan, Waever: Slippery? Contradictionary? Sociologically untenable? The Copenhagen school replies. In: Review of International Suties. 1997.
Buzan, Weaver, de Wilde: A new Framework for analysis. Chapter 1 und 9, Boulder, 2000.
Conze, Eckart: Geschichte der Sicherheit. Entwicklung – Themen – Perspektiven, Göttingen Vandenhoeck & Ruprecht 2017, ISBN 978-3-525-30094-7
Croft (Hrsg.): Critical Reflections on Security and Change. Introduction, Frank Cass, London 2000.
Christopher Daase: Der erweiterte Sicherheitsbegriff. (PDF; 313 kB) Working Paper, 2010.
Gleditsch: Peace Research and International Relations in Scandinavia. In: Guzzini, Jung (Hrsg.): Contemporary Security Analysis and Copenhagen Peace Research. Routledge, 2004.
Guzzini, Jung: Copenhagen peace research In: Guzzini, Jung (Hrsg.): Contemporary Security Analysis and Copenhagen Peace Research. Routledge, 2004.
Kolodziej: Security Studies for the next Millennium: quo vadis? In: Croft (Hrsg.): Critical Reflections on Security and Change. Introduction, Frank Cass, London 2000.
Lipschutz: On Security. In: Lipschutz (Hrsg.): On Security. Columbia 1995.
Mathews: Redefining Security. Foreign Affairs, 1989.
Patricia Purtschert, Katrin Meyer, Yves Winter: Gouvernementalität und Sicherheit. Zeitdiagnostische Beiträge im Anschluss an Foucault. transcript, Bielefeld 2008, ISBN 978-3-89942-631-1.
D. Proske: Definition of Safety and the existence of “Optimal safety”, ESREL 2008 conference, Safety, Reliability and Risk Analysis: Theory, Methods and Applications. Martorell u. a. (Hrsg.), Taylor & Francis Group, London, S. 2441–2446.
Strizel: Towards a Theory of Securitization: Copenhagen and Beyond. In: European Journal of International Relations. 13, 2007
Waever: Securitization and Desecuritization. Lipschutz (Hrsg.): On Security. Columbia 1995.
Zur Sicherheit im Erlebnis-, Abenteuer-, Wagnissport:
Martin Scholz: Erlebnis-Wagnis-Abenteuer. Sinnorientierungen im Sport. Hofmann, Schorndorf 2005, ISBN 3-7780-0151-5.
Siegbert A. Warwitz: Sinnsuche im Wagnis. Leben in wachsenden Ringen. Erklärungsmodelle für grenzüberschreitendes Verhalten. 3., erweiterte Auflage, Verlag Schneider, Baltmannsweiler 2021, ISBN 978-3-8340-1620-1.
Brune: Erlebnispädagogik im Schulsport – Konzept einer Lehrerfortbildung. Diplomarbeit. Deutsche Sporthochschule, Köln 2006.
Einzelnachweise
Weblinks
BHE Bundesverband der Hersteller und Errichterfirmen von Sicherheitssystemen e.V.
Gert-Joachim Glaeßner: Sicherheit und Freiheit. In: APuZ (B 10-11/2002).
Projekt SicherheitsWiki
Risikomanagement
Datenschutz
Modell (Wirtschaft)
Softwaretechnik
|
Q2526135
| 126.722107 |
46280
|
https://de.wikipedia.org/wiki/Lebensmittelchemie
|
Lebensmittelchemie
|
Gegenstand der Lebensmittelchemie sind die Inhaltsstoffe der Lebensmittel und deren Veränderung von der Gewinnung der Rohstoffe bis zum Verzehr durch den Menschen. Damit stehen chemische Analytik, aber auch Bestimmung physikalischer Eigenschaften (beispielsweise der Farbe oder der Konsistenz) und zugehörige Labortätigkeiten im Vordergrund. Lebensmitteltechnologie dagegen umfasst die dazu gehörenden Verfahrensschritte der Lebensmittelherstellung samt Lagerung und Transport.
Aufgaben und Ziele
Die Aufgabe der Lebensmittelchemie erstreckt sich weiter auf die Bereiche Umweltschutz, Qualitätskontrolle, Überwachung der Lebensmittelzusatzstoffe, Kosmetika und Bedarfsgegenstände sowie weitere Fachgebiete, die mit Lebensmitteln zusammenhängen. Das Ziel der Lebensmittelchemie ist die Kenntnis von der Zusammensetzung und Wirkung der Lebensmittel.
Die gewonnenen Erkenntnisse kommen im Idealfall den Verbrauchern zugute. Siehe hierzu auch: Verbraucherschutz.
Abgrenzung zur Lebensmitteltechnologie
Die Lebensmittelchemie ist in Deutschland ein eigenständiges Forschungs-, Lehr- und Prüfungsfach. Nur staatlich geprüfte Lebensmittelchemiker dürfen in der amtlichen Untersuchung Lebensmittel begutachten oder als freiberufliche Sachverständige, im Auftrag der Lebensmittelhersteller, von der amtlichen Lebensmittelüberwachung gezogene Gegenproben untersuchen. Obwohl die Hochschulreform Studienabschlüsse wie Bachelor und Master auch im Fach Lebensmittelchemie ermöglicht hat, ist die Staatsprüfung daher (in Deutschland) der Regelabschluss von Lebensmittelchemikern.
In vielen Fällen dient die chemische Untersuchung von Lebensmitteln dazu, festzustellen, ob gesetzliche Anforderungen (Mindestmengen wertbestimmender Inhaltsstoffe, Höchstmengen unerwünschter Stoffe, Indizien unerlaubter Manipulationen) eingehalten worden sind. Die erforderlichen Rechtskenntnisse werden nach dem Studium in einem Praktikum an einer amtlichen Untersuchungseinrichtung erworben und vertieft. Während des Studiums werden neben den chemischen Grunddisziplinen (anorganische, organische, physikalische und Biochemie) und der speziellen Chemie der Lebensmittel auch die Gebiete Botanik, Mikrobiologie, Toxikologie und Lebensmittelrecht behandelt. Technologische Prozesse, die Veränderungen an den Inhaltsstoffen der Lebensmittel bewirken, werden unter diesem Gesichtspunkt behandelt. Grundsätzlich behandelt das Fach Lebensmittelchemie alle Lebensmittelgruppen sowie die Kosmetischen Mittel und sogenannte Bedarfsgegenstände gleich gewichtet. Die Verarbeitung und Produktion der Lebensmittel unter prozess- und maschinentechnischen Gesichtspunkten ist Gegenstand der ingenieurwissenschaftlich ausgerichteten Lebensmitteltechnologie.
Innerhalb der Lebensmitteltechnologie haben sich einzelne Fachrichtungen als eigenständige Fächer herausgebildet (Getränketechnologie, Brauereitechnik, Molkereitechnik, Fleischtechnologie, Getreidetechnologie, Verpackungstechnologie, Konserventechnologie). In den angelsächsischen Ländern existiert diese Unterteilung nicht – Lebensmittelchemie und -technologie werden dort in der „Food Science“ integriert.
Geschichte
Nach diversen Entdeckungen von Pflanzeninhaltsstoffen begründete 1813 das Buch Elements of Agricultural Chemistry, in a Course of Lectures for the Board of Agriculture (Elemente der landwirtschaftlichen Chemie, in einer Reihe für das Landwirtschaftsgremium) von Sir Humphry Davy die Lebensmittelchemie. Auf Grundlage dieses Buches begann an vielen amerikanischen Hochschulen die gezielte Untersuchung von Lebensmitteln in Bezug auf ihre Inhaltsstoffe. Großen Anteil an den Erkenntnissen des 19. Jahrhunderts hatte auch Harvey W. Wiley.
In Deutschland kann Joseph König als Begründer der Lebensmittelchemie als eigenständiger Wissenschaft angesehen werden. Sein mehrbändiges Werk Chemie der menschlichen Nahrungs- und Genußmittel aus dem Jahr 1878 führte erstmals Qualitätskontrollen in die Lebensmittelchemie ein und machte Münster zu einem Zentrum dieses Forschungszweiges.
Während im 19. Jahrhundert die Analyse der Inhaltsstoffe im Vordergrund stand, wurden seit dem Single-grain experiment der University von Wisconsin-Madison die Auswirkungen von Lebensmitteln auf Lebewesen zu einem weiteren wichtigen Forschungsfeld.
Preis
In Deutschland wird seit 1934 die Joseph-König-Gedenkmünze von der Lebensmittelchemischen Gesellschaft vergeben.
Siehe auch
European Food Research and Technology, Fachzeitschrift
Food Chemistry, Fachzeitschrift
Food Hydrocolloids, Fachzeitschrift
Literatur
Nachschlagewerke
L. Acker, K. G. Bergner [u. a.] (Hrsg.), Josef Schormüller (Gesamtredaktion): Handbuch der Lebensmittelchemie. 6 Bände. Springer Verlag, Berlin/ Heidelberg/ New York 1965–1970.
Alfred Thiel, Robert Strohecker und H. Patsch: Taschenbuch für die Lebensmittelchemie. Hilfstabellen für die Arbeiten des Chemikers, Lebensmittelchemikers, Gärungschemikers, Fettchemikers, Wasserchemikers und verwandter Berufe. Walter de Gruyter & Co., Berlin 1938 (= der Reihe Arbeitsmethoden der modernen Naturwissenschaften).
Weblinks
Die Aktuelle Wochenschau der Lebensmittelchemie – Projekt der LChG (2009)
Markus Fischer: Was wie wofür studieren? Lebensmittelchemie - from farm to food function, Lecture2Go, Universität Hamburg, 29. Mai 2017
Gesellschaften, Organisationen und Verbände
Gesellschaft Deutscher Chemiker (GDCh) (Gesellschaft Deutscher Chemiker)
Lebensmittelchemische Gesellschaft (LChG) (Lebensmittelchemische Gesellschaft)
Junge LebensmittelchemikerInnen (AG-JLC) AG der LchG in der GDCh (Arbeitsgruppe Junge LebensmittelchemikerInnen)
Bundesverband der Lebensmittelchemiker/-innen im öffentlichen Dienst e. V., Ratingen (abgekürzt BLC)
Bundesministerium für Verbraucherschutz, Ernährung und Landwirtschaft (Bundesministerium für Ernährung und Landwirtschaft)
Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) (Bundesamt für Verbraucherschutz und Lebensmittelsicherheit)
Bundesinstitut für Risikobewertung (BfR) (Bundesinstitut für Risikobewertung)
Deutsche Gesellschaft für Ernährung (DGE) (Deutsche Gesellschaft für Ernährung)
Bund für Lebensmittelrecht und Lebensmittelkunde e. V. (BLL) (Bund für Lebensmittelrecht und Lebensmittelkunde)
Teilgebiet der Chemie
|
Q910172
| 88.208532 |
97686
|
https://de.wikipedia.org/wiki/Planck-Einheiten
|
Planck-Einheiten
|
Die Planck-Einheiten bilden ein System natürlicher Einheiten für die physikalischen Größen. Die Einheiten leiten sich von fundamentalen Naturkonstanten ab, deren Zahlenwert gleich 1 gesetzt wird. In diesem Einheitensystem sind dann viele Formeln einfacher aufgebaut. Allerdings haben die meisten dieser Einheiten für den Alltag sehr unpraktische Größenordnungen.
Die Planck-Einheiten sind nach Max Planck benannt, der 1899 bemerkte, dass mit seiner Forschung und Entdeckung nun genügend fundamentale Naturkonstanten bekannt waren, um universelle Einheiten für Länge, Zeit, Masse und Temperatur zu definieren.
Die Planck-Einheiten für Länge und Zeit haben eine zusätzliche Bedeutung. Sie geben die Grenze an, bis zu der wir Ursache und Wirkung unterscheiden können. Das heißt, hinter dieser Grenze sind die bisher bekannten physikalischen Gesetze nicht mehr anwendbar, z. B. bei der theoretischen Aufklärung der Vorgänge kurz nach dem Urknall (siehe Planck-Skala).
Definitionen
Grundgrößen
Die Planck-Einheiten ergeben sich aus einer einfachen Dimensionsbetrachtung. Sie ergeben sich als mathematische Ausdrücke von der Dimension einer Länge, Zeit bzw. Masse, die nur Produkte und Quotienten geeigneter Potenzen von , und enthalten. Benutzt man zusätzlich die elektrische Feldkonstante und die Boltzmann-Konstante , so lassen sich außerdem eine Planck-Ladung und eine Planck-Temperatur als weitere Grundgrößen bestimmen. Die Planck-Ladung erfüllt dabei die Bedingung, dass die Gravitationskraft zwischen zwei Planck-Massen und die elektromagnetische Kraft zwischen zwei Planck-Ladungen gleich stark sind: .
Die Formelzeichen bedeuten:
= Lichtgeschwindigkeit
= Gravitationskonstante
= Elektrische Feldkonstante
= Boltzmann-Konstante
= reduzierte Planck-Konstante
Statt wird manchmal zu Eins gesetzt, dann ergibt sich als Masseeinheit die reduzierte Planck-Masse:
.
Mit der Definition einer entsprechend reduzierten Planck-Ladung bleibt dann die o. g. Gleichheit der Kräfte erhalten.
Abgeleitete Größen
Neben diesen fünf Grundgrößen werden auch folgende abgeleitete Größen verwendet:
Die Planck-Einheit für den Drehimpuls ergibt sich aus dem Produkt von Planck-Länge und Planck-Impuls zu dem Wert . Das ist gerade die aus der Quantenmechanik bekannte Einheit der Drehimpulsquantelung.
Die Planck-Fläche spielt insbesondere in Stringtheorien und bei Überlegungen zur Entropie Schwarzer Löcher in Zusammenhang mit dem holografischen Prinzip eine wichtige Rolle.
Geschichte
Ende des 19. Jahrhunderts entdeckte Planck bei seinen Untersuchungen zur Theorie der Strahlung Schwarzer Körper, für die er zwei Jahrzehnte später den Nobelpreis für Physik erhielt, die letzte zur Definition der Planck-Einheiten erforderliche Naturkonstante, das später nach ihm benannte Wirkungsquantum. Er erkannte die Möglichkeit, damit ein universell gültiges System von Einheiten zu definieren und erwähnte diese in einem Vortrag „Über irreversible Strahlungsvorgänge“. Das folgende Zitat vermittelt einen Eindruck von dem Stellenwert, den Planck diesen Einheiten einräumte
Obwohl Planck diesem Einheitensystem ein Kapitel (§ 159. Natürliche Maßeinheiten) seines 1906 erschienenen Buches Theorie der Wärmestrahlung widmete und dieses Thema auch später wieder aufgriff, wurde es auch innerhalb der Physik nicht verwendet. Den Nachteilen, dass für die Verwendung in einem Maßsystem der Wert der Gravitationskonstante nicht genau genug bekannt war (und noch ist), und dass praxisrelevante Größen – in seinen Einheiten ausgedrückt – absurde Zahlenwerte hätten, stand kein Vorteil gegenüber, da bis dahin in keiner physikalischen Theorie gleichzeitig das Wirkungsquantum und die Gravitationskonstante auftauchte.
Erst nach ersten Arbeiten zur Vereinigung von Quantentheorie und Gravitation in den späten 1930er Jahren entstand das Anwendungsgebiet der Planck-Einheiten.
Als John Archibald Wheeler und Oskar Klein 1955 über die Planck-Länge als Grenze der Anwendbarkeit der Allgemeinen Relativitätstheorie veröffentlichten, war Plancks Vorschlag schon fast vergessen. Nach der „Wiederentdeckung“ der Planckschen Vorschläge für ein solches Maßsystem wurde dann ab 1957 der Name Planck-Einheiten gebräuchlich.
Die heute üblichen Planck-Einheiten unterscheiden sich insofern von Plancks ursprünglichen Einheiten, dass und nicht als zugrunde liegende Konstante gewählt wurde. Im Zuge der Entwicklung der Quantenmechanik hatte sich gezeigt, dass als Quant des Drehimpulses fundamentaler ist.
Heutige Bedeutung
Formuliert man Gleichungen, die die Naturkonstanten , und enthalten, in Planck-Einheiten, so können die Konstanten entfallen. Dies vereinfacht in bestimmten Disziplinen der theoretischen Physik die Gleichungen erheblich, etwa in der allgemeinen Relativitätstheorie, in den Quantenfeldtheorien und in den verschiedenen Ansätzen für eine Quantengravitation.
Die Planck-Einheiten ermöglichen auch eine alternative Sichtweise auf die fundamentalen Kräfte der Natur, deren Stärke im Internationalen Einheitensystem (SI) durch sehr unterschiedliche Kopplungskonstanten beschrieben wird. Bei Verwendung der Planck-Einheiten stellt sich die Situation wie folgt dar: Zwischen zwei Partikeln, die genau die Planckmasse und die Planckladung besitzen, wären die Gravitationskraft und die elektromagnetische Kraft exakt gleich groß. Die unterschiedliche Stärke dieser Kräfte in unserer Welt ist die Folge davon, dass ein Proton bzw. ein Elektron eine Ladung von etwa 0,085 Planckladungen besitzt, während ihre Massen um 19 bzw. 22 Größenordnungen kleiner als die Planckmasse sind. Die Frage: „Warum ist die Gravitation so schwach?“ ist also äquivalent zu der Frage: „Warum haben die Elementarteilchen so geringe Massen?“.
Verschiedene Physiker und Kosmologen befass(t)en sich mit der Frage, ob wir es bemerken könnten, wenn sich dimensionale physikalische Konstanten geringfügig ändern würden, und wie die Welt bei größeren Änderungen aussähe. Solche Spekulationen werden u. a. bei der Lichtgeschwindigkeit und der Gravitationskonstanten angestellt, letztere schon seit etwa 1900 in der Expansionstheorie der Erde. Der Atomphysiker George Gamow meint in seinem populärwissenschaftlichen Buch Mr. Tompkins im Wunderland, dass eine Änderung von deutliche Änderungen zur Folge hätte.
Weblinks
Die Planckeinheiten und deren Interpretation von Jörg Resag.
Einzelnachweise
Maßeinheit (Physik)
Größen- und Einheitensystem
Max Planck als Namensgeber
|
Q468999
| 163.236689 |
6755
|
https://de.wikipedia.org/wiki/1757
|
1757
|
Ereignisse
Politik und Weltgeschehen
Frankreich
5. Januar: In Paris versucht Robert François Damiens König Ludwig XV. niederzustechen, wobei er ihm nur leichte Wunden zufügt. Der Attentäter versucht nicht zu fliehen und wird sofort überwältigt. Er wird in der Conciergerie eingekerkert. Hier wird er über die nächsten Wochen schwer gefoltert, um etwaige Mitverschwörer zu finden.
28. März: Damiens wird wegen Regizids durch Vierteilung nach Folter hingerichtet. Es handelt sich um die erste Hinrichtung des Scharfrichters Charles Henri Sanson, der dabei seinem Onkel assistiert. Nach Damiens Tod wird gemäß der Gesetzesvorschrift für Königsattentäter sein Haus niedergerissen, der Platz eingeebnet und dort ein Bauverbot verhängt. Seine direkten Verwandten müssen ihren Namen ändern und werden bei Androhung der Todesstrafe des Königreichs verwiesen.
Siebenjähriger Krieg in Europa
5. Januar: Die Preußen verhaften in Leipzig 50 bis 60 Kaufleute und sperren sie ins Rathaus ein, um eine verlangte Geldsumme einzufordern.
17. Januar: Gegen Preußen wird der Reichskrieg erklärt, da König Friedrich II. mit dem Angriff auf Sachsen Reichsfriedensbruch begangen habe.
22. Januar: Russland und Österreich schließen einen Allianzvertrag gegen Preußen im Siebenjährigen Krieg.
14. März: In Portsmouth wird der britische Admiral John Byng nach einem Todesurteil von einem Peloton an Bord der HMS Monarch erschossen. Die Entscheidung des Kriegsgerichts, er habe die geltenden Fighting Instructions nicht eingehalten, ist umstritten.
19. März: Der preußische General Hans Karl von Winterfeldt schlägt vor, gegen Königgrätz und Pardubitz vorzugehen.
30. März: In Schwerin wird ein preußischer Kriegsrat durch General Hans Karl von Winterfeldt und Oberst Johann Wilhelm von der Goltz gehalten.
21. April: Im Gefecht bei Reichenberg besiegen die in Böhmen eingefallenen Preußen die österreichische Armee.
1. Mai: Der zweite Vertrag von Versailles der Bündnispartner Frankreich und Österreich ist eine Reaktion auf den von Friedrich dem Großen ausgelösten dritten Schlesischen Krieg und zielt auf eine Zerschlagung Preußens ab.
6. Mai: In der Schlacht bei Prag treffen die Heere Friedrichs des Großen und Karl Alexanders von Lothringen aufeinander. Die Preußen besiegen die österreichischen Einheiten.
18. Juni: Ein österreichisches Entsatzheer besiegt in der Schlacht von Kolin preußische Truppen, was zum Abbruch der Belagerung Prags und dem preußischen Rückzug aus Böhmen führt. Im Zusammenhang mit dem Sieg stiftet die österreichische Regentin den Militär-Maria-Theresien-Orden.
23. Juli: Die bis dahin nach Leipzig zweitbedeutendste sächsische Stadt Zittau wird durch ein mehrstündiges Bombardement der verbündeten Österreicher zu über drei Vierteln zerstört (darunter die Hauptkirche zu St. Johannis mit der neuen Orgel von Gottfried Silbermann), da sich innerhalb der Mauern ein Teil der sogenannten Kleinen preußischen Armee verschanzt hatte, um einige Vorräte zu sichern. Trotz einer beispiellosen europaweiten Spendenaktion wird sich die Stadt nie wieder von dieser Katastrophe gänzlich erholen.
26. Juli: Wilhelm August, Herzog von Cumberland wird in der Schlacht bei Hastenbeck geschlagen und stimmt im Kloster Zeven der Auflösung seines Heeres zu.
30. August: In der Schlacht bei Groß-Jägersdorf besiegten die Russen ein kleines preußisches Heer von 30.000 Mann. Der Weg nach Berlin ist offen, doch der Vormarsch scheitert an der mangelhaften russischen Logistik.
7. September: In der Schlacht bei Moys schlagen die Preußen einen Angriff der Österreicher zurück.
10. September: In der Konvention von Kloster Zeven erklärt der Herzog von Cumberland seine Neutralität gegenüber Frankreich im Siebenjährigen Krieg.
27. September: Französische Truppen unter Louis François Armand de Vignerot du Plessis dringen in das preußische Fürstentum Halberstadt ein.
Im Oktober wird auf Befehl Friedrich II. das sich im Besitz seines Gegenspielers Heinrich von Brühl befindliche Rittergut Grochwitz geplündert.
16. Oktober: Mit dem sogenannten Berliner Husarenstreich wird die preußische Hauptstadt durch den k.u.k Husaren Andreas Hadik von Futak für einen Tag erobert.
5. November: Friedrich II. fügt der Reichsarmee und den Franzosen in der Schlacht bei Roßbach eine vernichtende Niederlage bei.
22. November: Die Schlacht bei Breslau gewinnt das österreichische Heer mit Prinz Karl Alexander von Lothringen an der Spitze. Drei Tage später kapitulieren die preußischen Einheiten unter dem Herzog August Wilhelm von Braunschweig-Bevern, bei denen viele zum Militärdienst gepresste Soldaten flüchten.
5. Dezember: Friedrich II. schlägt in der Schlacht bei Leuthen die österreichische Hauptarmee und schließt damit die Rückeroberung von Schlesien ab. Letztmals kommt in der Schlacht die Schiefe Schlachtordnung als militärische Taktik zum Einsatz.
Der Krieg an Kolonialschauplätzen
2. Januar: Britische Truppen nehmen im Dritten Karnatischen Krieg Kalkutta in Bengalen ein.
23. Juni: In der Schlacht bei Plassey siegen Truppen der East India Company gegen die des Herrschers von Bengalen. Der Sieg gilt als der Beginn der britischen Herrschaft in Indien.
August: Im Franzosen- und Indianerkrieg wird Fort William Henry von den Franzosen unter Louis-Joseph de Montcalm belagert. Nach der Einnahme kommt es zu einem Massaker durch die beteiligten Indianerkämpfer, die mit den großzügigen Übergabebedingungen nicht einverstanden sind.
Weitere Ereignisse in Amerika
Januar: Die Abgeordnetenversammlung der Province of Pennsylvania entsendet Benjamin Franklin als Bevollmächtigten nach London, um Steuerstreitigkeiten mit der Eigentümerfamilie Penn beizulegen.
In Georgia tritt erstmals ein Gesetz in Kraft, durch das Weiße zur Bildung von Sklaven-Patrouillen verpflichtet werden. Die Aufgabe dieser Patrouillen besteht darin, zu kontrollieren, ob Sklaven, die sie nachts auf der Straße antreffen, sich dort rechtmäßig aufhalten. Hintergrund dieser Regelungen, die bis 1865 in Kraft bleiben, ist die Furcht vor möglichen Sklavenaufständen.
Osmanisches Reich
30. Oktober: Nach dem Tod von Osman III. folgt ihm sein Cousin Mustafa III. als Sultan des Osmanischen Reichs. Bei seinem Amtsantritt lässt er sich mit dem Schwert des Kalifen Omar gürten und demonstriert damit sein besonderes Interesse für das Rechtswesen und die Gerechtigkeit.
Weitere Ereignisse in Asien
18. Mai: Der birmanische Herrscher Alaungpaya aus der Konbaung-Dynastie erobert und zerstört Hongsawadi, die Hauptstadt des Mon-Königreiches Pegu. Am 28. Juli schließt er einen Vertrag mit der Britischen Ostindien-Kompanie.
Francisco da Hornay III. wird Generalkapitän (Capitão-mor) von Solor und Timor und damit Herrscher der Volksgruppe der Topasse in den de jure portugiesischen Besitzungen auf den Kleinen Sundainseln. Seine Macht muss er mit Domingos da Costa II. teilen.
Wirtschaft
In Irland wird die Whiskybrennerei Locke’s Distillery gegründet.
In Turin wird das Unternehmen Cinzano gegründet.
Kultur
Karneval: Die Oper Solimano von Davide Perez hat ihre Uraufführung im Palazzo Ajuda in Lissabon. Das Libretto stammt von Giovanni Ambrogio Migliavacca. Es ist bereits die zweite Version seines Solimano-Librettos.
11. März: Im Covent Garden Theatre in London wird das Oratorium The Triumph of Time and Truth, Händels letztes Werk, uraufgeführt. Die Textzusammenstellung wird Thomas Morell zugeschrieben.
31. Mai: Die Oper Anacréon des französischen Komponisten Jean-Philippe Rameau wird als Teil einer überarbeiteten Version des Opernballetts Les surprises de l'Amour an der Pariser Oper uraufgeführt. Das Werk, das nichts mit der gleichnamigen Oper des Komponisten aus dem Jahr 1754 gemeinsam hat, hat die Form eines Einakters acte de ballet und ein Libretto von Pierre-Joseph Bernard.
Graf Iwan Iwanowitsch Schuwalow eröffnet in Sankt Petersburg die Akademie der Drei Edelsten Künste, die bis 1764 in seinem Haus untergebracht ist.
Der Bau des Panthéons in Paris wird genehmigt. Bis zur Grundsteinlegung vergehen weitere sieben Jahre.
Religion
17. April: Papst Benedikt XIV. hebt den Bann der römisch-katholischen Kirche gegen Werke auf, die ein heliozentrisches Weltbild enthalten.
5. Juli: Raymund Anton von Strasoldo wird im sechsten Wahlgang als Nachfolger des am 30. April verstorbenen Johann Anton II. von Freyberg zum Fürstbischof von Eichstätt gewählt.
Historische Karten und Ansichten
Geboren
Erstes Quartal
3. Januar: Johann Abraham Sixt, deutscher Komponist († 1797)
6. Januar: Albrecht Wilhelm Roth, deutscher Botaniker († 1834)
9. Januar: John Adair, US-amerikanischer Politiker und Gouverneur von Kentucky († 1840)
10. Jänner: Joseph Kreutzinger, österreichischer Porträtmaler († 1829)
12. Januar: Bernhard Stöger, deutscher katholischer Theologe, Philosoph und Pädagoge († 1815)
16. Januar: Samuel McIntire, US-amerikanischer Architekt und Künstler († 1811)
18. Januar: Charles Pole, britischer Admiral († 1830)
19. Januar: Auguste Reuß zu Ebersdorf, Herzogin von Sachsen-Coburg-Saalfeld († 1831)
21. Januar: Elijah Paine, US-amerikanischer Politiker († 1842)
27. Januar: Gomes Freire de Andrade, portugiesischer General († 1817)
30. Januar: Luise von Hessen-Darmstadt, Großherzogin von Sachsen-Weimar; „Retterin“ Weimars vor Napoleons Truppen († 1830)
Februar: August Gottfried Wilhelm Andreae, preußischer Beamter († 1830)
3. Februar: Constantin François Volney, französischer Reisender und Geschichtsphilosoph († 1820)
10. Februar: Johann August Arens, deutscher Architekt, Landschaftsgestalter und Maler († 1806)
12. Februar: Ferdinand von Angern, deutscher Politiker († 1828)
23. Februar: Magdalena Pauli, in Altona lebende Philanthropin († 1825)
1. März: Katharina Kest, Reichsgräfin von Ottweiler, Herzogin von Dillingen und Fürstin von Nassau-Saarbrücken († 1829)
4. März: Theodor Gottlieb Carl Keyßner, deutscher evangelischer Geistlicher und Pädagoge († 1837)
7. März: Johann Friedrich Lempe, deutscher Professor der Mathematik an der Bergakademie Freiberg († 1801)
11. März: Felicitas Agnesia Ritz, deutsche Sopranistin († 1835)
15. März: René Maugé, französischer Zoologe und Tiersammler († 1802)
16. März: Bengt Lidner, schwedischer Dichter († 1793)
21. März: James Sowerby, britischer Naturforscher, Zoologe und Maler († 1822)
24. März: James Wilkinson, US-amerikanischer General und erster Gouverneur von Louisiana († 1825)
29. März: Carl Axel Arrhenius, schwedischer Artillerieoffizier, Amateurgeologe und Chemiker († 1824)
30. März: Sophie Piper, schwedische Hofdame († 1816)
Zweites Quartal
1. April: Gustaf Mauritz Armfelt, finnlandschwedischer Staatsmann, Militär und Diplomat († 1814)
1. April: Fabrizio Sceberras Testaferrata, maltesischer Kardinal († 1843)
3. April: French Laurence, englischer Richter und Politiker († 1809)
19. April: Edward Pellew, britischer Marineoffizier und Admiral († 1833)
22. April: Josef Mathias Grassi, österreichischer Historien- und Porträtmaler († 1838)
23. April: Alessandro Rolla, italienischer Violinspieler und Komponist († 1841)
25. April: Johann Tobias Lowitz, deutsch-russischer Chemiker und Pharmazeut († 1804)
26. April: Kilian Ponheimer der Ältere, österreichischer Kupferstecher († 1828)
27. April: Carl Johan Adlercreutz, schwedischer General († 1815)
28. April: Claus Schall, dänischer Komponist († 1835)
4. Mai: Benjamin Ferdinand Herrmann, deutscher evangelischer Geistlicher († 1837)
6. Mai: Veronika Gut, Unterstützerin des Nidwaldner Widerstandes gegen die Helvetik († 1829)
15. Mai: John Hely-Hutchinson, 2. Earl of Donoughmore, britischer General († 1832)
18. Mai: Karl Christian von Langsdorf, deutsch-litauischer Mathematiker († 1834)
25. Mai: Louis-Sébastien Lenormand, französischer Physiker, Erfinder und Pionier des Fallschirmspringens († 1837)
30. Mai: Henry Addington, 1. Viscount Sidmouth, britischer Politiker und Premierminister († 1844)
31. Mai: Friedrich Franz Xaver von Hohenzollern-Hechingen, österreichischer Feldmarschall († 1844)
7. Juni: Georgiana Cavendish, Duchess of Devonshire, englische Adelige († 1806)
9. Juni: Johann Rudolf Czernin, österreichischer Verwaltungsbeamter († 1845)
10. Juni: Ferdinand Fleck, deutscher Schauspieler († 1801)
18. Juni: Ignaz Josef Pleyel, österreichischer Komponist († 1831)
22. Juni: Andreas Schumann, deutscher Pädagoge und Autor († 1828)
22. Juni: George Vancouver, britischer Offizier der Royal Navy, Erforscher der nordamerikanischen Pazifikküste († 1798)
Drittes Quartal
2. Juli: Ernst Konstantin von Schubert, deutscher Jurist und Beamter in Schweden, Schwedisch-Pommern und Preußen († 1835)
11. Juli: Johann Matthäus Bechstein, deutscher Naturforscher, Forstwissenschaftler und Ornithologe († 1822)
13. Juli: Thomas Rowlandson, britischer Maler und Karikaturist († 1827)
15. Juli: Marianne Reussing, deutsche Romanautorin († 1831)
25. Juli: Hans Jakob von Auerswald, preußischer Landhofmeister († 1833)
2. August: Johann Heinrich Schmidt, deutscher Maler († 1821)
4. August: Wladimir Lukitsch Borowikowski, russischer Porträtmaler († 1825)
4. August: John James Beckley, US-amerikanischer Leiter der Library of Congress († 1807)
7. August: Abbondio Bernasconi, Schweizer Politiker († 1822)
9. August: Elizabeth Schuyler Hamilton, US-amerikanische Philanthropin († 1854)
9. August: Thomas Telford, britischer Baumeister († 1834)
12. August: Louisa Stuart, britische Schriftstellerin († 1851)
13. August: James Gillray, britischer Karikaturist († 1815)
17. August: Adam von Bartsch, österreichischer Künstler und Kunstschriftsteller und Begründer der systematisch-kritischen Graphikwissenschaft († 1821)
19. August: Jean-Baptiste Annibal Aubert du Bayet, französischer Politiker und General († 1797)
23. August: Marie Magdalene Charlotte Ackermann, deutsche Schauspielerin († 1775)
25. August: Carl Friedrich Leopold von Gerlach, Berliner Oberbürgermeister († 1813)
3. September: Carl August, Herzog und Großherzog von Sachsen-Weimar-Eisenach († 1828)
4. September: Christophine Reinwald, Schwester Friedrich Schillers († 1847)
4. September: Levin Winder, US-amerikanischer Politiker († 1819)
6. September: August Friedrich Langbein, deutscher Dichter und Romanschriftsteller († 1835)
6. September: Marie-Joseph Motier, Marquis de La Fayette, französischer General und Politiker († 1834)
12. September: John Brown, US-amerikanischer Politiker († 1837)
14. September: Jean-Jacques Lequeu, französischer Architekt († 1826)
16. September: Alexander Ferdinand von Mellentin, königlich-sächsischer Generalmajor († 1823)
21. September: James Jackson, US-amerikanischer Politiker († 1806)
22. September: Cyrus-Marie-Alexandre de Timbronne de Valence, französischer General († 1822)
26. September: Maria Amalie von Sachsen, Herzogin von Pfalz-Zweibrücken und Äbtissin des Damenstifts St. Anna in München († 1831)
27. September: Henric Schartau, schwedischer Priester und Prediger († 1825)
Viertes Quartal
3. Oktober: Amalie Tischbein, deutsche Zeichnerin, Miniaturmalerin und Radiererin († 1839)
4. Oktober: Othneil Looker, US-amerikanischer Politiker († 1845)
5. Oktober: Louise-Adélaïde de Bourbon-Condé, französische Prinzessin und benediktinische Klostergründerin († 1824)
5. Oktober: Charles de Lameth, französischer General († 1832)
9. Oktober: Karl X., König von Frankreich († 1836)
10. Oktober: Erik Acharius, schwedischer Botaniker und Arzt († 1819)
13. Oktober: Franz Aglietti, italienischer Arzt († 1836)
14. Oktober: Charles Abbot, 1. Baron Colchester, britischer Politiker († 1829)
21. Oktober: Charles Pierre François Augereau, französischer General, Marschall von Frankreich († 1816)
25. Oktober: Heinrich Friedrich Karl vom und zum Stein, preußischer Politiker († 1831)
26. Oktober: Charles Pinckney, US-amerikanischer Politiker († 1824)
26. Oktober: Carl Leonhard Reinhold, österreichischer Aufklärer († 1823)
26. Oktober: Asher Robbins, US-amerikanischer Politiker († 1845)
27. Oktober: Seerp Gratama, niederländischer Rechtswissenschaftler († 1837)
1. November: Antonio Canova, italienischer Bildhauer († 1822)
1. November: Johann Georg Rapp, deutscher Pietistenführer († 1847)
2. November: Andreas Battier, Schweizer evangelischer Geistlicher († 1793)
3. November: Robert Smith, US-amerikanischer Außenminister († 1842)
4. November (oder 8. November): Francis de Rottenburg, britischer General und Militärschriftsteller († 1832)
5. November: Joseph Anderson, US-amerikanischer Politiker († 1837)
10. November: Martin Span, österreichischer Pädagogen und Autor († um 1840)
15. November: Jacques-René Hébert, französischer Revolutionär († 1794)
16. November: Karoline Ludecus, deutsche Schriftstellerin († 1844)
28. November: William Blake, englischer Dichter, Naturmystiker, Maler und der Erfinder der Reliefradierung († 1827)
29. November: Karl Ehrenfried Günther, deutscher Pädagoge und Rektor († 1826)
7. Dezember: Dwight Foster, US-amerikanischer Politiker († 1823)
11. Dezember: Charles Wesley junior, englischer Organist und Komponist († 1834)
17. Dezember: Nathaniel Macon, US-amerikanischer Politiker († 1837)
19. Dezember: Philippe Guerrier, Präsident von Haiti († 1845)
25. Dezember: Johann Wilhelm Christian Brühl, deutscher Mediziner und Hochschullehrer († 1806)
25. Dezember: Benjamin Pierce, US-amerikanischer Politiker († 1839)
28. Dezember: Reinhard Woltman, deutscher Wasserbauingenieur († 1837)
31. Dezember: Johann Daniel Hensel, deutscher Pädagoge, Schriftsteller und Komponist († 1839)
Genaues Geburtsdatum unbekannt
Wenzel Edler von Ankerberg, deutscher Schachspieler, Beamter und Numismatiker († 1824)
Johann Nicolaus Apel, deutscher Autor, Doktor der Philosophie, Naturforscher, Konstrukteur und Politiker († 1823)
Friedrich Theodor Bach, preußischer Beamter († 1815)
Richard Brent, US-amerikanischer Politiker († 1814)
William Bryant, englischer Fischer und Sträfling († 1791)
Agnes Ibbetson, britische Botanikerin († 1823)
Józef Kozłowski, polnischer Komponist († 1831)
Michel-Gabriel Paccard, französischer Arzt und Alpinist († 1827)
William S. Pennington, US-amerikanischer Politiker († 1826)
Therese Rosenberg, österreichische Schauspielerin († nach 1813)
Geboren um 1757
Enderûnlu Fâzıl, osmanischer Diwan- und Masnawī-Dichter sowie Satiriker († 1810)
Gestorben
Januar bis April
6. Januar: Bernhard Friedrich von Ahlimb, preußischer Oberst und Kommandeur der Garnison in Magdeburg (* 1699)
9. Januar: Bernard le Bovier de Fontenelle, französischer Schriftsteller (* 1657)
23. Januar: Joseph III., Patriarch der Chaldäisch-katholischen Kirche
24. Januar: Francesco Robba, italienischer Bildhauer (* 1698)
25. Januar: Octavio Piccolomini, Herzog von Amalfi, kaiserlicher General, Reichsfürst und Grundherr der ostböhmischen Herrschaft Nachod (* 1698)
26. Januar: René Louis d’Argenson, französischer Adeliger und Minister (* 1694)
2. Februar: Beat Holzhalb, Schweizer Pietist (* 1693)
8. Februar: Bernd Siegmund von Blankensee, königlich-preußischer Generalmajor, Träger des Pour le Mérite (* 1693)
11. Februar: Mauro D’Alay, italienischer Violinist und Komponist (* um 1687)
21. Februar: Georg Franz Ebenhech, deutscher Bildhauer, Stuckateur und Elfenbeinschnitzer (* um 1710)
25. Februar: Giovanni Paolo Bellinzani, italienischer Priester, Komponist und Musiker
1. März: Edward Moore, englischer Dramatiker und Schriftsteller (* 1712)
6. März: Adolf Friedrich von Langermann, preußischer Generalmajor (* 1694/95)
6. März: Franz Konrad von Stadion und Thannhausen, Fürstbischof von Bamberg (* 1679)
10. März: Johann Joseph von Trautson, österreichischer Erzbischof der Erzdiözese Wien und Kardinal (* 1707)
12. März: Giuseppe Galli da Bibiena, italienischer Architekt und Bühnenbildner (* 1696)
14. März: John Byng, englischer Admiral (* 1704)
20. März: Johann Paul Kunzen, deutscher Komponist und Organist (* 1696)
27. März: Johann Stamitz, böhmischer Violinist, Kapellmeister und Komponist (* 1717)
28. März: Robert François Damiens, französischer Attentäter (* 1715)
4. April: Maurus Xaverius Herbst, Benediktiner und Abt des Klosters Plankstetten (* 1701)
4. April: Spencer Phips, britischer Kolonialpolitiker, Gouverneur der Province of Massachusetts Bay (* 1685)
15. April: Franz Joseph Spiegler, deutscher Maler (* 1691)
15. April: Rosalba Carriera, italienische Malerin (* 1675)
16. April: Daniel Gran, österreichischer Maler (* 1694)
30. April: Johann Anton II. von Freyberg, Fürstbischof des Hochstiftes Eichstätt (* 1674)
Mai bis August
6. Mai: Georg Friedrich von Amstel, preußischer Generalmajor und Kommandant (* 1690)
6. Mai: Friedrich Wilhelm III., Herzog von Schleswig-Holstein-Sonderburg-Beck (* 1723)
6. Mai: Kurt Christoph Graf von Schwerin, preußischer Generalfeldmarschall (* 1684)
5. Juni: Bernhardine Christiane Sophie von Sachsen-Weimar-Eisenach, Fürstin von Schwarzburg-Rudolstadt (* 1724)
10. Juni: Benedikt von Ahlefeldt, Gutsherr der holsteinischen Güter Jersbek und Stegen (* 1678)
10. Juni: Christoph Treutmann, deutscher Orgelbauer (* um 1673)
11. Juni: Martin Aumüller, böhmischer Bildhauer und Holzschnitzer (* 1697)
15. Juni: Johann Caspar Bagnato, Pfälzer Baumeister (* 1696)
26. Juni: Maximilian Ulysses Browne, irisch-österreichischer Feldmarschall (* 1705)
27. Juni: Christoph Hermann von Manstein, preußischer General (* 1711)
28. Juni: Sophie Dorothea von Hannover, Königin von Preußen, Gattin des Soldatenkönigs Friedrich Wilhelm I. (* 1687)
2. Juli: Johanna Elisabeth von Baden-Durlach, Herzogin von Württemberg (* 1680)
5. Juli: Jean-Joseph Vadé, französischer Komponist und Schriftsteller (* 1719)
22. Juli: Louis-Antoine Dornel, französischer Organist und Komponist (* 1680)
23. Juli: Domenico Scarlatti, italienischer Komponist (* 1685)
3. August: Karl Wilhelm Friedrich, Fürst von Brandenburg-Ansbach (* 1712)
5. August: Antoine Pesne, französischer Hofmaler in Preußen (* 1683)
28. August: David Hartley, englischer Philosoph und Psychologe (* 1705)
31. August: Jonathan Belcher, britischer Politiker, Gouverneur von Massachusetts, New Hampshire und New Jersey (* 1682)
August: Johann Heinrich Müslin, Schweizer Pietist (* 1682)
September bis Dezember
3. September: Anna Catharina von Passow, dänische Schauspielerin und Autorin (* 1731)
8. September: Just Wiedewelt, dänischer Bildhauer (* 1677)
8. September: Hans Karl von Winterfeldt, preußischer General (* 1707)
13. September: Franz Pacák, böhmischer Bildhauer (* 1713)
18. September: Isabelle Charlotte von Nassau-Dietz, Fürstin von Nassau-Dillenburg (* 1692)
21. September: Amarsanaa, Dschungaren-Fürst (* 1720)
24. September: Aaron Burr, Sr., Geistlicher, Vater des gleichnamigen Vizepräsidenten der USA (* 1716)
25. September: Johann Christoph Sauer, erster deutscher Buchdrucker in Nordamerika (* 1695)
2. Oktober: Luigi Centurioni, italienischer Ordensgeneral (* 1686)
2. Oktober: Johann Adam Groß der Ältere, deutscher Baumeister (* 1697)
3. Oktober: Georg Abbt, Schweizer evangelischer Geistlicher (* 1716)
11. Oktober: Zacharias Hildebrandt, deutscher Orgelbauer (* 1688)
17. Oktober: René-Antoine Ferchault de Réaumur, französischer Wissenschaftler und Entomologe (* 1683)
24. Oktober: Augustin Simnacher, deutscher Orgelbauer (* 1688)
25. Oktober: Anton Sturm, deutscher Bildhauer (* 1690)
28. Oktober: Giovanna Astrua, italienische Opernsängerin (Sopran) (* 1720)
30. Oktober: Osman III., Sultan des Osmanischen Reichs (* 1699)
30. Oktober: Sir Edward Vernon, englischer Admiral (* 1684)
5. November: Catharina Elisabeth Heinecken, deutsche Malerin, Kunstgewerblerin und Alchemistin (* 1683)
6. November: François de Broglie, französischer Offizier (* 1720)
8. November: Pierre Prowo, deutscher Komponist und Organist (* 1697)
11. November: Deep Singh, indischer Märtyrer der Sikh-Religion (* 1682)
12. November: Colley Cibber, britischer Theaterleiter, Impresario, Dramatiker und Dichter (* 1671)
17. November: Maria Josepha von Österreich, österreichische Erzherzogin, Kurfürstin von Sachsen und Königin von Polen (* 1699)
21. November: Johann Konrad Brandenstein, deutscher Orgelbauer (* 1695)
23. November: Johann Hinrich Klapmeyer, deutscher Orgelbauer (* 1690)
1. Dezember: Johann Leonhard Prey, deutscher Architekt und Steinmetz (* um 1700)
5. Dezember: Johann Ernst Hebenstreit, deutscher Mediziner (* 1702)
5. Dezember: Gustav Adolf zu Stolberg-Gedern, kaiserlich-königlicher Generalfeldwachtmeister (* 1722)
30. Dezember: Andreas Faulhaber, deutscher Kaplan und Märtyrer der Grafschaft Glatz (* 1713)
Genaues Todesdatum unbekannt
Alphonse Marie Louis de Saint-Sévérin d’Aragon, französischer Diplomat und Minister (* 1705)
Robert Balfour, 5. Lord Balfour of Burleigh, schottischer Adeliger, Jakobit und Mörder
Kelsang Gyatsho, siebter Dalai Lama (* 1708)
Johannes Kohlhaas der Ältere, deutscher Orgelbauer (* 1691)
François Martin, französischer Komponist und Cellist (* 1727)
Gestorben um 1757
Jean-Baptiste Masse, französischer Komponist und Cellist (* um 1700)
Weblinks
|
Q7635
| 238.514393 |
6747
|
https://de.wikipedia.org/wiki/1747
|
1747
|
Ereignisse
Politik und Weltgeschehen
Österreichischer Erbfolgekrieg
Januar: Wegen Proviantmangels müssen die verbündeten Österreicher und Sarden die Belagerung von Antibes abbrechen und sich aus der im Vorjahr eroberten Provence wieder zurückziehen. Stattdessen beginnen sie mit der Belagerung Genuas. Eine französische Armee unter Charles Louis Auguste Fouquet de Belle-Isle rückt zum Entsatz der Stadt heran, woraufhin sich die Österreicher in die Lombardei zurückziehen.
14. Mai: Eine überlegene britische Flotte unter George Anson besiegt in der Ersten Seeschlacht am Kap Finisterre ein dem Schutz eines Konvois nach Kanada dienendes französisches Geschwader unter Jacques-Pierre de Taffanel de La Jonquière und nimmt sämtliche Kriegsschiffe und einige Handelsschiffe als Prisen.
2. Juni: Nach der Eroberung der Österreichischen Niederlande rückt die französische Armee unter dem Befehl von Moritz von Sachsen gegen die Niederlande vor: In der Schlacht bei Lauffeldt in der Nähe von Maastricht besiegen die Franzosen die von William Augustus, Duke of Cumberland, befehligten verbündeten Österreicher, Briten und Niederländer, erleiden aber mehr als doppelt so hohe Verluste. Nach dreimonatiger Belagerung fallen danach auch Bergen op Zoom und Holländisch-Flandern in die Hände der Franzosen.
19. Juli: In der Schlacht auf dem Assietta bei Turin geben französische Truppen unter General Belle-Isle ihren Angriff auf eine von verbündeten Einheiten aus Sardinien und Österreich unter Giovanni Battista Cacherano di Bricherasio gehaltene Bergstellung nach fünf Stunden und starken Verlusten auf.
18. September: Die am 1. Juli begonnene Belagerung von Bergen op Zoom endet nach einem die niederländischen Verteidiger völlig überrumpelnden Generalangriff mit der Eroberung der niederländischen Festung durch französische Truppen unter Ulrich von Löwendal. Die anschließende, brutale Plünderung der Stadt wird in ganz Europa verurteilt. Die Belagerung hat die Angreifer etwa 20.000 Tote, Verwundete und an Krankheit Gestorbene, die Verteidiger etwa 8.000 Tote, Verwundete und an Krankheit Gestorbene gekostet.
25. Oktober: Auch in der Zweiten Seeschlacht am Kap Finisterre siegen die Briten über ein französisches Geleitkonvoi. Unter Admiral Edward Hawke bringen die Briten sechs Schiffe auf. Nur das Flaggschiff der Franzosen und ein weiteres Schiff können entkommen.
30. Oktober: Die österreichische Erzherzogin Maria Theresia schließt mit Russland einen Vertrag, der vorsieht, dass im folgenden Jahr 37.000 russische Soldaten an den Rhein vorrücken sollen.
Weitere Ereignisse im Reich
16. März: Nach dem Tod seines Vaters Christian August wird Friedrich August im Alter von 14 Jahren Fürst von Anhalt-Zerbst.
7. April: Nach dem Tod von Leopold I. wird sein Sohn Leopold II. Maximilian Fürst von Anhalt-Dessau. Die vorgefundene hohe Staatsverschuldung versucht er durch Einschränkungen in der Hofhaltung abzumildern.
Der Wasunger Krieg, eine kriegerische Auseinandersetzung zwischen den beiden Ernestinischen Herzogtümern Sachsen-Gotha-Altenburg und Sachsen-Meiningen beginnt. Anlass des Krieges ist ein Streit zwischen zwei Hofdamen am Meininger Hof, wer den Vortritt bei Hof habe. Herzog Anton Ulrich greift in den Streit ein, indem er eine der Damen und ihre Familie mit harten Willkürmaßnahmen drangsaliert. Diese ruft daraufhin das Reichskammergericht an: Das gegen den Herzog gerichtete Urteil erkennt dieser jedoch nicht an. Dies wiederum verschafft Friedrich III. von Sachsen-Gotha-Altenburg einen Vorwand, mit seinen Truppen in Sachsen-Meiningen einzumarschieren und die Stadt Wasungen zu besetzen, um der Entscheidung des Reichskammergerichts Nachdruck zu verschaffen. Es kommt im Laufe des Krieges zu keinen nennenswerten Kampfhandlungen.
Truppen aus Hessen-Darmstadt marschieren in Hessen-Homburg ein. Landgraf Ludwig VIII. von Hessen-Darmstadt macht seinem Vetter Friedrich IV. die Regierungsgewalt streitig, nachdem dieser Ulrike Luise zu Solms-Braunfels geehelicht hat und damit ein möglicher Thronfolger in Aussicht steht.
Großbritannien
1. August: Der in Reaktion auf den Aufstand der Jakobiten als Teil des Act of Proscription erlassene Dress Act verbietet den Schotten das Tragen von Kilt und Plaid sowie die Verwendung von Tartans. Das Inkrafttreten wird jedoch zunächst für ein Jahr auf den 1. August 1748 verschoben.
Der Zerfall des Persischen Reichs
20. Juni: Der persische Herrscher Nadir Schah wird auf einem Feldzug von seinen eigenen Generälen ermordet. Ihm folgt sein Neffe Adil Schah auf den Pfauenthron. Er ermordet Reza Gholi Mirza und Emam Gholi Mirza, die Kinder Nadir Schahs und Thronanwärter, wie auch die anderen Nachkommen, verschont aber Nadirs Enkel Schah Ruch, der zu der Zeit erst 14 Jahre alt ist.
Nach dem Tod von Nadir Schah kann Ahmad Schah Durrani den Osten des zerfallenden Perserreichs um die Stadt Kabul unter seine Kontrolle bringen und gründet mit dem Durrani-Reich den ersten selbständigen Staat der Afghanen. Im gleichen Jahr fällt er im Punjab ein.
Aus dem zerfallenden Reich entstehen außerdem das Khanat Ardabil, das Khanat Gandscha, das Khanat Nachitschewan und das Khanat Scheki, bisher Vasallenstaaten Persiens, als unabhängige Kleinreiche.
Tibet
12. März: Gyurme Namgyel wird als Nachfolger seines verstorbenen Vaters Miwang Pholhane Sönam Tobgye Herrscher von Tibet.
Wirtschaft
11. Januar: Hofjägermeister Johann Georg von Langen gründet im Auftrag von Herzog Karl I. von Braunschweig-Wolfenbüttel die Porzellanmanufaktur Fürstenberg. Wenig später entsteht rund 500 Meter entfernt vom Schloss Fürstenberg das Alte Brennhaus als eines der ersten Betriebsgebäude der Manufaktur. Auf einem Nachbargrundstück besteht bereits die ab 1744 als Windmühle erbaute Alte Mühle, die zu einem Laboratorium der Porzellanmanufaktur umfunktioniert wird.
Die spätere Porzellanmanufaktur Nymphenburg wird gegründet.
Die Landschaftliche Buchdruckerei in Hannover beginnt mit dem Druck des Hannoverischen Kirchen-Gesang-Buches, des Genesius'schen Katechismus und eines Kalenders.
Abraham Dürninger übernimmt den Gemeinladen der Herrnhuter Brüdergemeine.
Wissenschaft und Technik
14. Februar: In Paris entsteht die weltweit erste Ingenieurschule, die École nationale des ponts et chaussées.
Andreas Sigismund Marggraf entdeckt in der Runkelrübe einen besonders hohen Gehalt an Zucker.
Mit der Real Universidad de San Felipe wird die erste Universität Chiles mit umfassendem Fächerkanon gegründet.
Bernhard Siegfried Albinus veröffentlicht sein Hauptwerk Tabulae sceleti et musculorum corporis humani, das wichtigste Werk des 18. Jahrhunderts zur menschlichen Anatomie.
Kultur
Architektur
Das von König Friedrich II. von Preußen in Auftrag gegebene und von Georg Wenzeslaus von Knobelsdorff errichtete Schloss Sanssouci in Potsdam wird nach zweijähriger Bauzeit fertiggestellt. Die Einweihung des Weinbergschlosses erfolgt am 1. Mai, obwohl noch nicht alle Räume beziehbar sind.
Fürst Friedrich III. von Sachsen-Gotha-Altenburg beauftragt den Weimarer Architekten Gottfried Heinrich Krohne damit, den Ordonanzgarten im Schlosspark des Schlosses Friedenstein in Gotha in eine Orangerie nach französischem Vorbild mit dem Ziel der Sammlung, Aufzucht und Präsentation exotischer Pflanzen umzugestalten. Krohne entwirft eine einheitliche, symmetrische Gesamtanlage in Teatroform mit zwei großen Kalthäusern und jeweils benachbarten Treibhäusern auf der Nord- und Südseite.
Literatur
Guillaume Thomas François Raynal veröffentlicht seine ersten Texte in den von ihm gegründeten Nouvelles littéraires.
Musik und Theater
28. Januar: Am Teatro Apollo in Rom erfolgt die Uraufführung der Oper Die verlassene Dido (Dido abbandonata) von Niccolò Jommelli.
1. April: Das Oratorium Judas Maccabaeus von Georg Friedrich Händel hat seine Uraufführung am Theatre Royal in Covent Garden. Das Libretto stammt von Thomas Morell.
7. Mai bis 7. Juli: Johann Sebastian Bach komponiert das Musikalische Opfer.
Gesellschaft
Frühjahr: Douwe Mout van der Meer unternimmt mit dem Nashorn Clara eine weitere Schautour durch Europa. Am 19. April wird es August III., Kurfürst von Sachsen und König von Polen und der königlich-kurfürstlichen Familie vorgeführt.
21. November: Hof- und Cammer-Komponist Leopold Mozart heiratet im Salzburger Dom Anna Maria Pertl.
Religion
10. September: Andreas Jakob von Dietrichstein wird zum Fürsterzbischof von Salzburg gewählt. Er folgt dem am 12. Juni verstorbenen Jakob Ernst von Liechtenstein-Kastelkorn.
Der Bau der Kathedrale León in Nicaragua beginnt.
Historische Karten und Ansichten
Geboren
Januar bis Juni
4. Januar: Johann Kaspar Coqui, Magdeburger Fabrikant und Kommunalpolitiker († 1824)
10. Januar: Abraham Louis Breguet, Schweizer Uhrmacher und Mechaniker († 1823)
11. Januar: Franz Georg von Keeß, österreichischer Jurist († 1799)
11. Januar: François Alexandre Frédéric, duc de La Rochefoucauld-Liancourt, französischer Herzog, Politiker, Sozialreformer und Unternehmer († 1827)
17. Januar: Marcus Herz, deutscher Arzt und Philosoph der Aufklärung († 1803)
18. Januar: Michele Di Pietro, italienischer Kardinal († 1821)
19. Januar: Johann Elert Bode, deutscher Astronom († 1826)
21. Januar: Sophie von Coudenhoven, deutsche Adlige und Vertraute des Mainzer Kurfürsten Friedrich Karl Joseph von Erthal († 1825)
6. Februar: Friedrich Albrecht Ernst von Aweyden, preußischer Justizdirektor und Gutsbesitzer († 1827)
10. Februar: Yasuaki Aida, japanischer Mathematiker († 1817)
10. Februar: André Thouin, französischer Botaniker († 1824)
16. Februar: Heinrich XIII., Fürst Reuß zu Greiz († 1817)
8. März: Johann Peter Melchior, preußischer Bildhauer und Porzellandesigner († 1825)
25. März: Nivard Schlimbach, deutscher Zisterzienser-Abt († 1812)
27. März: Johann Bernhard Crespel, deutscher Jurist und Jugendfreund von Johann Wolfgang von Goethe († 1813)
31. März: Johann Abraham Peter Schulz, deutscher Musiker und Komponist († 1800)
13. April: Louis Philippe II. de Bourbon, Herzog von Orléans, genannt Philippe Égalité, Mitglied der französischen Königsfamilie († 1793)
13. April: Armand-Louis de Gontaut, Herzog von Biron, bis 1788 Herzog von Lauzun, französischer General († 1793)
4. Mai: Philippe-Jean Pelletan, französischer Chirurg († 1829)
5. Mai: Aloys Basselet von La Rosée, bayerischer Beamter und Richter, Mitglied des Illuminatenordens († 1826)
5. Mai: Leopold II., Kaiser des Heiligen Römischen Reiches Deutscher Nation, Erzherzog von Österreich und König von Böhmen, Kroatien und Ungarn, Großherzog der Toskana († 1792)
9. Mai: Ferdinand Anton Christian von Ahlefeldt, dänischer Diplomat († 1815)
11. Mai: Carl May, deutscher Konditor und Korkschnitzer († 1822)
18. Mai: Johann Christoph Friedrich Schulz, deutscher evangelischer Theologe († 1806)
27. Mai: René Levasseur, französischer Arzt, Revolutionär und Politiker († 1834)
5. Juni: Johann Heinrich Wilhelm von den Berken, deutscher Jurist († 1823)
12. Juni: Genki, japanischer Maler († 1797)
14. Juni: Viktor Franz Anton Glutz-Rüchti, Schweizer katholischer Geistlicher († 1824)
15. Juni: Detlev von Ahlefeldt, dänischer Kammerherr und Landrat († 1796)
17. Juni: Pierre-Antoine Antonelle, französischer Politiker, Journalist und Revolutionär († 1817)
23. Juni: Johann Christian Wagner, deutscher Jurist († 1825)
26. Juni: Leopold Koželuh, böhmischer Komponist und Musikpädagoge († 1818)
Juli bis Dezember
2. Juli: Rose Bertin, französische Schneiderin, Hutmacherin und Modistin († 1813)
6. Juli: John Paul Jones, schottischer Pirat, Seeheld, Marinepionier und Freiheitskämpfer im Amerikanischen Unabhängigkeitskrieg († 1792)
10. Juli: Wilhelmine Karoline von Dänemark, Kurfürstin von Hessen († 1820)
15. Juli: Teresa Margareta Redi, italienische Karmelitin und katholische Heilige († 1770)
22. Juli: Ernst Ludwig Heim, deutscher Arzt († 1834)
22. Juli: Maria Katharina Prestel, deutsche Malerin, Kupferstecherin und Radiererin († 1794)
25. Juli: José da Costa e Silva, portugiesischer Architekt († 1819)
4. August: Henrich Becker, ostfriesischer Kunstmaler († 1819)
6. August: Johann Friedrich Alexander Thiele, sächsischer Maler und Radierer († 1803)
14. August: August von Sachsen-Gotha-Altenburg, deutscher Adeliger, Mäzen und Schöngeist († 1806)
21. August: Franz de Paula von Schrank, deutscher Jesuit, Botaniker und Insektenforscher († 1835)
22. August: Andreas Stütz, österreichischer Geologe und Mineraloge († 1806)
1. September: Heinrich Adolph Grimm, deutscher evangelischer Theologe und Orientalist († 1813)
6. September: Louis-Alexandre de Bourbon, prince de Lamballe, französischer Fürst († 1768)
11. September: Friedrich von Hessen-Kassel, Landgraf von Hessen-Rumpenheim († 1837)
17. September: Werner Friedrich Abraham von Arnim, preußischer Beamter († 1794)
29. September: Józef Wybicki, kaschubisch-polnischer Politiker und Schriftsteller († 1822)
30. September: Friedrich Justin Bertuch, deutscher Verleger und Mäzen († 1822)
6. Oktober: Jean François Reubell, französischer Politiker und Mitglied des Direktoriums († 1807)
19. Oktober: Johann Wilhelm Wendt, deutscher Baumeister, Maler und Silhouettenschneider († 1815)
20. Oktober: Robert Burton, US-amerikanischer Politiker († 1825)
31. Oktober: Johann Karl Wezel, deutscher Dichter, Schriftsteller und Pädagoge († 1819)
17. November: Carsten Anker, norwegischer Kaufmann und Politiker († 1824)
17. November: Franz Samuel Karpe, Philosoph und Hochschullehrer († 1806)
28. November: Franz Andreas Holly, böhmischer Komponist († 1783)
18. Dezember: Barthélemy Louis Joseph Schérer, französischer General und Kriegsminister von Frankreich († 1804)
2. Dezember: Giuseppe Quaglio, italienischer Maler, Bühnenbildner und Theaterarchitekt († 1828)
18. Dezember: Johann Christoph Schröther der Ältere, deutscher Orgelbauer († 1822)
22. Dezember: Carl Otto von Arnim, preußischer Landrat († 1798)
27. Dezember: Richard Luke Concanen, römisch-katholischer Bischof von New York († 1810)
31. Dezember: Gottfried August Bürger, deutscher Dichter († 1794)
Genaues Geburtsdatum unbekannt
Ahmad ibn 'Adschiba, Poet, Gelehrter und Wali aus Marokko, Sufi aus der Darqawiyya-Tariqa, einem Zweig der Schadhiliyya († 1809)
Ignacio de la Carrera, chilenischer Aristokrat und Politiker († 1819)
Iwan Chandoschkin, russischer Komponist († 1804)
Tomás de Figueroa, spanischer Offizier und Putschist in Chile († 1811)
Elisabetha Gaßner (Schwarze Lies), deutsche Diebin und Prostituierte († 1788)
Namiki Gohei I., japanischer Kabukischauspieler und -autor († 1808)
José de Rezabal y Ugarte, spanischer Richter und Kolonialverwalter, Gouverneur im Generalkapitanat Chile († 1800)
Shiba Kōkan, japanischer Maler († 1818)
Raynor Taylor, englischer Komponist, Organist und Musikpädagoge († 1825)
Augustin Zippe, böhmischer Rektor und Dekan des General-Seminars in Prag († 1816)
Gestorben
Januar bis April
2. Januar: Jean-Féry Rebel, französische Violinist und Komponist (* 1666)
16. Januar: Barthold Heinrich Brockes, deutscher Schriftsteller und Dichter (* 1680)
18. Januar: Antonio de Literes, spanischer Komponist und Cellist (* 1673)
25. Januar: Juan Antonio de Vizarrón y Eguiarreta, spanischer Bischof und Kolonialverwalter, Vizekönig von Neuspanien (* 1682)
27. Januar: Gottlieb Siegmund Corvinus, deutscher Dichter, Herausgeber und Jurist (* 1677)
22. Februar: Peter Conrad Monath, deutscher Verleger (* um 1683)
23. Februar: Johann Heinrich von Heucher, deutscher Arzt und Naturwissenschaftler (* 1677)
23. Februar: Johann Adolph Wedel, deutscher Mediziner (* 1675)
27. Februar: Johann Jacob von Wasmer, königlich-dänischer Vizekanzler (* 1671)
12. März: Samuel Crell, deutscher unitarischer Prediger, Theologe und Schriftsteller (* 1660)
12. März: Miwang Pholhane Sönam Tobgye, tibetischer Feldherr und Politiker, Herrscher von Tibet (* 1689)
14. März: Matthias Johann von der Schulenburg, preußischer Reichsgraf, Erbherr auf Emden und Feldmarschall im Dienste der Republik Venedig (* 1661)
16. März: Christian August, Fürst von Anhalt-Zerbst, preußischer Generalfeldmarschall und Vater Katharinas der Großen (* 1690)
19. März: Katharina Opalińska, Königin von Polen und Großfürstin von Litauen sowie Herzogin von Lothringen und Bar (* 1680)
21. März: Gabriel de Gabrieli, Schweizer fürstbischöflich Eichstättischer Hofbaudirektor (* 1671)
23. März: Claude Alexandre de Bonneval, französischer Abenteurer (* 1675)
2. April: Johann Jacob Dillen, deutscher Botaniker (* 1684)
3. April: Francesco Solimena, neapolitanischer Maler (* 1657)
9. April: Simon Fraser, 11. Lord Lovat, schottischer Clanführer (* um 1667)
9. April: Leopold I., Fürst von Anhalt-Dessau sowie preußischer Heerführer und Militärreformer (* 1676)
10. April: Johann Werner von Broich, Schöffe und Bürgermeister der Reichsstadt Aachen (* 1675)
14. April: Jean Frédéric Ostervald, Schweizer reformierter Theologe (* 1663)
22. April: Johann Michael Stumm, deutscher Orgelbauer (* 1683)
24. April: Johann Georg Fischer, deutscher Steinmetz und Baumeister (* 1673)
Mai bis August
6. Mai: Jacob-Sigisbert Adam, französischer Bildhauer (* 1670)
9. Mai: John Dalrymple, 2. Earl of Stair, schottischer Soldat und Diplomat (* 1673)
18. Mai: Bernardino Zendrini, venezianischer Wasserbauingenieur, Arzt, Astronom und Mathematiker (* 1679)
19. Mai: Johann Friedrich Crell, deutscher Anatom und Physiologe (* 1707)
21. Mai: Giovanni Baratta, italienischer Bildhauer (* 1670)
22. Mai: Heinrich XXIX., Graf Reuß zu Ebersdorf (* 1699)
24. Mai: Ernst August Charbonnier, deutscher Gartenkünstler vermutlich französischer Abstammung (* 1677)
28. Mai: Luc de Clapiers, Marquis de Vauvenargues, französischer Philosoph, Moralist und Schriftsteller (* 1715)
31. Mai: Heinrich Johann Friedrich Ostermann, russischer Diplomat und Staatsmann deutscher Herkunft (* 1687)
6. Juni: Jean-Baptiste Barrière, französischer Cellist und Komponist (* 1707)
12. Juni: Jakob Ernst von Liechtenstein-Kastelkorn, Bischof von Seckau, Fürstbischof von Olmütz und Fürsterzbischof von Salzburg (* 1690)
19. Juni: Jakob Benzelius, schwedischer lutherischer Theologe und Erzbischof von Uppsala (* 1683)
19. Juni: Alessandro Marcello, italienischer Dichter, Komponist und Philosoph (* 1673)
20. Juni: Nadir Schah, Schah von Persien und Begründer der Dynastie der Afschariden (* 1688)
23. Juni: Hedwig Maximiliane von Dyhrn, schlesische Adelige, Sternkreuzordensdame und Hofdame am kaiserlichen Hof in Wien (* 1699)
25. Juni: Bonaventura Stapf, Allgäuer Maler und Vergolder (* 1665)
2. Juli: Emmanuel-François-Joseph de Bavière, französischer Offizier und Politiker, Statthalter in Péronne (* 1695)
2. Juli: Joseph Marie de Boufflers, Pair von Frankreich (* 1706)
9. Juli: Giovanni Bononcini, italienischer Cellist und Komponist (* 1670)
10. Juli: Ogawa Haritsu, genannt Ritsuō, japanischer Künstler (* 1663)
12. Juli: Christian Heinrich von Watzdorf, sächsischer Hofbeamter (* 1698)
16. Juli: Giuseppe Maria Crespi, italienischer Maler und Radierer (* 1665)
24. Juli: Kaspar Ignaz von Künigl, Fürstbischof von Brixen (* 1671)
21. August: Johann Georg Beckhof, deutscher Jurist (* 1661)
24. August: Johann Georg Schröter, deutscher Orgelbauer (* 1683)
September bis Dezember
2. September: Philipp Johann von Strahlenberg, schwedischer Offizier, Kartograph, Geograph und Sprachwissenschaftler (* 1677)
9. September: Iwan Kusmitsch Korobow, russischer Architekt (* um 1700)
13. September: Johann Christoph Egedacher, Salzburger Orgelbauer (* 1666)
15. September: Anton Erhard Martinelli, österreichischer Architekt (* 1684)
15. September: Johann Gotthilf Ziegler, deutscher Komponist und Organist (* 1688)
27. September: Sigismund Andreas Cuno, deutscher Pädagoge und Heimatforscher (* 1675)
28. September: Philipp Ludwig von Sinzendorf, Bischof von Raab und Fürstbischof von Breslau (* 1699)
3. Oktober: Johann Grimm, Berner Maler (* 1675)
4. Oktober: Amaro Pargo, spanischer Korsar (* 1678)
5. Oktober: Paul Friedrich Opitz, deutscher Theologe und Orientalist (* 1684)
9. Oktober: David Brainerd, britisch-amerikanischer Missionar unter den nordamerikanischen Indianern (* 1718)
10. Oktober: John Potter, Erzbischof von Canterbury (* um 1674)
24. Oktober: Philipp Becker, deutscher Rechtswissenschaftler (* 1702)
25. Oktober: Ignaz Rohrbach, böhmisch-deutscher Bildhauer (* 1691)
10. November: Philipp Schwartz, Tabakhändler und Bürgermeister der Pfälzer Kolonie in Magdeburg (* um 1680)
12. November: Christine Luise von Oettingen-Oettingen, Herzogin zu Braunschweig und Lüneburg, Fürstin von Braunschweig-Wolfenbüttel sowie Fürstin von Blankenburg (* 1671)
14. November: Wigand Kahler, deutscher evangelischer Theologe und Mathematiker (* 1699)
17. November: Alain-René Lesage, französischer Schriftsteller (* 1668)
27. November: Guillem Mesquida i Munar, mallorquinischer Maler (* 1675)
28. November: Karl Leopold, Herzog zu Mecklenburg-Schwerin (* 1678)
November: Johann Jakob Keller, Basler Kunstschreiner und Bildhauer (* 1665)
6. Dezember: Johann Engelhard Steuber, deutscher lutherischer Theologe (* 1693)
15. Dezember: Anselm Reichlin von Meldegg, Fürstabt im Fürststift Kempten (* 1679)
19. Dezember: Johann Zacharias Platner, sächsischer Mediziner (* 1694)
26. Dezember: Christian Löber, deutscher evangelischer Geistlicher (* 1683)
28. Dezember: Gundacker von Althan, österreichischer General, Diplomat und Hofbaudirektor (* 1665)
Genaue Todesdatum unbekannt
Johann Heinrich Alverdes, deutscher Jurist (* um 1690)
Pierre de Gayette, preußischer Architekt französischer Herkunft (* 1688)
Isaac Lawson, schottischer Arzt und Mineraloge (* 1704)
Fevzi Mostarac, bosnischer Schriftsteller
Takeda Izumo I., japanischer Puppentheater-Leiter und Autor (* im 17. Jahrhundert)
Francesc Valls, spanischer Komponist und Kapellmeister (* 1665/1671)
Weblinks
|
Q7596
| 199.817811 |
4699476
|
https://de.wikipedia.org/wiki/UTC%2B2
|
UTC+2
|
UTC+2, in Europa die Osteuropäische Zeit (OEZ, engl. Eastern European Time, EET), ist eine Zonenzeit, die den Längenhalbkreis 30° Ost als Bezugsmeridian hat. Auf Uhren mit dieser Zonenzeit ist es zwei Stunden später als die koordinierte Weltzeit und eine Stunde später als die MEZ.
Die Mitteleuropäische Sommerzeit, die in deutschsprachigen Ländern von März bis Oktober gültig ist, entspricht der Standardzeit in der Zeitzone UTC+2, siehe auch: Sommerzeit #Mitteleuropäische Sommerzeit.
Geltungsbereich
Ganzjährig
in Europa (Osteuropäische Zeit):
in Afrika:
(östlicher Teil: Bas-Uele, Haut-Katanga, Haut-Lomami, Haut-Uele, Ituri, Kasaï, Kasaï-Central, Kasaï-Oriental, Lomami, Lualaba, Maniema, Nord-Kivu, Sankuru, Sud-Kivu, Tshopo, Tanganyika)
Normalzeit (Nördliche Hemisphäre)
(Osteuropäische Zeit)
(einschließlich)
(einschließlich)
:
Akrotiri und Dhekelia
Sommerzeit (Nördliche Hemisphäre)
(einschließlich Spitzbergen und Jan Mayen, aber ohne Bouvetinsel)
(ohne )
:
Normalzeit (Südliche Hemisphäre)
war der einzige afrikanische Staat der südlichen Hemisphäre, der eine Zeitumstellung eingeführt hatte. Im Südsommer (September bis April) galt zwischen 1994 und 2017 die vormalige Standardzeit UTC+2, im Südwinter (April bis September) hingegen die UTC+1. Diese Regelung galt für alle Regionen Namibias mit Ausnahme der Region Sambesi. Die Zeitumstellung in Namibia fand am ersten Sonntag im September beziehungsweise am ersten Sonntag im April statt, sodass wenige Wochen im Jahr Zeitgleichheit mit Mitteleuropa herrschte. Am 7. August 2017 wurde die Umstellung mit Wirkung zum 3. September 2017 abgeschafft und UTC+2 wieder, wie vor 1994, ganzjährig behalten.
Weblinks
Einzelnachweise
UTC22
cs:Časové pásmo#UTC+2 B, EET (East European Time)
|
Q6723
| 17,331.308716 |
2794350
|
https://de.wikipedia.org/wiki/Bato
|
Bato
|
Bato steht für:
Bato (Camarines Sur), Stadtgemeinde in Camarines Sur, Philippinen
Bato (Catanduanes), Stadtgemeinde in Catanduanes, Philippinen
Bato (Leyte), Stadtgemeinde in Leyte, Philippinen
Bato (Kultur), prähispanische Kultur in Chile
Bató ist der Familienname folgender Personen:
Jósef Bató (1888–1966), ungarischer Maler
Ludwig Yomtow Bató (1886–1974), österreichisch-israelischer Publizist
Siehe auch:
Batho
Batow
|
Q114917
| 176.709121 |
29491
|
https://de.wikipedia.org/wiki/Vientiane
|
Vientiane
|
Vientiane (deutsche Aussprache: ; laotisch: Vieng Chan, [] Thai ) ist die Hauptstadt der Demokratischen Volksrepublik Laos. Vientiane ist das wirtschaftliche, politische und kulturelle Zentrum des Landes. Offiziell hat die Stadt etwa 350.000 Einwohner, im gesamten Ballungsraum leben etwa 620.000 Menschen.
Vientiane ist die international gängige Schreibweise aus der französischen Kolonialzeit. Der laotische Name Vieng Chan bedeutet ursprünglich „Stadt des Sandelholzes“, wird heute aber von vielen Laoten als „Stadt des Mondes“ verstanden (vieng „Stadt“, chan „Sandelholz“ oder „Mond“). Der vollständige Name der Stadt lautet Nakon Luang Vieng Chan („Hauptstadt Vientiane“) zur Unterscheidung von der gleichnamigen Präfektur und von der Provinz.
Geographie
Die Stadt und das Umland liegen in einer Tiefebene auf einer Fläche von ungefähr 4000 Quadratkilometern. Vientiane erstreckt sich inmitten einer üppigen Landschaft über mehrere Kilometer am Ufer des Mekong, der die Landesgrenze zu Thailand bildet.
Seit 1994 sind beide Länder durch eine „Thailändisch-Laotische Freundschaftsbrücke“ verbunden, die hier als erste Brücke über den Unterlauf des Mekongs überhaupt erbaut wurde.
Klima
Vientiane befindet sich in der tropischen Klimazone mit einer deutlichen Regen- und Trockenzeit. Die Trockenzeit dauert von November bis März. Im April beginnt die Regenzeit, die etwa sieben Monate dauert. Vientiane ist üblicherweise das ganze Jahr durchgehend heiß bei hoher Luftfeuchtigkeit.
Geschichte
Eine Besiedlung lässt sich seit der Steinzeit feststellen. Gegründet im 13. Jahrhundert als Stadt im Reich Lan Xang, entwickelte sich Vientiane stetig neben der eigentlichen Hauptstadt Luang Prabang. 1563 schließlich wurde Vientiane zur neuen Hauptstadt. Im Zuge der birmanischen Expansionspolitik wurde Vientiane 1575 für sieben Jahre besetzt. Nach der Vertreibung der Birmanen bildeten sich für kurze Zeit zwei getrennte Reiche (Luang Prabang und Vientiane), die 1591 von König Nokeo Kumane wieder vereinigt wurden.
Lan Xang zerfiel infolge von Thronstreitigkeiten 1707 endgültig in drei Teile. Einer davon war das Königreich Vientiane. Nach der Zerstörung von Ayutthaya im Jahr 1767, der Hauptstadt des siamesischen Königreiches Ayutthaya, geriet auch Vientiane wieder in die Reichweite der Birmanen. Nachdem die Siamesen die birmanische Oberherrschaft wieder abgeschüttelt hatten, war das Königreich Vientiane als Vasallenstaat Teil des wiedererstarkten siamesischen Machtbereichs.
Anuvong, König von Vientiane, rebellierte im Jahr 1826 gegen die siamesische Oberherrschaft und zog in Richtung Zentralthailand. Er wurde jedoch von den siamesischen Truppen besiegt, nach Bangkok gebracht und dort öffentlich hingerichtet. Vientiane wurde (mit Ausnahme der buddhistischen Tempel) dem Erdboden gleichgemacht und ein Großteil der Bevölkerung des heutigen Zentral-Laos (über 100.000 Menschen) auf die andere Seite des Mekongs verschleppt. Die Nachkommen der Verschleppten bilden heute die Ethnie der Lao Wiang in Thailand. Noch vierzig Jahre später fand eine Gruppe französischer Forscher an der Stelle Vientianes nur Dschungel und Ruinen vor.
Durch Abtretung Siams wurde Vientiane 1887 französisches Protektorat und ein Teil von Französisch-Indochina. Es entwickelte sich jedoch kaum, da die Franzosen ihre Interessen auf Vietnam konzentrierten. 1940, nachdem Deutschland Frankreich im Zweiten Weltkrieg militärisch besiegt hatte, nahmen die Japaner Vientiane und ganz Laos in ihre Gewalt, ließen jedoch offiziell die französische Kolonialverwaltung im Amt.
Am 1. September 1945, nachdem in Asien der Zweite Weltkrieg beendet worden war, erklärte sich das Königreich Laos gegen den Widerstand Frankreichs für unabhängig. Nach der Niederlage der US-Amerikaner in Südostasien übernahmen die kommunistischen Pathet Lao am 2. Dezember 1975 die Macht in Vientiane, ohne größeres Blutvergießen anzurichten.
Wirtschaft, Infrastruktur und Bildung
Mehr als 25 % aller mittelständischen Unternehmen des Landes sind in Vientiane beheimatet. Die Industrie beschränkt sich auf eine Brauerei (Beerlao), einen Pepsi-Abfüllbetrieb, die Produktion von Reinigungsmitteln, eine Zigarettenfabrik sowie diverse Holzverarbeitungsbetriebe. 20 % des Exports gehen direkt nach Thailand: hauptsächlich Textilien, Holz und Holzprodukte, aber auch Strom. Am Stadtrand befindet sich der internationale Flughafen.
Über die Mekong-Brücke stellt die Bahnstrecke Nong Khai–Vientiane eine Verbindung nach Thailand her.
Im Dezember 2021 wurde die Bahnstrecke Boten–Vientiane nach China eröffnet.
Derzeit existiert in Laos kein einsatzfähiger staatlicher Rettungsdienst; in Vientiane wird diese Aufgabe von Freiwilligen einer privaten Stiftung übernommen.
Hauptstadt und Umland sind die größten Tabak-, Reis- und Zuckerrohrproduzenten des Landes. Zur besseren Wirtschaftsförderung in Vientiane soll nach den 450-Jahr-Feierlichkeiten eine Hauptstadt-Handelskammer gegründet werden.
In Vientiane befindet sich der größte Teil der einzigen Universität des Landes, die National University of Laos (NUOL); außerdem das bei seiner Errichtung höchste Gebäude des Landes, der 14-stöckige Don Chan Palace.
In einer Rangliste der Städte nach ihrer Lebensqualität belegte Vientiane im Jahre 2018 den 170. Platz unter 231 untersuchten Städten weltweit.
Sehenswürdigkeiten
Viele gut erhaltene französische Kolonialbauten und das Patuxai („Siegestor“; französisch Monument des Morts)
Pha That Luang (königlicher Stupa), das Wahrzeichen des Landes aus dem 16. Jahrhundert, stellt die Vereinigung von Buddhismus und laotischer Kunst dar
Lao Revolutionary Museum, umfangreiche Sammlungen zur Geschichte des Landes
Wat Ho Prakeo, ein früherer königlicher Tempel
Wat Si Saket, einer der ältesten Tempel der Stadt
Nachtmarkt
Nationalstadion von Laos
Statue des Königs Anuvong am Mekong
Buddha Park, 1958 erbaut
Söhne und Töchter der Stadt
No Keo Kuman (1571–1596), König von Lan Xang von 1571 und 1572 sowie von 1590 bis 1596
Sayakumane (1710–1791), König von Champasak von 1738 bis 1791
Ong Long († 1767), König des laotischen Königreichs Vientiane von 1730 bis 1767
Bunsan († 1781), König des laotischen Reiches Vientiane von 1767 bis 1781
Nanthesan († 1795), König des laotischen Reiches Vientiane von 1781 bis 1795
Anuvong (1767–1829), König des laotischen Königreiches Vientiane von 1805 bis 1828
Sonthesan Sua (* 1797; † 19. Jh.), Kriegsminister und hoher Militär
Ngaow (* 1802; † 19. Jh.), General der Armee des laotischen Königreichs Vientiane
Yoh († um 1828), Kronprinz des Königreichs Vientiane und Maha Uparat (Vizekönig) des Königreichs Champasak
Khi Menh († nach 1840), Maha Uparat (Vizekönig) des Königreichs Vientiane
Hoàng Vĩnh Lộc (1925–1981), südvietnamesischer Regisseur, Filmproduzent und Schauspieler
Khankham Malaythong (* 1981), US-amerikanischer Badmintonspieler laotischer Herkunft
Khampheng Sayavutthi (* 1986), laotischer Fußballspieler
Sengvilay Chanthasili (* 1987), laotischer Fußballspieler
Lamnao Singto (* 1988), laotischer Fußballspieler
Kanlaya Sysomvang (* 1990), laotischer Fußballspieler
Phouthone Innalay (* 1992), laotischer Fußballspieler
Thinnakone Vongsa (* 1992), laotischer Fußballspieler
Xaysa Anousone (* 1994), laotischer Leichtathlet
Chanthaphone Waenvongsoth (* 1994), laotischer Fußballspieler
Thipphachanth Inthavong (* 1996), laotischer Fußballspieler
Phithack Kongmathilath (* 1996), laotischer Fußballspieler
Vanna Bounlovongsa (* 1998), laotischer Fußballspieler
Lathasay Lounlasy (* 1998), laotischer Fußballspieler
Kiengthavesak Xayxanapanya (* 1999), laotischer Fußballspieler
Khonesavanh Keonuchanh (* 2004), laotischer Fußballspieler
Lavi Somthongkham (* 2004), laotischer Fußballspieler
Literatur
Marc Askew, Colin Long, William Logan: Vientiane. Transformations of a Lao Landscape. Routledge 2006, ISBN 978-0-415-33141-8
Dokumentarfilm
1981: Gesichter eines Landes (DEFA-Kurzdokumentarfilm, Regie: Uwe Belz)
Weblinks
Einzelnachweise
Hauptstadt in Asien
Mekong
Hauptstadt einer laotischen Provinz oder Präfektur
|
Q9326
| 286.930193 |
3391
|
https://de.wikipedia.org/wiki/Milch
|
Milch
|
Milch ist eine weiße, trübe Emulsion bzw. kolloidale Dispersion von Proteinen, Milchzucker und Milchfett in Wasser. Der Mensch nutzt die Milch vieler domestizierter Tiere als Nahrungsmittel, insbesondere als Getränk. Gebildet wird sie in den Milchdrüsen von Säugetieren, die damit ihre Neugeborenen nähren. In jüngerer Zeit gibt es Versuche, Milch nicht durch Melken, sondern ohne Einsatz von Tieren auf molekularer Ebene herzustellen (Kulturmilch).
Definition und rechtliche Grundlage
Deutschland
In Deutschland ist Milch „das durch ein- oder mehrmaliges Melken gewonnene Erzeugnis der normalen Eutersekretion von zur Milcherzeugung gehaltenen Tierarten“ ( Milch- und Margarinegesetz). Wird Milch von anderen Säugetieren als Kühen zur Herstellung verwendet, muss diese entsprechend gekennzeichnet werden. Dort gilt das Lebensmittel- und Futtermittelgesetzbuch (LFGB) sowie eine Milcherzeugnisverordnung.
Schweiz
In der Schweiz ist Milch „das ganze Gemelk eines oder mehrerer Tiere der Säugetierarten … die regelmässig gemolken werden.“ ( Abs. 1 VLtH), wobei als „Säugetierarten“ ausschließlich folgende in Frage kommen: „domestizierte Huftiere der zoologischen Familien der Hornträger (Bovidae), Hirsche (Cervidae), Kamelartige (Camelidae), Schweine (Suidae) und Pferde (Equidae)“ ( Abs. 1 VLtH).
Im Handel mit Milch ist die Tierart anzugeben, es sei denn, es handelt sich um Kuhmilch ( Abs. 2 VLtH).
Die bisherige Regelung, dass die gesamte Milchmenge (Gemelk) einer Milchkuh gemolken werden muss, ist im Juli 2020 entfallen, so dass auch Milch aus Mutterkuhhaltung legal vermarktet werden kann.
Europäische Union
Im Handel innerhalb der Europäischen Union darf allein die Milch von Kühen als „Milch“ bezeichnet werden. Bei Milch anderer Säugetiere muss zusätzlich die Tierart angegeben werden (beispielsweise Ziegenmilch, Schafmilch, Pferdemilch bzw. Stutenmilch, Eselsmilch, Yakmilch, Kamelmilch, Büffelmilch). Dementsprechend werden Soja-Getränke im Handel auch nicht als „Sojamilch“ ausgewiesen.
In der EU bestehen zahlreiche Verordnungen im Zusammenhang mit Milch, wie z. B. die Milchverordnung, die Milch-Güteverordnung sowie die EU-Lebensmittelhygiene-Verordnung.
USA
In den USA definierte die FDA 1973 Milch als „das praktisch kolostrumfreie Milchsekret, das durch komplettes Melken einer oder mehrerer gesunder Kühe gewonnen wird“.
Etymologie, Wortverwendung
Das Substantiv Milch, ebenso wie Molke und das zugehörige Verb melken, sind germanischsprachiges Gemeingut (schwed. mjölk, dän. mælk, niederl. melk, engl. milk, isländ. mjólk usw.). Althochdeutsch miluh (8. Jh.) wandelt sich zu mittelhochdeutsch milich, milch. Die fachsprachliche Mehrzahlbildung lautet Milche oder auch Milchen.
„Milch“ ist allgemein der Name für eine Nährflüssigkeit, die bei Säugetieren (Mammalia) von weiblichen Individuen nach einer Schwangerschaft durch Drüsen der Milchleisten über Mamillen bzw. Zitzen an Brüsten (Mammae) oder Eutern dem saugenden Nachwuchs (Säugling) als (zunächst einziges) Nahrungsmittel zur Verfügung gestellt wird.
Im Deutschen wird der Ausdruck „Milch“ (lateinisch lac) vornehmlich als ein Synonym für Kuhmilch (lateinisch lac bovinum) gebraucht. Im weiteren Sinn ist die Milch anderer Säugetiere gemeint. Die Milch des Menschen kann deutlich distinguierend als Muttermilch bezeichnet werden.
Jungfrauenmilch, lateinisch lac virginis ist eine irreführende Begriffswahl aus der Alchemie.
Kakaomilch oder Bananenmilch sind Getränke, die auf Milch basieren.
Gewinnung
Die Entwicklung der Milchwirtschaft begann im Zuge der so genannten neolithischen Revolution mit der Domestikation von Ziegen und Schafen, etwa vor 10.000 Jahren, in Westasien und andernorts, sowie mit der Domestikation von Auerochsen (Ur) vor etwa 8.500 Jahren vor allem in Südosteuropa.
Für die Nahrungsmittelindustrie Europas sind Milchkühe der Hauptlieferant, in den Bergen, ertragsschwachen Gegenden und in früheren Zeiten auch das Schaf (Schafsmilch) und die Ziege (Ziegenmilch). Für Trinkmilch melkt der Mensch auch Hauspferde (Stutenmilch) und Hausesel (Eselsmilch), Yaks in West-China/Tibet, in den Anden Südamerikas teilweise auch Lamas (selten). Hoch im Norden wird auch die Milch der Rentiere genutzt; in Asien und Italien zur Käseproduktion (Mozzarella di Bufala) werden Wasserbüffel gemolken und Büffelmilch gewonnen; im arabischen Raum wird, neben Ziegen- und Schafmilch, Milch von Kamelen konsumiert. Mäusemilch wird ausschließlich zu Versuchszwecken gewonnen.
In manchen Kulturen, welche meist aus Hirten und Nomaden hervorgegangen sind, steht die Milchtierhaltung, die Milch und ihre Produkte (etwa Käse, Joghurt) im Mittelpunkt der Ernährung und damit auch des Lebens. Ähnlich ist dies auch in der westlichen Welt. Andererseits gibt es auch Völker, die außer Muttermilch gar keine Milch verwenden.
Der Wasserverbrauch liegt bei rund 738 Liter pro Liter Milch.
Verarbeitung
Der als Veredelung bezeichnete Herstellungsprozess von zahlreichen Milchprodukten kann als kontrollierter „Verderb“ aufgefasst werden, da hier vor allem der originären Milchflora zugehörende Milchsäurebakterien wirken. Gleiches gilt auch für die Zugabe von Lab, was bewirkt, dass die Milch – ähnlich wie die gesäuerte – koaguliert.
Die Verarbeitungsstätten nennt man Molkereien (früher teilweise auch Meiereien) bzw. Käsereien, typische Produkte sind Sahne, Butter und Buttermilch, Käse, Sauermilch.
Aus Milch gewonnene Produkte für die Weiterverarbeitung sind etwa Milchpulver, Molkepulver (Speiseeisproduktion, Zusätze zu anderen Lebensmitteln), Lactose (Milchzucker) und Ähnliches in Lebensmittelherstellung, Pharmazie, Kosmetika usw., Kasein als Klebersubstanz in zahlreichen Branchen.
Die Nahrungsmittelindustrie verarbeitet die Milch in zahlreichen Formen und zu vielfältigen Produkten (Produktgruppe: Milchprodukte), angefangen von Butter, Rahm, der Verkäsung bis hin zu Backwaren- oder Speiseeisherstellung, sowie Derivaten, vom Einsatz in der Fleischverarbeitung oder in der Fertignahrungsherstellung bis hin zur Pharmazie und Kosmetika (Milchrohstoffe).
Wirtschaftliche Bedeutung
Die größten Produzenten
Im Jahr 2021 wurden laut Ernährungs- und Landwirtschaftsorganisation der Vereinten Nationen FAO weltweit 743.656.589 Tonnen Kuhmilch produziert. Folgende Tabelle gibt eine Übersicht über die 20 größten Produzenten von Kuhmilch weltweit, die insgesamt 75,2 % der Gesamtmenge produzierten. Außerdem befinden sich in dieser Tabelle die Zahlen für die Schweiz und Österreich zum Vergleich:
In Europa wurden 2021 rund 227 Mio. Tonnen Kuhmilch produziert. Die größten Produzenten waren Deutschland, Frankreich und das Vereinigte Königreich.
Der größte einzelne Milcherzeuger der Welt war der saudi-arabische Lebensmittelhersteller Almarai, wobei die zehn größten Firmen unter den Milchproduzenten 1,1 % der weltweiten Milchmenge produzierten.
Industrialisierung der Milchproduktion und die Folgen für die Milchkühe
Für die Milchproduktion gezüchtete Kühe geben pro Tag rund 50 Liter Milch. Die Urkuh hingegen gab mit bis zu fünf Litern knapp 10 Prozent davon. Die Milchleistung ist von jährlich 500–600 kg auf heute 6.000–10.000 kg je Kuh angestiegen.
Zurückzuführen ist diese Steigerung auf Zucht und Forschung, um die Milchleistung permanent zu optimieren. Aus dieser Zucht gingen reine Milchkuh-Zuchtlinien hervor. Die Ernährung spielt ebenfalls eine Rolle. In der Natur fressen Kühe Gräser und Klee. Heutzutage erhalten Kühe in der Milchproduktion überwiegend Kraftfutter. Teilweise wird mit Maissilage, Getreide oder Soja zugefüttert, zunehmend aber auch mit tierischen Futtermitteln aus Magermilch- und Molkepulver und Fetten. In der Europäischen Union wurde die Zufütterung mit Tiermehl nach dem BSE-Skandal im Jahr 1999 verboten.
Auch das Gewicht einer durchschnittlichen Kuh in der modernen Milchproduktion ist durch Zuchterfolge und Futtermaßnahmen um etwa 400 kg gesteigert worden.
Pro-Kopf-Verbrauch
2013 waren die Spitzenreiter beim Pro-Kopf-Verbrauch bei der Vollmilch Kasachstan mit 258,44 kg, bei der Butter Neuseeland mit 9,25 kg und beim Käse Island mit 30,82 kg pro Kopf und Jahr.
In der Schweiz ist zwischen 2004 und 2015 der Pro-Kopf-Konsum von Milch um knapp 22 Kilogramm oder mehr als ein Viertel gesunken. 2017 sank der Pro-Kopf-Konsum weiter auf 51,8 Kilogramm. Von 2013 bis 2018 hat der Pro-Kopf-Verbrauch um insgesamt 6,9 % abgenommen. Auch in Deutschland und Holland wird immer weniger Milch getrunken.
Eigenschaften
Die Einteilung in Handelsklassen erfolgt in Deutschland durch die Milch-Güteverordnung. Die Kriterien umfassen die Gesamtkeimzahl (niedrige Werte sprechen für Betriebshygiene und gute Tiergesundheit), Eiweiß- und Fettgehalt, Gefrierpunkt (Abweichungen deuten auf Streckung mit Wasser) und Hemmstoffe wie Antibiotika, welche die Weiterverarbeitung der Milch zu Joghurt oder Käse behindern und zum Lieferstopp für den Landwirt führen.
Der Energiegehalt der verdaubaren Bestandteile frischer Vollmilch beträgt 272 kJ (65 kcal) pro 100 g.
Die Dichte von Kuhmilch ist von der Temperatur abhängig; sie beträgt für homogenisierte und pasteurisierte, 3,5 % Fett enthaltende frische Vollmilch bei einer Temperatur von 20 °C etwa 1,032 g/cm³.
Die normale Milchfarbe ist cremeweiß. Sie entsteht durch die Streuung und Absorption des Lichts durch die Fettkügelchen und das Casein. Je nach Gehalt an Fett und Karotinoiden kann die Farbe ins Gelbliche gehen. Durch die Homogenisierung wird die Milch „weißer“, da die Fettkügelchen einheitlicher sind und das Licht stärker streuen. Entrahmte Milch erscheint durch den Wegfall der Karotinoide bläulich.
Zusammensetzung
In der Milch sind Kohlenhydrate, Eiweiße, Vitamine und Spurenelemente im Wasser gelöst, Milchfett im Wasser emulgiert. Anteile der einzelnen Inhaltsstoffe sind jedoch von Tierart zu Tierart unterschiedlich. Bei Tierarten, die einen sehr energieintensiven Stoffwechsel betreiben, ist die Milch besonders reich an Fetten, Proteinen und Kohlenhydraten. Dazu gehört z. B. die Milch von Walen und Eisbären. Innerhalb einer Art haben auch Fütterung, Haltung, Laktationszeit sowie Gesundheitszustand und Alter der Tiere Einfluss auf die Zusammensetzung der Milch. So führt z. B. eine graslandbasierte Fütterung zu einer Steigerung der mehrfach ungesättigten Fettsäuren und es entsteht ein vorteilhaftes Omega-6-zu-Omega-3-Verhältnis.
Die häufigsten Proteine, die etwa 80 % der Gesamtproteinmenge ausmachen, sind die Caseine. Die übrigen Proteine werden auch als Molkenproteine zusammengefasst. Unter der Bezeichnung Molkenproteine fasst man beta-Lactoglobulin, alpha-Lactalbumin, Serumalbumin, Immunglobulin und Proteosepepton zusammen. Die beim längeren Kochen von Milch zu beobachtende Entwicklung einer Haut an der Oberfläche wird durch die hitzeinduzierte Denaturierung von Albumin verursacht.
Das wichtigste Kohlenhydrat in der Milch ist Lactose (4,6 % in Kuhmilch), daneben sind Galactose, Glucose und Spuren anderer Kohlenhydrate enthalten. Der pH-Wert von Milch schwankt zwischen 6,7 für frische Milch bis etwa 4,5 für saure Milch.
Fettgehalt
Der natürliche Fettgehalt von Kuhmilch liegt bei ca. 4,2 %. Zur Einstellung des Fettgehalts wird die Milch zunächst in einer von Wilhelm Lefeldt für diesen Zweck entwickelten Milchzentrifuge (auch Separator genannt) in Rahm, Magermilch und Nichtmilchbestandteile getrennt. Durch Zentrifugal- und Zentripetalkräfte ordnen sich diese drei Komponenten mit steigender Dichte wie folgt von innen nach außen an: Rahm (innen; Dichte von reinem Milchfett: 0,93 kg/dm³), Magermilch (mittig; Dichte 1,035–1,038 kg/dm³), Nichtmilchbestandteile (außen durch die höchste Dichte). Die Nichtmilchbestandteile werden außen im Separator als Zentrifugenschlamm gesammelt und nach einer bestimmten Zeit bei einer Teilentleerung der Trommel entfernt. Anschließend kann der Fettgehalt der Magermilch durch Hinzufügen von Rahm beliebig eingestellt werden. Die Bestimmung des Fettgehalts kann nach Weibull-Stoldt, Röse-Gottlieb oder Gerber-Schnelltest erfolgen. In Deutschland sind die Verfahren als Paragraph-64-Methoden in der amtlichen Sammlung von Untersuchungsverfahren definiert.
Sorten
Bezeichnungen wie Landmilch mit z. B. 3,8 % Fettgehalt, Heumilch usw. sind keine geregelten Bezeichnungen. Milcherzeugnisse oder milcherzeugende Betriebe werden auch häufig nach der Region benannt, aus der sie hauptsächlich stammen, beispielsweise Gmundner Milch oder Berchtesgadener Milch.
Ab-Hof-Milch ist Rohmilch, die Verbraucher direkt beim Milchviehbetrieb erhalten.
Bei Lactosefreier Milch ist der Fettgehalt nicht normiert, bei ihrer Herstellung wird der Milchzucker nicht entfernt, sondern durch Zugabe von Lactase enzymatisch in Glucose und Galactose gespalten (siehe Unverträglichkeit).
In der landwirtschaftlichen Erzeugung spricht man von fettkorrigierter Milch (FCM, ), wenn diese 4 Prozent Fett aufweist.
Haltbarkeit
Sowohl die frische Milch als auch aufkonzentrierte Milchprodukte wie Kondensmilch oder Kaffeesahne werden durch Erhitzen haltbar gemacht. Obwohl Sauermilchprodukte keiner Haltbarmachung bedürfen, werden auch diese meist aus pasteurisierter Milch hergestellt, um das Wachstum von unerwünschten Bakterienstämmen und Hefen zu unterdrücken.
Verschiedene Verfahren der Wärmebehandlung:
Mit Pasteurisierung ist heute meist die Kurzzeiterhitzung gemeint. Übliche Varianten:
Dauererhitzung: Die Milch wird für 15 bis 30 Minuten auf 62 °C bis 65 °C erhitzt. Wird heute selten angewandt.
Kurzzeiterhitzung: Die Milch wird für 15 bis 30 Sekunden auf 72 °C bis 75 °C erhitzt; Haltbarkeit bei Kühllagerung maximal 10 Tage. Die Kurzzeiterhitzung war über lange Zeit das Standard-Verfahren zur Pasteurisierung von Milch. Seit der Einführung der ESL-Milch wird so behandelte Milch im Handel als "traditionell hergestellte Frischmilch" bezeichnet.
Hocherhitzung: Die Milch wird für wenige Sekunden auf 85 °C bis 127 °C erhitzt, bis das Enzym Peroxidase nicht mehr nachweisbar ist. Dieses Verfahren wird heute kaum noch angewandt.
Hochpasteurisierung für ESL-Milch (englisch extended shelf life, ‚längere Haltbarkeit im Regal‘): Die Milch wird für zwei Sekunden auf 127 °C erhitzt und dann sofort auf 90 °C abgekühlt. Nach einigen Sekunden bei 90 °C wird die Milch auf Lagertemperatur gekühlt; bei 7 °C etwa 20 Tage haltbar.
Mikrofiltration: führt zusammen mit klassischer Pasteurisierung ebenfalls zu ESL-Milch.
Ultrahocherhitzung (UHT-Milch, H-Milch): Die Milch wird zwei bis acht Sekunden auf mindestens 135 °C erhitzt; ungeöffnet ist die H-Milch bei Zimmertemperatur mindestens drei Monate haltbar.
Sterilisierung (Sterilmilch): Durch Erhitzen auf 110 °C bis 120 °C für 20 bis 30 Minuten wird die Milch sterilisiert. Diese Milch ist bei Zimmertemperatur mindestens sechs Monate haltbar.
Die Haltbarkeit bezieht sich immer auf die ungeöffnete, von der Molkerei abgefüllte Milchpackung. Nach der erstmaligen Verwendung ist auch haltbare Milch im Kühlschrank aufzubewahren und sollte innerhalb weniger Tage verbraucht werden. Je nach Kühlschranktemperatur kann die Haltbarkeit auch im geöffneten Zustand deutlich verlängert werden. Eine Absenkung der Kühlschranktemperatur von 7 °C auf 5 °C kann die mikrobielle Stabilität zusätzlich um einige Tage verlängern.
Die Effekte der Verfahren zur Haltbarmachung auf den Vitamingehalt der Milch sind unterschiedlich: Studien fanden nach Pasteurisation reduzierte Gehalte an Vitamin B1, B12, E und Folsäure. Der Gehalt an Vitamin B6 blieb unverändert; bei Vitamin A zeigte sich eine Steigerung des Gehalts nach Pasteurisation.
Soweit Vitaminverluste eintreten, liegen diese nach Pasteurisation bei weniger als 10 %. Der Vitaminverlust durch die Herstellung von ESL-Milch liegt bei durchschnittlich 10 %. Die Ultrahocherhitzung hat einen Verlust von etwa 20 % des Vitamin B12 zur Folge; die Verluste bei Vitamin B1, C und Folsäure belaufen sich auf 10 %. Lagerungsbedingt können sich bei Vitamin B1 und B6 Verluste einstellen. Das Ausmaß hängt von der Lagertemperatur und der verwendeten Erhitzungstechnik ab (direkt mittels Dampfinjektion oder indirekt), bei direkt erhitzter H-Milch oder ESL-Milch zusätzlich davon, wie gründlich die Milch anschließend entgast wurde. Sterilisierung bedeutet den höchsten Vitaminverlust, je nach Vitamin und Lagerdauer 20–100 %. Der Vitaminverlust durch einfaches Abkochen von Rohmilch liegt bei 10–30 %.
Eine andere Konservierungsart der Milch ist die energieintensive Trocknung zu Milchpulver oder teilweise Entziehung des Wassers (Kondensmilch). Milchpulver finden etwa Verwendung in der Schokoladenindustrie, bei der Herstellung von Säuglingsnahrung, in der parenteralen Ernährung oder als Aufzuchtfutter für Kälber.
Bei Rohmilch oder Milch, die lediglich einem thermischen Behandlungsschritt unterzogen worden ist, sammelt sich das Milchfett nach einiger Zeit an der Oberfläche an und bildet eine Rahmschicht. Durch die Homogenisierung wird dies verhindert, indem die Größe der Fetttröpfchen auf unter 1 µm Durchmesser reduziert wird und damit die Aufrahmung aus physikalischen Gründen nur über einen sehr langen Zeitraum stattfindet.
Homogenisierung
Ziel der Homogenisierung ist es, den mittleren Durchmesser der in der Milch vorhandenen Fettkügelchen (mittlerer Durchmesser der nativen Globule 10 bis 30 µm) unter hohem Druck (150 bis 300 bar) stark zu reduzieren (mittlerer Tropfendurchmesser 1 bis 2 µm), damit die Milch nicht aufrahmt und wegen der vergrößerten Gesamtoberfläche leichter verdaut werden kann. Die vergrößerte Gesamtoberfläche sorgt auch für einen anderen Geschmack. Industriell geschieht diese „Zerkleinerung“ der Fetttröpfchen in großem Maßstab. Dazu wird die Milch unter hohem Druck auf eine Metallplatte gespritzt. Im Homogenisator wirksame Kräfte sind Scher-/Dehnkräfte, Prallströmungen, aber hauptsächlich Kavitation. Physikalisch gesehen kann zwar eine so behandelte Milch immer noch aufrahmen, allerdings steigt die für eine sichtbare Aufrahmung benötigte Zeit sehr stark an, so dass man über die Produktlebensdauer vereinfacht von einer „Aufrahmungsstabilität“ spricht. Die Homogenisierung allein führt allerdings nicht dazu, dass die Milch aus mikrobieller Sicht länger haltbar wird.
Milchersatz
Milchersatz oder Milchersatzprodukte sind Nahrungsmittel, die geschmacklich oder optisch sowie vom Fett- oder Eiweißgehalt her Milch (oder Milcherzeugnissen) ähneln, ohne aus dieser hergestellt zu sein. Diese werden in der Regel aus pflanzlichen Produkten gewonnen (Pflanzliche Milch), etwa Getreide- und Sojamilch.
Gesundheitliche Aspekte des Milchkonsums
Knochengesundheit
Die Nurses’ Health Study zeigte, dass erhöhter Milchkonsum allenfalls tendenziell Knochenbrüchen vorbeugt. Auch lässt sich das Calcium aus der Milch isoliert nicht resorbieren, es wird dazu Vitamin D benötigt, das nicht in ausreichendem Maße in der Milch enthalten ist.
Eine im Jahr 2005 veröffentlichte Metaanalyse sechs prospektiv untersuchter Kohorten fand, dass geringer Milchkonsum (weniger als ein Glas täglich) mit keinem signifikanten Anstieg des Frakturrisikos assoziiert war.
Eine Übersichtsdarstellung aus dem Jahr 2020 kommt zu dem Schluss, dass Milchkonsum die Wahrscheinlichkeit von Knochenbrüchen nicht verringert.
Herz-Kreislauf-Erkrankungen
2018 kam eine Kohortenstudie zu dem Schluss, dass Milchkonsum (bei Milch und Joghurt) sich positiv auf das verringerte Aufkommen von Herz-Kreislauf-Erkrankungen auswirkt. Keine Signifikanz wurde hingegen beim Konsum von Käse gefunden. Tendenziell negativ wirkte sich Butter aus, dieses Ergebnis war jedoch nicht signifikant. Die Studie umfasste 21 Länder, klammerte bei der genannten Analyse aber Afrika und Südost-Asien aus, da in diesen Regionen kaum Milch konsumiert wurde und kaum Herz-Kreislauferkrankungen auftraten. Das mittlere Alter der Teilnehmer war 50 Jahre, die Nachverfolgung betrug 9 Jahre. Die Höhe des Milchkonsums wurde nur einmalig zu Beginn der Studie erfasst.
Eine Übersichtsdarstellung aus dem Jahr 2020 kommt zu dem Schluss, dass der direkte Zusammenhang des Milchkonsums mit Herz-Kreislauferkrankungen unklar sei. Als Alternative zum Konsum von rotem Fleisch könne Milch das Risiko für Herz-Kreislauferkrankungen zwar senken, im Vergleich zum Konsum von pflanzlichen Proteinquellen jedoch erhöhen.
Allergien
Das Bundesinstitut für Risikobewertung (BfR) sieht in Kuhmilch eines der „wichtigsten Allergie auslösenden Lebensmittel im Kindesalter“ (neben Hühnerei, Fisch, Soja, Weizen und Erdnüssen/Nüssen). Bei Vorliegen einer familiären Neigung (Atopie) könne es infolge einer Nahrungsmittelallergie zu Neurodermitis, Heuschnupfen und Asthma bronchiale kommen. Unter anderem stelle Kuhmilch auch für Erwachsene ein wichtiges Nahrungsmittelallergen dar. Allergische Reaktionen auf Hühnerei und Kuhmilch verlören sich allerdings häufig in den ersten Lebensjahren. Das Institut empfiehlt, unabhängig von einer möglichen erblichen Disposition, mindestens während der ersten 4–6 Lebensmonate zu stillen und keine Kuhmilch (oder andere Beikost) zu geben. Liegt eine Allergie gegen die Molkenproteine α-Lactalbumin oder β-Lactoglobulin vor, kann Hitzebehandlung helfen, die Milch für den Allergiker verträglich zu machen.
Arzneimittelrückstände
Milch kann von Rückständen pharmazeutischer Wirkstoffe betroffen sein. Da Tierarzneimittel in der Tierhaltung erlaubt sind, müssen Wartezeiten eingehalten werden, damit die Tiere den Großteil wieder ausscheiden, bevor ihre Produkte zum Verbraucher gelangen. Zum Schutz des Verbrauchers vor Nebenwirkungen (wie das Hervorrufen von Krebs oder Erbgutschädigungen) gelten Rückstands-Höchstmengen. Die produzierte Milch wird stichprobenartig auf bestimmte Rückstände untersucht.
In Deutschland wird je 15.000 Tonnen Milch eine Probe entnommen; für das Jahr 2005 ergaben sich so 1.834 Proben. 2005 musste die Milch in den Mitgliedstaaten der EU auf mindestens 45 Stoffe untersucht werden. In Deutschland geht man über diese Vorgabe der EU-Kommission jedoch deutlich hinaus: im Jahr 2004 wurde hier auf 351 Stoffe getestet. In den Jahren zwischen 1998 und 2003 wiesen durchschnittlich 0,1 Prozent der in Deutschland untersuchten Milchproben Rückstände auf, die unzulässig waren oder die eine definierte Höchstmenge überschritten. Die Laboratorien der Bundesländer fanden vor allem das in der Tierhaltung verbotene Antibiotikum Chloramphenicol sowie Phenylbutazon, ein nicht zugelassenes, entzündungshemmendes Mittel. In Deutschland macht das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) für jedes Bundesland konkrete Vorgaben über die Zahl der zu untersuchenden Tiere oder die tierischen Erzeugnisse, die zu untersuchenden Stoffe, die anzuwendende Methodik und die Probenahme. Bei Betrieben, die im Verdacht stehen, dass Tiere mit verbotenen Stoffen behandelt werden oder dass Tierarzneimittel nicht fachgerecht angewendet werden, führen die Behörden für Lebensmittelüberwachung gezielte Proben durch.
Diabetes
Mitte der 1980er Jahre deuteten epidemiologische Daten auf einen Zusammenhang zwischen dem regionalen Kuhmilchverbrauch und dem Auftreten von Typ-1-Diabetes hin: In Japan kamen Mitte der 1980er-Jahre auf 100.000 Einwohner weniger als zwei Kinder, die jährlich neu an Typ-1-Diabetes erkrankten (damaliger Pro-Kopf-Verbrauch: 38 Liter pro Jahr). In Finnland waren es 29 Kinder auf 100.000 Einwohner (damaliger Pro-Kopf-Verbrauch: 229 Liter pro Jahr). Finnische und kanadische Wissenschaftler fanden 1992 in den Blutproben mehrerer hundert Kinder, die neu an Diabetes erkrankt waren, Antikörper gegen einen Bestandteil des Milchproteins, das dem natürlichen Protein p69 ähnelt. Sie vermuteten, dass das Immunsystem von Babys, die eine genetische Anfälligkeit für Diabetes haben und vor dem fünften oder sechsten Monat Kuhmilch trinken, bei jeder Virusinfektion irrtümlich das natürliche Protein attackiert, wodurch die Bauchspeicheldrüse geschädigt werden kann.
Hubert Kolb, Immunbiologe am Deutschen Diabetes-Zentrum, führte 2004 Beobachtungen an, die einem diabetogenen Effekt von Kuhmilchproteinen widersprechen. Er verwies auf Daten, die nach seiner Ansicht dagegen sprechen, dass Kuhmilchproteine einen spezifischen Effekt auf die Entstehung von Typ-1-Diabetes haben:
Eigene Untersuchungen, denen zufolge Antikörper gegen verschiedene Kuhmilchproteine auch bei Rheumatoider Arthritis vorkommen.
Erste prospektive Beobachtungsstudien an kleinen Gruppen von Säuglingen (ab Geburt), die keine Beziehung zwischen den Vorboten des Typ-1-Diabetes (Inselzellautoantikörpern) und der Dauer der Stillzeit oder dem Beginn einer Kuhmilch-basierten Säuglingsnahrung erkennen lassen.
Tierversuche, in denen neben Kuhmilch viele andere, darunter auch pflanzliche, Eiweiße diabetogen sind.
Zusammenfassend hält Kolb die vorhandenen Daten für nicht ausreichend, um einen besonders starken Effekt von Kuhmilch gegenüber anderen tierischen und pflanzlichen Proteinen zu belegen.
Seit dem Jahr 2002 untersuchte eine finnische Forschergruppe den Verdacht im Rahmen der TRIGR-Studie („Trial to Reduce IDDM in the Genetically at Risk“). Für diese Vergleichsstudie rekrutierten die Forscher Babys, die einen erstgradigen Verwandten (Eltern oder Geschwister) mit Typ-1-Diabetes und ein gewisses genetisches Risiko hatten. Nach dem Zufallsprinzip wurden die Säuglinge auf zwei Gruppen aufgeteilt, die sich in Hinblick auf die Folgenahrung nach dem Abstillen unterschieden. Die eine Gruppe wurde mit einer stark hydrolysierten Babynahrung gefüttert, die kein intaktes Kuhmilchprotein (Casein) mehr enthielt. Die andere Gruppe erhielt konventionelle Milchnahrung auf Kuhmilch-Basis. In die Auswertung gingen Daten von 2.159 Kindern ein, die bis zu einem Lebensalter von zehn Jahren beobachtet wurden. Bezüglich Erkrankungsrisiko ergaben sich keine statistisch signifikanten Unterschiede zwischen den beiden Gruppen. Die 2018 publizierte Studie konnte somit nicht den Verdacht erhärten, dass Kuhmilchproteine in der Babynahrung das Risiko für Typ-1-Diabetes erhöhen. Die Autoren sehen keine Notwendigkeit, die Ernährungsempfehlungen für Kinder mit erhöhtem Risiko für Typ-1-Diabetes zu überarbeiten.
Keimbelastung
Rohmilch ist weitgehend unbehandelte, lediglich filtrierte Milch und kann, abhängig von den hygienischen Bedingungen, schon ab Euter mit Krankheitserregern belastet sein. Beim Verzehr können diese auf den Menschen übertragen werden und Infektionskrankheiten wie Salmonellose, Campylobacter-Enteritis, Staphylokokken-Infektionen, Listeriose, Brucellose, Darmtuberkulose, Brainerd Diarrhoe oder Enterohämorrhagische Colitis auslösen. Für die Herstellung und den Verkauf von Rohmilch und Rohmilchprodukten gelten in der Europäischen Union besondere Hygienevorschriften, die das Infektionsrisiko minimieren sollen.
Wissenschaftliche Nachweise für gesundheitliche oder nährwertbezogene Vorteile von Rohmilch fehlen. Mit der Ausnahme des Vorkommens von Staphylokokken-Enterotoxinen lassen sich durch Pasteurisierung oder Ultrahocherhitzung die mikrobiologischen Gefahren praktisch ausschließen. Lediglich bei Fehlern in der Technik der Wärmebehandlung oder durch anschließende Rekontamination kann auch pasteurisierte Milch einen Auslöser von Infektionen bilden. Diese Unfälle zählen in der modernen Molkereitechnologie allerdings zur Ausnahme.
Krebs
Milch und viele Milchprodukte enthalten hohe Mengen an Calcium. Zwei prospektive Kohortenstudien zeigten, dass der Konsum von Calciumdosen > 2000 mg pro Tag (das entspricht etwa zwei Litern Milch) mit einem erhöhten Risiko für Prostatakrebs einhergeht. Zwei andere prospektive Kohortenstudien brachten keinen Zusammenhang für Calciumdosen von 1330 und 1840 mg pro Tag. Als Hintergrund für die Risikoerhöhung wird eine mangelhafte Produktion von Vitamin D3 verdächtigt. Eine hohe Calciumzufuhr vermindert die körpereigene Cholecalciferol-Produktion und präklinische Studien zeigten mehrere potenziell nützliche Effekte des Vitamins bezüglich Prostatakrebs. Sonn u. a. fanden 2005 im Rahmen einer Übersichtsarbeit unter neun prospektiven Studien fünf, die einen Zusammenhang zwischen dem Konsum von Milchprodukten und dem Prostatakrebsrisiko herstellten. In welchem Ausmaß der Calciumkonsum im Verhältnis zum Fettkonsum aus Milch und Milchprodukten zum Risiko beiträgt, ist unklar.
Eine Metaanalyse von Gao u. a. kam 2005 zu dem Schluss, dass die hohe Aufnahme von Milchprodukten und Calcium mit einem leicht erhöhten Prostatakrebsrisiko verbunden sein könne. Diese Schlussfolgerung basiert nach Einschätzung durch Severi u. a. jedoch auf „relativ schwacher statistischer Evidenz“ und einer „sehr kleinen Effektgröße“. Zudem konnten die Kritiker der Metaanalyse Studiendaten vorweisen, die nicht zur Schlussfolgerung von Gao u. a. passen.
Laut Harvard School of Public Health könne man nicht zuversichtlich sein, dass ein hoher Milch- oder Calciumkonsum empfehlenswert sei. Wissenschaftler der University of Hawaii gehen davon aus, dass ein übermäßiger Konsum an fettarmen Milchprodukten die Wahrscheinlichkeit, an Prostatakrebs zu erkranken, erhöht. Einer gemeinsamen Bewertung durch den World Cancer Research Fund und das American Institute for Cancer Research aus dem Jahr 2007 zufolge senkt Kuhmilch wahrscheinlich das Darmkrebsrisiko. Wegen der Hinweise, dass sehr hohe (≥ 2 g) Calciumtagesdosen das Prostatakrebsrisiko möglicherweise erhöhen, sprechen die Autoren jedoch keine krebsrelevanten Empfehlungen bezüglich des Konsums von Kuhmilch aus.
2005 kam eine Studie mit Daten aus 300.000 Männern zu dem Schluss, dass ein hoher Milchkonsum mit einem 30 % höherem Risiko für Prostatakrebs einhergeht. Michael de Vrese vom Max Rubner-Institut hält die Studie für seriös, erklärt dazu aber, dass „[…] die Vorteile des Milchkonsums […] die etwaigen Risiken übertreffen […].“ Es sei bewiesen, dass ein ausreichender Milchkonsum Osteoporose, Bluthochdruck, Herzinfarkt und Übergewicht vorbeuge.
In einem Übersichtskommentar von 2020 gehen die Autoren von einem erhöhten Risiko für Prostata- und Gebärmutterkrebs aus.
Eine im Juli 2020 veröffentlichte systematische Übersichtsarbeit schätzt die bisherigen Forschungsergebnisse zum Zusammenhang des Milchkonsums und Prostatakrebs als „nicht schlüssig“ ein. Während die Mehrheit der ausgewerteten Studien den statistischen Zusammenhang nahelegen, zeige eine große schwedische Studie aus dem Jahr 2020 keinen Zusammenhang zwischen Milchkonsum und einem erhöhten Risiko für die Entwicklung von Prostatakrebs. Während einige der ausgewerteten Studien eine Korrelation zwischen einem erhöhten Risiko für Prostatakrebs und einem hohen Fettgehalt in der Milch fanden, deuteten andere darauf hin, dass die fettfreien Bestandteile der Milch mit dem höheren Risiko für Prostatakrebs verbunden sein könnten.
Parkinson-Krankheit
Chen u. a. untersuchten 2002 den Zusammenhang zwischen der Nahrungsaufnahme und dem Parkinsonrisiko. Sie fanden eine positive Assoziation zwischen der Kuhmilchaufnahme und dem Parkinsonrisiko bei Männern, nicht jedoch bei Frauen. Als Ergebnis einer weiteren Datenauswertung im Jahr 2007 ergab sich zusätzlich eine Risikoerhöhung für weibliche Konsumenten von Milchprodukten, wobei die betrachteten Frauen weniger von der Risikoerhöhung betroffen waren als die Männer. Die Autoren schlossen aus den Daten, dass der Konsum von Milchprodukten das Risiko für Parkinson erhöhen könne, besonders bei Männern. Jedoch seien weitere Studien zur Untersuchung der Befunde und des zugrundeliegenden Mechanismus nötig. Eine japanische Kontrollstudie fand 2011 keinen Zusammenhang zwischen der Aufnahme von Milchprodukten und der Parkinsonkrankheit. Der Konsum von Milch und Milchprodukten ist als möglicher ätiologischer Faktor bis heute (Stand: 2014) in der Diskussion. Jedoch ist die Erklärung für den epidemiologisch beobachteten Zusammenhang bis heute unbekannt. Es fehlt der wissenschaftliche Nachweis, dass Milch einen Risikofaktor für die Parkinsonkrankheit darstellt. Einschränkungen des Milchkonsums mit der Absicht, hierüber die Entwicklung oder das Fortschreiten der Parkinsonkrankheit zu verhindern, werden nicht empfohlen.
Unverträglichkeit
Es existieren Unverträglichkeiten auf das Nahrungsmittel Milch und die daraus hergestellten Produkte. Sie basieren darauf, dass Milchbestandteile im Körper nicht hinreichend aufgespalten werden können (wegen Lactoseintoleranz oder Milcheiweiß-Unverträglichkeit) oder darauf, dass sonstige Inhaltsstoffe der Milch nicht vertragen werden. Die Fähigkeit, den in der Milch enthaltenen Milchzucker auch als Erwachsener verdauen zu können, ist eine genetisch recht junge Entwicklung und wird auf 8000 bis 9000 Jahre geschätzt. Zu ihrer Ausbreitung kam es vermutlich zuerst in Nord- und Mitteleuropa mit oder kurz nach dem dortigen Beginn des Neolithikums, als sich mit Beginn der Viehzucht die Verträglichkeit als positives Selektionskriterium erwies.
Zur Verdauung der Lactose ist das Enzym Lactase erforderlich, dessen Produktion bei Kleinkindern während der Stillzeit voll ausgeprägt ist, in späteren Jahren aber teilweise oder vollständig zurückgeht. Klinische Versuche haben ergeben, dass ein Teil der Menschen aufgrund dessen bei der Aufnahme von Lactose mit Beschwerden (Durchfall, Blähungen, Völlegefühl, Magendrücken, Aufstoßen, Meteorismus, Koliken, Bauchschmerzen, Darmkrämpfen, Übelkeit bis zum Erbrechen, Migräneattacken, Kreislaufproblemen, Schwächeanfällen) reagieren (Laktoseintoleranz). Wenn diese Symptome bei Konsum von Milchprodukten in normalen Mengen eintreten, kann eine Milchunverträglichkeit vorliegen. Dieser kann durch Nahrungsumstellung oder Einnahme von Lactasetabletten begegnet werden. Etwa 10–15 Prozent aller Erwachsenen in Europa vertragen keine lactosehaltige Milch.
Die größte Konzentration Erwachsener, die Lactose verwerten können, findet sich in Europa nördlich der Alpen. Über 95 Prozent der Norddeutschen, Niederländer, Dänen, Schweden und anderer Skandinavier verfügen über eine körpereigene Lactaseenzymgenese, um ihr ganzes Leben lang Lactose verdauen zu können. Ein Großteil der zentral- und südasiatischen Bevölkerung verträgt im Erwachsenenalter keine Kuhmilch mehr, bei ihnen besteht eine Lactoseintoleranz.
Es gibt zahlreiche Hersteller lactosefreier Milch und Milchprodukte. Dazu wird der Milch das Enzym Lactase zugesetzt, die die Lactose in ihre Ausgangszucker Glucose und Galactose spaltet, die Verdauung also quasi vorwegnimmt. Diese lactosefreie Milch schmeckt süßer als Milch, weil Glucose und Galactose süßer schmecken als der ursprüngliche Milchzucker. Vielfach wird auch Milchersatz aus Pflanzen anstelle von Kuhmilch verwendet. Als Alternative für Milchallergiker und Menschen mit Lactoseintoleranz gibt es aber auch tierische Alternativen, zum Beispiel Kamelmilch.
Weichmacher
Auf Grund der weltweiten Verbreitung von Weichmachern in der Umwelt konnten Phthalate bereits in der Rohmilch von Kühen nachgewiesen werden. Während der Verarbeitung kann die Konzentration durch den direkten Kontakt mit phthalathaltigen Materialien (Kunststoffrohre etc.) weiter zunehmen.
Literatur
Tanja Kongerslev Thorning, Anne Raben, Tine Tholstrup, Sabita S. Soedamah-Muthu, Ian Givens, Arne Astrup: Milk and dairy products: good or bad for human health? An assessment of the totality of scientific evidence. In: Food & Nutrition Research. 2016, Band 60, Nummer 1, S. 32527 . PMID 27882862, .
Inge Riemelt: Milchwirtschaftliche Mikrobiologie. Behrs Verlag 2005, ISBN 3-89947-049-4.
Erwin Märtlbauer, Heinz Becker (Hg.): Milchkunde und Milchhygiene. UTB 2016, ISBN 978-3-8252-8664-4.
Film
Das System Milch. Dokumentarfilm von 2017, Regie: Andreas Pichler
Siehe auch
Frauenmilchbank
Weblinks
Bundesamt für Landwirtschaft: Milch
Bundesamt für Lebensmittelsicherheit und Veterinärwesen: Milchprüfung
Einzelnachweise
|
Q8495
| 526.632511 |
1258
|
https://de.wikipedia.org/wiki/Energie
|
Energie
|
Energie ist eine physikalische Größe, die in allen Teilgebieten der Physik sowie in der Technik, Chemie, Biologie und der Wirtschaft eine zentrale Rolle spielt. Ihre SI-Einheit ist das Joule. Die praktische Bedeutung der Energie liegt oft darin, dass ein physikalisches System in dem Maß Wärme abgeben, Arbeit leisten oder Strahlung aussenden kann, in dem seine Energie sich verringert. In einem gegenüber der Umgebung abgeschlossenen System ändert sich die Gesamtenergie nicht (Energieerhaltungssatz). Die Bedeutung der Energie in der theoretischen Physik liegt unter anderem darin, dass der Energieerhaltungssatz, ursprünglich eine Erfahrungstatsache, schon daraus gefolgert werden kann, dass die grundlegenden physikalischen Naturgesetze zeitlich unveränderlich sind.
Allgemeines
Energie gibt es in verschiedenen Energieformen, die ineinander umgewandelt werden können. Beispiele von Energieformen sind potentielle, kinetische, elektrische, chemische und thermische Energie (Wärmeenergie). Beispiele für solche Umwandlungen von Energie sind, dass ein Mensch ein Paket hochhebt oder ein Fahrrad beschleunigt, dass eine Batterie geladen wird, ein Lebewesen Stoffwechsel betreibt oder eine Heizung Wärme abgibt.
In vielen Fällen lässt sich mittels einer Formel die Energie eines Systems aus der momentanen Größe der Parameter und Variablen des Systems berechnen. Allein die mathematische Struktur dieser Formel bestimmt nach den hamiltonschen Bewegungsgleichungen der klassischen Mechanik, der Schrödingergleichung in der Quantenmechanik, wobei die kanonischen Variablen durch Operatoren ersetzt werden, oder der Dirac-Gleichung in der relativistischen Quantenmechanik, wo allerdings von Paul Dirac eine „Quadratwurzel“ aus der relativistischen Energie-Impuls-Formel (Klein-Gordon-Gleichung) gewählt wurde, die zeitliche Entwicklung des Systems.
Gemäß der Relativitätstheorie sind Ruheenergie und Masse durch die Äquivalenz von Masse und Energie () verknüpft. In der Relativitätstheorie ist die Energie außerdem eine Komponente des Viererimpulses.
Geschichte des Begriffs
Das Wort Energie geht auf , energeia zurück, das in der griechischen Antike eine rein philosophische Bedeutung im Sinne von „lebendiger Wirklichkeit und Wirksamkeit“ hatte (siehe auch „Akt und Potenz“). Als naturwissenschaftlicher Begriff wurde das Wort selbst erst 1807 von dem Physiker Thomas Young in die Mechanik eingeführt. Die neue Größe Energie sollte die Stärke ganz bestimmter Wirkungen angeben, die ein bewegter Körper durch seine Bewegung hervorrufen kann, und die sich nicht allein durch seinen Impuls („Masse mal Geschwindigkeit“) bestimmen lassen. Über den Impuls war seit den Untersuchungen des Stoßes zweier Körper durch Christiaan Huygens, Christopher Wren und John Wallis um das Jahr 1668 herum bekannt, dass er bei elastischen wie bei unelastischen Körpern erhalten bleibt, also das richtige Maß für die verursachten Veränderungen und damit für die unzerstörbare „Größe der Bewegung“ ist. Bei anderen Vorgängen aber verursachen Körper verschiedener Masse, auch wenn sie gleichen Impuls haben, verschieden große Wirkungen. Dazu gehört etwa die Höhe, die ein Körper in Aufwärtsbewegung erreicht, oder die Tiefe des Lochs, das er beim Aufprall in eine weiche Masse schlägt. Hierbei nimmt die Wirkung nicht mit der Geschwindigkeit proportional zu, wie der Impuls, sondern mit dem Quadrat der Geschwindigkeit. Daher bezeichnete Gottfried Wilhelm Leibniz 1686 die Größe als das wahre Maß für die Größe der Bewegung und nannte sie vis viva („lebendige Kraft“). Dieser Name folgte dem damaligen Sprachgebrauch, in dem ein Körper nur durch die ihm innewohnenden Kräfte Wirkungen verursachen konnte. Der Name lebendige Kraft hat aber durch „Verwechslung mit dem Newtonschen Kraftbegriff eine unheilvolle Verwirrung der Ideen und eine zahllose Schar von Missverständnissen hervorgerufen“ (so Max Planck 1887 in seiner preisgekrönten Darstellung der Geschichte des Energieerhaltungssatzes.) Leibniz argumentierte wie folgt:
Ein Gewicht von auf die Höhe zu heben erfordert genauso viel Arbeit wie ein Gewicht auf die Höhe zu heben (Hebelgesetz). Nach Galileo Galilei ist im freien Fall , also ist die Endgeschwindigkeit im ersten Fall doppelt so hoch wie im zweiten Fall. Setzt man für die innewohnende (lebendige) Kraft, mit der man diese Arbeit (latente Form der lebendigen Kraft) messen will, an, so ist bei Erhaltung der lebendigen Kraft , das heißt und nicht , wie die Anhänger von Descartes meinten.
Den korrekten Vorfaktor in der kinetischen Energie leitete schon Daniel Bernoulli 1726 ab. Bei ihm wie bei anderen analytischen Mechanikern des 18. Jahrhunderts wie Leonhard Euler (z. B. Behandlung der elastischen Deformation), Joseph Louis Lagrange (Mécanique Analytique 1788) finden sich auch Vorläufer des Konzepts der potentiellen Energie (der Term Potentialfunktion stammt von George Green 1828 und unabhängig wurde sie von Carl Friedrich Gauß 1840 eingeführt, war aber als Potential schon Lagrange und Laplace bekannt). Das Konzept war schon Leibniz (in seiner Ableitung von ) und Johann I Bernoulli bekannt, der als erster 1735 das Prinzip der Erhaltung der lebendigen Kräfte formulierte (die Vorstellung hatte aber auch Leibniz zum Beispiel im 5. Brief an Samuel Clarke), das insbesondere vom Leibniz-Schüler Christian Wolff verbreitet wurde. Von potentieller Energie sprach man damals als der latenten Form der lebendigen Kraft, die sich zum Beispiel beim inelastischen Stoß auf kleinere Teilchen des Körpers verteile.
Um die genannten Wirkungen der Bewegung des Körpers vorhersagen zu können, definierte Young die Größe Energie als die Fähigkeit des Körpers, gegen eine widerstehende Kraft eine gewisse Strecke zurückzulegen. Er bemerkte auch, dass Arbeit, die in Form von Hubarbeit an einem Körper geleistet wird, sich später quantitativ in dessen Energie wiederfindet, kam aber noch nicht auf den Begriff der Umwandlung verschiedener Energieformen und behielt auch die Formel von Leibniz bei und war im Großen und Ganzen noch ein Anhänger des Cartesianischen Standpunkts der Kräfte.
Im 18. Jahrhundert war man in der Mechanik und Physik an der Energie nicht sonderlich interessiert, wichtige Forscher wie Euler sahen den Streit um die Vis Viva, das wahre Kraftmaß, als Angelegenheit der Philosophen und man befasste sich mit der Lösung der Bewegungsgleichungen vor allem in der Himmelsmechanik. Der Energiebegriff im heutigen Sinn fand seinen Ursprung nicht bei den analytischen Mechanikern des 18. Jahrhunderts, sondern bei den angewandten Mathematikern der französischen Schule, darunter Lazare Carnot, der schrieb, dass die lebendige Kraft sich entweder als oder Kraft mal Weg (als latente lebendige Kraft) manifestieren kann. Eine quantitative Definition der Arbeit („Kraft mal Weg“ bzw. ) wurde auch 1829 gleichzeitig von Coriolis und Poncelet gegeben, offenbar unabhängig voneinander, und auch von Young. Coriolis fand dabei auch den richtigen Ausdruck für die Bewegungsenergie, die 1853 von Rankine erstmals kinetische Energie genannt wurde. Rankine prägte 1859 auch den Ausdruck potentielle Energie.
Im Zusammenhang mit der Dampfmaschine entwickelte sich die Vorstellung, dass Wärmeenergie bei vielen Prozessen die Ursache für eine bewegende Energie oder mechanische Arbeit ist. Ausgangspunkt war, dass Wasser durch Hitze in den gasförmigen Zustand überführt und die Gasausdehnung genutzt wird, um einen Kolben in einem Zylinder zu bewegen. Durch die Kraftbewegung des Kolbens vermindert sich die gespeicherte Wärmeenergie des Wasserdampfes. Demonstriert wurde der Zusammenhang von mechanischer Energie und Wärme in berühmt gewordenen Experimenten von Benjamin Thompson (Graf Rumford, München 1796, 1798) und Humphry Davy (1799).
Der Physiker Nicolas Carnot erkannte, dass beim Verrichten von mechanischer Arbeit eine Volumenänderung des Dampfs nötig ist. Außerdem fand er heraus, dass die Abkühlung des heißen Wassers in der Dampfmaschine nicht nur durch Wärmeleitung erfolgt. Diese Erkenntnisse veröffentlichte Carnot 1824 in einer vielbeachteten Schrift über das Funktionsprinzip der Dampfmaschine. Émile Clapeyron brachte 1834 Carnots Erkenntnisse in eine mathematische Form und entwickelte die noch heute verwendete graphische Darstellung des Carnot-Kreisprozesses.
1841 veröffentlichte der deutsche Arzt Julius Robert Mayer seine Idee, dass Energie weder erschaffen noch vernichtet, sondern nur umgewandelt werden kann. Er schrieb an einen Freund: Die Wärmemenge, die bei einer Dampfmaschine verloren gegangen ist, entspräche genau der mechanischen Arbeit, die die Maschine leistet. Dies ist heute bekannt als „Energieerhaltung“ oder auch „Erster Hauptsatz der Thermodynamik“.
Der Physiker Rudolf Clausius verbesserte im Jahr 1854 die Vorstellungen über die Energieumwandlung. Er zeigte, dass nur ein Teil der Wärmeenergie in mechanische Arbeit umgewandelt werden kann. Ein Körper, bei dem die Temperatur konstant bleibt, kann keine mechanische Arbeit leisten. Clausius entwickelte den zweiten Hauptsatz der Thermodynamik und führte den Begriff der Entropie ein. Nach dem zweiten Hauptsatz ist es unmöglich, dass Wärme eigenständig von einem kälteren auf einen wärmeren Körper übergeht.
Hermann von Helmholtz formulierte im Jahr 1847 das Prinzip „über die Erhaltung der Kraft“ und der Unmöglichkeit eines Perpetuum mobiles (perpetuus, lat. ewig; mobilis, lat.: beweglich) 1. Art. Viele Erfinder wollten damals noch Maschinen herstellen, die mehr Energie erzeugten als hineingesteckt wurde. Helmholtz fand seine Erkenntnisse durch Arbeiten mit elektrischer Energie aus galvanischen Elementen, insbesondere einer Zink/Brom-Zelle. In späteren Jahren verknüpfte er die Entropie und die Wärmeentwicklung einer chemischen Umwandlung zur freien Energie. Sowohl Mayer als auch Helmholtz hatten aber in den 1840er Jahren Schwierigkeiten, ihre Erkenntnisse zu veröffentlichen, da beide zunächst als fachfremde Außenseiter galten und die Physiker in Deutschland in einer Abwehrhaltung gegen die seit Ende des 18. Jahrhunderts einflussreiche Naturphilosophie des Kreises um Schelling waren und man beide verdächtigte, Anhänger dieser spekulativen Physik zu sein.
Josiah Gibbs kam im Jahr 1878 zu ähnlichen Erkenntnissen wie Helmholtz bei elektrochemischen Zellen. Chemische Reaktionen laufen nur ab, wenn die Freie Energie abnimmt. Mittels der freien Energie lässt sich voraussagen, ob eine chemische Stoffumwandlung überhaupt möglich ist oder wie sich das chemische Gleichgewicht einer Reaktion bei einer Temperaturänderung verhält.
Nachdem schon Wilhelm Wien (1900), Max Abraham (1902) und Hendrik Lorentz (1904) Überlegungen zur elektromagnetischen Masse publiziert hatten, veröffentlichte Albert Einstein im Rahmen seiner speziellen Relativitätstheorie 1905 die Erkenntnis, dass Masse und Energie äquivalent sind.
Energieformen, Energiearten und Energieumwandlung
Energieformen
Energie kann in einem System auf unterschiedliche Weise enthalten sein. Diese Möglichkeiten werden Energieformen genannt. Beispiele für Energieformen sind die kinetische Energie, die chemische Energie, die elektrische Energie, die Strahlungsenergie oder die potentielle Energie. Verschiedene Energieformen können ineinander umgewandelt werden, wobei die Summe der Energiemengen über die verschiedenen Energieformen vor und nach der Energieumwandlung stets die gleiche ist.
Energiearten
Unterschieden werden folgende Energiearten:
Energieumwandlung
Eine Umwandlung kann nur so erfolgen, dass auch alle anderen Erhaltungsgrößen des Systems vor und nach der Umwandlung den gleichen Wert besitzen. Beispielsweise wird die Umwandlung kinetischer Energie durch die Erhaltung des Impuls und des Drehimpuls des Systems eingeschränkt. Ein Kreisel kann nur dann abgebremst werden und damit Energie verlieren, wenn er gleichzeitig Drehimpuls abgibt. Auch auf molekularer Ebene gibt es solche Einschränkungen. Viele chemische Reaktionen, die energetisch möglich wären, laufen nicht spontan ab, weil sie die Impulserhaltung verletzen würden. Weitere Erhaltungsgrößen sind die Zahl der Baryonen und die Zahl der Leptonen. Sie schränken die Umwandlung von Energie durch Kernreaktionen ein. Die Energie, die in der Masse von Materie steckt, lässt sich nur mit einer gleich großen Menge von Antimaterie vollständig in eine andere Energieform umwandeln. Ohne Antimaterie gelingt die Umwandlung mit Hilfe von Kernspaltung oder Kernfusion nur zu einem kleinen Teil.
Die Thermodynamik gibt mit dem zweiten Hauptsatz der Thermodynamik eine weitere Bedingung für eine Umwandlung vor: Die Entropie eines abgeschlossenen Systems kann nicht abnehmen. Entnahme von Wärme, ohne dass parallel andere Prozesse ablaufen, bedeutet eine Abkühlung. Eine niedrigere Temperatur entspricht jedoch einer verminderten Entropie und steht damit im Widerspruch zum zweiten Hauptsatz. Um dennoch Wärme in eine andere Energieform umzuwandeln, muss im Gegenzug zur Abkühlung ein anderer Teil des Systems erwärmt werden. Die Umwandlung von thermischer Energie in andere Energieformen setzt daher immer eine Temperaturdifferenz voraus. Außerdem kann nicht die gesamte in der Temperaturdifferenz gespeicherte Wärmemenge umgesetzt werden. Wärmekraftmaschinen dienen dazu, Wärme in mechanische Energie umzuwandeln. Das Verhältnis der durch den zweiten Hauptsatz gegebenen maximal möglichen Arbeit zur verbrauchten Wärmemenge wird Carnot-Wirkungsgrad genannt. Er ist umso größer, je größer die Temperaturdifferenz ist, mit der die Wärmekraftmaschine arbeitet.
Entropie ist keine Erhaltungsgröße ,in einem abgeschlossen System kann es spontan zunehmen, nicht jedoch abnehmen Andere Umwandlungen sind nicht so stark von den Einschränkungen durch die Hauptsätze der Thermodynamik betroffen. So lässt sich elektrische Energie mit wenig technischem Aufwand nahezu vollständig in viele andere Energieformen überführen. Elektromotoren wandeln sie beispielsweise in kinetische Energie um.
Die meisten Umwandlungen erfolgen nicht vollständig in eine einzige Energieform, sondern es wird ein Teil der Energie in Wärme gewandelt. In mechanischen Anwendungen wird die Wärme meist durch Reibung erzeugt. Bei elektrischen Anwendungen sind häufig der elektrische Widerstand oder Wirbelströme die Ursache für die Erzeugung von Wärme. Diese Wärme wird in der Regel nicht genutzt und als Verlust bezeichnet. Im Zusammenhang mit elektrischem Strom kann auch die Abstrahlung elektromagnetischer Wellen als unerwünschter Verlust auftreten. Das Verhältnis zwischen erfolgreich umgewandelter Energie und eingesetzter Energie wird Wirkungsgrad genannt.
Bei technischen Anwendungen wird häufig eine Reihe von Energieumwandlungen gekoppelt. In einem Kohlekraftwerk wird zunächst die chemische Energie der Kohle durch Verbrennung in Wärme umgesetzt und auf Wasserdampf übertragen. Turbinen wandeln die Wärme des Dampfs in mechanische Energie um und treiben wiederum Generatoren an, die die mechanische Energie in elektrische Energie umwandeln.
Energie in der klassischen Mechanik
In der klassischen Mechanik ist die Energie eines Systems seine Fähigkeit, Arbeit zu leisten. Die Arbeit wandelt Energie zwischen verschiedenen Energieformen um. Die spezielle Form der newtonschen Gesetze gewährleistet, dass sich dabei die Summe aller Energien nicht ändert. Reibung und die mit ihr einhergehenden Energieverluste sind in dieser Betrachtung nicht berücksichtigt.
Das Noether-Theorem erlaubt eine allgemeinere Definition der Energie, die den Aspekt der Energieerhaltung automatisch berücksichtigt. Alle Naturgesetze der klassischen Mechanik sind invariant in Bezug auf Verschiebungen in der Zeit. Sie zeichnen sich dadurch aus, dass sie zu allen Zeiten unverändert in der gleichen Form gelten. Das Noether-Theorem besagt nun, dass es zu dieser Symmetrie in Bezug auf Verschiebung in der Zeit eine physikalische Größe gibt, deren Wert sich nicht mit der Zeit verändert. Diese Größe ist die Energie.
Aus dem Energieerhaltungssatz und unvermeidlichen Energieverlusten durch Reibung folgt, dass es unmöglich ist, eine mechanische Maschine zu bauen, die von sich aus beliebig lange läuft (Perpetuum mobile). Außerdem erlaubt die Energieerhaltung zusammen mit der Impulserhaltung Aussagen über das Ergebnis von Stößen zwischen Objekten, ohne dass der genaue Mechanismus beim Stoß bekannt sein muss.
Energie und Bewegung
Die kinetische Energie ist diejenige Energie, die dem Bewegungszustand eines Körpers innewohnt. Sie ist proportional zur Masse und zum Quadrat der Geschwindigkeit .
.
Da die Geschwindigkeit von dem Bezugssystem abhängt, ist dies auch für die kinetischen Energie der Fall. Häufig verwendet man ein Inertialsystem, das in Bezug auf den Erdboden ruht.
Ein ausgedehnter Körper kann neben einer Translationsbewegung auch eine Drehbewegung durchführen. Die kinetische Energie, die in der Drehbewegung steckt, nennt man Rotationsenergie. Diese ist proportional zum Quadrat der Winkelgeschwindigkeit und zum Trägheitsmoment des Körpers.
Energie und Potential
Potentielle Energie, auch Lageenergie genannt, kommt einem Körper durch seine Lage in einem Kraftfeld zu, sofern es sich um eine konservative Kraft handelt. Dies könnte beispielsweise das Erdschwerefeld oder das Kraftfeld einer Feder sein. Die potentielle Energie nimmt in Kraftrichtung ab und entgegen der Kraftrichtung zu, senkrecht zur Kraftrichtung ist sie konstant. Bewegt sich der Körper von einem Punkt, an dem er eine hohe potentielle Energie hat, zu einem Punkt, an dem diese geringer ist, leistet er genau so viel physikalische Arbeit, wie sich seine potentielle Energie vermindert hat. Diese Aussage gilt unabhängig davon, auf welchem Weg der Körper vom einen zum anderen Punkt gelangt ist.
Die potentielle Energie eines Körpers mit der Masse in einem homogenen Gravitationsfeld mit Gravitationsbeschleunigung ist proportional zur Höhe über dem Ursprung des Koordinatensystems:
.
Beim freien Fall wird diese potentielle Energie in kinetische Energie umgewandelt, indem der Körper beschleunigt wird.
Da der Koordinatenursprung beliebig gewählt werden kann, ist die Lageenergie des Körpers niemals absolut gegeben und auch nicht messbar. Messbar sind nur ihre Änderungen.
Bei periodischen Bewegungen wird regelmäßig potentielle in kinetische Energie und wieder zurück in potentielle Energie verwandelt. Beim Pendel ist beispielsweise an den Umkehrpunkten die potentielle Energie maximal; die kinetische Energie ist hier null. Wenn der Faden gerade senkrecht hängt, erreicht die Masse ihre maximale Geschwindigkeit und damit auch ihre maximale kinetische Energie; die potentielle Energie hat hier ein Minimum. Ein Planet hat bei seinem sonnenfernsten Punkt zwar die höchste potentielle, aber auch die geringste kinetische Energie. Bis zum sonnennächsten Punkt erhöht sich seine Bahngeschwindigkeit gerade so sehr, dass die Zunahme der kinetischen Energie die Abnahme der potentiellen Energie genau kompensiert.
Elastische Energie ist die potentielle Energie der aus ihrer Ruhelage verschobenen Atome oder Moleküle in einem elastisch deformierten Körper, beispielsweise einer mechanischen Feder. Allgemein bezeichnet man die Energie, die bei der elastischen oder plastischen Verformung in dem Körper gespeichert (oder freigesetzt) wird, als Deformationsenergie.
Energie in der Thermodynamik
Thermische Energie ist die Energie, die in der ungeordneten Bewegung der Atome oder Moleküle eines Stoffes gespeichert ist. Sie wird umgangssprachlich auch als „Wärmeenergie“ oder „Wärmeinhalt“ bezeichnet. Die Umwandlung thermischer Energie in andere Energieformen wird durch die Thermodynamik beschrieben. Hier wird zwischen der im System enthaltenen Energie (innere Energie, Enthalpie) und der Wärme, der über die Systemgrenze transportierten thermischen Energie, unterschieden.
Die Summe aus thermischer Energie, Schwingungsenergie im Körper und Bindungsenergie bezeichnet man als innere Energie. Dabei wird in manchem Quellen auch zwischen der thermischen inneren Energie, der chemischen inneren Energie und der Kernenergie als innerer Energie unterschieden, was aber den Rahmen der Thermodynamik verlässt.
Umwandlung thermischer Energie in mechanische Arbeit
Während alle Energieformen unter gewissen Bedingungen (siehe #Energieformen, Energiearten und Energieumwandlung) vollständig in thermische Energie umgewandelt werden können (erster Hauptsatz der Thermodynamik), gilt das in umgekehrter Richtung nicht. Der zweite Hauptsatz der Thermodynamik beschreibt hier eine ganz wesentliche Einschränkung (Bild 1). Abhängig von der Temperatur, bei der die Wärme zur Verfügung steht, lässt sich nur ein mehr oder weniger großer Anteil über einen Kreisprozess in mechanische Arbeit umwandeln, während der Rest an die Umgebung abgegeben wird. In der technischen Thermodynamik werden die umwandelbaren Anteile einer Energieform auch als Exergie bezeichnet. Die Exergie ist keine Zustandsgröße im eigentlichen Sinne, denn sie hängt nicht nur vom Zustand des Systems ab, sondern auch vom Zustand der Umgebung, der im Einzelfall gegeben ist, im Allgemeinen angenommen werden muss. Dann lässt sich anhand von Exergie-Flussbildern einer Energie-Wandlungskette verfolgen, wo vermeidbare Verluste (Reibung oder andere dissipative Vorgänge) zu verzeichnen sind. In Bild 2 erkennt man, dass bei der Umwandlung von chemischer Energie (100 % Exergie) in Wärme bei einer mittleren Temperatur von 1000 °C der Exergie-Anteil nur noch 80 % beträgt. Wird diese Energie als Wärme in einem Dampfkessel auf Wasserdampf mit 273 °C übertragen, so verbleiben nur noch ca. 50 % und bei der Übertragung in einen mit 20 °C beheizten Raum nur noch etwa 7 %. Dabei wurde stets eine Umgebungstemperatur von 0 °C angenommen.
Berechnung der maximalen Arbeit (Exergie)
Bei der Berechnung des exergetischen Anteils von thermischer Energie ist zu berücksichtigen, ob die Wärmequelle eine konstante Temperatur besitzt, wie das in einem Siedewasser-Reaktor bei circa 270 °C der Fall ist, oder ob die Wärmeabgabe aus einem sich abkühlenden Medium, Rauchgas, erfolgt. Im ersten Fall kann der exergetische Anteil über den Carnot-Wirkungsgrad aus der oberen Prozess-Temperatur und der Umgebungstemperatur bestimmt werden, andernfalls erhält man die Wärme und die Exergie aus dem Flächenintegral, das aus dem T-S-Diagramm in Bild 3 und aus dem T-S-Diagramm in Bild 4 erkennbar ist.
Die Formel lautet:
.
Die Beziehung kann auch direkt aus den Diagrammen abgelesen werden. Hierbei sind: T die absolute Temperatur in K, S die Entropie in J/K, H die Enthalpie in J, Index 1: Ausgangszustand, Index U: Umgebungszustand.
Die Enthalpie-Differenz ist im Wesentlichen (in diesem Falle) die aus dem Brennstoff der Verbrennungsluft als Wärme zugeführte Energie. Sie erscheint als Fläche unter der Kurve der isobaren Wärmezufuhr. Der exergetische Anteil liegt oberhalb der Umgebungstemperatur, der andere nicht verwertbare Anteil, der „Anergie“ genannt wird, unterhalb dieser Linie. Bei der Abnahme der Exergie in einer Energie-Umwandlungskette spricht man auch von einer Energieentwertung.
Bei der Übertragung der Wärme aus dem Rauchgas auf das Arbeitsmedium, das Wasser, das dabei verdampft und überhitzt wird, entsteht ein weiterer Exergieverlust. Die maximale aus dem Dampfmassenstrom gewinnbare mechanische Leistung darf für einen Prozess mit Heißdampf von beispielsweise 16 bar und 350 °C keinesfalls über den Carnot-Wirkungsgrad mit dieser Temperatur berechnet werden. Das Ergebnis mit einem Wirkungsgrad von 52 % wäre falsch. Es würde dem zweiten Hauptsatz widersprechen, da die mittlere Temperatur der Wärmezufuhr in den Wasser-Dampf-Kreislauf niedriger ist. Erfolgt keine interne Wärmeübertragung (regenerative Speisewasservorwärmung) aus kondensierendem Dampf auf das Speisewasser, wie bei Dampfmaschinen, bei denen im theoretisch günstigsten Fall der Dampf reversibel auf Wasser mit Umgebungszustand gebracht werden kann, so erreicht man bei 15 °C Umgebungstemperatur nur einen maximalen Wirkungsgrad von 34,4 %. Der reversibel geführte Clausius-Rankine-Prozess in Bild 4 mit einem Dampfdruck von 32 bar und Kondensation bei 24 °C erreicht dagegen 37,2 %. Die realen Prozesse erreichen bei diesen Dampfparametern nur weitaus niedrigere Wirkungsgrade.
Energie- und Exergie-Flussbild der Stromerzeugung
In Bild 5 ist ein vereinfachtes Energieflussbild der Stromerzeugung durch ein großes Dampfkraftwerk (Frischdampfzustand 260 bar, 545 °C, Speisewasservorwärmung auf 276 °C) mit der Verteilung bis zum Endverbraucher einem entsprechenden Exergieflussbild gegenübergestellt. Man erkennt daraus, dass ein wesentlicher Teil der Energieentwertung nicht im Kondensator oder im nachgeschalteten Kühlturm des Kraftwerkes erfolgt, wo die Abwärme abgeführt wird, sondern bei der Umwandlung der chemischen Energie des Brennstoffes in thermische Energie (Verbrennung) und bei der Wärmeübertragung vom Rauchgas auf den Wasserdampf. Die Zahlenwerte für die Stromverteilung sind Anhaltswerte, sie können im Einzelfall geringfügig abweichen.
Sonnenenergie
Auch die Sonnenenergie, die durch Strahlung auf die Erde gelangt, erfährt auf dem Weg bis zur Erdoberfläche einen Exergieverlust. Während die innere Energie der Sonne bei rund 15 Millionen K noch praktisch aus reiner Exergie besteht, strahlt die Sonne mit einer Oberflächentemperatur von rund 6000 K auf die Erdoberfläche, deren Temperatur mit ca. 300 K anzusetzen ist. Durch Konzentration der Sonnenstrahlen in einem Kollektor käme man also – auch im Hochgebirge, wo die Absorption durch die Erdatmosphäre kaum eine Rolle spielt – über die Temperatur der Sonnenoberfläche nicht hinaus. Es ergäbe sich über den Carnot-Faktor ein Wirkungsgrad von ca. 95 %. Dann würde allerdings keine Energie mehr übertragen. Das thermodynamische Limit liegt darunter bei einer Absorbertemperatur von 2500 K mit einem Wirkungsgrad von ca. 85 %. In der Praxis kommen dissipative Verluste hinzu, angefangen von der Absorption in der Atmosphäre, über die Materialeigenschaften der kristallinen Zellen bis zum ohmschen Widerstand der Fotovoltaikanlagen, sodass bis heute nur Wirkungsgrade von weniger als 20 % erreicht werden können. Der höchste derzeit erreichte Wirkungsgrad ist 18,7 %.
Kraft-Wärme-Kopplung (KWK)
Zum Heizen wird meist Wärme mit nur einem geringen Exergieanteil benötigt. Deshalb ist das Heizen mit elektrischem Strom über eine Widerstandsheizung „Energieverschwendung“. Überall dort, wo mechanische Energie oder Strom aus Wärme erzeugt wird und gleichzeitig Wärmebedarf existiert, ist die Nutzung der Abwärme zum Heizen sinnvoller als die getrennte Bereitstellung von Wärme. In einem Heizkraftwerk wird, wenn es mit Dampf betrieben wird, Dampf aus der Turbine entnommen, dessen Temperatur gerade noch ausreichend hoch ist, um die Kondensationsenthalpie über ein Fernwärmenetz zum Verbraucher zu leiten. Alternativ wird auch in Blockheizkraftwerken (BHKW) die Abwärme von stationären Verbrennungsmotoren genutzt. Auch die Wärmepumpe ist hier zu nennen. Sie wendet Arbeit auf, um Wärme (Energie) aus der Umgebung aufzunehmen und zusammen mit der Antriebsarbeit als Heizwärme bei entsprechend hoher Temperatur abzugeben. Wenn Grundwasser mit 10 °C als Wärmequelle zur Verfügung steht und ein Raum mit 20 °C zu beheizen ist, könnte eine Wärmepumpe mit Carnot-Prozess durch Einsatz von einer Kilowattstunde Antriebsarbeit 29 kWh Wärme liefern (Arbeitszahl =29). Reale Wärmepumpen, die mit wechselweise verdampfenden und kondensierenden Kältemitteln bei unterschiedlichen Drücken betrieben werden, erreichen Arbeitszahlen von ca. 3 bis 5.
Chemische Energie
Als chemische Energie wird die Energieform bezeichnet, die in Form einer chemischen Verbindung in einem Energieträger gespeichert ist und bei chemischen Reaktionen freigesetzt werden kann. Sie beschreibt also die Energie, die mit elektrischen Kräften in Atomen und Molekülen verbunden ist und kann unterteilt werden in einerseits kinetischer Energie der Elektronen in den Atomen und andererseits der elektrischen Energie der Wechselwirkung von Elektronen und Protonen.
Sie wird bei exothermen Reaktionen frei und muss für endotherme Reaktionen hinzugefügt werden.
Energie in der Elektrodynamik
In einem elektrischen Feld kann, sofern kein zeitlich veränderliches Magnetfeld vorliegt, ein elektrisches Potential definiert werden. Ein Ladungsträger besitzt dann eine potentielle elektrische (elektrostatische) Energie, die proportional zum Potential und zu seiner Ladungsmenge ist. Da der Nullpunkt des Potentials frei festgelegt werden kann, ist auch die Energie nicht absolut definiert. Für zwei Punkte im Potentialfeld ist aber die Differenz der Energien unabhängig von der Wahl des Potentialnullpunktes. Potentialdifferenzen entsprechen in der Elektrotechnik Spannungen; als Nullpunkt der Potentialskala wird üblicherweise das Potential der Erde gewählt.
Für Anordnungen zweier elektrischer Leiter ist die elektrostatische Energie proportional zum Quadrat der Differenz der elektrischen Potentiale der beiden Leiter. Das Doppelte der Proportionalitätskonstante nennt man elektrische Kapazität. Kondensatoren sind elektrotechnische Bauelemente, die hohe Kapazität besitzen und daher Energie speichern können.
Gleichwertig mit der Sichtweise, dass die elektrostatische Energie von Ladungen getragen wird, ist die Interpretation, dass sich die Energie auf den leeren Raum zwischen den Ladungen verteilt. Die Energiedichte, also die Energie pro Volumenelement, ist bei dieser Betrachtungsweise proportional zum Quadrat der elektrischen Feldstärke. Befindet sich in dem elektrischen Feld ein Dielektrikum, so ist die Energie außerdem proportional zur Dielektrizitätskonstante.
Bewegt sich eine Ladung im Vakuum zu einem Ort, an dem ein geringeres elektrisches Potential herrscht, erhöht sich die kinetische Energie der Ladung gerade so viel, wie die potentielle Energie geringer wird. Dies geschieht beispielsweise mit Elektronen in einer Elektronenröhre, in einer Röntgenröhre oder in einem Kathodenstrahlröhrenbildschirm. Bewegt sich eine Ladung dagegen entlang eines Potentialgefälles in einem Leiter, gibt sie ihre aufgenommene Energie sofort in Form von Wärme an das Leitermedium ab. Die Leistung ist dabei proportional zum Potentialgefälle und zur Stromstärke.
Elektrische Energie kann transportiert werden, indem sich Ladungsträger ohne nennenswertes Potentialgefälle entlang von Leitern bewegen. Dies ist beispielsweise in Freileitungen oder in Stromkabeln der Fall, mit deren Hilfe elektrische Energie vom Kraftwerk bis zum Verbraucher fließt.
Magnetische Energie ist in magnetischen Feldern wie im supraleitenden magnetischen Energiespeicher enthalten.
In einem idealen elektrischen Schwingkreis gespeicherte Energie wandelt sich fortlaufend zwischen der elektrischen Form und der magnetischen Form. Zu jedem Zeitpunkt ist die Summe der Teilenergien gleich (Energieerhaltung). Hierbei hat der reine magnetische respektive elektrische Anteil der Energie die doppelte Frequenz der elektrischen Schwingung.
Energie in der Relativitätstheorie
Nach der speziellen Relativitätstheorie entspricht der Masse eines ruhenden Objekts eine Ruheenergie von
.
Die Ruheenergie ist somit bis auf den Faktor (Quadrat der Lichtgeschwindigkeit ) der Masse äquivalent. Die Ruheenergie kann bei bestimmten Vorgängen in andere Energieformen umgewandelt werden und umgekehrt. So haben die Reaktionsprodukte der Kernspaltung und der Kernfusion messbar niedrigere Massen als die Ausgangsstoffe. In der Elementarteilchenphysik wird umgekehrt auch die Erzeugung von Teilchen und damit von Ruheenergie aus anderen Energieformen beobachtet.
In der klassischen Mechanik wird die Ruheenergie nicht mitgerechnet, da sie ohne Belang ist, solange sich Teilchen nicht in andere Teilchen umwandeln.
Die allgemeine Relativitätstheorie verallgemeinert das Konzept der Energie weiter und enthält eine einheitliche Darstellung von Energien und Impulsen als Quellen für Raumkrümmungen über den Energie-Impuls-Tensor. Aus diesem lassen sich durch Kontraktionen die für einen Beobachter messbaren Größen wie Energiedichte gewinnen. Für die Untersuchung der Entwicklung von Raumzeiten ist der Energieinhalt entscheidend. So kann man aus Energiebedingungen den Kollaps der Raumzeit zu einer Singularität vorhersagen.
Energie in der Quantenmechanik
In der Quantenmechanik bestimmt der Hamiltonoperator, welche Energie an einem physikalischen System gemessen werden kann. Gebundene Zustände des Systems können dabei nur diskreten, also nicht beliebigen Energiewerten entsprechen. Deshalb haben die bei Übergängen zwischen diesen Zuständen emittierten Teilchen oder Strahlen Linienspektren.
Die Quantelung der Energie tritt bei elektromagnetischen Wellen auf: Eine Welle der Frequenz kann Energie nur in Paketen abgeben, wobei die Planck-Konstante ist.
Technische Nutzung der Energie
Eine Erzeugung von Energie ist aufgrund des Energieerhaltungssatzes nicht möglich. Die Bezeichnung Energieerzeugung wird im Wirtschaftsleben aber dennoch verwendet, um die Umwandlung einer bestimmten Energieform (zum Beispiel elektrischer Strom) aus einer anderen Form (zum Beispiel chemischer Energie in Form von Kohle) auszudrücken. Analog gibt es im strengen physikalischen Sinne auch keinen Energieverbrauch, wirtschaftlich gemeint ist damit aber der Übergang von einer gut nutzbaren Primärenergie (zum Beispiel Erdöl, Gas, Kohle) in eine nicht mehr weiter nutzbare Energieform (zum Beispiel Abwärme in der Umwelt). Von Energieeinsparung ist die Rede, wenn effizientere Prozesse gefunden werden, die weniger Primärenergie für denselben Zweck benötigen, oder anderweitig, zum Beispiel durch Konsumverzicht, der Primärenergieeinsatz reduziert wird.
Die Physik beschreibt den oben eingeführten „Energieverbrauch“ mit dem exakten Begriff der Entropiezunahme. Während in einem abgeschlossenen System die Energie stets erhalten bleibt, nimmt die Entropie mit der Zeit stets zu oder bleibt bestenfalls konstant.
Das Gesetz der Entropiezunahme verhindert insbesondere, Wärmeenergie direkt in Bewegungs- oder elektrische Energie umzuwandeln. Stattdessen sind immer eine Wärmequelle und eine Wärmesenke (= Kühlung) erforderlich. Der maximale Wirkungsgrad kann gemäß Carnot aus der Temperaturdifferenz berechnet werden.
Der Grenzfall einer Energieumwandlung ohne Entropiezunahme wird als reversibler Prozess bezeichnet. Als Beispiel einer nahezu reversiblen Energieumwandlung sei ein Satellit auf einer elliptischen Umlaufbahn um die Erde genannt: Am höchsten Punkt der Bahn hat er hohe potentielle Energie und geringe kinetische Energie, am niedrigsten Punkt der Bahn ist es genau umgekehrt. Die Umwandlung kann hier ohne nennenswerte Verluste tausendfach im Jahr erfolgen. In supraleitenden Resonatoren kann Energie millionen- oder gar milliardenfach pro Sekunde zwischen Strahlungsenergie und elektrischer Energie hin- und hergewandelt werden, ebenfalls mit Verlusten von weniger als einem Promille pro Umwandlung.
Bei vielen Prozessen, die in der Vergangenheit noch mit hohen Verlusten ergo erheblicher Entropiezunahme verbunden waren, ermöglicht der technologische Fortschritt zunehmend geringere Verluste. So verwandelt eine Energiesparlampe oder LED elektrische Energie wesentlich effizienter in Licht als eine Glühlampe. Eine Wärmepumpe erzeugt durch Nutzung von Wärme aus der Umwelt bei einer bestimmten elektrischen Leistung oft vielfach mehr Wärme als ein herkömmliches Elektroheizgerät bei gleicher Leistung. In anderen Bereichen liegt der Stand der Technik aber schon seit geraumer Zeit nah am theoretischen Maximum, so dass hier nur noch kleine Fortschritte möglich sind. So verwandeln gute Elektromotoren über 90 Prozent der eingesetzten elektrischen Energie in nutzbare mechanische Energie und nur einen kleinen Teil in nutzlose Wärme.
Energiesparen bedeutet im physikalischen Sinn, die Energieentwertung und Entropiezunahme bei der Energieumwandlung oder Energienutzung zu minimieren.
Spezifische Energie
Spezifisch heißt in den Naturwissenschaften „auf eine bestimmte Bemessungsgrundlage bezogen“ (Bezogene Größe). Die spezifische Energie wird auf eine gewisse Eigenschaft eines Systems bezogen, die durch eine physikalische Größe beschrieben werden kann.
Nach DIN 5485 ist die spezifische Energie speziell massenbezogen, und die volumetrische Energiedichte die dimensional bezogene Bezeichnung.
Beispiele
Energie je Volumen in J/m³ (Dimension ): Enthalpie (Thermodynamik), spezifische Enthalpien wie z. B. die Schmelzenthalpie, Verdampfungsenthalpie, Kristallisationsenthalpie, Brennwert und Heizwert (Energietechnik), spezifische Verdichtungsenergie (Materialkunde), spezifische Energie von Sprengstoff
Energie je Masse in J/kg (Dimension ): spezifische Arbeit, spezifische Enthalpien (Thermodynamik), Brennwert und Heizwert fester Brennstoffe, spezifische Energie des Energiespeichers (Energietechnik), Elektrische Kapazität und Energiedichte des Plattenkondensators (Elektrotechnik), spezifische Energie des Massenpunkts (Mechanik)
Nicht als spezifisch, sondern als molar (normgerecht: stoffmengenbezogen) bezeichnet die Thermodynamik und Chemie stoffbezogene Energiewerte:
Energie je Stoffmenge in J/mol (Dimension ): molare Enthalpien (Thermodynamik)
Energieversorgung und -verbrauch
Mit Energieverbrauch wird umgangssprachlich die Nutzung von verschiedenen Energien in für Menschen gut verwendbaren Formen bezeichnet. Energieversorgung bezeichnet die Belieferung von Verbrauchern mit diesen Energieformen, inklusive der dazu notwendigen Energieinfrastruktur.
Die letztendlich an Verbraucher belieferte Energie bezeichnet man dabei als Endenergie. Es kann sich dabei sowohl um Primärenergie wie Erdgas zum Betrieb einer Heizung als auch um sogenannte Sekundärenergie wie Strom oder Fernwärme handeln, die aus Primärenergie durch eine verlustbehaftete Wandlung erzeugt wurde. Der Weg, den die Primärenergie vom ursprünglichen Primärenergieaufkommen über die Wandlung in andere Energieformen bis zur Endenergie und ihrem Verbrauch in unterschiedlichen Sektoren für unterschiedliche Zwecke nimmt, wird für eine Volkswirtschaft in Energiebilanzen beschrieben.
Die wichtigsten Anwendungsbereiche von Endenergie sind Wärme und Verkehr (siehe Grafik für Deutschland). Der wichtigste Energieträger in der deutschen Wärmeerzeugung ist Erdgas (Stand: 2019). Der wichtigste Energieträger für Verkehr und Transport sind Mineralöle (Kraftstoffe). Nur etwa 20 % des deutschen Endenergiebedarfs wird durch Strom gedeckt (Stand: 2021).
Einige Energieträger können über Leitungen die Verbraucher erreichen, wie typischerweise Brenngase, elektrische Energie, Prozess- und Heizwärme. Mineralöle, insbesondere Kraftstoffe (Benzine, Dieselkraftstoffe, Kerosin) werden mit Tankwagen über Zwischenlager an Tankstellen oder direkt an den Verbraucher geliefert. Lagerfähig und gut transportfähig sind auch Steinkohle, Heizöl, Kernbrennstoff und Biomasse.
Der Energiebedarf ist weltweit sehr unterschiedlich und in den Industrieländern um ein Vielfaches höher als zum Beispiel in der Dritten Welt (siehe Liste der Staaten mit dem höchsten Energieverbrauch).
In industriell hoch entwickelten Ländern spielt seit dem frühen 20. Jahrhundert die flächendeckende Versorgung der Allgemeinheit mit elektrischer Energie eine große Rolle. Weiterhin sind die Beschaffung, der Transport und die Veredlung von Brennstoffen zu Heizzwecken wichtige Wirtschaftszweige.
Energiequelle
Einheiten
Neben der abgeleiteten SI-Einheit Joule sind je nach Anwendungsgebiet noch andere Energieeinheiten in Gebrauch. Wattsekunde (Ws) und Newtonmeter (Nm) sind mit dem Joule identisch.
Das Elektronenvolt (eV) wird in der Atomphysik, der Kernphysik und der Elementarteilchenphysik zur Angabe von Teilchenenergien und Energieniveaus verwendet. Seltener kommt in der Atomphysik das Rydberg vor. Die cgs-Einheit Erg wird häufig in der theoretischen Physik benutzt.
Die Kalorie war in der Kalorimetrie üblich und wird heute noch umgangssprachlich und im Warenverkehr zusätzlich zur gesetzlichen Einheit Joule bei der Angabe des physiologischen Brennwerts von Lebensmitteln verwendet. In Kilowattstunden (kWh) messen Energieversorger die Menge der an die Kunden gelieferten Energie. Die Steinkohleeinheit und die Öleinheit dienen zur Angabe des Energieinhaltes von Primärenergieträgern. Mit dem TNT-Äquivalent misst man die Sprengkraft von Sprengstoffen.
Liste
Die folgenden Umrechnungen in diverse Einheiten gelten exakt (die Zahlenwerte wurden durch Definitionen festgelegt), ausgenommen dort, wo „≈“ steht.
Umrechnungen
In der folgenden Umrechnungstabelle ist jeweils die links angegebene Einheit gleich der Zahl mal der oben angegebenen Einheit:
Größenordnungen
Energie ist eine Größe, die auch im Alltag einen um viele Größenordnungen unterschiedlichen Wert annehmen kann. Beispiele sind:
1 J = 1 Ws = 1 Nm Potentielle Energie, die beim Anheben einer Schokoladentafel (ca. 100 g) um 1 Meter in dieser gespeichert wird.
3,6·106 J = 3600 kJ = 3600 kWs = 1 kWh Abrechnungseinheit für elektrische Energie (ugs. Strom), Gas usw. Ein europäischer Privathaushalt benötigt pro Jahr ca. 2000–4000 kWh an elektrischer Energie.
2,9·107 J = 8,141 kWh = 1 kg SKE Eine Steinkohleeinheit entspricht der Energiemenge, die beim Verbrennen von 1 kg Steinkohle umgewandelt wird. Dies ist ein gängiges Maß bei der Angabe von Primärenergie-Mengen. (1998 betrug der weltweite Primärenergie-Umsatz 14,1 Gt SKE = 390·1018 J)
1 eV = 1,602 176 565(35) · 10−19 J Die Einheit Elektronvolt wird unter anderem in der Festkörper-, Kern- und Elementarteilchenphysik verwendet. Ein Photon von violettem Licht hat eine Energie von ca. 3 eV, eines von rotem ca. 1,75 eV.
1 kg Masse ≙ 8,99 · 1016 J (89.875.517.873.681.764 J) gemäß der Beziehung von Einstein: E = mc2.
Formeln
Spannenergie einer gespannten Feder:
,
wobei die Federkonstante und die Auslenkung der Feder aus der Ruhelage ist.
Potentielle Energie eines Körpers mit Masse in einem homogenen Gravitationsfeld:
,
wobei die Masse, die Erdbeschleunigung und die Höhe, in der sich der Körper befindet, ist.
Kinetische Energie eines Körpers mit Masse und der Geschwindigkeit :
Rotationsenergie eines Körpers:
,
wobei das Trägheitsmoment um die betreffende Drehachse und die Winkelgeschwindigkeit ist.
Elektrische Energie in einem Stromkreis:
,
wobei die elektrische Spannung, der Strom durch die Leitung und die Zeitdauer ist.
Energie eines geladenen Kondensators:
,
wobei die Ladung, die Kapazität und die elektrische Spannung ist.
Magnetische Feldenergie einer stromdurchflossenen idealen Spule:
,
wobei die Induktivität und die elektrische Stromstärke ist.
Relativistische Energie eines freien Teilchens der Masse mit Geschwindigkeit :
,
wobei die Lichtgeschwindigkeit ist.
Energie von Lichtquanten (Photonen):
,
wobei die Planck-Konstante und die Frequenz ist.
Energie eines Erdbebens:
Tonnen TNT-Äquivalent,
wobei die Magnitude auf der Richterskala ist.
Arbeit (Energieänderung) ist das Integral der Kraft längs des zurückgelegten Weges :
Die an einem System im Zeitintervall verrichtete Arbeit kann auch über die Leistung definiert werden:
Siehe auch
Literatur
Jennifer Coopersmith: Energy – the subtle concept. Oxford University Press, 2010, ISBN 0-19-954650-9.
Max Jammer: Energy. In: Donald M. Borchert (Hrsg.): Encyclopedia of Philosophy. Band 3. Thomson Gale, 2005, S. 225–234.
Marc Lange: Energy (Addendum). In: Donald M. Borchert (Hrsg.): Encyclopedia of Philosophy. Band 3. Thomson Gale, 2005, S. 234–237.
Yehuda Elkana: Discovery of the conservation of Energy. Harvard University Press 1974, (Vorwort I. Bernard Cohen).
István Szabó: Geschichte der mechanischen Prinzipien. Birkhäuser 1979.
Martin Buchholz: Energie – Wie verschwendet man etwas, das nicht weniger werden kann? Springer, Heidelberg/Berlin, ISBN 978-3-662-49741-8.
Weblinks
Einzelnachweise und Anmerkungen
Physikalische Größenart
Physikalisches Grundkonzept
Energiewirtschaft
|
Q11379
| 2,181.204834 |
2929875
|
https://de.wikipedia.org/wiki/Homininae
|
Homininae
|
Als Homininae wird eine Unterfamilie (eine hierarchische Stufe des taxonomischen Systems) der Menschenaffen (Hominidae) bezeichnet, in der die Gorillas, die Schimpansen und die Menschen einschließlich aller ihrer Vorfahren bis zu deren Trennung von der Entwicklungslinie der Orang-Utans zusammengefasst sind.
Systematik
Für terminologische Verwirrung sorgt, dass in der jüngeren Fachliteratur allein hominin für den Menschen und seine Vorfahren bis zur Abzweigung der Schimpansen steht (das heißt: für die Hominini), in der älteren Fachliteratur hingegen häufig hominid im Sinne von hominin verwendet wird. Dies geschieht vor dem Hintergrund, dass die Systematiker bis in die 1980er Jahre der Taxonomie von Linné folgten, der nur Orang-Utans, Gorillas und Schimpansen in der Familie der Menschenaffen (Pongidae) zusammengefasst und diese der Familie der Echten Menschen (Hominidae; eingedeutscht: Hominiden) – mit Homo sapiens als einziger lebender Art – gegenübergestellt hatte. Aufgrund genetischer Vergleiche wurde später aber nachgewiesen, dass Schimpansen und Gorillas näher mit dem Menschen verwandt sind als mit den Orang-Utans. Daher wurden Menschen, Schimpansen und Gorillas nebst all ihren fossilen Vorfahren zu einem gemeinsamen Taxon zusammengefasst (den Homininae) und dieses neben das Taxon der Orang-Utans (Ponginae) gestellt.
Siehe auch
Hominisation
Stammesgeschichte des Menschen
Archaischer Homo sapiens
Liste homininer Fossilien
Literatur
Henry Gee: Hominid and hominin. In: Nature. Band 412, 2001, S. 131.
Winfried Henke, Hartmut Rothe: Stammesgeschichte des Menschen: Eine Einführung. Springer, Berlin 1998, ISBN 978-3540648314; Volltext (siehe insbesondere S. 45 – 47).
Weblinks
„What’s the difference between hominin and hominid?“
Hominoid taxonomies
Belege
Menschenaffen
Hominidae
Biologische Anthropologie
|
Q242047
| 98.689012 |
13894
|
https://de.wikipedia.org/wiki/Ekliptik
|
Ekliptik
|
Die Ekliptik ist die scheinbare Bahn der Sonne am Fixsternhimmel, wie sie von der Erde aus im Laufe eines Jahres gesehen wird. Die tatsächliche Erdbahn um die Sonne liegt in der Ekliptikebene. Auch der Mond und alle Planeten liegen bis auf wenige Grad Abweichung in dieser Ebene. Auf der Himmelskugel ist die Ekliptik ein Großkreis.
Die Ekliptik wurde bereits im frühen Altertum erkannt. Zwar nicht am Tag, aber in der Dämmerung ist die Position der Sonne vor dem Hintergrund der Sterne zu erkennen. Die Sonne durchläuft im Jahr eine feste Abfolge von 12 Sternbildern (nach antiker Einteilung) bzw. 13 Sternbildern (nach heutiger Einteilung). Eine etwa 20 Grad breite Zone um die Ekliptik heißt Tierkreis. Die Tierkreiszeichen sind nach den 12 antiken Sternbildern des Tierkreises benannt.
Der nördliche und der südliche Ekliptikpol sind die beiden Schnittpunkte der Himmelskugel mit einer Geraden, die durch den Erdmittelpunkt geht und senkrecht auf der Ekliptikebene steht.
Die Ebene der Ekliptik liegt nicht in der Ebene des Erdäquators, der durch die tägliche Rotation der Erde um die eigene Achse festgelegt ist, sondern ist um einen Winkel von ca. 23,5° verkippt. Dieser Winkel heißt Schiefe der Ekliptik und gibt auch den Winkelabstand der Ekliptikpole von den Himmelspolen an. Vom Polarstern ausgehend liegt der nördliche Ekliptikpol etwa im selben Abstand wie das Sternbild Großer Wagen, aber im Sternbild Drache.
Die vom Erdmittelpunkt aus gedachte Projektion des Erdäquators auf die Himmelskugel heißt Himmelsäquator. Die Ebene der Ekliptik wird also durch die jährliche Bahn der Erde um die Sonne bestimmt, die Ebene des Äquators durch die tägliche Rotation der Erde um die eigene Achse.
Etymologie
Der Name Ekliptik (‚ der Eklipse zugehörende Linie‘) für die scheinbare Bahn der Sonne ist abgeleitet von dem griechischen Ausdruck ekleiptikē [trochiá] für ‚verdeckende [Umlaufbahn]‘ (zu ékleipsis ‚Verlassen, Ausbleiben, (Sonnen-/Mond-)Finsternis‘), denn schon im Altertum war bekannt, dass sich eine Mondfinsternis nur ereignet, wenn der Mond die Sonnenbahn kreuzt.
Einführung
Die Sonne beschreibt am Himmel zwei unterschiedliche scheinbare Bahnen:
Infolge der Rotation der Erde um ihre eigene Achse scheint der Fixsternhimmel und vor ihm die Sonne im Laufe eines Tages von Ost nach West um die Erde zu rotieren. Dies führt zur scheinbaren täglichen Bewegung der Sonne relativ zum Horizont, dem Tagbogen.
Als Folge des jährlichen Umlaufs der Erde um die Sonne verschiebt sich dabei allmählich die Stellung der Sonne in Bezug auf den Fixsternhimmel pro Tag um etwa 1°. Sie durchläuft so in einem Jahr die 12 antiken beziehungsweise 13 modernen Sternbilder des Tierkreises.
Die Bahn der jährlichen scheinbaren Bewegung der Sonne relativ zum Fixsternhimmel ist die Ekliptik. Ihr Verlauf lässt sich z. B. darstellen, indem man die im Laufe eines Jahres ermittelten Positionen der Sonne auf einem Himmelsglobus vermerkt. Dabei spielt es praktisch keine Rolle, von welchem Ort der Erde aus die Beobachtungen durchgeführt werden, da die Sonne im Verhältnis zur Größe der Erde sehr weit entfernt ist und der Beobachtungswinkel somit nahezu gleich bleibt.
Die Ekliptikebene
Heliozentrisch betrachtet umläuft die Erde die Sonne auf einer in der Ekliptikebene liegenden Bahn.
Bei genauerer Betrachtung ist es nicht die Erde, die auf dieser Bahn um die Sonne läuft, sondern der gemeinsame Schwerpunkt von Erde und Mond (der noch im Innern der Erde, aber nicht in ihrem Zentrum liegt). Daher wandert die Sonne geozentrisch gesehen nicht exakt auf der Ekliptik über den Himmel, sondern ihre ekliptikale Breite schwankt im Monatsrhythmus um etwa ±0,7″ um den Mittelwert 0.
Die Ekliptikebene dient als Bezugsebene für Ortsangaben im Sonnensystem (ekliptikales Koordinatensystem).
Die Schiefe der Ekliptik
Die Erdachse, die Rotationsachse der Erde, steht nicht senkrecht auf der Ebene der Erdbahn, sondern bildet mit ihr einen Winkel von zurzeit . Dadurch schließt die Ebene des Äquators der Erde bzw. des Himmelsäquators mit der ekliptikalen Ebene derzeit einen Winkel von () ein, der Schiefe der Ekliptik oder Obliquität genannt wird (lat. obliquus ‚schief‘).
Die Bezeichnung Erdneigung gibt diesen Winkel unter dem Blick von der Ekliptikebene auf die Erde wieder, der Perspektive des ekliptikalen Koordinatensystems.
Die Schiefe der Ekliptik ist eine der zehn wichtigsten Basisgrößen der Astronomie und Geodäsie zur Definition von Koordinatensystemen und für Berechnungen. Sie wird meist mit dem griechischen Buchstaben ε (epsilon) bezeichnet. Durch die Gravitationseinflüsse der anderen Körper im Sonnensystem ändert sie sich langperiodisch: Sie variiert innerhalb von rund 40.000 Jahren etwa zwischen 21° 55′ und 24° 18′, also um über 2°.
Die Jahreszeiten
Während die Erde die Sonne umläuft, bleibt die Richtung ihrer Achse im Raum fast unverändert, wenn man von den oben beschriebenen langperiodischen Effekten absieht. Dadurch ist von März bis September die Nordhalbkugel etwas mehr zur Sonne hin geneigt, von September bis März die Südhalbkugel. Im Jahreslauf ändern sich daher der Einfallswinkel der Sonnenstrahlen und die Dauer des lichten Tages, womit die Jahreszeiten entstehen.
Der Tierkreis
Während die Bahn der Erde in der Ekliptikebene liegt und die Sonne von der umlaufenden Erde aus gesehen jährlich eine Bahn längs der Ekliptik zu durchlaufen scheint, sind die Bahnebenen des Mondes und der anderen Planeten gegenüber der Ekliptikebene verschieden leicht geneigt. Deren scheinbare Bahnen verlaufen daher innerhalb eines einige Grad breiten Streifens um die Ekliptik, dem Zodiak oder Tierkreis. Seit der Antike wird dieser vom Frühlingspunkt aus nach Osten in zwölf gleich große Abschnitte unterteilt (zu je 360°/12 = 30°), denen Zeichen des Tierkreises zugeordnet sind. Diese haben ihre Namen zwar von den Ekliptiksternbildern, doch stimmen sie in ihrer Lage nicht mehr mit denen überein. In der Astrologie werden die Positionen von Sonne, Mond und Planeten bezogen auf die Tierkreiszeichen beschrieben.
Die Präzession
Die beiden Ekliptikpole bilden die Mittelpunkte zweier Kreise, auf denen sich der nördliche bzw. südliche Himmelspol im Laufe eines Platonischen Jahres von rund 26.000 Jahren infolge der Präzession der Erdachse bewegt.
Da die Gestalt der Erde von einer Kugel abweicht (Erdellipsoid), bewirken die Gezeitenkräfte von Mond und Sonne ein Drehmoment, das die schrägstehende Erdachse aufzurichten versucht und dabei deren Richtung ändert. Wie bei einem schräglaufenden Kreisel beschreibt die Erdachse, deren Verlängerung die beiden Himmelspole zeigt, daher eine Präzessionsbewegung und wandert auf einem Kegelmantel mit Öffnungswinkel 2ε um die Ekliptikpole. Auf präziseren Sternkarten sind diese Ekliptikpole eingezeichnet – der nördliche befindet sich im Sternbild Drache, definitionsgemäß auf Rektaszension 18 h (mit einer Deklination von 90°−ε, z. Z. rund 66° 34′), der südliche im Sternbild Schwertfisch auf 6 h.
Der „Erdkreisel“ ist wegen der großen Erdmasse von knapp 6·1024 kg sehr träge, die Erdachse braucht für einen Zyklus der Präzession etwa 25.700–25.800 Jahre (Platonisches Jahr). Der heutige Polarstern nimmt seine Rolle also nur vorübergehend ein.
Geschichte
Für die frühen Astronomen war die am Nachthimmel unmittelbar zu beobachtende Bahn des Mondes und die Auf- und Untergänge der Sterne mit der größten Leuchtkraft offensichtlich; den Zusammenhang von Ekliptik und scheinbarer Bahn der Sonne erkannte man noch nicht. Allerdings wurden, angeregt durch Sonnen- und Mondfinsternisse, die von der Position des Mondes im Bezug auf die Ekliptikbahn abhängig sind, entsprechende Mythen entwickelt. Die frühe chinesische Astronomie spricht von einem himmlischen Drachen, der Mond und Sonne verschlingt. Die frühe Indische Astronomie kennt den Dämonen Rahu, der beide Gestirne verschlingt. Solche und ähnliche Mythen führten zur Bezeichnung Drachenpunkte für die Mondknoten.
Die altägyptischen Vorstellungen des Himmels bezogen sich dagegen mit mythologischem Hintergrund unter anderem auf Dekan-Sterne und orientierten sich an deren heliakischer Sichtung. Erst in der hellenistischen Zeit wurde das in Mesopotamien entwickelte Konzept des Zodiaks aufgenommen. Dort hatte die Beobachtung der Gestirne schon im Altbabylonischen Reich eingesetzt. Aber erst in der Assyrischen Zeit (1200–630 v. Chr.) wurden Vorstellungen entwickelt, die der Ekliptik nahestehen. So findet sich in der Datensammlung der MUL-apin-Texte die Idee der vier Jahreszeiten, in der die Sonne unterschiedliche Sternbilderwege durchläuft und sich damit in einem schiefen Kreis bewegt. In der Perserzeit (539–326 v. Chr.) wurde dann die Einteilung der Ekliptik in die 12 Tierkreiszeichen geschaffen. Diese Entwicklung ist dokumentiert durch hunderte babylonische Keilschrifttafeln, auf denen astronomische Messreihen in babylonischen Zahlzeichen mit Angabe ekliptikbezogener Positionen verzeichnet sind.
Mit dem geozentrischen Weltbild der Philosophie der Antike wurden die am Himmel beobachteten Bewegungen so aufgefasst, dass die im Westen untergehende Sonne bei der nächtlichen Rückkehr nach Osten auf einer sich drehenden Sphäre um die Erde wandert. Diese einer Kugeloberfläche ähnliche Schale mit der Sonne verschiebe sich auch gegen jene der Fixsterne, sodass die Sonne den jeweils 12 Stunden später erscheinenden Sternen gegenübersteht. Mit dieser Vorstellung konnte die aus der Sternbeobachtung schon bekannte Verschiebung des Sternenhimmels in Einklang mit der Beobachtung gebracht werden, dass die Sonne bezüglich der Sterne innerhalb eines Jahres um die Erde zu kreisen scheint, auf der Ekliptik genannten Bahn – nach heutigem Verständnis als geozentrisch bezogene scheinbare Bewegung. Unter Zugrundelegung dieses Weltbildes beschäftigten sich mehrere griechische Philosophen mit der Ekliptik und den darauf befindlichen Tierkreiszeichen. Durch erhaltene Schriften oder Erwähnungen bei späteren Autoren sind insbesondere bekannt Anaximander (6. Jahrhundert v. Chr.), Pythagoras (6. Jahrhundert v. Chr.), Oinopides (5. Jahrhundert v. Chr.) und Eudoxos von Knidos (4. Jahrhundert v. Chr.). Mitte des 2. Jahrhunderts schrieb dann der Gelehrte Claudius Ptolemäus eine umfassende Darstellung des astronomischen Wissens. In diesem Werk, dem Almagest, definiert er die Ekliptik als Großkreis auf der Sphäre und erstellt eine Reihe – auch trigonometrischer – Berechnungen, z. B. eine Tabelle der Schiefe (der Ekliptik).
In Europa wurde eine Einteilung der Ekliptik in zwölf gleich große Sektoren während der Antike eingeführt. In Indien hingegen wurde traditionell die Mondbahn nach Sterngruppen längs der Ekliptik in 27 Nakshatras (Stationen des Monds) aufgeteilt. Diese Anzahl entspricht der abgerundeten Zahl an Tagen eines siderischen Monats (27,32 d), womit der Mond in der Regel jeden Tag in einem anderen Haus aufgeht. Das bereits im Yajurveda (etwa 1000 v. Chr.) überlieferte System ist im asiatischen Raum weit verbreitet; umstritten ist, ob ihm ein von chinesischen Astronomen entwickeltes System vorausging.
Schon in vorislamischer Zeit wurde die Aufteilung in Nakshatras auch im arabischen Raum bekannt, und umgebildet in das Manazil al-Qamar (Mondhäuser) genannte System, das die Ekliptik nach Sterngruppen in 28 Mondhäuser gliedert. Nach der Bildung mächtiger Kalifate entstanden aber Bildungszentren und Bibliotheken, an denen die griechischen astronomischen Texte in die arabische Sprache übersetzt wurde. Insbesondere der Almagest des Claudius Ptolemäus wurde bereits Ende des 8. Jahrhunderts übersetzt und gewann großen Einfluss. Die Werke wurden aber nicht nur rezipiert, sondern auch weiterentwickelt. So wurden etwa die von Ptolemäus übermittelten Werte für die Schiefe der Ekliptik von arabischen Astronomen verbessert (Al-Battani, 9. Jahrhundert).
Das Frühmittelalter bietet eine Reihe astronomischer Texte. Es sind aber weitgehend Exzerpte aus spätantiken Sammelwerken (hauptsächlich Macrobius Ambrosius Theodosius und Martianus Capella). Erst spätere Autoren, wie Georg von Peuerbach und Regiomontanus (beide Mitte 15. Jahrhundert) beschäftigen sich mit der Ekliptik. Schließlich präzisiert Kopernikus in seiner Schrift Commentariolus (Kapitel De motibus, qui circa Solem apparent): Die Achse ist um etwa 23 1/2 Grad schräggestellt. Der Erdmittelpunkt bleibt auf der Ebene der Ekliptik (Übersetzung Hans Günter Zekl, gekürzt; dieser Wert war genau 23° 30′ 00″ im Jahr 1532). Seit etwa der Zeitenwende wissen Astronomen, dass die Erdachse präzediert, allerdings wurde der heute bekannte Wert von 25.700 bis 25.800 Jahren erst im 13. Jahrhundert festgestellt, und der Wert der Präzessionskonstante wurde von Friedrich Wilhelm Bessel anhand der Messungen von Sternörtern durch James Bradley aus der Mitte des 18. Jahrhunderts präzise bestimmt. Dass sich außer ihrer Richtung auch die Schiefe der Ekliptik verändert, ahnte man erst im Mittelalter. Man vermutete damals, dass ihr Winkel im Lauf der Jahrtausende alle Werte von 0° bis 90° annimmt. Erst im 16. Jahrhundert wurde klar, dass die Schwankungsbreite viel geringer ist; Kopernikus ging von Änderungen der Ekliptikschiefe zwischen max. 23° 52′ und min. 23° 28′ aus, nur rund 24′.
Schwankung der Erdachse und der Ekliptikschiefe
Auch der Winkel der Ekliptikschiefe ändert sich langperiodisch durch die gegenseitigen Gravitationseinflüsse der Körper im Sonnensystem. Daher variiert ε innerhalb von etwa 41.000 Jahren zwischen etwa 21° 55′ und 24° 18′. Dieser Effekt trägt neben den Schwankungen der Exzentrizität der Erdbahn (100.000 Jahre) und der Präzession (25.780 Jahre) zur Entstehung der Eiszeiten bei (als einer der Faktoren der langfristig-regelmäßigen, natürlich auftretenden Klimaschwankungen, die man Milanković-Zyklen nennt):
Als erste Näherung wird für die mittlere Ekliptikschiefe angegeben:
ε0 = 23° 26′ 21,45″ − 46,8″·T,
wobei T den Zahlenwert der Zeit in Julianischen Jahrhunderten seit der Epoche J2000.0 (1. Januar 2000 12.00 TT) bezeichnet(in der Epoche J2000.0 hat die Ekliptik die Richtung (0, sin(ε), cos(ε))).
Im Jahr 2014 beträgt die Schiefe der Ekliptik also:
23° 26′ 14,9″ = 23,43747°.
Überlagert wird der Wert der mittleren Ekliptikschiefe von der Wirkung der Nutation in einer Größenordnung von Δε = ±9,21″ (Nutation in Schiefe).
Tabelle der Ekliptikschiefe
Man sieht bereits aus diesen 6 von 40 Jahrtausenden, dass sich die Änderung per 500 Jahre von −2,9′ auf −3,9′ beschleunigt, weil die absinkende Sinuswelle noch bis ins 5. Jahrtausend steiler wird (Mittelwert ε = 23° 06′ um das Jahr 4300).
Messung der Schiefe der Ekliptik
Die klassische Methode, die Ekliptikschiefe zu bestimmen, ist die präzise Messung der Mittagshöhen der Sonne (z. B. mit dem Meridiankreis) und deren Wiederholung zu verschiedenen Jahreszeiten. Aus dem Höhenwinkel erhält man durch Berücksichtigung von geografischer Breite, atmosphärischer Strahlenbrechung (Refraktion) und verschiedener Eichgrößen des Fernrohrs die Deklination δ der Sonne.
Durch den zeitlichen Verlauf der Deklination δ zwischen den Grenzen +ε und −ε erhält man ε zum mittleren Zeitpunkt der Beobachtungen. Dabei wird δ als sinusähnliche Funktion von ε und der Länge λ angesetzt.
Berechnungen
Von Leonhard Euler bis Laplace
Die Ursache für die Änderungen der Ekliptikschiefe sind die anderen 7 Planeten, deren Bahnebenen von jener der Erde um 1° (Jupiter, Uranus) bis 7° (Merkur) abweichen. Sie üben Drehmomente auf die Erde aus wegen deren Abplattung (Abweichung von der Kugelform 0,3353 %, Durchmesser am Äquator etwa 43 km größer als zwischen den Polen).
Die erste theoretische Berechnung dieser Änderung der Ekliptikschiefe ε gelang Leonhard Euler im Jahr 1754. Als Ergebnis seiner Analyse erhielt er für die Änderungsrate dε/dt der Ekliptikschiefe den Wert −47,5″/Jh., woraus er für das Jahr 1817 für die Schiefe den Wert ε = 23° 27′ 47,0″ prognostizierte. Als die Massen der Planeten genauer bekannt waren, wiederholte Joseph-Louis Lagrange 1774 Eulers Berechnungen, woraus er −56,2″ pro Jahrhundert und für 1817 den Wert 23° 47′ 48,0″ erhielt. 1782 kam er mit verbesserter Theorie auf −61,6″/Jh., wogegen Jérôme Lalande um 1790 in seinen Astronomietafeln die Änderungsrate −33,3″/Jh. und für 1817 den Wert 23° 47′ 38,9″ erhielt.
Diese doch beträchtlichen Unterschiede zwischen so hervorragenden Mathematikern veranlassten Pierre-Simon Laplace (1749–1827) zu einer noch gründlicheren Analyse, aus der ein Schwankungsbereich von ±1,358° folgte. Er weicht vom heutigen Wert nur um 0,6° (in 20 Jahrtausenden) ab. Der Mannheimer Astronom Friedrich Nicolai – ein Schüler von Carl Friedrich Gauß – errechnete für das Jahr 1800 die Änderungsrate dε/dt = −49,40″/Jh. Auch andere berühmte Himmelsmechaniker erforschten den Verlauf dieser fundamentalen Größe, und Urbain Le Verrier publizierte 1858 die theoretische Formel
wobei die Zeit in julianischen Jahrhunderten ab 1850.0 zählt. Le Verrier bemerkte aber als erstes, dass sein Wert von −47,6″/Jh. dem beobachteten Wert von etwa −46,8″/Jh. leicht widersprach.
Von Newcomb (1895) bis zur Raumfahrt
Gegen Ende des 19. Jahrhunderts war der allgemein akzeptierte Wert jener von John Nelson Stockwell (1873), nämlich ±1,311379° bzw. −48,968″/Jh. Später wurde für dieses Problem ein Preis ausgeschrieben, für den Paul Harzer 1895 alle säkularen Bahnstörungen der acht Planeten berechnete. Um hierfür die (vor Albert Einstein noch unerklärliche) Periheldrehung des Merkur zu berücksichtigen, nahm er eine spezielle Massenverteilung in der Sonne an, und erhielt 47,499″ (bzw. ohne die Korrektur 0,14″ weniger). Im selben Jahr entwickelte Simon Newcomb seine Theorie der Fundamentalastronomie und benutzte Beobachtungen vieler berühmter Sternwarten. Seine bis etwa 1970 verwendeten Werte sind:
( die Zeit in julianischen Jahrhunderten ab 1900.0).
Eine Neuberechnung von Eric Doolittle 1905 wich davon nur um 0,07″ ab, was nicht viel über der damaligen Messgenauigkeit von ε lag. Das in T quadratische Polynom ist allerdings nur als Approximation zu verstehen, da sich die Ekliptikschiefe periodisch ändert. Um 1960 nahm man eine Periode von 41.050 Jahren an.
Aktueller Stand der Theorie
Heute sind die Planetenmassen durch interplanetare Raumsonden etwa 100-mal genauer bekannt – und daher auch die langfristigen Änderungen der Ekliptikschiefe. Im Jahr 1970 berechnete J. Lieske deren säkularen Trend zu:
Aus allen geeigneten Beobachtungen bis zurück zur Zeit Leonhard Eulers (s. oben) erhält man für 1817 den Wert ε = 23° 27′ 47,1″ – was von den Werten der damaligen Astronomen nur um 0,5″ abweicht.
1984 ging man auf die Bezugs-Epoche J2000.0 über:
Der Unterschied zum System 1970 liegt mit 0,008″ unter der damaligen Standardabweichung.
Axel D. Wittmann publizierte 1984 eine Ausgleichsrechnung, die auf circa 60 von 230 historischen Solstitialbeobachtungen fußt, welche von ihm neu reduziert wurden. Er erhielt neben einem Polynom 3. Grades auch eine Formel mit einem Sinusglied:
( die Zeit in julianischen Jahrhunderten seit J2000.0)
Der Astronomical Almanac führte 1984 folgende Formel ein, die auch von der IAU angenommen wurde:
dezimal
( die Zeit in julianischen Jahrhunderten seit J2000.0)
Jacques Laskar gibt 1986 eine Formel an, die im Zeitraum J2000.0 ± 10.000 Julianische Jahre Gültigkeit hat. Die größte Abweichung beträgt zwischen den Jahren +1000 und +3000 etwa 0,01″ und an den Gültigkeitsgrenzen einige wenige Bogensekunden:
wobei den Zahlenwert der Zeit in julianischen Jahrzehntausenden seit J2000.0 bezeichnet.
Literatur
Andreas Guthmann: Einführung in die Himmelsmechanik und Ephemeridenrechnung. BI-Wiss.-Verl., Mannheim 1994, ISBN 3-411-17051-4.
John David North: Viewegs Geschichte der Astronomie und Kosmologie. Braunschweig/Wiesbaden 1997.
B. L. van der Waerden: Erwachsende Wissenschaft. Basel/Boston/Stuttgart 1980.
Weblinks
Astronomical Constants (USNO Circular 163) (PDF; 3,3 MB)
Obliquity of the Ecliptic for any Given Date and Time
Einzelnachweise
Himmelsmechanik
Sphärische Astronomie
Astronomisches Koordinatensystem
|
Q79852
| 493.627224 |
754
|
https://de.wikipedia.org/wiki/Cyanwasserstoff
|
Cyanwasserstoff
|
Cyanwasserstoff (Blausäure) ist eine farblose bis leicht gelbliche, brennbare, sehr flüchtige und wasserlösliche Flüssigkeit. Die Bezeichnung Blausäure rührt von der früheren Gewinnung aus Eisenhexacyanidoferrat (Berliner Blau) her, einem lichtechten tiefblauen Pigment. Blausäure kann als Nitril der Ameisensäure angesehen werden (der Nitrilkohlenstoff hat die gleiche Oxidationsstufe wie der Carboxylkohlenstoff), daher rührt auch der Trivialname Ameisensäurenitril.
Blausäure ist hochgiftig. Ihre tödliche Wirkung wurde in der Geschichte verschiedentlich gegen Menschen eingesetzt, vor allem bei den Massenmorden zur Zeit des Nationalsozialismus im KZ Auschwitz, und fand auch Eingang in die Literatur (Kriminalromane). Industriell wird Blausäure als Vorprodukt und Prozessstoff sowie zur Schädlingsbekämpfung eingesetzt.
Nach verbreiteter Auffassung geht von Blausäure ein charakteristischer Geruch nach Bittermandeln aus. Der tatsächliche Geruch der Substanz wird jedoch in der Literatur nicht einhellig so beschrieben und von manchen Menschen abweichend wahrgenommen, z. B. „dumpf“ oder „scharf“. Ein erheblicher Teil der Bevölkerung nimmt den Geruch von Blausäure überhaupt nicht wahr (siehe auch Handhabung).
Eigenschaften
Blausäure ist in hochreiner Form eine farblose, leichtbewegliche, mit Wasser und Alkohol in jedem Verhältnis mischbare Flüssigkeit. Der Siedepunkt liegt bei 26 °C. Die Substanz verdampft bei Raumtemperatur so schnell, dass ein Teil davon wegen der Verdunstungskälte erstarren kann.
Blausäure hat in verdünnter Form einen betäubend-dumpfen, an bittere Mandeln erinnernden Geruch, der sich aber signifikant von z. B. Bittermandelaroma unterscheidet. In konzentrierter Form riecht Blausäure unangenehm und nicht definierbar, intensiv stechend-scharf und kratzend, reizt die Schleimhäute und die Kehle und hinterlässt einen bitteren Geschmack und kurzzeitiges Brennen in der Nase. Allerdings lähmt die Substanz schon in sehr kleinen Mengen nach kurzer Zeit die Geruchs- und Geschmacksnerven.
Blausäure ist in Wasser eine sehr schwache Säure, die schon von Kohlensäure aus ihren Salzen, den Cyaniden, getrieben wird und nur zu einem kleinen Anteil dissoziiert:
Von den Salzen der Blausäure sind die der Alkali- und Erdalkalimetalle sowie das Quecksilber(II)-cyanid in Wasser leicht löslich, alle anderen sind schwer löslich.
Ihr pKS-Wert wird, je nach Quelle, mit 9,04 bis 9,31 angegeben. Die Dissoziationskonstante beträgt 4,0·10−10. Blausäure ist hochentzündlich, Gemische mit Luft sind im Bereich von 5,4–46,6 Vol.-% explosiv. Da Blausäure zudem mit Wasser in jedem Verhältnis mischbar ist, besteht beim Löschen von Bränden die Gefahr einer Kontamination des Grundwassers. Daher wird gegebenenfalls ein kontrolliertes Abbrennen in Betracht gezogen.
Blausäure kann in einer autokatalysierten Reaktion spontan polymerisieren oder in die Elemente zerfallen. Diese Reaktion ist stark exotherm und verläuft explosionsartig. Sie wird durch geringe Mengen an Basen initiiert und durch weitere Base, die sich dabei bildet, beschleunigt. Wasserhaltige Blausäure ist dabei instabiler als vollkommen wasserfreie. Es entsteht ein braunes Polymer. Aus diesem Grund wird Blausäure durch Zugabe geringer Mengen an Säuren, wie Phosphor- oder Schwefelsäure, stabilisiert. Die Säure neutralisiert die Basen und vermeidet eine Durchgehreaktion.
Geschichte
Der Name Blausäure geht auf das Pigment Berliner Blau zurück, aus dem die Substanz zuerst hergestellt wurde. 1782 erschien eine Veröffentlichung von Carl Wilhelm Scheele, die die Herstellung von Blausäure sowohl aus gelbem Blutlaugensalz und Schwefelsäure als auch aus Berliner Blau und Schwefelsäure beschreibt. Die Versuche dazu hatte Scheele bereits 1768 begonnen. Die Silbe Cyan wurde von Joseph Louis Gay-Lussac eingeführt.
Nachweis
Ein klassisches Verfahren ist der Nachweis über die Cyanid-Ionen: Zu einer alkalischen Lösung wird im Unterschuss Eisen(II)-sulfat-Lösung zugegeben. Sind Cyanid-Ionen vorhanden, bildet sich nach dem Ansäuern Berliner Blau. Es entweicht Blausäure.
Bei Zugabe von Quecksilber(II)-chlorid entsteht Chlorwasserstoff-Gas. Dieses kann durch einen Säureindikator nachgewiesen werden.
Ein Becherglas mit der leicht angesäuerten zu prüfenden Lösung wird mit einem Filterpapier abgedeckt, welches zuvor mit einer wässrigen Lösung, enthaltend Kupfer(II)-acetat und Benzidinacetat, angefeuchtet wurde. Bei Anwesenheit von HCN tritt eine deutliche Blaufärbung des Filterpapiers auf (Benzidinblau). Über diese sehr empfindliche Reaktion können noch 25 mg HCN in 1 m3 Luft nachgewiesen werden.
Giftwirkung
Blausäure ist extrem giftig, schon 1–2 mg Blausäure pro kg Körpermasse wirken tödlich. Die Aufnahme kann, neben der direkten Einnahme, auch über die Atemwege und die Haut erfolgen. Letzteres wird durch Schweiß begünstigt, da Blausäure eine hohe Wasserlöslichkeit aufweist. In Deutschland wurde die Substanz vom Umweltbundesamt in die Wassergefährdungsklasse 3 (stark wassergefährdend) eingestuft.
Die primäre Giftwirkung besteht in der Blockade der Sauerstoff-Bindungsstelle in der Atmungskette der Körperzellen. Dabei bindet sich das Cyanid irreversibel an das zentrale Eisen(III)-Ion des Häm-a3-Kofaktors in der Cytochrom-c-Oxidase in den Mitochondrien. Durch die Inaktivierung des Enzyms kommt die Zellatmung zum Erliegen, die Zelle kann den Sauerstoff nicht mehr zur Energiegewinnung verwerten, und es kommt damit zur sogenannten „inneren Erstickung“. Der Körper reagiert auf den vermeintlichen Sauerstoffmangel mit einer Erhöhung der Atemfrequenz. Da der Sauerstoff im Blut nicht verwertet werden kann und sich in Folge auch im venösen Blut ansammelt, zeigt sich eine hellrote Färbung der Haut. Schließlich sterben die Zellen an Mangel an ATP, das normalerweise in der Zellatmung gebildet wird. Die Bindung des Cyanids an Eisen(II)-Ionen ist vergleichsweise schwach. Die Inaktivierung des Hämoglobins spielt daher bei Vergiftungen eine untergeordnete Rolle.
Gegengifte sind 4-Dimethylaminophenol (4-DMAP), Natriumthiosulfat, Hydroxycobalamin, Isoamylnitrit.
Der in vielen Nahrungsmitteln in geringen Konzentrationen enthaltene Cyanwasserstoff wird vom menschlichen Enzym Rhodanase zu dem wesentlich weniger gefährlichen Thiocyanat (Rhodanid) umgewandelt.
Natürliches Vorkommen
Die Kerne einiger Steinobstfrüchte (Mandel, insbesondere Bittermandel, Aprikose, Pfirsich, Kirsche) und anderer Rosengewächse enthalten geringe Mengen an Blausäure; diese dient teilweise als Fraßschutz der Samen und auch als chemischer Keimungshemmer, indem die Atmung der Samen gehemmt wird. Erst nachdem die Fruchtwand (Endokarp) verrottet ist, kann die Blausäure entweichen und somit der Keimungsprozess einsetzen. Die in den Tropen vielfach als Nahrungsmittel genutzte Knolle des Maniok enthält ebenfalls als cyanogenes Glykosid gebundene Blausäure, die durch die Verarbeitung vor dem Verzehr der Pflanze entfernt wird. Weitere wichtige Nahrungsmittel mit toxikologisch relevanten Blausäuregehalten sind Yamswurzel, Süßkartoffel (gewisse Sorten), Zuckerhirse, Bambus, Leinsamen und Limabohne. Unreife Bambussprossen, die in östlichen Ländern als Delikatesse gelten, enthalten hohe Blausäuregehalte, Vergiftungsfälle sind bekannt. Durch Zubereitung (intensives Kochen) wird die Blausäure von den Glykosiden abgespalten und in die Luft abgegeben.
Cyanogene Giftpflanzen sind unter den höheren Pflanzen weit verbreitet und können bei Verletzung des Pflanzengewebes durch Pflanzenfresser HCN aus cyanogenen Glykosiden mittels des Enzyms Hydroxynitrillyase freisetzen. Einige Beispiele für cyanogene Pflanzen sind der tropische Goldtüpfelfarn (Phlebodium aureum), ein Mitglied der Tüpfelfarngewächse, oder der brasilianische Gummibaum (Hevea brasiliensis). Weiß-Klee enthält das Blausäureglyklosid Linamarin, das bei oraler Aufnahme von Pflanzenteilen für kleine Tiere (z. B. Schnecken) besonders giftig ist, da sich hieraus Blausäure abspalten kann. Einer der bekanntesten Stoffe, die Blausäure abspalten und in Kernen einiger Steinobstfrüchte vorkommen, ist Amygdalin.
Blausäure als Neuromodulator und endogene Bildung von Blausäure im menschlichen Organismus
Blausäure wird auch endogen im menschlichen Organismus gebildet und hat offenbar die Rolle eines Neuromodulators. Weiterhin wird Blausäure z. B. auch durch Gabe von Opioiden über die Aktivierung von µ-Opioidrezeptoren generiert. Die endogene Bildung von Blausäure ist auch in der Forensik von Bedeutung. So wird beim Aufbewahren von Leichen bei 4 °C nach etwa 2 Wochen durch Fäulnisprozesse und Autolyse Blausäure gebildet, wobei die Konzentration nach etwa 6 Wochen ihr Maximum erreicht und danach langsam geringfügig abfällt.
Lebensmittelrechtliche Regelung
In der EU werden die Höchstmengen an Blausäure in Lebensmitteln durch die Verordnung (EG) Nr. 1881/2006 geregelt. So darf der Gehalt an Blausäure in Leinsamen 250 mg/kg und, wenn sie für den Endverbraucher bestimmt sind, 150 mg/kg nicht überschreiten. In für den Endverbraucher bestimmten Mandeln beträgt der Höchstwert 35 mg/kg, in Aprikosenkernen 20 mg/kg. In frischem Maniok darf maximal 50 mg/kg, in Maniok- oder Tapiokamehl maximal 10 mg/kg Blausäure enthalten sein.
Herstellung
Industrielle Erzeugung
Für die Herstellung von Cyanwasserstoff sind folgende Verfahren von Bedeutung:
Bei der Ammonoxidation von Methan (Andrussow-Verfahren) wird ein Gemisch aus Ammoniak und Methan bei rund 1200 °C an einem Platinnetz als Katalysator oxidiert. Die Reaktion ist stark exotherm.
Bei der Ammondehydrierung von Methan (Degussa-BMA-Verfahren) werden Ammoniak und Methan mit Hilfe eines Platinkatalysators zu Blausäure und Wasserstoff umgesetzt. Die Reaktion verläuft endotherm.
Bei der Formamid-Spaltung in Cyanwasserstoff und Wasser werden Katalysatoren verwendet, die die erwünschte Reaktion beschleunigen, während die thermische Spaltung, die zu unerwünschten Produkten führt, verdrängt wird. Hierfür sind geheizte Metalloberflächen – aus Messing oder Eisen – geeignet, die mit einer Metalloxidschicht, etwa aus Zink-, Aluminium-, Magnesium-, Chrom- oder Zinnoxiden, überzogen sind, oder auch gesinterte Formkörper aus Aluminiumoxid und Siliciumdioxid oder solche aus Chrom-Nickel-Edelstahl.
Als Nebenprodukt bei der Herstellung von Acrylnitril durch Ammoxidation von Propylen (Sohio-Verfahren). Die Menge an anfallender Blausäure kann dabei durch Zugabe von Methanol erhöht werden.
Fluhomic- oder Shawinigan-Verfahren, bei dem Kohlenwasserstoffe und Ammoniak in einem Lichtbogen umgesetzt werden. Dieses Verfahren ist nur von untergeordneter Bedeutung und wird dort ausgeübt, wo elektrischer Strom preiswert ist.
Von historischer Bedeutung ist außerdem die Thermolyse von Kaliumhexacyanoferrat (III) (Erlenmeyer-Verfahren).
Im Labor
Werden im Labor geringe Mengen Cyanwasserstoff benötigt und steht keine entsprechende Gasdruckflasche zur Verfügung, so kann er leicht aus seinen Salzen durch Zugabe einer stärkeren Säure gewonnen werden:
2 NaCN + H2SO4 -> Na2SO4 + 2 HCN
oder
K4[Fe(CN)6] + 3 H2SO4 -> 2 K2SO4 + FeSO4 + 6 HCN
Auf Grund dieser leichten Freisetzung von Cyanwasserstoff ist beim Arbeiten mit seinen Salzen im Labor immer darauf zu achten, dass der pH-Wert der Lösung nicht sauer wird, da ansonsten eine (unbeabsichtigte) Freisetzung erfolgt.
Abfall- und Nebenprodukt
Blausäure wird bei fehlerhafter Handhabung von Prozessschritten in der Galvanik frei.
Beim Verbrennen stickstoffhaltiger Polymere (Kunststoffe) kann in erheblichem Umfang Blausäure entstehen.
Beim Rauchen von Tabak und bei der Verbrennung von Esbit werden geringe Mengen Blausäure freigesetzt.
Handhabung
Genetisch bedingte Wahrnehmungseinschränkung
Mehr als ein Viertel der Bevölkerung kann den Geruch von Blausäure nicht wahrnehmen, häufig wird die Wahrnehmung durch Lähmung der Geruchsnervenzellen verhindert. Es müssen daher besondere Sicherheitsmaßnahmen beim Umgang mit Blausäure getroffen werden. Das Bayerische Landesamt für Gesundheit und Lebensmittelsicherheit berücksichtigt dies bei Eignungsuntersuchungen von Befähigungsscheinbewerbern für Begasungen bzw. Schädlingsbekämpfung.
Lagerung
Wasserfreie Blausäure muss gekühlt gelagert werden, und Gefäße mit Blausäure dürfen nur in stark gekühltem Zustand vorsichtig geöffnet werden. Anderenfalls stehen diese wegen des niedrigen Siedepunkts unter starkem Druck, wobei beim unvorsichtigen Öffnen schlagartig erhebliche Mengen davon gasförmig entweichen und schlimmstenfalls flüssige Substanz verspritzen kann.
Reinste, wasserfreie Blausäure ist einige Monate beständig. Allerdings darf sie nicht bedenkenlos gelagert werden, da Blausäure nach einer gewissen Zeit explosionsartig polymerisieren kann (Bildung der sogenannten Azulminsäure, ein brauner flockenartiger Feststoff). Die Polymerisierung kann durch Spuren von Alkalien (auch die Glasoberfläche ist hier von Bedeutung) oder Schwermetalloxiden – insbesondere in Kombination mit geringen Mengen Wasser – beschleunigt und durch Zusatz geringer Mengen Mineralsäuren oder Oxalsäure verzögert werden. Eine beginnende Gelb- oder später Braunfärbung ist ein Hinweis darauf, dass mit dieser spontanen Zersetzung bald zu rechnen ist.
Wässrige Lösungen der Blausäure sind nur eine sehr begrenzte Zeit haltbar, da langsame Hydrolyse unter Bildung von Ameisensäure und Ammoniak eintritt:
HCN + 3 H2O -> HCOOH + NH4OH
Transport
Um den Transport dieses Gefahrstoffes zu vermeiden, wird Blausäure in der Regel sofort am Herstellungsort weiterverarbeitet.
Verwendung
Gemäß EINECS, dem europäischen Verzeichnis der vor Inkrafttreten der REACH-Verordnung vorhandenen chemischen Stoffe, gehört Cyanwasserstoff zur Liste der Altstoffe und hat die Nummer 200-821-6. Das englische Synonym prussic acid ist ein Hinweis auf die historische Verwendung.
Hinrichtungen/Morde
Die tödliche Wirkung der Blausäure wurde in den NS-Vernichtungslagern Majdanek, Mauthausen und Auschwitz-Birkenau benutzt, um Menschen in großer Zahl zu ermorden. Die Blausäurekonzentrationen waren je nach Entfernung zur Einwurfstelle unterschiedlich, lagen jedoch immer über 300 ppm. (Vergleiche Zyklon B, Gaskammer, Holocaust.)
Einige NS-Politiker sowie führende Angehörige der Wehrmacht entzogen sich gerichtlicher Aufarbeitung ihres Handelns durch Suizid mit einer Blausäurekapsel.
Zur Vollstreckung der Todesstrafe in den Vereinigten Staaten wurde bis 1999 Blausäuregas in der Gaskammer eingesetzt. Heute ist diese Hinrichtungsmethode dort nur noch zulässig, wenn die Giftspritze aus anderen Gründen nicht eingesetzt werden kann.
Bei Attentaten mittels einer Blausäuresprühpistole wurden 1957 Lew Rebet und 1959 Stepan Bandera durch einen Agenten des KGBs ermordet.
Als Biozid
Blausäure wird zur Bekämpfung von Ungeziefer eingesetzt. Hierzu wird ein Trägermaterial, z. B. Kieselgur, mit Blausäure getränkt, und es werden Riechstoffe zur Warnung hinzugefügt.
Kampfmittel
Als Giftgas wurde Blausäure erstmals durch die französische Armee am 1. Juli 1916 eingesetzt. Aufgrund seiner hohen Flüchtigkeit blieb der Einsatz aber wirkungslos. Nach anderen Angaben blieb die erhoffte Wirkung aus, weil der Plan den Deutschen durch Verrat bereits bekannt geworden war und der Gasmaskeneinsatz rechtzeitig verbessert werden konnte. 1918 wurde Blausäure auch von den USA und Italien eingesetzt.
Industrielle Verwendung
Blausäure wird in vielen Prozessen in der Industrie und im Bergbau eingesetzt, beispielsweise für die Herstellung von Chlorcyan, Cyanurchlorid, Aminosäuren (besonders Methionin), Natriumcyanid und vieler weiterer Derivate sowie zum Auslaugen von Gold:
Die Gold-Lösung wird dann mit Zink reduziert. Der Cyanido-Komplex kann auch durch zugesetzte Kokosnussschalen-Aktivkohle absorptiv gebunden werden. Aus der so mit dem Cyanidokomplex beladenen Aktivkohle kann das Gold nach dem Verbrennen des organischen Anteils als „Asche“ gewonnen werden. In moderneren Anlagen wird der Cyanido-Komplex aus der abgetrennten beladenen Aktivkohle durch Eluieren mit heißer Natriumcyanid-Lösung in konzentrierter Form gewonnen (wegen der besseren Handhabung wird hierbei nicht flüssige Blausäure, sondern eine Natriumcyanid-Lösung eingesetzt). Dieses Verfahren führt, wie auch das alternativ nur noch sehr selten eingesetzte Quecksilber-Amalgamverfahren, zu den teilweise katastrophalen Gewässervergiftungen in den Goldfördergebieten der Dritten Welt.
Blausäure wird in großen Mengen zur Herstellung von Adiponitril und Acetoncyanhydrin, beides Zwischenprodukte der Kunststoffproduktion, verwendet. Bei der Adiponitrilherstellung wird Blausäure mittels eines Nickel-Katalysators an 1,3-Butadien addiert (Hydrocyanierung). Zur Acetoncyanhydrinherstellung wird Blausäure katalytisch an Aceton addiert. Aus Blausäure werden im industriellen Maßstab in mehrstufigen Verfahren auch die α-Aminosäure DL-Methionin (Verwendung in der Futtermittel-Supplementierung) und der Heterocyclus Cyanurchlorid hergestellt. Aus Cyanurchlorid werden Pflanzenschutzmittel und andere Derivate synthetisiert.
Weblinks
Cyanogenic Glycosides and Cyanide Toxicity, frot.co.nz
Blausäure in Nahrungspflanzen – Eine Gefahr für Lebensmittel? Blausäure in Nahrungspflanzen – Eine Gefahr für Lebensmittel?, ifp.tu-bs.de
Einzelnachweise
Stickstoffverbindung
Kohlenstoffverbindung
Wasserstoffverbindung
Chemische Waffe
Begasungsmittel
|
Q26075
| 85.416832 |
210041
|
https://de.wikipedia.org/wiki/V%C3%A4rmland
|
Värmland
|
Värmland (veraltet Vermland, Wermland oder Wermeland) ist eine historische Provinz () in Schweden. Sie grenzt im Süden an Västergötland und Dalsland, im Westen an Norwegen und im Osten an Dalarna, Västmanland und Närke.
Geographie
Die größte Nord-Süd-Ausdehnung Värmlands beträgt etwa 245 Kilometer und die größte Ost-West-Ausdehnung circa 175 Kilometer. An der Grenze zu Norwegen liegt ein Teil des Skandinavischen Gebirges, das den Namen Kölen trägt. Von diesem Höhenzug gehen Ausläufer ab, die Värmland umschließen. Der westliche Ausläufer hat eine durchschnittliche Höhe von 350 Metern mit Bergspitzen, die 500 bis 700 Meter über dem Meer liegen. Der östliche Ausläufer ist weniger stark ausgeprägt und ragt bis zu 476 Meter über dem Meer auf. Im südlichen Teil Värmlands liegt ein hügeliges Flachland, wo die Berge nicht höher als 50 Meter über der Umgebung aufragen. Das Ufer des zu Värmland zählenden Teils des Vänern ist durch viele Buchten und zahlreiche Inseln gekennzeichnet.
Värmland ist reich an Seen und anderen Gewässern. Die meisten Flüsse münden in den See Vänern oder in einen seiner Zuflüsse. Die restlichen münden in den Dalälven oder in die norwegische Glomma.
Geschichte
Die ältesten archäologischen Fundstücke sind Steinäxte, die aus der Steinzeit stammen. Diese fand man aber nur im westlichen Teil von Värmland. Die Besiedlung erfolgte in der postglazialen Periode von Västergötland aus, als noch größere Teile der Landschaft unter Wasser lagen. Dabei wurden zuerst ufernahe Zonen bevorzugt und später auch die Ebenen besiedelt. Da aus der Bronzezeit ähnlich viele Funde vorliegen, wird angenommen, dass es in dieser Periode keine nennenswerte Zuwanderung gab. Aus der Vorzeit sind Felsmalereien erhalten.
Aus der Eisen-, Vendel- und Wikingerzeit sind verschiedene Runensteine bekannt, wobei der Runenstein von Järsberg Järsbergsstenen nahe Kristinehamn besonderes Interesse hervorrief. Die Runen konnten bisher nicht eindeutig gedeutet werden, aber da sie in einer älteren Schriftart gehalten sind, die überwiegend in Götaland verwendet wurde, wird angenommen, dass Värmland während dieser Zeit zu Götaland gehörte. Die Funde der jüngeren Eisenzeit zeigen eine deutliche Übereinstimmung mit Gegenständen aus Norwegen und lassen eine Verbindung dieser Gebiete annehmen. Ab dem 7. Jahrhundert gibt es auch schriftliche Zeugnisse wie die isländische Sage Heimskringla. Demnach soll der um 600 aus Schweden geflüchtete Ynglinger-Prinz Olaf Trätelgja in Värmland ein Königreich errichtet haben, bis etwa 800 blieb Värmland unter der Herrschaft seiner in Vestfold herrschenden norwegischen Nachfolger. Danach fiel Värmland kurz unter schwedische Herrschaft, wurde aber ab 870 unter dem norwegischen König Harald Schönhaar wieder mit Norwegen vereint. Värmland blieb norwegisch mindestens bis um 1000, ehe es vom schwedischen Västergötland aus christianisiert wurde. Um 1025 gehörte es zum Reich des norwegischen Königs Olav II. Haraldsson.
Wann und wie Värmland von Norwegen getrennt wurde, ist unklar. Erst im Jahre 1101 wurden in einem dänisch-norwegisch-schwedischen Dreikönigsvertrag die Grenzen zwischen den drei Königreichen längerfristig fixiert. Ein intensiver Handel bestand aber auch nach dieser Trennung und Teile der Bevölkerung Värmlands waren noch bis ins 13. Jahrhundert hinein an innernorwegischen Streitigkeiten beteiligt. Für die Zeit nach Entstehung der isländischen Quellen sind die Informationen über Värmland gering. Große Gebiete waren weithin menschenleer und die Bevölkerungsanzahl niedrig. Die Landschaft hatte einen juristischen Vorsteher (lagman), der die Ting-Versammlungen leitete. Dagegen waren keine Repräsentanten Värmlands an der Königswahl beteiligt und die neuen Könige ließen sich auch nicht vor Ort bestätigen, so wie es in anderen Landesteilen üblich war. Eine Einteilung des Gebietes in Harden ist seit dem 14. Jahrhundert bekannt.
Die Christianisierung erfolgte von Västergötland und teilweise von Norwegen aus. Danach gehörte Värmland zum Stift von Skara. Während der Kalmarer Union war Värmland eine eigene Verwaltungseinheit, die von einem Vogt, der auf der Burg Edsholm residierte, verwaltet wurde. Diese Burg und eine weitere wurden beim Engelbrekt-Aufstand zerstört. Die Bevölkerung Värmlands rebellierte auch gegen Karl VIII. und gehörte 1521 zu den Ersten, die sich Gustav Wasas Befreiungskampf anschlossen.
Laut Gustav Wasas Testament gehörte Värmland zum Herzogtum seines Sohnes Karl, doch unter Erik XIV. Regierungszeit wurde es vom König geleitet. Im Laufe des Dreikronenkrieges wurde Värmland oft Opfer von Zerstörungen. Nach Eriks Absetzung, 1568, übernahm Herzog Karl wieder die Verwaltung Värmlands und versuchte es so weit wie möglich aus Kriegshandlungen herauszuhalten.
Etwa um 1580 wanderte eine große Anzahl von Finnen, die so genannten Waldfinnen, nach Värmland ein. Während die bisherige Bevölkerung küstennahe Landstriche bevorzugte, ließen sich die Finnen auch auf den kargen Moränen im Inland nieder, was zu einer Besiedlung großer Gebiete führte. Durch Brandrodung schufen die Einwanderer neue Ackerflächen und belebten somit die bisher mäßige Getreideproduktion. Karl setzte sich auch nach seinem Aufstieg zum König für eine Belebung des Bergbaus ein. Das führte aber zu neuen Belastungen für die Bauern und damit zu mehreren Unruhen. Nach Karls Tod ging das Herzogtum an seinen Sohn Karl Filip. Es wurde aber kurz vor 1622, als es endgültig von der Krone übernommen wurde, von Karl Filips Mutter geleitet.
Ein großer Teil Värmlands wurde im 17. Jahrhundert durch Kauf und Verpfändung steuerpflichtig gegenüber verschiedenen Adelshäusern. Als in Schweden die ersten län eingerichtet wurden, vereinigte man Värmland zusammen mit Närke zu Örebro län. Erst 1779 wurde der überwiegende Teil Värmlands in die Provinz Värmlands län überführt. In den Kriegen der folgenden Zeit kam es zu einigen Kämpfen an der Grenze zu Norwegen. Die größten Belastungen waren aber die Verpflichtung, Soldaten für das schwedische Heer zu stellen und die Steuerabgaben ans Königshaus. So standen bald viele Gehöfte Värmlands leer. Eine gewisse Verbesserung der ökonomischen Situation erfolgte zu Beginn des 19. Jahrhunderts, als verstärkt Eisenprodukte gefragt waren.
1809 begab sich der General Georg Adlersparre von Karlstad nach Stockholm, um König Gustav IV. Adolf gefangen zu nehmen, der von einigen hochgestellten Schweden als untauglich betrachtet wurde. Auch an Schwedens letztem Krieg, dem Norwegischen Feldzug von 1814, waren viele Soldaten aus Värmland beteiligt. Der Feldzug endete mit einem Norwegen aufgezwungenen Unionsvertrag zwischen beiden Staaten, der bis 1905 Bestand hatte.
Wappen
Beschreibung: In Silber ein blauer rot bewehrter und gezungter Adler.
Städte in Värmland
Arvika
Charlottenberg
Degerfors
Filipstad
Grums
Hagfors
Karlskoga
Karlstad
Kristinehamn
Munkfors
Skoghall
Sunne
Säffle
Torsby
Årjäng
Landschaftssymbole
Blume: Siebenstern
Tier: Wolf
Vogel: Sterntaucher
Fisch: Stint
Siehe auch
Glaskogen, Naturreservat in Värmland
Ack Värmeland, du sköna, Volkslied
Carl Philip und Sofia von Schweden: Herzog und Herzogin von Värmland
Literatur
Weblinks
Offizielle Webpräsenz (englisch, schwedisch)
Einzelnachweise
Varmland
Varmland
|
Q211638
| 108.521497 |
15399
|
https://de.wikipedia.org/wiki/Mahiljou
|
Mahiljou
|
Mahiljou bzw. Mogiljow (; ; ältere deutsche Transkription Mogilew) ist mit 381.353 Einwohnern (Stand 2018) die drittgrößte Stadt in Belarus. Sie liegt im Osten des Landes am Dnepr. Die Großstadt ist Sitz der Verwaltung der Mahiljouskaja Woblasz, Industriestadt (Maschinenbau, Chemiefaser-, Leicht-, Nahrungsmittelindustrie), Eisenbahnknoten, Hafenstadt und kultureller Mittelpunkt des Gebietes mit Hochschulen, Theatern und Baudenkmälern.
Geschichte
Die Entstehung der 1267 zum ersten Mal schriftlich erwähnten Stadt war mit dem Bau einer Festung verbunden und sollte die Bevölkerung vor Überfällen mongolischer Reiterheere schützen, die bereits 1238 die Fürstentümer der Kiewer Rus angriffen und 1240 die Hauptstadt Kiew zerstörten. Im 14. Jahrhundert gehörte Mahiljou, das eine weitgehende Autonomie errungen hatte und als ein bedeutendes Handelszentrum in der Region galt, zum Großfürstentum Litauen.
Neuzeit
Nach der am 12. August 1569 im Vertrag von Lublin beschlossenen Vereinigung des Königreichs Polen und des Großfürstentums Litauen wurde Mahiljou Teil des neu gegründeten Staates Polen-Litauen und erhielt am 28. Januar 1577 das Stadtrecht. Im Verlauf der Kampfhandlungen zwischen russischen und polnisch-litauischen Truppen im Livländischen Krieg um die Kontrolle im Baltikum wurde die überwiegend aus Holzbauten erbaute Stadt im Jahre 1580 eingenommen und niedergebrannt. Zu Beginn des russisch-polnischen Krieges von 1654 bis 1667 besetzten russische Truppen zeitweise die polnische Festung Mogilew.
Während des Großen Nordischen Krieges der vom Schwedischen Reich gegen Russland und Polen-Litauen geführt wurde, wurden die unter dem Kommando des schwedischen Generals Lewenhaupt stehenden Einheiten am mit der für die schwedische Hauptarmee bestimmten Nachschubkolonne angegriffen und erlitten unter widrigen Witterungsbedingungen und erschöpft von der Flussüberquerung eine vernichtende Niederlage. Die nach dem heutigen Stadtteil bezeichnete Schlacht bei Lesnaja bildete die Grundlage für den späteren russischen Sieg in der Schlacht bei Poltawa über das nun geschwächte und demoralisierte schwedische Hauptheer unter König Karl XII. (1682–1718). Während der Kämpfe wurde die Stadt eingenommen und nahezu vollständig niedergebrannt.
Die Stadt entwickelte sich bereits im 18. Jahrhundert, wie viele Städte im heutigen Belarus, zu einem bedeutenden jüdischen Gemeindezentrum. 1772 fiel Mahiljou durch die Erste Teilung Polens an Russland. Es war unter russischer Herrschaft Hauptstadt des gleichnamigen Gouvernements. In Mahiljou wurde am 15. April 1783 eine Erzdiözese der römisch-katholischen Kirche errichtet. Diese wurde 1991 mit dem Bistum Minsk zum Erzbistum Minsk-Mahiljou vereinigt.
19. Jahrhundert
Während des Russlandfeldzuges Napoleons wurde die Stadt 1812 von Truppen der Grande Armée eingenommen. Nach der Niederlage der Franzosen erholte sich die Region rasch von den Folgen der Besetzung und Fremdherrschaft. Beim Vormarsch wie auch beim Rückzug der Franzosen waren die nördlichen Nachbarstädte Smolensk und Orscha Hauptetappenorte an der Heerstraße.
1824 weilte der russische Nationaldichter Alexander Sergejewitsch Puschkin auf der Durchreise in der Stadt.
Im späten 19. Jahrhundert begann die Bevölkerungszahl erneut zu wachsen, um 1900 betrug der jüdische Bevölkerungsanteil bereits 50 %.
Erster Weltkrieg und Zwischenkriegszeit
Ab 1915 war die Stadt Hauptquartier des Kommandos des Obersten Befehlshabers der Armee Nikolaus II., dessen Oberkommandierender Duchonin hier von Rotgardisten nach der Oktoberrevolution ermordet wurde. Im Russischen Bürgerkrieg wechselte die Stadt im Jahre 1918 mehrmals den Besitzer.
Nach dem Bürgerkrieg wurde die Stadt Bestandteil der BSSR innerhalb der Sowjetunion.
In der Sowjetzeit erhielt der Ausbau der Stadt zu einem Industriezentrum neue Impulse. Die Stadt hatte um 1940 bereits 100.000 Einwohner. Eine aus dem 17. Jahrhundert stammende hölzerne Synagoge war zunächst als bedeutendes Kulturbauwerk unter Schutz gestellt worden, wurde aber 1938 auf behördliche Anweisung abgerissen.
Zweiter Weltkrieg und Holocaust
Am 26. Juli 1941 eroberte die deutsche Wehrmacht die Stadt. Mit vorangegangenen zehntägigen Gefechten und erheblichen Kampfhandlungen innerhalb des bebauten Gebiets handelte es sich bei der Schlacht um Mogilew um einen der ersten größeren Stadtkämpfe während des Deutsch-Sowjetischen Krieges. Die Stadt wurde von den Besatzern Mogilew genannt. Diese Bezeichnung hat sich (teils in der ebenfalls älteren englischen Schreibweise Mogilev, auch Mohilev) bis heute in der deutschsprachigen historischen Fachliteratur gehalten.
Der Höhere SS- und Polizeiführer (HSSPF) Erich von dem Bach-Zelewski nahm dort seinen Dienstsitz. Unter seiner Verantwortung wurden 1941 jüdische Frauen, Männer und Kinder massenweise erschossen: Am 2. Oktober 1941 trieben Angehörige des III. Bataillons des Polizei-Regiments Mitte (Polizei-Bataillon 322), SS-Männer und ukrainische Hilfspolizisten Juden im Ghetto von Mahiljou zusammen. Am nächsten Tag wurden sie auf LKWs der Kraftfahrzeugstaffel des Polizeibataillons zu einem Panzergraben vor der Stadt gefahren und dort von Polizisten der 7. und 9. Kompanie erschossen. Während die deutschen Polizisten die Männer und Frauen ermordeten, wurden die ebenfalls herangebrachten Kinder von ukrainischen Hilfswilligen getötet. Insgesamt fielen diesem Massaker 2208 Menschen zum Opfer. Am 19. Oktober 1941 erschossen das Einsatzkommando 8 und das Polizei-Bataillon 316 insgesamt 3726 Juden; am 23. Oktober 1941 wurden 279 Juden auf die gleiche Weise ermordet. An diesem Tage kam Heinrich Himmler nach Mahiljou. Er ordnete an, nach anderen Vernichtungsmethoden zu suchen.
Im September 1941 wurden geistig behinderte Anstaltsinsassen in Mahiljou von der Ordnungspolizei versuchsweise mit Autoabgasen vergiftet. Die hier erprobte Tötungsmethode durch Motorabgase wurde später ausgeweitet und in mehreren Vernichtungslagern eingesetzt. Himmler gab zunächst den Auftrag, Gaswagen bauen zu lassen, von denen ein Exemplar – allerdings mit anderer Technik – bereits 1940 vom Sonderkommando Lange im Wartheland eingesetzt wurde. Im November 1941 erhielt außerdem die Erfurter Firma J. A. Topf und Söhne den Auftrag, für ein geplantes riesiges Krematorium in Mahiljou 32 Öfen zu liefern. Vermutlich war zu diesem Zeitpunkt daran gedacht, bei Mahiljou ein großes Lager zu bauen, dessen Funktion später vom KZ Auschwitz-Birkenau und weiteren Vernichtungslagern in Polen übernommen wurde. Der Auftrag für Mahiljou wurde storniert, einige der Öfen wurden später nach Auschwitz geliefert. Im nicht weit von Minsk entfernten Vernichtungslager Maly Trostinez wurden ab 1942 mindestens 40.000 Juden erschossen oder in Gaswagen ermordet.
Am 28. Juni 1944 wurde Mahiljou bei der Operation Bagration von der Roten Armee zurückerobert. Im Verlauf des Deutsch-Sowjetischen Krieges erlitt Mahiljou bei Kämpfen zwischen deutschen und sowjetischen Truppen schwere Zerstörungen. Nach Beendigung des Zweiten Weltkriegs wurde die Stadt wieder aufgebaut und zu einem Industriezentrum und Verkehrsknoten entwickelt. In Mahiljou bestand das Kriegsgefangenenlager 311, Mogilew, für deutsche Kriegsgefangene des Zweiten Weltkriegs. Schwer Erkrankte wurden im Kriegsgefangenenhospital 3161, Cholmy, versorgt.
Nuklearkatastrophe von Tschernobyl
Das Gebiet südöstlich von Mahiljou wurde infolge der Nuklearkatastrophe von Tschernobyl im April 1986 radioaktiv kontaminiert.
Unabhängigkeit
1991 wurde Belarus durch den Zusammenbruch der Sowjetunion unabhängig und Mahiljou Teil des neuen Staates.
In Mahiljou studierte an der dortigen landwirtschaftlichen Hochschule auch der belarussische Präsident Aljaksandr Lukaschenka.
Wappen
Wirtschaft und Infrastruktur
Im Jahr 1995 bestanden in der Stadt Mahiljou über 3000 Firmen und Privatunternehmen, darunter 1615 Handwerks- und Kleinbetriebe, 232 Genossenschaftsbetriebe, 136 Aktiengesellschaften und 1048 Betriebe (als GmbH). Auch 150 Staatsbetriebe hatten in der Stadt Betriebsteile oder Büros.
In der Stadt sind alle führenden börsennotierten Aktien- und Sparkassenbanken des Landes mit insgesamt 27 Filialen vertreten.
Die Im- und Exportfirmen der Stadt lieferten für etwa Mill. US$. Waren und Dienstleistungen in die Staaten der GUS, davon 87 % nach Russland, 8,7 % in die Ukraine.
In das Europäische Ausland wurden für 208 Mill. US$ Waren exportiert. 40 % dieser Waren gingen in die Bundesrepublik Deutschland, 17 % in die Türkei und 12 % in die Schweiz.
Industrie
Mahiljou ist das Zentrum der chemischen Industrie der Republik Belarus; Maschinen- und Anlagenbau, Nahrungsgüterindustrie, Textil- und Bekleidungsindustrie sowie Leichtindustrie sind in der Wirtschaftsregion Mahiljou stark ausgeprägt. In der Stadt sind 67 größere Industriebetriebe des Landes mit Fertigungsstätten und Verwaltungssitzen beheimatet. Der Warenumsatz im Export betrug 1995 726,2 Mill. US$.
Der wichtigste Auslandsexporteur für chemische Synthesefasern und Kunstseide ist das Werk „Chimwolokno“, es deckt 70 % des Exportanteiles der Stadt ab und exportiert Waren in 80 Länder der Erde.
Das Mogilewski Awtomobilny Sawod, auch unter dem Namen MoAZ bekannt, hat sich auf die Herstellung von Fahrzeugen der Straßenbautechnik und Baumaschinen sowie Spezialtransporter spezialisiert.
Das Fahrzeugbauunternehmen „Mogiljovtransmach“ ist Hersteller von Sattelanhängern für LKWs in unterschiedlichsten Dimensionen und Ausführungen. Im Werk werden auch Autokrane und Frontlader für Container entwickelt und gebaut.
Das Werk „Stromaschina“ fertigt Ausrüstungsteile und Anlagen für die Baustoffproduktion, beispielsweise Ziegeleibrennöfen, Automaten zur Formsteinherstellung aus Ton oder Zement, Anlagen zur Herstellung von Stahlbetonschwellen und ähnlichen normierten Bauteilen für Verkehrsbauwerke in die GUS-Nachfolgestaaten, auch in den EG-Wirtschaftsraum.
Das metallurgische Werk „Metall“ produziert Gießereiprodukte und Rohre in den Nennweiten 100 bis 400 mm, normierte Rohre für Industrie- und Anlagenbau, Sanitärbedarf, Profilstahlprodukte und Gusseisenprodukte nach Kundenvorgaben.
Der Anlagenbauer „Elektrodwigatel“ fertigt Elektromotoren für die Industrie, Bergbau und Anlagenbau. Eine weitere Sortimentspalette umfasst elektrische Haushaltsgeräte.
Der Anlagenbauer „Lift“ hat sich auf die Entwicklung und Herstellung von Personenaufzügen und landwirtschaftliche Winden spezialisiert. Auch Krankenhausaufzüge und Spezialausrüstungen für Aufzüge werden gefertigt.
Die Elektronikfirma „Zenit“ ist ein Hersteller von Rundfunkempfängern und Hochfrequenztechnik (Sender und Empfangsstationen)
Die Firma „Mogotex“ ist ein universeller Hersteller von Alltagskleidung, Spezialbekleidung, Sport- und Freizeitmode sowie Kleiderstoffe und technische Gewebe.
In der Modefabrik „Wjasnjanka“ werden für den Export modische Damenoberbekleidung sowie Winter- und Kunstpelzmäntel hergestellt.
Nahrungsgüterwirtschaft
Ein großer Teil der Lebensmittel für die Großstadt Mahiljou und die Region wird von Nahrungsgüterproduzenten der Stadt abgedeckt. Zu ihnen gehören das Molkereikombinat der Stadt, das Fleisch- und Wurstwarenkombinat sowie das Gelatinewerk (Hersteller von Futtermitteln, technischen Fetten usw.), Backwarenhersteller und Brauerei sowie Hersteller von Nahrungs- und Genussmitteln. Mit dem Lebensmittelsektor sind Verpackungsmittelwerke (BELPACK), Konservenhersteller, Brauerei und Logistikunternehmen der Stadt verflochten.
Infrastruktur
Zur Infrastruktur der Stadt gehören
zwei Heizkraftwerke auf Erdgasbasis (in Summe 360 MWh) zur Erzeugung von Strom und Fernwärme,
mehrere kleinere Heizkraftwerke auf Erdölbasis
das in der Sowjetzeit entstandene Transportnetz mit Autobahnen, Fernstraßen und Eisenbahnmagistralen wird durch das innerstädtische Transportnetz (Bus-Linien) ergänzt.
32 Post- und Fernmeldeämter
ein staatlicher Fernsehsender mit 5 Programmen sowie ein staatlicher Radiosender: beim Ortsteil Polykowichi befindet sich ein 350 Meter hoher Sendemast zur Verbreitung von Fernseh- und UKW-Hörfunkprogrammen. Er gehört zu den höchsten Bauwerken in Belarus.
Außerdem existiert mit dem Flughafen Mahiljou ein internationaler Flughafen.
Sport
Der Fußballclub Dnjapro Mahiljou spielt aktuell in der Wyschejschaja Liha, der höchsten Spielklasse in Belarus. Im Fußball war die Stadt auch vom FK Tarpeda Mahiljou vertreten. Darüber hinaus ist in der Stadt der Eishockeyverein HK Mahiljou beheimatet.
Söhne und Töchter der Stadt
Abraham Drabkin (1844–1917), russischer Rabbiner
Eliyahu Berligne (1866–1959), russisch-israelischer Jurist, Unternehmer und Politiker
Nachman Syrkin (1868–1924), Begründer und Führer des sozialistischen Zionismus
Andrei Mandelstam (1869–1949), Jurist und Diplomat
David Pinski (1872–1959), Schriftsteller
Modest Altschuler (1873–1963), Cellist, Dirigent und Filmkomponist
Issai Schur (1875–1941), deutscher Mathematiker
Rosalija Salkind (1876–1947), kommunistische Politikerin (Semljatschka)
Leonid Mandelstam (1879–1944), Physiker
Max Eitingon (1881–1943), Arzt und Psychoanalytiker
David Reichinstein (1882–1955), emigrierter russischer Naturwissenschaftler und Autor von naturwissenschaftlich-technischen Büchern
Semjon Semkowski (1882–1937), sowjetischer Philosoph
Isaak Rabinowitsch (1886–1977), Bauingenieur
Otto Schmidt (1891–1956), Geophysiker und Arktisforscher
Ruwim Frajerman (1891–1972), Schriftsteller
Grigori Kogan (1901–1979), sowjetischer klassischer Pianist und Musikwissenschaftler
Anatoli Lurie (1901–1980), Ingenieurwissenschaftler (Mechanik, Elastizitätstheorie) und angewandter Mathematiker
Michail Wolpin (1902–1988), sowjetischer Drehbuchautor und Liedtexter
Doiwber Lewin (1904–1941), russischer Schriftsteller
Lew Ginsburg (1907–1981), Cellist und Musikwissenschaftler
Matest Agrest (1915–2005), russischer Mathematiker
Povilas Tautvaišas (1916–1980), litauischer und US-amerikanischer Schachspieler
Lew Polugajewski (1934–1995), russisch-sowjetischer Schachspieler
Rita Atschkina (* 1938), sowjetische Skilangläuferin
Wladimir Gubarew (1938–2022), belarussischer Dramatiker, Drehbuchautor und Journalist
Henads Nawizki (* 1949) (russisch Gennadi Nowizki), Politiker (ehemaliger Ministerpräsident in Belarus)
Boris Moissejew (1954–2022), Sänger
Svetlana Zilberman (* 1958), sowjetische und israelische Badmintonspielerin
Yevgeniya Dodina (* 1964), israelische Schauspielerin
Aljaksandr Massjajkou (* 1971), Kanute und Olympiasieger 1992
Aljaksej Fjodarau (* 1972), belarussischer Schachspieler
Weranika Zepkala (* 1972), Bürgerrechtlerin
Wiktar Lukaschenka (* 1975), Politiker
Witali Dzerbianiou (1976–2022), Gewichtheber
Natallja Swirydowa-Kalinowskaja (* 1977), Skilangläuferin
Dsmitryj Lichtarowitsch (* 1978), Fußballspieler
Dsmitryj Lukaschenka (* 1980), Unternehmer
Jaroslaw Rybakow (* 1980), russischer Hochspringer
Zimafej Kalatschou (* 1981), Fußballspieler
Wiktoryia Lapazina (* 1981), Skilangläuferin
Andrej Rybakou (* 1982), Gewichtheber
Aljona Lanskaja (* 1985), Popsängerin
Arzjom Radskou (* 1985), Fußballspieler
Aljaksandr Zitou (* 1986), Handballspieler
Maksim Neszjarenka (* 1992), Dreispringer
Wassil Strokau (* 1995), Radrennfahrer
Raman Jusaptschuk (* 1997), Fußballspieler
Illja Salaujou (* 2000), Eishockeyspieler
Jan Shcherbakovski (* 2001), belarussisch-deutscher Fußballspieler
Wolha Badelka (* 2002), Schachspielerin
Städtepartnerschaften
Mahiljou listet folgende achtzehn Partnerstädte auf:
Literatur
Peter Longerich: Politik der Vernichtung. Die Gesamtdarstellung der nationalsozialistischen Judenverfolgung. Piper, München 1998, ISBN 3-492-03755-0 (diverse Angaben zu Mogiljow im Register).
Mogilev. In: Guy Miron (Hrsg.): The Yad Vashem encyclopedia of the ghettos during the Holocaust. Yad Vashem, Jerusalem 2009, ISBN 978-965-308-345-5, S. 491 f.
Weblinks
Das geplante Vernichtungslager in Mogilev. In: deathcamps.org. Action Reinhard Camps (ARC), 12. Juli 2006 (zu Vergasungen in Mogilew)
Fußnoten
Ort in der Mahiljouskaja Woblasz
Ort am Dnepr
Ghetto
Ersterwähnung 1267
|
Q154835
| 94.126728 |
49547
|
https://de.wikipedia.org/wiki/Oliven%C3%B6l
|
Olivenöl
|
Olivenöl, auch Baumöl (von ) genannt, ist ein Pflanzenöl aus dem Fruchtfleisch und aus dem Kern von Oliven, den Früchten des Ölbaums, das seit mindestens 8000 Jahren, ausgehend vom östlichen Mittelmeerraum, gewonnen wird.
Eigenschaften
Zusammensetzung
Olivenöl besteht, wie alle Pflanzenöle, hauptsächlich aus an Glycerin gebundenen Fettsäuren (Triglyceriden). Im Olivenöl findet man 55–83 % Ölsäure, 7–20 % Palmitinsäure, 3–21 % Linolsäure, 0–5 % Stearinsäure und 0–4 % Palmitoleinsäure. Der unverseifbare Anteil liegt zwischen 0,5 und 1,3 %; davon entfallen 0,15–0,37 % auf Phytosterine, 0,1–0,7 % auf Squalen und 0–10 ppm auf Chlorophyll. Weiterhin enthält es geringe Mengen an Phospholipiden, Carotinoiden, α-Tocopherol und etwa 300 IE Provitamin A. Naturbelassenes Olivenöl enthält Oleocanthal und Oleoropein – zwei Antioxidantien, denen eine Reihe von Gesundheitsvorteilen zugeschrieben wird.
Olivenöl ist keine bedeutende Quelle von Omega-3-Fettsäuren oder mehrfach ungesättigten Fettsäuren (durchschnittlich 9 % Anteil an mehrfach ungesättigten Fettsäuren).
Aromakomponenten:
Olivenöle enthalten eine Vielzahl von Substanzen, die aromabestimmend sind. Dazu zählen verschiedene Aldehyde, Terpene, Alkohole und Ester. Die Bestimmung dieser Komponenten kann durch Kopplung chromatographischer Verfahren mit der Massenspektrometrie und der Dampfraumanalyse erfolgen. Auch flüchtige Thiole konnten so identifiziert werden. Olfaktorische Untersuchungen werden ergänzend herangezogen. Die Untersuchung der Aromakomponenten wird auch zur Qualitätssicherung und -kontrolle eingesetzt.
Allgemeine Eigenschaften
Die Farbtöne eines Olivenöles können von grün-bräunlich bis hellgelb variieren, abhängig von den in den Oliven enthaltenen Substanzen und vom Reifezustand. Bei grünem Olivenöl herrscht das Chlorophyll (mit bis zu 10 ppm) vor, beim goldgelben Carotine. Die Farbe hat keinen Einfluss auf die Qualität eines Öles. Im ungefilterten Zustand kann das Öl auch trüb sein. Durch die enthaltenen Chlorophylle fluoresziert Olivenöl rot bei Bestrahlung mit UV-Licht.
Das Öl hat eine Dichte im Bereich von 0,914 bis 0,919 g/cm³, schmilzt oder erstarrt bei −5 bis −9 °C und ist leicht löslich in Dichlormethan, schwerlöslich in Ethanol und nicht löslich in Wasser.
Natives Olivenöl ist – anders als die meisten anderen Pflanzenöle, die durch Raffinierung hergestellt werden – ein reines Naturprodukt. Olivenöl setzt sich aus 77 % einfach ungesättigten, 9 % mehrfach ungesättigten und 14 % gesättigten Fettsäuren zusammen. Das Verhältnis mehrfach ungesättigter zu gesättigten Fettsäuren (P/S-Quotient) liegt beim Olivenöl deutlich unter dem empfohlenen Wert von 1,0.
Geschichte
Domestizierung in der nördlichen Levante (ab 6000 v. Chr.), Verbreitung durch frühe Bauern
Selbst während der letzten Kaltzeit und seiner maximalen Ausdehnung der Eismassen im Norden Europas konnte sich die Wildform des Olivenbaums im Mittelmeerraum halten. Die Kultivierung erfolgte jedoch erst sehr viel später. Am israelischen Karmel an der Fundstätte Nahal Zehora wurden Olivenkerne aus der Zeit um 8000 v. Chr. entdeckt. Daneben wurden Mutmaßungen für die Zeit um 6000 v. Chr. auch über das Gebiet südlich des Kaukasus und westlich des Irans angestellt. Ähnliches gilt für das Jordantal, wo sich Olivengewinnung für das Chalkolithikum an den Fundstätten Tell Ghassual und Abu Hamid belegen lässt.
Die Frage nach der frühesten Domestizierung des Olivenbaums lässt sich auf der Grundlage genetischer Untersuchungen beantworten. So kann festgestellt werden, dass über alle Klimaveränderungen hinweg drei Refugia für den Olivenbaum blieben, nämlich das Gebiet um Gibraltar, die Ägäis und der Nahe Osten einschließlich Zypern. Diese drei Genpools der Wildform hätten den Ausgangspunkt für die domestizierten Formen bilden können. Allerdings stammen die heutigen Formen ausschließlich aus der nördlichen Levante und sie wurden mit den menschlichen Migrationen im Mittelmeerraum verbreitet. In Byblos im heutigen Libanon fand man Belege aus der Zeit um 3000 v. Chr.
Ölgewinnung (spätestens ab 3500 v. Chr.), südliche Ägäis, Süditalien, Anatolien
Olivenöl wurde bereits im 6. Jahrtausend v. Chr. in Galiläa gelagert und in großem Umfang gehandelt und konsumiert. Der früheste gezielte Anbau von Olivenbäumen zum Zweck der Ölgewinnung wurde für Kreta in der Zeit um 3500 v. Chr. vermutet, In die südliche Ägäis kam die Kultivierung jedoch bereits mit dem Neolithikum, während sie in die nördliche Ägäis erst mit der Bronzezeit gelangte, wohl mit der Gründung von Kolonien. In Tilbeşar III B, einer 30 Hektar umfassenden Siedlung aus dem 3. Jahrtausend v. Chr. in Anatolien, wurde Olivenöl hergestellt.
Ob die bei Nola, 25 km östlich von Neapel, gefundenen Olivenkerne, die dort zwischen 1880 und 1680 v. Chr. ausgespuckt wurden, als Beleg für die Ölgewinnung hinreichen, ist unklar. Durch gaschromatographische Analysen an Gefäßfragmenten aus dem apulischen Coppa Nevigata konnte Olivenöl für das 18. Jahrhundert v. Chr. nachgewiesen werden; etwas jünger sind ähnliche Befunde für die Insel Vivara. An der Fundstätte Punta di Zambrone an der tyrrhenischen Küste Kalabriens ließ sich eine kurzlebige Olivenkultur für das 21. bis 18. Jahrhundert belegen, ebenso für das 13. und 12. Jahrhundert v. Chr.
Phönizier, Ägypter
Die Phönizier dürften zur Verbreitung der Frucht in den westlichen Mittelmeerraum beigetragen haben, während die Assyrer daran kein Interesse hatten. Deren Oliven galten laut Plinius dem Älteren als klein, aber sehr schmackhaft, doch wurde ihr Öl meist als Salbe oder zur Beleuchtung eingesetzt. Perser, Assyrer, Babylonier und Nabatäer bevorzugten hingegen Sesam- und Rizinusöl. Auf älteste semitische Wurzeln und auf die Wanderungen der Hebräer, welche die Olive zait nannten, geht auch das heutige arabische Wort zeitun zurück, wie die Olive in Nordafrika genannt wird. Der Name einer sizilianischen Sorte und das spanische Wort aceite gehen gleichfalls hierauf zurück. Phönizier brachten im 16. Jahrhundert v. Chr. Olivenöl auch nach Zypern. Auch in Ägypten wurden Olivenbäume, die dort tat hießen, früh angepflanzt. Sie wurden möglicherweise aus Palästina mitgebracht, aber auch Syrien und Kreta wurden hier genannt. Unter Ramses III. wurden Olivenbäume bereits in großem Maßstab angepflanzt, so etwa 2750 ha für den Sonnengott Ra. Olivenöl wurde zu rituellen Zwecken in Form einer Ölung eingesetzt. Wie griechische und römische Autoren berichten, war der Anbau allerdings nur in wenigen Regionen des Landes möglich, so dass Ägypten seinen Ölbedarf meist durch Einfuhren deckte. Dabei wurde das Öl seit dem 16. oder 15. Jahrhundert v. Chr. auch in Nubien und Äthiopien gewonnen. In Nordwestafrika, wo eine Olivenölkultur wohl schon vor der Gründung phönizischer Städte ab etwa 800 v. Chr. bestand, war vor allem Karthago führend. Die Phönizier übernahmen dabei die Olivenkultur der einheimischen Berber. Dort förderten ab dem zweiten Jahrhundert v. Chr. die Römer gezielt den Anbau, um Rom mit Öl zu versorgen. Zudem siedelte Kaiser Trajan dort Kolonisten mit der Verpflichtung an, Olivenbäume anzupflanzen.
Ältere schriftliche Quellen sind der Codex Hammurapi und ägyptische Papyri aus der Zeit um 2300 v. Chr.
Antikes Griechenland
Das älteste schriftliche Zeugnis für die Verwendung von Olivenöl in Griechenland findet sich bei Homer, Öl und Olivenbaum werden in der Ilias und Odyssee zahlreich erwähnt. Den Griechen galt der Olivenbaum als heilig, weil er ein Geschenk der Götter war. Zahlreiche griechische Stadtstaaten verboten gesetzlich, Olivenbäume zu fällen. In Athen galt auf die willkürliche Fällung eines Olivenbaums die Todesstrafe.
Bei sportlichen Wettkämpfen wurde Olivenöl als Siegerprämie gegeben. Später erhielten Sportler nach den Siegen in ihrer Heimatstadt (Polis) erhebliche Ehrungen und Privilegien, darunter lebenslange Freikarten für öffentliche Einrichtungen, besondere Plätze im Theater und Stadion und als Höhepunkt der Körper des Sportlers als Marmorstatue oder gar in Bronze gegossen. Die Veranstalter der Wettkämpfe verwiesen auf solche Sachleistungen und gingen dazu über, die Siegerprämie auf Kränze aus Olivenzweigen (regional auch alternativ Lorbeer) zu begrenzen, und auf den Ruhm und idellen Wert zu verweisen.
Die Griechen haben auch Süditalien dabei ihre Pflanz-, Pflege und Ölgewinnungstechnik eingeführt. Von dort wanderte der Anbau nordwärts, spätestens im siebten Jahrhundert v. Chr. zu den Etruskern, wie Plinius der Ältere berichtet. Über Ligurien breitete sich der Anbau um 600 v. Chr. an die Rhone aus. In Spanien weist die neben aceite bestehende Bezeichnung oleos santos auf römische Ursprünge.
Später wurde es auf Rhodos und Samos gewonnen, das Sophokles im Ödipus auf Kolonos geradezu als Oliveninsel bezeichnete, aber auch auf Delos, in Lykien und in Milet. Möglicherweise noch erheblich früher erschien der Olivenanbau auf dem Festland, vielleicht bereits im Neolithikum.
Weiterhin fand Olivenöl neben der Verwendung in der Küche Anwendung in Seifen, mit Honig gemischt als Kosmetikum und zu Beleuchtungszwecken. Olivenöl war auch ein bedeutendes Handelsgut, dessen Produktionsstufen im sechsten Jahrhundert v. Chr. in verschiedenen Händen liegen konnten. So mietete Thales von Milet (um 624 bis 546 v. Chr.) alle Olivenpressen auf Chios und in Milet, um sie zur Erntezeit teuer auszuleihen, was aber offenbar zu dieser Zeit ein Einzelfall war.
Die Römer importierten das Olivenöl, das als sehr hochwertig galt, aus Attika. Neben dem Weinbau wies die Gewinnung von Olivenöl einen hohen Mechanisierungsgrad auf. In Attika wurden je Baum 20 kg Oliven geerntet, aus denen drei Liter Öl gewonnen wurden. Der Mechanisierung waren allerdings auch Grenzen gesteckt, denn beim Pressvorgang durften die Kerne nicht zerbrochen werden, da dies die Qualität des Öls gemindert hätte.
In der griechischen und römischen Antike wurde das Olivenöl zum Weihen der Altäre benutzt, die dazu mit Olivenöl begossen wurden. Noch heute wird in der Liturgie der römisch-katholischen und orthodoxen Kirche geweihtes Olivenöl (teilweise mit Balsam vermischt, siehe Chrisam) bei Taufe, Firmung, Priesterweihe, aber auch bei der Krankensalbung sowie bei Bestattungen verwendet. Zugleich spielte das Olivenöl auch in der Volksmedizin des ländlichen Griechenland eine Rolle, einerseits als universelles Therapeutikum, andererseits als Tee (zusammen mit den Blättern des Baumes) gegen Diabetes und andere Stoffwechselerkrankungen. Plinius der Ältere (Naturalis Historia XXIII, 79) unterschied sorgsam das Olivenöl als Medizinalie, das „tenue, odoratum quodque non mordeat“, sein musste, im Gegensatz zu dem, das er für die Speisen wählte.
Italien, Römische Kaiserzeit
In Italien galt das Öl von Venafrum im westlichen Samnium in der heutigen Region Molise als das beste. Hingegen lieferte Istrien eher Öle, die für die Beleuchtung und für die Massage benutzt wurden. Heron von Alexandria beschrieb die ersten landwirtschaftlichen Maschinen, wie die Schraubenpresse und die Galeagra, wobei es sich um ein hohes Gitterwerk aus Baukastenteilen handelte, so dass der Saft gut abfließen konnte. Die häufigste Form der Presse war jedoch die Hebelpresse, bei der über einen Hebel Druck ausgeübt wurde, indem man Gewichte an dessen Ende hängte, oder Menschen durch ihr Eigengewicht Druck ausübten. Speiseöl wurde zur Konservierung gesalzen und im Lekythos, einer Ölkanne, aufbewahrt.
In der Kaiserzeit wurde Olivenöl in industriellem Maßstab bis in die fernsten Provinzen des Reiches gewonnen, wie etwa in Jordaniens Nordosten, wie eine 2009 bis 2013 ausgegrabene Ölmühle bei Tell Es-Sukhnah erwies. Kaiser Septimius Severus soll den Römern freies Öl gestiftet haben, gesichert ist dies für Aurelian. Schon Cato (Agr. 22,3) bemerkte, dass ein Liter Olivenöl immerhin etwa 1,5 Sesterzen kostete. Etwa 55.000 Amphoren mit Olivenöl erreichten im Schnitt jährlich die Hauptstadt.
Die wichtigste Fundgruppe stellen die Amphorenstempel vom Monte Testaccio dar. Dieser einen Kilometer breite und 30 Meter hohe Berg barg 700.000 m³ Scherben aus der Kaiserzeit. Anhand der Scherben von 25 Millionen Amphoren ließ sich zeigen, dass das Öl bis ins dritte Jahrhundert überwiegend aus Spanien kam, später aus Nordafrika. Die Scherben stammten zu vier Fünfteln aus der Baetica, wo man etwa 100 Produktionsstätten entdeckte, welche die großen, etwa 30 kg schweren Amphoren mit einem Fassungsvermögen von 70 l Olivenöl herstellten (Typ Dressel 20). Die übrigen 20 % stammten aus Tripolitania und Byzacena.
Das Öl durfte nur an den Öltischen verkauft werden, die wiederum nur vererbt werden durften. Falls es keinen Erben gab, durfte der Tisch für maximal 20 Folles verkauft werden. Für die wohl erheblichen Einnahmen gab es eine eigene Kasse, die arca olearia et frumentaria. Unter Konstantin I. gab es in Rom 2300 Abgabestellen für Öl.
Frühmittelalter
Mit dem Ende des Weströmischen Reiches, dem starken Rückgang des Fernhandels im fünften Jahrhundert und vor allem dem Rückgang der Bevölkerungszahlen ging auch die Olivenölproduktion im nördlichen Mittelmeerraum drastisch zurück. Im südlichen Mittelmeerraum, der im zweiten und dritten Drittel des siebten Jahrhunderts von Arabern erobert wurde, gab es diesen Zusammenbruch nicht. Dieser Wirtschaftszweig wurde als so wichtig erachtet, dass in der Zeit, als Sizilien arabisch war (etwa 827 bis 1091), die dortige Produktion untersagt wurde.
Dem Chrisam, einer Mischung aus Balsam und Olivenöl, das den Firmling stärken sollte, schrieb man magische Kräfte zu, weshalb es getrunken oder zur Einreibung verwendet wurde. Bischof Reinbern von Kolberg († 1013–1015) ließ mit Chrisam gesalbte Steine in die Ostsee werfen, um sie von Dämonen zu säubern, was Thietmar von Merseburg zustimmend berichtet.
Nordeuropa, Fernhandel, Wiederausbreitung
Nordeuropa nutzte im Gegensatz zum Süden bis in das Hochmittelalter Fette statt Öle, wenn auch noch im Donauraum des 5. Jahrhunderts Olivenöl vielfach in der Küche genutzt wurde. Nur im liturgischen Bereich fand es Verwendung, außerdem durften die Öllampen im Gottesdienst nur mit Olivenöl befeuert werden. Hildegard von Bingen empfahl die Verwendung von Rindenstücken und Blättern gegen Gicht, ihr galt das aus unreifen Oliven kalt gepresste Öl als das Öl von höchster Qualität (Oleum omphacinum), doch war sie der Ansicht, dass der Konsum des Öls zu Brechreiz führe. Konrad von Megenberg empfahl das Öl gegen Wunden und Geschwüre.
Auch wegen derlei Vorstellungen und Heilnutzungen brachten Genuesen Olivenöl aus Ligurien, Latium, der Toskana und Kampanien nach Brügge, Paris und London, Venezianer brachten es aus Apulien und den Marken, aber auch aus Dalmatien, Istrien und Griechenland nach Nordeuropa. Zum einen erlaubten diese Einfuhren den Rückgriff auf schmackhaftes Öl in der Fastenzeit, in der tierische Fette verboten waren, eine Zeit, die rund 100 Tage pro Jahr umfasste, zum anderen kamen immer mehr italienische Händler in den Norden, die ihre Ernährungsgewohnheiten weitgehend beibehielten. Daher wurde Olivenöl nicht nur durch die Klöster und den Hof im Norden gebräuchlich, sondern auch durch die Regelungen des Kirchenjahres sowie durch die Intensivierung der Handelskontakte. Das feine Olivenöl aus Italien, Südfrankreich und Spanien kam in großen länglich-spitzen Fässern, den Pipen, oder in Steinkruken.
Der Konsum von Olivenöl nahm im 18. Jahrhundert deutlich zu, Reisende aus Mitteleuropa lobten im 19. Jahrhundert die Qualität speziell des italienischen Öls. Gallipoli wurde im 17. und 18. Jahrhundert reich durch den Verkauf von Olivenöl als Lampenöl für Europa. Die Venezianer vertrieben auch das Öl der Ionischen Inseln, insbesondere aus Kefalonia. Anfangs wurde eher auf Masse gesetzt und das Produkt als „Baumöl“ oder „Levantiner Öl“ verkauft und mit den Ölen anderer Regionen gestreckt. Es richtete sich häufig an Großabnehmer wie Seifenfabriken. Ab 1850 setzte eine Hinwendung zu besonders hochwertigen Speiseölen ein. Deren Qualität wird in einem deutschen Kaufmannsverzeichnis als „recht gut“ bezeichnet. Das Öl wurde mit dem österreichischen Lloyd zwei Mal die Woche von den Ionischen Inseln nach Triest gebracht.
1915/17, während des Ersten Weltkriegs, fiel der Export beispielsweise italienischen Öls von 41.270 auf 10.237 t, um sich erst nach dem Krieg zu erholen. Doch fielen die Mengen bald erneut. So exportierte Italien 1925 zwar noch 22.500 t, jedoch 1926 nur noch 9.700, 1927 gar 9.100 t mit weiter fallender Tendenz. Spanien lieferte zu dieser Zeit bereits die Hälfte der Welternte, doch dann setzte dort ein Preisverfall durch Überproduktion ein. Im Jahr 1928 wurde Olivenöl von der Schweizer Einzelhändlerin Migros ins Sortiment aufgenommen.
Weltmarkt
Mit dem spanischen Kolonialismus erreichte die Olive auch Lateinamerika. 1556 erreichte sie Argentinien, 1560 Peru, doch erst 1697 Mexiko. Franziskaner brachten sie 1769 nach Kalifornien.
In der zweiten Hälfte des 20. Jahrhunderts nahm der Konsum des Öls, unter anderem durch italienische Gastarbeiter, in Nordeuropa zu. Allerdings stand es dort in Konkurrenz zu Sonnenblumen-, Distel- oder später auch Rapsöl und konnte zeitweise fast nur über Apotheken bezogen werden. Von 2003 bis 2007 stieg der Import Deutschlands um 42,6 %. 2009/2010 wurden rund 50.000 Tonnen aus Italien (70 %), Spanien (12,2 %) und Griechenland (10,2 %) eingeführt, wobei italienische Händler häufig spanische Marken importieren. Dementsprechend stieg der Import spanischer Öle um 79,5 %, zudem kaufte der spanische Marktführer Grupo SOS/Carbonell einige Anbieter in Deutschland. Russland bezog 68 % seines Öls aus Spanien, Indien 58 %, China 36 % und Brasilien 25 %. Italien führte 350.000 t spanischen Olivenöls ein, Frankreich 70.117, Portugal 69.968, Großbritannien 27.215 und Australien 24.585 t.
Italien importierte 2007 fast ebenso viel Olivenöl, wie es selbst produzierte, nämlich 603.000 t, davon gingen 325.000 t in andere Länder. Doch inzwischen kaufen spanische Großhändler italienische Unternehmen auf. So wurde 2008 Bertolli, das bis dahin zu Unilever gehörte, von Grupo SOS (2011 umbenannt in deOleo) für 630 Millionen Euro gekauft. Daran hängen die Marken Bertolli (belieferte Rewe), Dante (das um 2000 nur in Deutschland und Italien angeboten wurde), Maya, Sasso, Carapelli und San Giorgio. Ein zweiter Prozess erfasst inzwischen die Branche neben der Konzentration und der Entstehung von supranationalen Konzernen. 2009 wurde die Marke Dante vom italienischen Olivenölhersteller Oleifici Mataluni, dem zweitgrößten Produzenten, zurückgekauft.
Einfluss der Erzeuger, Marktspaltung durch Konzerne
Die Erzeuger verlieren spätestens seit den 1990er Jahren zunehmend ihren Einfluss auf die Wertbestimmung ihrer Arbeit. Große Aufkäufer oder Händler bestimmen durch ihre Marktstellung, die Beherrschung der Transportwege und vor allem durch die Bildung strategischer Lagerreserven und die entsprechende Warenverteilung den Preis. Strategische Lagerreserven gestatten es, Erzeuger antizyklisch unter Preisdruck zu setzen. Dies war bisher schwierig, weil Olivenöle durch ihre natürliche Alterung zum mehrjährigen Lagern ungeeignet sind. Eine gute Ernte sorgte für fallende Preise, eine magere für steigende.
Um über marktbeherrschende Mengen zu verfügen, kauften italienische Händler tunesisches, türkisches oder griechisches Öl in großen Mengen und transferierten es auf illegalen Wegen so, dass es später als „italienisches“ verkauft werden konnte, womit es auch innerhalb der EU zugelassen war. Einen anderen Weg geht Olitalia, das im Namen eine italienische Herkunft suggeriert, doch im Kleingedruckten findet man, dass es sich um eine nicht näher bestimmte Mixtur von Ölen verschiedener EU-Staaten handelt. Damit entstehen einförmige Einheitssorten über Sortengrenzen und Länder, wie dies beim Kaffee seit langer Zeit der Fall ist.
Dies ist jedoch nur ein Weg, um die Vereinheitlichung der Waren zu Lasten der Produzenten zu erreichen und zugleich einen Ersatz für die massenhafte Lagerhaltung zu finden. Die Skandale und die Marktstärke der Händler ließen die Preise bereits deutlich fallen. Erzielten die Olivenanbauer 2008 in Apulien noch bis zu 4,50 Euro für ein Kilogramm natives (natürliches) Olivenöl, so sank der Preis bis 2011 auf 2,70 Euro, in Griechenland sogar von 3,50 auf 2,05 Euro. Damit beginnt sich der Markt in ein großes, von Konzernen beherrschtes Segment und ein kleines, von zahlreichen Kleinunternehmen bestimmtes zu teilen. Der Preisdruck führt dazu, dass Handarbeit eingeschränkt wird oder die Löhne sinken. Dies wiederum setzt eine zunehmende Landflucht in Gang.
Tunesien trat lange kaum als Olivenölexporteur auf, wenn auch viele südeuropäische Öle längst mit tunesischen vermischt werden, die von über 65 Millionen Bäumen auf 1,7 Millionen ha Anbaufläche mittels 1500 Olivenmühlen gewonnen werden. 85 Prozent der tunesischen Olivenplantagen werden auf traditionelle Art bestellt, Tunesien ist daher der größte Lieferant von Bioölen, das 2009 bereits auf 336.000 ha angebaut wurde. Doch nur 57.000 t dürfen zollfrei in die EU eingeführt werden.
Pflanzenpandemie durch Xylella fastidiosa, subsp. pauca (seit 2013)
Eine Unterart des Bakteriums Xylella fastidiosa, auch Feuerbakterium genannt, das die Wasserleitungsbahnen der Olivenbäume verstopft, löst die in Amerika als Pierce's disease seit 1892 bekannte Krankheit aus, die in Italien CoDiRO (Complesso del Disseccamento Rapido dell'Olivo) genannt wird. Sie gilt als „eine der gefährlichsten Pflanzenkrankheiten“, gar als „neue globale Bedrohung“, da sie die Bäume durch Verstopfung der wasserführenden Leitungen schnell austrocknen lässt, was anfangs zu „Blattbrand“ führt. Doch weist sie eine lange Inkubationszeit von bis zu zehn Monaten auf.
Unterschieden werden fünf Unterarten, nur die Subspezies pauca ist für Olivenbäume tödlich. In einer Reihe von Gebieten brach die Olivenölproduktion seither ein.
Erstmals im Oktober 2013 wurde die besagte Unterart in Europa registriert, nämlich im apulischen Gallipoli. Allein in der Provinz Lecce erkrankten bis 2016 über eine Million Olivenbäume. Auch in den Provinzen Tarent und Brindisi, seit 2020 auch Bari, und auf Korsika wurde das Bakterium (Juli 2015) festgestellt, dann in Südfrankreich, im August 2016 in der Schweiz, im November auf Mallorca, im Februar 2017 auf Menorca. Nachdem das Bakterium auch in Südspanien nachgewiesen worden war, ergriff die FAO Präventivmaßnahmen auch in Marokko. 2018 erreichte das Bakterium Belgien, die Niederlande, und auch in Sachsen traten Fälle auf. 2019 wurden erstmals Fälle im Nordosten Brasiliens registriert.
Lange wurde angenommen, die Unterart sei in Kaffeepflanzen aus Costa Rica eingeschleppt worden. 2019 gelang der genetische Nachweis, dass die Übertragung nach Europa durch Pflanzenhandel aus Kalifornien erfolgt ist. Dorthin wiederum gelangte das Bakterium aus dem Südosten der USA, wo die meisten Unterarten existieren.
Untersuchungen zeigten, dass manche Sorten wie Coratina weniger anfällig sind als beispielsweise Cellina di Nardò. Auch könnte die Züchtung neuer Sorten ein Ausweg sein, denn gegen Xylella fastidiosa gibt es kein Mittel. Die Europäische Kommission ordnete daher das Fällen erkrankter Bäume und umgebender Bestände an und untersagte Aus- und Einfuhr der Pflanzen; erstmals erlaubte sie aber im September 2017 auf Mallorca das bloße „Eindämmen“, es müssen also nur noch die befallenen Bäume gefällt werden, nicht mehr alle im Umkreis von 100 m. Anfang 2017 galten 10 Millionen Bäume in den Provinzen Lecce, Tarent und Brindisi als befallen, der wirtschaftliche Schaden überstieg eine Milliarde Euro. Drei Jahre lang wurden Neuanpflanzungen im Salentino untersagt, eine Bestimmung, die für resistente Sorten wie Leccino aufgehoben werden soll, ähnliches gilt für Coratina.
Die European Food Safety Authority veröffentlichte 2018 eine Liste von 563 Pflanzenarten, die als Wirt von Xylella fungierten, im Mai 2020 umfasste die Liste bereits 595 Arten.
2018 verklagte die Europäische Kommission Italien wegen mangelhafter Umsetzung von Schutzmaßnahmen. Laura Spinney glaubt, „in Italien, wo Familien über Generationen hinweg jeweils bei der Geburt eines Kindes einen Olivenbaum pflanzen, haben Olivenbäume tiefe emotionale Bedeutung. Die EU-Kommission hatte die Besitzer der Olivenbäume nicht an ihren Beratungen teilhaben lassen, und die Besitzer wiesen die wissenschaftlichen Argumente, die die EU-Kommission vorbrachte, zurück.“ Andererseits wurden von Großbetrieben legal enorme Mengen von neuen Olivenbäumen aus Infektionsgebieten in Spanien, Chile oder Peru eingeführt. Die Rolle der Beteiligten bei Entscheidungsprozessen wird erst jüngst untersucht, zumal rein epidemiologische Vorgehensweisen ohne durchschlagenden Erfolg blieben. Dabei wurden sowohl Wissenschaftler als auch Politiker, betroffene Landbesitzer und gesellschaftliche Bewegungen unter dem Blickwinkel einer Soziologie des Wissens, des wissenschaftlichen Wissens und auch des Unwissens untersucht. Auf diese Art soll eine „360°-Perspektive“ – mit Blick auf die bisherige Reduzierung auf Politik und Wissenschaften unter Ausschluss der übrigen Gesellschaft – erlangt werden, auch um weiter reichende Konzepte zum Verständnis des vorhandenen Wissens zu erarbeiten.
Die Preise italienischer Olivenöle stiegen 2016 im Vergleich zu 2014 um 21 %, während der Absatz um 18 % zurückging. In der Region wurden 2015 bis zu 40 % des italienischen Olivenöls produziert. Im Februar 2019 wurde das decreto Centinaio beschlossen, das vorsieht, alle befallenen Bäume zu fällen. Im Salento existierten zu dieser Zeit 491 Ölmühlen, davon 251 in der Provinz Lecce, 143 in Brindisi und 97 in Tarent.
Eine 2019 erstellte Weltkarte der Verbreitung zeigt, dass Xylella nicht nur in allen Anbaugebieten vertreten ist, sondern auch die gefährdetsten Gebiete. Das Bakterium gilt als eines der bestuntersuchten weltweit und zugleich als globale Bedrohung. Die Art benutzt Insekten als Vehikel, wie die Schaumzikade in Apulien. In Italien ist vorgeschrieben, auf allen Grünflächen einschließlich privater Gärten die als Trägertier (Vektor) erkannte Wiesenschaumzikade (sputacchina) zu bekämpfen, und zwar im Larvenstadium im März/April. Im Juni 2020 reduzierte die EU den Mindestabstand zu befallenen Bäumen von 100 auf 50 m. Zudem dürfen als resistent bekannte Sorten in abgefällten Gebieten angepflanzt werden. Biologisch bekämpfen ließe sich das Trägertier durch die kleine Wespenart Ooctonus vulgatus, die ihre Eier in die Eier der Wiesenschaumzikade legt.
2018 belief sich die Olivenölproduktion Italiens auf nur noch 185.000 t, womit der heimische Markt nur noch teilweise gedeckt werden konnte. Schon im Januar 2019 stiegen die Preise im Schnitt um 31 %. Auch die Ernten in Griechenland und Portugal fielen 2018 um 35 bzw. 20 % geringer aus. Hingegen stieg die Ernte in Spanien auf 1,8 Millionen Tonnen. Trotz aller Gegenmaßnahmen fiel die italienische Ernte des Jahres 2020 mit 255.000 t um etwa 30 % unterhalb der Vorjahresernte von 336.000 t aus, allerdings hatte diese einem starken Anstieg gesehen. In den Regionen mit der höchsten Produktion, nämlich Apulien, Kalabrien und Sizilien, brach die Produktion um 43 und 38 sowie 15 % ein. In absoluten Zahlen reduzierte sich die Ernte in Apulien von 194.000 auf rund 121.000 t, Kalabrien erntete nur noch 32.005 t, Sizilien 29.200. Hingegen stieg die Produktion in anderen Regionen des Landes: Latium + 8 % oder 12.000 t Gesamternte, Toskana + 31 % mit über 13.000 t, Umbrien + 70 %, nunmehr 6.500 t, Ligurien + 100 % auf 2.895 t. Durch die Epidemie wurden allein in Apulien ca. 33.000 Arbeitsplätze vernichtet.
Auch andere Länder erlebten starke Schwankungen bei der produzierten Ölmenge. So fiel der Ertrag in Frankreich von 5.900 t auf etwa 3.500 t. In Spanien, dem bei weitem größten Produzenten, der ein Rekordjahr gesehen hatte, brach die Ernte 2019/2020 von 1,77 Millionen t im Vorjahr auf wenig mehr als 1,1 Millionen t ein. Griechenland konnte seine Produktion hingegen nach einer sehr schlechten Ernte deutlich steigern, nämlich von 185.000 auf rund 300.000 t. Portugal, inzwischen viertgrößter Produzent in der EU, steigerte seinen Ertrag von 100.000 auf 130.000 t.
Herstellungsmethoden
Ein Olivenbaum trägt abhängig von physiologischen Gegebenheiten (Alternanz), Wetter, Wasserangebot, Alter und Größe bis zu 300 kg Oliven. Im langjährigen Durchschnitt kann mit einem Ertrag zwischen 20 und 30 kg Oliven gerechnet werden. Für die Produktion von Olivenöl gilt, dass fünf Kilogramm Oliven bis zu einem Liter Öl ergeben.
Die Erntezeit beginnt, wenn die Oliven ihre Farbe von grün zu rot-violetten Tönen wechseln. Werden die Früchte zu einem späteren Zeitpunkt geerntet, erhöht sich die Menge der zu erzielenden Ausbeute. Die Qualität des Öles wird maßgeblich durch den Erntezeitpunkt beeinflusst.
Grundsätzlich wird zwischen der manuellen und der mechanisierten Ernte unterschieden. Die manuelle Ernte ist sehr zeit- und personalintensiv und stellt somit einen wesentlichen Kostenfaktor bei der Produktion eines Olivenöles dar. Bei dieser traditionellen Methode werden unter den Bäumen Netze ausgebreitet und die Oliven durch sachte Stockschläge, Einsatz von Kämmen etc. von den Zweigen getrennt. Noch aufwändiger ist das Abpflücken per Hand, was hauptsächlich von kleinen Betrieben praktiziert wird, die das Lesegut nicht beschädigen und sorgfältig selektieren wollen, um sehr hochwertige Öle zu erzeugen. Die mechanisierte Ernte geschieht durch Rüttelmaschinen, die jedoch nur in Olivenhainen eingesetzt werden können, die durch ihre topografische Lage, Baumdichte und Baumschnitt für diesen Einsatz geeignet sind.
Bei nächtlichen Ernten mit Großmaschinen und Scheinwerfern in Spanien könnten massenhaft Vögel sterben; dort wurde die Nachternte mit Hightech-Saugrobotern gestoppt. Italien und Frankreich sind offenbar kaum betroffen.
Ernte und Verarbeitung sollen möglichst am selben Tag geschehen, eine Zeitdifferenz von vier Stunden gilt als optimal.
In der Ölmühle werden die Oliven gewaschen, mitsamt dem Kern zerkleinert und schließlich durch Pressung oder Zentrifugation der Saft aus den Früchten gewonnen.
Die Gewinnung von Olivenöl kann im Chargenbetrieb (traditionelles Verfahren) oder im kontinuierlichen Betrieb (modernes Verfahren) erfolgen. Letzteres setzt sich in Europa aus Wirtschaftlichkeits- und Qualitätsgründen immer weiter durch.
Aus den anfallenden Pressrückständen (Trester) aus Presse oder Zentrifuge lässt sich durch physikalische Extraktion mit Lösungsmitteln das verbliebene Restöl gewinnen. Um dieses Tresteröl verkehrsfähig zu machen, wird es „rektifiziert“ und mit nativem Olivenöl vermischt. Die Verkehrsbezeichnung für dieses Produkt lautet Oliventresteröl (vgl. Tabelle im Abschnitt Qualität).
Chargenbetrieb (traditionelles Verfahren)
Pressung
Die Oliven werden auf dem Boden der Ölmühle verteilt, wo sie durch motorbetriebene, kegelförmige Walzen zerkleinert werden. Die Dauer des Mahlprozesses richtet sich nach der Menge an Oliven einer Partie. Traditionell wird mit großen Mühlsteinen (Kollergang) gemahlen, wodurch sich das Pressgut kaum erwärmt. Die so erzeugte Masse wird zwischen Ölpresskörbe (Matten) geschichtet, die übereinander gelagert und dann gepresst werden. Durch diesen Vorgang wird eine Flüssigkeit gewonnen, die aus einem Gemisch aus Öl und Wasser besteht. Man lässt diese ruhen, bis sich die Öl- und Wasserphase in zwei Schichten getrennt haben.
Tropföl
Wird die Olivenpaste auf Matten aufgebracht und diese zu Türmen aufgeschichtet, wird das erste Öl schon durch das Eigengewicht der aufgeschichteten Matten herausgepresst. Dieses Öl wird Tropföl und auf Spanisch Flor de Aceite (‚Blume des Öls‘) genannt. Dabei handelt es sich nicht um eine geschützte Güteklassifizierung, sondern um eine traditionelle Verfahrensweise, die in dem Ruf steht, durch die vergleichsweise geringe mechanische Einwirkung ein besonders wertvolles Öl hervorzubringen. Der Herstellungsprozess von Tropföl entspricht allerdings nicht den Anforderungen einer modernen Olivenölproduktion. Allein der lange Sauerstoffkontakt des Olivenbreis, die dieser Prozess – im Gegensatz zu einer im geschlossenen System ablaufenden kontinuierlichen Produktion – bedingt, ist für die Qualität des Endprodukts nicht förderlich.
Kontinuierlicher Betrieb (modernes Verfahren)
Im kontinuierlichen Verfahren durchlaufen die Oliven folgende Schritte: Zunächst werden Fremdkörper, insbesondere Blätter entfernt und die Früchte anschließend im Wasserbad gewaschen. In einer Hammermühle, einem Mahl- oder einem Schneidwerk werden die Oliven anschließend zerkleinert. Die entstandene breiige Masse wird in der Folge in einem Knetwerk gerührt, damit sich die in ihr verteilten feinen Öltröpfchen zusammenschließen. Über eine Zentrifuge (Decanter) werden schließlich die Feststoffe, die wässrige Phase und das Öl voneinander getrennt. Zur besseren Extraktion wird dem Brei vielfach Wasser hinzugefügt. In der Produktion von qualitativ hochwertigen Olivenölen wird auf diese Zugabe möglichst verzichtet, zumal moderne Decanter weitgehend ohne Wasserzugabe arbeiten.
Das frisch gepresste Öl enthält noch alle Trubstoffe (Schwebstoffe) und wird entweder sofort abgefüllt und dann als „ungefiltertes“ oder „naturtrübes“ Öl bezeichnet oder über eine Zeit von mehreren Wochen gelagert, damit sich die enthaltenen Schwebstoffe absetzen können und anschließend dekantiert und abgefüllt. Beide Verfahren entsprechen nicht dem Stand der Technik und sind für höchste Qualitätsansprüche ungeeignet. Die im frisch gepressten Öl enthaltenen Trubstoffe schädigen das Öl, so dass dieses an Qualität verliert. Nur die sofort nach der Pressung erfolgte Filterung gewährt eine hohe Qualität über einen längeren Zeitraum hinweg.
Herstellungsmethoden und Qualität
Die Herstellungsmethode ist ein wesentlicher Faktor für die Qualität des Endproduktes. Die EG-Verordnung NR. 1513/2001 definiert natives Olivenöl als „Öle, die aus der Frucht des Olivenbaumes ausschließlich durch mechanische oder sonstige physikalische Verfahren unter Bedingungen, die nicht zu einer Verschlechterung des Öls führen, gewonnen wurden.“ Ziel ist es, das Olivenöl als Saft der Olive möglichst naturbelassen zu erhalten und nicht durch die Herstellungsmethode zu verfälschen oder negativ zu beeinflussen.
Das Öl der Olive dient eigentlich dem Zweck, die aus dem Kern entstehende neue Pflanze zu ernähren. Da Pflanzen das nicht wasserlösliche Öl nicht aufnehmen können, muss dieses vor dem Entstehen des neuen Setzlings auf natürliche Weise wieder zersetzt werden. Dieser Prozess beginnt bei der Vollreife der Frucht durch enzymatische Prozesse, die durch Sauerstoffkontakt stark beschleunigt werden. Der optimale Erntezeitpunkt – gekennzeichnet durch niedrige enzymatische Tätigkeit und niedrigen Zuckergehalt innerhalb der Früchte – kann durch chemische Analysen bestimmt werden. Vereinfacht geht man davon aus, dass zu dieser Zeit die Oliven ihre Farbe von grün zu dunkleren Tönen wechseln. Für die Produktion von qualitativ hochwertigen Ölen ist es eine notwendige Voraussetzung, gesunde Früchte in optimalem Reifezustand zu verarbeiten.
Die Temperatur während des Produktionsprozesses ist ein weiterer qualitätsbestimmender Faktor. Für die Extraktion des Öles ist eine Temperatursteuerung notwendig. Je kühler die Temperatur, desto mehr Öl bleibt in den Öltrestern zurück. Unter 20 °C geht die Ausbeute merklich zurück, wird der Olivenbrei hingegen zu stark erwärmt (über 32 °C), verliert das so gewonnene Öl seine organoleptischen Qualitäten. Olivenöl, das als kaltgepresst oder kaltextrahiert deklariert wird, darf während der Produktion nicht wärmer als 27 °C werden. Die moderne Herstellungsmethode bietet zahlreiche Vorteile, um die Qualität eines Olivenöls während der Produktion zu erhalten:
Der gesamte Prozess kann in einer modernen Mühle temperaturgesteuert werden.
Das Zerkleinern der Oliven geschieht heute idealerweise durch Zerschneiden der Früchte. Durch das Zermahlen mit traditionellen Mühlsteinen ist eine Kontrolle der Mahldauer und somit die Kontrolle der Sauerstoffexposition kaum möglich.
Ein wichtiger Produktionsschritt ist das Kneten des Olivenbreis, um die in ihm fein verteilten Öltröpfchen zusammenzuführen. Durch das Zermahlen in traditionellen Ölmühlen wird der Brei auch geknetet. Dieser wichtige Vorgang kann hinsichtlich Geschwindigkeit, Sauerstoffkontakt und Temperatur nicht ausreichend kontrolliert werden.
Die Schichtung des Olivenbreis auf Matten hat den Zweck, die Oberfläche des Pressgutes zu vergrößern, um somit den Austritt des Öls zu erleichtern. Diese vergrößerte Oberfläche führt auch zu einem vermehrten, unkontrollierten Sauerstoffkontakt. Moderne Rührwerke arbeiten unter Vakuum oder Schutzgasatmosphäre. Die traditionellen Pressmatten bewirken zudem hygienische Probleme, durch die bakterielle oder enzymatische Vorgänge in Gang gesetzt werden können.
Durch das Zentrifugieren und anschließende Filtern wird das Öl schneller und zuverlässiger von Trubstoffen getrennt, als durch das traditionelle Dekantieren.
Qualität
Güteklassen
Die Bezeichnungen (englisch), (franz.), (italienisch), (spanisch) oder (portugiesisch) entsprechen dem deutschen Nativen Olivenöl Extra und sind eine Qualitätskennzeichnung für Olivenöl.
Die Verordnung (EU) Nr. 1308/2013 unterscheidet acht Bezeichnungen für Olivenöl und Oliventresteröl. Dabei dürfen nur natives Olivenöl extra, natives Olivenöl, Olivenöl bestehend aus raffinierten Olivenölen und nativen Olivenölen und Oliventresteröl vermarktet werden.
Mit der Verordnung (EU) Nr. 61/2011 zur Änderung der Verordnung (EWG) Nr. 2568/91 über die Merkmale von Olivenölen und Oliventresterölen wurden Ölmischungen am europäischen Markt erlaubt. Früher unterschied man bei den Handelssorten das Öl von höherer Qualität, das „Provenceröl“, vom „Baumöl“.
Qualitätsbeeinflussende Faktoren
Die geschmackliche Qualität ergibt sich aus
der Olivensorte
dem Zustand der Oliven wie Reife oder Wasserversorgung beim Wuchs
dem Anteil von angefaulten und von Schädlingen befallenen Früchten
der Reinheit von Fremdkörpern wie Laub, Aststückchen und Sägespänen
der Art und Dauer der Lagerung nach der Ernte bis zur Verarbeitung
der Reinheit der Anlagen bei der Verarbeitung, insbesondere bei Rückständen von älteren Chargen
der Sauerstoff-Exposition während der Verarbeitung
der Weiterbehandlung nach der Pressung
Etikettierung
In der Europäischen Union ist die Etikettierung von Olivenöl klar geregelt. Neben den verbindlichen Bezeichnungen für die einzelnen Olivenölkategorien (Güteklassen) sollen die Verbraucher laut der Verordnung (EG) Nr. 29/2012 vom 14. Januar 2012 über die Art des angebotenen Olivenöls auf dem Etikett zusätzlich genauer informiert werden. Außerdem dürfen die Angaben auf dem Etikett den Käufer nicht irreführen oder dem Olivenöl vermeintlich besondere Eigenschaften zuschreiben.
Das Etikett muss zusätzlich zur Verkehrsbezeichnung einen erklärenden Satz tragen. Für Olivenöle mit der Verkehrsbezeichnung „natives Olivenöl extra“ ist beispielsweise folgender Zusatz im Wortlaut vorgeschrieben: „erste Güteklasse — direkt aus Oliven ausschließlich mit mechanischen Verfahren gewonnen“. Weiterhin ist für „natives Olivenöl extra“ und „natives Olivenöl“ eine Ursprungsangabe verbindlich anzugeben. Zusätze wie „kaltgepresst“, „erste Kaltpressung“ oder „Kaltextraktion“ sind nur dann zulässig, wenn die Temperatur bei der Verarbeitung der Olivenmasse höchstens 27 °C betragen hat. Angaben zu Geschmack und/oder Geruch sind nur zulässig, wenn sie auf den Ergebnissen einer anerkannten Analysemethode basieren. Die Angabe des Säuregehalts ist nur dann erlaubt, wenn die Werte der Peroxidzahl, des Wachsgehalts und der Absorption im Ultraviolettbereich in gleicher Schriftgröße und im gleichen Sichtfeld angeführt werden.
Untersuchungsergebnisse, Testverfahren, Herkunftsangabe und -fälschung
Der „Taschenführer Olivenöl Italien“ der Zeitschrift Merum kam 2011 zu der Bewertung, von 560 Ölen seien nur 50 akzeptabel, nur etwa 20 gelten als sehr gut.
Eine Anfang 2016 von Stiftung Warentest durchgeführte Untersuchung von 26 Olivenölen der besten Kategorie „native extra“ bewertete 13 Produkte als mangelhaft. Bei fünf Ölen bestätigte die Laboranalyse die angegebene Herkunft nicht (gemischter Ursprung nicht deklariert). Schadstoffbelastungen wurden ebenfalls ermittelt: Fünf Olivenöle waren mit Mineralöl belastet, in 20 Ölen wurden Pestizide nachgewiesen und fünf Produkte enthielten Weichmacher. Fünf Jahre später untersuchte die Stiftung 27 Öle in der Preisspanne zwischen 4,50 Euro und 52 Euro pro Liter. Dabei stellen sie insgesamt eine Verbesserung der Qualitäten fest, doch schnitten nur zwei Öle in Geschmack und Geruch hervorragend ab. In keinem der Bioöle ließen sich Pestizide nachweisen.
Die EU-Verordnung 29/2012 schreibt für native Olivenöle (nativ und nativ extra) eine Ursprungsangabe vor. Wenn ein Land (EU-Mitglied oder Drittland) genannt ist, müssen die Oliven in diesem Land geerntet und gepresst worden sein. Andernfalls muss es z. B. heißen: Natives Olivenöl (extra), „hergestellt in Italien, aus Oliven geerntet in Griechenland“. Bei gemischtem Ursprung muss es heißen: „Mischung von Olivenölen aus der Europäischen Union (und/oder Drittländern)“.
Trotz aller Maßnahmen berichtete Der Spiegel Ende 2011 mit Verweis auf die italienische Zeitung „La Repubblica“, dass 80 Prozent des italienischen Olivenöls nicht aus Italien stamme, sondern in Italien nur etwas aufbereitet werde. Hinweise, dass eine Mischung vorliege, würden auf dem Etikett versteckt oder sogar verschwiegen.
2019 fand Öko-Test in der Hälfte von den zwanzig untersuchten Olivenölen der höchste Güteklasse (nativ extra) die beiden Mineralölrückstände MOSH und MOAH. In drei der Öle wurde zudem der Weichmacher Dibutylphthalat nachgewiesen. Zwölf der getesteten Öle waren Bio-Öle, vier erfüllten nur die Bedingungen für „natives“ Olivenöl. „MOAH können von Schmierölen der Erntemaschinen, Förderbändern der Ölmühlen, Kettensägen zum Olivenbaum-Beschnitt, aber auch von Pestiziden auf Paraffinöl-Basis, Feinstaub und Abgasen stammen“ Allerdings waren die Olivenöle nicht mit anderen Pflanzenölen gestreckt, zudem waren keine weiteren Schadstoffe nachweisbar.
Arbeitsmarkt, Betriebsgrößen
In der Europäischen Union werden rund 70 % des Olivenöls auf 1.563.000 ha hergestellt (Stand: 2000), davon entfielen 48 % auf Spanien und 22,5 % auf Italien. 1.160.000 Erzeuger arbeiteten in Italien im Olivenölsektor, 840.000 in Griechenland, 380.000 in Spanien und 130.000 in Portugal. Sie sind als Olivenbauer oder in Genossenschaften, Ölmühlen, Raffinerien, Mischbetrieben und Vermarktungsunternehmen tätig.
In Nordafrika sind die Arbeitsverhältnisse gänzlich anders. Allein in Tunesien gibt es 300.000 Olivenplantagenbesitzer, davon stellen 1650 Betriebe Olivenöl her, 45 Firmen füllen es ab, über 70 Betriebe exportieren das Öl. Insgesamt beschäftigt der Sektor etwa 1.000.000 Menschen.
Je nach Ausrichtung – traditionelle, häufig biologische Bewirtschaftung, dann stärker bewirtschaftete traditionelle Pflanzungen mit höherem Einsatz von Produktionsmitteln, schließlich intensiv bewirtschaftete, meist junge Pflanzungen mit verstärktem Einsatz von Maschinen und anderen Technologien, Bewässerung und engem Stand der Bäume bis hin zur weihnachtsbaumartigen Beschneidung – divergieren die Betriebsgrößen, Eigentumsverhältnisse und Arbeitsabläufe. In Italien war der Durchschnittsbetrieb 2003 nur einen Hektar groß, in Spanien hingegen sechs.
Wirtschaftliche Bedeutung
Weltproduktion
2020 nahm Olivenöl mit 3.373.881 Tonnen Weltproduktion nach Angaben der FAO nur den 8. Platz bei den pflanzlichen Ölen ein. Die europäischen Staaten waren mit etwa 1,9 Millionen t (= 63,0 %) der Weltproduktion die bedeutendsten Olivenöl-Produzenten. Die 10 größten Erzeugerländer produzierten 93,9 % des gesamten Olivenöls.
Dabei ist der Markt seit Mitte der 1990er Jahre starken Veränderungen unterworfen, die jährlichen Erntemengen schwanken extrem stark. So verzeichnete die Welternährungsorganisation FAO für Italien im Jahr 2014 knapp 295.000 t, während es im Jahr zuvor noch fast 464.000 t gewesen waren, 2012 fast 506.000, 2011 gar 542.000 t. Ähnliche Schwankungen gab es auch in der Vergangenheit. Erntete man in Italien 1983 noch 824.000 t, so waren es im folgenden Jahr nur 343.200, 1985 wieder 641.500, dann wieder 338.010. 2004 wurden über 794.000 t geerntet, die zweitumfangreichste Ernte mindestens seit 1961, die umfangreichste seit 1983. Hingegen war das Jahr 2014, knapp hinter 2013, für Spanien das ertragreichste Jahr. Während Syrien 2011 noch etwa 200.000 t Olivenöl gewonnen hatte, halbierte sich diese Zahl drei Jahre später, allerdings wohl eher kriegsbedingt. Ähnliche, teils noch stärkere Schwankungen weisen Länder wie Tunesien oder die Türkei auf. Letzteres hatte 2012 noch mehr als 200.000 t gewonnen.
Gemessen an den Vierjahressummen von 1990–1993 und 2002–2005 konnte Spanien seine Produktion zwar um 64 % steigern, doch bei der Türkei waren es 97, im Falle Syriens 127 % und in Israel sogar 1900 %. Auch Länder wie Slowenien (+ 411 %), Kroatien (+ 100 %), aber auch Australien (+ 144 %), die USA (+ 44 %) oder Chile (+ 37 %) weisen enorme Steigerungsraten bei der Produktion von Olivenöl aus. Hatte Italien 1988 noch 28,9 % der Welternte beigetragen, so sank dieser Anteil bis 2011 auf 15,9 %. Hingegen steigerte Spanien seinen Anteil im gleichen Zeitraum von 26,8 auf 45,8 %. Auch Produzenten wie Syrien gelang es, diesen Anteil auf 6,1 % zu steigern. Wuchsen dort 1988 noch über 38 Millionen Bäume, so waren es zehn Jahre später bereits über 58 Millionen, die heimische Ölproduktion stieg von 66.000 auf 116.000 t, 2010 waren es 177.400 t. Die Gesamtanbaufläche betrug 2010 etwa 10 Millionen ha oder 100.000 km². Inzwischen wird versucht, etwa in Israel und Argentinien, Australien und den USA, die Produktion auf Wüstenflächen auszudehnen. Die Zahl der Olivenbäume wurde 2009 auf etwa 800 Millionen geschätzt, wobei 90 % der Oliven in die Ölproduktion eingingen, weniger als 10 % wurden zu Tafeloliven.
2017 lag die Gesamtproduktion an Oliven bei 16 Millionen Tonnen Tafeloliven und 2,7 Millionen Tonnen Öl.
Handel
Spanien war 2020 der größte Hersteller und Exporteur (1.130.319 t) von Olivenöl.
Italien dagegen war der drittgrößte Hersteller, aber der weltweit größte Importeur von Olivenöl (539.770 t).
2020 importierte Deutschland 83.140 t Olivenöl, die Schweiz 17.288 t und Österreich 11.698 t.
Zwischen dem 1. Oktober 2019 und dem 30. September 2020 führte Spanien innerhalb der EU über 640.000 t aus, davon ging mehr als die Hälfte nach Italien, 21,3 % nach Portugal, 14,7 % nach Frankreich und 3,7 % nach Deutschland. Italien führte 124.500 t aus, davon 35,4 % nach Deutschland, 27,5 % nach Frankreich, 8,9 % nach Spanien. Griechenland führte 137.700 t aus, wovon 77,5 % nach Italien, 10,3 % nach Deutschland, 1,9 % nach Spanien und 1,4 % nach Frankreich gingen. Von den 128.500 t portugiesischen Exportöls gingen 65,6 % nach Spanien, 27,6 % nach Italien, 3,2 % nach Frankreich und nur 0,3 % nach Deutschland. Die 7.200 t, die Frankreich ausführte, gingen zu 48,7 % nach Deutschland, zu 6,6 % nach Spanien. Italien war dabei der mit Abstand größte Importeur aus der EU. Dorthin flossen 468.600 t Olivenöl, gefolgt von Portugal und Frankreich mit je etwa 137.000 t. Spanien hingegen führte weniger als 100.000 t ein, gefolgt von Deutschland mit 88.300 t.
Italienische Firmen kaufen in der Mittelmeerregion Olivenöl auf, füllen es ab, und vertreiben es weltweit. So wird griechisches Olivenöl aufgekauft, um es in Deutschland als „italienisches“ zu verkaufen, da die Konsumenten bereit sind, dafür mehr zu zahlen. Bei der Abfüllung in Italien wird häufig griechisches Olivenöl guter Qualität nicht mit ebenso gutem, sondern mit minderwertigem italienischen Olivenöl gemischt und in Deutschland verkauft.
Konsumentenländer, Pro-Kopf-Verbrauch
Im Jahr 2003 beschränkte sich der Konsum von Olivenöl auf wenige Länder. Dabei entfiel fast die Hälfte des Verbrauchs auf zwei Staaten, nämlich Italien, wo allein 30,3 % der Welternte konsumiert wurden, und Spanien, wo es 19,3 % waren. Die USA (8,2 %), Griechenland (6,9 %), Syrien (4,8 %), Frankreich (3,9 %), Marokko (3,0 %) folgten. Betrachtet man die Wertseite der Einfuhren, so lag Italien mit 40,2 % des Gesamtwertes noch weiter vorn, gefolgt von den USA mit 15 %, Frankreich (6,4), Spanien (5,5), Großbritannien (3,7) und Deutschland (3,5 %). 2017 importierten die USA 300.000 t Olivenöl, Deutschland bereits 64.000 t, Großbritannien 61.000 t.
Dabei stieg der Verbrauch pro Einwohner der jeweiligen Staaten in den 1990er Jahren stetig an, wobei Deutschland von einem sehr niedrigen Niveau von 100 g pro Kopf und Jahr im Jahr 1990 auf 400 g im Jahr 2003 zulegte. Den größten Pro-Kopf-Verbrauch weltweit hatte 2016 Griechenland mit 14,9 Liter pro Jahr, gefolgt von Spanien mit 11,5 Liter und Italien mit 10,5 Liter pro Jahr. Danach kommen die Portugiesen mit 5 Liter pro Jahr. In Deutschland verbrauchte 2016 jeder Einwohner 0,8 Liter und in Österreich 1,2 Liter. In der Schweiz waren es im Bemessungsjahr 2012 1,7 Liter pro Kopf. Dabei sinkt seit einigen Jahren der Konsum in Spanien, nämlich von 425 auf 342 Millionen Liter, was auf die Preisverdoppelung in diesem Zeitraum zwischen 2008 und 2018 zurückgeführt wird. Dies hängt wiederum mit schlechten Ernten und steigender Nachfrage aus Ländern zusammen, wie den USA oder auch Deutschland. Bei den Jüngeren kommt Misstrauen gegenüber der „Ehrlichkeit der Etikettierung“ hinzu.
Wichtige Anbaugebiete
Die Anbaugebiete liegen fast ausschließlich in den Staaten am Mittelmeer, doch sind die Ansprüche der Bäume an Klima, Boden und kulturelle Vorbedingungen so, dass nur eine begrenzte Zahl von Landschaften den Löwenanteil des Olivenöls produziert.
In Portugal ballen sich die Betriebe in den Gebieten Trás-os-Montes, Alentejo und Ribatejo.
In Spanien werden vier Fünftel der Oliven in Andalusien, vor allem in der Provinz Jaén, die etwa ein Viertel der Welternte erzeugt, aber auch in der Provinz Córdoba, ebenso wie in Katalonien, dort insbesondere in den Provinzen Lleida und Tarragona sowie in Aragonien und Extremadura. Dazu kommen kleinere Anbaugebiete wie Álava, Navarra, Mallorca.
In Italien produzieren Apulien, Kalabrien, Sizilien und Kampanien zusammen mehr als 80 % des italienischen Olivenöls. In Deutschland sind Öle aus Venetien-Garda, der Toskana und Ligurien recht bekannt, wobei die Toskana weniger als 5 % zur italienischen Produktion beiträgt, Ligurien und Venetien noch weniger.
In Griechenland wird es auf dem Peloponnes produziert, vor allem um Kalamata und Messenien sowie in der Mani d. h. im Regionalbezirk Lakonien, hinzu kommen Inseln wie Kreta, Kefalonia, Lesbos und Thasos.
In Tunesien eignet sich vor allem der Sahel für den Olivenanbau, der schon in römischer Zeit den Löwenanteil zur Versorgung der Hauptstadt Rom lieferte. 65 Millionen Olivenbäume bedecken rund 1,7 Millionen ha Land.
Kroatien baut entlang der Adriaküste und auf den Inseln Oliven an. Die Regionen Istrien und Dalmatien sind die Hauptproduktionsregionen. Des Weiteren werden im Nachbarland Slowenien in der Region Primorska Oliven erzeugt.
Im östlichen Mittelmeerraum pflanzen darüber hinaus türkische Bauern in der Ägäis- und in der Mittelmeerregion Oliven an, in Syrien vor allem um Aleppo – die dortige Produktion ist allerdings kriegsbedingt eingebrochen. Auch auf Zypern wird Olivenöl produziert, es wird jedoch überwiegend lokal verbraucht und gelangt kaum in den Export.
Olivenöle und Olivensorten nach Regionen und Staaten
Die Zahl der Olivensorten im Mittelmeerraum dürfte bei etwa tausend liegen, doch sind bei weitem nicht alle für die Ölproduktion geeignet, viele dienen darin nur kleinsten, lokalen Märkten oder dem Eigenbedarf. Zur Verwirrung trägt bei, dass viele Sorten unter verschiedenen Namen bekannt sind, je nach Region, manchmal sogar je nach Verarbeiter. Die Zahl der Sorten, die für Olivenöl geeignet sind, wird mit insgesamt 860 angegeben. Das 2014 erschienene The Extra-Virgin Olive Oil Handbook kennt etwa 2000 Olivensorten. Nach diesem Überblickswerk sind allein in Italien 538 Sorten bekannt, in Spanien 262, in der Türkei 80, in Syrien 75, in Griechenland 52, in Tunesien 44, in Algerien 36, in Portugal 24, in Marokko 6. Die Gesamtzahl der Bäume wird auf 850 Millionen geschätzt, sie wachsen auf 8,7 Millionen ha Land.
Mittelmeerraum
Spanien
In Spanien gibt es 23 offiziell anerkannte Anbau- und Erzeugerregionen (Denominación de Origen Protegida/DOP) für Olivenöl (aceite de oliva virgen), die meisten davon im wichtigsten spanischen Anbaugebiet Andalusien, woher 90 % der Erträge stammen. Insgesamt rechnet man mit 215 Millionen Olivenbäumen in zehn Anbauregionen.
Die wichtigsten Olivensorten, aus denen Öl gewonnen wird, sind Picual – sie stellt allein rund die Hälfte der Ernte, ist robust und variiert im Geschmack je nach Anbaugebiet sehr stark –, dann Arbequina, wohl eine der bekanntesten spanischen Sorten. Sie ist fruchtig, mild, leicht süßlich und lässt Artischocken ahnen, Blanqueta, eine sehr blasse Sorte aus der Region Levante an der Costa Blanca (Mandeln, sehr mild, dennoch intensives Aroma), Cornicabra (stellt rund ein Achtel der Gesamternte, der Name „Ziegenhorn“ leitet sich von ihrer Form ab, reicht von süßlich bis scharf), Empeltre (sehr alte Sorte der Balearen, fruchtig, apfelig), Hojiblanca (Sevilla, Granada, Córdoba und Málaga sind ihre Anbaugebiete, rund ein Sechstel der Gesamternte, zartbitter und pikant nach Kräutern), Lechin de Sevilla (weißlicher Saft, würzig, ein wenig bitter), Manzanilla (aus den Bergen von Alicante in Cáceres, meist Tafelolive, da ihr Öl ein wenig bitter schmeckt), Picudo (vor allem in Andalusien, fruchtig nach Mandeln und Äpfeln), Verdial oder Morisca (Extremadura, besonders süß und fruchtig).
Es waren wohl die Phönizier und die Griechen, die den Olivenbaum auf die Iberische Halbinsel brachten. Bereits zu Zeiten der Herrschaft Aragoniens (13. Jahrhundert) wurde Olivenöl nach Nordafrika exportiert.
Portugal
In Portugal, wo zwei Drittel der Oliven im Alentejo produziert werden, bestehen sieben Regionen, die ein Herkunfts- und Qualitätssiegel (Denominação de Origem Protegida) tragen, das von der EU anerkannt ist, nämlich Azeite: de Moura, de Trás-os-Montes, do Ribatejo, do Norte Alentejano, da Beira Alta, da Beira Baixa und Alentejo Interior. 2011 bestanden Olivenhaine auf einer Fläche von 430.000 ha. Dabei produzierten 1472 Ölmühlen insgesamt zwischen 50.000 und 80.000 t Olivenöl. Kooperativen sorgten für die Abfüllung. Vier Fünftel der Ernte basierten bis etwa 2005 auf den kleinen Oliven der Sorte Galega, hinzu kommen Cordovil und Carrasquenha.
Seit dem Bau des Alqueva-Damms löst in Portugal die industrielle Olivenölproduktion vielfach die traditionelle, auf Familienbetrieben basierende Produktion ab. Seit 2003, dann erneut seit 2011, seit die Regierung eine entsprechende Initiative mittels günstiger Kredite und billigen Landes einleitete, stieg der Anteil des Alentejo an der portugiesischen Produktion auf 77 %, der Anteil der Olivenhaine gar auf 85 %.
Meist dominieren den Anbau seither spanische Unternehmen, die inzwischen die Hälfte des Alentejoöls herstellen. Mit dem Wechsel zu spanischem Kapital kamen auch spanische Sorten ins Land, die Sorten Arbequina und Hojiblanca herrschen mittlerweile vor. Diese Unternehmen üben einen enormen Preisdruck auf die Kleinproduzenten aus, denen für ihr besseres, aber teureres Öl die Absatzkanäle fehlen. Viele der traditionellen Ölproduzenten haben ihre Betriebe bereits aufgegeben.
Marokko
In Marokko wird aus Baldi Picholine, auch Picholine Marocaine genannt, über 90 % des Öls gewonnen. Auch wenn die Olive entweder über Land aus Ägypten oder über See aus Südspanien oder dem Mittelmeer sehr viel früher ankam, so finden sich die ersten Nachweise erst aus römischer Zeit um Volubilis, Lixus und Tingis. Um Fès, Marrakesch und Tlemcen wird sie durch arabische Reiseberichte des 11. bis 17. Jahrhunderts belegt, um Sousse und im Tafilalt erst im späten 17. Jahrhundert. Möglicherweise hing diese vergleichsweise späte Einführung mit der Konkurrenz mit anderen Ölen, wie dem Arganöl zusammen. Während der Kolonialzeit wurde der Anbau gefördert, aber es war eine Rede des Königs am 3. Oktober 1986, der die kostenlose Verteilung von Samen folgte, die zu einer stärkeren Verbreitung der Olivenbäume führte. 2010 wurde ein nationaler Plan verkündet, nach dem Olivenbäume auf einer Gesamtfläche von einer Million Hektar angepflanzt werden sollen.
Bis 2013 entstanden 600.000 ha Olivenhaine in 400.000 Betrieben. Sie produzierten zwischen 60.000 und 108.000 t Olivenöl. 2013 bestanden 350 Ölmühlen neben 16.000 traditionellen Pressen.
Algerien
Olivenöl spielte in römischer Zeit eine erhebliche Rolle. Eine wichtige Quelle sind die Tabulae Albertini, die 1928 am Djebel Mrata entdeckt wurden und die auf 45 Holztafeln geschriebene Urkunden aus den Jahren 493 bis 496 umfassen. In den meisten Fällen handelt es sich um Grundstückskäufe, Land auf dem unter anderem Oliven geerntet wurden, hinzu kommt ein Verkauf einer Olivenpresse.
Die Beys von Constantine, die den Deys von Algier unterstanden und ihnen tributpflichtig waren, besaßen bei Olivenöl eine ähnliche monopolartige Stellung wie ihre Oberherren, die das Monopol bereits im 17. Jahrhundert durchgesetzt hatten.
Die französische Kolonialpolitik ließ die Olivenölproduktion Algeriens zwischen 1910 und 1940 von 3,5 Millionen Liter auf 1,65 Millionen Liter einbrechen. Begonnen hatte sie 1844 mit dem Versuch, die ausgedehnten Olivenbaumbestände von 52.000 ha zur Veredelung zu nutzen. Das Olivengebiet der Kabylei bestand 1978 praktisch nur aus veredelten Bäumen, das Pfropfen war in höheren Lage das gängige Verfahren. Dort wächst praktisch nur die Sorte Chemlal.
2013 bestanden bei 300.000 ha Olivenhainen, davon 240.000 für Olivenöl, 1650 Ölmühlen. Die Jahresproduktion lag zwischen 50.000 und 70.000 t.
Tunesien
Unklar ist, ob die Olivenkultur bereits um 4000 v. Chr. ins Land kam, oder ob die Ölkultur hier erst um 1200 v. Chr. Eingang fand, vielleicht sogar noch später durch die Phönizier. In römischer Zeit war die Ausfuhr von Oliven jedenfalls von größter Bedeutung, insbesondere ab dem 3. Jahrhundert.
Der Marktzugang für tunesisches Öl in die EU ist begrenzt. Die Europäische Kommission schlug 2015 vor, bis Ende 2017 ein zollfreies Kontingent für die Ausfuhr von jährlich 35.000 t tunesischen Olivenöls in die EU zur Linderung der wirtschaftlichen Probleme des Landes zuzugestehen, eine Menge, die zu den bereits im Rahmen des Assoziationsabkommens festgelegten 56.700 t hinzukommt.
In Tunesien herrschen die Olivensorten Chemlali und Chetoui vor, doch finden sich je nach Region auch andere Sorten, wie Zalmati, Chemchéli, Oueslati, Zarrazi, Jerboui, Marsaline, Fouji, Meski, Tounsi, Besbessi, Sahli Mguargueb und so weiter.
In Südtunesien in der Region von Sfax gedeiht die kleine Chemlali, die sehr widerstandsfähig gegen Hitze und Trockenheit ist und ein mildes Öl mit einem leichten Geschmack nach grünen Mandeln liefert. Die ariden Bedingungen der beginnenden Wüste machen große Abstände zwischen den Olivenbäumen notwendig und erlauben damit eine Anbaudichte von nur 17 Olivenbäumen pro Hektar.
Im Norden Tunesiens wird die Chetoui angebaut. Sie ist größer und liefert ein Olivenöl mit einem fruchtigen, leicht bitteren Geschmack. In Nordtunesien liegt die Anbaudichte bei 100 bis 150 Olivenbäumen pro Hektar.
Das aride Klima in Tunesien sorgt dafür, dass Pestizide meistens entbehrlich sind. 95 % der tunesischen Olivenhaine werden traditionell gepflegt, ganz ohne Pestizide. Obwohl viele Produzenten ökologisch vorgehen, sind nur wenige als ökologisch lizenziert.
Ägypten
In Ägypten produzieren die Regionen Alamein, al-Arisch und Rafah auf Grundlage der Sorten Picual, Manzanilla, aber auch Kalamata. Entlang der Straße Richtung Osten und in Ismailia gedeihen ebenfalls diese Sorten, aber auch Aggezi, während in Siwa ausschließlich Hamed Siwi wächst. In altägyptischer Zeit wurde im unteren Niltal, aber auch ganz im Süden und um Theben Öl für rituelle Zwecke und als Salbe produziert.
2011 hatte das Land zwar 50.000 ha Olivenhaine, doch dienten etwa drei Viertel davon der Produktion von Tafeloliven. Die durchschnittliche Produktion von Olivenöl lag bei 14.000 t pro Jahr.
Israel
Das südliche Palästina gilt derzeit als eines der ältesten Kultivierungsgebiete, denn am Karmel an der Fundstätte Nahal Zehora wurden Olivenkerne aus der Zeit um 8000 v. Chr. entdeckt. Vielleicht der bekannteste Gebrauch von Olivenöl war dort der als Brennstoff für den goldenen Leuchter in der Stiftshütte (2. Mose 35:14), doch hatte es in der Antike vor allem Bedeutung als Exportprodukt. Anfang des 9. Jahrhunderts werden Olivenbäume genannt, von denen jeder etwa 3500 Liter Öl geliefert haben soll. Ganz Palästina soll wegen seiner Ausfuhr (und wegen seines Brotes) niemals unter Hunger gelitten haben. Eine der wichtigsten Sorten ist Souri, ähnlich wie im Libanon, aber auch Barnea. Letztere gilt als geringwertiger als Souri. Im Norden des Landes wird Maalot geerntet, die neben Souri und Barnea, aber auch Nabali Baladi und Nabali Muchasan zu den häufigsten Sorten zählen.
Jordanien
2011 bestanden Olivenhaine auf einer Gesamtfläche von 120.000 ha, wobei durchschnittliche 20.000 t Öl produziert wurden. Wichtigste Sorte ist Rasi'i.
Libanon
Im Libanon wird Olivenöl vor allem aus den Sorten Souri, Beladi und Ayrouni gewonnen. Dort bestanden 2013 etwa 500 Ölmühlen.
Syrien
Vorherrschende Olivensorten sind in Syrien Zaiti, Sorani, Chodieri, Doebli, Dan und Jlot (Stand: 2013). Im Lande bestanden 2013 genau 922 Ölpressen, davon arbeitete die Hälfte noch traditionell. Aus Ebla ist die älteste Nennung von Oliven auf einem Tontäfelchen bekannt, es stammt etwa von 2500 v. Chr.
Türkei
Archäologische Funde belegen, dass Oliven bereits um 6000 v. Chr. im Südosten Kleinasiens, in den heutigen Provinzen Hatay, Mardin und Maraş angebaut wurden. 1990 wurden 28 türkische Öle registriert. Sie weisen überwiegend eine weit in lydische und griechische Zeit ununterbrochen zurückreichende Tradition auf und wurden in römischer Zeit neben dem Ägäisraum vor allem in Pamphylien gewonnen. Die Öle basieren meist auf den Sorten Koroneiki, Lamponia, Kolovi oder Throumpolia. Hinzu kommen Memeli, Donat, Ismir Sofralik, Ayvalik, Ekiste, Elebi, Erkence, Gemlik, Memecik, Trilya und Uslu. Insgesamt werden mehr als 50 Sorten angepflanzt. Der ganz überwiegende Teil des Öls wird allerdings im Lande konsumiert, 1993 gingen weniger als 10 % in den Export. Zu den wichtigsten türkischen Öl-Oliven zählen Çakir, Gemlik, Memecik und Memeli, die auch als Tafeloliven Verwendung finden, dann als reine Öl-Oliven Ayvalik und Erkence. Ausschließlich als Tafeloliven werden die schwarzen Sorten Uslu, Çelebi, dann die grüne Domat sowie Izmir Sofralik, Çeki und Çilli verkonsumiert. An ausländischen Sorten wachsen aber auch die französische Picholine, die spanischen Sorten Arbequina, Hojiblanca, Manzanilla, die italienischen Sorten Frantoio und Leccio, ebenso wie die syrische Saurani und tunesische Baroui und Meski im Lande, wobei letztere eine reine Tafelolive darstellt. Weiterhin gibt es eine türkische Olivensorte mit dem Namen Halhali (Derik). Diese Sorte wächst vorwiegend in der Provinz Hatay. Diese Provinz liegt an der Grenze zu Syrien. Das Olivenöl, das aus diesen Oliven hergestellt wird, wird in der Region als hochwertiges Olivenöl angesehen.
Olivenöl spielte für den Außenhandel eine geringe Rolle. Im Ersten Weltkrieg lieferte das Osmanenreich Olivenöl an Österreich. Am 9. Oktober 1941 vereinbarten Berlin und Ankara einen Warentausch, der auch 8000 Tonnen Olivenöl einschloss.
2011 standen Olivenhaine auf einer Gesamtfläche von 500.000 ha, wobei im Schnitt 145.000 t Jahresertrag an Öl angegeben wurden. Davon fließt allerdings nur etwa ein Fünftel in den Export. Während zwischen November 2020 und Mai 2021 nur 20.000 t exportiert wurden, waren dies im gleichen Zeitraum des Vorjahres noch 31.000 t gewesen. Dies hing mit einem Ausfuhrverbot des Wirtschaftsministeriums zusammen, das von März bis August 2021 gültig war.
Griechenland
Seit der Antike hat der Olivenbaum und das Olivenöl eine herausragende kulturelle Bedeutung. Griechenland weist mehr als 50 Olivensorten auf. Die Gesamtanbaufläche lag im Jahr 2011 bei etwa 750.000 ha. Die wichtigsten Anbaugebiete liegen auf der Peloponnes und auf Inseln wie Kreta, Kefalonia, Lesbos und anderen. Zu den wichtigsten Sorten zählen Adramytiani, Doppia, Kalamata, Kolovi, Koroneiki, Karydolia, Manaki, Psiloelia, Prassinolia und Tsounati.
Zu den bekannteren zählen Amphissa, eine gräuliche bis dunkel lilafarbene Sorte mit weichem Fruchtfleisch, dann Atalanta, die eher salzig schmeckt, aber sehr mild ist. Schließlich zählen die Kalamaties aus dem Süden zu den besten Sorten. Sie sind schwarz-lila, groß und schmecken süßlich-bitter und aromatisch. Nafplion ist eine mittelgroße Sorte, die dunkelgrün bis braun ist; sie ist sehr würzig. Sie zählen eher zu den Tafeloliven, wohingegen Öl häufig auf Koroneiki basiert. Auf Lesbos werden hauptsächlich Kolovi, Ladolia und Adramitiani angebaut, letztere stammt von der westtürkischen Küste und ist in Griechenland nur auf dieser Insel zu finden. Das frische, ein bis zwei Monate alte Öl schmeckt etwas pfeffrig. Auch Ladolia kommt fast nur hier vor. Koroneiki liefert rund 85 % der kretischen Erträge, wird aber auch auf Zakynthos und in Messenien angebaut und erbringt ein exzellentes Öl.
Kroatien
Häufigste Olivensorte in Kroatien ist die Oblica (oder Oblitza), sie wird je nach Erntezeit grün (September bis Oktober) oder schwarz (Oktober) angeboten. Daneben werden auf Istrien und entlang der Kvarner Bucht Bijelica (auch Istarka Bjelica) geerntet, auf Istrien Crnica, Slivnjaca auf den Inseln des Kvarner, aber auch auf dem Festland. Seit 1940 wird auch die italienische Sorte Leccino angebaut.
Bosnien-Herzegowina
In Bosnien-Herzegowina wurde nach 2000 im Hinterland von Neum Olivenöl produziert, eine Produktion, die sich seither in andere Gebiete der Herzegowina, ausgebreitet hat, insbesondere um die Stadt Ljubuški, wo zwischen 2003 und 2018 etwa 300 ha neu angepflanzt wurden. Dort wird vor allem Oblica aus Kroatien angebaut, eine Sorte, die auch arme, trockene Böden verträgt, ebenso wie niedrige Temperaturen. Zusammen mit Istarska bjelica, Leccino und Pendolino (frostanfälliger) stellen sie 90 % der Bestände. Sehr viel weniger häufig sind Carolea, Levantinka (frostanfällig) und Buža.
Italien
In Italien gab es 2015 schätzungsweise 250 Millionen Olivenbäume. Die Gesamtbeschäftigung wurde auf 50 Millionen Arbeitsstunden pro Jahr geschätzt. Der Umsatz der Branche belief sich 2013 auf 2 Milliarden €, die Exporte betrugen dabei 1,38 Milliarden €. Mit 9,96 kg pro Kopf und Jahr waren die Italiener die drittgrößten Olivenöl-Konsumenten.
Italien weist etwa 300 Sorten auf, bei denen vielleicht Taggiasca, Coratina und Ogliarola die bekannteren sind. Taggiasca weist einen sehr feinen Olivenduft mit einem milden Fruchtaroma auf, der Nachgeschmack eine milde Ahnung von Mandeln und Pinienkernen. Das Hauptanbaugebiet ist Ligurien. Coratina hat einen kraftvollen Geschmack und findet sich vor allem in Apulien. Ogliarola findet sich gleichfalls dort, weist aber einen zarten Kräuterduft auf und wird auch als Cima di Bitonto bezeichnet. Weit verbreitet sind Leccino, Frantoio und Carolea. Weitere zu Öl verarbeitete Sorten sind in den Regionen:
Größere Bedeutung erlangte die sizilische Produktion bereits zu Zeiten des Thukydides, der Olivenhaine bei Syrakus beschreibt. Auf der Insel kam es unter den Römern zu einer starken Vernachlässigung, hingegen zu einer Erholung unter den Arabern. Dies trifft besonders für die tyrrhenische Küste, die Conca d’Oro zu. Im 15. Jahrhundert kam es zu ersten Spezialisierungen bei den Sorten, wie etwa Frantoio. Im 16. Jahrhundert wurden Oliven auch wieder zwischen Messina und Palermo angebaut. Zwar warf der harte Winter 1789 den Olivenanbau zurück, doch nahm der Export danach weiter zu, wobei der Einsatz des Öls in der englischen Tuchmanufaktur eine wichtige Rolle spielte.
Ähnlich wie auf Sizilien, so verbreiteten Phönizier und Griechen den Olivenanbau in Kalabrien bereits Anfang des ersten Jahrtausends v. Chr. Hier erholte sich der Olivenanbau ab dem vierten Jahrhundert auf kirchliche Initiative. Doch wurde das minderwertige kalabresische Öl eher für Seifen eingesetzt, Ende des 19. Jahrhunderts begannen Bemühungen, die Qualität zu heben. Der älteste Fund aus der benachbarten Basilicata stammt aus Metapont und wurde auf das 8. Jahrhundert v. Chr. datiert. Im Gegensatz zu Sizilien wuchs die Sortenvielfalt im Römischen Reich und das Öl blieb ein begehrtes Produkt. Auch hier förderten Klöster, wie Montescaglioso, das seit dem 12. Jahrhundert Olivenöl produziert, die Sortenvielfalt, die im Spätmittelalter wieder zunahm.
In Apulien lässt sich die Geschichte des Olivenöls besonders weit zurückverfolgen. Grabungen in Torre Canne zeigen, dass bereits vor dem Neolithikum, das dort Mitte des 7. Jahrtausends v. Chr. einsetzt, Oliven verspeist wurden. Funde aus der Zeit um 5000 v. Chr. zeigten südlich von Bari (Torre a Mare, Fasane) Olivenanbau. Bereits im achten Jahrhundert v. Chr. tauchen Oliven auf Münzen aus Croton und Tarent auf, ebenso wie ab dem siebten Jahrhundert auf der Keramik. Zugleich breitete sich der Anbau weiter nach Norden aus. In Cannae fand sich eine Ölmühle aus dem fünften Jahrhundert. Mit dem Ende des Römischen Reiches brachen die weiträumigen Handelsbeziehungen weitgehend ab. Die im neunten Jahrhundert auftauchenden Araber eröffneten zwar wieder ihr Riesenreich dem Handel, pflegten aber vielfach den Anbau von Zitrusfrüchten zu Lasten der Oliven. Die Byzantiner förderten den Olivenanbau um Salento, die Normannen und Staufer statteten die Klöster häufig mit Olivenhainen aus.
Dabei spielten zunächst Benediktiner, dann Basilianer die entscheidenden Rollen. Im 16. Jahrhundert förderten vor allem die Zisterzienser den Anbau im Norden Apuliens, während im Nordwesten, um Bitonto, vor allem die Congregazione del Monte Oliveto tätig war. Die Häfen der Region profitierten erheblich davon, zudem entstand 1559 eine Straßenverbindung in die Hauptstadt Neapel. In Venedig war vor allem das Öl aus der Region Bari gefragt. Mit dem Niedergang der spanischen Herrschaft in Italien kam es im 17. und 18. Jahrhundert auch im Olivenanbau zu erheblichen Rückschlägen. Im 18. Jahrhundert stiegen die Preise und neue Ölmühlen entstanden, seit Beginn des 19. Jahrhunderts auch hydraulische.
Weiter im Norden, vor allem um Rom, florierte der Olivenanbau besonders vom ersten Jahrhundert v. Chr. bis zum zweiten Jahrhundert n. Chr. In der Völkerwanderungszeit brach der Anbau bis auf den Eigenbedarf ein. Nach einer erneuten Blüte ging der Anbau im 18. Jahrhundert stark zurück. Bis auf die Klosterhaine wurden nur noch wenige Olivenhaine gepflegt. Die Hauptanbaugebiete um Rom lagen um Orvieto, nordwestlich von Frosinone und östlich von Latina. Allerdings schädigte der Winter 1984/85 die dortigen Gebiete besonders stark.
In den Marken waren gleichfalls die Klöster treibende Kräfte der Neuverbreitung des Anbaus, zum Beispiel die Abtei Farfa. Wer dort 1453 keine Olivenbäume besaß, wurde in diesem Jahr aufgefordert zwei Bäume zu pflanzen.
In der Toskana scheint der Olivenanbau erst im 17. Jahrhundert wieder zu hoher Geltung gekommen zu sein, der, wie in ganz Italien, im 18. Jahrhundert ein deutlicher Niedergang folgte, der wiederum durch die Industrielle Revolution umgekehrt wurde. Während es jedoch der Toskana und Apulien gelang, Öle von hoher Qualität zu produzieren, belieferten die meisten Ölmühlen die Tuchindustrie. Das Öl wurde zudem als Leuchtmittel eingesetzt, oder als Maschinenfett.
In der Qualität zog Ligurien, das ebenfalls eine weit zurückreichende Tradition hat, erst im 19. Jahrhundert nach. Zunächst ermöglichte der Bau der Eisenbahnen den süditalienischen Olivenölen, die ligurischen Öle vom dortigen Markt zu verdrängen. Zudem sah man sich dort der Konkurrenz des Obstanbaus gegenüber, der die besten Böden beanspruchte. Mit der Verteuerung der Landarbeit ab Mitte des 19. Jahrhunderts fiel der ligurische Anbau weiter zurück.
Frankreich
In Frankreich existieren sieben appellations d'origine protégée (AOP). Diese sind das Huile d'olive de Nyons AOC, das Huile d'olive de la vallée des Baux-de-Provence, des Weiteren das Olivenöl d'Aix-en-Provence, de Haute-Provence, de Provence, de Nice, dann das huile d'olive de Corse – Oliu di Corsica, schließlich das Öl de Nîmes.
Die bekannteste französische Sorte ist wohl die Picholine, die im Département Gard angebaut wird und die ein sehr fruchtiges Öl gibt. Sie ist anpassungsfähig und wird auch in Marokko angebaut. Um Marseille wächst die Aglandau, die ein sehr kräftiges, starkes Öl liefert. Das nördlichste Gebiet Europas ist die Gegend um Nyons. Dort wächst die Tanche, aus der schwarzen Olive entsteht ein mildes, nach Mandeln schmeckendes, herausragendes Öl. Um Nizza gedeiht die kleine Cailletier, in der Provence die Salonenque, die Verdale und Ribier, aber auch Bouteillan, Négrette, Cayon und so weiter.
Frankreich führte als erstes Land eine amtliche Herkunftsbezeichnung für die Öle ein, die für Unverfälschtheit, Qualität, Sorte und Herkunft der verwendeten Oliven garantiert. Zu ihnen zählte als erste seit 1994 Nyons, später kamen Vallée des Baux de Provence, Aix-en Provence und Haute Provence hinzu. Sie liefern die besten Öle des Landes.
Außerhalb des Mittelmeerraumes
Argentinien
Nach Argentinien kam wohl im 18. Jahrhundert die Olivenölproduktion, genauer nach Aimogasta. Heute wird Öl in San Juan, San Luis, Mendoza und Córdoba produziert, also vor allem im Nordwesten, wobei die einheimische Olive Arauco eine große, fleischige Sorte ist, die sowohl als Tafelolive Konsumenten findet, als auch zu Öl verarbeitet wird. 2011 war Arbequina die verbreitetste Sorte. 2018/19 produzierte das Land geschätzt etwa 20.000 t Olivenöl, im Jahr zuvor waren es sogar 43.500 t, von denen 36.500 t in den Export gingen. Damit war Argentinien der drittgrößte Belieferer der USA.
2011 wies das Land etwa 100.000 ha Olivenhaine auf und produzierte jährlich etwa 30.000 t Öl. Dabei bestanden 83 Ölmühlen.
Brasilien
Im Gegensatz zu Nordamerika, wo Missionare die ersten Olivenbäume einführten, kamen diese Bäume sehr viel später und durch Auswanderer nach Brasilien. Sie wachsen heute vor allem in den Bundesstaaten Rio Grande do Sul, Parana, Santa Catarina, Minas Gerais, Espirito Santo, Rio de Janeiro und São Paulo. Die frühe Olivenölproduktion wurde durch königliches Dekret untersagt, um die portugiesischen Produzenten zu schützen.
Daher war Brasilien, nach der EU und den USA der größte Olivenölimporteur, bis vor wenigen Jahrzehnten weitgehend auf Einfuhren angewiesen, die zunächst überwiegend aus Portugal, dann aber auch aus Spanien kamen. 2014 beliefen sich die Importe auf 73.000 t, davon gingen 90 % in den Bundesstaat Sao Paulo. Zwischen 2004 und 2014 verfünffachte sich die Produktion. Dabei lag der Konsum bei nur 300 g pro Kopf und Jahr. Nach einer Untersuchung des staatlichen Adolfo-Lutz-Instituts erfüllte keine der in Brasilien abgefüllten Proben die Bedingungen für akzeptables Öl. Zwar bemüht sich die Regierung seit etwa dem Jahr 2000 um Verbesserungen in den Bereichen Gesetzgebung und Kontrolle, doch ist das dortige Öl weiterhin von mäßigem Ruf.
In Brasilien dominiert Koroneiki, eine Sorte, die sonst vorrangig auf Kreta vorkommt.
Chile
In Chile herrscht die aus Süditalien stammende Sorte Coratina vor. Obwohl der Olivenbaum wohl schon seit dem 16. Jahrhundert in Südamerika erschien, begann der kommerzielle Anbau wohl erst durch italienische Zuwanderer in den 1940er Jahren, die ersten Öle kamen 1953 auf den Markt. Etwa die Hälfte des Öls wird aus der Sorte Arbequina gewonnen, es folgen Frantoio, Arbosana, Picual und Leccino (Stand: 2013).
Mexiko
In Mexiko wird Olivenöl meist in Sonora hergestellt, im Nordwesten des Landes, in geringerem Maße in Tamaulipas. Dabei basieren die Öle zu rund 95 % auf Manzanilla. Daneben finden sich in kleinen Mengen Ascolano, Boroni, Frantoio, Mission, Oblonga, Nevadillo, Pendolina und Sevillano.
Der Konsum von Olivenöl ist in Mexiko zwischen 2010 und 2019 von 12.000 t auf 22.000 t gestiegen.
Uruguay
In Uruguay wird vor allem Arbequina angepflanzt, ähnlich wie in Spanien. In den 1960er Jahren konzentrierte sich die Olivenproduktion im Nordwesten des Landes, in Salto, Paysandú und Rio Negro. Danach breitete sie sich im ganzen Land aus, hat aber heute ihren Schwerpunkt im Departamento Maldonado. Dennoch werden nur 10 % des Bedarfes durch einheimische Produkte abgedeckt. 8500 ha Olivenhaine bestehen. Während anfangs Arbequina, Picual, Barnea, Coratina, Leccino vorherrschten, wird inzwischen auch mit Koroneiki, Arbosana Picual gearbeitet.
2018/19 erwartete man einen Jahresertrag von 2.500 t, dann folgte nach einer katastrophalen Ernte im Jahr 2019/20 – nur 295 t – eine deutliche Erholung auf 1.900 t.
Vereinigte Staaten
In den USA, das nur 0,5 bis 1 % zur Weltproduktion beiträgt, wird Olivenöl vor allem in Kalifornien, in kleinen Mengen auch in New Mexico, Arizona und Texas hergestellt. Die sechs kalifornischen Countys, in denen das Öl gewonnen wird, sind Tulare County und Kings County, wo Manzanillo und Ascolano angebaut werden, dann Fresno County, wo Manzanillo wächst, Glenn County, das Manzanillo, Sevillano und Mission kultiviert, Tehama County, wo Sevillano gedeiht und schließlich Butte County, das wiederum Mission bevorzugt.
Etwa 700 Betriebe besaßen 2011 11.000 ha Olivenhaine, die zusammen jährlich etwa 4000 t Öl produzierten – bei einem Import von 238.000 t. 70 % der Produktion basierten auf der Sorte Arbequina, aber auch Arbosana, Koroneiki, Frantoio und Leccino wurden verarbeitet.
Australien
Australien baut eine Reihe von Sorten an, wie etwa Arbequina aus Nordostspanien (wo 50.000 ha stehen), das kleine Oliven und ein exzellentes Öl liefert. Die Erträge sind gut, doch die Gesamtproduktion in Australien gering. Die Azapena oder Sevillana de Azapa aus Chile, wo sie 90 % der Ernte liefert und als die beste Olive gilt, bringt Früchte von stark variierender Größe hervor, doch wird sie als Tafelolive bevorzugt. Hingegen ist die aus Israel stammende Barnea für die Olivenölgewinnung geeignet. In Australien lassen sie sich extrem dicht (400 Bäume pro Hektar) anpflanzen. Die kleinen Oliven aus der Frantoio-Familie, zu der Frantoiano, Correggiola, Correggiolo, Razzo und Gentile gehören, werden in Australien oftmals unter dem Namen Paragon angebaut. In Italien gilt die aus der Toskana kommende Frantoio als Maßstab für die hochwertigen Öle, außerdem ist sie relativ widerstandsfähig gegen Kälte. Daher ersetzte sie in der Toskana nach dem Frost von 1985 zahlreiche andere Olivenbäume und ist auch für viele Gegenden Australiens geeignet. Sie liefert sehr gutes Olivenöl bei gutem Ertrag. Allerdings ist es sehr stark im Geschmack – weniger, wenn man früh erntet – und wird daher gern mit anderen Ölen gemischt. Außerdem ist es bis zu zwei Jahre haltbar.
Eine australische Besonderheit sind die großen Oliven Hardy’s Mammoth, die auch als Tafelolive aufgrund ihrer Größe gängig ist. Sie wächst in Queensland, New South Wales, Victoria, Süd-Australien, Tasmanien und West-Australien.
Die griechische Kalamata liefert zwar gutes Öl, wird aber meist als Tafelolive konsumiert, da ihr Preis sehr hoch liegt. Hingegen steht auch das Öl der Koroneiki in Australien in höchstem Ansehen. Einige Bauern versuchen es mit Leccino aus der Toskana, gelegentlich auch als Tafelolive.
Die spanische Manzanilla liefert sowohl Öl- als auch Tafeloliven; Nevadillo Blanco schien zwar lange mit Picual identisch zu sein, doch ist es genetisch eine eigene Sorte. Schließlich hat Verdale eine gewisse Bedeutung, die sich von der mittelmeerischen Verdial, die ursprünglich aus Südfrankreich stammt, unterscheidet.
Die südaustralische Verdale ist größer, oval und wiegt 7 bis 10 g. Die Wagga Verdale hat hingegen kleinere Früchte. Sie sind in Südaustralien die verbreitetsten Sorten. Jedoch ist ihr Ölanteil gering, manche enthalten nur 7 %, wobei Wagga ertragreicher ist.
Neuseeland
Auf Neuseeland bevorzugt man die italienische Sorte Frantoio und die griechische Koroneiki.
China
In China wird eine ganze Reihe von Olivensorten geerntet, von denen vor allem Ezhi-8 und Yuntai aus dem Land selbst stammen. Angepflanzt werden aber auch italienische Sorten wie Coratina, Frantoio, Leccino oder Ottobratica, ebenso wie die spanische Picual, die israelische Barnea oder die griechische Koroneiki. Zwar liegen die Anbaugebiete im Südwesten des Landes und damit auf Mittelmeerhöhe, doch sind die Winter trockener, die Sommer feuchter. Im Sommer fällt etwa 70 % des Jahresniederschlags. Zudem fallen dort jährlich 300 bis 500 mm mehr Regen und die Anbaugebiete liegen im Schnitt um 500 m höher als am Mittelmeer.
Japan
In Japan werden die Sorten Lucca und Mission bevorzugt angebaut.
Marken
Allein in Italien gab es im Jahr 2000 mehr als 250 Marken, die um den Olivenölmarkt konkurrierten.
Rauchpunkt
Olivenöl ist ein wesentliches Element der Mittelmeerküche. Durch seinen hohen Rauchpunkt (filtriertes, extra natives Olivenöl 210 °C, natives Olivenöl 190–215 °C; raffiniertes 230 °C, vergine 175–215 °C, raffiniert 208 °C) ist es besonders gut zum Braten und Frittieren geeignet, wie es zum Beispiel in der italienischen und in der spanischen Küche seit langem gehandhabt wird. Der Rauchpunkt ist höher bei guten extra nativen Olivenölen (extra vergine) und niedriger bei nativen Olivenölen (vergine) geringer Qualität. Die Temperaturen, die beim Braten von wasserhaltigen Lebensmitteln entstehen, sind meist weitaus geringer.
Bei 180 °C werden allerdings sehr schnell die im Öl enthaltenen antioxidativen Stoffe der Phenol- und Tocopherolgruppe zerstört. Ein extra natives Olivenöl hoher Qualität, mit geringem Anteil freier Fettsäure und hohem Anteil phenolischer Antioxidantien, ist aus gesundheitlicher und geschmacklicher Hinsicht zum Braten bestens geeignet. Extra vergine Olivenöl ist das stabilste Öl bei Erhitzung, gefolgt von Kokosnussöl.
Gesundheitsaspekte
Das Olivenöl wirkt gemäß Isaak Judäus (9./10. Jahrhundert) kühlend, trocknend und schwach ätzend. Kaltgepresstes Olivenöl galt aber bereits in der Antike als Heilmittel, etwa gegen allerlei Hauterkrankungen äußerlich, oder gegen Entzündungen innerlich. Auch als Mittel der Schönheitspflege rangierte es gleich neben Eselsmilch. Extra natives Olivenöl beinhaltet geringe Dosen eines natürlichen nicht-selektiven Cyclooxygenase-Hemmers namens Oleocanthal, der eine mit Ibuprofen vergleichbare entzündungshemmende Wirkung besitzt.
In den 1980er Jahren erkrankten rund 20.000 Personen am Spanischen Ölsyndrom. Geschätzt etwa 700 Personen starben sogar daran. Die Krankheit entstand durch den Genuss von mit vergälltem, für die Industrie bestimmten Rapsöl gepanschtem Olivenöl.
Eine Laborstudie aus dem Jahr 2008 vertrat den Standpunkt, dass der Konsum von Olivenöl wegen des hohen Gehalts an Ölsäure möglicherweise zu einem erhöhten Risiko für Arteriosklerose und anderen Herz-Kreislauferkrankungen führen könnte. Dem widerspricht die Deutsche Herzstiftung: „Reagenzglasstudien lassen normale biologische Prozesse wie Verdauung und Stoffwechsel unberücksichtigt […] deshalb kann man […] auch keine Ernährungsempfehlungen ableiten. […] Olivenöl – am besten nativ extra oder extra vergine – ist im Rahmen einer ausgewogenen mediterranen Ernährung nach wie vor empfehlenswert, um das Risiko für die Entstehung von Gefäßkrankheiten zu vermindern oder deren Verlauf günstig zu beeinflussen.“
Ökologische und soziale Bedeutung
Die Art der Olivenölproduktion wirkt sich auf den ökologischen Wert und den Landschaftsschutz in einer so hoch entwickelten Kulturlandschaft, wie sie der Mittelmeerraum darstellt, überaus stark aus. Die Bäume wachsen oftmals auf steinigen, steilen und im Sommer heißen und trockenen Hängen bis ca. 500 m über dem Meeresspiegel. Sie benötigen wenig Wasser und Düngung und ertragen die harten Bedingungen wie kaum eine andere Kulturpflanze. Gerade in steilen Lagen hat der Erosionsschutz und die Erhaltung der Bodenfruchtbarkeit durch Baumbewuchs hohe Priorität, Leistungen, die in diesem Raum sonst nur Kiefern erbringen. Sie sind allerdings viel stärker brandgefährdet.
In den ländlichen Gebieten ist die Landflucht, bedingt durch mangelhafte Einkommensmöglichkeiten, ein wachsendes Problem. Olivenhaine und Olivenölproduktion – und die damit verbundene Arbeit wie Baumschnitt, Bodenbearbeitung und Ernte, Werbung und Vertrieb, Agrotourismus und Bildung – erhalten ländliche Arbeitsplätze und damit die ökologischen und kulturellen Besonderheiten der Regionen. Die EU-Subventionen erfolgten an dieser Stelle kontraproduktiv nur durch Zahlungen pro Hektar Land oder pro Liter produzierten Öls statt pro Olivenbaum. Damit wurden große Produktionsmengen und hohe Gewinne auf Großplantagen und intensive Monokulturen gefördert und zahlreiche kleinbäuerliche und umweltgerechte Produktionsstätten ruiniert. Darüber hinaus wurden dadurch großflächige Bewässerungsprojekte notwendig, was in Gebieten mit geringen Wasserreservoirs Engpässe auslöst und den Grundwasserspiegel absenkt. Auch drohte die Ausrichtung auf Mengenproduktion weniger ergiebige Sorten zu verdrängen, was sich wiederum zu Lasten der Vielfalt, aber auch der Resistenz gegen Krankheiten und klimatische Veränderungen auswirkt.
Der Unterbewuchs der Oliven wird mit Einsetzen der Trockenzeit aus Brandschutzgründen sowie zur Wasserersparnis traditionell entweder durch Schafe oder Ziegen abgeweidet oder einfach untergepflügt. Viele Olivenbäume stehen in Naturschutzgebieten und dürfen daher weder gefällt noch chemisch behandelt werden. In den unter natürlichen Bedingungen wachsenden Olivenhainen mit oft sehr alten Bäumen wird Olivenöl höchster Qualität und Reinheit erzeugt.
Während in Spanien nur rund 1 % der Olivenöle ökologisch produziert wird, liegt dieser Anteil in Tunesien am höchsten.
Olivenölmuseen
Zahlreiche Unternehmen und vom Olivenöl lebende Ortschaften haben das wirtschaftliche Potential entdeckt, das kulturelle Darbietungen als Mittel der Werbung und langfristigen Bindung und als Katalysatoren besitzen. So entstanden Museen in fast allen Anbaugebieten, häufig genügte eine als historisch gedeutete Ölmühle.
Olivenölmuseen entstanden beispielsweise in Griechenland in Sparta (Museum of the Olive and Greek Olive Oil), in Kalamata (Euromediterranean Foundation „The Routes of the Olive Tree“) und in Peza auf Kreta, aber auch auf Lesbos (industrielle Produktion), oder Agia Paraskevi. Auch auf Zypern existiert das Museum Oleastro bei Anogyra im Südwesten der Insel. Das älteste Olivenölmuseum der Türkei wurde 2001 eröffnet und befindet sich in Adatepe bei der kleinen Stadt Küçükkuyu im Kreis Ayvacık an der nördlichen Türkischen Ägäis. Weitere Museen entstanden in Izmir (Köstem Olivenölmuseum) und in Akhisar in der Provinz Manisa. In Bethlehem entstand mit dem Badd-Dschaqaman-Museum ebenfalls ein Museum mit dem Schwerpunkt Olivenöl.
In Italien bestehen solche Museen in: Cisano bei Bardolino (Veneto), Imperia (Ligurien), Castelnuovo di Farfa (Latium), Fasano (Apulien), Massa Marittima (Toskana) und in Cuglieri (Sardinien); hinzu kommen Museen in den umbrischen Orten Trevi und Torgiano bei Perugia.
In Kroatien entstand drei Kilometer außerhalb von Vela Luka auf Korčula ein solches Museum, im Dorf Mirca im Norden der Insel Brač wurde 2006 das erste dalmatinische Museum der Ölindustrie eröffnet (Muzej uljarstva). Im Ölmuseum in Pula sind Verkostungen möglich.
Frankreich bietet Museen in Mouriès zwischen Nîmes und Aix-en-Provence, in Nyons (Musée de l’olivier und Les vieux moulins), Les Mées (Alpes-de-Haute-Provence) (seit 2002) und Marseille (im Musée des Civilisations de l'Europe et de la Méditerranée). Ähnliches gilt für das Dorf Robledillo de Gata in der spanischen Provinz Extremadura, weil dort eine arabische Ölmühle aus dem 11. Jahrhundert existieren soll. Dabei hat Spanien das Potential schon länger entdeckt, und so gibt es Museen in Almería (Museo Del Aceite De Oliva) und Palma, in Baena und Málaga, Castro del Río, Cabra und Salamanca sowie Saragossa, Nigüelas, Les Borges Blanques, Jaén, aber auch in Mora, Úbeda, Vinaròs oder La Rinconada. Baeza in Portugals Algarve bietet ebenfalls ein Ölmuseum (auf 6000 m²).
Tunesien kennt solche Häuser in Sousse und Monastir.
Literatur
Überblickswerke, Handbücher
Gerald Rimbach, Jennifer Möhring, Helmut F. Erbersdobler: Speiseöle. Lebensmittel-Warenkunde für Einsteiger, Springer-Lehrbuch, 2010.
Jacques Chibois, Olivier Baussan: Das Buch vom Olivenöl, Heyne, 2000.
Vito Sciancalepore: L’olio vergine d’oliva. Un approccio alla valorizzazione, Hoepli, Mailand 2002. ISBN 978-88-203-3076-7
Zeev Wiesman: Desert Olive Oil Cultivation. Advanced Biotechnologies. Academic Press/Elsevier, 2009. ISBN 978-0-12-374257-5
Zeffiro Ciuffoletti: Olio. Tesoro del Mediterraneo. Fratelli Alinari, Florenz 2004. ISBN 978-88-7292-471-6
Hans-Jochen Fiebig, Torben Küchler: Qualität und Vermarktung von Olivenölen in der Europäischen Union. Deutsche Gesellschaft für Fettwissenschaft, Februar 2016, online (PDF; 509 kB), auf dgfett.de, abgerufen am 5. April 2017.
Paul M. Vossen: Organic Olive Production Manual, University of California, 2007.
G. Steven Sibbett, Louise Ferguson: Olive production manual, University of California, 2005. ISBN 978-1-879906-14-3
Paul Vossen: Growing Olives for Oil, in: Ramón Aparicio, John Harwood (Hrsg.): Handbook of Olive Oil. Analysis and Properties, 2. Aufl., Springer, 2013, S. 19–56
Geschichte
Überblickswerke
Giorgio Bartolini, Raffaella Petruccelli: Classification, Origin, Diffusion, and History of the Olive. Rom 2002.
Vito Sciancalepore: L’olio vergine d’oliva. Un approccio alla valorizzazione, Hoepli, Mailand 2002 (zu jedem Kapitel enthält das Werk einen historischen Überblick). ISBN 978-88-203-3076-7
André Bervillé, Catherine Breton: Histoire de l'olivier, Quae, 2012 (Geschichte der Kultivierung und Verbreitung des Genoms der Zuchtolive im Mittelmeerraum (L'histoire de l'olivier reconstituée à partir de données génétiques, La domestication de l'olivier en Méditerranée nord-occidentale révélée par l'archéobiologie)).
Mort Rosenblum: Oliven. Kulturgeschichte einer göttlichen Frucht. Piper, München 2000. ISBN 978-3-492-23221-0.
Jean Savare: Histoire de l’huile d 'olive, in: Bulletin de la Société scientifique d’hygiène alimentaire et d’alimentation rationnelle de l’homme 23 (1935) 377–391, online auf gallica.bnf.fr, abgerufen am 7. November 2018.
Johannes Hoops: Geschichte des Ölbaums, C. Winter, 1944.
Daniel Zohary, Maria Hopf, Ehud Weiss: Domestication of Plants in the Old World. The Origin and Spread of Domesticated Plants in Southwest Asia, Europe, and the Mediterranean Basin, 4. Auflage, Oxford University Press, 2012.
Urgeschichte
Dvory Namdar, Alon Amrani, Nimrod Getzov, Ianir Milevski: Olive oil storage during the fifth and sixth millennia BC at Ein Zippori, Northern Israel, in: Israel Journal of Plant Sciences 62 (2015) 65–74.
Griechen, Römisches Reich
Soultana Maria Valamoti, Eugenia Gkatzogia, Maria Ntinou: Did Greek colonisation bring olive growing to the north? An integrated archaeobotanical investigation of the spread of Olea europaea in Greece from the 7th to the 1st millennium bc, in: Vegetation History and Archaeobotany 27 (2018) 177–195.
Annalisa Marzano: Agricultural Production in the Hinterland of Rome: Wine and Olive Oil. In: Alan Bowman, Andrew Wilson: The Roman Agricultural Economy. Organization, Investment, and Production. Oxford University Press, 2013, S. 85–106. ISBN 978-0-19-966572-3
John T. Peña: The Mobilization of State Olive Oil in Roman Africa: The Evidence of Late 4th-c Ostraca from Carthage, in: John T. Peña (Hrsg.) u. a.: Carthage Papers. The Early Colony's Economy, Water Supply, a Public Bath and the Mobilization of State Olive Oil, Portsmouth 1998, S. 117–238. ISBN 978-1-887829-28-1
Bibliographien
Giacinto Donno: Bibliografia sistematica dell’olivo e dell’olio di oliva. Ramo editoriale degli agricoltori, Rom 1943, (Nachdruck G. Zazzera, Lodi 1997. ISBN 978-88-97932-20-8)
Ältere Werke
Giuseppe Tavanti: Trattato teorico-pratico completo sull’Ulivo che comprende la sua istoria naturale e quella della sua cultura … Florenz 1819, .
Giovanni Presta: Degli ulivi, delle ulive, e della maniera di cavar l'olio, Neapel 1794.
Weblinks
Olea database, erstellt von Giorgio Bartolini vom Istituto per la Valorizzazione del Legno e delle Specie Arboree, Datenbank vom National Research Council ITALY (Froststabilität, Resistenzen, Verrieselung. Angaben zu genetischen Verwandtschaften usw.).
International Olive Council; darin Angaben zum Welthandel
Die dicksten, höchsten und ältesten Olivenbäume (Olea europaea)
Museo dell’Oliva, Ligurien
Marktcheck deckt auf: Das Geschäft mit dem Olivenöl, SWR, 2018
Einzelnachweise
Pflanzenöl
Pharmazeutischer Hilfsstoff
Kosmetischer Inhaltsstoff
Speiseöl
Olive als Thema
|
Q93165
| 150.942516 |
53156
|
https://de.wikipedia.org/wiki/Gravitationsfeld
|
Gravitationsfeld
|
In der klassischen Mechanik ist das Gravitationsfeld (auch Schwerkraftfeld) das Kraftfeld, das durch die Gravitation von Massen hervorgerufen wird. Die Feldstärke des Gravitationsfeldes gibt für jeden Ort den durch Gravitation verursachten Teil der Fallbeschleunigung an. Sie kann mithilfe des Newtonschen Gravitationsgesetzes aus der räumlichen Verteilung der Massen berechnet werden.
Die Einsteinschen Feldgleichungen der Allgemeinen Relativitätstheorie beschreiben die Gravitation nicht mehr als Kraftfeld, sondern als Krümmung der Raumzeit. In rotierenden Bezugssystemen, wie dem mit der Erde verbundenen, besteht das Schwerefeld aus dem Gravitationsfeld und der Zentrifugalbeschleunigung. Ein anschauliches Modell des Gravitationsfeldes ist der Potentialtrichter, in dem Kugeln oder Münzen auf einer dreidimensionalen Trichterfläche rollen und dabei die Bewegung in der zur Trichterachse senkrechten Ebene simulieren.
Potential und Feld
Das zum Gravitationsfeld gehörende Potential heißt Gravitationspotential. Sein Wert am Ort lässt sich bei bekannter Massendichte durch Lösen der Poisson-Gleichung bestimmen
,
wobei die Gravitationskonstante und der Laplace-Operator ist. So beträgt das Potential um einen näherungsweise punktförmigen oder radialsymmetrischen Körper der Masse beispielsweise
.
Hierbei ist das Potential im Unendlichen. Es ist eine frei wählbare Integrationskonstante und wird üblicherweise willkürlich auf Null gesetzt.
Multipliziert man das Potential mit der Masse eines Körpers , so erhält man seine potentielle Energie
.
Das Gravitationsfeld lässt sich als Gradientenfeld des Gravitationspotentials schreiben:
.
Die vom Feld erzeugte Kraft auf einen Körper der Masse ist dann
.
Feldstärke
Die Feldstärke des Gravitationsfeldes heißt Gravitationsfeldstärke oder Gravitationsbeschleunigung . Sie ist unabhängig von der Probemasse (also der Masse des betrachteten Körpers, der sich im Gravitationsfeld befindet). Wirken keine weiteren Kräfte, so ist die exakte Beschleunigung einer Probemasse im Feld.
Eine Punktmasse verursacht das Potential
und daher das dazugehörige radialsymmetrische Feld mit der Feldstärke
Diese Formel gilt auch für kugelsymmetrische Körper, wenn der Abstand vom Mittelpunkt größer ist als sein Radius. Sie gilt näherungsweise für jeden beliebig geformten Körper, wenn um Größenordnungen größer als seine Ausdehnung ist. Befindet sich eine Probemasse in diesem Gravitationsfeld, so ergibt sich
.
Dies entspricht dem Newtonschen Gravitationsgesetz, das den Betrag der wirkenden anziehenden Kraft zwischen den Massenschwerpunkten von und angibt, die sich im Abstand befinden.
Da jede beliebig ausgedehnte Masse in (annähernd) punktförmige Teilmassen zerlegt werden kann, lässt sich jedes Gravitationsfeld auch als Summe über viele Punktmassen darstellen:
wobei die Orte der Punktmassen sind. Für kontinuierliche Masseverteilungen gilt:
wobei die Massendichteverteilung ist.
Gravitative Bindungsenergie
Um einen durch Gravitation zusammengehaltenen Körper (z. B. die Erde) in seine Bestandteile zu zerlegen und diese trotz der Gravitationskraft zwischen ihnen unendlich weit voneinander zu entfernen, ist eine bestimmte Energiemenge nötig. Umgekehrt wird die gleiche Energiemenge freigesetzt, wenn sich diese Bestandteile (beispielsweise beim Kollaps einer Gaswolke) zu einem kompakteren Himmelskörper, etwa einem Stern oder einem Planeten zusammenfügen.
Literatur
Weblinks
Einzelnachweise
Gravitation
|
Q558066
| 142.970912 |
6337701
|
https://de.wikipedia.org/wiki/2026
|
2026
|
Voraussichtliche Ereignisse
23. Fußball-Weltmeisterschaft im Juni und Juli in den USA, Mexiko und Kanada, die erste Fußball-Weltmeisterschaft mit 48 teilnehmenden Auswahlmannschaften und die bis dahin größte überhaupt.
Landtagswahlen in Berlin und Mecklenburg-Vorpommern
Austragung der XXIV. Olympischen Winterspiele vom 6. bis 22. Februar in Mailand und Cortina d’Ampezzo.
Austragung der Winter-Paralympics 2026 vom 6. bis 25. März in Mailand und Cortina d’Ampezzo.
Bereits feststehende Ereignisse
2. Januar: In Indonesien tritt das neue Strafgesetzbuch (Indonesien) in Kraft
17. Februar: Letzte ringförmige Erscheinung der Sonnenfinsternis des Saroszyklus.
3. März: Totale Mondfinsternis in Asien, Ozeanien, Amerika und im Pazifik.
12. August: Totale Sonnenfinsternis über Nord- und Mitteleuropa sowie Sibirien.
28. August: Partielle Mondfinsternis in Mitteleuropa.
Gedenktage
21. Januar: 100. Todestag des italienischen Mediziners Camillo Golgi
2. Februar: 100. Geburtstag des französischen Ministerpräsidenten Valéry Giscard d’Estaing
16. März: 100. Geburtstag des US-amerikanischen Komikers Jerry Lewis
17. März: 100. Geburtstag des deutschen Schriftstellers Siegfried Lenz
26. März: 100. Todestag des deutschen Reichskanzlers Constantin Fehrenbach
3. Mai: 200. Geburtstag des schwedischen Königs Karl XV.
4. April: 100. Todestag des deutschen Unternehmens August Thyssen
21. April: 100. Geburtstag der britischen Königin Elisabeth II.
1. Juni: 100. Geburtstag der US-amerikanischen Schauspielerin Marilyn Monroe
5. Juni: 200. Todestag des deutschen Komponisten Carl Maria von Weber
7. Juni: 200. Todestag des deutschen Optikers und Physikers Joseph von Fraunhofer
10. Juni: 100. Todestag des spanischen Architekten Antoni Gaudí
25. Juni: 100. Geburtstag der österreichischen Schriftstellerin Ingeborg Bachmann
28. Juni: 100. Geburtstag des US-amerikanischen Regisseur Mel Brooks
1. Juli: 100. Geburtstag des deutschen Komponisten Hans Werner Henze
4. Juli: 200. Todestag des US-amerikanischen Präsidenten John Adams
4. Juli: 200. Todestag des US-amerikanischen Präsidenten Thomas Jefferson
13. August: 100. Geburtstag des kubanischen Staatspräsidenten Fidel Castro
14. August: 100. Geburtstag des französischen Comicautors René Goscinny
17. August: 100. Geburtstag des chinesischen Staatspräsidenten Jiang Zemin
22. August: 100. Todestag des italienischen Schauspielers Rudolph Valentino
17. September: 200. Geburtstag des deutschen Mathematikers Bernhard Riemann
15. Oktober: 100. Geburtstag des französischen Philosophen Michel Foucault
18. Oktober: 100. Geburtstag des deutschen Schauspielers und Regisseurs Klaus Kinski
11. November: 100. Geburtstag des US-amerikanischen Schriftstellers Noah Gordon
24. November: 200. Geburtstag des italienischen Schriftstellers Carlo Collodi
5. Dezember: 100. Todestag des französischen Malers Claude Monet
26. Dezember: 100. Todestag des österreichischen Lyrikers Rainer Maria Rilke
Jahrestage
15. Januar: 25. Geburtstag der Wikipedia.
4. Juli: 250 Jahre Unabhängigkeit der Vereinigten Staaten von Amerika vom Königreich Großbritannien
11. September: 25. Jahrestag der Terroranschläge in den Vereinigten Staaten.
18. November: 400. Jahrestag der Weihe des Petersdoms.
Kulturelle Referenzen
Die Handlung der Marstrilogie von Kim Stanley Robinson beginnt in den Jahren 2026 und 2027.
Doom – Der Film spielt im Jahr 2026.
Weblinks
Einzelnachweise
|
Q49613
| 123.555543 |
37823
|
https://de.wikipedia.org/wiki/Labor
|
Labor
|
Das Labor oder Laboratorium (Mehrzahl meist Labore oder auch Labors bzw. Laboratorien, vom lateinischen laborare ‚arbeiten, sich abmühen; leiden‘) bezeichnet einen Arbeitsplatz vor allem im Bereich der Naturwissenschaften. Im Labor werden die verschiedenen Experimente, Prozesskontrollen, Qualitätskontrollen, Prüfungen und Messungen (insbesondere auch Kalibrierungen) durchgeführt und/oder es werden chemische Materialien bearbeitet sowie chemische Produkte hergestellt (Beispiel Chemielabor).
Etymologie
Der Begriff geht auf das bis ins 15. Jahrhundert gebräuchliche 'laborare', an etwas arbeiten, sich mit etwas abmühen, aber auch an etwas leiden zurück. Das Verb ist von 'labor' Mühe, Anstrengung, Arbeit abgeleitet, welches jedoch eigentlich das Wanken unter einer Last beschreibt. Es ist mit diesem auf 'labāre' wanken, schwanken zurückzuführen. Mit dem Aufkommen der wissenschaftlichen Revolution wird ’’laborieren’’ mehr und mehr fachsprachlich verwendet; in der Medizin bedeutet es ‘an einer Krankheit leiden bzw. daran arbeiten, um sie zu überwinden’; in der Alchimie zunächst ‘als Alchimist arbeiten’. Im 16. Jahrhundert bezeichnet Laboratorium dann die ersten Arbeitsstätten von Alchemisten, Apothekern und Metallurgen. Hieraus entwickelt sich auch die Bezeichnung Laborant. Einstweilen noch vor allem bekannt als Destillierstube, wird das Laboratorium die „anerkannte Arbeitsstätte für naturwissenschaftliche Untersuchungen und Experimente“. Im Laufe des 20. Jahrhunderts verkürzt sich der Begriff auf das weitgehend gleichbedeutende Labor.
Verbreitung
Laboratorien findet man zum Beispiel in Chemie, Physik, Biologie, Pharmazie, Medizin, Ingenieurwesen, Foto-Technik, IT-Sicherheit, experimenteller Psychologie und Ökonomik. Ein bekanntes Beispiel außerhalb der klassischen Naturwissenschaften ist das „Schlaflabor“. Laboratorien können nicht nur stationär eingerichtet werden, sondern auch für den mobilen Einsatz in Fahrzeugen oder zur temporären Nutzung in Containern (Laborcontainer). Für ihre Ausstattung gelten dieselben Anforderungen wie für stationäre Labore.
Verbreitet befinden sich auch Laboratorien (Betriebslabore) in Industriebetrieben, wo sie z. B. der Qualitätsprüfung eingehender Materialien, sowie der Überprüfung der Eigenschaften hergestellter Produkte und auch der Produktentwicklung dienen.
Im übertragenen Sinn findet der Begriff auch Verwendung im künstlerischen Bereich, so spricht man im Tanz oder in der Musik von einem Labor, Lab oder Laboratory, wenn in freier Form in Grenzbereichen des Genres geforscht wird.
Ausstattung
Die Laborausstattung hängt stark von der Art der Einrichtung ab und trägt den besonderen Anforderungen hinsichtlich Sicherheit, Sauberkeit, Verfügbarkeit von Materialien, Werkzeugen und Geräten Rechnung.
In chemischen und biochemischen Laboratorien werden viele verschiedene Glasgeräte (Rundkolben, Destillationsbrücken, Kühler, Bechergläser etc.) benötigt, mit denen Analysen und Synthesen durchgeführt werden.
Zudem wird beim Arbeiten mit Chemikalien standardmäßig innerhalb von Abzügen gearbeitet, in denen beim offenen Hantieren (z. B. beim Einwiegen/Dosieren) freigesetzte Chemikalien, entstehende Gase oder Aerosole während der Reaktion aus der Luft abgesaugt werden, und welche den Arbeitenden bei einem Unfall vor Splittern oder spritzenden Flüssigkeiten schützen. Speziell gilt letzteres beim Arbeiten mit evakuierten Gerätschaften (Exsikkatoren, Vakuumdestillation).
In mikrobiologischen Laboren werden außerdem Sicherheitswerkbänke verwendet, die durch geeignete Pumpen und Filteranlagen steril gehalten werden, um den Arbeitenden und seine Experimente vor dem Einfluss von Mikroorganismen zu schützen.
Bedingt durch den Umgang mit gesundheitsschädlichen und brennbaren Stoffen oder die Kontaminationsgefahr durch biologische Arbeitsstoffe darf in chemischen Laboratorien weder gegessen, getrunken oder geraucht werden, zudem ist in der Regel das Tragen geeigneter Schutzkleidung (Laborkittel, geeignete sonstige Kleidung, Schutzbrille, Schutzhandschuhe, festes Schuhwerk) verpflichtend. Brennbare oder anderweitig gefährliche Substanzen werden in Sicherheitsschränken aufbewahrt.
Laboratorien in der Physik verfügen meist über Anschlüsse für Drehstrom, Druckluft, sowie vom normalen Trinkwassernetz getrennte Kühlwasserleitungen. Zur Ausstattung gehören darüber hinaus verschiedene meist elektronische Messgeräte, häufig auch Vakuumapparaturen sowie je nach speziellem Arbeitsgebiet weitere Geräte. Eine wichtige Art von Labor insbesondere in der Festkörperphysik ist der Reinraum, in dem durch eine spezielle Belüftungsanlage, das Tragen von Schutzkleidung und Vermeidung bestimmter Tätigkeiten eine besonders saubere, insbesondere staubfreie Arbeitsumgebung herrscht.
In den Ingenieurwissenschaften werden als Labor nicht nur entsprechend ausgestattete und genutzte Räume bezeichnet, sondern auch eine Klasse von Lehrveranstaltungen an Universitäten und Fachhochschulen, in denen praktische Fähigkeiten und der Umgang mit bestimmten Geräten, Software o. Ä. anhand von beispielhaften Aufgabenstellungen geschult werden sollen.
Neuerdings finden sogenannte Westentaschenlabore (lab-on-a-chip system) vermehrt Anwendung.
Schutzstufenkonzept
Für Laboratorien, in welchen mit Gefahrstoffen, mit biologischen Arbeitsstoffen oder mit gentechnisch veränderten Organismen gearbeitet wird, ist in Deutschland durch unterschiedliche Rechtsvorschriften die Einstufung in vier Schutzstufen (Gefahrstoffverordnung) bzw. biologische Schutzstufen (Biostoffverordnung) bzw. biologische Sicherheitsstufen (Gentechnikgesetz und Gentechnik-Sicherheitsverordnung) vorgeschrieben, welche bauliche und technische, organisatorische und Maßnahmen bezüglich der persönlichen Schutzausrüstung nach sich zieht. In Österreich und der Schweiz gelten ähnliche Regelungen.
Schutzstufen nach der Gefahrstoffverordnung (Deutschland)
Nach der Gefahrstoffverordnung sind die im Labor verwendeten Gefahrstoffe auf ihre Gefährdung zu prüfen. Dabei sind neben der Einstufung mit den Gefährlichkeitsmerkmalen (also giftig, leicht entzündlich usw.) auch die Häufigkeit der Verwendung, die Einsatzmengen und verschiedene physikalische Eigenschaften, wie die Konzentration in der Luft, die Verteilung usw., und die Arbeitsbedingungen zu berücksichtigen.
Aufgrund dieser Daten erfolgt dann die Einstufung:
Schutzstufen nach der Biostoffverordnung (Deutschland)
Die Biostoffverordnung (BioStoffV) regelt zum Schutz der Beschäftigten (unter anderem im Labor) den Umgang mit biologischen Arbeitsstoffen. Zu den biologischen Arbeitsstoffen – sie werden auch als Biostoffe bezeichnet – gehören u. a. Prokaryoten (Bakterien und Archaeen), Viren, Pilze, Parasiten und Zellkulturen. Durch § 3 BioStoffV werden für sie vier Risikogruppen definiert. Die Einstufung erfolgt nach dem Infektionsrisiko, vereinfacht bedeutet dies, je gefährlicher ein Biostoff ist, desto höher ist die Risikogruppe. Bei den sogenannten gezielten Tätigkeiten (vergleiche Begriffsbestimmungen – § 2 BioStoffV) muss die Arbeit mit einem biologischen Arbeitsstoff der Risikogruppe 1 nach den Regeln der Schutzstufe 1 erfolgen, das gleiche Prinzip gilt für die Schutzstufen 2 bis 4. Die Vorschriften werden als Stufen bezeichnet, da die Regelungen der niedrigeren Schutzstufen auch für die höheren Stufen gelten. Für die Arbeit im Labor entsprechen die Regeln der Schutzstufen nach der Biostoffverordnung weitgehend denen der Sicherheitsstufen nach dem Gentechnikgesetz.
In der Schutzstufe 1 sind die allgemeinen Hygienemaßnahmen, bei der Arbeit im Labor zusätzlich noch die speziellen Hygienemaßnahmen, einzuhalten. Sie werden durch die Technischen Regeln für Biologische Arbeitsstoffe (TRBA) näher ausgeführt. Hieraus ergibt sich beispielsweise, dass die Mitarbeiter im Labor einen Laborkittel als Schutzkleidung tragen und sich nach Beendigung der Tätigkeit die Hände waschen und desinfizieren. Bei den höheren Schutzstufen steigen die Anforderungen an die Ausstattung und die Organisation im Labor an, außerdem muss das Labor mit dem Symbol für Biogefährdung gekennzeichnet werden. So ist es z. B. in der Schutzstufe 2 üblich, an einer Sicherheitswerkbank zu arbeiten, falls bei den Arbeiten Bioaerosole entstehen können und einen Autoklaven zur Sterilisation der Abfälle, die Biostoffe enthalten können, zu verwenden. In der Schutzstufe 3 ist u. a. eine Zugangskontrolle zum Labor sowie eine Notstromversorgung vorgeschrieben, die Abluft muss gefiltert werden. Auch die persönliche Schutzausrüstung der Mitarbeiter muss den möglichen Gefahren angepasst werden, beispielsweise durch Tragen einer Atemschutzmaske. In der Schutzstufe 4 ist es z. B. erforderlich, dass das Labor baulich abgetrennt und für eine mögliche Begasung abdichtbar ist. Es kann nur über eine Schleuse betreten werden, die Mitarbeiter tragen fremdbelüftete Vollschutzanzüge.
Sicherheitsstufen nach dem Gentechnikgesetz (Deutschland)
Gentechnische Arbeiten mit gentechnisch veränderten Organismen (GVO) erfolgen unter vier biologischen Sicherheitsstufen. Diese werden in Deutschland durch das Gentechnikgesetz (GenTG) festgelegt und durch die Gentechnik-Sicherheitsverordnung (GenTSV) näher ausgeführt. Die Zuordnung der gentechnischen Arbeiten zu den vier Sicherheitsstufen ergibt sich unter anderem anhand des Risikos der verwendeten GVO. Im Laborjargon werden solche Laboratorien als S1-Labor bis S4-Labor bezeichnet. Die genaue Regelung wird durch §§ 4–7 GenTSV vorgegeben. Neben den Sicherheitsstufen für Laboratorien gibt es entsprechende Regelungen u. a. für den Produktionsbereich. Die Vorschriften werden als Stufen bezeichnet, da die Regelungen der niedrigeren Sicherheitsstufe auch für die höheren Stufen gelten. Für die Arbeit im Labor entsprechen die Regeln der Sicherheitsstufen nach dem Gentechnikgesetz zum Teil denen der Schutzstufen nach der Biostoffverordnung, es gibt jedoch auch weitergehende Sicherheitsmaßnahmen.
Dazu gehört unter anderem die Kennzeichnung als Gentechnik-Arbeitsbereich und die Einsetzung eines Projektleiters. Die technische Ausstattung, je nach Sicherheitsstufe z. B. mit Sicherheitswerkbank, Autoklav oder Zugang über eine Schleuse, entspricht dem Labor, in dem mit Biostoffen gearbeitet wird. Unterschiede ergeben sich im Detail, ab welcher Sicherheitsstufe welche Maßnahmen zu beachten sind.
Eine Anlage, in der gentechnische Arbeiten der Sicherheitsstufe 3 oder 4 durchgeführt werden sollen, muss nach §§ 8 und 10 GenTG genehmigt werden. In Deutschland gibt es vier gentechnische Anlagen der Sicherheitsstufe 4 (Stand Dezember 2012). Von den vier Anlagen ist eine in Betrieb, bei einer Anlage ist der Betrieb genehmigt, bei zwei Anlagen wurde deren Errichtung genehmigt.
Siehe auch
Laborgeräte
Laborautomatisierung
Chemische Arbeitsverfahren
H- und P-Sätze
Wissenschaftssoziologie
Laborjournal
Chemielabor
Laborjargon
Notdusche
Literatur
Bruno Latour: Laboratory Life: The Construction of Scientific Facts, Princeton University Press, Princeton (N.J.) 1986, ISBN 978-0-691-09418-2.
Henning Schmidgen: Labor. Europäische Geschichte Online, hrsg. vom Institut für Europäische Geschichte (Mainz), 2011, .
Michael Wächter: Chemielabor. Einführung in die Laborpraxis. 1. Aufl. Wiley-VCH, Weinheim 2011, ISBN 978-3-527-32996-0.
Rechtsquellen
Gefahrstoffverordnung ( bei juris. Abgerufen am 21. Mai 2014.)
Biostoffverordnung ( bei juris. Abgerufen am 13. Mai 2014.)
Gentechnikgesetz (Deutschland) ( bei juris. Abgerufen am 17. Mai 2014.)
Gentechnik-Sicherheitsverordnung ( bei juris. Abgerufen am 17. Mai 2014.)
Weblinks
Einzelnachweise
Labortechnik
!
|
Q483242
| 284.193794 |
71208
|
https://de.wikipedia.org/wiki/Genpool
|
Genpool
|
Der Genpool bezeichnet die Gesamtheit aller Genvariationen (Allele) einer Population und ist ein Begriff in der Populationsgenetik und Populationsökologie.
Existiert für ein bestimmtes Gen nur ein Allel in der gesamten Population, so ist die Population für diesen Genort monomorph. Existieren mehrere/viele unterschiedliche Versionen des Gens in der Population, so ist sie für dieses Gen polymorph.
Haben die betrachteten Lebewesen mehr als einen Chromosomensatz, kann die Gesamtzahl der Allele im Genpool größer sein als die Anzahl der Organismen. Meist ist die tatsächliche Anzahl der Allele jedoch wesentlich geringer. Im Fall starker Inzucht kann es zu monomorphen Populationen mit nur einer Version eines bestimmten Gens in der gesamten Population kommen. Ähnliche Effekte treten auch bei natürlichen Formen starker Selektion auf. Meist ist nicht nur das selektierte Gen selbst, sondern auch ein mehr oder weniger breiter angrenzender Bereich der DNA durch auffallend geringe Variabilität im Vergleich zum übrigen Genom gekennzeichnet. Dies liegt daran, dass die Selektion nicht an dem isolierten Gen selbst, sondern an einem (das eigentlich selektierte Gen enthaltenden) Abschnitt des betreffenden Chromosoms ansetzt, der durch Rekombination zufällig begrenzt ist. Dieser Effekt wird "genetic sweep" (in etwa: genetisches Auswischen) genannt.
Ein Maß für den Umfang des Genpools einer Population ist die effektive Populationsgröße, abgekürzt als Ne. Eine menschliche Population mit ihrem diploiden Chromosomensatz hat also theoretisch maximal doppelt so viele Allele eines Gens wie Individuen, das heißt: Ne ≤ 2 * N (der eigentlichen Populationsgröße). Ausgenommen die Geschlechtschromosomen.
Die Größe des Genpools einer Art ist zeitlich variabel. Faktoren, die den Genpool vergrößern, sind Mutationen und Introgression (Einkreuzen von Allelen aus verwandten Populationen oder Arten). Selektion und Gendrift verkleinern den Genpool hingegen, Selektion in gerichteter Weise, Gendrift in zufälliger. Wenn keiner dieser Faktoren wirksam ist, bleibt der Genpool von Generation zu Generation konstant, dies wird als Hardy-Weinberg-Gleichgewicht bezeichnet.
Ein größerer Genpool mit vielen unterschiedlichen Varianten einzelner Gene führt dazu, dass die Nachfahren einer Population besser an eine veränderte Umwelt angepasst sein können. Die Allel-Frequenz kann sich sehr viel schneller solchen Veränderungen anpassen wenn die entsprechenden Allele schon vorhanden sind, als wenn sie erst durch Mutation neu entstehen müssten. Umgekehrt kann es von Vorteil sein, in einer immer gleich bleibenden Umwelt einen möglichst kleinen Genpool zu besitzen, damit nicht durch Zufall zu viele ungünstige Allel-Kombinationen entstehen.
In der Pflanzenzüchtung unterscheidet man zwischen einem primären, sekundären und tertiären Genpool. Zum primären Genpool gehören jeweils eine Kulturart und weitere problemlos einkreuzbare Arten. Zum sekundären Genpool gehören zusätzlich solche Arten, die nur mit Schwierigkeiten einkreuzbar sind und zum tertiären Genpool weitere Arten, die nur mit speziellen Verfahren wie der Embryokultur eingekreuzt werden können.
Geschichte
Der russische Genetiker Alexander Serebrowski formulierte das Konzept des Genpools (genofond) in den 1920er Jahren in der Sowjetunion. Theodosius Dobzhansky brachte das Konzept in die USA und übersetzte es als „gene pool“.
Anwendung in der Züchtung
Durch Züchtung, speziell durch Inzucht, können unerwünschte Gene aus dem Genpool herausgezüchtet werden. Die Population wird dann bezüglich erwünschter Merkmale homogener. Durch zu viele monomorphe Genloci und damit reduzierte Anpassungsfähigkeit an wandelnde Umweltbedingungen neigen solche Inzuchtlinien allerdings zur Inzuchtdepression. Durch Kreuzung mit Individuen anderer Sorten kann die Fitness und der Ertrag dann stark ansteigen (Heterosis-Effekt). Durch Einkreuzen von nicht zu der Population gehörenden Individuen kann die Größe des Genpools erhöht werden.
Einzelnachweise
Genetik
|
Q189800
| 89.514566 |
39033
|
https://de.wikipedia.org/wiki/Mesoamerika
|
Mesoamerika
|
Mesoamerika
bezeichnet eine Siedlungslandschaft und ein Kulturareal in Mittelamerika. Das Gebiet Mesoamerikas umfasst großräumige Gebiete der heutigen Staaten Mexiko, Belize, Guatemala, El Salvador, Honduras, Nicaragua und Costa Rica. Im älteren Sprachgebrauch ist für etwa dieselbe Kulturregion auch der Begriff Altmexiko gebräuchlich, insbesondere für deren vorkolumbische Geschichte, z. T. aber auch für die indianischen Kulturen der modernen Zeit.
Zu diesem Kulturareal werden die Hochkulturen der Nahua (Azteken, Tlaxcalteken und Tolteken), Boruca, Chichimeken, Huaxteken, Huicholen, Maya (Lacandonen), Mayangna, Mazateken, Mixe, Mixteken, Olmeken, Otomí, Purépecha, Totonaken und Zapoteken gezählt. Aber auch weniger bekannte Kulturen – vor allem entlang der Pazifikküste – gehören dazu: Diquís-Kultur (Costa Rica), Mokaya-Kultur (Chiapas und Guatemala), Monte-Alto-Kultur und Cotzumalhuapa-Kultur (Guatemala). Daneben existieren noch mehrere Einzelfundorte, die sich einer kulturellen Einordnung bislang weitgehend entziehen: Izapa, Takalik Abaj, Kaminaljuyu u. a.
Weitere Ethnien siehe Liste der indigenen Völker Mesoamerikas und der Karibik.
Definition
Archäologisch
Mesoamerika ist ein archäologisches Kulturgebiet in Mittelamerika, in dem zahlreiche präkolumbische Völker vor der spanischen Kolonisierung lebten.
Sprachwissenschaftlich
Die Mesoamerican Linguistic Area ist ein Sprachbund, der zahlreiche Sprachen Mesoamerikas beschreibt, mit gemeinsamen syntaktischen, lexikalischen, phonologischen und ethno-linguistischen Eigenschaften. Zu diesem Sprachbund gehören Maya, Mixe-Zoque, Totonac-Tepehua und Uto-Aztekisch.
Wirtschaftlich
Mesoamerika (MAR) ist laut OECD eine multinationale, wirtschaftsgeographische Region in Mittelamerika der Staaten Belize, Costa Rica, El Salvador, Guatemala, Honduras, Nicaragua und Panama, sowie den neun südöstlichen Staaten Mexikos (Campeche, Chiapas, Guerrero, Oaxaca, Puebla, Quintana Roo, Tabasco, Veracruz und Yucatán).
Geographie
Die Nordgrenze Mesoamerikas liegt ungefähr auf der Höhe des nördlichen Wendekreises mit einer Ausbuchtung nach Süden zwischen den beiden Kordilleren. Die Grenze wanderte mit wechselnden klimatischen Bedingungen. In regenreichen Phasen war Bodenbau möglich, so verschob sich die Grenze in nördliche Richtung. Die Ost- bzw. Südgrenze verlief je nach Zeitraum durch Nicaragua und Costa Rica oder aber durch El Salvador und Honduras. Die Nicarao sprachen eine Variante des Nawat Zentralamerikas, eine dem von den Azteken gesprochenen Nahuatl ähnliche Sprache und werden deshalb zu den Nahua gezählt. Sie bildeten zur Zeit der Conquista einen weit nach Osten verschobenen Vorposten, während der Großteil der archäologischen Befunde auf eine weiter im Westen zu ziehende Grenze schließen lässt.
Geschichte
Frühzeit
Um 20.000 v. Chr. besiedelten Menschen den mesoamerikanischen Raum. Erste Mammutjäger sind für 10.000 v. Chr. nachgewiesen. Die ältesten archäologischen Funde auf Yucatán datieren von 9000 v. Chr., die Funde von Los Tapiales (Guatemala) werden auf 8000 v. Chr. datiert.
Archaische Periode
Um 7000 v. Chr. begann der Ackerbau, um 5000 v. Chr. wurde Mais als Kulturpflanze angebaut. Permanent besiedelte Dörfer sind 3500 v. Chr. wahrscheinlich. Jedoch sind sie erst für 2500 v. Chr. im größeren Umfang nachgewiesen. 3400 v. Chr. dienten Mais- und Bohnenkulturen als Nahrungsgrundlage. 3000 v. Chr. wurden ständig bewohnte Dörfer angelegt sowie Töpferei und Weberei entwickelt. Vorfahren der Maya vermischten sich 2500 v. Chr. in Guatemala mit der dortigen Urbevölkerung.
Frühe Präklassik
1500 v. Chr. wurde der Maisanbau zur Lebensgrundlage für die Völker Mesoamerikas. Sie nutzten Obsidianwerkzeuge, auch Ocos-Keramik wurde an der Pazifikküste nachgewiesen. Um 1200 v. Chr. stieg die Olmekenkultur auf. Goldverarbeitung ist für 850 v. Chr. nachgewiesen.
Mittlere Präklassik
Eine zapotekische Kultur gab es um 600 v. Chr. in Monte Albán. Um 400 v. Chr. wurde La Venta zerstört, die olmekische Kultur ging unter.
Späte Präklassik
Um 400 v. Chr. gab es eine Izapakultur an der mexikanischen Pazifikküste. Erste datierbare Stelen der Maya wurden 125 v. Chr. erschaffen. Das früheste Datum der Langen Zählung (Stele 2 in Chiapa de Corzo, Chiapas, Mexiko) ist 36 v. Chr. Um 100 n. Chr. begann der Bau der ersten Stufenpyramide in Teotihuacán.
Klassik
Um 200 datiert der Baubeginn der Sonnenpyramide von Teotihuacán, die Mondpyramide von Teotihuacán wurde ab 250 erschaffen. In dieser Zeit wurden auch die großen Maya-Städte Tikal, Palenque, Copán und Yaxchilán gegründet. Auf 292 datiert die früheste in der Langen Zählung datierte Stele in Tikal. Um 300 war die Blütezeit von Teotihuacán, das 400 die Maya unterwarf.
Mittlere Klassik
Die Zeit um 500 ist die Blütezeit der Zapoteken. 540 wurde Bonampak gegründet. Kriege zwischen Tikal und Calakmul fanden 550 statt. Der Niedergang von Teotihuacán geschah um 600.
Späte Klassik
799 findet sich die letzte Datierung von Palenque, 822 die von Copán. Die letzte Datierung von Tikal ist 879, die von Uxmal und Toniná 909.
Frühe Postklassik
Tula wurde 950 gegründet. 987 wurde Quetzalcoatl aus Tula vertrieben. Im gleichen Jahr wurde Chichén Itzá erobert. 1007 wurde Mayapán gegründet. Um 1140 lebten Azteken im Tal von Mexiko. Mit der Zerstörung Tulas durch die Chichimeken 1168 ging das Toltekenreich nieder.
Späte Postklassik
1221 gründeten Chichén Itzá, Mayapán und Uxmal die Liga von Mayapán. Die Itzá übernahmen 1224 die Regentschaft über Chichén Itzá von den Tolteken. 1335 wurde Tenochtitlán gegründet. Die Mixteken siedelten 1350 bei Monte Albán. Tenochtitlán, Texcoco und Tlacopán bildeten 1428 den aztekischen Dreibund. 1441 beendete eine Revolte die Liga von Mayapán. Die Itzá verließen Chichén Itzá, Mayapán wurde zerstört. Bei der Einweihung des Templo Mayor in Tenochtitlán wurden 1487 innerhalb von vier Tagen mehr als 20.000 Menschen geopfert. 1511 landeten die Spanier an der Küste Yucatáns, der erste Kontakt von Europäern unter Juan de Grijalva mit den Azteken fand 1517 statt. 1521 eroberte Hernán Cortés Tenochtitlán. 1524 begannen die spanischen Versuche der Kolonisation Yucatáns.
1697 wurde Tayasal in Yucatán zerstört.
Ethnische Religionen der Gegenwart
(siehe auch: Religion der Azteken, Religion der Maya)
Die ethnischen Religionen Mittelamerikas sind bis heute stark von den alten Hochkulturen geprägt. Dabei sind zahlreiche unterschiedliche Synkretismusformen mit dem Christentum entstanden. S. A. Tokarew nennt in diesem Zusammenhang für Mesoamerika zwei Regionen mit jeweils selbständigen Kultzentren, die vor dem Eintreffen der Europäer bestanden. Gemeinsam war ihnen die Verbindung zwischen archaischen Formen – wie sie in den religiösen Vorstellung der weniger urbanen Völker der Region vorkommen –, mit den komplizierten Formen des von lokalen Eroberern eingeführten Staatskultes mit seinen teils bizarren theologischen Systemen, die mitunter massenhafte Menschenopfer praktizierten und die neben der bäuerlichen Volksreligion bestanden, bis die Trägerstaaten untergingen. Diese zwei alten Kultzentren waren:
Zentralmexiko mit den Azteken
Guatemala und Yucatan mit den Maya
Von dieser historischen Grundlage ausgehend sieht man heute von Norden nach Süden fortschreitend folgende religiöse Regionen mit ihren jeweils spezifischen archaischen Vorstellungen, hochkulturellen Einflüssen und christlich-katholischen Synkretismen.
Nordmexikanische Kulturen
Alle nordmexikanischen Indianer sind heute formell Katholiken, von einigen kleineren Ethnien wie den Huichol und den Tarahumara einmal abgesehen. Allerdings haben selbst diese Gruppen christliche Vorstellungen und Rituale integriert. Vor allem bei den uto-aztekischen Indianern des Nordens finden sich traditionelle Elemente, die in Ausmaß und Erscheinungsform jedoch von Gruppe zu Gruppe stark schwanken. In den meisten dieser Gruppen gibt es einen Curandero (wörtlich: „Heiler“) genannten Medizinmann, der Geistheilungen und Fruchtbarkeitsmagie durchführt und überhaupt Beistand in Situationen leistet, in denen übernatürliche Hilfe vonnöten scheint. Der Curandero ist wie der Glaube an Hexerei praktisch im gesamten iberoamerikanischen Bereich verbreitet.
Zentralamerikanische und karibische Kulturen
Nach der Herrschaft dieser alten Hochreligionen beendete das Christentum zumindest formell die Phase der traditionellen Glaubensvorstellungen. Vor allem in ländlichen und abgelegenen Gebieten ist für diese Völker aber ein recht oberflächliches bis synkretistisches Verhältnis zum Christentum typisch, wie es bereits für Nordmexiko beschrieben wurde. Insgesamt ist es den mittelamerikanischen indigenen Ethnien gelungen, ihre kulturelle Identität zu erhalten, und traditionelle Praktiken wie Heilmagie und Zauberei sowie die Verehrung von Naturphänomenen sind immer noch weit verbreitet.
Geologische und meteorologische Auswirkungen auf die Kulturen der Region
Die Ausprägung der einzelnen Kulturen ist unter anderem auch von topographischen Unterschieden abhängig:
Zum einen variieren die Höhenlagen: Das Gebiet lässt sich einteilen in die Tierra caliente (bis 800 m), die Tierra templada (800–2000 m) sowie die Tierra fría (2000 bis Siedlungsgrenze bei 3000 m). Zum anderen bewirkt die Lage zwischen den Ozeanen eine Regenzeit im Sommer und Herbst und eine Trockenzeit im Winter und Frühling. Zudem fangen die Jahreszeiten von Süd nach Nord versetzt an. Diese Heterogenität im Landschaftsbild auf engstem Raum bietet sehr gute Voraussetzungen für arbeitsteilige Spezialisierung und wirtschaftlichen Austausch.
Allerdings ist die für die Anden charakteristische inselartige Aufteilung von ethnischen oder politischen Einheiten auf verschiedene Klimazonen zur optimalen Ausnutzung derer Potentiale in Mesoamerika nicht vorhanden gewesen.
Siehe auch
Chronologie des präkolumbischen Mesoamerika
Codex Florentinus
Mesoamerikanisches Ballspiel
Mesoamerikanischer Kalender
Schädelmanipulation bei indigenen Völkern Lateinamerikas
Literatur
Norman Bancroft-Hunt: Atlas der indianischen Hochkulturen. Olmeken, Tolteken, Maya, Azteken. Tosa Verlag, Wien 2002, ISBN 3-85492-557-3.
Paul Kirchhoff: Mesoamérica, sus límites geográficos, composición étnica y carácteres culturales. In: Acta Americana Nr. 1, 1943.
Hanns J. Prem: Geschichte Altamerikas. Oldenbourg, München 2007, 2. Auflage 2007, ISBN 3-486-53032-1.
Robert Wauchope (Hrsg.): Handbook of Middle American Indians, University of Texas Press, 1964–1976, 16 Bände.
Gordon R. Willey: Das alte Amerika. Propyläen Verlag/Ullstein, Berlin 1974 (=Propyläen Kunstgeschichte, Band 18).
Weblinks
Mittelamerikanische Kulturen, Überblick – Fotos, Karten Infos
Karte der indigenen Bevölkerung Nordamerikas (große Imagemap mit Links zu den eingezeichneten Ethnien)
Einzelnachweise
Altamerikanistik
Kulturraum in Amerika
|
Q13703
| 244.571438 |
21923
|
https://de.wikipedia.org/wiki/Hegemonie
|
Hegemonie
|
Unter Hegemonie versteht man die zugerechnete oder eingenommene Führungsrolle oder Priorität einer gesellschaftlichen Institution (eines Staates, einer Organisation) oder eines ähnlichen Akteurs in politischen, militärischen, wirtschaftlichen, sozialen, religiösen oder kulturellen Angelegenheiten.
Gegenüber einem Hegemonen, dem Machthaber in der Hegemonie bzw. (im antiken Griechenland) dem Anführer eines Bundes, haben andere Akteure in einem sozialen System nur eingeschränkte Möglichkeiten, ihre eigenen Vorstellungen und Interessen praktisch durchzusetzen. Die theoretische/juristische Möglichkeit dazu mag zwar gegeben sein, doch die Umsetzung kann an den Einflussmöglichkeiten und der Übermacht des Hegemons scheitern.
Das dem Substantiv Hegemonie zugehörige Adjektiv heißt hegemonial, dessen Gegenteil antihegemonial.
Begriffsherkunft
Als fachsprachlicher Begriff für „Vorherrschaft, Vormachtstellung“ ist Hegemonie vor dem 19. Jahrhundert entlehnt worden aus („Heerführung, Oberbefehl, Hegemonie“). Dieses ist eine Ableitung von („Führer, Anführer“), welches selbst ein Nomen Agentis zum Verb („vorangehen, führen, anführen“) ist.
In internationalen Beziehungen
In der Geschichte finden sich viele Beispiele von hegemonialen Herrschaftsstrukturen, in der Antike beispielsweise Athen und Sparta, Makedonien unter Philipp II. und das Römische Reich. Aktuell wird besonders die Supermacht USA mit diesem Begriff, im Sinne einer weltpolitischen Vormachtrolle, bezeichnet.
Die politische Theorie des Neorealismus erklärt die Entstehung von Hegemonien aus der Existenz verschiedener Fähigkeiten unterschiedlicher Staaten und einer Vormachtstellung in ebendiesen. So kann es durch Hegemone zu einer Machthierarchie des internationalen Systems kommen; gleichwohl ist diese Hierarchie prekär und der Kritik Dritter ausgesetzt. Diese Instabilität wird mit dem Streben der Einzelstaaten nach relative gains (in etwa ausgeglichene Verhältnisse) begründet, wonach die Tendenz zur Entstehung eines Machtgleichgewichts dazu führt, dass sich langfristig ein Gegenpol zu der bestehenden Hegemonie bildet. Die stabilste Konstellation ist laut dem Neorealismus das bipolare System. Diesen Gedanken formulierte der Völkerrechtslehrer Heinrich Triepel bereits 1938, wobei er von Dualismus sprach.
Da wesentliche Beiträge zur Theorie des Neorealismus von US-amerikanischen Wissenschaftlern und Historikern erarbeitet wurden, wird dieser Theorie auch eine implizite, bisweilen auch explizite Affirmation westlicher, aber vor allem amerikanischer Hegemonie unterstellt. Dieser Behauptung entspricht beispielsweise die Diskussion um einen etwaigen Verfall US-amerikanischer Vormachtstellung zu Beginn der 1970er Jahre, die in der Begründung der Hegemonic Stability Theory durch Charles P. Kindleberger u. a. mündete und aus der eine Neuausrichtung der US-Außenpolitik folgte. Hegemonie wird dabei positiv gedeutet, da die Vormachtstellung eines Staates kollektive Güter wie Sicherheit und Wohlstand garantieren könne; freilich hat dies die Unterordnung dritter Staaten zur Folge. Im Sinne einer reformulierten Hegemonietheorie fordern Theoretiker wie Robert O. Keohane und Joseph Nye eine stärker auf Kooperation und Konsens, denn auf Zwang gegründete Außenpolitik, um Anerkennung innerhalb des internationalen Systems behaupten zu können; ihnen zufolge ist das politische Kapital symbolischer Politik (sog. Soft Power) ein nicht gering zu schätzender Faktor im Wettstreit konkurrierender Weltordnungsvorstellungen (vgl. Interdependenztheorie).
Die politische Umsetzung der Hegemonialtheorie vollzieht sich am Anfang der 2020er Jahre vor dem Hintergrund eines vorwiegend konfrontativen außen- und militärpolitischen „America-first“-Kurses der US-Administration. Das zeigt sich auch beim Ringen um das letzte noch funktionierende russisch-amerikanische Vertragswerk zur Reduzierung strategischer Nuklearwaffen New START, zum Beispiel im US-Compliance Report 2020. Selbst unter veränderten geopolitischen Kräftekonstellationen und neuesten technologischen militärisch nutzbaren Entwicklungen tritt ein hegemonialer amerikanischer Politikstil deutlich hervor: Auf Russlands Argumente und Verweise zu konkretem vertragsverletzenden amerikanischen Verhalten gehen die Vereinigten Staaten nicht ein. Nach eigenem imperialen bzw. hegemonialen Wertmaßstab werden zwar (sicherheits-)politische Beurteilungen über die globalen Vertragspartner abgegeben, aber deren ökonomische Defensivposition und konventionelle militärpolitische Unterlegenheit ausgeblendet.
Inwieweit der Regierungswechsel von Donald Trump zu Joe Biden eine Änderung des „America-first“-Kurses darstellt, ist umstritten.
In der Zivilgesellschaft
In theoretischer Auseinandersetzung mit Politik und Theorien des Leninismus, Stalinismus und italienischen Faschismus erarbeitete Antonio Gramsci in den 1920er und 1930er Jahren, vor allem in seinen Gefängnisheften, eine marxistische Theorie des facettenreichen Verhältnisses von politischer Macht und Hegemonie. Mit Hegemonie wird im Anschluss an Gramsci „ein Typus von Herrschaft benannt, der im Wesentlichen auf der Fähigkeit basiert, eigene Interessen als gesellschaftliche Allgemeininteressen zu definieren und durchzusetzen“.
Die Orte der Auseinandersetzungen um Hegemonie bezeichnete Gramsci als Zivilgesellschaft. Seine Überlegungen zur Übersetzung weltanschaulicher Auffassungen in den „gesunden Menschenverstand“, zum Verhältnis von traditionell agierenden Intellektuellen und Parteien als „kollektiven Intellektuellen“ und ähnlichem ergeben ein Konzept eines widerständischen und demokratischen Kampfes um „kulturelle Hegemonie“. Ihr Gewinn schafft nach Gramsci erst die Möglichkeit von politischer Herrschaft, ihr Verlust untergräbt die herrschende Macht. Dabei reicht die kulturelle Hegemonie nach Gramsci bis in Formen der Alltagskultur und der Folklore, in den Aberglauben und ähnliches hinein. Die faschistischen Diktatoren haben sich hierbei einer Zustimmungskultur bedient, bei der sie sich vor allem auch des Sports (Brot und Spiele) bedient haben.
Für Gramsci ist Hegemonie damit eine spezifische Art und Weise der gesellschaftlichen Ausübung von Macht.
Aus der Richtung des Poststrukturalismus hat sich in den letzten Jahren eine u. a. auf Gramsci aufbauende diskursanalytische Hegemonietheorie entwickelt, die maßgeblich von Ernesto Laclau und Chantal Mouffe ausgearbeitet wurde. Die beiden entfernen sich hierbei von den klassentheoretischen Annahmen des Hegemoniebegriffs bei Gramsci, stattdessen wird Hegemonie als „Grundprinzip sozialer Interaktion gedeutet.“ Hegemonie ist hier zu einem grundlegenden Mechanismus für die Entstehung von Identität und der Konstruktion von Bedeutung geworden. Benjamin Opratko spricht deshalb von der erfolgten Ontologisierung des Hegemoniekonzeptes.
Raewyn Connell hat den Begriff „hegemoniale Männlichkeit“ in die Männerforschung eingeführt.
Literatur
Perry Anderson: Hegemonie. Konjunkturen eines Begriffs. Übersetzung Frank Jakubzik. suhrkamp, Berlin 2018, ISBN 978-3-518-12724-7.
Barbara Bauer u. a. (Hrsg.): Atlas der Globalisierung. TAZ, Berlin 2003 (Le Monde diplomatique), ISBN 3-9806917-6-4.
Mario Candeias: Neoliberalismus-Hochtechnologie-Hegemonie. Grundrisse einer transnationalen kapitalistischen Produktions- und Lebensweise. Eine Kritik, In: Argument, Sonderband N.F. AS 299, Argument, Hamburg 2004, ISBN 3-88619-299-7 (zugleich Dissertation an der Freien Universität Berlin 2003).
Ludwig Dehio: Gleichgewicht oder Hegemonie. Betrachtungen über ein Grundproblem der neueren Staatengeschichte. Krefeld/Zürich 1948 (Neudr. 1996).
Iris Dzudzek, Caren Kunze, Joscha Wullweber (Hrsg.): Diskurs und Hegemonie: Gesellschaftskritische Perspektiven. Transcript, Bielefeld 2012.
Antonio Gramsci: Gefängnishefte. Herausgegeben von Klaus Bochmann und Wolfgang Fritz Haug, 10 Bände. Argument-Verlag, Hamburg 1991–2002.
Wolfgang Fritz Haug, Alastair Davidson: Hegemonie. (pdf) In: Historisch-kritisches Wörterbuch des Marxismus. Band 6.1, Argument-Verlag, Hamburg 2004, Sp. 1–29.
Robert Keohane: After Hegemony. Princeton University Press, Princeton/NJ 1984.
Ernesto Laclau, Chantal Mouffe: Hegemonie und radikale Demokratie. Zur Dekonstruktion des Marxismus (Originaltitel: Hegemony and socialist strategy übersetzt von Michael Hintz und Gerd Vorwallner). In: Passagen Philosophie. Passagen, Wien 2000 (Erstauflage 1985), ISBN 3-85165-453-6.
Ulrich Menzel: Die Ordnung der Welt. Suhrkamp Verlag, Berlin 2015, ISBN 978-3-518-42372-1.
Dieter Nohlen (Hrsg.): Lexikon der Politik. Band 1: Politische Theorien. München 1995, S. 174–180.
Benjamin Opratko: Hegemonie. Politische Theorie nach Antonio Gramsci. 3. erweiterte Auflage. Münster 2017, ISBN 978-3-89691-681-5.
Stefan Robel: Hegemonie in den internationalen Beziehungen. Lehren aus dem Scheitern der „Theorie der hegemonialen Stabilität“. Dresdner Arbeitspapiere Internationale Beziehungen, DAP-2, Dresden 2001.
Brendan Simms: Kampf um Vorherrschaft. Eine deutsche Geschichte Europas 1453 bis heute. Deutsche Verlags-Anstalt, München 2014.
Heinrich Triepel: Die Hegemonie. Ein Buch von führenden Staaten [mit einem Vorwort von Gerhard Leibholz aus dem Jahre 1961]. 2. Neudruck der 2. Ausgabe (Stuttgart 1943). Scientia, Aalen 1974, ISBN 3-511-00096-3.
Weblinks
Bernhard Kempen: Hegemonie, Lemma in staatslexikon-online.de (Das Staatslexikon der Görres-Gesellschaft)
Ulrich Brand: Lexikon der Globalisierung – Was ist eigentlich Hegemonie? In: taz.de. 20. September 2004.
Erik Borg: Hegemonie im internationalen politischen System. In: sopos.org.
Sabine Weskott: Hegemonie und Internationale Demokratie. In: copyriot.com.
Kommentierte Literaturliste zur Hegemonietheorie Antonio Gramscis
Einzelnachweise
Militärgeschichte
Wirtschaftsgeschichte
Neomarxismus
Theorie der Internationalen Beziehungen
|
Q182034
| 156.03581 |
18158
|
https://de.wikipedia.org/wiki/Gesetzbuch
|
Gesetzbuch
|
Ein Gesetzbuch (kurz GB, auch Kodex oder Gesetzessammlung) bezeichnet eine Kodifikation eines größeren Teilgebietes des Rechts. Es gibt Strafgesetzbücher, Zivilgesetzbücher (z. B. Bürgerliches Gesetzbuch), Familiengesetzbücher, Arbeitsgesetzbücher, Prozessgesetzbücher etc.
Gesetzbücher gibt es seit der Entstehung des Alten Testaments. Unter Napoléon Bonaparte entstanden in Frankreich zu Beginn des 19. Jahrhunderts der Code civil und der Code pénal als Gesetzbücher.
Literatur
Siehe auch
Kodex (Begriffsklärung)
Weblinks
Buchart nach Inhalt
Gesetzgebungslehre
|
Q922203
| 96.362872 |
135170
|
https://de.wikipedia.org/wiki/Logikgatter
|
Logikgatter
|
Ein Logikgatter, auch nur Gatter, (engl. (logic) gate) ist eine Anordnung (heutzutage praktisch immer eine elektronische Schaltung) zur Realisierung einer booleschen Funktion, die binäre Eingangssignale zu einem binären Ausgangssignal verarbeitet. Die Eingangssignale werden durch Implementierung logischer Operatoren, wie der Konjunktion (Und-Gatter), der Disjunktion (Oder-Gatter), der Kontravalenz (Exklusiv-Oder-Gatter) oder der Negation (Nicht-Gatter) zu einem einzigen logischen Ergebnis umgewandelt und auf das Ausgangssignal abgebildet. Neben den genannten Gatterfunktionen sind auch die Entsprechungen mit negiertem Ausgang zu nennen: NAND-Gatter (Nicht-Und), NOR-Gatter (Nicht-Oder), XNOR-Gatter (Nicht-Exklusiv-Oder); deutsche Bezeichnungen der letztgenannten Gatter sind unüblich.
Prinzipiell lassen sich alle logischen Verknüpfungen als Gatter realisieren. Mehrere Logikgatter kann man beispielsweise zu einem Flipflop, Latch oder Multiplexer zusammenschalten, aus mehreren Flipflops kann man Datenspeicher und Zähler erstellen, und aus mehreren dieser Schaltungen kann man zum Beispiel einen Mikroprozessor zusammenstellen. Einzelne Logikgatter werden als integrierter Schaltkreis (IC) angeboten; in komplexeren Schaltungen kommen sie mitunter innerhalb eines ICs zig-millionenfach vor. Sie lassen sich aber auch aus diskreten elektronischen Bauelementen, mittels Schalter oder Relais aufbauen oder gar mittels fluidischen Bauelementen darstellen. Ebenfalls gibt es in historischen Rechenmaschinen mechanische Aufbauten.
Zur Implementierung und Vereinfachung einer komplexen logischen Funktion wird die so genannte Schaltalgebra angewandt.
Die Anzahl von Gatteräquivalenten dient als Maß für die logische Komplexität einer Schaltung.
Technologie
Für die technische Implementierung gibt es trotz gleicher Operation unterschiedliche Möglichkeiten. Heutzutage bestehen Schaltungen für Logikgatter, mit wenigen Ausnahmen, ausschließlich aus Transistoren. Das Signal repräsentiert die logischen Zustände durch zwei Spannungswerte, die gemeinhin mit „0“ oder „1“, „low“ oder „high“ (kurz „L“ oder „H“) bezeichnet werden; erstere erlauben auch eine Interpretation als Binärziffern. Für den Spannungswert sind Grenzen definiert, innerhalb derer die Transistoren – die in ihren Eigenschaften Produktionstoleranzen ausgesetzt sind – entweder sicher auf leitend oder sicher auf sperrend umschalten. Das Ausgangssignal (das das Resultat der Operation repräsentiert) kann wiederum an die Eingänge anderer Gatter angeschlossen werden; dadurch lassen sich komplexere, vielseitige Schaltungen erstellen.
Elektronische Gatter sind als TTL-, CMOS- oder BiCMOS-Bausteine in der Form einzelner integrierter Schaltkreise für wenige Cent erhältlich. Sie basieren grundsätzlich auf den beiden Transistor-Familien der Bipolartransistoren (TTL) und der Feldeffekttransistoren, genauer der MOSFETs (CMOS), sowie auf der Kombination aus beiden Familien (BiCMOS). Sie bilden den Kern von Mikroprozessoren, oder sind in Tausenden per Software in FPGA- oder PLD-ICs programmierbar. Von besonderer Bedeutung sind hierbei die NAND- und NOR-Gatter, da man alle binären Funktionen nach Quine/McCluskey auf die drei Grundelemente AND, OR und NOT zurückführen kann. Wiederum kann OR und NOT mit NAND-Gattern dargestellt werden, oder AND und NOT aus NOR-Gattern. Man kann somit jede logische Schaltung allein durch NAND- oder NOR-Bausteine realisieren, wenn man die Gatter-Durchlaufzeiten und die Signalflankenzeiten hinnehmen kann.
Geschichte
Mathematisch exakt wurde das Binärsystem zuerst von Gottfried Wilhelm Leibniz beschrieben (Veröffentlichung im Jahre 1705), wobei Leibniz auch erläuterte, wie unter Verwendung dieses Systems die Prinzipien der Arithmetik und Logik kombiniert werden können.
Die ersten Logikgatter wurden noch mechanisch realisiert. 1837 entwarf der englische Erfinder Charles Babbage mit der Analytical Engine eine Rechenmaschine, die heute als wichtiger Schritt in der Geschichte des Computers gilt. Seine „logischen Gatter“ arbeiteten auf Grundlage mechanischer Reaktionen, während später bereits elektromagnetische Relais verwendet wurden.
1891 meldete der US-Amerikaner Almon Strowger eine „Einheit, die einen Logikgatter-Schalterstromkreis enthält“ zum Patent an, die sich jedoch bis in die 1920er Jahre nicht etablieren konnte. 1898 begann der Erfinder Nikola Tesla mit der Archivierung und Verfeinerung solcher Einheiten und setzte den Einsatz von Elektronenröhren anstatt Relais durch. Lee De Forest änderte das Schaltungskonzept der Flemingschen Elektronenröhre im Jahr 1907 schließlich derart, dass es als Und-Gatter verwendet werden konnte.
Der österreichische Philosoph Ludwig Wittgenstein führte 1921 im Theorem 5.101 seiner Abhandlung Tractatus Logico-Philosophicus die erste Wahrheitstabelle ein, jedoch ohne sie so zu nennen.
Walther Bothe, der Erfinder der Koinzidenzschaltung, erhielt den Nobelpreis (1954) zum Teil für das erste moderne elektronische Und-Gatter aus dem Jahre 1924. Konrad Zuse entwarf und baute elektromechanische Logikgatter für seinen Computer Z1 (von 1935 bis 1938).
Der US-amerikanische Mathematiker Claude Elwood Shannon fundierte 1937 die Überlegungen Wittgensteins mit der Einführung der Booleschen Algebra in der Auswertung und Gestaltung von Stromkreisschaltungen.
Helmut Schreyer, der 1941 über Schaltungstechnik promoviert hatte, baute 1942 versuchsweise eine elektronische Rechenanlage mit 100 Röhren und 1944 einen elektronischen Übersetzer von Dezimal- in Binärzahlen.
Das erste integrierte Logikgatter geht auf Jack Kilby im Jahr 1958 zurück und umfasste etwa zehn Bauteile. Zehn Jahre später fertigte Texas Instruments Schaltkreise in Transistor-Transistor-Logik (TTL-Schaltkreise, Serie 74xx) in Großserie. Schnell wurden sie zur Basis der Industrieautomation.
Gegenwärtige Forschungsprojekte beschäftigen sich mit molekularen Logikgattern.
Wahrheitstabelle
Die möglichen Ausgangszustände eines Logikgatters können in Abhängigkeit von den Eingangszuständen in einer Wahrheitstabelle dargestellt werden. Sie listet alle möglichen Kombinationen der Eingangssignale auf und liefert die dazugehörigen Ausgangssignale. Aus dieser kann man logische Formeln relativ einfach herauslesen. Die einzelnen Zeilen mit denselben Ausgangswerten werden bei der disjunktiven Normalform (1 als Ergebnis) mit logisch oder und die einzelnen Eingänge mit logisch und verknüpft. Bei der konjunktiven Normalform (0 als Ergebnis) ist es umgekehrt. Um eine kompakte Formel zu erhalten, kann man ein KV-Diagramm (siehe unten) verwenden.
KV-Diagramm
Das Karnaugh-Veitch-Diagramm ist eine einfache Möglichkeit, aus der disjunktiven oder konjunktiven Normalform eine möglichst kompakte, logische Formel zu bilden. Durch sinnvolles Zusammenfassen von Nullen oder Einsen und „günstiges“ Interpretieren der redundanten Felder („leere“ Felder, die keinen Einfluss auf die Funktion haben) entsteht diese Kompaktform.
Typen von Logikgattern und Symbolik
Logikgatter werden mit Schaltsymbolen bezeichnet, die nach unterschiedlichen, mehr oder weniger parallel existierenden Standards definiert sind.
Früher waren auf dem europäischen Kontinent die deutschen Symbole (rechte Spalte) verbreitet; im englischen Sprachraum waren und sind die amerikanischen Symbole (mittlere Spalte) üblich. Die IEC-Symbole sind international auf beschränkte Akzeptanz gestoßen und werden in der amerikanischen Literatur (fast) durchgängig ignoriert.
Siehe auch
Liste von integrierten Schaltkreisen der 74xx-Familie
Literatur
Weblinks
Logikgatter, die nicht elektronisch, sondern mit Wasser arbeiten
Einzelnachweise
Digitale Schaltungstechnik
Schaltalgebra
|
Q170451
| 85.641051 |
5979
|
https://de.wikipedia.org/wiki/%C3%84gypten
|
Ägypten
|
Ägypten (Aussprache [] oder []; Miṣr, offiziell Arabische Republik Ägypten) ist ein Staat im nordöstlichen Afrika mit mehr als 110 Millionen Einwohnern und einer Fläche von mehr als einer Million Quadratkilometern. Die Megastadt Kairo ist ägyptische Hauptstadt und die größte Metropole Afrikas und Arabiens. Der Ballungsraum „Größeres Kairo“ ist eine der bevölkerungsreichsten Stadtregionen der Erde. Weitere Millionenstädte des Landes sind Alexandria und Gizeh. Hinsichtlich der Wirtschaftsleistung beim BIP pro Kopf liegt Ägypten auf Platz 94 von 190 Ländern (2016, PPP). Es hat als interkontinentaler Staat eine Landbrücke vom größeren afrikanischen Teil nach Asien, zur Sinai-Halbinsel.
Das Alte Ägypten gilt als eine der frühen Hochkulturen der Welt. Im 6. Jahrhundert v. Chr. wurde das Pharaonenreich eine Satrapie des Achämenidenreiches. Nach einer kurzen Wiederherstellung der ägyptischen Herrschaft und persischen Rückeroberung, übernahm Alexander der Große als Sieger über die Perser ihre westlichen Landesteile, was nach seinem Tod zur Wiederherstellung des Pharaonenreiches unter den Ptolemäer führen sollte. Alexandria wurde zum bedeutendsten Zentrum des Reiches und die ägyptische Kultur erfuhr nunmehr unter makedonischer Herrschaft ein Fortleben. Ersteres überstand das Ausgreifens Roms im südöstlichen Mittelmeer.
In der Spätantike war die Provinz Ägypten die Kornkammer des Imperiums und neben Rom Wirkungsstätte des Neoplatonismus. Die Christianisierung Ägyptens bedeutete nach dem Ende der ägyptischen Souveränität auch das Ende der ägyptischen Kultur. Nichtsdestoweniger hat Ägypten für das Christentum im Hinblick auf Jenseitsvorstellungen, der Sepulkralkultur und Bildenden Kunst eine überragende Rolle. Nach der Eroberung der Provinz durch die Sassaniden und der kurzen Rückeroberung durch Ostrom, führte die arabisch-islamischen Expansion unter ʿUmar ibn al-Chattāb zur Ausdehnung des Kalifats über Ägypten. Seitdem wird es zur Maschrek-Region des arabischen Raumes gezählt. Unter Saladin wurde die Herrschaft der Schia beseitigt und nach dem Untergang seiner Dynastie übernahmen türkische Militärsklaven, die Mamluken, die Macht. Ihre Herrschaft überdauerte die verheerende mongolische Expansion im 13. Jahrhundert. Selim I. brach 1516/1517 ihre Macht und organisierte sie nunmehr unter osmanischer Administration neu.
Die Ägyptische Expedition unter Napoleon Bonaparte bedeutete für Ägypten wie für die islamisch-arabische Welt die Konfrontation mit europäischen Invasoren und das Eingeständnis der militärischen wie technologischen Unterlegenheit. Trotz zahlreicher Modernisierungsanstrengungen unter Muhammad Ali Pascha und seiner Dynastie im 19. Jahrhundert gelang es Ägypten weder sich vom Osmanischen Reich zu lösen, noch sich dem britischen und französischen Kolonialismus zu entziehen. 1892 wurde Ägypten eine Kolonie des Britischen Weltreiches und sollte dies nominell bis 1922, de facto bis 1946 bleiben. 1952 putschten junge Offiziere gegen die Monarchie. Nach zwei unbefriedigenden Kriegen mit Israel gelang 1979 eine teilweise Lösung des Nahostkonflikts. Durch die Revolution von 2011 änderten sich kurzfristig die sozialen und politischen Verhältnisse im Land. Abgesehen von Juni 2012 bis Juli 2013 ist Ägypten seit dem Sturz der Monarchie 1953 eine Militärdiktatur mit demokratischen Elementen zwecks Legitimierung der autoritären Herrschaft. Aufgrund der starken Einbindung des Militärs in die Bevölkerung, unter anderem als wichtiger Arbeitgeber und in der Wirtschaft als Eigentümer zahlreicher Industrien, sowie der wachsenden ökonomischen Abhängigkeit vom absolutistischen Nachbarn Saudi-Arabien, ist eine Transformation Ägyptens zur Demokratie bisher gescheitert. Die Meinungsfreiheit ist stark eingeschränkt und das Regime führt innerhalb der Bevölkerung einen Kampf gegen den Terror, was willkürliche Verhaftungen und Hinrichtungen miteinschließt.
Der Tourismus ist einer der wichtigsten Wirtschaftszweige des Landes. Daneben sind Landwirtschaft und die Öl- wie Gasindustrie wichtige Einnahmequellen. Ungeachtet der hohen Bedeutung des primären Sektors ist Ägypten weiterhin auf hohe Getreideimporte angewiesen. Staatsverschuldung durch westliche, aber auch saudische und chinesische Kredite und das Bevölkerungswachstum gefährden die Prosperität. Seit 2020 werden reiche Goldvorkommen abgebaut und exportiert. Wasserknappheit und die befürchteten Auswirkungen des Klimawandels fordern die auf Rohstoffexporte ausgerichteten Wirtschaftsreformen heraus. Die Mehrheit der Ägypter, etwa 90 Prozent, sind sunnitische Muslime. Die wichtigste christliche Minderheit sind die Kopten mit circa fünf bis zehn Prozent der Bevölkerung. Landessprache ist Ägyptisch-Arabisch, welche aufgrund der kulturellen Bedeutung Ägyptens in der arabischen Welt, besonders wegen des Films und Gesangs, über die nationalen Sprachgrenzen verstehbar ist.
Überblick
Ägypten hat vor allem wegen seiner hohen Bevölkerungszahl eine enorme politische und kulturelle Ausstrahlung in der arabischen und islamischen Welt. Aber auch in der Geschichte der Zivilisation der Menschheit hatte es eine große Bedeutung, wovon viele Ausgrabungen und antike architektonische Sehenswürdigkeiten zeugen. Hier entstand bereits um 3000 v. Chr. mit dem Alten Ägypten eine der frühen Hochkulturen der Alten Welt. Das Land am Nil erlebte nach der Pharaonenzeit eine wechselvolle Geschichte von vielen Fremdherrschaften, bis es 1922 wieder seine Selbstständigkeit erlangte. Aber auch jetzt endeten die Machtkämpfe um Ägypten nicht, sie gingen im Innern weiter. Die Proteste des Arabischen Frühlings erfassten 2011 auch Ägypten. Darauf folgte die Staatskrise 2013/14.
Ägyptens Nachbarländer im Süden sind der Sudan und im Westen Libyen. Die nördliche natürliche Grenze ist das Levantische Meer, der östlichste Teil des Mittelmeeres. Die nächste Insel ist Zypern und befindet sich etwa 380 km Luftlinie von der ägyptischen Küste entfernt. Im Nordosten grenzt Ägypten an Gaza und Israel. Im Südosten hat es eine ausgedehnte Küste zum Roten Meer mit seinen beiden Meeresarmen, dem Golf von Suez und dem Golf von Akaba bzw. Eilat. Dem letztgenannten Golf liegen Saudi-Arabien und Jordanien gegenüber, wohin Fährverbindungen bestehen. Der längste Strom Afrikas, der Nil, durchfließt das Land von Süd nach Nord als seine wichtigste Lebensader und mündet in einem Delta in das Mittelmeer. Eine weitere Lebensader ist der Suezkanal, eine künstliche Wasserstraße mit herausragender Bedeutung für die Weltwirtschaft, die das europäische Mittelmeer mit dem Indischen Ozean verbindet. Große Teile des Territoriums des Landes sind Wüsten.
Geographie
Landschaft
Ägyptens Territorium hat grob gesehen eine fast quadratische Form und wird vom nördlichen Wendekreis gestreift. Die Landschaft wechselt zwischen der von Steppe bzw. Dornensavanne geprägten nördlichen Küstenlandschaft, Wüsten, Halbwüsten, vielen Oasen, Meeresflächen und der Flusslandschaft des Nils ab.
Neben dem Suezkanal von Port Said nach Port Taufiq bei Sues ist der Nil die Hauptschlagader Ägyptens. Dessen von seiner Mündung, dem 24.000 km² großen Nildelta am weitesten entfernter Quellfluss ist der Kagera, der im Gebirgsland von Burundi und Ruanda seinen Ursprung hat. Der Strom hat eine Länge von etwa 6852 km und erreicht bei Assuan nach dem Assuan-Staudamm sein natürliches Flussbett in Ägypten. Abgesehen von einigen Oasen und kleinen Häfen an den Küsten bieten allein sein Wasser und seine fruchtbaren Uferregionen die Grundlage für Anbau und Besiedlung. Diese Fläche macht etwa fünf Prozent des Territoriums aus.
Das Staatsgebiet lässt sich in sieben naturräumliche Einheiten untergliedern:
Im äußersten Süden liegt der zu Nubien und Oberägypten zählende Abschnitt des Niltals zwischen Abu Simbel und Assuan, der heute vom Nassersee eingenommen wird. Im weiteren Verlauf hat sich der Nil kastenförmig in die Kalksteintafel der Wüste eingeschnitten. Vom Austritt des Flusses aus dem Nassersee bis nach Kairo bildet das Niltal eine bis zu 25 km breite, fruchtbare Fluss-Oase.
In Unterägypten, nördlich von Kairo, gabelt sich der Nil in zwei Hauptmündungsarme zwischen Rosette und Damiette und bildet eine rund 23.000 km² umfassende, intensiv bewirtschaftete Deltalandschaft aus abgelagertem Nilschlamm, durchzogen von zahllosen kleineren Mündungsarmen, Kanälen und Bewässerungsanlagen.
Die westlich des Nils gelegene Libysche Wüste nimmt als weites, flaches Schichttafelland rund zwei Drittel der ägyptischen Staatsfläche ein. In ihrem Norden liegt das relativ niedrige Libysche Plateau, das in Ägypten bis zu 241 m Höhe erreicht. Südöstlich davon senkt sich das Gelände in der von Salzsümpfen erfüllten Qattara-Senke auf bis zu 133 m unter dem Niveau des Meeresspiegels ab, im Südwesten steigt die Wüste bis auf 1098 m an. Im Übrigen unterbrechen nur einzelne Becken und Niederungen mit den Oasen von Siwa, Bahariyya, Farafra, Dachla und Charga die von Norden nach Süden rund 1000 km lange Sand- und Dünenlandschaft. Rund 100 km südwestlich von Kairo befindet sich das 1827 km² große Fayyum-Becken, eine beckenartige Oasenlandschaft, in deren Nordteil sich der 230 km² große Qarun-See befindet.
Im Gegensatz dazu wird die östlich des Nils gelegene Arabische Wüste von einem durch Wadis stark zerfurchten Gebirgszug beherrscht, der im Mittelabschnitt mehr als 2000 m Höhe erreicht. Die Arabische Wüste ist der westliche Abschnitt einer Aufwölbungszone, deren zentraler Teil im Tertiär eingebrochen ist und heute den über 1000 m tiefen Graben des Roten Meeres bildet. Dieser wiederum ist ein Teilstück des Syrisch-Afrikanischen Grabenbruchsystems.
Die Aufwölbungszone setzt sich östlich auf der bereits zu Asien gehörenden Sinai-Halbinsel fort. Hier erhebt sich mit dem Dschabal Katrina (Katharinenberg) (2637 m) der höchste Berg Ägyptens. Der Golf von Suez und der Golf von Akaba umschließen die Halbinsel von Westen, Süden und Osten her. Durch den 162 km langen Suezkanal besteht eine Verbindung zwischen Rotem Meer und Mittelmeer.
Vom Nildelta abgesehen, säumen meist flache Dünen die ägyptische Mittelmeerküste. Dagegen sind die Küstenbereiche am Roten Meer schroffer – die Gebirgszüge reichen häufig bis nahe an das Meer heran. Aufgrund der hohen Wassertemperatur sind hier vielfach Korallenriffe vorgelagert.
Klima
Ägypten liegt innerhalb des nordafrikanischen Trockengürtels mit sehr wenig Niederschlägen sowie beträchtlichen saisonalen und täglichen Temperaturschwankungen. Nur der nördliche Küstenstreifen und das Nildelta sind mit Winterniederschlägen zwischen 100 und 200 mm mediterran beeinflusst; südlich von Kairo dagegen regnet es äußerst selten. Die mittleren täglichen Temperaturmaxima liegen im Januar zwischen 20 °C (Port Said, Kairo) und 24 °C (Assuan), wobei es nachts sehr stark abkühlen kann. Im Juli erreichen die Tagestemperaturen 31 °C (Port Said), 35 °C (Kairo) und 41 °C (Assuan). Die Hitze ist wegen der geringen relativen Luftfeuchtigkeit von etwa 30 % (im Sommer) gut zu ertragen. Von März bis Juni weht der heiße Chamsin, ein aus Süden kommender Sand- und Staubwind. An der Küste des Roten Meeres ist das Klima etwas gemäßigter mit weniger heißen Sommern (um 35 °C) und milden Wintern (auch nachts nur selten unter 10 °C).
Dank der Größe des Landes lassen sich fünf detailliertere Klimagebiete beschreiben:
Die etwa 700 km lange Mittelmeerküste und das Nildelta zeichnen sich durch milde Winter und sehr warme Sommer aus. Im Winter bewegen sich die durchschnittlichen Tagestemperaturen bei 17–20 °C, während sie in der Nacht auf etwa 8–11 °C fallen. Dazu gibt es für ägyptische Verhältnisse mit bis zu 200 mm bedeutenden Niederschlag – das entspricht rund 30 jährlichen Regentagen in der Region um Alexandria, fast alle davon im Winter. Das Frühjahr ist warm und trocken, ebenso der Herbst, wobei die höchsten Temperaturen im Frühjahr und nicht im Hochsommer gemessen wurden (42–45 °C). Im Sommer wird es sehr warm mit Tageswerten von 28 bis 32 °C beziehungsweise 19–24 °C in der Nacht. Es gibt demnach geringe Temperaturschwankungen zwischen Tag und Nacht und es fällt kein Niederschlag mehr. Die Luftfeuchtigkeit ist das ganze Jahr über relativ hoch (60–75 %), was die Luft oft heißer empfinden lässt als sie ist. Das Meer lädt im Sommer mit Werten von bis zu 28 °C zum Baden ein, im Winter kühlt es auf 16–18 °C ab.
Das untere Niltal, das sich grob als von Kairo bis Asyut reichend einteilen lässt, ist ebenfalls von milden Wintern geprägt, die Sommer sind allerdings heißer als im Nildelta und an der Mittelmeerküste, und es gibt ganzjährig kaum Niederschlag (5–30 mm). Die Luftfeuchtigkeit ist mit 40–60 % ebenfalls merklich geringer. An Wintertagen klettert die Quecksilbersäule meist auf 18–22 °C, um in den Nächten auf kältere Werte als an der Küste zu fallen (4–9 °C). Mit großen Temperaturunterschieden zwischen Tag und Nacht ist sogar Morgenfrost möglich. Frühjahr und Herbst sind kürzer und wärmer als an der Küste, die Sommer länger und heißer mit Temperaturen von 34 bis 37 °C am Tag und 20–22 °C in der Nacht. Die Spitzenwerte belaufen sich auf bis zu 48 °C.
Das obere Niltal teilt die klimatischen Eigenschaften mit den östlich und vor allem westlich davon gelegenen Wüstengebieten und Oasen. Die Winter sind ebenfalls mild (19–22 °C) mit kühlen Nächten (5–10 °C). Frühjahr und Herbst sind sehr kurz und warm, die Sommer lang (Ende April bis Ende Oktober), heiß und staubtrocken. Die durchschnittlichen Tageswerte erreichen 38–42 °C, die Nachtwerte 22–26 °C. Die Luftfeuchtigkeit ist ganzjährig eher gering (15–50 %), begleitet von beinahe völliger Niederschlagslosigkeit. In Städten wie Assuan, Luxor oder Dakhla misst man in der Regel 0–2 Regentage im Jahr. Hitzewellen können Temperaturen von über 50 °C bewirken.
Die Küstengebiete am Roten Meer kennen milde bis warme Winter mit sehr moderaten Temperaturen: kaum unter 20 °C am Tag und 10–13 °C in der Nacht. Frühjahr und Herbst sind ziemlich warm, die Sommer sehr warm bis heiß und extrem trocken. Tagsüber sind 34–38 °C zu erwarten, mit gelegentlichen Hitzeperioden von über 40 °C, nachts sinken die Werte meist nicht unter 25 °C. Die Luftfeuchtigkeit beträgt ganzjährig 30–55 %, Niederschlag gibt es praktisch nicht (0–3 Tage). Das Meer lädt mit rund 20–29 °C ganzjährig zum Baden ein.
Das Sinai-Gebirge stellt klimatisch gesehen in einer Hinsicht eine Besonderheit in Ägypten dar: Durch seine höheren Lagen fallen hier die Winter sehr kühl aus (12–15 °C am Tag, 0–5 °C in der Nacht). Frühjahr und Herbst sind dementsprechend etwas länger, die Sommer trotzdem sehr warm mit tagsüber meist 32 °C. In den Nächten fallen die Werte aber auf kühlere 15–18 °C. Im Übrigen (Niederschlag, Luftfeuchtigkeit) bietet sich hier dasselbe Bild wie anderenorts auch: 1–3 Regentage im Jahr und 20–40 % Luftfeuchtigkeit.
Flora und Fauna
Die natürliche Vegetation ist wegen der geringen Niederschläge wie auch der intensiven agrarischen Nutzung des Niltals stark eingeschränkt. Die Wüste ist fast völlig vegetationslos, vereinzelt wachsen Tamarisken, Akazien und Dornsträucher, in der Wüstensteppe auch Hartgräser; entlang dem Nilufer gruppieren sich Nilakazien, Dattelpalmen, Maulbeerfeigen und Johannisbrotbäume sowie eingeführte Kasuarinen. Typisch für das Nildelta sind Lotuspflaumen, Bambusrohr und Schilfgewächse; die im Altertum hier kultivierten Papyrusstauden gibt es kaum noch.
Die Fauna Ägyptens ist reich an Wasservögeln im Deltabereich und am Nil (v. a. Reiher, Kraniche und Nilgänse); während der Wintermonate gesellen sich viele europäische Zugvögel hinzu. An Raub- und Aasvögeln sind Milane, Bartgeier und Habichte heimisch. Zu den größeren Säugetierarten des Landes gehören – neben den domestizierten Kamelen, Eseln, Schafen und Ziegen – Schakale, Hyänen, Fenneks, Falbkatzen und – in den Gebirgsregionen – Nubische Steinböcke. Die Wüste wird von Hasen, Springmäusen, mehreren Eidechsenarten, Skorpionen belebt. In den ländlichen Gebieten am Nil kommt die Ägyptische Kobra vor; am Nassersee leben noch einige Krokodile. Im Nil und in den Seen an der Deltaküste gibt es mehr als 190 verschiedene Fischarten.
Nationalparks
Bevölkerung
Überblick
Die Ägypter siedeln primär im Niltal, im Nildelta, am Suezkanal und an touristisch bedeutsamen Orten am Meer. In den westlichen Oasen Al-Fayyūm, Dachla, Farafra, Siwa und Charga leben nur wenige Menschen. Die Region um den Nil ist eine der am dichtesten bevölkerten Flächen weltweit.
Das Bevölkerungswachstum wurde 2017 auf 2,45 % pro Jahr geschätzt. Um 1800 hatte das Land nur etwa 2,5 Millionen Einwohner und im Jahre 1900 etwa 12,5 Millionen Einwohner. 1960 waren es etwa 29 Millionen Einwohner und 2000 70 Millionen. Im Juli 2017 wurde die Gesamtzahl der Einwohner Ägyptens auf über 97 Millionen geschätzt. Das rasante Bevölkerungswachstum wird von Beobachtern als „demografische Zeitbombe“ gesehen, (vgl. Überbevölkerung und Youth Bulge) Die Lebenserwartung betrug laut Zahlen der UN im Zeitraum von 2010 bis 2015 70,8 Jahre (Frauen: 73,1; Männer: 68,7). Das Durchschnittsalter betrug im Jahr 2016 23,8 Jahre.
In der Vergangenheit, etwa zu Zeiten der Pharaonen, hatte das Land zwischen 4 und maximal 12 Millionen Einwohner, eine Bevölkerungszahl, die auch für die Spätantike angenommen wird. Rund 48 % der Ägypter lebten 2018 in Städten, 33,3 % waren unter 15 Jahre alt. Die Fertilität lag bei 3,47 Kinder pro Frau. Bis 2050 wird mit über 150 Millionen Einwohnern gerechnet.
Etwa 2,7 Millionen Ägypter lebten im Jahr 2010 im Ausland. Die meisten von ihnen, etwa 70 %, lebten in arabischen Staaten: 923.600 in Saudi-Arabien, 332.600 in Libyen, 226.850 in Jordanien und 190.550 in Kuwait. Die verbleibenden 30 % leben zumeist in Europa, beispielsweise 90.000 in Italien sowie in Nordamerika: 318.000 in den Vereinigten Staaten, 110.000 in Kanada.
2017 waren in Ägypten 0,5 % der Bevölkerung im Ausland geboren. Die größten Gruppen davon waren Syrer und Palästinenser.
Volksgruppen
Im Süden Ägyptens sind noch etwa 140.000 Nubier ansässig, eine größere Zahl lebt ebenfalls in den Städten. Viele von ihnen wurden aufgrund des Baus des Nasser-Staudamms vom Süden nach Kom Ombo umgesiedelt. In der Libyschen Wüste lebten einst Berberstämme, von denen heute allerdings nur noch wenige in der Oase Siwa wohnen. Daneben gibt es etwa 70.000 arabische Beduinen, welche nomadisch in den Wüsten des Landes leben. Ferner leben in der Wüste östlich des Nils auch Bedscha-sprachige Nomaden.
Im Norden Ägyptens leben darüber hinaus auch Italiener, Türken, Abchasen und Briten. Die einst florierenden griechischen und jüdischen Gemeinden sind nahezu verschwunden, nur eine kleine Zahl verblieb in Ägypten; jedoch besuchen viele ägyptische Juden das Land für religiöse Ereignisse und für den Tourismus: noch heute finden sich in Kairo und Alexandria viele archäologische und historische jüdische Stätten.
Sprachen
Die Amtssprache ist Arabisch. Als lokale Muttersprache wird mehrheitlich Ägyptisch-Arabisch, ein neuarabischer Dialekt, gesprochen. Schriftsprache ist jedoch seit der arabischen Eroberung im 7. Jahrhundert das Hocharabische, nur in der koptischen Kirche wird als Liturgiesprache noch das Koptische verwendet, geschrieben in einer eigenen Schrift, die von der griechischen – und einige Zeichen von der demotischen Schrift – abgeleitet ist.
Im Süden und in der Oase Charga sprechen viele Menschen Nubisch. In der Oase Siwa spricht man noch eine Berbersprache, das so genannte Siwi. Im Südosten gibt es auch Bedscha-Sprecher. Außerdem gibt es rund 230.000 Domari-Sprecher – eine indoiranische Sprache.
Als Fremdsprache ist in der Oberschicht Französisch und in letzter Zeit vor allem Englisch verbreitet. Die wichtigsten Sprachen der europäischen Minderheiten waren Griechisch, Armenisch (Westarmenisch) und Italienisch. Im Alexandria des späten 19. Jahrhunderts gab es eine große Gemeinschaft von italienischen Ägyptern, so dass Italienisch bis ins 20. Jahrhundert eine Verkehrssprache der Stadt war.
Religionen
Staatlich anerkannt sind nur Muslime, Christen und Juden. Daneben gibt es noch rund 5700 Bahais, etwa 150 Mormonen und verschiedene kleinere ägyptische Religionsgemeinschaften, die zum Teil von systematischer Unterdrückung und Verfolgung betroffen sind. Die Bahais, deren Institutionen 1960 durch ein Gesetz aufgelöst wurden, kämpfen um staatliche Anerkennung.
Muslime
Etwa 90 % der Einwohner Ägyptens bekennen sich zum sunnitischen Islam, Schiiten und Ahmadis haben zahlenmäßig nur eine sehr geringe Bedeutung. Viele ägyptische Muslime gehören einem sufischen Orden an. Besonders verbreitet sind die Schādhilīya, die Chalwatīya, die Badawīya und die Burhānīya.
Seit Ende der 1920er Jahre existiert in Ägypten mit der Muslimbruderschaft eine islamistische Massenbewegung, die zeitweise auch politisch sehr einflussreich war, aber immer wieder verboten wurde. In den 1960er Jahren, als viele Muslimbrüder in den Gefängnissen einsaßen, kam es in ihren Kreisen zu einer Radikalisierung. Der Ideologe Sayyid Qutb entwickelte seine Theorie von der Dschāhilīya und erklärte alle Muslime, die sich nicht an die Scharia hielten, für ungläubig. In den 1970er Jahren bildeten sich mehrere militant-islamistische Gruppen, die sich ideologisch an Sayyid Qutb orientierten und Terroranschläge begingen, so insbesondere at-Takfir wa-l-Higra, al-Dschamāʿa al-islāmiyya und die Dschihad-Organisation. Einige Anhänger dieser Gruppen haben sich später der Terrororganisation al-Qaida angeschlossen, so zum Beispiel Aiman az-Zawahiri, der diese Organisation bis zu seinem Tod 2022 anführte. Eine vom Sinai aus operierende militant-islamistische Gruppe sind die Ansar Bait al-Maqdis, die sich im November 2014 dem Islamischen Staat (IS) angeschlossen haben.
Sichtbares Zeichen einer zunehmenden Islamisierung der Gesellschaft sind die immer häufiger zu sehenden tief verschleierten Frauen. Dies ist unter anderem auf den stärkeren Einfluss von konservativen Strömungen aus den Golfstaaten (verstärkt durch die Rückkehr von ägyptischen Wirtschaftsmigranten aus der Region) zurückzuführen. Noch in den 1990er Jahren war die Mehrheit der ägyptischen Frauen gänzlich unverschleiert.
Christen
Vor der Islamischen Expansion im 7. Jahrhundert war in Ägypten das Christentum die dominierende Religion; der Evangelist Markus soll der Überlieferung nach in Ägypten Mitte des 1. Jahrhunderts missioniert haben. In Mittel- und Oberägypten (nicht selten in überwiegend christlichen Dörfern), aber auch in Kairo und Alexandria gibt es eine koptische Minderheit, die mit anderen Christen zwischen vier und 15 Prozent der Gesamtbevölkerung Ägyptens umfasst. Die staatlichen und kirchlichen Zahlenangaben differieren stark (nach offiziellen Angaben machen die Christen nicht mehr als sechs Prozent der Bevölkerung aus). Die ägyptischen Christen sind von Diskriminierungen betroffen; nach der Revolution 2011 haben etwa 100.000 das Land verlassen.
Andere, neben der koptischen Kirche, in Ägypten vertretene altorientalische Kirchen sind die Armenische Apostolische Kirche mit rund 15.000 Mitgliedern und die Syrisch-Orthodoxe Kirche mit lediglich rund 500 Mitgliedern. Bis heute besteht die Griechisch-Orthodoxe Kirche von Alexandrien, die mehr als 200.000 Gläubige in Ägypten zählt. Eine weitere orthodoxe Kirche mit Sitz in Ägypten ist die Orthodoxe Kirche am Sinai, der im Katharinenkloster und dessen Umgebung aber nur noch rund 50 Personen angehören.
Daneben gibt es noch kleinere christliche Gemeinschaften wie die Zeugen Jehovas mit 25.000 Mitgliedern und die Siebenten-Tags-Adventisten mit etwa 700 aktiven Mitgliedern. Die Zeugen Jehovas veröffentlichen seit ihrem Verbot im Jahr 1960 keine Daten mehr über ihre Mitgliederzahlen in Ägypten.
Juden
Bereits seit der Antike gibt es jüdische Gemeinden im Land. Heute leben in Ägypten nur noch sehr wenige Juden. 1947 waren es 75.000, 1948 noch 66.000 Juden. Infolge des Ersten Arabisch-Israelischen Kriegs, der Sueskrise und des Sechstagekriegs wurden beinahe alle ägyptischen Einwohner jüdischen Glaubens ausgewiesen und vertrieben, oder flohen. Bis 1968 mussten fast alle ägyptischen Juden auswandern oder ins Ausland flüchten. Von 1945 bis 1949 fanden auch die Pogrome von Kairo gegen die jüdische Minderheit statt.
Seit 1979 der Friedensvertrag zwischen Ägypten und Israel abgeschlossen wurde, sind die Juden in Ägypten in ihrer Religionsfreiheit nicht mehr eingeschränkt, sie bilden aber nur mehr eine marginale, überalterte Minderheit.
Nichtgläubige und Nichtreligiöse
Der Anteil an „Nichtreligiösen“ in Ägypten wuchs von rund 3 % im Jahr 2013 auf rund 10 % im Jahr 2019, obwohl nicht weiter differenziert wurde, was „nicht religiös“ für diese Menschen bedeutet; der Begriff kann alles beinhalten von „Religion ist mir nicht wichtig“ bis „ich bin überzeugter Atheist“.
Landesname
Der altägyptische Landesname Km.t (Kemet) bedeutet „Schwarzes Land“ und bezieht sich auf die fruchtbaren Böden des Niltals im Gegensatz zum „Roten Land“ der angrenzenden Wüsten, dem Dšr.t (Descheret). Im Koptischen wurde daraus Kīmi oder Kīmə, im Altgriechischen schließlich Κυμεία Kymeía.
Der arabische Begriff Miṣr, heute der offizielle Staatsname, ist semitischen Ursprungs. Er ist der ursprünglichen assyrischen Schreibweise Miṣir/Muṣur sehr ähnlich, aber auch mit dem hebräischen מִצְרַיִם (Mitzráyim) verwandt. Er bedeutet schlicht „Land“ oder „Staat“, wobei historisch damit Unterägypten (Das untere Land) gemeint war und der Name Miṣr später auf das gesamte Land (Unter- und Oberägypten) übertragen wurde. Dies kommt auch in der späteren hebräischen Bezeichnung als Dual-Begriff zum Ausdruck. Im ägyptischen Dialekt des Arabischen wird aus Miṣr allerdings Maṣr und schließlich maṣri für „ägyptisch“, der häufige Beiname al-Masri bedeutet daher „der Ägypter“.
In der Achämenidenzeit führte Ägypten als Satrapie den altpersischen Namen Mudraya.
Die europäischen Bezeichnungen für Ägypten (, , etc.) stammen von dem lateinischen Aegyptus und damit letztlich vom altgriechischen Αἰγύπτος (Aigýptos) ab. Die Kopten beanspruchen für sich, die direkten Nachfahren der altägyptischen Bevölkerung der Pharaonenzeit zu sein. Aus ihrem Namen entstand das griechische αἰγύπτος aigýptos, das im Deutschen zu Ägypten wurde. Nach einer verbreiteten Theorie stellt Aigyptos eine Fortsetzung des altägyptischen Ausdrucks ḥwt-k3-ptḥ (Hut-Ka-Ptah) dar, was „Sitz (Haus) der Seele des (Gottes) Ptah“ bedeutet und womit auf den großen Ptah-Tempel in Memphis angespielt wird.
Vom Landesnamen Ägypten leitet sich darüber hinaus in verschiedenen europäischen Sprachen das Wort für Zigeuner ab.
Geschichte
Aufstieg einer Hochkultur
Vordynastische Zeit bis 3150 v. Chr.
Pharaonenzeit (Altes Ägypten)
Frühdynastische Zeit 3032–2707 v. Chr.
Die Hochkultur Ägyptens begann um 3000 v. Chr. mit der Schaffung eines Königreiches durch die Vereinigung von Ober- und Unterägypten unter dem legendären Pharao Menes, der in Memphis residiert haben soll. Die Einteilung der Pharaonenzeit in 30 Dynastien geht auf den ägyptischen Priester Manetho zurück, der im 3. Jahrhundert v. Chr. eine ägyptische Geschichte geschrieben hat.
Altes Reich 2707–2216 v. Chr.
Mit der 3. Dynastie entstand das Alte Reich, in dem sich Staat und Gesellschaft, Kunst und Religion ausformten und der als Verkörperung des Himmelsgottes verehrte König (Pharao) autokratisch über alle 42 Gaue seines Landes herrschte. Unter Pharao Djoser (um 2610–2590) und den Herrschern der 4. und 5. Dynastie dehnte sich das Reichsgebiet bis südlich von Assuan aus. Die Pharaonen wurden jetzt als Söhne des Sonnengottes Re angesehen.
Erste Zwischenzeit 2216–2025 v. Chr.
Mittleres Reich 2010–1793 v. Chr.
Zweite Zwischenzeit 1648–1550 v. Chr.
Nach dem Zerfall des Alten Reiches gelang es erst einem Gaufürstengeschlecht aus dem Süden unter Mentuhotep II. (2061–2010) die Länder im Mittleren Reich (11. bis 14. Dynastie) wieder zu einigen. Als neue Hauptstadt wurde Theben mit den Tempelstätten Karnak und Luxor gegründet; bald lag jedoch die Residenz wieder im Norden. Um 1650 rissen die aus Asien stammenden Hyksos die Herrschaft über Ägypten an sich. Sie brachten Pferd und Streitwagen ins Land und damit eine neue Art der Kriegstechnik.
Neues Reich 1531–1075 v. Chr.
Dritte Zwischenzeit 1075–652 v. Chr.
Fürst Kamose und seinem Nachfolger Ahmose I. gelang es um 1550 v. Chr. wiederum in Theben das Neue Reich (18. bis 20. Dynastie) zu gründen, das sich unter Amenophis I. und Thutmosis I. bis nach Nubien und zum Euphrat erstreckte. Nach der Herrschaft der „Friedensfürstin“ Hatschepsut (1490–1468) unternahm Thutmosis III. Feldzüge nach Syrien und Palästina und festigte das ägyptische Großreich, das sich vom Orontes in Syrien bis zum vierten Katarakt des Nil erstreckte. Unter König Amenophis IV. (1364–1347) kam die Expansion zum Erliegen. Er kümmerte sich vorwiegend um religiöse Fragen und löste durch die Erhebung des Sonnengottes Aton zum alleinigen Gott eine geistige Revolution aus. Unter dem Namen Echnaton regierte er zusammen mit seiner Gattin Nofretete das Reich von der neu gegründeten Residenz Achet-Aton (dem heutigen Tell el-Amarna) aus. Von seinem Nachfolger Tutanchamun (1347–1338) wurde jedoch der Monotheismus zugunsten einer Dreiheit des göttlichen Prinzips wieder abgeschafft. Unter Ramses II. (1290–1224) erlebte das Neue Reich noch einmal eine Blütezeit. Doch die Völkerbewegungen um 1200 brachten eine neue Gefahr für Ägypten, das von den Hethitern, den Libyern und von Seevölkern aus dem Norden bedroht wurde. Nach dem Tod von Ramses III. (1184–1153) setzte ein rascher Niedergang ein, Ägypten löste sich unter fremden Machthabern in eine Vielzahl von Einzelherrschaften auf.
Vom Großreich zur Provinz
assyrische Provinz 667–656 v. Chr.
26. Dynastie von Sais 664–652 v. Chr.
Spätzeit 652–332 v. Chr.
Griechisch-römische Zeit 332 v. Chr.–395 n. Chr.
Spätantik-Byzantinische Zeit 395–640 n. Chr.
525 v. Chr. wurde Ägypten vom Perserreich erobert und erstmals langfristig Provinz eines fremden Weltreiches; in gewissen Grenzen wurde ihm die Selbstverwaltung und die Religionsfreiheit zugestanden. 332 v. Chr. fiel das 404 wieder unabhängig gewordene Ägypten kampflos in die Hände Alexanders des Großen, der das Land als Teil des Makedonischen Reiches hellenisierte. Nach seinem Tod 323 v. Chr. übernahm sein Feldherr Ptolemaios I. die Verwaltung der ägyptischen Provinz. 305 nahm er als Ptolemaios I. den Titel eines Königs an und begründete damit das Herrscherhaus der Ptolemäer, das Ägypten fast 300 Jahre lang regierte. Sie erhoben das von Alexander gegründete Alexandria zu ihrer Hauptstadt und orientierten sich außenpolitisch auf den Mittelmeerraum.
Nach dem Tod Kleopatras VII., der letzten Herrscherin des Ptolemäerhauses, wurde Ägypten 30 v. Chr. zur römischen Provinz. Mit der Teilung des Römischen Reiches 395 n. Chr. kam das Land unter oströmisch-byzantinische Herrschaft und verlor durch die Verlagerung der Fernhandelswege nach Konstantinopel einen Teil seiner bisherigen wirtschaftlichen Bedeutung, blieb aber als Getreidelieferant für die oströmische Hauptstadt wichtig und wohlhabend.
Andererseits blieb Ägypten wie auch Syrien von der germanischen Völkerwanderung, die den gesamten europäischen Teil des Reichs in eine existentielle Krise stürzte, unberührt. Die in den Hauptstädten der beiden nach wie vor reichsten Provinzen ansässigen Patriarchen stritten in der ersten Hälfte des 5. Jahrhunderts um die Vorherrschaft in der Reichskirche. Im Konzil von Ephesos 431 konnte Alexandria seine Positionen in der gesamten Reichskirche durchsetzen und 449 in der sogenannten Räubersynode noch einmal bekräftigen.
Im Konzil von Chalcedon 451 setzte sich aber Papst Leo der Große mit seinen theologischen Positionen durch, denen sich auch die oströmische Regierung anschloss. Das Patriarchat von Alexandria erkannte die Beschlüsse des Konzils jedoch nicht an. Es bildete sich in der Folge eine unabhängige koptische Kirche im Gegensatz zur Reichskirche, welche zumeist von den Kaisern unterdrückt wurde. Dies und ein hoher Steuerdruck war Ausgangspunkt einer starken Oppositionsbewegung gegenüber dem Oströmischen Reich.
In der Spätantike wurde Ägypten Ausgangspunkt christlicher Mission in Nubien und Äthiopien, deren Kirchen sich eng an die koptische Kirche Ägyptens anlehnten. Das Land blieb reich und ökonomisch bedeutsam, so dass ab 619 zunächst die persischen Sassaniden und dann ab 636 die muslimischen Araber versuchten, es dem Kaiser zu entreißen.
Unter der Herrschaft des Islam
Frühislamische Zeit 640–968
Umayyaden
Abbasiden
Tuluniden
Ichschididen
Fatimidenzeit 969–1171
Ayyubidenzeit 1171–1250
Mamlukenzeit 1250–1517
Osmanenherrschaft in Ägypten 1517–1801
Um 640 eroberten islamische Araber das Niltal; Ägypten wurde von nun an von wechselnden Machtzentren aus – Damaskus, Bagdad, Kairo – beherrscht. Unter den Umayyaden (661–750) siedelten sich arabische Stämme in den fruchtbaren Ebenen an und bestimmten fortan das kulturelle Erscheinungsbild Ägyptens. Mit dem Machtantritt Saladins, des Begründers der Ayyubiden-Dynastie (1171–1249), wurde Kairo zum Zentrum des muslimischen Widerstandes gegen die christlichen Kreuzzüge. Um 1250 erhob sich die Palastgarde, die sich aus Mamluken, ursprünglich zumeist türkische Militärsklaven, zusammensetzte, und übernahm die Macht. Ende des 13. Jahrhunderts vernichteten die Mamluken die letzten Kreuzfahrerstaaten auf asiatischem Boden. Auch nach der Eroberung Ägyptens durch das Osmanische Reich 1517 blieb die Verwaltung in ihren Händen. Der wirtschaftliche Niedergang als Folge der Entdeckung des Seeweges nach Indien (1498) machte Ägypten zu einer der ärmsten Provinzen des Osmanischen Reiches.
Aufstieg und Unabhängigkeit unter der Muhammad-Ali-Dynastie
Ägyptische Expedition 1798–1802
Dynastie des Muhammad Ali 1805–1882
Britische Herrschaft in Ägypten 1882–15. März 1922
Königreich Ägypten 15. März 1922–18. Juni 1953
Die Landung des französischen Expeditionskorps unter Napoleon Bonaparte im Juli 1798 beendete die Herrschaft der Osmanen. Am 1./2. August 1798 vernichtete eine Flotte der Royal Navy unter dem Kommando von Admiral Nelson die französische MittelmeerflotteAls nach dem Seesieg des britischen Admirals Nelson bei Abukir im selben Jahr die Franzosen ihren Orientfeldzug abbrechen mussten, nutzte der albanische Offizier Muhammad Ali Pascha die Situation zur Ergreifung der Macht (1805–1849). Er und seine Nachfolger konnten unter osmanischer Oberherrschaft eine gewisse Selbständigkeit erringen, betrieben eine expansive Politik und leiteten die Geschichte des modernen Ägyptens ein. Der Bau des Suezkanals (1859–1869) machte das Land derart von ausländischen Anleihen abhängig, dass die von Großbritannien und Frankreich eingerichtete Staatsschuldenverwaltung zur eigentlichen Regierung des Landes wurde. Zur Sicherung des Verbindungsweges nach Indien erwarb Großbritannien die ägyptischen Kanalaktien, besetzte 1882 das Land und machte es 1914 formell zu einem Protektorat. 1922 wurde Ägypten unter Fu'ād I. ein schon weitgehend selbständiges Königreich und erhielt nach dessen Tod 1936 die Souveränität. Im Zweiten Weltkrieg wurde der Nordwesten Ägyptens zum Schlachtfeld der deutschen und italienischen Armeen unter Erwin Rommel und den Briten unter Bernard Montgomery. Britische Truppen blieben bis 1946 im Land. 1945 war Ägypten eines der 51 Gründungsmitglieder der Vereinten Nationen.
Ägypten als Republik
1948 beteiligten sich ägyptische Armeen am arabischen Angriff auf den eben ausgerufenen Staat Israel, wurden aber, wie die anderen arabischen Armeen auch, zurückgeschlagen. Am 23. Juli 1952 (Nationalfeiertag) stürzte die Bewegung der „Freien Offiziere“ den 1936 inthronisierten König Faruk. Die Geschichte der jungen Republik Ägypten wurde zunächst von General Muhammad Nagib, anschließend von dem führenden Kopf der Revolution, Oberst Gamal Abdel Nasser (1954–1970) bestimmt. Nassers sozialistisches Regime unterhielt enge Beziehungen zur Sowjetunion. Die Verstaatlichung der Suezkanal-Gesellschaft 1956 führte zum militärischen Eingreifen Israels, Großbritanniens und Frankreichs. Die Sueskrise wurde durch Intervention der UN beigelegt. 1956 erhielten Frauen das aktive und passive Wahlrecht. Für Männer bestand Wahlpflicht, für Frauen nicht. Männer, denen das Wahlrecht zustand, waren automatisch registriert, Frauen mussten einen besonderen Antrag stellen, um ihre politischen Rechte ausüben zu können, und selbst 1972 waren erst 12 Prozent der Frauen registriert. Erst 1979 wurde dieser Nachteil für die Frauen abgeschafft.
1958 schloss sich Ägypten mit Syrien und Nordjemen zur Vereinigten Arabischen Republik (VAR) zusammen, die faktisch nur bis 1961 bestand. Im Sechstagekrieg mit Israel im Juni 1967, in dem israelische Truppen bis zum Suezkanal vordrangen, erlitt das Land eine schwere militärische Niederlage. Nach dem Tod Nassers 1970 wurde Vizepräsident Anwar as-Sadat Staatspräsident. Durch den – teilweise erfolgreichen – Jom-Kippur-Krieg 1973 versuchte Sadat, die Niederlage von 1967 wettzumachen.
1977 leitete Sadat durch eine überraschende Friedensinitiative den Dialog mit Israel ein, der 1979 zum Friedensvertrag und zum Abzug der israelischen Truppen von der Sinai-Halbinsel führte, andererseits jedoch das Land innerhalb der arabischen Welt isolierte und den Widerstand islamischer Fundamentalisten hervorrief. 1981 wurde Sadat, der 1978 zusammen mit Israels Premierminister Menachem Begin den Friedensnobelpreis erhalten hatte, das Opfer eines Attentats. Seinem Nachfolger, dem damals als Vizepräsident amtierenden Husni Mubarak, gelang es, Ägypten wieder als vollrespektiertes Mitglied in die Arabische Liga zurückzuführen. Der Präsident wurde bis zum arabischen Frühling vom Parlament mit Zweidrittelmehrheit nominiert und anschließend für sechs Jahre durch Volkswahl bestätigt. Zuletzt wurde Mubarak 2005 wiedergewählt. Kritiker merken jedoch an, dass er seit dem Erlass der Notstandsgesetze 1982 bis zu der Revolution 2011 autoritär regierte. Er herrschte demnach über ein pseudodemokratisches System. Sie sagen, dass Wahlen teilweise gefälscht oder verschoben worden waren und manche Oppositionelle nach Scheinprozessen ins Gefängnis kamen. In Ägypten existierte nur so viel öffentliche Opposition, wie Mubarak zuließ. Im von Mubarak am 1. Januar 2006 ernannten neuen Kabinett Nazif blieben die Schlüsselpositionen unverändert.
Nach der Revolution 2011
Vor dem Hintergrund der tunesischen Jasminrevolution begann am 25. Januar 2011 der Arabische Frühling in Ägypten, der sich vor allem auf die Forderung nach Rechtsstaatlichkeit, Freiheit und Demokratie richtete. Im Zuge der Revolution, bei denen circa 850 Demonstranten in Ägypten ums Leben kamen, trat Mubarak zurück. Aus den in drei Runden stattfindenden Wahlen zum Rat des Volkes zwischen dem 28. November 2011 und 10. Januar 2012 ging die von der Freiheits- und Gerechtigkeitspartei (Muslimbrüder) angeführte Demokratische Allianz für Ägypten als stärkste Kraft mit rund 45 % der insgesamt 498 Sitze hervor. Die salafistische Partei des Lichts wurde mit ca. 25 % der Sitze zweitstärkste Fraktion. Die Nachfolgerparteien der einst regierenden Nationaldemokratischen Partei (NDP) verloren stark und kamen auf nur noch 18 Sitze (2010: 420). Es folgten die liberale Neue Wafd-Partei mit 39 (6) Sitzen und der linke Ägyptische Block mit 35 Sitzen. 40 Sitze (70) belegten Unabhängige und Angehörige kleinerer Parteien.
2011 gab es in Ägypten umfangreiche Missionen des Internationalen Komitees vom Blauen Schild (Association of the National Committees of the Blue Shield, ANCBS) mit Sitz in Den Haag zum Schutz der von den Unruhen und Diebstahl bedrohten Kulturgüter (Museen, Archive, Ausgrabungsstätten, Denkmäler etc.).
Aus den Teilwahlen zum Schura-Rat, dem ägyptischen Oberhaus, im Januar/Februar 2012 gingen ebenfalls die Muslimbrüder als stärkste Kraft hervor, gefolgt von den Salafisten der Partei des Lichts und liberalen Kräften. Daraufhin kam es erstmals zu freien Präsidentschaftswahlen. Der erste Wahlgang wurde am 23. und 24. Mai 2012 abgehalten; die Stichwahl wurde am 16. und 17. Juni 2012 abgehalten. Am 24. Juni 2012 wurde das Ergebnis bekanntgegeben: Mohammed Mursi wurde demzufolge mit 51,7 % der gültigen Stimmen zum Präsidenten gewählt und mit seiner Vereidigung am 30. Juni 2012 zum amtierenden Staatsoberhaupt.
Am 15. Juni 2012 wurde das Parlament vom Obersten Militärrat formal aufgelöst und in der Folge den Mitgliedern der Zugang zum Parlament verwehrt, nachdem am Vortag der oberste Gerichtshof das Zustandekommen des Parlaments für verfassungswidrig erklärt hatte, da eine Besetzung eines Drittels der Plätze durch sogenannte „Unabhängige“ nicht erfolgt war.
Ab Juni 2012 erstellte die Verfassunggebende Versammlung, in der Muslimbrüder und Salafisten eine Mehrheit der 100 Sitze hatten, eine neue Verfassung. Über 60 Prozent stimmten beim Referendum für die neue Verfassung. Im November 2012 entzog der neu gewählte Präsident Mohammed Mursi seine Entscheidungen und Dekrete der Kontrolle durch die Justiz und erklärte sie für unantastbar. Die Gewaltenteilung setzte er damit faktisch außer Kraft.
Am 3. Juli 2013 gegen 21 Uhr MESZ verkündete Generaloberst Abd al-Fattah as-Sisi, dass Mursi nach den massiven Protesten in der Bevölkerung durch das Militär abgesetzt worden sei. Der Verfassungsrichter Adli Mansur wurde am 4. Juli 2013 nach diesem Militärputsch als Interimspräsident des Landes vereidigt.
Am 8. Juni 2014 trat der parteilose Militär as-Sisi sein Amt als Präsident an. Die unter jahrzehntelanger Misswirtschaft, Korruption und Unruhen leidende Wirtschaft litt durch das Ausbleiben der Touristen zunehmend auch unter Devisenknappheit. Auch Meinungsverschiedenheiten mit Saudi-Arabien (auch aufgrund der neuen Anlehnung an Russland) halfen nicht angesichts der sich ohnehin schließenden Geldhähne der Saudis, während die USA Hilfsgelder an andere Länder wie Tunesien umleiteten. Dass Ägypten weiterhin Geld bekam, lag an der Angst vor einem Kollaps des Landes.
Im März 2015 wurde bekanntgegeben, dass eine neue Hauptstadt 45 Kilometer östlich von Kairo gebaut werden soll.
Im April 2018 wurde as-Sisi mit knapp 97 % der Stimmen für weitere vier Jahre zum Präsidenten des Landes gewählt. An der Freiheit und Unabhängigkeit der Wahl gab es erhebliche Zweifel.
Politik
Politisches System
Die bis zur Revolution 2011 geltende Verfassung von 1971 (zuletzt geändert 2005) legte fest, dass Ägypten eine Präsidialrepublik ist; nach einem Verfassungsreferendum vom 16. Januar 2014 trat eine neue Verfassung in Kraft. Bei einer Stimmbeteiligung von 38,6 Prozent stimmten 98,1 Prozent für die von der ägyptischen Übergangsregierung vorgeschlagene neue Verfassung. Diese bestimmt das Land als semipräsidialen Einheitsstaat und verbietet die Gründung politischer Parteien, die sich auf die Religion stützen. Die Verfassung vom Januar 2014 enthält einen im Vergleich zu früheren Verfassungen erweiterten Grundrechtskatalog, der sowohl bürgerlich-politische wie auch wirtschaftliche, soziale und kulturelle Rechte umfasst. Gleichzeitig garantiert sie die Gleichheit von Mann und Frau und schützt die christliche Minderheit im Land. Jedoch räumt die neue Verfassung dem Militär einen Sonderstatus ein, zudem können Zivilisten wieder vor Militärtribunale gestellt werden.
Stellvertretender Vorsitzender des Obersten Ägyptischen Verfassungsgerichts war seit 1992 Adli Mansur.
Präsident
Der Präsident ist Staatsoberhaupt und Oberbefehlshaber der Streitkräfte, ernennt den Premierminister und die Mitglieder des Kabinetts sowie die Gouverneure, die hohen Richter und Offiziere. Er hat zudem ein Vetorecht bei der Gesetzgebung, kann Dekrete erlassen und das Parlament auflösen.
Seit einer Ankündigung des ehemaligen Präsidenten Hosni Mubarak vom 26. Februar 2005 wird der Präsident durch freie Wahlen mit mehreren zugelassenen Kandidaten gewählt.
Im Zuge des arabischen Frühlings wurde im Mai / Juni 2012 bei der Präsidentschaftswahl Mohammed Mursi zum Präsidenten gewählt.
Am 3. Juli 2013 wurde Mursi nach tagelangen Massenprotesten gegen seine Politik durch einen Militärputsch abgesetzt. Dies löste gewaltsame Auseinandersetzungen aus und führte zu einer Staatskrise.
Seit dem 8. Juni 2014 ist As-Sisi Präsident Ägyptens.
Parlament
Das Einkammerparlament Ägyptens besteht aus dem Rat des Volkes mit 596 Mitgliedern. Bis 2014 hatte Ägypten ein Zweikammersystem: Das „Volksrepräsentantenhaus“ hatte 454 Abgeordnete, von denen 444 alle fünf Jahre gewählt (seit 1986 400 Abgeordnete über Parteilisten und 44 als parteilose Direktkandidaten) und zehn vom Staatsoberhaupt ernannt wurden; beratendes Legislativorgan war ab 1981 der Schura-Rat mit 210 Mitgliedern, von denen zwei Drittel alle drei Jahre gewählt und ein Drittel vom Staatsoberhaupt ernannt wurden. Für alle Ägypter im Alter ab 18 Jahren bestand eine Wahlpflicht. Gemäß der nach dem Militärputsch von 2013 eingeführten neuen Verfassung kann der Präsident das Parlament vorzeitig auflösen. Die 2010 eingeführte Quote von 64 zusätzlichen Parlamentssitzen für weibliche Abgeordnete wurde abgeschafft.
Die letzten Parlamentswahlen fanden 2015 statt. Die Freiheits- und Gerechtigkeitspartei, der politische Arm der Moslembrüder und Wahlsieger der letzten Wahl von 2012, wurde nach dem Militärputsch el-Sisis im September 2013 verboten, sodass dieses Mal ein Großteil der Abgeordneten (351 von 596) aus parteilosen und Sisi-nahen „Unabhängigen“ besteht. Wahlsieger wurde die ebenfalls den Präsidenten Sisi unterstützende Liste „In Liebe zu Ägypten“ mit 173 der 245 an Parteien vergebenen Abgeordneten.
Religion und Staat
Ägypten ist der Verfassung nach ein islamischer Staat. Das islamische Recht, die Scharia, ist seit 1980 die Hauptquelle der Gesetzgebung. Wichtigste staatliche islamische Institution Ägyptens ist die Azhar, die eine eigene Universität mit 49 Fakultäten, die über das ganze Land verteilt sind, sowie über 80 Institute für die religiöse Ausbildung auf der Primar- und Sekundarstufe unterhält. Sie wird von dem Scheich al-Azhar angeführt, der gleichzeitig als die oberste islamisch-religiöse Autorität des Landes gilt und Ministerrang hat. Eine weitere wichtige islamisch-staatliche Institution ist das Ministerium für religiöse Stiftungen, dem auch der Oberste Rat für islamische Angelegenheiten unterstellt ist.
Das islamische Erziehungssystem in Ägypten ist generell auf die Vermittlung von Werten wie Respekt und Toleranz gegenüber Andersgläubigen ausgerichtet, allerdings wird in den Büchern, die den Lehrplan bestimmen, auch unmissverständlich vermittelt, dass der Islam den anderen Religionen gegenüber überlegen sei. Terrorismus und Extremismus werden jedoch streng verurteilt und den Schülern dringend empfohlen, sich davon fernzuhalten.
Theoretisch gewährt Artikel 18 der ägyptischen Verfassung allen Bürgern Religionsfreiheit, aber in der Praxis ist diese eingeschränkt. Lange Zeit konnte man auf staatlichen Ausweisen nur zwischen den drei offiziell anerkannten Religionen Islam, Christentum und Judentum wählen. Angehörige anderer Religionen müssen ihren Glauben entweder verleugnen, oder sie erhalten keine Ausweise und verzichten dadurch weitgehend auf ihre Bürgerrechte. Nach einem jahrelangen Rechtsstreit änderte der Staat die Praxis der Ausweisausstellung dahingehend, dass bei Angehörigen anderer Religionen das entsprechende Feld durchgestrichen wird. Ersteres trifft auf Muslime zu, die zu einer anderen Religion, wie dem Christentum, konvertieren; für solche Personen wird von zahlreichen Politikern und Religionsgelehrten sogar die Todesstrafe gefordert. Die christliche Minderheit in Ägypten sieht sich heute mit immer stärkeren Diskriminierungen seitens der ägyptischen Behörden und der islamischen Religionsvertreter konfrontiert.
Politische Indizes
Grund- und Menschenrechtssituation
Pressefreiheit
Die Pressefreiheit bzw. Arbeit von Rundfunk, Presse und anderweitigen Medien ist in Ägypten, aufgrund von Drohung, Einschüchterung bzw. Nötigung durch staatliche Stellen stark eingeschränkt. In der Rangliste der Pressefreiheit nimmt Ägypten (Stand 2023) den 166. Platz ein. Journalisten müssen fürchten, im Gefängnis zu landen, wenn sie kritisch bzw. investigativ über die Regierung berichten.
Religionsfreiheit
Besonders in Oberägypten sind die als christliche Minderheit oft benachteiligten Kopten Ziel von Terror und Schutzgelderpressungen radikaler Muslime geworden. Neue koptische Kirchen dürfen zwar gebaut werden, bedürfen aber wegen des zum Teil immer noch gültigen Hamayouni-Dekret aus dem Jahre 1856 eine Erlaubnis des ägyptischen Präsidenten. Auch kleinere Reparaturen erfordern einen Präsidialerlass. Auch war Ägypten 1966 daran beteiligt, die in der Menschenrechtsdeklaration von 1948 enthaltene Formulierung „the freedom to change his religion or belief“ abzuschwächen, sodass es nun in Artikel 18 des Internationalen Pakts über bürgerliche und politische Rechte heißt: „the freedom to have or adopt a religion or belief.“
Frauenrechte
Ägypten hat die UN-Frauenrechtskonvention nur mit Vorbehalten ratifiziert und das Zusatzprotokoll zur Frauenrechtskonvention nicht unterzeichnet. Nach USAID-Angaben erlitten 2005 96,4 % der damals 10 bis 14 Jahre alten ägyptischen Mädchen eine Genitalverstümmelung; eine UNICEF-Statistik gibt, bezogen auf das Jahr 2003, eine Inzidenz von 97,0 % in der Altersgruppe der zwischen 15 und 49 Jahre alten Frauen an. Damit lag das Land weltweit an der Spitze bei der Verstümmelung weiblicher Genitalien. Im Zuge des Verfassungsreferendums im Jahr 2012 wurde ein Absatz zur Gleichstellung der Frau aus der Verfassung gestrichen. Obwohl laut Spiegel bereits seit 2007 Genitalverstümmelungen verboten sind, haben laut UNICEF-Statistiken von 2015 87 % der Frauen zwischen 15 und 29 Jahren eine Genitalverstümmelung erlitten. Durch ein verschärfendes Gesetz mit einer Erhöhung der Haftstrafe für Täter auf bis zu 20 Jahre soll die Durchführung von Genitalverstümmelungen weiter gesenkt werden, auch wenn laut UNICEF nur 38 % der zwischen 15 und 49 Jahre alten Frauen die Praxis beenden wollen.
Folter
In Ägypten ist Folter verbreitet.
Die am häufigsten geschilderten Foltermethoden sind Elektroschocks, Schläge, das Aufhängen an Hand- oder Fußgelenken, das Ausdrücken von Zigaretten auf dem Körper sowie verschiedene Formen der psychologischen Folter und Misshandlung, darunter die Androhung der Vergewaltigung oder sexuellen Misshandlung von Gefangenen oder deren weiblichen Verwandten. Die Regierung der USA benutzte, wie im Fall des Imams Abu Omar, Ägypten als Zwischenstopp für Personen, die vom CIA entführt wurden und beauftragte dafür unter anderem die CIA-Firma Aero Contractors. In Ägypten wird außerdem auch die Todesstrafe angewandt.
Die Meinungsfreiheit ist in Ägypten schon seit Jahren eingeschränkt und hatte sich mit der Präsidentschaft von Husni Mubarak noch verschlechtert. Vor dem 5. Jahrestag der Revolution im Januar 2016 wurden zahlreiche Verhaftungen von Demonstranten, Journalisten und anderen bekannt, offensichtlich weil die Regierung verstärkte Proteste zum Jahrestag befürchtete. Bei Protesten gegen die Regierung der Muslimbrüder kam es 2012 zu schweren Ausschreitungen. Oppositionelle Demonstranten wurden verwundet und inhaftiert, viele davon brutal geschlagen.
Die Videoplattform YouTube wurde aufgrund eines islamfeindlichen Videos Anfang 2013 für einen Monat gesperrt. Unter Mursi wurden unter anderem kritische Journalisten mit Klagen wie Verleumdung, Beleidigung des Präsidenten und Verunglimpfung des Islam bereits verurteilt, sowie Herausgeber und Chefredakteuren von staatlichen Zeitungen wurden mit regierungstreuen Journalisten ersetzt. Beispielsweise wurde 2013 eine koptische Lehrerin wegen Gotteslästerung verurteilt.
Nach der Staatskrise in Ägypten 2013 verbesserte sich die Menschenrechtslage nicht. Allein am 3. Juli 2013 wurden 660 Männer verhaftet. Darunter prominente Anhänger des früheren Präsidenten Mohammed Mursi und Mitglieder der Freiheits- und Gerechtigkeitspartei. In den Gefängnissen wurden diese geschlagen, mit Elektroschocks gefoltert und mit Gewehrkolben malträtiert.
Homosexualität
Homosexualität ist in Ägypten illegal. Nach einer 2013 durchgeführten Erhebung glauben 95 % der Ägypter, dass diese nicht von der Gesellschaft akzeptiert werden sollte.
Außenpolitik
Ägypten ist Mitglied der Vereinten Nationen, der Welthandelsorganisation (WTO), der Afrikanischen Union (AU) und der Arabischen Liga. Ägypten ist neben Jordanien das einzige Land im Nahen Osten, das Frieden mit Israel geschlossen hat. Die auf Verständigung mit Israel ausgerichtete Politik wird von Islamisten – unterstützt von Iran, Libyen und Sudan – dazu genutzt, gegen den Staat Ägypten zu opponieren. Die Islamisten wurden von Mubarak auf Grundlage der seit 1981 bestehenden Notstandsgesetze bekämpft.
Die Vereinigten Staaten nahmen Ägypten 1989 in die Liste ihrer wichtigsten Verbündeten außerhalb der NATO auf. Damit wird Ägypten auf dessen Anfrage hin bei individuell festgelegten amerikanischen Rüstungsprogrammen anderen Ländern gegenüber bevorzugt, sogar gegenüber einigen NATO-Mitgliedern. Bei einer fünftägigen Nahost-Reise bat die US-amerikanische Außenministerin Condoleezza Rice am 22. Februar 2006 ihren Amtskollegen Ahmed Aboul Gheit um Unterstützung für Washingtons Kurs gegenüber dem Iran und der von der Hamas geführten Palästinensischen Autonomiebehörde.
Nach Gesprächen mit der deutschen Bundeskanzlerin Angela Merkel und dem österreichischen Präsidenten Heinz Fischer in Berlin und Wien, bei denen ebenfalls der Nahost-Friedensprozess und das iranische Atomprogramm Thema waren, rief Mubarak am 13. März 2006 Israel und die Hamas zu sofortigen Friedensgesprächen und zur Beendigung der Gewalt auf. Nach dem Abzug jüdischer Siedler aus dem Gazastreifen einigten sich Ägypten, Israel und Palästina Mitte September 2005 darauf, dass zur Kontrolle der rund 14 km langen Grenze zwischen Ägypten und dem Gaza-Streifen 750 ägyptische Soldaten postiert werden.
Nach der Revolution und der Machtübernahme der Muslimbrüder verschlechterten sich die Beziehungen zu Israel. Der islamistische Präsident Mohammed Mursi unterstützte während der Operation Wolkensäule die Hamas. Außerdem bezeichnete er die Zionisten in einem Video als Nachfahren von Affen und Schweinen. Mursi besuchte auch Deutschland, wo er sagte, dass er nicht die Juden, sondern lediglich die Personen, die am Blutvergießen Schuld tragen, gemeint hatte. Mursi ist ein Unterstützer der Aufständischen in Syrien, was Beziehungen zum Iran verschlechterte. Trotzdem ist er der erste ägyptische Präsident, der nach der Islamischen Revolution Beziehungen zum Iran wiederherstellte.
Nach dem Sturz Mursis verbesserten sich die Beziehungen zu Russland, während das Verhältnis mit den Vereinigten Staaten angespannt ist, da diese nach dem Umsturz finanzielle Hilfe einfroren.
Anfang 2018 wurde bekannt, dass Ägypten und Israel eng bei der Bekämpfung von Terroristen im Sinai zusammenarbeiten und Präsident as-Sisi seit 2015 mehr als 100 israelische Luftangriffe auf ägyptisches Staatsgebiet durch israelische Flugzeuge, Kampfhubschrauber und Drohnen genehmigte. Gleichzeitig griff as-Sisis Regierung offiziell Israel in Reden und Artikeln immer wieder an.
Militär
Die Streitkräfte Ägyptens werden als die stärkste Militärmacht auf dem afrikanischen Kontinent angesehen und rechtfertigen den Status einer Regionalmacht im Nahen Osten. Im Jahr 2010 betrug das Militärbudget 2,4 Milliarden US-Dollar, wobei rund 1,3 Milliarden durch die Militärhilfe aus den USA finanziert wurden. Die Streitkräfte unterstehen dem Staatsoberhaupt, der auch gleichzeitig als Oberkommandant den höchsten militärischen Rang bekleidet. Organisiert sind die Streitkräfte in vier Zweigen: Einerseits die klassischen Sparten des Ägyptischen Heeres, der Luftwaffe und der Ägyptischen Marine; zusätzlich fungiert das Luftverteidigungskommando als eigene Teilstreitkraft des Militärs. In Ägypten herrscht eine dreijährige Wehrpflicht für Männer ab achtzehn Jahren. Aufgrund des starken Bevölkerungswachstums werden allerdings nicht mehr sämtliche Rekruten eingezogen, da einer Jahrgangsstärke von über 800.000 Dienstpflichtigen 450.000 aktive Soldaten gegenüberstehen. Allerdings verfügt der Staat noch zusätzlich über circa 250.000 paramilitärische Kräfte, die dem Innenministerium unterstehen und zur Inneren Sicherheit herangezogen werden. Mit der außenpolitischen Annäherung unter Anwar as-Sadat eröffnete sich Ägypten auch den Zugang zu US-amerikanischen Waffenlieferungen, die seit den achtziger Jahren zu einer bedeutenden Modernisierung der Streitkräfte beigetragen haben.
Verwaltungsgliederung
Ägypten ist in 27 Gouvernements (, Singular ) unterteilt, an deren Spitze jeweils ein Gouverneur im Ministerrang steht. Der ausgeprägte Zentralismus Ägyptens soll allmählich zugunsten einer größeren Selbstverwaltung auf regionaler Ebene abgebaut werden. Die größten Städte sind (Mio. Einwohner, Stand: 2006) Kairo (7,8), Alexandria (4,1) und Gizeh (3,1), Schubra al-Chaima (1,0), Port Said (0,6), Sues (0,5) und Luxor (0,5).
Soziale Lage
Alle Arbeitnehmer sind sozialversichert; es gibt eine Kranken-, Alters- und Invalidenversicherung, die jedoch nur geringe Grundabsicherungen übernehmen. Geleistet werden auch Hinterbliebenenrenten, Krankengeld und Arbeitslosenunterstützung. Durch geringe Löhne und die Arbeitslosigkeit (Arbeitslosenquote 2017 bei 11,9 % mit einer hohen verdeckten Arbeitslosigkeit) müssen rund 20 % der Bevölkerung unter der Armutsgrenze von zwei US-Dollar pro Tag leben.
Unabhängige Gewerkschaften werden unterdrückt, konnten aber nach mehreren Protesten 2010 ihr Recht zu einer offiziellen Gründung durchsetzen. Erschwerend kommt hinzu, dass von den einst drei Millionen ägyptischen Gastarbeitern im Ausland sehr viele wieder in ihre Heimat zurückgekehrt sind – vor allem aus Kuwait und aus dem Irak. Generell lässt sich sagen, dass auf dem Land eine saisonale Arbeitslosigkeit typisch ist; in den Städten herrscht dagegen eher permanente Unterbeschäftigung. Die Inflation lag im gleichen Zeitraum bei 4,5 % im Durchschnitt.
Stand 2020 leben mehr als 30 Millionen Ägypter laut Regierungsangaben unterhalb der Armutsgrenze (von weniger als 45 Dollar im Monat).
Das Gesundheitssystem ist in den Städten für afrikanische Verhältnisse relativ gut entwickelt, auf dem Lande gibt es noch gravierende Lücken. Einseitige Ernährung und mangelnde Hygiene sind Ursachen für endemische Krankheiten (etwa Bilharziose); ein weiteres Problem stellen die verschiedenen Arten von Hepatitis, insbesondere Hepatitis A und C, dar. Zugleich bilden fortgeschrittene Hepatitis-Erkrankungen eine der Haupt-Todesursachen für die einheimische Bevölkerung Ägyptens. Zu den weiteren wichtigen Krankheiten im Land zählt Diphtherie; Malaria tritt dagegen eher selten auf.
Entwicklung der Lebenserwartung in Ägypten
Quelle: UN
Bildung
Umfassende Reformen und Investitionen, strategische Konzepte und Modernisierungen im Bildungswesen sind dringend erforderlich. Jahrzehntelange Versäumnisse haben zu einer Stagnation im staatlichen Schulwesen geführt. Das starke Bevölkerungswachstum und der damit einhergehende ständig steigende Bedarf an Bildungseinrichtungen stellt die ägyptische Regierung vor eine enorme Herausforderung.
Allgemeine Schulpflicht bei kostenlosem Unterricht besteht für 6- bis 12-Jährige. Das derzeitige Schulsystem wurde 1952 eingeführt; ihm zufolge schließen sich an die Grundschule eine dreijährige Vorbereitungs- und eine dreijährige Sekundarschule an, darauf folgt die Hochschulausbildung. In Ägypten stieg die mittlere Schulbesuchsdauer über 25-Jähriger von 3,5 Jahren im Jahr 1990 auf 7,1 Jahre im Jahr 2015 an. Im Jahr 2021 betrug die Schulbesuchserwartung 13,8 Jahre. Die Analphabetenquote betrug im Jahr 2015 etwa 26 %. Ein Grund dafür liegt darin, dass auf einen Lehrer rund 50 Schüler kommen und weniger Mädchen als Jungen die Schule besuchen. Ägypten ist zwar um die Förderung der Geschlechtergerechtigkeit in der Bildung bemüht – konkret lässt sich dieser Versuch aber nicht mit Zahlen belegen. Viele der eingeschulten Mädchen verlassen die Schulen frühzeitig, um im Haushalt zu helfen oder verheiratet zu werden. Aufgrund der geringen öffentlichen Bildungsausgaben hat sich in Ägypten ein wesentlicher privater Bildungssektor herausgebildet, der aufgrund der Armut und der Gebühren aber nur einem kleinen Teil zur Verfügung steht. Es gibt 26 staatliche Universitäten. Neben den staatlichen Universitäten gibt es auch mehr als 50 staatliche nicht-universitäre Bildungseinrichtungen. Außerdem gibt es 31 private Universitäten sowie weitere nicht-universitäre private Hochschuleinrichtungen. Eine Besonderheit stellt die Kairoer al-Azhar-Universität dar; sie ist seit 983 Zentrum islamischer Gelehrsamkeit.
Flüchtlinge
Bei der gewaltsamen Räumung eines von rund 2500 sudanesischen Flüchtlingen in einem Park in der Kairoer Innenstadt errichteten Zeltlagers durch Sicherheitskräfte am 30. Dezember 2005 kamen 26 Sudanesen ums Leben, zahlreiche wurden verletzt. Bei den Sudanesen handelte es sich um abgewiesene Asylbewerber, die mit ihrem drei Monate dauernden friedlichen Sitzstreik die Wiederaufnahme ihrer Asylverfahren hatten erwirken wollen. Nach Prüfung jedes einzelnen Falles durch die Behörden in Zusammenarbeit mit dem UNHCR wurden bis zum 30. Januar 2006 alle 462 bei der Räumung Festgenommenen wieder auf freien Fuß gesetzt. Die Regierung erklärte, die Flüchtlinge, darunter viele aus der Krisenregion Darfur, würden nicht abgeschoben.
Wirtschaft
Ägypten hat die nach Südafrika stärkste Industrie Afrikas. Die Landwirtschaft spielt dennoch weiterhin eine erhebliche Rolle. Das Bruttoinlandsprodukt (BIP) des Landes betrug im Jahr 2014 ca. 286 Mrd. EUR. Das Bruttoinlandsprodukt pro Kopf betrug im selben Jahr 3.250 EUR. Die Wirtschaft Ägyptens wuchs 2016 um 4,3 Prozent.
Die zuvor eher sozialistische Planwirtschaft Ägyptens wurde ab den 1970er Jahren unter Präsident Anwar as-Sadat liberalisiert und nach außen geöffnet. Insbesondere in den 1990ern wurden mehrere staatliche Unternehmen privatisiert. Ägypten ist nach Südafrika das am stärksten industrialisierte Land Afrikas, allerdings ist die Landwirtschaft nach wie vor eine wichtige Grundlage der Wirtschaft und ein großer Teil der Erwerbsbevölkerung ist in ihr beschäftigt. Der große informelle Sektor (v. a. Dienstleistungen; Schätzungen gehen von 30 % des BIP aus) nimmt zudem einen Großteil der Arbeitskräfte auf. Bei einem Netto-Bevölkerungswachstum von jährlich rund 2 Millionen Menschen ist die Arbeitslosigkeit und insbesondere Jugendarbeitslosigkeit besonders hoch (offiziell wird die Jugendarbeitslosigkeit mit 28 % angegeben, Schätzungen gehen von höheren Zahlen aus). Ägypten hat ein großes Interesse an ausländischen Direktinvestitionen und fördert diese gezielt. Zahlreiche Handelshemmnisse und Bürokratie schrecken potentielle Investoren jedoch ab. Staatliche Unternehmen sowie das ägyptische Militär spielen im Wirtschaftsleben eine starke Rolle. Die Haupteinnahmequellen Ägyptens sind der Erlös aus dem Erdölexport und der Benutzung des Suezkanals sowie die Gastarbeiterüberweisungen und der Tourismus. Ein gravierendes Problem ist die hohe Auslandsverschuldung, sie betrug 2016 über 90 Prozent der Wirtschaftsleistung. Die Einkommensverteilung im Land ist sehr ungleich. Eine größere Rolle in der Wirtschaft kommt auch dem Militär zu, das zahlreiche Unternehmen betreibt. In den letzten Jahren zeigt sich ein Steigen von Armut, verbunden mit Devisenknappheit und stark gesunkenen Tourismus-Einnahmen. Die Zerrissenheit der politischen Landschaft scheint wirtschaftliche Reformen zu verzögern. Internationale Lebensmittelhilfen (Getreide) werden diskutiert. 2016 verlor die Währung Ägyptens fast die Hälfte ihres Werts.
Im Global Competitiveness Index, der die Wettbewerbsfähigkeit eines Landes misst, belegt Ägypten Platz 100 von 138 Ländern (Stand 2017–2018). Im Index für wirtschaftliche Freiheit belegte Ägypten 2018 Platz 139 von 180 Ländern.
Wirtschaftszahlen
Landwirtschaft
Die landwirtschaftliche Nutzfläche (rund 3 % der Staatsfläche) ist auf das Niltal und das Nildelta sowie einige Oasen begrenzt. Die Bauern (Fellachen) bewirtschaften das Land mit teilweise jahrtausendealten Anbau- und Bewässerungsmethoden. Die Bewässerungsmethoden am Nil wurden jedoch ab Ende des 19. Jahrhunderts von Überschwemmungsbassins auf eine ganzjährige Bewässerung durch Kanalisation umgestellt. Dabei hat sich der landwirtschaftliche Anbau von einer Subsistenz- zu einer Exportorientierung gewandelt, so dass relativ betrachtet weniger landestypische Nahrungsmittel wie Hirse, Saubohnen und Kohl geerntet werden. Um die stark wachsende Bevölkerung zu ernähren, müssen große Mengen importiert werden – im Jahr 1980 wurden über 5 Mio. Tonnen Weizen aus dem Ausland eingeführt, das sind dreimal so viel, wie in Ägypten selbst angebaut wurde. Da weite Teile Ägyptens – mit Ausnahme der bereits genutzten Flächen – sehr arid sind, kaum Wasserquellen für eine künstliche Bewässerung existieren und eine landwirtschaftliche Nutzung daher nicht möglich ist, ist ein Ende der hohen Zahl an Importen nicht in Sicht. Zurzeit werden jedoch im Rahmen des Toshka-Projekts Teile der ägyptischen Wüste westlich des Nil für die Landwirtschaft nutzbar gemacht. Das traditionell bedeutendste Produkt ist die Baumwolle. Außerdem werden Zuckerrohr, Mais, Reis, Weizen, Hirse, Kartoffeln, Obst und Gemüse angebaut. Die Viehhaltung ist aus Mangel an Dauergrünland auf Futtermittelanbau angewiesen. Rinder und Büffel dienen als Last- und Arbeitstiere sowie neben Schafen und Ziegen der Fleisch- und Milchgewinnung.
Industrie
Bei den größeren Industriebetrieben herrscht meist eine enge Verflechtung zwischen Regierung und Wirtschaft (Regierungsmitglieder als Teilinhaber). Die Zahl privater Unternehmen, zum Teil mit ausländischer Beteiligung wie im Fahrzeugbau, hat seit den 1970er Jahren deutlich zugenommen. Die ältesten Gewerbezweige sind die Verarbeitung von Baumwolle, Zucker und anderen Agrarprodukten. Später kamen Zement-, Düngemittel-, Eisen-, Stahl- und Aluminiumerzeugung, Elektro- und chemisch-pharmazeutische Industrie, Erdölverarbeitung sowie Maschinen- und Fahrzeugbau hinzu. Eines der größten Privatunternehmen ist die Firma Asfour Crystal International (ca. 23.000 Mitarbeiter in Kairo – el Shobra), die auf dem Gebiet der Erzeugung von Bleikristall mit über 30 % Bleigehalt und damit mit der Erzeugung von Kristalllustern für den Privatgebrauch wie auch für die industrielle Nutzung Weltmarktführer sind. Seit 2001 ist das Unternehmen unter anderem auch Weltmarktführer von kristallenen Schmucksteinen und Kristallfiguren. Aufgrund der geringen Exportkraft (siehe Außenhandel) nehmen Aufträge der Regierung für die Produzenten von Baumaterial (Stahl, Zement usw.) eine wichtige Rolle ein.
Bodenschätze, Energie
Der bedeutendste Bodenschatz ist das Erdöl, das vor allem im Golf von Suez, in der Kattarasenke und auf der Sinai-Halbinsel gefördert wird. Außerdem werden Rohphosphate, Eisen- und Manganerze sowie Salz gewonnen. Meist noch unerschlossen sind die Vorkommen von Asbest, Schwefel, Buntmetallen und Uranerzen. Das seit 1975 geförderte Erdgas wird ausschließlich im Inland zur Energieerzeugung und für die Düngemittelproduktion verwendet. Der Bau mehrerer Wärmekraftwerke auf Erdgasbasis sowie einiger Kernkraftwerke ist geplant. Die zwei Wasserkraftwerke am alten Assuan-Staudamm sowie am neuen Hochdamm erzeugen etwa 15 % des ägyptischen Stroms; senkt sich der Wasserspiegel des Nassersees jedoch weiter, ist die Stromerzeugung gefährdet.
Im November 2011 wurde berichtet, dass Ägypten auf Erneuerbare Energien umzusteigen plant. Den Prognosen zufolge wird der Stromverbrauch des Landes jährlich um rund acht Prozent steigen. Eine erste Solarfarm zur Unterstützung der thermischen Stromerzeugung mit 20 MW ging 2011 in Betrieb, bis 2020 sollte der Anteil erneuerbarer Energie bei 20 Prozent liegen. Ebenfalls bis 2020 soll die Kapazität von Windkraftanlagen auf 7,2 GW erhöht werden; Mitte 2013 waren rund 550 MW in Betrieb. Die Windenergienutzung wird durch Ausschreibungen gefördert. Für PV-Solarparks mit 2000 MW installierter Leistung wurde 2015 eine Absichtserklärung unterzeichnet, Mitte 2016 gab es jedoch noch keine substantiellen Fortschritte. 2018 wurde der Solarpark Benban mit einer geplanten Leistung von 1800 MW in Betrieb genommen. Er gehörte zum Zeitpunkt seiner Inbetriebnahme zu den leistungsstärksten Solaranlagen der Welt.
Im November 2015 bzw. März 2016 wurden dagegen Kauf- und Finanzierungsverträge für die drei Gaskraftwerke Beni Suef, Burullus und New Capital abgeschlossen, die nach ihrer 2018 geplanten Fertigstellung mit einer Leistung von je 4800 MW voraussichtlich die drei größten weltweit sein werden. In der Summe werden deren jährliche CO2-Emissionen in etwa denen der größten Braunkohlekraftwerke weltweit in Bełchatów bzw. Neurath entsprechen. Gleichwohl gab es für die Finanzierung eine Garantie der Bundesrepublik Deutschland mittels Hermesbürgschaft.
Außenhandel
Die Außenhandelsbilanz ist schon seit Jahren defizitär. Die Einfuhren können bei weitem nicht durch die Exporteinnahmen finanziert werden, was zu einer enormen Auslandsverschuldung geführt hat. Importiert wurden 2004 Güter im Wert von 19,8 Mrd. US$, darunter 18 % Nahrungsmittel, 17 % Maschinen und Fahrzeuge, 13 % industrielle Vorerzeugnisse, 11 % chemische Erzeugnisse, 8 % Rohstoffe und 8 % Brennstoffe. Die Waren stammten zu 13 % aus den USA, 7 % aus Deutschland, 7 % Italien, 5 % Frankreich, 5 % VR China, 5 % Vereinigtes Königreich, 4 % Saudi-Arabien und 3 % Spanien.
Exportiert wurden im gleichen Zeitraum Güter im Wert von 10,4 Mrd. US$, darunter 40 % Brennstoffe und technische Öle, 20 % industrielle Vorerzeugnisse, 9 % Nahrungsmittel, 8 % Rohstoffe, 5 % chemische Erzeugnisse und 4 % Fertigerzeugnisse. Hauptabnehmer waren zu 13 % Italien, 12 % USA, 7 % Vereinigtes Königreich, 5 % Deutschland, 5 % Spanien, 4 % Frankreich, 3 % Niederlande, 2 % Jordanien, 2 % Türkei, 2 % Südkorea und 2 % Saudi-Arabien.
Staatshaushalt
Der Staatshaushalt umfasste 2016 Ausgaben von umgerechnet 92,37 Mrd. US-Dollar, dem standen Einnahmen von umgerechnet 60,09 Mrd. US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 9,7 % des BIP.
Die Staatsverschuldung betrug im Jahr 2016 ca. 322 Mrd. US-Dollar oder 97 % des BIP.
2006 betrug der Anteil der Staatsausgaben (in % des BIP) folgender Bereiche:
Gesundheit: 6,3 %
Bildung: 4,2 %
Militär: 3,4 % (2005)
Tourismus und Verkehr
Der Tourismus ist eine der wichtigsten wirtschaftlichen Einnahmequellen im Land. Besonders die ägyptischen Altertümer sind ein großer Anziehungsmagnet für ausländische Besucher. Thomas Cook erfand hier 1869 die Pauschalreise, in dem er Briten und Amerikaner durch das Land der Pharaonen lotste. Neben Gizeh, Kairo und Alexandria wird auch Luxor gern besucht, von wo aus unter anderem das Tal der Könige erreicht werden kann. Luxor ist auch der Ausgangspunkt für Nilkreuzfahrten bis nach Assuan. Von dort werden Flüge und Bus-Touren nach Abu Simbel angeboten. Die meisten Reiseveranstalter bieten dann einen Inlandsflug nach Kairo und nach diesem Kairo-Aufenthalt einen Badeurlaub in Hurghada an.
Die Revolution in Ägypten 2011 wirkte sich direkt auf den Tourismussektor aus. 2010 wurden noch 14,7 Millionen Touristen gezählt, davon 1,3 Millionen aus Deutschland. 2011 waren es nur noch 9,8 Millionen Touristen, von denen rund 965.000 aus Deutschland kamen.
Die Touristenhochburg ist Hurghada am Roten Meer. Der moderne Touristenort Scharm asch-Schaich an der Südspitze der Sinai-Halbinsel ist besonders bei Freunden des Tauchsports sehr beliebt, in den letzten Jahren kamen auch immer mehr Unterwasser-Sportler ins nördlich davon gelegene Dahab. Durch den allgemein weiter steigenden Tauch-Tourismus werden auch Orte südlich von Hurghada, entlang der westlichen Küste des Roten Meeres, erschlossen. Hierzu zählen al-Qusair und Marsa Alam sowie kurz vor der sudanesischen Grenze asch-Schalatin. In absehbarer Zeit wird sich die Grenze zum Hala’ib-Dreieck öffnen. 30 km vor der Grenze zu Sudan liegt 20–25 km landeinwärts der Gebel-Elba-Nationalpark, der sich als neuer Touristenmagnet anbietet.
Wichtigster Verkehrsträger ist die Eisenbahn, das Netz der Ägyptischen Staatsbahnen (Streckenlänge rund 7700 km) ist das älteste in ganz Afrika. Es konzentriert sich wie das Straßennetz (Gesamtlänge rund 45.000 km; zwei Drittel sind befestigt) auf das Niltal und das Nildelta. Ein Straßentunnel unter dem Suezkanal verbindet das ägyptische Kernland mit der Sinai-Halbinsel. Eine wichtige Rolle spielt der 162 km lange Suezkanal zwischen dem Mittelmeerhafen Port Said und Port Taufiq bei Sues am Roten Meer. Nach mehreren Ausbaustufen kann er von Schiffen bis zu 240.000 DWT befahren werden, d. h. von der großen Mehrzahl aller Schiffe. Der größte, zeitweise stark überlastete Seehafen ist Alexandria. Außerdem sind 3.350 km Binnenwasserstraßen schiffbar, auf denen 25 % des Güterverkehrs abgewickelt werden. Kairo, Alexandria, Marsa Alam und Luxor verfügen über internationale Flughäfen.
Der Tourismus wurde und wird durch Terroranschläge beeinflusst: Diese gab es in den 1990er und 2000er Jahren. Bedeutende Ereignisse waren Luxor 1997, Sinai 2004 und 2005 und 2006 in Dahab. Unbekannte Täter zündeten am 23. Juli 2005 an drei Orten in dem von ausländischen Touristen stark frequentierten Badeort Scharm asch-Schaich auf der Sinai-Halbinsel insgesamt 400 Kilo Sprengstoff, dabei wurden 64 Menschen getötet und mehr als 200 verletzt. Zu den Anschlägen bekannten sich neben den der al-Qaida nahestehenden Abdullah-Assam-Brigaden, die auch für die Anschläge vom Oktober 2004 in Taba verantwortlich zeichneten, eine weitere bisher unbekannte Terrororganisation. Bis zum 26. Juli hatte die Polizei 140 Verdächtige festgenommen. Nach Angaben des Innenministeriums wurden am 14. August die beiden Hauptschuldigen der Bombenserie dingfest gemacht. Zu weiteren blutigen Terroranschlägen kam es in Dahab. Am 24. April 2006 explodierten in dem Badeort auf der Sinai-Halbinsel drei Sprengsätze, dabei kamen mindestens 23 Menschen ums Leben und 80 weitere wurden zum Teil schwer verletzt. Daraufhin verlängerte das Parlament den seit 1981 geltenden Ausnahmezustand um zwei Jahre. Sicherheitskräfte nahmen bis Mitte Mai rund 40 Verdächtige fest und töteten sieben mutmaßliche Attentäter beziehungsweise Drahtzieher der Anschläge. Am 9. Mai wurde der Anführer der Terrororganisation Tauhid wal Dschihad, die für die jüngsten Anschläge verantwortlich gemacht wird, bei einem Feuergefecht im Norden des Sinai getötet.
Ägypten weist im Sinai und an der Grenze zu Libyen nach mehreren Kriegen immer noch die Gefahr von Landminen auf.
Aus Sorge um das mögliche Fernbleiben der Touristen wegen verendender Tiere, Stränden voller Plastikmülls gilt in einer Provinz des Landes seit Juni 2019 ein Einwegplastikverbot. Diese Provinz Bahr Al-Ahmar erstreckt sich 800 Kilometer entlang des Roten Meers bis zur Grenze zum Sudan. Der Gouverneur droht gestuft mit einer Verwarnung, dann mit einem Bußgeld, beim dritten staatlich festgestellten Verstoß mit Betriebsschließung. Die ägyptische Nichtregierungsorganisation HEPCA setzt strategisch begleitend auf Vorträge in Schulen, Verteilen von Mehrweg-Einkaufstaschen und Aufzeigen von Alternativen. Von vielen Einheimischen wird Umweltschutz als ein Luxusproblem angesehen.
Kultur
Die Kulturgeschichte Ägyptens reicht 6000 Jahre zurück. Das alte Ägypten gehörte zu den ersten Zivilisationen und behielt über Jahrtausende hinweg eine enorm komplexe und stabile Kultur, die spätere Kulturen in Europa, dem Nahen Osten und Afrika beeinflusste. Nach der pharaonischen Ära geriet Ägypten selbst unter den Einfluss des Hellenismus, des Christentums und der islamischen Kultur. Heute sind viele Aspekte der alten ägyptischen Kultur immer noch präsent und spielen mit neueren Elementen zusammen, unter anderem dem Einfluss der modernen westlichen Kultur.
Kairo ist seit Jahrhunderten eines der geistigen und kulturellen Zentren der arabischen Welt. Die Stadt ist Sitz der renommierten islamischen Hochschule al-Azhar und des Oberhaupts der koptisch-orthodoxen Kirche. Sie gilt als wichtigstes Zentrum des arabischen Buchmarkts und beheimatet große Bibliotheken, Museen und das erste Opernhaus der arabischen Welt. Kairo ist wichtiges Zentrum der arabischen Filmindustrie. Auch für viele ausländische Medien ist die ägyptische Hauptstadt Standort und Nachrichtenumschlagplatz für die arabischen Länder. Zu den wichtigsten kulturellen Veranstaltungen zählen die Internationale Buchmesse Kairo, das Internationale Filmfestival und das Internationale Festival für Experimentelles Theater. Darüber hinaus gibt es eine weiterhin aktive unabhängige Kulturszene. Zahlreiche Galerien, Ausstellungsflächen, Musiklabels und Veranstaltungsorte, die sich oft in leerstehenden Gebäuden in der prächtigen, aber maroden Innenstadt befinden, bieten ein abwechslungsreiches Programm und sind eng mit der internationalen Kulturszene vernetzt. Viele Künstler aus diesen Kreisen haben in den letzten Jahren den Durchbruch geschafft und stehen auf internationalen Festivals hoch im Kurs. Ihre Werke reflektieren oft die politischen Umbrüche der letzten Jahre. Seit 2015 unterlag die unabhängige Kulturszene als Treffpunkt freier Meinungsäußerung aber auch immer häufiger verstärkter staatlicher Kontrolle und Repression.
Ägypten hat zudem die höchste Anzahl von Nobelpreisträgern in Afrika und der gesamten arabischen Welt. Einige in Ägypten geborene Politiker nehmen wichtige Positionen in großen internationalen Organisationen ein, wie Boutros Boutros-Ghali in der UN und Mohammed el-Baradei in der IAEA.
Weiterhin ist Ägypten als kultureller Vorreiter und somit „Trendsetter“ der arabischsprachigen Welt bekannt, weshalb die zeitgenössische arabische Kultur sehr von ägyptischer Literatur und Musik sowie ägyptischen Filmen und Fernsehen geprägt wird. Seine regionale Dominanz gewann Ägypten zwischen 1950 und 1960.
Kulturelle Identität
Das Niltal war die Heimat einer der ältesten Kulturen der Welt, deren Geschichte über 3000 Jahre andauerte. Eine Serie verschiedener Fremdherrschaften nach 343 v. Chr. drückte der ägyptischen Kulturlandschaft ihren Stempel auf. Die ägyptische Identität entwickelte sich in dieser langen Periode der Besatzungen grundsätzlich aus der Anpassung an zwei neue Religionen, Islam und Christentum, und einer neuen Sprache, nämlich Arabisch, heraus. Aus dem Arabischen entstand daraufhin das ägyptische Arabisch.
Nach 2.000 Jahren der Besetzung bildeten sich drei Ideologien heraus, die unter den jetzt unabhängigen Ägyptern verbreitet waren: einerseits der sogenannte ethno-territoriale ägyptische Nationalismus, der auch als „Pharaonismus“ bekannt ist, andererseits der säkulare arabische Nationalismus bzw. Pan-Arabismus und der Islamismus. Dabei geht der ägyptische Nationalismus seinem arabischen Gegenstück um mehrere Dekaden voraus, weil er seine Wurzeln im 19. Jahrhundert hat, wo er Ausdrucksform der antikolonialistischen Aktivisten und Intellektuellen bis zum frühen 20. Jahrhundert war. Unter Nasser erreichte der arabische Nationalismus seinen absoluten Hochpunkt im Sinne des Nasserismus, folgend klang er unter Sadat wieder ab. Währenddessen fand der Islamismus, wie er etwa von der Muslimbruderschaft vertreten wird, Anklang in kleineren Teilen der unteren Mittelschicht.
Die Arbeiten des Gelehrten Rifāʿa at-Tahtāwī führten im frühen 19. Jahrhundert zur ägyptischen „Renaissance“ (Nahda), die den Übergang vom Mittelalter zum frühmodernen Ägypten darstellt. Ebendiese Arbeiten haben das Interesse an ägyptischen Antiquitäten erneuert und die ägyptische Gesellschaft mit den Prinzipien der Aufklärung in Kontakt gebracht. Tahtawi gründete zusammen mit dem Bildungsreformer Ali Pascha Mubarak eine heimische Schule der Ägyptologie, die sich an mittelalterlichen Gelehrten, wie Suyūtī und Maqrīzī, orientierte; diese studierten selbst die Geschichte, Sprache und die Antiquitäten Ägyptens.
Durch die Arbeit von Personen wie Muhammad Abduh, Ahmed Lutfi el-Sayed, Muhammad Loutfi Goumah, Taufiq al-Hakim, Louis Awad, Qasim Amin, Salama Moussa, Taha Hussein und Mahmoud Mokhta erreichte die kulturelle „Renaissance“ ihren Hochpunkt im späten 19. und frühen 20. Jahrhundert. Sie ebneten einen liberalen Weg für Ägypten, der sich in einem Bekenntnis zu persönlicher Freiheit, Säkularismus und Glaube an die Wissenschaft um des Fortschrittes willen äußert.
Kunst und Architektur
Ägypten war eine der ersten Zivilisationen, der es gelang Gestaltungselemente in Kunst und Architektur zu chiffrieren. Die im Dienste der Pharaonen geschaffenen Wandmalereien folgten einem rigiden Code visueller Regeln und Bedeutungen. Die ägyptische Zivilisation ist weltweit berühmt für ihre gewaltigen Pyramiden, Tempel und Gräber. Zu den bekanntesten Beispielen gehören die Pyramide von Djoser, welche von dem Architekten und Ingenieur Imhotep gestaltet wurde, der Große Sphinx von Gizeh und der Tempel von Abu Simbel. Moderne und zeitgenössische ägyptische Kunst kann sich mit der weltweiten Kunstszene messen, von der funktionalen Architektur Hassan Fathys und Ramses Wissa Wassefs über Mahmoud Mokhtars Skulpturen bis zu den charakteristischen koptischen Ikonografien von Isaac Fanous.
Die Kairoer Oper fungiert als Hauptveranstaltungsort darstellender Künste in der Hauptstadt. Seit dem 19. Jahrhundert florieren Medien- und Kunstindustrie, im heutigen Ägypten gibt es mehr als dreißig Satellitensender und es werden etwa 100 Filme im Jahr produziert. Kairo ist auch bekannt als „Hollywood des nahen Ostens“; das jährlich stattfindende Cairo International Film Festival wurde als eines von elf Festivals weltweit durch die International Federation of Film Producers’ Associations mit einer Top-Class-Bewertung beurteilt. Um die Medienindustrie weiter zu fördern, insbesondere im Hinblick auf den Wettbewerb aus den Golfstaaten und dem Libanon, wurde eine große „Media-City“ errichtet. Ein bekannter ägyptischer Schauspieler war Omar Sharif.
Medien
Die ägyptischen Massenmedien verfügen über großen Einfluss in der arabischen Welt, vor allem durch ihr beträchtliches Publikum. Auch wenn die Freiheit der Medien durch die Verfassung theoretisch garantiert wird, beschneiden nach wie vor viele Gesetze dieses Recht. Außerdem ist – als in der Vergangenheit – die Mehrheit der Redaktionen der ägyptischen Medien Stand 2022 im Besitz oder unter Kontrolle der Regierung.
Aufgrund der in Ägypten stark eingeschränkten Pressefreiheit ist die Onlinezeitung Mada Masr (Stand 2022) eine der letzten verbliebenen unabhängigen Publikationen.
Die Egyptian Radio and Television Union (ERTU) ist die staatliche Rundfunkgesellschaft Ägyptens. Das Deutsche-Welle-TV begann im Februar 2005 täglich drei Stunden arabisches Programm über den ägyptischen Satelliten NileSat in den Nahen Osten auszustrahlen.
Das Internet wurde 2016 von 30,8 Millionen Ägyptern oder 33,0 % der Bevölkerung genutzt. Soziale Medien haben eine Rolle im Arabischen Frühling gespielt.
Literatur
Die Literatur ist ein wichtiges Element des kulturellen Lebens in Ägypten; ägyptische Romanautoren und Poeten waren unter den ersten, die mit modernen Stilrichtungen der arabischen Literatur experimentierten. Die von ihnen entwickelten Formen wurden im ganzen nahen Osten nachgeahmt. Das erste moderne Buch in ägyptischer Umgangssprache „Zaynab“ von Muhammed Husayn Haykal wurde 1913 veröffentlicht. Salama Moussa kämpfte für die Vereinfachung der hocharabischen Literatursprache, die auch heute von vielen Menschen nicht verstanden wird. Sein Schüler, der Autor Nagib Mahfuz, war der erste arabischsprachige Autor, der den Nobelpreis für Literatur gewann. Zu den ägyptischen Schriftstellerinnen zählen Nawal El Saadawi, die für ihren feministischen Aktivismus sehr bekannt ist, und Alifa Rifaat, die unter anderem über Frauen und Tradition schreibt.
Landessprachliche Lyrik ist wahrscheinlich das unter den Ägyptern populärste Literaturgenre, die Gattung wird besonders durch Ahmed Fouad Negm (Fagumi), Salah Jaheen und Abdel Rahman el-Abnudi vertreten. In ihrem Glauben wurden Boote von den Toten verwendet, um die Sonne bei ihrem Weg um die Welt zu begleiten, der Himmel wird als „obere Gewässer“ bezeichnet. In der ägyptischen Mythologie greift der schlangenförmige Gott Apophis jede Nacht das Sonnenboot an, während es die Sonne (und somit die Ordnung) am Morgen zurück zum Königreich bringt. Das Boot wird auch „Boot der Millionen genannt“, da alle Götter und Seelen der gesegneten Toten eines Tages gebraucht werden, um es zu verteidigen und zu steuern.
Musik
Die ägyptische Musik ist eine reiche Mischung arabischer, mediterraner, afrikanischer und westlicher Elemente. Im alten Ägypten wurden vor allem Harfen, Längsflöten und Rohrblattinstrumente gespielt. Perkussion und Vokalmusik sind schon immer ein wichtiger Teil der lokalen Musiktraditionen, verbreitet sind die Flöten Nay und Schabbaba und die Laute Oud. Zu regionalen Volksmusikstilen gehören die Leiern Simsimiyya und Tanbura sowie die Spießgeige Rebab. Zeitgenössische ägyptische Musik führt ihre Wurzeln auf die Arbeiten etwa von Abdu-I Hamuli, Almaz und Mahmud Osman zurück; diese beeinflussten somit die bedeutenden Musiker Sayed Darwish, Umm Kulthum, Mohamed Abdelwahab und Abdel Halim Hafez. Um 1970 nahm die Wichtigkeit der ägyptischen Popmusik für die Kultur immer weiter zu, während Folk weiterhin auf Hochzeiten und anderen Festlichkeiten gespielt wurde. Zu den prominentesten zeitgenössischen Popmusikern zählen Amr Diab und Mohamed Mounir.
Feste
In Ägypten werden viele Festivals und religiöse Volksfeste, bekannt als „mulid“, gefeiert. Diese sind meist verbunden mit einem bestimmten koptischen oder sufistischen Heiligen, werden aber häufig von allen Ägyptern unabhängig von Glaube und Religion gefeiert. Der Ramadan in Ägypten hat eine eigene Note; er wird mit Musik, Lichtern (örtliche Laternen werden „fawannes“ genannt) und vielen Feuern begangen, was muslimische Touristen aus der Region in das Land zieht, um das Spektakel zu betrachten. Das alte Frühlingsfest Sham el Nisim (koptisch „shom en nisim“) wird seit tausenden von Jahren gefeiert, typischerweise zwischen den Monaten des ägyptischen Kalenders Paremoude (April) und Pashons (Mai), dem Ostersonntag folgend.
Sport
Fußball ist der Nationalsport Ägyptens. Die bekanntesten Teams, die den Ruf von alteingesessenen regionalen Champions besitzen, sind folgende:
al Ahly SC (Kairo)
al Zamalek SC (Kairo)
Ismaily SC (Ismailia)
al-Ittihad (Alexandria)
al-Masry (Port Said)
Bedeutenden Spielen gelingt es, die Straßen von Ägypten zu beleben, da der Sieg eines Teams häufig Anlass für Feierlichkeiten ist. Besonders das Spiel al Ahly gegen al Zamalek, auch bekannt als Kairoer Derby, wird als eines der leidenschaftlichsten und auch kämpferischsten Spiele der Welt angesehen. Der BBC bezeichnete es als eines der härtesten Derbys der Welt. Die ägyptische Fußballgeschichte ist umfangreich, da Fußball dort seit mehr als 100 Jahren gespielt wird. Das Land war Gastgeber vieler afrikanischer Wettkämpfe, z. B. des Africa Cup of Nations. 1990 qualifizierte sich die Nationalmannschaft Ägyptens zunächst zum letzten Mal für eine Weltmeisterschaft, ehe zur Weltmeisterschaft 2018 wieder die Qualifikation gelang. Die Afrikameisterschaft hat sie unerreichte siebenmal gewonnen, zweimal in Folge (1957 und 1959) sowie dreimal in Folge (2006, 2008 und 2010), was kein Team zuvor geschafft hatte.
Eine weitere populäre Sportart in Ägypten ist Squash. Die ägyptische Squashnationalmannschaft nimmt seit den 1930er Jahren an internationalen Wettbewerben teil und wurde seitdem fünfmal Weltmeister im Mannschaftswettbewerb. Ägyptens beste Spieler sind Amr Shabana, der viermal die Weltmeisterschaft gewann und insgesamt 33 Monate die Weltrangliste anführte, sowie Ramy Ashour, der dreimal Weltmeister wurde. Bei den Damen gewann Nour El Sherbini als erste Ägypterin 2015 die Weltmeisterschaft.
Handball ist ein weiterer beliebter Mannschaftssport. Das ägyptische Handballteam zählt zu den stärksten des Kontinents und hat den dritthöchsten Medaillenstand der Handball-Afrikameisterschaft. Ägypten war 1999 und erneut 2021 Ausrichter der Handball-Weltmeisterschaft der Männer.
2007 unternahm Omar Samra zusammen mit Ben Stephens (England), Victoria James (Wales) und Greg Maud (Südafrika) eine Expedition auf den Mount Everest. Diese Expedition begann am 25. März und dauerte etwas länger als sieben Wochen. Am 17. Mai um genau 9:49 Uhr nepalesischer Zeit wurde Omar Samra der erste Ägypter, der jemals den 8848 Meter hohen Berg erklommen hat.
Ägypten nimmt seit 1912 an den Olympischen Sommerspielen teil. Die Sportverbände sind eng mit den staatlichen Autoritäten verbunden und haben hierdurch einen doppelten Einfluss: Sie kontrollieren den Zufluss staatlicher Gelder und die Lizenzvergabe an private Investoren und Medienanstalten.
Special Olympics Ägypten wurde 1995 gegründet. Der Verband hat seine Teilnahme an den Special Olympics World Summer Games 2023 in Berlin angekündigt. Dem Team werden 69 Athletinnen und Athleten sowie 37 Trainer angehören. Die Delegation wird vor den Spielen im Rahmen des Host Town Programs von Essen betreut.
Literatur
Zum Alten Ägypten:
Umfangreiche Literaturliste zum Thema
Jean Bingen: Hellenistic Egypt: monarchy, society, economy, culture. Edinburgh University Press, Edinburgh 2006, ISBN 0-7486-1578-4.
Lucia Gahlin: Ägypten. Götter, Mythen, Religionen; ein faszinierender Führer durch Mythologie und Religion des alten Ägypten zu den grossartigen Tempeln, Grabmälern und Schätzen der ersten Hochkultur der Menschheit. EDITION XXL, Reichelsheim 2005, ISBN 3-89736-312-7.
Hermann A. Schlögl: Das Alte Ägypten. (= Beck'sche Reihe 2305; C. H. Beck Wissen). Beck, München 2003, ISBN 3-406-48005-5.
Länderkunde:
Anne-Béatrice Clasmann: Der arabische (Alb-)Traum. Aufstand ohne Ziel. 2. Auflage. Passagen Verlag, Wien 2016, ISBN 978-3-7092-0217-3 (Passagen Thema), S. 119–150 (= Die ägyptische Illusion).
Fouad N. Ibrahim, Barbara Ibrahim: Ägypten. Geographie, Geschichte, Wirtschaft, Politik. (= WBG-Länderkunden). Wissenschaftliche Buchgesellschaft, Darmstadt 2006, ISBN 3-534-17420-8.
anonym: Aegypten; was es war – ist – und seyn könnte, oder Beschreibung der Städte, Einwohner, Religion, Sitten, Produkte, Flüsse [et]c. dieses Landes. Berlin 1799 (Digitalisat).
Fachlexika:
Weblinks
Egypt State Information Service (Agentur des ägyptischen Ministeriums für Information; englisch)
Länderinformationen des Auswärtigen Amtes zu Ägypten
Egypt country profile auf BBC News (englisch)
Politikwissenschaftliche Literatur zum Thema Ägypten in der Annotierten Bibliografie der Politikwissenschaft
Daniel Hechler: „Schlimmer als je zuvor“. Zehn Jahre Revolution in Ägypten. tagesschau.de, 24. Januar 2021 (abgerufen am 28. Januar 2020)
Einzelnachweise
Staat in Afrika
Staat in Asien
Präsidialrepublik (Staat)
Mitgliedstaat der Vereinten Nationen
|
Q79
| 6,480.81246 |
15077
|
https://de.wikipedia.org/wiki/Wellington
|
Wellington
|
, offizielle Bezeichnung: (, wobei damit der und seine Umgebung gemeint ist), ist die Hauptstadt von Neuseeland und stellt zusammen mit den angrenzenden Städten , und nach den zweitgrößten Ballungsraum des Landes dar. Die Stadt Wellington selbst hat rund 213.000 Einwohner.
Namensherkunft
wurde nach , benannt. Die -Bezeichnung bezieht sich auf den angrenzenden und bedeutet übersetzt „Der große Hafen des Tara“, während nur die transkribierte Version von „“, der früheren Bezeichnung für die Stadt, ist. Aufgrund seiner Lage – liegt exponiert an der Südspitze der Nordinsel – bietet die Stadt Angriffsfläche für starke Windströmungen und Fallwinde, daher der Spitzname: „“ (Windige Stadt).
Geographie
Geographische Lage
liegt am südlichen Ende der Nordinsel. Die Stadt verfügt über eine reine Landfläche von 290 km² und zählte im Jahr 2022 213.000 Einwohner. Damit ist die Stadt zwar flächenmäßig die zweitkleinste Stadt der vier eigenständigen Städte in der Region Wellington, ist aber mit 658,7 Einwohner pro km² die Stadt mit der dritthöchsten Bevölkerungsdichte des Landes, hinter und .
Im Norden und Nordosten der Stadt bilden die Stadtgebiete von und die Grenze, im Westen tut dies die Küstenlinie der Tasmansee, im Süden die Küstenlinie der und im Osten der . Der westliche Teil der Stadt ist durch eine Berglandschaft geprägt, die mit dem hohen Outlook Hill an der Südspitze ihren Höhepunkt findet.
Die Gegenden im Westen des bebauten Gebiets von steigen relativ steil zu einer hügeligen Mittelgebirgskette an, so dass die dort gelegenen Stadtteile mitunter um einiges höher als das Stadtzentrum liegen. Aufgrund seiner geographischen Beschaffenheit wird oft mit verglichen. Der südlich des Stadtzentrums gelegene ist ein beliebter Aussichtspunkt und eine der markantesten geographischen Besonderheiten der Stadt. Die (spanisch; Seeblick) bildet den östlichsten Punkt der Stadt. Auf dem zu dieser Halbinsel führenden Isthmus befindet sich der Internationale Flughafen der Stadt und direkt östlich dieser Halbinsel die Hafeneinfahrt in den mit dem berüchtigten , dem schon zahlreiche Schiffe zum Opfer fielen. Die , die 1968 an dem Riff gesunken ist und 52 Menschen in den Tod gerissen hat, ist das wohl bekannteste Opfer. Im Naturhafen selbst gibt es die drei Inseln , () und , von denen nur die erste bewohnt ist. Im Norden mündet einer der großen Flüsse der Nordinsel, der / in die Bucht. In seinem Tal, dem befinden sich die Städte im Norden und südlich davon. Die beiden Städte werden westlich von den Bergen des als Ausläufer der und östlich von der eingegrenzt.
Einordnung der angrenzenden Städte
Häufig werden die angrenzenden Städte , und irrtümlich als Teil von angesehen, sind aber eigenständige Städte mit einem eigenen (Stadtrat). Wirtschaftlich gesehen und aus Sicht der Einwohnerzahlen und der Besiedlungsdichte könnte man aber von einem zusammenhängenden Ballungsraum sprechen, zumal die öffentlichen Institutionen, die Wirtschaft, die Infrastruktur und das öffentliche und politische Leben auf als Hauptstadt ausgerichtet ist.
Geologie
wird von einer aktiven geologischen Verwerfung durchzogen. Unweit des heutigen Stadtzentrums schiebt sich die leichtere dicke Australische Platte über die dünnere, aber schwerere Pazifische Platte. Die Bewegungen dieser beiden Platten führen zur Bildung dreier großen geologischen Störungen, die entweder mitten durch die Stadt oder nahe an ihr vorbeiführen: die , die und die , allesamt Ursachen für Erdbeben in der Region. Die führt vom kommend geradewegs durch das Stadtzentrum von . Wegen der häufig auftretenden und der Gefahr großer Erdbeben in und um entwickelte sich die Stadt zu einem der weltweit führenden Zentren zur Untersuchung geologischer Plattenverschiebungen.
Zahlreiche Erdbeben haben die Landschaft in und um in den zurückliegenden Jahren bereits verändert. So wurde der Erdboden sowohl an der West- als auch an der Ostküste nach einem Erdbeben im Jahr 1400 um bis zu drei Meter gehoben, was den gesamten Küstenverlauf vollkommen veränderte.
Das Wairarapa-Erdbeben von 1855, das den Boden der Stadt zur hin ansteigend um bis zu 6,4 m anhob, erzeugte einen bis zu 10 m hohen Tsunami und gilt mit einer Stärke von 8,2 WM als das stärkste Erdbeben in Neuseeland an Land seit der Erdbebenaufzeichnungen.
Klima
befindet sich in der gemäßigten Klimazone. Der Spitzname der Stadt, , sagt einiges über die klimatischen Verhältnisse der Stadt aus. Die exponierte Lage sorgt für starke Windströmungen. Außerdem ist Wellington die einzige Hauptstadt der Erde, die innerhalb des Einflussbereichs der (deutsch: Donnernde Vierziger) liegt. Der Begriff „“ bezeichnet eine Zone starker Westwinddriften zwischen 40° und 50° südlicher Breite. Trotz dieser besonderen Lage treten schwere Stürme nur im Herbst und im Winter auf.
Insgesamt scheint in öfter und länger die Sonne als in oder , die beide nördlicher und somit näher zum Äquator liegen. Pro Jahr sind es über 2035 Stunden; außerdem regnet es weniger als in oder . Die durchschnittliche Niederschlagsmenge pro Jahr liegt bei etwa 1251 mm, wobei es im Winter, also von Mai bis August, in der Regel mehr regnet als im Sommer. Die durchschnittlichen Januar-Temperaturen schwanken zwischen 13,3 °C (durchschnittliches Minimum) und 20,6 °C (durchschnittliches Maximum), während die durchschnittlichen Temperaturen im Juli zwischen 5,6 °C und 11,7 °C liegen.
Geschichte
Frühe Besiedlung
Die früheste Bezeichnung für die Gegend um das heutige ist „“ (englisch: ) oder „Der Kopf von Mauis Fisch“. Der Begriff ist auf die fischähnliche Form der neuseeländischen Nordinsel zurückzuführen. Dieses Gebiet war von jeher etwas Besonderes, da der „Kopf eines Fisches“ nach den Bräuchen der mehr wert ist als der Rest. Neuzeitliche archäologische Funde und Untersuchungen an gefundenen Knochen der von Einwanderern eingeführten Pazifischen Ratte (polynesischer Name: Kiore) mit Hilfe der Radiokarbonmethode belegen die Ankunft der Polynesier in Neuseeland derzeit um das Jahr 1280 n. Chr. Die Region um gilt neben dem als das erste Siedlungsgebiet des Landes.
Nach der Mythologie der wurde dem Helden die Ehre zuteil, einen großen Fisch zu fangen, der heute die neuseeländische Nordinsel bildet, während sein Kanu die Südinsel darstellt. Weiter heißt es, dass der auf der einen und der auf der anderen Seite die Augen des Fisches sind. Der Mund wird von der repräsentiert, während und die äußersten Kieferknochen darstellen. Die Bergketten , und die stehen für das Rückgrat des Fisches.
Abgesehen von diesen Entstehungsmythen gilt der polynesische Entdecker nach Legenden der als erster Mensch, der das Gebiet um das heutige im 10. Jahrhundert n. Chr. betrat. Nachdem er ein paar Inseln einen Namen gegeben hatte, kehrte er, ohne das Gebiet zu „kolonisieren“, wieder in seine Heimat, die polynesischen Inselgruppen, zurück. Einige Jahre später schickte ein großer -Anführer namens seine beiden Söhne und von der an der aus Richtung Süden. Nachdem die beiden den heutigen erreicht hatten, errichteten sie eine erste Siedlung auf der (spanisch: Seeblick). Ihre Nachkommen begründeten zahlreiche aufstrebende Stämme (z. B. , oder ). Der Name ist in zahlreichen geographischen Benennungen verewigt, so wurde der seit dieser Zeit als „“ (englisch: , der „große Hafen des Tara“) bezeichnet, was heutzutage auch die offizielle -Bezeichnung der Stadt ist. Die Bezeichnung zeugt ebenfalls von dieser Zeit. Nachdem 1819 -Stämme die Stämme und vertrieben hatten, wanderten diese in Richtung weiter. Infolgedessen kam es zu kriegerischen Auseinandersetzungen mit den dort heimischen Stämmen.
Europäische Besiedlung
Zur Zeit der ersten europäischen Entdecker des Gebiets durch im Jahr 1642 und durch im Jahr 1770 waren die Ufergegenden am übersät mit kleinen -Siedlungen, in genannt. Obwohl beide Seefahrer an Land anlegen und das Gebiet erforschen wollten, scheiterten sie bei ihren ersten Versuchen wegen der äußerst starken Strömung in der und deren schwierigen Windverhältnissen. Knapp 70 Jahre später begann die erste geplante Besiedlung durch Europäer, als im Auftrag der 1838 gegründeten in Neuseeland große Landflächen von den erwarb. Als im August 1839 mit seinem Schiff, der , im „großen Hafen des “ ankam, spielte der ehemals dominierende -Stamm Ngāti Tara keine große Rolle mehr, da er vom aufstrebenden Stamm der verdrängt worden war. Letzterer unterstützte die Europäer in deren Bestreben, eine Siedlung an dem von den Europäern als bezeichneten Naturhafen zu errichten, weil sie sich im Gegenzug von den Europäern Unterstützung gegen den verfeindeten -Stamm erhofften. Sie überließen im Tausch gegen 100 Musketen, 100 Decken, 60 rote Nachtmützen, ein Dutzend Regenschirme und verschiedenen Kleinigkeiten den Europäern ihr Land.
Schon im folgenden Jahr, 1840, erreichten die ersten Siedler unter der Führung von und benannten die zukünftige Siedlung zu Ehren von , einem Unterstützer der , . Sie errichteten ihre erste Siedlung in im Mündungsgebiet des / . Wegen häufig auftretender Überschwemmungen sahen sie sich aber gezwungen, die Ortschaft weiter nach Südwesten, nach in den heutigen Stadtteil zu verlegen. 1846 zählte Wellington bereits knapp 4.000 Einwohner. Einige Jahre später wurde klar, dass die eingeengte Lage der Stadt kein weiteres Wachstum mehr zuließ. Daher wurde der Beschluss gefasst, große Flächen des angrenzenden Naturhafens trockenzulegen. Noch bevor man mit den Arbeiten beginnen konnte, erschütterte ein Erdbeben die Region. Am 23. Januar 1855 veränderte das -Erdbeben die Landschaft in und um Wellington. Mit einer Stärke von 8,2 MW wurde der Boden um bis zu 6,4 m angehoben, im Hafenbecken () noch zwischen 0,3 und 2 m. Der Landgewinn wurde für das Stadtzentrum und später für den Bau des Flughafens genutzt. Durch die Verwerfungen verschob sich auch das Meeresufer, wodurch sich der heute über 250 Meter vom Hafenbecken entfernt befindet.
Von der eintönigen Hauptstadt zur Kulturmetropole
Trotz aller Widrigkeiten wie Erdbeben, Großfeuer und den regelmäßig in Sturmstärke wehenden Winden entwickelte sich die dürftige Siedlung mit einigen Dutzend Bewohnern zu einem florierenden Zentrum für Im- und Export mit einem bedeutenden Hafen. 1865 wurde offiziell Neuseelands Hauptstadt; deren Verlegung aus dem schon damals viel größeren in die zentral gelegene, aufstrebende Metropole am wurde als notwendig erachtet, um die wegen des Goldrausches in Otago in aufkeimenden Sezessionsbestrebungen auf der Südinsel zu unterbinden.
Die erste Sitzung des Parlaments fand am 7. Juli 1862 in statt, allerdings wurde erst im November 1863 nach einem Antrag von zur Hauptstadt erklärt, in dem es hieß: „Es ist notwendig geworden, den Regierungssitz … in einen passenden Ort in der Straße zu verlagern“. 1886 erhielt die Siedlung Stadtrechte. Das 1876 erbaute ehemalige Regierungsgebäude () ist nach dem Tōdai-ji in Japan das zweitgrößte Holzgebäude der Erde. Das bis zum Jahr 1979 fertiggestellte (deutsch: Bienenstock), in dem sich die Büros der Regierung befinden, wurde schnell zu einem Wahrzeichen der Stadt.
Mit der Weiterentwicklung der Schifffahrtindustrie wurden zahlreiche große Lagerhallen und Produktionsstätten im Hafengebiet nicht mehr benötigt. Viele Hallen wurden modernisiert und dienten fortan anderen Zwecken (Museum, Einkaufskomplex, Wohnungen oder Büros); andere wurden abgerissen und in Parks umgewandelt. Im April 1968 sank bei einem Sturm vor der Küste die Autofähre . Das Schiffsunglück, das 53 Menschenleben kostete, wird als die schlimmste Schiffskatastrophe in der Geschichte des Landes angesehen, auch wenn bei früheren Schiffsunglücken höhere Opferzahlen zu beklagen waren. In den 1980er Jahren wurden große Teile der Stadt neu errichtet bzw. umgebaut und die meisten Gebäude den heutigen Standards für Erdbebensicherheit angepasst. Weitere Aufwertungen des Stadtzentrums erfolgten 1998 mit der Eröffnung des , zahlreicher weiterer Museen und des im Jahr 2000. Erst 2006 wurde das Hafenviertel von Wellington um den neu gestalteten bereichert.
Über die Jahre hinweg verwandelte sich von einer kleinen, verschlafenen Landeshauptstadt zu einer wichtigen Kultur- und Lifestylemetropole des Landes. Dazu trägt neben den zahlreichen Museen und Theatern eine lebendige Musik- und Filmszene bei. Am 1. Dezember 2003 wurde der dritte Teil der Filmtrilogie Der Herr der Ringe im er uraufgeführt. Das Ereignis sorgte für den größten Menschenandrang in der Stadtgeschichte, ihm wohnten Schätzungen zufolge 100.000 Menschen bei.
Bevölkerung
Bevölkerungsentwicklung
2013 zählte 190.959 Einwohner und verzeichnete gegenüber dem Census 2006 mit 6,4 % einen Bevölkerungsanstieg von rund 11.500 Einwohnern. Gegenüber 2001 betrug der Zuwachs sogar 9,5 %. Diese Entwicklung verlief in den benachbarten Stadtdistrikten (51.717) mit 6,5 % und in (40.179) mit 4,6 % ähnlich. Einzig (98.238) hielt mit einem Zuwachs von lediglich 534 Einwohnern seine Bevölkerung nahezu konstant.
Von den 190.959 Einwohnern waren 14.433 Einwohner stämmig (7,6 %). Damit lebten 2,4 % der -Bevölkerung des Landes in der Stadt.
Das durchschnittliche Einkommen in der Bevölkerung lag 2013 bei 37.900 NZ$, gegenüber 28.500 NZ$ im Landesdurchschnitt.
Herkunft und Sprachen
ist eine multikulturelle Hauptstadt mit einem Bevölkerungsanteil von 30,7 % Personen, die in Übersee geboren wurden. Der Großteil der Bewohner der Stadt fühlt sich der europäischen Volksgruppe zugehörig. Der Anteil der eigentlichen Ureinwohner des Landes, der , ist unterdurchschnittlich, ebenso der Anteil der Menschen aus den Pazifikinselstaaten. Dagegen ist der Anteil der aus Asien stammenden Menschen gegenüber dem Landesdurchschnitt um gut 4 % höher.
Die exakten Ergebnisse der Volkszählung von 2013 für :
76,4 % der Einwohner rechneten sich der europäischen Bevölkerungsgruppe zu (74,0 % neuseelandweit)
7,9 % der Einwohner der -Bevölkerungsgruppe (14,9 %)
4,9 % der Einwohner der pazifischen Bevölkerungsgruppe (7,4 %)
15,7 % der Einwohner der asiatischen Bevölkerungsgruppe (11,8 %)
4,3 % der Einwohner zu anderen Bevölkerungsgruppen (2,9 %).
Anmerkung: in Neuseeland kann man sich mehreren Volksgruppen zurechnen.
30,7 % der Bevölkerung gab an in Übersee geboren zu sein. Die Sprache, die in Wellington am zweithäufigsten gesprochen wird, ist Französisch, das 3,1 % der Bevölkerung spricht. Die Sprache der wird von 19,4 % der gesprochen.
Religionen
Die anfangs überwiegend britischen Siedler brachten ihre Religion, die Anglikanische Kirche, in die Region um , mit dem heutigen Sitz einer der sieben Diözesen der . Die Nachfahren der ersten Siedler errichteten 1855 die , eines der ersten Kirchengebäude in dem Gebiet.
Durch beständige Einwanderung aus katholisch geprägten Ländern hat die katholische Konfession die anglikanische in Wellington von Platz eins verdrängt. Die Stadt ist Sitz der Erzdiözese , der die anderen katholischen Bistümer des Landes als Suffragandiözesen unterstehen. Die erste, 1850 errichtete Kathedrale wurde 1901 durch die heutige neoklassizistische ersetzt.
Des Weiteren existieren noch zahlreiche andere christliche Konfessionen, wie zum Beispiel die Lutherische Kirche.
Obwohl das Christentum die größte religiöse Gruppierung darstellt, gibt es viele Anhänger weiterer Religionen wie zum Beispiel des Buddhismus, des Hinduismus oder des Islam. Letztere Gruppierung betreibt inzwischen drei islamische Zentren in der Region in und um . Auch zwei jüdische Gemeinden sind vertreten, eine orthodoxe mit rund 200 registrierten Personen (Stand 2010) sowie eine rund 150 Familien (Stand 2010) umfassende liberale.
Politik
Stadtgliederung und Verwaltung
gliedert sich in 62 unterschiedliche Stadtteile, die ihrerseits zu fünf sogenannten s (Verwaltungseinheiten) zusammengefasst sind. Von West nach Ost und von Nord nach Süd aufgelistet sind dies:
Quelle:
Der , , und entsenden je drei und der zwei (Ratsmitglieder) in den (Stadtrat), den sie zusammen mit dem (Bürgermeister) bilden. Der Bürgermeister und die vierzehn Ratsmitglieder werden alle drei Jahre neu gewählt.
Städtepartnerschaften
Historical sister city relationship
Harrogate (Vereinigtes Königreich) – seit 1953
Chania, Kreta (Griechenland) – seit 1994
Çanakkale, Türkei – seit 2014
Sister city relationship
Sydney (Australien) – seit 1983
Xiamen, Provinz Fujian (Volksrepublik China) – 1987
Sakai (Japan) – seit 1993
Canberra (Australien) – seit 2016
Friendly city relationship
Peking (Volksrepublik China) – 1994
Wirtschaft
wird mehr als andere Städte vom bestimmt. Die neuseeländische Börse (NZX) befindet sich nahe dem Hafengelände. In einer Rangliste der wichtigsten Finanzzentren weltweit belegte Wellington den 44. Platz (Stand: 2018).
Zahlreiche staatliche und private Unternehmen haben ihren Hauptsitz in der Stadt, darunter , , die oder die . In wurde 1996 das Unternehmen gegründet.
Im kulturwirtschaftlichen Bereich waren im Jahr 2009 zwischen 4300 und 5380 Menschen beschäftigt, was 3,1 % der Beschäftigten der Stadt sowie 2,3 % der Region ausmachte.
Für die Bekleidungsindustrie arbeiten fast 2000 Menschen in über 400 Unternehmen. Fast 2000 Computerfirmen, darunter internationale Größen wie oder , haben einen Standort in der Region, die über 11.000 Menschen beschäftigen, dies sind 23 % aller Angestellten im neuseeländischen IT-Sektor. Im produzierenden Gewerbe arbeiten 15.000 Beschäftigte in 1600 Firmen. Wichtige Unternehmen sind hier beispielsweise , , . In der Biotechnologie, der ein wichtiger und aufstrebender Faktor für die Region ist, arbeiten 400 Menschen. Mehrere (CRIs), wie das , das , das und das betreiben hier ihre Forschung.
Infrastruktur
Verkehr
Nahverkehr
Der öffentliche Personennahverkehr in und seinen angrenzenden Städten erfolgt über die drei Transportmittel Bus, Bahn und Fähre. Seit dem Jahr 2006 treten diese Transportmedien ähnlich wie im Großraum unter einem gemeinsamen Namen auf: . Zwar werden auch heute noch die Fähren von anderen Firmen betrieben als die Züge, und bei den Bussen gibt es sogar verschiedene Betreiber; doch jetzt ist der gesamte öffentliche Nahverkehr in unter einem Dachverband vereinheitlicht. kann im neuseelandweiten Vergleich den höchsten Anteil an Nutzern des öffentlichen Nahverkehrs aufweisen. Jeden Wochentag erreichen etwa 26.000 Menschen die Innenstadt von mit Bussen oder Bahnen und durchschnittlich werden 28 % aller Bewegungen mit öffentlichen Verkehrsmitteln getätigt, verglichen mit (18 %) und (9 %).
Straßenverkehr
Auch das Straßennetz in musste den schwierigen geographischen Verhältnissen angepasst werden. So winden sich Zugangsstraßen zu den abseits der Stadtzentren gelegenen Vororte in die immer hügeliger werdenden Gegenden hinein und passen sich zwangsläufig den Hügellinien an. Für den Anschluss des Stadtzentrums von an und das ist im Allgemeinen eine einzige Autobahn zuständig: der großteils sechsspurige , der an der geologischen Verwerfung zwischen und den Hügelketten entlangführt, bis er sich in den und die aufteilt. Erstere gehört − wie auch der − innerhalb des -Netzes zum , der wichtigsten Straßenverbindung des Landes, die den Pazifikstaat von Norden nach Süden durchquert.
Seit den 1960er-Jahren bestehen Pläne, auch die südlich des Zentrums gelegenen Stadtteile besser an das nationale Straßennetz anzubinden. Dieses Vorhaben zog sich aber über mehrere Jahrzehnte; mittlerweile wurde das Projekt, eine Autobahn zu errichten, verworfen, jedoch wird mit dem seit 2005 im Bau befindlichen eine vierspurige Alternative verwirklicht, die mitunter heftige Proteste auslöste.
Busverkehr
Der Busverkehr ist in das wichtigste öffentliche Nahverkehrsmittel. Das ausgedehnte Busnetz erfasst beinahe alle Vororte des Ballungsraumes. Der größte Betreiber, , bietet einige spezielle Verbindungen an: So bietet der eine schnelle Verbindung von Flughafen über das Stadtzentrum hinaus bis nach und der bringt sportbegeisterte Fans von allen Teilen des (CBD) ins nahe dem Bahnhof. Beide Linien konnten sich etablieren, da die Transportbedürfnisse in diesen Gegenden nur in begrenzter Weise durch die Vorortbahn gestillt werden können. Die Stilllegung des ausgedehnten Straßenbahnnetzwerks im Jahr 1964 hatte die Einführung von Oberleitungsbussen zur Folge, von denen im Jahr 2006 noch etwa 60 Stück in Betrieb waren. Ende Oktober 2017 wurde der Oberleitungsbusbetrieb eingestellt.
Schienenverkehr
Nahverkehr
besitzt ein nicht vollständig den S-Bahn-Kriterien entsprechendes Schnellbahnnetz. Es besteht aus fünf Linien auf vier Strecken, die im Norden über die Stadt hinaus über den Verwaltungssitz des , bis nach , und im Nordosten an - und vorbei bis nach führen. Alle Linien haben ihren Ursprung im Bahnhof , der nördlich des Stadtzentrums liegt. Obwohl das System effizienter ist und mehr frequentiert wird als in und sogar vielen amerikanischen Städten, wurde in die Eisenbahninfrastruktur seit den 1960er-Jahren wenig investiert. 1983 wurde noch das Teilstück nach elektrifiziert und danach hin und wieder neue Park-and-ride-Flächen geschaffen oder alte Bahnhofsgebäude modernisiert. Seit 2019 wird der zweigleisige Abschnitt der Bahnstrecke Wellington–Woodville bis Upper Hutt verlängert. Der Abschnitt wird zugleich für Gleiswechselbetrieb eingerichtet.
Durch die Schließung der Straßenbahn erhielt der Schienenverkehr im Ballungsraum einen weiteren Dämpfer. Ein „Überlebender“ der Schließungswelle der historischen Schienenstrecken war die , die heute fast nur für den Tourismus von Bedeutung ist und mittlerweile sogar als Symbol der Stadt an der fungiert. Auf dem gut 600 Meter langen Schienenstrang befinden sich vier Stationen, beginnend am ; Endstation sind die .
Im Zuge der Modernisierung des gesamten Hafenviertels in den beginnenden 1990er-Jahren entstanden Pläne für eine „Museums-Straßenbahn“ entlang des Ufers, ähnlich wie in . Nach der Wahl einer neuen Stadtverwaltung verliefen diese Planungen aber wieder im Sand. Ein weiteres nötiges Projekt zur besseren Anbindung der südlichen Stadtteile und insbesondere des Flughafens ist die Errichtung einer Stadtbahnlinie vom Hauptbahnhof aus. Beide Vorhaben werden aber von offizieller Seite vorerst nicht weiterverfolgt.
Fernverkehr
Im Fernverkehr gibt es heute nur noch zwei Züge: den Northern Explorer nach Auckland und den Capital Connection nach Palmerston North. Nach der misslungenen Privatisierung der neuseeländischen Eisenbahn entschloss sich die damalige -Regierung unter Premierministerin die Bahn wieder zu verstaatlichen. Seit 2008 liegt der Betrieb der Fernzüge bei der staatlichen .
Luftverkehr
Der Flughafen wurde im Jahr 1959 eröffnet und befindet sich nur fünf Kilometer südöstlich des Stadtzentrums auf der . Er entlastete damit den Flugplatz in , der heute meist nur noch für private Flüge und nahe gelegene inländische Verbindungen genutzt wird. Im Osten und Westen ist er von Wohn- bzw. Gewerbegebieten umgeben, im Süden schließt sich direkt der Pazifische Ozean an, während das Flughafengelände im Norden nur durch einen vom Naturhafen getrennt wird. Trotz dieser eingeengten Lage ist er – am Passagieraufkommen gemessen − nach dem Flughafen Auckland und dem Flughafen der drittgrößte des Landes und befördert pro Jahr über 4,5 Millionen Menschen. Die meisten Flugbewegungen sind Inlandsflüge, die vornehmlich von und kleineren Gesellschaften bedient werden. Darüber hinaus werden − hauptsächlich durch JetConnect, einer Tochterfirma von – auch Flüge in benachbarte australische Städte sowie nach Fidschi angeboten. Ein wichtiges Argument, das gegen den Flughafen nahe dem Stadtzentrum spricht, ist, dass die Landebahn weniger als zwei Kilometer lang ist. Es gibt zwar Pläne für eine Verlängerung, aber ohne Unterstützung durch eine große Fluglinie scheint eine baldige Realisierung unwahrscheinlich.
Fährverkehr
Einen wichtigen Anteil an dem Fernverkehr hat die Fährverbindung zwischen der Nord- und der Südinsel. Zwei Firmen bieten hier Seepassagen zwischen und an und überbrücken damit die , eine Meerenge, mit zuweilen recht rauen Bedingungen. Das größere Fährunternehmen von den beiden ist mit rund 1.000.000 Passagieren, 230.000 Fahrzeugen und etwa 5.700 Fahrten pro Jahr, . Das kleinere Unternehmen nennt sich . Innerhalb des verkehren Fähren von aus nach im Osten, nach im Norden und zu .
Bildungswesen
Öffentliche Bildung hat in einen guten Standard. Die ist mit sechs Fakultäten und über 20.000 Studenten die größte Bildungseinrichtung der Stadt. Die betreibt in einen eigenen Campus und ist in den Bereichen Wirtschaft, Kreative Künste, Geisteswissenschaften und Forschung aktiv.
Beide Hochschulen betreiben zusammen auch eine Musikhochschule (NZSM), die im Jahr 2005 aus der Fusion der Musikhochschulen der Victoria- und der -Universität entstand. In dem 1971 gegründeten Standort der in wird Medizin unterrichtet und Forschung betrieben, unter anderem werden Atemwegserkrankungen untersucht.
In existieren neben einer privaten Schule sieben weitere staatliche Einrichtungen, die größten davon sind das 1867 gegründete mit über 1500 Schülern und die 1905 gegründete mit etwa 1100 Schülern.
Kultur
gilt als kultureller und künstlerischer Mittelpunkt des Landes. In einer Studie von zur Lebensqualität in ausgewählten Städten reihte sich Wellington 2018 auf dem 15. Platz ein und nimmt nach und den dritten Platz unter den lebenswertesten Städten der Südhalbkugel ein.
Ein äußerst beliebter Treffpunkt in der Nähe des ist die , deren Strand mitten im Stadtgebiet zum Baden einlädt.
Film und Unterhaltung
Die Stadt ist das Zentrum der neuseeländischen Filmindustrie. In Anlehnung an , den wichtigsten Standort der amerikanischen Filmindustrie, wird inzwischen oft als bezeichnet. Diesen Spitznamen trägt die Stadt seit der Weltpremiere von Der Herr der Ringe: Die Rückkehr des Königs im Jahr 2003. Neben und einigen anderen waren zum Beispiel und daran beteiligt, im Stadtteil auf der gleichnamigen Halbinsel im Süden ein großes Zentrum der Filmindustrie zu schaffen. Für einige Millionen Dollar wurden Filmstudios, -Studios sowie Einrichtungen zur Vor- und Postproduktion errichtet, deren größte der ist. Große Bedeutung für die Filmszene der Stadt haben und . Junge Persönlichkeiten wie (), () oder () tragen in immer größerem Maße zur filmischen Vielfalt von „“ bei.
Auch wegen mehrerer Hochschulen und der damit verbundenen Studentenzahl strahlt die Stadt ein junges, lockeres Flair aus, das sich zum Beispiel in der musikalischen Vielfalt oder dem abwechslungsreichen Nachtleben zeigt.
Die bekanntesten Bands aus sind , , , und . ist Heimatort des staatlichen Sinfonieorchesters bzw. des -balletts und zahlreicher Theater, wie zum Beispiel des St. James Theatre, des Downstage Theatre und des Bats Theatre.
Der Stadtteil besitzt das größte Vergnügungsviertel Neuseelands. Hier befinden sich fünf große Kinokomplexe und unzählige Bars, Clubs und Cafés. verfügt pro Einwohner über mehr Sitzplätze in Restaurants als .
Sport
Auch im sportlichen Bereich spielt über die Grenzen Neuseelands hinaus eine große Rolle: Die vertreten die Stadt im drei Nationen umfassenden , die bei den nationalen -Meisterschaften (NPC), die im , die im -Bereich, die im , im Fußball (seit der Saison 2007/2008 Mitglied der australischen ) sowie die in der . Zwischen 1985 und 1996 fand in der Innenstadt von das unter dem Namen bekannt gewordene Straßenrennen für Tourenwagen statt. Wellington war unter anderem einer der Austragungsorte bei der Rugby-Union-Weltmeisterschaft 1987, dem Cricket World Cup 1992, der Rugby-Union-Weltmeisterschaft 2011 und dem Cricket World Cup 2015.
Sehenswürdigkeiten
Bauwerke / Plätze / Parks
Bekannte Sehenswürdigkeiten sind das ältere neuseeländischen Parlamentsgebäude und das 1979 fertiggestellte Regierungsgebäude, (Bienenstock) genannt, in dem der und die Minister des Kabinetts ihre Büros haben und das Kabinett tagt; das historische und der dadurch an die angeschlossene Botanische Garten mitsamt Aussichtspunkt oberhalb der ; das als größtes Holzgebäude der Südhalbkugel (heute die juristische Fakultät der Universität) sowie als einer der besten Aussichtspunkte der Stadt. , die erste anglikanische Kathedrale, wurde ab 1855 als Holzkirche in neugotischen Formen errichtet. 1964 ging ihre Funktion an die neu erbaute über. Bischofskirche des römisch-katholischen Erzbistums ist die 1901 vollendete .
Während der Stadtentwicklung sind um den Beginn des 20. Jahrhunderts eine Reihe von Profanbauten entstanden, welche das Bild der Innenstadt mitbestimmen. Dazu zählen die Aida Konditorei und das in der , das als einer der ältesten Neuseelands, das in der , das inmitten höherer moderner Gebäude, , das in der , das sowie der , als seltenes Zeugnis der frühen kolonialen Bebauung.
Museen
kann eine breitgefächerte Museumslandschaft vorweisen, die sich vom mehrfach ausgezeichneten, 1998 eröffneten das , die , das , das sich mit der Geschichte der Stadt beschäftigt, das , das die maritimen Ursprünge der Stadt beleuchtet, sowie viele weitere bis hin zum erstreckt. Mit einem als bezeichneten Veranstaltung im Jahr 1979 begann die Wandlung der einst nüchternen Hauptstadt zu einer festival-reichen Kulturmetropole. Heute findet zweijährlich das statt und jedes Jahr werden der berühmte , das , die , die , das ehemals in ansässige sowie zahllose weitere Veranstaltungen abgehalten.
Panoramen
Persönlichkeiten
Söhne und Töchter der Stadt
Jack Marshall (1912–1988), Politiker (National Party) und 28. Premierminister Neuseelands
Patricia Marjorie Ralph (1920–1995), Meeresbiologin und Universitätsdozentin
Bob Scott (1921–2012), Rugby-Union-Spieler
Michael Hardie Boys (* 1931), Jurist und von 1996 bis 2001 Neuseelands 17. Generalgouverneur
Paul Reeves (1932–2011), Geistlicher der anglikanischen Kirche und Generalgouverneur von Neuseeland
Dick Joyce (* 1946), Ruderer
Richard Curtis (* 1956), Drehbuchautor zahlreicher britischer Comedyserien
Wynton Rufer (* 1962), neuseeländisch-schweizerischer Fußballtrainer
Russell Crowe (* 1964), Filmschauspieler, Filmregisseur, Filmproduzent und Musiker
Karl Urban (* 1972), Schauspieler
Taika Waititi (* 1975), Filmregisseur, Drehbuchautor, Schauspieler, Maler und Comedian
Bret McKenzie (* 1976), Schauspieler, Musiker, Komiker und Oscar-Preisträger
Brooke Fraser (* 1983), Pop-/Folk-Sängerin und Songwriterin
Persönlichkeiten, die vor Ort gewirkt haben
Arthur Paul Harper (1865–1955), Jurist, Bergsteiger, Geodät und Naturschützer
Peter Fraser (1884–1950), Politiker (Labour Party) und 24. Premierminister Neuseelands
Sidney Holland (1893–1961), Politiker (National Party) und 25. Premierminister Neuseelands
Keith Holyoake (1904–1983), Politiker (National Party), und 26. Premierminister Neuseelands
Alan MacDiarmid (1927–2007), Chemiker
Lloyd Jones (* 1955), Schriftsteller
Neil Cross (* 1969), Autor und Drehbuchautor
Tana Umaga (* 1973), Rugby-Union-Spieler
Siehe auch
Liste der Baudenkmale in
Literatur
Weblinks
Einzelnachweise
Ort in der Region Wellington
Hauptstadt in Australien und Ozeanien
Ort mit Seehafen
Arthur Wellesley, 1. Duke of Wellington als Namensgeber
Hochschul- oder Universitätsstadt in Neuseeland
|
Q23661
| 937.1849 |
68985
|
https://de.wikipedia.org/wiki/Formaldehyd
|
Formaldehyd
|
Formaldehyd (IPA: , , auch , ; systematischer Name Methanal) ist eine organisch-chemische Verbindung mit der Summenformel CH2O und der einfachste Vertreter aus der Stoffgruppe der Aldehyde. Unter Standardbedingungen ist Formaldehyd ein Gas mit einem stechenden Geruch.
Mit etwa 21 Millionen Tonnen Jahresproduktion (Stand: 2019, bezogen auf 100 % Formaldehyd) ist Formaldehyd eine der meisthergestellten organischen Chemikalien. Die technische Formaldehydherstellung erfolgt katalytisch durch die Oxidation oder die Dehydrierung von Methanol, etwa im Silberkatalysator-Verfahren oder im Formox-Verfahren. In der chemischen Industrie dient es insbesondere als Ausgangsstoff bei der Produktion von Phenol- und Harnstoffharzen. Ein weiteres Polymer ist Paraformaldehyd, das unter anderem in der Zellbiologie genutzt wird. Er ist ein starkes Antiseptikum und Desinfektionsmittel, das als 40-prozentige Lösung des Aldehyds in Wasser erhältlich ist und als Fungizid und Konservierungsmittel eingesetzt wird.
In der Natur kommt Formaldehyd als Oxidationsprodukt von Terpenen sowie als Stoffwechselprodukt von Bakterien vor, die Substrate mit einem Kohlenstoffatom wie Methanol, Methan oder Methylamin zu Kohlenstoffdioxid aerob verstoffwechseln. Formaldehyd ist Teil des menschlichen Stoffwechsels. Er ist als karzinogen eingestuft.
Nomenklatur
Der systematische IUPAC-Name Methanal für molekularen Formaldehyd leitet sich vom Methan durch Anhängen des Suffix -al für Aldehyde ab. Der bevorzugte IUPAC-Name Formaldehyd stammt von „formica“ ab, dem lateinischen Wort für die Ameise, da Formaldehyd durch Oxidation in Ameisensäure überführt werden kann.
Die wässrige Lösung von Formaldehyd wird als Formalin oder seltener als Formol bezeichnet. Sie kam ab 1893 als „Formalin“ bei Schering und als „Formol“ bei Hoechst in den Handel. Eine gesättigte wässrige Lösung enthält etwa 40 Volumen-% Formaldehyd oder 37 % Massenanteil und wird als „100 % Formalin“ bezeichnet. Dieser wird oft ein Stabilisator wie Methanol zugesetzt, um die Polymerisation zu unterdrücken. Ein typisches handelsübliches Formalin kann bis zu 12 % Methanol enthalten. Produktionszahlen für Formaldehyd werden meist auf der Basis der 37-%-Massenanteil-Formalinlösung angegeben.
In wässriger Lösung liegt Formaldehyd in seiner hydratisierten Form als Methandiol mit der Formel CH2(OH)2 vor. Diese Verbindung steht je nach Konzentration und Temperatur im Gleichgewicht mit verschiedenen, Paraformaldehyd genannten Oligomeren mit einem typischen Polymerisationsgrad von 8 bis 100 Einheiten. Durch Erhitzen kehrt sich die Reaktion um und setzt aus Paraformaldehyd wieder Formaldehyd frei. Unter dem Handelsnamen Formcel der Celanese sind Lösungen von Formaldehyd in Methanol (Methyl Formcel) mit 55,0 % Massenanteil Formaldehyd, 34,5 % Massenanteil Methanol und 10,5 % Massenanteil Wasser sowie Lösungen in Butanol und Isobutanol (Butyl Formcel) mit 40 % Massenanteil Formaldehyd, 53 % Massenanteil Butanol und 7 % Massenanteil Wasser erhältlich. Trioxan ist ein Trimer von molekularem Formaldehyd.
Geschichte
Alexander Michailowitsch Butlerow synthetisierte Formaldehyd beziehungsweise Paraformaldehyd 1855 durch die Umsetzung von Diiodmethan mit Silberacetat. Das zunächst entstehende Acetat verseifte er durch Kochen mit Wasser und engte die erhaltene Lösung im Vakuum ein. Butlerow, der den erhaltenen Stoff „Dioxymethylen“ nannte, erkannte jedoch nicht, dass er Paraformaldehyd hergestellt hatte. Er untersuchte die Chemie des Formaldehyds weiter und entdeckte 1861 die Formosereaktion, bei der ein Gemisch von Zuckern aus Formaldehyd entsteht.
Entwicklung der technischen Synthese
Auf der Suche nach dem ersten Glied der Aldehydreihe führte August Wilhelm von Hofmann im Jahr 1867 die erste gezielte Darstellung des Formaldehyds durch die Dehydrierung von Methanol an einem glühenden Platindraht durch. Dieses Laborverfahren erlaubte die Herstellung einiger Liter Formaldehydlösung aus Methanol und damit weitere Studien zur Chemie dieses Aldehyds. So entdeckte Adolf von Baeyer 1872 dessen Kondensation mit Phenol zu Phenol-Formaldehyd-Harzen, jedoch ohne die Entdeckung weiterzuverfolgen.
Bernhard Tollens optimierte die Ausbeute durch die Regelung des Verhältnisses von Methanol zu Luft; zur Vermeidung von Explosionen entwickelte er eine Flammenrückschlagsicherung in Form eines Asbestbauschs, die er zwischen der Methanolvorlage und der Platinspirale einsetzte. Oskar Loew verbesserte die Formaldehyd-Synthese durch den Einsatz von zunächst Eisen(III)-oxid und später Kupfer als Katalysator.
Im Jahr 1888 begann die Firma Mercklin & Lösekann in Seelze mit der kommerziellen Produktion von Formaldehyd. Ab dem Jahr 1889 wuchs der Bedarf an Formaldehyd für die Farbstoffherstellung. So konnte Acridin durch die Umsetzung von Diphenylamin mit Formaldehyd unter Katalyse mit Zinkchlorid hergestellt werden. Acridin ist der Grundkörper für Acridinfarbstoffe wie Acridinorange und Acridingelb, der bis dahin nur aus Steinkohleteer gewonnen wurde.
Die Firma Meister, Lucius und Brüning, die 1890 ein Patent zur Herstellung Formaldehyd von Jean Joseph Auguste Trillat übernahm, hatte erhebliches Interesse an der Entwicklung von medizinischen Anwendungen für wässrige Formaldehydlösungen. Sie beauftragten 1892 den Frankfurter Arzt Ferdinand Blum, die antiseptischen Eigenschaften von Formaldehyd zu untersuchen. Blum zeigte die bakterioziden Eigenschaften einer 4-prozentigen Formaldehyd-Lösung auf Bakterien wie Bacillus anthracis und Staphylococcus aureus. Zufällig entdeckte er bei seinen Experimenten die Möglichkeit, Gewebeproben mit Formaldehyd bzw. Formol zu fixieren.
Kunststoffe aus Formaldehyd
Die erste größere technische Verwendung fand Formaldehyd durch die 1897 von Adolf Spitteler und Wilhelm Krische patentierte Erfindung des Galalith, eines duroplastischen Kunststoffs auf Basis von Casein und Formaldehyd. Der Kunststoff ließ sich erfolgreich vermarkten und wurde für Haarkämme und Accessoires, Stricknadeln, Stifte, Schirmgriffe, weiße Klaviertasten, Elektrogeräte und vieles mehr verwendet. Im deutschen Reich wurden 1913 etwa 6 % der gesamten Milchproduktion zur Herstellung von Galalith genutzt.
Von Baeyers Arbeiten über die Kondensation von Phenol und Formaldehyd wurde von verschiedenen Chemikern aufgegriffen, so 1899 von Arthur Smith, 1902 von A. Luft, 1903 von F. Hensche, der eine alkalisch katalysierte Kondensation untersuchte und 1905 von H. Story. Doch erst Leo Baekeland erkannte 1907 mit der Herstellung des Bakelits, des ersten vollsynthetischen Kunststoffs, das Potential dieser Synthese. Seine Firma, die General Bakelit, begann 1910 mit der technischen Produktion des Bakelits.
Die Bakelitprodukte neigten jedoch zum Nachdunkeln und auf der Suche nach klareren Kunststoffen entdeckte der Chemiker Hans John 1918 die Harnstoffharze. Durch die Nachfrage nach den Harnstoff- und Phenolharzen stieg der Bedarf an Formaldehyd stark an.
Großtechnische Herstellung
Erst die Entwicklung der Methanolherstellung aus Synthesegas im Hochdruckverfahren an Zinkoxid-Chromoxid-Katalysatoren durch Matthias Pier und Alwin Mittasch in den 1920er Jahren gab den Anstoß zur Entwicklung einer großtechnischen Herstellung. Bis zu diesem Zeitpunkt verlief die kommerzielle Gewinnung von Methanol nur als Nebenprodukt der Holzkohleherstellung, die in Deutschland 1857 durch die Firma Dietze, Morano & Cie. in Lorch begann, wobei neben Holzkohle und Methanol als weitere Produkte Essigsäure und Essigsäuremethylester anfielen.
Homer Burton Adkins entwickelte in den 1930er Jahren zusammen mit Wesley R. Peterson die Adkins-Peterson-Reaktion zur direkten Oxidation von Methanol zu Formaldehyd. Adkins, der zu dieser Zeit bei der Bakelite Corporation arbeitete, nutzte dazu einen Eisen-Molybdän-Oxid-Katalysator. Die Jahresproduktionsmenge betrug 1931 etwa 25.000 Tonnen und hatte sich bis 1943 auf etwa 100.000 Tonnen vervierfacht.
Verwendung in der Holzindustrie
In den 1940er Jahren stellte ein Werk in Bremen die erste Spanplatte unter Verwendung von Harnstoff-Formaldehyd-Harzen her und löste damit eine hohe Nachfrage in der Bau- und Möbelindustrie aus. Durch die dadurch mögliche Verarbeitung von Holzspänen stieg der Verwertungsgrad von Bäumen von 40 % auf 80 %.
Vorkommen
Biologische Vorkommen
In der Natur kommt Formaldehyd zum Beispiel in Säugetierzellen beim normalen Stoffwechsel als Zwischenprodukt vor. Im Menschen werden auf diese Weise pro Tag etwa 878 bis 1310 Milligramm pro Kilogramm Körpergewicht gebildet. Für einen Menschen mit einem Körpergewicht von 70 Kilogramm entspricht dies 61 bis 92 Gramm Formaldehyd pro Tag. Die Halbwertszeit beträgt 1 bis 1,5 Minuten. Menschen atmen etwa 0,001 bis 0,01 mg/m3 Formaldehyd aus, dabei besteht kein signifikanter Unterschied bei Rauchern oder Nichtrauchern. Der Formaldehydspiegel im Blut variiert zwischen 0,4 und 0,6 μg·cm−3 und im Urin zwischen 2,5 und 4,0 μg·cm−3. Die tägliche Aufnahme beträgt bis zu etwa 14 mg. Ebenso kommt Formaldehyd in Holz vor und diffundiert in geringen Mengen nach außen.
Methylotrophe Bakterien (etwa aus der Familie Methylophilaceae) oder methanotrophe Bakterien (z. B. aus der Familie Methylococcaceae) verstoffwechseln eine Reihe von Verbindungen mit nur einem Kohlenstoffatom (C1-Verbindungen) wie Methanol, Methan, Methylamin und Dichlormethan als Energiequelle. Diese Verbindungen werden über das Cytotoxin Formaldehyd metabolisiert. Die Oxidation von Formaldehyd zu Kohlenstoffdioxid ist ein wichtiger Teil des Stoffwechsels dieser aeroben Bakterien.
Lebens- und Genussmittel
In Früchten wie Äpfeln oder Weintrauben kommt Formaldehyd natürlicherweise vor. Die niedrigste Formaldehyd-Konzentration in Lebensmitteln konnte in Frischmilch gemessen werden, mit einem Gehalt von 0,013 bis fast 1 mg/kg. Der höchste Gehalt wurde in gefrorenem Seehecht mit 232–293 mg/kg gemessen.
Beim Konsum von einer Packung Zigaretten werden etwa 3 mg Formaldehyd pro Tag vom Raucher aufgenommen. Zum Teil enthalten E-Zigaretten Stoffe wie Propylenglykol, die beim Verdampfen Formaldehyd abgeben können. Dabei werden pro Tag vom Raucher von E-Zigaretten bei gleichem Konsum etwa 14 mg Formaldehyd aufgenommen.
Bei Konservierungsverfahren wie dem Räuchern wird durch die Pyrolyse von Harthölzern Formaldehyd freigesetzt. Es wirkt mikrobiozid gegen Hefen und Schimmelpilze und quervernetzend auf Proteine.
Atmosphärische Vorkommen
Formaldehyd ist eine allgegenwärtige Spurenchemikalie und die am häufigsten vorkommende Carbonylverbindung in der Atmosphäre. Er entsteht bei der photochemischen Reaktion von Kohlenwasserstoffen oder der unvollständigen Verbrennung fossiler Brennstoffe und Biomasse. Die Verbrennung von Kraftstoff und Holz sind die vorherrschenden Quellen für anthropogenes atmosphärisches Formaldehyd, wobei die größeren Emissionen von biogenen Quellen ausgehen, etwa durch Oxidation von Methan und Isopren.
Die Photolyse von Formaldehyd spielt möglicherweise eine Rolle bei der Luftverschmutzung in städtischen Umgebungen. Für den photolytischen Zerfall werden zwei Reaktionswege vermutet, von denen einer über die Bildung von Wasserstoff und Kohlenstoffmonoxid verläuft.
CH2O -> H2 + CO
Der zweite Reaktionsweg führt zur Bildung von Wasserstoff- und Formylradikalen.
CH2O -> H* + HCO*
Die Bedeutung dieses Reaktionswegs ergibt sich aus der Tatsache, dass diese Radikale eine wichtige Rolle bei der Oxidation von Stickstoffmonoxid zu Stickstoffdioxid und der Bildung von Ozon spielen. Atmosphärische Senken für Formaldehyd sind Reaktionen mit Hydroxyl-Radikalen und die Photolyse. Eine wichtige natürliche Emissionsquelle für Formaldehyd ist die atmosphärische Oxidation von Methan. In der tropischen Erdatmosphäre beträgt die Konzentration circa 1 ppb. Hier ist eine der Hauptquellen die Oxidation von Methan. Es wird vermutet, dass photochemische Prozesse in der Ur-Atmosphäre zur Bildung von etwa 3 Millionen Tonnen Formaldehyd pro Jahr geführt haben. Der Niederschlag von Formaldehyd und anschließende Reaktionen von Formaldehyd in urzeitlichen Gewässern führten möglicherweise zu einer abiotischen Synthese komplexer organischer Moleküle und ermöglichte damit eventuell den Ursprung des Lebens.
Extraterrestrische Vorkommen
Radioastronomen wiesen Formaldehyd als erstes mehratomiges organisches Molekül im interstellaren Medium in vielen Regionen unserer Galaxie mittels des Grundzustandsrotationsübergangs bei 4830 MHz vorwiegend in der Nähe junger, massereicher Sternobjekte nach. Das Studium der Emissionen von Formaldehyd eignet sich zur Ableitung der räumlichen Dichte und der kinetischen Temperatur des dichten Gases in der Milchstraße und anderen Galaxien, wie NGC 660.
Nach radioastronomischen Messungen des Grundzustandsrotationsübergangs von Formaldehyd beträgt das Verhältnis von 12C zu 13C in der galaktischen Scheibe zwischen 5 und 8 Kiloparsec etwa 50. Dies ist um den Faktor 2 geringer im Vergleich zum lokalen interstellaren Medium und stimmt qualitativ mit Vorhersagen aus galaktischen Evolutionsmodellen überein, die eine höhere Metallizität des Gases in der inneren galaktischen Scheibe vorhersagen.
Es wird angenommen, dass Formaldehyd ein wichtiger Vorläufer für einen großen Teil komplexerer organischer Moleküle wie etwa Aminosäuren im interstellaren Medium ist. Mittels eines Massenspektrometers an Bord der Sonde Rosetta wurde im Schweif des Kometen Tschurjumow-Gerassimenko Formaldehyd nachgewiesen. Mittels des Atacama Large Millimeter/submillimeter Array wurde die Verteilung von Formaldehyd in der Koma der Kometen C/2012 F6 (Lemmon) und C/2012 S1 (ISON) vermessen und detailliert beschrieben. Durch mehrdimensionale Festkörper-NMR-Spektroskopie wurden funktionelle Gruppen in unlöslicher organischer Substanz in kohlenstoffhaltigen Chondriten identifiziert, die möglicherweise Polymerisationsprodukte des Formaldehyds sind. Extraterrestrisches Formaldehyd wird als mögliche Quelle für organische Verbindungen diskutiert, die zum Leben auf der Erde führten.
Herstellung
Die großtechnische Herstellung von Formaldehyd erfolgt heute praktisch ausschließlich durch zwei etablierte Verfahrensprinzipien, die beide auf den Ausgangsstoff Methanol zurückgreifen und je nach Hersteller unterschiedlich abgeändert wurden: die oxidative Dehydrierung und die Oxidation von Methanol.
In den 1970er und 1980er Jahren wurde Formaldehyd in den USA zwischenzeitlich durch radikalische Oxidation von Propan und Butan hergestellt (C3/C4-Schnitt). Ebenso wurde vor allem in Japan Formaldehyd einige Zeit lang durch Oxidation von Dimethylether produziert. Diese beiden Verfahren konnten sich aufgrund der unbefriedigenden Selektivität und hoher Produktionskosten nicht nachhaltig bewähren und werden heute nicht mehr durchgeführt. Die Weltjahresproduktion von Formaldehyd betrug im Jahr 2019 etwa 21 Millionen Tonnen (bezogen auf 100 % Formaldehyd). Die größten Produktionsregionen waren der asiatisch-pazifische Raum, gefolgt von der Europäischen Union und den Vereinigten Staaten. Die Herstellung von Formaldehyd findet gewöhnlich in der Nähe des industriellen Verbrauchers statt, da während des Transports über lange Strecken stabilitätsbedingte Probleme auftreten können. Das Produkt gelangt dabei meist über ein Rohrleitungsnetz zu den Verbrauchern. Der Welthandel mit Formaldehyd ist verglichen mit dem Produktionsvolumen gering. Zu den größeren Herstellern gehörten 2017 die Firmen Dynea Chemicals, Perstorp, Georgia-Pacific, Celanese, Ercros, BASF und viele andere.
Oxidation von Methanol (Formox-Verfahren)
Dem ersten Verfahrensprinzip liegt eine einfache Oxidationsreaktion zugrunde. Methanol wird dabei mit Luftsauerstoff bei Temperaturen von 350–450 °C drucklos an Eisen(III)-oxid- und Molybdän(VI)-oxid-Katalysatoren in Rohrbündelreaktoren zu Formaldehyd umgesetzt.
Die Umsetzung erfolgt in der Gasphase und mit einem großen Überschuss an Luftsauerstoff. Die beträchtliche Reaktionsenthalpie wird mithilfe von Kühlmitteln wie Salzschmelzen, Druckwasser oder Ölen, welche die Rohre umströmen, abgeführt und zur Erzeugung von überhitztem Hochdruckdampf genutzt. Der Katalysator ist als Festbett im Reaktor angeordnet. Die katalytisch aktive Verbindung ist das Eisen(III)-molybdat [Fe2(MoO4)3], das während der Umsetzung aus der Katalysatorvorstufe gebildet wird. Dieses fungiert als Sauerstoffüberträger und oxidiert den entstehenden Wasserstoff zu Wasser. Der reduzierte Katalysator wird dabei simultan mit Luftsauerstoff regeneriert. Somit wird eine Katalysatorlebensdauer von etwa zwei Jahren erreicht. Als wesentliche Nebenreaktion tritt praktisch nur die vollständige Oxidation (Verbrennung) von Formaldehyd zu Kohlenstoffdioxid und Wasser auf. Der Methanolumsatz beträgt etwa 95–99 % und die Selektivität zu Formaldehyd erreicht 91–94 %. Das heutzutage dominierende Verfahren der Methanol-Oxidation wurde von Perstorp und Reichhold entwickelt und wird als Formox-Verfahren (von Formaldehyde by oxidation) bezeichnet.
Beim Formox-Verfahren ist die Herstellung von Harnstoff-Formaldehyd-Konzentraten einfach möglich, die wässrige Formaldehyd-Lösung ist jedoch beim Silberverfahren durch einen niedrigeren Gehalt an Ameisensäure von höherer Qualität.
Oxidative Dehydrierung von Methanol
Das zweite Verfahren betrifft eine oxidative Dehydrierung von Methanol, auch Silber- oder Silberkatalysator-Verfahren genannt. Im ersten Schritt wird Methanol an metallischen Silberkatalysatoren bei Temperaturen von 600–720 °C zu Formaldehyd dehydriert.
Der Silberkatalysator wird im Reaktor als Festbett angeordnet, meistens als Kristalle, Netze oder auf Siliciumcarbid imprägniert. Die Dehydrierungsreaktion ist eine endotherme Reaktion und wird durch erhöhte Temperatur begünstigt.
In einem sekundären Schritt wird der entstandene Wasserstoff mit Luftsauerstoff in einer exothermen Reaktion zu Wasser verbrannt.
2 H2 + O2 -> 2 H2O
Die Oxidation wird über die zudosierte Sauerstoffmenge gesteuert, um eine adiabatische Fahrweise zu erreichen. Die Lebensdauer des Katalysators erreicht 2–4 Monate. Folglich ist hier ein Wechsel des Katalysators deutlich öfter notwendig als beim Formox-Verfahren. Andererseits kann der Silberkatalysator sehr einfach und ohne Materialverlust elektrolytisch regeneriert werden.
Aufgrund des schnellen thermischen Zerfalls und der Weiteroxidation des Formaldehyds zur Ameisensäure müssen extrem kurze Verweilzeiten (geringer als 0,01 s) eingehalten werden. Aus diesem Grund sind Netzgewebekatalysatoren bevorzugt, die eine kurze Kontaktzeit an der dünnen Katalysatorschicht sowie eine schnelle Abkühlung in 0,1–0,3 s auf etwa 150 °C ermöglichen. Des Weiteren können durch den geringen Druckverlust beim Einsatz derartiger Katalysatoren sehr hohe Strömungsgeschwindigkeiten erreicht werden, womit eine effiziente Wärmeabfuhr gewährleistet ist.
Es existieren Verfahrensvarianten nach BASF, Bayer, Borden, Celanese, Degussa, DuPont, ICI und Mitsubishi, die sich in der Art des Katalysators, der Reaktionstemperatur und der Aufarbeitung des Formaldehyds unterscheiden.
Die drei gängigen Typen des dabei verwendeten Silberkatalysatorverfahrens sind das BASF-Verfahren mit Wassereinspritzung und fast vollständiger Umsetzung, die unvollständige Umsetzung mit anschließender Destillation nach dem Verfahren der ICI sowie das vor allem in China eingesetzte Gasrecyclingverfahren.
Nach der Verfahrensvariante der BASF werden Methanol und Wasser mit Luft gemischt und über den Verdampfer (1) in den Reaktor (2) geleitet. In diesem ist der Silberkatalysator als Festbett (z. B. Netze, Kristalle) angeordnet und die Temperatur wird bei etwa 680–720 °C gehalten. Nach der Reaktion werden die heißen Reaktionsgase im Gaskühler (3) schnell auf 150 °C abgekühlt. Dies erfolgt indirekt über ein Wärmetauschersystem, das sowohl mit dem Verdampfer als auch mit dem Reaktor verbunden ist. Die Kühlung erfolgt mit Wasser. Durch eine optimale Reaktionsführung ist es möglich, pro Tonne Formaldehyd auch etwa 70 kg Wasserdampf zu erzeugen, der intern in der Anlage oder auch im Werksverbund genutzt werden kann. Die abgekühlten Reaktionsgase werden anschließend in zwei Absorptionskolonnen (4) und (5) geleitet, in denen Formaldehyd im Gegenstrom mit Wasser beziehungsweise mit der zirkulierenden Formaldehyd-Lösung ausgewaschen wird. Dabei wird eine 44%ige wässrige Formaldehyd-Lösung erhalten. Die Abgase aus der zweiten Absorptionskolonne werden entweder direkt verbrannt (Energiegewinnung) oder teilweise in den Verdampfer zurückgeführt.
Die Ausbeute bei diesem Prozess beträgt zwischen 86,5 und 90,5 mol-%. Die wässrige Formaldehyd-Lösung weist noch einen Gehalt von 1–2 Gew.-% an Methanol und 0,01 Gew.-% Ameisensäure auf, was jedoch kein Qualitätsproblem darstellt und allgemein als verkaufsfähiges Produkt gehandhabt wird.
Oxidation von Steamcrackerprodukten
Formaldehyd kann durch Oxidation von Steamcrackerprodukten erhalten werden. Dabei werden der C3-Schnitt, der Moleküle mit drei Kohlenstoff-Atomen wie Propan und Propen enthält, und der C4-Schnitt, der Moleküle mit vier Kohlenstoff-Atomen enthält wie Butan, Butene sowie Butadien, oxidiert. Die Oxidation des C3/C4-Schnitts kann mit oder ohne Katalysator durchgeführt werden. Formaldehyd fällt neben anderen sauerstoffhaltigen Komponenten wie Methanol, Acetaldehyd, Essigsäure oder Aceton an. Zur Vermeidung von Explosionen muss bei diesem Verfahren entweder im großen Luftüberschuss oder im Überschuss der Kohlenwasserstoffe gefahren werden. Als weiteres Verdünnungsmittel eignet sich Dampf. Zur Vermeidung von Folgereaktionen muss das Reaktionsgemisch schnell unter eine Temperatur von etwa 150 °C abgekühlt werden. Dies geschieht durch das Quenchen mit eingespritztem Wasser.
Die Reaktionen sind in Summe exotherm – das entsprechend heiße Gasgemisch muss zur Vermeidung von Nebenreaktionen rasch abgekühlt werden. Das entstandene Formaldehydgas wird dann in Gaswäschern mittels Wasser oder einer Harnstoff-Lösung extrahiert, wobei eine wässrige Formaldehydlösung beziehungsweise ein Harnstoff-Formaldehyd-Konzentrat entsteht. Die entstandenen Lösungen enthalten neben nicht umgesetztem Methanol noch geringe Mengen (etwa 100–300 ppm) Ameisensäure (HCOOH).
Eigenschaften
Physikalische Eigenschaften
Formaldehyd ist ein farbloser, stechend riechender Stoff, der bei Zimmertemperatur gasförmig vorliegt. Als Gas ist sein Geruch noch in Konzentrationen von 0,05–1 ml/m3 wahrnehmbar. Es siedet bei −19 °C. Die Dichte von flüssigem Formaldehyd beträgt 0,815 Gramm pro Kubikcentimeter (g·cm−3) bei −20 °C. Der Schmelzpunkt liegt bei −118 °C.
Flüssiges und gasförmiges Formaldehyd polymerisiert leicht bis zu einer Temperatur von 80 °C, bei höheren Temperaturen liegt es monomer vor. Die Geschwindigkeit der Polymerisation ist abhängig von vielen Faktoren wie Druck oder Feuchtigkeit und wird durch Spuren von Säure katalysiert. Formaldehyd ist brennbar und entzündet sich ab einer Temperatur von 430 °C. Es bildet mit Luft in einem weiten Konzentrationsbereich explosionsfähige Gemische. Der Explosionsbereich liegt zwischen 7 Vol.‑% (87 g/m3) als unterer Explosionsgrenze (UEG) und 73 Vol.‑% (910 g/m3) als oberer Explosionsgrenze (OEG).
Das Dipolmoment von Formaldehyd beträgt 2,330 Debye (D), die Bildungsenergie −104,7 Kilojoule pro Mol (kJ·mol−1). Die kritische Temperatur beträgt 134,85 °C, der kritische Druck 65,9 bar.
Die Kristallstruktur von Formaldehyd wurde bei einer Temperatur von 15 Kelvin durch Neutronendiffraktometrie bestimmt. Formaldehyd kristallisiert im tetragonalen Kristallsystem mit der Raumgruppe mit acht Molekülen pro Einheitszelle. Die Moleküle sind in viergliedrigen Quadraten mit starken CO-Bindungen angeordnet, die die Mitglieder eines Quadrats verbinden.
Molekulare Eigenschaften
Die Elektronendichte am Sauerstoff des Formaldehyds ist im besetzten π-Orbital, dem HOMO, gegenüber dem Kohlenstoff stark vergrößert. Andererseits sind die Orbitale im unbesetzten π*-Orbital, dem LUMO, am Kohlenstoff größer, Formaldehyd ist daher ein gutes Elektrophil. In Reaktionen von Formaldehyd mit starken Nukleophilen wie Thiolen, Aminen oder Amiden ist oft keine Säurekatalyse erforderlich. Die entstehenden Hydroxymethylderivate reagieren typischerweise weiter. In Gegenwart von Säuren reagiert es in elektrophilen aromatischen Substitutionsreaktionen mit aromatischen Verbindungen, die zu hydroxymethylierten Derivaten führen.
Formaldehyd ist ein planares Molekül mit einer Drehachse und zwei senkrecht zueinander stehenden Spiegelebenen und wird nach Arthur Schoenflies als C2v-symmetrisch bezeichnet. Die C=O-Bindungslänge beträgt 120 Picometer, die C-H-Bindungslänge 110 Picometer. Der HCH-Winkel beträgt 116,16 °, der HCO-Winkel dementsprechend 121,92 °.
Die Wellenzahl der C-H-Streckschwingung beträgt 2782, die der C=O-Streckschwingung 1746 cm−1. Die Wellenzahl der CH2-Biegeschwingung beträgt 1500 cm−1.
Chemische Eigenschaften
Formaldehyd reagiert mit sich selbst und anderen Reaktanden in einer Reihe von Synthesen zu einer Vielzahl von Produkten. Unter diesen Reaktionen sind Oxidations-Reduktion-Reaktionen, Additions- oder Kondensationsreaktionen mit organischen und anorganischen Stoffen und Selbstpolymerisationsreaktionen.
Oxidations-Reduktions-Reaktionen
In Gegenwart von Basen disproportioniert Formaldehyd in der Cannizzaro-Reaktion zu Formiat und Methanol.
Mit Aldehyden ohne Wasserstoff in der α-Position zur Carbonylgruppe reagiert Formaldehyd in einer gekreuzten Cannizzaro-Reaktion zum Alkohol und Formiat.
Mit dem löslichen Diamminsilber(I)-komplex ([Ag(NH3)2]+) in alkalischer Lösung reagiert Formaldehyd in der Tollensprobe zu Ameisensäure, Silber und Ammoniak. Die Reaktion ist eine generelle Nachweisreaktion auf Aldehyde.
CH2O + 2 [Ag(NH3)2]+ + 2 OH- -> HCOOH + 2 Ag + 4 NH3 + H2O
Additions- und Kondensationsreaktionen
Als einfachster Aldehyd nimmt Formaldehyd in seinem chemischen Verhalten eine Sonderstellung ein, da die Aldehydgruppe nur an Wasserstoff gebunden ist. Einige der typischen Aldehydreaktionen verlaufen normal, wie etwa die Cyanhydrinsynthese zu Glycolnitril.
Mit Ammoniak dagegen entsteht kein Imin, sondern Hexamethylentetramin.
Formaldehyd ist sehr gut in Ethanol, Diethylether und Wasser löslich. In wässriger Lösung bildet sich ein Aldehydhydrat (Methandiol), wobei das Gleichgewicht dieser Reaktion – anders als z. B. bei Ethanal – zu fast 100 % auf der Seite des Hydrats liegt. Das Hydrat reagiert schwach sauer (pKs 13,3).
Formaldehyd geht eine Reihe weiterer Kondensationsreaktionen mit einem breiten Spektrum von Reaktanden ein, wie etwa in der Sulfomethylierung oder der Mannich-Reaktion. Die Mannich-Reaktion ist eine Aminoalkylierung einer CH-aciden Verbindung mit Formaldehyd und einem primären oder sekundären Amin oder Ammoniak. Das Produkt ist eine β-Amino-Carbonyl-Verbindung, die als Mannich-Base bekannt ist.
Nitromethan reagiert in einer Henry-Reaktion im Formaldehydüberschuss zum 2-Nitro-1,3-dihydroxy-2-hydroxymethyl-propan. Basische Verbindungen wie Amine katalysieren die Reaktion.
CH3NO2 + 3 CH2O -> O2N-C(CH2OH)3
Mit Benzol und Chlorwasserstoff reagiert Formaldehyd in der durch Zinkchlorid oder andere Lewis-Säuren katalysierten Blanc-Reaktion unter Bildung von Chlormethylarenen.
C6H6 + CH2O + HCl -> C6H5CH2Cl + H2O
Mit Cobaltcarbonylhydrid reagiert Formaldehyd in einer der Hydroformylierung ähnlichen Reaktion.
CH2O + HCo(CO)4 -> HO-CH2-Co(CO)4
Durch Insertion von Kohlenstoffmonoxid in die Cobalt-Kohlenstoffbindung bildet sich ein Acylkomplex, der mit einem weiteren Äquivalent Cobaltcarbonylhydrid zum Glykolaldehyd und Dicobaltoctacarbonyl reagiert.
HO-CH2-Co(CO)4 + CO -> HO-CH2COCo(CO)4
HO-CH2COCo(CO)4 + HCo(CO)4 -> HO-CH2CHO + Co2(CO)8
In den 1960er Jahren wurde durch die Reaktion von Formaldehyd, Kohlenstoffmonoxid, Wasser und Schwefelsäure Glykolsäure hergestellt. Veresterung mit Methanol und anschließende Hydrierung lieferte Ethylenglykol. Die Jahresproduktion nach diesem Verfahren betrug Mitte der 1960er Jahre noch etwa 60.000 Jahrestonnen, es wurde jedoch aus Kostengründen 1968 eingestellt.
In gekreuzten Aldolreaktionen reagiert Formaldehyd als Enolat-Anion-Akzeptor. Mit Aceton reagiert Formaldehyd etwa zu 4-Hydroxy-2-butanon. Mit Grignard-Verbindungen reagiert Formaldehyd nach Hydrolyse zu Alkoholen.
CH2O + RMgX -> R-CH2-OMgX
R-CH2-OMgX + H2O -> R-CH2-OH + HOMgX
Formaldehyd reagiert mit einem oder zwei Äquivalenten Alkohol unter Bildung von Halb- oder Vollacetalen.
Selbstpolymerisationsreaktionen
In der Formosereaktion bilden sich Zucker durch die Selbstkondensation von Formaldehyd. Basen zweiwertiger Metalle wie Calciumhydroxid oder Bariumhydroxid katalysieren diese Reaktion. Ronald Breslow schlug 1959 einen katalytischen Zyklus vor. Die Reaktionsfolge beinhaltet Aldolreaktionen, Retro-Aldolreaktionen und Lobry-de-Bruyn-Alberda-van-Ekenstein-Umlagerungen unter Bildung von Zwischenprodukten wie Glykolaldehyd, Glycerinaldehyd, Dihydroxyaceton und Tetrosen. Der Begriff Formose ist ein Kofferwort aus Formaldehyd und Aldose.
Formaldehyd polymerisiert in Gegenwart von Säurespuren leicht zu Polyoxymethylenen oder er trimerisiert zum Trioxan. Die Reaktion ist reversibel, bei höheren Temperaturen zerfallen die Polymere und Oligomere wieder in Formaldehyd.
Verwendung
Formaldehyd ist einer der wichtigsten organischen Grundstoffe in der chemischen Industrie und dient als Ausgangsstoff für viele andere chemische Verbindungen. Der bei weitem größte Markt liegt im Bereich der Harnstoff-Formaldehyd-Harze, der Phenoplaste, der Polyoxymethylene sowie einer Reihe von weiteren chemischen Zwischenprodukten wie Pentaerythrit. Formaldehyd findet unter anderem Anwendung bei der Herstellung von Farbstoffen, Arzneistoffen und bei der Textilveredelung. Da Formaldehyd wie alle Aldehyde ein starkes Reduktionsmittel ist, wird er zur Keimabtötung verwendet. Im Labor wird Formaldehyd unter anderem im Rahmen der Mannich-Reaktion und der Blanc-Reaktion eingesetzt.
Polymerherstellung
Aminoplaste
Mit Harnstoff reagiert Formaldehyd zu Harnstoff-Formaldehyd-Harzen (UF-Harzen; von Urea-Formaldehyden), mit Melamin zu den Melamin-Formaldehyd-Harzen (MF-Harzen), die beide zu den Aminoplasten gehören. Im ersten Schritt entstehen Monomethylolharnstoff und Dimethylolharnstoff:
Durch weitere Kondensation entstehen kettenförmige Polymere, die gegebenenfalls vernetzt werden können. Harze auf Basis von Harnstoff-Formaldehyd sind die bedeutendsten Arten von Klebharzen für die Herstellung von Holzwerkstoffen wie Spanplatten, Faserplatten und Hartholzsperrholz. Die fehlende Wasserbeständigkeit des gehärteten Harzes aufgrund der Reversibilität der Aminomethylenbindung kann durch Zugabe von Stoffen wie Melamin behoben werden.
Das bei weitem größte Anwendungsgebiet von Formaldehyd ist die Herstellung von Harnstoff-Formaldehyd-Harzen, die als Bindemittel für nicht-strukturelle Holzwerkstoffe, etwa Spanplatten und mitteldichte Faserplatten (MDF), dienen.
Melamin-Formaldehyd-Harze werden als imprägnierende Harze bei erhöhten Anforderungen an die Feuchtebeständigkeit, etwa zum Aufbringen von Dekopapieren auf Laminatböden oder als ein Bestandteil in Bambusgeschirr verwendet. In Form von Klarlacken werden MF-Harze in der Automobilindustrie eingesetzt.
N-Methylolverbindungen aus Formaldehyd und Harnstoff, wie Methylolharnstoff, die durch weitere Kondensation Aminoplaste in der Faser bilden, werden bei Zellulosefasern wie Baumwollfasern oder Viskosefasern als Textilhilfsmittel eingesetzt. Diese dienen der Verbesserung des Knitter- und Krumpfverhaltens und erhöhen damit die Formbeständigkeit von Textilien. Die Polykondensation der N-Methylolverbindungen erfolgt meist im sauren Milieu bei erhöhter Temperatur. Bei der Kondensation entsteht im gewissen Umfang Formaldehyd. Die eingelagerte Menge an Aminoplasten beträgt etwa 8 % bezogen auf das Textiliengewicht. Unter gesundheitlichen Aspekten ist bei der Textilveredelung auf eine geringe Menge an freiem und freisetzbarem Formaldehyd zu achten. Textilien, die beim bestimmungsgemäßen Gebrauch mit der Haut in Berührung kommen und mehr als 0,15 Prozent freies Formaldehyd enthalten, müssen entsprechend gekennzeichnet werden.
Phenoplaste
Phenolformaldehydharze (PF) oder Phenoplaste sind synthetische Polymere, die durch die Kondensationsreaktion von Phenol oder substituiertem Phenol mit Formaldehyd hergestellt werden. Je nachdem, ob die Kondensation sauer oder basisch abläuft, entstehen Novolake oder Resole. Novolake sind niedermolekulare Polymere, die durch die säurekatalysierte Kondensation von Formaldehyd mit einem Gemisch von Kresolen hergestellt werden. Novolake werden in der Mikroelektronik als Fotolackmaterialien verwendet.
Resole sind Produkte der basenkatalysierten Phenol-Formaldehyd-Kondensation. Sie werden mit einem Überschuss von Formaldehyd zu Phenol hergestellt. Die reaktive Spezies sind Phenolate, die durch Deprotonierung von Phenol gebildet werden. Als Duroplaste vernetzen die gebildeten Hydroxymethylphenole beim Erhitzen auf etwa 120 °C unter Bildung von Methylen- und Methylätherbrücken unter Eliminierung von Wasser. Eine hohe Vernetzung über die Stufen des Resitol und Resit verleiht den Resolen eine Härte, thermische Stabilität und chemische Beständigkeit.
Phenolformaldehydharzen wird Hexamethylentetramin als Härtungskomponente zugesetzt. Es wird industriell durch die Reaktion von sechs Äquivalenten Formaldehyd mit vier Äquivalenten Ammoniak hergestellt.
Durch Co-Kondensation von Phenol, Phenolsulfonsäure und Formaldehyd entstehen Kationenaustauscher. Diese Netzpolymere besitzen fest gebundene, anionische Sulfatgruppen sowie frei bewegliche Kationen.
Polyoxymethylen
Polyoxymethylen ist ein Thermoplast, der in Präzisionsteilen verwendet wird, die eine geringe Reibung und hohe Dimensionsstabilität erfordern. Polyoxymethylen zeichnet sich durch hohe Festigkeit, Härte und Steifigkeit aus. Aufgrund seiner hohen Kristallinität ist es ungefärbt opak weiß. Die Automobil- und Elektronikindustrie verwendet spritzgegossenes POM für technische Komponenten wie Zahnräder, Kugellager oder Befestigungselemente.
Pentaerythritherstellung
Pentaerythrit wird über eine basenkatalysierte Polyadditionsreaktion zwischen Acetaldehyd und drei Äquivalenten Formaldehyd hergestellt. Das Intermediat reagiert in einer gekreuzten Cannizzaro-Reaktion mit einem vierten Äquivalent Formaldehyd zum Pentaerythrit.
Es wird überwiegend zur Herstellung von polyfunktionalisierten Verbindungen verwendet und findet sich in Kunststoffen, Farben, Kosmetika und vielen anderen Anwendungen. Weiterhin dient er zur Herstellung von Sprengstoffen wie Nitropenta und Pentaerythrittrinitrat.
Methylendiphenylisocyanate
Der erste Schritt bei der Herstellung von Methylendiphenylisocyanaten (MDI) ist die Reaktion von Anilin und Formaldehyd unter Verwendung von Salzsäure als Katalysator.
Dabei wird eine Mischung von Diaminvorläufern und den entsprechenden Polyaminen hergestellt. Die weltweite Produktion von Methylendiphenylisocyanaten betrug 2018 circa 9,8 Millionen Tonnen, wofür etwa 1,2 Millionen Tonnen Formaldehyd benötigt wurden. Die Herstellung von Methylendiphenylisocyanaten ist ein schnell wachsender Markt für Formaldehyd. Hauptanwendungen sind Polyurethanschäume, Anstrichmittel, Klebstoffe, Elastomere und Dichtungsmittel, die im Bauwesen, für Haushaltsgeräte, Schuhe und andere Konsumgüter sowie in der Automobilindustrie eingesetzt werden.
1,4-Butandiol
Die industrielle Synthese von 1,4-Butandiol erfolgt über die Reaktion von Acetylen mit zwei Äquivalenten Formaldehyd.
Das im ersten Schritt entstehende 2-Butin-1,4-diol ergibt durch Hydrierung 1,4-Butandiol.
1,4-Butandiol wird als Lösungsmittel und bei der Herstellung von Kunststoffen, elastischen Fasern und Polyurethanen verwendet. Bei höherer Temperatur in Gegenwart von Phosphorsäure cyclisiert es unter Wasserabspaltung zu Tetrahydrofuran, einem wichtigen Folgeprodukt.
Formaldehydabspalter
Der Einsatz von Formaldehyd als biozider Wirkstoff vor allem in kosmetischen Produkten erfolgt meist in Form eines Formaldehydabspalters. Dies sind Kondensationsprodukte von Formaldehyd wie Diazolidinylharnstoff oder Diole wie Bronopol, die das Formaldehyd langsam freisetzen. Auf diesem Weg ist die Konzentration von freiem Formaldehyd sehr genau einstellbar und über die gesamte Lebensdauer des Produktes nahezu konstant. Da das Wirkstoffdepot auch ohne Mikrobenbefall aufgebraucht wird, haben die so konservierten Produkte in jedem Fall nur eine begrenzte Haltbarkeit. Direkt zugesetztes Formaldehyd würde sich durch Diffusion und Zerfallsprozesse immer weiter abreichern, so dass relativ hohe Dosierungen eingesetzt werden müssten, um eine vergleichbare Haltbarkeit zu erreichen.
Seit 2019 ist die direkte Verwendung von Formaldehyd in kosmetischen Mitteln nicht mehr zulässig. Somit bleibt nur der Einsatz von Formaldehydabspaltern, sofern es auf diesen Wirkstoff ankommt. Der Anhang V der EU-Kosmetikverordnung enthält Vorschriften für den Einsatz von Bioziden in kosmetischen Mitteln in der Europäischen Union. Wird eine Konzentration an freiem Formaldehyd, auch wenn dies durch Formaldehydabspalter freigesetzt wurde, im kosmetischen Produkt von 0,05 % überschritten, muss dies in Form der Angabe „Enthält Formaldehyd“ deklariert werden.
Totimpfstoffe
Anfang der 1920er Jahre wurde durch die Arbeiten von Alexander Glenny und Barbara Hopkins zufällig entdeckt, dass Formaldehyd verschiedene bakterielle Toxine aber auch Viren unschädlich machen kann. Daher wird es in der Impfstoffherstellung zur Inaktivierung von Impfviren (z. B. Poliovirus) oder Bakterientoxinen (z. B. Diphtherietoxin, Tetanustoxin oder Pertussis-Toxin) verwendet. Übermäßiges Anwenden von Formaldehyd während der Inaktivierung kann zu einer Konformationsänderung der betroffenen Antigene führen, was sich auf deren Immunogenität nachteilig auswirkt. Nach Aufreinigung darf die fertige Impfstoffzubereitung maximal 200 mg (Humanimpfstoffe) beziehungsweise 500 mg (Tierimpfstoffe) Formaldehyd pro Liter enthalten. Bei Humanimpfstoffen entspricht das damit einer maximalen Konzentration von max. 0,2 mg/ml beziehungsweise 0,02 %. Nach der Inaktivierung mittels Formaldehyd wird es größtenteils wieder entfernt, so dass in der Regel 1–200 µg pro Impfstoff injiziert werden.
Die Menge einer einzelnen Impfung beim Menschen ist etwa mindestens 600-mal geringer als die Menge, die bei Tierversuchen eine Toxizität verursachen kann. Da die Menge an Formaldehyd häufig ohnehin unter der maximal erlaubten liegt und für einen Epikutantest auf Formaldehyd zur Allergietestung in der Regel eine Konzentration von 1 % genutzt wird, kann infolgedessen die Menge an Formaldehyd eines beliebigen Impfstoffes keine Hautreaktionen auslösen – selbst wenn sie direkt in oder auf die Haut appliziert würde. Im Blut zirkuliert etwa 10-mal so viel Formaldehyd wie in einer Impfung enthalten ist. Die enthaltene Menge an Formaldehyd ist so gering, dass der physiologische Formaldehydgehalt des Muskels durch eine Impfung sogar verdünnt wird. Daher besteht keine Gefahr durch Formaldehyd nach einer Impfung.
Haltbarmachung von anatomischen und biologischen Präparaten
4- bis 8-prozentige Formaldehydlösung wird als gängiges Fixierungsmittel in der Histotechnik eingesetzt. Formaldehyd ist ein proteinvernetzendes additives Fixans, stoppt die Autolyse und Fäulnis von Gewebeproben und macht diese dauerhaft haltbar. Als Faustregel gilt eine Eindringgeschwindigkeit von 1 mm/h. Die Geschwindigkeit der Vernetzung ist erheblich langsamer als das primäre Anlagern von Formaldehyd, mindestens 2–3 Tage werden für eine ausreichende Fixierung benötigt. Es werden dabei Methylenbrücken und Brücken über Schiff’sche Basen ausgebildet. Die Anbindung kann durch Auswaschen in Wasser oder durch Einwirkung von heißen Pufferlösungen unterschiedlicher pH-Werte wieder rückgängig gemacht werden (Antigen-Retrieval). Methylenbrücken sollen stabil sein. Die Vernetzung und Modifikation von Biomolekülen mit Formaldehyd kann durch Erhitzen und/oder durch Zugabe von Basen wieder rückgängig gemacht werden.
Weiterhin wird eine solche Formaldehyd-Lösung zur Leichenkonservierung benutzt sowie zur Konservierung von anatomischen und biologischen Präparaten wie Insekten, erstmals 1893 vorgeschlagen von Isaak Blum. Da derart eingelegtes Material jahrelang haltbar ist, kann es problemlos als Anschauungs- oder Vergleichsmaterial in der Medizin und Biologie für Forschungs- und Lehrzwecke herangezogen werden. Zu künstlerischen Zwecken konservierte der britische Künstler Damien Hirst einen Hai als Kunstwerk in Formaldehyd.
Trotz der Gesundheitsgefahren ist Formaldehyd insbesondere aufgrund seiner generellen antiseptischen Eigenschaften weiterhin weitgehend unverzichtbar in der Haltbarmachung und Konservierung von Geweben, jedoch ist die technische Umstellung der Arbeitsbereiche zur Einhaltung des Arbeitsplatzgrenzwertes wie beispielsweise durch Absaugung direkt am Arbeitsbereich und die Verringerung der Konzentration von Formaldehyd in Konservierungslösungen ein zentrales Thema in der modernen Anatomie und Pathologie.
Desinfektion und Sterilisation
Formaldehyd wird in vielfältiger Weise zu Desinfektion und Sterilisation verwendet. Zur Raumdesinfektion wird Formaldehyd gasförmig oder in wässriger Lösung auf alle Flächen in einem Raum aufgebracht. Neben dem Verdampfen kann Formaldehyd vernebelt werden oder es können Stoffe verwendet werden, die Formaldehyd freisetzen. Weiterhin kann die Desinfektion durch das Wischen mit Formaldehyd-haltigen Mitteln erfolgen. Dabei wird Formaldehyd von Oberflächen adsorbiert und muss nach der Behandlung gründlich durch Spülvorgänge entfernt werden. Für medizinisch verwendete Kleinteile kann die Begasung mit Formaldehyd in Formaldehydsterilisatoren erfolgen.
In der Intensivtierhaltung wird Formaldehyd als Begasungsmittel zur Prävention von Infektionserkrankungen durch Viren oder Bakterien eingesetzt. So erfolgt beispielsweise in der Hühneraufzucht und -mast eine Begasung in der Regel vor jedem Neubesatz der Ställe.
In der Technischen Regel für Gefahrstoffe (TRGS) 512 "Begasungen" und einer Veröffentlichung der Europäischen Agentur für Sicherheit und Gesundheitsschutz am Arbeitsplatz wird Formaldehyd als Begasungsmittel für Frachtcontainer aufgeführt. Darüber hinaus kann Formaldehyd in Containern vorkommen, wenn es als Industriechemikalie aus transportierten Produkten ausgast. Bei höheren Konzentrationen von Formaldehyd sind dabei für Beschäftigte beim Umgang mit Containern in Häfen Lungenödeme, Entzündungen der Bronchien und Lungenentzündungen möglich.
Umweltaspekte
Formaldehyd reichert sich nicht in der Umwelt an, da es durch Sonnenlicht oder durch im Boden oder Wasser vorhandene Bakterien abgebaut wird. Die meisten Organismen metabolisieren Formaldehyd schnell und wandeln es in Ameisensäure um, sodass es nicht zu einer Bioakkumulation kommt.
Emissionsquellen
Innenräume
Bestimmte formaldehydhaltige Materialien, unter anderem Holzwerkstoffe, Bodenbeläge, Möbel und Textilien, können durch Ausgasung eine Kontamination der Atemluft in geschlossenen Räumen bewirken. In den achtziger Jahren sind in diesem Zusammenhang insbesondere Spanplatten und Sperrholz, zu deren Herstellung Aminoplaste als Bindemittel eingesetzt wurden, unter Verdacht gekommen. Es sind jedoch zum einen heute viele formaldehydfrei verklebte Holzwerkstoffe und Möbel im Handel erhältlich. Zum anderen wurden die Emissionen in den auf Formaldehyd basierenden Holzwerkstoffen deutlich reduziert. Die Schadstoffsanierung formaldehydbelasteter Gebäude ist vor allem bei älteren Holzfertighäusern nach wie vor ein großes Thema.
Holz selbst emittiert Formaldehyd durch den thermischen Abbau von Polysacchariden. Die Emissionswerte hängen von der Holzart, dem Feuchtigkeitsgehalt, der Temperatur und der Lagerzeit des Holzes ab. Frisches Eichenholz emittiert etwa 430 μg, trockenes Eichenholz etwa 50 μg Formaldehyd pro Quadratmeter und Stunde.
Beim Rauchen entsteht durch unvollständige Verbrennung Formaldehyd, das nicht unerheblich zur Belastung der Raumluft beiträgt. Im Gesamtrauch einer einzigen Zigarette finden sich etwa 0,02–0,1 mg Formaldehyd.
Umwelt
Eine wichtige Quelle für die Emission von Formaldehyd sind unvollständig ablaufende Verbrennungsprozesse. Diese finden sich beispielsweise in Verbrennungsmotoren von Kraftfahrzeugen, in Gießereien und bei der Herstellung von Kunststoffartikeln. Bei der Verbrennung von Bio-, Klär- und Deponiegasen in Gasmotoren werden im Abgas häufig hohe Formaldehydkonzentrationen gemessen. Damit die Emissionswerte die gesetzlich festgelegten Grenzwerte nicht überschreiten, ist meist eine Nachbehandlung des Abgases erforderlich.
Problematisch ist die Verbrennung von Holz in Kleinfeuerungsanlagen, da hier durch unregelmäßige Beschickung oder feuchtes Holz die Verbrennung häufig unvollständig abläuft. Dabei entstehen in diesen im Hausbetrieb eingesetzten Anlagen Formaldehydkonzentrationen von 50–100 mg·m−3, was sich für die alten Bundesländer auf eine Gesamtemission von etwa 1000 Tonnen pro Jahr addiert (Schätzung für 1980). Die wesentlich ergiebiger und sauberer arbeitenden industriellen Großfeuerungsanlagen für die Brennstoffe Gas, Öl und Kohle hatten im Jahr 1980 eine Gesamtemission von nur 50 Tonnen pro Jahr. Um der Luftverschmutzung durch Kaminöfen und andere Kleinfeuerungsanlagen entgegenzuwirken, hat die Bundesregierung in der Verordnung über kleine und mittlere Feuerungsanlagen vom 26. Januar 2010 festgeschrieben, dass für eine Verbrennung nur naturbelassene Hölzer zugelassen sind, die genügend lange abgelagert wurden.
Emissionsmessung
Zur Emissionsmessung können verschiedene Verfahren zum Einsatz kommen. Beim MBTH-Verfahren werden kurzkettige aliphatische Aldehyde, darunter Formaldehyd, in Summe bestimmt. Für die Bestimmung wird ein Teilstrom des beladenen Abgases in Reaktion mit 3-Methyl-2-benzothiazolinonhydrazon (MBTH) gebracht. Dabei entsteht ein blau gefärbtes Tetraazapentamethincyanin-Kation, das photometrisch vermessen werden kann.
Zur Anwendung des DNPH-Verfahrens wird ein Abgas, das Aldehyde und Ketone enthält, mit 2,4-Dinitrophenylhydrazin (DNPH) zur Reaktion gebracht. Dies kann entweder in einer Absorptionslösung oder auf einem Adsorbens erfolgen. Die entstehenden 2,4-Dinitrophenylhydrazone können im Anschluss mit Hochleistungsflüssigkeitschromatographie und UV-Detektion einzeln bestimmt werden. Sofern Methenamin (Urotropin) im zu beprobenden Abgas enthalten ist, führen sowohl das DNPH-Verfahren als auch das MBTH-Verfahren aufgrund von Querempfindlichkeiten zu erhöhten Ergebnissen. In diesem Fall empfiehlt sich das AHMT-Verfahren. Werden neben Formaldehyd Acrolein und Acetaldehyd im Abgas vermutet, so kann das 2-HMP-Verfahren zum Einsatz kommen, bei dem die im Abgas enthaltenen Aldehyde mit 2-(Hydroxymethyl)piperidin (2-HMP) reagieren und die Reaktionsprodukte anschließend gaschromatographisch analysiert werden. Bei Abgasen mit hohem Wassergehalt kann das Acetylaceton-Verfahren zum Einsatz kommen.
Im Abgas von Verbrennungsmotoren wird der Formaldehydgehalt mittels automatisiertem FTIR-Verfahren ermittelt. Das zu beprobende Abgas durchströmt eine Messzelle, die von Infrarotstrahlung durchleuchtet wird. Die Abschwächung bestimmter Wellenlängen gibt Auskunft über die Zusammensetzung des Abgases.
Toxikologie
Formaldehyd wurde 2012 von der EU gemäß der Verordnung (EG) Nr. 1907/2006 (REACH) im Rahmen der Stoffbewertung in den fortlaufenden Aktionsplan der Gemeinschaft (CoRAP) aufgenommen. Hierbei werden die Auswirkungen des Stoffs auf die menschliche Gesundheit und die Umwelt neu bewertet und ggf. Folgemaßnahmen eingeleitet. Ursächlich für die Aufnahme von Formaldehyd waren die Besorgnisse bezüglich der Einstufung als CMR-Stoff, der Exposition von Arbeitnehmern, hoher (aggregierter) Tonnage und weit verbreiteter Verwendung. Die Neubewertung fand ab 2013 statt und wurde von Frankreich durchgeführt. Anschließend wurde ein Abschlussbericht veröffentlicht.
Akute Toxizität
Formaldehyd kann bei unsachgemäßer Anwendung Allergien, Haut-, Atemwegs- oder Augenreizungen verursachen. Akute Lebensgefahr (toxisches Lungenödem, Pneumonie) besteht ab einer Konzentration von 30 ml/m³. Bei chronischer Exposition ist er karzinogen und beeinträchtigt zudem das Gedächtnis, die Konzentrationsfähigkeit und den Schlaf.
Die meisten Vergiftungen treten nicht durch direkten Kontakt mit Formaldehyd auf, sondern durch das Trinken von Methanol in minderwertigen Alkoholgetränken. Dabei wandelt sich das Methanol im Körper zunächst durch Alkoholdehydrogenase in Formaldehyd und danach schnell durch Aldehyddehydrogenasen in Ameisensäure um. Diese wird nur langsam metabolisiert und kann zur Azidose führen. Formaldehyd selbst denaturiert besonders leicht Netzhautproteine, was zur Erblindung führen kann. Durch die Zugabe von Formaldehyd wurden verschiedene Lebensmittelskandale verursacht. Zu den verunreinigten Lebensmitteln gehörten Nudeln, gesalzener Fisch, Tofu, Hühnchen, Obst und Gemüse wie Kohl.
Die therapeutischen Maßnahmen bei einer Formaldehydintoxikation sind vielfältig. Bei oraler Aufnahme ist die Gabe von Aktivkohle zweckmäßig (nicht jedoch Milch, welche die Resorptionsgeschwindigkeit erhöht). Die Behandlung der Azidose erfolgt durch eine Natriumhydrogencarbonat-Infusion. Eine weiterführende Therapie kann durch Gabe von Hustensedativa, inhalativen β-Sympathomimetika oder inhalativen Glucocorticoiden durchgeführt werden. Durch Ammoniakdämpfe wird die Wirkung von Formalindämpfen unter Bildung von Hexamethylentetraamin aufgehoben.
Karzinogenes Risiko
Rechtsverbindlich ist Formaldehyd seit dem 1. April 2015 im Anhang VI der Verordnung 2008/1272/EG über die Einstufung, Kennzeichnung und Verpackung von Stoffen und Gemischen in der Kategorie 1B eingestuft: „wahrscheinlich karzinogen beim Menschen“. Formaldehyd hat im Tierversuch mit Ratten nachweislich karzinogene Wirkung gezeigt, allerdings erst bei hohen Konzentrationen ab 6 ml/m3. Im Jahr 2004 änderte die Internationale Agentur für Krebsforschung (IARC) der Weltgesundheitsorganisation WHO die seit 1995 bestehende Einstufung von Formaldehyd von „Verdacht auf krebserregende Wirkung“ auf „krebserregend für den Menschen“. Karzinogen, mutagen oder reproduktionstoxisch eingestufte Stoffe (CMR-Stoffe) gelten als besonders gefährlich und müssen durch weniger gefährliche Stoffe ersetzt werden. Hintergrund der WHO-Einstufung ist eine epidemiologische Studie, die bei Arbeitern, die mehrere Jahre in der Industrie Formaldehyd ausgesetzt waren, eine erhöhte Sterblichkeit durch Tumoren des Nasen-Rachenraumes aufgezeigt hat.
Durch die WHO-Studie sah sich das Bundesinstitut für Risikobewertung (BfR) veranlasst, die krebsauslösenden Risiken von Formaldehyd neu zu bewerten. Seit 2006 sieht das BfR aufgrund der Ergebnisse der eigenen Studie die krebserzeugende Wirkung von Formaldehyd bei Aufnahme über die Atemluft als hinreichend belegt an. Der Effekt ist konzentrationsabhängig:
Eine rechtsverbindliche Einstufung in die Kategorie Carc 1B trat zum 1. April 2015 in Kraft.
In den USA wurde Formaldehyd 1981 im zweiten Bericht über Krebserreger zunächst mit dem Verdacht der krebserzeugenden Wirkung beim Menschen klassifiziert. Seit Juni 2011 stuft das US-Gesundheitsministerium Formaldehyd als krebserzeugend für den Menschen ein, da die vorliegenden Studien dies hinreichend belegen.
Allergen
Für die meisten Menschen ist eine Reizung durch Formaldehyd vorübergehend und reversibel, er kann jedoch Allergien auslösen. Formaldehyd ist ein Kontaktallergen. Bei sensibilisierten Menschen kann Formaldehyd bereits in einer Konzentration von 0,05 % allergische Symptome hervorrufen. Bei einer Epikutantestreihe der North American Contact Dermatitis Group (NACDG) mit etwa 4.500 Patienten erwies sich Formaldehyd als das siebthäufigste Allergen, wobei 9,0 % der Getesteten eine allergische Reaktion zeigten. Die allergische Reaktion zeigt sich oft in Hautläsionen wie Hautbläschen in den Bereichen, die direkten Kontakt mit der Chemikalie aus Textilien oder Kosmetika hatten.
Grenzwerte
Gemäß der CLP-Verordnung müssen formaldehydhaltige Desinfektionsmittel mit Gefahrensymbolen und Warnhinweisen wie „Kann allergische Hautreaktionen verursachen“, „Verursacht schwere Verätzungen der Haut und schwere Augenschäden“ oder „Kann Krebs erzeugen“ gekennzeichnet werden. Aufgrund der Einstufung von Formaldehyd gemäß der CLP-Verordnung erließen die Gesetzgeber auf nationaler und europäischer Ebene verschiedene Verordnungen zu Obergrenzen der Formaldehydkonzentration und zur Kennzeichnung von Produkten mit Formaldehyd. So regelt die Bedarfsgegenständeverordnung die Kennzeichnung von Wasch- und Reinigungsmitteln mit einer Konzentration von mehr als 0,1 % bis 0,2 % freiem Formaldehyd.
Die Chemikalien-Verbotsverordnung untersagt das Inverkehrbringen von Wasch- und Reinigungsmitteln mit einer höheren Konzentration als 0,2 % Formaldehyd. Laut der REACH-Verordnung gilt in Kleidung, Schuhwaren und Textilien, die nicht mit der menschlichen Haut in Kontakt kommen, ein Grenzwert von 300 mg Formaldehyd pro Kilogramm, ab 1. November 2023 wird der Grenzwert auf 75 mg/kg gesenkt. Die Europäische Norm „Sicherheit von Spielzeug“ Teil 9 (DIN EN 71-9) regelt den Gehalt von Formaldehyd in Spielzeugen.
Im Bereich von Textilien (Bekleidung) gilt bei freiwilligen Schadstoffprüfungen im Rahmen eines Prüfsiegels (etwa Toxproof oder Öko-Tex 100) eine Bestimmungsgrenze von 16 mg/kg (16 ppm). Dies ist zugleich der Grenzwert für Baby-Bekleidung. Für hautnah getragene Kleidung gelten 75 mg/kg, für andere Textilien 300 mg/kg. Der zulässige „Grenzwert“ in Deutschland liegt bei 1500 mg/kg (1500 ppm). Dies ist kein echter Grenzwert, da nur ein Hinweis angebracht werden muss, dass empfohlen wird, das Kleidungsstück zur besseren Hautverträglichkeit vor dem ersten Tragen zu waschen.
Der Ausschuss für Innenraumrichtwerte legte 2016 einen Richtwert für die Innenraumluft von 0,1 mg/m³ fest. Im Bauwesen ist für Gebäude bei einer Zertifizierung nach der Deutschen Gesellschaft nachhaltiges Bauen (DGNB) ein Formaldehyd-Grenzwert von 120 μg/m³ definiert, bei dessen Überschreitung keine Zertifizierung möglich ist. Ferner ist ein Zielwert von 60 μg/m³ definiert. Die Arbeitsgemeinschaft ökologischer Forschungsinstitute e. V. (AGÖF) hat darüber hinaus einen Orientierungswert für Planungen von 30 μg/m³ herausgegeben.
Im März 2015 wurden Ergänzungen der rechtsverbindlichen Arbeitsplatzgrenzwerte der TRGS 900 bekannt gegeben. Dabei wurde der Wert für die Maximale Arbeitsplatz-Konzentration von 0,3 ml/m3 entsprechend 0,37 mg/m3 festgelegt, der von der Deutschen Forschungsgemeinschaft (DFG) empfohlen wurde.
Nachweis
Ein Nachweis von freiem oder abspaltbarem Formaldehyd ist mit Chromotropsäure durch die Chromotropsäure-Reaktion möglich. Ein Nachweis ist mit Methylbenzothiazolonhydrazon oder fuchsinschwefliger Säure (Schiffsches Reagenz) möglich. Gasförmiges Formaldehyd ist zudem über seine Absorption im nahen UV und im infraroten Spektralbereich spektroskopisch nachweisbar. Dies erlaubt die Messungen von Formaldehydkonzentrationen in der Erdatmosphäre über Fernerkundungsmethoden von Satelliten und vom Boden.
Das Europäische Arzneibuch lässt bei der Grenzprüfung auf Formaldehyd Acetylaceton zugeben. Beim Acetylaceton-Verfahren reagiert der Formaldehyd mit Acetylaceton in Gegenwart von Ammoniumacetat in einer Hantzschschen Dihydropyridinsynthese unter Bildung eines 3,5-Diacetyl-1,4-dihydropyridin-Derivats, dessen Konzentration photometrisch bestimmt werden kann.
Für Holzwerkstoffe existieren unterschiedliche Methoden und Normen zur quantitativen Bestimmung von Kenngrößen, die letztlich auf das Emissionspotenzial oder das „reale“ Emissionsverhalten rückschließen lassen:
„Perforator-Methode“: Angabe in mg Formaldehyd pro 100 g Probe, siehe Perforator (Chemie)
Desiccator-Methode: „Kleine“ Probenstücke geben Formaldehyd an Wasser ab, Angabe in mg/l
„Kammer-Methoden“: Große Plattenproben werden über einen längeren Zeitraum auf ihre Formaldehyd-Emission in einer Prüfkammer untersucht, Angabe beim Pararosanilinverfahren: ppm mit 0,01 ppm = 0,0124 mg Formaldehyd pro m³ Raumluft = 12,4 µg Formaldehyd pro m³ Raumluft, Bestimmungsgrenze 0,01 ppm
Die Bestimmung erfolgt nach DIN EN ISO 14184-1:2011-12 (Ersatz für DIN 54260:1988-029), § 64 LFGB (ehem. § 35 LMBG) B 82.02-1 (freies und freisetzbares Formaldehyd) und DIN EN 717-1 (Holzwerkstoffe, Formaldehydabgabe nach der Prüfkammer-Methode) oder nach DIN EN 120 (Holzwerkstoffe – Bestimmung des Formaldehydgehaltes nach der Perforatormethode).
Literatur
Luoping Zhang: Formaldehyde. Exposure, Toxicity and Health Effects. Royal Society of Chemistry, London 2018, ISBN 978-1-78262-973-3.
Wilhelm Keim: Kunststoffe. Synthese, Herstellungsverfahren, Apparaturen. Wiley-VCH, Weinheim 2006, ISBN 3-527-31582-9.
Weblinks
Wikisource: Formalin – Wikisource enthält den Text des Artikels Formalin der Encyclopædia Britannica aus dem Jahr 1911.
Einzelnachweise
Aldehyd
Begasungsmittel
Beschränkter Stoff nach REACH-Anhang XVII, Eintrag 28
Beschränkter Stoff nach REACH-Anhang XVII, Eintrag 72
|
Q161210
| 103.308002 |
2994
|
https://de.wikipedia.org/wiki/Lebewesen
|
Lebewesen
|
Lebewesen sind organisierte Einheiten, die unter anderem zu Stoffwechsel, Fortpflanzung, Reizbarkeit, Wachstum und Evolution fähig sind. Lebewesen prägen entscheidend das Bild der Erde und die Zusammensetzung der Erdatmosphäre (Biosphäre). Neuere Schätzungen lassen vermuten, dass 30 Prozent der gesamten Biomasse der Erde auf unterirdisch lebende Mikroorganismen entfallen. Rezente Lebewesen stammen immer von anderen Lebewesen ab (Abstammungstheorie). Über die Entstehung von Lebewesen aus abiogenen Vorformen wird intensiv geforscht. Zu den ältesten Spuren irdischer Lebewesen gehören insbesondere die Stromatolithen.
Die Biologie untersucht die heute bekannten Lebewesen und ihre Evolution sowie die Grenzformen des Lebens (z. B. Viren) mit naturwissenschaftlichen Methoden.
Eigenschaften von Lebewesen (Übersicht)
Lebewesen kennzeichnende Merkmale findet man vereinzelt also auch bei technischen, physikalischen und chemischen Systemen. Insbesondere zeigt Feuer je nach Interpretation einen großen Teil dieser Eigenschaften.
Auf alle lebenden Organismen (Lebewesen) müssen zumindest auf der Ebene der Zelle alle Kennzeichen zutreffen.
Tote Organismen wiesen in ihrer Vergangenheit alle Kennzeichen auf.
Latentes Leben haben Organismen, die zwar nicht alle Kennzeichen aufweisen, also toten Organismen oder unbelebten Gegenständen ähnlich sind, jederzeit aber zu lebenden Organismen werden können. (Beispiele: Sporen von Bakterien oder Pilzen).
Unbelebte Gegenstände zeigen zur Zeit ihrer Existenz nicht alle Kennzeichen.
Drei wesentliche Eigenschaften haben sich aber herauskristallisiert, die für alle Lebewesen als Definitionskriterien gelten sollen:
Stoffwechsel (Metabolismus) während zumindest einer Lebensphase, was eine Kompartimentierung durch eine Wand oder Membran bedingt,
Fähigkeit zur Selbstreproduktion und
die mit der Selbstreproduktion verbundene genetische Variabilität als Bedingung evolutionärer Entwicklung.
Diese Einschränkung würde aber viele hypothetische Frühstadien der Entwicklung des Lebens sowie rezente Grenzformen des Lebens, wie Viren, kategorisch ausschließen. Ausführlich wird dieser Aspekt im Abschnitt Lebewesen: Begriffsprobleme behandelt.
Aufbau von Lebewesen
Lebewesen bestehen vorwiegend aus Wasser, organischen Kohlenstoffverbindungen und häufig aus mineralischen oder mineralisch verstärkten Schalen und Gerüststrukturen (Skelette).
Alle Lebewesen (Pflanzen, Tiere, Pilze, Protisten, Bakterien und Archaeen) sind aus Zellen oder Synzytien (mehrkernigen Zellverschmelzungen, z. B. Ciliaten und viele Pilze) aufgebaut, d. h. zelluläre Organismen (Cytota). Sowohl die einzelne Zelle als auch die Gesamtheit der Zellen (eines mehrzelligen Organismus) sind strukturiert und kompartimentiert, das heißt, sie bilden ein komplex aufgebautes System voneinander abgegrenzter Reaktionsräume. Sie sind untereinander und zur Außenwelt hin durch Biomembranen abgetrennt.
Jede Zelle enthält in ihrem Erbgut alle zum Wachstum und für die vielfältigen Lebensprozesse notwendigen Anweisungen.
Im Lauf des individuellen Wachstums differenzieren sich die Zellen zu verschiedenen Organen, die jeweils bestimmte Funktionen für das Gesamtsystem, das Individuum, übernehmen.
Chemie der Lebewesen
Elemente
Es ist bis heute nicht gelungen, mit Sicherheit alle Elemente zu identifizieren, die wirklich alle Lebewesen für ihr Wachstum benötigen. Eindeutig ist nur, dass die elementaren Bausteine der biologischen Makromoleküle für alle lebenden Zellen essentiell sind, das sind Kohlenstoff (C), Wasserstoff (H), Sauerstoff (O) und Stickstoff (N) als Hauptbestandteile und Phosphor (P) und Schwefel (S) in geringeren Anteilen. Es ist bisher auch nicht gelungen, irgendwelche Organismen zu finden, die ohne Magnesium (Mg) und Zink (Zn) auskämen. Bei allen anderen Elementen, auch solchen, die einige Lebewesen in größeren Mengen, als Makronährstoffe, benötigen, ist nicht gesichert, ob der Bedarf wirklich essentiell ist. So gibt es zum Beispiel Milchsäurebakterien, die kein Eisen (Fe) benötigen. Viele Prokaryoten sind imstande, Mangel an Nährelementen mit anderen, selten genutzten Elementen zu substituieren. Einige für die meisten Organismen giftige Elemente können für ganz wenige, spezialisierte Organismen nützlich sein, etwa Cadmium (Cd) in einigen Kieselalgen.
Bei komplexeren, mehrzelligen Organismen, wie etwa auch beim Menschen, ist der Bedarf stärker festgelegt: Der Mensch benötigt zum Leben 20 Elemente; ein weiteres, Chrom (Cr), war lange umstritten, gilt nun aber nur noch, in extrem geringen Mengen, als nützliches, aber nicht essentielles Spurenelement. 17 Elemente sind für alle Pflanzen essentiell; viele Pflanzen nutzen aber auch Elemente, teilweise in größeren Mengen, die Säugetiere wie der Mensch gar nicht benötigen, etwa Aluminium (Al) oder Silicium (Si). Man sollte also nicht aus den Bedürfnissen des Menschen auf diejenigen der Lebewesen generell schließen, es werden nach wie vor neue Organismen mit exotischen Wegen des Stoffwechsels entdeckt.
Biochemische Bestandteile
Lebewesen sind vor allem durch in ihnen enthaltene reproduzierende Moleküle gekennzeichnet. Bekannt sind heute die Polynukleotide DNA und RNA, aber auch andere Moleküle haben möglicherweise diese Eigenschaft. Ferner enthalten sie Eiweiße (Proteine), makromolekulare Kohlenhydrate (Polysaccharide) sowie komplexe Moleküle wie Lipide und Steroide. Alle diese Makromoleküle und komplexen Moleküle kommen nicht in der unbelebten Natur vor, sie können von unbelebten Systemen nicht hergestellt werden. Kleinere Bausteine wie Aminosäuren und Nukleotide dagegen sind auch in der unbelebten Natur, zum Beispiel in interstellaren Gasen oder in Meteoriten, zu finden und können auch abiotisch entstehen.
Daneben enthalten die Zellen der Lebewesen zu einem großen Teil Wasser und darin gelöste anorganische Stoffe.
Alle bekannten Lebensvorgänge finden in Anwesenheit von Wasser statt.
Systematik der Lebewesen
Die biologische Systematik versucht, eine sinnvolle Gruppierung aller Lebewesen zu erstellen. Die oberste Stufe wird dabei von den Domänen gebildet. Man unterscheidet nach molekularbiologischen Kriterien drei Domänen: die eigentlichen Bakterien (Bacteria), die Archaeen (Archaea), früher auch Archaebakterien genannt und die Eukaryoten (Eukaryota). Die beiden erstgenannten Domänen enthalten alle Lebewesen ohne Zellkern, die Prokaryoten genannt werden. Die Domäne der Eukaryoten umfasst alle Lebewesen mit Zellkern, darunter fallen Tiere (inklusive der Menschen), Pflanzen und Pilze sowie die Protisten. Dabei sind die Eukaryoten und Archaeen näher miteinander verwandt.
Lebewesen als Systeme
Eigenschaften von Lebewesen
Die folgenden Eigenschaften von Lebewesen kommen auch bei unbelebten Systemen der Natur und der Technik vor:
Lebewesen sind in der Terminologie der Systemtheorie:
offen: Sie stehen in lebenslangem Energie-, Stoff- und Informationsaustausch mit der Umwelt.
komplex: Leben setzt eine gewisse Komplexität in der Organisation des Systems voraus.
dynamisch: Sie sind zumindest auf der biochemischen Ebene dauernd Reizen und Zwängen der Umwelt ausgesetzt, können aber zeitweise einen stationären Zustand einnehmen, weisen also eine Konstanz von Struktur und Leistung auf. Diese Veränderungen sind einerseits auf dem System innewohnende Bedingungen zurückzuführen (Beispiel: Erzeugung genetischer Variation durch Rekombination bei der Fortpflanzung), andererseits durch Umwelteinflüsse und Umweltreize. Lebewesen wirken wiederum auf ihre Umwelt verändernd zurück. (Beispiel: Veränderung der Zusammensetzung der Atmosphäre durch die Photosynthese.)
deterministisch: Auch wenn alle Eigenschaften der Lebewesen durch die Naturgesetze bestimmt sind, lassen sich aufgrund ihrer Komplexität vor allem für emergente Eigenschaften kaum mathematisch exakte Aussagen über die Vorhersagbarkeit ihrer Eigenschaften und Entwicklung und ihres Verhaltens machen: Durch die für wissenschaftliche Untersuchungen notwendige Reduktion lassen sich zwar Gesetzmäßigkeiten für einzelne Elemente ermitteln. Daraus lassen sich aber nicht immer Gesetzmäßigkeiten für das Gesamtsystem ableiten.
stabil und adaptiv: Lebewesen können trotz störender Einflüsse aus der Umwelt ihre Struktur und ihr inneres Milieu für längere Zeit aufrechterhalten. Andererseits können sie sich auch in Struktur und Verhalten verändern und Umweltänderungen anpassen.
autopoietisch: Lebewesen sind sich selbst replizierende Systeme, wobei einerseits die Kontinuität von Struktur und Leistung über lange Zeiträume hinweg gewährleistet ist, andererseits durch die Ungenauigkeit der Replikation Möglichkeiten zur evolutionären Anpassung an Umweltänderungen bestehen.
autark: Lebewesen sind bis zu einem gewissen Grad von der Umwelt unabhängig. (Siehe dazu die Erörterung der Problematik der Autarkie.)
Organisation
Die folgenden Organisationsformen von Lebewesen kommen auch bei unbelebten Systemen der Natur und der Technik vor:
Als komplexe, heterogene Systeme bestehen Lebewesen aus vielen Elementen unterschiedlicher Struktur und Funktion, die durch zahlreiche, unterschiedliche Wechselwirkungen miteinander verknüpft sind.
Lebewesen sind hierarchisch strukturiert: Sie bestehen aus zahlreichen unterschiedlichen Elementen (Subsystemen), die durch zahlreiche Beziehungen miteinander verknüpft sind und selbst wieder aus zahlreichen Untereinheiten bestehen, welche selbst wieder Systeme darstellen und aus Subsystemen bestehen (zum Beispiel Organe bestehen aus Zellen, diese enthalten Organelle, welche aus Biomolekülen aufgebaut sind).
Lebewesen sind auch selbst wieder Elemente von komplexen Systemen höherer Ordnung (zum Beispiel Familienverband, Population, Biozönose), sind also ebenfalls mit zahlreichen weiteren Systemen (andere Lebewesen, unbelebte und technische Systeme) verknüpft.
Alle Lebewesen sind Systeme mit speziellen Informationsbahnen und Informationsspeichern.
Das genetische Programm
Wie die komplexen physikalischen Systeme der unbelebten Natur (wie zum Beispiel das Sonnensystem) entstehen auch bei Lebewesen Strukturen durch Selbstorganisation. Darüber hinaus besitzen Lebewesen im Gegensatz zu Systemen der unbelebten Natur das genetische Programm, welches jedoch ebenfalls in ähnlicher Weise in Systemen der Technik vorkommen kann (siehe Genetische Programmierung). Durch dieses Programm werden Lebensvorgänge ausgelöst, gesteuert und geregelt. Dazu gehört auch die Reproduktion dieses Programms. Dieses Programm ist teleonomisch, ohne teleologisch sein zu können: Es gibt die Richtung der ontogenetischen Entwicklung und des Verhaltens der Organismen vor und grenzt sie in einem gewissen Rahmen von anderen Entwicklungsmöglichkeiten und Verhaltensweisen ab. Fehlen Teile des Programms oder weisen sie Fehlfunktionen auf, können sich – außerhalb eines Toleranzbereiches – langfristig keine überlebensfähigen Organismen entwickeln.
Evolution des Lebens
Die Entwicklungsgeschichte des Lebens auf der Erde (Evolutionsgeschichte) hat einen einmaligen Verlauf. Auch wenn man die Ausgangsbedingungen wiederherstellen könnte, würde sich möglicherweise ein ähnlicher Ablauf ergeben, wie er schon einmal stattgefunden hat, aber höchstwahrscheinlich nicht exakt der gleiche. Der Grund dafür ist die Vielzahl von zufälligen Zusammentreffen von Einflussfaktoren, die seit dem Beginn des Lebens die weitere Entwicklung bestimmt haben. Diese zufälligen Einflüsse werden durch Selektions- und Anpassungsprozesse teilweise wieder ausgeglichen, trotzdem ist eine genau identische Entwicklung unter realen Bedingungen nicht wahrscheinlich.
Die Entwicklung der verschiedenen Arten von Lebewesen wird in der Evolutionstheorie behandelt. Dieser von Charles Darwin begründete Zweig der Biologie erklärt die Vielfalt der Lebensformen durch Mutation, Variation, Vererbung und Selektion. Die Evolutionstheorien haben zum Ziel, die Veränderungen von Lebensformen im Laufe der Zeit zu erklären und die Entstehung der frühesten Lebensformen nachvollziehbar zu machen. Für Letzteres gibt es eine Reihe von Konzepten und Hypothesen (beispielsweise RNA-Welt, siehe auch Chemische Evolution).
Die ältesten bisher gefundenen fossilen Spuren von Lebewesen sind mikroskopisch kleine Fäden, die als Überreste von Cyanobakterien gelten. Allerdings werden diese in 3,5 Milliarden Jahre alten Gesteinen gefundenen Ablagerungen nicht allgemein als Spuren von Leben angesehen, da es auch rein geologische Erklärungen für diese Formationen gibt.
Die derzeit populärste Theorie zur Entstehung autotrophen Lebens postuliert die Entwicklung eines primitiven Metabolismus auf Eisen-Schwefel-Oberflächen unter reduzierenden Bedingungen, wie sie in der Umgebung von vulkanischen Ausdünstungen anzutreffen sind. Während der Frühphase der Evolution irdischer Lebewesen, die im geologischen Zeitraum vor zwischen 4,6 und 3,5 Milliarden Jahren (Präkambrium) stattfand, war die Erdatmosphäre wahrscheinlich reich an Gasen wie Wasserstoff, Kohlenstoffmonoxid und Kohlenstoffdioxid, während die heißen Ozeane relativ hohe Konzentrationen an Ionen von Übergangsmetallen wie gelöstem Eisen (Fe2+) oder Nickel (Ni2+) enthielten. Ähnliche Bedingungen finden sich heute in der Umgebung von hydrothermalen Schloten, die während plattentektonischer Prozesse auf dem Meeresgrund entstanden sind. In der Umgebung solcher als Schwarze Raucher () bezeichneten Schlote gedeihen thermophile methanogene Archaeen auf der Grundlage der Oxidation von Wasserstoff und der Reduktion von Kohlenstoffdioxid (CO2) zu Methan (CH4). Diese extremen Biotope zeigen, dass Leben unabhängig von der Sonne als Energielieferant gedeihen kann, eine grundlegende Voraussetzung für die Entstehung und Aufrechterhaltung von Leben vor dem Aufkommen der Photosynthese.
Neuere Ansätze gehen davon aus, dass die Evolution nicht an der Art, sondern am Individuum und seinen Genen ansetzt (siehe Soziobiologie und Verhaltensbiologie).
Lebewesen: Begriffsprobleme
Definition der physischen Grenze
Hier ist die äußerste Grenze letztlich die Zellmembran, die Pellicula, die Zellwand oder eine andere einhüllende und begrenzende Struktur. Bei höheren Organisationsstufen übernehmen Abschluss- und Deckgewebe wie Epidermis, Epithel, Haut oder Rinde diese Funktion.
Viele Organismen geben Stoffe an die Umwelt ab und schaffen sich damit eine eigene Umwelt im Nahbereich, ein Mikromilieu. Beispiel: Schleimkapsel von Pneumococcus. Hier hängt die physische Abgrenzung des Individuums von der Fragestellung ab.
Definition des Individuums
Die Abgrenzung eines einzelnen Lebewesens von anderen, eigenständigen Lebewesen ist nicht trivial. Das Wort Individuum bedeutet nach seiner lateinischen Herkunft ein Unteilbares. In dieser Bedeutung ist es nicht für alle Lebewesen praktikabel. Zwar kann man die meisten höheren Tiere nicht teilen, ohne sie oder den abgetrennten Teil damit zu töten. Sie sind also nicht teilbar. Einen Hund als Individuum anzusprechen ist daher kein Problem. Dagegen kann man von einem „individuellen“ Baum einen Ableger abteilen und diesen zu einem neuen Exemplar heranwachsen lassen. Damit ist das vermeintliche Baum-Individuum im Grunde ein „Dividuum“, denn es leben nicht zwei Teile eines Baumindividuums weiter, sondern aus einem Exemplar sind zwei entstanden, das ursprüngliche Exemplar wurde vermehrt. Viele Pflanzen bedienen sich dieses Verfahrens der Ausbreitung systematisch, z. B. durch Ableger. Oft wachsen so ganze Rasen oder Wälder heran, die eigentlich einem einzigen zusammenhängenden Exemplar angehören, das aber jederzeit an beliebiger Stelle in mehrere Exemplare geteilt werden könnte.
Durch die Möglichkeit des Klonens entsteht die Fähigkeit zur Abtrennung eines neuen lebensfähigen Exemplars, auch für Säugetiere (siehe Klonschaf Dolly). Damit wird der Begriff Individuum in vielen Bereichen der Biologie mehr oder weniger hinfällig und müsste dort durch einen anderen, besser zutreffenden ersetzt werden, etwa durch den Begriff Exemplar.
Bei Schleimpilzen und kolonienbildenden Einzellern (Beispiel Eudorina) lassen sich individuelle, autarke Zellen unterscheiden. Sie gehen aber zumindest zeitweise Verbindungen miteinander ein, in welcher sie ihre Individualität und Unabhängigkeit aufgeben, also einem mehrzelligen Organismus gleichen.
Autarkie
Aufgrund der komplexen Wechselwirkungen von Organismen mit ihrer Umwelt kann man nur eingeschränkt von Autarkie sprechen:
So sind Lebewesen bezüglich der Energie nie autark, sie sind immer auf eine externe Energiequelle angewiesen, die in der Regel letztlich durch die Sonne gegeben ist. Organismen, die als Energiequelle nur Licht oder die chemische Energie anorganischer Stoffe benötigen, also nicht auf andere Lebewesen als Energielieferanten angewiesen sind, können als energetisch autark betrachtet werden.
Autotrophe Organismen sind in dem Sinne stofflich autark, als sie aus anorganischen Stoffen körpereigene organische Stoffe herstellen und diese im Stoffwechsel wieder zu anorganischen Stoffen abbauen. So lässt sich eine photosynthetisch aktive Pflanze in einem von der Umgebungsluft abgeschlossenen Glasgefäß bei ausreichender Beleuchtung am Leben erhalten, da sich ein Gleichgewicht zwischen Photosynthese und Atmung einstellen kann. Wachstum und Fortpflanzung sind in diesem System allerdings nur so lange möglich wie der Vorrat an Wasser und Nährsalzen ausreicht. Heterotrophe Organismen sind in diesem Sinne nicht autark, da sie auf die von anderen Lebewesen vorgefertigten Nährstoffe angewiesen sind.
Übergeordnete Systeme wie zum Beispiel eine Lebensgemeinschaft (Biozönose) können wiederum energetische und stoffliche Autarkie erreichen, wenn bestimmte Organismengruppen in ausreichender Zahl und mit einer ausgeglichenen Vermehrungsrate vorhanden sind. (Siehe dazu ökologisches Gleichgewicht.) So hat sich in der Tiefsee eine autarke Lebensgemeinschaft zwischen chemoautotrophen Bakterien, Röhrenwürmern, Krebsen und Fischen ausgebildet. Die Ökologie untersucht unter anderem, welche Mindestanforderungen eine abgeschlossene Lebensgemeinschaft erfüllen muss, um autark zu sein, das heißt, einen geschlossenen Stoffkreislauf zu ermöglichen. Letztlich kann die Gesamtheit aller Lebewesen der Erde als eine autarke Lebensgemeinschaft aufgefasst werden (vergleiche dazu die Gaia-Hypothese, die die Erde als einen Organismus auffasst.)
Alle Lebewesen sind bezüglich eines dem System innewohnenden Programms, des genetischen Systems, autark. Damit können sie selbst ihre Lebensvorgänge auslösen, steuern und regeln. (Siehe Systemverhalten). (In diesem Sinne wären auch Viren und Viroide autark, ihr Programm ist aber nicht vollständig, sie sind auch auf die Programme ihrer Wirte angewiesen). Diese Autarkie ist insofern vollständig, als auch die Programmierung, also die Erstellung des genetischen Quellcodes nicht von außen, durch einen „Programmierer höherer Ordnung“, vorgenommen werden muss. Andererseits reichen die Programme nicht aus, um alle Lebensvorgänge zu determinieren: So kann sich zum Beispiel das Gehirn ohne Einfluss der Umwelt nicht fertig entwickeln. In völliger Dunkelheit würde die Sehrinde nicht ihre volle Funktionsfähigkeit erlangen.
Alle Lebewesen sind bezüglich Wachstum, Reparatur und Reproduktion autark. Sie stellen die für sie charakteristischen Systemelemente (Biomoleküle, Zellorganelle, Zellen) selbst her, gleichen mit Hilfe von Reparaturmechanismen strukturelle Störungen innerhalb gewisser Grenzen von selbst aus und sind fähig, ähnliche Kopien von sich herzustellen. Die Herstellung identischer Kopien ist prinzipiell aufgrund physikalischer und chemischer Gesetzmäßigkeiten auf keiner Systemebene möglich. Die dadurch zwangsläufige Variation führt in Zusammenwirken mit der Umwelt zu Evolution auf allen Systemebenen. (Siehe dazu Systemtheorie der Evolution)
Bei der Entwicklung der Systemtheorie durch Physiker, Mathematiker und Techniker gingen diese immer wieder auf Analogien in Struktur und Verhalten von Lebewesen ein. Diese Betrachtung von Lebewesen als Systeme führte dazu, dass Konzepte der Kybernetik, Informatik und der Systemtheorie Eingang in die Biologie gefunden haben, zuletzt und umfassend in der Systemtheorie der Evolution.
Thermodynamische Definition
Lebewesen sind als offene Systeme seit ihrer Existenz stets weit vom thermodynamischen Gleichgewicht entfernt. Sie weisen einen hohen Ordnungsgrad und damit eine niedrige Entropie auf. Diese können nur dadurch aufrechterhalten werden, dass die Erhöhung des Ordnungsgrades energetisch mit Prozessen gekoppelt wird, welche die hierfür notwendige Energie liefern. (Beispiel: Aufbau von organischen Stoffen niedriger Entropie wie Glukose, DNA oder ATP, aus anorganischen Stoffen hoher Entropie wie Kohlenstoffdioxid, Wasser und Mineralsalzen durch Photosynthese und Stoffwechsel.) Tritt der Tod ein, stellt sich das thermodynamische Gleichgewicht ein, der hohe Ordnungsgrad kann nicht mehr aufrechterhalten werden, die Entropie wird größer. Leben kann thermodynamisch als die Rückkopplung eines offenen Systems mit seiner Umgebung verstanden werden, welches auf Kosten dieser die eigene Ordnung aufrechterhält. Diese Definition steht mit einer der möglichen Formulierungen des 2. Hauptsatzes der Thermodynamik in Einklang, nach dem die Änderung der Entropie eines Gesamtsystems Null oder größer Null ist. Damit die Ordnung eines Systems aufrechterhalten bleiben oder zunehmen kann, muss die Unordnung der Umgebung mindestens in gleichem Maße zunehmen, sodass die Änderung des Gesamtsystems in Summe mindestens Null ist.
Einordnung der Viren
Viren kommen einerseits als nackte Nukleinsäuren in den Wirtszellen vor, andererseits außerhalb von Zellen als Virionen, die aus der Nukleinsäure und einer Proteinhülle bestehen. Die meisten Wissenschaftler zählen Viren nicht zu den Lebewesen. Wird beispielsweise eine Zellstruktur als grundlegendes Kennzeichen von Lebewesen angesehen, sind Viren nicht zu den Lebewesen zu rechnen, da sie weder Zellen sind noch aus Zellen aufgebaut sind. Zwei weitere Kriterien sind noch wichtiger: Viren haben keinen eigenen Stoffwechsel und sie pflanzen sich nicht selbständig fort. Ihre Vermehrung erfolgt ausschließlich durch die Biosynthese-Maschinerie der Wirtszellen, die dabei durch die Virus-Nukleinsäure gesteuert wird.
Eine Einstufung als „Grenzfall des Lebens“ ist jedoch naheliegend. Die Existenz der Viren könnte in der Evolution auf einen Übergang von „noch nicht lebendig“ zu „lebendig“ hinweisen. Allerdings könnten sich die Viren auch aus „echten“ Lebewesen wie den Bakterien rückentwickelt haben.
Mittlerweile ist es gelungen, eine Nukleinsäure mit der Sequenz des Poliovirus durch DNA-Synthese künstlich zu erzeugen; auf die gleiche Weise hat man bereits viele weitere DNA- und RNA-Abschnitte für gentechnische Experimente erzeugt. Schleust man dann in dieser Weise erzeugte DNA-Stränge in Zellen ein, entstehen in der Folge komplette, natürliche Polioviren. Das Experiment verdeutlicht, dass die Grenze zwischen Lebewesen und Nicht-Lebewesen schwierig zu bestimmen ist.
Viren sind durch Mutationen und Selektion der Evolution unterworfen. Im weiteren Sinne gilt dies aber auch für viele Nicht-Lebewesen, zum Beispiel für einzelne Gene (Das egoistische Gen), aber auch für Verhaltensweisen und kulturelle Errungenschaften wie Werkzeuge, Techniken und Ideen (Mem-Theorie). Die Evolution der Viren ist deshalb kein hinreichender Beweis dafür, dass Viren Lebewesen seien.
Lebewesen der Superlative
Der Dunkle Hallimasch im Malheur National Forest, Oregon, gilt nach derzeitigem Kenntnisstand mit rund 9 Quadratkilometern (je nach Quelle um die 880 Hektar oder 965 Hektar) bezogen auf seine Fläche als das größte Lebewesen und der größte Pilz der Erde. Sein Gewicht beträgt schätzungsweise 600 Tonnen.
Der General Sherman Tree in Kalifornien (USA), ein Exemplar des Riesenmammutbaumes, wiegt 1.950 Tonnen (Stand 1938) und ist das vermutlich schwerste nicht-klonale Lebewesen der Erde.
Siehe auch
Außerirdisches Leben
Biota
Literatur
Hans-Joachim Flechtner: Grundbegriffe der Kybernetik – eine Einführung. Wissenschaftliche Verlags-Gesellschaft, Stuttgart 1970.
Anna Maria Hennen: Die Gestalt der Lebewesen. Versuch einer Erklärung im Sinne der aristotelisch-scholastischen Philosophie. Königshausen & Neumann, Würzburg 2000, ISBN 3-8260-1800-1.
Sven P. Thoms: Ursprung des Lebens. Fischer-Taschenbuch-Verlag, Frankfurt 2005, ISBN 3-596-16128-2.
Weblinks
OneZoom: Tree of Life – Zoombarer Stammbaum aller rezenten Lebewesen-Arten
Quellen
|
Q7239
| 3,377.605552 |
968
|
https://de.wikipedia.org/wiki/Compiler
|
Compiler
|
Ein Compiler (auch Kompilierer; von ‚zusammentragen‘ bzw. ‚aufhäufen‘) ist ein Computerprogramm, das Quellcodes einer bestimmten Programmiersprache in eine Form übersetzt, die von einem Computer (direkter) ausgeführt werden kann. Daraus entsteht ein mehr oder weniger direkt ausführbares Programm. Davon zu unterscheiden sind Interpreter, etwa für frühe Versionen von BASIC, die keinen Maschinencode erzeugen.
Teils wird zwischen den Begriffen Übersetzer und Compiler unterschieden. Ein Übersetzer überführt ein Programm aus einer formalen Quellsprache in ein semantisches Äquivalent in einer formalen Zielsprache. Compiler sind spezielle Übersetzer, die Programmcode aus höheren Programmiersprachen, in ausführbare Maschinensprache einer bestimmten Rechnerarchitektur oder einen Zwischencode überführen. Diese Trennung zwischen den Begriffen Übersetzer und Compiler wird nicht in allen Fällen vorgenommen.
Der Vorgang der Übersetzung durch den Compiler wird als Kompilierung oder Umwandlung bezeichnet. Das Gegenteil, also die Rückübersetzung von Maschinensprache in Quelltext einer bestimmten Programmiersprache, wird Dekompilierung und entsprechende Programme Decompiler genannt.
Terminologie
Ein Übersetzer ist ein Programm, das als Eingabe ein in einer Quellsprache formuliertes Programm akzeptiert und es in ein semantisch äquivalentes Programm in einer Zielsprache übersetzt. Es wird also insbesondere gefordert, dass das erzeugte Programm die gleichen Ergebnisse wie das gegebene Programm liefert. Als Ausnahme wird oft die Quell-Sprache Assembler angesehen – ihr Übersetzer (in Maschinencode) heißt „Assembler“ und wird i. A. nicht als „Compiler“ bezeichnet. Die Aufgabe des Übersetzers umfasst ein großes Spektrum an Teilaufgaben, von der Syntaxanalyse bis zur Zielcodeerzeugung. Eine wichtige Aufgabe besteht auch darin, Fehler im Quellprogramm zu erkennen und zu melden.
Das Wort „Compiler“ stammt vom Englischen „to compile“ (dt. zusammentragen, zusammenstellen) ab und heißt im eigentlichen Wortsinn also „Zusammentrager“. In den 1950er-Jahren war der Begriff noch nicht fest in der Computerwelt verankert. Ursprünglich bezeichnete Compiler ein Hilfsprogramm, das ein Gesamtprogramm aus einzelnen Unterprogrammen oder Formelauswertungen zusammentrug, um spezielle Aufgaben auszuführen. (Diese Aufgabe erfüllt heute der Linker, der jedoch auch im Compiler integriert sein kann.) Die einzelnen Unterprogramme wurden noch „von Hand“ in Maschinensprache geschrieben. Ab 1954 kam der Begriff „algebraic compiler“ für ein Programm auf, das die Umsetzung von Formeln in Maschinencode selbständig übernahm. Das „algebraic“ fiel im Laufe der Zeit weg.
Ende der 1950er-Jahre wurde der Begriff des Compilers im englischsprachigen Raum noch kontrovers diskutiert. So hielt das Fortran-Entwicklerteam noch jahrelang am Begriff „translator“ (deutsch „Übersetzer“) fest, um den Compiler zu bezeichnen. Diese Bezeichnung ist sogar im Namen der Programmiersprache Fortran selbst enthalten: Fortran ist zusammengesetzt aus Formula und Translation, heißt also in etwa Formel-Übersetzung. Erst 1964 setzte sich der Begriff Compiler auch im Zusammenhang mit Fortran gegenüber dem Begriff Translator durch. Nach Carsten Busch liegt eine „besondere Ironie der Geschichte darin“, dass der Begriff Compiler im Deutschen mit „Übersetzer“ übersetzt wird. Einige deutsche Publikationen verwenden jedoch auch den englischen Fachbegriff Compiler anstelle von Übersetzer.
In einem engeren Sinne verwenden einige deutschsprachige Publikationen den Fachbegriff Compiler jedoch nur, wenn die Quellsprache eine höhere Programmiersprache ist als die Zielsprache. Typische Anwendungsfälle sind die Übersetzung einer höheren Programmiersprache in die Maschinensprache eines Computers, sowie die Übersetzung in Bytecode einer virtuellen Maschine. Zielsprache von Compilern (in diesem Sinne) kann auch eine Assemblersprache sein. Ein Übersetzer zur Übertragung von Assembler-Quellprogrammen in Maschinensprache wird als Assembler oder Assemblierer bezeichnet.
Geschichte
Bereits für die erste entworfene höhere Programmiersprache, den Plankalkül von Konrad Zuse, plante dieser – nach heutiger Terminologie – einen Compiler. Zuse bezeichnete ein einzelnes Programm als Rechenplan und hatte schon 1944 die Idee für ein sogenanntes Planfertigungsgerät, welches automatisch aus einem mathematisch formulierten Rechenplan einen gestanzten Lochstreifen mit entsprechendem Maschinenplan für den Zuse-Z4-Computer erzeugen sollte.
Konkreter als die Idee von Zuse eines Planfertigungsgeräts war ein Konzept von Heinz Rutishauser zur automatischen Rechenplanfertigung. In einem Vortrag vor der Gesellschaft für Angewandte Mathematik und Mechanik (GAMM) wie auch 1951 in seiner Habilitationsschrift an der ETH Zürich beschrieb er, welche zusätzlichen Programmierbefehle (Instruktionen) und Hardware-Ergänzungen an der damals an der ETHZ genutzten Z4 nötig seien, um den Rechner ebenfalls als Hilfsmittel zur automatischen Programmerstellung einzusetzen.
Ein früher Compiler wurde 1949 von der Mathematikerin Grace Hopper konzipiert. Bis zu diesem Zeitpunkt mussten Programmierer direkt Maschinencode erstellen. (Der erste Assembler wurde zwischen 1948 und 1950 von Nathaniel Rochester für eine IBM 701 geschrieben.) Um diesen Prozess zu vereinfachen, entwickelte Grace Hopper eine Methode, die es ermöglichte, Programme und ihre Unterprogramme in einer mehr an der menschlichen als der maschinellen Sprache orientierten Weise auszudrücken. Am 3. Mai 1952 stellte Hopper den ersten Compiler A-0 vor, der Algorithmen aus einem Katalog abrief, Code umschrieb, in passender Reihenfolge zusammenstellte, Speicherplatz reservierte und die Zuteilung von Speicheradressen organisierte. Anfang 1955 präsentierte Hopper bereits einen Prototyp des Compilers B-0, der nach englischen, französischen oder deutschen Anweisungen Programme erzeugte. Hopper nannte ihren Vortrag zum ersten Compiler „The Education of a Computer“ („Die Erziehung eines Computers“).
Die Geschichte des Compilerbaus wurde von den jeweils aktuellen Programmiersprachen (vgl. Zeittafel der Programmiersprachen) und Hardwarearchitekturen geprägt. Weitere frühe Meilensteine sind 1957 der erste Fortran-Compiler und 1960 der erste COBOL-Compiler. Viele Architekturmerkmale heutiger Compiler wurden aber erst in den 1960er Jahren entwickelt.
Früher wurden teilweise auch Programme als Compiler bezeichnet, die Unterprogramme zusammenfügen. Dies geht an der heutigen Kernaufgabe eines Compilers vorbei, weil Unterprogramme heutzutage mit anderen Mitteln eingefügt werden können: Entweder im Quelltext selbst, beispielsweise von einem Präprozessor (siehe auch Precompiler) oder bei übersetzten Komponenten von einem eigenständigen Linker.
Arbeitsweise
Die prinzipiellen Schritte bei der Übersetzung eines Quellcodes in einen Zielcode lauten:
Syntaxprüfung
Es wird geprüft, ob der Quellcode ein gültiges Programm darstellt, also der Syntax der Quellsprache entspricht. Festgestellte Fehler werden protokolliert. Ergebnis ist eine Zwischendarstellung des Quellcodes.
Analyse und Optimierung
Die Zwischendarstellung wird analysiert und optimiert. Dieser Schritt variiert im Umfang je nach Compiler und Benutzereinstellung stark. Er reicht von einfacheren Effizienzoptimierungen bis hin zu Programmanalyse.
Codeerzeugung
Die optimierte Zwischendarstellung wird in entsprechende Befehle der Zielsprache übersetzt. Hierbei können weitere, zielsprachenspezifische Optimierungen vorgenommen werden.
Beachte: Moderne Compiler führen mittlerweile (meist) keine Codegenerierung mehr selbst durch.
C++ bei eingeschalteter globaler Optimierung: Die Codegenerierung erfolgt beim Linken.
C#: Die Codegenerierung erfolgt aus, während der Kompilierung erzeugtem, Common-Intermediate-Language-Code während der Laufzeit durch den JIT- oder NGEN-Compiler der .NET-Umgebung.
gleiches gilt für andere Sprachen, die die Common Language Infrastructure nutzen wie F# und VB.NET, siehe Liste von .NET-Sprachen.
Java: Die Codegenerierung erfolgt aus, während der Kompilierung erzeugtem, Java-Byte-Code während der Laufzeit durch den Java-JIT-Compiler.
Codegenerierung während der Runtime ermöglicht:
modulübergreifende Optimierungen,
exakte Anpassungen an die Zielplattform (Befehlssatz, Anpassung an die Fähigkeiten der CPU),
Nutzung von Profiling-Informationen.
Aufbau eines Compilers
Der Compilerbau, also die Programmierung eines Compilers, ist eine eigenständige Disziplin innerhalb der Informatik.
Moderne Compiler werden in verschiedene Phasen gegliedert, die jeweils verschiedene Teilaufgaben des Compilers übernehmen. Einige dieser Phasen können als eigenständige Programme bzw. Softwarekomponenten realisiert werden, z. B. Precompiler oder Präprozessor. Sie werden sequentiell ausgeführt. Im Wesentlichen lassen sich zwei Phasen unterscheiden: das Frontend (auch Analysephase), das den Quelltext analysiert und daraus einen attributierten Syntaxbaum erzeugt, sowie das Backend (auch Synthesephase), das daraus den Programmcode der Zielsprache erzeugt.
Frontend (auch „Analysephase“)
Im Compiler-Frontend wird der Code analysiert, strukturiert und auf Fehler geprüft. Es ist selbst wiederum in Phasen gegliedert.
Sprachen wie modernes C++ erlauben aufgrund von Mehrdeutigkeiten in ihrer Grammatik keine Aufteilung der Syntaxanalyse in lexikalische Analyse, syntaktische Analyse und semantische Analyse. Ihre Compiler sind entsprechend komplex.
Lexikalische Analyse
Die lexikalische Analyse zerteilt den eingelesenen Quelltext in lexikalische Einheiten (Tokens) verschiedener Typen, zum Beispiel Schlüsselwörter, Bezeichner, Zahlen, Zeichenketten oder Operatoren. Dieser Teil des Compilers heißt Tokenizer, Scanner oder Lexer.
Ein Scanner benutzt gelegentlich einen separaten Screener, um Whitespace (Leerraum, also Leerzeichen, Tabulatorzeichen, Zeilenenden usw.) und Kommentare zu überspringen.
Eine weitere Funktion der lexikalischen Analyse ist es, erkannte Tokens mit ihrer Position (z. B. Zeilennummer) im Quelltext zu assoziieren. Werden in der weiteren Analysephase, deren Grundlage die Tokens sind, Fehler im Quelltext gefunden (z. B. syntaktischer oder semantische Art), können die erzeugten Fehlermeldungen mit einem Hinweis auf den Ort des Fehlers versehen werden.
Lexikalische Fehler sind Zeichen oder Zeichenfolgen, die keinem Token zugeordnet werden können. Zum Beispiel erlauben die meisten Programmiersprachen keine Bezeichner, die mit Ziffern beginnen (z. B. „3foo“).
Syntaktische Analyse
Die syntaktische Analyse überprüft, ob der eingelesene Quellcode in einer korrekten Struktur der zu übersetzenden Quellsprache vorliegt, das heißt der kontextfreien Syntax (Grammatik) der Quellsprache entspricht. Dabei wird die Eingabe in einen Syntaxbaum umgewandelt. Der syntaktische Analysierer wird auch als Parser bezeichnet. Falls der Quellcode nicht zur Grammatik der Quellsprache passt, gibt der Parser einen Syntaxfehler aus.
Der so erzeugte Syntaxbaum ist für die nächste Phase (semantische Analyse) mit den „Inhalten“ der Knoten annotiert; d. h. z. B., Variablenbezeichner und Zahlen werden, neben der Information, dass es sich um solche handelt, weitergegeben.
Die syntaktische Analyse prüft beispielsweise, ob die Klammerung stimmt, also zu jeder öffnenden Klammer eine schließende desselben Typs folgt, sowie ohne Klammer-Verschränkung. Auch geben die Schlüsselworte bestimmte Strukturen vor.
Semantische Analyse
Die semantische Analyse überprüft die statische Semantik, also über die syntaktische Analyse hinausgehende Bedingungen an das Programm. Zum Beispiel muss eine Variable in der Regel deklariert worden sein, bevor sie verwendet wird, und Zuweisungen müssen mit kompatiblen (verträglichen) Datentypen erfolgen. Dies kann mit Hilfe von Attributgrammatiken realisiert werden. Dabei werden die Knoten des vom Parser generierten Syntaxbaums mit Attributen versehen, die Informationen enthalten. So kann zum Beispiel eine Liste aller deklarierten Variablen erstellt werden. Die Ausgabe der semantischen Analyse nennt man dann dekorierten oder attributierten Syntaxbaum.
Backend (auch „Synthesephase“)
Das Compiler-Backend erzeugt den Programmcode der Zielsprache aus dem attributierten Syntaxbaum, welcher vom Frontend erstellt wurde.
Zwischencodeerzeugung
Viele moderne Compiler erzeugen aus dem Syntaxbaum einen Zwischencode, der schon relativ maschinennah sein kann und führen auf diesem Zwischencode zum Beispiel Programmoptimierungen durch. Das bietet sich besonders bei Compilern an, die mehrere Quellsprachen oder verschiedene Zielplattformen unterstützen. Hier kann der Zwischencode auch ein Austauschformat sein.
Programmoptimierung
Der Zwischencode ist Basis vieler Programmoptimierungen. Siehe Programmoptimierung.
Codegenerierung
Bei der Codegenerierung wird der Programmcode der Zielsprache entweder direkt aus dem attributierten Syntaxbaum
oder aus dem Zwischencode erzeugt. Falls die Zielsprache eine Maschinensprache ist, kann das Ergebnis direkt ein ausführbares Programm sein oder eine sogenannte Objektcode-Datei, die durch das Linken mit der Laufzeitbibliothek und evtl. weiteren Objektcodedateien zu einer Bibliothek oder einem ausführbaren Programm führt. Dies alles wird vom Codegenerator ausgeführt, der Teil des Compilersystems ist, manchmal als Programmteil des Compilers, manchmal als eigenständiges Modul.
Einordnung verschiedener Compiler-Arten
Native Compiler
Compiler, der den Zielcode für die Plattform erzeugt, auf der er selbst läuft. Der Code ist plattformspezifisch.
Cross-Compiler
Compiler, der auf einer Plattform ausgeführt wird und Zielcode für eine andere Plattform, zum Beispiel ein anderes Betriebssystem oder eine andere Prozessorarchitektur, erzeugt.
Eine typische Anwendung ist die Erstellung von Programmen für ein eingebettetes System, das selbst keine oder keine guten Werkzeuge zur Softwareerstellung enthält, sowie die Erstellung oder Portierung eines Betriebssystems auf eine neue Plattform.
Single-pass-Compiler
Compiler, der in einem einzigen Durchlauf aus dem Quellcode den Zielcode erzeugt (im Gegensatz zum Multi-pass-Compiler); der Compiler liest also den Quelltext von vorne nach hinten nur ein Mal und erzeugt zugleich das Ergebnisprogramm. Üblicherweise ist ein derartiger Compiler sehr schnell, aber kann nur einfache Optimierungen durchführen. Nur für bestimmte Programmiersprachen, zum Beispiel Pascal, C und C++, kann ein Single-Pass-Compiler erstellt werden, denn dazu darf die Programmiersprache keine Vorwärtsbezüge enthalten (es darf nichts verwendet werden, was nicht bereits „weiter oben“ im Quelltext deklariert wurde).
Multi-pass-Compiler
Bei diesem Compilertyp wird der Quellcode in mehreren Schritten in den Zielcode übersetzt (ursprünglich: der Quellcode wird mehrmals eingelesen bzw. mehrfach „von vorne nach hinten“ komplett durchgearbeitet). In den Anfangszeiten des Compilerbaus wurde der Übersetzungsprozess hauptsächlich deshalb in mehrere Durchläufe zerlegt, weil die Kapazität der Computer oft nicht ausreichte, um den vollständigen Compiler und das zu übersetzende Programm gleichzeitig im Hauptspeicher zu halten. Heutzutage dient ein Multi-pass-Compiler vor allem dazu, Vorwärtsreferenzen (Deklaration eines Bezeichners „weiter unten im Quelltext“ als dessen erste Verwendung) aufzulösen und aufwändige Optimierungen durchzuführen.
Sonderformen
Bei einem Transcompiler (auch als Transpiler oder Quer-Übersetzer bezeichnet) handelt es sich um einen speziellen Compiler, der Quellcode einer Programmiersprache in den Quellcode einer anderen Programmiersprache übersetzt, zum Beispiel von Pascal in C. Man nennt diesen Vorgang „Code-Transformation“ oder „übersetzen“. Da jedoch viele Programmiersprachen besondere Eigenschaften und Leistungsmerkmale besitzen, kann es, wenn diese nicht vom Transcompiler berücksichtigt werden, zu Effizienzverlusten kommen. Da Programmiersprachen meist unterschiedlichen Programmierparadigmen folgen, ist der neu generierte Quelltext oft nur schwer für Entwickler lesbar. Manchmal ist auch eine manuelle Nachbearbeitung des Codes nötig, da die automatische Übersetzung nicht in allen Fällen reibungsfrei funktioniert. Außerdem gibt es in vielen modernen Programmiersprachen umfangreiche Unterprogrammbibliotheken. Das Umsetzen von Bibliotheksaufrufen erschwert den Übersetzungsvorgang zusätzlich.
Compiler-Compiler und Compilergeneratoren sind Hilfsprogramme zur automatischen Generierung von Compilerteilen oder vollständigen Compilern. Siehe auch: ANTLR, Coco/R, JavaCC, Lex, Yacc
Just-in-time-Compiler (oder JIT-Compiler) übersetzen Quellcode oder Zwischencode erst bei der Ausführung des Programms in Maschinencode. Dabei werden Programmteile erst übersetzt, wenn diese erstmals oder mehrmals ausgeführt werden. Meist ist der Grad der Optimierung abhängig von der Benutzungshäufigkeit der entsprechenden Funktion.
Beim Compreter wird der Programm-Quellcode zunächst in einen Zwischencode übersetzt, der dann zur Laufzeit interpretiert wird. Compreter sollten die Vorteile des Compilers mit den Vorteilen des Interpreters verbinden. Effektiv sind viele heutige Interpreter zur Verringerung der Ausführungszeit intern als Compreter implementiert, die den Quellcode zur Laufzeit übersetzen, bevor das Programm ausgeführt wird. Auch ein Bytecode-Interpreter ist ein Compreter, z. B. die virtuellen Maschinen von Java bis Version 1.2.
Programmoptimierung (ausführlich)
Viele Optimierungen, die früher Aufgabe des Compilers waren, werden mittlerweile innerhalb der CPU während der Codeabarbeitung vorgenommen.
Maschinencode ist gut, wenn er kurze kritische Pfade und wenig Überraschungen durch falsch vorhergesagte Sprünge aufweist, Daten rechtzeitig aus dem Speicher anfordert und alle Ausführungseinheiten der CPU gleichmäßig auslastet.
Zur Steuerung des Übersetzens kann der Quelltext neben den Anweisungen der Programmiersprache zusätzliche spezielle Compiler-Anweisungen enthalten.
Üblicherweise bietet ein Compiler Optionen für verschiedene Optimierungen mit dem Ziel, die Laufzeit des Zielprogramms zu verbessern oder dessen Speicherplatzbedarf zu minimieren. Die Optimierungen erfolgen teilweise in Abhängigkeit von den Eigenschaften der Hardware, zum Beispiel wie viele und welche Register der Prozessor des Computers zur Verfügung stellt. Es ist möglich, dass ein Programm nach einer Optimierung langsamer ausgeführt wird, als das ohne die Optimierung der Fall gewesen wäre. Dies kann zum Beispiel eintreten, wenn eine Optimierung für ein Programmkonstrukt längeren Code erzeugt, der zwar an sich schneller ausgeführt werden würde, aber mehr Zeit benötigt, um erst einmal in den Cache geladen zu werden. Er ist damit erst bei häufigerer Benutzung vorteilhaft.
Einige Optimierungen führen dazu, dass der Compiler Zielsprachenkonstrukte erzeugt, für die es gar keine direkten Entsprechungen in der Quellsprache gibt. Ein Nachteil solcher Optimierungen ist, dass es dann kaum noch möglich ist, den Programmablauf mit einem interaktiven Debugger in der Quellsprache zu verfolgen.
Optimierungen können sehr aufwendig sein. Vielfach muss vor allem in modernen JIT-Compilern daher abgewogen werden, ob es sich lohnt, einen Programmteil zu optimieren. Bei Ahead-of-time-Compilern werden bei der abschließenden Übersetzung alle sinnvollen Optimierungen verwendet, häufig jedoch nicht während der Software-Entwicklung (reduziert den Kompilier-Zeitbedarf). Für nichtautomatische Optimierungen seitens des Programmierers können Tests und Anwendungsszenarien durchgespielt werden (s. Profiler), um herauszufinden, wo sich komplexe Optimierungen lohnen.
Im Folgenden werden einige Optimierungsmöglichkeiten eines Compilers betrachtet. Das größte Optimierungspotenzial besteht allerdings oft in der Veränderung des Quellprogramms selbst, zum Beispiel darin, einen Algorithmus durch einen effizienteren zu ersetzen. Dieser Vorgang kann meistens nicht automatisiert werden, sondern muss durch den Programmierer erfolgen. Einfachere Optimierungen können dagegen an den Compiler delegiert werden, um den Quelltext lesbar zu halten.
Einsparung von Maschinenbefehlen
In vielen höheren Programmiersprachen benötigt man beispielsweise eine Hilfsvariable, um den Inhalt zweier Variablen zu vertauschen:
Mit der Optimierung werden statt 6 nur noch 4 Assemblerbefehle benötigt, außerdem wird der Speicherplatz für die Hilfsvariable hilf nicht gebraucht. D. h., diese Vertauschung wird schneller ausgeführt und benötigt weniger Hauptspeicher. Dies gilt jedoch nur, wenn ausreichend Register im Prozessor zur Verfügung stehen. Die Speicherung von Daten in Registern statt im Hauptspeicher ist eine häufig angewendete Möglichkeit der Optimierung.
Die oben als optimiert gezeigte Befehlsfolge hat noch eine weitere Eigenschaft, die bei modernen CPUs mit mehreren Verarbeitungs-Pipelines einen Vorteil bedeuten kann: Die beiden Lesebefehle und die beiden Schreibbefehle können problemlos parallel verarbeitet werden, sie sind nicht vom Resultat des jeweils anderen abhängig. Lediglich der erste Schreibbefehl muss auf jeden Fall abwarten, bis der letzte Lesebefehl ausgeführt wurde. Tiefer gehende Optimierungsverfahren fügen deshalb unter Umständen zwischen b → Register 2 und Register 2 → a noch Maschinenbefehle ein, die zu einer ganz anderen hochsprachlichen Befehlszeile gehören.
Statische Formelauswertung zur Übersetzungszeit
Die Berechnung des Kreisumfangs mittels
pi = 3.14159
u = 2 * pi * r
kann ein Compiler bereits zur Übersetzungszeit zu u = 6.28318 * r auswerten. Diese Formelauswertung spart die Multiplikation 2 * pi zur Laufzeit des erzeugten Programms. Diese Vorgehensweise wird als Konstantenfaltung (englisch „constant folding“) bezeichnet.
Eliminierung von totem Programmcode
Wenn der Compiler erkennen kann, dass ein Teil des Programmes niemals durchlaufen wird, dann kann er diesen Teil bei der Übersetzung weglassen.
Beispiel:
100 goto 900
200 k=3
900 i=7
... ...
Wenn in diesem Programm niemals ein GOTO auf die Sprungmarke 200 erfolgt, kann auf die Anweisung 200 k=3 verzichtet werden. Der Sprungbefehl 100 goto 900 ist dann ebenfalls überflüssig.
Erkennung unbenutzter Variablen
Wird eine Variable nicht benötigt, so muss dafür kein Speicherplatz reserviert und kein Zielcode erzeugt werden.
Beispiel:
subroutine test (a,b)
b = 2 * a
c = 3.14 * b
return b
Hier wird die Variable c nicht benötigt: Sie steht nicht in der Parameterliste, wird in späteren Berechnungen nicht verwendet und wird auch nicht ausgegeben. Deshalb kann die Anweisung c = 3.14 * b entfallen.
Optimierung von Schleifen
Insbesondere Schleifen versucht man zu optimieren, indem man zum Beispiel
möglichst viele Variablen in Registern hält (normalerweise mindestens die Schleifenvariable);
statt eines Index, mit dem auf Elemente eines Feldes () zugegriffen wird, Zeiger auf die Elemente verwendet, dadurch wird der Aufwand beim Zugriff auf Feldelemente geringer;
Berechnungen innerhalb der Schleife, die in jedem Durchlauf dasselbe Ergebnis liefern, nur einmal vor der Schleife ausführt (Loop-invariant code motion);
zwei Schleifen, die über denselben Wertebereich gehen, zu einer Schleife zusammenfasst, damit fällt der Verwaltungsaufwand für die Schleife nur einmal an;
die Schleife teilweise oder (bei Schleifen mit konstanter, niedriger Durchlaufzahl) komplett auflöst (englisch loop unrolling), sodass die Anweisungen innerhalb der Schleife mehrfach direkt hintereinander ausgeführt werden, ohne dass jedes Mal nach den Anweisungen eine Prüfung der Schleifenbedingung und ein Sprung zum Schleifenbeginn erfolgen;
die Schleife (vor allem bei Zählschleifen mit for) umdreht, da beim Herunterzählen auf 0 effiziente Sprungbefehle (Jump-Not-Zero) benutzt werden können;
die Schleife umformt, damit die Überprüfung der Abbruchbedingung am Ende der Schleife durchgeführt wird (Schleifen mit Anfangsüberprüfung haben stets eine bedingte und eine unbedingte Sprunganweisung, während Schleifen mit Endüberprüfung nur eine bedingte Sprunganweisung haben);
die ganze Schleife entfernt, wenn sie (nach einigen Optimierungen) einen leeren Rumpf besitzt. Dies kann allerdings dazu führen, dass Warteschleifen, die ein Programm absichtlich verlangsamen sollen, entfernt werden. Allerdings sollten für diesen Zweck, soweit möglich, sowieso Funktionen des Betriebssystems benutzt werden.
verschachtelte Schleifen (Schleifen in Schleifen) – wenn es die verwendete Programmierlogik erlaubt – aufsteigend anordnet, von der äußersten Schleife mit den wenigsten Schleifendurchläufen bis zur innersten Schleife mit den meisten Schleifendurchläufen. Damit verhindert man vielfache Mehrinitialisierungen der inneren Schleifenkörper.
Manche dieser Optimierungen sind bei aktuellen Prozessoren ohne Nutzen oder sogar kontraproduktiv.
Einfügen von Unterprogrammen
Bei kleinen Unterprogrammen fällt der Aufwand zum Aufruf des Unterprogrammes verglichen mit der vom Unterprogramm geleisteten Arbeit stärker ins Gewicht. Daher versuchen Compiler, den Maschinencode kleinerer Unterprogramme direkt einzufügen – ähnlich wie manche Compiler/Assembler/Präcompiler Makro-Anweisungen in Quellcode auflösen. Diese Technik wird auch als Inlining bezeichnet. In manchen Programmiersprachen ist es möglich, durch inline-Schlüsselwörter den Compiler darauf hinzuweisen, dass das Einfügen von bestimmten Unterprogrammen gewünscht ist. Das Einfügen von Unterprogrammen eröffnet oft, abhängig von den Parametern, weitere Möglichkeiten für Optimierungen.
Halten von Werten in Registern
Anstatt mehrfach auf dieselbe Variable im Speicher, beispielsweise in einer Datenstruktur, zuzugreifen, kann der Wert nur einmal gelesen und für weitere Verarbeitungen in Registern oder im Stack zwischengespeichert werden. In C, C++ und Java muss dieses Verhalten ggf. mit dem Schlüsselwort volatile abgeschaltet werden: Eine als volatile bezeichnete Variable wird bei jeder Benutzung wiederholt vom originalen Speicherplatz gelesen, da ihr Wert sich unterdessen geändert haben könnte. Das kann beispielsweise der Fall sein, wenn es sich um einen Hardware-Port handelt oder ein parallel laufender Thread den Wert geändert haben könnte.
Beispiel:
int a = array[25]->element.x;
int b = 3 * array[25]->element.x;
Im Maschinenprogramm wird nur einmal auf array[25]->element.x zugegriffen, der Wert wird zwischengespeichert und zweimal verwendet. Ist x volatile, dann wird zweimal zugegriffen.
Es gibt außer volatile noch einen anderen Grund, der eine Zwischenspeicherung in Registern unmöglich macht: Wenn der Wert der Variablen v durch Verwendung des Zeigers z im Speicher verändert werden könnte, kann eine Zwischenspeicherung von v in einem Register zu fehlerhaftem Programmverhalten führen. Da die in der Programmiersprache C oft verwendeten Zeiger nicht auf ein Array beschränkt sind (sie könnten irgendwohin im Hauptspeicher zeigen), hat der Optimizer oft nicht genügend Informationen, um eine Veränderung einer Variablen durch einen Zeiger auszuschließen.
Verwendung schnellerer äquivalenter Anweisungen
Statt einer Multiplikation oder Division von Ganzzahlen mit einer Zweierpotenz kann ein Schiebebefehl verwendet werden. Es gibt Fälle, in denen nicht nur Zweierpotenzen, sondern auch andere Zahlen (einfache Summen von Zweierpotenzen) für diese Optimierung herangezogen werden. So kann zum Beispiel (n << 1) + (n << 2) schneller sein als n * 6. Statt einer Division durch eine Konstante kann eine Multiplikation mit dem Reziprokwert der Konstante erfolgen. Selbstverständlich sollte man solch spezielle Optimierungen auf jeden Fall dem Compiler überlassen.
Weglassen von Laufzeitüberprüfungen
Programmiersprachen wie Java fordern Laufzeitüberprüfungen beim Zugriff auf Felder oder Variablen. Wenn der Compiler ermittelt, dass ein bestimmter Zugriff immer im erlaubten Bereich sein wird (zum Beispiel ein Zeiger, von dem bekannt ist, dass er an dieser Stelle nicht NULL ist), kann der Code für diese Laufzeitüberprüfungen weggelassen werden.
Reduktion von Paging zur Laufzeit
Eng zusammenhängende Codebereiche, zum Beispiel ein Schleifenrumpf, sollte zur Laufzeit möglichst auf der gleichen oder in möglichst wenigen Speicherseiten („Page“, zusammenhängend vom Betriebssystem verwalteter Speicherblock) im Hauptspeicher liegen. Diese Optimierung ist Aufgabe des (optimierenden) Linkers. Dies kann zum Beispiel dadurch erreicht werden, dass dem Zielcode an geeigneter Stelle Leeranweisungen („NOPs“ – No OPeration) hinzugefügt werden. Dadurch wird der erzeugte Code zwar größer, aber wegen der reduzierten Anzahl notwendiger TLB-Cache-Einträge und notwendiger Pagewalks wird das Programm schneller ausgeführt.
Vorziehen bzw. Verzögern von Speicherzugriffen
Durch das Vorziehen von Speicherlesezugriffen und das Verzögern von Schreibzugriffen lässt sich die Fähigkeit moderner Prozessoren zur Parallelarbeit verschiedener Funktionseinheiten ausnutzen. So kann beispielsweise bei den Befehlen: a = b * c; d = e * f; der Operand e bereits geladen werden, während ein anderer Teil des Prozessors noch mit der ersten Multiplikation beschäftigt ist.
Ein Beispielcompiler
Folgendes in ANTLR erstelltes Beispiel soll die Zusammenarbeit zwischen Parser und Lexer erklären. Der Übersetzer soll Ausdrücke der Grundrechenarten beherrschen und vergleichen können. Die Parsergrammatik wandelt einen Dateiinhalt in einen abstrakten Syntaxbaum (AST) um.
Grammatiken
Die Baumgrammatik ist in der Lage, die im AST gespeicherten Lexeme zu evaluieren. Der Operator der Rechenfunktionen steht in der AST-Schreibweise vor den Operanden als Präfixnotation. Daher kann die Grammatik ohne Sprünge Berechnungen anhand des Operators durchführen und dennoch Klammerausdrücke und Operationen verschiedener Priorität korrekt berechnen.
tree grammar Eval;
options {
tokenVocab=Expression;
ASTLabelType=CommonTree;
}
@header {
import java.lang.Math;
}
start : line+; //Eine Datei besteht aus mehreren Zeilen
line : compare {System.out.println($compare.value);}
;
compare returns [double value]
: ^('+' a=compare b=compare) {$value = a+b;}
| ^('-' a=compare b=compare) {$value = a-b;}
| ^('*' a=compare b=compare) {$value = a*b;}
| ^('/' a=compare b=compare) {$value = a/b;}
| ^('%' a=compare b=compare) {$value = a\%b;}
| ^(UMINUS a=compare) {$value = -1*a;} //Token UMINUS ist notwendig, um den binären
//Operator nicht mit einem Vorzeichen zu verwechseln
| ^('^' a=compare b=compare) {$value = Math.pow(a,b);}
| ^('=' a=compare b=compare) {$value = (a==b)? 1:0;} //wahr=1, falsch=0
| INT {$value = Integer.parseInt($INT.text);}
;
Ist eines der oben als compare bezeichnete Ausdrücke noch kein Lexem, so wird es von der folgenden Lexer-Grammatik in einzelne Lexeme aufgeteilt. Dabei bedient sich der Lexer der Technik des rekursiven Abstiegs. Ausdrücke werden so immer weiter zerlegt, bis es sich nur noch um Token vom Typ number oder Operatoren handeln kann.
grammar Expression;
options {
output=AST;
ASTLabelType=CommonTree;
}
tokens {
UMINUS;
}
start : (line {System.out.println($line.tree==null?"null":$line.tree.toStringTree());})+;
line : compare NEWLINE -> ^(compare); //Eine Zeile besteht aus einem Ausdruck und einem
//terminalen Zeichen
compare : sum ('='^ sum)?; //Summen sind mit Summen vergleichbar
sum : product ('+'^ product|'-'^ product)*; //Summen bestehen aus Produkten (Operatorrangfolge)
product : pow ('*'^ pow|'/'^ pow|'%'^ pow)*; //Produkte (Modulo-Operation gehört hier dazu) können
//aus Potenzen zusammengesetzt sein
pow : term ('^'^ pow)?; //Potenzen werden auf Terme angewendet
term : number //Terme bestehen aus Nummern, Subtermen oder Summen
|'+' term -> term
|'-' term -> ^(UMINUS term) //Subterm mit Vorzeichen
|'('! sum ')'! //Subterm mit Klammerausdruck
;
number : INT; //Nummern bestehen nur aus Zahlen
INT : '0'..'9'+;
NEWLINE : '\r'? '\n';
WS : (' '|'\t'|'\n'|'\r')+ {skip();}; //Whitespace wird ignoriert
Die Ausgabe hinter dem Token start zeigt außerdem den gerade evaluierten Ausdruck.
Ausgabe des Beispiels
Eingabe:
5 = 2 + 3
32 * 2 + 8
(2 * 2^3 + 2) / 3
Ausgabe (in den ersten Zeilen wird nur der Ausdruck der Eingabe in der AST-Darstellung ausgegeben):
(= 5 (+ 2 3))
(+ (* 32 2) 8)
(/ (+ (* 2 (^ 2 3)) 2) 3)
1.0
72.0
6.0
Der erste Ausdruck wird also als wahr (1) evaluiert, bei den anderen Ausdrücken wird das Ergebnis der Rechnung ausgegeben.
Literatur
Weblinks
Einzelnachweise
!Compiler
Programmierwerkzeug
|
Q47506
| 450.307793 |
168938
|
https://de.wikipedia.org/wiki/Speex
|
Speex
|
Speex ist ein freier – auch patentfreier – verlustbehafteter Audiocodec von Jean-Marc Valin, der speziell auf die platzsparende Speicherung von Audiodaten ausgelegt ist, die menschliche Sprache enthalten. Für andere Signalarten ist er – wie alle Sprachcodecs – in der Regel ungeeignet. Der Name ist eine phonetische Schreibweise des englischen Wortes speaks (3. Person Präsens: „spricht“).
Auf der offiziellen Webseite wird Speex als obsolet und durch Opus ersetzt bezeichnet, da letzterer in allen Aspekten überlegen sei.
Das Verfahren wurde unter dem Dach der Xiph.Org Foundation entwickelt und ist unter Xiphs BSD-artiger Lizenz veröffentlicht. Es war als Ergänzung zu dem verlustbehafteten Allzweckverfahren Vorbis gedacht.
Die Daten werden standardmäßig im Ogg-Containerformat gespeichert. Speex-Dateien tragen jedoch im Normalfall zur einfacheren Unterscheidbarkeit zu Ogg Vorbis die Endung .spx. Speex kann jedoch auch in anderen Containern oder ohne Container übertragen werden, so z. B. bei der IP-Telefonie üblich, wo meistens direkt über UDP/RTP übertragen wird. Gegenüber Allzweck-Kompressionsverfahren wie MP3 oder Vorbis lassen sich hiermit keine Musikdaten oder sonstige andere Signalarten ohne deutlich hörbaren Qualitätsverlust verkleinern; dafür werden bei gesprochenem Text deutlich bessere Kompressionsraten erzielt.
Speex' MIME-Typ ohne Container istaudio/speex, währendaudio/ogg für .spx Dateien verwendet wird.
Beschreibung
Im Unterschied zu vielen anderen Sprachcodecs zielen Speex’ Bitratenbereich wie auch seine Fehlertoleranz- und -korrekturmechanismen nicht auf Mobiltelefon-Anwendungen, sondern eher auf für IP-Telefonie oder Dateien gebräuchliche Gegebenheiten. Der Entwurf des Formates war darauf ausgelegt, einen Codec zu schaffen, der sowohl sehr gute Sprachqualität als auch niedrige Datenraten erreichen kann. Das führte zu einem Codec mit mehreren Bitraten. Im Hinblick auf den Einsatz in der IP- anstelle der Mobiltelefonie werden als Übertragungsfehler nicht verstümmelte, sondern verlorene Pakete erwartet. Diese Ganz-oder-gar nicht-Auslieferung des Datenpakets gewährleistet das verwendete UDP. Diese Überlegungen führten zu der Entscheidung für Code Excited Linear Prediction (CELP) als grundlegende Technik hinter Speex. Ein Hauptgrund ist, dass CELP sich schon für niedrige (Beispiel: DoD CELP bei 4,8 kbit/s) als auch für höhere Bitraten (wie bei G.728 mit 16 kbit/s) als geeignet erwiesen hat.
Merkmale
Die wichtigsten Merkmale können folgendermaßen zusammengefasst werden:
Freie Software/quelloffen, patent- und gebührenfrei
Großer Datenratenbereich (von 2 bis 44 kbit/s)
verschiedene Komplexitätsstufen
vergleichsweise hohe Abtastraten (bis zu 48 kHz)
Möglichkeit, innerhalb ein und desselben Datenstromes in verschiedenen Bandbreiten zu codieren
Dynamischer Bitratenwechsel und variable Datenraten (VBR)
Intensitätsstereofonie, Option zur Kodierung in Intensitätsstereofonie
Paketverlust-Verschleierung
Echokompensation
Sprechpausenerkennung (engl. Voice Activity Detection, VAD; in den Variable-Bitrate-Modus integriert)
Abtastraten
Um sehr gute Qualität ermöglichen zu können werden auch höhere als die für Telefonqualität üblichen 8 kHz Abtastrate unterstützt. Speex unterstützt Abtastraten bis zu 48 kHz, ist aber hauptsächlich ausgelegt auf 8, 16 und 32 kHz, die als Schmalband, Breitband und Ultra-Breitband bezeichnet werden.
Qualität
Die Speex-Kodierung wird im Grunde über einen Parameter gesteuert, der eine Qualitätsstufe festlegt. Dieser kann Werte von 0 bis 10 annehmen. Für konstante Bitraten (constant bit-rate, CBR) werden ganzzahlige Werte angegeben, für variable Bitraten eine Gleitkommazahl.
Komplexität
Bei Speex ist es möglich, den Encoder auf verschiedene Komplexitätsstufen einzustellen. Dabei wird die Suchtiefe durch eine Ganzzahl zwischen 1 und 10 festgelegt, was die Störgeräuschintensität auf Stufe 10 gegenüber Stufe 1 gewöhnlich um etwa ein bis zwei Dezibel drückt, den Rechenaufwand jedoch um etwa Faktor 5 erhöht. Als guter Kompromiss wird der Bereich von Stufe 2 bis 4 empfohlen, wobei die höheren Einstellungen bei Signalen, die etwas anderes als menschliche Sprache enthalten, oft hilfreich sind.
Variable Bitrate (VBR)
VBR erlaubt dem Codec die Bitrate dynamisch an die Komplexität des Signales anzupassen. Im Falle von Speex bedeutet das beispielsweise konkret, dass Vokale und starke Transienten für eine adäquate Darstellung mehr Daten benötigen als Reibelaute. Daher wird mit variabler Bitrate bei gleichem Datenaufwand höhere Qualität möglich beziehungsweise fallen um eine vergleichbare Qualität zu erreichen weniger Daten an. Dieser Modus zielt natürlich weniger auf Streaming-Anwendungen, da hier die Kapazität des Übertragungskanals eine feste Obergrenze vorgibt, die eventuell nicht eingehalten werden kann, wenn eine zu erreichende Qualitätsstufe vorgegeben wird und das Eingangssignal eine zu komplexe Stelle enthält. Des Weiteren ist in diesem Modus auch die Durchschnittsbitrate insgesamt nicht vorhersehbar.
Durchschnittliche Bitrate (Average Bit-Rate, ABR)
Hierbei wird die Qualität dynamisch in Echtzeit (open-loop) angeglichen, um eine bestimmte Zielbitrate zu erreichen, womit die Durchschnittsbitrate vorhersehbar wird. Insgesamt wird dabei eine etwas geringere Qualität erreicht, als wäre der Encoder bei echter variabler Bitrate exakt auf die gewünschte Durchschnittsbitrate eingestellt.
Sprechpausenerkennung (Voice Activity Detection, VAD)
Speex erkennt Stille oder Hintergrundgeräusche und speichert für solche Bereiche nur beschreibende Parameter, die die Erzeugung eines für das menschliche Ohr ähnlichen Hintergrundgeräusches erlauben, sogenanntes Komfortrauschen (engl. comfort noise generation, CNG). Im Variable-Bitrate-Modus ist dieses Verfahren inbegriffen.
Ungleichmäßige Übertragung (Discontinuous Transmission, DTX)
Diese Technik ist ein Zusatz zur variablen Bitrate und Sprechpausenerkennung, mit der bei gleichbleibenden Hintergrundgeräuschen jegliche Datenübertragung eingestellt werden kann. Im Datei-basierten Betrieb werden Platzhalter-Frames erzeugt, die jeweils fünf Bits benötigen, was eine Bitrate von 250 Bits pro Sekunde ergibt.
Wahrgenommene Verbesserung (Perceptual enhancement)
Dies bezeichnet Techniken, die dazu dienen, die durch den Codierungs-/Decodierungsprozess eingegangenen Abweichungen vom Originalsignal vor der menschliche Wahrnehmung zu verbergen, was den Klang zugunsten einer subjektiven Klangverbesserung meist zusätzlich vom Original entfremdet.
Algorithmische Verzögerung
Diese entspricht bei Speex der Länge eines Frames zuzüglich einem gewissen Vorlauf, bevor die Verarbeitung eines Frames begonnen werden kann. Für den Schmalband-Modus (8 kHz) ergeben sich 30 ms, für Breitband (16 kHz) 34 ms Verzögerung.
Anwendung
Hauptsächlich kommt Speex zur Telekommunikation über das Internet zum Einsatz wie z. B. zur IP-Telefonie und zur Kommunikation während Online-Spielen (zum Beispiel bei TeamSpeak, Mumble und Counter-Strike). Weitere Anwendungsbereiche sind Streaming Audio, Hörbücher und gesprochene Podcasts. Entsprechend wird Speex von einer Vielzahl von Programmen aus zahlreichen Bereichen unterstützt, darunter Audiowiedergabeprogramme (Winamp, XMMS, foobar2000), Audioeditoren, IP-Telefonie-Programme (Ekiga, Jitsi, Jabbin, Linphone, KPhone, Twinkle) und Videospiele. Auf der Speex-Website steht eine Liste mit Programmen und Zusatzmodulen. Es existieren ein DirectShow-Filter und ein ACM-Codec, auf denen die Speex-Funktionen vieler Programme basieren. Die US-Armee nutzt Speex in einem von Raytheon entworfenen EPLRS-Sprechfunksystem auf ihrem Land-Warrior-System. Auch Microsoft bedient sich Speex' für die Sprechgarnitur der Xbox Live, wie der Betreuer des Theora-Codecs Ralph Giles auf LugRadio berichtete. Auf dem iPod und anderen Portable Media Playern lässt sich Speex mit der Open-Source-Firmware Rockbox abspielen.
Seit Flash Player 10 kann er mit Adobe Flash (neben ADPCM, HE-AAC, MP3 und Nellymoser) anstatt des veralteten Nellymoser-Codecs genutzt werden.
Wie der Chaos Computer Club in einer Veröffentlichung zum Bundestrojaner mitteilte, kommt auch hier Speex zum Komprimieren von Sprachaufnahmen zum Einsatz.
Siehe auch
Audioformat
Sprachcodecs
iLBC
Einzelnachweise
Weblinks
Projekthomepage (englisch)
Speex im Xiph.Org-Wiki
JSpeex – Speex in Java
Audiokompression
VoIP
Codec
Freie Audiosoftware
Offenes Format
Xiph.Org Foundation
|
Q930667
| 84.179261 |
103782
|
https://de.wikipedia.org/wiki/Aleuten
|
Aleuten
|
Die Aleuten ([] oder []; auch: Alëuten, [], aleutisch Tanam Unangaa, russisch Алеутские острова) sind eine Inselkette zwischen Nordamerika und Asien am Südrand des nordpazifischen Beringmeers.
Geologie
Die Aleuten sind Teil eines Inselbogens, der zu den bestausgebildeten Inselbögen der Welt gehört. Zu dem Aleuten- oder Aleuten-Kommandeur-Inselbogen zählen die westlich benachbarten Kommandeurinseln. Er setzt sich als kontinentaler Vulkanbogen in Form der Alaska-Halbinsel nach Osten fort. Er entstand auf dem nordwestlichen Ausläufer der Nordamerikanischen Platte an der Grenze zur Pazifischen Platte. Die Pazifische Platte taucht dort nach Nordwesten unter die Nordamerikanische Platte ab (Subduktion), was mit einem aktiven Vulkanismus entlang dem Rand der Nordamerikanischen Platte einhergeht. Die Aleuten und Kommandeurinseln sind damit nichts anderes als ehemalige untermeerische Vulkane, die den Meeresspiegel durchstoßen haben.
Zudem ist die Subduktion der Pazifischen Platte Ursache für eine hohe seismische Aktivität, mit einer Auftretenswahrscheinlichkeit von einem Erdbeben der Magnitude 7,0 (MS) pro Jahr und einer maximalen Magnitude von 8,9 (Spitzenwert im zirkumpazifischen Raum). Die Epizentren flachkrustaler Erdbeben liegen dabei zwischen dem Aleutengraben und den Inseln, die von Erdbeben in mittlerer Krustentiefe liegen auf der zentralen Achse des Inselbogens, Tiefherdbeben ereignen sich dort nicht. Zwei schwerere Beben in den Jahren 1946 (Epizentrum vor Unimak Island, MS um 7,4) und 1957 (Epizentrum vor den Andreanof Islands, MS 8,25) lösten zerstörerische Tsunamis aus, die sich im Nordpazifik ausbreiteten. Der 1946er Tsunami war für die fast vollständige Zerstörung der Hafenstadt Hilo auf Hawaii verantwortlich.
Geographie
Die größtenteils zum US-Bundesstaat Alaska gehörende Inselgruppe erstreckt sich bogenförmig am Südrand des nordpazifischen Beringmeers von der Alaska-Halbinsel über rund 1750 Kilometer Länge in Richtung Westen bis zu den russischen Kommandeurinseln, die den westlichen Ausläufer der Inselkette darstellen und geologisch mit den übrigen Aleuteninseln eine Einheit bilden. Die Kommandeurinseln sind rund 335 Kilometer von Attu, der westlichsten US-amerikanischen Aleuteninsel, entfernt. Zusammen stellen sie die natürliche Abgrenzung zum eigentlichen Nord-Pazifik dar.
Die 162 Inseln der Aleuten sind insgesamt 17.670 Quadratkilometer groß. Obwohl die Aleuten eine durchgehende Reihe bilden, werden sie in mehrere Gruppen unterteilt: die Fox Islands, die Islands of Four Mountains, die Andreanof Islands, die Rat Islands, die Near Islands.
Die meisten Inseln gehören zu den Vereinigten Staaten, nur die westlichste Gruppe, die Kommandeurinseln (Komandorskije ostrowa), gehören zu Russland. Der US-amerikanische Teil gehört größtenteils zum Bezirk Aleutians West Census Area. Nur ein kleiner Teil gehört zum Aleutians East Borough, der auch den westlichen Teil der Alaska-Halbinsel umfasst. Die US-amerikanischen Inseln haben rund 8200 Einwohner (meist Fischer und Pelztierjäger), die zurückgezogen in elf Gemeinden auf nur sieben Inseln leben. Die Hauptinsel ist Unalaska mit dem Hauptort und Flottenstützpunkt Dutch Harbor. Die russischen Komandorski-Inseln bilden den Aleutendistrikt der Region Kamtschatka und haben etwa 600 Einwohner.
Landschaftsbild
Die sehr gebirgige Inselkette, die nur eine recht spärliche Vegetation aufweist, ist vulkanischen Ursprungs und gehört zum nördlichen Teil des pazifischen Feuerrings. Höchster Berg ist der 2.857 Meter hohe Shishaldin. Von den etwa 80 Vulkanen sind einige noch heute aktiv. Im Norden fällt das Gelände recht steil in das bis zu 4.096 Meter tiefe Seebecken des Beringmeers ab, im Süden schließt sich der bis zu 7.822 Meter tiefe Aleutengraben im eigentlichen Pazifischen Ozean an.
Klima
Die Inseln liegen zwar ungefähr auf den gleichen Breitengraden wie Norddeutschland, gehören aber zur subarktischen Klimazone. Der von Süden an der Ostküste Japans entlang streichende Meeresstrom Kuroshio führt große Wärmemengen heran. Er spielt damit für die Aleuten eine ähnliche Rolle wie der Golfstrom für Westeuropa.
Es herrscht ein raues, sonnenarmes und sehr feuchtes Klima. Die Niederschlagsmengen auf den Inseln liegen etwa zwischen 500 und 2000 mm pro Jahr, es gibt zwischen 120 und 250 Regentage.
Während im Winter die Tagesdurchschnittstemperaturen zwischen −5 und +2 °C liegen, werden im Sommer Temperaturen von 10 bis 13 °C gemessen.
Pflanzenwelt
Die Vegetation der Aleuten und der vorgelagerten Landzunge Südalaskas wird häufig als Tundra bezeichnet, obwohl dies aufgrund des fehlenden Permafrostbodens nicht korrekt ist. Es handelt sich um baumlose subpolare Wiesen und Heiden mit tundraähnlichem Charakter.
Verbreitet sind Moose, grobes Gras, einige Kräuter, Steinbrechgewächse sowie verkrüppelte Büsche und Fichten. Alle Pflanzen müssen lange Bedeckung durch Schnee und eine kurze, kühle und regenreiche Vegetationsperiode ertragen.
Tierwelt
Der kärgliche Bewuchs mit langer Schneeüberdeckung lässt nur wenige Nager, wie ein geflecktes Murmeltier, Polarfüchse und an Landvögeln Sperber, Finken, zum Beispiel Schwarzstirn-Schneegimpel, und Schnepfenvögel zu. Reich dagegen ist die Zahl der Wassertiere, wie Wale, Seehunde, Seelöwen und Seeotter. Auch die im 18. Jahrhundert ausgerottete Stellers Seekuh und die Aleutische Seerobbe lebten hier. Unter den Wasservögeln sind mehrere Gänse- und Entenarten, Albatros und Kormoran.
Die Wassertiere und Vögel bildeten die Nahrungs- und Bekleidungsgrundlage für die menschliche Besiedlung durch die Aleuten, die sich selbst Unangan oder Unungun, das heißt Menschen, nannten. Später war der Tierreichtum Anlass für die Unterdrückung und Verfolgung der Aleuten durch russische und später amerikanische Pelztierjäger.
Geschichte
Urzeit
Die ältesten Steinwerkzeuge und Reste eingetiefter Hütten stammen von Menschen des Kulturtyps Epigravettien aus der Zeit um 7.000 v. Chr. Eine Zweitbesiedlung der Inselgruppe mit den für Menschen sehr harten Lebensbedingungen fand erst wieder ab 3.000 v. Chr. statt. Die genetisch zur nordostasiatischen Population gehörenden Menschen kamen mit seetüchtigen Booten und steinzeitlichen Jagdwaffen, darunter ein Typ Stabharpunen mit langen schmalen Knochenspitzen und Widerhaken, wie sie auch in Kamtschatka, der Kodiak-Insel und im nördlichen Japan gefunden wurden. Ab 1.000 n. Chr. finden sich kurzschädligere Menschen ungeklärter Herkunft gleicher Lebensweise (siehe dazu auch Aleuten (Volk)).
Russische und amerikanische Periode
Die Aleuten wurden 1741 von Vitus Bering während einer russischen Expedition entdeckt und 1867 mit Alaska an die USA verkauft. Sie waren im 18. und 19. Jahrhundert von asiatischen Pelztierjägern und -händlern bewohnt. Die Nachfahren der vorkolonialen Bevölkerung der Aleuten heißen ebenfalls Aleuten oder Unangan.
Zweiter Weltkrieg
Im Zweiten Weltkrieg wurden die Inseln Kiska und Attu, die hart umkämpft waren, vom
6. Juni 1942 bis 15. August 1943 von der japanischen Armee in der Schlacht um die Aleuten besetzt. Die verlustreichen Schlachten um die Inseln bezeichnen die US-Amerikaner als The Forgotten War (Der vergessene Krieg). Die Bewohner der Aleuten, die während des Krieges in südlichere US-Landesteile gebracht wurden, durften erst einige Zeit nach Kriegsende wieder zurückkehren.
Atombombentest und Protest
Im September 1971 protestierte eine kleine Gruppe von Friedensaktivisten des „Don’t Make a Wave Committee“ mit der Phyllis Cormack nahe der Aleuten-Insel Amchitka. Mit ihrem gewaltlosen Protest versuchte die Gruppe, den US-amerikanischen Atombombentest Cannikin aus der Operation Grommet zu verhindern. Die Bombe wurde unterirdisch gezündet. Obwohl es der Gruppe nicht gelang, den Test zu verhindern, löste sie eine Welle öffentlicher Empörung aus. Diese Aktion gilt als die Geburtsstunde von Greenpeace.
Siehe auch
Liste der Inseln der Aleuten
Literatur
Hans Läng: Kulturgeschichte der Indianer Nordamerikas. Gondrom, Bindlach 1994, ISBN 3-8112-1056-4.
Weblinks
(englisch)
Einzelnachweise
Inselgruppe (Nordamerika)
Inselgruppe (Alaska)
Inselgruppe (Beringmeer)
|
Q119285
| 280.11475 |
2962735
|
https://de.wikipedia.org/wiki/Lizenz
|
Lizenz
|
Eine Lizenz (, „es ist erlaubt“; dazu: licentia, „Freiheit“, „Erlaubnis“; ) ist in verschiedenen Fachgebieten die Genehmigung oder Erlaubnis an ein Rechtssubjekt, ein Recht wirtschaftlich nutzen zu dürfen.
Allgemeines
In diesem Sinne sind Beteiligte der das Recht innehabende Lizenzgeber und der begünstigte Lizenznehmer, die gemeinsam einen Lizenzvertrag schließen. Gegenstand der Lizenzverträge ist in Industrie und Handel die Einräumung von Nutzungsrechten an gewerblichen Schutzrechten (Patente, Konzessionen, Gebrauchsmuster, eingetragene Marken), deren Bedingungen in spezifischen Patent-, Konzessions- oder Markenverträgen aufgeführt sind. Auch im Franchising sprechen Franchisenehmer häufig von der übernommenen Lizenz.
Gegenstand eines Lizenzvertrags können auch vom staatlichen oder privaten Lizenzgeber erteilte Sonderrechte sein, zum Beispiel die Spielerlaubnis für Mannschaftssportler im Profisport, Spielerlaubnis für Musiker in der ehemaligen DDR, die UMTS-Mobilfunkrechte, aber auch bei Jagdlizenzen (Jagdpatente). Als Rechtsobjekte kommen somit ausschließlich immaterielle Güter in Betracht.
Geschichte
Über die Herkunft und Definition des Lehnworts „Lizenz“ gehen die Meinungen in der Sprachforschung auseinander. Das liegt vor allem am äquivoken zeitgenössischen Sprachgebrauch im Mittelalter. An der Universität Bologna gab es Personen, die das Privatexamen bestanden, aber sich noch nicht der öffentlichen Verleihung des Doktorats unterzogen hatten (). Hieraus ist heute noch in Deutschland die Bezeichnung für Lizenziaten abgeleitet. Der Erwerb des Doktorats () galt spätestens ab 1165 als Ermächtigung, die höchste Würde der Fakultät zu erbitten. Die Lehrerlaubnis () wiederum galt als volle Lehrbefugnis. Das dritte Laterankonzil beschloss 1179 unter Alexander III., dass sowohl die „licentia docendi“ als auch der Unterricht kostenlos erteilt wurden. Während an deutschen Universitäten die Lizenz lediglich eine Vorstufe zum Doktorat und kein eigenständiger akademischer Grad darstellte, galt die Lizenz in Italien als akademischer Grad.
Die Lizenz tauchte als Genehmigung () ersichtlich erstmals unter König Philipp II. von Frankreich im Jahre 1204 auf, wonach „alle Verkaufsrechte des Holzverkaufs dem König gehörten“. Er erteilte eine ausdrückliche Verkaufslizenz () für seine Wälder von Retz, deren Holz „niemand verkaufen, geben oder verleihen ohne die Lizenz des Königs“ durfte. Später erstreckte sich die Verkaufslizenz auf Grundstücke, dann auf Handelswaren für Marktteilnehmer auf Märkten. Zum Ende des 15. Jahrhunderts griff die Lizenz in die Behörden- und Kaufmannssprache über. So erwähnte Ulrich Füetrer im Jahre 1478 „lizenze“ als Synonym für Genehmigungen. Das Wort „Licent“ stand 1591 in Flandern für die „Gebühr einer Ausfuhrerlaubnis“.
Im Reichspatentgesetz vom Mai 1877 fehlte eine Regelung zur Lizenz und zum Lizenzvertrag. Seit etwa 1880 bemühten sich Rechtsprechung und Fachliteratur um eine Erfassung des Lizenzbegriffs. Für Rudolf Klostermann stellte die Lizenz „die Erlaubnis zur Benutzung der Erfindung“ dar. Das Reichsgericht (RG) sprach im März 1911 von „Benutzungserlaubnis“. Im Patentgesetz vom Mai 1936 tauchte der Begriff als Zwangslizenz auf. Dieser heute noch in Abs. 1 PatG stehende Rechtsbegriff erfasst alle vom Patentgericht zwangsweise erteilten Lizenzen. Das Urheberrechtsgesetz vom Januar 1966 spricht allgemein von Nutzungsrecht, kennt aber auch die „Lizenzkette“ ( Abs. 2 Satz 1 UrhG). Das Warenzeichengesetz erwähnte die Lizenz erstmals im Januar 1995.
Arten
Man unterscheidet zwischen ausschließlichen Lizenzen und nicht ausschließlichen Lizenzen. Erstere sind Lizenzen, bei denen der Lizenzgeber dem Lizenznehmer das alleinige Benutzungsrecht erteilt, während bei letzteren sich der Lizenzgeber das Recht vorbehält, das Benutzungsrecht auch selbst auszuüben oder weitere Lizenzen an Dritte zu vergeben.
Lizenzen im Urheberrecht
Das Urheberrecht ist durch internationale Übereinkommen (UN) und durch nationale Gesetzgebung geregelt. Auf den Verstoß gegen diese Regeln folgen Schadensersatzansprüche des Lizenzgebers und auf Antrag strafrechtliche Verfolgung durch die Staatsanwaltschaft. Im Privatrecht regeln Kaufverträge, Leihverträge und spezielle Lizenzverträge die Rechte des Erwerbers und seine Pflichten gegenüber dem Lizenzgeber.
Eine häufig angewendete Lizenzvergabe findet zwischen Rechteinhabern und Rechtenehmern bei der Übernahme und elektronischen Verbreitung von Veranstaltungen statt. Das sind alle Arten von Konzerten, Aufführungen, Sportereignissen usw. So haben z. B. die FIFA zur Fußball-Weltmeisterschaft 2006 und die UEFA zur Fußball-Europameisterschaft 2008 Lizenzen zur Übertragung der Spiele auf Großbildleinwände für das „Public Viewing“ vergeben. Grundsätzlich waren diese Lizenzen bei nicht kommerzieller Ausrichtung kostenlos. Kostenpflichtig wurden die Lizenzen, sobald ein kommerzieller Sponsor beteiligt war. Der häufig verwendete Terminus „Lizenzgebühr“ ist hier falsch, weil es sich in der Regel um nichtstaatliche Vertragspartner gehandelt hat. Es handelt sich um einen Kauf von Rechten.
Arten von Nutzungsrechten (Lizenzen)
Der Begriff der Lizenz wird im Gesetz nicht überall verwendet. Das Urheberrecht gebraucht z. B. den Begriff des Nutzungsrechts, ohne dass damit etwas anderes gemeint wäre. Die Lizenz lässt sich auf mehrerlei Weise vergeben. Sie kann zunächst einmal als nicht-ausschließliche (sogenannte einfache) Lizenz vergeben werden. Ein solches Lizenzrecht erlaubt dem Lizenznehmer (i. d. R. im Wege eines positiven Rechts) den Gebrauch des Schutzrechts. Er kann beispielsweise ein Erzeugnis herstellen, das Gegenstand eines Patents ist, sofern der Lizenzvertrag dies zulässt. Als ausschließliche Lizenz wird ein Nutzungsrecht bezeichnet, das dem Lizenznehmer für ein bestimmtes Gebiet oder für eine bestimmte Gebrauchsart etc. den ausschließlichen Zugriff gestattet. Abwandlungen wie die Allein- oder Betriebslizenz, die das Gebrauchsrecht an einen einzigen Lizenznehmer oder sein Unternehmen binden, sind keine eigenständigen Lizenztypen.
Eine über alle Schutzgesetze hinweg höchst streitige Frage ist die nach der „Dinglichkeit“ der Lizenz. So wird im Patentrecht angenommen, dass die ausschließliche Lizenz „dingliche“ Wirkung habe. Auch z. B. im Urheber-, Marken-, Gebrauchsmuster-, Geschmacksmuster- und Sortenschutzrecht wird eine solche Wirkung der ausschließlichen Lizenz proklamiert. Die Wirkung der einfachen Lizenz wird dagegen über die einzelnen Schutzgesetze differenziert bewertet. Dabei ist der Begriff der „Dinglichkeit“ dem Sachenrecht entnommen und zumindest insofern ungenau, als er dort nur dann Verwendung findet, wenn das Bezugsobjekt des Rechts eine Sache i. S. d. BGB ist. Dieser Streit erstreckt sich im Übrigen auch auf andere Rechtsgebiete. So wird überlegt, ob der ausschließliche Lizenznehmer Drittwiderspruchsberechtigter i. S. d. ZPO, bzw. Aussonderungsberechtigter i. S. d. InsO ist. Daran schließen sich Fragen an, ob eine ausschließliche Lizenz als eigenständiges Recht frei übertragbar ist. Im Urheberrecht kann ein Nutzungsrecht nur mit Zustimmung des Urhebers übertragen werden ( Abs. 1 UrhG). Wenn der Urheber seine ausschließlichen Nutzungsrechte an einen Dritten überträgt und für sich kein Nutzungsrecht vorbehält, ist der Lizenznehmer u. U. berechtigt, das Werk unter Ausschluss aller anderen Personen – einschließlich des Urhebers selbst – zu nutzen. Weiterhin wäre der Lizenznehmer zur Vergabe von einfachen Nutzungsrechten berechtigt, wobei es der Zustimmung des Urhebers bedarf ( Abs. 3 UrhG).
Nach der Zweckübertragungslehre sind im Zweifel nur die Rechte zum Gebrauch überlassen, die für die Erreichung des jeweiligen Vertragszwecks notwendig sind. Das Prinzip entstammt dem Urheberrecht.
Gesetzliche Lizenz
Gesetzliche Lizenzen schränken das Recht des Lizenzgebers zur Beschränkung der Nutzung des Werks von Gesetzes wegen ein. Der Lizenzgeber kann sich damit nicht gegen eine gesetzesgemäße Nutzung zur Wehr setzen.
Ein Beispiel hierfür stellt die Privatkopie dar: Sie beruht auf der gesetzlich gewährten Lizenz nach UrhG zur Anfertigung von Vervielfältigungen zu privatem und sonstigem eigenen Gebrauch. Die Privatkopie ist nicht kostenlos, sondern wird durch Urheberrechtsabgaben abgegolten, die über Verwertungsgesellschaften wie die GEMA eingezogen und an die Lizenzgeber ausgeschüttet werden.
Die Begründung für das Recht zur Privatkopie und die kollektive Verwertung über Verwertungsgesellschaften ergibt sich in erster Linie aus der Unmöglichkeit für den Urheber, seine Rechte im Privatbereich durchzusetzen.
Lizenzverträge
Obwohl die Lizenz in allen Rechtsgebieten inzwischen gesetzliche Anerkennung gefunden hat, fehlt es an einer Legaldefinition und an Aussagen zum Lizenzvertrag. In ihrer umfassenden Bedeutung ist die Lizenz jede Berechtigung zur gewerblichen Nutzung von Immaterialgütern. Der Lizenzvertrag zwischen Lizenzgeber (Rechtsinhaber) und Lizenznehmer ist meist ein Dauerschuldverhältnis und beinhaltet als Hauptleistungspflichten die Rechteüberlassung durch den Lizenzgeber und als Gegenleistung die vom Lizenznehmer zu entrichtenden Lizenzgebühren. Die Überlassung der Rechte geschieht nicht etwa durch deren Abtretung an den Lizenznehmer, sondern vielmehr durch Einräumung eines Nutzungsrechts. Dadurch verbleibt das Eigentum am Recht beim Lizenzgeber, während der Lizenznehmer ein mit der Pacht vergleichbares Nutzungsrecht erhält. Die Lizenzgebühren () orientieren sich meist am lizenzbezogenen Umsatz und sind gemäß Art. 12 Abs. 2 OECD-Musterabkommen Betriebsausgaben für Rechte oder Vermögenswerte, zu denen die verschiedenen Arten der künstlerischen oder literarischen Urheberrechte und bestimmte Arten gewerblicher Vermögensrechte sowie Gebühren für die Überlassung gewerblicher, kaufmännischer oder wissenschaftlicher Erfahrungen gehören.
Ein Lizenzvertrag ist ein im Bürgerlichen Gesetzbuch (BGB) nicht eigens geregelter Vertragstyp. Er wird deshalb auch als Vertrag eigener Art (Vertrag sui generis) klassifiziert. Durch den Vertrag erteilt der Rechteinhaber eines geschützten Rechts dem Lizenznehmer ein definiertes Nutzungsrecht. Lizenzen werden vor allem für die Nutzung von Patenten, Gebrauchsmustern, Marken, Know-how oder Software erteilt. Kernpunkte eines Lizenzvertrags sind die Beschreibung des Lizenzgegenstands, die Festlegung des zur Nutzung freigegebenen Marktsegments bzw. der Marktregion, die Laufzeit, das Entgelt und gegebenenfalls auch Vertragsstrafen. Das Entgelt wird häufig in Form eines Down payments am Anfang und einer laufenden Gebühr in Abhängigkeit vom wirtschaftlichen Erfolg bzw. Nutzen geregelt. Dem Lizenzvertrag ähnlich ist der Franchisevertrag, letzterer basiert aber auf anderen rechtlichen Grundlagen.
Beispiele
Typische Lizenzverträge beinhalten beispielsweise die Lizenzbauten beim Auto- und Flugzeugbau. Dabei werden dem Lizenznehmer Kopien der Konstruktionspläne überlassen und der Lizenzgeber hilft oft dem Lizenznehmer bei der Produktionsaufnahme.
Im Verlagsbereich regeln Lizenzverträge die Nutzung von Urheberrechten. Solche Lizenzverträge werden üblicherweise zwischen dem selbstständigen Urheber und einem Verlag oder zwischen zwei Verlagen (z. B. für Übersetzungsversionen) geschlossen. Ein Urheber kann auch mehrere Lizenzen zur Auswahl anbieten. Man spricht dann von einer Mehrfachlizenzierung (siehe Duales Lizenzsystem).
Dass Privatleuten Rechte mittels Lizenzvertrag eingeräumt werden, ist eher unüblich. Eine Ausnahme stellen die Lizenzen dar, die bei freier Software zur Verwendung kommen. Bei diesen wird pauschal jedermann eine Lizenz angeboten. Die Lizenzen von freier Software und lizenzpflichtiger Software haben gemeinsam, dass sie im Sinne des Bürgerlichen Gesetzbuches Allgemeine Geschäftsbedingungen (AGB) darstellen. AGB müssen zur Erlangung von Rechtskraft wirksam in den Vertrag zwischen dem Lizenznehmer und dem Lizenzgeber aufgenommen werden, sofern es sich nicht um individuell hergestellte Software handelt.
Softwarelizenzen
Für das bloße Ausführen eines Programms im nicht-öffentlichen Rahmen ist keine Lizenz erforderlich, da dies keinem Verbot unterliegt. Eine urheberrechtliche Lizenz, also eine urheberrechtliche Nutzungs-/Verwertungserlaubnis, ist bei urheberrechtlich geschützten Computerprogrammen nur erforderlich, wenn eine urheberrechtlich relevante Nutzungs-/Verwertungshandlung erfolgt, die nicht bereits durch die in Abs. 1 UrhG verankerte gesetzliche Lizenz erfasst ist. Vor allem aus dem Lager der großen Softwarehersteller wird dies regelmäßig negiert bzw. in Abrede gestellt und hierzu auch gerne versucht, bereits den Lauf eines Computerprogramms als urheberrechtliche Verwertungshandlung erscheinen zu lassen. Ignoriert wird hierbei aber, dass nicht jeder technische Kopiervorgang, wie er definitiv beim Lauf eines Computerprogramms innerhalb eines Computers vieltausendfach erfolgt, auch eine urheberrechtliche Vervielfältigung i. S. d. UrhG darstellt. Dies schon grundsätzlich deswegen nicht, weil ein rein computerinterner Kopiervorgang nicht zu einem weiteren (zusätzlichen) Werkexemplar führt, das eine zusätzliche Werknutzung ermöglichen würde – wie es etwa beim Herstellen einer Kopie der Programm-CD/DVD oder bei dem Installieren der Software auf einem anderen/weiteren Computer der Fall ist –, sondern nichts daran ändert, dass der Computer von außen betrachtet nur ein einziges Vervielfältigungsexemplar der darauf installierten Software darstellt. Daraus folgt aber auch, dass etwa der Lauf einer von einem zentralen Server oder einem WAN (ASP) bezogenen/gestarteten Software insofern anders bewertet werden muss, als die jeweils vervielfältigten Programmteile Werkcharakter besitzen.
Ein weiterer Fall ist der, dass ein Werk nicht urheberrechtlich geschützt ist. In diesem Fall ist für keinerlei Nutzungsart eine Lizenz vonnöten. Ein Werk ist dann urheberrechtlich nicht geschützt („gemeinfrei“, „in der Public Domain“), wenn es nicht schutzfähig oder seine Schutzdauer abgelaufen ist. In einigen Rechtssystemen können Urheber auch per Willenserklärung den urheberrechtlichen Schutz aufheben. Nach deutschem Recht ist dies zwar nicht möglich; eine derartige Willenserklärung wird aber in der Rechtsprechung als entsprechend weitreichende Lizenzierung interpretiert.
Freie Software und Open Source
Bei freier und Open-Source-Software werden einfache Nutzungsrechte pauschal an jedermann eingeräumt. Die Zustimmung des Lizenznehmers wird üblicherweise dadurch signalisiert, dass er die durch die freie Lizenz gewährten Rechte wahrnimmt, die über allgemein gewährte Rechte, wie das Recht auf Zitat, hinausgehen. Insofern der Rechteinhaber keine Gegenleistungen fordert, kann die Lizenz kurz und simpel ausfallen. Ein bekanntes Beispiel lautet: „Do what the fuck you want to.“ – ein wenig formlos, doch juristisch gültig. Nach Ansicht des GNU-Projektes ist jedoch bei solchen Lizenzen problematisch, dass veränderte Versionen der Computerprogramme nach geltendem Recht nicht automatisch ebenso freigiebig an jedermann lizenziert sind.
Die GNU General Public License versucht daher, die Freiheiten für den Nutzer zu bewahren und verlangt eine „Gegenleistung“ für die eingeräumten Rechte:
Dass das Programm nicht allein in seiner in Maschinensprache übersetzten Form, auch Binary genannt, sondern nur zusammen mit einer für Menschen verständlichen Version, dem Quellcode weitergegeben wird.
Dass veränderte Versionen nur dann verbreitet werden dürfen, wenn sie ebenfalls unter die GPL gestellt werden. Wer sich nicht daran hält, verliert seine Rechte wieder.
Diese Verfahrensweise wird Copyleft genannt.
Problematisch beim Copyleft in dieser Form ist, dass zwei verschiedene Copyleft-Lizenzen möglicherweise miteinander inkompatibel sein können. Das heißt, es können zwei Werke unter verschiedenen Copyleft-Lizenzen nicht zu einem einzigen kombiniert werden. Insbesondere die GPL ist inkompatibel zu vielen anderen Software-Lizenzen, da sie ein starkes Copyleft besitzt. Auch für andere freie Inhalte, wie zum Beispiel Literatur (GFDL) und freie Musik (GPL-SFA) lauert hier die Gefahr der Inkompatibilität. Die Creative-Commons-Lizenzen versuchen, diesem Problem entgegenzuwirken.
EULA
Während der Installation proprietärer Software werden seit Mitte der 1990er Jahre häufig Verträge (Endbenutzer-Lizenzvertrag, engl.: End User License Agreement (EULA)) angezeigt, die der Benutzer bestätigen muss, um mit der Installation fortfahren zu können. Diese „Verträge“ sind jedoch in Europa und vielen anderen Erdteilen nur eingeschränkt gültig und auch nur dem Namen nach „Lizenzen“, und zwar aus zwei Gründen:
Die EULAs erlauben üblicherweise nichts, was nicht ohnehin schon erlaubt ist, zum Beispiel das Programm zu benutzen. Ohne Gegenleistung also soll sich der „Lizenznehmer“ irgendwelche Verpflichtungen auferlegen. Dies widerspricht dem grundsätzlichen Aufbau eines Vertrages.
Weiterhin kann nicht davon ausgegangen werden, dass der Nutzer dem Vertrag wirklich zustimmt. Das Anklicken eines Buttons, um auf dem eigenen Rechner die Installation berechtigterweise fortzusetzen, kann nicht mit einer Annahme gleichgesetzt werden (man sagt: Das Anklicken hat aus Sicht eines objektiven Dritten an Stelle des Herstellers der Software keinen Erklärungsinhalt, weil man eben nicht davon ausgehen kann, jemand wolle einen Vertrag abschließen, damit ihm erlaubt wird, was er ohnehin schon darf). Aus diesem Grund verbreitet sich zunehmend die Praxis, den Button erst freizuschalten, wenn das Textfeld, in dem das EULA enthalten ist, ganz durchgelesen wurde, also der Ausschnitt bis ganz nach unten verschoben wurde. Aber auch dies löst das Problem nicht, da der Ausschnitt auch verschoben werden kann, ohne den Inhalt zu lesen.
Staatlich erteilte Sonderrechte
Lizenzen dienen dem Staat zur Regulierung von bestimmten Wirtschaftszweigen. Sie sind entweder gesellschaftlich sensibel (zum Beispiel Glücksspiel, Arbeitsvermittlung, Medien) oder es bedarf einer übergeordneten technischen Koordination. Oft ist es auch eine Kombination aus beiden Gründen, da die Legitimation einer technischen Koordination vom Staat als Gelegenheit genutzt wird, einen Bereich politisch zu kontrollieren (vgl. etwa die Notwendigkeit der Koordination der Sendefrequenzen von Radioprogrammen und politische Bestrebungen, auf Radioprogramme – etwa über die Auswahl des Betreibers – Einfluss zu nehmen). An die Vergabe von Lizenzen knüpft der Staat in der Regel die Einhaltung bestimmter Lizenzbedingungen wie zum Beispiel technische Standards, eine gewisse Transparenz, qualitative und quantitative Mindest- oder Höchstumfänge einer Geschäftstätigkeit, aber auch die Entrichtung einer Gebühr für die Lizenznutzung. Hält sich der Lizenzinhaber nicht an diese Bedingungen, deren Einhaltung von staatlichen Behörden kontrolliert wird, droht ihm der Lizenzentzug.
Die Einschätzung, welche gesellschaftlichen Bereiche sensibel sind, ändert sich mit der gesellschaftlichen Entwicklung. Die Tendenz zur Zurückdrängung staatlichen Einflusses und die weltweite wirtschaftliche Liberalisierung seit den 1980er Jahren hat auch Einfluss auf die Erteilung staatlicher Sonderrechte: Lizenzbedingungen werden gelockert, die zahlenmäßigen Beschränkungen von Lizenzen werden aufgestockt oder ganz aufgehoben, es werden Rechtsansprüche für den Erwerb staatlicher Lizenzen eingeräumt oder die Notwendigkeit zum Erwerb einer staatlichen Lizenz wird gar gänzlich aufgehoben.
Lizenzen dienen auch zum Schutz staatlicher Monopole (zum Beispiel Tabakmonopol, Postmonopol).
Der Handel mit landwirtschaftlichen Produkten zwischen der Europäischen Union und Drittländern unterliegt, je nach Produkt, ebenfalls der Lizenzpflicht. Diese werden von den für die Durchführung zuständigen Marktordnungsstellen der EU-Mitgliedstaaten erteilt. Sie sind nicht identisch mit Einfuhr- und Ausfuhrgenehmigungen.
Gesetzliche staatliche Lizenzen
Die Erlaubnis für das gewerbliche Betreiben von Bankgeschäften oder Finanzdienstleistungen heißt Banklizenz und wird nach Abs. 1 KWG von der Bankenaufsicht BAFin erteilt. Die Gewerbeordnung (GewO) sieht in den § ff. GewO einige Wirtschaftszweige vor, die „einer Konzession der zuständigen Behörde“ bedürfen. Hierzu gehören Privatkranken- und Privatentbindungsanstalten (§ 30 GewO), Schaustellung von Personen ( GewO), Aufstellung von Spielgeräten mit Gewinnmöglichkeit ( GewO), Spielhallen ( GewO), Pfandleihgewerbe ( GewO), Bewachungsgewerbe ( GewO), Versteigerergewerbe ( GewO), Makler/Bauträger/Baubetreuer ( GewO), Versicherungsvermittler ( GewO), Versicherungsberater ( GewO), Finanzanlagenvermittler ( GewO) oder Immobiliendarlehensvermittler ( GewO).
Wer ein Gaststättengewerbe betreiben will, bedarf der Gaststättenkonzession ( GastG), sofern nicht alkoholfreie Getränke, unentgeltliche Kostproben, zubereitete Speisen oder in Verbindung mit einem Beherbergungsbetrieb Getränke und zubereitete Speisen an Hausgäste verabreicht werden.
Medienlizenzen
Staatliche Sonderrechte beherrschen insbesondere den Medienbereich. Während Zeitungslizenzen heute nicht mehr verlangt werden, ist für die Ausstrahlung von Radio- oder Fernsehprogrammen noch immer eine Lizenz notwendig. Während der Grund für das Verlangen von Presselizenzen in der besseren Kontrollierbarkeit dieser Medien lag, liegt ein wesentlicher Grund für das Verlangen von Radio- und Fernsehlizenzen (Rundfunklizenzen) in den knappen Ressourcen: Die begrenzte Anzahl von Frequenzen lässt sich nur an eine begrenzte Anzahl von Programmveranstaltern vergeben.
Rundfunklizenz
Privatwirtschaftliche Betreiber von Rundfunkanstalten (Radio und Fernsehen) benötigen in Deutschland nach § 20 Rundfunkstaatsvertrag (RStV) eine Zulassung (Lizenz), die von den Landesmedienanstalten vergeben wird. Nach § 25 RStV haben die Sender dabei „inhaltlich die Vielfalt der Meinungen im Wesentlichen zum Ausdruck zu bringen“. Dies heißt, alle „bedeutsamen, politischen, weltanschaulichen und gesellschaftlichen Kräfte und Gruppen müssen in den Vollprogrammen angemessen zu Wort kommen; Auffassungen von Minderheiten sind zu berücksichtigen“. Dies gilt nicht bei Spartenprogrammen.
Bei der Lizenzvergabe wird dabei auf die Meinungsmacht geachtet, die ein Sender erreicht. Nach § 26 RStV dürfen Fernsehunternehmen mit allen ihren Sendern bzw. Programmen nicht mehr als 30 % Zuschaueranteil erreichen. Ab dieser Quote dürfen keine weiteren Lizenzen vergeben werden.
Die Genehmigung der Radio- und Fernsehsender durch die Landesmedienanstalten ist davon abhängig, ob Sendefrequenzen frei sind. Die freien Frequenzen werden ausgeschrieben.
Die Kriterien für eine rundfunkrechtliche Zulassung werden unterteilt in persönliche und sachliche Voraussetzungen:
Zu den persönlichen Voraussetzungen gehört etwa in Niedersachsen, dass der Veranstalter nicht von einer politischen Partei abhängig ist oder interessierte Privatpersonen nicht als Volksvertreter einem Landtag oder dem Bundestag angehören. In vielen Landesmediengesetzen ist festgelegt, dass eine Lizenzvergabe ausgeschlossen ist, wenn an einem Bewerber eine politische Partei auch nur über eine mittelbare Beteiligung verfügt. CDU-geführte Landesregierungen wollen damit ausschließen, dass sich jene Zeitungsverlage an Radiosendern beteiligen, an denen die SPD eine Minderheitsbeteiligung hat (siehe SPD-Zeitungsbesitz). Als sachliche Anforderung an einen Lizenzbewerber gilt, dass er wirtschaftlich und organisatorisch als in der Lage beurteilt wird, das den Antragsunterlagen entsprechende Programm auch durchzuführen.
Haben sich, was die Regel ist, mehrere Bewerber beworben, trifft etwa die Niedersächsische Landesmedienanstalt (NLM) eine Auswahl danach, welcher der Bewerber „wahrscheinlich die größte Meinungsvielfalt im Programm bieten wird“. Entscheidend ist zudem, in welchem Umfang im Programm Information, Bildung, Beratung und Unterhaltung angeboten werden sollen, inwieweit eine Berichterstattung aus dem lizenzvergebenden Bundesland erfolgt sowie in welchem Ausmaß das Programm in diesem Bundesland produziert wird.
Die Lizenz kann in Niedersachsen etwa entzogen werden, wenn das Programm gegen die Menschenwürde, „die sittlichen, religiösen und weltanschaulichen Überzeugungen anderer“, „die Zusammengehörigkeit im vereinten Deutschland und die internationale Verständigung“ sowie Frieden, soziale Gerechtigkeit, die Integration ausländischer Einwohner und Minderheiten verstößt (§ 13 Abs. 3 und § 14 Niedersächsisches Mediengesetz). Andere Bundesländer haben ähnliche Vorschriften.
In Bayern benötigen auch Internetanbieter wie YouTuber, LP-Produzenten oder Publikumsplattformen wie heise online eine Rundfunklizenz, wenn sie Livestream-Angebote ins Netz stellen.
Mobilfunklizenzen
In den meisten Ländern besitzt der Staat – ähnlich wie beim Rundfunk – die Hoheit über die Vergabe von Frequenzbändern. Deshalb müssen Mobilfunkgesellschaften für den Betrieb des Mobilfunks staatliche Mobilfunk-Lizenzen erwerben. Als Beispiel dafür dient die Versteigerung der UMTS-Lizenzen zum Betreiben des Netzes auf bestimmten Frequenzen, die in Deutschland im August 2000 zweistellige Milliardenbeträge einbrachten.
Zeitungslizenz/Lizenzzeitung
Von den gut vier Jahrhunderten, die seit Erscheinen der ersten Zeitung 1605 in Straßburg vergangen sind, waren lediglich ein kurzer Wimpernschlag während der 1848er Revolution, 15 Jahre in der Weimarer Republik sowie die Zeit nach 1949 (bzw. 1989 in Ostdeutschland) durch eine mehr oder weniger vollständige Pressefreiheit geprägt. In allen anderen Zeiträumen wurden nicht nur auf unterschiedliche Weisen die Inhalte zensiert, sondern durch Kautionsverpflichtungen, Konzessionszwänge, Gewährung von Gewerbeprivilegien oder durch besondere „Stempelsteuern“ die Verlagsgewerbefreiheit beschränkt. Zu diesen Beschränkungen gehörte auch die Verpflichtung, vor der Herausgabe einer Zeitung eine staatliche Lizenz (in früheren Jahrhunderten „Privileg“) zu erwerben.
Eine Lizenzzeitung ist in diesem Sinne eine Zeitung, die über die in Deutschland nach 1945 bis 1949 notwendige Erscheinungsgenehmigung der Militärregierung verfügte. Ohne diese Lizenz durfte bis zum Erlass der Generallizenz/Pressefreiheit keine Zeitung erscheinen. Für ostdeutsche Zeitungsverlage war diese staatliche Genehmigung bis zur Wende 1989 Voraussetzung für die Herausgabe einer Zeitung.
Indem die Herausgabe einer Zeitung von einer speziellen Lizenz abhängig gemacht wird, bekommt die staatliche Herrschaft die Kontrolle über den Personenkreis (Verleger), der Zeitungen herausgeben darf. Unliebsame Personen können ausgeschlossen werden. Zudem bleibt die Zahl der unterschiedlichen Zeitungen begrenzbar. Bei einem Verstoß gegen die Lizenzbedingungen kann eine Lizenz entzogen werden, was Möglichkeiten auch einer inhaltlichen Kontrolle bedeutet.
Einfuhr- und Ausfuhrlizenzen
Für die Erteilung von Ausfuhrgenehmigungen für bestimmte Waren ist in Deutschland das BAFA zuständig ( Abs. 2 AWG). In manchen Staaten (wie in der Schweiz) ist eine Einfuhrgenehmigung für bestimmte Waren erforderlich. Der freie internationale Warenhandel wird durch derartige Vorschriften eingeschränkt, um eine staatliche Kontrolle (etwa beim Waffenhandel) zu gewährleisten.
Nichtstaatliche Lizenzen
Sportlizenzen
Wichtigste nichtstaatliche Lizenz ist im Profifußball die zwingend notwendige vertragliche Teilnahmeberechtigung für den Spielbetrieb der Fußball-Bundesliga und 2. Fußball-Bundesliga (Spielerlaubnis). Nach der Einreichung umfangreicher Lizenzierungsunterlagen durch die Vereine und Genehmigung durch die Deutsche Fußball Liga als Lizenzgeber schließt diese einen Vertrag mit jedem Verein (Lizenznehmer), der die Teilnahme am Spielbetrieb gewährleistet, nur für eine Saison gilt und „Lizenz“ genannt wird. Weitere Lizenznehmer sind die Vertragsspieler, deren Spielerlaubnis umgangssprachlich ebenfalls als Lizenz bezeichnet wird.
Lizenzen in der Verlagsbranche
In der Verlagsbranche spielt der Lizenzhandel eine wichtige Rolle. Lizenzen betreffen den Außenhandel eines Verlages. In einem Verlag ist in der Regel die Rechtsabteilung für Lizenzen zuständig, dort wird ein Lizenzvertrag zwischen dem Lizenzgeber (z. B. der Urheber) und einem Lizenznehmer abgeschlossen. Im Normalfall beschränkt sich eine Lizenz auf eine gewisse Anzahl von Exemplaren. Meist beschäftigen sich damit Literaturagenten auf Buchmessen, wo Statistiken und auch einhergehende Übersetzungen interkulturelle Indikatoren sind. So standen bei den Lizenzverkäufen 1997 bis 2004 Chinesisch oder Koreanisch an der Spitze; 2005 überholt von Polen (8,1 % aller Lizenzen) und 7,4 % ins Tschechische. Deutsche Kinder- und Jugendbücher sind 24 % aller Lizenzverkäufe, große Nachfrage gibt es auch nach Ratgebern und Büchern zur Lebenshilfe (22 %).
Sonstiges
Unter den Begriff Lizenz fallen auch amtliche Berechtigungen zum Führen oder Reparieren von Flugzeugen wie etwa die Lizenz für Verkehrspiloten oder die AML (Aircraft Maintenance Licence) der Fluggerätmechaniker. Der Begriff findet auch im allgemeinen Sprachgebrauch häufige Verwendung, so z. B. bei der „Lizenz zum Töten“ des fiktiven Agenten James Bond.
Das zugehörige Verb lizenzieren hat die Bedeutung „eine Lizenz erteilen“. Umgangssprachlich wird aber auch bei Erwerb oder Beantragung einer Lizenz von lizenzieren gesprochen, beispielsweise in der Wendung „eine Software lizenzieren“ (gemeint ist: „sich eine Software lizenzieren lassen“). Lizenzierung (oder das Verb lizenzieren) ist in der Behördensprache aus der Sicht des Lizenzgebers, im Bereich der EDV auch aus Sicht des Lizenznehmers („ein Programm lizenzieren“) zu verstehen.
Siehe auch
Konzession
Lizenzfreiheit
Lizenzmanagement
Patent
Privatkopie
Rennlizenz
Literatur
Sebastian Wündisch, Stephan Bauer: Patent-Cross-Lizenzverträge – Terra incognita? In: Gewerblicher Rechtsschutz und Urheberrecht – Internationaler Teil Bd. 59, Heft 8–9 (2010), S. 641–649
Weblinks
Einzelnachweise
Urheberrecht
Automobile
Lizenzierung
|
Q79719
| 729.895709 |
44912
|
https://de.wikipedia.org/wiki/Aberdeen
|
Aberdeen
|
Aberdeen [] (sco.: Aiberdeen []; [], „Mündung des Don“, amtlich City of Aberdeen) ist eine Stadt im Nordosten von Schottland im Vereinigten Königreich.
Die Stadt ist eine der 32 Council Areas in Schottland und hat zwei Universitäten, von denen die Universität Aberdeen im Jahr 1495 als dritte Universität in Schottland gegründet wurde. Studenten machen rund zehn Prozent der Bevölkerung aus.
Bedeutend ist die Stadt seit dem 12. Jahrhundert. Typisch für das Stadtbild ist der silbergraue Granit aus den ehemals umliegenden Steinbrüchen. Wenn die Sonne scheint, beginnt der Glimmeranteil im Granit zu glitzern, weshalb Aberdeen auch gerne Silver City genannt wird; oder Flower City, denn dank ihrer Blumenanlagen hat die Stadt wiederholt den Wettbewerb Britain in Bloom gewonnen. Seit Anfang der 1970er Jahre die ersten Ölfelder in der Nordsee erschlossen wurden, entwickelte sich die Hafenmetropole schnell zum Hauptversorgungszentrum für die Offshore-Plattformen. Bei guter Sicht konnte man die Erdölbohr-Plattformen vor der Küste mit bloßem Auge sehen.
Geografie
Aberdeen liegt an den Mündungen der Flüsse Dee und Don. Mit etwa 228.990 Einwohnern (Stand: 2014) ist Aberdeen die drittgrößte Stadt Schottlands.
Old Aberdeen hat die ungefähr gleiche Lage wie Aberdon, die erste Ansiedlung von Aberdeen. Aberdon bedeutet wörtlich an der Mündung des Don (… im Meer) in Bezug auf die örtlichen Flüsse. Der heutige Name bedeutet wörtlich zwischen Dee und Don (des zweiten örtlichen Flusses). Das keltische Präfix Aber- bedeutet Zusammenfluss von in Bezug auf die Flüsse.
Geschichte
Das Gebiet von Aberdeen ist nachweisbar seit mindestens 8000 Jahren von Menschen besiedelt. Zu Beginn des 3. Jahrtausends v. Chr. breiteten sich überall die Becher-Kulturen aus. Man bezeichnete sie in der Frühzeit auch als Schnurkeramische Kultur. Deutliche Belege für eine Besiedlung in dieser Zeit sind geheimnisvolle Steinkreise im Raum Aberdeenshire. 400 v. Chr. setzte die keltische Migration aus dem südlichen Schottland ein. Die Römer kamen nach Aberdeenshire im 1. Jahrhundert n. Chr. Agricola, der römische Statthalter von Britannia, führte im Jahre 84 n. Chr. eine Truppe von rund 40.000 Soldaten nach Kaledonien. Sie kämpften und schlugen die vereinigten Armeen der Pikten in der Schlacht von Mons Graupius, in der Nähe der Spitze Bennachie in Aberdeenshire.
Das genaue Gründungsdatum von Aberdeen ist nicht bekannt. Aber es ist überliefert, dass St. Machar hier im Jahre 580 n. Chr. eine keltische Kapelle schuf. Zunächst entstanden zwei getrennte Siedlungen, die sogenannten Burghs oder Boroughs: Old Aberdeen an der Mündung des Flusses Don und New Aberdeen, als Fischerei- und Handelszentrum, an der Mündung des Flusses Denburn in den Dee. Malcolm III. baute die Siedlungen zur Stadt aus. Sein Sohn Alexander I. ernannte Aberdeen im 11. Jahrhundert zu seiner Hauptresidenz. Wilhelm der Löwe (Wilhelm I.) verlieh den Bürgern von Aberdeen im Jahre 1179 die Rechte einer freien Hanse und bestätigte die Unabhängigkeit für David I. über das Territorium.
Während der Schottischen Unabhängigkeitskriege gegen England war Robert Bruce Anführer der aufständischen Schotten. Zu dieser Zeit stand Aberdeen unter englischer Herrschaft, Robert Bruce zerstörte nach langer Belagerung die Burg. Im Jahr 1308 folgte das Massaker in der englischen Garnison und die Rückeroberung von Aberdeen für die Bürger. Die Magna Charta von Robert the Bruce, die für Unterstützungsleistungen der Aberdonians im Krieg verliehen wurde, verwandelte Aberdeen in eine besitzende und finanziell unabhängige Gemeinde. Mit dem Freibrief wurde der Stadt Farmland und der nahe gelegenen Wald von Stocket mit Jagdrevier zugewiesen und sicherte somit das Einkommen der Stadt. Im gleichen Zuge wurde der Stadt das Wappen mit dem Motto Bon Accord (für die gute Übereinstimmung) verliehen.
Die Stadt wurde auf Befehl von Eduard III. im Jahre 1336 niedergebrannt und nach den Unruhen umgebaut und erweitert. Damit wurde das so genannte Neue Aberdeen geschaffen. Die Stadt war stark befestigt, um Angriffe von benachbarten Herren zu verhindern. In den Kriegen der drei Königreiche von 1644 bis 1647 wurde die Stadt unparteiisch von beiden Seiten geplündert. Im Jahre 1644 wurde Aberdeen von königlichen Truppen erobert und nach der Schlacht geplündert. Im Jahre 1647 tötete ein Ausbruch der Pest ein Viertel der Bevölkerung.
Im 18. Jahrhundert wurde ein neues Rathaus gebaut und elegant mit einem holländischen Marmorkamin und einer Reihe von schönen Kristallkronleuchtern und Wandlampen eingerichtet. Die ersten sozialen Einrichtungen entstanden mit dem Bau des Ambulatorium am Woolmanhill im Jahr 1742 und 1779 dem des Irrenhauses. Zu dieser Zeit wurden die wichtigsten Verkehrsadern George Street, King Street und Union Street ausgebaut. 1770 wurden die Stadttore entfernt.
Während der Industriellen Revolution wurden große Textilfabriken und Papiermühlen in Aberdeen gebaut. Die auf den Werften von Footdee gebauten Klipper galten als schnellste Segelschiffe ihrer Zeit. Durch den Bau von Dampfschiffen ergaben sich neue Wachstumschancen für die Fischerei und es wurden mächtige Trawlerflotten für den Fang von Hering, Dorsch und Schellfisch aufgestellt. Im 19. Jahrhundert erhielt die aufstrebende Hafenmetropole durch die beiden Stadtplaner Archibald Simpson und John Smith um die Union Street neue Verwaltungsgebäude und Wohnraum, es wurde der Stadt ein Herz aus dem heimischen Granit geschaffen. Mit der Entwicklung des Schiffbaus und der Fischerei wurden die bestehenden Häfen Victoria Dock, Breakwater im Süden und North Pier erweitert. Das teure Infrastrukturprogramm hatte Auswirkungen, 1817 wurde die Stadt bankrott. Gas-Straßenbeleuchtung kam im Jahr 1824. 1830 wurde eine verbesserte Wasserversorgung geschaffen, indem das Wasser aus dem Dee in einen Stausee am Union Place gepumpt wurde. 1865 ersetzte ein unterirdisches Kanalsystem die offenen Abwasserkanäle, gleichzeitig wurde mit einer Brücke das Denburn Tal von der Union Street überspannt, das Bauwerk besteht aus einem einzigen Bogen mit einer Spannweite von 40 m. Als Hafenstadt wird Aberdeen in Schottland nur von Glasgow und Greenock übertroffen, denn es besaß im Jahre 1883 206 Seeschiffe mit einer Kapazität von 108.128 Bruttoregistertonnen und 508 Fischerbooten. 1883 liefen in den Hafen von Aberdeen 2514 Schiffe mit 638.897 t Ladung ein; die Ausfuhr belief sich auf 73.393, die Einfuhr auf 853.078 Pfund Sterling. Die vorzügliche Hafenanlagen und Eisenbahnverbindung förderten den Handel. Zur Ausfuhr kamen außer den industriellen Erzeugnissen der Stadt vornehmlich Heringe (1882: 82.407 t, 1883: 45.667 t), dann noch Rindvieh, Lachse, Fische, Eier, Butter, Gemüse u. a.
1860 entstand die Universität durch Zusammenschluss des 1494 gegründeten King’s College und des 1593 gegründeten Marischal College.
Der Zusammenschluss der Stadtteile erfolgte im Jahre 1891. Das neue geschlossene Stadtgebiet umfasst nun die früheren Burghs Old Aberdeen, New Aberdeen, Woodside und die Royal Burgh of Torry südlich des Dee-Flusses. Im Zweiten Weltkrieg erfolgten 24 deutsche Luftangriffe auf die Stadt. Nach dem Zweiten Weltkrieg wurde ein Straßenbahnsystem geschaffen, der Betrieb wurde im Jahr 1958 aber wieder eingestellt. Im Jahre 1964 trat Aberdeen nach einem Typhusausbruch infolge des Verkaufs von verseuchtem Fleisch aus dem Geschäft der Firma William Low & Co. aus der Union Street in die Schlagzeilen. 1969 wurde mit Montrose Field das erste britische Ölfeld vor der schottischen Ostküste erschlossen – 2003 waren über 120 Öl- und Gasfelder in Produktion. Es entstand um die Stadt ein Ring neuer Siedlungen, die Einwohnerzahl verdoppelte sich. Heute verzeichnet die Boomtown mit knapp drei Prozent die niedrigste Arbeitslosenquote im Vereinigten Königreich.
Kultur
Europas Ölhauptstadt besitzt Einkaufsmöglichkeiten, vor allem in der Union Street und ihren Nebenstraßen. Zentrum des studentischen Lebens ist das mittelalterliche Old Aberdeen. An der Uferpromenade befindet sich ein Wellenbad. Im His Majesty’s Theatre im Rosemount Viaduct werden Ballett, Oper, Musicals und Theater als Gastspiele auswärtiger Bühnen gegeben, das in Glasgow ansässige Royal Scottish National Orchestra gastiert in der Music Hall an der Union Street. Für experimentierfreudige Inszenierungen sind das Arts Centre & Theatre in der King Street und The Lemon Tree, 5 West North Street, bekannt. Hier wird im Sommer auch das Aberdeen International Youth Festival mit Folk Dance, Jazz und Rock veranstaltet.
Aberdeen ist die Stadt des NuArt Festivals, das Straßenkunst in der Stadt präsentiert. Das Festival findet seit 2017 statt. NuArt Aberdeen ist das einzige Straßenkunstfestival in Schottland und eines der führenden Festivals seiner Art im Vereinigten Königreich. Das mehrfach preisgekrönte Festival bietet lokalen, nationalen und internationalen Künstlern eine Plattform, um ihre Werke zu präsentieren und mit Unterstützung lokaler Künstler große und kleine Wandbilder, Skulpturen und Interventionen zu schaffen, die mit der Stadt, ihrer Umgebung und ihrer Geschichte in Verbindung stehen.
Sehenswürdigkeiten
Bauwerke
Castle Street: An der Castle Street symbolisiert das Market Cross mit dem schottischen Einhorn das mittelalterliche Marktrecht. Die Porträtmedaille auf dem 1686 errichteten Stadtkreuz zeigen die Stuartmonarchen von Jakob I. bis Maria Stuart.
Old Aberdeen: Knapp drei Kilometer nördlich liegt am Ufer des Don die kopfsteingepflasterte Altstadt. Old Aberdeen war zur Zeit der ältesten erhaltenen königlichen Urkunde von 1179 bereits gut ausgebaut und wurde bald darauf durch die Gründung einer königlichen Münzprägestätte aufgewertet. Das mittelalterliche Aberdeen bestand aus Holz- und Flechtwerkhäusern, kleinen Höfen und armseligen Hütten, die auf drei kleinen Sand- und Kieshügeln (Castlehill, Gallowgate Hill und St. Katharine’s Hill) standen und von kleinen Lochs und anderen Hügeln umgeben waren. Der südliche Teil der High Street wird von der Krone der King’s College Chapel dominiert, die als erstes Gebäude der Universität 1505 fertiggestellt wurde. Es ist das einzige Gebäude, das von Bischof Elphinstones ursprünglicher Gründung 1495 übrig geblieben ist. Bis zum 19. Jahrhundert besaß Old Aberdeen eigenes Marktrecht. Heute ist das unter Denkmalschutz gestellte Viertel mit Gebäuden aus dem Jahr 1641 bevorzugter Treffpunkt der Studenten.
St Machar’s Cathedral: Die Kathedrale der Church of Scotland an der Chanonry in Old Aberdeen entstand Mitte des 12. Jahrhunderts an der Stelle eines keltischen Kirchleins, das der hl. Machar im 6. Jahrhundert gegründet haben soll. Auffallend an dem 1440 von Bischof Leighton geweihten Granitbau sind die beiden Westtürme mit Sandsteinspitzen, 1518–1530 unter Bischof Dunbar angefertigt. Er gab auch 1520 die Eichendecke im Hauptschiff mit den Wappen europäischer Könige in Auftrag. Beide Kirchenväter sind hier beigesetzt.
Weitere Kathedralen in der Stadt sind die Cathedral of St. Mary of the Assumption (Maria Himmelfahrt) des römisch-katholischen Bistums Aberdeen, die 1860 errichtet wurde, und die St Andrew’s Cathedral der Scottish Episcopal Church, die Anfang des 19. Jahrhunderts erbaut wurde und in den schottischen Denkmallisten in der höchsten Denkmalkategorie A gelistet ist.
St Margaret of Scotland Chapel, profaniert
Brig o’Balgownie: Durch den Seaton Park gelangt man zur mittelalterlichen Brücke über den Don, die 1320 auf Befehl von Robert the Bruce errichtet wurde. Bis ins 19. Jahrhundert war sie der einzige nördliche Zugang zur Stadt.
Brig o’Dee: Am anderen Ende der Stadt passiert man die 1842 verbreiterte siebenbogige Brücke. Bischof Dunbar ließ sie bereits 1520 bis 1527 erbauen und mit Wappen und Inschriften versehen.
Marischal College: Beachtliche Granitbauten der Architekten Archibald Simpson, William Smith und James Matthew säumen die Union Street. Eines ist 1593 von George Keith, 4. Earl Marischal, gegründete College in der Broad Street. Es sollte ein protestantisches Gegengewicht zum katholischen King’s College in Old Aberdeen halten. Baubeginn der heutigen Anlage mit dem 72 m hohen Mitchell Tower war 1837. Die Pläne für den vierflügeligen Granitbau lieferte Archibald Simpson, für die 1890–1906 angefügte neogotische Westfront zeichnete A. Marshall MacKenzie verantwortlich. Marischal College gilt als das zweitgrößte Granitgebäude der Welt nach dem Escorial in der Nähe von Madrid. Das Museum informiert nicht nur über den Nordosten Schottlands, sondern besitzt auch anthropologische Sammlungen aus Ägypten, Nigeria, Papua-Neuguinea, Hawaii und Tibet.
Provost Skene’s House: Das älteste Wohnhaus Aberdeens von 1545 wurde nach Sir George Skene of Rubislaw benannt, einem wohlhabenden Kaufmann. Er kam im Ostseehandel mit Danzig zu Vermögen und hatte 1676–1685 das Bürgermeisteramt inne. Heute zeigt hier das Städtische Museum prähistorische Funde und informiert über vergangene Epochen von Cromwell bis zur viktorianischen Ära.
Tolbooth: Eines der ältesten Gebäude Aberdeens und eines der ältesten und best erhaltenen Gefängnisse Schottlands. Die Spitze des Turms ist im Originalzustand aus den Jahren 1630/1706 erhalten. Heute ist der Turm ein Museum, welcher ein paar Exponate und das original Marktkreuz beherbergt.
Duthie Park, öffentlicher Park
Museen und Galerien
Maritime Museum: Das Meeresmuseum zeigt Exponate zur Geschichte des Hafens Aberdeen, der Seefahrt, der Fischerei und der Ölindustrie. Glanzstück der Ausstellung ist die maßstabs- und detailgetreue Nachbildung einer großen Ölbohrplattform, der Murchison-Plattform. Es erstreckt sich im vorderen Bereich des Gebäudes, einer Art verglastem Lichthof, über sämtliche Stockwerke. An den modernen Teil des Museums mit seiner Glasfassade schließt das 1593 erbaute Provost Ross's House an. 1997 wurde das Museum als Scottish Museum of the Year ausgezeichnet, es gewann den höchsten Preis für Restauration der königlich-schottischen Architekten-Vereinigung (Royal institution of Architects in Scotland) und den schottischen Architekturpreis für erstklassige Gebäude (Best Building award).
Blairs Museum: Das Museum an der South Deeside Road im früheren Blairs College widmet sich der katholischen Kirchengeschichte Schottlands und dem tragischen Schicksal Maria Stuarts. Das nahe gelegene Maryculter ist der Märchenwelt gewidmet.
Tolbooth: Dieses kleine Gefängnis-Museum beherbergt einige Exponate über die Stadtgeschichte und Kriminalgeschichte Aberdeens.
Aberdeen Art Gallery: Die Kunstgalerie wurde 1884 gegründet und erhielt durch den Nachlass des Granithändlers Alexander Macdonald im Jahr 1900 großen Auftrieb.
Hafen
Die Market Street führt hinunter zum Hafen von Aberdeen, der bis zum Victoria und Upper Dock auch großen Überseeschiffen genügend Tiefgang bietet. Am Ostende der Dockanlagen signalisieren große Tanks den wirtschaftlichen Stellenwert des Nordseeöls. Die Anfang des 19. Jahrhunderts erbauten Cottages von Footdee, aberdonisch Fittie, liefern ein Abbild vergangener Zeiten.
Parks in Aberdeen
Duthie Park: Südlich des Hafens folgt dem Deeufer der Riverside Drive zum Duthie Park. Hier gibt es einen der größten Wintergärten Europas und Blumenanlagen, darunter ein Hügel allein für Rosen und ein Garten für Blinde.
Victoria Park: In der Mitte des an der Watson Street gelegenen Parks befindet sich ein Brunnen, der aus 14 verschiedenen Granitsorten hergestellt wurde.
Westburn Park: Dieser, dem Victoria Park gegenüberliegende, Park bietet vor allem Sportmöglichkeiten, wie Tennis- und Fußballplätze.
Hazlehead Park: Aberdeens größte Grünanlage an der Groats Road; neben Azaleen und Rhododendren findet man einen Rosengarten, einen Irrgarten und drei Golfplätze. Auch der Reitclub Hayflied nutzt die Anlagen.
Seaton Park: Der äußere Teil der Parkanlage am nördlichen Rand von Old Aberdeen besteht aus einem englischen Park mit großen Rasenflächen und einem lichten Baumbestand. Ein im Sommer mit bunter Blütenpracht glänzender Barockgarten leitet zum Hügel hin, auf dem sich die St.-Machars-Kathedrale und ihr Kirchhof befinden.
Verwaltung und Politik
Aberdeen ist die historische Hauptstadt von Aberdeenshire. Neben Glasgow, Dundee und Edinburgh war Aberdeen seit 1899 eines der vier Counties of cities in Schottland. 1975 wurde Aberdeen zu einem District der Region Grampian und 1996 wurde die Stadt im Rahmen der Einführung einer einstufigen Verwaltungsstruktur zur Council Area „City of Aberdeen“. Aberdeen ist auch eine der Lieutenancy Areas von Schottland.
Der Aberdeen City Council besteht aus 45 Ratsvertretern unter Vorsitz des Lord Provost, dessen Position seit 2017 Barney Crockett innehat. Der Rat setzt sich seit den Kommunalwahlen 2017 wie folgt zusammen: 19 Räte der Scottish National Party (SNP), 11 Räte der Conservative Party, 9 Mitglieder der Labour Party, 3 Räte der Liberal Democrats sowie 3 unabhängige Räte.
Das Gebiet Aberdeens ist zu Wahlen zum House of Commons auf drei Wahlkreisen aufgeteilt: Aberdeen North, Aberdeen South, die ausschließlich Gebiete der City of Aberdeen abbilden, sowie einem kleinen Teil des Wahlkreises Gordon.
Bei Wahlen zum schottischen Parlament ist die Fläche auf drei Wahlkreise verteilt: Aberdeen Central, Aberdeen Donside sowie einem Teil von Aberdeen South and North Kincardine.
Verkehr und Infrastruktur
Aberdeen ist das wichtigste Zentrum im äußersten Norden Großbritanniens und wichtige Seehafenstadt an der Nordsee. Aberdeen gilt als Ölhauptstadt Europas.
Der Flughafen Aberdeen (ABZ), in Dyce im Norden der Stadt, bietet eine Reihe von nationalen und internationalen Zielen, darunter Frankreich, die Niederlande, Spanien, Belgien, Österreich, Irland und den skandinavischen Ländern.
Der Heliport, der der Ölindustrie und für Rettungsdienste dient, ist einer der meistbesuchten Heliports in der Welt. Etwas mehr als eine Stunde dauert der Flug von London bis zu Aberdeens modernem Dyce-Airport, 9,6 km nordwestlich der Stadt, es gibt eine Anbindung per Shuttlebus.
Der Bahnhof Aberdeen liegt an den Bahnstrecken Edinburgh–Aberdeen und Aberdeen–Inverness. Über Edinburgh kann eine der Hauptstrecken des britischen Eisenbahnsystems erreicht werden, die East Coast Main Line. Auf diesem Wege gibt es direkte Verbindungen in Großstädte wie Glasgow und London. Des Weiteren wird der Bahnhof vom Caledonian Sleeper, einem der letzten britischen Nachtzüge, angefahren.
Es gibt sechs Hauptverkehrsstraßen in die und aus der Stadt. Die A90 ist die wichtigste Nord-Süd-Verkehrsachse und verbindet Aberdeen mit Edinburgh, Dundee, Brechin und Perth im Süden, sowie Ellon, Peterhead und Fraserburgh im Norden. Die A96 führt nach Elgin und Inverness im Norden und Westen. Die A93 ist die wichtigste Route nach Westen in Richtung Royal Deeside and Cairngorm. Die A944 führt auch nach Westen durch Westhill und Alford. Die A92 war vor dem Bau der A90 die ursprüngliche Straße nach Süden, sie dient heute als touristische Route. Die A947 verlässt die Stadt am Dyce und führt in Richtung Newmachar, Oldmeldrum und Turriff schließlich nach Macduff.
Der Hafen Aberdeen ist der größte im Norden von Schottland. Der Jamieson’s Quay ist Ausgangspunkt für die von NorthLink Ferries betriebene Fährlinie zu den Orkney- und Shetland-Inseln.
Das Unternehmen FirstGroup betreibt die Stadtbusse in der Stadt unter dem Namen First Aberdeen, als Nachfolger der Gesellschaften Grampian Regional Transport (BRT) und Aberdeen Corporation Tramways (Straßenbahn). Die Stagecoach Group unterhält auch Buslinien in Aberdeen und Aberdeenshire, unter dem Namen Stagecoach Bluebird. Auch andere Busunternehmen (z. B.: Megabus, Citylink) bedienen den Norden und Süden der Stadt.
Wirtschaft
Traditionell gab es in Aberdeen Fischfang, Textilfabriken, Schiffbau (Werften) und Papierindustrie. Diese Branchen erlebten einen Niedergang.
Die Textilproduktion endete 2004 mit der Schließung der Firma Richards.
Grauer Granit wurde im Rubislaw Steinbruch für mehr als 300 Jahre abgebaut und für den Einbau von Pflastersteinen, Bordsteinen und Bausteine verwendet. So wurde Aberdeen Granite zum Bau der Terrassen der Houses of Parliament und der Waterloo Bridge in London genutzt. Die Granitgewinnung wurde im Jahr 1971 eingestellt.
Mit der Entdeckung von bedeutenden Ölvorkommen in der Nordsee gegen Ende des zwanzigsten Jahrhunderts wurde Aberdeen zum Zentrum der Erdölindustrie in Europa. Mit einem der größten Heliports der Welt werden die Bohrinseln vor der Küste bedient; Aberdeen wird oft als die Ölhauptstadt Europas bezeichnet. 2008 erlebte der Ölpreis einen historischen Höchststand; danach fiel er. Im zweiten Halbjahr 2014 fiel er etwa um die Hälfte.
Aberdeen gilt als Einkaufsmetropole im nördlichen Schottland. Die 'Union Street' mit den großen Einkaufszentren St Nicholas & Bon Accord und The Mall Aberdeen ist eine bekannte Einkaufsstraße. In der 'George Street' gibt es zahlreiche indische Läden und Charity Shops. 2009 wurde am Bahnhof ein neues großes Einkaufszentrum namens UnionSquare eröffnet.
Ansässige Unternehmen
Aberdeen Asset Management
Dräger Safety
First Group
Wood Group
Bildung
In Aberdeen gibt es zwei Universitäten, die University of Aberdeen sowie die Robert Gordon University. Die University of Aberdeen wurde 1495 gegründet und ist damit die drittälteste Universität in Schottland und die fünftälteste im Vereinigten Königreich.
Außerdem gibt es Schulen für Chemie und Ackerbau, eine Kunstschule, theologische Schulen der schottischen Freikirche und der Katholiken und zwei Gymnasien.
Wissenswertes
Um den häuslichen Energieverbrauch bis 2007 um 31 % gegenüber den Werten von 1997 zu senken, ergriff die Stadt Aberdeen die ungewöhnliche Maßnahme, von einem Flugzeug aus Thermalbilder von allen Gebäuden der Stadt zu machen, um daraus zu erkennen, welche Häuser durch mangelhafte Isolierung von Wänden, Fenstern, Dächern oder Warmwassertanks Energie durch Wärmeverlust verschwenden. Die aufgrund der Daten aus dem Jahr 2001 erstellte Karte ist im Internet kostenfrei einzusehen. Ziel ist es Hauseigentümer und die städtischen Behörden zu informieren, in welchen Bereichen Energiekosten und damit auch die Abgabe von Treibhausabgasen gesenkt werden können.
Der Strand von Aberdeen war durch Abfälle aus der Ölindustrie radioaktiv verseucht und wurde im Sommer 2005 deshalb gesperrt.
In einer Rangliste der Städte nach ihrer Lebensqualität belegte Aberdeen im Jahre 2018 den 58. Platz unter 231 untersuchten Städten weltweit.
Partnerstädte
Aberdeen unterhält Beziehungen mit folgenden fünf Partnerstädten:
Regensburg, Deutschland, seit 1955
Clermont-Ferrand, Frankreich, seit 1983
Bulawayo, Simbabwe, seit 1986
Homel, Belarus, seit 1990
Stavanger, Norwegen, seit 1990
Persönlichkeiten
Söhne und Töchter der Stadt:
John Abell (1652–1724), Komponist
Richard Alexander (1934–2008), Politiker der Conservative Party
James Anderson (1678–1739), Pfarrer, Freimaurer
Alexander Bain (1818–1903), Philosoph und Pädagoge
Alfie Bavidge (* 2006), Fußballspieler
Ian Black (* 1941), Schwimmer
Scott Booth (* 1971), Fußballspieler
Martin Buchan (* 1949), Fußballspieler
George Campbell (1719–1796), Philosoph
David Carry (* 1981), Schwimmer
Oswald Chambers (1874–1917), Baptistenprediger
James Clapperton (* 1968), Pianist und Komponist
Zoey Clark (* 1994), Sprinterin
Andrew Considine (* 1987), Fußballspieler
Rachel Corsie (* 1989), Fußballspielerin
Chris Cusiter (* 1982), Rugby-Union-Nationalspieler
Anneliese Dodds (* 1978), Politikerin
James Donald (1917–1993), Schauspieler
David Alexander Dyker (1944–2018), Wirtschaftswissenschaftler, Historiker und Hochschullehrer
John Esslemont (1874–1925), Bahai
Alexander Ewing (1814–1873), Theologe und anglikanischer Bischof
Neil Fachie (* 1984), Behindertensportler
David Florence (* 1982), Kanuslalomfahrer im Einer-Canadier
Susan Fraser (* 1966), Hockeyspielerin
Andrew Thomas Gage (1871–1945), Botaniker
Mary Garden (1874–1967), Opernsängerin (Sopran)
James Gibbs (1682–1754), Architekt
David Gill (1843–1914), Astronom
John Grant (1949–2020), Schriftsteller und Autor
David Gregory (1659–1708), Mathematiker
Jimmy Hastings (* 1938), Jazzmusiker
Stuart Holden (* 1985), Fußballspieler
George Jamesone (1587–1644), Maler
Arthur Berriedale Keith (1879–1944), Dozent
Sophie Kennedy Clark (* 1990), Schauspielerin
Ben Kilner (* 1988), Snowboarder
Denis Law (* 1940), Fußballspieler
Paul Lawrie (* 1969), Profigolfer
Annie Lennox (* 1954), Popstar, Sängerin der Eurythmics
Rose Leslie (* 1987), Schauspielerin
Iain Levison (* 1963), Schriftsteller
Michael Lynch (* 1946), Historiker
William MacGillivray (1796–1852), Naturforscher und Ornithologe
Alexander Mackenzie Stuart, Baron Mackenzie-Stuart (1924–2000), Jurist und Präsident des Europäischen Gerichtshofs
Francis Masson (1741–1805), Botaniker und Pflanzenjäger
Karen McCombie (* 1963), Kinder- und Jugendbuchautorin
Jack Milne (* 2003), Fußballspieler
Lisa Milne (* 1971), Sopranistin
Nanette Milne (* 1942), Politikerin
Willie Moir (1922–1988), Fußballspieler
Robert Morison (1620–1683), Botaniker und Arzt
George Nares (1831–1915), Admiral und Polarforscher
Scott Neyedli (* 1978), Triathlet
Luke Patience (* 1986), Regattasegler
Robert Pugh (* 1950), Schauspieler und Drehbuchautor
Nora Radcliffe (* 1946), Politikerin
Calvin Ramsay (* 2003), Fußballspieler
David Rintoul (* 1948), Schauspieler
Jeannie Robertson (1908–1975), Folk-Sängerin
Barry Robson (* 1978), Fußballspieler
Sebastian Rochford (* 1973), Jazz- und Crossover-Musiker
Finn Ross (* 1982), Videodesigner
Jonathan Rowson (* 1977), Schachspieler
Emeli Sandé (* 1987), Sängerin
Charles Sangster (1872–1935), Erfinder, Unternehmer
Michael Sheard (1938–2005), Schauspieler
Archibald Simpson (1790–1847), Architekt
Nicol Stephen, Baron Stephen (* 1960), Jurist und Politiker
Jeff Stewart (* 1955), Schauspieler
Stewart Sutherland, Baron Sutherland of Houndwood (1941–2018), Akademiker, Professor, Staatsdiener und ab 2001 Mitglied des House of Lords
Lindsay Symon (1929–2019), Neurochirurg
Olwen Thorn (* 1984), Skilangläuferin und Biathletin
Alex Tilley (* 1993), Skirennläuferin
Stuart Tosh (* 1951), Musiker
Doris Trueman (* 1953), Skilangläuferin
Patrick Walliser (* 1951), Schweizer Musiker und Hochschullehrer
Maureen Watt (* 1951), Politikerin
Vincent Winter (1947–1998), Schauspieler
Ron Yeats (* 1937), Fußballspieler
Klimatabelle
Literatur
Die Logan-McRae-Kriminalromanreihe von Stuart MacBride spielt in Aberdeen.
Weblinks
Offizielle Website der Stadtverwaltung von Aberdeen
University of Aberdeen
The Robert Gordon University, Aberdeen
Einzelnachweise
Ort in Aberdeen (Council Area)
Council Area (Schottland)
City (Schottland)
Hochschul- oder Universitätsstadt in Schottland
Ort am Dee (Nordsee)
Ort am River Don (Nordsee)
|
Q36405
| 181.001148 |
48971
|
https://de.wikipedia.org/wiki/Golfstrom
|
Golfstrom
|
Der Golfstrom ist eine schnell fließende Meeresströmung im Atlantik. Er ist Teil eines globalen maritimen Strömungssystems, das oft als globales Förderband bezeichnet wird. In Richtung Europa wird der Golfstrom zum Nordatlantikstrom. Er ist Teil der westlichen Randströmung und beeinflusst das Klima in Nordeuropa.
Der Golfstrom befördert etwa 30 Millionen Kubikmeter Wasser pro Sekunde (30 Sv) am Floridastrom bei einer Geschwindigkeit von 1,8 Meter pro Sekunde (ca. 6,5 km/h) und maximal 150 Millionen Kubikmeter Wasser pro Sekunde (150 Sv) bei 55° West. Das ist mehr als einhundertmal so viel Wasser wie über alle Flüsse der Welt zusammen ins Meer fließt. Er transportiert etwa eine Leistung von 1,5 Petawatt. Dies entspricht der elektrischen Leistung von ungefähr einer Million der größten Kernkraftwerksblöcke.
Der Name Golfstrom wurde von Benjamin Franklin geprägt und bezieht sich auf den Golf von Mexiko. Früher wurde er auch „Floridastrom“ genannt; auf den Karten des 16. und 17. Jahrhunderts heißt die Straße von Florida Canal de Bahama.
Topografie
Als eigentlicher Golfstrom wird die Meeresströmung zwischen Cape Hatteras (North Carolina) und einem Bereich bis ca. 2500 km östlich davon im Atlantik bezeichnet. Seine Ursprünge sind der Floridastrom und der Antillenstrom.
Der Floridastrom ist die Fortsetzung der Karibischen Strömung und damit des Südäquatorialstroms, der Hauptwasserlieferant des Golfstroms ist. Die Karibische Strömung fließt durch den schmalen Durchgang der Meerenge zwischen Kuba und Yukatán in den Golf von Mexiko. Diese Strömung, jetzt Loop Current (Schleifenstrom) genannt, durchläuft danach den Golf im Uhrzeigersinn und wird dann durch eine noch engere Passage zwischen Kuba und Florida in den Atlantik zurückgepresst. Der Strom selbst zeigt sich in diesem Bereich den Fischern häufig durch seine Farbe (tieferes Blau), begleitet vom vermehrten Vorkommen von Beute suchenden Seevögeln und Bändern von Braunalgen längs des Stroms.
Nördlich der Bahamas vereinigen sich Floridastrom und Antillenstrom zum eigentlichen Golfstrom. Im Golf von Mexiko haben die Wassermassen viel Wärme aufgenommen und bewegen sich zunächst als etwa 100 bis 200 km breites Band entlang der Küste Nordamerikas. In der Nähe von Cape Hatteras löst sich der Golfstrom als Strahlstrom von der Küste und fließt östlich in das nordamerikanische Becken und in den offenen Atlantik (bedingt durch die geographischen Gegebenheiten unter der Wasseroberfläche).
Der Golfstrom ist Teil des großen atlantischen Stromrings, bestehend aus dem Portugalstrom, dem Kanarenstrom, dem Nordäquatorialstrom, dem Antillenstrom, dem Floridastrom und dem Nordostatlantischen Strom.
Der Strom wird durch die Ostwendung instabil. Er mäandriert, und zahlreiche größere (Durchmesser bis 200 km), zeitlich stark veränderliche und sich bewegende Ringe („Eddies“, „Rings“) lösen sich vom Golfstrom, beginnend als Ausbuchtung. Nördlich des Stroms drehen sie sich im kälteren Wasser nach der Ablösung im Uhrzeigersinn (antizyklonisch) mit warmem Kern, südlich gegen den Uhrzeigersinn (zyklonisch) mit kaltem Kern, ähnlich wie Hoch- und Tiefdruckgebiete in der Atmosphäre. Diese Ringe wurden in den 1960er Jahren entdeckt. Da sie auch in Küstennähe gelangen können, haben sie dort große Auswirkungen auf den Fischfang vor Nordamerika, einmal durch den starken Temperatursprung auf die Fische selbst so auch auf Hummerkörbe, da sie wie der Golfstrom in seiner Hauptströmung selbst auch schwere Gegenstände, wie Wracks, am Meeresboden bewegen können. Auf seinem Weg durch den Atlantik spalten sich Teile der Hauptströmung ab und fließen zurück in südliche oder westliche Richtungen. Die transportierte Wassermasse verringert sich durch diese Teilung der Strömung und verliert durch Verdunstung auch an thermischer Energie.
Ursachen
Bei der Entstehung des Golfstroms spielt neben der atmosphärischen Zirkulation die nach Norden zunehmende Wirkung der Corioliskraft auf die Wasserbewegung eine sehr wichtige Rolle.
Der Passatwind im Nordatlantik treibt das Wasser an der Oberfläche nach Westen. Die Küste von Nordamerika wirkt wie eine Staumauer und lässt das Wasser entlang der Küste nach Norden abfließen. Durch das Zusammentreffen mit dem Labradorstrom sowie durch die Corioliskraft werden die nach Norden strömenden Wassermassen in Richtung Europa abgelenkt.
Der Golfstrom ist Teil eines des die Weltmeere umspannenden Zirkulationssystems, zu dem auch die globale thermohaline Zirkulation beiträgt. Die thermohaline Zirkulation entsteht durch Dichteunterschiede, die ihrerseits auf Unterschiede in der Wassertemperatur und dem Salzgehalt zurückzuführen sind.
Wechselwirkungen
Die Temperatur des Golfstroms und seine Strömung haben großen Einfluss auf die Ökologie der Tierwelt des Atlantiks. Das mit der Strömung driftende Plankton ist Nahrungsgrundlage für zahlreiche Tiere. Diese locken wiederum Fressfeinde innerhalb der Nahrungskette an wie Haie und Marlins. Ernest Hemingway setzte in seiner Novelle „Der alte Mann und das Meer“ dem Fischen im Golfstrom vom Hafen Cojímar im Norden Kubas nahe Havannas ein Denkmal. Die untermeerischen Bodenstrukturen, die vom Golfstrom berührt und teilweise geformt werden, bilden ökologische Nischen.
Auf seinem Weg transportiert der Golfstrom große Mengen Plastikmüll. Der Müll stammt unter anderem von den Abfällen der Schiffsbesatzungen. Auch Flüsse spülen große Mengen von Plastik in die Ozeane.
Erforschung
Die erste Erwähnung durch Europäer erfolgte 1513 durch den spanischen Konquistador Juan Ponce de León, der auf der Suche nach Beute in den Golfstrom geriet, der ihn nach eigenen Worten schneller als der Wind bewegte. Die Spanier widmeten diesem aber keine große Aufmerksamkeit, obwohl sich die Kenntnis über den Golfstrom bald unter Kapitänen verbreitete, da er die Verbindung von Europa zu den amerikanischen Kolonien erheblich vereinfachte.
Die erste Karte des Golfstroms und dessen erste wissenschaftliche Untersuchung stammt von Benjamin Franklin aus dem Jahr 1775. Dabei folgte er Angaben von Walfängern, die Walen folgten, die den Golfstrom für die Fortbewegung nutzten. Franklin wurde 1768 in London, wo er als stellvertretender Postmeister für den Transport der Post von England in die amerikanischen Kolonien zuständig war, von seinem Cousin Timothy Folger, ein ehemaliger Walfänger und Kapitän eines Handelsschiffs, über den Golfstrom informiert. Die Walfänger mussten den Walen – Pottwale und Buckelwale, die wiederum dem vermehrten Nahrungsangebot durch die Verwirbelungen mit nährstoffreichem kaltem Tiefseewasser am Rand des Golfstroms folgten und den Golfstrom für die schnellere Fortbewegung nutzten – in die Strömung folgen, um diese noch zu erreichen und suchten auch gezielt nach den Walen am Rand des Golfstroms oder in diesem. Folger selbst war verwundert, warum der Strom den Briten damals anscheinend nicht bekannt war. Franklin empfahl den Postschiffen den Golfstrom zu nutzen und so die Fahrt um rund eine Woche zu verkürzen.
1969 unternahm das Tauchboot Ben Franklin (PX-15) unter Jacques Piccard als Projektleiter eine vierwöchige Driftfahrt im Golfstrom, während der die sechsköpfige Besatzung auf sich allein gestellt war. Das Boot tauchte vor Florida unter und legte 2400 km bis vor Neuschottland zurück. Das Boot trieb auf festgelegter Tiefe im Golfstrom und entdeckte dabei unter anderem Tiefenwellen, die im Randbereich der Strömung zu kälterem Wasser durch Reibung entstanden und das Boot mit Amplituden von rund 60 m auf und ab bewegten.
2005 sorgte ein Aufsatz des britischen Ozeanographen Harry Bryden für Aufsehen, der eine starke Abschwächung des atlantischen Teils des globalen Förderbands postulierte. Messungen der Strömung im Bereich der Labradorsee und östlich der Karibik unter Federführung des Kieler IFM-Geomar konnten Brydens Schlussfolgerungen jedoch nicht unterstützen. Zwar stellten auch die Kieler Forscher ganz erhebliche Schwankungen fest, jedoch könne man aus diesen keine langzeitigen Trends ableiten.
Regelmäßig tauchten in den Medien Meldungen auf, dass der Golfstrom schwächele und Europa dadurch im schlechtesten Fall eine neue Eiszeit erleben werde, wie es der Kinofilm The Day After Tomorrow 2004 thematisierte. Dabei werden allerdings Golfstrom und der nordatlantische Teil des globalen Förderbands miteinander verwechselt.
Die Hypothese, wonach der Golfstrom eine wichtige Wärmequelle für Europa darstellt, wurde 1855 in einem ozeanographischen Buch des Marineoffiziers und Hydrografen Matthew Fontaine Maury aufgestellt. Sie hält sich seitdem wie ein Mythos unter der Metapher „Europas Zentralheizung“. Wie der Klimaforscher Richard Seager vom Lamont-Doherty Earth Observatory 2002 in einer detaillierten Studie ausführlich darstellte, ist der tatsächliche direkte Einfluss des eigentlichen Golfstroms auf das europäische Klima jedoch eher minimal, vergleicht man ihn mit dem Einfluss von Luftströmungen und lokaler ozeanischer Wärmekapazität. Anders verhält es sich mit dem Nordatlantikstrom, der durch den Golfstrom gespeist wird (siehe unten).
Auswirkungen der globalen Erwärmung
Durch die globale Erwärmung schrumpfen die Eisschilde von Grönland, der Antarktis sowie viele Gletscher auf der Erde. Dies führt zu einer Abnahme des Salzgehalts im Meerwasser und senkt damit dessen Dichte. Ein relativ hoher Salzgehalt im Nordatlantik ist aber Voraussetzung dafür, dass die dortige Tiefenströmung bestehen bleibt, die zum globalen Förderband gehört. Eine Folge des abnehmenden Salzgehalts ist die Verlangsamung des atlantischen Teils des globalen Förderbands. Zwischen Mitte des 20. Jahrhunderts und dem Jahr 2018 hat sich die Fließgeschwindigkeit nach einer Veröffentlichung von Stefan Rahmstorf und Kollegen um 15 % verringert, gleichbedeutend mit einem Rückgang um 3 Millionen Kubikmeter pro Sekunde – diese Menge entspricht dem 15-fachen Volumen des Abflusses des Amazonas. Indizien für diese Verlangsamung waren das allgemeine Absinken der Temperaturen auf einer großen Fläche im Nordatlantik und eine Temperaturerhöhung des Golfstroms an der Ostküste der USA. Das wurde auch mit Klimamodellen der globalen Erwärmung vorhergesagt. Bestätigt wurde die Abschwächung des Förderbands im Atlantik auch durch Untersuchungen von Bohrkernen aus der Labradorsee, die 2018 in Nature veröffentlicht wurden.
Auch die direkten Messdaten des britisch-amerikanischen Rapid-Projekts mit 226 verankerten Messinstrumenten bei 26,5 Grad nördlicher Breite zeigen eine Abschwächung des Förderbands im Atlantik seit Beginn der Messungen im April 2004.
Die unmittelbaren Auswirkungen der Abschwächung des Förderbands im Atlantik sind paradoxerweise zunächst Hitzewellen im Sommer und verstärkte Stürme in Mitteleuropa aufgrund der veränderten Luftdruckverhältnisse, die vermehrtes Einströmen von Warmluft aus Südeuropa begünstigen.
Die Gesamtabkühlung des Meereswassers im Nordatlantik wirkt sich erst später aus.
Literatur
Matthew Fontaine Maury: The Physical Geography of the Sea, New York/London 1855, PDF
Hermann Lämmerhirt: Der Golfstrom : seine Entstehung und sein Einfluss auf das Klima des nordwestlichen Europas. Bremerhaven, 1887 ()
Henry Stommel: The Gulf Stream. A physical and dynamical description. Cambridge University Press, London, 1958; 2nd ed. 1965.
Henry Stommel: The westward intensification of wind-driven ocean currents. In: Transactions of the American Geophysical Union, Jg. 29 (1948), S. 202–206
Érik Orsenna: Lob des Golfstroms. C.H. Beck, München 2006, ISBN 3-406-54829-6.
Jacques Piccard: Tauchfahrt im Golfstrom. Brockhaus, Wiesbaden 1972, ISBN 3-7653-0247-3.
Weblinks
Surface Ocean Currents: The Gulf Stream von der University of Miami (englisch)
Golfstrom: Hintergrund, Aktuelles, Infografiken, Unterrichtsmaterialien, Presseartikel: „Agenda 21 Treffpunkt“ im Bildungsserver learn:line NRW
Corona Magazine Ausgabe 124: Wissenschaft (Leistung)
Golfstrom Artikel auf dem Bildungswiki klimawiki.org
deutschlandfunk.de, Umwelt und Verbraucher, 20. Juli 2017, Dieter Nürnberger: Die Klimaanlage für Europa
Real-Time Data Links
Englische Wikipedia: Shutdown of thermohaline circulation
Video von Marlene Weiß, Olivia von Pilgrim und Christian Jocher-Wiltschka: Warum der Golfstrom für das Klima so wichtig ist. SZ.de, 20. März 2020
Einzelnachweise
Meeresströmung (Atlantischer Ozean)
Wikipedia:Artikel mit Video
|
Q130905
| 223.540024 |
54278
|
https://de.wikipedia.org/wiki/Borgruppe
|
Borgruppe
|
Als Borgruppe (auch Triele) bezeichnet man die 3. Hauptgruppe (nach neuer Nummerierung der IUPAC Gruppe 13) des Periodensystems. Sie enthält die Elemente Bor (B), Aluminium (Al), Gallium (Ga), Indium (In) und Thallium (Tl). Das künstlich hergestellte radioaktive Element Nihonium (Nh), früher auch „Eka-Thallium“ genannt, zählt ebenfalls dazu.
Früher wurden teilweise alle Elemente der Borgruppe Erdmetalle genannt, abgeleitet von der Tonerde, einem Aluminiumoxid (Al2O3). Da jedoch Bor selbst nicht zu den Metallen, sondern den Halbmetallen gezählt wird, werden heute nur mehr die übrigen Elemente der Borgruppe als Erdmetalle bezeichnet.
Vorkommen
Die Erdkruste besteht zu 7,3 % aus Elementen der Borgruppe, die meist als Oxide vorliegen. Davon entfallen 99,94 % auf Aluminium, das häufigste Metall in der Erdkruste. Die übrigen Elemente der Borgruppe sind selten.
Diese 0,06 % teilen sich wie folgt auf:
51 % Bor
46 % Gallium
3 % Indium
0,2 % Thallium
Aluminiumhaltige Mineralien:
Kein Element der Borgruppe tritt gediegen auf.
Eigenschaften
Das erste Element der Gruppe, Bor, unterscheidet sich aufgrund seiner halbmetallischen Eigenschaften wesentlich von den weiteren Elementen der Borgruppe, die allesamt Metalle sind und in ihren Eigenschaften den Erdalkalimetallen ähneln.
Physikalische Eigenschaften
Mit zunehmender Ordnungszahl wachsen Atommasse, Atomradius und Ionenradius. Den höchsten Schmelzpunkt hat Bor mit 2076 °C, den niedrigsten Gallium mit nur 29,76 °C (Körpertemperatur: ~37 °C). Dazwischen liegen Indium (156,6 °C), Thallium (304 °C) und Aluminium (660,32 °C). Die Siedepunkte nehmen von oben nach unten ab: Bor hat mit 3927 °C den höchsten Wert, danach folgen Aluminium (2467 °C), Gallium (2204 °C), Indium (2072 °C) und schlussendlich Thallium (1473 °C).
Mit steigender Ordnungszahl wächst die Dichte, während die Härte abnimmt. Bor hat mit 2,460 kg/dm3 die geringste Dichte und mit 9,3 die höchste Mohshärte, bei Thallium ist es mit einer Dichte von 11,850 kg/dm3 und einer Mohshärte von nur 1,2 genau umgekehrt.
Die höchste elektrische Leitfähigkeit hat Aluminium mit 37,7 MS/m (etwa ein Drittel weniger als Kupfer (58 MS/m)), die geringste weist Bor mit 0,10 mS/m auf.
Die 1. Ionisierungsenergie sinkt mit wachsender Ordnungszahl von 8,298 eV bei Bor auf 5,786 eV bei Indium ab, wobei Gallium jedoch mit 5,999 eV (anstatt des Aluminiums mit 5,968 eV) an zweiter Stelle steht. Thallium hat mit 6,108 eV einen erhöhten Wert.
Die Elektronegativität ist bei Bor mit 2,0 am größten, erreicht mit 1,5 bei Aluminium einen vorläufigen Tiefpunkt und steigt dann wieder auf 1,8, den Wert von Gallium, an. Im weiteren Verlauf sinkt die Elektronegativität wieder auf den Wert 1,4 (Thallium).
Bei sehr niedrigen Temperaturen leiten Aluminium, Gallium, Indium und Thallium elektrischen Strom ohne Widerstand. Sie werden zu Supraleitern.
Elektronenkonfiguration
Die Elektronenkonfiguration lautet [X] ys2yp1. Das X steht hierbei für die Elektronenkonfiguration des eine Periode höher stehenden Edelgases, und für das y muss die Periode eingesetzt werden, in der sich das Element befindet. Ab Gallium ist auch ein (y-1)d10-Orbital vorhanden; und ab Thallium findet sich auch ein (y-2)f14-Orbital.
Für die einzelnen Elemente lauten die Elektronenkonfigurationen:
Bor: [ He ] 2s22p1
Aluminium: [ Ne ] 3s23p1
Gallium: [ Ar ] 3d104s24p1
Indium: [ Kr ] 4d105s25p1
Thallium: [ Xe ] 4f145d106s26p1
Nihonium (berechnet): [ Rn ] 5f146d107s27p1
Der Oxidationszustand ist +3. Nur Thallium und Indium kommen auch mit der Oxidationszahl +1, die bei Thallium sogar häufiger als +3 auftritt, vor.
Chemische Reaktionen
In den folgenden Gleichungen steht das Me für ein Element aus der dritten Hauptgruppe (Borgruppe).
Reaktion mit Sauerstoff:
Thallium bildet auch Tl2O
Reaktion mit Wasserstoff (nicht spontan):
Nur Bor und Aluminium reagieren zu (immer kovalenten) Wasserstoffverbindungen. Bei Bor entstehen durch Dreizentrenbindung die strukturell vielfältigen Borane mit Diboran (B2H6) als einfachstem Vertreter, das hypothetische Monomer BH3 existiert nicht. AlH3-Moleküle sind durch Wasserstoffbrücken verbunden.
Reaktion mit Wasser:
Nur Aluminium setzt aus Wasser Wasserstoff frei. Bei Kontakt mit Luft/Sauerstoff bildet Aluminium aber sehr rasch eine Passivierungsschicht, welche das Metall vor der Reaktion mit Wasser schützt.
Reaktion im Alkalischen:
- -
Im Alkalischen bildet sich kein Al(OH)3, sondern das Aluminat-ion Al(OH)4−.
Reaktion mit Halogenen (am Beispiel Chlor):
Thallium bildet auch TlCl.
Verbindungen
Oxide (III), Hydroxide und Säuren
In Bortrioxid (B2O3) („Wasserfreie Borsäure“) ist der Sauerstoff kovalent gebunden. Die hygroskopische Substanz bildet mit Wasser die sehr schwache Borsäure (H3BO3).
Aluminiumoxid (Al2O3) („Tonerde“) ist eine ebenfalls hygroskopische, in Säuren und Basen lösliche Substanz. Mit Wasser bildet es Aluminiumhydroxid (Al(OH)3), eine amphotere Verbindung.
Gallium(III)-oxid (Ga2O3) bildet mit Wasser Galliumhydroxid (Ga(OH)3).
Indium(III)-oxid (In2O3) bildet mit Wasser Indium(III)-hydroxid (In(OH)3), eine basisch reagierende Verbindung.
Thallium(III)-oxid (Tl2O3) reagiert mit Wasser zur ebenfalls basischen Verbindung Thallium(III)-hydroxid (Tl(OH)3).
Wasserstoffverbindungen
Borane ((BH3)n) sind flüssig oder gasförmig und haben einen unangenehmen Geruch. Sie sind meist giftig, explosionsgefährlich und sehr reaktiv. Zwei Boratome und zwei Wasserstoffatome werden dabei durch nur zwei Elektronenpaare zusammengehalten, wodurch zwei Dreizentrenbindungen der Form B-H-B erkennbar sind.
Aluminiumhydrid ((AlH3)n) („Alan“) ist ein hochpolymeres, gegen Luft und Feuchtigkeit empfindliches Pulver, das oberhalb von 100 °C zerfällt. Über Wasserstoffbrücken sind die AlH3-Moleküle koordinativ verbunden.
sonstige:
Carborane sind kohlenstoffhaltige Borane (meist B10C2H12)
Borcarbid (B13C2) hat eine höhere Ritzhärte als Diamant und wird als Schleifmittel oder als Material für verschleißfeste Objekte verwendet.
BN: Verbindungen von Bor mit Stickstoff im Verhältnis 1:1 ähneln in ihrem Aufbau stark den Modifikationen des Kohlenstoffs, da das beim Bor fehlende Elektronenpaar vom Stickstoff beigesteuert wird.
Bornitrid hat eine graphitähnliche Schichtstruktur.
Borazon (Anorganischer Diamant) ist eine sehr harte Verbindung mit Diamantgitter.
Daneben existiert noch eine fullerenartige Modifikation.
Aluminiumchlorid (AlCl3) ist hygroskopisch und raucht an feuchter Luft. Der Rauch besteht aus den Hydrolyseprodukten Salzsäure (HCl) und Aluminiumhydroxid (Al(OH)3)
Aluminiumsulfat (Al2(SO4)3 · 12 H2O) bildet farblose Kristalle. Die wasserfreie Form ist ein weißes Pulver.
Aluminiumlegierungen verbessern die werktechnischen Eigenschaften von Aluminium. Die bekannteren sind Dural (4 % Cu, 0,3 % Mg, 1 % Mn und 0,5 % Si), Magnalium (3–9 % Mg) und Silumin (max. 14 % Si)
Galliumchlorid (GaCl3) bildet farblose Kristalle.
Gallium(III)-Verbindungen mit Elementen der 5. Hauptgruppe sind Halbleiter.
Galliumnitrid (GaN)
Galliumphosphid (GaP)
Galliumarsenid (GaAs)
Galliumantimonid (GaSb)
Einige Galliumlegierungen sind Supraleiter.
V3Ga (Sprungtemperatur 16,8 K)
Nb3Ga (Sprungtemperatur 14 K)
ZrGa3 (Sprungtemperatur 10 K)
Indium(III)-chlorid (InCl3) bildet hygroskopische Kristallplättchen. In der Gasphase liegt es (wie alle Indiumhalogenide) als dimeres Molekül vor. Die Verbindung bildet oft Doppelsalze mit dem Chloro-Komplex InCl63−.
Legierungen mit den Elementen der 5. Hauptgruppe dienen als Halbleiter. In Transformatoren und Spulen werden sie als Ferromagnete eingesetzt.
Thallium(I)-sulfat (Tl2SO4) bildet farblose, hochgiftige Kristalle.
Im Natriumthallid (NaTl) bilden die Tl−-Ionen ein Diamantgitter, in dessen Zwischenräume Na+-Ionen eingelagert sind (siehe auch Zintl-Phasen).
Thallium(I)-alkoxide entstehen aus Alkoholen und Thallium und bilden würfelförmigen Tetramere.
Thallium(I)-oxid und Thallium(I)-hydroxid
Literatur
Hans Breuer: dtv-Atlas Chemie (Band 1: Allgemeine und anorganische Chemie) (2000), S. 114–129, ISBN 3-423-03217-0.
Weblinks
Eigenschaften (Tabelle)
Beschreibung der Borgruppe mit Abbildungen und Reaktionsmechanismen
Gruppe des Periodensystems
|
Q189294
| 104.108151 |
784968
|
https://de.wikipedia.org/wiki/Razavi-Chorasan
|
Razavi-Chorasan
|
Razavi-Chorasan oder Razawi-Chorasan bzw. Chorāsān-e Razawī () ist eine iranische Provinz im Nordosten des Landes. Die Hauptstadt ist Maschhad.
In der Provinz leben 6.434.501 Menschen (Volkszählung 2016). Die Fläche der Provinz erstreckt sich auf 118.851 Quadratkilometer. Die Bevölkerungsdichte beträgt 54 Einwohner pro Quadratkilometer.
Geographie
Razavi-Chorasan liegt im nordöstlichen Teil Irans. Wichtige Städte in der Provinz sind Ghutschan, Dargaz, Tschenaran, Sarachs, Fariman, Torbat-e Dschām, Taibad, Chaf (Khaf), Raschtchar, Kaschmar, Bardaskan, Nischapur, Sabzevar, Gonabad, Kalat und Chalil Abad.
Größte Städte
Die 10 größten Städte in der Provinz laut der Volkszählung von 2016.
Verwaltungsgliederung
Razavi-Chorasan gliedert sich in 31 Verwaltungsbezirke (Schahrestan):
Bevölkerung
Die Bevölkerung der Provinz besteht zum größten Teil aus Persern. Daneben leben noch um die 400.000 Kurden hier. Sie leben vor allem im Norden der Provinz. Turkmenen bilden ebenfalls einen hohen Prozentanteil der Bevölkerung. Daneben leben in der Provinzhauptstadt einige angesiedelte Araber. Außerdem gibt es große Gemeinden von geflüchteten Afghanen, die zwar noch den Status von Flüchtlingen besitzen, aber sich von Einheimischen wenig bis gar nicht mehr unterscheiden, da sie bis zu 90 % aus den Provinzen Herat, Farah oder Nimrus stammen und von daher selbst Chorasanier sind.
Nach der Gründung Afghanistans im 18. Jahrhundert hatten die persischstämmigen Einwohner des nun afghanischen Teils Chorasans, darunter die afghanischen Provinzen Herat und Farah, weiterhin verwandtschaftliche, ethnisch-religiöse oder wirtschaftliche Beziehungen zur iranischen Provinz Razavi-Chorasan unterhalten. Im Zuge der iranischen Flüchtlingspolitik nach der Besetzung Afghanistans durch die Sowjetunion 1979 werden diese Beziehungen aus iranischer Sicht allerdings nicht in den Fokus des vormaligen Status quo gezogen, denn auf Grund der massenhaften Fluchtbewegung von Afghanistan nach Iran seit jenem Jahr, die nach dem anschließenden Bürgerkrieg ab 1989 auf mehrere Millionen Geflüchtete anstieg, nahm die damit verbundene infrastrukturelle und gesellschaftliche Problematik in diesem Teil Irans beträchtliche und zunächst kaum zu bewältigende Ausmaße an.
Geschichte
Bis zum Jahr 2004 war Razavi-Chorasan Teil der ehemaligen Provinz Chorasan.
Sehenswürdigkeiten
Die Provinz besitzt viele historische und landschaftliche Attraktionen, wie Seen, Höhlen, Naturschutzgebiete, Burgen und antike Orte. Außerdem gibt es viele wichtige religiöse Orte, wie Schreine, Moscheen und weitere Pilgerstätten. Nach offiziellen Angaben umfasst diese Provinz zusammen mit den anderen ehemaligen Teilen von Chorasan 1179 historische und kulturelle Stätten.
Einige wichtige Orte sind:
Tūs, wo sich das Mausoleum des Dichters Ferdousī befindet
die Gouharschad-Moschee
das Grab von Nadir Schah
Imam-Reza-Schrein
Achangan-Turm
Harunije-Dom
Die Zitadelle von Tūs
See Bazangan
Band-e-Golestan (Golestan-Staudamm)
Kardeh-Staudamm
Wakilabad und Mellat Parks
Höhlen von Zari, Hendelabad, Mozduran, Moghan und Kardeh
Burg Robat Scharaf
Gräber von Chadsche Abasalt, Chadsche Morad und Rawi
Mausoleum von Sultan Mahmud Ghaznawi
Mausoleum von Yahya und Chadsche Rabi
Sabz (Grüner) Dom
Wirtschaft
In Sangan im Süden von Razavi-Chorasan befindet sich das Zentrum des Eisenerzabbaus im Iran.
Weblinks
Text über die Aufteilung der Provinz Chorasan auf persisch
Einzelnachweise
Iranische Provinz
|
Q587090
| 320.193296 |
20385
|
https://de.wikipedia.org/wiki/Polizei
|
Polizei
|
Die Polizei (von griechisch πολιτεία (politeía) ‚Staatsverwaltung‘, wie griechisch πολιτική („Politik“), die staatlichen Angelegenheiten betreffendes‘, altdeutsch Polizey) ist ein Exekutivorgan eines Staates. Die Polizeibehörden, die Polizeibeamten, die Polizeigewalt und im übertragenen Sinn auch ein Polizeigebäude werden als „Polizei“ bezeichnet.
Umfang der Polizeiarbeit
Ihre Befugnisse sind unter anderem im Polizeirecht (Recht der Polizei) geregelt. Sie hat in den meisten Staaten die Aufgaben, die öffentliche Sicherheit und Ordnung zu gewährleisten oder wiederherzustellen, den Straßenverkehr zu regeln bzw. zu überwachen und als Strafverfolgungsbehörde strafbare und ordnungswidrige Handlungen zu erforschen. In der erstgenannten Funktion kommt ihr dabei oft die Rolle einer Notfallhilfe mit eigenem Notruf zu. Eine weitere Aufgabe in allen Staaten der Welt ist die Gefahrenabwehr im Bereich der inneren Sicherheit, das heißt die Verhütung oder Unterbindung von Taten, die entweder straf- oder bußgeldbewehrt sind oder einem gesetzlichen Verbot unterliegen.
Im Gegensatz zu fast allen anderen Personen oder Organen – mit, je nach Staat, wenigen Ausnahmen wie den Zollbehörden oder der Armee – ist der Polizei als Exekutivorgan des staatlichen Gewaltmonopols beim Einschreiten die Anwendung von Gewalt durch unmittelbaren Zwang, unter Beachtung der Verhältnismäßigkeit und innerhalb gesetzlicher Grenzen erlaubt. In fast allen Ländern wird die Polizei mittels ihrer Vollzugsbeamten tätig. Charakteristisch für diese ist die von ihnen getragene Polizeiuniform.
Die Polizei gehört zu den erstalarmierten Institutionen in der Kette der Einsatzorganisationen für Notfälle. In Ländern der Europäischen Union, der Schweiz und einigen anderen Ländern ist die Polizei, neben Feuerwehr und Rettungsdienst, über den Euronotruf 112 telefonisch erreichbar.
Abgrenzungen zu anderen Diensten
Die polizeilichen Strukturen weisen von Staat zu Staat starke Unterschiede auf. Die Abgrenzung zwischen Militär und Polizei als bewaffneten staatlichen Exekutivorganen ergibt sich aus der Ressortzuständigkeit: Die Polizei untersteht dem Innenministerium des Bundeslandes oder des Nationalstaats (in den USA der Kommune oder einer bemächtigten Behörde, wie einer Universität) und vertritt üblicherweise den Staat nach innen, während das Militär dem Verteidigungsministerium untersteht und den Staat nach außen und an dessen Grenzen militärisch sichert. Dies schließt nicht aus, dass die polizeiliche Organisation eines Staates militärähnlich oder militärisch organisiert sein kann.
Beispielhaft stehen dafür die italienischen Carabinieri oder bis 2005 der deutsche Bundesgrenzschutz, heute Bundespolizei. Teilweise gehören diese Polizeieinheiten zum Geschäftsbereich des Verteidigungsministeriums, sind Teil der regulären Armee oder militärisch ausgebildet, auch wenn sie in Friedenszeiten ausschließlich Polizeiaufgaben im Auftrag des Innen- und Justizministeriums wahrnehmen. Sie können im Kriegsfall als Kombattanten eingesetzt werden, wenn sie die völkerrechtlichen Anforderungen des Kombattantenstatus erfüllen. Ein aktuelles Beispiel hierfür ist der Einsatz der Carabinieri nach dem Irakkrieg im Irak.
Ein Haupttätigkeitsfeld liegt in der Ermittlung, Verfolgung und Ahndung von Ordnungswidrigkeiten.
Abzugrenzen ist die Institution Polizei ferner von privaten Sicherheitsdiensten (Wachschutz/Sicherheitsdienst/Security), die vom Staat meistens nicht mit besonderen Rechten ausgestattet sind, daher keine ausführenden Organe des staatlichen Gewaltmonopols sind und deshalb häufig nur als ausführende Organe für privates Hausrecht fungieren. Sie nehmen stellvertretend für die Eigentümer deren Rechte wahr und besitzen zudem die Rechte, die jedem Bürger zustehen (Notwehr, Nothilfe, Notstand, Recht zur vorläufigen Festnahme und Sachwehr). Für weitergehende Schritte müssen sie die Dienste der Polizei in Anspruch nehmen.
Die meisten Staaten sind Mitglied der Internationalen Kriminalpolizeilichen Organisation (IKPO-Interpol), gegründet zur Verbesserung der internationalen Kooperation und Koordination vor allem (aber nicht nur) im Bereich der grenzüberschreitenden Kriminalität.
Die Organisation der Polizei ist sehr verschieden.
Geschichte
Etymologisch stammt der Begriff Polizei von , „Stadt“, ab. Die Ableitung , „Staatsverwaltung“, wurde im Spätlatein erst als übernommen, später änderte sich die Schreibweise zu . Dieser Begriff bezeichnete außerhalb Griechenlands zunächst als Modewort der Römer die gesamte öffentliche Verwaltung (heute noch etwa in den Begriffen „baupolizeilich“ und „feuerpolizeilich“ erkennbar). Seit dem Mittelalter wurde gute Policey als Ausdruck für eine gute Verwaltung verwendet. Damit wurde eine auf möglichst alle Lebensbereiche sich erstreckende, sowohl fürsorgliche (Wohlfahrtsstaat) als auch repressive Tätigkeit eines allzuständigen Staates verstanden. Hierzu zählt etwa die sogenannte Gesundheitspolizei oder Sanitätspolizei.
Erst als sich der Staat tatsächlich in viele Lebensbereiche ausweitete, kam als Gegenbewegung der Liberalismus auf. Die uneingeschränkte Zuständigkeit des Staates für das Wohl des Einzelnen wurde nun bestritten und in der Kritik dessen repressives Element in den Vordergrund gerückt. Der Staat habe nur noch vor Eingriffen in Freiheit und Eigentum zu schützen, dem Bürgertum im Übrigen aber die Verantwortung für die Entfaltung der eigenen Persönlichkeit selbst zu überlassen (Nachtwächterstaat). Seitdem wird unter dem Begriff des „Polizeistaates“ ein übermäßig repressiver Staat verstanden.
Die ursprünglich abwertende, heute aber allgemein umgangssprachliche Bezeichnung „Bulle“ hat ihren Ursprung in der Rotwelsch-(Gauner)-Sprache: dort wird ein Polizist als „Puhler“ bezeichnet.
Einzelne Staaten
Australien
Die australische Polizei ist zweistufig gegliedert: Die Polizeien der Bundesstaaten und die seit 1979 bestehende Australian Federal Police (AFP).
Belgien
Die belgische Polizei besteht aus der Föderalen Polizei (Federale Politie, Police Fédérale) und der Lokalen Polizei (Lokale Politie, Police Locale).
China
Nach dem Polizeigesetz von 1995 besteht die chinesische Polizei im engeren Sinne aus fünf Polizeiorganen: der öffentlichen Sicherheits- und der Staatssicherheitspolizei, der Gefängnispolizei, der Gerichtspolizei und der Polizei der Volksstaatsanwaltschaften. Größter Polizeikörper ist die öffentliche Sicherheitspolizei mit 1,9 Millionen Beschäftigten.
Deutschland
In manchen Gegenden Deutschlands wird der Polizeibegriff in einem umfassenderen Sinn verwendet (z. B. PolG Baden-Württemberg) und beinhaltet alle im Bereich der Gefahrenabwehr tätigen Staatsorgane (beispielsweise Feuerpolizei oder Baupolizei). Die uniformierte Polizei und die Kriminalpolizei bilden den Polizeivollzugsdienst, die übrigen Behörden werden als Polizeibehörden bezeichnet. Dieses Einheitssystem ist vom Trennungssystem zu unterscheiden. Im Trennungssystem übernehmen Verwaltungsbehörden die Aufgabe der Gefahrenabwehr. Die Polizei im institutionellen Sinne handelt nur noch subsidiär, wenn die Verwaltungsbehörde nicht oder nicht rechtzeitig eingreifen kann. Die Verwaltungsbehörden sind meist bei den Städten und Gemeinden angesiedelt und werden Ordnungsbehörden, Polizeibehörden oder Sicherheitsbehörden genannt. Die Ausgestaltung wird in den Kommunen sehr unterschiedlich gehandhabt, sie reicht von reiner Schreibtischarbeit bis hin zu stadtpolizeiähnlich ausgerüsteten Vollzugsdiensten wie in Darmstadt (Kommunalpolizei Darmstadt), Düsseldorf oder Frankfurt am Main (Stadtpolizei Frankfurt am Main).
Da das Polizei- und Ordnungsrecht Ländersache ist, variiert die Ausgestaltung in den einzelnen Ländern. So besteht in Nordrhein-Westfalen eine strikte Trennung, in Baden-Württemberg besteht der Unterschied nur darin, dass der Polizeivollzugsdienst für sofortige Maßnahmen und Ausführungsorgan der Polizeibehörde, die Polizeibehörden für längerfristige und Verwaltungsmaßnahmen zuständig sind. Der frühere deutsche Bundesgrenzschutz (heutige Bundespolizei) besaß bis 1994 Kombattantenstatus, nicht hingegen die Polizeibehörden der deutschen Länder, wenngleich dies Gegenstand politischer Auseinandersetzungen war. Polizeibeamte werden auch im Rahmen von Missionen der EU, UN und OSZE im Ausland eingesetzt (etwa im Kosovo).
Die Bundespolizei (BPOL), bis 30. Juni 2005 unter dem Namen Bundesgrenzschutz, ist eine Polizei des Bundes. Sie gehört zum Geschäftsbereich des Bundesministeriums des Inneren. Ihre Aufgaben und Befugnisse richten sich nach dem Bundespolizeigesetz (BPolG). Weitere Polizeibehörden des Bundes sind das Bundeskriminalamt (BKA) und die Polizei beim Deutschen Bundestag.
Die Feldjägertruppe der Bundeswehr nimmt militärpolizeiliche Aufgaben wahr; sie ist jedoch klar von den Polizeien der Länder und der des Bundes abzugrenzen. Feldjäger besitzen im Frieden keine Weisungsbefugnis gegenüber Nicht-Bundeswehrangehörigen, es sei denn, es ist zur primären Aufgabenerfüllung zwingend notwendig (z. B. Einrichten eines militärischen Sicherheitsbereichs, etwa nach dem Absturz eines Bundeswehrhubschraubers) oder die Personen halten sich in einem militärischen (Sicherheits-)Bereich auf. Seit der Teilnahme der Bundeswehr an internationalen Auslandseinsätzen nehmen die Feldjäger/Militärpolizei durchaus Polizeiaufgaben wahr. Das Erscheinungsbild hat sich dahingehend geändert, dass sie alternativ zu der Armbinde mit der Aufschrift Feldjäger, eine schwarze Armbinde mit einem weißen „MP“ (Military Police) tragen. Des Weiteren wird in Anbetracht von Terrorbedrohung seit langem diskutiert, die Bundeswehr bei schweren Gefahrensituationen möglicherweise auch im Inland einzusetzen.
Die Ordnungsbehörden (in Bayern: Sicherheitsbehörden) können hingegen, je nach zugrunde liegendem Polizeibegriff, zur Polizei gezählt werden. Sie haben nämlich wie die Polizei die Aufgabe, Gefahren für die öffentliche Sicherheit oder Ordnung abzuwehren. Damit erfüllen sie den materiellen Polizeibegriff und übernehmen die Funktion einer Verwaltungspolizei. Sie sind mit ähnlich weitreichenden Befugnissen wie die Polizei ausgestattet.
Die bundesweite Vorbeugung gegen Straftaten wird von der Polizeilichen Kriminalprävention der Länder und des Bundes mit Sitz der Zentralen Geschäftsstelle in Stuttgart gesteuert.
Der Polizeivollzugsdienst ist in Deutschland auch Wehrersatzdienst. Bis in die 1970er Jahre gab es beim Bundesgrenzschutz anstelle der Wehrpflicht die Grenzschutzdienstpflicht. Die Wehrpflicht war nach Ableistung der Grenzschutzdienstpflicht erfüllt und umgekehrt.
Im Rahmen der Eilzuständigkeit vertritt die deutsche Polizei auch Interessen anderer Ämter.
Estland
In Estland sind die Aufgaben der Polizei mit denen des Grenzschutzes im Polizei- und Grenzschutzamt vereinigt.
Frankreich
In Frankreich sind die Polizeiaufgaben auf drei Behörden aufgeteilt: Es existieren die beiden zivilen Polizeibehörden Nationalpolizei (Police nationale) auf nationaler Ebene, die dem Innenministerium untersteht, und die Gemeindepolizei (Police municipale), die dem Bürgermeister untersteht. Ferner gibt es in ländlichen Gemeinden oft eine Garde champêtre (Feldhüter), welche für den Feldschutz und den Umweltschutz zuständig ist. Daneben gibt es die militärisch organisierte Gendarmerie nationale, die bis 2009 dem Verteidigungsministerium unterstellt war und seit dem 1. Januar 2009 ebenfalls dem Innenministerium unterstellt ist. Die Polizei der Gemeinden hat nur eingeschränkte Rechte und darf in der Regel nur Ortsrecht und die Einhaltung von Verkehrsvorschriften überwachen.
Israel
In Israel untersteht die Polizei nicht dem Innenministerium, sondern dem Ministerium für innere Sicherheit.
Italien
Italien hat kein föderal gegliedertes Polizeisystem, sondern unterhält mehrere nationale Polizeikörper mit sich teilweise überschneidenden Zuständigkeiten, auch um Machtkonzentrationen in einer Hand oder in einem Ministerium zu verhindern. Dem Innenministerium untersteht die zivile Staatspolizei (Polizia di Stato), die hauptsächlich in größeren Städten operiert. Die Carabinieri unterstehen als vierte Teilstreitkraft dem Verteidigungsministerium und versehen nach Weisung des Innenministeriums Polizeidienst. Sie haben vor allem auf dem Lande ein dichtes Netz von Wachstationen. Eine dritte nationale Polizeitruppe ist die Guardia di Finanza, eine militärisch organisierte Finanz- und Zollpolizei, die dem Ministerium für Wirtschaft und Finanzen untersteht und für die Bekämpfung der Wirtschaftskriminalität zuständig ist. Sie ist vor allem auch im Bereich Steuer- und Zollfahndung tätig.
Auf lokaler Ebene gibt es die oftmals Gemeindepolizeien (Polizia Municipale), die sich hauptsächlich um die Regelung des örtlichen Straßenverkehrs kümmern.
Kanada
Die Royal Canadian Mounted Police (Abkürzung RCMP, deutsch etwa „königliche kanadische berittene Polizei“, umgangssprachliche Kurzbezeichnung Mounties, französisch Gendarmerie royale du Canada, GRC) ist die nationale Polizei Kanadas, die im Auftrag der Provinzen (außer Ontario und Québec) und Territorien sowie vieler Gemeinden auch lokale Aufgaben wahrnimmt. Die beiden größten Provinzen verfügen hierfür mit der Ontario Provincial Police (OPP) bzw. der Sûreté du Québec über eigene Provinzpolizeien, dort beschränkt sich der Auftrag der RCMP auf den Schutz von Bundeseinrichtungen.
Daneben gibt es Polizeibehörden auf Provinzebene (z. B. British Columbia Sheriff Service (Englisch), Royal Newfoundland Constabulary) und auf regionaler oder örtlicher Ebene (z. B. Toronto Police Service, York Regional Police). Ferner gibt es auf Bundesebene Polizeibehörden mit speziellen Aufgaben (z. B. Parks Canada Warden). Ähnlich den Vereinigten Staaten existieren für die Gebiete von Indianerstämmen und anderen Ureinwohnern eigene Polizeibehörden. Die beiden großen privaten Eisenbahngesellschaften (CP und CN) verfügen über je eine eigene Polizei zur Sicherung ihrer Einrichtungen. Einige Nahverkehrbetreiber sowie manche Universitäten haben eigene Hilfspolizeien (sogenannte Special Constables) eingerichtet.
Kosovo
Die Polizei des Kosovo ist ein seit 1999 existierender Wachkörper im Kosovo mit ungefähr 9000 Angestellten. Etwa 85 Prozent der kosovarischen Polizisten sind Albaner, 15 Prozent sind Serben oder gehören einer anderen ethnischen Minderheit an.
Liechtenstein
Die Landespolizei ist die einzige Polizei in Liechtenstein. Sie ist auch für den Betrieb des einzigen Gefängnisses verantwortlich.
Litauen
Das Polizeidepartement am Innenministerium Litauens ist ein leitendes Bindeglied zwischen allen litauischen Polizeistrukturen mit insgesamt 16 unterstellten Unterbehörden.
Niederlande
In den Niederlanden ist die Polizei seit Anfang des Jahres 2013 zentral organisiert (Nationale Politie). Vorher war sie in 25 Polizeiregionen (politieregios) eingeteilt, die je über ein Regionalkorps (regiokorps) verfügten. Die Leitung der regionalen Polizei oblag einem Korpschef, der von einem Regionalvorstand unterstützt wurde, dem auch Vertreter der örtlichen Stadtverwaltungen und der Justiz angehörten. Daneben gab es ein Landespolizeikorps (Korps Landelijke Politiediensten – KLPD), das für Verkehrsbelange auf überörtlichen Straßen, die Bekämpfung der Organisierten Kriminalität und andere übergreifende Aufgaben zuständig war.
Die niederländische Gendarmerie, Koninklijke Marechaussee genannt, gehört organisatorisch als eigene Teilstreitkraft in den Zuständigkeitsbereich des Verteidigungsministeriums, untersteht aber bei der Ausübung ihrer polizeilichen Aufgaben auch anderen Ministerien.
Österreich
In Österreich gliedert sich die Exekutive seit dem 1. Juli 2005 in den Wachkörper Bundespolizei, die Justizwache, örtliche Sicherheitswachen sowie die Militärstreife. Der Begriff Bundespolizei selbst bezeichnet den Wachkörper Bundespolizei. Er ist dem Bundesminister für Inneres und den anderen Sicherheitsbehörden unterstellt, die Justizwache dem Bundesminister für Justiz.
Für das Gebiet einer Gemeinde, in der die Landespolizeidirektion nicht zugleich Sicherheitsbehörde I. Instanz ist, darf von einer Gemeinde oder einer anderen Gebietskörperschaft ein Wachkörper errichtet werden.
Seit dem 1. Juli 2005 werden die Aufgaben von Bundessicherheitswachekorps und dem Kriminalbeamtenkorps sowie der Bundesgendarmerie vom Wachkörper Bundespolizei wahrgenommen. Der neue einheitliche Name lautet Bundespolizei, auf den Uniformen und Fahrzeugen steht jedoch lediglich Polizei. Daneben gibt es auch noch das Bundeskriminalamt (.BK).
Osttimor
Die Nationalpolizei Osttimors wurde mit Hilfe der Vereinten Nationen ab 1999 aufgebaut. Während der Unruhen in Osttimor 2006 wurde sie als Partei in den Konflikt hineingezogen. Die UN-Polizei übernahm wieder die Aufgabe im Land für Ruhe und Ordnung zu sorgen. Nach und nach wurden die einzelnen Distrikte wieder an die Nationalpolizei übergeben. Seit 2011 trägt sie wieder die volle Verantwortung. Die letzten internationalen Sicherheitskräfte verließen 2013 Osttimor.
Palau
Die Palau Police mit dem Palau Bureau of Public Division of Marine Law Enforcement (DMLE) ist verantwortlich für See-Überwachung, Fischereischutz und Such- und Rettungsmissionen in Palaus Küstenmeer und seiner Ausschließlichen Wirtschaftszone (EEZ, 200 nm um die Inseln).
Polen
Die Polizei in Polen ist dem polnischen Innenministerium unterstellt, zentral organisiert und hat regionale Kommandanturen in allen Woiwodschaften. Neben der nationalen Polizei werden einige polizeiliche Aufgaben auch von der Stadtpolizei (Straż Miejska, deutsch Stadtwache) wahrgenommen, die kommunal organisiert ist.
Russland
Am 1. Mai 2011 trat in Russland ein Gesetz in Kraft, welches eine umfassende Reform der Miliz abschloss und nach welcher die Miliz in Polizei umbenannt wurde ().
Die Miliz (jetzt Polizei) bestand bzw. besteht aus zwei Gruppen, der Miliz für öffentliche Sicherheit und der Kriminalmiliz. Beide Gruppen unterscheiden sich in ihrer Funktion, der Leitung und der Finanzierung. Während Personalausstattung und Finanzierung der ersten Gruppe von den örtlichen Behörden getragen werden, ist für die Kriminalpolizei die russische Regierung zuständig.
Miliz () war in Russland und ist in einigen anderen Nachfolgestaaten der ehemaligen Sowjetunion die Bezeichnung für die Polizei.
Schweden
Das schwedische Polizeisystem ist zentralistisch aufgebaut und dem Justizministerium unterstellt. Die Polizei (schwedisch polisen) besteht organisatorisch aus zwei Bereichen:
Rikspolisstyrelsen (RPS) oder kurz Rikspolisen (Reichspolizei) ist die zentrale Verwaltungs- und Aufsichtsbehörde. Sie kann in etwa mit dem deutschen Bundeskriminalamt gleichgesetzt werden. Die Behörde mit Sitz in Stockholm wurde 1964 gegründet und wird von einem Reichspolizeichef (Rikspolischef) geleitet, der direkt von der Regierung benannt wird.
Polismyndighet (Polizeibehörde), die eigentliche Polizei, ist auf die 21 Provinzen aufgeteilt. Jede Provinz entspricht einem Polizeidistrikt. Dieser wird von einem Länspolismästare geleitet. Die größte Polizeibehörde findet sich in Stockholms län mit 6.700 Angestellten, von ihnen 5.000 Polizisten. Die kleinste Behörde ist die des Gotlands län mit 140 Angestellten, von denen 99 Polizisten sind.
Außerdem existiert mit der Säkerhetspolis (Sicherheitspolizei) ein Nachrichtendienst, der direkt dem Rikspolisstyrelse unterstellt ist.
Schweiz
In der Schweiz gliedert sich die Polizei in das Bundesamt für Polizei, die Kantonspolizeien und die Stadt-/Gemeindepolizeien. Eine Abteilung der Kantonspolizei ist die Seepolizei. Das Grenzwachtkorps, das der Oberzolldirektion und somit dem Finanzdepartement untersteht, ist inzwischen mit teilweise parallelen polizeilichen Kompetenzen ausgestattet worden.
Die Bundespolizei verfügt über keine eigenen uniformierten Organe. Einzig Kantone und Gemeinden besitzen eine eigene Polizeitruppe. Im Weiteren gibt es das Polizeikorps der SBB, die Bahnpolizei, das aber eine privatrechtliche (Aktiengesellschaft) Organisation ist.
Slowakei
In der Slowakei nimmt das zentralistisch und dem Innenministerium unterstehende Polizeikorps der Slowakischen Republik (Policajný zbor Slovenskej republiky) Polizeiaufgaben wahr. Daneben bestehen auch Stadt- und Gemeindepolizeien und die Militärpolizei.
Spanien
Das Polizeisystem Spaniens ist aufgrund der politischen Gliederung Spaniens komplex. Sie umfasst im Wesentlichen vier Arten von Polizeikörpern:
die gleichermaßen dem Verteidigungs- und Innenministerium unterstehende und militärisch organisierte Guardia Civil,
die gesamtstaatliche Nationalpolizei (Cuerpo Nacional de Policía – CNP) des Innenministeriums,
die Polizeien der Autonomen Gemeinschaften (Policía Autonómica), die bislang im Baskenland, in Katalonien und in Navarra aufgestellt wurden,
sowie die Gemeinde- und Stadtpolizeien (Guardia Urbana, Policía Local oder Policía Municipal genannt).
Tschechien
Die staatliche Polizei der Tschechischen Republik untersteht dem Innenminister. Ihm ist das Polizeipräsidium der Tschechischen Republik untergeordnet. Die Polizei unterteilt sich in Abteilungen mit Wirkungskraft auf dem gesamten Staatsgebiet und Abteilungen mit regional begrenztem Wirkungsbereich. Im Einzelnen bestehen Dienststellen der Ordnungspolizei, der Kriminalpolizei, der Verkehrspolizei, Dienststellen für die Verwaltung, den Schutzdienst, für die Aufdeckung von Korruptionen und schweren wirtschaftlichen Straftaten, für die Fremden- und Grenzpolizei, Einheiten für den schnellen Einsatz und der Flugdienst.
Als polizeiliche Aufgaben gelten die Sicherstellung der öffentlichen Ordnung, Bekämpfung des Terrorismus, Aufdeckung von Straftaten, Sicherstellung der Täter, Ermittlungen von Straftaten, Schutz der Staatsgrenzen, Schutz der Verfassungsfaktoren der Tschechischen Republik, Schutz der vertretenden Ämter, Schutz der Objekte des Parlamentsitzes, des Präsidenten der Republik, des Verfassungsgerichtes, des Außenministeriums, des Innenministeriums und weiterer besonders bedeutenden Objekte, Aufsicht über die Sicherheit und Kontinuität des Straßenverkehrs mit Aufdeckung der Verstöße, Verkündung der Ermittlungen auf dem ganzen Gebiet der Tschechischen Republik und Erfüllung der Aufgaben der Staatsverwaltung.
Daneben bestehen kommunale Polizeibehörden, deren Tätigkeit eher mit derjenigen von Ordnungsdienststellen in Deutschland vergleichbar ist.
Vereinigtes Königreich
Im Vereinigten Königreich Großbritannien und Nordirland ist die Polizei nicht einheitlich organisiert. Sie ist historisch wie in Frankreich zum Teil zivil und zum Teil militärisch gewachsen. Die Mehrheit der Polizeien sind Territorial police forces, die für einzelne Regionen des Vereinigten Königreichs zuständig sind und oft aus historischen Vorgängerorganisationen entstanden sind. Rechtliche Grundlagen sind der Police Act 1964 (in England and Wales), der Police (Scotland) Act 1967 und der Police (Northern Ireland) Act 2000. Daneben gibt es nationale Polizeien mit besonderen Aufgaben wie die British Transport Police und auch private constabularies, die aufgrund historischer Rechte oder auf Grund des Common Law Polizei- oder Sicherheitsdienstaufgaben ausüben.
Uniformen und Farben der Einsatzfahrzeuge unterscheiden sich allerdings nur im Verwendungszweck (Verkehrspolizei, Personenschutz für das Diplomatische Corps ausländischer Nationen in Großbritannien, Schutzpolizei etc.), nicht aber in ihrer administrativen Zugehörigkeit voneinander.
Die international wohl bekannteste Polizei Großbritanniens ist die MET, die Metropolitan Police Service in London, die ihr Hauptquartier seit ihrem Umzug im Jahre 1967 im New Scotland Yard hat und knapp 32.000 Polizisten in zivilen Diensten (wie den Kriminalpolizeien) und uniformierten Diensten (wie der Schutzpolizei) beschäftigt. Es gibt auch kleinere Polizeien in Großbritannien mit nur rund einem Dutzend Mitarbeiter, die aber formal jeder anderen Polizei innerhalb des Königreiches gleichgestellt sind.
Vereinigte Staaten
In den Vereinigten Staaten ist die Polizeigewalt auf vielen verschiedenen Ebenen des föderalen Systems verteilt. Auf Bundesebene ist das FBI für die Aufklärung von Straftaten, die gegen Bundesgesetze begangen wurden, zuständig. Diese betreffen hauptsächlich Gebiete von zwischenstaatlichem Handel sowie organisiertes Verbrechen, aber auch die solcher Straftaten wie Entführungen.
Auf Staatsebene gibt es die Staatspolizei (State Police). Auf der Ebene der Countys bzw. Districts sind die Sheriffs für alles zuständig, was sich außerhalb von Städten und inkorporierten Gemeinden ereignet. Allerdings gibt es auch Städte und Gemeinden mit Sheriffs, die sich in Districts und Countys befinden, für die wieder ein eigener Sheriff oder Polizeien zuständig sind. Dasselbe gibt es auch umgekehrt. Der Sheriff wird direkt von der Bevölkerung gewählt, die Wahlperiode ist regional unterschiedlich (12 Monate bis 4 Jahre). Zur Wahl stellen kann sich jeder US-Bürger. Der Sheriff ist berechtigt, einen Teil seiner Aufgaben an Hilfskräfte (Deputies) zu delegieren.
Zusätzlich zu dem Umstand, dass jede Gemeinde, jede Stadt (manchmal sogar jeder Stadtteil), jeder Landkreis und jeder Staat in den USA eine eigene Polizei hat, hat auch fast jedes Ministerium und fast jede Behörde eine eigene Abteilung mit den Befugnissen und Möglichkeiten einer Polizei, von den (durchaus bewaffneten) Brandermittlungsteams der Berufsfeuerwehr in Chicago, über die ebenfalls bewaffneten Ermittler der Post, die Ermittlungsbehörden von Zoll, Finanzbehörden, Marine, Heer, Luftwaffe, Marineinfanterie, Hafenbehörden, Verkehrsministerium, Handelsministerium und so weiter. Insgesamt koexistieren in den USA etwa 16.000 Polizeien.
Entgegen dem von Hollywood vermittelten Klischee funktioniert die Zusammenarbeit zwischen diesen Polizeien jedoch im Allgemeinen sehr gut und wurde mit der Gründung des Ministeriums für Innere Sicherheit in der Folge der Terroranschläge am 11. September 2001 nur noch verbessert.
Der Begriff „Polizei“ (Police) wird allerdings am ehesten für die von den Kommunen angestellten Polizeikräfte verwendet. Gelegentlich haben Universitäten oder andere Behörden vom Parlament eines Bundesstaats oder vom Kongress die Vollmacht bekommen, eigene Polizeidienste zu unterhalten. Sowohl die örtliche Polizei der Städte als auch die Sheriffs und die besondere Polizei einer bestimmten Einrichtung haben nur eine strikt gebundene örtliche Jurisdiktion (zum Beispiel darf eine Universitätspolizei nur auf dem Campus der entsprechenden Universität einschreiten, die städtische Polizei nur innerhalb der Stadtgrenzen und so weiter). Durch besondere Vereinbarung können diese Bindungen gelockert werden (wenn zum Beispiel eine Stadt und eine Universität der jeweils anderen Vertragspartnerin das Recht einräumt, in begründeten Fällen auf dem jeweils anderen Gebiet tätig zu werden).
Bundesebene
Polizeigewalt haben die jeweils eigenen Militärpolizeien der Streitkräfte der Vereinigten Staaten. Es gibt jedoch auch Militärbehörden, deren Mitarbeiter den Status als Bundesagenten (federal agents) haben, dies sind Polizeibeamte der US Army (Criminal Investigation Division) und der US Navy bzw. des US Marine Corps (Naval Criminal Investigative Service) sowie für die US Air Force das AFOSI. Des Weiteren existieren Kriminalpolizeien des Bundesschatzamtes, der Post (US Postal Police), des Zolls, der Einwanderungsbehörde, des Handelsministeriums, des Verkehrsministeriums und die Steuerfahndung des Finanzministeriums. Außerdem gibt es zur Drogenbekämpfung neben dem Zoll noch die Drug Enforcement Administration. Für Schmuggel, illegalen Besitz und illegale Herstellung von alkoholischen Getränken, Tabakwaren, Schusswaffen und Explosivmitteln mit bundesweiter Relevanz ist das Bureau of Alcohol, Tobacco, Firearms and Explosives zuständig. Die Grenzüberwachung wird von der umbenannten Einwanderungsbehörde (ICE=Immigrations and Customs Enforcement) und von der United States Border Patrol getätigt (früher INS).
Die wichtigste Kriminalpolizei auf Bundesebene ist das FBI. Für bestimmte Straftaten, die sich gegen Mitglieder der Regierung richten sowie für Geld- und Kreditkartenfälschungen ist der Secret Service zuständig.
Außerdem hat die Küstenwache Polizeibefugnis in ihrem Gebiet. Für die Bewachung von Bundesgerichten und für spezielle Sonderaufgaben sind die US Marshals zuständig.
US-Bundesstaaten
Die einzige landesweite Standardisierung bei der Schutzpolizei ist der Polizeinotruf, der 911 lautet und von fast jeder Telefonzelle und von fast jedem Mobiltelefon aus gebührenfrei angerufen werden kann. Die Einrichtung wurde durch den Mordfall Kitty Genovese im Jahr 1964 beschleunigt. Die Tat beobachteten etliche Menschen ohne einzugreifen (Zuschauereffekt). Der Fall bildete den Anlass zur landesweiten Einführung eines funktionierenden Notrufs.
In den einzelnen Bundesstaaten gibt es eigene Polizeiermittlungsbehörden mit der Bezeichnung SBI (State bureau of investigation), die ähnlich wie die Bundesermittlungsbehörde FBI arbeiten (Vergleich: LKA zu BKA). Auf Staatsebene gibt es die Staatspolizei (State Police), die häufig für die Überwachung der Autobahnen sowie den Schutz staatlicher Einrichtung zuständig ist.
Lokale Polizeibehörden und Sheriffs
Fast jede Gemeinde, jede Stadt (manchmal sogar jeder Stadtteil), jeder Landkreis und jeder Staat in den USA eine eigene Polizei. Auf der Ebene der Countys bzw. Districts sind die Sheriffs für alles zuständig, was sich außerhalb von Städten und inkorporierten Gemeinden ereignet. Allerdings gibt es auch Städte und Gemeinden mit Sheriffs, die sich in Districts und Countys befinden, für die wieder ein eigener Sheriff oder Polizeien zuständig sind.
Audio
Täter in Uniform. Polizeigewalt in Deutschland, von Marie von Kuck, Deutschlandfunk, Das Feature, 24. Juli 2018, 43,53 Minuten, Audio (1/2 Jahr online)
Siehe auch
Literatur
Polizei. (PDF-Datei; 2,2 MB) In: Aus Politik und Zeitgeschichte, 48/2008.
Rafael Behr: Cop Culture. Der Alltag des Gewaltmonopols. Männlichkeit, Handlungsmuster und Kultur in der Polizei. VS Verlag für Sozialwissenschaften, Wiesbaden 2008, ISBN 978-3-531-15917-1.
George Thomas Kurian (Hrsg.): World Encyclopedia of Police Forces and Correctional Systems. 2. Auflage. Gale, Detroit 2006, ISBN 978-0-7876-7736-7.
Dilip Kumar Das, Michael J. Palmiotto (Hrsg.): World Police Encyclopedia Routledge, New York 2006, ISBN 978-0-415-94250-8.
Daniel Loick (Hrsg.): Kritik der Polizei, Campus, Frankfurt am Main/New York 2018, ISBN 3-593-50944-X.
Sabine Mecking (Hrsg.): „Polizei und Protest in der Bundesrepublik Deutschland.“ Springer: Wiesbaden 2020, ISBN 978-3-658-29477-9.
Graeme R. Newman (Hrsg.): Crime and Punishment around the World. ABC-CLIO, Santa Barbara 2010, ISBN 978-0-313-35133-4.
George L. Mosse: Police Forces in History. Sage Publications, London, Beverly Hills 1975, ISBN 0-8039-9928-3.
Weblinks
Aus Politik und Zeitgeschichte – Themenheft Polizei (PDF-Datei; 2,2 MB)
Einzelnachweise
Organisation (Sicherheit)
|
Q35535
| 632.244819 |
12996
|
https://de.wikipedia.org/wiki/Idee
|
Idee
|
Der Ausdruck Idee (von „Gestalt, Erscheinung, Aussehen, Urbild“) hat allgemeinsprachlich und im philosophischen Sprachgebrauch unterschiedliche Bedeutungen. Allgemeinsprachlich versteht man darunter einen Gedanken, nach dem man handeln kann, oder ein Leitbild, an dem man sich orientiert. Die philosophische Bedeutung wurde zunächst in der Antike von Platon und dem Platonismus geprägt. In der platonischen Ideenlehre sind Ideen unwandelbare, nur geistig erfassbare Urbilder, die den sinnlich wahrnehmbaren Phänomenen zugrunde liegen. Dieses Ideenverständnis wirkte bis in die Neuzeit stark nach, doch erhielt der Begriff „Idee“ in unterschiedlichen philosophischen Richtungen verschiedene Inhalte.
Begriffsgeschichte
Antike und Mittelalter
Das altgriechische Substantiv idea bezeichnet ursprünglich das Erscheinungsbild von etwas, was gesehen wird und dabei einen bestimmten Eindruck macht. Es ist als Verbalabstraktum von idein „erblicken“, „erkennen“ (Aorist zu horan „sehen“) abgeleitet. Während im literarischen Schrifttum die Verwendung dieses Worts erst relativ spät – bei Pindar und im Corpus Theognideum – einsetzt, kommt das ältere Substantiv eidos zur Bezeichnung visueller Eindrücke schon in der Ilias häufig vor. Die beiden Wörter werden gewöhnlich synonym gebraucht. Allgemeinsprachlich bezeichnen beide das Aussehen, die Form oder Gestalt, eine äußere Erscheinung, die beispielsweise als schön oder hässlich beschrieben wird. Es ist eine Erscheinung, die auch als bloßer Schein täuschen kann; das Aussehen weckt Erwartungen, die manchmal enttäuscht werden. Nicht nur einzelne Individuen, sondern auch Gruppen und Mengen haben ein bestimmtes eidos, nach dem man sie unterscheiden kann: Es gibt ein königliches und ein sklavenhaftes eidos und ein eidos ethnischer Gruppen.
Die Wörter eidos und idea bezeichnen nicht nur ein Erscheinungsbild, sondern in einem abgeleiteten Sinn auch dessen Träger. Gemeint ist dann eine Art oder ein Typus von etwas: eine Klasse von Personen, Dingen oder Phänomenen, die durch bestimmte – nicht nur optische – Merkmale charakterisiert ist. Beispielsweise ist in der Medizin ein bestimmter Patiententyp ein eidos. Wenn der Begriff zur Bezeichnung eines Typus oder einer Art von etwas dient, kann es sich auch um unanschauliche Gegebenheiten handeln, etwa wenn von verschiedenen Vorgehensweisen, Lebensweisen, Staatsformen oder von Arten der Boshaftigkeit oder des Krieges die Rede ist. Hier geht es um Klassifizierung anhand der Beschaffenheit oder einer Qualität, die allen Elementen einer Gruppe oder Art gemeinsam ist und sich beispielsweise in der Gestalt eines Dings oder in der Vollzugsweise einer Handlung zeigt.
Platon prägte den philosophischen Ideenbegriff. Er führte keine starre Terminologie ein, sondern verwendete für die später so genannten „platonischen Ideen“ (siehe Ideenlehre) neben idea auch andere Ausdrücke, insbesondere eidos, und Umschreibungen. Während sich idea dem ursprünglichen Wortsinn nach auf das sichtbare Erscheinungsbild von etwas bezieht, ist im Gegensatz dazu die platonische Idee das nicht sinnlich Wahrnehmbare, das den sichtbaren Erscheinungen zugrunde liegt. Sie ist aber geistig erfassbar und für Platon in einem übertragenen Sinn „sichtbar“; dies erklärt die Übertragung des Begriffs idea aus dem Bereich der Sinneswahrnehmung in den einer rein geistigen Wahrnehmung. Das geistige „Sehen“, die dem Philosophen mögliche „Schau“ der Ideen, spielt im Platonismus eine zentrale Rolle.
Auch der materialistische Denker Demokrit verwendete den Begriff idea, allerdings in ganz anderem Sinn als Platon. Er bezeichnete die Atome von unterschiedlicher Gestalt, aus denen nach seiner Lehre alles besteht, als ideai (Formen).
Cicero, der platonisches Gedankengut in der lateinischsprachigen Welt verbreitete, trug dazu bei, dass idea auch in der lateinischen Literatur ein philosophischer Fachbegriff wurde. Er schrieb das Wort noch als Fremdwort in griechischer Schrift, bei späteren Autoren erscheint es meist in lateinischer Schrift. Im Lateinischen wurde das, was griechische Denker unter eidos oder idea verstanden, auch mit Ausdrücken wie forma („Form“), figura („Gestalt“), exemplar („Muster“), exemplum („Muster“, „Vorbild“) und species („Gestalt“, „Muster“, „Art“) wiedergegeben. Seneca sprach von „platonischen Ideen“ (ideae Platonicae). Der spätantike Übersetzer und Kommentator von Platons Dialog Timaios, Calcidius, verwendete auch Ausdrücke wie archetypus, archetypum exemplar oder species archetypa („urbildliches Muster“).
Der Kirchenvater Augustinus meinte, die Bezeichnung „Ideen“ habe zwar erst Platon eingeführt, der Inhalt dieses Begriffs müsse aber schon lange vor ihm bekannt gewesen sein. Ins Lateinische sei „Idee“ mit forma oder species zu übersetzen; auch die Übersetzung ratio sei akzeptabel, wenn auch nicht genau, da ratio eigentlich dem griechischen Wort logos entspreche.
Mittelalterliche Philosophen und Theologen übernahmen die antike lateinische Terminologie der Ideenlehre, die ihnen vor allem Augustinus, Calcidius und Boethius vermittelten. Zur Bezeichnung der platonischen Ideen verwendeten sie neben dem latinisierten griechischen Wort idea auch die schon in der Antike gebräuchlichen rein lateinischen Ausdrücke, vor allem forma.
Neuzeit
In der christlichen Schulphilosophie der Frühen Neuzeit, auch bei den Jesuiten, verstand man unter Ideen in erster Linie die Urbilder im Geist Gottes, nach denen er die Welt geschaffen habe, aber auch – in Analogie dazu – Entwürfe im menschlichen Geist, die der Verwirklichung von Werken vorausgehen. In einem weiteren Sinne bezeichnete man im 17. Jahrhundert als Ideen die Prinzipien im menschlichen Bewusstsein, nach denen es Erkenntnisobjekte identifiziert und ordnet, und allgemein von der Vorstellungskraft hervorgebrachte mentale Inhalte (phantasmata), darunter Gedächtnisinhalte. René Descartes definierte „Idee“ im weitesten Sinne als Bewusstseinsinhalt jeglicher Art. An diesem weiten Begriffsverständnis orientierte sich der allgemeine Sprachgebrauch. Das von idea abgeleitete französische Wort idée diente generell zur Bezeichnung von Vorstellungen und Gedanken. Im Deutschen wurde im 17. Jahrhundert noch oft das lateinische idea als Fremdwort für „Vorstellung“ und „Gedanke“ verwendet, daneben aber auch das französische idée, das dann als „Idee“ eingedeutscht wurde und sich in dieser Form schließlich durchsetzte.
Im heutigen allgemeinen, nichtphilosophischen Sprachgebrauch bezeichnet „Idee“ einen Gedanken, nach dem man handeln kann, eine Vorstellung oder Meinung. Oft handelt es sich um einen Einfall, einen neuen, originellen, manchmal geistreichen oder witzigen Gedanken, den man in die Tat umsetzen kann. In diesem Sinne kann das Wort die Bedeutung von „Plan“ und „Absicht“ erhalten. Als Idee bezeichnet man auch den gedanklichen Entwurf zu einer Erfindung, einem Kunstwerk oder einer literarischen Schöpfung; in diesem Sinne sprach schon Goethe von seinen Ideen. Manchmal ist ein Prinzip gemeint, ein Leitbild oder ein Grundgedanke, der das Denken und Handeln einer Person bestimmt, beispielsweise „die Idee der Freiheit“ oder „die europäische Idee“. In der Musik kommt für ein Kernthema oder Leitmotiv eines mehrteiligen Werks die Bezeichnung „Idee“ vor.
Umgangssprachlich ist eine Idee auch eine kleine Menge (zum Beispiel: Man füge nach Umrühren des Teigs noch eine Idee Zucker hinzu) oder etwas, was nur einen geringfügigen Unterschied ausmacht (zum Beispiel: eine Idee lauter).
Philosophie
Antike
Platon
Die philosophische Ideenkonzeption geht auf Platon zurück. Daher spricht man von „platonischen Ideen“ und von Platons Ideenlehre. Die Einführung der Ideenlehre, die in Platons frühen Werken noch nicht vorkommt, wird häufig als die Trennlinie zwischen dem von Platons Lehrer Sokrates mitgeprägten Gedankengut der Anfangszeit und einer völlig eigenständigen platonischen Philosophie gesehen. Allerdings bereitet Platon seine Äußerungen zu den Ideen nicht systematisch auf, er präsentiert nirgends ein kohärentes Lehrgebäude. Daher ist der gängige Begriff „Ideenlehre“, der nicht von Platon stammt, etwas problematisch. Außerdem weist Platon selbst auf Schwächen der Ideenkonzeption hin.
Platon geht davon aus, dass der Bereich des sinnlich Wahrnehmbaren einem realen und eigenständig existierenden Reich der Ideen, das nur auf geistigem Weg erkannt werden kann, nachgeordnet ist. Ideen sind beispielsweise „das Schöne an sich“, „das Gerechte an sich“, „der Kreis an sich“ oder „der Mensch an sich“. Die Ideen, nicht die Objekte der Sinneserfahrung, stellen die eigentliche Wirklichkeit dar. Nur ihnen kommt das wahre Sein zu. Im Gegensatz zu den Sinnesobjekten sind die Ideen vollkommen und unveränderlich; sie unterliegen nicht dem Entstehen, dem Wandel und dem Vergehen. Die Existenzweise der sinnlich wahrnehmbaren Gegenstände hingegen ist durch Mangelhaftigkeit charakterisiert. Beispielsweise weist ein Einzelding immer nur eine begrenzte, relative Schönheit auf; es kann von etwas Schönerem übertroffen werden. Außerdem kann ein schönes Sinnesobjekt seine Schönheit im Lauf der Zeit einbüßen. Die Idee des Schönen hingegen ist solchem Mehr oder Weniger entzogen, denn das Schöne als Idee ist absolut (ohne Abstufung oder Einschränkung) schön.
Da Ideen in höherem Maße wirklich sind als die sinnlich wahrnehmbaren Einzelgegenstände, kommt ihnen ontologisch (in der Lehre von der Hierarchie der seienden Dinge) ein höherer Rang zu als den Sinnesobjekten. Die Ideen sind den Sinnesobjekten aber nicht nur aufgrund ihrer Vollkommenheit überlegen und in der Seinshierarchie übergeordnet, sondern sie sind auch die Ursache von deren Existenz. Sie sind die Urbilder, die Sinnesobjekte sind ihre Abbilder. Jedes Sinnesobjekt verdankt sein Dasein dem objektiven Sein der ihm zugrunde liegenden Idee, beispielsweise ein Pferd der Idee des Pferdes. Seine jeweilige besondere Beschaffenheit erhält es von den verschiedenen Ideen, die an seiner Gestaltung beteiligt sind und ihm die Gesamtheit seiner Merkmale (Größe, Farbe usw.) verleihen. Jedes Phänomen der physischen Welt hat „Anteil“ an denjenigen Ideen, deren Einwirkung es unterliegt. Die jeweilige Art dieser „Teilhabe“ (Methexis) bestimmt, in welchem Maße etwas über die besondere Eigenschaft verfügt, die es von einer bestimmten Idee empfängt: Wie gerecht ein Mensch ist, ergibt sich aus der Art seiner Teilhabe an der Idee des Gerechten. Somit bewirken die Ideen, dass die einzelnen Sinnesobjekte so sind wie sie sind. Jede Idee, an der ein Objekt Anteil hat, ist in diesem anwesend.
Das Denken des Philosophen soll sich auf die Ideen richten. Wegen der Allgemeinheit und Unveränderlichkeit ihrer Natur sind sie diejenigen Objekte, von denen man echte Erkenntnis erlangen kann, denn alles Wissen beruht auf Einsicht in etwas Allgemeingültiges und zeitunabhängig Wahres, nicht auf Beobachtung von Zufälligem und Vereinzeltem. Das Besondere, Individuelle kann nur vom Allgemeinen her verstanden und richtig eingeordnet werden. Somit entspricht der seinsmäßigen (ontologischen) Höherrangigkeit der Ideen eine erkenntnismäßige (epistemische). Erkenntnis von Ideen kann man erlangen, indem man von den unwesentlichen Besonderheiten des einzelnen Phänomens abstrahiert und seine Aufmerksamkeit auf das Allgemeine richtet, das einer Anzahl von Einzeldingen zugrunde liegt und gemeinsam ist.
Die Ideenkonzeption Platons ist somit der Auffassung entgegengesetzt, dass die Einzeldinge die gesamte Wirklichkeit ausmachen und hinter den Allgemeinbegriffen nichts steht als ein menschliches Bedürfnis, zur Klassifizierung der Phänomene Ordnungskategorien zu konstruieren.
Aristoteles
Während die Platoniker an der Ideenkonzeption Platons festhielten, fand sie in den anderen antiken Philosophenschulen keinen Anklang. Aristoteles setzte sich intensiv mit ihr auseinander und versuchte sie zu widerlegen. Insbesondere machte er geltend, dass die Annahme einer ontologischen Kluft zwischen Ideenwelt und Sinneswelt mit der Behauptung, die Sinneswelt sei ein Erzeugnis der Ideenwelt, unvereinbar sei, denn es gebe nichts, was eine solche Kluft überbrücken und damit eine Einwirkung der Ideen auf die Sinneswelt ermöglichen könnte („Chorismos“-Argument). Außerdem seien die scheinbar „allgemeinen“ Ideen, wenn sie separat existierten, nichts Allgemeines, sondern nur eine besondere Art von abgesonderten, einzelnen Dingen. Daher könne die Ideenlehre das Besondere nicht auf Allgemeines zurückführen. Da sie keine Erklärung für die Existenz der Sinnesobjekte biete, erfülle sie nicht den Zweck, zu dem sie eingeführt worden sei. Die Vorstellung von separaten Ideen neben den Sinnesobjekten führe nur zu einer hypothetischen Verdoppelung der Welt, die zum Verständnis der Wirklichkeit nichts beitrage und daher unnötig sei. Außerdem seien Ideen, wenn sie wie Einzeldinge separat existierten und daher einzeln und nicht allgemein seien, undefinierbar, denn nur das Allgemeine könne definiert werden. Folglich seien solche Ideen auch unerkennbar. Auch wenn Ideen und Einzeldinge ähnlich seien, folge daraus nicht, dass die Ideen die Urbilder der Einzeldinge sein müssen und diese ihnen nachgebildet sind. Die Vorstellung der Teilhabe sei nicht durchdacht; es handle sich nicht um eine philosophische Erklärung, sondern nur um ein leeres Wort, eine poetische Metapher.
Mittel- und Neuplatonismus
Die Mittelplatoniker verbanden die Ideenkonzeption mit ihren Vorstellungen vom göttlichen Walten im Kosmos. Sie unterschieden zwischen der höchsten, absolut transzendenten Gottheit, die in keiner direkten Beziehung zur sinnlich wahrnehmbaren Welt steht, und dem ihr untergeordneten Schöpfergott, dem Demiurgen. Der Schöpfergott galt als Wirkursache der Sinnesobjekte, in den Ideen sah man die paradigmatische (urbildliche) Ursache, in der Materie die Stoffursache. Dies wird in der Forschung als die mittelplatonische „Drei-Prinzipien-Lehre“ bezeichnet. Meist betrachteten die Mittelplatoniker die Ideen als Gedanken des transzendenten Gottes oder des Schöpfergottes. Dabei standen sie unter dem Einfluss der Theologie des Aristoteles, der zufolge Gott sich selbst denkt und dies seine einzige Tätigkeit ist. Es gab aber auch die Ansicht, dass den Ideen eine eigenständige Existenz unabhängig vom göttlichen Intellekt zukomme. Dem mittelplatonischen Modell schloss sich der stark vom Platonismus beeinflusste jüdische Denker Philon von Alexandria an. Er identifizierte den „Ideenkosmos“, der das erste Abbild Gottes sei, mit Gottes Vernunft, dem göttlichen Logos. Der Logos sei die gedachte Welt, nach deren „höchst gottähnlichem“ Vorbild Gott die sichtbare Welt geschaffen habe. So erhalten die Ideen bei Philon die Rolle der vermittelnden Instanz zwischen dem transzendenten Gott und der geschaffenen Welt.
Die Neuplatoniker nahmen eine dreiteilige Grundstruktur der geistigen Welt mit drei hierarchisch geordneten Prinzipien an: Zuoberst steht das absolut transzendente „Eine“, darunter der überindividuelle Geist oder Intellekt (Nous), gefolgt vom seelischen Bereich. In der Nouslehre gingen die Neuplatoniker von Überlegungen des Aristoteles aus, der allerdings nicht zwischen dem Einen und dem Nous unterschieden hatte. Nach der neuplatonischen Lehre ist der vollkommene Nous die Welt des reinen Denkens. Sein Denken kann sich nur auf etwas richten, was ihm an Vollkommenheit nicht nachsteht, denn wenn er etwas ihm Untergeordnetes dächte, was nicht so vollkommen ist wie er selbst, würde dies seine Vollkommenheit beeinträchtigen. Das Eine kann er nicht denken, da es wegen seiner Transzendenz dem Denken prinzipiell entzogen ist. Somit kann er nichts anderes denken als sich selbst, das heißt: das, was in ihm ist. Daher sind die Objekte des reinen Denkens ausschließlich die eigenen Inhalte des Nous in ihrer Gesamtheit. Daraus ergibt sich aus neuplatonischer Sicht, dass der Nous aus nichts anderem als der Gesamtheit der platonischen Ideen besteht und dass er der einzige ontologische Ort der Ideen ist. Diese Position formuliert Plotin, der Begründer des Neuplatonismus, in seinem berühmten Lehrsatz: Die Ideen existieren nur innerhalb des Nous. Damit markiert er einen wesentlichen Unterschied zwischen Mittel- und Neuplatonismus. Die im Mittelplatonismus vorherrschende Auffassung war, die Ideen seien etwas vom Nous Produziertes und ihm somit Untergeordnetes. Daher verortete man die Ideen in einem separaten Bereich außerhalb des Nous. Zwar gab es schon vor Plotin Ansätze zu einer Theorie von der Immanenz der Ideen im Geist, doch hat er als erster das Konzept der Identität der Ideen mit dem Nous konsequent durchgeführt und begründet, was bei seinen Zeitgenossen als Neuerung galt.
Augustinus
Der Kirchenvater Augustinus übernahm die Grundzüge der platonischen Ideenlehre einschließlich des Teilhabe-Konzepts. Er stellte fest, die Ideen seien ungeschaffen und unvergänglich. Sie seien die Gründe (rationes) der Dinge; alles Entstehende und Vergehende sei nach ihrem Muster gestaltet und erhalte von ihnen die Gesamtheit seiner Merkmale. Ihr Ort sei die göttliche Vernunft (divina intelligentia). Mit dieser Verortung der Ideen übernahm Augustinus ein mittelplatonisches Modell, das er christlich umdeutete, indem er es mit der Trinitätslehre verband. Die göttliche Vernunft, in der die Ideen enthalten seien, identifizierte er als das fleischgewordene Wort Gottes, Jesus Christus. Das Wort Gottes sei die nicht geformte Form aller geformten Einzeldinge. Zugleich sei es auch eine Aussage Gottes über sich selbst. In seinem Wort – und damit auch in den Ideen – erkenne Gott sich selbst. Auch die menschliche Erkenntnis fasste Augustinus als Erkenntnis der Ideen auf. Auf der Ideenerkenntnis beruhe das Wissen, ohne sie könne man keine Weisheit erlangen. Möglich sei die menschliche Ideenerkenntnis durch Teilhabe (participatio) am Wort Gottes. Die unwandelbaren Wahrheiten, zu denen der Mensch dadurch Zugang erhalte, seien in ihm selbst angelegt und nicht aus Sinneswahrnehmung abgeleitet. Die Sinneswahrnehmung weise ihn nur auf das in ihm bereits latent vorhandene Wissen hin, so dass er sich dessen bewusst werde.
Mittelalter
Bis um die Mitte des 12. Jahrhunderts war in der lateinischsprachigen Gelehrtenwelt West- und Mitteleuropas von den Werken Platons ausschließlich der Dialog Timaios bekannt, der überdies nur in den unvollständigen lateinischen Übersetzungen von Calcidius und Cicero zugänglich war. Die Rezeption der Ideenlehre erfolgte vorwiegend über spätantike Schriftsteller, die das Konzept dem Mittelalter in mittel- und neuplatonisch geprägter Gestalt vermittelten. Sehr einflussreiche Übermittler des platonischen Gedankenguts waren neben Augustinus und Calcidius, der auch einen viel beachteten Kommentar zum Timaios verfasst hatte, der neuplatonisch orientierte Theologe Pseudo-Dionysius Areopagita sowie Boethius, Macrobius und Martianus Capella. Eine nachhaltige Wirkung erzielte vor allem die Bestimmung der Ideen als überzeitliche Urbilder („Formen“), die im Geist Gottes vorhanden sind und nach deren Muster er die Sinnesobjekte erschafft. Die Abbilder der Ideen in den geschaffenen Dingen nannte man „Entstehungsideen“ (formae nativae). Von den Ideen als Urbildern unterschied man die Ideen, die Einzeldingen gemeinsam sind und mit den Begriffen von Gattung und Art erfasst werden (formae communes, ideae communes).
Die Kritik des Aristoteles an der platonischen Ideenlehre war schon im 12. Jahrhundert den Gelehrten der Schule von Chartres bekannt. Seine Auffassung wurde von den hoch- und spätmittelalterlichen Theologen und Philosophen insofern geteilt, als sie den Ideen keine eigenständige Realität zuerkannten, sondern sie im göttlichen Intellekt verorteten. Thomas von Aquin († 1274) nahm zwar Ideen als Schöpfungsprinzipien im Geist des Schöpfergottes an, zog aber eine eigene Ursächlichkeit der Ideen im Schöpfungsprozess nicht in Betracht. Er meinte, sie seien nur Formursachen, Wirkursache sei der Wille Gottes. Thomas kritisierte Platons Lehre von den „abgetrennten, durch sich selbst seienden Ideen“, wobei er sich auf Aristoteles berief.
Eine noch stärkere Distanzierung von der platonischen Ideenlehre brachte der spätmittelalterliche zeichentheoretische Nominalismus oder Konzeptualismus. Die Vertreter dieser Richtung bekämpften im „Universalienstreit“ den traditionell vorherrschenden Begriffsrealismus (Universalienrealismus, auch kurz „Realismus“ genannt). Dabei ging es um die Frage nach dem Wirklichkeitsbezug von Universalien (Allgemeinbegriffen) und damit um die Existenz von platonischen Ideen. Begriffsrealisten waren die Vertreter der herkömmlichen platonisch-augustinischen oder aristotelischen Lehren. Sie meinten, dass die Allgemeinbegriffe etwas objektiv real Existierendes bezeichnen. Diese Annahme ist die Ausgangsbasis aller mittelalterlichen Ideenkonzeptionen, die auf der traditionellen platonisch-augustinischen Lehre fußen. Sie ist auch die Voraussetzung der aristotelischen Vorstellung von Formen, die zwar nicht wie die platonischen Ideen eigenständig existieren, aber immerhin in den Sinnesobjekten als objektive Gegebenheiten real vorhanden sind. Nach der Auffassung der Nominalisten hingegen sind die Allgemeinbegriffe nur „Namen“ (nomina), das heißt Zeichen, die der menschliche Verstand für seine Tätigkeit benötigt. Demnach hat das Allgemeine eine subjektive, rein mentale Realität im Denken und nur dort. Eine ontologische Relevanz kommt ihm nicht zu. Wilhelm von Ockham, der Wortführer des zeichentheoretischen Nominalismus im 14. Jahrhundert, spricht den Ideen auch im Geist Gottes eine eigene Realität ab. Für ihn bezeichnet der Ausdruck „Idee“ nur ein Erkenntnisobjekt, insoweit es erkannt ist; er besagt nur, dass etwas erkannt ist, bezieht sich also nicht auf den Gegenstand als solchen, sondern auf die Tatsache seines Erkanntseins.
Frühe Neuzeit
Einen scharfen Bruch mit der platonischen Tradition vollzog René Descartes. Er verwarf die Vorstellung, es gebe im göttlichen Geist ein Reich von Ideen, die als Muster der erschaffenen Sinnesobjekte dienen. Ein Denken Gottes, das dem Erschaffen vorangeht, hielt Descartes für unmöglich, da Gott absolut einfach und sein Erkennen mit seinem Wollen identisch sei. Daher verwendete er den Begriff „Ideen“ nicht im platonischen Sinne, sondern nur zur Bezeichnung menschlicher Bewusstseinsinhalte. Dazu zählte er neben den Wahrnehmungsinhalten und den vom Bewusstsein erzeugten Phantasieprodukten auch die „eingeborenen Ideen“ (ideae innatae), die potentiell im Bewusstsein vorhanden seien und für philosophische Erkenntnis benötigt würden. Descartes meinte, die eingeborenen Ideen könnten aus der Potenz in den Akt überführt werden und ermöglichten dann ein apriorisches Wissen. Gegen die Vorstellung von eingeborenen Ideen wandten sich Thomas Hobbes und John Locke. Die von Locke begründete sensualistische Bewusstseinslehre, die George Berkeley und David Hume auf unterschiedliche Weise weiterentwickelten, verneint die Existenz von Bewusstseinsinhalten, die nicht auf Wahrnehmung zurückführbar sind.
Immanuel Kant zählt die Ideen zur Klasse der reinen Begriffe und grenzt sie als notwendige Vernunftbegriffe („transzendentale Ideen“) von den bloßen Verstandesbegriffen ab. Eine Idee kann nach seinem Verständnis nur in der Vernunft entstehen, welche ihrer Natur gemäß die Existenz von Ideen fordert. Ideen sind Begriffe a priori. Ihr charakteristisches Merkmal ist, dass sie sich auf das Unbedingte beziehen, das den Bereich aller möglichen Erfahrung notwendig übersteigt. Daher kann eine Idee in theoretischer Hinsicht, als Idee der spekulativen Vernunft, niemals eine nachweisbare objektive Realität außerhalb von sich selbst erlangen; als Schlüssel zu möglichen Erfahrungen kommt sie nicht in Betracht, im Bereich der Sinneswahrnehmung entspricht ihr nichts. Eine ontologische Bedeutung haben die Ideen für Kant nicht, wohl aber eine regulative Funktion für das Erkennen und Handeln. Objektive Realität weist er ihnen nur im Bereich des Praktischen zu, wobei er ausdrücklich an Platon anknüpft. Er bezeichnet die moralischen Ideen als Urbilder der praktischen Vernunft, die als Richtschnur des sittlichen Verhaltens dienen. Außerdem nimmt er „ästhetische Ideen“ als besondere Ideenart an.
Moderne
Hegel
Hegel setzt sich mit der Ideenlehre Platons auseinander und würdigt die Pionierrolle des antiken Philosophen. In Hegels philosophischem System, vor allem in seiner Logik, spielt der Begriff Idee eine zentrale Rolle. Er erhält hier einen Inhalt, der von jedem früheren philosophischen Sprachgebrauch abweicht. Hegel definiert die Idee als Wahrheit von Subjektivität und Objektivität und als das Wahre an und für sich, womit er sich von den Lehren abgrenzt, in denen sie als etwas Subjektives, als bloße Vorstellung und als unwirklich erscheint. Mit Wahrheit meint er die Übereinstimmung der Wirklichkeit mit ihrem Begriff, der sie erzeugt. In der Idee sieht Hegel den Begriff, der die Wirklichkeit, die er hervorbringt, mit sich in Übereinstimmung bringt. Er bezeichnet sie als „die Einheit des Begriffs und der Objektivität“. Die Idee ist für ihn wie für Kant als Vernunftbegriff transzendent, sie ist das Unbedingte, von dem „kein ihm adäquater empirischer Gebrauch gemacht werden“ kann. Im Gegensatz zu Kant folgert Hegel daraus aber nicht, dass die Idee ontologisch bedeutungslos ist. Vielmehr führt er den Umstand, dass der Idee „kein kongruierender Gegenstand in der Sinnenwelt gegeben werden“ kann, auf einen Mangel der Sinnesobjekte, nicht der Idee zurück. Jedes einzelne Ding entsteht aus der Idee, und sein Existenzgrund ist es, sie so gut wie möglich auszudrücken.
Im Gegensatz zur platonischen Tradition schreibt Hegel der Idee nicht absolute Ruhe im Sinne von Bewegungslosigkeit zu, sondern eine Bewegung, mit der sie eine Welt endlicher Dinge setzt, die etwas Anderes als sie ist, etwas für sie Äußerliches und insofern ihr Gegenteil. Um ihr Gegenteil setzen zu können, muss sie es in sich selbst enthalten, muss sie in sich auch Unterschied und Teilung aufweisen. Somit umfasst sie das, was sie verneint, ihren eigenen Gegensatz.
Die philosophische Bemühung zielt auf die „absolute Idee“. Diese ist für Hegel „der vernünftige Begriff, der in seiner Realität nur mit sich selbst zusammengeht“ und „in seinem Anderen seine eigene Objektivität zum Gegenstande hat“. „Alles Übrige ist Irrtum, Trübheit, Meinung, Streben, Willkür und Vergänglichkeit; die absolute Idee allein ist Sein, unvergängliches Leben, sich wissende Wahrheit, und ist alle Wahrheit. Sie ist der einzige Gegenstand und Inhalt der Philosophie.“ Die Aufgabe der Philosophie ist es, die absolute Idee in ihren verschiedenen Gestaltungen zu erkennen.
Neuere Entwicklungen
Seit dem Ende der Epoche des Deutschen Idealismus haben eine Reihe von Philosophen – insbesondere Vertreter des Neuidealismus, Neuhegelianismus, Neukantianismus und Neuthomismus – den Ideen eine wesentliche Funktion im Rahmen ihrer ontologischen, erkenntnistheoretischen oder ethischen Konzepte zugewiesen, wobei sie von unterschiedlichen Bestimmungen des Begriffs Idee ausgingen. Solche Strömungen bestehen bis in die Gegenwart. Gegen die Ideenkonzeptionen metaphysischer Theorien erhoben jedoch schon im 19. Jahrhundert Positivisten, Linkshegelianer und Marxisten heftigen Widerspruch. Ein entschiedener Gegner der platonischen Ideenlehre war auch Nietzsche, der im Rahmen seiner Polemik gegen den Platonismus auch diese Lehre bekämpfte. Er schrieb in seiner Götzen-Dämmerung, die Geschichte der Ideenlehre sei die Geschichte eines Irrtums, die angebliche „wahre Welt“ der Ideen habe sich als Fabel entpuppt; sie sei „eine unnütz, eine überflüssig gewordene Idee, folglich eine widerlegte Idee“.
In der Philosophie des 20. und 21. Jahrhunderts dominiert die Einschätzung derjenigen Denker, welche dem Begriff Idee jede philosophische Relevanz absprechen. Diese Kritiker machen geltend, man könne mit „Ideen“ nichts erklären, sondern nur eine Illusion von Erklärung erzeugen. Schon die Frage nach einer festen, kontextunabhängigen Bedeutung von „Idee“ sei verfehlt. Es handle sich bei Ideen um rein subjektive Konstrukte, über die keine überprüfbaren Aussagen möglich seien. Daher sei jede Beschäftigung mit ihnen unnütz. In diesem Sinne äußerten sich u. a. Wittgenstein und Quine. Ungeklärt bleiben allerdings die Probleme, die dazu geführt haben, dass der Begriff Idee in die philosophische Terminologie eingeführt und von der Antike bis in die Moderne beibehalten wurde. Dazu zählen die weiterhin offenen Fragen, wie die Allgemeingültigkeit wissenschaftlicher Erkenntnisse zu verstehen ist und wie die Einheit von Begriff und Gegenstand erklärt werden kann.
Literatur
Helmut Meinhardt u. a.: Idee. In: Historisches Wörterbuch der Philosophie, Band 4, Schwabe, Basel 1976, Sp. 55–134
Angelica Nuzzo: Idee. In: Hans Jörg Sandkühler (Hrsg.): Enzyklopädie Philosophie, Band 2, Felix Meiner, Hamburg 2010, ISBN 978-3-7873-1999-2, S. 1046–1057
Weblinks
Rudolf Eisler: Idee. In: Wörterbuch der philosophischen Begriffe (1904)
Anmerkungen
Erkenntnistheorie
Ontologie
Platon
Platonismus
Philosophie des Geistes
Abstraktum
|
Q131841
| 243.174252 |
23115
|
https://de.wikipedia.org/wiki/Sesotho
|
Sesotho
|
Sesotho (auch Südliches Sotho oder Süd-Sotho) ist eine besonders in den südafrikanischen Provinzen Freistaat und Gauteng (acht Prozent der über 15-jährigen Bevölkerung, Stand 2015) sowie in Lesotho verbreitete Bantusprache.
Sie gehört wie das Nord-Sotho (Sepedi) und das Setswana zur Untergruppe der Sotho-Tswana-Sprachen. Sesotho ist mit dem Nord-Sotho nahezu identisch und eng verwandt mit dem Setswana. Ähnlichkeit besteht außerdem mit dem Lozi, das vor allem in Sambia gesprochen wird.
Geschichte
Sesotho stammt wie die anderen Sotho-Tswana-Sprachen aus Ostafrika, von wo verschiedene Bantuvölker ab dem 16. Jahrhundert Richtung Süden zogen. Dabei assimilierten sie Teile der San, von denen die Basotho unter anderem die Klicklaute übernahmen. Die Schriftsprache wurde erst im 19. Jahrhundert durch europäische Missionare eingeführt. Heute gibt es Sesotho-Unterricht an den Schulen Lesothos und Teilen Südafrikas, sowie Zeitungen, Zeitschriften und literarische Werke, unter anderen von Thomas Mofolo. Die Verschriftung der Sprache wurde von den Missionaren gefördert, da sie im kirchlichen Bereich zur Verbreitung des Christentums beitragen konnte. So wurde schon früh die Bibel in das Sesotho übersetzt.
In Lesotho ist Sesotho neben Englisch die Amtssprache. Die Zugehörigkeit fast aller Einwohner zum Volk der Basotho (Lesother) bewirkt, dass Sesotho im ganzen Land gesprochen wird und nicht, wie in Südafrika, den Charakter einer Regionalsprache hat. In Südafrika ist Sesotho seit Mitte der 1990er Jahre eine von elf Amtssprachen.
Im Sesotho haben sich keine Dialekte entwickelt. Die Schreibweisen des Sesotho in Südafrika und Lesotho unterscheiden sich aber in einigen Details.
Alphabet und Aussprache
Im Sesotho kommen folgende Buchstaben vor:
a, b, c (nur in Lesotho und nur als ch), d (nur in Südafrika), e, f, g (nur als ng oder in Lehnwörtern wie Gauteng), h, i, j, k, l, m, n, o, p, q, r, s, š, t, u, v (nur in Lehnwörtern wie veine, Wein), w (nur in Südafrika), y (in Lesotho nur als ny).
Aussprache der Vokale
Es gibt die neun Vokale , , , , , , , und .
Besonderheiten
Im Folgenden wird die lesothische Form des Sesotho betrachtet. Die Aussprache ist ähnlich wie im Deutschen, wenn man von einigen Ausnahmen absieht. Das d wird im lesothischen Sesotho durch l ersetzt. Li und lu werden also di und du ausgesprochen. Das j wird wie das polnische dz (also d gefolgt von g wie in Loge) ausgesprochen. Das s ist stets scharf. Das s kann nach einem t aspiriert ausgesprochen werden und wird dann š geschrieben. Das q gibt es ebenfalls in zwei Formen. Beides sind Klicklaute. Die aspirierte Form wird hier als qh geschrieben. Das q bzw. qh kann mit allen fünf Vokalen kombiniert werden und stellt für den Europäer die größte Schwierigkeit bei der Aussprache dar. Auch den p-Laut gibt es als p und, aspiriert, als ph. Gleiches gilt für das t.
Besondere Konsonantenverbindungen sind schließlich auch hl (ausgesprochen etwa chl), tlh (etwa tl), kh (etwa wie das ch in doch, entspricht dem g in Gauteng), ng (das nur am Wortende vorkommt) und sh (etwa sch). ll, mm und nn sind die einzigen vorkommenden Doppelkonsonanten. Ein Buchstabe in mm und nn kann durch ein Apostroph ersetzt sein. Im Wort ’m’e (Mutter) stehen die Apostrophe für zwei fehlende m, so dass das Wort drei m nacheinander aufweist. Die Mehrfachkonsonanten werden auffällig lang ausgesprochen.
Doppelvokale kommen kaum vor. Ein doppelter Vokal steht immer für Vokale in unterschiedlichen Silben (wie lekhooa, le-kho-oa). Nacheinander auftretende unterschiedliche Vokale (wie oa) werden diphthongartig gebunden, etwa wa. Das o und das u als einzelne Silbe unterscheiden sich in einigen Wörtern vor allem an der Tonhöhe: das o wird höher gesprochen (zum Beispiel: kea u rata, ich liebe dich, und kea o rata, ich liebe ihn/sie).
Alle Silben, und damit alle Wörter, enden auf einem Vokal. Dabei zählt ng neben a, e, i, o und u zu den Vokalen. Am Wortanfang oder im Inneren eines Wortes können auch m und n als Vokal fungieren, wie in mpho, Geschenk, und linku, Schafe.
Alle mehrsilbigen Wörter werden auf der vorletzten Silbe betont. Dabei zählt ng als Silbe, das heißt Wörter wie toropong werden auf der (gesprochen) letzten Silbe betont.
Grammatik
Substantive
Es gibt sieben Gruppen von Substantiven, von denen sechs eine Pluralform aufweisen. Diese Pluralform wird jeweils durch Veränderung des Präfixes gebildet.
Bei einigen Personenbezeichnungen, wie ntate, Vater, und ausi, Schwester, werden die Pluralformen durch das Präfix bo- gebildet. Diese Formen werden wie der erste Fall dekliniert, also bo-ntate ba ja nama, die Väter essen Fleisch.
Adjektive
Adjektive werden prinzipiell analog zu den Substantiven gebildet. Bei den Formen mit li- und ohne Präfix wird aber die Grundform des Adjektivs verwendet, zum Beispiel sefate se seholo, der große Baum, likhomo tse kholo, die großen Rinder.
Verben
Der Infinitiv wird mit ho gebildet, analog zum Englischen to. Als Beispiel wird ho rata, lieben, mögen, verwendet. Die Konjugation ist für alle Personen (auch Singular und Plural) gleich.
Das Präsens wird aus dem Pronomen und dem Infinitiv (ohne ho) gebildet: kea rata, ua rata, ich liebe, du liebst
Das Imperfekt wird bei vielen Verben mit der Endung ile gebildet, also: ke ratile, u ratile, ich liebte, du liebtest.
Andere Imperfektformen enden auf etse, itse oder tse, zum Beispiel ke khathetse, ich ermüdete, eigentlich aber: ich bin müde.
Eine weitere Imperfekt-Form wird so gebildet: ke ile ka rata, u ile ka rata, ich liebte, du liebtest.
Das Futur wird durch Hinzufügen von tla (eigentlich: kommen) gebildet: ke tla rata, u tla rata, ich werde lieben, du wirst lieben.
Daneben gibt es weitere Zeiten, zum Beispiel ke il’o rata, u il’o rata, ich werde demnächst lieben, du wirst demnächst lieben.
Passivformen werden mit der Endung -uoa gebildet, also ke ratuoa, u ratuoa, ich werde geliebt, du wirst geliebt.
Zur Verneinung wird ha vor den Ausdruck gesetzt und die Verb-Endung im Präsens zu -e verändert: ha ke rate, ha u rate, ich liebe nicht, du liebst nicht.
Der Imperativ wird aus dem Infinitiv (ohne ho) gebildet (rata!, liebe!) Der Plural wird durch Anhängen von ’ng gebildet, also rata’ng, liebt!. Es gibt aber einige Ausnahmen und Varianten. So ist mphe!, gib mir (bitte), etwas höflicher als mpha!, gib mir (von ho fa, geben).
Eine Besonderheit sind verwandte Verben mit unterschiedlichen Bedeutungen. Beispiel:
ho bona, sehen
ho bonana, sich gegenseitig sehen (im Sinne von: sich treffen)
ho ipona, sich selber sehen (im Sinne von: eitel sein)
Eine weitere Besonderheit sind Doppelverben. ho feta heißt vorbeigehen, während ho feta-feta häufig vorbeigehen heißt.
Sonstige Wörter
Die Personalpronomen sind ke, u, o im Singular und re, le, ba im Plural. Diese Pronomen werden nur auf Menschen bezogen. Es gibt sie aber auch in einer bestimmten Form, wie im Französischen und Italienischen. Dann lauten sie ′na (mit langem n), uena, eena, rona, lona und bona.
Viele Fragewörter enden auf ng, wie mang?, wer, neng?, wann, und hobaneng?, warum. Ein Charakteristikum ist die Konstruktion von zwei Fragewörtern, die mit kapa, oder, verbunden werden: mang kapa mang, irgendwer, neng kapa neng, irgendwann.
Wortschatz
Die meisten Wörter entstammen den Bantu-Sprachen. So gibt es Ähnlichkeiten bis zum Swahili, das in Ostafrika gesprochen wird. Ha ho na mathata im Sesotho heißt auf Swahili hakuna matata, auf deutsch: es gibt keine Probleme. Darüber hinaus gibt es im Sesotho etliche europäische sowie Afrikaans-Lehnwörter wie katse (Katze), buka (Buch), fotobolo (Fußball), sekolo (Schule), baesekele (Fahrrad, von bicycle). Man bemüht sich, moderne technische Ausdrücke aus dem Englischen ins Sesotho zu übertragen, zum Beispiel junifesithi für university bzw. Universität. Oft werden diese Ausdrücke, wie auch die Zahlwörter, auf Englisch in das normale Gespräch eingeflochten. Wörter und Ortsnamen mit Klicklauten sind durch die San-Sprachen beeinflusst.
Textbeispiele
Lebitso la hau u mang? Name von du ist wer? (Eigentlich: Wie heißt du?)
Morena e moholo o ea toropong ka bese. Der alte Häuptling fährt mit dem Bus (bese) in die Stadt.
Bana ba sekolo ba rata lipalo. Die Schulkinder mögen Zahlen (das heißt: das Fach Mathematik).
Ak’u mphe liapole tse five. Gib mir bitte fünf Äpfel.
Paqama ke u qoqele moqoqo o qabolang. Ke tla o qalo qalong ke o qetelle qetellong. Ke tla o qala ka Qabane oa Quthing, ke o qetelle ka Nqoko oa Qoqolosing. Leg dich auf dein Gesicht – ich erzähle dir eine lustige Unterhaltung (das heißt: Geschichte). Ich werde sie am Anfang beginnen und am Schluss beenden. Ich werde sie mit Qabane aus Quthing beginnen und mit Nqoko aus Qoqolosing beenden. (Hierbei handelt es sich um einen Zungenbrecher mit vielen Klicklauten. Im Allgemeinen gibt es nur wenige solcher Wörter im Sesotho.)
Allgemeine Erklärung der Menschenrechte, Artikel 1 (südafrikanisches Sesotho):
Alle Menschen sind frei und gleich an Würde und Rechten geboren. Sie sind mit Vernunft und Gewissen begabt und sollen einander im Geist der Brüderlichkeit begegnen.
Weblinks
Sesotho-Website (englisch)
Einzelnachweise
Einzelsprache
Sotho-Tswana-Sprachen
|
Q34340
| 133.190391 |
10485
|
https://de.wikipedia.org/wiki/Brunei
|
Brunei
|
Das Sultanat Brunei (amtlich Brunei Darussalam, malaiisch Negara Brunei Darussalam) ist ein Staat in Südostasien. Er liegt auf der Insel Borneo () im Südchinesischen Meer und grenzt an Malaysia.
Das Staatsgebiet ist der Rest eines in historischer Zeit weit größeren Sultanates, das zwischen dem 16. und dem 19. Jahrhundert fast die komplette Nordküste Borneos umfasste.
Ergiebige Erdölvorkommen in Verbindung mit geringer Bevölkerung und relativer Stabilität haben Brunei zu einem der reichsten Staaten der Erde gemacht.
Geographie
Brunei liegt an der Nordküste der Insel Borneo, dem südchinesischen Meer zugewandt. Seine beiden Landesteile werden durch das zum ostmalaysischen Bundesstaat Sarawak gehörende Limbang-Tal getrennt. Temburong, der kaum erschlossene Ostteil, ist über die Temburong-Brücke mit dem Westteil verbunden. An den dicht besiedelten Küstenraum Bruneis schließt sich ein flaches Hügelland an. Im Westen und Nordosten gibt es ausgedehnte Sümpfe. Die meisten Flüsse fließen nach Norden zur Küste, unter ihnen auch der Belait, der längste Fluss des Landes. Nur im Grenzgebiet zu Sarawak gibt es höhere Berge, darunter den 1850 m hohen Bukit Pagon. Das Staatsgebiet ist, mit Ausnahme der Küste im Norden, von dem malaysischen Bundesstaat Sarawak umschlossen. Brunei hat also nur einen Nachbarn, Malaysia. Die Länge der Grenze zum Nachbarn beträgt 381 km, die der Küstenlinie 161 km.
In Brunei herrscht tropisches Regenwaldklima mit einer hohen Luftfeuchtigkeit und durchschnittlichen Temperaturen von 27 °C. Die Niederschläge, die von ca. 2500 mm an der Küste auf 7500 mm im Landesinneren ansteigen, fallen vorwiegend in der Zeit des Nordostmonsuns von November bis März. Es gibt keine Trockenzeit. Im Weltrisikobericht 2021 liegt Brunei auf Rang 6 der Länder mit dem weltweit höchsten Risiko, dass aus einem extremen Naturereignis eine Katastrophe wird.
An der Küste sind die Mangroven wegen der Erdölförderung weitgehend verschwunden. Tropische Regenwälder nehmen das dünn besiedelte Landesinnere ein. Zur Fauna gehören Affen, Reptilien und Vögel.
In Brunei sind 58 % der Landfläche Primärwald, und 2.260 km² (39 % der Gesamtfläche) wurden zu Schutzgebieten erklärt. Den in den Regenwäldern lebenden indigenen Gruppen ist die traditionelle Jagd erlaubt. Der Gebrauch von Schusswaffen ist seit 1962 verboten. Ökologische Probleme sind meist durch die Förderung des Erdöls bedingt.
Bevölkerung
Demografie
Brunei hatte 2020 rund 442.000 Einwohner. Das jährliche Bevölkerungswachstum betrug + 0,8 %. Zum Bevölkerungswachstum trug ein Geburtenüberschuss (Geburtenziffer: 14,2 pro 1000 Einwohner vs. Sterbeziffer: 5,0 pro 1000 Einwohner) bei. Die Anzahl der Geburten pro Frau lag 2020 statistisch bei 1,8, die der Region Ostasien und Ozeanien betrug 1,6. Die Lebenserwartung der Einwohner Bruneis ab der Geburt lag 2020 bei 76 Jahren (Frauen: 77,3, Männer: 74,9). Der Median des Alters der Bevölkerung lag im Jahr 2020 bei 31,3 Jahren. Im Jahr 2020 waren 22,6 Prozent der Bevölkerung unter 15 Jahre, während der Anteil der über 64-Jährigen 5,5 Prozent der Bevölkerung betrug.
Bevölkerungsstruktur
Die Bevölkerung Bruneis ist sehr ungleich verteilt, im Westteil leben über 90 % der Bevölkerung, davon allein 46.000 in der Hauptstadt Bandar Seri Begawan. Andere bedeutende Städte des Landes sind Muara, Seria und deren Nachbarstadt Kuala Belait.
Im Jahre 2010 waren rund 65 Prozent der Einwohner Bruneis „Staatsbürger“, also vor allem Malaien. Etwa 20 Prozent der Staatsbürger gehören indigenen Volksgruppen an, hierzu gehören vor allem Iban, die noch in charakteristischen Langhäusern leben und ihre traditionellen Religionen praktizieren. Etwa 8 Prozent der Einwohner Bruneis sind „Nicht-Staatsbürger“. Hierbei handelt es sich vor allem um ethnische Chinesen, die einen unbefristeten Aufenthaltstitel haben und bruneiische Reisedokumente besitzen, denen aber bei der Unabhängigkeit im Jahre 1984 die Staatsbürgerschaft verwehrt wurde. Weitere 27 Prozent der Einwohner Bruneis sind Staatsbürger anderer Länder, hier vor allem Arbeitskräfte aus den Nachbarländern, die nur ein befristetes Aufenthaltsrecht in Brunei haben.
Lange Zeit hat sich das Sultanat fremden Einflüssen verschlossen, auch um illegale Einwanderung zu verhindern. Im Jahre 2017 waren 25,1 % der Bevölkerung Migranten. Häufigste Herkunftsländer waren Malaysia (50.000 Personen), Thailand (20.000) und die Philippinen (10.000).
Sprachen
Amtssprache im Land ist Malaiisch, als Handelssprachen dienen Englisch und Chinesisch.
Religionen
Die Volkszählung von 2001 ergab, dass 75 Prozent der Einwohner Bruneis Muslime sind. Der sunnitische Islam schafiitischer Rechtsschule, zu dem sich die Malaien bekennen, ist Staatsreligion. Etwa 9 Prozent der Bevölkerung gehören dem Christentum in Brunei an (unter anderem der katholischen Kirche von Brunei). Etwa 8,5 Prozent bekennen sich zum Buddhismus. Anreize finanzieller Natur, die Nicht-Muslime zum Übertritt zum Islam bewegen sollten, haben wenig Wirkung gezeigt. Das Konzept des Malaiisch-Islamischen Brunei, das die Herrschaft der Sultansfamilie legitimieren soll, geht mit einer Islamisierung des gesellschaftlichen Lebens einher. Der bruneiische Staat fördert somit religiöse Schulen, die Pilgerfahrt nach Mekka, die Entwicklung eines islamischen Finanzwesens und hat die Scharia-Gerichte eingeführt. Diese Hinwendung zu islamischen Traditionen birgt das Risiko, dass Kräfte mit noch radikaleren Vorstellungen die Herrschaft des Sultans herausfordern.
Sozialwesen und Bildung
Brunei ist ein reicher, absolutistischer Wohlfahrtsstaat; Bildungs- und Gesundheitssystem auf hohem Niveau stehen kostenlos zur Verfügung. Es besteht eine neunjährige Schulpflicht. Der Besuch von Schulen und Universitäten (auch im Ausland) ist kostenfrei. In Bandar Seri Begawan steht die Universität von Brunei Darussalam. Der Unterricht wird an den Grund- und Oberschulen auf Malaiisch, Englisch oder Chinesisch abgehalten.
Landesname
Übersetzt ins Deutsche bedeutet der arabische Begriff Darussalam () so viel wie Ort des Friedens und bezeichnet im islamischen Verständnis jeden Staat, dessen Gesetzgebung sich am islamischen Recht, der Scharia, orientiert. Negara bedeutet auf Malaiisch Staat und der eigentliche Name des Landes Brunei ist mit Borneo verwandt.
Geschichte
Der bruneiische Staatsmythos führt die Existenz des Staates und seiner Herrschaftsfamilie auf das Jahr 1363 zurück. In diesem Jahr soll Sultan Awak Alak Betatar zum Islam übergetreten sein und damit die Dynastie gegründet haben, dies ist historisch jedoch nicht belegt. Zwischen dem 15. und 17. Jahrhundert beherrschte Brunei – unter anderem unter Sultan Bolkiah – neben der Nordküste Borneos auch den Sulu-Archipel und Palawan, welche heute zu den Philippinen gehören. Diese Phase gilt als die Blütezeit des Staates Brunei.
Als erster Europäer gelangte 1521 der spanische Seefahrer Juan Sebastián Elcano nach Brunei. Daraufhin nahm der Handel mit den Europäern rasch zu.Beleg? Auseinandersetzungen mit Spanien kulminierten 1578 im Kastilischen Krieg.
In der ersten Hälfte des 19. Jahrhunderts folgte eine Periode des Verfalls, der durch innerstaatliche Streitigkeiten um die Thronfolge, die Expansion der europäischen Kolonialmächte und die Zunahme der Piraterie beschleunigt wurde. Bruneis regionaler Einfluss schrumpfte. 1842 hatte der Sultan von Brunei das Gebiet von Sarawak dem britischen Armeeoffizier Sir James Brooke für dessen Hilfe bei der Niederschlagung eines Aufstandes überlassen. Dieser nahm den Titel eines Radschas (König) an und konnte sein Territorium auf Kosten des Sultans nach und nach erweitern.Beleg? 1847, als die Insel Labuan an Großbritannien fiel, war Brunei schon fast auf seine heutige Größe reduziert.Beleg? Im gleichen Jahr schlossen die Briten mit Brunei den anglo-bruneiischen Vertrag ab, mit welchem Brunei seine außenpolitische Souveränität auf den britischen Generalkonsul auf Borneo übertrug. Am 29. Dezember 1877 vergab Sultan Abdul Mumin der britischen North Borneo Chartered Company eine Konzession für 15.000 Straits-Dollar und überließ der Handelsgesellschaft das heutige Sabah.Beleg?
1888 wurde das Restsultanat britisches Protektorat und gehörte zu Britisch-Nordborneo. Im Jahre 1905 wurde ein Herrschaftsvertrag unterzeichnet, laut dem dem Sultan britische Berater beiseite gestellt wurden, deren Ratschläge bindend waren. Nur in Religionsfragen behielt der Sultan seine eigene Entscheidungsbefugnis. Im Gegenzug garantierte England den Fortbestand der Dynastie. Im Jahre 1929 wurde in Seria Erdöl entdeckt, im Jahre 1932 begann die Förderung durch Brunei Shell Petroleum Co. Schnell wurde Brunei zum drittgrößten Erdölproduzenten des Commonwealth of Nations, die Öleinnahmen und das Protektorat erlaubten dem Herrscherhaus, sich zu konsolidieren und Konkurrenten zu entmachten. Von 1941 bis 1945 war Brunei nach der Invasion Borneos von der japanischen Armee besetzt. 1946 übernahm eine Zivilregierung in Brunei wieder die Regierung und Sultan Omar Ali Saifuddin III. übernahm nach dem Tod von Sultan Ahmad Tajuddin die Führung des Landes. In den 1950er Jahren begann die Förderung von Öl und Gas vor Bruneis Küste. Die Einkünfte aus dem Rohstoffverkauf ließen das Land sich von einer Agrarökonomie zu einer Rentenökonomie entwickeln. Parallel dazu kämpften Bruneis Nachbarn, das heutige Malaysia und das heutige Indonesien, um ihre Unabhängigkeit. In Brunei entstand 1956 eine Partei namens Bruneiische Volkspartei, die einen Zusammenschluss von Sabah, Sarawak und Brunei unter Führung des Sultans von Brunei forderte. Sultan Omar Ali Saifuddin III. bevorzugte es jedoch, auf eine Vereinigung mit Malaysia hinzuarbeiten; demokratische Partizipation lehnte er ab. Am 29. September 1959 verabschiedete der Sultan auf britischen Druck hin die erste Verfassung Bruneis. Diese sah unter anderem die Bildung eines Gesetzgebenden Rates als ein indirekt gewähltes Parlament vor. Im gleichen Jahr unterzeichnete man einen neuen Protektoratsvertrag, gemäß dem die Briten die Hoheit über Bruneis Außen- und Verteidigungspolitik sowie die innere Sicherheit behielten. Abgesehen davon wurde Brunei in die Selbstverwaltung entlassen. Bei den ersten Wahlen zum Gesetzgebenden Rat errang die oppositionelle Volkspartei fast alle Mandate, der Sultan lehnte eine Zusammenarbeit mit ihr jedoch weiterhin ab. Im Dezember 1962 kam es deshalb zum Aufstand der Volkspartei und ihres militärischen Arms, der Nationalarmee von Nordkalimantan. Er wurde von britischen Truppen innerhalb kurzer Zeit niedergeschlagen. Die Volkspartei wurde verboten, der Gesetzgebende Rat aufgelöst. Die Bevölkerung Bruneis umfasste Anfang der 1960er Jahre rund 85.000 Einwohner, davon 40.000 Malaien, 25.000 Dayak, 18.000 Han und 2.000 Europäer und Sonstige.
Im Jahre 1965 scheiterten Verhandlungen über einen Anschluss an Malaysia daran, dass man sich nicht über die Aufteilung der Einnahmen aus der Erdöl- und Erdgasförderung einigen konnte. Auch der Status des Sultans von Brunei gegenüber den anderen malaiischen Herrschern blieb ohne Einigung. Sultan Omar Saifuddien III. dankte zwei Jahre später zu Gunsten seines Sohnes Hassanal Bolkiah ab.
Im Januar 1979 schlossen die britische Regierung unter Premierminister James Callaghan und Sultan Hassanal Bolkiah den letzten Protektoratsvertrag. Er besagte, dass die Verantwortung über die innere Sicherheit in bruneiische Hände gelegt würde und Brunei zum 1. Januar 1984 ein unabhängiger Staat werden sollte. Seit der kompletten Machtübernahme ist Brunei eine malaiisch-islamische Monarchie, die mit weicher Repression gegen Kritiker und Oppositionelle agiert und die Elite und Mittelschicht mit großzügigen Versorgungsleistungen in einen Rentenstaat einbindet (Kooptation).
Im August 1998 setzte der Sultan von Brunei seinen ältesten Sohn Prinz al-Muhtadee Billah als Kronprinzen ein.
Politik
Brunei ist die einzige absolute Monarchie in Südostasien. Der Sultan ist gleichzeitig Staatsoberhaupt und religiöses Oberhaupt Bruneis. In seinen Händen liegt die Staats- und Rechtssprechungsgewalt. Der Sultan Bruneis Hassanal Bolkiah regiert das Land seit 1984 (bzw. 1967) und ist eines der am längsten amtierenden Staatsoberhäupter weltweit. Ideologisch basiert das politische Leben seit den 1980er Jahren auf dem Konzept eines malaiisch-islamischen Brunei, wonach die Monarchie die malaiische Sprache, Kultur und Traditionen sowie die islamische Religion und das islamische Recht bewahrt und eine von Gott gewollte, alle Klassen und Schichten übergreifende Regierungsform ist.
Politisches System
Das politische Leben Bruneis basiert auf der Verfassung von 1959, die 2004 und 2006 geändert wurde, und auf der Nachfolge- und Regentschaftsproklamation von 1959. Die Verfassung dient als rechtliches Mittel, um die Alleinherrschaft des Sultans zu festigen; die Macht des Sultans wird weder durch Menschen- noch durch Bürgerrechte begrenzt. Die Verfassung Bruneis ist die einzige Verfassung Südostasiens, die außer der freien Religionsausübung keinerlei Grundrechte definiert. Es gibt weder ein Frauenwahlrecht noch ein Wahlrecht für Männer. Das Volk hat so geringe Mitbestimmungsrechte, dass man im Falle von Brunei nicht von einer konstitutionellen Monarchie sprechen kann.
Der Sultan teilt seine politische Macht mithin mit niemandem. Er ist Staatsoberhaupt, Oberhaupt der offiziellen Religion, Premierminister, Finanzminister, Verteidigungsminister und Oberbefehlshaber der Streitkräfte. Auch der gesamte Justizapparat untersteht ihm; statt eines Justizministeriums ist ihm als Premierminister ein Büro für Justizangelegenheiten beigeordnet. Die anderen Minister gehören in der Regel der Sultansfamilie an. Es ist vorgesehen, dass nur malaiische Muslime bestimmte Regierungsämter besetzen dürfen. Auf Staatssekretärsebene arbeiten auch Nicht-Mitglieder der Sultansfamilie, teilweise auch Angehörige der chinesischen Minderheit.
Der Sultan kann zu seinen Lebzeiten einen Thronfolger festlegen. Tut er dies nicht, bestimmt nach seinem Ableben der Erbfolgerat einen neuen Sultan. Ist der Sultan noch minderjährig, regiert ein Regentschaftsrat an seiner Stelle.
Dem Sultan arbeiten der Staatsrat, der Ministerrat, der Religionsrat, der Erbfolgerat, der Gesetzgebende Rat und der Adat-Istiadat-Rat zu. Der Adat-Istiadat-Rat berät den Sultan bezüglich malaiischer Bräuche und Staatszeremonien. Im Staatsrat sind vor allem Vertreter des traditionellen Adels vertreten; er dient dem Sultan vor allem dazu, die Loyalität des Adels sicherzustellen. Im Gesetzgebenden Rat hat der Sultan das Initiativrecht. Der Gesetzgebende Rat hat das Recht, Gesetze zu beurteilen und den Haushaltsentwurf zu begutachten. Der Sultan darf sich jedoch über das Urteil des Gesetzgebenden Rates hinwegsetzen und abgelehnte Gesetze trotzdem in Kraft bringen. Die 33 Mitglieder des Gesetzgebenden Rates werden teilweise vom Sultan ernannt, teilweise sind sie aufgrund ihres Amtes Mitglieder des Rates, teilweise werden sie indirekt von den Vorstehern der Dörfer und Distrikte gewählt. Von den 33 derzeitigen Mitgliedern (Stand 2017) des Gesetzgebenden Rates wurden 20 vom Sultan ernannt; die anderen 13 sind Mitglieder von Amts wegen, nämlich der Sultan, der Kronprinz und elf Minister. Von den 33 Ratsmitgliedern sind drei Frauen. Die Legislaturperiode liegt im Ermessen des Sultans. Die Mitglieder aller anderen Räte werden vom Sultan ohne Mitsprache anderer staatlicher Organe bestimmt und entlassen.
Seit der Verfassungsänderung von 2004 und 2006 wird jegliche Proklamation des Sultans sofort geltendes Recht. Die Zustimmung der Legislativen ist dafür nicht erforderlich; auch die Verfassung kann vom Sultan per Proklamation geändert werden. Eine richterliche Prüfung von Gesetzen oder Verordnungen ist nicht vorgesehen.
Parteien und Wahlen
Die erste und bisher einzige Partei, die es in der Geschichte Bruneis geschafft hat, ein politisches Programm, eine Organisationsstruktur und nennenswerte Mitgliederzahlen zu haben, war die pan-bornesische Bruneiische Volkspartei. Sie war auch die einzige Partei, die mit eigenen Mitgliedern zu Wahlen angetreten ist. Nach der Rebellion von 1962 wurde die Volkspartei verboten.
Erst seit 1985 ist es wieder erlaubt, Parteien zu gründen. Dazu ist eine Zulassung des Innenministeriums notwendig, die jederzeit widerrufen werden kann. Die Parteien müssen dem Ministerium jährlich Rechenschaft über ihre Aktivitäten ablegen. Alle Personen, die im Militär, bei der Polizei oder im öffentlichen Dienst beschäftigt sind, dürfen keiner Partei beitreten. Aus diesen Gründen gibt es nur wenige Kleinparteien mit wenigen Hundert Mitgliedern, die vom Sultan aus außenpolitischen Erwägungen geduldet werden.
In Brunei werden die Dorf- und Distriktsvorsteher gewählt, wobei keine Parteien, sondern Einzelpersonen zur Wahl antreten. Einige Mitglieder des Gesetzgebenden Rates werden von den Dorf- und Distriktsvorstehern gewählt.
Rechtssystem
Das bruneiische Rechtssystem kombiniert das britische Common Law mit islamischen Rechtsvorschriften. Es unterhält ein dreistufiges Gerichtssystem, wobei die Richter vom Sultan ernannt werden. Es gibt kein Verfassungsgericht, da der Sultan alle Gesetze und die Verfassung nach Gutdünken ändern kann. Ebenso gibt es keinerlei Möglichkeiten, gegen den Sultan oder den bruneiischen Staat vorzugehen, wenn man als Bürger seine Rechte verletzt sieht.
Die Scharia-Gerichte wurden zwischen 1998 und 2000 eingeführt. Später wurde die Anwendbarkeit der Scharia auf die gesamte Bevölkerung – auch die nicht-muslimische – ausgedehnt. Auch hier gilt, dass es ein dreistufiges Gerichtssystem gibt, dessen Oberster Richter der Sultan ist. Sofern es Konflikte in den Entscheidungen zwischen Scharia-Gerichten und weltlichen Gerichten gibt, so geht die Entscheidung des Scharia-Gerichtes vor. In Brunei kann die Todesstrafe als höchste Strafe verhängt werden. Sie wurde seit Einführung der verschärften Scharia-Gesetzgebung 2014 und auch unter westlichem Recht seit der Unabhängigkeit 1984 nicht vollstreckt. Das Gleiche gilt für die in der Scharia vorgesehenen Körperstrafen.
Der Sultan, die bruneiische Königsfamilie und alle Personen, die im Auftrag des Sultans handeln, genießen unbeschränkte Immunität.
Dem bruneiischen Rechtssystem wird ein hoher Grad an Professionalität bescheinigt, was teilweise dadurch bedingt ist, dass viele bruneiische Juristen in Malaysia oder England studieren. Im Rechtsstaatsindikator der Weltbank nimmt Brunei trotz Scharia und Immunität der Herrscherfamilie einen relativ guten Platz ein.
Scharia
Nach der Erlangung der Unabhängigkeit von Großbritannien im Jahr 1984 trat in Brunei ein Strafgesetz in Kraft, das auf dem islamischen Scharia-Gesetz und dem britischen Common Law beruht.
Im April 2014 wurden die Gesetze dahingehend geändert, dass die Todesstrafe durch Steinigung wieder regelmäßig durchgeführt werden kann. Mit dem Tode bestrafbar sind demnach Mord, Raub, Vergewaltigung, Ehebruch sowie außereheliche sexuelle Beziehungen zwischen Muslimen, aber auch Schmähung des Korans und öffentlicher Abfall vom Islam sowie Homosexualität. Der Sultan des Landes äußerte dazu: „Brunei als ein von Allah gesegnetes Land braucht keine Genehmigung von wem auch immer, um den Islam als nationale Religion zu wollen. Genauso wenig fragen wir, wenn wir die Scharia als Grundlage des Rechtes einführen. Allah weist uns den richtigen Weg.“ Die Strafen würden auch Nichtmuslime treffen. Beobachter werten dies als Zugeständnis an die islamistischen Kräfte des Landes.
Alkohol
Der Verkauf und der öffentliche Konsum von Alkohol sind verboten. Ausländern und Nichtmuslimen ist es erlaubt, 12 Dosen Bier und 2 Flaschen anderen Alkohols (beispielsweise Wein oder Spirituosen, es wird nicht nach Alkoholgehalt unterschieden) in das Land einzuführen. Diese Regelung galt pro Einreise in das Land, allerdings ist seit 2007 eine erneute Einfuhr frühestens 48 Stunden nach der letzten Einreise erlaubt. Nach der Einführung dieser Regelung Anfang der 1990er Jahre wurden Alkohol vertreibende Gaststätten und Nachtclubs geschlossen, in touristischen Hotels wird Alkohol jedoch weiterhin ausgeschenkt.
Einschränkung der Religionsfreiheit
Religionsfreiheit ist durch die Verfassung garantiert, andere Gesetze und Verordnungen schränken dieses Recht jedoch wirksam ein. So ist Anhängern nicht-islamischer Religionen die Verbreitung des eigenen Glaubens verboten. Die Einfuhr von nicht-islamischen Texten wie Bibeln und bestimmtem islamischem Lehrmaterial ist zollrechtlich eingeschränkt. Zudem darf Weihnachten nicht öffentlich gefeiert und ein anderer Glaube in Schulen nicht unterrichtet werden. Eine Heirat zwischen Muslimen und Nicht-Muslimen ist verboten.
Homosexualität
2014 wurde die erste Phase des Bestrafungskatalogs gemäß der Scharia eingeführt. Sie sieht die Todesstrafe für bestimmte Vergehen, Prügelstrafe und Amputationen vor. Im März 2019 wurde eine weitere Verschärfung bestätigt. Damit ist auch die Todesstrafe bei Homosexualität möglich. Homosexuelle sollen hierbei unter Berufung auf das islamische Recht zu Tode gesteinigt werden.
Politische Indizes
Außenpolitik
Brunei ist ein aktives Mitglied der südostasiatischen Staatengemeinschaft ASEAN. Das Sultanat ist inzwischen Mitglied in rund 40 internationalen Organisationen, neben den Vereinten Nationen, zum Beispiel in der Organisation für Islamische Zusammenarbeit (OIC), der Weltgesundheitsorganisation (WHO), der UNESCO, der Asiatischen Entwicklungsbank (ADB) und der Bewegung der Blockfreien Staaten (NAM). Weitere Anträge auf Mitgliedschaften in internationalen Organisationen sind gestellt. Dies und die enge Sicherheitszusammenarbeit mit Singapur sind Teil der Maßnahmen, mit denen Brunei seine Souveränität sicherstellt.
Der Organisation erdölexportierender Länder ist Brunei nicht beigetreten. Zu den Monarchien des Nahen Ostens unterhält Brunei gleichwohl engste Beziehungen, wegen der heiligen Stätten vor allem zu Saudi-Arabien. Das Land pflegt traditionell enge Beziehungen zur ehemaligen Protektoratsmacht Großbritannien, einschließlich guter Beziehungen der beiden Monarchien. Es unterhält gute Beziehungen zu den USA, den Mitgliedstaaten der Europäischen Union, zu Australien und Neuseeland sowie zu Russland. Intensiver wurde in jüngster Zeit nicht nur das Verhältnis zur Volksrepublik China, sondern auch zu Japan und Korea. Brunei achtet gleichwohl darauf, dass insbesondere in wirtschaftlicher Hinsicht das Verhältnis zu allen ostasiatischen Partnern ausgewogen bleibt.
Indien und Thailand nehmen gegenwärtig jeweils rund 20 % der bruneiischen Ölproduktion von 120 000 Barrel pro Tag ab. Auf der Basis langfristiger Verträge nimmt Japan zurzeit rund 75 % der bruneiischen LNG-Produktion ab. China wirbt in jüngster Zeit intensiv um das Sultanat und ist inzwischen mit annähernd 30 Unternehmen im Sultanat präsent. Schwerpunkte sind der Ausbau der Infrastruktur, Landwirtschaft und Nahrungsmittelproduktion. Brunei ist an einem Ausbau der wirtschaftlichen Beziehungen mit Peking interessiert und verfolgt daher eine Politik der Mäßigung, der Einbeziehung und des Entgegenkommens. Bezüglich der Unstimmigkeiten einiger ASEAN-Partner mit China im Südchinesischen Meer nimmt Brunei eine pragmatische, vermittelnde Position ein.
Fundament der Außenpolitik Bruneis sind Prinzipien wie „Nicht-Einmischung“ und „Konsens“ – letzteres gilt vor allem für die multilaterale Arbeit des Sultanats. Neben der ASEAN-Gemeinschaft ist daher der wichtigste außenpolitische Bezugsrahmen die Zusammenarbeit im Kreis der Bewegung der Blockfreien Staaten.
Öl- und Gasreichtum sowie hohe Rückflüsse aus Auslandsinvestitionen durch den von der „Brunei Investment Agency“ (BIA) verwalteten Staatsfonds verschaffen dem Land trotz seiner geringen Größe beachtlichen Reichtum und politische Einflussmöglichkeiten.
Die Grenzstreitigkeiten mit Malaysia wurden im Jahre 2009 beigelegt.
Militär
Brunei kann sich dank seiner Rohstoffvorkommen einen relativ kostspieligen Sicherheitsapparat leisten. Das Land verfügt mit den Streitkräften, der paramilitärischen Gurkha Reserve Unit und der Polizei, die auch paramilitärische Einheiten umfasst, über drei Dienste zum Zwecke der Sicherheit. Insgesamt gab Brunei in den letzten Jahren durchschnittlich etwa 15 % seines Staatshaushaltes für die Sicherheit aus; in Südostasien hat nur Singapur höhere Pro-Kopf-Sicherheitsausgaben als Brunei. Insgesamt sind Personen direkt in einem der Sicherheitsdienste tätig.
Das Militär Bruneis bestand im Jahre 2013 aus etwa Soldaten und Offizieren. Soldaten dürfen ausschließlich ethnische Malaien sein. Während die Personalkosten etwa 60 Prozent des Budgets für das Militär ausmachen, investiert Brunei auch in hochentwickelte Waffensysteme. Der Anteil der Militärausgaben schwankte in den letzten Jahren zwischen 6 Prozent und 2,5 Prozent, wobei die Schwankung nicht aus den Ausgaben, sondern aus den Erlösen für Öl und Gas stammten. Die Aufgabe des Militärs besteht in der Verteidigung des Landes vor Angriffen von außen, in der Unterstützung der zivilen Behörden im Katastrophenfall und in der Aufrechterhaltung der Ordnung im Inneren. Das bruneiische Militär nahm in den letzten beiden Jahrzehnten an mehreren UN-Missionen teil und unterhält eine enge Zusammenarbeit mit dem singapurischen Militär.
Die Gurkha Reserve Unit dient mit 500 bis 2000 Mann zum Schutz des Seria-Ölfeldes, von öffentlichen Einrichtungen und als Leibwache für den Sultan. Sie ist das Gegenstück zur Armee für den Fall, dass die Armee sich nicht loyal gegenüber dem Sultan verhält, und sie ist für eventuell notwendige Repression von Regimegegnern zuständig. Zu den Aufgaben der Polizei gehört unter anderem die Abwehr terroristischer Gefahren, sie hat jedoch auch die Möglichkeit, Kritiker ohne Anklage in Gewahrsam zu nehmen. Die Kriminalität ist gering, weshalb Gewalt oder Repression der etwa Polizisten gegen die Bevölkerung selten ist.
Verwaltungsgliederung
Brunei gliedert sich in vier Distrikte (malaiisch daerah) und Stadtbereiche, die wiederum in Bezirke (malaiisch mukim), Dörfer (malaiisch kampong) und Orte mit Langhäusern untergliedert sind. Mit Stand März 2019 hat Brunei vier Distrikte und 39 Bezirke.
Die Vorsteher der Dörfer, Langhaussiedlungen und Bezirke werden von den lokalen Bevölkerungen gewählt; Kandidaten müssen jedoch von der Regierung genehmigt werden. Sie unterstehen dem Innenministerium, das ihnen gegenüber weisungsbefugt ist. Ihre Funktion besteht primär darin, zwischen Regierung und Bevölkerung zu vermitteln.
Wirtschaft
Das Bruttoinlandsprodukt (BIP) für 2020 wird auf 12 Milliarden US-Dollar geschätzt. In Kaufkraftparität beträgt das BIP 29 Milliarden US-Dollar oder 64.715 US-Dollar je Einwohner. In der Rangliste der Länder nach ihrem BIP pro Kopf liegt Brunei damit auf Platz 9 und auf Platz 2 in Südostasien hinter Singapur.
Das Entwicklungsprogramm der Vereinten Nationen zählt Brunei zu den Ländern mit sehr hoher menschlicher Entwicklung. Öl- und Gas-Einnahmen tragen bereits seit vielen Jahren mehr als die Hälfte zum BIP bei, ihr Anteil schwankte zwischen 76,1 Prozent im Jahre 1985, 57,5 Prozent im Jahre 2000 und 68,3 Prozent im Jahre 2011. Sie machen 95 Prozent der Exporteinkünfte sowie 90 Prozent der Staatseinnahmen aus. Die Förderung von Erdöl sinkt weiter und beträgt gegenwärtig rund 130 000 Barrel pro Tag, weniger als die Hälfte der Produktion von 2007. Die Erdgasproduktion verharrt seit drei Jahren auf ca. 1,2 Mrd. Kubikfuß pro Tag. Gleichwohl ist Brunei entschlossen, ab 2018 wieder Steigerungen in der Öl- und Gasproduktion zu erzielen. Brunei verfügt über nach wie vor hohe Reserven, per 1. Januar 2012 wurden sie auf 1,1 Milliarden Barrel Erdöl und 390 Milliarden Kubikmeter Erdgas geschätzt. Brunei kann seinen Rentenstaat dadurch noch auf viele Jahre finanzieren und hat keinerlei Anreize, seine Wirtschaft zu diversifizieren oder zu modernisieren.
Die Wirtschaft Bruneis wächst im regionalen Vergleich stark unterdurchschnittlich und schrumpft gegenwärtig im dritten Jahr in Folge. Die Wachstumsrate betrug 2015 real −0,6 Prozent. Es gibt weiterhin bürokratische Hindernisse bei der Suche nach Wachstumschancen außerhalb des Energiesektors. Hinzu kommt eine wachsende Arbeitslosigkeit, die in neueren amtlichen Statistiken mit rund 9 Prozent ausgewiesen wird. Dazu kommt weiter steigende Jugendarbeitslosigkeit und eine verdeckte Arbeitslosigkeit durch Überbeschäftigung im öffentlichen Dienst.
Am 28. Januar 2016 legte die Europäische Kommission ein Maßnahmenpaket zur Bekämpfung von Steuerflucht vor, bei dem unter anderem Brunei auf der schwarzen Liste der Steueroasen auftaucht.
Im Global Competitiveness Index, der die Wettbewerbsfähigkeit eines Landes misst, belegt Brunei Platz 46 von 137 Ländern (Stand 2017–2018). Im Index für wirtschaftliche Freiheit erreichte das Land 2020 Platz 61 von 180 Ländern.
Kennzahlen
Alle BIP-Werte sind in US-Dollar (Kaufkraftparität) angegeben.
Bodenschätze
Bruneis Wirtschaft profitiert von enormen Erdgasfeldern und Erdölvorkommen, die dem Staat eines der höchsten Prokopfeinkommen von Südostasien verschafften. 2005 betrug das Bruttoinlandsprodukt pro Kopf etwa 16.000 US-Dollar, bei einem Anteil von Öl- und Gasförderung von 55,9 Prozent. 2010 betrug das BIP pro Kopf bereits über 31.000 US-Dollar. Die ersten Ölfelder wurden 1929 bei Seria entdeckt. In den 1950er Jahren wurden auch die Offshore-Vorkommen erschlossen. Die Förderung liegt in den Händen der Firma Brunei Shell Petroleum, an der die Regierung mit 50 % beteiligt ist. Das Rohöl wird überwiegend nach Japan, Südkorea, Taiwan und in die Vereinigten Staaten exportiert. Erdgas wird in einer der weltweit größten Anlagen in Lumut verflüssigt und nach Japan verkauft.
Landwirtschaft
Die Lebensmittel für die Bevölkerung werden zu ungefähr 80 Prozent importiert, es gibt aber Bestrebungen, auf dem Gebiet der Landwirtschaft eine Selbstversorgung zu erreichen. Die einheimische Landwirtschaft produziert Reis, Obst und Gemüse. Von geringer wirtschaftlicher Bedeutung sind die Produktion von Kautschuk sowie die Gewinnung und Verarbeitung von Pfeffer und Tierhäuten.
Außenhandel
Die Währung von Brunei ist der Brunei-Dollar mit 100 Cent. Sein Wechselkurs ist im Verhältnis zum Singapur-Dollar auf 1:1 eingefroren. In Brunei sind die Banknoten beider Länder als Zahlungsmittel anerkannt und werden in Geschäften auch akzeptiert.
Seit 2006 besteht unter dem Namen P4 Agreement eine Freihandelszone zwischen Brunei, Chile, Neuseeland und Singapur. Zudem ist das Land Mitglied in der ASEAN-Freihandelszone.
Staatshaushalt
Der Staatshaushalt umfasste 2016 Ausgaben von umgerechnet 4,61 Milliarden US-Dollar, dem standen Einnahmen von umgerechnet 2,95 Milliarden US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 10,4 Prozent des Bruttoinlandsprodukts.
In Brunei gibt es keine Staatsverschuldung. Der Staatshaushalt speist sich – je nach Weltmarktpreisen für Öl und Gas – zu 70 bis 93 Prozent aus den Einnahmen des Öl- und Gasgeschäftes. Die staatlichen Reserven werden von der Brunei Investment Agency, die dem Finanzministerium zugeordnet ist, verwaltet.
2006 betrug der Anteil der Staatsausgaben (in % des BIP) folgender Bereiche:
Gesundheit: 1,9 Prozent
Bildung: 5,2 Prozent (2000)
Militär: 4,5 Prozent
Die wirtschaftlichen Aktivitäten des bruneiischen Herrscherhauses sind nicht Teil des Staatshaushaltes. Diese Aktivitäten sind absolut intransparent und von Außenstehenden nicht einsehbar. Über diese Aktivitäten liegen keinerlei Daten vor.
Die Einnahmen aus dem Erdöl- und Erdgasverkauf erlauben es Brunei, auf eine Besteuerung seiner Bürger weitgehend zu verzichten. Darüber hinaus stehen das Bildungs- und Gesundheitssystem kostenlos zur Verfügung. Die Regierung vergibt Hochschulstipendien, unterhält einen großen öffentlichen Sektor und Staatsunternehmen, die attraktive Gehälter bezahlen, und subventioniert Treibstoff, Wohnraum und Nahrungsmittel. Damit erkauft sich das Herrscherhaus die Loyalität seiner Bürger und verhindert, dass Forderungen nach politischen Änderungen oder ein Wunsch nach Mitsprache aufkommen.
Infrastruktur
Verkehr
Das Verkehrsnetz umfasst 2819 Kilometer Straßen und 13 Kilometer Eisenbahn. Die bedeutendsten Häfen sind Bandar Seri Begawan, Kuala Belait und Muara.
Brunei hat eine eigene Fluggesellschaft, die Royal Brunei Airlines. Der Flughafen Brunei International befindet sich im Nordosten des Sultanats im Muara-Distrikt.
Feuerwehr
In der Feuerwehr in Brunei waren im Jahr 2019 landesweit 987 Berufs- und 1695 freiwillige Feuerwehrleute organisiert, die in 16 Feuerwachen und Feuerwehrhäusern, in denen acht Löschfahrzeuge und 18 Drehleitern bzw. Teleskopmasten bereitstehen, tätig sind. Die bruneiischen Feuerwehren wurden im selben Jahr zu 2053 Brandeinsätzen alarmiert. Hierbei wurden eine tote Person von den Feuerwehren geborgen und sechs Verletzte gerettet. Die nationale Feuerwehrorganisation Jabatan Bomba dan Penyelamat des Innenministeriums repräsentiert die bruneiische Feuerwehr mit ihren Feuerwehrangehörigen.
Kultur – Medien
Das Recht auf freie Information und Meinungsäußerung unterliegt in Brunei starken Einschränkungen. Es müssen sich alle Medien registrieren lassen. Alle Zeitungen und Zeitschriften benötigen eine Lizenz des Innenministeriums, die jährlich erneuert werden muss. Zwei der drei bruneiischen Zeitungen sind im Besitz des Sultans.
Das staatliche Hörfunk- und Fernsehprogramm wird von Radio Television Brunei produziert. Zudem gibt es mit KRISTALfm einen privaten Radiosender.
In Brunei werden drei Zeitungen herausgegeben:
Regierungszeitung Pelita Brunei (14-täglich; in malaiischer Sprache)
Media Permata (Tageszeitung; malaiisch) – herausgegeben von Brunei Press Sdn Bhd
Borneo Bulletin (Tageszeitung; in englischer Sprache) – herausgegeben von Brunei Press Sdn Bhd
Bis 2016 gab es mit The Brunei Times eine weitere englischsprachige Tageszeitung.
Brudirect.com ist das größte Online-Nachrichtenportal für Brunei.
Brunei Press Sdn Bhd ist ein Privatunternehmen im Besitz des Sultans.
Im Jahr 2020 nutzten 95 Prozent der Einwohner Bruneis das Internet.
Literatur
Aurel Croissant: Die politischen Systeme Südostasiens: eine Einführung. Springer VS, Wiesbaden 2016, ISBN 978-3-531-14349-1.
Roderich Ptak: Brunei Darussalam. In: Bernhard Dahm, Roderich Ptak (Hrsg.): Südostasien-Handbuch. Geschichte, Gesellschaft, Politik, Wirtschaft, Kultur. Beck, München 1999, ISBN 3-406-45313-9, S. 219–228.
Jatswan S. Sidhu: Historical dictionary of Brunei Darussalam. Rowman & Littlefield, Lanham 2017, ISBN 978-1-4422-6458-8.
Weblinks
Offizielle Webpräsenz des Sultanats Brunei (englisch)
Länderinformationen des deutschen Auswärtigen Amtes zu Brunei
Ausführliche Länderinformation auf goruma.de
Einzelnachweise
Staat in Asien
Kolonialgeschichte Asiens
Mitgliedstaat der Vereinten Nationen
Wikipedia:Artikel mit Video
Inselstaat
Ehemaliges Hoheitsgebiet ohne Selbstregierung
Mitgliedstaat des Commonwealth of Nations
Mitgliedstaat der ASEAN
Sultanat
|
Q921
| 2,228.654828 |
43130
|
https://de.wikipedia.org/wiki/Heraldik
|
Heraldik
|
Heraldik (aus französisch heraldique, lateinisch heraldica, beides hergeleitet aus Herold) ist die Lehre von den Wappen und ihrem Gebrauch. Die Gestaltung der Wappen, der Umgang mit diesen und gegebenenfalls die rechtlichen Regelungen unterscheiden sich nach Raum, Zeit, sozialem Milieu und teilweise auch nach einzelnen Institutionen. Dementsprechend spricht man z. B. von schottischer Heraldik im Unterschied zur englischen oder von kirchlicher Heraldik im Unterschied zur weltlichen. Historisch war die Heraldik eng mit den Institutionen verbunden, die die Vergabe von Wappen kontrollieren und damit verbundene Konflikte regeln, insbesondere den Heroldsämtern. Dabei sind drei wichtige Teilbereiche zu unterscheiden:
Blasonieren: Für die fachgerechte Beschreibung von Wappen hat die Heraldik eine eigene Fachsprache entwickelt, siehe Liste heraldischer Begriffe.
Wappenkunst: Die Wappenkunst ist die Gestaltung von Wappen nach heraldischen Regeln.
Wappenrecht: In vielen Gesellschaften waren oder sind auch rechtliche Vorschriften für die Nutzung von Wappen zu beachten.
Seit dem späten 19. Jahrhundert teilt sich die Heraldik im deutschsprachigen Raum in zwei zunehmend getrennte Disziplinen:
Die Heraldik als historische Disziplin beschäftigt sich mit historischen Wappen als Quellen der Geschichtswissenschaft, der Überlieferung von Wappendarstellungen und heraldischen Texten und ihren Deutungsmöglichkeiten. Als Teil der Historischen Hilfswissenschaft ist sie an einigen deutschen Universitäten vertreten.
Die Heraldik als normative Disziplin trifft regelbasierte Entscheidungen darüber, wie Wappen zu gestalten und darzustellen sind und gibt Auskunft darüber, wer diese Wappen wie nutzen soll. Heraldik in diesem Sinne wird heute vor allem von heraldischen Vereinen und freiberuflichen Wappenkünstlern betrieben. Sie beschäftigt sich vor allem mit Familienwappen in der Gegenwart.
Geschichte
Die Entstehung der Heraldik (12. bis 14. Jahrhundert)
Die Heraldik als eine eigene Disziplin hat sich allmählich entwickelt, nachdem Wappen weit verbreitet waren. Diese kamen in Nordwesteuropa im 12. Jahrhundert auf; die ersten Belege stammen aus dem Hochadel im heutigen Nordfrankreich und England. Relativ schnell wurden Wappen aber auch von anderen Gruppen genutzt, insbesondere von Kommunen, Niederadeligen und in der Kirche (Bistumswappen). Wappen wurden in militärischen Kontexten genutzt, als Hoheitszeichen, auf Siegeln und Münzen sowie zu vielen anderen Zwecken. (Siehe den Hauptartikel: Wappen.)
Das früheste Indiz für die Entstehung der Heraldik ist die Ausbildung einer eigenen Terminologie zur Beschreibung von Wappen in England und Nordfrankreich ab dem 13. Jahrhundert. Andere Quellen, die über eine explizite Beschäftigung mit Wappen berichten, fehlen für das 13. Jahrhundert vollständig und auch für das 14. Jahrhundert weitgehend. Zwar wird bereits Ende des 12. Jahrhunderts im Chevalier de la charrette ein Herold (hyraut) erwähnt, und die Episode legt auch nahe, dass ein Herold in dieser Zeit den Träger eines Wappen erkennen sollte (wenngleich der Herold im Chevalier daran kläglich scheitert). Aus solchen literarischen Quellen kann man aber nicht schließen, dass Herolde bereits im 12./13. Jahrhundert Experten für Wappen waren oder gar den Gebrauch derselben kontrollierten. Es gibt aus dieser Zeit auch keine Schriftquellen, in denen heraldische Regeln formuliert worden wären.
Im Reich nördlich der Alpen gibt es ab dem 13. Jahrhundert Hinweise auf garzûne und kroijiaere, die wie Herolde als Boten und Diplomaten fungierten und auch Turniere ausrichteten, aber keine Hinweise auf eine heraldische Fachsprache. Die meisten frühen Werke aus dem Reich, die von Wappen, ihrer Beschreibung und ihrem Gebrauch handeln, stammen jedenfalls nicht von Herolden. Der Zürcher Chorherr Konrad von Mure komponierte 1264 den Clipearius Teutonicorum, ein lateinisches Lehrgedicht mit zahlreichen Wappenbeschreibungen. Zahlreiche Wappenbeschreibungen finden sich auch verstreut im Trojanerkrieg des Konrad von Würzburg († 1287). Die in beiden Werken vorkommenden Wappen entsprechen aber keineswegs den späteren heraldischen Regeln und die Beschreibungen lassen auch nur begrenzt den Gebrauch von Fachausdrücken erkennen.
In Italien sind Herolde erst spät belegt, das Wappenwesen war aber ab dem 13. Jahrhundert sehr hoch entwickelt. Familien, Zünfte, Kommunen, Stadtteile, die Parteien der Guelfen und Ghibellinen und andere Gruppen nutzten jeweils eigene Wappen. Die Stadt Florenz kontrollierte im Spätmittelalter die Verwendung von kommunalen und teilweise auch von Familienwappen. Giovanni Villani († 1348) beschreibt in seiner Chronik ausführlich Wappen und verwendet dabei fachsprachliche Ausdrücke; er flocht auch Erzählungen zum Ursprung von Wappen ein, wie sie später in der heraldischen Fachliteratur üblich werden. Bartolo da Sassoferrato, der vermutlich berühmteste Jurist des 14. Jahrhunderts, verfasste mit seinem Traktat De insigniis et armis die erste Abhandlung, die sich ausdrücklich mit Wappen beschäftigte. Der Traktat wurde handschriftlich und später im Druck in ganz Europa verbreitet. Bartolo begründete darin das Prinzip der freien Wappenzulegung mit Grundsätzen des römischen Rechts, diskutierte aber auch Einschränkungen: Unter bestimmten Umständen, so Bartolo, konnte der Inhaber eines Wappens anderen untersagen lassen, sich das gleiche Wappen zuzulegen, wenn ihm (dem Kläger) sonst ein Schaden entstehe. Der Traktat enthält auch einige (wohl nicht von Bartolo stammende) Anmerkungen zur Darstellung von Wappen, z. B. zur Darstellung von Tieren als Gemeine Figuren und zur Wertigkeit verschiedener Farben: Gold und Purpur bzw. Rot seien die "edelsten" Farben.
Institutionalisierung der Heraldik im 15. und frühen 16. Jahrhundert
Seit dem 14. Jahrhundert institutionalisierte sich das Heroldswesen deutlich. In England, Frankreich, Burgund und den heutigen Niederlanden sind schon im 14. Jahrhundert nicht nur einzelne Herolde mit Amtsnamen, sondern auch Wappenkönige nachweisbar. Im Reich nördlich der Alpen ist im 15. Jahrhundert ebenfalls eine lockere Hierarchie verschiedener Herolde (mit Romrich als oberstem königlichen Herold) erkennbar. In den westeuropäischen Monarchien bildeten sich im ausgehenden Mittelalter Heroldsämter aus, die die Vergabe von Wappen kontrollierten und in Konfliktfällen Entscheidungen trafen. Den höchsten Grad der Institutionalisierung erreichte die Heraldik dabei in England. Hier entstand 1484 das heute noch bestehende College of Arms. Auch im Reich gab es um 1500 teilweise die Vorstellung, dass (neue) Wappen von Herolden kontrolliert werden sollten, was in der Praxis allerdings nicht geschah.
Aus der zweiten Hälfte des 15. Jahrhunderts stammen auch die meisten Heroldskompendien, von denen zumindest einige auch heraldische Traktate beinhalten. Diese Traktate behandeln unter anderem den oft in der Antike vermuteten Ursprung der Wappen, die fachgerechte Beschreibung derselben, die Wertigkeit der Farben und die Deutung von einzelnen Figuren. Auch die meisten Wappenbücher, die überhaupt sicher mit namentlich bekannten Herolden in Verbindung gebracht werden können, entstanden vereinzelt schon um 1400 (Gelre, Beyeren), vor allem aber in den Jahrzehnten um 1500 (Ingeram, Rüxner, Caspar Sturm). Nur ein kleiner Teil der erhaltenen Wappenbücher wurde allerdings von Herolden produziert oder genutzt. Umgekehrt hatten die Herolde weiterhin viele Aufgaben, die nichts oder wenig mit Wappen zu tun hatten. Heraldisches Wissen findet sich im 15. Jahrhundert aber in einem größeren Personenkreis. Der Domkanoniker Johannes Rothe zum Beispiel verfasste Anfang des 15. Jahrhunderts einen Ritterspiegel, der auch Hinweise auf normative Vorstellungen gibt, wie ein "richtiges" Wappen aussehen soll.
Insgesamt waren die Jahrzehnte um 1500 eine Blütezeit des Wappenwesens, insofern Wappen in fast ganz Europa sehr weit verbreitet waren und viele Funktionen hatten; während in vielen westeuropäischen Reichen Herolde Kontrollfunktionen ausübten, ist aus Deutschland zu dieser Zeit vergleichsweise wenig an Heraldik im Sinne einer professionellen Beschäftigung mit Wappen und ihrer Führung zu erkennen. Am kaiserlichen Hof war, vor allem zur Zeit Friedrichs III., sicher eine hohe heraldische Kompetenz vorhanden, und auch andere Fürstenhöfe, viele Städte, einige Klöster, adelige Genossenschaften, die Hofpfalzgrafen sowie einzelne Herolde verfügten über entsprechendes Wissen. Im Vergleich zu Westeuropa und vor allem England war das Wappenwesen im Reich aber deutlich weniger geregelt und die Heraldik nur schwach institutionalisiert. Wappenbriefe wurden zum Beispiel vom römischen König bzw. Kaiser, aber auch anderen Fürsten und zahlreichen Hofpfalzgrafen sowie gelegentlich vom Papst ausgestellt, und die freie Annahme von Wappen blieb üblich; eine Kontrolle auch nur der neu angenommenen Wappen war unter diesen Umständen beinahe unmöglich.
Heraldik in Deutschland und Europa in der Frühen Neuzeit
In der gesamten Frühen Neuzeit waren Wappen unverändert ein wichtiger Bestandteil der Adelskultur. Auch in der gelehrten Beschäftigung mit Wappen herrschte inhaltlich Kontinuität vor, methodisch entwickelte sich die Heraldik sehr langsam zu einer gelehrten Disziplin. Im Reichsgebiet gab es allerdings weiterhin kaum zentrale Institutionen der Heraldik; allenfalls an der Reichshofkanzlei entwickelten sich eigene heraldische Standards.
Heraldik war weiterhin eng mit der Genealogie verbunden; gelehrte Beiträge stammten nicht zuletzt von Juristen, die mit Wappen und Stammbäumen schon deshalb zu tun hatten, weil sie Beweismittel für den adeligen Stand einer Person sein konnte. In diesem Sinne war die Heraldik eine Hilfswissenschaft der Rechtswissenschaft und konnte in diesem Rahmen auch an Universitäten gelehrt werden. An Ritterakademien wurde ebenfalls Heraldik gelehrt. Nur vereinzelt formulierten diese Gelehrten auch Regeln zur korrekten Gestaltung von Wappen. Dominante Themen waren vielmehr der "Ursprung" der Wappen, (adels-)rechtliche Fragen und allegorische Auslegungen einzelner Figuren und Farben.
Als Begründer einer wissenschaftlichen Heraldik im deutschsprachigen Raum gilt Philipp Jacob Spener († 1705), der bei der Deutung von Wappen in dem Sinne historisch vorging, dass er die Umstände der Entstehung und Änderung der Wappen und ihrer einzelnen Elemente zum Ausgangspunkt nahm. Der Universalhistoriker Johann Christoph Gatterer († 1799) behandelte die Heraldik als historische Hilfswissenschaft und verschaffte ihr damit eine Stellung innerhalb der universitären Geschichtswissenschaft seiner Zeit.
Das 19. Jahrhundert und die Erneuerung der Heraldik in Deutschland
Im 19. Jahrhundert gab es in den meisten europäischen Ländern eigenständige heraldische Traditionen, die oft durch eigene gesetzliche Regeln und Institutionen bestimmt wurden. Im deutschen Sprachraum ist in dieser Zeit allgemein ein verstärktes Interesse an Wappen und Heraldik zu beobachten. Im Kontext von Säkularisierung, Verfassungsänderungen und anderen politischen Umbrüchen änderten viele Staaten ihre eigenen Wappen, teils mehrfach (Bayern zum Beispiel änderte allein zwischen 1799 und 1806 viermal sein Wappen). Die Wappenführung des Adels wurde vor allem im Kontext von Adelsmatrikeln kontrolliert, die Verleihung von Wappen an Bürgerliche stärker verrechtlicht. Kommunale Wappen wurden ebenfalls stärker kontrolliert und teilweise zwangsweise geändert. Diese Entwicklungen waren teilweise von starken Konflikten begleitet; Adelsfamilien, Kommunen und Regionen entdecken gerade angesichts staatlicher Eingriffe den Wert von Wappen neu. Vor allem in der zweiten Hälfte des 19. Jahrhunderts verband sich dies einerseits mit einem größeren Interesse an mittelalterlicher Geschichte und andererseits mit der nun auch im Bürgertum wachsenden Interesse an Genealogie und adeligen Repräsentationsformen. Sowohl die staatlichen Kontrollversuche als auch die eher affirmativen Beschäftigungen mit den jeweils eigenen Wappen schuf eine deutliche Nachfrage nach heraldischen Einführungen, gedruckten Wappenbüchern und historischen Arbeiten. Bereits Zeitgenossen erklärten den Aufschwung des Wappenwesens mit dem Beitrag von Wappen und ihrer patrilinearen Weitergabe zum "Familiensinn". Die Ahnentafel, die bei der Verwissenschaftlichung der Genealogie im 19. Jahrhundert eine wichtige Rolle spielte, wurde oft heraldisch gestaltet.
Ab der Mitte des 19. Jahrhunderts eine neue Heraldik, die die frühneuzeitliche Heraldik scharf ablehnte („Zopfheraldik“) und stattdessen einerseits das mittelalterliche Wappenwesen als vorbildlich erklärte, andererseits eine Systematisierung der Heraldik durch eine einheitliche (nun erstmals deutsche) Fachterminologie, heraldische Regeln und begleitende historisch-genealogische Forschung forderte. Das zentrale Projekt dieser Heraldiker war der sogenannte Neue Siebmacher, dessen Bände ab 1854 erschienen. Wichtige, für die Heraldik und Genealogie auch des 20. Jahrhunderts prägende Vertreter waren Karl von Hohenlohe-Waldenburg, Otto Titan von Hefner, Gustav Adelbert Seyler, Maximilian Gritzner, Adolf Matthias Hildebrandt und etwas später Otto Hupp. Neben einer sehr großen Zahl von Wappenbüchern, die Wappen der eigenen Gegenwart zusammenstellten, erstellten diese Heraldiker auch Musterbücher und publizierten mit großem Aufwand auch verschiedene mittelalterliche Wappenbücher als Faksimile. Viele dieser Publikationen wurden vom Starke-Verlag veröffentlicht.
Ab dem späten 19. Jahrhundert wurden verschiedene genealogisch-heraldische Vereine gegründet, die für die weitere Entwicklung der Heraldik eine große Rolle spielten. Sie sorgten durch Treffen, Kongresse und Publikationen von Zeitschriften für den Austausch innerhalb der Disziplin, popularisierten ihre Themen und stellten eine gewisse Kontinuität sicher. Letzteres war umso wichtiger, als Heraldik und Genealogie kaum an den Universitäten verankert waren. Während die Geschichtswissenschaft im späten 19. Jahrhundert eine zentrale Rolle an deutschen Universitäten innehatte und insbesondere auch Hilfswissenschaften wie die Diplomatik und Paläographie dort auf sehr hohem Niveau betrieben wurden, war Heraldik in Forschung und Lehre kaum vertreten.
Heraldik in den deutschsprachigen Ländern seit 1918
Die beiden Weltkriege, das Ende der Monarchie und die nationalsozialistische Herrschaft bedeuteten dramatische Brüche in der politischen Geschichte der deutschen Staaten in der ersten Hälfte des 20. Jahrhunderts. Gemessen daran herrschte in der Heraldik eine starke Kontinuität der Institutionen, Personen und Methoden, vor allem in Westdeutschland. Auch in ästhetischer Hinsicht gab es 1918, 1933 oder 1945 jeweils kaum Brüche; der um 1900 kanonisierte historistische Stil blieb im Gegenteil bis heute weitgehend dominant. Wohl aber veränderte die Heraldik sich in Bezug auf ihre gesellschaftliche Umwelt. Die Adelskultur, auf die sie sich stark bezogen hatte, war nicht mehr Teil der politischen Ordnung, und auch sonst konnten heraldische Werke rasch von der Geschichte überholt werden. Was als im Rahmen des Neuen Siebmacher als Sammlung der Wappen des "blühenden Adels" verschiedener Territorien des Reichs geplant und begonnen wurde, war nicht viel später ein Wappenbuch des ehemaligen Adels eines ehemaligen Teils des ehemaligen Reichs. Auch von den Monarchien, deren Wappen in der ersten Lieferung des ersten Bandes der ersten Abteilung unter dem Titel Souveraine der deutschen Bundesstaaten gesammelt wurden, waren einige bei Abschluss des Bandes 1927 nicht mehr souverän, andere nicht mehr deutsch, und keine mehr monarchisch verfasst. Angesichts einer solchen Historisierung des eigenen Gegenstandes wurde die Heraldik, bei aller Kontinuität, deutlich stärker vergangenheitsbezogen, als in den Jahrhunderten zuvor.
Während der Bezug zur Adelskultur zunehmend zu einem historischen Aspekt der Heraldik wurde, blieb die Beziehung zur Genealogie sehr eng. In der ersten Hälfte des 20. Jahrhunderts waren dabei auch völkische Vorstellungen sehr stark; innerhalb der Heraldik war hier Bernhard Koerner zeitweilig prominent. Er vertrat die These, Wappen hätten sich aus Runen entwickelt und gründete einen eigenen heraldisch-genealogischen Verein (Deutscher Roland), der eine klar völkische, antisemitische Ideologie vertrat. In der Heraldik war Koerner relativ isoliert, aber seine genealogischen Arbeiten (vor allem das Deutsche Geschlechterbuch) waren vor, während und nach dem Dritten Reich einflussreich.
Als tragende Institutionen wurden im 20. Jahrhundert die heraldischen Vereine noch wichtiger, vor allem nachdem sich der Staat bei der Regelung des Wappenwesens weitgehend auf das staatliche und kommunale Wappenwesen beschränkte. Zusätzlich zu ihren bisherigen Tätigkeiten begannen einige Vereine nach Ende der staatlichen Heroldsämter mit der Führung sogenannter Wappenrollen (gedruckte Verzeichnisse der von ihnen registrierten Wappen). Der räumliche Schwerpunkt lag dabei insgesamt eindeutig in der Schweiz und der Bundesrepublik, da in Österreich nach 1918 und in der DDR heraldische Vereine kaum mehr tätig waren.
Die Gestaltung der Wappen (Wappenkunst)
Wappenelemente
Die nebenstehende Grafik zeigt Bestandteile eines Wappens. In der Heraldik wird das Wappen aus der Sicht des Schildträgers gesehen. „Rechts“ ist die vom Betrachter aus linke Seite, „links“ ist die vom Betrachter aus rechte Seite des Wappens.
Ein einfarbiger Wappenschild kann schon ein vollständiges Wappen sein. Dieses ist jedoch ungeeignet, um die vielfältigen Standesattribute und Familienbeziehungen der Wappeninhaber auszudrücken. Sehr einfache Wappen finden sich nur bei alten und verallgemeinernden Wappen wie den Schilden der schweizerischen Landsmannschaften. In die Wappenrolle eingetragen wird dagegen ein Vollwappen, das mindestens einen Schild mit umgebenden Standeszeichen beinhaltet.
Bei Rittern sitzt regelmäßig auf dem Schild ein Helm. Der Helm mit aufsitzender Helmzier und umgebenden Helmdecken ist die häufigste Ergänzung eines Wappenschildes zum Vollwappen. Er repräsentiert den festlichen Auftritt des Ritters beim Einzug zu einem Turnier. Das Fehlen von Helmen drückt regelmäßig den nicht kämpfenden Status des Inhabers aus, dies hauptsächlich bei städtischen und kirchlichen Wappen. Bei Städtewappen findet man stattdessen häufig eine Mauerkrone.
Ein Wappen des Hochadels besitzt oft als Zutaten Schildhalter (Wappenträger), einen Wappenmantel bzw. bei regierenden Monarchen ein Wappenzelt. Selbige sind aber nicht zwingend für ein vollständiges Wappen erforderlich.
In seltenen Fällen umfasst das Vollwappen mehrere Wappenschilde, mehrere Helme, Schildhalter und Spruchbänder mit Wahlspruch.
Gemeine Figuren
Gemeine Figuren nennt man die vielfältigen Figuren, die das Wappen über die Tinkturen hinaus zieren. Es gibt zahlreiche Motive aus der belebten und unbelebten Natur. Sie können eingeteilt werden in
natürliche Figuren (wie Menschen, Tiere und Pflanzen),
Phantasiewesen (wie Fabelwesen und Mischwesen) sowie
künstliche Figuren, wie Türme und Mauern (Burg), Waffen, Werkzeuge und weitere Alltagsgegenstände (z. B. Rad), wobei es auch hier unwirkliche Mischobjekte geben kann.
Wappentiere machen einen Großteil der gemeinen Figuren aus. Sehr beliebt sind Löwen, Bären, Leoparden, Adler, Kraniche, Delphine, Widder oder Stiere, aber auch Fabelwesen wie der Greif, der Doppeladler, das Einhorn, der Drache, der Lindwurm und die Schlange. Wappentiere in Stadtwappen und Landeswappen sind häufig Symbole für die Stadt beziehungsweise die Region, zum Beispiel der Berliner Bär oder das Sachsenross.
Beliebte Pflanzenfiguren sind die Rose, die Lilie (Fleur-de-Lis) oder die „starke“ Eiche.
Beispiele für christliche Symbole in der Heraldik sind verschiedene Kreuze (z. B. Passionskreuz und Malteserkreuz), der Schlüssel (z. B. im Wappen von Bremen) und der Bischofsstab (z. B. als Baselstab im Wappen von Basel).
Schildteilungen
Ein Wappenschild kann durch Linien, die waagerecht, senkrecht oder schräg von Schildrand zu Schildrand verlaufen, in Felder aufgeteilt werden. Durch die geometrische Aufteilung des Schildes mit einer oder mehreren solchen Linien entsteht ein Heroldsbild. In den einfachsten Fällen wird das Schild durch eine waagerechte oder senkrechte Linie in zwei verschiedenfarbige Felder geteilt. Durch verschiedene Arten der Schildteilung können sich bestimmte Figuren ergeben, z. B. Balken, Schrägbalken, Pfahl oder durchgehendes Kreuz. Insgesamt ergibt sich eine große Vielfalt an Heroldsbildern.
Ein Schildhaupt entsteht, wenn ungefähr das obere Drittel des Schildes abgetrennt wird. Das entsprechende untere Drittel nennt man Schildfuß. Wenn eine senkrechte und eine waagerechte Linie den Schild in vier Viertel aufteilen, spricht man von einer Vierung oder einem „gevierten“ Schild. Nicht damit zu verwechseln ist das Freiviertel, ein kleines Feld im rechten oder linken Obereck des Schildes. In der deutschen Heraldik ist das Freiviertel selten, ein wichtiges Element ist es dagegen in der napoleonischen Heraldik in Frankreich.
Der Schild kann nicht nur mit geraden Linien in Felder geteilt werden, sondern auch mit beliebig geformten Schnitten, z. B. im Wellenschnitt geteilt, im Zinnenschnitt gespalten, ein Doppelwolkenbord, durch Zahnschnitt abgetrenntes Schildhaupt. Auch diese rechnen zu den Heroldsbildern.
Beizeichen
Beizeichen sind kleinere Zeichen, die in manchen Fällen auch auf eine bestimmte Person zurückzuführen sind. Der Faden ist ein schmaler, über den Wappenschild gezogener Schrägbalken, welcher schrägrechts vom rechten Obereck nach dem linken Untereck gezogen eine jüngere oder Nebenlinie, schräglinks einen unehelich Geborenen (Bastard, daher Bastardfaden) aus dem Geschlecht bezeichnet. Wenn der Faden gekürzt wird, heißt er Einbruch (rechter oder linker) und hat als solcher seine Stelle im Herzen des Schildes. Viele Wappen – besonders in Spanien (vgl. das portugiesische Staatswappen) – haben einen kontrastfarbenen Schildrand, der wiederum mit kleinen Figuren belegt sein kann. Ein weiteres Beizeichen ist der Turnierkragen, der besonders in der englischen Heraldik zur Differenzierung von Familienmitgliedern (Markierung des Erstgeborenen) benutzt wird und beim Antreten der Nachfolge entfernt wird. Weitere Beizeichen sind zur Unterscheidung der einzelnen Nachkommen eines Wappenträgers üblich.
Heraldische Farbgebung
Die Farbgebung bei Wappen nennt man Tingierung (von lat. tingere „färben“). Abweichend vom allgemeinen Sprachgebrauch werden Gold und Silber in der Heraldik nicht als „Farben“ bezeichnet, sondern als „Metalle“. Auch Gelb und Weiß gehören nicht zu den heraldischen Farben. Vielmehr sind Gelb und Weiß in der Heraldik gleichbedeutend mit den Metallen Gold und Silber. Gelb und Weiß werden nur verwendet, um bei der gemalten oder gedruckten Wiedergabe Gold und Silber zu repräsentieren.
Für Wappendarstellungen wird nur ein eng begrenztes Sortiment an Farbwerten und Mustern verwendet:
die Metalle Gold und Silber (oder ersatzweise Gelb und Weiß).
die heraldischen Farben Rot, Blau, Schwarz, Grün. (Seltener auch Purpur und sogenannte natürliche Farben wie Braun und Grau.)
die Pelzwerke. Dies sind flächenfüllende Musterformen, die auf Tierfelle zurückgehen, beispielsweise Hermelin.
Metalle, Farben und Pelzwerke zusammen nennt man in der Heraldik Tinkturen. Für die Anwendung gelten folgende Regeln und Empfehlungen:
Wappen sollten auch hinsichtlich der Farbgebung einfach gehalten werden, also möglichst wenig verschiedene Farben und Metalle in einem Wappen.
Es werden reine Farben ohne Abschattierungen, Verläufe und Nuancen verwendet.
Natürliche Farben (Braun, Grau, Fleischfarbe) gelten als unheraldisch. Es sollten möglichst nur heraldische Farben (Rot, Blau, Schwarz, Grün) und Metalle (Gold, Silber) verwendet werden.
Alle heraldischen Farben sind gleichrangig. Es gibt keine Farben, die rangmäßig über anderen stehen.
Jedes Objekt kann prinzipiell in jeder heraldischen Farbe dargestellt werden.
In einem Wappen darf Metall nicht an Metall grenzen (also Gold nicht an Silber), Farben dürfen nicht an Farben grenzen. Durch das Gegeneinandersetzen von Metallen und Farben in einem Wappen wird eine starke Kontrastwirkung erreicht, die das Wappen schon aus großer Entfernung erkennbar macht. Diese Regel hat eine herausgehobene Bedeutung und wird oft einfach als „heraldische Farbregel“ bezeichnet.
Pelzwerke können sowohl mit Metallen als auch mit Farben kombiniert verwendet werden.
Die Tinkturen werden in der Blasonierung angegeben. Bei schwarz-weißen Darstellungen von Wappen werden ersatzweise Schraffuren verwendet, um Metalle und Farben zu kennzeichnen.
Schildformen und Helme
Beeinflusst durch die Entwicklung der Waffentechnik und Kunststile änderte sich auch die Darstellung der Wappen im Verlauf der Jahrhunderte. Die früheste verwendete Schildform ist der im Hochmittelalter vom 12. bis ins 14. Jahrhundert verwendete Dreieckschild (Beispiel: Essen), dessen Seiten nach außen gebogen sind. Der zugehörige Helm ist der Topfhelm, der teilweise mit einem Stoffüberzug versehen ist.
Im 13. Jahrhundert entstand der Halbrundschild, der für die Wappendarstellungen mehr Raum bot. Insbesondere mehrfeldrige Wappen, die nun aufkamen, benötigen den größeren Raum in der unteren Wappenhälfte. Der aus dem Topfhelm hervorgegangene Kübelhelm ist bereits mit stoffbahnenartigen Helmdecken versehen, die nur in geringem Maße eingeschnitten sind. Aus dem Kübelhelm ging im 15. Jahrhundert der Stechhelm hervor, der seit Kaiser Friedrich III. Bedeutung als Symbol des Bürgerwappens erlangte; ihn kennzeichneten stärker eingeschnittene und eingerollte Helmdecken. Der etwa gleichzeitig aufgekommene Kolbenturnierhelm wird in der Heraldik auch als Bügel- oder Spangenhelm bezeichnet. Die Helmdecken sind nun nicht mehr als Stoffbahnen erkennbar, sondern ähneln ornamentalem Laubwerk.
Die Wappendarstellungen zeigen mehr und mehr unheraldische (d. h. von den tatsächlich gebrauchten Schilden abweichende) Schildformen: Die Tartsche, ein im Turnier gebrauchter Schild mit rundem oder länglich-ovalen Einschnitt auf der (heraldisch) rechten Seite, die Speerruhe (Auflage der Turnierlanze), war der letzte einem echten Kampfschild entsprechende Schild, die Schilde mit Speerruhen auf beiden Seiten haben dagegen keine reale Entsprechung mehr, und die zunehmendem Schmuckbedürfnis Rechnung tragenden eingerollten Seiten der Renaissance-Schilde existieren nur auf dem Papier oder als Plastik in Holz oder Stein, nicht aber auf dem Turnierfeld. Eine weitere Variante ist der symmetrische, langgezogene, vieleckige Rossstirnschild, der vor allem in Italien gebräuchlich war.
Zunehmend deutet sich eine Entwicklung an, die den Schildinhalt in eine Schmuckkartusche einpasst, die nichts mehr mit einem echten Schildrand zu tun hat. Schließlich verschwindet der eigentliche Schild in den überbordenden Rahmen der Barock- und Rokokozeit und wird mit Schildhaltern, Wappenmänteln und -zelten sowie anderem Zubehör umgeben. Diese Periode wird als Verfallszeit der Heraldik bezeichnet. Erst die Wiederentdeckung des Wappenwesens während der zweiten Hälfte des 19. Jahrhunderts führte zu einer neuen Blütezeit der Heraldik. Namhafte Künstler wie z. B. Otto Hupp verwendeten für ihre Wappendarstellungen Formen des 13. bis 15. Jahrhunderts.
Wappenvereinigung
Ergibt sich aus Heirat, Erbschaft oder Gebietszuwachs die Notwendigkeit, mindestens zwei Wappen verschiedener Träger in einem Wappen zu vereinigen, gelten verschiedene Regeln. Diese werden von der Absicht des Stammwappenführenden stark beeinflusst. Die Zusammenführung kann durch Auflegung, Einpfropfung, Verschränkung oder Einfassung, ganz allgemein auch nur durch Stellung der Wappenschilder erreicht werden.
Allgemeine Gestaltungsregeln
Um ein Wappen eindeutig erkennbar zu machen, sollte die Anzahl der Farben, Felder und Figuren möglichst gering sein. Die Figuren sollten den Schild weitgehend ausfüllen: „Weniger ist Mehr“.
Ebenso ist die Farbregel zu beachten: „Von zwei Feldern eines Wappens sollte jeweils eines in einer Farbe, das andere in einem Metall tingiert sein.“ Diese Regel gilt auch für das Schildfeld und eine aufgelegte gemeine Figur.
Eine typische Möglichkeit der Heraldik, die Anzahl der Wappenmotive zu erweitern, ist die Tingierung in ge- oder verwechselten Farben. Bei dieser Technik ist der Schild beispielsweise in zwei Felder geteilt, wobei eine aufgelegte gemeine Figur oder ein weiteres Heroldsbild jeweils die Farbe des gegenüberliegenden Feldes aufweisen.
Blasonierung
Die Blasonierung ist die Beschreibung eines Wappens in knappen fachsprachlichen Worten. Anhand der Blasonierung soll das Wappen eindeutig erkennbar sein, damit es nicht mit einem anderen Wappen verwechselt werden kann. Der Ausdruck stammt vom französischen Wort blason „Wappenschild“. In ihren Grundzügen entstand die Kunstsprache der Blasonierung in Frankreich, als im 13. Jahrhundert die ersten Wappenrollen und Wappenregister erstellt wurden. So wie das gesamte Wappenwesen sich Schritt für Schritt entwickelt und gefestigt hat, wurde auch die Blasonierung mit der Zeit feiner ausgearbeitet, vor allem im 17./18. Jahrhundert.
Bei der Blasonierung ist „rechts“ die vom Betrachter aus linke Seite, „links“ ist die vom Betrachter aus rechte Seite des Wappens. Die Bestandteile des Wappens werden in einer festgelegten Reihenfolge beschrieben: zuerst der Schild, dann das Oberwappen, zuletzt gegebenenfalls Schildhalter, Wappenmantel und weitere Prachtstücke.
Zur genaueren Angabe von Positionen innerhalb des Schildes können Bezeichnungen verwendet werden, die sich an den Heroldsbildern orientieren, z. B. Schildfuß, rechte oder linke Flanke, Herzstelle. Abaissé heißt ein erniedrigtes Wappenbild. Wachsend nennt man eine gemeine Figur, die so tief sitzt, dass sie unten abgeschnitten ist.
Wappenverzeichnisse
Wappen sollten aus Nachweisgründen in einem Wappenverzeichnis registriert werden. Ursprünglich wurden Wappenregister in einer Wappenrolle geführt, einer Schriftrolle aus Pergament. Der Ausdruck Wappenrolle hat sich bis heute gehalten, obwohl Wappensammlungen heute in Buchform veröffentlicht werden (Wappenbuch).
Wappenverzeichnisse werden heute von heraldischen Vereinen gepflegt. Beispielsweise führt der im Jahr 1869 gegründete Verein Herold die Deutsche Wappenrolle. Voraussetzung für die Eintragung eines neuen Wappens ist neben der formalen Prüfung der Wappengestaltung die Feststellung, dass das Wappen nicht bereits von anderen geführt wird.
Besondere Bereiche der Heraldik
Kirchliche Heraldik
Bei der Heraldik der katholischen Kirche ist zu unterscheiden, ob es sich um rein geistliche Wappen handelt oder um eine mit weltlicher Herrschaft verbundene Kirchenposition. Bei weltlichen und geistlichen Herren, etwa Fürstbischöfen, entsprechen die Wappen denen anderer Territorialherren, mit vollständigem Oberwappen (Helmen und Helmzieren), bereichert um kirchliche Insignien (Krummstab, Kreuz) und weltliche Insignien (Schwert). Für rein geistliche Amtsinhaber entwickelte sich parallel ein System kirchlicher Amtsheraldik ohne Helme und Helmkleinode, stattdessen mit Priesterhüten (Galero) und Schnüren mit Quasten zu beiden Seiten des Schildes, deren Anzahl und Farbe den Rang des Trägers markiert. Der Schild enthält in historischer Zeit eine Kombination aus Wappen des Amtes (Bistum, Kloster) und der Familie, in einem gevierten (quadrierten) Schild. Das Amtswappen bleibt, das Familienwappen wechselt. In neuerer Zeit nimmt man von diesem strikten Schema Abstand und komponiert Bischofswappen freier. Damit sind kirchliche Wappen insgesamt Personenwappen, da sie in der Form nicht innerhalb einer Familie weitergegeben werden.
Die evangelische Kirche kennt kein entsprechendes System. Evangelische Hochstifte (namentlich das Hochstift Lübeck) und Ordensgemeinschaften (z. B. das Kraichgauer Adelige Damenstift) führten meist ihre vorreformatorischen Wappen fort.
Kolonialwappen
Als Kolonialwappen werden die in den Kolonien der europäischen Staaten durch die Kolonialmächte den Staaten verordneten Wappen nach ihren und den europäischen Regeln der Heraldik verstanden. Da in den Kolonien die Wappenkunde keinen oder nur geringen Anfang hatte, wurden wider die heraldischen Regeln Wappen für gültig erklärt. So zeigen Wappen wesentliche Teile ihrer Kolonialmacht. Beispiel: Portugal setzte die Quinas in den Schild, England ihren Löwen und Frankreich die Lilien in Kanada. Viele Wappensprüche unter den Schilden sind dem Mutterland entlehnt worden. So kann zu den älteren Wappen das von Jamaika gerechnet werden. Eingeführt wurde es etwa um 1692 durch England.
Mit dem schrittweisen Ende der Kolonialzeit in vielen Ländern wurden neue Wappen durch die eigenständigen Staaten geschaffen oder die bis dahin geführten nur angepasst. So sind die revolutionären Symbole wie aufgehende Sonne, Sterne, Treue Hände und Arme, Füllhorn oder Jakobinermütze vermehrt zu finden. Wappendevisen gleichen sich oft: Freiheit – Gleichheit – Brüderlichkeit und der Lorbeerkranz oder -zweig liegt um den Schild. In vielen Ländern sind im heraldischen Sinn bei der Neuschaffung oft nur Hoheitszeichen entstanden, da kein Schild, der wesentliche Teil des Wappens, verwendet wurde. Vieles ist nur um eine weiße Fläche angeordnet. Auch unheraldische Farben finden Verwendung und es ist die Neigung zur realistischen räumlichen Darstellung zu erkennen.
Studentische Heraldik
Die Grundregeln der allgemeinen Heraldik gelten grundsätzlich auch für studentische Farbkombinationen. In Teilbereichen weist die studentische Heraldik jedoch Besonderheiten auf, die aus dem speziellen Gebrauch von Band und Zipfel herrühren. Band und Zipfel kamen um 1800 mit den Corps und Burschenschaften auf, die als erste das Band als Brustband trugen. Davor wurde das Band meistens als Uhrband getragen und endete in der linken Westentasche. Der aus der Uhrtasche hängende Bandrest, der in den Zeiten der Verfolgung der Burschenschaften allein getragen wurde und aus dem der Zipfel entstand, zeigte die Kopffarbe des Bandes nicht auf der heraldisch rechten, sondern auf der heraldisch linken Seite. Daraus folgt, dass senkrechte studentische Farben entgegen der allgemeinen Regel gelesen werden, also für den Betrachter nicht von links nach rechts, sondern von rechts nach links. Dies gilt vor allem für Zipfel und senkrecht an der Wand aufgehängte Fahnen. Hängt die Fahne dagegen frei im Raum, z. B. an einer Fahnenstange, so gilt die allgemeine Heraldikregel, dass die Farben für den Betrachter von links nach rechts zu lesen sind.
Bei studentischen Wappen ist jedoch Vorsicht geboten. Diese entstanden erst um 1825 in Jena als Malerei auf Couleurpfeifen. Die Form ist die eines Gesellschaftswappens bestehend aus dem Schild mit Helm, Helmzier (i. d. R. Straußenfedern) und Helmdecke. Hier findet die Studentenheraldik nur bei den Schilden Anwendung, so dass die Straußenfedern, obwohl wie senkrechte studentische Farben angeordnet, nach allgemeiner Heraldik, also vom Betrachter aus von links nach rechts gelesen werden.
Siehe auch
Sphragistik, Siegelkunde
Emblematik, Emblemforschung
Literatur
Milan Buben: Heraldik. Albatros, Prag 1987.
Václav Vok Filip: Einführung in die Heraldik (= Historische Grundwissenschaften in Einzeldarstellungen. Band 3). Steiner, Stuttgart 2005, ISBN 978-3-515-07559-6.
Franz Gall: Österreichische Wappenkunde. Handbuch der Wappenwissenschaft. 3. unveränderte Auflage. Böhlau/Wien u. a. 1996, ISBN 3-205-98646-6.
Adolf Matthias Hildebrandt (Hrsg.): Wappenfibel. Handbuch der Heraldik. 19., verbesserte und erweiterte Auflage. Degener, Neustadt an der Aisch 1998, ISBN 3-7686-7014-7.
Walter Leonhard: Das große Buch der Wappenkunst. Entwicklung, Elemente, Bildmotive, Gestaltung. Bechtermünz-Verlag, Augsburg 2002, ISBN 3-8289-0768-7.
Ottfried Neubecker, J. P. Brooke-Little: Heraldik. Ihr Ursprung, Sinn und Wert. Orbis, München 2002, ISBN 3-572-01344-5.
Ottfried Neubecker: Wappenkunde. Sonderausgabe. Bassermann, München 2007, ISBN 978-3-8094-2089-7.
Gert Oswald: Lexikon der Heraldik. Bibliographisches Institut, Mannheim u. a. 1985, ISBN 3-411-02149-7.
Georg Scheibelreiter: Heraldik (= Oldenbourg historische Hilfswissenschaften. Band 1) Oldenbourg/Wien u. a. 2006, ISBN 3-486-57751-4.
Carl Alexander von Volborth: Heraldik aus aller Welt in Farben. Von den Anfängen bis zur Gegenwart. Universitas-Verlag, Berlin 1972 (Originaltitel: Alverdens heraldik in farver).
Hugo Gerard Ströhl: Heraldischer Atlas. Stuttgart 1899 (Nachdruck: Edizioni Orsini De Marzo, Mailand 2010, ISBN 978-88-7531-074-5).
Eduard von Sacken: Heraldik – Grundzüge der Wappenkunde. Verlagsbuchhandlung J.J.Weber, Leipzig 1899. 6. Auflage, neu bearbeitet von Moritz von Weittenhiller; Reprint Verlag, Leipzig 2012, ISBN 978-3-8262-3040-0.
Ludwig Biewer, Eckart Henning: Wappen. Handbuch der Heraldik. 20., überarbeitete und neugestaltete Auflage der Wappenfibel von A. M. Hildebrandt. Böhlau, Köln/Weimar/Wien 2017, ISBN 978-3-412-50372-7.
Weblinks
Deutschland
Regeln der deutschen Heraldik (Welt der Wappen)
Heraldik-Wiki, heraldische Informationssammlung aus freien Inhalten
Verein HEROLD, Berlin (Deutsche Wappenrolle)
Verein „Zum Kleeblatt“, Hannover (Niedersächsische Wappenrolle)
Wappensammlungen
Sammlung von Wappenphotos mit Erläuterungen, Ortsregister, Namensregister (Welt der Wappen)
Wappensammlung von Gemeinden und Gebietskörperschaften aus aller Welt (englisch)
WappenWiki – englischsprachige Sammlung mittelalterlicher und frühneuzeitlicher Personen- und Herrschaftswappen
Wappensammlung mit über 10.000 Familienwappen der Schweiz chgh.net (Webarchiv-Link)
Französische Seite mit tausenden Wappendarstellungen im modularen Aufbau, geographischer Index, Namensindex und vor allem vielen graphisch aufgearbeiteten mittelalterlichen Wappenrollen
Einzelnachweise
|
Q18336
| 478.001195 |
1252780
|
https://de.wikipedia.org/wiki/Zeichensalat
|
Zeichensalat
|
Mit Zeichensalat wird der Zustand falsch dargestellter Zeichen bezeichnet, der anstelle der gewünschten Schriftzeichen vor allem im Internet auftritt. Während der Frühzeit des Internets trat dieser Zustand bei fast allen Sprachen auf, die über reines ASCII hinausgehende Zeichensätze verwenden. Das sind nahezu alle Sprachen außer Englisch (sofern fremdsprachliche Diakritika wie in naïve, café oder résumé konsequent weggelassen werden). Im Deutschen waren beispielsweise die Umlaute und das ß häufig betroffen. Mit der Einführung von Unicode wurde zwar 1991 technisch eine Grundlage geschaffen, um das Problem auf lange Sicht zu beheben, dennoch bereiten Datenaustauschverfahren, die keine einheitliche Zeichencodierung vorschreiben, selbst im Jahr 2020 noch derartige Probleme.
Im Japanischen wird das Problem als Mojibake (japanisch , „Buchstabenverwandlung“) bezeichnet, im Russischen als krakosjábry () und im Chinesischen als luànmǎ (, „wirre Kodierung“).
Beispiele
Die KOI-Kodierungen bieten eine Besonderheit, die das letzte Beispiel zeigt: Werden sie fälschlicherweise als ASCII interpretiert (und dafür im Falle von KOI8 das höchstwertige Bit ignoriert), entsteht eine grobe lateinische Transliteration mit vertauschten Groß- und Kleinbuchstaben. Da das kyrillische Alphabet mehr Buchstaben als das lateinische hat, werden einige kyrillische Buchstaben zu Satzzeichen.
Codierte Daten
Zeichensalat kann auch absichtlich verwendet werden, um beliebige Daten an Stellen zu speichern oder zu übertragen, an denen nur bestimmte Zeichen möglich sind, zum Beispiel beim Verwendungszweck einer Banküberweisung oder in Internetadressen.
In Internetadressen wird zu diesem Zweck häufig das Base64-Verfahren eingesetzt. Es erzeugt aus beliebigen Daten einen Text, der nur aus den Buchstaben A–Z, a–z, den Ziffern 0–9 und den Sonderzeichen +, / und = besteht. Mit Base64 codierte Daten sehen so aus:
RGllc2VyIFRleHQgaXN0IG5pY2h0IHZlcnNjaGzDvHNzZWx0Lg==
Auf den ersten Blick ist nicht zu erkennen, was dieser Zeichensalat an Daten enthält. Wenn man jedoch die Base64-Codierung rückwärts anwendet, entsteht dieser Text:
Dieser Text ist nicht verschlüsselt.
Einige Websites verwenden dieses Codierungsverfahren, um die eigentlichen Daten nicht offensichtlich in der URL preiszugeben.
Buchstabensalat
Zeichensalat/Mojibake kann als Spezialfall von Buchstabensalat betrachtet werden. Darunter sind allgemein schwer oder nicht zu entziffernde Zeichenfolgen zu verstehen, die auch aus anderen Gründen außer einer fehlerhaften Kombination verschiedener Zeichenkodierungen entstanden sein können.
Einzelnachweise und Anmerkungen
Weblinks
Michael Rollins: Avoiding the 'mojibake' bugaboo. The Japan Times, 27. Februar 2003 (englisch)
Paul Hastings: Do You Want Coffee with That Mojibake? Character encodings and CFMX. Coldfusion Developer’s Journal, 13. April 2004 (englisch)
mit Beispielen aus den Jahren 2000 und 2003 (englisch)
John de Hoog: Avoiding Mojibake. (englisch)
Zeichenkodierung
Schriftzeichen
|
Q152869
| 153.435874 |
48735
|
https://de.wikipedia.org/wiki/Keilschrift
|
Keilschrift
|
Als Keilschrift bezeichnet man ein vom 4. Jahrtausend v. Chr. bis mindestens ins 1. Jahrhundert n. Chr. benutztes Schriftsystem, das im Vorderen Orient (Naher Osten und Vorderasien) zum Schreiben mehrerer Sprachen verwendet wurde. Die Bezeichnung beruht auf den Grundelementen der Keilschrift: waagrechten, senkrechten und schrägen Keilen. Typische Textträger sind Tontafeln, die durch das Eindrücken eines Schreibgriffels in den weichen Ton beschrieben wurden.
Die Keilschrift war anfänglich eine Bilderschrift. Sie entwickelte sich zu einer Silbenschrift, aus der auch eine phonetische Konsonantenschrift (die ugaritische Schrift) hervorging. Die Keilschrift wurde von den Sumerern erfunden und später von ihren medischen Nachfahren und anderen zahlreichen Völkern des Alten Orients verwendet: von den Akkadern, Babyloniern, Assyrern, Hethitern, Persern (darunter der babylonische Kyros-Zylinder) und anderen. Schließlich wurde sie von anderen Schriftformen (z. B. der phönizischen und der daraus abgeleiteten aramäischen Schrift) verdrängt und geriet in Vergessenheit. Letzte Keilschrifttexte wurden in seleukidischer und parthischer Zeit verfasst.
Geschichte und Verbreitung
Sumerische Keilschrift
Die sumerische Keilschrift ist neben den ägyptischen Hieroglyphen die heute älteste bekannte Schrift. Sie entstand etwa um 3300 v. Chr. in Sumer in Mesopotamien und konnte ihre Vormachtstellung bis etwa 1800 v. Chr. halten. Zunächst begann die sumerische Keilschrift als Bilderschrift, bestehend aus rund 900 Piktogrammen und Ideogrammen, die in Ton geritzt wurden.
In Kiš wurden Kalksteintäfelchen mit den ältesten Zeichen gefunden. Es waren stark vereinfachte Darstellungen etwa eines Kopfes, eines Dreschhammers, eines Pfeiles, eines Kruges, eines Fußes. Drei Berggipfel standen für „Gebirge“. Andere Zeichen stammten von Zählsteinen und waren von Anfang an abstrakt, wie etwa das Kreuz für „Schaf“.
Viele Wörter entstanden – ähnlich wie heute noch bei den chinesischen Schriftzeichen – durch einfaches Zusammenschreiben solcher Piktogramme. „Weinen“ wurde mit den Zeichen „Auge“ und „Wasser“ ausgedrückt, „Fürstin“ ergab sich aus den Zeichnungen „Frau“ und „Schmuck“. „Strafen“ wurde durch „Stock“ und „Fleisch“ ausgedrückt. „Gebirge“ und „Frau“ ergab „Bergweib“, was Sklavin bedeutete, weil die Sumerer wohl Frauen aus dem Zagros versklavten. „Heuschrecke“ stand als Piktogramm für „Heuschrecke“, aber auch als Ideogramm für „Vernichtung“. Man hatte wohl durch Heuschreckenschwärme abgefressene Felder und Gärten vor Augen. Ein „Stern“ stand als Piktogramm für „Stern“, als Ideogramm für „Himmel“ (sumerisch an) und „Gott“ (sumerisch: dingir). Eine Essschale stand für Speise. Ein Kopf und eine Essschale stand für „essen“.
Diese Piktogrammschrift blieb aber nicht bei den einfachen und komplexen Zeichenbedeutungen stehen. Das Piktogramm eines Flusses stand für „Wasser“ – sumerisch „a“ –, das aber als Laut „a“ auch „in“ bedeutete. Statt hier ein neues Zeichen für „in“ zu erfinden, verwendeten die Sumerer das Piktogramm „Fluss“ in seiner Lautbedeutung „a“ gleich „in“. Da dieses Verfahren immer öfter verwendet wurde, überwog schließlich die Lautbedeutung der Zeichen.
Ihre typische Form erhielt diese Schriftart erst um das Jahr 2700 v. Chr., als die altsumerischen Machtzentren Uruk, Ur und Lagaš enorm anwuchsen und ihre Tempelbürokratie mehr Schriftstücke produzierte, was eine Rationalisierung des Schreibprozesses hervorrief. Nun wurden Keile mit einem stumpfen Schreibgriffel in weichen Ton gedrückt, der anschließend getrocknet wurde.
Akkadisches Reich
Um das Jahr 2350 v. Chr. drang das semitische Volk der Akkader nach Sumer vor und übernahm die Herrschaft über die sumerischen Stadtstaaten und dabei auch deren Schrift und Kultur. Unter der akkadischen Herrscherdynastie Sargons von Akkad breiteten sich deren Herrschaftsgebiet und damit auch Sprache, Kultur und Schrift weiter aus. Etwa zur selben Zeit gelangte die Kenntnis der Keilschrift bis nach Syrien in das Reich Ebla, wo sie für die einheimische semitische Sprache, das Eblaitische, verwendet wurde. Bereits ab 2500 v. Chr. wurde im benachbarten Königreich Elam (dem heutigen Iran) die dort verwendete proto-elamitische Strichschrift von der Keilschrift abgelöst; diese hielt sich dort bis in hellenistische Zeit.
Hethitische und weitere Adaptationen
Auch die Hethiter, deren indogermanische Sprache sich vom semitischstämmigen Akkadisch grundlegend unterschied, adaptierten die Keilschrift und benutzten sie neben den hethitischen Hieroglyphen. Dabei verlief die Verbreitung der Keilschrift im Norden bis nach Urartu (Nordosttürkei und Armenien) mit Urartäisch als Landessprache und im Süden bis nach Palästina mit Kanaanäisch als vorherrschender Sprache. Die weiterentwickelte Form der Keilschrift war so anpassungsfähig beim Gebrauch der Symbole als Lautzeichen, dass die Schrift in gleicher Weise für die Sprachen der Akkader, Babylonier und Assyrer verwendet werden konnte.
Babylonische Ära
Als Hammurapi 1792 v. Chr. den babylonischen Thron bestieg, bestand Mesopotamien lediglich aus einer Reihe rivalisierender Stadtstaaten. Ihm gelang es jedoch aufgrund seiner Feldzüge, das Herrschaftsgebiet Babylons auf ganz Mesopotamien auszudehnen und weit über die Landesgrenzen hinaus die Sprache und Kultur seines Reiches zu verbreiten. Mit dem Niedergang des babylonischen und dem Aufstieg des assyrischen Reiches verbreitete sich die Schrift und die Kultur des Zweistromlandes bis in das 7. Jahrhundert v. Chr. von Babylonien und Assyrien über Palästina bis nach Ägypten. In dieser Epoche entwickelte sich die Keilschrift zu ihrer endgültigen Form weiter. Ab dem 8. Jahrhundert v. Chr. drangen neue Schriftsysteme, wie die phönizische Konsonantenschrift oder die griechische Lautschrift, langsam nach Kleinasien vor. Nach und nach verdrängten sie die Keilschrift.
Sonderformen
Eine Sonderform der Keilschrift stellt die persische Keilschrift dar. Zu Beginn der Regierungszeit Dareios I. im Jahr 521 v. Chr. besaßen die Perser noch keine eigene Schrift. Die Verwaltungssprache des persischen Reiches war Elamisch; daneben wurde in Reliefs stets auch eine Übersetzung in Babylonisch bzw. Akkadisch im neubabylonischen Dialekt angebracht. Dareios I. ordnete die Schaffung einer eigenen persischen Schrift (Altpersisch) an. Die persische Keilschrift war viel einfacher strukturiert (34 Zeichen) als die Keilschriften der Elamer (ca. 200 Zeichen) und Babylonier (ca. 600 Zeichen) und hatte zur besseren Lesbarkeit Worttrenner. Die persische Keilschrift wurde später (um 400 v. Chr.) durch die Einführung des Aramäischen verdrängt. Der jüngste bekannte Keilschrifttext, eine astronomische Tabelle, stammt aus dem Jahr 75 n. Chr.
Entschlüsselung und Übersetzung der Keilschrift
Der Italiener Pietro della Valle hatte 1621 in einem Brief erstmals mehrere Keilschriftzeichen von einem Ziegel aus Persepolis richtig kopiert und in seiner Reisebeschreibung vermutet, dass diese Buchstaben „auf unsere Weise von der lincken zur rechten Hand geschrieben werden“. Der deutsche Arzt und Forschungsreisende Engelbert Kaempfer besuchte 1685 die Ruinen von Persepolis und studierte die Täfelchen mit Schriftzeichen, für die er die Bezeichnung „Keilschrift“ prägte. Der englische Orientalist und Sprachwissenschaftler Thomas Hyde benutzte in seinem Hauptwerk Historia Religionis Veterum Persarum (The History of the Religion of Ancient Persia), das im Jahr 1700 in Oxford erschien, zum ersten Mal das Wort „Cuneiform“ für Keilschrift. Die Entschlüsselung dieser vereinfachten persischen Keilschrift erfolgte mit den Kopien von Inschriften aus Persepolis, die der Orientforscher Carsten Niebuhr im Jahre 1765 angefertigt hatte. Dem deutschen Philologen Georg Friedrich Grotefend (Göttingen) gelang es ohne Kenntnisse von Schrift und Sprache, vor allem aber auch ohne eine parallele Textfassung in anderen Sprachen im Sommer 1802 binnen weniger Wochen fast ein Drittel des gesamten Zeicheninventars zu entschlüsseln. Das war möglich, weil es sich um recht einförmige Texte handelte, die weitgehend aus Königsnamen mit Filiation und Titulatur bestand, auf die historische Kenntnisse angewandt werden konnten. Dementsprechend blieben Grotefend die – wenigen – sachlichen Teile dieser Inschriften verschlossen.
Fortschritte ergaben sich zunächst durch die Erforschung verwandter Sprachen (Avestisch und Sanskrit), vor allem durch den norwegischen Philologen Christian Lassen. Die Einsichten in diesem Bereich konnten auf persische Inschriften angewandt werden. Auch hier halfen Namen – diesmal Völkernamen – weiter. Dazu kam vor allem aber weiteres Material, wie die Behistun-Inschrift, die der englische Offizier Henry Creswicke Rawlinson 1835–1837 kopierte und 1846/47 und 1851 veröffentlichte. Erneut waren es Namen, durch die noch fehlende Zeichen erschlossen werden konnten. Die Inschrift auf dem Felsen von Behistun ist eine Trilingue. Sie war für die Entzifferung der Keilschrift gleichbedeutend mit dem Fund des Steins von Rosette für die Entzifferung der ägyptischen Hieroglyphen. Nach der Entzifferung des persischen Textes war der Weg frei zur Entzifferung auch der komplexeren Keilschriften in elamitisch und babylonisch.
Die Ausgrabungen von Paul-Émile Botta in Khorsabad und Austen Henry Layard in Nimrud, Kujundschik (Ninive), Kalah Schergat (Assur) deckten zahlreiche Inschriften auf, die in den Louvre und das britische Museum gelangten. So ist es nicht verwunderlich, dass in Frankreich und England großes Interesse an der Entzifferung bestand. 1857 sandte Edwin Norris, der Sekretär der Royal Asiatic Society in London, eine kurz zuvor entdeckte Inschrift aus der Regierungszeit des assyrischen Königs Tiglat-pileser I. an Edward Hincks, an Sir Henry Rawlinson, Julius Oppert, der in Deutschland geboren war, und den britischen Universalgelehrten William Henry Fox Talbot. Die Übersetzungen, die diese versiegelt erhielten, wurden von einer Kommission geprüft, in allen Hauptpunkten übereinstimmend befunden und veröffentlicht (1857: An inscription of Tiglath Pileser, King of Assyria, as translated by Rawlinson, Talbot, Dr. Hincks, and Oppert). Die akkadische Keilschrift war entziffert.
Anfang des 20. Jahrhunderts entzifferte Bedřich Hrozný die Schriftsprache der Hethiter und legte Grundsteine zur Erforschung von deren Sprache und Geschichte.
Schriftgut
Die frühe sumerische Schriftkultur stand zunächst nur der Tempeladministration zur Verfügung, die sie für das Steuerwesen und die Verwaltung als Instrument staatlicher Kontrolle einzusetzen verstand. Es dauerte sehr lange, bis sich die Keilschrift des gesamten funktionalen Spektrums bemächtigen konnte, das den Schriftgebrauch der antiken Hochkulturen kennzeichnet. Erst nach religiösen und politischen Dokumenten oder privaten Kaufverträgen entstanden wissenschaftliche Schriften und unterhaltende Literatur. Zu den überlieferten Texten gehören Königsinschriften, Epen, Mythen, Hymnen, Wahrsagesprüche und Klagelieder, darunter auch das Gilgamesch-Epos, eine der ältesten überlieferten Dichtungen der Menschheit, und das berühmteste literarische Werk Altbabylons.
Mit der Adaption der Keilschrift durch andere altorientalische Hochkulturen entstand zwischen den Völkern ein erster Briefwechsel, wobei die versandten Tontafeln mit Schutzhüllen aus gebranntem Ton versehen wurden.
Es bildete sich der privilegierte Stand des Schreibers heraus, der über das Ansehen eines Aristokraten verfügte und aufgrund seines direkten Zuganges zu wichtigen Informationen zum Teil mächtiger wurde als die meist analphabetischen Herrscher. Schreiberschulen wurden eingerichtet, deren Disziplin und Strenge auch anhand von erhaltenen Hausaufgaben dokumentiert ist.
Schriftentwicklung
Die Entwicklungsgeschichte der Keilschrift lässt sich über Tontafeln nachvollziehen – mit Abschriften, die Tempelschüler bei ihren Lehrmeistern machten. Anfänglich handelte es sich bei den Schriftzeichen um Piktogramme, um vereinfachte bildhafte Darstellungen eines Gegenstandes oder Wesens. Beispielsweise stand der stilisierte Stern für »Stern«, »Gott« und »Himmel«. Später entwickelte sich die Keilschrift zu Ideogrammen weiter, die komplexe Gedankengänge darstellten. Dann stand beispielsweise der stilisierte Stern auch für »oben«.
Ab etwa 2900 v. Chr. verloren die Piktogramme mehr und mehr ihre einstige Funktion und ihren ursprünglichen Bezug. Nun konnte ein einzelnes Zeichen je nach Sinnzusammenhang verschiedene Bedeutungen haben. Im nachfolgenden Entwicklungsschritt wurde nur noch eine Bedeutung mit einem Zeichen in Verbindung gebracht. Aus ursprünglich 1500 Piktogrammen entwickelten sich so 600 Zeichen, die regelmäßig verwendet wurden. Diese Zeichen bezogen sich mit der Zeit immer mehr auf die Lautung der gesprochenen Wörter. Es entstanden Bilderrätsel (Rebus), in denen ein Piktogramm nicht mehr für das dargestellte Objekt stand, sondern für ein ähnlich lautendes Wort. Ähnlich wie bei den ägyptischen Hieroglyphen vollzog sich bei der Keilschrift über lange Zeiträume hinweg eine Phonetisierung der Schriftzeichen. Damit ein eindeutiges Lesen möglich war, führten die Schreiber Determinative ein, um die Zeichen nach Objektbedeutung zu klassifizieren. Im Verlaufe der Schriftentwicklung wurden die Zeichen komplizierter, beispielsweise durch Wiederholung der gleichen Formen.
Struktur und Transliteration
Die babylonische Keilschrift, wie sie für das Sumerische, Akkadische und Hethitische und viele weitere Sprachen gebraucht wurde (die ugaritische Keilschrift stellt ein Alphabet dar und muss hier ausgeklammert werden), verfügt im Wesentlichen über Logogramme, Phonogramme und Determinative.
Logogramme
Logogramme stehen für ein Wort, leiten sich zumindest in einigen Fällen aus einem Bild des dargestellten Gegenstandes ab und sind oft für mehrere Sprachen identisch. Logogramme werden in der modernen Assyriologie mit ihrem sumerischen Lautwert transliteriert. Das Zeichen lú, ursprünglich das Abbild einer Person, steht beispielsweise für das sumerische Wort /lu/ „Mann“. Man kann es aber auch in akkadischen Texten benutzen, wo es /awilum/ zu lesen ist (so das akkadische Wort für „Mann“), oder in hethitischen Texten für /antuhšaš/ „Mann“. Die in der Assyriologie übliche Transliteration lautet in allen Fällen lú, wobei für Logogramme eine Wiedergabe in nichtkursiven Minuskeln üblich ist. Solche Logogramme werden in akkadischen und hethitischen Texten gewöhnlich in etwas schiefer Terminologie als Sumerogramm bezeichnet, weil als moderne Transliteration eben für alle Sprachen der sumerische Lautwert üblich ist.
Gewisse Logogramme, deren sumerische Lesung als unbekannt oder ungesichert gilt, setzt man in nichtkursive Majuskeln. So gibt es ein als UŠ transliteriertes Längenmaß, dessen Lesung als ungesichert gilt. Die Transliteration rührt daher, dass dasselbe Zeichen im Akkadischen als Phonogramm für uš gebraucht wird und daher das Längenmaß die Lesung /uš/ zumindest gehabt haben könnte. Großschreibung wird auch eingesetzt, um die Unsicherheit zwischen mehreren möglichen Umschreibungen mehrdeutiger Zeichen anzugeben. Beispielsweise steht ein und dasselbe Zeichen (ursprünglich Bild eines Fußes) für die sumerischen Verben du „gehen“ und gub „stehen“, die man im Regelfall auch so transliteriert. Eine Entscheidung zwischen beiden Lesungen beinhaltet hier also neben der reinen Benennung des Keilschriftzeichens auch noch eine inhaltliche Interpretation des Textes. Wenn ein Textherausgeber sich aber in einem gegebenen Kontext nicht für eine der beiden Lesungen entscheiden will, transliteriert er DU. Die Großschreibung ist hier eine Chiffre, um das Zeichen des Originals zu benennen, deutet aber an, dass man sich nicht konkret auf eine der möglichen Interpretationen festlegen will.
Phonogramme
Phonogramme stehen gewöhnlich für Verbindungen der Art Konsonant+Vokal, Vokal+Konsonant oder Konsonant+Vokal+Konsonant. Sie werden in allen Keilschriftsprachen gleich transliteriert und haben wenigstens prinzipiell die gleiche Aussprache. So kann man das Silbenzeichen da als Silbenzeichen für /da/, zum Beispiel in grammatischen Endungen, gleichermaßen im Sumerischen, Akkadischen, Hethitischen und anderen Keilschriftsprachen finden. Bei der Transliteration des Akkadischen und Hethitischen (nicht Sumerischen) ist es üblich, Phonogramme in kursiven Minuskeln zu setzen. Beispielsweise kann der Genitiv des akkadischen Wortes für „Mann“, /awilim/, mit der Kombination des Logogramms lú (= akkadisch /awilum/) und des Phonogramms lim, das die grammatische Form präzisiert, geschrieben werden. Diese Kombination zweier Keilschriftzeichen transliteriert man lú-lim.
Determinative
Determinative sind oft formal identisch mit Logogrammen, stehen aber nicht alleine für ein Wort oder einen Wortkern, sondern werden einem schon komplett phonographisch oder logographisch ausgeschriebenen Wort noch hinzugesetzt. Beispielsweise kann das schon erwähnte Zeichen lú „Mann“ in sumerischen, akkadischen oder hethitischen Texten bestimmten Personenbezeichnungen, z. B. Berufsbezeichnungen, vorausgehen, ohne dass es als solches lautlich mitzulesen ist. Ein solches Zeichen mit semantischem Wert, aber ohne direkte phonetische Realisierung bezeichnet man als Determinativ; die übliche Transliteration ist die als hochgestellte Minuskel. In diesem Bereich können viele Zweifelsfälle entstehen wie in dem sumerischen Wort lú-érim „Feind“ (wörtlich: Mann-feindlich). Es könnte hier sein, dass auf Sumerisch wirklich /luerim/ gesprochen wurde; in diesem Falle lägen zwei Logogramme vor. Vielleicht wurde aber auch nur /erim/ gesprochen und lú hätte nur den Wert eines Determinativs gehabt. Wer dieser Meinung ist, wird das Element lú nach der Konvention hochgestellt transliterieren. Da die Aussprache von Wörtern in Keilschriftsprachen häufig Unsicherheiten der genannten Art aufweist, bleibt die Zeichenklassifikation bis zu einem gewissen Grad unsicher und schwankt auch die Transliterationspraxis zwischen den einzelnen Forschern.
Transliteration mit Akzenten und Indexziffern
Die Transliteration eines Keilschriftzeichens ist im Prinzip eindeutig, d. h. aus dem Transliterat lässt sich, abgesehen von paläographischen Details, das im Original verwendete Keilschriftzeichen immer erschließen. Ein Zeichen wird auch im Prinzip immer gleich transliteriert ohne Rücksicht darauf, ob der Text auf Sumerisch, Akkadisch, Hethitisch etc. geschrieben ist. Um die Eindeutigkeit zu ermöglichen, werden in der Transliteration (1) alle Einzelzeichen durch Bindestrich oder andere typographische Mittel (whitespace, Hochstellung) voneinander getrennt, und (2) Zeichen, für die ein identischer Lautwert vermutet wird, durch Akzente und/oder tiefgestellte Indexziffern voneinander unterschieden. Heute maßgeblich ist hier das von den Assyriologen Borger, Civil und Ellermeier kodifizierte System (BCE-System). So gibt es ein Zeichen lu (häufiges Phonogramm z. B. im Akkadischen). Ein zweites Zeichen, für das – im Sumerischen – ebenfalls der Lautwert /lu/ angesetzt wird, umschreibt man lú mit einem Akut oder alternativ lu2 mit Indexziffer 2 (das oben erwähnte Wort für „Mann“). Weitere Zeichen mit dem Lautwert /lu/ notiert man als lù oder lu3 (u. a. ein sumerisches Verb für „verwirren“), dann mit 4 und höheren Indexziffern. Es ist also insbesondere zu beachten, dass die Akzente keinesfalls als Betonungs- oder ähnliche Angaben missverstanden werden dürfen.
Da das Transliterationssystem für alle Keilschriftsprachen gemeinsam ist und Homophone aus allen Sprachen gleichzeitig berücksichtigen muss, ergeben sich insgesamt sehr viele Zeichen mit gleicher Lesung und eine entsprechend hohe Dichte an Akzenten und Indexziffern bei der Umschreibung zusammenhängender Texte. So ist im Sumerischen zum Beispiel das Zeichen gu10 recht häufig (u. a. Possessivpronomen „mein“), obwohl im Sumerischen selbst die meisten der gu-Zeichen mit niedrigerem Index (gu, gú, gù, gu4, gu5, … gu9) nicht oder wenig gebräuchlich sind. Es ist einmal der Vorschlag gemacht worden, ein rein auf das Sumerische beschränktes Transliterationssystem zu entwickeln, was die Umschrift dieser Sprache von Zusatzzeichen entlasten würde, aber den Vorteil der Verwendbarkeit für alle Keilschriftsprachen aufgäbe.
Schriftmedien
Das bevorzugte Schriftmedium der Keilschrift zur Zeit ihrer Verbreitung (3000 bis 500 v. Chr.) waren Tafeln aus feuchtem Ton. Die Schriftzeichen wurden mittels eines Schilfrohr- oder Holzgriffels eingeprägt. Danach trockneten die Tontafeln, oder sie wurden durch Brennen zusätzlich gehärtet. Königsinschriften der Assyrer waren meist in Stein geschlagen. Die urartäische Keilschrift findet sich fast ausschließlich auf Felsen. Es wurden aber auch mit einem Stichel in Silberplatten geprägte Texte in Keilschrift gefunden.
Obwohl sich moderne Medien wie Papier und Bildschirm nicht für die Keilschrift eignen, wurde mit dem Unicode-Block Keilschrift und dem Unicodeblock Keilschrift-Zahlzeichen und -Interpunktion eine Anbindung an diese Medien geschaffen, die die Verbreitung der Keilschrift über zeitgemäße Medien erleichtert.
Siehe auch
Geschichte der Schrift
Literatur
Hans Baumann: Im Lande Ur. Die Entdeckung Altmesopotamiens. (= Ravensburger Taschenbücher. 229). 4. Auflage. Maier, Ravensburg 1981, ISBN 3-473-39229-4 ( = Bertelsmann-Jugendbuchverlag, Gütersloh 1968), S. 105.
Rykle Borger: Assyrisch-Babylonische Zeichenliste. (= Alter Orient und Altes Testament. 33/33A). 4. Auflage. Neukirchener Verlag, Neukirchen-Vluyn 1988, ISBN 3-7887-0668-6; und: 4. Auflage. Butzon und Bercker, Kevelaer 1988, ISBN 3-7666-9206-2.
Rykle Borger: Mesopotamisches Zeichenlexikon. Alter Orient und Altes Testament 305, Ugarit-Verlag, Münster 2004, ISBN 3-927120-82-0.
Anton Deimel: Die Inschriften von Fara. Band 1: Liste der archaischen Keilschriftzeichen; Ausgrabungen der Deutschen Orientgesellschaft in Fara und Abu Hatab 1; Wissenschaftliche Veröffentlichung der Deutschen Orientgesellschaft 4. Zeller, Osnabrück 1970 ( = J. C. Hinrichs, Leipzig 1922); Online beim Max-Planck-Institute for the History of Science
Adam Falkenstein: Archaische Texte aus Uruk. Ausgrabungen der Deutschen Forschungsgemeinschaft in Uruk-Warka 2. Deutsche Forschungsgemeinschaft, Berlin bzw. Harrassowitz, Leipzig 1936; Online beim Max-Planck-Institute for the History of Science
E. Forrer: Die Keilschrift von Boghazköi. J. C. Hinrichs, Leipzig 1922 ( = Wissenschaftliche Veröffentlichung der Deutschen Orientgesellschaft 41. Zeller, Osnabrück 1969)
Johannes Friedrich: Hethitisches Keilschrift-Lesebuch. Winter, Heidelberg 1960 (Band 1: 2. Auflage. 1975, ISBN 3-533-00594-1; Band 2: 2. Auflage. 1978, ISBN 3-533-00595-X)
Yvonne Rosengarten: Répertoire commenté des signes présargoniques sumériens de Lagash. Paris 1967. Online beim Max-Planck-Institute for the History of Science
Christel Rüster, Erich Neu: Hethitisches Zeichenlexikon (HZL); Studien zu den Boǧazköy-Texten: Beiheft 2. Harrassowitz, Wiesbaden 1989, ISBN 3-447-02794-0.
Jean-Jacques Glassner: Écrire à Sumer: l’invention du cunéiforme. Seuil, 2001.
englische Ausgabe: The Invention of Cuneiform. Writing in Sumer. Johns Hopkins University Press, 2003, ISBN 0-8018-7389-4.
Karoly Földes-Papp: Vom Felsbild zum Alphabet. Die Geschichte der Schrift von ihren frühesten Vorstufen bis zur modernen lateinischen Schreibschrift. Chr. Belser, Stuttgart 1966, ISBN 3-8112-0007-0.
Harald Haarmann: Geschichte der Schrift. C. H. Beck, München 2002, ISBN 3-406-47998-7.
Harald Haarmann: Universalgeschichte der Schrift. Campus, Frankfurt am Main/ New York 1990, ISBN 3-593-34346-0.
Gebhard Selz: Altsumerische Verwaltungstexte aus Lagas. Teile 1–2, Steiner, Stuttgart 1989 ff., ISBN 3-515-05204-6.
Teil 3: Die altsumerischen Wirtschaftsurkunden aus Berlin, nebst einer Untersuchung. Altsumerische Wirtschaftsurkunden aus Berlin als Dokumente einer redistributiven Ökonomie im Wandel (In Vorbereitung).
B. André-Leickman, C. Ziegler (Hrsg.): Naissance de l’écriture, cunéiformes et hiéroglyphes. Éditions de la Réunion des Musées Nationaux, Paris 1982.
Jean Bottéro: De l’aide-mémoire à l’écriture. In Mésopotamie, l'Écriture, la Raison et les Dieux. Gallimard, S. 132–163.
Bedřich Hrozný: Keilschrifttexte aus Boghazköi, Heft 5/6, Autographien; Wissenschaftliche Veröffentlichung der Deutschen Orientgesellschaft 36. Hinrichs, Leipzig 1921 ( = Zeller, Osnabrück 1970, ISBN 3-7861-1394-7).
Hans J. Nissen, Peter Damerow, Robert K. Englund: Frühe Schrift und Techniken der Wirtschaftsverwaltung im alten Vorderen Orient. Franzbecker, Berlin 1990, ISBN 3-88120-110-6.
Karen Radner, Eleanor Robson (Hrsg.): The Oxford Handbook of Cuneiform Culture. Oxford University Press, Oxford u. a. 2011.
Dokumentationen
Vom Schreiben und Denken – Die Saga der Schrift (1/3) Der Anfang. Originaltitel: L'odysée de l'écriture – Les origines. TV-Dokumentationsreihe von David Sington, F 2020; deutsche Synchronfassung: Arte 2020 (Auf: youtube.com); mitwirkend: Yasmin El Shazly (Ägyptologin), Lydia Wilson (Historikerin), Brody Neuenschwander (Kalligraph), Irving Finkel (Assyrologe), Günter Dreyer (Ägyptologe), Orly Goldwasser (Ägyptologin), Yongsheng Chen (Philologe), Pierre Tallet (Ägyptologe), Ahmad Al-Jaliad (Philologe) u. a.
Weblinks
CDLI – Cuneiform Digital Library Initiative
Gutenberg-Museum Mainz, Museum für Buch-, Druck- und Schriftgeschichte
Keilschriften als 3D-Scan
Keilschrifttafeln als Digitalisat der Staatsbibliothek Bamberg
KeiBi online (Keilschrift-Bibliographie, Universität Tübingen)
Anmerkungen
Archäologie (Alter Orient)
4. Jahrtausend v. Chr.
|
Q401
| 277.010076 |
36990
|
https://de.wikipedia.org/wiki/Habitat
|
Habitat
|
Habitat (von ) bezeichnet in der Biologie den für eine bestimmte Art typischen Aufenthaltsbereich innerhalb eines Biotops, genauer den durch spezifische abiotische und biotische Faktoren bestimmten Lebensraum, an dem die Art in einem Stadium ihres Lebenszyklus lebt.
Der Begriff des Habitats wurde zunächst allein auf eine Art bezogen verwendet, also autökologisch. Insbesondere in englischsprachiger Literatur wird er auch in synökologischem Zusammenhang verwendet, gelegentlich synonym zu Biotop, so dass auch die Lebensstätte einer Gemeinschaft als Habitat bezeichnet wird. So definieren Campbell und Reece ein Habitat als einen räumlich abgrenzbaren Teilbereich eines Biotops. In der Botanik, speziell der Vegetationsökologie, wird anstelle von Habitat im autökologischen Sinne meist vom Standort gesprochen.
Lebensraum von Tieren und Pflanzen
Unter einem Habitat wird laut Campbell und Reece (2009) der Lebensraum verstanden, den eine Auswahl von Tier- oder Pflanzenarten aus der Lebensgemeinschaft eines Biotops nutzt. Habitate bilden somit Teillebensräume in Biotopen. Die Auswahl wird häufig auf wenige Arten beziehungsweise eine Art begrenzt, wie „Habitat einer Art“. Je nach Nutzungsart und -zeit wird unter anderem zwischen Nahrungs-, Laich-, Brut- und Nisthabitaten beziehungsweise Sommer- und Winterhabitaten unterschieden.
Sehr kleinräumige oder speziell abgegrenzte Habitate werden als Mikrohabitate bezeichnet. Habitate, die den bevorzugten Lebensraum einer Art kennzeichnen, werden auch Vorzugshabitate, Biochorione oder Choriotope genannt. Sie werden in der Regel für größere, heterogen strukturierte Biotope angegeben. Extremophile Arten siedeln in extremen Habitaten, in Lebensräumen mit extremen Umweltbedingungen.
Umfasst der gesamte Lebensraum eines Individuums beziehungsweise einer Population mehrere unterschiedlich strukturierte Gebiete, so wird von komplementären oder Teil-Habitaten gesprochen. Sie lassen sich vor allem für mobile, wandernde Arten wie Fische oder Zugvögel bestimmen und können auch in voneinander getrennten Biotopen liegen. Teilhabitate lassen sich für alle Tiere finden, deren Habitat sich in funktionale Räume, zum Beispiel der Nahrungsaufnahme, der Fortpflanzung oder des Rückzugs, unterteilen lässt.
Im Zusammenhang mit (insbesondere jagdbaren) Wildtieren sind jägersprachlich die Bezeichnungen Einstand und Einstandsgebiet in Gebrauch. Solche Habitate bilden Schutz-, Deckungs- oder auch Ruhezonen. Die Fischfauna zum Beispiel benötigt Einstandshabitate auf oder nach kräftezehrenden Distanzwanderungen.
Fauna-Flora-Habitat
Die Begriffe Fauna-Flora-Habitat und FFH-Gebiet werden umgangssprachlich verkürzend und unspezifisch für Gebiete von gemeinschaftlicher Bedeutung verwendet, das heißt Gebieten nach Richtlinie 92/43/EWG (Fauna-Flora-Habitat-Richtlinie). Gemeint sind Habitate von zumeist einzelnen Arten, die zum Zwecke der Arterhaltung in das europäische Schutzgebietssystem Natura 2000 aufgenommen wurden beziehungsweise werden.
Habitatspezifität
Der Grad der Abhängigkeit von einem bestimmten Habitat wird Habitatspezifität genannt. Damit wird zum Beispiel bei Parasiten deren Abhängigkeit von bestimmten Körperregionen am oder im Wirtsorganismus beschrieben.
Zur Wortherkunft
Die breite Verwendung des Begriffs Habitat in der Biologie geht auf den Naturforscher Carl von Linné zurück, der in seinem 1753 erschienenen Werk Species Plantarum bei seinen lateinischsprachigen Artbeschreibungen den Satz beziehungsweise Absatz zum Lebensraum der Art stets einleitete mit kursiv hervorgehobenem (Betonung auf erster Silbe, daher zum Beispiel spanisch ). Diese Gepflogenheit ist bei späteren Artbeschreibungen beibehalten worden.
Zum Bedeutungswandel
Sowohl im Deutschen als auch in anderen Sprachen – so im Französischen und Spanischen – wird der Begriff ursprünglich nur autökologisch verwendet, das heißt jedes Habitat ist ein Habitat einer Art. Die Verwendung in synökologischem Zusammenhang, bis hin zum Synonym für Biotop, ist vor allem auf den Einfluss aus dem englischen Sprachraum zurückzuführen.
Habitattrennung
Mit Habitattrennung (Habitatfragmentierung) bezeichnet man den Vorgang, einen Lebensraum durch Straßen, Bahntrassen, oder auch Flüsse zu trennen. Diese Fragmentierung schränkt nicht nur die Bewegungsfähigkeit von Wildtieren ein, sondern schränkt dadurch auch die Anpassungsfähigkeit und damit das Überleben von Arten dramatisch ein. Habitattrennung führt daher schnell zum Verlust von Biodiversität und zum Artensterben.
Lebensraum des Menschen
In der Anthropologie bezeichnet Habitat allgemein eine Wohnstätte wie ein Haus oder Zelt oder auch eine Siedlung des Menschen, als Wohnplatz, Ortschaft, Agglomeration oder landschaftstypische Wohnform, oder ein Siedlungsgebiet als eine von einer gewissen Bevölkerungsgruppe als Wohnraum genutzte Region. Auch eine Wohnstation auf einem anderen Himmelskörper im Weltraum wird Habitat genannt. In diesem Sinne werden Habitate des Menschen von der Siedlungsgeographie und Makrosoziologie untersucht.
Siehe auch
Habitatverlust
Ökologische Nische
Merotop, die kleinstmögliche Einheit eines Habitats
Mikrohabitat
Literatur
Stefan Nehring, Ute Albrecht: Biotop, Habitat, Mikrohabitat – Ein Diskussionsbeitrag zur Begriffsdefinition. In: Lauterbornia 38, 2000, S. 75–84 (PDF; 156 kB).
Gerhard Wagenitz: Wörterbuch der Botanik. Die Termini in ihrem historischen Zusammenhang. 2., erweiterte Auflage. Spektrum Akademischer Verlag, Heidelberg/Berlin 2003, ISBN 3-8274-1398-2.
Weblinks
(FFH-Richtlinie) im Amtsblatt der Europäischen Union mit Anhängen (Anhang I – Natürliche Lebensräume von gemeinschaftlichem Interesse, für deren Erhaltung besondere Schutzgebiete ausgewiesen werden müssenAnhang II – Tier- und Pflanzenarten von gemeinschaftlichem Interesse, für deren Erhaltung besondere Schutzgebiete ausgewiesen werden müssenAnhang III – Kriterien zur Auswahl der Gebiete, die als Gebiete von gemeinschaftlicher Bedeutung bestimmt und als besondere Schutzgebiete ausgewiesen werden könntenAnhang IV – Streng zu schützende Tier- und Pflanzenarten von gemeinschaftlichem InteresseAnhang V – Tier- und Pflanzenarten von gemeinschaftlichem Interesse, deren Entnahme aus der Natur und Nutzung Gegenstand von Verwaltungsmaßnahmen sein können)
Einzelnachweise
Naturschutz
Biogeographie
|
Q52105
| 818.263132 |
7193414
|
https://de.wikipedia.org/wiki/Curculionoidea
|
Curculionoidea
|
Die Curculionoidea sind eine weltweit verbreitete Überfamilie der Käfer innerhalb der Teilordnung Cucujiformia. Neben den bekannten Rüsselkäfern und Borkenkäfern umfasst sie eine Reihe von Familien, die überwiegend früher als Teil der Rüsselkäfer betrachtet wurde. Die Überfamilie umfasst 62.000 Arten (Stand 2007), davon allein 51.000 Curculionidae (Rüsselkäfer im engeren Sinne). Man nimmt aber an, dass in dieser Familie besonders viele wissenschaftlich noch unbeschriebene Arten existieren, meist in den tropischen Regenwäldern, so dass die tatsächliche Artenzahl vermutlich ein Vielfaches davon beträgt. Die Anzahl und Abgrenzung der Familien der Curculionoidea ist innerhalb der Wissenschaft noch nicht endgültig geklärt und umstritten.
Merkmale
Käfer
Die Curculionoidea umfasst eine ungeheure Artenfülle an Käfern mit beinahe allen denkbaren Ab- und Umwandlungen des Körperbaus, von millimetergroßen Winzlingen bis hin zu Arten von etwa 10 Zentimeter Körperlänge. Allen gemeinsam ist eine Ernährung der Larven als Pflanzenfresser (Phytophage) oder, alternativ, von lebendem oder totem Holz. Charakteristisches und auffallendstes gemeinsames Merkmal ist der Rüssel, anatomisch Rostrum genannt, eine Verlängerung der Kopfkapsel nach vorn oder unten, an dessen Spitze die Mundwerkzeuge liegen. Der Rüssel kann lang und dabei extrem dünn sein (bis mehrfach körperlang) oder kurz und gedrungen. Wenige Gruppen, insbesondere die Scolytinae (Borkenkäfer) und die Platypodinae (Kernholzkäfer) haben den Rüssel sekundär rückgebildet. Andererseits kommen rüsselartige Verlängerungen der Kopfkapsel auch bei anderen Familien vor, so dass der Rüssel allein kein sicheres Erkennungsmerkmal ist. Der hauptsächliche biologische Sinn der langen und dünnen Rüsselformen wird meist in der Eiablage gesehen. Das Weibchen kann mit seiner Hilfe einen langen und dünnen Hohlraum in Pflanzengewebe hineinfressen, in den es anschließend geschützt seine Eier (mit einem langen und flexiblen, ausstülpbaren Legerohr) ablegen kann. Dementsprechend ist der Rüssel zwischen den Geschlechtern oft verschieden ausgebildet (Sexualdimorphismus). An der Spitze des Rüssels sitzen die Mundwerkzeuge. Diese sind vom normalen, beißend-kauenden Typ, weisen aber eine Reihe charakteristische Umbildungen auf. Ein freies Labrum ist nur bei den ursprünglichen Familien Nemonychidae und Attelabidae ausgebildet, meist ist es mit dem Clypeus verschmolzen. Die Mandibeln sind fast immer vom normalen, beißenden Typ, sie können kurz und gedrungen oder lang und schlank sein. Bei vielen Curculionoidea weisen sie einen horn- oder zapfenförmigen Fortsatz auf der Außenseite auf, der nur beim frisch geschlüpften Käfer vorhanden ist und später (an einer Sollbruchstelle) abgeworfen wird, so dass nur eine raue Narbe zurückbleibt. Als Funktion des Fortsatzes gilt, dass die frisch geschlüpfte Imago sich aus ihrer Puppenkammer befreien kann. Einige Gruppen wie die Unterfamilie Rhynchitinae haben außen gezähnte (exodonte) Mandibeln. Bei der Gattung Curculio und Verwandten arbeiten die Mandibeln nicht gegeneinander, sondern werden auf und ab bewegt. Bei der Ausbildung von Labium und Maxillen gibt es zwei Typen. Entweder die Maxillen werden vom vergrößerten Prämentum des Labiums verdeckt, oder sie sitzen seitwärts des Prämentum an und sind von unten frei sichtbar. Während die Labialpalpen meist normal ausgebildet sind, sind die Maxillarpalpen bei allen außer den ursprünglichsten Familien zu einem kurzen und starren, eingliedrigem Fortsatz umgebildet. Die Antennen sitzen meist an der Seite des Rüssels, sie können auch an der Ober- oder Unterseite eingelenkt sein. Sie bestehen aus elf Gliedern (bei einigen Arten sekundär auch weniger). Die letzten drei Glieder sind in der Regel zu einer deutlichen, erweiterten Fühlerkeule umgebildet, die bei den Curculionidae eng geschlossen, bei den übrigen Familien eher locker gegliedert ist. Selten ist sie undeutlich, dann heben sich ihre Glieder durch matte Oberfläche von den glänzenden übrigen Segmenten ab. Bei den ursprünglichen Familien, nach diesem Merkmal als „Orthoceri“ bezeichnet (auch „Recticornes“), ist das Basisglied (Scapus) der Antenne kurz und die Antenne sitzt gerade daran an. Bei den abgewandelten „Gonatoceri“ (oder auch „Infracticornes“) ist der Scapus verlängert, die Fühlergeißel schließt daran mit einem deutlichen Winkel an (genauso wie der Fühlerbau der Ameisen). Diese gewinkelten („geknieten“) Fühler ermöglichen es dem Tier, die Oberfläche vor den Mundwerkzeugen zu untersuchen. Außerdem kann der Scapus zurückgeschlagen, oft sogar in eine Rinne des Rüssels eingelegt, werden, und ist so beim Ausnagen von Hohlräumen nicht im Wege. Am Kopf sitzt außerdem ein Paar Komplexaugen, das sehr vielgestaltig abgewandelt sein kann. Der Kopf wird fast immer vorgestreckt gehalten, so dass die Mundwerkzeuge nach vorn und nicht nach unten zeigen (prognath). Er ist dafür auf der Bauchseite durch ein zusätzliches Sklerit geschlossen, das als „Gula“ bezeichnet wird. Bei den Curculionoidea mit Ausnahme der basalen Familien ist die Gula aber ins Kopfinnere verlagert, so dass außen nur eine Naht sichtbar bleibt, oder ohne erkennbare Nähte mit der Kopfkapsel verschmolzen.
Die Curculionoidea sind meist hart sklerotisierte Tiere. Der Körperumriss ist meist oval, mit hochgewölbten Flügeldecken (Elytren) und flacher Unterseite. Die Flügeldecken schließen dabei fest an die übrige Körperkontur an. Bei ungeflügelten Tieren wie den Brachycerinae ist die Oberseite (Abdomen und hinterer Thoraxabschnitt) darunter sogar weichhäutig und nicht sklerotisiert. Bei einigen Gruppen, wie den Cryptorhynchini, können Beine und Rüssel in Aussparungen eingelegt werden, wodurch sich eine außen hart gepanzerte Form ohne Ansatzmöglichkeit für Räuber ergibt. Bei den morphologisch abgewandelten Familien ist die Bauchseite des Hinterleibs in Reaktion auf die Panzerung umgebildet. Die vorderen Sternite, zumindest das erste und zweite, sind fest und unbeweglich miteinander verwachsen. Das dritte und vierte Sternit bilden eine Art Scharniergelenk, die es dem Tier ermöglichen, das Hinterende (zum Kotabsetzen oder zur Eiablage) zu öffnen. Bei einigen Gruppen sind die Flügeldecken am Ende etwas verkürzt. Das letzte Tergit, dann „Pygidium“ genannt, liegt hier frei, es ist in diesem Falle ebenfalls hart sklerotisiert. Die Beine entsprechen weitgehend dem Grundbauplan der Insekten. Bei einigen Familien (z. B. Brentidae) ist der Trochanter auffallend verlängert, bei den Curculionidae ist er kurz und dreieckig mit gewinkeltem Ansatz der Schenkel. Oft sind die Schenkel (Femora) keulenförmig erweitert, manchmal gezähnt. Der Ansatz der Tarsen an die Schienen ist bei vielen Gruppen eigentümlich umgebildet, oft sitzen hier auffallende hakenförmige Fortsätze. Typisch ist der Bau der Tarsen. Diese sind fünfgliedrig, wobei das dritte Glied unten stark erweitert ist und einen auffallenden Haarbesatz trägt, der zum Festhalten auf glatten Oberflächen dient. Das vierte Glied ist stark verkürzt und weitgehend vom dritten verdeckt, aber nur sehr selten völlig rückgebildet oder verschmolzen. Nur die kleine Gruppe der Raymondionymini besitzen viergliedrige Tarsen.
Am Hinterleib der Curculionoidea sind fünf Sternite frei sichtbar. Der erste sichtbare Sternit ist dabei derjenige des dritten Segments, die ersten beiden sind reduziert und in der Höhlung der Hinterhüften verborgen. Dementsprechend sind sieben Tergite erkennbar, gelegentlich acht (nur bei den Weibchen der Nemonychidae neun). Der achte Sternit ist eingezogen und in der Genitalkammer verborgen. Bei den ursprünglichen Familien der Curculionoidea ist bei den Männchen auch das neunte Tergit innerhalb der Genitalkammer erhalten, es wird hier als „Tectum“ bezeichnet. Eine abgewandelte Gruppe zeichnet sich durch einen anderen Bau der Genitalsegmente des Männchens aus, bei dem das Tectum rückgebildet ist. Im Großen und Ganzen entsprechen die Familien mit Tectum denjenigen mit geraden Fühlern, die ohne Tectum denen mit geknieten Fühlern. Es gibt aber eine Gruppe von Unterfamilien (früher oft als Familien aufgefasst) mit geknieten Fühlern ohne Tectum (Nanophyinae, Brachycerinae (mit Erirhinini, Cryptolaryngini und Raymondionymini) und Dryophthorinae)
, deren taxonomische Stellung oft umstritten ist.
Larven
Die Larven der Curculionoidea sind mehr oder weniger langgestreckt walzlich und in der Regel schwach bauchseitig eingekrümmt. Meist ist der gesamte Körper mit Ausnahme der Kopfkapsel und der Anhänge, zumindest aber der Hinterleib, weichhäutig und kaum sklerotisiert. Fast immer, mit Ausnahme einiger ursprünglicher Familien, sind sie beinlos. Zum Beispiel bei einigen Nemonychidae und Attelabidae kommen allerdings Larven mit mehrgliedrigen Beinen (mit einer Klaue am Ende) vor. Viele frei lebende Larven besitzen zur Fortbewegung warzige Fortsätze, die als „ambulatorische Ampullen“ bezeichnet werden. Die Larven der meisten Curculionoidea leben allerdings im Inneren von Pflanzengewebe oder Holz und besitzen keinerlei Fortsätze zur Bewegung. Sie können kriechen, indem sie sich im Inneren des Hohlraums abstützen und vorwärts stemmen. Meist ist der Körper dazu zusätzlich zur Segmentierung in sekundäre Ringel („Plicae“) gegliedert.
Die Larven besitzen eine deutlich sklerotisierte Kopfkapsel, die bei einigen Gruppen in den Rumpf zurückgezogen werden kann. Die Mundwerkzeuge sind nach unten gerichtet (hypognath). Larvenaugen (Stemmata) fehlen meist. Auch die Antennen sind weitgehend reduziert, meist bestehen sie aus einer unsklerotisierten, kissenförmigen, Struktur, die einen großen Sinneskegel und mehrere kleine Sensillen trägt. Unterhalb der Mundwerkzeuge ist ein stark sklerotisierter Fortsatz vorhanden, der aus dem umgebildeten Hypopharynx besteht. Die Larven besitzen in der Regel prominente, beißende Mandibeln. An den Maxillen sind die beiden Laden verschmolzen. In der Regel sitzen die Maxillen beiderseits seitwärts des Labium an und liegen in einer Ebene mit ihm. Es sind zwei- oder dreigliedrige Maxillar- und Labialpalpen vorhanden.
Am Hinterleib der Larven sitzen normalerweise acht Paare von Stigmen, die aber nicht immer alle funktionstüchtig sind. Bei vielen wasserlebenden Larvenformen weisen sie dornförmige Fortsätze auf. Diese dienen dazu, das Luftleitgewebe (Aerenchym) von Wasserpflanzen anzubohren. Fortsätze (Styli oder Urogomphi) am Hinterende der Larven sind niemals ausgebildet.
Lebensweise
Curculionoidea sind in allen Lebensräumen verbreitet, in denen Pflanzen wachsen und Insekten überhaupt vorkommen können. Nahezu jede Pflanzenart wird von ihnen in unterschiedlichem Ausmaß befressen. Sehr viele Arten sind dabei auf eine oder wenige verwandte Pflanzenarten (monophag oder oligophag) spezialisiert. Einige Familien und Unterfamilien, besonders die Cossoninae, Scolytinae und Platypodinae bohren in Holz. Zum Aufschließen dieses schwierigen Substrats kultivieren sie holzabbauende Pilzarten, die sie meist in speziellen Strukturen am Körper mit sich führen. Auch die meisten anderen daraufhin untersuchten Curculionoidea besitzen symbiontische Mikroorganismen, die die Verdauung unterstützen. Die meisten Larvenformen bohren im Inneren von Pflanzengewebe, nur wenige Formen leben frei auf der Oberfläche. Die adulten Käfer fressen normalerweise auch an Pflanzengewebe. Zahlreiche Formen ernähren sich von Pollen und besuchen dazu Blüten. Sie spielen aber für die Bestäubung, von wenigen Ausnahmen abgesehen, eine viel geringere Rolle als andere Gruppen, vor allem Hautflügler (Hymenoptera). Die Familie Attelabidae sticht Pflanzenteile an, um sie zu schwächen, damit die Larven sich darin besser entwickeln können. Falls es sich um Blätter handelt, werden sie von vielen Arten zu Blattwickeln gerollt. Zahlreiche Arten sind als Imagines und Larven bodenlebend, sie ernähren sich z. T. von Wurzeln, andere fressen Algen- oder Flechtenüberzüge.
Systematik
Die Monophylie der Überfamilie Curculionoidea gilt allgemein als gut abgesichert und wird in keinem moderneren Werk bezweifelt. Als Schwestergruppe gilt die Überfamilie Chrysomeloidea (mit den großen Familien der Blattkäfer (Chrysomelidae) und der Bockkäfer (Cerambycidae)), mit denen sie den besonderen Bau der Tarsen gemeinsam haben. Die Gruppierung wird nach der Lebensweise als „Phytophaga“ bezeichnet. Ob die unbestreitbar eng verwandten Überfamilien wirklich Schwestergruppen sind, ist nach molekularen Stammbäumen (aufgrund des Vergleichs homologer DNA-Sequenzen) allerdings nicht gesichert.
Die traditionelle Untergliederung der Curculionoidea in Familien ist in den letzten Jahren aufgrund neuer Erkenntnisse, vor allem zur Morphologie, neu geordnet worden. Gruppen, die traditionell als Unterfamilien der Curculionidae geführt worden waren, wurden als eigene Familie ausgegliedert. So wurden aus der Unterfamilie Apioninae zunächst die Familie Apionidae, die schließlich in die Brentidae (Langkäfer) eingegliedert wurde. Auch die Blattroller waren ursprünglich Teil der Curculionidae. Sie wurden zunächst in Form von zwei Familien (Attelabidae und Rhynchitidae) ausgegliedert. Inzwischen sind sie als Familie Attelabidae vereint.
Gleichzeitig wurden die traditionellen Familien Scolytidae und Platypodidae (Borken- und Kernkäfer), die sich vor allem durch den fehlenden Rüssel auszeichnen, als Unterfamilien in die Curculionidae eingegliedert.
Zurzeit sind nebeneinander zwei Systeme in Gebrauch, eines mit 16 enger abgegrenzten Familien (plus zwei ausgestorbenen, die nur fossil bekannt sind), eines mit nur 8 weiter abgegrenzten Familien. Der Unterschied zwischen beiden beruht dabei in den meisten Fällen weniger auf völlig unterschiedlichen phylogenetischen Systemen, sondern mehr in einem unterschiedlichen Verständnis der Rangstufen, so dass die Meinungsunterschiede geringer sind als zunächst anzunehmen. Das enger untergliedernde System beruht auf dem Katalog von Alonso-Zarazaga und Lyal; es wurde für die meisten aktuelleren deutschsprachigen Veröffentlichungen herangezogen. Die andere Unterteilung nach Oberprieler, Marvaldi und Anderson ist mindestens ebenso verbreitet.
Im Katalog der paläarktischen Rüsselkäfer folgen Alonso-Zarazaga und Lyal zumindest auf Familienebene der Klassifikation von Oberprieler, Marvaldi und Anderson. Es ist daher davon auszugehen, dass sich diese Klassifikation etablieren wird.
Problematisch ist immer noch die Untergliederung innerhalb der Familien, insbesondere innerhalb der riesigen Familie der Curculionidae. Zahlreiche der traditionellen Unterfamilien sind beinahe mit Sicherheit polyphyletisch, werden aber weiter verwendet, weil bisher niemand ein besseres System vorstellen konnte. Hier sind auch in Zukunft weiter konkurrierende Klassifikationen und Änderungen zu erwarten.
Die folgende Auflistung richtet sich nach dem "Handbook of Zoology", welches auf der Klassifikation durch Oberprieler, Marvaldi und Anderson aufbaut und im Wesentlichen auch von den Autoren des Palearctic Catalogue übernommen wurde.
Nemonychidae
Nemonychinae
Rhinorhynchinae
Cimberidinae
Anthribidae (Breitrüssler)
Urodontinae
Anthribinae
Choraginae
Belidae
Belinae
Oxycoryninae
Attelabidae (Blattroller und Fruchtstecher)
Rhynchitinae
Attelabinae
Caridae
Brentidae (Langkäfer)
Ithycerinae
Microcerinae
Eurhynchidae
Brentinae
Apioninae (Spitzmausrüssler)
Nanophyinae (Zwergrüssler)
Curculionidae (Rüsselkäfer "im engeren Sinne")
Dryophthorinae
Platypodinae (Kernkäfer)
Brachycerinae
Cyclominae
Entiminae
Curculioninae
Molytinae (incl. "Cryptorhynchinae", die nicht monophyletisch sind)
Conoderinae (incl "Ceutorhynchinae", "Baridinae" und "Orobitidinae" jeweils als Übertribus)
Cossoninae
Scolytinae (Borkenkäfer)
Unterfamilien mit unklarem Status: Lixinae, Mesoptiliinae, Bagoinae, Gonipterinae, Hyperinae
Fossilien und Evolution
Die ältesten Fossilien, die der Überfamilie zugeordnet werden können, stammen aus dem Jura. Sie wurden in der Fossillagerstätte Karatau (heutige Schreibweise Qaratau) in Kasachstan gefunden, aus der bereits fast 50 Arten entdeckt worden sind (einige noch unbeschrieben). Noch ältere Funde aus der Trias werden der ausgestorbenen Familie Obrieniidae zugeordnet, die, obwohl sie einen Rüssel und gekeulte Fühler aufweist, heute nicht mehr als zu den Curculionoidea gehörig betrachtet wird. Die Obrieniidae waren vermutlich Archostemata, die Rüsselbildung erfolgte wohl konvergent. Bei den fossilen Curculionoidea sitzt der Rüssel an der Unterseite des Kopfes an. Die meisten Fossilien können nach ihrer Merkmalsausprägung in die rezente Familie Nemonychidae eingeordnet werden, repräsentieren aber ausgestorbene Unterfamilien. Einige fossile Arten derselben Lagerstätte wurden der Familie Belidae zugeordnet. Möglicherweise handelt es sich aber um Stammgruppenvertreter (der Unterfamilie Eobelinae), von der zahlreiche der modernen Familien abstammen. Aus der Kreide liegen zahlreiche Fossilien vor, insbesondere konserviert in Bernstein, der erstmals in dieser Epoche auftrat. Aus burmesischem Bernstein der frühen Kreide stammt auch der erste Rüsselkäfer mit geknieten Antennen.
Die fossilen Curculionoidea aus Jura und Kreide sind vermutlich ausschließlich oder weit überwiegend an Gymnospermen als Nahrungspflanzen gebunden. Die überlebenden Vertreter der damals verbreiteten Familien, die heute artenarme Reliktgruppen bilden, sind überwiegend an Nadelbäume gebunden. Zahlreiche Forscher vertreten die Hypothese, dass der große Artenreichtum der heutigen Curculionoidea (und auch der Chrysomeloidea) auf die Entstehung der Angiospermen in der Kreide zurückgeht. Die ersten Arten, die als Pflanzenfresser an diese übergegangen seien, hätten fast keine Konkurrenten besessen und hätten anschließend, gemeinsam mit ihren Nahrungspflanzen, eine rapide adaptive Radiation durchmachen können. Diese Hypothese, obwohl im Prinzip überzeugend, wird von einigen Forschern aber für nicht ausreichend belegt und letztlich unbeweisbar gehalten.
Einzelnachweise
Weblinks
Coleoptera
|
Q383963
| 292.573189 |
13902
|
https://de.wikipedia.org/wiki/Jekaterinburg
|
Jekaterinburg
|
Jekaterinburg, romanisiert auch Ekaterinburg (, ; 1924–1991 Swerdlowsk, russisch , historisch auch Katharinenburg), ist eine wichtige Industrie- und Universitätsstadt am Uralgebirge in Russland mit Einwohnern (Stand ).
Jekaterinburg liegt am Fluss Isset knapp 40 Kilometer östlich der imaginären Trennlinie zwischen Europa und Asien, welche im Westen bei der Stadt Perwouralsk verläuft. An dieser Stelle steht eine Europa-Asien-Säule. Die natürliche Grenze wird vom Ural gebildet. Der Zeitunterschied zu Moskau beträgt zwei Stunden und zu Mitteleuropa vier Stunden (bzw. drei Stunden während der mitteleuropäischen Sommerzeit).
Nach Moskau, Sankt Petersburg und Nowosibirsk ist Jekaterinburg die viertgrößte Stadt und Zentrum der drittwichtigsten Region Russlands. In der Stadt haben sich mehrere Generalkonsulate niedergelassen, darunter eines der USA, von Tschechien, Großbritannien, Deutschland (seit 2005) und seit 2006 auch von Österreich.
Geschichte
Die Region wurde im 11. Jahrhundert von den Nowgorodern erschlossen. Die industrielle Erschließung begann Ende des 17. Jahrhunderts. Die Gründung der Stadt erfolgte am durch Wassili Tatischtschew zusammen mit dem deutschstämmigen Offizier und Kaufmann in russischen Diensten Georg Wilhelm Henning (1676–1750). Der Name der Stadt leitet sich von der Kaiserin Katharina I. (1684–1727) ab.
Jekaterinburg war eine der ersten russischen Fabrikstädte, die ab Beginn des 18. Jahrhunderts auf Zarenerlass zur Entwicklung des metallverarbeitenden Gewerbes gebaut wurden. Den Siedlungskern von Jekaterinburg bildeten eine Eisenhütte und im Quadrat angeordnete Wohngebäude. Umgeben wurde der Kern von einer Befestigungsanlage. Jekaterinburg war somit zugleich Fabrik- und Festungsstadt, von der aus die weitere Erschließung des Urals erfolgen sollte. Während der Baschkiren-Aufstände 1735–1740 wurden die zwangsgetauften Baschkiren Toigildy Schuljakow 1738 und Kissjabika Bairjassowa 1739 als Apostaten in Jekaterinburg auf dem Scheiterhaufen verbrannt.
Mit der Anbindung an den sogenannten Sibirischen Trakt 1763, der als eine der ersten großen West-Ost-Achsen Russlands von Moskau ins an Bodenschätzen reiche Sibirien führte, übernahm Jekaterinburg zunehmend Handels- und Mittlerfunktionen zwischen Europa und Asien („Fenster nach Asien“). Damit begann die eigentliche städtebauliche Entwicklung und Ausbildung städtischer Funktionen. Die Bebauung löste sich langsam von den Erfordernissen der Eisenproduktion, zunehmend bestimmten Gesellschaftsbauten das Stadtbild, und Stein wurde das vorherrschende Baumaterial für die wichtigeren Bauten. Neben Fabrikbesitzern und Arbeitern siedelten sich nun auch Kleinunternehmer, Beamte und Kaufleute, Geistliche und Militärs an. Zwischenzeitlich wurde die Verwaltung der Uralhütten aus der Gouvernementshauptstadt Perm nach Jekaterinburg verlegt. 1781 ernannte Katharina II. Jekaterinburg zur Stadt. Im gleichen Jahr wurde sie zur Hauptstadt des Ujesd Jekaterinburg, einer Unterverwaltungseinheit im Gouvernement Perm. Im Juni 1829 besuchte Alexander von Humboldt die Stadt während seiner achtmonatigen Russlandexpedition und besichtigte nahegelegene Gruben.
Die industrielle Funktion der Stadt blieb auch im 19. Jahrhundert bestimmend. Seit 1840 galt Jekaterinburg als Zentrum der Metallverarbeitung, und bereits Anfang des 19. Jahrhunderts lag es hinsichtlich der Industrieproduktion an der Spitze der Uralstädte. Ab der Mitte des 19. Jahrhunderts erfolgte infolge einer Krise im Metallsektor eine Diversifikation der lokalen Wirtschaftsstruktur. Im letzten Viertel des 19. Jahrhunderts siedelten sich zahlreiche russische Banken in der Stadt an, und Jekaterinburg übernahm zunehmend überregionale Funktionen im Banken- und Kreditwesen. Die Stadt wurde auch kulturell Zentrum des Uralgebietes und hatte 1897 43.000 Einwohner. Nach dem Ausbruch der Oktoberrevolution wurde die Stadt durch die Weißgardisten des Admirals Koltschak besetzt. Am 25. Juli 1918 wurde Jekaterinburg von Truppen der auf der Seite der Komutsch (Komitee der Mitglieder der konstituierenden Versammlung) stehenden Tschechoslowakischen Legionen unter Stanislav Čeček eingenommen. Erst im Juli 1919 gelang es der Roten Armee, die Stadt zurückzuerobern. Weltweit bekannt wurde sie durch die Ermordung der Zarenfamilie im Verlauf des Russischen Bürgerkrieges 1918.
Ab 1914 gab es Pläne, die östlich des Urals liegenden Teile des Gouvernements Perm zu einem eigenen Gouvernement mit der Hauptstadt Jekaterinburg zusammenzufassen. Am 5. Juli 1919 wurde die Gründung des Gouvernements Jekaterinburg offiziell verkündet. Jekaterinburg wurde bei der Gründung der Oblast Ural am 3. November 1923, in der die Gouvernements Jekaterinburg, Perm, Tjumen und Tscheljabinsk aufgingen, zu deren Hauptstadt. Die Erhebung der Stadt zum überregionalen Verwaltungszentrum (seit der Auflösung der Oblast Ural 1934 Hauptstadt der bis heute bestehenden Oblast Swerdlowsk) und ihre steigende wirtschaftliche Bedeutung führten zu einem starken Bevölkerungsanstieg. Damals im Stile des Konstruktivismus errichtete öffentliche Einrichtungen und Wohnhäuser prägen bis heute das Stadtbild.
Zu Ehren von Jakow Swerdlow trug die Stadt von 1924 bis 1991 den Namen Swerdlowsk. Während des Großen Vaterländischen Krieges lagerten hier die Kunstschätze der Eremitage. In der Stadt bestanden die Kriegsgefangenenlager 377 und 531 für deutsche Kriegsgefangene des Zweiten Weltkrieges. Das im Zuge der Industrialisierung der Sowjetunion 1928 gegründete Werk Uralmasch wurde im Zweiten Weltkrieg zu einem wichtigen Produzenten von Rüstungsgütern für die Rote Armee. Neben anderen Rüstungsbetrieben fertigte das Werk den Panzer T-34, die Selbstfahrlafetten SU-85, SU-100 und SU-122 sowie die Haubitzen M-30.
Swerdlowsk war auch nach dem Zweiten Weltkrieg ein wichtiges Produktionszentrum des militärisch-industriellen Komplexes der Sowjetunion. Dort wurden Panzer, Atomraketen und andere Waffen produziert. Am 2. April 1979 ereignete sich der Milzbrand-Unfall in Swerdlowsk. Im Rüstungsbetrieb Swerdlowsk-19, der dem Netzwerk von Biopreparat angehörte, wurden biologische Waffen hergestellt. Wegen eines Fehlers beim Unterhalt der Luftfilter gelangten Milzbrand-Sporen in die Umgebung. Mindestens 100 Menschen kamen dabei ums Leben, die genaue Zahl ist bis heute unbekannt. Die Ursache des Unfalls wurde von der sowjetischen Regierungsspitze jahrelang geleugnet und der Verzehr von verseuchtem Fleisch aus der Umgebung für diesen Ausbruch von Milzbrand verantwortlich gemacht.
Während des Putsches 1991 befand sich hier der Bunker mit der „Ersatzregierung“ der Sowjetunion. Bis zum Zusammenbruch der Sowjetunion 1991 war die Stadt für Ausländer unzugänglich. Sowjetbürger konnten nur mit Genehmigung einreisen. Eine berühmte mit Jekaterinburg verbundene Persönlichkeit ist Boris Jelzin (1931–2007), der ehemalige Präsident Russlands. Er stammte aus Butka in der Oblast Swerdlowsk, studierte am Swerdlowsker Polytechnikum und war 1976–1985 Erster Sekretär des Oblastkomitees der KPdSU.
Die Stadt war Spielstätte der Fußball-Weltmeisterschaft 2018.
2019 wurde Jekaterinburg zum Schauplatz von Protesten der russischen Bürgerrechtsbewegung; Anlass war der Plan der Behörden, in einem Park im Zentrum der Stadt eine orthodoxe Kathedrale zu errichten.
Bevölkerungsentwicklung
Anmerkung: Volkszählungsdaten
Klima
Das Klima der Region ist kontinental mit großen Temperaturschwankungen. Die Sommer sind bis zu 35 °C warm, aber kürzer als in Mitteleuropa. Frühjahr und Herbst sind ausgesprochen kurz. Die Winter hingegen können bis zu 6 Monate dauern und erreichen Temperaturen bis −40 °C.
Verwaltungsgliederung und Einwohnerentwicklung
Der Akademitscheski rajon wurde 2020 aus Teilen des Leninski und des Werch-Issetski rajon gebildet.
Sehenswürdigkeiten
Die bekannteste historische Sehenswürdigkeit der Stadt ist die Kathedrale auf dem Blut. Sie steht an der Stelle, an der sich bis 1977 das Ipatjew-Haus befand, in dessen Keller in der Nacht vom 16. auf den 17. Juli 1918 die Bolschewiki den letzten Zaren Nikolaus II. und seine Familie ermordeten. Dieser Ort ist mittlerweile ein Wallfahrtsort für Anhänger der russischen Monarchie.
Es gibt in der Stadt noch weitere architektonisch wertvolle Gebäude, neben der 1739 erbauten Bergkanzlei mehrere Kathedralen im russischen Stil, deren bekannteste die im 19. Jahrhundert erbaute Christi-Himmelfahrts-Kathedrale (Wosnessenski sobor) ist. Im Stil des sozialistischen Klassizismus wurde das Rathaus erbaut, bedeutend auch das Universitätsgebäude und mehrere Institute sowie das Zirkusgebäude aus den 1980er Jahren und die prächtige Oper vom Anfang des 20. Jahrhunderts. Bemerkenswert sind auch eine Reihe konstruktivistischer Bauten, so das Hotel Issetj und das dahinter befindliche Tschekisten-Städtchen. Ein Wahrzeichen war bis zu seiner Sprengung 2018 der unvollendete Fernsehturm, eines der höchsten unvollendeten Bauwerke der Welt.
Wirtschaft und Infrastruktur
Wirtschaft
Die Stadt Jekaterinburg ist die wichtigste Industriemetropole des Urals. Bereits seit dem frühen 18. Jahrhundert gibt es in der Stadt Ansiedlungen der Metallindustrie. Die Industrialisierung wurde in den 1930er Jahren intensiviert. Uralmasch ist das führende russische Unternehmen für Schwermaschinenbau (Stahlwerks- und Bergwerksausrüstung, Bohrgeräte, Bagger, Kräne usw.). Das Unternehmen entstand 2007 aus mehreren Vorgängerunternehmen mit Uralmaschplant in Jekaterinburg als Kern und war bis 2015 Teil des OMS-Konzerns. Neben dem Maschinenbau sind Metallverarbeitung und -verhüttung (Unternehmenssitz von VSMPO-AVISMA), Lebensmittelproduktion, Holzverarbeitung und chemische Industrie vertreten. Einen Schwerpunkt bildet mit über 40 angesiedelten Unternehmen die Produktion von Rüstungsgütern.
Jekaterinburg ist auch ein Zentrum des russischen Banken- und Finanzwesens.
Verwaltung
In der Stadt gibt es weiterhin eine Reihe ausländischer Konsulate und den Sitz des Präsidenten des russischen Föderationskreises Ural.
Verkehr
Fernverkehr
Im mittleren Ural ist Jekaterinburg einer der wichtigsten Verkehrsknotenpunkte. Es existiert ein internationaler Flughafen (Kolzowo). Der Hauptbahnhof Jekaterinburg stellt die Anbindung an die Transsibirische Eisenbahn dar, die von Moskau kommend durch die Stadt und ganz Sibirien bis nach Wladiwostok am Pazifik führt. Hier wird sie von einer weiteren Eisenbahnhauptstrecke vom nördlichen Ural hinunter nach Tscheljabinsk und Orsk gekreuzt. Jekaterinburg ist Sitz der russischen Eisenbahn-Regionaldirektion Swerdlowsk. Über die föderale Fernstraße M5 Ural ist die Stadt mit dem europäischen Teil Russlands verbunden. Die 354 km lange föderale Fernstraße R242 verbindet Jekaterinburg mit Perm, Verwaltungssitz der gleichnamigen Region. Weitere wichtige Autobahnen führen in die benachbarten russischen Metropolen Tjumen (R351) und Kurgan (R354).
Nahverkehr
Der öffentliche Personennahverkehr wird hauptsächlich getragen von Buslinien, Trolleybussen und der Straßenbahn Jekaterinburg, die ein Netz von 180 Kilometern und 29 Linien umfasst.
Am 26. April 1991 wurde als Ergänzung die kürzeste Metro in Russland eröffnet: Die Metro Jekaterinburg hat eine Linie von 12,7 km Länge mit (seit 2012) neun Stationen und transportiert täglich 150.000 Passagiere.
Die Kindereisenbahn Swerdlowsk ist eine schmalspurige Parkeisenbahn im Zentralpark für Kultur und Erholung. Auf ihren Gleisen fahren auch Schienenfahrzeuge des Schmalspurbahnmuseums Jekaterinburg.
Bildung und Kultur
Mehrere Theater (Oper, Ballett, Komödien), eine Philharmonie, ein ständiger Zirkus, ein Zoo, eine Kunstgalerie und eine Vielzahl von Museen sorgen für das kulturelle Leben der Stadt. Bekannt ist vor allem ein großer Museumspark für den Bergbau im mittleren Ural.
In der Stadt sind mehrere ausländische Kulturinstitute vertreten, u. a. das British Council und die Alliance française. Das Goethe-Institut Moskau unterhält eine Kontaktstelle in der Stadt, fördert einen deutschen Lesesaal in der Gebietsbibliothek und kooperiert mit einem Sprachlernzentrum für den Deutschunterricht.
Der Deutsche Akademische Austauschdienst und die Zentralstelle für das Auslandsschulwesen haben deutsche Lektoren bzw. Lehrer in die Stadt entsandt.
Weiterführende Bildungseinrichtungen:
Abteilung der Russischen Schule für Privatrecht
Akademie für Staatsdienst des Uralgebiets
Akademie für Verwaltung und Recht
Fakultät des Staatlichen Instituts für Sport
Filiale der Sibirischen Staatlichen Universität für Telekommunikation und Informatik
Filiale des Instituts für Unternehmertum und Recht Moskau
Finanzjuristisches Institut des Uralgebiets
Geisteswissenschaftliche Universität
Geisteswissenschaftliches Institut des Uralgebiets
Institut des Effektenmarkts des Uralgebiets
Institut für Handel und Recht des Uralgebiets
Institut für internationale Beziehungen
Institut für Ökonomie, Verwaltung und Recht
Internationales Institut der Fernausbildung
Internationales Zentrum für Fernausbildung des Uralgebiets
Artillerieinstitut Jekaterinburg
Kolleg für Fremdsprachen Jekaterinburg
Staatliches Theaterinstitut Jekaterinburg
Juristisches Institut des Innenministeriums Russlands des Uralgebiets
Uralische Föderale Universität (Sie ging aus der Vereinigung der Staatlichen Gorki-Universität des Uralgebiets mit der Staatlichen Technischen Universität des Uralgebiets hervor.)
Staatliche Akademie für Architektur und Kunst des Uralgebiets
Staatliche Akademie für Geologie und Bergbau des Uralgebiets
Staatliche Akademie für Verkehrsverbindung des Uralgebiets
Staatliche Fachpädagogische Universität des Uralgebiets
Staatliche Forsttechnische Akademie des Uralgebiets
Staatliche Juristische Universität des Uralgebiets
Staatliche Landwirtschaftliche Akademie des Uralgebiets
Staatliche Medizinakademie des Uralgebiets
Staatliche Ökonomische Universität des Uralgebiets
Staatliche Pädagogische Universität des Uralgebiets
Staatliche Universität für Verkehrswesen des Uralgebiets
Staatliches M.-P.-Mussorgski-Konservatorium des Uralgebiets
Ural State University of Economics
Die Uraler Abteilung der Russischen Akademie der Wissenschaften
Sport
Die Stadt ist durch den Fußballverein Ural Jekaterinburg in der höchsten russischen Spielklasse vertreten. Sein Heimstadion ist das Zentralstadion, in dem vier Spiele der Fußball-Weltmeisterschaft 2018 stattfanden.
Der 2006 als Nachfolgeverein des aufgelösten Eishockeyvereines HK Dinamo-Energija Jekaterinburg gegründete HK Awtomobilist Jekaterinburg nimmt am Spielbetrieb der Kontinentalen Hockeyliga teil und trägt seine Heimspiele im Sportpalast „Uralez“ aus. Der Bandyverein HK SKA Swerdlowsk nahm am Spielbetrieb der Superliga teil und gewann deren Austragung 1994.
Der Frauen-Volleyballverein VK Uralotschka-NTMK spielt seit Jahren an der Spitze der russischen Meisterschaft und ist auch im Europacup erfolgreich. Kaum weniger erfolgreich ist das Frauen-Basketballteam UGMK Jekaterinburg, welches in der russischen Basketball-Superleague sowie in der Euroleague Women spielt. Die Männer sind beim Volleyball durch den zweitklassigen Verein Lokomotive-Isumrud Jekaterinburg und beim Basketball in der zweiten Profiliga durch den BK Ural Jekaterinburg vertreten. Volleyball- und Basketballspiele werden auf professionellem Niveau im Palast der Spielsportarten (DIwS) ausgetragen. Diese Arena stellt ebenfalls die Heimspielstätte für den Futsalverein MFK Viz-Sinara dar. Im Feldhockey wird die Stadt durch den Verein Dinamo-Stroitel Jekaterinburg vertreten. Im August 2015 wurde in Jekaterinburg im Sportpalast „Uralez“ die U-19-Handball-Weltmeisterschaft 2015 ausgetragen.
In Jekaterinburg gab es auch Finalentscheidungen und Qualifikationsläufe zur Eisspeedway-Weltmeisterschaft. Die Stadt war einer der Austragungsorte der Bandy-Weltmeisterschaften 1965.
Die Fußball-Weltmeisterschaft 2018 in Jekaterinburg
In Jekaterinburg fanden vier Spiele der Fußball-Weltmeisterschaft 2018 statt.
In der Zeit vom 7. Oktober 2015 bis zum 29. Dezember 2017 wurde das Zentralstadion für die Weltmeisterschaft 2018 umgebaut, damit es den Anforderungen der FIFA entsprach.
Ebenfalls umgebaut wurde der Zentralpark für Kultur und Erholung namens W. W. Majakowski. Dort fand das Festival der Fans statt. Dafür wurden auf einer Fläche von mehr als zwei Hektar eine Bühne mit riesigem Bildschirm, Imbissstände und sanitäre Bereiche platziert. Für Menschen mit Behinderungen war eine spezielle Tribüne eingerichtet.
Für die Weltmeisterschaft wurden im Flughafen „Kolzowo“ der Bahnsteig und die zweite Start- und Landebahn erneuert und mit der notwendigen Ausrüstung ausgestattet. Darüber hinaus wurden alle Arbeiten zur Vorbereitung des Passagier-Terminals und zur Modernisierung der technischen Infrastruktur erledigt. Auch wurde der Hangar für Geschäftsflugtechnik gestartet. Die Kapazität des Flughafens stieg auf bis zu 2.000 Personen pro Stunde.
Für die Erneuerung des Straßennetzes wurden 9,22 Milliarden Rubel des Regionalbudgets, eine Milliarde Rubel aus dem Kommunalbudget und 7,207 Milliarden Rubel aus anderen Quellen ausgegeben.
Städtepartnerschaften
Jekaterinburg listet folgende Partnerstädte auf:
San José, Vereinigte Staaten, seit 1992
Wuppertal, Deutschland, seit 1993
Guangzhou, Volksrepublik China, seit 2002
Ferentino, Italien
Söhne und Töchter der Stadt
Weiteres
Ein Atom-U-Boot des russischen Projekts 667BDRM (Delta IV) trägt den Namen der Stadt; Ende Dezember 2011 kam es nach einem Feuer auf dem Holzgerüst im Trockendock in der Roslijakowo-Werft (Murmansk) zu einem Großbrand an seiner Kautschuk-Hülle.
Am 1. Mai 1960 wurde ein amerikanisches Aufklärungsflugzeug des Typs Lockheed U-2 auf einer Spionagemission über dem Ural südlich von Jekaterinburg (damals: Swerdlowsk) von einer russischen Boden-Luft-Rakete des Typs SA-2 Guideline abgeschossen. Der Pilot Francis Gary Powers konnte sich mit dem Fallschirm retten, wurde jedoch nach seiner Landung nahe Jekaterinburg gefangen genommen. Powers wurde im folgenden, unter großem internationalem Medieninteresse durchgeführten Prozess zu einer zehnjährigen Haftstrafe wegen Spionage verurteilt, kam jedoch am 10. Februar 1962 durch einen Gefangenenaustausch auf der Glienicker Brücke vorzeitig frei, bei dem er gegen den 1957 enttarnten und verhafteten sowjetischen Spion Rudolf Abel ausgetauscht wurde.
Weblinks
englisch, deutsch, russisch
Jekaterinburg Online
Die Stadt Jekaterinburg und Uralgebirge
Quellen
Ort in der Oblast Swerdlowsk
Millionenstadt
Ort in Asien
Stadt als Namensgeber für einen Asteroiden
Hauptstadt eines Föderationssubjekts Russlands
Hochschul- oder Universitätsstadt in Russland
Gemeindegründung 1723
Stadtrechtsverleihung 1781
|
Q887
| 288.747937 |
247294
|
https://de.wikipedia.org/wiki/Unixzeit
|
Unixzeit
|
Die Unixzeit ist eine Zeitdefinition, die für das Betriebssystem Unix entwickelt und als POSIX-Standard festgelegt wurde. Die Unixzeit zählt die vergangenen Sekunden seit Donnerstag, dem 1. Januar 1970, 00:00 Uhr UTC. Das Startdatum wird auch als The Epoch (siehe Epoche) bezeichnet. Die Umschaltung von einer Sekunde zur nächsten ist synchron zur UTC. Schaltsekunden werden ignoriert, eine Schaltsekunde hat den gleichen Zeitstempel wie die Sekunde davor. Vor Unix Version 6 (1975) zählte die Unix-Uhr in Hundertstelsekunden, daher musste die Epoche jedes Jahr neu festgelegt werden.
Eigenschaften
Umrechnung
Die Umrechnung in eine menschenlesbare Form, einschließlich der Anwendung von Zeitzonen, Sommerzeit und Schaltjahren werden dann von zusätzlichen Funktionen der Standardbibliothek übernommen. Die Darstellung des Datums als Sekunden seit der Unix-Epoche wird häufig verwendet, weil sie für Computerprogramme viel leichter zu verarbeiten ist als das „menschliche“ Datumsformat. Es lassen sich mit diesen Werten leicht Zeiträume als Differenzen von Sekunden berechnen. Sommer- oder Winterzeit, Zeitzonen und Schaltsekunden spielen dann keine Rolle mehr. Aus diesem Grund wird dieser Wert auch gerne als Zeitstempel verwendet. In praktisch allen Server-Anwendungen spielt der Zeitstempel eine tragende Rolle, so etwa im Umfeld von PHP- oder MySQL-Applikationen bei der Unterscheidung und Generierung zeitbezogener Datenbank-Einträge. Die vordefinierten PHP-Funktionen date() und mktime() ermöglichen hier beispielsweise durch das Einsetzen passender Funktionsargumente die einfache Konvertierung eines Zeitstempels in ein menschenlesbares Datumsformat und umgekehrt.
Jahr-2038-Problem
Der POSIX-Standard verlangt für die Zeitangabe in Sekunden seit 1. Januar 1970 mindestens eine vorzeichenbehaftete 32-Bit-Zahl (Integer). Somit umfasst die Unixzeit garantiert die Werte −2.147.483.648 bis +2.147.483.647. Umgerechnet in Jahre entspricht dies etwas mehr als −68 bis +68.
Am 19. Januar 2038 um 3:14:08 Uhr UTC wird es daher bei Computersystemen, welche die Unixzeit in einer vorzeichenbehafteten 32-Bit-Variable speichern, zu einem Überlauf, und mithin zu einem Rücksprung kommen.
Unixzeiten vor dem 13. Dezember 1901 20:45:52 UTC sind mit einer vorzeichenbehafteten 32-Bit-Zahl auch nicht darstellbar, da die Zeitstempel kleiner als −2.147.483.648 wären.
Moderne Unix-Systeme verwenden zumindest in ihrer 64-Bit-Variante eine vorzeichenbehaftete 64-Bit-Zahl, bei der das Risiko eines Überlaufs ohne praktische Relevanz ist. Hier ließen sich Zeitspannen von bis zu 292 Milliarden Jahren korrekt darstellen.
Eingebettete Systeme auf Unix-Basis sind zurzeit noch nahezu ausschließlich 32-Bit-Systeme. Die fortlaufende Entwicklung, technische Geräte (z. B. Router, Radiowecker bis hin zu Automobilen und Flugzeugen) mit eingebetteten Systemen auf Unix-Basis auszustatten, bedingt, dass diese Geräte ab dem 19. Januar 2038 nicht mehr korrekt funktionieren.
Verwendet ein Entwickler den vorzeichenlosen (unsigned-) 32-bit-Typ, könnte er die Unix-Zeit noch bis über das Jahr 2100 hinaus verwenden. Das gilt allerdings nicht, wenn er die Standardbibliothek nutzt. Diese ist auf den minimalen POSIX-Standard festgelegt.
Schaltsekunden
Schaltsekunden werden in der Unixzeit nicht mitgezählt, da sie nicht regelmäßig auftreten, sondern je nach schwankender Erdrotation nur sechs Monate vor ihrer Einfügung angekündigt werden. Alle Tage sind in Unixzeit genau 24 × 3600 Sekunden lang, Zeitdifferenzen in Unixzeit, die über eine Schaltsekunde hinweggehen, sind daher um diese Sekunde zu kurz.
In den letzten Jahren gab es mehrere Versuche, im Rahmen der POSIX-Standardisierung eine Darstellung der Schaltsekunde zur POSIX-Unix-Zeitdefinition hinzuzufügen. Die Diskussionen zu diesem Thema führten jedoch bislang nicht zu einem allgemein akzeptierten Ergebnis.
Vergleich
Für die menschliche Anwendung sind auf Abschnitte herunter gebrochenen Zeiten, etwa Anzahl Jahre, Monate, Tage, Stunde mit zusätzlichen Angaben für Zeitzone und Sommerzeit übersichtlicher. Soweit eine alltägliche Zeit ohne Angabe von Sommerzeit und Zeitzone erfolgt, bleibt sie für eine computertechnische Verarbeitung allerdings noch unvollständig. Die gebrochene Darstellung macht Berechnungen in jedem Fall aufwändiger.
Unix bietet eine Konvertierung der Unixzeit in eine gebrochene Darstellung mittels localtime()an. Sommerzeit und Zeitzone werden von dieser Funktion, für den Anwender meist unsichtbar, aus administrativen Einstellungen des Systems bezogen – deshalb local-time.
In den DOS-Systemen war die gebrochene Zeit, aber ohne Zeitzonenangabe das Standardformat und wird auf FAT-Dateisystemen für Zeitstempel der Dateien in einer kompakten Darstellung gespeichert.
Eine Zeitangabe kann auch als Gleitkommazahl gespeichert werden. Dabei können auch sehr weit entfernte Zeitangaben gespeichert werden, teils Millionen Jahre entfernt, dann aber mit verminderter Zeitgenauigkeit. Eine Auflösung von unter einer Sekunde ist z. B. mit einem Double-Wert für die nächsten 140 Millionen Jahre möglich.
Besondere Werte
Unix-Enthusiasten haben es sich zum Brauch gemacht, zu bestimmten Werten der Unixzeit sogenannte „time_t-Partys“ – ähnliche den Neujahrsfeiern zum Jahreswechsel – zu veranstalten. Üblicherweise werden runde Dezimal-Werte, wie 1.000.000.000 oder 2.000.000.000 gefeiert. Unter manchen Benutzern werden allerdings auch runde Binär-Werte gefeiert, beispielsweise +230 (1.073.741.824), welcher auf den 10. Jan. 2004 13:37:04 UTC fiel. Am 13. Feb. 2009 um 23:31:30 UTC (14. Feb. 2009 um 00:31:30 CET) erreichte die Unixzeit den Wert 1234567890. Heise Online erwähnte dieses Ereignis in seinem Newsticker.
Diese Zeitpunkte werden üblicherweise als „n Sekunden seit der Unix-Epoche“ gefeiert. Durch die Einführung von Schaltsekunden ist diese Bezeichnung allerdings nicht ganz korrekt.
Unix-Befehle
Bei einigen Unix-ähnlichen Systemen lässt sich mittels nachstehendem Befehl eine Unixzeit in die äquivalente UTC-Zeit umrechnen (das Verhalten von date aus dem Beispiel ist nicht Bestandteil des POSIX-Standards).
date -u -d @UNIXTIME
Beispiel:
date -u -d @1234567890
Fr 13. Feb 23:31:30 UTC 2009
Umgekehrt lässt sich die aktuelle Anzahl der vergangenen Sekunden seit dem 1. Januar 1970 auf einigen Unix-/Linux-Systemen mittels
date +%s
anzeigen (das Verhalten von date ist auch hier nicht Bestandteil des POSIX-Standards).
Beispiel-Implementierung
Möchte man die Unixzeit zu einem gegebenen Zeitpunkt berechnen, lässt sich das über folgenden Rechenweg bewerkstelligen. Die Unixzeit kennt keine Zeitzonen. Sie nutzt als Eingabe eine von Zeitzonen bereinigte Zeit. Schaltsekunden werden mangels Vorhersagbarkeit weder für die Vergangenheit noch für die Zukunft berücksichtigt.
Achtung: Der folgende Quelltext ist in der Programmiersprache C verfasst und arbeitet mit maschinenabhängigen Datentypen. Das Jahr-2038-Problem tritt bei diesem Programm jedoch nicht auf, da der verwendete Datentyp „long long“ mindestens 64 Bits besitzt. Wie jeder Beispielquelltext dient er allein der Illustration und sollte ohne Überprüfung nicht in den Praxiseinsatz übernommen werden.
/** Konvertiert gegliederte UTC-Angaben in Unix-Zeit.
* Parameter und ihre Werte-Bereiche:
* - jahr [1970..2038]
* - monat [1..12]
* - tag [1..31]
* - stunde [0..23]
* - minute [0..59]
* - sekunde [0..59]
*/
long long unixzeit(int jahr, int monat, int tag,
int stunde, int minute, int sekunde)
{
const short tage_seit_jahresanfang[12] = /* Anzahl der Tage seit Jahresanfang ohne Tage des aktuellen Monats und ohne Schalttag */
{0,31,59,90,120,151,181,212,243,273,304,334};
int schaltjahre = ((jahr-1)-1968)/4 /* Anzahl der Schaltjahre seit 1970 (ohne das evtl. laufende Schaltjahr) */
- ((jahr-1)-1900)/100
+ ((jahr-1)-1600)/400;
long long tage_seit_1970 = (jahr-1970)*365 + schaltjahre
+ tage_seit_jahresanfang[monat-1] + tag-1;
if ( (monat>2) && (jahr%4==0 && (jahr%100!=0 || jahr%400==0)) )
tage_seit_1970 += 1; /* +Schalttag, wenn jahr Schaltjahr ist */
return sekunde + 60 * ( minute + 60 * (stunde + 24*tage_seit_1970) );
}
Eine Umrechnung von einer gegebenen Unixzeit in unsere gewöhnliche Datums- und Zeitdarstellung ist mit folgender Funktion möglich.
void UnixzeitNachDatumZeit(unsigned long int unixtime,
int *pJahr, int *pMonat, int *pTag,
int *pStunde, int *pMinute, int *pSekunde)
{
const unsigned long int SEKUNDEN_PRO_TAG = 86400ul; /* 24* 60 * 60 */
const unsigned long int TAGE_IM_GEMEINJAHR = 365ul; /* kein Schaltjahr */
const unsigned long int TAGE_IN_4_JAHREN = 1461ul; /* 4*365 + 1 */
const unsigned long int TAGE_IN_100_JAHREN = 36524ul; /* 100*365 + 25 - 1 */
const unsigned long int TAGE_IN_400_JAHREN = 146097ul; /* 400*365 + 100 - 4 + 1 */
const unsigned long int TAGN_AD_1970_01_01 = 719468ul; /* Tagnummer bezogen auf den 1. Maerz des Jahres "Null" */
unsigned long int TagN = TAGN_AD_1970_01_01 + unixtime/SEKUNDEN_PRO_TAG;
unsigned long int Sekunden_seit_Mitternacht = unixtime%SEKUNDEN_PRO_TAG;
unsigned long int temp;
/* Schaltjahrregel des Gregorianischen Kalenders:
Jedes durch 100 teilbare Jahr ist kein Schaltjahr, es sei denn, es ist durch 400 teilbar. */
temp = 4 * (TagN + TAGE_IN_100_JAHREN + 1) / TAGE_IN_400_JAHREN - 1;
*pJahr = 100 * temp;
TagN -= TAGE_IN_100_JAHREN * temp + temp / 4;
/* Schaltjahrregel des Julianischen Kalenders:
Jedes durch 4 teilbare Jahr ist ein Schaltjahr. */
temp = 4 * (TagN + TAGE_IM_GEMEINJAHR + 1) / TAGE_IN_4_JAHREN - 1;
*pJahr += temp;
TagN -= TAGE_IM_GEMEINJAHR * temp + temp / 4;
/* TagN enthaelt jetzt nur noch die Tage des errechneten Jahres bezogen auf den 1. Maerz. */
*pMonat = (5 * TagN + 2) / 153;
*pTag = TagN - (*pMonat * 153 + 2) / 5 + 1;
/* 153 = 31+30+31+30+31 Tage fuer die 5 Monate von Maerz bis Juli
153 = 31+30+31+30+31 Tage fuer die 5 Monate von August bis Dezember
31+28 Tage fuer Januar und Februar (siehe unten)
+2: Justierung der Rundung
+1: Der erste Tag im Monat ist 1 (und nicht 0).
*/
*pMonat += 3; /* vom Jahr, das am 1. Maerz beginnt auf unser normales Jahr umrechnen: */
if (*pMonat > 12)
{ /* Monate 13 und 14 entsprechen 1 (Januar) und 2 (Februar) des naechsten Jahres */
*pMonat -= 12;
++*pJahr;
}
*pStunde = Sekunden_seit_Mitternacht / 3600;
*pMinute = Sekunden_seit_Mitternacht % 3600 / 60;
*pSekunde = Sekunden_seit_Mitternacht % 60;
}
Diese Funktion erwartet als Eingangsparameter eine vorzeichenlose Ganzzahl („unsigned long int“). Nach dem C-Standard sind das mindestens 32 Bit. Die Funktion liefert somit korrekte Ergebnisse bis mindestens zum Januar 2106.
Weblinks
Aktuelle Unixzeit
Unixtime Umrechner mit bidirektionaler Umrechnung
Einzelnachweise
POSIX
Zeitmessung
Zeitrechnung
|
Q14654
| 148.73813 |
2642097
|
https://de.wikipedia.org/wiki/Shanghai-Ranking
|
Shanghai-Ranking
|
Das Shanghai-Ranking (offiziell Academic Ranking of World Universities, abgekürzt ARWU) ist ein weltweites Hochschulranking, das die Jiaotong-Universität Shanghai seit dem Jahr 2003 durchführt. Tausend Hochschulen weltweit werden jährlich geprüft, die ersten fünfhundert werden in einer Liste aufgeführt.
Methodik
Die Universitäten werden auf der Basis von sechs Indikatoren verglichen. Schwerpunkt der Wertung ist die Forschung. Berücksichtigt werden: die Anzahl der wissenschaftlichen Publikationen und die Anzahl der Zitierungen, wobei als Quellen zwei Statistiken des amerikanischen Medienkonzerns Thomson Reuters herangezogen werden, die ausschließlich die Zeitschriften Nature und Science sowie das Web of Science des Institute for Scientific Information auswerten, ferner in den Naturwissenschaften die zuerkannten Nobelpreise und in der Mathematik die Fields-Medaille. Als Indikator der Leistungsfähigkeit ganz allgemein wird die Größe der jeweiligen Institution berücksichtigt.
Für jeden Indikator wird der besten Hochschule der Wert 100 zugewiesen, die folgenden Universitäten erhalten einen Prozentsatz davon.
Ergebnis
Unter den ersten 20 Universitäten finden sich 2020 nur fünf nicht-US-amerikanische Universitäten: Cambridge (Platz 3), Oxford (Platz 9), Paris-Saclay (Platz 14), das University College London (Platz 16) und die ETH Zürich (Platz 20). Diese ist damit auch die erste deutschsprachige Hochschule der Rangliste; die erste deutsche Universität (Ludwig-Maximilians-Universität München) findet man auf Platz 51. Als erste österreichische Universität liegt die Universität Wien auf dem Platz ex aequo 151 bis 200. Insgesamt befinden sich 49 deutsche, neun schweizerische und 14 österreichische Universitäten im Ranking.
Kritik
Kritikpunkte, die unter anderen vom Centrum für Hochschulentwicklung, einem Mitbewerber im Bereich Hochschulrankings, vorgebracht wurden, betreffen die folgenden Aspekte:
Aufgrund der langen Beobachtungszeiträume werden historische und gegenwärtige Forschungsleistung vermischt. So werden Nobelpreise bis zum Jahr 1911 berücksichtigt. Dadurch werden insbesondere leistungsfähige Neugründungen benachteiligt.
Das hohe Gewicht von Zeitschriftenaufsätzen im Web of Science hat eine Verzerrung zugunsten von Universitäten mit naturwissenschaftlicher Ausrichtung in englischsprachigen Ländern zur Folge. Publikationen in anderen Medien und anderen Sprachen werden nicht berücksichtigt, was Spitzenleistungen in den Geisteswissenschaften von der Wertung ausschließt.
Besonderheiten der nationalen Hochschulsysteme werden kaum berücksichtigt. So bleibt zum Beispiel die außeruniversitäre Forschung in Deutschland mit ihren Max-Planck-Instituten oder der Fraunhofer-Gesellschaft unberücksichtigt. Ein besonders extremes Beispiel ist die italienische Eliteuniversität Scuola Normale Superiore, die nur eine geringe Zahl von Studenten (im Studienjahr 2011/12 57 Neuaufnahmen) auf der Basis eines strengen Aufnahmewettbewerbs zulässt und sich wegen ihrer geringen Größe nur auf den Plätzen 301–400 findet, weit überrundet von anderen italienischen Universitäten.
In der Zeitschrift Scientometrics konnte Razvan V. Florian die Ergebnisse des Shanghai-Rankings anhand der von Liu und Cheng angegebenen Methodik nicht reproduzieren.
Weblinks
Homepage
Vorherige Jahre: 2003, 2004, 2005, 2006, 2007, 2008, 2009, 2010, 2011, 2012, 2013, 2014, 2015, 2016, 2017, 2018, 2019, 2020.
Einzelnachweise
Universitätswesen
Bildung und Forschung in Shanghai
|
Q478743
| 95.301902 |
598660
|
https://de.wikipedia.org/wiki/Jarvisinsel
|
Jarvisinsel
|
Die Jarvisinsel (, []) ist eine geographisch zu den Line Islands und politisch zu den Außengebieten der Vereinigten Staaten gehörende kleine, unbewohnte Insel im südlichen Pazifik, etwa in der Mitte zwischen Hawaii und den Cookinseln. Es handelt sich dabei um ein sogenanntes „nicht inkorporiertes Territorium“ der Vereinigten Staaten, das zu statistischen Zwecken den United States Minor Outlying Islands zugeordnet wird.
Die sandige, vollständig von einem Korallenriff eingesäumte Insel hat eine Landfläche von etwa 5,2 km² und erreicht eine Höhe von bis zu über dem Meeresspiegel. Auf der Jarvisinsel herrscht tropisches Klima mit seltenem Regen, konstantem Wind und starker Sonneneinstrahlung. Die Insel hat keine natürlichen Süßwasserquellen.
Geschichte
Die Jarvisinsel wurde am 21. August 1821 von der Besatzung des britischen Schiffs Eliza Francis entdeckt und erhielt ihren Namen von dessen Kapitän Brown. Im Februar 1857 wurde sie für die USA beansprucht und am 27. Februar 1858 unter Berufung auf den Guano Islands Act formell annektiert, jedoch bereits 1879 wieder verlassen, nachdem annähernd 300.000 Tonnen Guano abgebaut worden waren.
Am 3. Juni 1889 annektierte Großbritannien das Land, unternahm jedoch keine weiteren Schritte zur Nutzung oder Besiedlung. Die Guanovorkommen wurden bis zum Ende des 19. Jahrhunderts abgebaut.
1935 wurde die Insel von den USA als unbewohntes Territorium beansprucht und ab 26. März unter dem Baker, Howland and Jarvis Colonization Scheme besiedelt. Die Kolonisten gründeten die Siedlung Millersville im Westen der Insel, die im Februar 1942 aufgrund der Kriegsereignisse im Pazifik evakuiert wurde. Nach Kriegsende wurden keine weiteren Kolonisierungsversuche unternommen.
Im Jahr 1957, mit Beginn des Internationalen Geophysikalischen Jahres, wurde die Jarvisinsel von Wissenschaftlern für einige Zeit besiedelt und hatte bis 1958 sogar eine eigene lokale Verwaltung.
Vom 13. Mai 1936 bis zum 27. Juni 1974 oblag die Verwaltung der Insel dem US-Innenministerium. Seit dem 27. Juni 1974 wird die Jarvisinsel vom U.S. Fish & Wildlife Service als Jarvis Island National Wildlife Refuge verwaltet und bildet gemeinsam mit sechs weiteren amerikanischen Inseln im Pazifik seit dem 6. Januar 2009 das Pacific Remote Islands Marine National Monument. Das Betreten der heute unbewohnten Insel erfordert eine Sondergenehmigung und wird grundsätzlich nur zu wissenschaftlichen und Lehrzwecken genehmigt. Jarvis wird alle zwei bis drei Jahre von Personal des U.S. Fish & Wildlife Service aufgesucht.
Flora und Fauna
Die Flora der Jarvisinsel ist durch Artenarmut gekennzeichnet, da nur hitze- und dürrebeständige Arten hier überleben können. Die Vegetation besteht aus Gräsern, krautigen Pflanzen und Sträuchern.
Nachdem von Menschen eingeschleppte Tierarten wie Hauskatzen, Ratten, Mäuse und Ziegen im Ökosystem der Jarvisinsel schwere Schäden angerichtet hatten, ging die Anzahl der Brutvögel stark zurück. Im Jahr 1966 wurden nur noch drei Brutvogelarten auf der Insel gezählt. Durch Maßnahmen, diese Neozoen auszurotten, konnte die ursprüngliche Fauna wieder verstärkt auf der Jarvisinsel Fuß fassen. Mittlerweile brüten 14 verschiedene Vogelarten auf der Insel. Einen besonders hohen Bestand weist die Rußseeschwalbe mit etwa einer Million Einzeltieren auf.
Das Korallenriff um die Insel ist die Heimat zahlreicher Fischarten. Der U.S. Fish & Wildlife Service geht von 252 auf der Jarvisinsel heimischen Arten aus. Die Bestandsdichte größerer Fischarten wird dabei nur von dem ebenfalls im Zentralpazifik befindlichen Atoll Palmyra übertroffen.
Das Riff rund um die Jarvisinsel blieb bis um das Jahr 2000 weitgehend unerforscht. Mittlerweile hat man 62 Korallenarten (darunter 59 Arten von Steinkorallen) und etwa 90 Molluskenarten feststellen können. Bei Tauchgängen konnte an der Westseite der Jarvisinsel in Tiefen von 200 bis 1000 Meter eine äußerst vielfältige Fauna mit zahlreichen Korallen entdeckt werden.
Weblinks
.
Jarvis Island National Wildlife Refuge. In: National Wildlife Refuge System. United States Fish and Wildlife Service (englisch).
Jarvis Island. Ausführliche Website über die Insel mit Bildern und Karten (englisch).
Jarvis Island. In: Jane’s Oceania Home Page. Jane Resture (englisch).
Einzelnachweise
Insel (Line Islands)
Insel (Australien und Ozeanien)
Insel (Pazifischer Ozean)
Gehobenes Atoll
Amerikanisch-Ozeanien
United States Minor Outlying Islands
Schutzgebiet (Umwelt- und Naturschutz) in Australien und Ozeanien
|
Q62218
| 644.846936 |
6665
|
https://de.wikipedia.org/wiki/1652
|
1652
|
Ereignisse
Politik und Weltgeschehen
Englisch-Niederländischer Krieg
29. Mai: Die Seeschlacht bei Dover zwischen den Flotten des Commonwealth von England und der Vereinigten Provinzen der Niederlande ist der Auftakt zum Ersten Englisch-Niederländischen Seekrieg. Es gibt keinen Gewinner in der Schlacht.
26. August: Im Ersten Englisch-Niederländischen Seekrieg siegen die Holländer unter Admiral Michiel de Ruyter in der Seeschlacht bei Plymouth über eine englische Flotte unter dem Befehl von George Ayscue, dem anschließend das Kommando genommen wird.
6. September: In der Seeschlacht bei Elba treffen im ersten Englisch-Niederländischen Krieg Schiffe beider Seiten aufeinander. Die Niederländer können unter Verlusten ein englisches Schiff erobern.
8. Oktober: Im Ersten Englisch-Niederländischen Seekrieg wehren die Briten einen Angriff der Holländer in der Seeschlacht bei Kentish Knock nahe der Themsemündung ab. Die schweren gegnerischen Verluste lassen hinterher das englische Parlament ein Geschwader von 20 Schiffen in das Mittelmeer entsenden, was sich im weiteren Kriegsverlauf als fatal erweisen wird.
10. Dezember: Die Seeschlacht bei Dungeness im Ersten Englisch-Niederländischen Krieg bringt den Niederlanden einen Sieg und damit die Herrschaft über den Ärmelkanal ein, die englischen Kriegsschiffe ziehen sich am Tagesende zurück.
England / Irland
Mai: Die Belagerung von Galway im Zuge der Rückeroberung Irlands durch Oliver Cromwell endet mit der Eroberung der irischen Stadt durch die englischen Parlamentstruppen.
Polen-Litauen
Juni: In der Schlacht bei Batoh im Zuge des Chmelnyzkyj-Aufstand gegen die Herrschaft Polens in der Ukraine besiegen die Saporoger Kosaken unter der Führung von Bohdan Chmelnyzkyj im Bund mit dem Krim-Khanat bei Batoh nahe der Ortschaft Tschetwertyniwka in der Oblast Winnyzja die Truppen Polen-Litauens unter der Führung von Kronhetman Marcin Kalinowski. Sie nehmen bis zu 8.000 Gefangene, die nach der Schlacht massakriert werden. Unter den Opfern des Massakers befinden sich die Militärkommandeure Samuel Jerzy Kalinowski, Zygmunt Przyjemski, Jan Odrzywolski und Marek Sobieski. Dadurch werden die besten Einheiten der polnischen Krone vernichtet. Obwohl die Verluste der polnischen Armee in den Folgejahren rasch ersetzt werden, wiegt der Verlust der erfahrensten Militärkommandeure und Militäreinheiten schwer. Durch die Niederlage bedingt, verliert Polen zeitlich begrenzt die militärische Kontrolle über weite Teile der Ukraine und ermöglicht seinen Feinden Russland und Schweden zu kraftvollen Offensiven gegen das Königreich Polen-Litauen überzugehen.
In Polen wird das Liberum Veto (Vetorecht der Abgeordneten des Sejms) das erste Mal eingesetzt.
Heiliges Römisches Reich
12. März: Karl Kaspar von der Leyen wird Erzbischof von Trier und damit gleichzeitig Kurfürst. Er folgt dem verstorbenen Philipp Christoph von Sötern.
28. August: Mit einer List erobern sieben Soldaten des Fürstbischofs von Münster die seit 1634 von den Oraniern besetzte Burg Bevergern zurück.
Brandenburg-Preußen
Der (Wieder-)Einzug des Kurfürstenpaares Friedrich Wilhelms und Luise Henriette von Oranien in das wieder hergerichtete Berliner Stadtschloss bedeutete die endgültige Rückverlegung des Hofes von Kleve nach Berlin.
Januar: nach dem erfolgten Umbau des alten Landsitzes Schloss Bötzow zu einem prächtigen Barockschloss mit holländischem Park im Vorjahr, erfolgt die Umbenennung von Ort und Schloss zu Ehren der Oraniertochter, Kurfürstin Luise Henriette in Oranienburg.
Frankreich
19. Dezember: Frankreichs König Ludwig XIV. lässt den Kardinal de Retz wegen seiner Einmischungen in die Tagespolitik verhaften und im Staatsgefängnis im Donjon von Vincennes gefangen setzen.
Malta
Unter Großmeister Jean de Lascaris-Castellar wird auf Gozo mit dem Dwejra Tower der letzte der sogenannten Lascaris Towers zur Befestigung Maltas errichtet.
Afrika
6. April: Jan van Riebeeck geht in der Tafelbucht an Land und errichtet im Auftrag der Niederländischen Ostindien-Kompanie mit niederländischen Siedlern ein Fort. Schon bald entwickelt sich daraus Kapstadt als Versorgungsstation für Segelschiffe am Kap der Guten Hoffnung auf ihrer Handelsroute nach Südostasien.
Die Niederländer errichten in der Nähe der 1637 von ihnen eroberten Festung Elmina das Fort Coenraadsburg.
Amerika
Barbados wird britische Kronkolonie.
Wissenschaft und Technik
1. Januar: In Schweinfurt wird im Zwinger des Brückentores von den Ärzten Johann Lorenz Bausch, Johann Michael Fehr, Georg Balthasar Metzger und Georg Balthasar Wohlfahrt die private Gesellschaft Academia Naturae Curiosorum, die älteste naturwissenschaftlich-medizinische Gelehrtengesellschaft in Deutschland und heute die älteste dauerhaft existierende naturforschende Akademie der Welt, gegründet.
Das alte gotische Rathaus von Amsterdam brennt ab. Daraufhin beginnt der Neubau des Paleis op de Dam.
Kultur
17. Januar: Uraufführung des Dramas Eritrea von Francesco Cavalli in Venedig
21. Dezember: Uraufführung des Dramas Veremonda, l'amazzone di Aragona von Francesco Cavalli im Palazzo Reale in Neapel
Giovanni Lorenzo Bernini vollendet die Frontalplastik Verzückung der Heiligen Theresa.
Adriaen van Ostade: Radierung Der Tanz im Wirtshaus
Religion
30. Juli: Die Kaisersteinbrucher Kirche wird durch Abt Michael Schnabel vom Stift Heiligenkreuz geweiht.
Historische Karten und Ansichten
Geboren
Geburtsdatum gesichert
7. Januar: Johann Krieger, deutscher Organist und Komponist († 1735)
9. Januar: Axel Sparre, schwedischer Graf, Feldmarschall und Künstler († 1728)
24. Januar: Nicolas Chalon du Blé, französischer Militär, Diplomat und Außenminister († 1730)
13. Februar: Anton Domenico Gabbiani, florentinischer Maler († 1726)
13. Februar: August, Herzog von Schleswig-Holstein-Sonderburg-Beck († 1689)
13. Februar: Johann Philipp von Greiffenclau-Vollraths, Fürstbischof von Würzburg († 1719)
18. Februar: Paul Gottfried Sperling, deutscher Mediziner († 1709)
12. März: Johann Heinrich Ernesti, deutscher Pädagoge und Rektor der Thomasschule zu Leipzig († 1729)
14. März: Benedicta Henriette von der Pfalz, Herzogin von Braunschweig-Calenberg († 1730)
26. März: Valerian Brenner, Baumeister des Vorarlberger Barocks († 1715)
28. März: Samuel Sewall, neuenglischer Kaufmann und Richter († 1730)
9. April: Christian Ulrich I., Herzog von Württemberg-Oels († 1704)
10. April: Gottfried Suevus der Jüngere, deutscher Rechtswissenschaftler († 1718)
16. April: Klemens XII., Papst seit 1730 († 1740)
21. April: Michel Rolle, Mitglied der Academie des sciences († 1719)
25. April: Giovanni Battista Foggini, italienischer Bildhauer und Architekt († 1725)
28. April: Magdalena Sibylla von Hessen-Darmstadt, Regentin des Herzogtums Württemberg und Kirchenlieddichterin († 1712)
5. Mai: Boris Petrowitsch Scheremetew, russischer Feldmarschall († 1719)
9. Mai: Johann Baptist Röschel, ungarischer Physiker und lutherischer Theologe († 1712)
11. Mai: Johann Philipp von Arco, kaiserlicher Feldmarschall-Leutnant († 1704)
12. Mai: Conrad Max Süßner, deutscher Bildhauer († nach 1696)
27. Mai: Liselotte von der Pfalz, Herzogin von Orléans († 1722)
13. Juni: Raymundus Regondi, Abt des Stiftes Altenburg († 1715)
13. August: Johann Ernst Kregel von Sternbach, Leipziger Handelsherr, Ratsherr und Baumeister († 1731)
31. August: Ferdinando Carlo von Gonzaga-Nevers, Herzog von Mantua († 1708)
4. September: Jean Orry, französischer Ökonom, der in Spanien die Staatsverwaltung reformierte († 1719)
12. September: Friedrich Karl, Herzog von Württemberg-Winnental († 1698)
14. Oktober: Antoine Léger der Jüngere, Schweizer evangelischer Geistlicher und Hochschullehrer († 1719)
16. Oktober: Karl Wilhelm, regierender Fürst von Anhalt-Zerbst († 1718)
4. November: Marc René de Voyer de Paulmy, marquis d’Argenson, französischer Staatsmann († 1721)
18. November: Christfried Wächtler, deutscher Jurist und Polyhistor († 1732)
2. Dezember: Charlotte von Liegnitz-Brieg-Wohlau, Herzogin von Schleswig-Holstein-Sonderburg-Wiesenburg († 1707)
9. Dezember: Augustus Quirinus Rivinus, deutscher Mediziner und Botaniker († 1723)
11. Dezember: Andreas Wolff, deutscher Maler († 1716)
Genaues Geburtsdatum unbekannt
John Abell, schottischer Lautenist und Komponist († 1724)
Andrea Belvedere, italienischer Maler († 1732)
Gestorben
Erstes Halbjahr
10. Januar: Sebastian Schobinger, Schweizer Mediziner und Bürgermeister (* 1579)
19. Januar: Wilhelm Slavata, Oberstlandkämmerer, Oberstkämmerer und Oberstkanzler von Böhmen (* 1572)
20. Januar: Thomas Greene, englischer Kolonialgouverneur von Maryland (* 1610)
30. Januar: Georges de la Tour, französischer Maler des Barock (* 1593)
Januar: Jeremy Clarke, englischer Händler, Politiker und Offizier (* 1605)
4. Februar: Sigismund II. Rákóczi, Prinz von Siebenbürgen (* 1622)
7. Februar: Philipp Christoph von Sötern, ab 1610 Bischof von Speyer und ab 1623 Erzbischof und Kurfürst von Trier (* 1567)
17. Februar: Gregorio Allegri, italienischer Sänger und Komponist (* 1582)
26. Februar: David Kindt, deutscher Maler (* 1580)
17. April: Henry Howard, 22. Earl of Arundel, englischer Adeliger (* 1608)
20. April: Pietro della Valle, italienischer Reisender und Reiseschriftsteller (* 1586)
29. April: Balthasar Balduin, deutscher lutherischer Theologe (* 1605)
29. April: Heinrich von Wuthenau, deutscher Verwaltungsbeamter und Gelegenheitsdichter (* 1598)
5. Mai: Philipp Wilhelm von Innhausen und Knyphausen, ostfriesischer Kommunalpolitiker (* 1591)
10. Mai: Jacques Nompar de Caumont, Marschall von Frankreich (* 1558)
9. Juni: Anna Sophia, Prinzessin von Anhalt (* 1584)
18. Juni: Johann Kasimir von Pfalz-Zweibrücken-Kleeburg, Pfalzgraf in schwedischen Diensten, Vater von Karl X., König von Schweden (* 1589)
19. Juni: Louis De Geer, niederländischer Kaufmann und Industrieller (* 1587)
21. Juni: Inigo Jones, führender Architekt im frühen 17. Jahrhundert in England (* 1573)
24. Juni: Andries Bicker, Regent und Bürgermeister von Amsterdam (* 1586)
24. Juni: Salomon Hirzel, Zürcher Politiker, Bürgermeister und Diplomat (* 1580)
25. Juni: Abraham von Franckenberg, schlesischer Mystiker (* 1593)
Zweites Halbjahr
22. Juli: Jacques Specx, Generalgouverneur von Niederländisch-Ostindien (* 1585)
25. Juli: Bonaventura Peeters, flämischer Maler, Zeichner, Radierer und Dichter (* 1614)
30. Juli: Karl Amadeus von Savoyen , Herzog von Nemours und Pair von Frankreich (* 1624)
7. August: Markus Friedrich Wendelin, evangelischer Theologe (* 1584)
8. August: Johann Leuber, kursächsischer Gesandter bei den Westfälischen Friedensverhandlungen (* 1588)
9. August: Frédéric-Maurice de La Tour d’Auvergne, Herzog von Bouillon, französischer General (* 1605)
10. August: Georg Abel Ficker, kursächsischer Hof- und Justizrat, frühkapitalistischer Unternehmer und Rittergutbesitzer (* 1585)
12. August: Jakob De la Gardie, schwedischer Heerführer (* 1583)
18. August: Florimond de Beaune, französischer Mathematiker (* 1601)
23. August: John Byron, 1. Baron Byron, englischer Adeliger und Royalist (* 1598 oder 1599)
24. August: Otto Brokes, Lübecker Bürgermeister (* 1574)
24. August: Johan Adler Salvius, schwedischer Diplomat und Reichsrat (* 1590)
26. August: Ladislaus Esterházy, ungarischer Feldherr (* 1626)
27. August: Johann Christoph Meurer, Syndicus und Diplomat der Hansestadt Hamburg (* 1598)
2. September: Jusepe de Ribera, spanischer Maler (* 1591)
5. September: Friedrich Leibnütz, deutscher Notar, Philosoph und Ethiker (* 1597)
7. September: Patrick Young, schottischer Gelehrter (* 1584)
12. September: Franz Ico von Frydag, deutscher Offizier und Diplomat (* 1606)
12. September: Johann von Werth, deutscher General im Dreißigjährigen Krieg (* 1591)
27. September: Sophie Hedwig von Schleswig-Holstein-Sonderburg-Glücksburg, holsteinische Prinzessin, designierte Herzogin von Sachsen-Zeitz (* 1630)
28. September: Jan Asselijn, niederländischer Landschafts- und Historienmaler (* um 1610)
30. September: Abraham Keyser, deutscher Jurist und Diplomat (* 1603)
5. Oktober: Willem Cornelisz Backer, Bürgermeister und Regent von Amsterdam (* 1595)
20. Oktober: Antonio Coello, spanischer Schriftsteller (* 1611)
30. Oktober: Georg Anton von Rodenstein, Bischof von Worms (* 1579)
7. November: Heinrich, Graf von Nassau-Siegen, niederländischer Feldherr (* 1611)
1. Dezember: Samuel Edel, deutscher lutherischer Theologe (* 1593)
23. Dezember: John Cotton, englischer anglikanischer Theologe und puritanischer Geistlicher in Boston (* 1585)
26. Dezember: Johann Angelius Werdenhagen, deutscher Philosoph und Diplomat (* 1581)
Genaues Todesdatum unbekannt
September: Ralph Hopton, 1. Baron Hopton, königstreuer Kommandant im Englischen Bürgerkrieg (* 1598)
Andries van Eertvelt, flämischer Maler (* 1590)
Ambrosius Petruzzy, italienischer Steinmetz und Bildhauer
Hans Reyff (* um 1570), Politiker in Freiburg im Üechtland
Humphrey Salwey, englischer Politiker (* um 1575)
Weblinks
|
Q6962
| 158.965341 |
15057
|
https://de.wikipedia.org/wiki/Muskulatur
|
Muskulatur
|
Die Muskulatur ist ein Organsystem in Gewebetieren und bezeichnet eine Gesamtheit von Muskeln. Der Begriff bezieht sich z. B. bei den Bezeichnungen Bauchmuskulatur oder Rückenmuskulatur auf die Muskelgruppen des jeweiligen Körperabschnitts und ihre Wechselwirkung.
Ein Muskel ( ‚Mäuschen‘, mittelhochdeutsch auch mūs – ein angespannter Muskel sieht unter der Haut wie eine Maus aus) ist ein kontraktiles Organ, welches durch die Abfolge von Kontraktion und Relaxation innere und äußere Strukturen des Organismus bewegen kann. Diese Bewegung ist sowohl die Grundlage der aktiven Fortbewegung des Individuums und der Gestaltveränderung des Körpers als auch vieler innerer Körperfunktionen.
Die grundlegende Einteilung der Muskulatur bei Säugetieren einschließlich des Menschen erfolgt über den histologischen Aufbau und den Mechanismus der Kontraktion. Demnach unterscheidet man glatte Muskulatur und quergestreifte Muskulatur. Letztere lässt sich weiter in die Herzmuskulatur und die Skelettmuskulatur unterteilen. Weitere Unterscheidungsmöglichkeiten ergeben sich durch die Form, die Fasertypen und funktionelle Aspekte (siehe unten). Das einem Muskel zugrundeliegende Gewebe ist das Muskelgewebe, welches aus charakteristischen Muskelzellen besteht. Beim Skelettmuskel werden die Muskelzellen als Muskelfasern bezeichnet.
Muskelarten im Vergleich
Histologie
Die Bezeichnung der zytologischen Strukturen der Muskelzellen unterliegt einer für die Muskulatur spezifischen Nomenklatur und unterscheidet sich deshalb teilweise von der anderer Zellen:
Skelettmuskeln sind die willkürlich steuerbaren Teile der Muskulatur und gewährleisten die Beweglichkeit. Sie heißen auch gestreifte – bzw. quergestreifte Muskeln, da ihre Myofibrillen im Gegensatz zu den glatten Muskeln ganz regelmäßig angeordnet sind und dadurch ein erkennbares Ringmuster aus roten Myosinfilamenten und weißen Aktinfilamenten erzeugen. Sämtliche Skelettmuskeln werden der somatischen Muskulatur zugeordnet.
Der Herzmuskel arbeitet rhythmisch, kann nicht krampfen, hat ein eigenes Erregungsleitungssystem, kann spontan depolarisieren, enthält die kardiale Isoform des Troponin I und T. Er weist die Querstreifung von Skelettmuskeln auf, ist allerdings unwillkürlich in erster Linie über den Sinusknoten gesteuert und stellt somit eine eigene Muskelart dar.
Die glatte Muskulatur ist nicht der bewussten Kontrolle unterworfen, sondern vom vegetativen Nervensystem innerviert und gesteuert. Dazu zählt zum Beispiel die Muskulatur des Darms. Sämtliche glatte Muskeln werden der viszeralen Muskulatur zugeordnet.
Die gestreifte Muskulatur stammt von den Myotomen der Somiten der Leibeswand ab, die glatte aus dem Mesoderm der Splanchnopleura, sodass diese auch als Eingeweidemuskulatur bezeichnet wird. Im Bereich des Kopfdarms wird die viszerale Muskulatur von den Hirnnerven innerviert und ist quergestreift, während die restliche Eingeweidemuskulatur aus glatten Muskelfasern besteht.
Andere Kategorisierungsmöglichkeiten
Ein Muskel lässt sich auf verschiedene Weise einordnen, wobei diese Einteilung nicht direkt und eindeutig ist. Oft überschneiden sich die Eigenschaften. Je nach Blickwinkel werden sie durch ihre Zellstruktur, Form oder Funktion unterschieden. Weiterhin lassen sich Typen von Muskelfasern unterscheiden, die in einem Muskel vermischt vorkommen.
Anatomisch
Ringmuskel
Beispiele: Ziliarmuskel zur Verformung der Linse des Auges, Schließmuskeln um After, Mund, Auge, Blasenausgang und Magenausgang (Pylorus)
Hohlmuskel
Beispiele: Speiseröhre, Magen, Darm, Herz
spindelförmige Muskeln
Beispiel: Musculus soleus
federförmige Muskeln
mehrbäuchige Muskeln
Beispiel: Musculus rectus abdominis
mehrköpfige Muskeln
Beispiele: Musculus biceps brachii, Musculus triceps brachii und Musculus quadriceps femoris
Unterteilt wird auch in:
Zytologisch (s. o.) und Funktional (s. u.)
Einteilung der Muskelfasertypen
Nach Enzymaktivität
Typ-I-Fasern: SO (englisch slow oxidative fibers = ‚langsame oxidative Fasern‘)
Typ-II-Fasern:
Typ-II-A-Fasern: FOG (engl. fast oxydative glycolytic fibers = ‚schnelle oxidative/glykolytische Fasern‘)
Typ-II-X-Fasern: FG (engl. fast glycolytic fibers = ‚schnelle glykolytische Fasern‘). Man unterscheidet je nach Tierart verschiedene Typen (B oder C).
Nach Kontraktionseigenschaft
Extrafusale Fasern (auch twitch fibers = ‚Zuckungsfasern‘) (Arbeitsmuskulatur)
ST-Fasern (engl. slow twitch fibers = ‚langsam zuckende Fasern‘) sind sehr ausdauernd, entwickeln allerdings nicht hohe Kräfte (entspricht SO).
Intermediärtyp (entspricht FOG)
FT-Fasern (engl. fast twitch fibers = ‚schnell zuckende Fasern‘) können hohe Kräfte entwickeln, ermüden aber sehr schnell (entspricht FG).
Tonusfasern können nur eine langsame, wurmförmige Kontraktion ausüben. Sie kommen selten, beispielsweise in den äußeren Augenmuskeln, im Musculus tensor tympani und in Muskelspindeln, vor.
Intrafusale Fasern (Muskelspindeln) dienen als Dehnungsrezeptoren und zur Einstellung der Empfindlichkeit der Muskelspindeln.
Nach Farbe
Rote Muskeln (entspricht SO)
Weiße Muskeln (entspricht FG)
Haben in vielen Tieren (nicht aber beim Menschen) wegen des niedrigen Myoglobingehalts eine helle Farbe.
Das Verhältnis der Zusammensetzung eines Skelettmuskels aus verschiedenen Muskelfasertypen ist weitestgehend genetisch bestimmt und ist durch ein gezieltes Ausdauer- beziehungsweise Krafttraining begrenzt veränderbar. Dieses verändert nicht das Verhältnis zwischen Typ-I- und Typ-II-Fasern, aber wohl das zwischen Typ-II-A und Typ-II-X. Aus vielen II-X-Fasern werden II-A-Fasern gebildet (z. B. im Musculus trapezius bei Krafttraining Gehalt an II-A von 27 % auf bis zu 44 % aller Fasern). Die Verteilung der verschiedenen Muskelfasern in einem Muskel ist nicht homogen, sondern unterschiedlich an Ursprung, Ansatz bzw. im Inneren und an der Oberfläche des Muskels.
Muskelkontraktion
Beschreibung
Die Kontraktion ist ein mechanischer Vorgang, der durch einen Nervenimpuls ausgelöst wird. Dabei schieben sich Eiweißmoleküle (Aktin und Myosin) ineinander. Dieses wird durch schnell aufeinanderfolgende Konformationsänderungen der chemischen Struktur möglich, wodurch die Fortsätze der Myosinfilamente – vergleichbar mit schnellen Ruderbewegungen – die Myosinfilamente in die Aktinfilamente hineinziehen. Hört der Nerv auf, den Muskel mit Impulsen zu versorgen, erschlafft der Muskel, man spricht dann von Muskelrelaxation.
Kontraktionsarten
Je nach Kraft- (Spannungs-) bzw. Längenänderung des Muskels lassen sich mehrere Arten der Kontraktion unterscheiden:
isotonisch („gleichgespannt“): Der Muskel verkürzt sich ohne Kraftänderung.
isometrisch („gleichen Maßes“): Die Kraft erhöht sich bei gleichbleibender Länge des Muskels (haltend-statisch). Im physikalischen Sinne wird keine Arbeit geleistet, da der zurückgelegte Weg gleich null ist.
auxotonisch („verschiedengespannt“): Sowohl Kraft als auch Länge ändern sich. Das ist der häufigste Kontraktionstyp bei Alltagsbewegungen.
Aus diesen elementaren Arten der Kontraktion lassen sich komplexere Kontraktionsformen zusammensetzen. Sie werden im alltäglichen Leben am häufigsten benutzt. Das sind z. B.
die Unterstützungszuckung: erst isometrische, dann isotonische Kontraktion. Beispiel: Anheben eines Gewichtes vom Boden und anschließendes Anwinkeln des Unterarms.
die Anschlagszuckung: erst isotonische, dann isometrische Kontraktion. Beispiel: Kaubewegung, Ohrfeige.
Hinsichtlich der resultierenden Längenänderung des Muskels und der Geschwindigkeit, mit der diese erfolgt, lassen sich Kontraktionen z. B. folgendermaßen charakterisieren:
isokinetisch („gleich schnell“): Der Widerstand wird mit einer gleich bleibenden Geschwindigkeit überwunden.
konzentrisch: der Muskel überwindet den Widerstand und wird dadurch kürzer (positiv-dynamisch, überwindend). Die intramuskuläre Spannung ändert sich, und die Muskeln verkürzen sich.
exzentrisch: ob gewollt oder nicht, der Widerstand ist größer als die Spannung im Muskel, dadurch wird der Muskel gedehnt (negativ, dynamisch, nachgebend). Es kommt zu Spannungsänderungen und Verlängerung/Dehnung der Muskeln.
Aufbau und Funktion der quergestreiften Skelettmuskulatur
Jeder Muskel ist von einer elastischen Hülle aus Bindegewebe (Faszie) ummantelt, die mehrere Fleischfasern (auch Sekundärbündel) umschließt, welche wiederum mit Bindegewebe (Perimysium externum und Epimysium) umschlossen und zusammengehalten werden, das von Nerven und Blutgefäßen durchsetzt ist und sich an der Faszie befestigt. Jede Fleischfaser unterteilt sich in mehrere Faserbündel (auch Primärbündel), die zueinander verschiebbar gelagert sind, damit der Muskel biegsam und anschmiegend ist. Diese Faserbündel sind eine Vereinigung von bis zu zwölf Muskelfasern, die durch feines Bindegewebe mit Kapillargefäßen vereint sind.
Aktiv wird der Muskel, indem er sich anspannt (Kontraktion), anschließend wieder entspannt, eine Bewegung und eine Kraft ausübt. Eine Muskelkontraktion wird von elektrischen Impulsen (Aktionspotentialen) ausgelöst, die vom Gehirn oder Rückenmark ausgesandt und über die Nerven weitergeleitet worden sind.
Bei der Muskelfaser handelt es sich um ein Syncytium, das heißt um eine Zelle, die aus mehreren determinierten Vorläuferzellen (Myoblasten) entsteht und daher mehrere Kerne enthält. Die Muskelfaser kann eine beachtliche Länge von mehr als 30 cm und ungefähr 0,1 Millimeter Dicke erreichen. Sie ist teilungsunfähig, was der Grund ist, warum bei einem Verlust der Faser kein Ersatz nachwachsen kann und bei Muskelzuwachs sich lediglich die Faser verdickt. Das heißt, dass von Geburt an die Obergrenze der Muskelfasern festgelegt ist. Neben den üblichen Bestandteilen einer tierischen Zelle machen hauptsächlich Myofibrillen, das sind feinste Fäserchen, zu etwa 80 Prozent die Fasermasse aus. Die Membranhülle von Muskelfasern nennt man Sarkolemma.
Funktionelle Einteilung der Skelettmuskulatur
Im Hinblick auf ihre Zusammenarbeit werden Muskeln in gegenspielende und zusammenwirkende unterteilt. Agonisten (Spieler) und Antagonisten (Gegenspieler) haben zueinander eine entgegengesetzte Wirkung. Synergisten dagegen haben eine gleiche oder ähnliche Wirkung und arbeiten deshalb bei vielen Bewegungsabläufen zusammen.
Beispiel: Antagonisten: Bizeps und Trizeps;
Beispiel: Synergisten: für Liegestütze braucht man den Trizeps und die Brustmuskeln (pectoralis major, - minor).
Muskeln, die Extremitäten an den Körper heranziehen, heißen Adduktoren (Anzieher), ihre Antagonisten, die Abduktoren (Abzieher), sorgen dafür, dass die Extremitäten vom Körper abgespreizt werden.
Beispiel: äußere und innere Muskeln des Oberschenkels, mit welchen man die Beine spreizen und zusammenführen kann.
Flexoren (Beuger) dagegen knicken Finger und Zehen ein, ihre Antagonisten sind die Extensoren (Strecker).
Rotatoren (führen Drehbewegungen aus, z. B. des Unterarmes oder des Kopfes)
Skelettmuskulatur des Menschen
Jeder gesunde Mensch besitzt 656 Muskeln, wobei diese beim Mann etwa 40 %, bei der Frau etwa 32 % der Gesamtkörpermasse ausmachen, die Muskulosität hängt insgesamt aber von der Lebensweise ab.
Der flächenmäßig größte Muskel des Menschen ist der Große Rückenmuskel (Musculus latissimus dorsi), der dem Volumen nach größte Muskel ist der Musculus gluteus maximus (größter Gesäßmuskel), der stärkste der Kaumuskel (Musculus masseter), der längste der Schneidermuskel (Musculus sartorius), die aktivsten die Augenmuskeln und der kleinste der Steigbügelmuskel (Musculus stapedius). Aufgrund des Umfangs mechanischer Arbeit, die die Muskeln leisten müssen, sind sie neben dem Nervensystem einer der Hauptabnehmer von Körperenergie (siehe Muskelarbeit und Muskelleistung).
Postnatale Entwicklung
Beim Neugeborenen ist die Muskulatur im Rumpf weiter entwickelt als die in den Extremitäten. Der Muskelanteil beträgt etwa 21 Prozent des Körpergewichts. Während des Wachstums nimmt die Muskelmasse beim Mann etwa um das 32,8-Fache zu, die Gesamtkörpermasse jedoch nur etwa um das 19,4-Fache. Bei Männern schließt die Entwicklung der Muskulatur im Zeitraum zwischen dem 23. und dem 27. Lebensjahr ab, bei Frauen zwischen dem 19. und 23. Lebensjahr. Die Muskelmasse beim Mann liegt bei etwa 37–57 %, während sie bei der Frau etwa 27–43 % beträgt.
Im höheren Alter geht die Entwicklung der Muskeln zurück zu einem Zustand ähnlich dem vor der vollständigen Ausbildung. Dies betrifft also vor allem einen Abbau der Muskeln in den Beinen.
Physiologische Muskelinsuffizienz
Aufgrund seiner mikroskopischen Anatomie kann sich ein Muskel weder vollkommen zusammenziehen (das Sarkomer kann sich nur um ca. 30 % verkürzen), noch unbegrenzt dehnen (das Sarkomer würde ansonsten reißen). Daraus ergeben sich zwei verschiedene Formen physiologischer Insuffizienz eines Muskels:
Aktive Muskelinsuffizienz tritt auf, wenn der Agonist nicht mehr weiter kontrahieren kann, weil er schon maximal kontrahiert ist.
Passive Muskelinsuffizienz tritt auf, wenn der Agonist nicht weiter kontrahieren kann, da sein Antagonist bereits maximal gedehnt ist.
Bei zweigelenkigen Muskeln ist es möglich, der Muskelinsuffizienz (bezüglich der Muskelwirkung auf ein Gelenk) entgegenzuwirken, indem man den Muskel im anderen Gelenk dehnt (bzw. den Antagonisten verkürzt). So wirkt beispielsweise der Musculus biceps brachii bezüglich seiner Beugekraft im Ellbogengelenk stärker, wenn der Arm retrovertiert ist (also das Ellenbogengelenk hinter dem Körper), da nun der aktiven Insuffizienz des Muskels durch Dehnung im Schultergelenk (der lange Bizepskopf überzieht beide Gelenke) entgegengewirkt wird.
Erkrankungen und Verletzungen der Skelettmuskulatur
Siehe auch:
Muskelfunktionstest, Sehnenentzündung, Sehnenriss, Sehnenzerrung
Siehe auch
Literatur
Schmidt, Unsicher (Hrsg.): Lehrbuch Vorklinik – Teil B, Deutscher Ärzte-Verlag Köln, 2003, ISBN 3-7691-0442-0
Frédéric Delavier: Der neue Muskel-Guide. Gezieltes Krafttraining, Anatomie (OT: Guide des mouvements de musculation). BLV, München 2006, ISBN 3-8354-0014-2
Sigrid Thaller, Leopold Mathelitsch: Was leistet ein Sportler? Kraft, Leistung und Energie im Muskel. Physik in unserer Zeit 37(2), S. 86–89 (2006),
Detlev Drenckhahn (Hrsg.): Anatomie Band 1. Urban & Fisher, München 2008
Weblinks
Uni Mainz: Die Muskulatur des Menschen in Tabellen
zu Kontraktur siehe die Artikel bei Pflegewiki Kontraktur und Kontrakturenprophylaxe
Einzelnachweise
Muskelgewebe
Sportmedizin
|
Q7060553
| 131.753277 |
5419
|
https://de.wikipedia.org/wiki/Volap%C3%BCk
|
Volapük
|
Volapük (Volapük für „Weltsprache“) ist eine gemischte Aposteriori-Plansprache, die 1879/80 von dem Pfarrer Johann Martin Schleyer geschaffen und vorgestellt wurde.
Geschichte
Vorläufer
Nach Solresol 1817 beziehungsweise 1856 war Volapük die zweite Plansprache überhaupt, die nennenswerte Verbreitung gefunden hat. Wie Solresol bildet sie in ihren Aspekten einen Forschungsgegenstand der Interlinguistik.
Entstehung
Schleyers Idee zum Volapük wird einmal durch einen Traum, ein anderes Mal durch eine fehlerhafte englischsprachige Anschrift erklärt, durch die ein Brief nicht angekommen war. Zunächst versuchte Schleyer, aus sechs europäischen Sprachen – der deutschen, der englischen, der französischen, der italienischen, der spanischen sowie der russischen – eine gemischte Sprache zu konstruieren. Dieser wollte er den Namen „Völkerdolmetsch“ geben. Weil aber eine gemeinsame Verständigung unter den verschiedenen Völkern eine gemeinsame Schreibung voraussetzt, versuchte es Schleyer zunächst mit der Aufstellung eines „Weltalphabets“ (18. Januar 1878).
Erfolge
Die ersten Versuche, Volapük der Öffentlichkeit zu präsentieren, finden sich in der von Schleyer herausgegebenen „Sionsharfe“, Monatsblätter für katholische Poesie. Zuerst (März 1879) gab Schleyer darin Proben seines Weltalphabets. Im Mai desselben Jahres erschien als Beilage der Entwurf einer Weltsprache und Weltgrammatik für die Gebildeten aller Völker der Erde. Dieser Entwurf brachte die Grundsätze und die ersten Wörter. Der erste Probesatz lautete:
Ko God beginobsöd dinis valik! ‚Lasst uns alle Dinge mit Gott beginnen!‘ – Wörtlich: Mit Gott lasst-uns-beginnen Dinge alle.
Anfangs war die Sprache recht erfolgreich. Es bildeten sich Volapük-Gesellschaften in Europa, die sich nach Nord- und Südamerika und sogar einigen Teilen von Asien ausbreiteten. Bereits nach wenigen Jahren hatte Volapük angeblich über 100.000 Anhänger – ob diese jedoch die Sprache wirklich beherrschten, ist ungewiss. Es gab laut Rupert Kniele aber Ende 1888 immerhin 885 diplomierte Volapük-Lehrer.
Der Stenograf Karl Lenze aus Eisleben wurde Schleyers erster Schüler und erhielt das erste Diplom als Weltsprachelehrer.
Im Jahr 1880 erschien die erste Grammatik mit Wörterbuch. Die neue Sprache erhielt jetzt den Namen „Volapük“, gebildet aus den englischen Wörtern world und speak. Volapük heißt also Sprache der Welt oder Weltsprache. In der Februarnummer der „Sionsharfe“, welche anfänglich als Organ für Volapük diente, erschien als erster Vers die Devise „Einer Menschheit – eine Sprache“:
Ein Jahr nach der Erfindung des Volapük erschien die Grammatik unter dem Titel Volapük, die Weltsprache, Entwurf einer Universalsprache für alle Gebildete der ganzen Erde. Verfasser: J. M. Schleyer, Redakteur der „Sionsharfe“. Diese Grammatik erschien in Sigmaringen und enthielt auch ein Wörterbuch mit 2780 Wörtern. Einflussreiche Zeitungen veröffentlichten empfehlende Artikel. Das Luxemburger Wort verglich die Bedeutung der sogenannten „Weltsprache“ für die ganze Menschheit mit der Bedeutung der Weltpost und schließt mit der folgenden Ermahnung:
Schleyer entschloss sich bald zur Herausgabe eines eigenen Weltspracheblattes. Ab dem 1. Januar 1881 erschien das Weltspracheblatt Volapükabled. Die erste Nummer enthielt Grammatikalisches, einen Brief, eine Anzahl von Firmen, Gewerben, Anstalten, welche empfohlen wurden, dann vergleichende Sätze in 20 verschiedenen Sprachen mit Text in Volapük daneben.
Otto Büchler aus Öhringen hielt in einer humanistischen Lehrerversammlung in Heilbronn einen Vortrag, der als der erste Vortrag über Volapük gilt, und schloss mit dem Ausdruck der Freude darüber, dass es ein Deutscher sei, der den Anstoß zu einer Weltsprache gegeben habe.
1882 fing Kamerer J. Hyberg im schwedischen Ankarsrum an, Volapük zu lernen, und gründete einen Verein unter dem Namen: Första svenska verldsspråkkluben „Volapükaflens svedik“ mit neun Mitgliedern, welcher aber keine weiteren Fortschritte machte, obwohl er sich viel Mühe gab, Volapük in Schweden einzuführen.
Der erste Weltspracheverein wurde im selben Jahr von Rupert Kniele im Dorf Alberweiler bei Biberach gegründet. Das Jahr 1884 kann als das Jahr der Versammlungen betrachtet werden. Schleyer war um diese Zeit sehr krank und suchte ein Volapükwort für „Neid“, das es damals noch nicht gab. Er sagte zu Rupert Kniele, der ihn besuchte:
Kniele schuf daraufhin das Wort „glöt“.
Vom 25. bis zum 28. August 1884 fand die erste Generalversammlung im Kursaal der Bodenseestadt Friedrichshafen statt. Das Wort „Volapük“ wurde von dieser Versammlung als sächlich erklärt, während man bisher „die Volapük“ sagte. Im März 1885 wandte sich Schleyer gegen die sogenannten „Verbesserer“, die er als Quelle für alle Differenzen ansah.
Anfang 1887 schrieb der „Düsseldorfer Anzeiger“:
Wissenschaftliche Autoritäten wie der Linguist Friedrich Max Müller und der Geograf Alfred Kirchhoff sprachen sich nun für Volapük aus. Das französische Blatt „Le Temps“ schrieb am 16. Januar 1887:
Die „Kölnische Volkszeitung“ schrieb am 11. Februar 1887 gar:
Im Mai 1887 hielt die „Association française“ internationale Prüfungen ab, an welchen sich über 300 Personen aus allen Erdteilen beteiligten. Das erste Diplom als „plofed“ (Professor der Weltsprache) erhielt der Direktor der Handelsschule in Bukarest. Vom 6. bis zum 9. August fand der 2. Kongress aller Weltsprachefreunde in München statt.
Anfang 1888 sah sich Schleyer veranlasst, seine Rechte als Erfinder zu bekräftigen. Schleyer führte den Namen „cifal“, als welcher er auch von der 2. Generalversammlung in München anerkannt wurde. Sein Wohnsitz galt als Zentralpunkt für alle Volapükisten der Erde. Die einheitliche Leitung geschah durch Schleyers monatlich erscheinendes Organ, das Volapükabled zenodik („Zentralblatt der Weltsprache“). Der Wohnsitz des Erfinders in Konstanz galt als Zentralbureau der Schleyer’schen Weltsprache.
Dem cifal standen die Senatoren (senätans) zur Seite. Diese Senatoren wählte sich Schleyer nach seinem Ermessen aus. Insgesamt wollte er 100 Senatoren auswählen.
Im selben Jahr 1888 wurde Volapük auch in China und Japan eingeführt.
Am Ende des ersten Jahrzehnts (1888) gab es 885 Weltsprachelehrer, 190 Oberlehrer (löpitidel), 50 Professoren (plofed). Weltweit wurde die Zahl der Volapük-Anhänger auf 1 bis 2 Millionen geschätzt. Kurse wurden an 272 Orten erteilt und es gab 253 Vereine, die sich für Volapük engagierten (laut Kniele, S. 69).
Der britische Philologe Alexander Ellis erwähnt in seinen Schriften ein Chicagoer Mädchen namens Corinne Cohn, das mit Volapük aufwuchs. Es war die Tochter des Volapük-Aktivisten Henry Cohn und im Jahr 1888 sechs Jahre alt. Es gibt aber keine weiteren Berichte von ihm.
Niedergang
Mit der Zeit erwies sich Volapük als zu schwer erlernbar, um sich dauerhaft durchsetzen zu können. Der Wortschatz wurde zwar verschiedenen europäischen Sprachen entnommen, allerdings wurden die einzelnen Wörter zum Teil so stark verändert, dass sie kaum noch zu erkennen waren.
Eine weitere Bürde für die Entstehung eines lebendigen Volapük war, dass Schleyer versuchte, die Kontrolle über seine Sprache zu behalten und die Volapük-Akademie autokratisch zu beherrschen. So behielt er sich beispielsweise als Datuval (= „Großer Erfinder“) die Einführung neuer Vokabeln sowie ein absolutes Vetorecht vor.
Nachdem die 1889 auf dem 3. Volapük-Kongress in Paris gegründete Volapük-Akademie einige Reformen gefordert hatte, die Schleyer ablehnte, begann der rasche Niedergang des Volapük. Reformversuche wie das Idiom Neutral fanden keinen Zulauf.
Bereits ab Mitte der 1880er Jahre verließen immer mehr Volapük-Anhänger die Weltsprachbewegung. 1888 trat der Nürnberger Volapük-Verein zum Esperanto über. Volapük verlor schnell an Bedeutung.
In der Zeit nach dem Ersten Weltkrieg begann der Niederländer Arie de Jong mit einer kompletten Durchsicht von Wortschatz und Grammatik. 1929 traf er sich mit Mitgliedern der noch immer bestehenden Volapük-Akademie und dem Volapük-Präsidenten, dem sogenannten Cifal. Nachdem diese revidierte Fassung akzeptiert wurde, veröffentlichte er zu Beginn der 1930er Jahre eine neue Leitgrammatik sowie ein modellhaftes Wörterbuch Volapük–Deutsch und Deutsch–Volapük.
Bedeutung
Zurzeit gibt es nur noch wenige Menschen, die Volapük beherrschen. Die Bedeutung des Volapük liegt darin, dass zum ersten Mal eine neue Sprache nicht ein bloßes Projekt blieb, sondern von einer Sprachgemeinschaft angewandt wurde.
Volapük hat die ISO-639-Kürzel vo und vol.
Chronologie
1879 Johann Martin Schleyers Konzept einer Welthilfssprache
1880 Veröffentlichung des ersten Volapük-Lehrbuchs in Sigmaringen
1884 Erster Weltkongress in Friedrichshafen
1887 Zweiter Weltkongress in München – Gründung der Volapük-Akademie
1888 Geschlossener Übertritt der Nürnberger Volapük-Gruppe zum Esperanto
1889 Dritter Weltkongress in Paris
1889 Präsident der Volapük-Akademie Auguste Kerckhoffs, Streit mit Schleyer
1902 Veröffentlichung des völlig anderen Sprachprojektes Idiom Neutral durch die ehemalige Volapük-Akademie unter Waldemar Rosenberger
1931 Veröffentlichung des revidierten Volapük durch Arie de Jong nach Billigung durch Akademie und Cifal
Cifals
„Cifal“ (Chef) war der Titel, den sich Schleyer als Oberhaupt der Volapük-Bewegung geben ließ. Der Titel „Cifal“ wurde in ununterbrochener Reihenfolge von Schleyer bis in die Gegenwart fortgeführt. Seine Nachfolger bis heute waren oder sind:
Johann Martin Schleyer 1879–1912
Albert Sleumer 1912–1948
Arie de Jong (kommissarisch) 1947–1948, 1951–1957
Jakob Sprenger 1948–1950
Johann Schmidt 1950–1977
Johann Krüger 1977–1983
Brian Reynold Bishop 1984–2014
Hermann Philipps 2014 bis heute
Auf Grund der geringen Sprecherzahl hatte Brian Bishop zuerst Schwierigkeiten, einen Nachfolger zu finden. 2012 wurde der Deutsche Hermann Philipps aus Bonn als Vize-Cifal („Vicifal“) bestimmt.
Rezeption
Der Schwede Paul Nylén beschrieb seinen Eindruck vom Volapük, nachdem er sich einem anderen Plansprachenprojekt angeschlossen hatte, rückblickend wie folgt:
Adalbert Baumann, der Urheber von Weltdeutsch, übt in seinem Buch Wede: Die Sprache der Zentralmächte und ihrer Freunde (1915) scharfe Kritik an den bestehenden Sprachprojekten, auch an Volapük:
Volapük-Alphabet
Das Volapük-Alphabet besteht aus 27 Buchstaben:
Durch den Ausschluss von „q“ und „w“ enthält das Volapük-Alphabet nur 24 der 26 Nicht-Umlaute des deutschsprachigen Alphabet plus die drei Umlaute, in Summe also 27.
Die meisten Buchstaben werden wie im Deutschen ausgesprochen. Abweichungen gibt es nur bei:
c = stimmloses tsch [tʃ] (oder stimmhaftes dsch [dʒ]): cil [tʃil] = Kind (aus dem Englischen „child“ [tʃaɪld])
j = stimmloses sch [ʃ] (oder stimmhaftes sch [ʒ]): jad [ʃad] = Schatten (aus dem Englischen „shadow“ [ˈʃædəʊ])
v = w [v]: vin [vin] = Wein (aus dem Englischen „wine“ [waɪn]; [v] < [w])
y = j [j]: yag [jag] = Jagd
Ursprünglich ging Schleyer von 26 Buchstaben aus („Unser Weltalfabet“). Eingerechnet sind dabei das ħ – entsprechend dem englischen th – sowie die Partikel ' als h-Anlaut wie im Griechischen, die beide später abgeschafft wurden. Noch nicht berücksichtigt in seiner Liste von 1880 sind die drei Umlaute ä, ö und ü. In dieser Phase sieht Schleyer diese noch als bloße Varianten der Stammvokale, die durch „einen starken 4ekigen Punkt inmitten derselben“ erzeugt werden. Er entwickelt dann sogar eine eigene Typografie, aber schon 1880 benutzt er auch das Trema zur Darstellung der Umlaute.
Beispiele
Volapük ist eine agglutinierende Sprache, das heißt Wörter bekommen durch das Anhängen von Vorsilben und Nachsilben unterschiedliche Bedeutungen:
pük = Sprache
pükön = sprechen (-ön ist die Infinitiv-Endung)
pükel = Redner
nepük = Schweigen (ne- ist die verneinende Vorsilbe)
Beispielsätze
Odelo ovisitobs flenis obas. (Morgen besuchen wir unsere Freunde.)
Lif ela Schleyer äbinon vemo nitedik. (Schleyers Leben war sehr interessant.)
Givob ole bukis tel. (Ich gebe dir zwei Bücher.)
Das „Vaterunser“ in Volapük
Siehe O Fat obas bei Wikisource.
Volapük-Hymne
Siehe Hüm Volapüka bei Wikisource.
Anfang des Johannes-Evangeliums
Primo vöd ädabinon, e vöd äbinon in God, e vöd äbinon God.
Si! vöd äbinon primao in God;
val edavedon dub on, e nen on nos edavedon uta, kel edavedon.
In on lif äbinon, e lif äbinon lit menas.
Lit stralon ini dag, e dag no elasumon oni.
Grammatik
Im Zwölften Band von Pierers Konversations-Lexikon aus dem Jahr 1883 wird unter dem Stichwort „Volapük“ eine kurze Einführung in die Grammatik dieser Plansprache gegeben:
Kasus
Wortbildung
Bei zusammengesetzten Wörtern (Komposita) steht das Grundwort am Ende:
pokamon = Taschengeld
monapok = Geldtasche
Adjektive
Eigenschaftswörter (Adjektive) enden immer auf ik:
Substantive
Substantive beginnen und enden immer mit einem Konsonanten.
Von den Substantiven Auge und Ohr sind die Verben logön [loˈgøn] (= sehen) und lilön [liˈløn] (= hören) abgeleitet.
Von männlichen Substantiven abgeleitete weibliche Substantive werden durch die Vorsilbe ji gekennzeichnet, zum Beispiel tidel = Lehrer, jitidel = Lehrerin. Das Geschlecht von männlichen Tieren wird mit der Vorsilbe om, das von weiblichen Tieren durch die Vorsilbe ji gekennzeichnet, zum Beispiel omdog = Rüde, jidog = Hündin.
Grundzahlen
Die Grundzahlen beginnen und enden auf einem Konsonanten mit einem Vokal. Endkonsonant ist stets ein „l“. Man beachte die Reihenfolge der Vokale (a, e, i, o, u, ä, ö, ü); nur bei „7“ ist wieder ein „e“ eingeschoben. Im schleyerschen Volapük wurden die Zehner mit dem Plural-s gebildet: 10 bals, 20 tels, 30 kils usw. 11 balsebal, 12 balsetel, 13 balsekil usw. Erst in der großen Volapükreform durch Arie de Jong wurde mit Einführung des Wortes „deg“ ein eigenes Wort für zehn und zur Bildung der Zehnerreihe eingeführt.
Weitere Zahlen
tum = 100
mil = 1.000
degmil = 10.000
milion / balion = 1.000.000 (Million)
miliád / telion = 1.000.000.000 (Milliarde)
bilion = Bilion, kilion = Trillion, folion = Quadrillion
folbalion jöltumveldegmälmil kiltumteldegzül = 4.876.329
„Fünf große Bäume“ heißt in Volapük „bims gretik lul“.
Verbformen
Die Passivformen der Verben werden durch Voransetzen des Konsonanten „p“ und eines Vokals gebildet. Hier aufgezeigt anhand des Verbs „löf“ (= lieben, abgeleitet vom englischen Wort „love“):
Kritik
Die bedeutungstragenden Unterschiede sind oft sehr gering, so dass viele Wörter nur schwer auseinanderzuhalten sind.
Laute
Die Umlaute ö () und ü () sind für einen großen Teil der Menschen schwer auszusprechen.
Das „gerollte“ Zungenspitzen-R () eliminierte der Projektautor Johann Martin Schleyer aus seiner Plansprache, um den Chinesen den Zugang zu Volapük zu erleichtern. Was von Volapük blieb, wurde in den 1920er Jahren von dem Niederländer Arie de Jong reformiert, welcher den Buchstaben R wieder einführte. Er begründete diesen Schritt damit, dass die Japaner mit dem L Schwierigkeiten hätten.
Wortschatz
Internationalismen fehlen oder sind so entstellt, dass sie nicht mehr wiederzuerkennen sind. Obwohl ein großer Teil des Wortschatzes dem Englischen entnommen ist, sind doch gerade für Muttersprachler des Englischen viele Wörter (zum Beispiel „pük“) auf Grund der darin enthaltenen Umlaute nur schwer auszusprechen.
Auch wird der Muttersprachler des Englischen nicht ohne Hinweis darauf kommen, dass zum Beispiel das Wort „flen“ für Freund vom englischen Wort „friend“ abgeleitet ist.
Übertragene Begriffsverwendung
Im Dänischen wird das Wort heute synonym für (absichtlich) Unverständliches (Fachchinesisch, elitäres Kauderwelsch) benutzt – oder auch im Sinne von ‚Quatsch‘: (wörtl.: ‚Das ist das reinste Volapük‘) bedeutet so viel wie ‚Ich verstehe nur Bahnhof‘. Ähnlich hat es Erich Kästner in seinem sarkastischen Gedicht Sogenannte Klassefrauen verwendet.
Im Esperanto wird volapukaĵo („in Volapük Abgefasstes“) auch in der Bedeutung „Unverständliches“ verwendet.
In Kurt Tucholskys Satire Der Löw’ ist los (1929) wird Russisch als das Volapük der Tiere bezeichnet. Es wird nicht näher darauf eingegangen, was darunter genau zu verstehen ist.
In dem Werk „Der „Linke Radikalismus“, die Kinderkrankheit im Kommunismus“ von Lenin mokiert sich der Autor über den „spintisierenden Eifer“ des „linken“ Kommunismus (ergo der KPD) in Deutschland. Unter anderem heißt es da bei Lenin: „Das alles sind Binsenwahrheiten. Das alles ist einfach und klar. Wozu bedurfte es statt dessen eines Kauderwelsch, eines neuen Volapüks?“
Mit dem Namen Wolapjuk ( = ‚Kodierung „Volapük“‘; ) bezeichnet man heute im slawischen Sprachraum auch die (inoffizielle) Transliteration kyrillischer Buchstaben über Computersysteme mit westlichem Lateinalphabet, etwa bei Chat oder Instant messaging, etwa in folgender Form: СОВЕТСКИЙ СОЮЗ (kyrillisch) = COBETCKIJ CO1O3 (lateinisch)
In dieser Bedeutung spielt Volapük auch in William Gibsons „Quellcode“ eine Rolle.
Literatur
Philipp Engert und Leonard Schwägerl (Hrsg.): Schleyer und Volapük – Geschichte und Linguistik. Seminarkurs 2012/2013 Martin-Schleyer-Gymnasium, Lauda-Königshofen. Verlag tredition GmbH Hamburg 2013; ISBN 978-3-8495-7238-9
Hans-Dieter Kuhn: Die Plansprachen Volapük und Esperanto in Konstanz. Geschichte und lokale Ereignisse; Hartung-Gorre Verlag Konstanz 2010; ISBN 978-3-86628-357-2
Jürgen Oellers: Sprachenverwirrung in Friedrichshafen. Der erste Volapük-Kongress im Jahre 1884. In: Leben am See. Jahrbuch, Jahr unbekannt, S. 26–37.
Weblinks
Zur Geschichte von Volapük (englisch)
Volapük-Linksammlung (englisch)
Volapük-Grammatik (englisch)
Flenef bevünetik Volapüka (englisch)
Volapük-Kurs v. Johann Schmidt
Volapük-Yahoo-Group
Literatur auf und über Volapük in der Plansprachensammlung der ONB
Exponate zu Volapük in der virtuellen Ausstellung „Konstruierte Sprachen“ der Bayerischen Staatsbibliothek
Dossier mit Zeitungsartikeln zu den Sprachen Volapük und Esperanto
Einzelnachweise
Einzelsprache
Plansprache
|
Q36986
| 89.039822 |
13554
|
https://de.wikipedia.org/wiki/Holzblasinstrument
|
Holzblasinstrument
|
Holzblasinstrument ist die fachliche Bezeichnung für Blasinstrumente, bei denen die Schwingung der Luftsäule mittels Luftblatt (flach geformter Luftstrom) oder Rohrblatt erzeugt wird. Die Einteilung orientiert sich an der Hornbostel-Sachs-Systematik, wonach Blasinstrumente ausschließlich nach der Tonerzeugung und nicht nach ihrem Material klassifiziert werden. Holzblasinstrument ist der Oberbegriff für zwei Gruppen in der Hornbostel-Sachs-Systematik: „Flöten (421)“ (dazu etwa Querflöte und Blockflöte) und „Schalmeien (422)“, heute Rohrblattinstrumente genannt (dazu etwa Oboe, Klarinette, Fagott und Saxophon). Holzblasinstrumente können auch aus Metall oder Kunststoffen bestehen, manchmal kombiniert mit Holzteilen. Die ältesten erhaltenen Flöten wurden aus Knochen hergestellt. Andererseits besteht z. B. der Zink aus Holz, ist aber wegen der Art seiner Schwingungserzeugung zu den Blechblasinstrumenten zu zählen.
Abgrenzung
Zu den Holzblasinstrumenten gehören die Gruppen Schneideninstrumente oder Flöten (421) und Schalmeien (422) der 1914 veröffentlichten Hornbostel-Sachs-Systematik. Allgemein für Blasinstrumente gilt, dass sie vom Spieler direkt mit dem Mund angeblasen werden und dass die Tonhöhe durch die Länge der schwingungsfähigen Luftsäule im Instrument gegeben ist (die Frequenzen des erzeugten Klangs sind Eigenfrequenzen dieser Luftsäule). Bei den typischen Holzblasinstrumenten wird die Luftsäulenlänge vom Spieler durch Öffnen und Schließen von Tonlöchern eingestellt, entweder direkt mit den Fingern oder mittels Klappen.
In etwas erweitertem Sinn sind Holzblasinstrumente auch solche, die nur je eine einzige Tonhöhe erzeugen können und daher keine Tonlöcher haben, z. B. die Pfeifen der Panflöte, die Trillerpfeifen, und nicht mit dem Mund geblasene Instrumente wie die Labialpfeifen der Orgel.
In einem noch weiteren Sinne werden Instrumente als Holzblasinstrumente angesehen, bei denen eine Luftsäule zwar vorhanden ist, die Tonhöhe jedoch durch die Eigenfrequenz einer elastischen Zunge bestimmt wird. Die Luftsäule kann auf Resonanz mit der Zunge gestimmt sein; dies wirkt sich wesentlich auf Lautstärke und Klangfarbe, aber nur geringfügig auf die Tonhöhe aus. Solche Instrumente erzeugen stets nur eine einzige Tonhöhe und haben daher keine Tonlöcher. Zu dieser Gruppe gehören die Bordunpfeifen einer Sackpfeife und die Zungenpfeifen einer Orgel. Wegen der Ähnlichkeit im Aufbau, teilweise auch im Klang, werden diese Zungeninstrumente oft mit den Rohrblattinstrumenten (wie Klarinette, Oboe usw.) verwechselt.
Der folgende Text bezieht sich großenteils nur auf die typischen Holzblasinstrumente mit Tonlöchern.
Tonerzeugung
Allgemein
Die Luftsäule im Instrument wird durch den Spieler am Mundstück zu Schwingungen angeregt. Hier sind drei Arten der Holzblasinstrumente zu unterscheiden:
Ein flach geformter Luftstrom (Luftblatt) trifft auf eine Anblaskante oder Labium ( für Lippe) und gerät dort ins Schwingen (z. B. Flöten),
oder ein einzelnes Rohrblatt schwingt gegen eine feste Öffnung (z. B. Klarinetten, Saxophone),
oder ein symmetrisches Paar von Rohrblättern schwingt gegeneinander (z. B. Oboe, Fagott).
Durch Bedienung der Tonlöcher wird eine bestimmte Länge der schwingungsfähigen Luftsäule gewählt. Die Schwingung stellt sich dann durch Ausbildung einer stehenden Welle auf eine bestimmte Tonhöhe ein. Der tiefste Ton ergibt sich, wenn alle Tonlöcher geschlossen sind, die Luftsäule also die Länge des gesamten Instruments hat, und die tiefste der dann gegebenen Eigenfrequenzen angeregt wird. Die Luftsäulenlänge ist dann bei den meisten Instrumenten gleich der halben Wellenlänge, bei einigen gleich einem Viertel der Wellenlänge.
Wie bei jedem Musikinstrument ist die Schwingung nicht rein sinusförmig, enthält also nicht nur den der Länge der Luftsäule entsprechenden Grundton, sondern außerdem Obertöne. Diese bestimmen die Klangfarbe. Die Anteile der verschiedenen Obertöne hängen ab
von der Art der Schwingungsanregung (Luftblatt, einfaches Rohrblatt, Doppelrohrblatt),
vom Blasdruck,
vom Material des Instrumentenkörpers (genauer: den Reflexions- und Dämpfungseigenschaften der Innenwand für Schallwellen der verschiedenen Frequenzen),
von der Form der Bohrung des Instruments: konisch mit größtem Durchmesser am Schallbecher (Oboe, Saxophon), konisch mit größtem Durchmesser am Mundstück (Blockflöte, Traversflöte) oder überwiegend zylindrisch (Klarinette, Böhm-Querflöte),
von Unregelmäßigkeiten und Rauhigkeiten der Innenwand. Zu diesen zählen auch die Tonlöcher. Arthur Benade berichtet von einem Experiment, ein gewöhnliches Plastikrohr mit einem Doppelrohrblatt-Mundstück anzublasen, und beschreibt den Klang als dumpf und wenig reizvoll. Dasselbe Plastikrohr, mit passenden Bohrungen für Grifflöcher versehen, lieferte dagegen einen Klang mit näselndem, warmem Holz-Timbre, der schon an eine Oboe erinnerte.
Da sich zu Beginn jedes Tons die Schwingung der Luftsäule erst aufschaukeln muss (Einschwingvorgang), reagieren Holzblasinstrumente langsamer als etwa ein Schlaginstrument oder Klavier und müssen in dieser Hinsicht „vorausschauend“ gespielt werden. Zur guten „Ansprache“ eines Instruments gehört ein kurzer Einschwingvorgang bei allen Tönen.
Die Physik der Tonentstehung in Holzblasinstrumenten ist trotz langjähriger Bemühungen noch nicht in allen Einzelheiten verstanden.
Überblasen
Überblasen heißen die Techniken, durch Erhöhen des Blasdrucks oder andere Maßnahmen das Instrument in einer höheren Lage (manchmal Register genannt) zu spielen. In der schwingenden Luftsäule entstehen dabei ein oder mehrere zusätzliche Schwingungsknoten. Je nach Anzahl dieser Knoten liegt die Frequenz der Schwingung um ein ganzzahliges Vielfaches höher: statt des Grundtons der Luftsäule wird einer ihrer höheren Naturtöne angeregt. In der Praxis lassen sich Holzblasinstrumente mit Ausnahme einiger Flöten nur bis zum dritten oder vierten Naturton überblasen.
Länge und Tonhöhe
Physikalische Forschungen von Helmholtz, Raleigh u. a. zeigten, dass bei einem Rohrblattinstrument mit zylindrischer Bohrung (wie der Klarinette) im tiefsten Register die Wellenlänge des Tons viermal so groß wie die Länge der Luftsäule ist, bei allen anderen Holzblasinstrumenten dagegen nur doppelt so groß. Da beim tiefsten erzeugbaren Ton die Luftsäulenlänge annähernd die Länge des ganzen Instruments ist, erreicht eine Klarinette trotz annähernd gleicher Baugröße viel tiefere Töne als eine Flöte oder Oboe.
Einteilung
Luftblattinstrumente: Die Luftblattinstrumente oder Flöten lassen sich in zwei Gruppen mit jeweils diversen Unterarten einteilen: Längsflöten (beispielsweise die Blockflöten) und Querflöten. Die Labialpfeifen der Orgel gehören ebenfalls zu den Flöten. Der Artikel Flöte zählt, mit einer etwas anderen Einteilung, noch viele besondere Arten von Flöten auf. Manche von ihnen sind nur in sehr weitem Sinne zu der hier besprochenen Musikinstrumentengruppe zu rechnen.
Instrumente mit einfachem Rohrblatt: unter anderem Chalumeau, Saxophon, Klarinette, Bassettklarinette, Bassetthorn, Bassklarinette
Instrumente mit Doppelrohrblatt
Schalmeieninstrumente (der Spieler hält das Doppelrohrblatt zwischen den Lippen): unter anderem Schalmei, Pommer, Oboe, Englischhorn, Oboe d’amore, Heckelphon, Fagott, Kontrafagott, Dulzian, Rankett, Suona, Duduk
Instrumente mit Doppelrohrblatt in Windkapsel: Krummhorn, Rauschpfeife, Spielpfeife einiger Sackpfeifen
Grundtonleiter
Holzblasinstrumente werden wie andere Blasinstrumente zur näheren Beschreibung oft mit einem Tonnamen bezeichnet: Man sagt, „die Oboe ist ein C-Instrument“ oder „steht in C“, manchmal auch etwas irreführend „die Oboe ist in C gestimmt“. Gemeint ist damit die Grundtonleiter, also diejenige Durtonleiter, die auf dem Instrument am leichtesten und besten spielbar ist, wie beispielsweise C-Dur auf der Sopran- oder F-Dur auf der Altblockflöte. Je mehr eine Tonart von der Grundtonleiter abweicht, umso schwieriger ist sie spieltechnisch. Klarinettisten im Symphonieorchester benutzen deshalb nicht immer dasselbe Instrument, sondern je nach Tonart und nach den Vorgaben des Komponisten eine Klarinette in A oder in B.
Manchmal ist mit „in C gestimmt“ auch nur gemeint, dass die Noten für dieses Instrument üblicherweise in der wirklichen Tonhöhe und nicht transponiert geschrieben sind (siehe auch Transponierendes Musikinstrument). Entsprechend bedeutet beispielsweise in B gestimmt bei manchen Instrumenten (Klarinette), dass die übliche Notierung um einen Ganzton höher als der wirkliche Klang erfolgt. Für Blockflöten dagegen, die es ebenfalls mit verschiedenen Grundtonleitern gibt, sind transponierte Noten nicht üblich.
Stimmung
Die Stimmung im Sinne der absoluten Höhe eines bestimmten Tones – üblich des a1 – ist durch den Bau des Instruments gegeben und lässt sich, anders als bei Saiteninstrumenten, nur in sehr engen Grenzen (ca. um einen Viertelton) verändern. Moderne Instrumente haben z. B. a1 = 440 oder 442 Hz, Barockinstrumente (original oder nachgebaut) oft zwischen 395 und 415 Hz, Renaissanceinstrumente auch 466 Hz.
Geschichte
Blasinstrumente im Pleistozän
Die nachweislich ältesten Blasinstrumente – und zugleich ältesten Musikinstrumente überhaupt – wurden aus Tierknochen, vor allem von Vögeln, und aus Mammutelfenbein hergestellt. Eines der ältesten bisher entdeckten Instrumente, eine Flöte aus dem Flügelknochen eines Singschwans aus einer Höhle bei Blaubeuren, wird auf ein Alter von mehr als 40.000 Jahren geschätzt.
Als älteste erhaltene Musikinstrumente der Welt gelten etwa 43.000 bis 40.000 Jahre alte steinzeitliche Knochen- und Mammutelfenbeinflöten, die auf der Schwäbischen Alb gefunden wurden. Eine aus dem Knochen eines Gänsegeiers hergestellte Flöte wurde im Sommer 2008 in der Höhle Hohle Fels bei Schelklingen gefunden. Relativ gut erhaltene oder rekonstruierbare Flöten mit Grifflöchern wurden in der Geißenklösterle-Höhle entdeckt. Die Funde zeigen, dass Menschen schon in der Steinzeit, genauer im Jungpaläolithikum, Musik gemacht haben. Zwei der Flöten aus dem Geißenklösterle sind in einem Stück aus Schwanenknochen gefertigt. Die dritte besteht aus zwei zusammengefügten, aus Mammutelfenbein geschnitzten Halbröhren; sie wurde mit mindestens drei, etwa im Terzabstand gestimmten, Grifflöchern versehen (ein viertes könnte weggebrochen sein) und mit seitlichen Kerbungen verziert.
Fragmente von zwei weiteren Flöten stammen aus der Vogelherdhöhle. Eine davon wurde aus Vogelknochen hergestellt, die andere ist aus Mammutelfenbein und in drei nicht zusammenhängenden Bruchstücken erhalten. Im Abraum der Vogelherdhöhle wurde zudem eine dritte Flöte entdeckt. Sie besteht aus einem Fragment mit zwei angeschnittenen Grifflöchern und ist aus Gänsegeierknochen gefertigt. Diese im Museum Alte Kulturen im Schloss Hohentübingen ausgestellte Flöte ist Teil des UNESCO-Welterbes „Höhlen und Eiszeitkunst im Schwäbischen Jura“.
Blasinstrumente in der Neuzeit
Bereits in der antiken Welt ist ein breites Spektrum an Holzblasinstrumenten durch Quellen und einzelne Funde belegt. In Europa setzte im ausgehenden 15. Jahrhundert ein erster Entwicklungsschub ein. Die verschiedenen Instrumente wurden in unterschiedlichsten Größen gebaut und die damaligen fertigungstechnischen Grenzen dabei ausgereizt. Allgemein üblich waren die Größen Sopran, Alt, Tenor und Bass in Anlehnung an das Gesangsquartett. Insbesondere Instrumente mit Doppelrohrblatt als Tonerzeuger wurden in vielen verschiedenen Ausführungen neu entwickelt oder aus mittelalterlichen Instrumenten weiter entwickelt. In der Zeit des Barock geriet ein großer Teil der Holzblasinstrumente aus der Zeit der Renaissance wieder in Vergessenheit. Anfang des 19. Jahrhunderts setzte in Europa ein zweiter Entwicklungsschub ein, der vor allem auf den neuen Fertigungstechniken zum Bau komplizierter Klappenmechaniken beruhte. Seit der zweiten Hälfte des 20. Jahrhunderts werden neben den modernen Instrumenten auch wieder die Instrumente aus Mittelalter und Renaissance nachgebaut und teilweise weiter entwickelt.
Literatur
Arthur H. Benade: Holzblasinstrumente. In: Die Physik der Musikinstrumente. ISBN 3-922508-49-9, S. 22 ff.
Günter Dullat: Holzblasinstrumentenbau. Moeck, Celle 1990, ISBN 3-87549-032-0.
Eugen Brixel: Schriftenreihe für Jungmusiker. Heft 1: Die Klarinette und das Saxophon. Musikverlag Stefan Reischel, Oberneunkirchen, Österreich, 1983.
Frank Peter Bär: Holzblasinstrumente im 16. und frühen 17. Jahrhundert. Familienbildung und Musiktheorie. Schneider, Tutzing 2001, ISBN 978-3-7952-1045-8.
Bettina Wackernagel: Holzblasinstrumente. Schneider, Tutzing 2005, ISBN 978-3-7952-1180-6.
Weblinks
Pipes and Harmonics (englisch) – gute physikalische Erklärung der Tonentstehung (University of New South Wales, Australien)
UNESCO-Welterbe im Museum der Universität Tübingen MUT: Presseinformationen, Fotos und 3D-Animationen der Objekte. In: www.unimuseum.de, Eberhard Karls Universität Tübingen, Museum der Universität Tübingen MUT
|
Q181247
| 106.188921 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.