id
stringlengths 2
8
| url
stringlengths 31
75
| title
stringlengths 1
29
| text
stringlengths 209
315k
| qid
stringlengths 2
10
| rank
float64 83.6
38.2k
|
---|---|---|---|---|---|
39609
|
https://de.wikipedia.org/wiki/Bismut
|
Bismut
|
Bismut oder Wismut (historisch auch: Wismuth) ist ein chemisches Element mit dem Elementsymbol Bi und der Ordnungszahl 83. Im Periodensystem steht es in der 5. Hauptgruppe oder Stickstoffgruppe.
Es ist kein stabiles, d. h. nicht radioaktives Isotop bekannt. Die äußerst geringe Radioaktivität des natürlich vorkommenden 209Bi ist für den praktischen Gebrauch ohne Bedeutung. Die extrem lange Halbwertszeit konnte erst 2003 nachgewiesen werden, da vorher die dazu nötigen hochempfindlichen Methoden zur Messung nicht verfügbar waren; noch in den 1990er Jahren galt 209Bi als das schwerste stabile Nuklid.
Geschichte
Als eigenes Element wurde Bismut nach der Mitte des 18. Jahrhunderts durch die Chemiker Claude François Geoffroy, Johann Heinrich Pott, Carl Wilhelm Scheele und Torbern Olof Bergman nachgewiesen. Zuvor wurde es oft als Abart von Blei, Zinn, Antimon und anderen Metallen oder Mineralien betrachtet. In der Schrift Ein nützlich Bergbüchlin (ca. 1527) wird das Erz von Bismut (wißmad ärcz) als Begleiter von Silbererz erwähnt. Später im 16. Jahrhundert versuchte Georgius Agricola eine genauere Unterscheidung.
Der Name des Metalls, der im Deutschen 1390 als wesemut und lat. 1450 als wismutum, 1530 als bisemutum erscheint, kann auf die in einer arabischen Dioskurides-Übersetzung des 9. Jahrhunderts belegte Form b[i]sīmūtīyūn zurückgeführt werden, die selbst wohl eine Transliteration von altgriechisch ψιμύθιον psimýthion ‚Bleiweiß‘ darstellt. Auch die Entstehung aus arabisch iṯmid ‚Antimon‘ wurde angenommen; oft wird außerdem auf die angeblich erste Mutung in der Zeche St. Georgen in der Wiesen bei Schneeberg im Erzgebirge im 15. Jahrhundert verwiesen, oder auf die Variante wis(se)mat, die ‚weiße Masse‘ bedeuten soll.
Das chemische Symbol Bi schlug J. J. Berzelius im Jahr 1814 vor.
Vorkommen
Bismut tritt in der Natur gediegen, das heißt in elementarer Form auf und ist von der International Mineralogical Association (IMA) als Mineral anerkannt. Die von der IMA verwendete 9. Auflage der Systematik der Minerale nach Karl Hugo Strunz führt das Bismut zusammen mit Antimon, Arsen und Stibarsen in der Unterabteilung der Arsengruppen-Elemente unter der System-Nr. 1.CA.05 (veraltete 8. Auflage: I/B.01-40). Bei der vorwiegend im englischen Sprachraum gebräuchlichen Systematik der Minerale nach Dana gehört Bismut zur „Arsengruppe“ mit der System-Nr. 01.03.01.
Gediegenes Bismut bildet sich in Hydrothermal-Gängen von Pegmatiten und topashaltigen Zinn-Wolfram-Quarzadern und meist zusammen mit verschiedenen Kupfer-, Nickel-, Silber und Zinnerzen. Bismut entwickelt nur selten gut ausgebildete Kristallformen, die aber eine Größe von bis zu 12 Zentimetern erreichen können. Üblicherweise findet es sich in Form dendritischer, blätteriger oder körniger Aggregate, aber auch als polysynthetische Zwillinge mit paralleler Streifung („Federwismut“) oder trichterförmig ins Kristallzentrum eingezogenen Seitenflächen.
Bisher (Stand: 2011) gelten rund 1400 Fundorte für gediegenes Bismut als bekannt. Die Fundstätten liegen vor allem in Australien, Bolivien, China, Kanada, Mexiko, Peru und Spanien, historisch in Bieber im Spessart und im Erzgebirge, wo Bismut sowohl in reiner Form als auch als Sulfid (z. B. Bismuthinit), Selenid (z. B. Guanajuatit) und Oxid (z. B. Bismit) gefunden wird. Außerdem kommt Bismut, ebenso wie Antimon und Arsen, gelegentlich als Doppelsulfid vor: Galenobismutit (PbBi2S4), Lillianit (Pb3Bi2S6), Matildit (Silberwismutglanz, AgBiS2), Emplektit (Kupferwismutglanz, CuBiS2) und Wittichenit (Cu6Bi2S6). Bekannt ist auch noch ein Tellur-Sulfid in Form von Tetradymit (Bi2Te2S) und ein Silikat namens Eulytin (Bi4(SiO4)3).
Insgesamt sind einschließlich gediegenem Bismut mehr als 560 Minerale bekannt, die Bismut enthalten (Stand 2022).
Gewinnung und Darstellung
Zur Gewinnung von Bismut kann man von oxidischen oder sulfidischen Erzen ausgehen.
Oxidische Erze werden in Flammöfen mit Kohle zu Bismut reduziert:
2Bi2O3 + 3C -> 3CO2 + 4Bi
Sulfidische Bismuterze können entweder mit Eisen nach dem Niederschlagsverfahren reduziert werden:
Bi2S3 + 3Fe -> 3FeS + 2Bi
Oder die sulfidischen Erze werden zunächst in die Oxide umgewandelt und anschließend mit Kohle reduziert (Röstreduktionsverfahren):
2Bi2S3 + 9O2 -> 6SO2 + 2Bi2O3
2Bi2O3 + 3C -> 3CO2 + 4Bi
Das Rohbismut wird anschließend durch oxidierendes Schmelzen von anderen Elementen (Antimon, Arsen, Blei, Eisen und Schwefel) befreit. Kupfer wird durch Schmelzen mit Natriumsulfid beseitigt, Gold und Silber durch Extraktion des geschmolzenen Bismuts mit Zinn.
Eigenschaften
Physikalische Eigenschaften
Bismut ist ein silberweißes, sprödes und grobkristallines Metall bzw. Halbmetall mit einem Stich ins Rosa. Es hat eine rhomboedrische Kristallstruktur mit sehr dicht gepackten Doppelschichten. Der kürzeste Abstand zwischen zwei Doppelschichten beträgt 352,9 pm, was nur um 15 % größer als der kleinste Abstand zweier Atome innerhalb einer Doppelschicht ist. Bismut-Einkristalle zeigen eine ausgeprägte Spaltbarkeit parallel zu diesen Doppelschichten.
Bismut hat den stärksten Hall-Effekt aller metallähnlichen Elemente und als Halbmetall in reiner Form eine schlechte elektrische Leitfähigkeit. Es zeigt – abgesehen von Supraleitern und pyrolytischem Graphit – darüber hinaus die stärkste diamagnetische Eigenschaft, aus einem von außen angelegten Magnetfeld wird es hinausgedrückt. Der Schubnikow-de-Haas-Effekt (Oszillationen des elektrischen Widerstands in einem äußeren Magnetfeld) wurde erstmals an Bismut-Kristallen beobachtet und gemessen. Vor der Entwicklung von Hallsensoren und Feldplatten verwendete man zur Messung von Magnetfeldern die sogenannte Wismutspirale, eine Spule mit aufgewickeltem dünnem isoliertem Wismutdraht. Die Widerstandsänderung der Spule unter dem Einfluss eines sich ändernden Magnetfeldes war sicher sehr gering im Vergleich mit heutigen Sensoren.
In reinen Bismut-Einkristallen wurde Supraleitung bei Temperaturen unterhalb der extrem niedrigen Sprungtemperatur von 0,53 mK beobachtet. Bismut ist damit das supraleitende Material mit der geringsten Ladungsträgerdichte.
Von Bismut sind zwei Modifikationen bekannt: Das bei Zimmertemperatur gewöhnliche Bismut bildet unter hohen Drücken (ab 9 GPa) eine kubisch-raumzentrierte Kristallstruktur.
Flüssiges Bismut dehnt sich als einer von wenigen Stoffen beim Erstarren aus (Dichteanomalie). Dieses Phänomen ist auch bei Gallium, Germanium, Plutonium, Silicium, Tellur und Wasser zu beobachten. Es beruht bei Bismut darauf, dass beim Schmelzen (und Erstarren) ein doppelter Phasenübergang stattfindet: einmal der Phasenübergang 1. Ordnung von fest nach flüssig (normalerweise mit kleiner Abnahme der Dichte) und zusätzlich ein Phasenübergang 1. Ordnung von Halbmetall nach Metall mit erheblicher Dichtezunahme, wodurch sich auch die ungewöhnlich große Schmelzentropie von 21,1 J/(K·mol) und die sprunghaft erhöhte elektrische Leitfähigkeit der Schmelze des Bismuts erklären.
Chemische Eigenschaften
Bismut ist bei Normaltemperatur an trockener Luft beständig. An feuchter Luft jedoch bildet sich an der Oberfläche eine Oxidschicht. Des Weiteren ist Bismut gegen Wasser und nichtoxidierende Säuren (Salzsäure und verdünnte Schwefelsäure) resistent. In oxidierenden Säuren (Salpetersäure oder heiße konzentrierte Schwefelsäure) wird Bismut unter Bildung von Bismutsalzen (BiX3) gelöst. In Pulverform ist es ein entzündbarer Feststoff, kann durch kurzzeitige Einwirkung einer Zündquelle leicht entzündet werden und brennt nach deren Entfernung weiter. Die Entzündungsgefahr ist umso größer, je feiner der Stoff verteilt ist. Das Metall in kompakter Form ist nicht brennbar.
Bei Rotglut verbrennt Bismut mit bläulicher Flamme zu einem braun-gelben Rauch – Bismut(III)-oxid (Bi2O3).
Unter Hitze verbindet sich Bismut mit den Halogenen sowie mit Schwefel, Selen und Tellur direkt. Mit Stickstoff und Phosphor reagiert Bismut nicht.
Isotope
Natürliches Bismut besteht nur aus dem Isotop 209Bi. Im Jahr 2003 stellte man im Institut d’astrophysique spatiale in Orsay (Frankreich) fest, dass dieses bisher für stabil gehaltene Isotop ein Alpha-Strahler mit einer Halbwertszeit von (1,9 ± 0,2) · 1019 Jahren ist (etwa 19 Trillionen Jahre). Der sehr langsame Zerfall des 209Bi in 205Tl begründet sich einerseits durch die unmittelbare Nähe zum doppelt magischen 208Pb im Isotopenschema und der Tatsache, dass 209Bi selbst einfach magisch ist. Aus der langen Halbwertszeit ergibt sich eine Aktivität von 0,0033 Bq/kg (entsprechend einem einzelnen Kernzerfall pro fünf Minuten und Kilogramm). Zum Vergleich: Kalium, wie es auf Erden anzutreffen ist, hat aufgrund des Gehalts an 40K eine spezifische Aktivität von rund 30 Bq/g. Aus diesem Grund hat ein menschlicher Körper mit rund 70 Kilogramm Gewicht und einem physiologischen Gehalt von 140 Gramm Kalium eine 40K-Aktivität von etwa 4300 Becquerel oder rund 60 Bq/kg.
209Bi ist das vorletzte Glied der Neptunium-Reihe und außer 205Tl das einzige, das noch in nennenswerten Ausmaß natürlich vorkommt. Weil heute in Kernreaktoren auch die am Anfang der Neptunium-Reihe stehenden Nuklide erbrütet werden, nimmt die 209Bi-Menge auf der Erde mit der Zeit zu. Geringe Mengen 237Np (und folglich auch dessen Zerfallsprodukte) entstehen in Uranerzen durch (n,2n)-Reaktionen zwischen schnellen Neutronen und 238U gefolgt von Betazerfall.
Verwendung
Bismut findet Verwendung als Legierungsbestandteil niedrigschmelzender Legierungen, beispielsweise für das Woodsche Metall, das bereits bei 70 °C schmilzt, für Roses Metall mit einem Schmelzpunkt von 98 °C und für das bei 60 °C schmelzende Lipowitz’sche Metall.
Technische Verwendung
Die Legierung Bismanol aus Eisen, Bismut und Mangan ist ein starker Permanentmagnet.
In Beschichtungslegierungen (Heißtauchverzinnung) für Solarverbinder dient es als Ersatz für Blei.
Synthetische Bismut-Einkristalle mit Abmessungen von mehr als 20 Zentimeter und polykristalline Bismut-Platten werden als Neutronen-Filter für Materialuntersuchungen an Forschungsreaktoren benutzt.
Die chemische Verbindung Bismuttellurid pumpt in Peltier-Elementen Wärmeenergie.
Das Phasenwechselmaterial einiger DVD-RAM enthält Bismut, siehe Phasenwechseltechnologie.
Bismut wird von einigen Quellen als Legierungselement in Automatenstählen als Ersatz für Blei propagiert. Es soll die Zerspanbarkeit dieser Stähle verbessern ohne die negativen ökologischen Eigenschaften des Bleis. Aus Sicht der Stahlmetallurgie ist dies allerdings ungünstig, da Bismut sich metallurgisch quasi nicht entfernen lässt und dann als unerwünschtes Begleitelement in den aus Schrotten erzeugten Stählen auftaucht. In der Elektronik-Industrie wird eine Bismut-Zinn-Legierung als Ersatz (Stichwort RoHS) für bleihaltige Lote verwendet. Nachteilig ist, dass für Bismut-Zinn eigene Lötgeräte erforderlich sind. Die Kontamination mit Blei (z. B. Reparatur von Altgeräten) führt zu einem sehr niedrigen Schmelzpunkt, die Verwendung von Werkzeugen für Zinn-Silber-Legierungen dagegen zu hohen Temperaturen und Kontamination des Werkzeugs mit Bismut.
Bismutoxid wird für die Herstellung von optischen Gläsern sowie als Sinterhilfsmittel in der technischen Keramik verwendet. Außerdem findet es in Form von Bismutgermanat Anwendung als Szintillationsdetektor bei der Positronen-Emissions-Tomographie (PET).
Eine Blei-Bismut-Legierung wurde in der Sowjetunion als Kühlmittel für Kernreaktoren verwendet. Diese Legierung ist zwar wirksamer als eine herkömmliche Druckwasserkühlung, jedoch auch entsprechend schwieriger zu handhaben. Die Legierung erstarrt bei einer Temperatur von unter 125 °C und kann dann große Reaktorschäden verursachen. Solche Reaktoren wurden unter anderem auf Atom-U-Booten eingesetzt (z. B. U-Boot der Alfa-Klasse). Eine mit Protonen aus einem Teilchenbeschleuniger beschossene Blei-Bismut-Legierung dient im MYRRHA Versuchsreaktor für Atommüllbehandlung (Belgien) gleichzeitig als Neutronenquelle und Kühlmittel. Im Vergleich zu reiner Flüssigblei-Kühlung ergibt sich durch das Eutektikum eine niedrigere Mindesttemperatur, jedoch entsteht durch Neutroneneinfang und Betazerfall aus 209Bi das extrem radiotoxische Polonium-210, welches durch die Vergiftung von Alexander Litwinenko traurige Berühmtheit erlangt hat. Obwohl 210Po ein Glied der „Radium-Reihe“ (Zerfall von 238U über 226Ra und 210Po zu stabilem 206Pb) ist, und damit natürlicherweise in Uranerzen sowie dessen Tailings vorkommt, ist inzwischen die Gewinnung mittels Transmutation die Hauptquelle von Polonium. Daher erfordert die Erzeugung von Polonium den Verbrauch von Bismut.
Bismut wird auch als ungiftiger Ersatz für Blei bei Schrotmunition für Schusswaffen verwendet, da Bismut eine ähnliche Masse im Vergleich zu Stahl- und Kupferschrot hat, jedoch ebenso weich ist wie Blei. Damit ist es für ältere Flinten ohne Stahlschrotbeschuss geeignet. Dies ist jedoch wenig verbreitet.
Im 16. Jahrhundert wurde in Süddeutschland und der Schweiz eine Maltechnik entwickelt, bei der Bismut als Beschichtung für kleinere dekorative Kästchen oder Schachteln, zum Teil auch für Altare aus Holz verwendet wurde. Diese Technik wird als Wismutmalerei bezeichnet.
Verwendung in der chemischen Industrie
Bismutchloridoxid (BiOCl) wird als silberweißes Perlglanzpigment in Kosmetika verwendet.
Bismutvanadat ist als ein hochwetterstabiles grünstichiges Gelb-Pigment im Einsatz und findet z. B. in hochwertigen Lacken, Dispersionsfarben für den Fassadeneinsatz, Kunststoffen und Druckfarben Verwendung.
Außerdem wird Bismut als Katalysator in der chemischen Industrie verwendet.
Medizinische Verwendung
Bismutverbindungen wie Dibismut-tris(tetraoxodialuminat), Bismutoxidnitrat (Bismutsubnitrat, basisches Bismutnitrat) und Bismutcitratkalium finden als Bestandteil einer antibiotischen Therapie gegen den Erreger Helicobacter pylori Verwendung, der in Magen und Duodenum Geschwüre verursachen kann (Eradikationstherapie). Die Anwendung erfolgt als sogenannte Quadrupel-Therapie (Kombinationstherapie aus einem Protonenpumpenhemmer und einer Bismut-Triple-Therapie [Bismut-Salz, Tetracyclin, Metronidazol]).
Bismutverbindungen werden daneben zum Teil noch bei Durchfällen als Adstringentien sowie geruchmildernd bei Mundgeruch und Flatulenz verwendet. Daneben werden einige Verbindungen (z. B. Bibrocathol) als Antiseptikum eingesetzt.
Außerdem findet Bismut diagnostisch bei der Positronen-Emissions-Tomographie Anwendung in Form von Bismutgermanat als Detektormaterial des Tomographiegeräts.
Historisch wurde Bismut am Ende des 19. Jahrhunderts als Bestandteil von Wundpulvern (z. B. Dermatol) eingesetzt. Seit den 1920er Jahren fand es Verwendung als Mittel gegen die Syphilis. Es wurde jedoch vollständig durch moderne Antibiotika ersetzt.
Bismutsalze wurden zudem als Röntgenkontrastmittel zur Darstellung des Magen-Darm-Trakts (sog. Wismutmahlzeit) verwendet. Hier wurde Bismutsalz durch Bariumsulfat ersetzt.
Bismutgallat wird in einer Hautsalbenrezeptur nach Stolte verwendet, die Salbe kann für die Behandlung entzündlicher Hautstellen bei Säuglingen verwendet werden.
Vergiftung
Eine Bismutvergiftung (Bismutismus) ist aufgrund der schlechten Resorption im Magen-Darm-Trakt selten. Sie ähnelt weitgehend einer Quecksilbervergiftung. Typisch sind das Auftreten eines schiefergrauen bis schwarzen Bismutsaums (Bismutsulfid-Ablagerung) an der Mundschleimhaut mit Ausbildung einer Mundschleimhautentzündung (Stomatitis) und Gingivitis (mit Zahnlockerung, -ausfall), Darmentzündungen (Enteritis) mit Durchfällen sowie Nierenschäden (Bismutnephropathie).
Nachweis
Der Nachweis von Bismut erfolgt durch die Bismutrutsche mit Thioharnstoff. Zur Fällung unerwünschter Störionen werden Natriumfluorid, Natriumchlorid und Kaliumnatriumtartrat verwendet:
NaF zur Komplexierung von Fe3+ und Al3+
NaCl zur Fällung von Ag+ und Hg22+
Tartrat zur Komplexierung von Sb3+ und Sn2+
Bei Anwesenheit von Bi3+ bildet sich ein kristalliner, zitronengelber Thioharnstoff-Komplex, bei dem drei Thioharnstoff-Moleküle über den Schwefel mit dem Bismut assoziiert sind:
\rm Bi^{3+} {+} 3 SCN2H4 {->}[Bi(SCN2H4)3]^{3+} (Komplexbildungsreaktion).
Alternative Nachweisreaktionen:
In einer Redoxreaktion mit Zinn(II)-Ionen als Reduktionsmittel fällt elementares Bismut schwarz aus.
Mit Natriumiodidlösung: zunächst fällt schwarzes Bismut(III)-iodid aus, das sich dann im Iodidüberschuss als oranger Tetraiodobismutat-Komplex löst:
\rm Bi^{3+} {+} 4I^{-} {->} [BiI4]^{-} (Komplexbildungsreaktion).
1,3,4-Thiadiazol-2,5-dithiol ist als Komplexbildner ebenfalls zum Nachweis geeignet.
Verbindungen
Bismut ist in erster Linie dreiwertig, doch gibt es auch ein- und fünfwertiges Bismut; Bismut(V)-oxid ist jedoch ein sehr starkes Oxidationsmittel, das sogar Mangan(II) zum Permanganat oxidiert. Außerdem bildet es polymere Kationen. An der Luft ist es beständig.
Sauerstoffverbindungen
Bismut(III)-oxid (Bismit, auch genannt Bismutocker)
Schwefelverbindungen
Bismut(III)-sulfid
Wasserstoffverbindungen
Bismutwasserstoff (Bismutan)
Halogenide und Nitrate
Fluoride: Bismut(III)-fluorid, Bismut(V)-fluorid, Bismutoxidfluorid
Chloride: Bismutsubchlorid, Bismut(III)-chlorid, Bismutchloridoxid
Bromide: Bismutsubbromid, Bismut(III)-bromid, Bismutoxidbromid
Iodide: Bismut(I)-iodid, Bismut(III)-iodid, Bismutoxidiodid
Nitrate: Bismutoxidnitrat (Bismutsubnitrat)
Als Anion
Natriumbismutat(V)
Literatur
Emil Ploß: Wismut (Eine etymologische Studie). In: Archiv für das Studium der neueren Sprachen 110, 1959, Band 195, Heft 4, S. 317–321.
Weblinks
Mineralienatlas:Bismut (Wiki)
Bismut verblüfft Chemiker: Schwermetall wird doch supraleitend – aber anders als alle anderen Elemente auf scinexx
Einzelnachweise
Grandfathered Mineral
Trigonales Kristallsystem
Elemente (Mineralklasse)
|
Q942
| 363.209875 |
68942
|
https://de.wikipedia.org/wiki/Seligsprechung
|
Seligsprechung
|
Eine Seligsprechung oder Beatifikation (von „selig“, „glücklich“ und „machen“, „tun“) ist in der römisch-katholischen Kirche ein kirchenrechtliches Verfahren, bei dessen Abschluss der Papst nach entsprechender Prüfung erklärt, dass ein Verstorbener als Seliger bezeichnet werden und als solcher öffentlich verehrt werden darf. Voraussetzung sind entweder das Martyrium oder ein heroischer Tugendgrad und – im Falle, dass es sich nicht um einen Märtyrer handelt – der Nachweis eines Wunders, das auf die Anrufung des Seligen und dessen Fürsprache bei Gott bewirkt wurde. Im Unterschied zur Heiligsprechung wird bei der Seligsprechung nur die Verehrung durch die Ortskirche gestattet.
Eine Heilig- oder Seligsprechung bedeutet nicht, dass eine Person „in den Himmel versetzt“ wird, sondern die Kirche bekundet so das Vertrauen, dass der betreffende Mensch die Vollendung bei Gott bereits erreicht hat. Sie hat somit auch insofern liturgische Bedeutung, als nun nicht mehr für den Seligen, sondern mit ihm gebetet und dieser um eine Fürsprache bei Gott angerufen werden kann.
Begriff
Die Seligpreisungen sind Teil der Bergpredigt Jesus von Nazarets nach und . In ihnen preist Jesus die geistlich und körperlich Armen, Leidtragenden, Hungernden, Weinenden, die um Christi willen Verfolgten und nach Gerechtigkeit Dürstenden ebenso wie Barmherzige, nicht Verdammende, Vergebende, Sanftmütige, Friedfertige und Menschen mit reinem Herzen glücklich und verheißt ihnen das Reich Gottes als vollkommene Lebenserfüllung, derer sie sich schon jetzt freuen können. Nach der Lehre der römisch-katholischen Kirche sind „Selige“ solche, die nach ihrem Tod unmittelbar in die ewige Anschauung Gottes gelangt sind.
Geschichte
Eine Seligsprechung war ursprünglich ein diözesaner Heiligsprechungsprozess. Als verehrungswürdiger galten jedoch jene Verstorbenen, die in das Martyrologium Romanum, den römischen Heiligenkalender, aufgenommen worden waren. In späterer Zeit wurden auch die diözesanen Seligsprechungen vom Heiligen Stuhl übernommen.
Das Verfahren
Voraussetzungen für die Einleitung des Seligsprechungsprozesses sind der „Ruf der Heiligkeit“ (fama sanctitatis) und der „Ruf der Wundertätigkeit“ (fama signorum), die der Kandidat unter den Gläubigen genießen muss. Der „Ruf der Heiligkeit“ kann sich dabei nach Ansicht der Kirche nach einem Märtyrertod bilden oder durch die von Glaube, Liebe, Hoffnung und den Kardinaltugenden geprägte Lebensweise des Seligzusprechenden entstehen. Papst Franziskus fügte mit seinem Motu proprio Maiorem hac dilectionem eine – neben dem Martyrium oder einem „heroischen Tugendgrad“ (heroicitas virtutum) – dritte mögliche Grundlage für einen Selig- und Heiligsprechungsprozess hinzu: die Hingabe des Lebens (vitae oblatio). Gemeint sind Christen, die aus Nächstenliebe (propter caritatem) „frei und freiwillig“ ihr Leben hingaben.
Einer Seligsprechung geht der Seligsprechungsprozess voraus. Hier geht es vor allem um die Prüfung der Lebensführung des Seligzusprechenden und um die Untersuchung eines ihm zugeschriebenen Wunders. Ein Kirchenanwalt (lat. promotor justitiae, dt. Förderer der Gerechtigkeit, bis 1983 promotor fidei) hat dabei die Aufgabe, Tatsachen und Ereignisse herauszufinden, die einer Seligsprechung entgegenstehen.
Ein Seligsprechungsprozess darf nach kirchenrechtlichen Bestimmungen frühestens fünf Jahre nach dem Tod der betreffenden Person eröffnet werden. Der Papst kann von dieser Regel aber dispensieren, was in neuerer Zeit bei Mutter Teresa von Kalkutta (1999, nach zwei Jahren), Papst Johannes Paul II. (2005, nach nur drei Monaten) und der Fátima-Seherin Lúcia dos Santos (2008, nach drei Jahren) der Fall war. Ein Seligsprechungsprozess dauert oft mehrere Jahrzehnte, manchmal auch nur wenige Jahre.
Wem im Prozessverlauf als erstem Schritt der heroische Tugendgrad attestiert wird, der darf ehrwürdiger Diener Gottes (venerabilis Dei servus) genannt werden.
Papst Benedikt XVI. ist zur bis 1975 üblichen Praxis der Kirche zurückgekehrt, Seligsprechungen durch den Präfekten der Kongregation für die Selig- und Heiligsprechungsprozesse oder auch einen anderen beauftragten Bischof in den jeweiligen Diözesen oder einem anderen geeigneten Ort vorzunehmen. Dies kann als Schritt gewertet werden, die Seligsprechungen wieder mehr zu dezentralisieren. Diese Praxis hat beispielsweise den Vorteil, dass die Feier am Grab des Seligen stattfinden kann und die Teilnahme nicht den Rompilgern vorbehalten bleibt. Nur auf ausdrücklichen Wunsch des jeweiligen Bischofs oder bei römischen Seligen findet nun eine Seligsprechung in Rom statt. Die Proklamation erfolgt gewöhnlich im Rahmen einer Eucharistiefeier.
Die Seligsprechung spanischer Bürgerkriegsopfer 2007 war die zahlenmäßig bislang größte Seligsprechung der Geschichte. Es wurden 498 spanische Katholiken als Märtyrer seliggesprochen. 491 von ihnen waren Kleriker, sieben waren Laien. Die meisten von ihnen waren im Rahmen antiklerikaler Repressionskampagnen während der ersten Wochen nach dem franquistischen Staatsstreich von 1936 ermordet worden.
Statistik
Bis zum Beginn des Pontifikates von Papst Johannes Paul II. wurden insgesamt 1260 Frauen und Männer seliggesprochen. Papst Johannes Paul II. sprach 1338 Personen selig, mehr als alle seine Vorgänger zusammen.
Siehe auch
Liste der Seligen und Heiligen
Liste der Seligsprechungen
Liste heiliger und seliger Ehepaare
Literatur
F. Hauck, G. Bertram: Art. makarios, makarizo, makarismos. In: Gerhard Kittel (Hrsg.): Theologisches Wörterbuch zum Neuen Testament, Bd. 4 (1942), S. 365–373.
Nikolaus Wicki: Die Lehre von der himmlischen Seligkeit in der mittelalterlichen Scholastik von Petrus Lombardus bis Thomas von Aquin. Universitätsverlag, Freiburg/Schweiz 1954.
Jakob Torsy (Hrsg.): Lexikon der deutschen Heiligen, Seligen, Ehrwürdigen und Gottseligen. Köln 1959.
U. Becker: Art. Seligkeit. In: L. Coenen et al. (Hrsg.): Theologisches Begriffslexikon zum Neuen Testament. Bd. II/2, 1971, S. 1133–1135.
Wolfgang Beinert et al.: Seligkeit. In: Walter Kasper (Hrsg.) Lexikon für Theologie und Kirche. 3. Auflage, Band 9, Herder 2000, ISBN 978-3-451-22009-8, Sp. 437–442.
E. Büchsel: Art. Seligkeit der Heiden. In: Historisches Wörterbuch der Philosophie, Bd. 9, S. 570–574.
Helmut Moll: Art. Seligsprechungsverfahren. In: Lexikon des Kirchen- und Religionsrechts, Bd. 4, Paderborn u. a. 2021, S. 216–217.
Weblinks
Einzelnachweise
|
Q51620
| 103.28514 |
10782
|
https://de.wikipedia.org/wiki/Hyperinflation
|
Hyperinflation
|
Hyperinflation ist eine Form der Inflation, in der sich das Preisniveau sehr schnell erhöht. Eine allgemein akzeptierte Definition existiert nicht, eine 1956 von Phillip D. Cagan aufgestellte Faustregel von monatlichen Inflationsraten von 50 % (entsprechend einer jährlichen Rate von umgerechnet rund 13.000 %) ist aber weit verbreitet. Vereinfacht ausgedrückt ist eine Hyperinflation eine unkontrollierbare Inflation mit extrem hoher monatlicher Rate. Meist dauern Hyperinflationen nur eine kurze Zeit und enden in einer Währungsreform.
Allgemeines
Vor dem 20. Jahrhundert waren Hyperinflationen selten, da die Ökonomien bei Überschreitung eines gewissen Inflationsniveaus zu ungeprägten Edelmetallen als Geldersatz oder zu Naturaltausch übergingen. Die immer weitere Verbreitung von ungedecktem Geld (Fiatgeld) ermöglichte Hyperinflationen. Der Verursacher der (Hyper-)Inflation ist immer der Staat. Wenn ein Staat nicht genügend Steuern einnimmt, um seine Ausgaben zu finanzieren, entsteht ein Budgetdefizit, da er sich zur Deckung seiner Ausgaben (Erfüllung von Leistungsversprechen) permanent verschulden muss. Dieses Defizit kann er durch Schuldtitel, Staatsanleihen, decken. Die meisten Staatsanleihen sind nicht indexierte nominale Anleihen.
Wenn nun Preise relativ zu den Anleihen steigen, bleibt die Nominale der Anleihe gleich. Dadurch verliert sie relativ an Wert. Kapitalgeber erleiden einen realen Verlust, nicht jedoch einen nominalen. Umgekehrt kann der Emittent, der Staat, einen kleineren realen Rückzahlungswert zurückzahlen und macht somit einen realen Gewinn. Damit versucht der Staat sein Haushaltsdefizit zu reduzieren. Regierungen können durch Geldpolitik die Inflation steuern und damit zu dem erwünschten Effekt beitragen. Bei überraschenden und schnellen Inflationserhöhungen können lange Anleihen, da sie keinen Rahmen für rechtliche Änderungen bieten, vom Staat relativ billig zurückgezahlt werden. Durch die höhere Inflation verlangen jedoch neue Gläubiger höhere nominale Zinsen auf neue Anleihen (siehe Fisher-Gleichung). Ihr Vertrauen in Anleihen mit einer langen Laufzeit geht verloren. Dadurch verkürzen sich die Laufzeiten der neu emittierten Anleihen. Um alte Anleihen zu bezahlen und um die neuen hohen nominalen Zinsen zu finanzieren, müssen Regierungen immer mehr neue Anleihen ausgeben, um neues Kapital zu erhalten. Wenn nun noch immer Defizite im Haushalt vorliegen, muss die Regierung diesen Ablauf erneut von vorne vollziehen. Damit rutscht eine Regierung schlussendlich mit ihrer Währung in eine Hyperinflation und untergräbt damit letztlich das Vertrauen in diese.
Während gewöhnliche Inflationen meist mit ökonomischen Ursachen begründet werden, sind Hyperinflationen darüber hinaus fast immer mit schwerwiegenden Erschütterungen der Volkswirtschaft infolge von Krieg, Bürgerkrieg oder gesellschaftlichen Umbruchsituationen verbunden. Die sowjetische Hyperinflation von 1919 bis 1922 hatte das Ziel der Abschaffung des Geldes als Zahlungsmittel.
Der angebliche „Wirtschaftskrieg“, den Hugo Chávez in Venezuela in den 2010er Jahren gegen imaginäre Feinde begonnen hatte, reichte bis zum Herbst 2018 für eine Hyperinflation, bei der die Lieferanten von Händlern alle drei Stunden neue Preise festsetzten.
Kapitalflucht
Wie bei einer Inflation kommt es sehr schnell zu Anlagen in fremder Währung. Um die damit verbundene Kapitalflucht zu stoppen, kommt es während der Hyperinflation zu Devisenbewirtschaftung und massiver Devisenverkehrsbeschränkung. Angesichts des seit Ende des 20. Jahrhunderts möglichen weltweiten bargeldlosen Zahlungsverkehrs sind jedoch solche Maßnahmen nur noch begrenzt möglich.
Flucht in Sachwerte
Eine Hyperinflation führt bei den Geldanlegern oft zu einer „Flucht in Sachwerte“ und zu einem weitgehenden Verlust aller anderen Geldanlagen wie z. B. Anleihen, welche auf die betreffende Währung lauten. Da die stark erhöhte Nachfrage typischerweise zu einer verschärften Verknappung des Angebots führt, handelt es sich dabei um einen selbst verstärkenden Vorgang.
Sachwerte sind vorrangig Immobilien und Rohstoffe, aber auch Edelmetalle oder Aktien. Eine Verknappung von Zahlungsmitteln, wenn beispielsweise die Kunden einer Bank ihre gesamten Ersparnisse abheben, findet nicht statt. Geld kann beliebig per Kredit geschöpft werden. Allerdings befeuert die Flucht in Sachwerte die Hyperinflation, da Nachfrage und somit Preise von Immobilien steigen. Dies wiederum führt zu steigenden Mieten.
Kosten
Eine Hyperinflation stellt eine besondere Belastung für eine Gesellschaft dar. Nicht alle Preise und Löhne nehmen gleichmäßig zu, dadurch beeinflusst Inflation die Einkommensverteilung in einer Gesellschaft. Reichtum wird damit vom Verleiher, beispielsweise Kredit- oder Darlehensgeber, zum Borger, beispielsweise Kredit- oder Darlehensnehmer, transferiert. Schulden haben nicht mehr dieselbe Kaufkraft wie noch zu ihrer Aufnahme. Der Realzinssatz fällt typischerweise ebenso. Beispielsweise werden Zahlungen an Rentner nicht an das Preisniveau angepasst, diese verlieren in Zeiten von starken Preisanstiegen ihre Kaufkraft und werden oft an den Rand des Existenzminimums gedrückt. Etwaige Ersparnisse, die jahrelang angespart wurden, besitzen plötzlich wesentlich weniger Kaufkraft. Damit spaltet eine sehr hohe Inflationsrate die Gesellschaft.
Relative Preise könnten nicht mehr die wirkliche Knappheit der Güter zeigen, dies kann beispielsweise bei rigiden Staatsinterventionen zustande kommen. Dadurch wird es für Konsumenten kaum möglich den günstigeren Preis herauszufinden, ihr Nachfrageverhalten wird stark beeinträchtigt. Dadurch werden Märkte ineffizient und können Ressourcen nicht mehr optimal allozieren.
Durch die ständigen Schwankungen im Preisniveau entstehen Preisanpassungskosten, Unternehmen müssen ihre Preislisten so oft anpassen, dass sie nicht mehr zu festen Preisen anbieten können. Individuelles Verhalten, das aus gesellschaftlicher Sicht ineffizient ist, wird nun rational.
Durch Verzerrungen wird es schwieriger, rationale Zukunftsentscheidungen zu treffen. Durch sehr hohe Inflation entstehen Unsicherheit und undurchsichtige Marktsituationen, daher verringern Unternehmen ihre langfristigen Kapitalinvestitionen, wie etwa in Forschung und Entwicklung. Weil solche Investitionen jedoch wichtig für die Entwicklung neuer Technologien und Wettbewerb sind, werden sie mit Wirtschaftswachstum und Wohlstand in Verbindung gebracht. Damit verringert hohe Inflation auf lange Sicht Wirtschaftswachstum und damit den Lebensstandard.
Durch die Zeitdifferenz der Entstehung und dem Zahlungszeitpunkt von Steuern werden reale Steuereinbußen realisiert, die bei moderater Inflation keine wesentliche Rolle spielen würden.
Problematisch gestaltet sich auch der Tageseinkauf von Konsumenten, durch die großen Geldmengen müssen Konsumenten ein hohes Gewicht an physischem Geld tragen und damit bezahlen. Als weitere Folge wird das offizielle Zahlungsmittel durch Naturalientausch oder inoffizielle Währungen verdrängt.
In solchen Situationen tritt der so genannte Schuhsohleneffekt auf, dies beschreibt die Verschwendung von Ressourcen durch die Verringerung der Kassenhaltung. Geschäftsleute verlieren viel Zeit und Energie dabei, ihre Kassenhaltung zu organisieren. Dadurch stehen weniger Faktoren zur Gütererstellung zur Verfügung.
Siehe ebenso Inflation und ihre Auswirkungen.
Maßnahmen
Um eine Hyperinflation zu stoppen, muss eine Regierung nachhaltig und glaubhaft das Wachsen der Geldmenge reduzieren.
In einer Hyperinflation ist die Glaubwürdigkeit in die Regierung und die Zentralbank geschwächt. Oft steht ein Regierungswechsel im Raum um das Vertrauen der Öffentlichkeit zu stärken bzw. wieder zu erlangen. Eine stark sparende Fiskalpolitik und die Verringerung von Budgetdefizits im Staatshaushalt ist derzeit das vorherrschende Handlungsmotiv um das Vertrauen in eine Währung zu stärken.
Quantitätsgleichung der Hyperinflation
Eine Erklärung für das Ansteigen des allgemeinen Preisniveaus in der Hyperinflation bietet die Quantitätsgleichung von Irving Fisher:
Diese Formel lässt sich umformen zu:
Das Preisniveau steigt also demnach u. a.
proportional zur Geldmenge (wenn etwa die Zentralbank mehr Geld in Umlauf bringt, Umlaufgeschwindigkeit und Transaktionsanzahl jedoch unverändert bleiben);
desgleichen proportional zur Umlaufgeschwindigkeit, wenn Geldmenge und Transaktionsanzahl unverändert bleiben;
ebenso proportional zum Kehrwert der Transaktionsanzahl (z. B. bei Störung des Wirtschaftskreislaufs durch Katastrophen, wenn etwa plötzlich die Lieferbarkeit wegbricht, aber die Nachfrage bleibt, wobei Geldmenge und Umlaufgeschwindigkeit unverändert sein sollen).
Geschichte
Es gibt verschiedene geschichtliche Episoden von Hyperinflationen mit monatlichen Inflationsraten von über 50 Prozent. Beispiele sind
Auch vor dem 20. Jahrhundert gab es schwere Inflationen:
Literatur
Adam Fergusson: Das Ende des Geldes (Englischer Originaltitel: When Money Dies); Finanzbuch-Verlag, München 2011, ISBN 978-3-89879-627-9.
Peter Bernholz (2006): Monetary Regimes and Inflation. Edward Elgar.
Milton Friedman (Hrsg.): Studies in the quantity theory of money. University of Chicago Press, Chicago 1956.
Weblinks
Einzelnachweise
Inflation
Finanzkrise
Staatsverschuldung
|
Q185565
| 107.733209 |
154127
|
https://de.wikipedia.org/wiki/Hosenbandorden
|
Hosenbandorden
|
Der Hosenbandorden (, auch Order of the Garter; deutsch auch Orden des blauen Hosenbandes, Orden des Heiligen Georg in England oder Hochedler Orden vom Hosenbande) ist der exklusivste britische Orden und einer der angesehensten Europas. Der Orden wurde 1348 vom englischen König Eduard III. gestiftet und ist einer der drei ehemaligen Hoforden. Bis heute fungiert er als ranghöchster Ritterorden (Order of Knighthood) des Vereinigten Königreichs, vor dem schottischen Distelorden und dem nicht mehr verliehenen irischen Orden von St. Patrick. In der Protokollarischen Rangordnung stehen Mitglieder des Ordens jedoch hinter Trägern des Victoria-Kreuzes und des Georgs-Kreuzes als Ehrenzeichen für höchste Tapferkeit.
Entstehung
Die Stiftung des Hosenbandordens wurde 1344 angekündigt und vom englischen König Eduard III. am 19. Januar 1348 vollzogen. Der Orden war König Artus’ legendärer Tafelrunde nachempfunden. Eduard versuchte mit diesem Orden, die wichtigsten Ritter des Königreichs fester an sich, den König, zu binden. Zu den ersten Ordensrittern gehörte sein Sohn Edward of Woodstock, genannt „der schwarze Prinz“.
Bezeichnung
Die englische Bezeichnung des Hosenbandordens ist Most Noble Order of the Garter, wobei garter eigentlich ein Strumpf- oder Knieband bezeichnet. Die Herkunft des Namens ist nicht geklärt. Der galantesten Legende zufolge verdankt er die Bezeichnung einem Vorfall bei einem Tanz von König Eduard III. mit seiner Geliebten Catherine Grandison, Countess of Salisbury. Diese verlor ihr blaues Strumpfband. Der König entkrampfte die entstandene peinliche Situation dadurch, dass er das Strumpfband aufhob und sich selbst an das eigene Bein band. Dabei soll er laut ausgerufen haben: „Honi soit qui mal y pense“ (ein Schelm, wer Böses dabei denkt), das Motto des zukünftigen Ordens.
Nach einer anderen Erzählung soll sich der König nach dem Missgeschick der unglücklichen Countess schirmend mit ausgebreitetem Mantel vor sie gestellt haben, als sie das Hosenband wieder befestigte, während er, sich dem Hofstaate zuwendend, eben den bekannten Spruch: „Böses dem, der Böses denkt!“ getätigt haben soll. Zum einen sei dies Zeichen seiner ritterlichen Gesinnung und der daraus erwachsenden Pflicht, in Bedrängnis geratene Menschen zu schützen, gewesen. Zum anderen sei es Ausdruck der Courtoisie, mit der ein Troubadour schöne Frauen ohne sexuelles Verlangen zu verehren pflegte. Das Motto dürfte sich aber in Wahrheit eher auf Eduards Anspruch auf den französischen Thron bezogen haben.
Ordensgliederung
Ordenssouverän ist der jeweils amtierende britische Monarch, seit 2022 ist dies König Charles III.
Der Orden hat nur eine Klasse, die des Ritters ( bzw. ). Mit der Aufnahme in den Orden ist für Untertanen des britischen Monarchen (d. h. Staatsbürger des Vereinigten Königreichs oder eines anderen Commonwealth Realm) die Verleihung einer Ritterwürde verbunden. Diese Ritter werden, sofern sie keinen ranghöheren Titel innehaben, mit den Prädikat „Sir“ bzw. „Lady“ angesprochen und sind berechtigt den Namenszusatz (post-nominal) KG bzw. LG zu führen.
Mitglieder des Ordens sind der Monarch, der Prince of Wales, soweit der Titel vergeben ist, und maximal 24 weitere, lebende, vom Monarchen eingesetzte Knights and Ladies Companion, wobei aber Mitglieder des Königshauses () und ehrenhalber aufgenommene ausländische Ordensmitglieder () nicht mitzählen. Royal Knights and Ladies Companion und Stranger Knights and Ladies Companion werden zusammen auch als Extra Knights and Ladies Companion bezeichnet. Das einzige nichtchristliche Mitglied ist Akihito, der emeritierte Kaiser von Japan. Weitere europäische Monarchen sind Mitglieder des Ordens, beispielsweise Margrethe von Dänemark und Carl Gustaf von Schweden. Ausländische Monarchen werden als Ehrenmitglieder (Stranger Knights and Ladies Companion) im Ordensregister verzeichnet. Der Hosenbandorden stellt eine Besonderheit unter den europäischen Ritterorden dar, denn nur ausländische Monarchen werden in den Orden aufgenommen und nicht wie in anderen europäischen Orden auch deren Thronfolger. Anlässlich ihres 80. Geburtstages ernannte Königin Elisabeth II. im April 2006 ihre Söhne Andrew, Duke of York, und Edward, Earl of Wessex, zu Rittern des Hosenbandordens. Am 5. Mai 2008 wurde Prinz William von seiner Großmutter Königin Elisabeth II. als 1000. Mitglied in den Hosenbandorden aufgenommen.
Kandidaten für den Orden sind Persönlichkeiten, die sich um das Königreich oder den Souverän verdient gemacht haben. Anders als bei den meisten von der britischen Krone vergebenen Ehrungen ist der König bei Ernennungen von Rittern des Hosenbandordens nicht an Vorschläge durch die Regierung gebunden, sondern kann hier frei nach eigenem Ermessen entscheiden, weshalb die Aufnahme in den Orden als persönliches Geschenk (personal gift) seitens des Königs verstanden wird.
Frauen im Hosenbandorden
In den Hosenbandorden konnten – anders als bei den großen kontinentalen Ritterorden, dem Orden vom Goldenen Vlies (gegründet 1430), dem Michaelsorden (gegründet 1469) und dem Orden vom Heiligen Geist (gegründet 1578) – in den ersten eineinhalb Jahrhunderten seines Bestehens Frauen aufgenommen werden. König Eduard III. stellte dies klar, indem er zehn Jahre nach Ordensgründung seine Ehefrau Philippa von Hennegau aufnahm, wobei sie nicht den Titel eines „Knight Companion of the Garter“, sondern den einer „Lady of the Garter“ bekam. Im Jahr vor seinem Tod nahm er 1376 seine einzige noch lebende Tochter Isabella – neben seinen Söhnen Edward of Woodstock (1348), Lionel of Antwerp, John of Gaunt und Edmund of Langley (alle um 1361), der jüngste Thomas of Woodstock folgte 1380 – ebenfalls in den Orden auf.
Bis 1488 wurden 64 Frauen in den Orden aufgenommen, wobei der Schwerpunkt eindeutig in der Regierungszeit von Eduards Nachfolger Richard II. (König 1377–1399) bzw. der Regentschaft von dessen Vormund John of Gaunt liegt: allein 35 dieser 64 Aufnahmen entfallen auf diese Jahre, wobei auch festzustellen ist, dass in der gleichen Zeit „nur“ 33 Männer in den Orden aufgenommen wurden. Knapp vier Fünftel der Frauen, 27, wurden in nur vier Jahren aufgenommen, 1378, 1384, 1386 und 1399, während die Aufnahme der 33 Männer kontinuierlich über den gesamten Zeitraum verlief. Unter Richards Nachfolger Heinrich IV. kamen im Jahr 1408 noch einmal 9 Frauen dazu, danach versiegte der Zustrom: von 1420 bis 1488 waren es dann in 68 Jahren nur noch 17 Frauen, und mit dem Ende des Jahrhunderts wurde der Orden dann wieder zu einer reinen Männergesellschaft – woran auch die Tatsache nichts änderte, dass England in den folgenden Jahrhunderten lange von Frauen (Maria, Elisabeth I., Anne und Victoria) regiert wurde. Es wurde in diesem Zeitraum auch kein analoger Damenorden (wie beispielsweise der Sternkreuzorden analog zum Goldenen Vlies) gegründet. Erst mit der Aufnahme von Alexandra von Dänemark, der Ehefrau von Victorias Sohn und Nachfolger Eduard VII. im Jahr 1901, wurde dieser Zustand beendet.
Gleichwohl waren „Ladies of the Garter“ keine Vollmitglieder (Companions) des Ritterordens und genossen nicht dieselben Privilegien wie die „Knights Companion of the Garter“, sondern durften lediglich an den Zeremonien des Ordens teilnehmen. Diese Praxis wurde erst 1987 beendet, als Königin Elisabeth II. mittels einer Statutenänderung die Gleichberechtigung weiblicher Ordensmitglieder verfügte. Seither werden Frauen als „Ladies Companion of the Garter“ in den Orden aufgenommen.
Schutzpatron, Ordensämter
Schutzpatron des Ordens ist der Heilige Georg, der zugleich Nationalheiliger Englands ist.
Der Orden hat sechs Ämter: Prälat, Kanzler, Registrar, Herold, Ordensdiener (Usher) und Sekretär. Als Prälat fungiert stets der Bischof von Winchester, einer der höchsten Geistlichen der Church of England. Das Amt des Kanzlers wird jeweils von einem Mitglied des Ordens ausgeübt, zurzeit James Hamilton, 5. Duke of Abercorn. Registrar ist der Dekan von Windsor Castle. Das Amt des Herolds (Garter Principal King of Arms) ist dem Vorsteher der obersten heraldischen Autorität in England, des College of Arms, übertragen. Einer der anderen Herolde des Colleges übt das Amt des Sekretärs aus. Als Ordensdiener fungiert der Gentleman Usher of the Black Rod, in der Regel ein hochrangiger pensionierter Offizier, der den Souverän auch im House of Lords vertritt.
Garter-Day-Versammlung
An einem Montag im Juni eines jeden Jahres, am sogenannten Garter Day, versammeln sich die Ordensritter in Windsor Castle. Nach einem gemeinsamen Essen in der Waterloo Chamber bewegen sich alle in einer Art Prozession, angeführt vom Souverän, zum Gottesdienst in die St. George’s Chapel, in der jeder Ritter seinen festen Platz hat. Bis zum Ersten Weltkrieg hingen in der Kapelle auch noch die Banner der deutschen Ritter des Ordens, die aber 1915 wegen der sich verbreitenden antideutschen Stimmung aus dem Ordensregister gestrichen wurden. Die Verleihung des Ordens gilt als so feierliche Handlung, dass Publikum oder Presse keinen Zugang haben.
Dieser Gottesdienst hat stets folgende Teile:
Einführung
Nationalhymne
Einführung der neuen Ordensmitglieder durch den Ordenssouverän
Vaterunser
Segen über die Ordensmitglieder
Te Deum laudamus
Glaubensbekenntnis
Lesung aus der Bibel
Beatus vir
Danksagung für die Ordensgründung
großes Hosenbandgebet
Hymne
Abschluss-Segen
Insignien
Die Insignien des Ordens bestehen aus einer Ordenskette (Collane) mit Ordensabzeichen (The George), einem Bruststern und bei Feierlichkeiten des Ordens zu einer speziellen Tracht (blaue Samtroben mit blauen Samthüten und weißer Feder, die jeweils mit dem aufgestickten Symbol des Ordens versehen sind) noch ein blaues Schnallenband mit dem Motto des Ordens, das von den Männern am linken Knie, von den Frauen (seit 1987 Vollmitglieder) am linken Oberarm getragen wird. Das Ordensabzeichen zeigt den heiligen Georg, der zu Pferde gegen einen Drachen kämpft. Der Bruststern zeigt das Georgskreuz, das vom blauen Schnallenband des Ordens umgeben ist. Wird die Collane nicht angelegt, wird ein kleineres Ordensabzeichen (The lesser George) an einer blauen Schärpe (Schulterband) über die linke Schulter und dazu ebenfalls der Bruststern getragen.
Jeder Ritter hat seinen eigenen Sitz im Chorgestühl der Kapelle. Über ihm hängen sein Wappen auf einer emaillierten Metallplatte, sein Banner und die Helmkleinodien seines Wappens. Die Insignien werden nach dem Ableben des Ritters an den Orden zurückgegeben, das Banner erhält die Familie, die Helmkleinodien das College of Arms, nur das Emailplättchen verbleibt am Platz.
Ordensmitglieder sind berechtigt, ihren Wappenschild mit dem blauen Schnallenband mit dem Motto des Ordens zu umgeben.
Mitglieder des Ordens
Wappen der aktuellen Mitglieder des Hosenbandordens
Literatur
Elias Ashmole: The History Of the most Noble Order of the Garter. London 1715, .
William A. Shaw: The Knights of England. Band 1. Sherratt and Hughes, London 1906, S. i ff.
E. M. Perrot: Vom Hosenbandorden zur Ehrenlegion. Die historischen Ritter- und Verdienstorden Europas. Nachdruck der Ausgabe von 1821. Mit einem Nachwort von Armin Wolf. Harenberg, Dortmund (= Die bibliophilen Taschenbücher. Band 220).
Diethard Schneider: Der englische Hosenbandorden. Beiträge zur Entstehung und Entwicklung des „The Most Noble Order of the Garter“ (1348–1702) mit einem Ausblick bis 1983. 2 Bände (4 Teile). Schneider-Krause, Bonn 1988.
Der Hosenbandorden. In: Heide N. Rohloff (Hrsg.): A royal millennium. Inszenierungen einer Monarchie. Katalog und Handbuch zur Ausstellung der Britischen Kronjuwelen (in Replica) [The British Heritage Exhibition]. Congress Centrum – Tourismus Center, Hannover 1997, S. 78 f.
Hugh E. L. Collins: The Order of the Garter, 1348–1461. Chivalry and Politics in Late Medieval England. Clarendon Press, Oxford 2000, ISBN 0-19-820817-0.
Weblinks
Offizielle Seite bei royal.uk (englisch)
Einzelnachweise
Orden und Ehrenzeichen (Vereinigtes Königreich)
Weltlicher Ritterorden
Gegründet 1348
|
Q215248
| 88.678327 |
73012
|
https://de.wikipedia.org/wiki/Ratifikation
|
Ratifikation
|
Die Ratifikation (auch Ratifizierung, Substantivierung von ratifizieren; von , „berechnet, gültig, rechtskräftig“, und , „machen, tun“) ist ein juristischer Fachbegriff, der die völkerrechtlich verbindliche Erklärung der Bestätigung eines zuvor abgeschlossenen, d. h. unterzeichneten völkerrechtlichen Vertrages durch die Vertragsparteien bezeichnet. Sie ist regelmäßig die bestätigende Handlung durch das Staatsoberhaupt nach Zustimmung der gesetzgebenden Körperschaften.
In Abhängigkeit vom Zeitpunkt dieser Handlung (meist das Hinterlegen der Ratifikationsurkunde) wird ein völkerrechtlicher Vertrag rechtskräftig und verbindlich, zum Beispiel drei Monate nach Hinterlegung der fünften Ratifikations-, Annahme- oder Beitrittsurkunde.
Allgemeines
Diese völkerrechtliche Willenserklärung erfolgt durch das Organ der jeweiligen Vertragspartei, das diese nach außen vertritt, in der Regel das jeweilige Staatsoberhaupt; es verspricht damit feierlich, den Vertrag als bindend anzusehen, und gewährleistet die innerstaatliche Einhaltung. Darüber wird eine Ratifikationsurkunde erstellt. Bei zweiseitigen Verträgen wird diese dem Vertragspartner übergeben, bei multilateralen Verträgen können sie bei einer der beteiligten Regierungen hinterlegt werden. Diese ist dann der Depositar und wird im Vertrag bestimmt. Der Vertrag tritt regelmäßig mit der Hinterlegung der Ratifikationsurkunden oder nach Ablauf einer daran gebundenen Frist in Kraft.
Erst durch diese Ratifikation erhält ein z. B. von Verhandlungsdelegationen paraphierter Vertragstext – er kann nunmehr nur im Rahmen von Neuverhandlungen abgeändert werden – Rechtskraft und ist somit völkerrechtlich gültig. Das Verfahren hat seinen Ursprung im Abschluss eines Vertrages zwischen Fürsten, dem die Aushandlung der Vertragsbedingungen durch Bevollmächtigte vorausgegangen ist. Heute sind nach allgemeinem Völkerrecht und dem Wiener Übereinkommen über das Recht der Verträge Staatsoberhäupter, Regierungschefs und Außenminister ohne besondere Vollmacht für ihre Staaten vertretungsberechtigt.
Ein Beitritt zu einem bestehenden Vertrag geschieht durch Akzession.
Staatsrechtlich berührt die Ratifikation auch das innerstaatliche Verfahren, das zur völkerrechtlichen Ratifikation führt. In der Regel ist die Zustimmung der Legislative zum Vertragsabschluss erforderlich, insbesondere mit einem Vertragsgesetz kann Völkervertragsrecht in innerstaatliches Recht umgesetzt werden; in einigen Ländern kann es unter bestimmten Bedingungen aber auch zu einem Referendum kommen. Vom Abschluss von Vertragsverhandlungen und deren Unterzeichnung bis zur tatsächlichen Ratifikation kann deswegen erhebliche Zeit vergehen.
Deutschland
Nach Grundgesetz vertritt der Bundespräsident Deutschland völkerrechtlich. Er schließt Verträge mit auswärtigen Staaten, Staatengruppen oder auch den Vereinten Nationen. Völkerrechtliche Verträge zu politischen Beziehungen des Bundes oder mit Bezug zu dessen Gesetzgebung bedürfen nach Abs. 2 eines Zustimmungsgesetzes. Das Verfahren folgt dem grundsätzlichen Gesetzgebungsverfahren des Bundes. Sinngemäß dasselbe gilt für Verwaltungsabkommen bezüglich der Bundesverwaltung und ihrer Vorschriften. Die Ratifikation geschieht nach Zustandekommen des Zustimmungsgesetzes durch den Bundespräsidenten. Meist bevollmächtigt der Bundespräsident dazu den Außenminister, einen Staatssekretär oder einen deutschen Botschafter. Bei Regierungsübereinkünften und Ressortabkommen können die Bundesregierung oder Bundesministerien Verträge durch Übertragung der Rechte des Bundespräsidenten schließen. Wenn dieser nicht selbst handelt, hat der Bundesminister des Auswärtigen die führende und koordinierende Rolle. Nach der Ratifikation wird das Vertragsgesetz im Bundesgesetzblatt verkündet.
Von der Ratifikation unabhängig ist die Umsetzung des geschlossenen Vertrages. Im Falle der Umsetzung durch parlamentarisches Gesetz spricht man von einem Transformationsgesetz. Es gibt Verträge, die ohne nationalen Umsetzungsakt bereits erfüllt sind.
Beispiel Europaratsabkommen
Der Europarat ist eine internationale Organisation. Er legt zahlreiche Abkommen zur Unterzeichnung aus, die nach einer gewissen Anzahl (Quorum) von Unterschriften und Ratifikationen in Kraft treten. Die deutsche Bundesregierung unterrichtete im Jahr 2019, welche Europaratsabkommen sie unterzeichnet hat, nicht unterzeichnet hat sowie, welche Abkommen und Konventionen sie beabsichtigt zu unterzeichnen und nicht beabsichtigt zu unterzeichnen.
Österreich
Aufgrund einer Vorlage durch die Bundesregierung, die zunächst durch Nationalrat und Bundesrat (bei Belangen, die den selbstständigen Wirkungsbereich der Bundesländer tangieren) genehmigt werden muss, wird die Ratifizierung durch den Bundespräsidenten vorgenommen. Die entsprechende Ratifikationsurkunde wird durch den Bundeskanzler gegengezeichnet. Der entsprechende Staatsvertrag und die zugehörige Ratifikation ist durch die Regierung im Bundesgesetzblatt für die Republik Österreich zu veröffentlichen.
International
Vereinigte Staaten
Zur Ratifizierung völkerrechtlicher Verträge in den Vereinigten Staaten von Amerika müssen gemäß der US-amerikanischen Verfassung zwei Drittel der Mitglieder des Senats diesem zustimmen.
Allerdings kann der Kongress Gesetze verabschieden, die dem Präsidenten executive agreements ohne Zustimmung des Senats erlauben, ebenso wie der Präsident congressional-executive agreements abschließen kann, zu deren Ratifizierung nur eine einfache Mehrheit – in diesem Fall jedoch in beiden Häusern des Kongresses – notwendig ist.
Eine Änderung der Verfassung muss nicht nur mit Zweidrittelmehrheit in beiden Kongresskammern beschlossen werden, es müssen auch die Parlamente von drei Vierteln aller Bundesstaaten (derzeit also 38) einen Verfassungszusatz ratifizieren.
Sprachgebrauch
Abweichend von der juristischen Definition wird in der bundesdeutschen Standardsprache der Ausdruck ratifizieren auch weiter gefasst: . Hier wird die Trennung zwischen den einzelnen Schritten, Paraphierung, Verabschiedung des Ratifikationsvertrags und Promulgierung oder Ratifikation, nicht berücksichtigt. Dieser Sprachgebrauch ist statistisch repräsentativ.
Literatur
Peter Seelmann: Ratifikation. In: Friedensverträge der Vormoderne (Lexikon / N–Z), historicum.net, 2006.
Weblinks
Ratifikation im Lexikon der Bundeszentrale für politische Bildung
Einzelnachweise
Verfassungsrecht
Völkerrecht
|
Q193170
| 111.509743 |
64180
|
https://de.wikipedia.org/wiki/Verdauungstrakt
|
Verdauungstrakt
|
Mit den Begriffen Verdauungstrakt oder Verdauungskanal () werden die Organe zusammengefasst, die der Aufnahme, der Zerkleinerung und dem Weitertransport der Nahrung dienen, um diese letztlich zu verdauen und die darin enthaltenen Nährstoffe für den Körper verwertbar zu machen. Der Verdauungstrakt besteht aus der Mundhöhle, dem Pharynx (Rachen), der Speiseröhre, dem Magen und dem Darm.
Der größte Teil des Verdauungstrakts ist der Magen-Darm-Trakt, der auch als Gastrointestinaltrakt (von und lateinisch ) oder seltener als Magen-Darm-Kanal bezeichnet wird.
Weitere Verdauungsorgane sind die Leber mit den Gallenwegen und die Bauchspeicheldrüse. Alle Verdauungsorgane zusammen werden als Verdauungsapparat (lateinisch: Apparatus digestorius) oder Verdauungssystem (lateinisch Systema digestivum) bezeichnet.
Funktion
Im Verdauungstrakt findet der eigentliche enzymatische Aufschluss der Nahrung, die Resorption von Nahrungsstoffen und Wasser sowie die Ausscheidung unverdaulicher oder nicht verwertbarer Nahrungsbestandteile statt. Neben Enzymen sind auch verschiedene Mikroorganismen an der Verdauung beteiligt, die man unter dem Begriff Darmflora zusammenfasst.
Die großen Verdauungsdrüsen, die Leber – mit Gallenblase – und die Bauchspeicheldrüse, produzieren Verdauungssäfte, die die Nahrung in ihre Bestandteile aufspalten. Der untere Teil des Verdauungstraktes dient hauptsächlich der Resorption von Wasser und der Ausscheidung der unverdaulichen Nahrungsbestandteile.
Aufbau
Der Verdauungstrakt kann in einen Kopf- und einen Rumpfteil (synonym auch oberer und unterer Verdauungstrakt) unterteilt werden. Neben dem eigentlichen Magen-Darm-Trakt (Gastrointestinaltrakt) gehören zum Verdauungssystem noch die Mundhöhle, wo vorwiegend die mechanische Zerkleinerung der Nahrung erfolgt, Speicheldrüsen, Pharynx und die Speiseröhre, die dem Weitertransport in den Magen dient. Die Zuordnung der Speiseröhre zum Magen-Darm-Trakt ist umstritten.
Kopfteil
Die Mundwerkzeuge und Mundhöhle (Lippen, Zähne, Zunge) dienen der Nahrungsaufnahme und der Zerkleinerung. Die Speicheldrüsen produzieren Speichel, der die Nahrung gleitfähig macht und bei einigen Säugetieren auch Enzyme zum Stärkeabbau (Amylase) enthält. Der Pharynx (Rachen, Schlundkopf) ist der Übergang zur Speiseröhre. In ihm kreuzen sich Nahrungs- und Atemweg.
Rumpfteil
Speiseröhre: dient dem Transport der Nahrung vom Mund zum Magen.
Magen: pH=2, wandelt die Nahrung in Nahrungsbrei um und reichert sie mit Magensaft an. 15 % der Proteine werden hier durch Pepsin gespalten.
Dünndarm mit
Zwölffingerdarm (Duodenum): Der Gallengang mündet hier, mit ihm werden dem Nahrungsbrei Pankreassaft, der der Protein- und Fettverdauung dient, und die Galle, die bei der Fettverdauung hilft, beigemengt.
Leerdarm (Jejunum): Ort der Resorption der nun in Peptide aufgespaltenen Eiweiße (Dipeptide-/Tripeptide), der Fette, Kohlenhydrate, Vitamine und Wasser
Krummdarm (Ileum)
Dickdarm (mit Blinddarm und Wurmfortsatz, aufsteigendem, querverlaufendem und absteigendem Grimmdarm (Colon) und Mastdarm): Speicherort für den Kot, um den Stuhlgang in Intervallen zu erlauben, ebenso Ort der Resorption von Wasser und Elektrolyten.
After: dient der Ausscheidung des Kots.
Unterscheidung der Verdauungssysteme
Durch die Evolution ist der Verdauungstrakt an die jeweilige Nahrung der Spezies optimal angepasst. Einerseits betrifft es die Anatomie des Verdauungstraktes und anderseits das Milieu der nährstoffspaltenden Mikroorganismen. Hier eine Übersicht der verbreiteten Verdauungssysteme:
Einfaches System wie zum Beispiel Mensch, Schwein und Hund
Magen
Dünndarm
Blinddarm
Dickdarm
Einfaches System mit funktionellem Blinddarm wie zum Beispiel beim Pferd, Kaninchen und Ratte
Magen
Dünndarm
Blinddarm (mit mikrobieller Verdauung)
Dickdarm
Multiples System (Wiederkäuer) wie zum Beispiel Rind, Schaf und Ziege
Pansen
Blättermagen
Netzmagen
Labmagen (Drüsenmagen)
Dünndarm
Blinddarm (ausgeprägt aber funktionslos)
Dickdarm
Aviäres System (Geflügel) wie zum Beispiel Huhn, Pute, Ente
Drüsenmagen (Proventriculus oder Ventriculus glandularis)
Muskelmagen (Ventriculus muscularis) (mikrobielle Verdauung)
Dünndarm (Hauptabsorptionsort)
Dickdarm (mikrobielle Verdauung)
Kloake (gemeinsame Ausscheidung von Harn und Kot)
Wandschichten
Die Wand des Verdauungstraktes besteht in allen Abschnitten grundsätzlich aus vier Geweben, die in Schichten übereinander liegen. In den verschiedenen Abschnitten des Magen-Darm-Traktes unterscheidet sich der Aufbau je nach Funktion etwas.
Die Schichten von innen nach außen:
Mukosa (Schleimhaut): Sie bildet die innere Wandschicht des Magen-Darm-Traktes.
Submukosa: Sie bildet eine recht schmale Bindegewebsschicht zwischen Mukosa und Muskularis.
Muskularis: Diese besteht im Mund, Pharynx und dem oberen Teil der Speiseröhre aus quergestreiften Muskeln, die der Willkür unterliegen und z. B. beim Schlucken angespannt werden können. Im übrigen Teil des Verdauungskanals überwiegt die glatte Muskulatur, die durch den Parasympathikus gesteuert wird. Sie ist auch verantwortlich für die Peristaltik des Darms und ist sowohl ringförmig als auch längs angeordnet, damit sich der Verdauungskanal sowohl längs als auch quer zusammenziehen kann.
Tunica serosa (auch Peritoneum viscerale). Bildet die äußerste Gewebsschicht des Magen-Darm-Trakts. Sie sondert Flüssigkeiten ab und ermöglicht somit das Übereinandergleiten mit anderen Organen. Die Serosa kommt allerdings nur bei Organen vor, die im Peritoneum liegen. In den anderen Bereichen des Körpers wird die Verbindung einzelner Organe durch lockeres Bindegewebe (Adventitia) realisiert.
Erkrankungen
Es gibt eine Vielzahl von Erkrankungsmöglichkeiten des Verdauungstrakts von der Mundhöhle bis zum Mastdarm und Krankheiten der Verdauungsorgane. So gehören etwa Infektionen und Entzündungen wie Mundschleimhautentzündungen, Gastroenteritis, Morbus Crohn und Pankreatitis, aber auch bestimmte intraabdominale Abszesse und verschiedene Speiseröhrenerkrankungen sowie Tumorerkrankungen dazu.
Siehe auch
Archenteron (Anlage des Urdarms und Entwicklung zum Verdauungssystem in der Embryonalentwicklung)
Chronisch-entzündliche Darmerkrankungen
Literatur
Hans Adolf Kühn: Krankheiten der Verdauungsorgane. In: Ludwig Heilmeyer (Hrsg.): Lehrbuch der Inneren Medizin. Springer-Verlag, Berlin/Göttingen/Heidelberg 1955; 2. Auflage ebenda 1961, S. 747–892.
Weblinks
Internistischer Endoskopie-Atlas mit ca. 1000 Bildern, Videos und Fallbeispielen
Bebilderte medizinische Terminologie des Verdauungstraktes Uni Greifswald 2010 (PDF, 44 Seiten; 688 kB)
Anmerkungen
!
it:Apparato gastrointestinale
|
Q9649
| 529.965136 |
71228
|
https://de.wikipedia.org/wiki/Aragonien
|
Aragonien
|
Aragonien oder Aragon (spanisch und aragonesisch Aragón, ) ist eine autonome Gemeinschaft im Nordosten Spaniens. Sie grenzt im Norden auf dem Hauptkamm der Pyrenäen an Frankreich, im Osten an Katalonien, im Südosten an Valencia und im Westen an Kastilien-La Mancha, Kastilien und León, La Rioja sowie Navarra. Hauptstadt ist Saragossa.
Das Gebiet der heutigen autonomen Gemeinschaft entspricht dem früheren Königreich Aragonien im engeren Sinne, das seinen Namen wiederum dem Fluss Aragón verdankte.
Geographie
Der Norden Aragoniens wird von den Pyrenäen geprägt, deren Hauptkamm auf der gesamten Länge die Nordgrenze der autonomen Gemeinschaft bildet.
Durch die Ebene des zentralen Aragoniens verläuft der Mittellauf des Ebro, zu dessen Einzugsbereich der größte Teil der Region gehört.
Im Süden der Region liegen Teile des Iberischen Randgebirges.
Mit 47.698 km² Landfläche ist Aragonien etwa so groß wie Estland oder die Slowakei. Es erstreckt sich damit über 9,4 % der spanischen Landmasse, aber mit einer Bevölkerungsdichte von 28 Einwohnern pro Quadratkilometer leben hier nur 2,9 % der Einwohner Spaniens.
Flüsse
Weitere bedeutende Flüsse in der Region neben dem Ebro sind der Aragón, der Gállego und der Segre (alle drei linke Nebenflüsse des Ebro), der Cinca (ein Nebenfluss des Segre), der Jalón (ein rechter Nebenfluss des Ebro), der Jiloca (ein Nebenfluss des Jalón) sowie der Mijares und der Turia, die vom Süden Aragoniens aus durch die Region Valencia direkt ins Mittelmeer fließen.
Bevölkerung
Aragonien gehört zu den am dünnsten besiedelten Regionen Spaniens. Die einzige Großstadt ist die Hauptstadt Saragossa, in der etwa die Hälfte der Einwohner der Region lebt.
Sprachen
Neben dem Spanischen wird in einigen Tälern der Pyrenäen noch die autochthone aragonesische Sprache gesprochen, die sich vom aragonesischen Dialekt des Spanischen abhebt. Zudem wird in einigen Bezirken im Osten Aragoniens längs der Grenze zu Katalonien (der Franja de Aragón) Katalanisch gesprochen. Amtssprache ist aber allein Spanisch, Aragonesisch und Katalanisch haben diesen Status nicht.
Größte Städte
Politische Gliederung
Aragonien ist in drei Provinzen mit insgesamt 731 Gemeinden (municipios) unterteilt:
Geschichte
Antike
Das Gebiet gehörte seit 201 v. Chr. zur römischen Provinz Tarraconensis und wurde um 415 westgotisch.
Mittelalter
Grafschaft Aragón
Nach einer kurzen Periode maurischer Herrschaft wurden Teile des Gebietes 812 fränkisch. Die vom Emirat von Córdoba unabhängige und eng mit dem karolingischen Reich verbundene Grafschaft entwickelte sich unter dem ersten Grafen Aznar I. Galíndez (um 809 bis 820). Unter der Führung von García Galíndez dem Bösen (um 820 bis 844) befreite sich die Grafschaft von der fränkischen Vormundschaft.
Das Gebiet der Grafschaft Aragón umfasste zunächst die Täler von Hecho, Canfranc, Borau, Aísa und Araguás und bald auch die von Ansó und Acumuer.
Unter dem Grafen Galindo I. Aznárez (um 844 bis 867) kam die Grafschaft unter die Oberlehnsherrschaft der Könige von Pamplona. Deshalb heiratete Aznar II. Galíndez (um 867 bis 893) wohl auch Onneca Garcés von Pamplona. Ein Sohn aus dieser Ehe, Graf Galindo II. Aznárez (893–922), versuchte mit Hilfe der Muslime von Huesca, der Grafen der Gascogne und der Grafen von Ribagorza sich dem Einfluss des Königreichs Navarra zu entziehen. Die Heirat mit Sancha Garcés aus der königlichen Familie von Navarra zeigt die Vergeblichkeit dieses Versuchs. Die immer enger werdende Verbindung der Grafschaft Aragón mit dem Königreich Navarra zeigt sich durch die Heirat seiner Erbin Andregoto Galíndez (922–970) mit dem König von Navarra García I., der ihr Cousin war. Dadurch wurden Aragón und Navarra vereinigt, obwohl die Grafschaft Aragón ihre politische und administrative Einheit bewahrte. Sie wurde als Lehen von einem Grafen aus dem Haus Navarra verwaltet.
Königreich Aragón (1035)
Nach dem Tod Sanchos III. im Jahr 1035 erbte dessen Sohn Ramiro I. Aragonien, das damit zum selbständigen Königreich wurde. Ramiro erweiterte sein Herrschaftsgebiet, das zuvor auf die Jacetania beschränkt war, durch den Erwerb von Ribagorza und Sobrarbe sowie durch erfolgreiche Kämpfe gegen die Mauren.
Seine Nachfolger Sancho Ramírez (1063–1094) und Peter I. (1094–1104) setzten den Krieg gegen die Mauren mit Erfolg fort. Ein Heer unter Alfons I. (1104–1134) eroberte 1118 Saragossa und erhob es zur Hauptstadt Aragoniens.
Das Testament Alfons I., in dem er das Land geistlichen Ritterorden vermachte, wurde von den Ständen Aragoniens nicht anerkannt. Sein Bruder Ramiro II., der Mönch, der zu diesem Zeitpunkt Bischof von Roda-Barbastro war, wurde 1134 zum König erhoben. Dieser heiratete darauf Inés von Poitou, eine adlige französische Witwe, die am 11. August 1136 eine Tochter, Petronella gebar. 1137 regelte Ramiro II. die Thronfolge dahingehend, dass er Petronella mit dem Grafen Raimund Berengar IV. von Barcelona verlobte (die Ehe wurde erst 1150 geschlossen, als Petronella 14 Jahre alt war). Wenig später wurde Petronella Königin, während Raimund Berengar IV. als Graf von Barcelona und Prinz von Aragonien regierte, was die Vereinigung Aragoniens mit Katalonien vorbereitete. Ramiro II. zog sich in ein Kloster zurück.
Vereinigung mit Katalonien zur Krone von Aragonien 1162/64
Petronellas und Raimund Berengars Sohn Alfons II. (* 1157) übernahm 1162 als Graf Alfons I. die Herrschaft in Katalonien und nach der Abdankung seiner Mutter 1164 die Königskrone von Aragonien, die daraufhin mit Katalonien vereint blieb. Die so entstandene Staatsgemeinschaft, die neben dem eigentlichen Aragonien auch Katalonien umfasste und sich später auf einen großen Teil des Mittelmeerraumes ausdehnte, ist als Krone von Aragonien (spanisch Corona de Aragón, katalanisch Corona d’Aragó) bekannt.
Innerhalb dieser Staatsgemeinschaft behielten die einzelnen Teilgebiete – das Königreich Aragonien im engeren Sinne, Katalonien sowie später auch das Königreich Valencia und weitere Gebiete – ihre innere Selbständigkeit, lediglich auf außenpolitischem Gebiet waren sie unter einem gemeinsamen Monarchen vereint.
Die Krone Aragonien wurde so zum zweiten wichtigen christlichen Reich in Spanien neben Kastilien. Peter II. (reg. 1196–1213) nahm seine Krone vom Papst zu Lehen. Jakob I. (reg. 1213–1276) erließ eine Verfassung für Aragonien und beabsichtigte die Teilung des Landes unter seinen Söhnen. Diese kam aber nicht zustande: der älteste Sohn Peter III. (reg. 1276–1285) zwang seinem Bruder Jakob II., der die Balearen, Roussillon, Cerdanya etc. bekommen hatte, die Lehnspflichtigkeit auf.
Peter III. erwarb 1282 Sizilien, wurde aber infolgedessen in einen Krieg mit Frankreich verwickelt. Als er deshalb und aus anderen Gründen drückende Steuern beschloss, traten die Stände von Aragonien 1283 zusammen, um ihre alten Freiheiten zu verteidigen. Sie zwangen dem König das Generalprivilegium von Saragossa ab, das, später noch erweitert, die königliche Gewalt deutlich einschränkte. 1285 folgte Peters ältester Sohn Alfons III. (reg. 1285–1291) in den spanischen Reichen nach, während der jüngere, Jakob, in Sizilien nachfolgte. Alfons setzte seinen Onkel Jakob II. auf Mallorca ab und geriet mit Kastilien und Frankreich in langwierige kriegerische Auseinandersetzungen, während die aragonischen Stände ihre Macht erweitern konnten.
Nach Alfons’ kinderlosem Tod folgte ihm sein Bruder Jakob II. (reg. 1291–1327), der Sardinien als päpstliches Lehen erwarb und 1319 die Unteilbarkeit des spanischen Reichs festsetzte. Dennoch behielten Aragonien, Katalonien und Valencia eigene Cortes.
Auf Jakob II. folgte sein Sohn Alfons IV. (reg. 1327–1336), der gegen die Genuesen und gemeinsam mit seinem Schwiegervater Alfons XI. von Kastilien erfolgreich gegen die Mauren kämpfte. Sein Nachfolger Peter IV. (1336–1387) beendete den Krieg mit Genua, der den Handel Aragoniens stark beeinträchtigt hatte. Er vereinigte Mallorca (1344) wieder mit Aragonien, verlor dagegen Sardinien, wo vor allem das Judikat Arborea kämpferischen Widerstand leistete, teilweise. Während seiner Kämpfe mit Kastilien und unzufriedenen Brüdern gewannen die Cortes immer größere Unabhängigkeit. 1348 siegte Peter IV. jedoch bei Épila gegen aufständische Adlige und erreichte damit eine erneute Festigung seiner königliche Gewalt.
Sein Sohn Johann I. (reg. 1387–1396) verlor ganz Sardinien an Eleonora di Arborea. Nach Johanns und seines Bruders Martin I. (reg. 1396–1410) kinderlosem Tod entstanden in Aragonien infolge des Auftretens verschiedener Prätendenten heftige Thronstreitigkeiten (Interregno aragonés), aus denen endlich durch den Spruch gemischter Schiedsrichter, dem Kompromiss von Caspe, der Infant Ferdinand von Kastilien, ein Neffe Johanns, als König hervorging, der als Ferdinand I. (1412–16) regierte. Er wirkte eifrig mit zur Beseitigung des großen kirchlichen Schismas.
Auf Ferdinand I. folgte sein Sohn Alfons V. (1416–58). Er überließ die Regierung weitgehend seiner Gemahlin María von Kastilien und seinem Bruder Johann, während er selbst Kriege führte. Er vereinigte Neapel und Sizilien mit Aragonien, hinterließ aber nur einen natürlichen, vom Papst legitimierten Sohn, Ferdinand, welcher ihm in Neapel auf den Thron folgte.
Die spanischen Reiche nebst Sardinien und Sizilien und den Balearen erbte Johann II. (reg. 1458–1479), Alfons’ Bruder, der durch seine Ehefrau Blanca auch König von Navarra war. Johanns Regierung war hart und willkürlich, gegen seine eignen Untertanen erbat er die Hilfe Frankreichs und bezahlte sie durch Abtretung Roussillons und Perpignans. Er starb 1479.
Die Katholischen Könige und die Vereinigung mit Kastilien
Auf Johann III. folgte 1479 sein Sohn Ferdinand II., seit 1469 Gemahl Isabellas, der Thronerbin von Kastilien, wodurch beide Kronen erstmals in Personalunion vereint waren.
Mittelalterliche Verfassungsgeschichte
Von besonderem Interesse ist die Verfassungsgeschichte Aragoniens, wo sich das freie Bürgertum in Spanien zuerst ausgebildet hat. Schon 1118 bekamen die Bürger Saragossas alle Rechte geborener Hidalgos, und 1136 beratschlagten Abgeordnete der aragonischen Gemeinden auf der Ständeversammlung der Cortes mit geistlichen und weltlichen Lehnsherren über Steuern und Landesordnungen.
Fortan waren die Städte Aragoniens und Kataloniens besonders auf Erhaltung der ständischen Privilegien und Freiheiten bedacht. Die Cortes von Aragonien, gleichzeitig besucht von den Vertretern des in eine höhere (ricos hombres) und niedere (infanzones, caballeros, hidalgos) Klasse gesonderten Adels und des Klerus, verfügten über Krieg und Frieden, Bündnisse und Verträge, Steuern, Münzen, alte und neue Gesetze und Urteilssprüche der unteren Gerichtshöfe.
König Alfons III. musste die jährliche Berufung der Cortes nach Saragossa im Jahre 1287 als Grundgesetz anerkennen und denselben das Recht des pflicht- und verfassungsmäßigen Widerstands gegen willkürliche Verletzung der ständischen Mitglieder einräumen. Er war sogar gezwungen anzuerkennen, dass, wenn der König sich der Gewaltherrschaft schuldig mache, alle Bewohner Spaniens vom 14. bis zum 60. Jahr gemeinsam zum Sturz des Königs die Waffen ergreifen sollten.
Peter IV. erzwang 1348 die Aufhebung dieser Satzungen, bewilligte aber die Einsetzung eines Vermittlers des Justicia de Aragón, der, zwischen Monarch und Volk stehend, die Rechte des letzteren gegen Übergriffe der ersteren schützen und in Streitigkeiten zwischen der Krone und den Ständen entscheiden sollte. Diese Person wurde vom König aus der Ritterschaft auf Lebenszeit bestimmt. Er war lediglich den Cortes gegenüber zur Rechenschaft verpflichtet.
Die allgemeinen Reichsstände der Krone Aragonien, die anfangs jährlich, seit 1307 alle zwei Jahre von den Abgeordneten Aragoniens, Kataloniens und Valencias gebildet wurden, bestanden aus den vier Abteilungen (brazos ‚Arme‘ bzw. estamentes ‚Bänke‘) der Geistlichkeit, des hohen (brazo de nobles) und niederen Adels (brazo de caballeros e hidalgos) und der Stadtgemeinden (brazo de universidades). Für die Gültigkeit eines Beschlusses der Cortes war Einstimmigkeit der Krone und aller Mitglieder notwendig. Ein ständiger Ausschuss von acht Mitgliedern blieb zur Wahrung der Volksrechte stets zusammen.
Neuzeit
Von 1485 bis 1699 wurde Aragón im Namen der spanischen Könige von eigenen Vizekönigen regiert. Es behielt seine alten inneren Institutionen und Freiheiten und verlor diese erst nach der Parteinahme für die österreichischen Habsburger im spanischen Erbfolgekrieg (1701–1714).
Während des Unabhängigkeitskrieges gegen Napoleon belagerten Truppen Napoleons im Sommer 1808 erfolglos. Nach einer weiteren zweimonatigen Belagerung kapitulierte Saragossa am 20. Februar 1809.
In den drei Carlistenkriegen des 19. Jahrhunderts hielt Oberaragonien (in etwa das Gebiet der heutigen Provinz Huesca) entschieden zur Königin Maria Christina von Sizilien, Niederaragonien (in etwa die heutige Provinz Teruel) hielt dagegen zum Prätendenten Don Carlos.
20. Jahrhundert
Spanischer Bürgerkrieg
Im spanischen Bürgerkrieg war vor allem das südliche Aragonien Schauplatz erbitterter Kämpfe, von denen die Schlacht von Belchite infolge einer republikanischen Offensive auf Saragossa im September und Oktober 1937 und die Schlacht von Teruel zwischen Dezember 1937 und Februar 1938 die bekanntesten sind.
Autonomie
Am 10. August 1982 unterzeichneten König Juan Carlos I. und Ministerpräsident Leopoldo Calvo-Sotelo das Gesetz, das die spanischen Cortes Generales verabschiedet hatten und in dem das Autonomiestatut für Aragonien enthalten war.
Das Autonomiestatut wurde mehrfach reformiert. Die letzte und umfangreichste Reform erfolgte im Jahre 2007 (Ley Orgánica 5/2007, de 20 de abril, de reforma del Estatuto de Autonomía de Aragón), seitdem enthält es auch einen Grundrechtsteil.
Politik
Parlament
Seit dem Inkrafttreten des Autonomiestatuts im Jahre 1983 fanden acht Wahlen zum Regionalparlament (Cortes de Aragón) statt. Neben den spanienweit auftretenden Parteien (PSOE, PP und IU) sind auch zwei Regionalparteien von Bedeutung: die bürgerliche Partido Aragonés (PAR) und die linksorientierte Chunta Aragonesista (CHA).
Die Ergebnisse
St.-Ant. = Stimmenanteil, S = Sitze
Regierung
Die Regionalregierung wird als Gobierno de Aragón oder alternativ auch als Diputación General de Aragón bezeichnet. Ihr steht der Ministerpräsident (Presidente de Aragón) vor, der vom Parlament gewählt wird und die Minister (Consejeros) ernennt.
Vor den Wahlen 2011 hatte die PAR beschlossen, nicht in die Regierung einzutreten, wenn sie nicht mindestens acht Abgeordnetenmandate erringen würde, was nicht geschah (lediglich sieben Sitze). Allerdings schloss sie mit dem Wahlsieger, der konservativen PP, einen „Acuerdo de Gobernabilidad“ (Tolerierungsabkommen). So wurde die damalige Ministerpräsidentin Luisa Fernanda Rudi Úbeda mit den Stimmen der PP und der PAR gewählt. Die Regierung besteht aus Mitgliedern der PP und der Parteilosen, allerdings besetzt die PAR die Posten einiger Staatssekretäre (Directores Generales).
Wirtschaft
2012 lag das Bruttoinlandsprodukt von Aragonien bei 33,5 Mrd. Euro beziehungsweise bei 25.540 Euro pro Einwohner. 58 % des BIP wurden vom Dienstleistungssektor erwirtschaftet, 38 % vom Sekundärsektor und 4 % vom Primärsektor. Insgesamt erwirtschaftete Aragonien nur etwa 3 % des gesamtspanischen BIP.
Die Exporte Aragoniens ins Ausland beliefen sich 2012 auf etwa 8,5 Mrd. Euro. Wichtigster Handelspartner war Deutschland und, aufgrund des in Figeruelas gelegenen Opel-Werks und der darum gelegenen Zulieferindustrie waren Autos und Autoteile das wichtigste Exportgut. Im Vergleich mit dem BIP pro Kopf der EU, ausgedrückt in Kaufkraftstandards, erreicht Aragonien einen Index von 99 (EU-27:100, Stand 2015).
Mit einem Wert von 0,889 erreicht Aragonien Platz 6 unter den 17 autonomen Gemeinschaften Spaniens im Index der menschlichen Entwicklung.
Die Arbeitslosenquote lag im Jahr 2017 bei 11,6 %, also unter dem spanischen Durchschnitt.
Tourismus
Im Jahr 2011 zog Aragonien etwa 2,7 Mio. Besucher an. Der fehlende Zugang zum Meer macht die Provinz für ausländische Touristen zwar etwas weniger interessant als klassische Urlaubsziele in Spanien, dennoch gibt es auch hier interessante Ziele. Besondere Bedeutung für den Tourismus hat etwa der Wintersport: In den Pyrenäen gibt es mit den Komplexen von Formigal, Candanchú und Astún weit über 100 km befahrbare Skipisten und auch im Sommer sind Outdoor-Aktivitäten wie Wandern oder Klettern in den Bergen gefragt. Insgesamt gibt es in den aragonischen Pyrenäen vier Naturparks und einen Nationalpark, den Nationalpark Ordesa y Monte Perdido und Aragonien zählt auch zu den wenigen spanischen Provinzen, wo Wildwassersportarten wie Kajaking möglich sind.
Jenseits der Berge sind mittelalterliche Klöster für Touristen sehenswert, die oftmals auch über angeschlossene Weingüter verfügen und entsprechende Weinverkostungen anbieten. Zu den besonders besuchten Klöstern der Provinz zählen etwa das Monasterio de Veruela, das Monasterio de Piedra, Nuestra Señora de Rueda oder San Juan de la Peña.
Schließlich haben für die spanischen Touristen auch die Stadtfeste große Bedeutung. Hier ist in erster Linie das Patronatsfest zu Ehren Unserer Lieben Frau auf dem Pfeiler in Saragossa zu nennen, das um den 12. Oktober stattfindet. Weiterhin von Bedeutung ist das Stadtfest von Teruel, das in einer der ersten beiden Juliwochen stattfindet.
Literatur
Günter Holtus, Michael Metzeltin, Christian Schmitt (Hrsg.): Lexikon der Romanistischen Linguistik. 12 Bände. Niemeyer, Tübingen 1988–2005; Band VI,1: Aragonesisch / Navarresisch, Spanisch, Asturianisch / Leonesisch. Aragonés / Navarro, Español, Asturiano / Leonés. ISBN 3-484-50236-3.
Siehe auch
Aragonit
Katharina von Aragón, erste Königin Heinrichs VIII.
Francisco de Goya
Weinbau in Spanien
Weblinks
Regierung Aragoniens (spanisch)
Allgemeine Daten über Aragonien (spanisch)
Wege von Aragon (spanisch)
Einzelnachweise
Region in Europa
Spanische autonome Gemeinschaft
|
Q4040
| 535.324695 |
42037
|
https://de.wikipedia.org/wiki/Aberglaube
|
Aberglaube
|
Aberglaube, seltener Aberglauben, bezeichnet einen „als irrig angesehenen Glauben an die Wirksamkeit übernatürlicher Kräfte in bestimmten Menschen und Dingen“ (zum Beispiel Hexerei oder Talismane), unter anderem eine Vorstellung vom Wirken anthropomorph gedachter dämonischer Kräfte. Aberglauben findet sich im Leben und Handeln von Menschen in allen Kulturen und Zeiten. Es gibt solche Vorstellungen sowohl in kulturell allgemein anerkannten kollektiven Denkmustern und Riten, zum Beispiel im Glauben an Glück oder Unglück bringende Symbole (Glücksbringer) oder in Spruchformeln (zum Beispiel „toi, toi, toi“), als auch individuell.
Die Bezeichnung „Aberglaube“ (lateinisch superstitio) wird negativ wertend auf Glaubensformen und religiöse Praktiken (Kulte) angewandt, die nicht dem als „richtig“ und „allgemeingültig“ empfundenen System kultureller Überzeugungen und Lehrmeinungen der „herrschenden“ Religion oder Weltanschauung entsprechen. Insofern kann er auch zur Beschreibung übertriebener Religiosität verwandt werden (superstitio – „Überglaube“). In abrahamitisch-religiös geprägten Kreisen wird die Bezeichnung unter Gleichgesinnten zum Hinweis auf mangelnde theologische Bildung, aber auch zur Herabwürdigung volkstümlicher (vgl. etwa Volksfrömmigkeit) und okkulter Glaubensrichtungen verwendet. „Aberglaube“ wurde zum Kampfbegriff nach der Aufklärung/Gegenaufklärung im 18. und 19. Jahrhundert innerhalb der (christlichen) Konfessionen (vgl. Kulturkampf), aber auch zum Werturteil für neu aufkommende spiritistische oder medizinische Methoden und Theorien wie den animalischen Magnetismus oder die Hypnose. Da sich der Begriff von der jeweils herrschenden Welt- und Glaubenssicht her definiert, wird der Inhalt von dem jeweiligen wissenschaftlichen oder religiösen Standpunkt des Darstellers bestimmt. Aus atheistischer Sicht ist jede Religion Aberglaube.
Im wissenschaftlichen Sprachgebrauch wurde der Begriff weitgehend durch die über die kirchliche Begrifflichkeit hinausgehende Bezeichnung Volksglaube abgelöst. Medizinischer Aberglaube findet sich unter anderem in der Volksmedizin. Das seit dem 16. Jahrhundert gebräuchliche Wort „Aberglaube“ diente dem Klerus zunehmend als Kampfbegriff gegen Häresie und Ketzertum und wurde im 19. Jahrhundert durch die entstandene Volkskunde erstmals positiv umgedeutet als Vorstellung der einfachen, aber auch unverbildeten Bevölkerung („Volksglaube“). Seit Beginn des 20. Jahrhunderts wird besonders von Seiten der Humanwissenschaften versucht, die psychologischen und soziokulturellen Grundlagen des Aberglaubens zu erforschen.
Der Begriff „Aberglaube“ wird im allgemeinen Sprachgebrauch auch mit Unvernunft und Unwissenschaftlichkeit gleichgesetzt, steht dem lateinischen Begriff superstitio nahe und kann als „falsche Einsicht in die Natürlichkeit von Geschehnissen“ verstanden werden.
Begriffsgeschichte
Der Begriff Aberglaube ist seit dem 12. Jahrhundert belegt (spätmthd. abergloube) und wurde im 16. Jahrhundert verbreitet. Der Wortbestandteil „aber-“ bedeutete nach Auffassung heutiger etymologischer Wörterbücher ursprünglich „nach, wider, hinter“, wobei es später eine abschätzige Bedeutung annahm und das Gegenteil dessen bezeichnete, was der zweite Wortbestandteil ausdrückte, zum Beispiel bei „Aberwitz“. Das Wort kam als Lehnübertragung des lateinischen Begriffs super-stitio in Gebrauch. Der Begriff wurde von Afterglaube (= Missglaube) abgeleitet und stand für „falsche“, d. h. von der christlichen Glaubenslehre abweichende, Glaubensinhalte und -formen. Aberglaube galt als heidnisch, unmoralisch und ketzerisch.
Die Bekehrung der Heiden war in Europa zwar abgeschlossen, doch die lokalen Volksglauben lebten in gewissen Grenzen weiter: Zauber, Amulette, Böser Blick, heilige Bäume und heilige Haine sollten die Christen nicht vom wahren Glauben abbringen. Außerdem wollte man mit dem Begriff Aberglauben den neuen vorreformatorischen und sektiererischen Einflüssen entgegenwirken. Kirchenkritiker und Abweichler, die Ketzer, sollten damit auf die gleiche Ebene wie Hexen und Zauberer gestellt werden. Das Regelwissen der aufstrebenden Naturwissenschaft wurde diffamiert: Wissen oder Sehen-Wollen statt Glauben und Vertrauen standen im Verdacht der Überheblichkeit und des Fanatismus, befanden sich also im Widerspruch zur christlichen Ethik.
In der Antike konnte der Begriff „superstitio“ gelegentlich auch moralisch neutral gebraucht werden, ein „superstitiosus“ war ein Wahrsager. In der Regel wurde damit aber eine übertriebene Ängstlichkeit und Bedenklichkeit in Bezug auf religiöse Dinge verstanden. Nach der Philosophie der Stoa war die wahre Religion und Frömmigkeit der Mittelweg zwischen dem Atheismus, mit zu wenig, und dem Aberglauben, mit zu viel Achtsamkeit auf religiöse Dinge. Der dem Mittelplatonismus nahestehende griechische Philosoph Plutarch verurteilt alles als Aberglaube, was den Göttern nur aus Angst vor Schaden und Verderben getan wird. Unter den Kirchenvätern definiert Lactantius „religio“ dann nur als Verehrung des „wahren Gottes“, die allein den Christen zukommt. Der Glaube der Heiden an viele und falsche Götter ist damit Aberglaube (superstitio).
Augustinus von Hippo übernahm den Begriff „superstitio“, um nichtchristliche Religionen zu kennzeichnen. Er legte die theoretischen Grundlagen der mittelalterlichen Lehre über die Geschichte des Aberglaubens. In seinen Werken De civitate Dei, De doctrina christiana, De divinatione daemonum und De natura daemonum befasste er sich ausführlich mit dem Aberglauben. Als Bischof von Hippo war Augustinus insbesondere mit dem Amulettglauben konfrontiert, der nach seiner Meinung eine ernsthafte Bedrohung des Christentums darstellte. Seine Terminologie und seine Kenntnisse übernahm er weitgehend von Marcus Terentius Varro. Die Lehre von den Dämonen übernahm er im Wesentlichen von den Neuplatonikern. Augustinus ging von der realen Existenz von Dämonen aus. Sie bevölkerten nach ihm den Weltstaat („civitas terrena“ oder „civitas diaboli“). Um einem dualistischen Weltbild zu entgehen, erklärte er die Dämonen als urgeschichtlich gefallene und von Gott verstoßene Engel. Die magischen Praktiken waren heidnischen Ursprungs, und Augustinus sah im Aberglauben den Versuch, sich mit Hilfe der heidnischen Götter, die mit den Dämonen identifiziert wurden, Sicherheit zu verschaffen. So wurde der Aberglaube mit dem heidnischen Götzendienst identifiziert. Auch Thomas von Aquin verstand Aberglauben als sittlichen, intellektuellen und religiösen Verfall. Den Götzendienst interpretierte er als eine Form der „superstitio“, beschäftigte sich aber auch mit abergläubischen Formen der an sich richtigen, christlichen Gottesverehrung; diese seien nichtsdestoweniger sündhaft.
Im Zeitalter der Aufklärung trat ein grundlegender Wandel ein: An die Stelle der Frage nach dem rechten Glauben trat das Bemühen, den Geltungsbereich vernunftgemäßen Urteilens und naturwissenschaftlicher Prinzipien zu bestimmen. Aberglaube galt als Abweichung der Vernunft und war in erster Linie ein historisches und soziales Bildungsproblem. Die Aufklärung richtete sich unter anderem gegen den religiösen Aberglauben und entwickelte eine „Vernunftreligion“. Immanuel Kant sagte etwa: „Aberglaube ist der Hang, in das, was als nicht natürlicher Weise zugehend vermeint wird, ein größeres Vertrauen zu setzen, als was sich nach Naturgesetzen erklären lässt – es sei im Physischen oder Moralischen.“ Der Begriff Aberglaube bezeichnet – nach einer Definition des Sozialpsychologen Judd Marmor – Glaubenssätze und Praktiken, die wissenschaftlich unbegründet sind und nicht dem erreichten Kenntnisstand einer Gesellschaft entsprechen.
Charakteristik
Hinter abergläubischen Praktiken kann sich generell der Wunsch verbergen, Unbekanntes oder Bedrohliches (auch Krankheiten) durch beschwörende Handlungen oder Äußerungen zu bannen oder Glück herbeizuführen. Diese Vorstellungen existieren sowohl in kulturell anerkannten, kollektiven Denkmustern und Riten, wie etwa im Glauben an Glück oder Unglück bringende Symbole (geschenkter Unglücksbringer) und Spruchformeln, aber auch auf individueller Ebene mit ganz persönlichen Gegenständen, Gewohnheiten und Handlungen, denen eigene verborgene, lenkende Kräfte zugemessen werden.
Aberglaube entsteht durch die falsche Verknüpfung von Ursache und Wirkung. Das Magazin Gehirn&Geist schrieb 2009: Bei ein- oder zweimaligem zeitlichen Zusammentreffen von zwei Ereignissen würde eine ursächliche Verbindung angenommen, so dass abergläubisches Verhalten relativ schnell entstehe. Umgekehrt benötige es viele Male des Nichtzusammentreffens, um diesen Verdacht wieder zu zerstreuen.
Psychologie
In der Psychologie ist Aberglaube eng verwandt mit Begriffen wie magisches Denken, selbsterfüllende Prophezeiung, Glaube an das „todsichere System“ beim Glücksspiel (siehe Wahrscheinlichkeit). Er entsteht zum Beispiel bei nichtdeterministischen Experimenten (zum Beispiel die von B. F. Skinner gefilmten Experimente mit Haustauben und die sogenannten abergläubischen Ratten). Aberglaube und magische Praktiken sind entwicklungspsychologisch relevant, da Kinder in einer sogenannten Phase des Egozentrismus sich einem magisch-abergläubischen Weltbild zuwenden können.
Der Psychologe und Parapsychologe Hans Bender forderte eine kritisch-wissenschaftliche Untersuchung des Aberglaubens, da er dahinter ein bisher unerforschtes kollektives Wissen unterschiedlicher Kulturen im Sinne der von ihm postulierten Gleichförmigkeit des Okkulten vermutete.
Siehe auch
Magie
Verschwörungstheorie
Literatur
Hanns Bächtold-Stäubli und andere (Hrsg.): Handwörterbuch des deutschen Aberglaubens. 10 Bände. De Gruyter, Berlin / Leipzig 1929–1942 (unveränderter Nachdruck 2000, ISBN 3-11-016860-X), CD-ROM-Ausgabe: Directmedia Publishing, Berlin 2006, ISBN 978-3-89853-545-8.
Ditte Bandini, Giovanni Bandini: Kleines Lexikon des Aberglaubens. Area, Erftstadt 2006, ISBN 978-3-89996-853-8.
Augustin Calmet (herausgegeben und mit Anmerkungen versehen von Abraham und Irina Silberschmidt): Gelehrte Verhandlung der Materie von den Erscheinungen der Geister, und der Vampire in Ungarn und Mähren. (1749) Edition Roter Drache, Rudolstadt 2007, ISBN 978-3-939459-03-3.
Nils Freytag: Aberglauben im 19. Jahrhundert. Preußen und seine Rheinprovinz zwischen Tradition und Moderne 1815–1918. In: Quellen und Forschungen zur brandenburgischen und preußischen Geschichte. Band 22. Duncker und Humblot, Berlin 2003, ISBN 3-428-10158-8 (zugleich Dissertation an der Universität Trier 1998).
Karl-Heinz Göttert: Daumendrücken – Der ganz normale Aberglaube im Alltag. Philipp Reclam jun., Stuttgart 2003, ISBN 3-15-010533-1.
Bernhard D. Haage: Aberglaube und Zauberei in der mittelhochdeutschen Dichtung. In: Mannheimer Berichte. Band 30, 1986, S. 53–72.
Dieter Harmening: Superstitio. Überlieferungs- und theoriegeschichtliche Untersuchungen zur kirchlich-theologischen Aberglaubensliteratur des Mittelalters. Schmidt, Berlin 1979, ISBN 3-503-01291-5. Zugleich Philosophische Habilitationsschrift Würzburg.
Dieter Harmening: Wörterbuch des Aberglaubens. 2., durchgesehene und erweiterte Auflage., Reclam Stuttgart 2009 (= Reclams Universal-Bibliothek. Band 18620), ISBN 978-3-15-018620-6.
Patrick Hersperger: Kirche, Magie und „Aberglaube“. Superstitio in der Kanonistik des 12. und 13. Jahrhunderts. In: Forschungen zur kirchlichen Rechtsgeschichte und zum Kirchenrecht. Band 31. Böhlau, Köln 2010, ISBN 978-3-412-20397-9.
Helmut Hiller: Lexikon des Aberglaubens. München 1986.
Alfred Lehmann: Aberglaube und Zauberei von den ältesten Zeiten an bis in die Gegenwart. Nach der 2., umgearbeiteten dänischen Auflage übersetzt und ergänzt von Dominikus Petersen I., 4. deutsche Auflage. Aalen 1969 (und, deklariert als 5. Auflage, Leiden/Köln 1985); Neudruck Bindlach 1990.
Hanns-Peter Mederer: Der unterhaltsame Aberglaube. Sagenrezeption in Roman, Erzählung und Gebrauchsliteratur zwischen 1840 und 1855. In: Berichte aus der Literaturwissenschaft. Shaker Verlag, Aachen 2005, ISBN 3-8322-4201-5 (zugleich Dissertation an der Universität Hamburg 2005).
Carl Meyer: Der Aberglaube des Mittelalters und der nächstfolgenden Jahrhunderte. Basel 1884.
Heinrich Bruno Schindler: Der Aberglaube des Mittelalters. Ein Beitrag zur Culturgeschichte. Breslau 1858 (Digitalisat, Neuausgabe: BiblioBazaar, LLC, 2009, ISBN 978-1-110-11259-3).
Weblinks
Einzelnachweise
Glaubenspraxis
Glaubenssystem
Religionspsychologie
Wikipedia:Artikel mit Video
|
Q133182
| 94.690154 |
90152
|
https://de.wikipedia.org/wiki/Bayer-Bezeichnung
|
Bayer-Bezeichnung
|
Die Bayer-Bezeichnung wird in der Astronomie zur systematischen Bezeichnung von Sternen verwendet. Sie ist nach dem deutschen Astronom Johann Bayer (1572–1625) benannt.
Format
Die Bayer-Bezeichnung besteht aus einem griechischen Buchstaben gefolgt vom Genitiv des lateinischen Namens des Sternbilds, in dem der Stern liegt, z. B. γ Lyrae („Gamma“ + Genitiv von „Lyra“) oder ζ Ursae Maioris („Zeta“ + Genitiv von „Ursa Major“).
Der von uns aus gesehen hellste Stern (siehe auch Scheinbare Helligkeit) eines Sternbilds wird dabei normalerweise mit α bezeichnet, der nächsthellste mit β usw.
Beispiele:
Sternbild: Centaurus (Zentaur)
hellster Stern: α („Alpha“, erster Buchstabe des Griechischen Alphabets)
Sternname nach Bayer: α Centauri („Alpha Centauri“), Abkürzung: α Cen
Eigennamen: Rigil Kentaurus, Toliman
Sternbild: Gemini (Zwillinge)
dritthellster Stern: γ („Gamma“, dritter Buchstabe des Griechischen Alphabets)
Sternname nach Bayer: γ Geminorum („Gamma Geminorum“), Abkürzung: γ Gem
Eigenname: Alhena
Tatsächlich gibt es aber eine Vielzahl von Sternbildern, bei denen diese Reihenfolge nicht eingehalten wird; so tragen beispielsweise die hellsten Sterne im Schützen die Bezeichnungen ε, σ, ζ und δ Sgr, während α und β Sgr eher unscheinbar wirken.
Das System der Bezeichnung mit griechischen Buchstaben wurde später erweitert, zunächst um lateinische Kleinbuchstaben und dann um lateinische Großbuchstaben. Die meisten von ihnen werden selten benutzt, es gibt jedoch ein paar bekannte Ausnahmen wie h Persei, bei dem es sich in Wahrheit um einen offenen Sternhaufen handelt, und P Cygni. Die Bayer-Bezeichnungen mit Großbuchstaben gingen dabei nicht über Q hinaus. Heute werden die Buchstaben ab R zur Kennzeichnung von veränderlichen Sternen verwendet.
Eine weitere Komplizierung ergibt sich aus der Verwendung von hochgestellten Nummern zur Unterscheidung von Sternen mit demselben Buchstaben. Bei vielen handelt es sich um Doppelsterne, die meist aber nur optisch zusammenstehen. Daneben gibt es aber auch Ausnahmen wie die sich über 8° am Himmel erstreckende Sternenkette π1, π2, π3, π4, π5 und π6 Orionis, die den „Bogen“ des Orion bildet.
Zwei Sterne tragen eine doppelte Bayer-Bezeichnung: β Tau / γ Aur und α And / δ Peg. Außerdem gibt es aufgrund der offiziellen Neueinteilung der Sternbildgrenzen durch die IAU eine Reihe von Sternen, deren Bayer-Bezeichnungen sie anderen als den heute üblichen Sternbildern zuordnen würden. Dennoch hat sich diese Art der Benennung bewährt und ist auch heute noch weit verbreitet.
Geschichte
Johann Bayer führte diese Bezeichnung 1603 in seinem Sternatlas Uranometria ein, wobei er nur hellere, mit bloßem Auge in Europa sichtbare Sterne berücksichtigte. Südliche, in Europa fast oder gar nicht sichtbare Sternbilder bekamen also keine Bezeichnung. Darüber hinaus waren zu Lebzeiten Bayers die Sternbilder noch nicht als aneinandergrenzende Flächen definiert, es gab also Lücken dazwischen, zumeist mit lichtschwachen Sternen.
Im Laufe der Zeit wurden diese Lücken mit neuen Sternbildern gefüllt, so z. B. durch Johannes Hevelius in seinem postum 1690 veröffentlichten Katalog Prodromus astronomiae. Ob er die darin liegenden Sterne mit einer Bayer-Bezeichnung versehen hat, ist nicht bekannt, zumindest tauchen sie in diesem Katalog nicht auf.
Im Jahre 1845 veröffentlichte der britische Astronom Francis Baily seinen British Association’s Catalogue.
Hierbei hat er nach eigenen Angaben zahlreiche Bezeichnungen an die helleren Sterne der neuen Sternbilder vergeben. So gibt es z. B. für das am Himmels-Südpol liegende Sternbild Oktant eine ganze Serie von Alpha Octantis bis Omega Octantis.
Heutzutage sind die Sternbilder als Asterismen in der Astronomie nur noch von geringer Bedeutung und damit verlieren auch die Bayer-Bezeichnungen an Bedeutung. Von wenigen Ausnahmen abgesehen finden sich alle Sterne mit Bayer-Bezeichnung im Bright-Star-Katalog, was eine moderne Referenzierung ermöglicht.
Siehe auch
Liste der Bayer-Bezeichnungen
Flamsteed-Bezeichnung
Einzelnachweise
!
Stern Bayer
|
Q105616
| 105.204596 |
6513
|
https://de.wikipedia.org/wiki/1482
|
1482
|
Ereignisse
Politik und Weltgeschehen
Portugiesische Entdeckungsfahrten
21. Januar: Die Portugiesen legen unter Diogo de Azambuja an der Goldküste im heutigen Ghana den Grundstein für das spätere Fort São Jorge da Mina bzw. Elmina.
Der portugiesische Seefahrer Diogo Cão erreicht als erster europäischer Seefahrer das Gebiet der Kongo-Mündung und des heutigen Angola. In der Folge entstehen Handelsniederlassungen. Die Entdeckungen Caos sind die Voraussetzung für die Entdeckungsfahrt von Bartolomeo Diaz im Jahr 1488, auf der er das Kap der Guten Hoffnung erreicht.
Reconquista
28. Februar: Spanische Truppen unter dem Befehl von Rodrigo Ponce de León erobern während der Reconquista die maurische Festung Alhama de Granada im Emirat von Granada. Der Emir von Granada Abu l-Hasan Ali unternimmt wenige Tage später einen Versuch der Rückeroberung. Ein Heer des Herzogs von Medina-Sidonia kommt den Truppen des Marquis von Cádiz zu Hilfe, so dass Abu l-Hasan Ali sich gezwungen sieht, die Rückeroberung aufzugeben. Als König Ferdinand V. an der Spitze eines Heeres in den Konflikt eingreift, verliert die Auseinandersetzung das Merkmal der bisher üblichen Razzien und wird zu einem Krieg Kastiliens gegen das Emirat von Granada.
Das erste große Aufeinandertreffen der Gegner ereignet sich im Juni vor Loja, als das spanische Heer, das die Vorbereitungen zur Belagerung der Stadt noch nicht abgeschlossen hat, von der maurischen leichten Kavallerie angegriffen und auf dem Rückzug von weiteren maurischen Truppen aufgerieben wird. König Ferdinand zieht sich mit den Resten seines Heeres nach Córdoba zurück.
Während sich Abu l-Hasan Ali noch im Kampf gegen die christlichen Angreifer befindet, lässt sich sein Sohn als Muhammad XII. zum Herrscher des Emirates ausrufen. Während Muhammad XII. in Granada regiert, beherrscht sein Vater Ronda und den westlichen Teil des Emirats.
Herzogtum Burgund
6. März: Herzogin Maria von Burgund erleidet einen Reitunfall, an dessen Folgen sie am 27. März stirbt. Nach ihrem Tod erhebt sich die Stadt Gent gegen ihren Ehemann Erzherzog Maximilian von Habsburg als Vormund der gemeinsamen Kinder Philipp und Margarete. Gleichzeitig muss er sich neuerlicher Ansprüche Frankreichs auf das Herzogtum Burgund erwehren.
23. Dezember: Im Frieden von Arras regeln Frankreichs König Ludwig XI. und Erzherzog Maximilian ihre Ansprüche in Bezug auf Burgund. Das ehedem große Herzogtum wird aufgeteilt. Das Herzogtum Burgund, die Freigrafschaft, das Artois und einige kleinere Herrschaften fallen an Frankreich, auch die Stadt Arras und die seit 1477 besetzte Picardie bleiben in französischem Besitz. Maximilian erhält Flandern zurück. Darüber hinaus vereinbaren beide Seiten das spätere Eingehen der Ehe zwischen der gerade zweijährigen Tochter Maximilians, Margarethe, und dem 13-jährigen französischen Dauphin Karl. Dieser Plan wird jedoch nicht realisiert.
Weitere Ereignisse im Reich
Diether von Isenburg, Erzbischof und Kurfürst von Mainz und damit gleichzeitig Erzkanzler des Heiligen Römischen Reichs, stirbt am 7. Mai. Schon am nächsten Tag wird Adalbert von Sachsen sein Nachfolger. Da er jedoch mit 15 Jahren noch nicht das formelle Alter für eine Bischofsweihe hat, wird er vorläufig nur als Administrator eingesetzt.
Durch den Münsinger Vertrag vom 14. Dezember werden die beiden Teile, in die die Grafschaft Württemberg seit dem Nürtinger Vertrag von 1442 zerfallen ist, wiedervereinigt. Die Erbstreitigkeiten zwischen dem Uracher und dem Stuttgarter Teil werden damit nach 40 Jahren beigelegt. Der in Urach residierende Graf Eberhard V. im Bart, übernimmt die Regierung des Landes und verlegt die Residenz nach Stuttgart, die Hauptstadt des anderen Landesteils. Die Erbfolge wird auf den amtierenden Grafen im Stuttgarter Landesteil Eberhard VI. festgelegt. Mit dem Vertrag, der unter Beteiligung von Vertretern der württembergischen Landstände ausgehandelt wird, werden die Unteilbarkeit des Landes und die Primogenitur in Württemberg rechtsverbindlich festgelegt. Der Münsinger Vertrag verhindert die Zersplitterung Württembergs und schafft so eine wichtige Voraussetzung für die Erhebung Württembergs zum Herzogtum im Jahr 1495.
Turin wird Residenz des Hauses Savoyen.
Italien
21. August: Päpstliche Truppen unter dem Befehl Roberto Malatestas gewinnen die Schlacht von Campomorto gegen die Armee Neapels unter Herzog Alfons von Kalabrien.
Asien
Nach dem Tod von Yakshya Malla wird sein Sohn Raya Malla Herrscher des Malla-Reiches mit der Hauptstadt Bhaktapur.
Amerika
Axayacatl, Herrscher über die aztekische Stadt Tenochtitlán, stirbt im Alter von 30 Jahren. Nachfolger wird sein älterer Bruder Tízoc. Der traditionell zur Thronbesteigung zum Zweck der Gefangennahme von Kriegern durchgeführte Kriegszug, ein Angriff auf den nordöstlichen Kleinstaat Mextitlán scheitert aber, was Tízocs Ansehen nachhaltig schädigt.
Wissenschaft und Kultur
28. Juni: In München erscheint das erste dort gedruckte Buch, der Pilgerführer Indulgentiae ecclesiarum principalium urbis Romae aus der Offizin des Johann Schaur.
16. Juli: In Ulm druckt Lienhart Holl den ersten deutschen Weltatlas, die Cosmographia des Claudius Ptolemäus in der Ausgabe des Nicolaus Germanus. (Vier Jahre später wird dieses für die Entwicklung der deutschen Kartographie ungemein wichtige Werk von Johann Reger in Ulm zum zweiten Mal gedruckt.)
1482/1487: Sandro Botticelli fertigt das Gemälde Primavera. Das Bild gehört zu den bekanntesten und am häufigsten reproduzierten Werken der abendländischen Kunst.
Religion
2. August: Johann XX. von Dalberg wird als Nachfolger des am 21. Juli gestorbenen Reinhard I. von Sickingen zum Bischof von Worms gewählt. Er ist bei seiner Wahl erst knapp 27 Jahre alt und hat das dafür nach dem Kirchenrecht erforderliche Alter von 30 Jahren noch nicht erreicht. Er erhält aber einen päpstlichen Dispens.
Geboren
Geburtsdatum gesichert
April: Georg Tannstetter, deutscher Humanist, Astronom, Astrologe und Mediziner († 1535)
29. Juni: Maria, Prinzessin von Spanien und Königin von Portugal († 1517)
7. Oktober: Ernst, Markgraf von Baden († 1553)
18. Oktober: Philipp III. von Hanau-Lichtenberg, Graf von Hanau-Lichtenberg († 1538)
9. Dezember: Friedrich II., Kurfürst von der Pfalz († 1556)
Genaues Geburtsdatum unbekannt
Catherine d’Amboise, französische Dichterin und Mäzenin († 1549)
Augustin, Bischof von Grasse († 1532)
Abraham ben Salomo von Torrutiel, spanischer Geschichtsschreiber († unbekannt)
Jo Gwang-jo, koreanischer Politiker und neokonfuzianischer Philosoph († 1519)
Agostino Mainardi, italienischer Reformator von Chiavenna († 1563)
Johannes Oekolampad, Basler Reformator († 1531)
Geboren um 1482
Christian Beyer, deutscher Rechtsgelehrter († 1535)
Gestorben
Todesdatum gesichert
4. Januar: Hans Böblinger, schwäbischer Baumeister
22. Januar: Arnold von Unkel, Weihbischof in Köln
25. März: Lucrezia Tornabuoni, florentinische Dichterin, Ehefrau des Bankiers und Politikers Piero di Cosimo de’ Medici (* 1425)
27. März: Maria, Herzogin von Burgund aus eigenem Recht, weiters Herzogin von Luxemburg, Brabant, Limburg und Geldern, Markgräfin von Antwerpen, Gräfin von Chariolais, Flandern, Artois, Holland, Seeland, Hennegau und Zutphen sowie Ehefrau Maximilians von Österreich (* 1457)
14. April: Conrad III. von Pappenheim, Jägermeister unter Herzog Wilhelm III. von Bayern-München, herzoglicher Rat und sächsischer Hofmeister (* vor 1419)
7. Mai: Diether von Isenburg, Erzbischof von Mainz (* 1412)
8. Mai: Ludwig von Rothenstein, schwäbischer Adliger
23. Mai: Mary of York, englische Prinzessin (* 1467)
7. Juli: Marinus de Fregeno, päpstlicher Legat, Ablasshändler und Bischof von Cammin
7. Juli: Johann Ludwig von Savoyen, Administrator des Erzbistums von Tarentaise und des Bistums von Genf (* 1447)
7. Juli: Walter Supersaxo, Fürstbischof des Bistums Sitten (* um 1402)
16. Juli: Jan van Schaffelaar, niederländischer Volksheld (* um 1445)
21. Juli: Reinhard I. von Sickingen, Bischof von Worms (* um 1417)
25. Juli: Wilhelm I., Herzog zu Braunschweig-Lüneburg und Fürst von Braunschweig-Wolfenbüttel (* 1392)
15. August: Wilhelm, Markgraf von Hachberg-Sausenberg, Landvogt im Sundgau, im Elsass und im Breisgau (* 1406)
22. August: Mechthild von der Pfalz, Gräfin von Württemberg und Erzherzogin von Österreich (* 1419)
25. August: Margarete von Anjou, Ehefrau Heinrichs VI. von England und Regentin (* 1429)
30. August: Ludwig von Bourbon, Fürstbischof von Lüttich (* 1438)
2. September: Pier Maria II. de’ Rossi, italienischer Condottiere (* 1413)
10. September: Federico da Montefeltro, italienischer Condottiere (* 1422)
18. September: Philippe I. de Croÿ, Graf von Chimay, burgundischer Politiker (* 1436)
22. September: Philibert I., Herzog von Savoyen (* 1465)
25. Oktober: Peter II. von Luxemburg, Graf von Saint-Pol, Brienne, Marle und Soissons (* um 1440)
18. November: Gedik Ahmed Pascha, Großwesir des Osmanischen Reiches
31. Dezember: Johannes Lecküchner, deutscher Geistlicher und Fechtlehrer
Genaues Todesdatum unbekannt
Axayacatl, Herrscher über die aztekische Stadt Tenochtitlán
Hugo van der Goes, niederländischer Maler (* um 1440)
Weblinks
|
Q6633
| 99.44847 |
81975
|
https://de.wikipedia.org/wiki/Kontinentalkongress
|
Kontinentalkongress
|
Der Kontinentalkongress () bestand aus den Delegierten der 13 Kolonien Nordamerikas, die sich gegen Beschränkungen der Freiheit der amerikanischen Bürger wehrten. Da der Kongress zwischen 1774 und 1789 tagte, ging seine Gründung unmittelbar dem Unabhängigkeitskrieg voraus. Es gab zwei Kontinentalkongresse.
Erster Kontinentalkongress
Der erste Kontinentalkongress tagte vom 5. September 1774 bis zum 26. Oktober 1774 in Philadelphia, Pennsylvania. Beschlossen wurden Maßnahmen gegen das Einquartierungsgesetz und es wurden Briefe direkt an George III. verfasst, die das britische Parlament umgehen sollten. Die wichtigsten Themen dieses Kongresses waren eine Solidaritätserklärung aller Kolonien und die Verhängung einer einjährigen Export- und Importsperre gegenüber Großbritannien. Wichtiger Berater war der spätere zweite Präsident der Vereinigten Staaten, John Adams; Vertreter Virginias war George Washington.
Zweiter Kontinentalkongress
Der zweite Kontinentalkongress bestand vom 10. Mai 1775 bis zum 2. März 1789. Er tagte an wechselnden Orten. Ab 1775 bereitete der Kongress die amerikanische Revolution gegen England vor. Man schuf eine Kontinentalarmee und eine eigene Währung, den Kontinental-Dollar.
Am 4. Juli 1776 wurde die von Thomas Jefferson verfasste Unabhängigkeitserklärung vorgelegt. Erster Unterzeichner war John Hancock, Präsident des Kontinentalkongresses.
Konföderationskongress
Nach der Ratifikation der Konföderationsartikel am 1. März 1781 lautete die Bezeichnung des Kongresses bis zum 2. März 1789 auch Konföderationskongress (Congress of the Confederation, formell auch United States in Congress Assembled). Der Nachfolger des Zweiten Kontinentalkongresses, der 1. Kongress der Vereinigten Staaten, tagte zwischen dem 4. März 1789 und dem 3. März 1791. Er trat bis zum 12. August 1790 in der Federal Hall in New York City und ab dem 6. Dezember 1790 in der Independence Hall in Philadelphia zusammen.
Liste der Sitzungen
Liste der Präsidenten
Weblinks
Text des Journals of the Continental Congress, 1774–1789 (englisch)
|
Q26718
| 93.750581 |
57662
|
https://de.wikipedia.org/wiki/Giraffen
|
Giraffen
|
Die Giraffen (Giraffa), bundesdeutsches und Schweizer Hochdeutsch: , österreichisches Hochdeutsch: [], sind eine Gattung der Säugetiere aus der Ordnung der Paarhufer. Ursprünglich wurde ihr mit Giraffa camelopardalis und der Trivialbezeichnung „Giraffe“ nur eine einzige Art zugewiesen. Molekulargenetische Untersuchungen aus dem Jahr 2016 und 2020 zeigen jedoch, dass die Gattung wenigstens drei Arten mit zehn eigenständigen Populationen umfasst, von denen allerdings eine ausgestorben ist. Die Giraffen stellen die höchsten landlebenden Tiere der Welt. Zur Unterscheidung vom verwandten Okapi (sogenannte „Waldgiraffe“) werden sie auch als Steppengiraffen bezeichnet.
Merkmale
Körperbau
Männchen (Bullen) werden bis zu 6 Meter hoch und wiegen durchschnittlich rund 1600 Kilogramm. Weibchen (Kühe) werden bis zu 4,5 Meter hoch und wiegen etwa 830 Kilogramm bei einer Schulterhöhe zwischen 2 und 3,5 Meter.
Hals
Der Hals der Giraffen ist außergewöhnlich lang. Wie bei fast allen Säugetieren besteht die Halswirbelsäule gleichwohl aus nur sieben Halswirbeln, die aber stark verlängert sind. Zusätzlich ähnelt der erste Brustwirbel einem Halswirbel, so dass der Hals funktional aus acht Wirbeln besteht. Dies hat auch zur Folge, dass einzelne Weichteilbildungen etwas weiter hinten ansetzen als bei den meisten Säugetieren, etwa der Plexus brachialis und Musculus longus colli. Der Hals wird von einer einzigen, sehr starken Sehne in einem Winkel von etwa 55° gehalten. Die Sehne verläuft vom Hinterkopf der Giraffe bis zum Steiß und ist für den „Höcker“ zwischen Hals und Körper verantwortlich. Der Ruhezustand hält Hals und Kopf in der aufrechten Position; um den Kopf nach unten zu bewegen, z. B. zum Trinken, muss die Giraffe Muskelarbeit aufbringen.
Die ersten Versuche, den langen Hals der Giraffe zu erklären, unternahm 1809 Jean-Baptiste Lamarck, der postulierte, dass die Verlängerung zustande kam, weil die Giraffen ständig ihren Hals recken, um auch das höchstgewachsene verfügbare Laub zu fressen. Charles Darwin postulierte, dass die Halsverlängerung durch die Vererbung dieses Merkmals erfolgte, und dass die Giraffen überleben und sich vermehren konnten, da sie sich von der höher wachsenden Vegetation ernähren konnten, wenn sie knapp und für andere Pflanzenfresser mit kurzem Hals nicht erreichbar war. Keiner der Autoren erklärte jedoch, warum nur Giraffen diese Möglichkeit nutzten. Darwins Ansicht ist auch heute noch die beliebteste. Da männliche Giraffen mit ihren muskulösen Hälsen um die Weibchen kämpfen, wird auch angenommen, dass die größte Giraffe mit dem längsten Hals am erfolgreichsten ist und ihre Eigenschaften am wahrscheinlichsten an die nächste Generation weitergibt. Giraffenkühe kämpfen zwar auch, wenn auch nur selten, und wenn sie es tun, dann nur mit Bullen. Die Argumente für die Selektion langer Hälse durch ein derartiges Kampfverhalten werden häufig als schwach eingestuft, da es keine großen Unterschiede zwischen männlichen und weiblichen Giraffenhälsen im Verhältnis zur Körpergröße gibt. Als unterstützend für diese Annahme lassen sich aber einzelne Fossilformen im weiteren Verwandtschaftsumfeld der Giraffen wie etwa Discokeryx heranziehen. Diese bildeten massive Halswirbel heraus und wiesen Schädel mit verdickter Stirnplatte auf, was als Anpassung an Rivalenkämpfe gedeutet wird und wodurch einzelne Entwicklungen bei den Giraffen vorweggenommen sind. Das einzigartige Fellmuster der Giraffe hilft darüber hinaus bei der Thermoregulation, aber auch die aus dem langen Hals resultierende Körperflächenvergrößerung kann nicht allein als Selektion für die Halsstreckung gelten, da in Bezug auf die Thermoregulation die meisten großen Huftiere evolutionär eher an Körpervolumen insgesamt als an Höhe zugenommen haben, um dies zu erreichen. Plausibel scheint noch, dass die langen Hälse den Giraffen ein erweitertes Blickfeld eröffnen, was ihnen ein besseres Erkunden ihrer Umgebung nach Nahrungsquellen, Verteilung und Nähe von Artgenossen sowie potenziellen Prädatoren in der offenen Savanne ermöglicht.
Haarkleid
Das Muster des Haarkleids besteht aus dunklen Flecken, die sich von der helleren Grundfarbe abheben. Je nach Art variieren Form und Farbe der Flecken. Die Unterseite der Tiere ist hell und ungefleckt. Die Flecken dienen der Tarnung und der Regulierung der Körpertemperatur. Im Unterhautgewebe verläuft um jeden Fleck eine ringförmige Arterie, die Äste in den Fleck hinein aussendet. Über eine stärkere Durchblutung kann die Giraffe so mehr Körperwärme abgeben. Im Bereich der Flecken ist die Haut zudem durchschnittlich dicker und enthält im Vergleich zu anderen Körperpartien größere Schweißdrüsen. Messungen ergaben, dass die Oberflächentemperatur der Flecken niedriger liegt als in den umgebenden Arealen. Insgesamt kommt den Flecken somit eine thermoregulierende Funktion zu. Daneben haben sie aber auch eine signalisierende Wirkung. Vor allem bei männlichen Giraffen werden die Flecken mit zunehmendem Alter dunkler. Dies geschieht jedoch nicht bei allen Individuen im gleichen Maß oder in der gleichen Intensität, so dass hellere und dunklere Tiere in derselben Altersklasse auftreten. Nach Untersuchungen an Tieren aus dem Etosha-Nationalpark sind dunklere Altbullen häufig einzelgängerisch und zeichnen sich durch ein dominantes Auftreten gegenüber Geschlechtsgenossen bei der Fortpflanzung aus. Gleichalte hellere Individuen führen dagegen häufig ein Leben im Verband und sind weniger dominant, was zu geringeren Erfolgen in der Verpaarung mit Kühen führt. Demnach gibt die Fellfarbe den sozialen Status eines Individuums wieder. Extrem selten werden Giraffen ohne Fleckenmuster geboren; die Fellfarbe entspricht dann weitgehend der der dunklen Flecken bei normalfarbigen Giraffen, auch an den Beinen. Dies war 1972 in Japan und 2023 in den USA der Fall.
Der Geruch des Haarkleids ist für den Menschen unangenehm. Giraffenbullen riechen stärker als -kühe. An Fäkalien erinnern speziell die Stoffe Indol und Skatol, darüber hinaus finden sich Octan, Benzaldehyd, Heptanal, Octanal, Nonanal, p-Kresol, Tetradecan- und Hexadecansäure im Fell. Die meisten dieser Verbindungen hemmen das Wachstum von Bakterien oder Pilzen, wie sie auf der Haut von Säugetieren vorkommen. Der Gehalt von p-Kresol im Giraffenhaar ist ausreichend, um Zecken abzuschrecken.
Kopf
Der Schädel der Giraffenbullen ist viel robuster und schwerer als der weibliche Schädel; er wiegt mit ca. 9,9 kg fast drei Mal mehr als jener der Kühe (ca. 3,5 kg), vermutlich weil die Männchen ihren Kopf beim Kämpfen als Waffe einsetzen. Bei älteren Bullen kann sich daher eine raue und schuppen- oder warzenartige Exostose, eine Art knöcherne Abdeckung der Schädeldecke, als Folge der jahrelangen Kämpfe und zum Schutz des Kopfes bilden.
Ossicon
Die Knochenauswüchse auf den Köpfen der Giraffen werden Ossicone genannt.
Zwei der zapfenartigen Hörner sitzen bei beiden Geschlechtern dem Kopf auf. Nur den Rothschild-Giraffen wächst dahinter ein weiteres Hornpaar und zudem ein knochiger Höcker zwischen den Augen, der ähnlich wie die Hörner strukturiert ist.
Einige Autoren vermuten, dass die Hörner der Giraffe aus Gründen der Thermoregulation mit vaskularisierter Haut bedeckt sind, die dem Sommer-Geweih der Hirsche entsprechen; Wärme kann vom Körper an die Luft abgegeben werden, wodurch das Tier sich abkühlt.
Maul
Zunge und Lippen der Giraffe sind zum Greifen fähig. Die Zunge kann 45 Zentimeter lang werden und ist im vorderen Bereich zum Schutz vor Sonnenbrand stark pigmentiert. Giraffen haben die kräftigste Zunge aller Säugetiere.
Mit ihrer langen, flexiblen Zunge kann eine Giraffe die Blätter eines Astes pflücken, den sie bereits im Maul hält (wo die oberen Schneidezähne fehlen), oder mit der Zunge einen Ast in ihre geöffneten greifenden Lippen heranziehen oder Blätter zwischen Dornen abzupfen. Sobald die Nahrung im Maul ist, wird sie durch Papillen (einige bis zu 1,6 cm lang) und schwielige Fortsätze, welche die Mundhöhle auskleiden, zwischen die Backenzähne geleitet.
Herz-Kreislauf-System
Wegen der Länge des aufrechten Halses führt die Schwerkraft in den Blutgefäßen auf Herzhöhe zu einem ungewöhnlich hohen Druck, dem entgegengewirkt werden muss. Das Herz der Giraffen muss daher besonders leistungsstark sein, um den erforderlichen Blutdruck zu erzeugen. Es wiegt im Durchschnitt ähnlich wie bei anderen Säugern etwa 0,51 % des Körpergewichts.
Der Blutdruck, gemessen an herznahen Arterien, beträgt 280 zu 180 mm Hg (Vergleich Mensch: 120 zu 80) und ist damit der höchste aller Säuger. Dadurch ist er ausreichend, um auch im zwei Meter höher liegenden Kopf noch einen arteriellen Mitteldruck von 75 mm Hg zu erreichen (Mensch: 60 mm Hg). Durch die Schwerkraft und den dadurch ausgelösten Druck der Wassersäule in den Beingefäßen kommt es in den Arterien der Füße zu einem Druck von 400 mm Hg (Mensch: 200 mm Hg). Um dem Austritt von Flüssigkeit in den Beinen und einer Entstehung von Ödemen vorzubeugen, sind die Beinarterien besonders dickwandig. Auch sitzt die Haut an den Beinen besonders eng, so dass sie wie ein Kompressionsstrumpf wirkt. Um den hohen Druck aufzubauen, liegt die Herzfrequenz in Ruhe bei 60 bis 90 Schlägen pro Minute (Mensch: 70), im Galopp wurden 175 Schläge pro Minute gemessen. Dies ist ungewöhnlich hoch, da die Herzfrequenz bei Säugetieren in der Regel mit zunehmendem Körpergewicht abnimmt und somit bei vergleichbar schweren Tieren deutlich niedriger liegt.
Große Druckunterschiede entstehen im Kopf, wenn die Giraffe sich herunterbeugt, beispielsweise um zu trinken: Der arterielle Druck gleicht sich dann dem in den Füßen an. Ansammlungen von Flüssigkeiten um das Gehirn könnten lebensgefährlich sein. Um solche Ansammlungen zu vermeiden, hat die Giraffe ein Netzwerk gehirnnaher elastischer Blutgefäße, die bei Druckanstieg Blut aufnehmen können und so zur Entlastung führen. Ein Stau in den Venen wird so vermieden. Außerdem haben die großen Halsvenen, die Jugularvenen, Klappen, die bei anderen Säugern nicht vorkommen, um einen Rückfluss bei gesenktem Kopf zu verhindern. Entgegen mancher populärwissenschaftlicher Darstellung konnten jedoch keine Klappen in den Halsarterien nachgewiesen werden.
Verbreitung
Giraffen sind in afrikanischen Savannen verbreitet. Heute leben sie nur noch südlich der Sahara, vor allem in den Grassteppen Ost- und Südafrikas. Die Bestände nördlich der Sahara wurden frühzeitig durch den Menschen ausgerottet: während des frühen Altertums im Niltal und etwa im 7. Jahrhundert in den Küstenebenen Marokkos und Algeriens. Im 20. Jahrhundert verschwanden Giraffen aus vielen weiteren Bereichen ihres Verbreitungsgebiets.
Lebensweise
Territorial- und Sozialverhalten
Giraffen leben einzelgängerisch oder in losen Verbänden. Dabei hängt das Sozialverhalten vom Geschlecht ab: Weibchen tun sich stets zu Herden von 4 bis 32 Tieren zusammen, die jedoch immer wieder in der Zusammensetzung wechseln. Junge oder weniger dominante Männchen formen eigene Verbände, sogenannte Junggesellengruppen, dominante Altbullen sind meist Einzelgänger. Die Gruppengröße ist abhängig vom Lebensraum und wird nicht durch die Anwesenheit größerer Beutegreifer beeinflusst. Auffälligerweise finden sich Kühe mit Nachwuchs häufiger in kleineren Gruppen zusammen. Vor allem die weiblichen Tiere profitieren von einem Zusammenleben in Verbänden, was eine fünfjährige Studie im Tarangire-Nationalpark im nördlichen Tansania aufzeigte. Hierbei ist die Dauer und die Häufigkeit des Gruppenwechsels von geringerer Bedeutung. Als optimale Größe erwiesen sich vier ausgewachsene Individuen. Gruppenbildende Tiere können so durch Kommunikation bessere Nahrungsquellen erschließen, den Nachwuchs effektiver gegen Fressfeinde verteidigen oder sich gegenseitig vor aufdringlichen paarungswilligen männlichen Artgenossen schützen. Der Zusammenschluss in einer Gruppe vermindert so allgemein Stress, da sich einzelne Tiere mit teils vertrauten Individuen umgeben. Gegenüber einzelgängerischen Artverwandten zeigten im Verband lebende Individuen dadurch auch eine höhere Lebenserwartung.
In der Namib im südwestlichen Afrika bilden gemischte Gruppen zumeist größere Verbände als eingeschlechtige Gruppen, wodurch die Geschlechterzusammensetzung einen wichtigen Einfluss darstellt. Demgegenüber nehmen Herden mit Jungtieren nicht an Größe zu, was den Schluss zulässt, dass bei den Giraffen der Schutz des Nachwuchses vor Bejagung nicht über die Gruppengröße gesteuert wird. Einen weiteren wichtigen Faktor bei der Herdenbildung stellt die räumliche Verfügbarkeit von Nahrung dar. Dieser greift aber nicht über die Jahreszeiten hinweg, wodurch Herden als relativ stabil angesehen werden können. Fluktuationen in der Herdengröße sind demnach vom Nahrungsangebot abhängig und können über Tage deutlich schwanken. So kommt es häufig in den Morgen- und Abendstunden zu größeren Zusammenschlüssen, die der gemeinsamen Nahrungsaufnahme dienen.
Treffen zwei Bullen aufeinander, kommt es meistens zu einem ritualisierten Kampf, bei dem die Tiere nebeneinander stehen und ihren Kopf gegen den Hals des Konkurrenten schlagen. Zur Paarungszeit können solche Kämpfe aggressiver ausfallen und eine Heftigkeit annehmen, bei der einer der Konkurrenten bewusstlos geschlagen wird.
Giraffen erreichen eine Spitzengeschwindigkeit von 55 km/h. Die langen Beine können die Giraffe aber nur auf festem Untergrund tragen. Sumpfige Gegenden werden von den Tieren daher gemieden. Nach Untersuchungen von Anne Innis Dagg lassen sich zwei Laufweisen unterscheiden: einerseits der Passgang, bei dem die beiden Beine einer Körperseite gleichzeitig bewegt werden und das Körpergewicht auf dem anderen Beinpaar mit Bodenkontakt ruht, andererseits eine Art Galopp. Der Passgang ist eine Anpassung an die langen Beine, die sich bei einem Kreuzgang möglicherweise überschneiden und so in Konflikt geraten würden. Bei der Vorwärtsbewegung schwingt der lange Hals in Körperlängsachse mit jedem Schritt nach vorn. Durch die Vorverlagerung des Kopfes werden die Hinterbeine aufgrund der dadurch entstehenden Änderung des Körperschwerpunktes von Gewicht entlastet. Das Ende eines Schrittes mit dem folgenden Bodenkontakt des entsprechenden Fußes ist mit einem Rückwärtsschwingen des Halses verbunden. Hierdurch wird die Bewegung abgebremst und das Tier kann Balance halten.
Giraffen verständigen sich im für Menschen nicht hörbaren Infraschallbereich mit Frequenzen unter 20 Hertz.
Giraffen schlafen mehrmals innerhalb eines 24-Stunden-Tages, dabei liegen sie mit angezogenen Beinen auf dem Bauch, mit dem Kopf nach hinten auf dem Körper. Der Schlaf dauert in der Regel nur kurze Zeit, in mehr als der Hälfte aller Beobachtungen weniger als 11 Minuten, im Maximum bis zu 100 Minuten. Die REM-Phase währt im Mittel 3 Minuten. Es wird angenommen, dass die Tiere in der liegenden Stellung Raubtieren schutzlos ausgeliefert sind, da sie nur langsam aufstehen können und sich durch Treten mit den Beinen verteidigen. Den größten Teil der Nacht verbringen sie mit Wiederkäuen. Tagsüber dösen Giraffen hin und wieder kurz im Stehen, was insgesamt weniger als 50 Minuten eines 24-Stunden-Tages ausmacht. Dadurch kommt ein Individuum auf etwa 4,6 Stunden Schlaf je Tageszyklus. Jungtiere schlafen durchschnittlich länger.
Ernährung
Giraffen beweiden bevorzugt Akazien. Dabei greifen die Tiere einen Zweig mit ihrer bis zu 50 cm langen Zunge, ziehen ihn ins Maul und streifen durch Zurückziehen des Kopfes die Blätter ab. Zunge und behaarte Lippen sind so beschaffen, dass sie trotz der dornigen Äste keinen Schaden nehmen. Ihr Verdauungssystem ist eher auf Blätter als auf Gras ausgerichtet, was ihre Probleme in den Zoos erklärt, wo sie oft Heu und Futterkonzentrate zu fressen bekommen.
Durch die hohe Bisskraft und die massiven Mahlzähne können die Äste, Blätter und Zweige zügig kleingemahlen werden und rutschen innerhalb kürzester Zeit den bis zu 2,5 Meter langen Hals herab. Jeden Tag nimmt eine Giraffe etwa 30 kg Nahrung auf; hierfür benötigt sie sechzehn bis zwanzig Stunden. Der Flüssigkeitsbedarf wird größtenteils aus der Nahrung gedeckt, so dass Giraffen wochenlang ohne zu trinken auskommen können. Wenn sie doch trinken, müssen sie die Vorderbeine weit spreizen, um den Kopf weit genug zur Wasserquelle herabsenken zu können; ebenso verfahren sie, wenn sie Nahrung vom Boden aufnehmen, was sie allerdings nur unter sehr ungünstigen Umständen tun.
Entgegen weit verbreiteter Meinung fressen Giraffen, vor allem in der Trockenzeit, von niedrigen Büschen bzw. auf halber Körperhöhe. Aus diesem Grund wird mittlerweile angezweifelt, dass die Giraffen ihren langen Hals nur aufgrund von Nahrungsauswahl haben. Ein Argument, das gegen die Nahrungsaufnahme-Theorie spricht, ist, dass Giraffen im Laufe der Evolution stärker ihren Hals verlängert haben als ihre Beine. Längere Beine wären jedoch energetisch günstiger, wenn es nur um Höhengewinn ginge. Eine Theorie von 1996 für den langen Hals sieht daher den Kampf der Giraffen-Männchen um Dominanz und Weibchen als einen Hauptgrund.
Fortpflanzung
Die Tragzeit dauert 14 bis 15 Monate. In der Regel wird nur ein einziges Kalb geboren. Die Geburt erfolgt im Stehen, so dass die Neugeborenen aus zwei Metern Höhe zu Boden fallen. Neugeborene Giraffen sind etwa 50 Kilogramm schwer und 1,8 Meter hoch, erreichen so gerade das Euter der Mutter. Während ihre Beine zu diesem Zeitpunkt schon weit entwickelt sind, wächst ihr Hals postnatal noch auf die fast dreifache Länge an. Sie stehen innerhalb einer Stunde fest auf ihren Beinen und fangen nach wenigen Stunden an zu laufen. Allerdings werden die Kälber erst nach zwei bis drei Wochen mit der Herde vereint.
Ein Kalb bleibt etwa eineinhalb Jahre bei seiner Mutter. Mit vier Jahren wird es geschlechtsreif, mit sechs Jahren erreicht es die volle Größe. In Gefangenschaft können Giraffen bis zu 35 Jahre alt werden. Das Maximalalter in freier Wildbahn wird für männliche Tiere auf 22, für weibliche auf 28 Jahre geschätzt, es liegen aber bisher zu wenige Untersuchungen vor.
Gegen Raubtiere verteidigen sich ausgewachsene Giraffen mit Tritten ihrer Vorderhufe. Aufgrund ihrer Größe und Wehrhaftigkeit werden sie allerdings nur selten angegriffen. Jungtiere fallen dagegen häufig Löwen, Leoparden, Hyänen und Wildhunden zum Opfer. Trotz des Schutzes durch die Mutter erreichen nur 25 bis 50 Prozent der Jungtiere das Erwachsenenalter.
Systematik
Die Giraffen bilden eine Gattung innerhalb der Familie der Giraffenartigen (Giraffidae) und der Ordnung der Paarhufer (Artiodactyla). Zur Familie wird außerdem nur noch das Okapi (Okapia) gezählt. Heute ist die Familie auf den afrikanischen Kontinent beschränkt, sie war aber in ihrer stammesgeschichtlichen Vergangenheit auch über weite Teile Eurasiens verbreitet. Aufgrund ihrer hornartigen Schädelausbildungen werden die Giraffenartigen zur Gruppe der Stirnwaffenträger (Pecora) gezählt. Innerhalb dieser bilden sie das Schwestertaxon einer Gruppe bestehend aus den Hirschen (Cervidae), Moschustieren (Moschidae) und Hornträgern (Bovidae). Die Abtrennung von dieser Gruppe vollzog sich im Übergang vom Oligozän zum Miozän vor etwa 25 Millionen Jahren.
Lange Zeit galt die Gattung als monotypisch und enthielt mit der Art Giraffa camelopardalis nur einen Vertreter. Diesem wurden zahlreiche Unterarten zugewiesen, deren Unterscheidung neben dem Verbreitungsgebiet häufig anhand der Ausbildung der Hörner oder der Fellzeichnung erfolgte. So hat die Nubische Giraffe (G. c. camelopardalis) beispielsweise mittelbraune, große Flecken, die unregelmäßig viereckig geformt sind und von relativ schmalen weißen Bändern getrennt werden. Die Flecken der Massaigiraffe (G. c. tippelskirchi) sind kleiner und dunkler und annähernd sternförmig. Einmalig sind die Flecken der Netzgiraffe (G. c. reticulata), die dunkle Vielecke darstellen, zwischen denen sehr schmale weiße Bänder verlaufen, so dass der Eindruck eines Netzes entsteht. Über die genaue Zahl der Unterarten herrschte aber keine Einigkeit. Richard Lydekker führte im Jahr 1904 innerhalb von Giraffa camelopardalis insgesamt zehn Unterarten auf, die er in zwei große Formengruppen gliederte: einerseits solche mit ausgebildeten vorderen Hörnern und ungefleckten Unterschenkeln, andererseits solche mit fehlenden Vorderhörnern und gefleckten Unterschenkeln. Allerdings hielt Lydekker die Netzgiraffe (Giraffa reticulata) für eigenständig, nicht aber ohne anzumerken, dass sie möglicherweise doch nur eine Unterart darstelle. Modernere Systematiken unterschieden in der Regel zwischen sechs und neun Unterarten.
Molekulargenetische Untersuchungen einer zehnköpfigen Forschergruppe um David M. Brown aus dem Jahr 2007 an sechs bekannten Unterarten (G. c. angolensis, G. c. giraffa, G. c. peralta, G. c. reticulata, G. c. rothschildi und G. c. tippelskirchi) bestätigten deren genetische Unterscheidbarkeit. Darüber hinaus zeigten die Ergebnisse auf, dass jede dieser Unterarten eine monophyletische Gruppe formte, von denen keine mit einer benachbarten Gruppe in einem (messbaren) Genaustausch stand. Die Forschergruppe schlussfolgerte daraus, dass die jeweiligen Unterarten auf einen eigenen Artstatus angehoben werden könnten. Eine nahezu zeitgleich veröffentlichte Studie von Alexandre Hassanin und Kollegen kam zu einem ähnlichen Ergebnis. Sie umfasste neben den bereits untersuchten Unterarten zusätzlich noch die Kordofan-Giraffe (G. c. antiquorum). Hassanin und Forscherkollegen teilten die Unterarten in eine nördliche (G. c. antiquorum, G. c. peralta, G. c. reticulata, G. c. rothschildi) und eine südliche Gruppe (G. c. angolensis, G. c. giraffa, G. c. tippelskirchi) auf, die jeweils einen eigenständigen Charakter aufwiesen. Darüber hinaus bestanden laut dem veröffentlichten Bericht in der nördlichen Gruppe engere Beziehungen zwischen den west- und ostafrikanischen Giraffen als zu den zentralafrikanischen. Unter Berufung auf die Ergebnisse der Wissenschaftlergruppen um Brown und Hassanin und unter Verwendung eigener morphologischer Analysen erhoben Colin Peter Groves und Peter Grubb in einer Revision der Huftiere acht Unterarten in den Artstatus, darunter die sieben bis dahin genetisch untersuchten Formen (wobei sie die Uganda- oder Rothschild-Giraffe als identisch zur Nubischen Giraffe einstuften) und zusätzlich noch die Thornicroft-Giraffe. Weitere Studien zeigten später auf, dass die Thornicroft-Giraffe zwar genetisch unterscheidbar, aber innerhalb der Variationsbreite der Massai-Giraffe eingebettet ist. Sie wurde daher vorläufig als mit dieser identisch angesehen.
Eine im Jahr 2016 vorgelegte DNA-Studie eines Forscherteams um Julian Fennessy und Axel Janke basierend auf 190 Individuen von insgesamt neun anerkannten Unterarten, darunter auch erstmals solche der Nubischen Giraffe (G. c. camelopardalis) stellte die bis zu diesem Zeitpunkt umfangreichste genetische Analyse dar. In dieser wurden vier monophyletische Gruppen herausgearbeitet, die den Forschern zufolge als eigenständige Arten anerkannt werden sollten. Diese vier monophyletischen Gruppen verteilten sich auf sieben unterscheidbare Populationen. Ähnlich wie zuvor die Thornicroft-Giraffe erwies sich während dieser Studie die Uganda-Giraffe als regionaler Vertreter der in diesem Fall Nubischen Giraffe. Eine weitere umfangreiche genetische Studie aus dem Jahr 2020 von einem Arbeitskreis um Alice Petzold erkannte dagegen die Uganda-Giraffe und die Thornicroft-Giraffe wieder als eigenständig an und bestätigte ihren jeweiligen Status als Unterart. Begründet wurde dies mit der jeweils eigenständigen Gruppierung der untersuchten Exemplare und dem Auftreten abweichender Haplotypen. Zusätzlich wurde die Netzgiraffe als eine der zuvor anerkannten eigenständigen Arten nun als Unterart aufgefasst, da sie sich eng an die nördlichen Giraffenformen gebunden zeigte und offensichtlich in der Vergangenheit verschiedenen Introgressionen ausgesetzt war. Innerhalb der Giraffen des südlichen Afrikas hoben die Autoren die Transvaal-Giraffe (G. c. wardi) wieder auf die Ebene einer gültigen Unterart. Die Angola- (G. c. angolensis) und die Kap-Giraffe (G. c. giraffa) hingegen wurden vereint, da sie sich nicht auffällig voneinander abhoben. Für das westliche Afrika wiesen die Wissenschaftler eine zuvor unerkannte Unterart aus, die sich durch eigenständige Haplotypen auszeichnete und die sie mit G. c. senegalensis benannten. Sie ist mit den nördlichen Giraffen näher verwandt, war allerdings bereits Anfang der 1970er Jahre ausgerottet worden. Demzufolge ist die Gattung der Giraffen nach dieser Ansicht in drei Arten mit insgesamt zehn Unterarten aufzugliedern:
Nord-Giraffe (Giraffa camelopardalis (Linnaeus, 1758))
Kordofan-Giraffe (Giraffa camelopardalis antiquorum Jardine, 1835)
Nubische Giraffe (Giraffa camelopardalis camelopardalis (Linnaeus, 1758))
Westafrikanische Giraffe (Giraffa camelopardalis peralta Thomas, 1898)
Netzgiraffe (Giraffa camelopardalis reticulata de Winton, 1899)
Uganda-Giraffe (Giraffa camelopardalis rothschildi Lydekker, 1903)
Giraffa camelopardalis senegalensis Petzold, Magnant & Hassanin, 2020
Süd-Giraffe (Giraffa giraffa von Schreber, 1784)
Kap-Giraffe (Giraffa giraffa giraffa von Schreber, 1784)
Transvaal-Giraffe (Giraffa giraffa wardi Lydekker, 1904)
Massai-Giraffe (Giraffa tippelskirchi Matschie, 1898)
Thornicroft-Giraffe (Giraffa tippelskirchi thornicrofti Lydekker, 1911)
Massai-Giraffe (Giraffa tippelskirchi tippelskirchi Matschie, 1898)
Dem gegenüber favorisiert eine im Frühjahr 2021 von Raphael T. F. Coimbra und Kollegen vorgestellte Genanalyse an 50 Individuen aus der Gesamtpopulation ein Vier-Arten-Modell, wie es bereits durch Fenessy und Forscherkollegen im Jahr 2016 aufgezeigt worden war. Im Unterschied zu dieser Arbeitsgruppe und übereinstimmend mit der Studie von Petzolds Team bildet die Thornicroft-Giraffe eine eindeutige Unterart der Massai-Giraffe. Die Uganda-Giraffe wiederum ist abweichend von der Studie aus dem Jahr 2020 mit der Nubischen Giraffe identisch, während für die Süd-Giraffe die von Fenessy und Kollegen bereits 2016 postulierten Unterarten bestehen bleiben. Die von Petzold und Arbeitsgruppe angenommene Unterart Giraffa camelopardalis senegalensis war hierbei nicht mit einbezogen. Demnach wären die Giraffen diesen Ergebnissen zufolge in vier Arten und sieben Unterarten aufzuteilen:
Nord-Giraffe (Giraffa camelopardalis (Linnaeus, 1758))
Kordofan-Giraffe (Giraffa camelopardalis antiquorum Jardine, 1835)
Nubische Giraffe (Giraffa camelopardalis camelopardalis (Linnaeus, 1758))
Westafrikanische Giraffe (Giraffa camelopardalis peralta Thomas, 1898)
Netzgiraffe (Giraffa reticulata de Winton, 1899)
Süd-Giraffe (Giraffa giraffa von Schreber, 1784)
Kap-Giraffe (Giraffa giraffa giraffa von Schreber, 1784)
Angola-Giraffe (Giraffa giraffa angolensis Lydekker, 1903)
Massai-Giraffe (Giraffa tippelskirchi Matschie, 1898)
Thornicroft-Giraffe (Giraffa tippelskirchi thornicrofti Lydekker, 1911)
Massai-Giraffe (Giraffa tippelskirchi tippelskirchi Matschie, 1898)
Neben diesen gab es eine oder mehrere Unterarten in Nordafrika, die schon in der Antike ausgerottet wurden. Da auf ägyptischen Darstellungen oft einfarbige Giraffen zu sehen sind, hat man manchmal spekuliert, ob die dortige Unterart ungefleckt gewesen ist. Es gibt jedoch auch Darstellungen gefleckter Giraffen.
Die seit dem Jahr 2011 durch die verschiedenen anatomisch-morphologischen und genetischen Untersuchungen aufgestellten variierenden Gliederungssysteme der Giraffen sind in folgender Tabelle im Überblick dargestellt:
Auch innerhalb einer Unterart tritt gelegentlich ein Fleckenmuster auf, das für die Region vollkommen untypisch ist, so dass man die Herkunft nicht immer sicher anhand der Zeichnung bestimmen kann.
Mensch und Giraffe
Schon zur Bubalus-Zeit zwischen 10.000 und 6.000 v. Chr. wurde die Giraffe zusammen mit anderem Großwild auf Felsbildern in der heutigen Sahara mit erstaunlicher Detailtreue dargestellt.
Im Alten Ägypten galten Giraffen als Orakelwesen mit schamanischen Zügen. Dem ägyptischen Volksglauben nach warnten Giraffen Mensch und Tier vor gefährlichen Raubtieren und Unwettern. Dieser Glaube geht auf die Fähigkeit der Giraffe zurück, wegen ihrer Größe und der scharfen Augen Artgenossen und Fressfeinde frühzeitig zu erkennen. Das ägyptische Wort, das für Giraffendarstellungen Verwendung fand, lautet ser(u) und bedeutet „erspähen“, „in die Ferne blicken“, aber auch (symbolisch) „vorhersagen“. Giraffen waren bereits in der Prädynastischen Epoche (4000–3032 v. Chr.) in Ägypten selten, weshalb sie bevorzugt lebend gefangen und an den Hof des Pharao gebracht wurden. Auch in späteren Dynastien sind Darstellungen von Giraffen eher spärlich belegt, was die Seltenheit der Tiere unterstreicht. Lebende Giraffen mussten offenbar aus Ländern wie Nubien und Somalia importiert werden.
Bekannte Darstellungen von Giraffen finden sich auf prädynastischen Prunkpaletten sowie im Grab des hohen Beamten Rechmire der 18. Dynastie. Auf den Prunkpaletten sind flüchtende Tiere während einer Jagd oder als Wappentiere zu sehen. Im Grab des Rechmire werden gefesselte Tiere aus Punt vorgeführt. Neben anderen Tierarten wird die Giraffe in der Ägyptologie als mögliches Gestaltungsvorbild für die Gottheit Seth angesehen. Als Hieroglyphe fand die Giraffe Eingang in die Gardiner-Liste unter dem Code E27.
Das deutsche Wort Giraffe wurde (über die Vermittlung des Italienischen) aus dem Arabischen ( zarāfa) entlehnt. Frühere Erklärungen übersetzten das arabische Wort mit „die schnell Gehende“ oder sahen den Ursprung im arabischen Wort xirapha, welches für eine „anmutige Erscheinung“ steht. Im Arabischen ist das Wort Giraffe jedoch selbst ein Fremdwort, welches letztlich wohl auf eine zentralafrikanische Sprache zurückgeht. Die erste Giraffe in Europa ließ Julius Caesar 46 v. Chr. nach Rom bringen. Die Römer nannten die Giraffe camelopardalis, weil sie sich durch sie an eine Mischung aus Kamel und Leopard erinnert fühlten. Daher rührt auch der wissenschaftliche Name Giraffa camelopardalis. Zeitweise wurde sie auch im Deutschen Kamelopard oder Kamelparder genannt. Der arabische Weltreisende und Geograph Al-Masudi weiß im 10. Jahrhundert über sie folgendes zu berichten:
Die nordafrikanischen Populationen wurden früh von Römern und Griechen bejagt. Gelegentlich wurden Giraffen von den Römern für Tierschauen im Kolosseum eingesetzt. Im Jahr 1486 erreichte eine Giraffe als Geschenk an die Medici Florenz, das Tier starb aber kurze Zeit nach seiner Ankunft. Insgesamt war die Giraffe jedoch in Europa bis weit in die Neuzeit wenig bekannt.
Auf Bitte des französischen Naturgeschichtemuseums in Paris wurde Zarafa, die erste lebende Giraffe in Europa in neuerer Zeit, im Oktober 1826 als Geschenk des ägyptischen Vizekönigs an den König Frankreichs nach Marseille gebracht. Von dort wurde die Giraffe nach Paris transportiert, wo sie im Juni 1827 ankam. Sie stieß auf allergrößtes Interesse, und das Museum hatte in den ersten sechs Monaten 600.000 Besucher. Balzac beschrieb später in der Zeitung La Silhouette das Nachlassen des Interesses. Die Giraffe wurde 21 Jahre alt.
Giraffen waren wahrscheinlich ein häufiges Ziel für Jäger in ganz Afrika. Die langen Sehnen wurden für Bogensehnen und Musikinstrumente verwendet, die Felle galten bei vielen Völkern als Statussymbole. Das Fleisch ist zäh, aber genießbar. Die Jagdmethoden der Afrikaner konnten die Bestände aber nicht gefährden. Mit der Ankunft weißer Siedler wurden Giraffen aus reinem Vergnügen gejagt. Großwildjäger rühmten sich mit der Zahl erlegter Giraffen, und in vielen Gegenden wurden die Tiere rapide seltener. Heute sind Giraffen fast überall selten. Nur in den Staaten Ostafrikas gibt es reichhaltige Bestände. Allein im Serengeti-Nationalpark leben etwa 13.000 Giraffen. In Südafrika wurden sie in zahlreichen Bereichen ihres ursprünglichen Verbreitungsgebietes wieder eingeführt. Die Weltnaturschutzunion IUCN führt die Giraffen in ihrem Gesamtbestand seit Dezember 2016 in der Roten Liste als „gefährdet“, sie unterscheidet derzeit (Stand Dezember 2017) nicht in verschiedene Arten. Zuvor war der Bestand „nicht gefährdet“. Die Gesamtzahl der Individuen war von etwa 163.000 im Jahr 1985 auf unter 100.000 im Jahr 2015 zurückgegangen. Zum Schutz der Tiere wurde von der GFC der 21. Juni zum „Weltgiraffentag“ deklariert. Eine ungewöhnliche Ansiedlung von Giraffen fand 1976 im Calauit Game Preserve and Wildlife Sanctuary auf den Philippinen statt.
Population
Folgende Tabelle zeigt die Bestandsentwicklung der Giraffen nach Angaben der IUCN. Etwas abweichend davon gibt die Giraffe Conservation Foundation ebenfalls Bestandszahlen an.
Literatur
Robin Pellew: Giraffen: Die sanften Riesen. In: Geo-Magazin. Hamburg 1978,8, S. 26–40. (Wissenschaftlicher Erlebnisbericht mit 13 Fotos)
Einzelnachweise
Weblinks
Uganda-Giraffe
Renate Kiesewetter: Die Giraffe - Bedrohte Savannenkönigin mit Überblick Bayern 2 Radiowissen. Ausstrahlung am 14. Januar 2022. (Podcast)
Paarhufer
Wikipedia:Artikel mit Video
|
Q862089
| 100.806709 |
32245
|
https://de.wikipedia.org/wiki/Nuuk
|
Nuuk
|
Nuuk (; nach alter Rechtschreibung Nûk; []) ist die Hauptstadt und zugleich mit über 19.000 Einwohnern die mit Abstand größte Stadt Grönlands. Sie bildet das kulturelle Zentrum des Landes und wächst stark mit den Urbanisierungstendenzen des zum Königreich Dänemark gehörenden arktischen Landes. Nuuk ist auch der Hauptort der ehemaligen Gemeinde Nuuk sowie der momentanen Kommuneqarfik Sermersooq.
Geografie
Lage
Nuuk liegt an der Westspitze einer ca. 75 km langen Halbinsel, die im Norden vom Uummannap Sullua begrenzt wird und im Süden vom Fjord Ameralik. Südlich von Nuuk wird diese Halbinsel vom Fjord Kangerluarsunnguaq (Kobbefjord) geteilt. Vor der Westküste Nuuks verläuft der Nuup Kangerlua (Godthåbsfjord), einer der längsten und breitesten Fjorde Grönlands sowie Hauptarm eines der größten Fjordsysteme des Landes. Das Stadtgebiet wächst um die Bucht Qinngorput (Malenebugt) herum. Südlich dieser liegen eine Vielzahl weiterer größerer Inseln, von denen die größten Aqissersiorfik (Rypeø) und Angisunnguaq sind. Der nächste bewohnte Ort von Nuuk aus, Kapisillit, ist ca. 75 km entfernt im landesinneren Teil des Fjordsystems zu finden.
Klima
Nuuk ist von maritim-subpolarem Tundrenklima geprägt. Die Jahresmitteltemperatur liegt knapp unter dem Gefrierpunkt. Seit Beginn des 20. Jahrhunderts schwanken die Jahresmitteltemperaturen (mit Ausnahme des Jahres 2010) zwischen −4 °C und 1 °C. Die Monatsmitteltemperatur variiert während des Jahres um weniger als 20 °C, mit dem kältesten Monat im März und dem wärmsten im Juli. Die Niederschläge sind ganzjährig verteilt, wobei die regenreichsten Monate im Sommer und Herbst liegen. Insgesamt ist etwa jeder dritte Tag in Grönland ein Regentag. Nuuk liegt weniger als 300 km südlich des Nördlichen Polarkreises, was sich wegen der Polartage und -nächte auf die Sonnenscheindauer auswirkt.
Stadtgliederung
Nuuk ist die einzige Stadt Grönlands, die sich in Stadtteile unterteilen lässt. Die anderen Städte mit unter 7000 Einwohnern verfügen nicht über die nötige Größe dafür. Nuuk wird in vier Stadtteile eingeteilt: Nuuk im engeren Sinne als Stadtzentrum, Nuussuaq, Quassussuup Tungaa und Qinngorput.
Das eigentliche Nuuk, das sich um den historischen Kern herum gebildet hat, liegt auf dem Gebiet westlich der Straße 400-rtalik und südlich des Sees Qallussuaq. Es hat eine Fläche von ca. 3 km² und beherbergt knapp die Hälfte der Stadtbevölkerung. Hier befinden sich ein Großteil der öffentlichen und vor allem historischen Gebäude der Stadt sowie der Passagierhafen Nuuks.
Nuussuaq („Großes Kap“) ist der ca. 1,75 km² große Stadtteil, der auf der östlichen Seite der 400-rtalik an das Stadtzentrum anschließt und damit auch östlich der Bucht Umiarsualivik liegt, in der der Passagierhafen liegt. Zum Stadtteilgebiet gehören mehrere Inseln, die Umiarsualiviup Qeqertai (kurz Qeqertat / ), die künstlich mit dem Festland verbunden wurden und den Containerhafen bilden. In der Meerenge Iggiaa zwischen den Qeqertat und dem Festland liegt der Bootshafen der Stadt, der aus 21 Stegen besteht.
Quassussuup Tungaa („Richtung des großen Bergrückens“) ist der Name des nördlich von Nuuk und Nuussuaq gelegenen Stadtteils. Er hat eine Fläche von ca. 5 km², von denen jedoch nur gut die Hälfte bebaut ist. Er ist in mehrere Viertel unterteilt. Der westliche Teil Qernertunnguit („Die kleinen Schwarzen“) und mittlere Teil Kangillinnguit („Die kleinen Östlichen“) bestehen größtenteils aus Wohnhäusern. Östlich davon liegt an der Straße Siaqqinneq ein Viertel, in dem beispielsweise die Universität von Grönland liegt. Östlich davon schließt sich der Flughafen Nuuk an.
Qinngorput („Unser Fjordende“) ist der abgelegenste und jüngste Stadtteil Nuuks. Er ist ca. 1,5 km² groß und liegt auf der Ostseite der gleichnamigen Bucht. Der erst 2004 gegründete Stadtteil ist bisher erst zur Hälfte bebaut. Qinngorput hat einen weiteren kleinen Bootshafen. Dem Stadtteil wird zudem das nordöstlich des Flughafens liegende Gefängnis zugerechnet.
Geschichte
18. Jahrhundert
1721 begann die Kolonialisation Grönlands durch Hans Egede, als er 17 km westlich des heutigen Nuuk die Missionsstation Håbets Ø (in damaliger Rechtschreibung Haabets Ø) gründete. Ursprünglich hatte er sich in der Gegend umgeschaut, um einen geeigneten Platz für die Missionsstation zu finden, und dabei Nuuk für geeignet befunden. Allerdings ließen ihn die Hafenverhältnisse dazu verleiten, Håbets Ø an anderer Stelle zu errichten. Dennoch kam er im Sommer 1727 nach Nuuk zurück, wo er sich noch einmal von den Vorteilen der Stelle überzeugte. Er fand hier eine große Ebene vor mit Grasflächen für Weidevieh, gute Jagdplätze für den Fang von Rentieren, Lachsen, Rotbarschen und Dorschen und darüber hinaus war der Ort bereits von Inuit bewohnt, sowohl Nuuk selbst, wo sich zwei Häuser mit zwölf Familien befanden, als auch die nähere Umgebung.
Am 2. Juli 1728 besuchten Hans Egede und Claus Paars die Stelle gemeinsam und sie beschlossen, die Kolonie hierhin zu versetzen. Einige Tage später wurden erste Gebäude in Nuuk errichtet. Am 29. August weihte Hans Egede die Kolonie unter dem Namen Godthåb (in damaliger Rechtschreibung Godthaab) offiziell ein. Am 30. September zog er von Håbets Ø nach Godthåb. In dem großen Wohnhaus lebten 30 Kolonialisten gemeinsam.
1731 wurde die Herrnhuter Brüdergemeine inspiriert, mit der Missionstätigkeit zu beginnen, und nach Saint Thomas im Jahr 1732 gründeten die Herrnhuter im folgenden Jahr in Grönland ihre zweite Missionsstation. Die Missionsstation Neu-Herrnhut lag am Wohnplatz Noorliit nur wenige Hundert Meter südlich von Nuuk. Anfangs war die Missionsarbeit wenig erfolgreich, geschuldet den Kommunikationsschwierigkeiten zwischen den deutschen Herrnhutern, dem Dänen Egede, der ihnen die Grönländische Sprache beibrachte, und den Grönländern selbst sowie dem Desinteresse der Kalaallit, überhaupt missioniert zu werden. Nach wenigen Wochen brach eine aus Kopenhagen eingeschleppte Pockenepidemie aus, der beinahe die gesamte Bevölkerung in der Umgebung zum Opfer fiel. Dennoch wurde die Missionierung der Grönländer in den folgenden fast 170 Jahren fortgeführt und ausgebaut.
1734 standen in Nuuk das 185 m² große heute noch bestehende Wohnhaus aus Stein mit sieben Zimmern (Kirchenraum, Kaufmannswohnung, Missionarswohnung, Katechetenwohnung, Matrosenwohnung und Lagerräume), ein 124 m² großes Fachwerkhaus, das anfangs als Wohnhaus, nun als Proviantlager, Brauerei, Bäckerei und Schmiede genutzt wurde, ein 22 m² großes Holzhaus, das als Waaghaus und Torflager diente, eine Böttcherei und ein 118 m² großes Speckhaus.
In den ersten Jahren beschädigte der Fluss immer wieder die Gebäude, die zu nahe daran gebaut waren. Deswegen forderte Egill Þórhallason in den 1760er Jahren die Verlegung der Kolonie nach beispielsweise Kangeq, wo deutlich mehr Grönländer lebten. Carl Ludwig Giesecke wollte Anfang des 19. Jahrhunderts die Kolonie auf die andere Fjordseite versetzt wissen.
1758 wurde eine 48 m² große Kirche errichtet, die 1772 renoviert wurde.
1782 wurde die Kolonie Godthaab der Sitz des Inspektors von Südgrönland, womit Nuuk ab dann zusammen mit Qeqertarsuaq, dem Sitz des nordgrönländischen Inspektors, als Hauptstadt Grönlands angesehen werden konnte.
19. Jahrhundert
1845 wurde beschlossen, eine neue Kirche, ein Lehrerseminar und eine neue Missionarswohnung zu errichten, da das alte Wohnhaus nur noch als Kolonialverwalterwohnung diente. Wegen der neuen Kirche (Annaassisitta Oqaluffia) wurde die alte Kirche 1850 abgerissen und das Material für eine neue Böttcherei benutzt. Für die Rolle Nuuks als Ausbildungszentrum Grönlands spielte das 1845 gegründete Grønlands Seminarium eine wesentliche Rolle. 1856 wurde ein Krankenhaus errichtet. 1861 wurde die Buchdruckerei gegründet, von der aus die Atuagagdliutit als erste grönländische Zeitung verbreitet wurde.
Erste Hälfte des 20. Jahrhunderts
1900 verließen die Herrnhuter Grönland und die Bewohner von Neu-Herrnhut zogen bis 1914 allesamt ins nahegelegene Nuuk, das sich den früheren Wohnplatz Noorliit einverleibte.
1903 erhielt Nuuk ein neues Krankenhaus. Das heutige Hauptgebäude des Seminariums wurde 1907 errichtet und ist als eines der markantesten Gebäude der Stadt auf dem Wappen der ehemaligen Gemeinde Nuuk abgebildet.
Ab 1911 war Nuuk als Kolonieort eine eigene Gemeinde, zu der noch die Wohnplätze Ikaarissat, Saarloq und Qaarusuk gehörten. Die Gemeinde war Teil des 8. Landesratswahlkreises Südgrönlands. Nuuk war zudem auch Sitz des im selben Jahr gegründeten Landesrats von Südgrönland.
1918 lebten in Nuuk 357 Grönländer und 34 Europäer. Damit war Nuuk zu diesem Zeitpunkt der zweitgrößte Ort Grönlands nach Maniitsoq. Die Bevölkerung hatte eigentlich durchgehend europäische Vorfahren, aber die Bewohner von Noorliit, die gerade nach Nuuk gezogen waren, waren beinahe vollständig reine Inuit, da in der Herrnhutergemeine gemischte Ehen unüblich waren.
Unter den Bewohnern waren folgende Personen öffentlich angestellt: der dänische Inspektor, zwei Buchdrucker, ein Fotograf, ein Buchdruckerhelfer, ein Schreiber für den Inspektor, der dänische Kolonialverwalter, der dänische Arzt, ein dänischer Volontär, eine dänische Krankenschwester, ein Vorsteher, ein Bootsführer, fünf Zimmermänner, vier Böttcher, zwei Schmiede und Büchsenmacher, ein Koch, ein Bäcker, ein Kolonist, zwei Lehrlinge, eine Hebamme, der dänische Seminariumsleiter, der dänische Pastor, ein dänischer Seminariumslehrer, zwei Oberkatecheten, ein Organist, zwei Buchdrucker in Kirchendiensten und 39 Seminariumsschüler. Unter den Grönländern waren 21 Jäger und zwei Fischer. Die Bevölkerung lebte hauptsächlich von der Jagd auf Seehunde und Belugas. Auffällig ist die geringe Zahl an Jägern im Vergleich zur Bevölkerungszahl, die damit zu tun hatte, dass schon damals viele Väter ihre Söhne nicht mehr in der Jagd unterrichteten, weil es einfacher war, sich beispielsweise als Kiffaq (Helfer) den Lebensunterhalt zu verdienen.
Die Bevölkerung lebte in 47 grönländischen Wohnhäusern. 1918 gab es folgende öffentlichen Gebäude in Nuuk: die 1831 errichtete Wohnung des Inspektors, zu der auch ein Archiv, ein Ziegenstall und ein Kohlenschuppen gehörten, das Landesarchiv, das 1856 als Krankenhaus errichtet wurde, die Buchdruckerei von 1894, die Kolonialverwalterwohnung von 1728, in der sich auch eine Assistentenwohnung befand, eine weitere Assistentenwohnung von 1906, die zu diesem Zeitpunkt aber vom Arzt bewohnt war, weil die Arztwohnung abgebrannt war, noch eine Assistentenwohnung von 1833, die aus den Materialien der ersten Inspektorenwohnung gebaut war, eine Trankocherei von 1850, ein Speckhaus von 1888, ein Bootshaus von 1839, eine Böttcherei von 1887, eine Brauerei mit Schmiede von 1848, ein Proviantlager mit Laden von 1850, ein Fischhaus von 1913, ein Kohlenhaus von 1882, ein Materialhaus, das zuvor die Böttcherei aus den Materialien der ersten Kirche beherbergte, eine Zimmererwerkstatt mit Backstube von 1892, ein Krankenhaus von 1903, ein Provianthaus von 1872, ein Kohlenhaus von 1902, mehrere Kohlenschuppen, Ziegenställe, Petroleums- und Pulverhäuser, das Missionshaus von Neu-Herrnhut, die Kirche von 1849, die Pastorenwohnung von 1847 mit Ziegenstall und Schuppen, die Schule von 1862, das Seminarium mit dem Gymnastiksaal, vier Internatshäusern und einer Organistenwohnung.
1922 wurde auf dem Berg neben der Kirche eine über der Stadt thronende Statue von Hans Egede aufgestellt. 1930 erhielt Nuuk erneut ein neues Krankenhaus.
Zweite Hälfte des 20. Jahrhunderts
1950 wurde Grönland dekolonialisiert und Nord- und Südgrönland vereinigt. Damit ging einher, dass Nuuk zum Sitz des gesamtgrönländischen Landesrats wurde. Damit wurde die Stadt de facto alleinige Hauptstadt Grönlands, die mittlerweile auch die größte Stadt des Landes war. Ab 1950 war Nuuk Hauptort der Gemeinde Nuuk.
1949 wurde in Nuuk ein Kraftwerk errichtet, womit die Stadt Strom erhielt und von 1951 bis 1954 wurde ein Wasserwerk gebaut. 1950 wurde eine Feuerwehrstation errichtet. 1953/54 wurde das Dronning Ingrids Hospital gebaut, das heute das größte Krankenhaus des Landes ist. 1957 erhielt die Stadt ein Schwimmbad. 1958 wurde ein Radiogebäude in Nuuk errichtet, womit die Geschichte von Kalaallit Nunaata Radioa begann. 1963 wurde die Fischfabrik eröffnet und 1966 die erste Bank des Landes. In den 1950er und 1960er Jahre wurde auch der Hafen gebaut. 1964 wurde zudem ein Heliport errichtet, um die Stadt an den Luftverkehr anzuschließen. 1967 wurde ein neues Kraftwerk gebaut. 1969 wurde in Nuuk Grönlands erste Sporthalle eröffnet und zudem eine neue Feuerwehrstation gebaut.
Seit Einführung der Hjemmestyre im Jahr 1979 ist Nuuk Sitz des grönländischen Parlaments und der Regierung. Bei der Verwaltungsreform 2009 wurde Nuuk Hauptort der neuen Kommuneqarfik Sermersooq.
In der Mitte des 20. Jahrhunderts wurden immer mehr kleine Siedlungen aufgegeben und einher ging das Wachstum der Städte, vor allem von Nuuk. Um der stark wachsenden Bevölkerung Platz zu bieten, wurden in Nuuk in den 1960er und 1970er Jahren große Wohnblöcke errichtet, von denen der größte, der 2013 abgerissene Blok P, etwa ein Prozent der gesamten Landesbevölkerung beherbergte. Anfang der 1960er Jahre lebten noch etwa 3000 Menschen in Nuuk, während es zehn Jahre später 8000 waren, heute sind es 18.000. Ab Ende der 1970er Jahre wurden die ersten Vorstädte Nuuks errichtet, angefangen mit Nuussuaq. Die großen Wohnblöcke stehen in scharfem Kontrast zu den typischen bunten grönländischen Einfamilienhäusern kleinerer Orte und bedeuten auch einen radikalen Bruch mit der traditionellen dörflichen Lebensweise der Inuit, der sich in großen sozialen Problemen wie Alkoholismus äußert.
In den letzten 40 Jahren hat sich vor allem mit dem Bau der neuen Stadtteile die Einwohnerzahl Nuuks verdoppelt. Dabei hat Nuuk mehr Einwohner hinzubekommen (etwa neuntausend) als Grönland insgesamt (etwa siebentausend), was auf die starken Urbanisierungstendenzen zurückzuführen ist (→ siehe Demografie Grönlands#Binnenmigration). Jedes Jahr ziehen mehrere Hundert Menschen neu in die grönländische Hauptstadt. 2016 beschloss der Kommunalrat, dass Nuuk für das Jahr 2030 Platz für 30.000 Menschen bieten soll, also mehr als der Hälfte der heutigen Bevölkerung ganz Grönlands. Zu diesem Zweck wurde der Bau eines weiteren Stadtteils geplant. Nachdem man zeitweilig erwogen hatte, Nuuk auf die andere Fjordseite in die Region Akia hin auszuweiten, zwecks Wohnbebauung oder für einen Flughafenneubau – 2006 erwog man gar die Errichtung eines Tunnels unter dem Nuup Kangerlua, der mit einer Tiefe von 300 m einen Weltrekord aufgestellt hätte – wurde mittlerweile das Gebiet südlich von Qinngorput am Eingang des Kangerluarsunnguaqs in den Kommunalplan aufgenommen und soll den neuen Stadtteil Siorarsiorfik („Wo man draußen im Sand ist“) bilden. Der Stadtteil soll vom Unternehmen Nuuk City Development gebaut werden, das ursprünglich mit dem Baustart 2019 rechnete. Der Tunnel, der den neuen Stadtteil erreichbar machen soll, soll mit Stand 2021 doch erst 2027 eröffnet werden.
Liste der Kolonialangestellten bis 1921
Kolonialverwalter
Folgende Personen wirkten bis 1921 als Kolonialverwalter der Kolonie Godthaab. Anfangs beziehen sich die Daten auf die Kolonie Haabets Ø.
Missionare und Pastoren
Bis 1921 waren folgende Missionare und Pastoren in der Kolonie Godthaab tätig. Die Missionare der Kolonie Haabets Ø sind mitgenannt. Anfangs waren häufig mehrere Missionare zugleich tätig. Von 1794 bis 1795 war der Missionar der Kolonie Frederikshaab zuständig. Im Jahr danach gab es gar keinen Missionar in Südgrönland. Von 1797 bis 1807 war die Kolonie ebenfalls der Kirchengemeinde der Kolonie Frederikshaab zugeteilt. Von 1812 bis 1815 gab es erneut keinen Missionar in Südgrönland. Von 1841 bis 1845 war der Missionar der Kolonie Holsteinsborg auch für die Kolonie Godthaab tätig.
Ärzte
Seit 1839 war die Kolonie Godthaab Sitz eines Arztdistrikts. Die Chirurgen zuvor waren nicht dem organisierten Arztwesen zuzurechnen.
Wirtschaft
Nuuk ist die wirtschaftlich am vielfältigsten gestaltete Stadt Grönlands. Während in den kleinen Dörfern die Wirtschaft von Fischfang, Jagd und Verwaltung geprägt ist, bieten sich in Nuuk zahlreiche weitere Berufsmöglichkeiten, auch ermöglicht durch die vielfältigen Bildungsmöglichkeiten. Viele grönländische Unternehmen haben ihren Sitz in Nuuk und bieten so Arbeit, ebenso wie die vielen Institutionen. Der größte Beschäftigungssektor in Nuuk ist die Verwaltung. Dennoch spielt auch der Fischfang eine Rolle in der Hauptstadt. In der Fischfabrik in Nuuk werden Dorsch, Schwarzer Heilbutt, Rotbarsch, Gestreifter Seewolf und Rogen verarbeitet. Ein Teil des Einkommens der Stadt wird auch durch den aufstrebenden Tourismus geschaffen.
Infrastruktur und Versorgung
Nuuk hat einen Passagierhafen, einen Containerhafen und zwei Bootshäfen. Das Meer um Nuuk ist ganzjährig eisfrei und befahrbar. Nuuk ist über den Flughafen Nuuk an das nationale Luftverkehrsnetz sowie an Island angeschlossen. 2018 wurde beschlossen, den Flughafen zu einem internationalen Flughafen auszubauen, obwohl bei der Bevölkerung der Neubau eines Flughafens auf Angisunnguaq deutlich größeren Zuspruch gefunden hätte. In der Stadt selbst gibt es ausgebaute Straßen, die von Nuup Bussii mit drei Busstrecken befahren werden. Die wichtigste Straße ist die Aqqusinersuaq. Nuuk ist Landungspunkt des Unterseekabels Greenland Connect.
Nukissiorfiit ist in Nuuk wie im Rest des Landes mit der Strom-, Wasser- und Wärmeversorgung beauftragt. Die Bewohner werden durch je vier Brugseni- und Pisiffik-Filialen und je eine Spar-, Torrak-, JYSK-, Elgiganten-, Nota-Bene-, Akiki- und inspiration-Filiale mit Gütern versorgt.
Bebauung
Bildung
Nuuk hat fünf Folkeskoler:
Atuarfik Samuel Kleinschmidt (Nuuk)
Ukaliusaq (Nuuk)
Kangillinnguit Atuarfia (Quassussuup Tungaa)
Nuussuup Atuarfia (Nuussuaq)
Atuarfik Hans Lynge (Qinngorput)
Dazu kommen eine Privatschule (Nuuk Internationale Friskole), ein Standort des GUX (Midtgrønlands Gymnasium), die Niuernermik Ilinniarfik (Handelsschule), die Saviminilerinermik Ilinniarfik (Eisen- und Metallschule), eine Maschinistenschule, eine Polizeischule sowie eine Außenstelle der Seefahrtsschule in Paamiut. In Nuuk liegt zudem die Universität von Grönland (Ilisimatusarfik), die einzige Universität des Landes, die seit 2008 das Ilimmarfik als Campus in Quassussuup Tungaa hat und zuvor im ehemaligen Neu-Herrnhut untergebracht war. Die Universitätsbibliothek ist zugleich die Nationalbibliothek Groenlandica und damit eine Unterabteilung der Landesbibliothek Nunatta Atuagaateqarfia.
Kirchen
Die erste Kirche in Nuuk wurde 1758 errichtet. 1849 wurde die eine heutige evangelisch-lutherische Kirche, die Annaassisitta Oqaluffia (Vor Frelser Kirke) eingeweiht, die heute die Domkirche des Landes ist. Die andere lutherische Kirche Nuuks ist die Hans Egedep Oqaluffia (Hans Egede Kirke). In Nuuk liegt zudem die einzige römisch-katholische Kirche des Landes, die 1958 gegründete Pfarrei Krist Konge mit der 1972 auf Bestreben Finn Lynges errichteten Krist Konge Kirke (Christkönigskirche).
Kultur und Freizeit
Grönlands Nationalmuseum (Nunatta Katersugaasivia) wurde 1966 als erstes Museum des Landes gegründet. 1991 wurde es mit dem Nationalarchiv zusammengelegt. Das Museum deckt die grönländische Geschichte seit der Besiedelung der Insel vor 4500 Jahren. Zu seinem Bestand gehören unter anderem die Mumien von Qilakitsoq. 2005 eröffnete in Nuuk das dortige Kunstmuseum, das über eine Sammlung mit über 300 Gemälden und 400 Handwerksobjekten verfügt. Im historischen Koloniehafen befindet sich das dritte Museum Nuuks, das Nuutoqaq, das ein Lokalmuseum ist.
Das 1997 eröffnete Katuaq ist das grönländische Kulturhaus. Es fungiert als Konzertgebäude, Kino, Theater, Galerie und Konferenzgebäude.
2011 wurde in Nuuk das Grönländische Nationaltheater (Nunatta Isiginnaartitsisarfia) gegründet.
Neben dem Nuuk-Stadion, in dem unter anderem die grönländische Fußballnationalmannschaft ihre Heimspiele bestreitet, gibt es eine Sporthalle, die Godthåbhallen, die unter anderem von der grönländische Handballnationalmannschaft genutzt wird.
In Nuuk gibt es zudem ein Versammlungshaus, mehrere Hotels, darunter das Hotel Hans Egede, und Restaurants.
Sonstige öffentliche Institutionen und Gebäude
In Nuuk gibt es zahlreiche Kinderkrippen und Kindergärten. Für Senioren wurde ein Altenheim errichtet, ergänzt um ca. 150 Seniorenwohnungen.
Es gibt einen Tierarzt, eine Zahnarztpraxis und das Dronning Ingrids Hospital, das als Zentralkrankenhaus Grönlands fungiert.
Nuuk ist Sitz des Pinngortitaleriffik, des grönländischen Naturinstituts.
Seit 2012 befindet sich in Nuuk das Hauptquartier der arktischen Streitkräfte Dänemarks.
Kunst
Am Koloniehafen befindet sich die Granitskulptur der Mutter des Meeres der grönländischen Künstlerin Aka Høegh, die eine Inuit-Legende versinnbildlicht. Die Skulptur ist so platziert, dass sie bei Ebbe aus dem Wasser ragt und bei Flut völlig bedeckt ist.
Sport
Aus Nuuk stammen zahlreiche Fußballvereine. Der älteste ist NÛK, der 1934 gegründet wurde und zwischen 1981 und 1997 fünfmal die Grönländische Fußballmeisterschaft gewinnen konnte. Der 1944 gegründete GSS Nuuk gewann die Meisterschaft ebenfalls fünfmal zwischen 1958 und 1976. B-67 Nuuk wurde 1967 gegründet und ist heute grönländischer Rekordmeister, nachdem der Verein seit 1993 dreizehnmal grönländischer Fußballmeister wurde. 1979 wurde als vierter Verein IT-79 Nuuk gegründet, der die Meisterschaft 2017 gewinnen konnte. 2011 nahm zudem der FC Tuttu Nuuk einmalig an der Meisterschaft teil.
Söhne und Töchter der Stadt
Bevölkerungsentwicklung
Nuuks Einwohnerzahl hat sich in den letzten 40 Jahren verdoppelt. Dies kommt durch die starke Binnenmigration und Urbanisierung in Grönland zustande. Während die Bevölkerungszahlen des Stadtzentrums und Nuussuaqs relativ stabil geblieben sind, wurde das ganze Bevölkerungswachstum von den jungen Stadtteilen Quassussuup Tungaa und Qinngorput aufgenommen.
Panoramen
Literatur
Weblinks
Einzelnachweise
Ort im Distrikt Nuuk
Hauptstadt in Nordamerika
|
Q226
| 253.721666 |
5000
|
https://de.wikipedia.org/wiki/Sklaverei
|
Sklaverei
|
Sklaverei ist ein soziales System der Unfreiheit und Ungleichheit, in dem Menschen als Eigentum anderer behandelt werden. Bei der Sklaverei im engen Sinne der Geschichtsschreibung war das Recht, Sklaven zu erwerben, zu verkaufen, zu mieten, zu vermieten, zu verschenken und zu vererben, gesetzlich verankert. Die Sklavengesetze regelten die privat- und strafrechtlichen Gesichtspunkte der Sklavenhaltung und des Sklavenhandels; darüber hinaus bestimmten sie auch, welche Rechte den Sklaven zugestanden wurden.
In vielen sklavenhaltenden Staatswesen und Gesellschaften behielten Sklaven eine gewisse Rechtsfähigkeit und konnten z. B. die Gerichte anrufen oder Eigentum mit Einschränkungen erwirtschaften, das es ihnen in manchen Gesellschaften und Ländern erlaubte, durch Selbstkauf die Freiheit zu erlangen. In manchen Staatswesen war Sklaverei erblich, d. h. die Nachkommen von Sklaven waren ebenfalls unfrei.
Im weiteren Sinne zählen zur Sklaverei auch Freiheitsberaubung und Nötigung von Menschen ohne gesetzliche Grundlage, beziehungsweise als Verstoß gegen die geltenden Gesetze und die Menschenwürde sowie Ausbeutung illegal Aufhältiger. Die Grenzen zwischen Sklaverei und „sklavereiähnlichen“ Erscheinungen wie etwa Zwangsarbeit (in Industrie, Bergbau, Plantagen etc.) oder Zwangsprostitution sind fließend.
Begriff
Etymologie
Das Wort „Sklave“ (spätmittelhochdeutsch sklave und slave; Appellativ, das sprachlich eins ist mit dem Volksnamen der Slaven, mittelgriechisch Sklabēnoi aus slawisch Slověninŭ mit einem von den Griechen eingeschobenen k, woraus ein Adjektiv sklabēnós entstand, welches im 6. Jahrhundert zum Substantiv sklábos wurde, ab 8. Jahrhundert mit der Bedeutung „Unfreier slawischer Herkunft“, woraus dann mittellateinisch sclavus wurde) wird häufig einer veralteten etymologischen Erklärung folgend vom griechischen Verb skyleúo, Nebenform skyláo ‚Kriegsbeute machen‘ hergeleitet.
Die heute gängige Herleitung geht von der Entlehnung aus dem lateinischen sclavus für die ethnische Gruppe der seit dem Mittelalter so genannten Slawen aus. Rumänisch şchiau, Plural şchei, und albanisch shqa – beides veraltete Bezeichnungen für die (süd-)slawischen Nachbarn, insbesondere Bulgaren und Serben – stammen aus derselben Quelle, denn beide Wörter konnten auch ‚Diener‘, ‚Sklave‘ bedeuten. Einige Autoren neigen dazu, es in den Kämpfen der Ottonen gegen die Slawen im 10. Jahrhundert entstanden zu sehen, zumal bereits bei Widukind von Corvey und in den Quedlinburger Annalen für Slawe anstatt slavus‚ sclavus‘ geschrieben wird. So wurde am 11. Oktober 973 einem Sklavenhändler eine in den Monumenta Germaniae Historica enthaltene Urkunde ausgestellt, in der anstatt des lateinischen servus zum ersten Mal sclavus für ‚Sklave‘ erscheint.
Der in mittelalterlichen arabischen Quellen verwendete Begriff Saqaliba bezieht sich ebenfalls auf Slawen und andere hellhäutige bzw. rötliche Völker Nord- und Mitteleuropas. Die Bezeichnung al-Ṣaḳāliba (Sing. Ṣaḳlabī, Ṣiḳlabī) ist dem mittelgriechischen Σκλάβος entlehnt (der unmittelbaren Quelle von lateinisch sclavus). Hierbei handelt es sich um eine Variante von Σκλαβῆνος (Singular) bzw. Σκλαβῆνοι (Plural), das aus der slawischen Selbstbezeichnung Slovĕne (Plural) übernommen ist. Wegen der großen Zahl slawischer Sklaven hat das Wort in mehreren europäischen Sprachen die Bedeutung ‚Sklave‘ angenommen (engl. slave, it. schiavo, franz. esclave), so auch im Spanien der Umayyaden, wo Ṣaḳāliba alle fremden Sklaven bezeichnete.
Dass sich in bestimmten europäischen Gegenden auch andere Wörter für „Sklave“ einbürgern konnten, zeigte sich ab dem 10. Jahrhundert während des Verlaufs der Reconquista bis 1492 vor allem im christlichen westlichen Mittelmeerraum, wo die im Kampf erbeuteten und „Sarazene“ / „Sarazenin“ oder „Maure“ / „Maurin“ genannten Gefangenen zur Handelsware wurden und Sklavenarbeit zu verrichten hatten.
Merkmale
Sklaven stammen in der Regel aus anderen Ländern, werden ihrer Ethnie und ihrer Familie entrissen und in andere ihnen fremde ethnische, sprachliche und soziale Umfelder gebracht. Sie können außerhalb des Rechtes stehen, sind zur Ware verdinglicht beziehungsweise entmenschlicht und werden Verkaufs- und Wiederverkaufsgegenstände. Die Freiheitsberaubung geht oft mit physischer und/oder institutioneller Gewalt einher. Sie kennzeichnet den Sklavenhandel und bedeutet den Verlust von mit Geburt und Genealogie verbundenen Ansprüchen und Identifikationsmöglichkeiten (natal alienation) sowie der Menschenwürde.
Sklaverei dient dort, wo sie eine Gesellschaftsstruktur bestimmt, meist der wirtschaftlichen Ausbeutung und der Aufrechterhaltung einer Klassengesellschaft.
Sklavenhaltergesellschaft
In der Gesellschaftstheorie des Marxismus und Leninismus wird unter Sklavenhaltergesellschaft eine ökonomische Gesellschaftsform verstanden, die auf dem Eigentum des Sklavenhalters an den Produktionsmitteln (Nutzflächen, Maschinen usw.) und an den unmittelbaren Produzenten (Sklaven) beruht. Karl Marx, der die Sklaverei für die roheste und primitivste Form der Ausbeutung und den Gegensatz zwischen Sklaven und Sklavenhalter für einen archaischen Klassengegensatz hielt, bezog den Begriff Sklavenhaltergesellschaft ausschließlich auf die antiken Gesellschaften. Marx beschrieb jedoch auch, wie als Überbauphänomen der Sklaverei politische, juristische und philosophische Anschauungen entstanden, die den Sklavenhaltern als Machtinstrument dienten.
Nach dem amerikanischen Historiker Ira Berlin müssen zwei Gesellschaftsformen mit Sklaverei unterschieden werden. Die Gesellschaft der amerikanischen Südstaaten vor dem Sezessionskrieg sei eine typische „Sklavengesellschaft“ (engl. slave society) gewesen. In Sklavengesellschaften beruhen die zentralen Produktionsprozesse – im Fall der Südstaaten der Anbau von Zuckerrohr, Tabak, Reis und Baumwolle in Plantagen – auf der Arbeit von Sklaven. Dagegen spielen in „Gesellschaften mit Sklaven“ (engl. societies with slaves), wie sie z. B. in der griechischen und römischen Antike bestanden, die Sklaven nur eine marginale Rolle in der Ökonomie. Infolgedessen bilden die Sklavenhalter in Sklavengesellschaften die herrschende Klasse, während sie in Gesellschaften mit Sklaven nur einen Teil der begüterten Elite ausmachen.
Abgrenzung von ähnlichen Begriffen
Die Grenzen zwischen Sklaverei und anderen Formen der Unterwerfung und Ausbeutung können oft nicht eindeutig bestimmt werden. Begriffe wie sklavereiähnliche Abhängigkeit oder sklavereiähnliche Arbeitsbedingungen können solche „ähnlichen“ Erscheinungen und Verhältnisse entweder abgrenzen oder ausdrücklich einbeziehen. Folgende Formen von Unfreiheit und unfreier Arbeit werden, je nach Kontext, von der Sklaverei unterschieden:
Leibeigenschaft bezeichnet das Verhältnis zwischen einem Leibherrn und den Bauern, die unter seiner Verfügungsgewalt stehen, einschließlich Gerichtsbarkeit und Schollenbindung. Leibeigene Bauern bewirtschaften gegen Pacht das Land des Grundherrn und leisten für ihn Frondienste, die sogenannten Eigenleute dienten ihm unmittelbar als Gesinde. Ob Leibeigenschaft eine Form der Sklaverei war, ist umstritten. Der Historiker Michael Zeuske sieht keinen Unterschied.
Bei der Schuldknechtschaft verpfändet ein Schuldner seine Arbeitskraft zur Tilgung von Schulden, oft gezwungenermaßen und auf unabsehbare Dauer.
Die Mita und die Encomienda waren Formen unfreier Arbeit der indigenen Bevölkerung im spanischen Kolonialreich. Sie unterschieden sich oft nur dem Namen nach von der Sklaverei, die nach einem Edikt der Königin Isabella aus dem Jahr 1503 nicht auf die indigene Bevölkerung angewandt werden durfte.
Forced apprenticeship (wörtl: erzwungene Ausbildung, auch: indentured apprenticeship, verpflichtende Ausbildung) ist die gerichtlich angeordnete Unterbringung von Kindern ehemaliger Sklaven im Haushalt eines Lehrherrn. Diese Übergangsform von Sklaverei und Freiheit war u. a. in den amerikanischen Südstaaten nach 1865 weit verbreitet. Im Mittelalter wurden nicht selten Kinder „zur Ausbildung“ von ihren Eltern in fremde Familien gegeben, um dort unter sklavereiähnlichen Bedingungen und oft auf unbestimmte Zeit zu leben, z. B. die oft vom Balkan stammenden fante in Venedig.
Bei der Verdingung, die im 19. Jahrhundert und in der ersten Hälfte des 20. Jahrhunderts in der Schweiz und in Österreich verbreitet war, wurden Kinder (oft Waisen- oder Scheidungskinder) von Bauern als Arbeitskräfte unter Vertrag genommen und dabei häufig zu schwerer Arbeit gezwungen und vieler Rechte beraubt.
Zu Zwangsarbeit wird ein Mensch gegen seinen Willen und unter Androhung einer Strafe gezwungen.
Im Englischen sind zur deutlicheren Unterscheidung der Sklaverei von ähnlichen Formen der Unfreiheit die Ausdrücke chattel bondage („Besitz-Knechtschaft“) und chattel slavery („Besitz-Sklaverei“) verbreitet, die ausschließlich solche Formen der Unfreiheit bezeichnen, bei denen eine Person auch im juristischen Sinne – also mit expliziter Bestätigung durch den Gesetzgeber – als das Eigentum einer anderen Person betrachtet wird.
Die Legaldefinitionen des 1956 von den Vereinten Nationen abgeschlossenen Zusatzübereinkommens über die Abschaffung der Sklaverei, des Sklavenhandels und sklavereiähnlicher Einrichtungen und Praktiken machen den Begriff Sklaverei am Eigentumsrecht fest: Sklaverei ist demnach „die Rechtsstellung oder Lage einer Person, an der einzelne oder alle der mit dem Eigentumsrecht verbundenen Befugnisse ausgeübt werden“. In Artikel 1 werden „sklavereiähnliche Einrichtungen und Praktiken“ aufgelistet, nämlich Schuldknechtschaft, Leibeigenschaft, Verdingung, Zwangsverheiratung gegen eine Geld- oder Naturalleistung und Abtretung oder Vererbung einer Ehefrau an eine andere Person.
Enslaved Person
In der englischsprachigen Geschichtswissenschaft wird diskutiert, ob für die Opfer der Sklaverei der Begriff enslaved person („versklavte Person“) anstelle von slave („Sklave“) verwendet werden sollte. Für eine Begriffsänderung wird ins Feld geführt, dass das Wort slave das Verbrechen der Sklaverei auf sprachlichem Wege fortsetze, indem es die Opfer zu einem nichtmenschlichen Sachwort (Ware, Handelsgut etc.) reduziere statt sie als Menschen in Erinnerung zu behalten. Andere Historiker halten dagegen, dass slave der kürzere und vertrautere Begriff sei oder dass gerade dieses Wort die Unmenschlichkeit der Sklaverei treffend wiedergebe: „Person“ täusche eine persönliche Autonomie vor, die es in der Sklaverei nicht gab.
Geschichte der Sklaverei
Altertum
Die durch Gesetzestexte dokumentierte Geschichte der Sklaverei beginnt in den ersten Hochkulturen des Altertums. Üblich war dort die Versklavung von Kriegsgefangenen; deren Nachfahren blieben aber ebenfalls unfrei. Weite Verbreitung fand die Sklaverei in Mesopotamien, Ägypten und Palästina.
In den griechischen Stadtstaaten, wo Sklaven in großer Zahl in der Haus- und Landarbeit eingesetzt wurden, entstand mit dem Aufstieg des Handels die Schuldknechtschaft, bei der nicht zahlungsfähige Schuldner in sklavereiähnliche Abhängigkeit fielen. Die Schuldknechtschaft war auch in Rom verbreitet, mit der Ausdehnung der römischen Eroberungskriege wurden dort jedoch immer mehr Kriegsgefangene versklavt. Sowohl in Griechenland als auch in Rom konnten freigelassene Sklaven das Bürgerrecht erlangen.
Mittelalter
Mit der Christianisierung Europas ging die Sklaverei im Hochmittelalter zurück, weil es Christen verboten war, andere Christen als Sklaven zu verkaufen oder zu erwerben. Papst Eugen IV. verurteilte mit den Bullen Creator Omnium (1434) und Sicut dudum (1435) die Sklavenjagden auf den zu Portugal gehörenden Kanaren. Südlich der Alpen – etwa in den italienischen Seerepubliken, im Schwarzmeerraum, auf dem Balkan und in Ägypten – wurden Sklaven weiterhin in großem Umfang gehandelt. Auch Päpste und Klöster besaßen Sklaven. Mittelalterliche Theologen wie Thomas von Aquin begründeten die Rechtmäßigkeit und Notwendigkeit der Sklaverei unter Berufung auf Aristoteles aus dem Naturrecht.
Das erste Rechtsbuch, in dem Sklaverei und Leibeigenschaft verworfen werden, ist der um 1230 entstandene Sachsenspiegel des Eike von Repgow: „Unfreiheit sei demnach ein Unrecht, welches durch Gewohnheit für Recht gehalten werde. Da der Mensch Gottes Ebenbild sei, gehöre er nur ihm und sonst niemanden.“
Sklaverei in islamisch geprägten Gesellschaften war zwar durch viel mehr Versklavte gekennzeichnet als im christlichen Europa und in der atlantischen Sklaverei, aber zugleich durchlässiger, da ein sozialer Aufstieg aus der Versklavung möglich war. Dabei diente die Versklavung von kriegsgefangenen „Ungläubigen“ ihrer Zivilisierung im Sinne einer Konversion zum Islam. Anders als in der atlantischen Sklaverei war der massierte Einsatz von Sklaven in Arbeitskollektiven wenig üblich. In der Landwirtschaft (Dattelpalmen, Gartenwirtschaft in den Oasen) und der nomadischen Viehzucht lebten die Sklaven in die Haus- oder Familiengemeinschaften der Sklavenhalter integriert. Eine Ausnahme waren die Zandsch, aus Ostafrika verschleppte Schwarze, die in der Zeit des Abbasidenreiches in den Salzsümpfen des heutigen Irak in großen Gruppen in Salinen, bei der Urbarmachung und auf Plantagen für die Zuckerherstellung arbeiteten. Im Jahr 869 begannen sie einen Aufstand, der das Kalifat der Abbasiden an den Rand der Niederlage führte, aber niedergeworfen wurde.
Eine bedeutsame Rolle in der Herrschaftspraxis einiger islamischer Staaten spielte der Einsatz von Militärsklaven, den Mamluken. Diese standen in ihrer Loyalität außerhalb familiärer und tribaler Beziehungen, konnten aber auch selbst nach der Macht greifen, wie das Beispiel der Ghaznawiden zeigte.
Auch Turkvölker wie die Chasaren und germanische Völker wie die Waräger und die Wikinger trieben im europäischen und orientalischen Raum Handel mit Kriegsgefangenen und Sklaven. In Sachsen und im Ostfrankenreich entstand nach kriegerischen Auseinandersetzungen mit den Slawen ein gut organisierter und sehr umfangreicher Handel mit slawischen Sklaven. Haupthandelszentrum war neben Prag auch Regensburg. Dort gab es gute Handelsbeziehungen mit Venedig und Verdun, von wo aus die Handelswege weiter nach Arabien und Spanien verliefen, wo nach der Ausbreitung des Islams eine große Nachfrage nach Sklaven bestand. Aber auch im Frankenreich herrschte bei Großgrundbesitzern Bedarf an unfreien Arbeitskräften. Auch die westslawischen Fürsten konsolidierten mit dem Menschenhandel ihre Herrschaft. Um das Jahr 960 befand sich nach Angaben des jüdisch-arabischen Reisenden Ibrahim ibn Yaqub einer der bekanntesten Sklavenmärkte unterhalb der Hauptburg der přemyslidischen böhmischen Fürsten in Prag.
Mit dem wachsenden Einfluss des Osmanischen Reiches ab dem 15. Jahrhundert an der ukrainischen Schwarzmeerküste und der Krim wurden der Sklavenhandel zum dominierenden Zweig des dortigen Handels und Ukrainer und ethnische Russen wurden, wie Serhii Plokhy schreibt, „das Hauptziel und die Opfer der auf Sklaven angewiesenen Wirtschaft des Osmanischen Reiches“. Die Knaben, die als Opfer der Knabenlese (Dewschirme) aus ihren Familien vor allem auf dem Balkan verschleppt und islamisiert wurden, wurden als Militärsklaven verwendet.
Neuzeit
Wenige Jahrzehnte nach der Entdeckung Amerikas erließ Papst Paul III. im Jahr 1537 die Bulle Sublimis Deus, die die Versklavung der indianischen Ureinwohner von Amerika sowie aller anderen Menschen verbot. Die Bulle Sublimis Deus wurde immer wieder missachtet. In der Neuzeit nahm die Sklaverei in der Folge der Ausdehnung des europäischen Seehandels und der Errichtung überseeischer Kolonien zu, wobei bereits auf Infrastruktur und Routen des jahrhundertelangen islamischen Sklavenhandels in Afrika zurückgegriffen werden konnte.
In den Überseekolonien beruhte die Plantagen-Wirtschaft oft auf afrikanische Sklaven. Die weltweit führend mit Sklaven handelnde westliche Nation war bis ins 19. Jahrhundert Portugal. Allein nach Brasilien wurden von portugiesischen Kaufleuten in der Neuzeit mehr als 3 Millionen afrikanischer Sklaven verkauft. Es gab freilich kaum eine europäische Seehandelsmacht, die am internationalen Sklavenhandel nicht beteiligt war. Dies schließt nicht nur spanische, britische, französische und holländische, sondern auch schwedische, dänische und brandenburgische Kaufleute ein.
Erheblichen Umfang hatte vom 16. bis ins 19. Jahrhundert die Gefangennahme und Versklavung europäischer Seeleute und teilweise auch Küstenbewohner durch islamisch-nordafrikanische Piraten (Barbaresken-Korsaren). Es wird geschätzt, dass zwischen mehreren Hunderttausend und über einer Million Europäer so in die Sklaverei gerieten. Zum Freikauf wurden u. a. in Hamburg und Lübeck Sklavenkassen gegründet. Manche Forscher vertreten die Meinung, dass der arabisch-muslimische Sklavenhandel in Afrika noch folgenschwerer als der transatlantische Sklavenhandel war. Der Versklavung durch Barbaresken-Korsaren stand der Verkauf tausender islamischer Gefangener auf europäischen Sklavenmärkten wie Malta oder Marseille gegenüber.
Gegenbewegung im 19. Jahrhundert
Vom späten 18. Jahrhundert an wurde die Sklaverei allmählich abgeschafft. Wesentliche Initiativen gingen für den britischen Einflussbereich u. a. von Abolitionisten wie William Wilberforce, dem ehemaligen Sklavenhändler John Newton und dem befreiten Sklaven Olaudah Equiano aus und gewannen in der Öffentlichkeit Raum. So wurde auf britischen Druck auf dem Wiener Kongress die Ächtung der Sklaverei im Artikel 118 der Kongressakte durchgesetzt, Gesetze und die britische Marine unterbanden mindestens den Atlantischen Sklavenhandel. In den USA beendete 1865 der Bürgerkrieg die Sklaverei.
Die Bewegung gegen die Sklaverei war stark britisch geprägt und ging weniger von der Philosophie aus als von Idealen christlicher Brüderlichkeit und Erneuerung, kommend von den Rändern der etablierten Religion, - und einem neuartigen Patriotismus, der seinen Stolz nicht allein aus militärischer und wirtschaftlicher, sondern auch aus moralischer Überlegenheit zog.
In Preußen wurde die Sklaverei 1857 verboten.
Die Bekämpfung der Sklaverei im Westen diente als Rechtfertigung bei der Kolonisierung Afrikas im Zeitalter des Hochimperialismus. Die europäischen Kolonialherren beanspruchten gegenüber der islamischen Welt, in der Sklaverei weiterhin akzeptiert wurde, eine moralische Überlegenheit und begründeten ihr koloniales Ausgreifen nach Afrika unter anderem damit, die Sklaverei zu bekämpfen
In ihrer „letzten kontinentaleuropäischen Bastion“ wurde die Sklaverei in den beiden südosteuropäischen Fürstentümern Moldau 1855 und Walachei 1856 abgeschafft. Dort waren ausschließlich Angehörige des Volkes der Roma versklavt. Die Besitzer der ca. 250.000 Sklaven wurden gesetzlich entschädigt – die befreiten Sklaven nicht.
Im buddhistisch geprägten Asien spielte die Sklaverei insgesamt eine geringere Rolle als im Westen und in der islamischen Welt. Bereits im 18. Jahrhundert waren China und Japan praktisch „sklavenfreie Zivilisationen“.
Mit dem Verbot in Mauretanien bestehen seit 1981 in keinem Land der Erde mehr gesetzliche Grundlagen für Sklavenhandel und Sklaverei. Die formale Abschaffung der Sklaverei führte jedoch nur in den seltensten Fällen zu einer effektiven gesellschaftlichen Gleichstellung der früheren Sklaven. Besonders gut dokumentiert ist diese Kontinuität der Abhängigkeit im Falle der Sklaverei in den Vereinigten Staaten. Sklavereiähnliche Formen der Unterwerfung von Menschen können jedoch immer wieder selbst in solchen Kulturen beobachtet werden, in denen Sklaverei im engen Sinne keine Tradition besitzt; so etwa die NS-Zwangsarbeit.
Aufarbeitung der Geschichte
Obwohl die Sklaverei heute in allen Staaten der Welt offiziell als abgeschafft gilt, zeigen sich Schwierigkeiten, sich dem Thema zu stellen. Das betrifft sowohl die islamische Welt als auch den europäischen Umgang mit der eigenen Vergangenheit.
1949 führte die UNO den Internationalen Tag für die Abschaffung der Sklaverei ein.
Anlässlich des 200. Jahrestages der Französischen Revolution machte der bis 2001 an der Sorbonne lehrende französische Philosoph Louis Sala-Molins darauf aufmerksam, dass keinem der Aufklärer an der Abschaffung der Sklaverei in den französischen Kolonien gelegen war – weder Condorcet, Diderot, Montesquieu noch Rousseau. Eine bekannte Ausnahme war Marquis de La Fayette. Sala-Molins hält die Einstellung zur Sklavenfrage und zu den Schwarzen für den entscheidenden Schwachpunkt im aufklärerischen Anspruch auf die als universell propagierten Menschenrechte. Der 1685 unter Ludwig XIV. für die Kolonien erlassene Code Noir galt dort 163 Jahre lang ohne Unterbrechung bis 1848. Dann fiel er der Vergessenheit anheim, bis er von Sala-Molins 1987 als „monströsester juristischer Text der Moderne“ wiederveröffentlicht wurde.
Der französische Mediävist Jacques Heers stellte noch 1996 fest, dass Sklaverei als offenkundige Tatsache neben der bäuerlichen Leibeigenschaft trotz einiger ihr gewidmeter Studien bezüglich des Mittelmeerraums dennoch in den gegenwärtigen Mittelalterdarstellungen kaum vorkomme, und dies mehr oder weniger absichtlich.
1998 erklärte die UNESCO den 23. August zum Internationalen Tag der Erinnerung an den Sklavenhandel und seine Abschaffung.
Im Zuge von antirassistischen Protesten in den Vereinigten Staaten und Europa wurden 2020 Statuen und Denkmäler vom Sockel gestürzt. Die dargestellten historischen Persönlichkeiten werden vielfach mit der unreflektierten Erinnerung an Sklaverei und Kolonialismus in Verbindung gebracht.
Verbreitung
Auf Sklaverei beruhende Gesellschaftsformen waren bis zum 19. Jahrhundert weltweit verbreitet. Sklaverei besteht trotz ihres Verbotes auch im 21. Jahrhundert.
Der französische Anthropologe Malek Chebel schätzt in seiner Untersuchung zur Sklaverei in der islamischen Welt, dass 21 bis 22 Millionen Sklaven, die im Laufe von 1 400 Jahren als kriegsgefangene Slawen, Konkubinen, Diener, Sklaven aus Afrika oder im mediterranen Sklavenhandel erbeutete Christen ihre Freiheit verloren. Chebel zählt dazu auch die in den Golfstaaten gegenwärtig tätigen Philippinos, Inder und Pakistaner, die dort ihre Menschenrechte verlieren, berücksichtigt aber zum Beispiel ausdrücklich nicht afrikanische Minderheiten im Maghreb, in der Türkei, im Iran oder in Afghanistan. Der Anthropologe Tidiane N’Diaye schätzt die Zahl der seit Beginn des Mittelalters im Zuge des islamischen Sklavenhandels aus Ostafrika in die jeweiligen Zielorte verschleppten Sklaven auf 17 Millionen (acht Millionen Afrikaner wurden aus Ostafrika über die Trans-Sahara-Route nach Marokko oder Ägypten, neun Millionen aus Regionen am Roten Meer oder dem Indischen Ozean deportiert). Dabei müssen aber für einen im arabisch-muslimischen Sklavenhandel Deportierten zusätzlich drei bis vier weitere Personen, die bei der Sklavenjagd, bei Epidemien, durch Kastration usw. umkamen, veranschlagt werden.
Die 2010 von dem australischen Unternehmer Andrew Forrest gegründete Walk Free Foundation beteiligt sich an dem Kampf gegen moderne Sklaverei. Die Stiftung hat seit 2013 jedes Jahr einen Global Slavery Index mit Schätzungen zur Verbreitung der Sklaverei in 162 Ländern (2013) bzw. in 167 Ländern (seit 2014) veröffentlicht. In dem Index aus dem Jahr 2018 wird geschätzt, dass weltweit insgesamt 40,3 Millionen Menschen versklavt sind.
Rechtfertigung
In fast allen Epochen wurde das Halten von Sklaven ideologisch untermauert. Die Griechen unterteilten die Menschheit in Griechen und Barbaren (von griech. βάρβαρος – die ursprüngliche Bezeichnung im antiken Griechenland für alle diejenigen, die nicht (oder schlecht) griechisch sprachen) und es schien nur gut und gerecht, Barbaren zu Sklaven zu machen. Daneben versklavten die Griechen Bewohner besiegter Städte auch dann, wenn diese Griechen waren. Laut Melierdialog des Thukydides widersetzten sich beispielsweise die Einwohner von Milos zur Zeit des Peloponnesischen Krieges im 5. Jahrhundert v. Chr. dem mächtigen Athen und wurden daraufhin von den Athenern versklavt. Xenophon formuliert grundlegend das Recht des Stärkeren:
Andererseits empfanden die freien Griechen versklavte Griechen als Schande, und die Versklavung ganzer Städte blieb umstritten. Einige Heerführer verweigerten sich dieser Praxis, so etwa die Spartiaten Agesilaos II. und Kallikratidas. Sie wurde auch gelegentlich durch Verträge zwischen den Städten verboten. So verpflichteten sich beispielsweise Milet und Knossos im 3. Jahrhundert v. Chr. gegenseitig dazu, die Bürger der jeweils anderen Stadt nicht zu versklaven.
Aristoteles definierte Sklaven als Besitzstück. Lässt man die problematische substanzphilosophische und naturrechtliche Begründung dieses Besitzverhältnisses beiseite, dann charakterisiert Aristoteles die Sklaven weiterhin durch zwei Eigenschaften. Zum einen haben solche Besitzstücke die Eigenart, ein besonderes Werkzeug zu sein, das viele andere Werkzeuge ersetzen kann. Entsprechend der aristotelischen Teleologie haben Werkzeuge keinen eigenen Zweck, sondern müssen sich einem Zweck unterordnen, welcher von einem vollkommenen Ganzen her bestimmt wird, von dem sie nur ein unvollkommener Teil sind. Diese menschlichen Werkzeuge besitzen aber im Gegensatz zu anderen, unbelebten Werkzeugen eine gewisse antizipatorische Fähigkeit. Aristoteles schreibt dazu, dass Sklaven in der Lage sind, Befehle zu antizipieren und nicht nur auf Befehle anderer hin zu handeln. Als solche vorauseilend gehorchende Werkzeuge haben sie eine Seele, zu deren voller, vernünftiger Ausbildung sie jedoch nicht fähig sind. Deswegen sei es besser für den Sklaven, überlegenen Menschen als Sklaven zu dienen.
Cicero spricht später von Juden und Syrern als „Menschen, die zu Sklaven geboren wurden“, und er meint, dass es einigen Nationen gut tue, unterworfen zu werden. Vor allem die Ansichten von Aristoteles wurden auch später benutzt, um der Sklaverei eine ideologische Begründung zu geben.
In der Bibel wird Sklaverei als Faktum der antiken jüdischen Gesellschaft beschrieben. Zu Beginn des Alten Testaments findet sich im Fluch Noahs über seinen Sohn Ham – Stammvater der Kanaaniter – die Rechtfertigung für dauernde Knechtschaft (Genesis 9,18–27). Das mosaische Gesetz unterschied nach der Herkunft in einheimische und fremdvölkische Sklaven (Lev. 25,44–46). Nur letztere waren im engeren Sinne als Sklaven – d. h. lebenslang veräußerbares Eigentum – erlaubt. Durch Verschuldung konnten zwar auch frei geborene Hebräer in Hörigkeit geraten. Sie waren jedoch von bestimmten Arbeiten befreit und mussten im siebten Jahr (Sabbatjahr) freigelassen werden ( und ). Für die Behandlung von Sklaven gab es keine besonderen Regelungen. Ausdrücklich verboten war es, Sklaven zu erschlagen (Ex 21,20–21). Zudem waren Sklaven freizulassen, wenn sie durch ihren Besitzer körperlich schwer misshandelt wurden (Ex 21,26–27).
In den Evangelien des Neuen Testaments findet sich keine ausdrückliche Erwähnung der Sklaverei als Herrschaftspraxis. Erst in den Briefen des Apostels Paulus kommt diese mehrfach zur Sprache. Paulus betont mit Blick auf die heterogenen Gemeinden der Urkirche, dass es unter Christen keinen Unterschied gebe zwischen Sklaven und Freien (; ; ). Besonders deutlich wird dies im Brief des Paulus an Philemon, wenn er diesen auffordert, seinen davongelaufenen und nunmehr getauften Sklaven Onesimus als geliebten Bruder anzunehmen (Phm 15–17). Damit formuliert das frühe Christentum erstmals in der Antike Wert und Würde auch von Sklaven. Dass das Christentum nach Paulus` Verständnis keine sozialrevolutionäre Botschaft beinhaltet, zeigt sich im ersten Brief an Timotheus . Paulus argumentiert, die Freiheit, welche Jesus Christus schenke, sei nicht abhängig vom äußeren zivilen Stand . Er lässt Sklaverei als gesellschaftlich etablierte Besitzform unangetastet, gemahnt aber Sklaven wie Herren ihren Stand als Berufung anzunehmen und ihre gegenseitigen Pflichten zu erfüllen (; ). Sklaven rät er: „Wenn du als Sklave berufen wurdest, soll dich das nicht bedrücken; aber wenn du frei werden kannst, mach lieber Gebrauch davon!“!.
Im Mittelalter kam für Sklaverei und Sklavenhandel das Argument hinzu, dass damit die Christianisierung von Heiden gefördert werde. Mit den päpstlichen Bullen Dum diversas (1452) und Romanus Pontifex (1455) wurde es Christen erlaubt, Sarazenen, Heiden und andere Feinde des Christentums zu versklaven. Im Fall der dalmatischen fante, deren Unfreiheit zeitlich begrenzt war, wurde betont, dass einige Jahre in sklavenähnlichem Arbeitsverhältnis notwendig seien, damit sie ausreichend Zeit zum Lernen hätten.
Einige mittelalterliche Päpste sprachen sich entschieden gegen die Sklaverei aus. Johannes VIII. erklärte 873 in der Bulle Unum est, sie sei nach der Lehre Christi nicht zu rechtfertigen. Pius II. nannte in einem Brief den Sklavenhandel ein „magnum scelus“, ein großes Verbrechen, und verdammte Versklavung in einer Bulle vom 7. Oktober 1462.
1510 wurden die Theorien von Aristoteles zum ersten Mal von dem schottischen Gelehrten John Major auf die amerikanischen Indianer angewendet. Erst 1537 wurde mit der Bulle Sublimis Deus festgestellt, dass andere, nichteuropäische Ethnien, z. B. Indianer, echte Menschen seien, mit der Befähigung, den katholischen Glauben zu verstehen. Nun wurde es verboten, ihnen die Freiheit und ihren Besitz zu nehmen. Doch noch im 19. Jahrhundert wurden entgegengesetzte Ansichten vertreten. George Fitzhugh etwa publizierte 1854 ein Buch, in dem er schrieb: „Einige Menschen sind mit einem Sattel auf dem Rücken geboren, und andere sind gestiefelt und gespornt, um diese zu reiten. Und es tut ihnen gut!“
Sklaverei und sklavereiähnliche Abhängigkeit heute
„Als moderne Sklaverei wird eine ausbeuterische Lebenssituation angesehen, aus der es für die Opfer wegen Drohungen, Gewalt, Zwang, Machtmissbrauch oder Irreführung kein Entrinnen gibt. Vielfach werden die Betroffenen auf Fischerbooten in Asien festgehalten, als Hausangestellte ausgebeutet oder in Bordellen zwangsprostituiert.“
Im April 2006 veröffentlichte Terre des hommes Zahlen, nach denen mehr als 12 Mio. Menschen als Sklaven betrachtet werden müssen; darunter etwa die Hälfte Kinder und Jugendliche. Diese Zahlen wurden später von Seiten der Vereinten Nationen bestätigt. Es handelt sich um Opfer von Menschenhandel und Zwangsarbeit. In Indien, Bangladesch und Pakistan leben demnach die meisten Zwangsarbeiter. Auch in den Industrieländern leben insbesondere Frauen als Zwangsprostituierte unter sklavereiähnlichen Umständen. Darüber hinaus werden im Baugewerbe, in Haushalten und in der Landwirtschaft Arbeitskräfte illegal ohne Rechte beschäftigt. In Mitteleuropa sind Einzelfälle von sklavereiähnlichen Arbeitsverhältnissen bekannt. So hielt sich ein jemenitischer Kulturattaché in Berlin, der Diplomatische Immunität genoss, jahrelang eine unbezahlte Hausangestellte unter sklavereiähnlichen Bedingungen.
Die Geschichte der Sklaverei im Islam ist auch in jüngster Zeit noch nicht abgeschlossen. So wird über Sklaverei im Islamischen Staat berichtet.
Nach einem Mitte 2016 veröffentlichten Bericht der Walk Free Foundation, einer von dem australischen Unternehmer und Milliardär Andrew Forrest und seiner Gattin Nicola im Kampf gegen moderne Formen der Sklaverei gegründeten Stiftung sollen weltweit nahezu 46 Mio. Menschen als Sklaven oder sklavenähnlich Beschäftigte leben; zwei Drittel davon im asiatisch-pazifischen Raum. Indien sei mit mehr als 18 Mio. das Land mit den meisten Betroffenen, auf den Plätzen zwei und drei folgten China mit 3,4 Mio. und Pakistan mit 2,1 Mio. Nordkorea weise mit 4,37 % die höchste Quote im Verhältnis zur eigenen Bevölkerung auf, es sei zudem das einzige Land der Welt, das nichts gegen Sklaverei unternehme. Im Weiteren gehörten Russland, China, Nordkorea, Nigeria, Irak, Indonesien, Kongo und die Philippinen zu den zehn Ländern, in welchen nach dem 2018er-Rating der Walk Free Foundation 60 % der Gesamtzahl der Sklaven in der Welt existieren.
Durch die weltweite COVID-19-Pandemie berichtet Terre des hommes 2020 erstmals von 40 Millionen Sklaven. Durch die Folgen der Pandemie würden Menschenhändler die Not der Menschen ausnutzen und sie zum Beispiel in Kredite mit unüblich hohen Zinsen verwickeln, die über Generationen abgezahlt werden müssen. Die neusten Schätzungen der Internationalen Arbeitsorganisation in Zusammenarbeit mit der Walk Free Foundation belaufen sich 2022 auf knapp 50 Millionen Sklaven. Davon waren 28 Millionen Menschen in Zwangsarbeit und 22 Millionen in Zwangsehen gefangen.
Die Walk Free Foundation hat einen Global Slavery Index (dt. ‚Globaler Sklaverei-Index‘) entworfen und erstellt: Er gibt neben der Sammlung von Daten auch einen Überblick über das Engagement der Politik weltweit.
Situation in einzelnen Ländern
Brasilien
Sklavereiähnliche Arbeitsbedingungen sind in ländlichen Regionen Brasiliens bis heute weit verbreitet, das Phänomen geht deutlich über Einzelfälle hinaus. Seit Jahren wird daher eine intensive Debatte in den Medien, unter Menschenrechtlern und in der Wissenschaftlichen Öffentlichkeit geführt, Stichwort ist die trabalho escravo, i. e. „Moderne Sklaverei“. Ergebnisse der Debatte sind eine Anpassung des brasilianischen Arbeitsrechts, das sklavereiähnlichen Arbeitsbedingungen erstmals definiert und unter Strafe stellt. Die Definition von „moderner Sklaverei“ umfasst dabei nicht das eigentliche Eigentum an Menschen, das in Brasilien seit 1888 abgeschafft ist, sondern beschreibt Arbeitsbedingungen wie Schuldknechtschaft, Freiheitsberaubung am Arbeitsplatz, überlange und auszehrende Arbeitstage. Diese Zustände entsprechen zwar der Form halber vertraglicher Lohnarbeit, kommen aber faktisch der Sklaverei nahe. Mit dieser modernen Definition kann das Arbeitsrecht, so es denn vor Ort auch umgesetzt wird, moderne Sklaverei erfassen und die Profiteure bestrafen.
Haiti
In Haiti leben laut einem Bericht der Kindernothilfe im Jahr 2009 etwa 300.000 Kinder beiderlei Geschlechts als Haussklaven, sogenannte Restavecs (von franz.: rester avec ‚bei jemandem bleiben‘) in Familien der Ober- und Mittelschicht vornehmlich der Hauptstadt Port-au-Prince. Sie stammen zumeist aus auf dem Land lebenden Familien, die ihre Kinder kaum noch ernähren können und sie daher in der Regel kostenlos besser gestellten Familien überlassen. Dort haben sie täglich bei freier Kost und Logis, aber ohne Möglichkeit der Schulausbildung und ohne Bezahlung alle anstehenden Arbeiten im Haushalt zu erledigen. Körperliche Züchtigung und sexueller Missbrauch ohne strafrechtliche Konsequenzen für die Täter sind an der Tagesordnung. Obwohl in die Verfassung von Haiti nach dem Ende der Sklaverei und der Erklärung der Unabhängigkeit im Jahre 1804 auch einmal ein Passus aufgenommen wurde, der Kindern grundsätzlich ein „Recht auf Liebe, Zuwendung und Verständnis“ zusichert und auch die „Freiheit der Arbeit“ regelt, werden in der täglichen Realität diese Vorsätze nicht umgesetzt.
Dominikanische Republik
Nach Schätzung der Internationalen Organisation für Migration (OIM) werden jährlich etwa 2000 haitianische Kinder von Schleuserbanden illegal über die Grenze in die Dominikanische Republik geschafft und dort als Haussklaven und Arbeitskräfte in der Landwirtschaft verkauft.
Großbritannien
In Großbritannien, insbesondere in London, wurden seit Ende der 2010er Jahre mehrfach Gastarbeiterinnen von den Philippinen und aus anderen Ländern gerettet. Den als Hausmädchen angestellten Frauen seien unter anderem Bewegungsfreiheit, Lohn und körperliche Unversehrtheit vorenthalten worden, was in vielen Fällen sklavereiähnlichen Lebensumständen entsprach.
Mauretanien
Die Sklaverei in Mauretanien besteht trotz ihrer mehrmaligen offiziellen Abschaffung – zuletzt 2007 – weiter fort und betrifft die Nachfahren von vor Generationen versklavten und bis heute nicht freigelassenen Menschen, die ʿAbīd (Sing. Abd), die den „weißen Mauren“ (Bidhan) als Sklaven dienen. Ihre Zahl ist unbekannt, wird aber von Menschenrechtsgruppen auf die Größenordnung von Hunderttausenden geschätzt.
Sudan
Das Fortbestehen der Sklaverei im Sudan und Südsudan betraf vor allem die Ethnien der Dinka und Nuba und wurde durch Berichte ehemaliger Sklaven wie Mende Nazer und Francis Bok international bekannt. Wie viele Menschen dort versklavt wurden bzw. weiterhin in Sklaverei leben, ist nicht genau bekannt, Schätzungen reichen von einigen Zehntausend bis Hunderttausend.
Elfenbeinküste
Laut Anti-Slavery International sollen laut Greenpeace in der Elfenbeinküste, von wo 40 % der weltweiten Kakaoernte stammen, rund 200.000 teils aus Nachbarländern stammende Kindersklaven als Erntehelfer eingesetzt werden. Es sind Jungen und Mädchen im Alter von 10 bis 14 Jahren, die zumeist aus Mali, Burkina Faso, Niger, Nigeria, Togo und Benin stammen und ohne Lohn nur gegen Kost und Logis arbeiten. Sie müssten dabei zu 90 % schwere Lasten tragen und zu zwei Dritteln ungeschützt Pestizide versprühen. Um das Jahr 2000 haben sich Schokoladenhersteller verpflichtet, an diesen Zuständen etwas zu ändern. Laut einer Studie des kirchennahen Südwind-Instituts ist danach aber kaum etwas passiert. Wie oft im internationalen Handel wird ein niedriger Einkaufspreis mit so gut wie allen Mitteln vorangetrieben. In den USA ist daher ein Gerichtsverfahren wegen Sklaverei und Verschleppung von Kindern aus Mali gegen Nestlé anhängig.
Katar
In vielen Ländern der arabischen Welt, so auch in Katar wurden ausländische Arbeitnehmer durch das Kafala-System in sklavenähnlicher Abhängigkeit gehalten, so dass sie dem „Bürgen“ den Pass abgeben und den Arbeitgeber nicht wechseln dürfen.
Aufgrund der Nominierung 2010 für die Fußball-Weltmeisterschaft 2022 erhielten fehlende Menschenrechte und ausbeuterische Arbeitsbedingungen im Land große mediale Aufmerksamkeit. Katar versuchte mit der Ankündigung von Reformen und der offiziellen Abschaffung des Kafala-Systems sowie einer Zusammenarbeit mit ILO (International Labour Organization) die öffentliche Meinung von sich zu überzeugen. Allerdings sollen in der Praxis gerade für den Bau der Stadien und dem Ausbau der Infrastruktur eine große Anzahl an Bauarbeitern aus dem Ausland in sklavenähnlichen und menschenunwürdigen Verhältnissen gehalten worden sein. Beklagt wurden u. a. Arbeitszeiten von bis zu 17 Stunden am Tag, über Monate nicht ausgezahlter Mindestlohn, sowie das fehlende Streikrecht. Lt. Amnesti International sollen auch fast 70 % der Todesfälle ungeklärt sein. Die Totenscheine der meist jungen Arbeiter sollen ohne ausreichende Untersuchung in der Regel mit natürlichen Todesursachen wie Herzversagen oder Atemnot ausgestellt worden sein. Die Regierung dagegen behauptet, ihre Unfall- und Sterbestatistiken würden internationalen Standards entsprechen.
Afghanistan
Besonders im Norden Afghanistans wird noch heute die jahrhundertealte, nach wie vor in weiten Kreisen gesellschaftlich akzeptierte Tradition der „Bacha bazi“ (wörtlich „Knabenspiel“) praktiziert: Bei dieser Form der Kinderprostitution, die von einem UN-Mitarbeiter als Kindersklaverei bezeichnet wird, tanzt ein als Frau verkleideter Junge (Bacchá) zunächst vor Männern und muss anschließend diese zumeist auch sexuell befriedigen. Die „Tanzjungen“ sind zwischen acht und etwa vierzehn Jahren alt, werden oft armen Familien abgekauft, teilweise entführt oder sind Waisen von der Straße. Sie werden zunächst zu Tänzern für Sexpartys gleichkommenden Unterhaltungsveranstaltungen ausgebildet, jedoch spätestens nach Einsetzen des Bartwuchses von ihren „Besitzern“ gegen jüngere Knaben ausgetauscht, günstigstenfalls mit einer älteren, nicht mehr jungfräulichen Frau verheiratet, gelegentlich auch zusätzlich mit kleinem Haus und Hof abgefunden, meist aber einfach nur entschädigungslos verstoßen. Nicht wenige „Bacha bazis“ sind ermordet worden, nachdem sie zu ihrer „attraktiven“ Zeit versucht hatten, ihren „Herren“ zu entfliehen. Dies geschieht, obwohl Homosexualität im Islam traditionell abgelehnt wird und ein Großteil der afghanischen Männer Homosexualität in alltäglich öffentlichen Gesprächen als widerwärtig und abstoßend bewerten.
Zur Zeit der Taliban wurde die Praxis bis 2001 unter Strafe gestellt und verschwand aus dem öffentlichen Raum. Mit der US-Invasion im Jahr 2001 ließen ehemaligen Mudschaheddin diesen Brauch wieder aufleben, und die Pädophilie soll ihren Höhepunkt erreicht haben. Im ganzen Land sollen Jungen entführt, vergewaltigt, verschleppt und als Sexsklaven verkauft worden sein. 2015 wurde durch einen Artikel in der New York Times öffentlich, dass die US-Streitkräfte unter Androhung der Suspendierung angewiesen waren „wegzuschauen“ wenn sich Mitglieder der afghanischen Sicherheitskräfte an Minderjährigen vergingen. 2017 wurde aufgrund öffentlichen Drucks die Praxis mit einer Haftstrafe von 7 Jahren bis zu lebenslänglich belegt.
Aufgrund der afghanischen Gesellschaftsstrukturen und der Angst vor Racheakten sollen Bacha-Bazi–Fälle selten gemeldet worden sein und weiter praktiziert worden sein. Obwohl sie diese Praktiken einst verboten haben, sollen die Taliban heute nach ihrer Machtübernahme 2021 die Jungen nicht nur sexuell ausbeuten, sondern auch als Soldaten, Leibwächter oder Selbstmordattentäter benutzen.
Nepal
In Nepal ist die Leibeigenschaft seit 2000 gesetzlich verboten. Dennoch werden jedes Jahr tausende minderjährige Mädchen meist ab ihrem fünften, manche sogar ab dem vierten bis zum 15. Lebensjahr verkauft, um in Häusern reicher Grundbesitzer als sogenannte Kamalaris völlig rechtlos und ohne jeden Schutz bis zu 16 Stunden täglich alle möglichen Arbeiten zu verrichten. 10 Prozent von ihnen würden von ihren Besitzern auch sexuell missbraucht.
Vereinigte Staaten von Amerika
Ein 2023 erschienener Bericht des Menschenrechtsrats der Vereinten Nationen kritisierte „plantagenartige“ Gefängnisse in den USA, deren verpflichtende Gefängnisarbeit eine „zeitgenössische Form der Sklaverei“ darstelle.
Strafbestimmungen
In § 104 des österreichischen Strafgesetzbuches wird Sklavenhandel und die Versklavung anderer mit Freiheitsstrafe von zehn bis zwanzig Jahren bedroht.
Nach dem deutschen StGB wird Versklavung mit Freiheitsstrafe von sechs Monaten bis zu zehn Jahren, in schweren Fällen von einem Jahr bis zu zehn bzw. fünfzehn Jahren bestraft (§ 232b ggf. i. V. m. § 232a). Das Halten eines Menschen als Sklave ist an sich als Freiheitsberaubung strafbar (auch wenn der Täter an der Versklavung nicht beteiligt war oder diese verjährt ist). Der Sklavenhandel wird nach dem deutschen Gesetz betreffend die Bestrafung des Sklavenraubes und des Sklavenhandels mit Freiheitsstrafe von einem Jahr bis zu fünfzehn Jahren bestraft. Die Höchststrafe von fünfzehn Jahren ergibt sich für Tatbestände, die keine Höchststrafe nennen, aus § 38 StGB.
Wird die Versklavung im Rahmen eines ausgedehnten oder systematischen Angriffs gegen eine Zivilbevölkerung begangen, liegt ein Verbrechen gegen die Menschlichkeit vor. In Deutschland drohen dann gemäß § 7 Absatz 1 Nr. 3 VStGB fünf bis fünfzehn Jahre Freiheitsstrafe, bei Todesfolge kann gemäß Absatz 3 lebenslange Freiheitsstrafe verhängt werden. In Österreich kann lebenslange Freiheitsstrafe bei Verbrechen gegen die Menschlichkeit auch dann verhängt werden, wenn niemand zu Tode kam (§ 321a Absatz 2 österreichisches Strafgesetzbuch).
Internationale Bekämpfung der Sklaverei und „moderner“ Formen der Unfreiheit
Der Europarat verurteilt und kriminalisiert jegliche Art der Sklaverei in Artikel 4 der Europäischen Menschenrechtskonvention verbietet Sklaverei. Viele Politiker und Menschenrechtsorganisationen, deren Engagement der Bekämpfung modernen Formen der Unfreiheit – besonders der Zwangsprostitution, der Zwangsarbeit, der Kinderarbeit und der Rekrutierung von Kindern als Soldaten – gilt, bemühen sich um eine Anerkennung dieser Phänomene als Sklaverei. Heutzutage soll es mehr Sklaven auf der Welt geben als jemals zuvor in der Geschichte der Menschheit.
Die Vereinten Nationen und deren Unterorganisationen wie die Internationalen Arbeitsorganisation und das Büro der Vereinten Nationen für Drogen- und Verbrechensbekämpfung (UNODC) sowie international tätige Menschrechtsorganisationen wie Amnesty International oder World Vision International sowie auf die Bekämpfung von Sklaverei und Menschenhandel fokussierte Organisationen wie die Walk Free Foundation, International Justice Mission und A21 setzen sich für eine vollständige Abschaffung der Sklaverei ein.
2014 wurde von der Generalversammlung der Vereinten Nationen der 30. Juli zum Welttag gegen Menschenhandel ernannt. Das Motto 2022 war: Einsatz und Missbrauch von Technologie (“Use and abuse of technology”). Unter anderem in den sozialen Medien hat UNODC darauf aufmerksam gemacht, dass verstärkt durch die COVID-19-Pandemie und die Verlagerung unseres Alltags auf Online-Plattformen, sich auch Menschenhändler die Geschwindigkeit, Kosteneffizienz und Anonymität des Internet zu Nutze machen, um ihre Opfer anzuwerben, auszubeuten und zu kontrollieren. Das UNODC sieht in der Nutzung der Technologie auch große Chancen für Strafverfolgungsbehörden, die Strafjustiz und andere Stellen, um Licht in die Vorgehensweise von Menschenhandelsnetzwerken zu bringen und digitale Beweismittel sicherzustellen. Auch sieht es darin neuen Möglichkeiten für niederschwellige Unterstützungsdienste für Überlebende sowie Präventions- und Sensibilisierungsmaßnahmen.
Anlässlich des Anti-Slavery-Day bzw. des Europäischen Tag gegen Menschenhandel am 18. Oktober organisiert die 2008 gegründete Organisation A21 jedes Jahr unter dem Motto Walk for freedom einen internationalen Schweigemarsch in rund 50 Ländern. 2022 wurde der Walk in 17 Städten des deutschsprachigen Raums durchgeführt.
Organisationen wie Zeromacho Deutschland e. V. vertreten die Auffassung, die in Deutschland legale Prostitution sei eine moderne Form der Sklaverei, da in ihr das unveräußerliche Recht auf sexuelle Selbstbestimmung, und damit ein integraler Bestandteil des Menschen, gehandelt würde. Tage wie den Internationalen Tag für die Abschaffung der Sklaverei am 2. Dezember nehmen sie 2021 zum Anlass um gemeinsam mit weiteren Bündnispartnern für das sogenannte Nordische Modell zu werben, welches Entkriminalisierung und Ausstiegshilfen für Menschen aus der Prostitution beinhaltet und auf der Nachfrageseite den Kauf sexueller Handlungen unter Strafe stellt.
Siehe auch
Geschichte der Sklaverei
Sklavenhandel auf Timor
Sklavereiabkommen
Literatur
Geschichte
Deutsch
Egon Flaig: Weltgeschichte der Sklaverei (= Becksche Reihe. Band 1884). Beck, München 2009, ISBN 978-3-406-58450-3.
Heinz Heinen: Handwörterbuch der antiken Sklaverei (= Forschungen zur antiken Sklaverei. Beiheft 5). 3 Bände, Steiner, Stuttgart 2017, ISBN 978-3-515-10161-5.
Elisabeth Herrmann-Otto (Hrsg.): Unfreie Arbeits- und Lebensverhältnisse von der Antike bis zur Gegenwart. Eine Einführung. Olms, Hildesheim 2005, ISBN 3-487-12912-4.
Julia Holzmann: Geschichte der Sklaverei in der niederländischen Republik. Recht, Rassismus und die Handlungsmacht Schwarzer Menschen und People of Color, 1680–1863. transcript, Bielefeld 2022, ISBN 978-3-8376-5886-6.
Peter Martin: Das rebellische Eigentum. Vom Kampf der Afroamerikaner gegen ihre Versklavung. Junius, Hamburg 1985, ISBN 3-88506-139-2.
Max Weber: Die sozialen Gründe des Untergangs der antiken Kultur. In: Die Wahrheit. Band 3, Heft 63, Frommanns, Stuttgart 1896, S. 57–77 (Volltext als PDF-Datei).
Albert Wirz: Sklaverei und kapitalistisches Weltsystem. Suhrkamp, Frankfurt am Main 1984, ISBN 3-518-11256-2.
Michael Zeuske: Handbuch Geschichte der Sklaverei. Eine Globalgeschichte von den Anfängen bis zur Gegenwart. 2., überarbeitete und erweiterte Auflage, De Gruyter, Berlin/ New York 2019, ISBN 978-3-11-027880-4.
Michael Zeuske: Sklaverei. Eine Menschheitsgeschichte. Von der Steinzeit bis heute. Paperback, 2., überarbeitete und erweiterte Auflage, Reclam, Ditzingen 2021, ISBN 978-3-15-020546-4.
Michael Zeuske: Afrika-Atlantik-Amerika. Sklaverei und Sklavenhandel in Afrika, auf dem Atlantik und in den Amerikas sowie in Europa (= Jeannine Bischoff, Stephan Conermann, Dependency and Slavery Studies. Band 2). De Gruyter, Berlin/ New York 2022, ISBN 978-3-11-078714-6.
ver.di – Vereinte Dienstleistungsgewerkschaft, Medien, Kunst und Industrie Hamburg/ Nord: ().
Englisch
Hilary Beckles, Verene Shepherd (Hrsg.): Caribbean slave society and economy. Ian Randle Publishers, Kingston/ James Currey Publishers, London 1991.
Stephan Conermann, Stephan/ Michael Zeuske (Hrsg.): The Slavery/Capitalism Debate Global. From „Capitalism and Slavery“ to Slavery as Capitalism (= Comparativ. Zeitschrift für Globalgeschichte und Vergleichende Gesellschaftsforschung. Band 30, Nr. 5/6, 2020). Leipziger Universitätsverlag, Leipzig 2021, ISBN 978-3-96023-342-8.
Robert C. Davis: Christian Slaves and Muslim Masters – White Slavery in the Mediterranean, the Barbary Coast, and Italy, 1500–1800. Palgrave Macmillan, Houndmills (GB) 2003, ISBN 0-333-71966-2.
Seymour Drescher: Abolition – A History of Slavery and Antislavery. Cambridge University Press, New York 2009, ISBN 978-0-521-60085-9.
Frederick C. Knight: Working the Diaspora – The Impact of African Labor on the Anglo-American World 1650–1850. New York University Press, New York/ London 2010, ISBN 978-0-8147-4818-3.
Kenneth Morgan: A Short History of Transatlantic Slavery. Tauris, London/ New York 2016, ISBN 978-1-78076-386-6.
Orlando Patterson: Slavery and Social Death. A Comparative Study. Harvard University Press, Cambridge (MA)/ London 1982, ISBN 0-674-81083-X.
Johannes Postma: The Atlantic Slave Trade. University Press of Florida, Gainesville et al. 2005.
Joel Qirk: The Anti-Slavery Project. From the Slave Trade to Human Trafficking. University of Pennsylvania Press, Philadelphia 2011, ISBN 978-0-8122-4333-8.
Jonathan Schorsch: Jews and Blacks in the Early Modern World. Cambridge University Press, Cambridge 2004, ISBN 0-521-82021-9.
Eric Eustace Williams: Capitalism and Slavery. University of North Carolina Press, Chapel Hill 1944.
Keith Bradley, Paul Cartledge, David Eltis, Stanley L Engerman, Seymour Drescher: The Cambridge World History of Slavery. 4 Bände, Cambridge University Press, Cambridge/ New York 2011 ff, ISBN 978-0-521-84066-8.
David Stefan Doddington, Enrico Dal Lago (Hrsg.): Writing the History of Slavery. Bloomsbury Academic, London 2022, ISBN 978-1-4742-8557-5.
Gegenwart
Deutsch
Kevin Bales: Die neue Sklaverei. Kunstmann, München 2001, ISBN 3-88897-264-7.
E. Benjamin Skinner: Menschenhandel. Sklaverei im 21. Jahrhundert. Bergisch Gladbach, Lübbe 2008, ISBN 978-3-7857-2342-5; Interview mit dem Autor: „Es gab noch nie soviele Sklaven“. In: Die Welt. 21. November 2008, S. 10.
Giselle Sakamoto Souza Vianna: Zwang und formale Freiheit in der Modernen Sklaverein in Brasilien: Konzepte in der Diskussion. In: Arbeit – Bewegung – Geschichte. Zeitschrift für historische Studien. Heft I/2016.
Englisch
Louise Brown: Sex Slaves. The Trafficking of Women in Asia. Virago Books, New York 2002, ISBN 1-86049-903-1.
Austin Choi-Fitzpatrick: What Slaveholders Think: How Contemporary Perpetrators Rationalize What They Do. Columbia University Press, New York 2017, ISBN 978-0-231-18182-2.
Joel Quirk: Unfinished Business: A Comparative Survey of Historical and Contemporary Slavery. PDF, Wilberforce Institute for the study of Slavery and Emancipation (WISE), 2008.
Filme
Sklaven heute – Geschäft ohne Gnade, italienisch-französischer Dokumentarfilm (1964)
Daniel Cattier, Juan Gélas, Fanny Glissant (Regie): Menschenhandel – Eine kurze Geschichte der Sklaverei. Frankreich, Dokumentation, 2018. Originaltitel: Les routes de l'esclavage.
Weblinks
antislavery.org: today's fight for tomorrow's freedom („GegenSklaverei.org“: „Der Kampf von heute für die Freiheit von Morgen“)
Zuckerrohr und Sklaverei, deutsches-museum.de
Weltweit 46 Millionen Menschen versklavt, deutschlandfunk.de
globalslaveryindex.org („Weltweiter Sklaverei-Index“)
Bonn Center for Dependency and Slavery Studies (Forschungszentrum der Universität Bonn zu Sklaverei und Abhängigkeitsverhältnissen in Geschichte und Gegenwart)
Einzelnachweise
|
Q8463
| 969.739474 |
82544
|
https://de.wikipedia.org/wiki/M%C3%BCnze
|
Münze
|
Eine Münze ist in der Numismatik ein meist rundes und relativ zum Durchmesser dünnes, geprägtes oder früher auch gegossenes, in neuerer Zeit meist vom Staat ausgegebenes gesetzliches Zahlungsmittel und damit neben der Banknote eine Art des Bargeldes. Im übertragenen Sinn steht die Bezeichnung „Münze“ auch für eine Münzstätte.
Allgemeines
Das Wort Münze ist ein Lehnwort aus dem Lateinischen (), das um 790 im Althochdeutschen als „muniza“ und 830 als „muniz“ auftauchte.
Münzen bestehen fast immer aus einer Metall-Legierung. Eckige Münzen heißen in der Numismatik Klippen und noch ungeprägte Münzrohling Ronde, Platte bzw. früher Schrötling. Münzen werden heute überwiegend durch Münzprägung hergestellt. Eine Münze ist oder war gesetzliches Zahlungsmittel und als solches vom Staat oder staatlichen Stellen ausgegeben. Fehlt es an einer dieser beiden Voraussetzungen, liegt keine Münze vor.
Nach ihrer Funktion lassen sich Münzen in Kursmünzen (für den alltäglichen Zahlungsverkehr), Gedenkmünzen (als Sammelobjekte zur Erinnerung an ein Ereignis) und Anlagemünzen (als Geldanlage) unterscheiden. Gedenkmünzen und Anlagemünzen gehören streng genommen zu den Medaillen, die nicht dem Zahlungsverkehr dienen. Davon abzugrenzen sind Marken oder Zeichen, die als münzähnliche Prägungen verschiedenste Zwecke erfüllen, zum Beispiel als Wertmarke, Spielmarke, Lebensmittelmarke, Garderobenmarke oder Token. Im Hinblick auf das Verhältnis zwischen Metallwert und Nennwert unterscheidet man zudem zwischen Kurantmünzen und Scheidemünzen.
Geschichte des Münzgeldes
Geld in Form von Münzen war lange Zeit das einzige Bargeld – bis im 11. Jahrhundert das erste Papiergeld aufkam. Somit kam es nach und nach zu einer Koexistenz von Münzen und Banknoten, was bis heute der Fall ist.
Anfänge in Kleinasien, Griechenland und China
Die ersten Funde von vermutlichem Metallgeld stammen aus dem Mittelmeerraum und datieren um die Zeit 2000 v. Chr. Es handelt sich dabei um Haustierminiaturen aus Bronze.
Lydien
Die ersten Münzen wurden im Reich der Lyder zwischen 650 und 600 v. Chr. als Zahlungsmittel herausgegeben (siehe auch: Alyattes II. und Krösus). Dabei handelte es sich um unförmige Brocken aus Elektron, einer natürlich vorkommenden Gold-Silber-Legierung, zuerst bildlos. Bildliche Darstellungen auf Münzen kamen um 600 v. Chr. auf. Danach folgten Goldmünzen in verschiedenen Größen und Werten.
Griechenland
Die ersten Silbermünzen wurden um 550 v. Chr. in Kleinasien und auf der griechischen Insel Ägina geprägt. Bis etwa 400 v. Chr. setzte sich die Münze in ganz Griechenland gegenüber dem Tauschhandel durch. Allerdings gab es kein einheitliches Münzsystem, sondern mehrere Regionen, in denen jeweils eine Münzfamilie dominierte. Langsam baute aber der 17 Gramm schwere attische Tetradrachmon mit seinen Teilstücken (z. B. Hemidrachmon, Obolos, lateinisch: Obolus, Hemiobolos, Tetartemorion) und selten auch größeren Einheiten (Dekadrachmon = 10 Drachmen) eine dominierende Stellung auf.
Ab der zweiten Hälfte des 5. Jahrhunderts vor Christus wurden die ersten Bronzemünzen geprägt. Sie waren zugleich die ersten Scheidemünzen, d. h. bei ihnen war der Nominalwert höher als der Metallwert.
Die Darstellung von Herrschern auf Münzen setzte sich im griechischen Raum und in den Diadochenreichen erst nach Alexander dem Großen durch. Silber blieb der bestimmende Rohstoff.
China
Im antiken China war Kaurigeld das erste bekannte Zahlungsmittel. Während der Shang-Dynastie kam der Gebrauch von einfachen Bronzestücken auf und unter der späten Zhou-Dynastie lässt sich (um 500 v. Chr.) erstmals die Verwendung von messer- und spatenförmigen Münzen nachweisen. Der Erste Kaiser Qin Shi Huangdi vereinheitlichte im Zuge der Reichseinigung 221 v. Chr. das Geld zu Gunsten einer gemeinsamen Kupferwährung aus runden Lochmünzen (Käsch), einer Form, die dann mehr als 2000 Jahre lang beibehalten wurde.
Römische Münzen
Die ersten runden Münzen der römischen Republik stammen aus dem 3. Jahrhundert vor Christus und wurden aus Kupfer oder Bronze geschlagen, die großen, ein Pfund schweren Kupferstücke, das As (Aes grave), war jedoch gegossen. Zuerst wurde mit dem Bronze-Gussregulus, dem Aes rude, und danach mit genormten Bronzegussbarren, dem Aes signatum, bezahlt. Auf diesem Barrengeld waren Motive wie Stiere, Schweine, Hühner aber auch Schilde, Heroldstab, Anker, Dreizack, Waffen oder liturgische Gegenstände (Opferschale) mit Ornamenten meist beidseitig abgebildet. Nachdem die Bronzebarren ihre Gültigkeit verloren hatten, trugen viele frühe römische As- und As-Teil-Münzen, die dem Barrengeld folgten, als Motiv auf der Rückseite meist einen Schiffsrumpf (Prora), was an die Eroberung der Flotte von Antium erinnern sollte, und auf der Vorderseite verschiedene Götterbilder, wie z. B. Vulkanus, dem Gott der Schmiedekunst. Die erste römische Silbermünze (Quadrigatus), im griechischen Drachmenstil, wurde gegen 269 v. Chr. geschlagen. Die Silberprägung im großen Stil setzte in Rom aber um 211 v. Chr. mit dem Denar ein. Julius Caesar war der erste Lebende, der auf einer römischen Münze im vollen Kopfprofil „als Gott“ abgebildet wurde (44 v. Chr.).
In der Kaiserzeit wurden Münzen aus Gold (Aureus), Silber (Denar), Messing (Sesterz und Dupondius) sowie Kupfer (As) geschlagen. In der Zeit der Soldatenkaiser setzte sich langsam der silberne Antoninian gegen den Denar durch. Unter Kaiser Diokletian wurden neue Münznominale eingefügt, wie beispielsweise der Argenteus, und die Münzen Nummus und Follis. Insgesamt verfiel das römische Münzwesen unter den Kaisern zusehends. Ab Anfang des 4. Jahrhunderts setzte sich das juwelenbesetzte Diadem gegen den ursprünglichen Lorbeerkranz auf den Vorderseiten der Münzen durch. Die Gesichter der Kaiser wurden immer schlechter dargestellt, was zeigt, dass das Diadem den Kaisern auf ihren Münzen wichtiger war als eine ordentliche Darstellung. Im Weströmischen Reich schließlich tauchten auf den Münzen immer mehr Rechtschreibfehler auf, da die meisten der Münzpräger nur noch schlecht Latein sprechen und schreiben konnten. Die oströmischen Münzen lösten sich schnell von den reichsrömischen Vorbildern und entwickelten eine eigene Formensprache.
Die germanischen Staaten der Völkerwanderungszeit prägten teilweise Münzen, die sich entweder am west- oder am oströmischen Vorbild orientierten.
Das Mittelalter
Von Spätantike bis Frühmittelalter ging der Umlauf von Münzen in Europa stark zurück. Der Tauschhandel nahm zu, und größere Geldgeschäfte wurden oft mit ungemünztem Metall beglichen. Die Standardwährung bildeten der byzantinische Solidus und die Siliqua mit den verschiedenen Unterteilungen. Die germanischen Herrscher, die neue Reiche auf dem Boden des Weströmischen Reiches errichteten, erkannten meist die Prägehoheit der byzantinischen Herrscher an und imitierten deren Prägungen. Nur vereinzelt setzten sie ihren eigenen Namen, ihr Monogramm oder gar ihr Bildnis auf die Münzen.
Karl der Große führte um 792 bis 793 eine Münzreform durch, die von der Gold- und Silberwährung hin zur einheitlichen Silberwährung führte. Siehe Schilling. Es wurde der Denar oder Pfennig als die nahezu ausschließlich geprägte Münze neu eingeführt. Vorangegangen war die Überlegung, dass Gold fast nur durch den Fernhandel zu beziehen war, während Silber in Europa nördlich der Alpen reichlich vorhanden war. Daher hob Karl die Goldbindung des Geldes auf und führte den Silberdenar als reichsweit geltende verbindliche Währung ein. Als Münzgrundgewicht wurde das Pfund zu 367 g festgelegt, aus dem 240 Pfennige (Denare) geschlagen wurden, was so in Karls Münzordnung festgelegt war. Ein Solidus bzw. Schilling waren 12 Denare; ein Pfund (libra), dessen Gewicht gegenüber dem antiken Maß erhöht wurde, entsprach 20 Solidi. Der angelsächsische König Offa von Mercien übernahm zur gleichen Zeit diese Regelung, die in England bis 1971 in Kraft war. (Siehe auch Sachsenpfennig – Münzfuß.)
Das ursprünglich königliche Münzrecht weitete sich allerdings im Heiligen Römischen Reich zunehmend auf weitere weltliche und geistliche Würdenträger aus, was eine Vielzahl an unterschiedlichen Versionen des Pfennigs („Regionaler Pfennig“) und eine allgemeine Verringerung des Silbergehalts der Münzen zur Folge hatte.
Von der Mitte des 12. Jahrhunderts bis ins 14. Jahrhundert waren die Brakteaten fast im gesamten deutschsprachigen Raum (mit Ausnahme des Rheinlands und des Alpenraumes) die vorherrschende Münzsorte. Diese dünnen, einseitig geprägten silbernen Pfennigmünzen setzten gewissermaßen den Prozess des Gewichtsverlustes der alten Pfennige fort. Brakteaten wurden von Zeit zu Zeit „verrufen“, das heißt für ungültig erklärt und von ihren Besitzern zurückgefordert, um sie gegen eine geringere Menge neuer Münzen umzutauschen. Der Abschlag konnte bis zu 25 % betragen. Dies war eine damals übliche Form der Steuererhebung.
Um stabile Verhältnisse für Handel und Gewerbe zu schaffen, waren hauptsächlich die Handelsstädte daran interessiert, die Münzprägung in die eigenen Hände zu nehmen. Mehrere Städte nutzten eine sich bietende Möglichkeit, die Münzstätte zu pachten oder durch Kauf zu erwerben um eigene Münzen, den sogenannten Ewigen Pfennige zu prägen, die nicht der jährlichen Münzverrufung unterlagen. (Siehe auch: Sächsische Münzgeschichte#Brakteatenzeit und die Dynastenprägungen, zum Beispiel die doninschen Brakteaten.)
Goldmünzen wurden im Hochmittelalter nur selten geschlagen. Erst im 13. Jahrhundert setzten verstärkte Goldprägungen ein. Diese Entwicklung ging von den italienischen Handelsstädten aus. In Frankreich und England waren Goldmünzen weiter verbreitet und die einzelnen Stücke deutlich größer als im Reich. Als weitere Entwicklung des 13. Jahrhunderts kam in Deutschland der Groschen als größere Silbermünze auf. Die Münzbilder des Groschens zeigten erstmals verstärkt auch Fürsten des jeweiligen Territoriums.
Die als der Münzprägung zugrunde liegende Gewichtseinheit Kölner Mark () wird 1166 erstmals erwähnt. Die um 1170 in der Stadt eingeführte Münze wog 233,8123 Gramm, verbreitete sich über das Rheinland schnell in anderen Regionen des Reichs und wurde 1524 zum allgemeinen deutschen Reichsmünzgewicht erhoben.
Im deutschen Münzrecht war das Jahr 1356 ein entscheidendes Datum. Das Münzregal und damit das uneingeschränkte Münzrecht wurde für alle Kurfürsten des Heiligen Römischen Reiches in der Goldenen Bulle von Karl IV. festgeschrieben. Die Kurfürsten leiteten daraus das Recht zum Prägen von Goldmünzen ab.
Das Privileg, Goldgulden zu prägen, war 1340 erstmals der reichsfreien Stadt Lübeck zugestanden worden. Den Fürstbischöfen der Kurtrier und der Kurköln wurde dieses Privileg 1346 von Karl IV. bei dessen Krönung zum römisch-deutschen König verliehen. Sie gründeten 1372 einen Münzverein und ließen den Goldgulden und als gemeinsame Silbermünze den Weißpfennig mit festgelegtem Feingehalt prägen. 1385/86 gründeten die rheinischen Fürstbischöfe und die Kurfürsten von Kurmainz und der Kurpfalz den ersten Rheinischen Münzverein, dem weitere folgten. Der Rheinische Münzverein ließ den rheinischen Gulden in Gold prägen. Dieser war die Grundlage für viele regionale Währungen im gesamten Heiligen Römischen Reich und auf finanzieller Ebene das „einigende Band“ des Reiches.
Kurfürst Friedrich II. der Sanftmütige von Sachsen ließ zum ersten Mal in der sächsischen Münzgeschichte Kursächsische Goldgulden schlagen. Sie wurden zunächst von 1454 bis 1461 im Wert eines neuen rheinischen Guldens geprägt. Nach längerer Pause begann Herzog Albrecht der Beherzte im Jahr 1488 unter seinem alleinigen Namen wieder Goldgulden in Leipzig in größerer Stückzahl zu prägen. Die Münzbilder wurden in Varianten bei sämtlichen Goldgulden der sächsischen Groschenzeit beibehalten. Da sie dem rheinischen Gulden sehr ähnlich sind, ist der kleine sächsische Wappenschild zwischen den Beinen des stehenden Johannes des Täufers ein sicheres Erkennungszeichen. Hauptquelle des Reichtums der sächsischen Fürsten waren jedoch besonders in der zweiten Hälfte des 15. Jahrhunderts die reichen Silbervorkommen im Bergbau in den erzgebirgischen Gruben. Der Grund für die Goldmünzung war hauptsächlich der sich auf Leipzig konzentrierende internationale Handelsverkehr.
Neuzeit
In der Münzkunde beginnt die Neuzeit mit dem Entstehen des Talers. Erstmals wurde 1486 unter Erzherzog Sigismund (Tirol) eine große Silbermünze geschlagen, der Uncialis oder Guldiner. Die erste in größerer Anzahl geprägte Großsilbermünze war der nach dem Vorbild des Tiroler Guldiners geprägte sächsische silberne Gulden. Diese später als Klappmützentaler bezeichnete Großsilbermünze wurde erstmals im Jahre 1500 in der Münzstätte Annaberg/Frohnau und evtl. in der Münzstätte Wittenberg geschlagen. Der sächsische silberne Gulden (Taler) war Vorbild für den im böhmischen Joachimsthal geprägten Guldengroschen, der bald Taler genannt wurde. Der Taler verbreitete sich in den folgenden Jahrhunderten über die ganze Welt und stellt den ersten Fall einer kompletten Ablösung von allen Vorbildern vorangegangener Münzarten dar. Da sich seine Herstellung schnell über zahlreiche Territorien verbreitete, gaben die jeweiligen Landesherren „ihren“ Talern eine individuelle Gestaltung, die im Verlauf des technischen und künstlerischen Fortschritts eine hohe Qualität erreichte. Gelegentlich wurden auch Mehrfachtaler Dicktaler und Breite Taler geschlagen. Ab dem 17. Jahrhundert kamen als neues Motiv Städteansichten auf.
Ein besonderes Sammelgebiet sind die Vikariatsmünzen. Von 1612 bis 1792 wurden in acht Vikariatsfällen sächsische und kurpfälzische Vikariatsmünzen geprägt. Die Vikariatsmünzen wurden nach dem Tod des Kaisers bis zur Krönung des neuen Kaisers geprägt. (Siehe dazu auch Vikariatsmünzen Johann Georgs II. (Sachsen).) Vom Prinzip her ähneln Vikariatsmünzen den Sedisvakanzmünzen, die in der papstlosen Zeit vom Tod eines Papstes bis zur Wahl eines neuen Papstes geprägt wurden.
Die Vielzahl von Kleinmünzen unterhalb des Talers verlor zunehmend an Feingehalt. Diese Entwicklung erreichte in der Kipper- und Wipperzeit während des Dreißigjährigen Krieges ihren Höhepunkt. Außerdem wurden im 17. Jahrhundert erstmals seit der Spätantike wieder Kupfermünzen als Scheidemünzen geprägt. Für den Umsatz werthaltiger Güter setzten sich die goldenen Dukaten durch. Numismatische Raritäten sind Flussgolddukaten.
Arabische Bezeichnungen für europäische Münzen, die durch den Levantehandel in arabischen Staaten verbreitet waren, sind schmückende Beinamen, die dabei meist das Münzbild betreffen. So wurde der Maria-Theresien-Taler Abu Kush (Vater des Vogels) oder Abu Noukte (Vater der Perlen) genannt, da ein Adler und Perlen auf dem Diadem der Kaiserin zu sehen waren. Siehe → Handelsmünze. Der niederländische Löwentaler wurde Abu Kelb (Vater des Hundes) genannt, das spanische Acht-Reales-Stück mit vierfeldigem Wappenschild Abu Taka (Vater des Fensters).
Im 17. und 18. Jahrhundert wurden besonders viele Handelsmünzen ausgeprägt. Der 1695 in Hamburg beschlossene Bankotaler sollte verhindern, dass sich die holländischen Geldwechsler mit der wertgleichen Annahme des höherwertigen Reichstalers bereichern. Insgesamt zeigte sich in der Münzgeschichte bis in die Neuzeit immer wieder der ähnlich ablaufende Prozess des Wertverlustes: Während Geld in Form von Münzen anfänglich aus wertvollem Material bestand (Gold, Silber) und ihr Tauschwert dem Wert dieses Materials entsprach (vollwertige Münzen), wurden später Münzen hergestellt, deren Materialwert unter ihrem Tauschwert lag, indem man die Münzen kleiner und leichter machte, den Feingehalt verminderte oder geringerwertigerer Materialien verwendete (unterwertige Münzen).
Der im Jahr 1787 herausgegebene Fugio-Cent war die erste offizielle Münze der Vereinigten Staaten von Amerika.
Die Prägung von Prämientalern, mit denen verdienstvolle Landeskinder auf wirtschaftlichem oder künstlerischem Gebiet in den deutschen Staaten ausgezeichnet wurden, war eine der Maßnahmen, die zu außergewöhnlichen Leistungen anspornen sollte. Die Auszeichnung mit der Vergabe von Prämientalern war eine von vielen Maßnahmen zur Überwindung ökonomischer und kultureller Nöte eines Landes. Die medaillenartigen Sonderprägungen wurden in der Regel als Konventionstaler geprägt.
Merkmale von Münzen
Münzen sind vom Staat genehmigte Zahlungsmittel. Moderne Münzen tragen üblicherweise drei Aufschriften: das Land (oder die Staatengemeinschaft), den Wert (aus Nominal und Währungseinheit) und das Prägejahr. Doch es gibt auch Ausnahmen: Das Jahr fehlt bei einigen älteren, exotischen, kleinen Einheiten (zum Beispiel bei allen Cash-Münzen aus Travancore, geprägt bis 1949). Ausnahmen gibt es auch unter Talermünzen. Zum Beispiel tragen die sächsischen Schmetterlingsmünzen lediglich das Monogramm des Münzherrn und eine Wertangabe jeweils in Groschen.
Merkmale von Münzen wurden mitunter auch zu manipulativen Zwecken benutzt. Zum Beispiel kann das Prägejahr wegzulassen unter Umständen auch Kalkül gewesen sein. So wurde bei Einführung der Reichsmünzordnung von einigen Münzherrn die Jahreszahl nicht aufgeprägt, um noch eine Zeit lang nach einem leichteren Münzfuß unbemerkt prägen zu können, wie das zum Beispiel die Herrin von Jever bei den Danielstalern praktizierte.
Die Schweizer Rappen (Untereinheit des Schweizer Franken) zeigen nur das Nominal, ohne Angabe der Währungseinheit. Noch drastischer ist es bei den britischen Crowns der Prägejahre 1965–1971. Diese zeigen weder ein Nominal noch die Angabe der Währungseinheit. In allen britischen Münzen mit Elizabeth II. ist das Land nicht, bei ihren Amtsvorgänger(inne)n nur als Teil des Titels des Monarchen angegeben. Die ersten Münzen in Deutschland nach 1945 hatten die Aufschrift bzw. Umschrift „Bank deutscher Länder“. Auch bei Euromünzen gibt es in der Regel keine Landesangabe, sondern nur ein Erkennungszeichen für das Land auf der Rückseite der Münze.
Die Vorderseite (das Avers) der Münze ist in der Regel dort, wo der Kopf des Herrschers oder das Wappen der Republik zu sehen ist. Die Rückseite (der Revers) ist hingegen meistens auf der Seite mit der Wertangabe. Dazwischen befindet sich der Münzrand, der geriffelt oder beschriftet sein kann und gewöhnlich ein wenig über die Münzfläche übersteht („Randstab“). Er kann auch eine Randschrift enthalten. Die Umschrift einer Münze wird in der Numismatik als Legende bezeichnet. Es gibt jedoch auch Münzen, die weder eine Vorderseite noch eine Rückseite haben (siehe Schmalkaldischer Bundestaler).
Die Münzmeisterzeichen auf den Münzen erscheinen ab dem späten Mittelalter. Sie wurden größtenteils in der zweiten Hälfte des 19. Jahrhunderts durch das Münzzeichen in Form eines Buchstabens zur Bezeichnung der Münzstätte ersetzt. Mitunter befindet sich auf Münzen zusätzlich noch die Signatur des Münzgraveurs oder nur die Künstlersignatur. Das Münzmeisterzeichen darf demzufolge nicht mit der Münzsignatur verwechselt werden.
Bei der Münzprägung kann es auch zu einer Fehlprägung kommen, zum Beispiel dann, wenn der Münzrohling dezentriert geprägt wird. Die spätere Aufbringung eines Gegenstempel ist dagegen keine Fehlprägung.
Mitunter rätselhaft oder auch nicht selten unentdeckt sind Zwittermünzen. Eine Zwittermünze ist eine Münze mit zwei nicht zusammengehörenden Seiten. Für die Münzprägung wurde der Vorderseitenstempel mit dem Rückseitenstempel einer anderen Münze gekoppelt.
Münzen, insbesondere Kurantmünzen werden in einem festgelegten Münzfuß ausgeprägt. Der Münzfuß legt fest, wie viele Münzen aus einem bestimmten Münzgrundgewicht geprägt werden. Bei einem Taler im 14 Talerfuß wurden 14 Taler aus dem Münzgrundgewicht einer Kölner Mark geprägt.
Rechtsfragen
Gemäß MünzG prägt der Bund Münzen (deutsche Euromünzen) gemäß der aus. Münzen sind daher ein gesetzliches Zahlungsmittel. Der Rechtsbegriff der Münze ist deshalb zunächst begrenzt auf Münzen als gesetzliches Zahlungsmittel. Der Begriffsinhalt der Münze erfährt jedoch in Abs. 1 MünzG eine Ausdehnung auf Sammlermünzen, die auf Euro lauten und Gedenkmünzen sind und auf deutsche Euro-Münzen in Sonderausführung (siehe Münze Deutschland).
In Nr. 2 MedaillenV ist der Rechtsbegriff „Medaillen“ (oder „Münzstücke“) negativ definiert als „Metallgegenstände, die das Aussehen oder die technischen Eigenschaften einer deutschen Euro-Gedenkmünze im Sinne des Abs. 1 Nr. 1 MünzG haben, keine Münzrohlinge sind und nicht aufgrund des Münzgesetzes, der währungsrechtlichen Vorschriften anderer Staaten oder der von den Europäischen Gemeinschaften erlassenen Rechtsvorschriften ausgeprägt und in den Verkehr gebracht werden“.
Abgrenzung zu Medaillen
Während die Ausgabe von Münzen ein Vorrecht des Staates ist, dürfen Medaillen auch von privater Seite hergestellt werden. Gepräge, welche nicht als gesetzliches Zahlungsmittel vorgesehen sind, werden häufig den Medaillen zugerechnet. Ein Zwischending stellen die sogenannten Pseudomünzen dar, welche de jure Zahlungsmittel sind, aber von Privatfirmen für den internationalen Sammlermarkt geprägt werden und de facto keine Geldfunktion haben. Umgekehrt existieren auch münzähnliche Gepräge wie Notmünzen und Jetons, welche tatsächlich als Zahlungsmittel verwendet wurden, aber nicht von den dazu berechtigten staatlichen Stellen herausgegeben wurden. Sie wurden aber teilweise vom Staat trotzdem als Ersatz-Geldzeichen toleriert, wie die vielfältigen deutschen und österreichischen Notgeldausgaben in Münz- und Banknotenform nach 1914 bis 1923. Medaillen dürfen heute keine gültigen Währungsbezeichnungen und Nominalwertangaben tragen. Siehe auch ergänzend Anlagemünzen.
Ein Grenzfall ist am Beispiel des historisch und künstlerisch bedeutenden Locumtenenstaler (Vikariatsmünze) dokumentiert. Das sind Guldengroschen (Taler), die auch als Medaillen mit höherem Relief, jedoch ebenfalls im Talergewicht, also im gesetzlichen Münzfuß hergestellt wurden und als Geschenke für Günstlinge dienten. In Katalogen werden daher oft beide Typen als Guldengroschen bezeichnet, obwohl nur die mit niedrigerem Relief tatsächlich Münzen sind. Die Abgrenzung zu Medaillen ist in dieser Zeit (Anfang 16. Jahrhundert) mitunter nur an der Art der Prägung, dem medaillentypischen hohem Relief zu erkennen.
Ein weiterer Grenzfall ist das 1-Billion-Mark-Stück der Provinz Westfalen, eine Münze mit „Medaillencharakter“. Die als Notgeld 1923 geprägte Münze der Landesbank der Provinz Westfalen wurde erst 1924 nach dem Ende der Inflation als Erinnerungsstück an die schwere Zeit ausgegeben.
Der Gluckhennentaler kommt meist als Medaille vor. Als Goldabschlag im Mehrfachdukatengewicht ist er umlauffähig, also eine Münze.
Die Schautaler Friedrichs des Weisen (1522) sind nach der sächsischen Münzordnung von 1500 zu leicht. Die als Taler bezeichneten Gepräge könnten folglich Medaille sein.
Der Taler auf den Bau von Schloss Moritzburg in Zeitz könnte eine Medaille sein. Das hohe Relief sowie fehlende andere Münzen von Moritz von Sachsen-Zeitz bestätigen eher Wilhelm Ernst Tentzels Bezeichnung als Medaille. Ob die im Reichstalergewicht geprägten Stücke tatsächlich Münzen sind, ist fraglich. Tentzels Bezeichnung als Medaille kann u. a. wegen des hohen Reliefs und der Seltenheit der Einzelstücke trotz Bezeichnung als Taler zutreffend sein.
Die sogenannten Hoym-Münzen sind Privatausgaben, deren Herstellung ein „Münzvergehen“ war.
Pesttaler können Medaillen im Talergewicht und auch Gedenkmünzen sein.
Die Abgrenzung zwischen Münzen und Medaillen kann wie folgt vorgenommen werden:
Gold- und Silbermünzen sowie Gedenk- oder Sammlermünzen sind daher keine Münzen im Rechtssinne, sondern gehören zu den Medaillen. Sammlermünzen, die offiziell in ihren Herkunftsländern als Zahlungsmittel gelten, denen aber objektiv keine praktische Zahlungsmittelfunktion zukommt (etwa Krugerrand in Südafrika, Goldvreneli in der Schweiz, American Gold Eagle in den USA) sind in Deutschland nicht als Geld im Sinne von Abs. 2 BGB anzusehen.
Lochung von Münzen
In einigen Ländern wie zum Beispiel Norwegen, Dänemark wurden verschiedene Kleinmünzen in der Mitte ausgestanzt, damit sie von höherwertigen Münzen schneller und besser unterschieden werden können. Die im asiatischen Raum (Japan, China) bekannten Käsch-Münzen wurden dagegen schon in dieser Form gegossen. In zwei anderen Fällen – Australien und Karibische Inseln – wurden aus Silbermünzen die Kerne ausgestanzt und diese wiederum als eigene Münzen in Umlauf gebracht (Holey Dollar).
Für eine (meist nachträgliche) Lochung einer Münze kann es sehr unterschiedliche Gründe geben. Oftmals wurden Lochungen angebracht, damit die Münze (oder Medaille) an einer Kette als Schmuck oder als Amulett (Amulettmünze) getragen werden konnte. Eine nachträgliche Lochung kann auch vorkommen, wenn bestimmte Metalle, besonders Edelmetalle, aus der Münze zur Bereicherung entnommen wurden, wie zum Beispiel bei Kurantmünzen oder Münzen, deren Kurswert den Wert des Metalls unterschreitet. Durch die Lochung wird die Münze für Sammler unattraktiv.
Eine andere Anwendung des Lochens bestand darin, Falschgeld dauerhaft zu entwerten.
Münzmaterial
In der Antike wurden für die Herstellung von Münzen fast ausschließlich die Metalle und Legierungen Gold, Elektron, Silber, Billon, Kupfer, Bronze, Potin und Messing bzw. Aurichalkum verwendet. Ab dem Mittelalter bis etwa 1850 waren in Deutschland nur noch Gold, Silber und Kupfer und deren Legierungen für die Münzprägung erlaubt. Bronze und besonders Messing waren für Spielmarken und Rechenpfennige auf Grund ihrer Färbung zur Abgrenzung zum Münzgeld gesetzlich vorgeschrieben. Schon ab etwa 1860 kamen vermehrt andere Metalle wie Eisen, Nickel, Zink, Aluminium oder Chromstahl zur Anwendung. Eine besondere, neuere Legierung, die auch ästhetischen Gesichtspunkten genügt, ist das Nordische Gold. Fast immer wurden und werden die reinen Metalle, insbesondere Gold, Silber, Kupfer und Aluminium, aus Gründen der Abriebfestigkeit mit anderen Metallen legiert. Eine besondere Rolle besaß die natürliche Legierung Elektron, eine Gold-Silber-Legierung, bei den ältesten antiken Münzen, da Elektron ursprünglich als ein eigenständiges Reinmetall angesehen wurde. Besonders Kupfer ist wegen seiner antibakteriellen Wirkung und guten Verfügbarkeit ein wichtiger Bestandteil heutiger und früherer Münzlegierungen. Die gängigste Münzlegierung ist heute Kupfernickel, aber auch Bronze- und Messinglegierungen sind nicht selten. Nicht bewährt haben sich reine Metalle, wie Zinn, Zink und zusätzlich aus gesundheitlicher Sicht auch Blei, die daher häufig nur als Notgeld Verwendung fanden. Der relative Anteil des Edelmetalls in der Münzlegierung wurde durch den sogenannten Münzfuß festgelegt – die metallurgische Zusammensetzungen durch chemisch-analytische Nachweisreaktionen bestimmt.
Seit einigen Jahrzehnten kommen auch plattierte Münzen („Sandwich“) vor, zum Beispiel Kupfernickel als Überzug auf Nickelkern (sog. „Automatenmünzen“ mit definiert magnetischem Kern) oder die 1-Pfennig- (von 1950 bis 2001) und 2-Pfennig-Münzen (1967–2001), die aus kupferplattiertem Eisen bestanden. Auch die Ronden-Kombination von „Ring“ und „Pille“ aus verschiedenfarbigen Legierungen sind jetzt üblich, zum Beispiel bei den 1- und 2-Euro-Münzen.
Münzen, deren Kurswert durch den inneren Wert (Metallwert) bestimmt ist, werden Kurantmünzen genannt. Dies traf früher (im Allgemeinen bis 1914) auf die meisten Edelmetallmünzen zu, deren Edelmetallanteil wesentlich größer als 50 Prozent war. So hatten die 5, 10, und 20-Goldmark-Stücke, die im Zeitraum von 1871 bis 1915 ausgegeben wurde, einen Feingehalt von 900 ‰. Das Gleiche traf für die Silbermünzen dieser Zeit zu. So wog ein 5-Mark-Stück aus Gold 1,991 Gramm, ein solches aus Silber 27,777 Gramm. Der innere Wert beider Münzen war also der Gleiche und entsprach dem Nominalwert.
Als Scheidemünzen bezeichnet man Münzen, deren Nominalwert nicht dem Metallwert entspricht. Diese waren früher häufig aus einer Billon-Legierung oder nur aus Kupfer. Der Materialwert aller heutigen Umlaufmünzen liegt stets unter dem Nominalwert und sie sind somit Scheidemünzen. Dies trifft auf alle heutigen Umlauf- und viele Gedenkmünzen zu, da deren Wert nur durch staatliche Garantien gedeckt ist, womit es sich um sogenanntes Kreditgeld handelt. Siehe als Gegensatz dazu auch Anlagemünzen.
Münzmetalle
Gold: Das wichtigste Münzmetall für Münzen mit hohem Nennwert. Es wurde für Umlaufmünzen meist mit Kupfer legiert, um eine bessere Härte zu erzielen. Heute wird es nur noch für Gedenkmünzen, Medaillen und Anlagemünzen verwendet, meist mit sehr hohem Feingehalt. Es dient als Hauptbestandteil der Legierung Elektron.
Silber: Seit dem 6. Jh. v. Chr. mit Gold eines der ältesten Münz- und Tauschmetalle. Der überwiegende Teil der modernen Gedenkmünzen, Medaillen und Anlagemünzen besteht aus Silber in meist hoher Feinheit. Silber ist werthaltiger Bestandteil der Legierung Billon.
Kupfer: Neben Gold und Silber früher das dritthäufigste, heute das häufigste Basis-Münzmetall. Kupfer wird wegen seiner hervorragenden Legierungseigenschaften fast ausschließlich zur Prägung von Umlaufmünzen in legierter Form verwendet, z. B. in Bronze, Messing und Neusilber. Kleine deutsche Scheidemünzen wie Pfennige und Heller bestanden bis etwa 1871 häufig aus Reinkupfer. Spätere (Reichs-)Pfennige bestanden aus Kupfer mit geringen Zinn- und Zink-Anteilen zur Kupferhärtung.
Nickel: Ein hellsilbrig glänzendes, besonders hartes Metall. Nickel gilt als ein wichtiges Legierungsmetall der modernen Münzprägung; wurde jedoch auch früher als reine Nickelmünze verprägt, z. B. 25-Pfennig-Stück von 1912.
Aluminium: Ein sehr leichtes und weiches Münzmetall, das hellsilbrig glänzt. In reiner Form ist Aluminium wegen seiner schnellen Abnutzung für Umlaufmünzen weniger gut geeignet. Es wird deshalb heute in Legierungen, z. B. mit geringem Kupfer- und Magnesium-Anteil (bis 3 %), gehärtet; auch namensgebender Bestandteil von Aluminium-Bronze-Münzlegierungen.
Zink: Ein billiges, graues und weiches Metall. Zur Münzherstellung in (Nach-)Kriegs- und Notzeiten genutzt, z. B. 5-Groschen-Stück von Österreich nach 1945, sowie wichtiger Legierungsbestandteil.
Eisen: Wurde schon im 3. Jh. v. Chr. in China zur Herstellung von Münzen verwendet. Wegen der schnellen Korrosion wurde aber nur in Notzeiten darauf zurückgegriffen. Häufig wurde dann der Korrosionsschutz durch eine Oberflächen-Passivierung, z. B. als Verzinkung, erhöht.
Zinn: Als Legierungsbestandteil wird Zinn recht häufig benutzt, als helles, weiches und reines Münzmetall dagegen nur selten; es wurde früher rein, z. B. zur Erinnerung an besondere Ereignisse für sogenannte „Teuerungs-, Pest- und Unwettermedaillen“, verwandt.
Blei: Als reines, bläulich graues Münzmetall ungeeignet, da es zu weich und feuchtigkeitsanfällig ist. Nur in der Antike wurden gelegentlich Münzen aus Blei und im Mittelalter Siegel als Papst-Bulle gefertigt. Münzfälscher griffen des Öfteren auf Blei zurück, um Silbermünzen nachzuahmen. Es wurde auch als Kern von sogenannten Galvanos (speziellen Münzkopien) benutzt, bis vor Kurzem auch noch häufig als Eichsiegel in Form von Plomben, z. B. an Stromzählern.
Neusilber: Eine silberweiß glänzende Legierung aus 47–64 % Kupfer, 10–25 % Nickel, 15–42 % Zink
Niob: Das selten vorkommende, grau glänzende Niob wurde 1844 vom Berliner Professor Heinrich Rose entdeckt. Das in jüngerer Zeit erstmals zur Münzproduktion verwendete, hochreine Niob (999) wird in einem äußerst zeitintensiven und teuren Prozess gewonnen. Gerade seine außergewöhnliche Eigenschaft, die Farbe durch eine spezielle Bearbeitung verändern zu können, macht dieses seltene Metall für Numismatiker bzw. Münzsammler besonders attraktiv.
Platin: Ein hellgraues, silberglänzendes Metall, das nicht sehr hart und daher nur bedingt zur Münzprägung einsetzbar ist. Echte Platinumlaufmünzen wurden nur in Russland Anfang des 19. Jahrhunderts ausgegeben. Es wird heute als Wertträger für Anlagemünzen verwandt.
Palladium: Ein rares, silbrig-weißglänzendes Münzmetall, das zu der Gruppe der Platinmetalle gehört und zur Herstellung von Anlagemünzen verwandt wird.
Tombak: Legierung aus 70–90 % Kupfer und 10–30 % Zink. Gebraucht z. B. zur Plattierung der 5- und 10-Pfennig-Stücke der Bundesbank von 1949 bis 2001.
Andere Materialien
Porzellanmünzen wurden seit Ende des 18. Jahrhunderts bis etwa 1865 in Siam an Stelle von Metallgeld als Spielhöllengeld (Jeton) verwendet. Weiterhin wurde weißes Biskuit- und häufiger braunes Böttgersteinzeugporzellan für Notgeld mit Währungsbezeichnungen nach dem Ersten Weltkrieg gern verwendet, das aber eher für Sammler als für den täglichen Umlauf vorgesehen war.
Lederstücke wurden gelegentlich als Münzen bzw. als „Notgeld-Wertmarken“ verwendet.
Runde Pappstücke bzw. heute auch Plastikmaterialien wurden / werden für Notgeldmünzen bzw. für Kinderspielgeld benutzt. Dieses Notgeld wird als „Geldzeichen“ bezeichnet.
Im international nicht anerkannten Transnistrien wurden 2014 Rubel-Münzen aus Kunststoff in Umlauf gebracht.
Im 1. Halbjahr 2016 wurde in Deutschland erstmals eine 5-Euro-Gedenkmünze „Planet Erde“ mit blauem, lichtdurchlässigen Polymerring herausgegeben. Diese ist auch die erste offizielle Münze mit einem Polymerring weltweit.
Münzen sammeln
Münzen werden ähnlich wie Briefmarken, Bierdeckel, Kunstgegenstände oder ähnliche Objekte auch gesammelt. Sie können so neben ihrem Kurswert auch einen Sammlerwert erlangen. Dieser hängt vom Angebot (Auflage der Münze) und Nachfrage ab. Die Nachfrage wird vom Interesse der Sammler, aber auch von Kursschwankungen, Modewellen, aktuellen politischen Ereignissen und ähnlichen Effekten mitbestimmt. Besonders wertvoll sind daher extrem seltene und trotzdem stark nachgefragte Exemplare, so zum Beispiel sehr alte und trotzdem sehr gut erhaltene Münzen. Die derzeit vom Sammlerwert her teuersten Münzen der Welt sind US-amerikanische Münzen: der 1794 Flowing Hair silver dollar, versteigert am 24. Januar 2013 für einen Rekordpreis inkl. Aufgeld von 10.016.875 Dollar (Zuschlag 8.525.000 Dollar), sowie die Brasher Dublone von 1787, versteigert am 21. Januar 2021 für einen Rekordzuschlag von 9.360.000 Dollar.
Die wertvollste antike Münze ist der römische EID MAR Aureus, versteigert am 29. Oktober 2020 in London für einen Zuschlag von 2.700.000 GBP.
Trivia
Zu den Feierlichkeiten zum 100. Jahrestag der Gründung der tschechischen Krone wurde eine Münze mit einem Durchmesser von 535 Millimetern und einer Dicke von 48 Millimetern, die 130 Kilogramm wiegt und aus reinem Gold besteht, hergestellt. Ihr Nennwert beträgt 100 Millionen tschechische Kronen. Die Münze ist die größte gefräste Münze der Welt, die größte Goldmünze in Europa und die zweitgrößte Goldmünze der Welt.
Die Haut nimmt nach Kontakt mit kupfer- oder eisenhaltigen Münzen einen eigenartig muffigen Geruch an, den Menschen üblicherweise mit „metallisch“ assoziieren. Die Ursache für den charakteristischen Geruch konnte erst im Jahr 2006 geklärt werden. Die Metalle bewirken eine rasch ablaufende chemische Reduktion der lipidbasierten Komponenten auf der Oberfläche der Haut, wobei in Folge Ketone und Aldehyde entstehen. Letztere wiederum sind für den typischen „Metallgeruch“ verantwortlich.
Siehe auch
Kursmünze
Abschlag (Numismatik)
Zwittermünze
Prämienmünze
Kippermünze
Remedium im Schrot und Korn
Eine ausgeprägte Rechnungsmünze
Straßenbahnmünze
Die Münze als politisches Instrument
Sächsische Münzen in der kaiserlosen Zeit
Kurpfälzische und bayerische Münzen in der kaiserlosen Zeit
Münzen, die während des verwaisten Heiligen Stuhls geprägt worden sind
Sächsische Taler nach dem Kurwürdenwechsel im Herzogtum Sachsen
Sächsische Münztrennung
Alchemistentaler sind Münzen, die angeblich aus künstlichem, mit dem Stein der Weisen hergestellten Silber geprägt wurden.
Literatur
Philip Grierson: Münzen des Mittelalters. (Deutsche Übersetzung von Alfred P. Zeller) München 1976 (= Die Welt der Münzen, 4).
Wilhelm Jesse: Quellenbuch zur Münz- und Geldgeschichte des Mittelalters (mit 16 Tafeln). Halle an der Saale 1924; Neudruck Aalen 1968.
Helmut Kahnt, Bernd Knorr: Alte Maße, Münzen und Gewichte: Ein Lexikon. Mannheim/Wien/Zürich 1987.
Fritz Verdenhalven: Alte Maße, Münzen und Gewichte aus dem deutschen Sprachgebiet. Neustadt an der Aisch 1968.
Dieter Faßbender: Münzen. Was ein Sammler wissen muß. Fischer, Frankfurt am Main.
Weblinks
Numispedia – Numismatische Online-Enzyklopädie
Digital Library Numis (DLN) – Online numismatische Bibliothek
Interaktiver Katalog des Münzkabinetts der Staatlichen Museen zu Berlin
Colnect – strukturierter Gesamtkatalog, von Sammlern erstellt
Spektrum.de: Als Europa auf Silbermünzen umstellte 3. Januar 2019
Einzelnachweise
Zahlungsmittel
Numismatik
|
Q41207
| 420.854852 |
3849
|
https://de.wikipedia.org/wiki/Psychologe
|
Psychologe
|
Psychologe bzw. Psychologin ist die geschützte Berufsbezeichnung von Personen, die in der Regel das Studium der Psychologie an einer Hochschule (Universität oder Fachhochschule) erfolgreich absolviert und als Diplom-Psychologe (Dipl.-Psych., Deutschland), (M.Sc. Psychologie), Master of Arts (M.A. Psychologie), Bachelor of Science (B.Sc. Psychologie) oder als diplomierter Psychologe (Dipl.-Psych. FH, Schweiz) abgeschlossen haben. Damit verbunden ist die Fachkunde zur Beschreibung, Erklärung, Modifikation und Vorhersage menschlichen Erlebens und Verhaltens. Der Beruf des Psychologen ist dem Gesetz nach ein Freier Beruf. Für die Tätigkeit als Psychologischer Psychotherapeut ist nach dem Abschluss des universitären Diplom-/Masterstudiums eine zusätzliche mehrjährige Weiterbildung notwendig.
Psychologen sind in sehr vielen verschiedenen Anwendungsfeldern (Gesundheitswesen, Bildungswesen, Wirtschaft, Forschung und Entwicklung, Rechtswesen, Verkehrswesen, Verwaltung etc.) tätig.
Berufsbild
Wissenschaftliche Basis
Die Ausbildung in Psychologie erfolgt orientiert am heutigen Psychologieverständnis als empirische Wissenschaft, die sich mit dem Erleben und Verhalten des Menschen beschäftigt und enthält einen großen Anteil an Wissenschaftsmethodik und Statistik.
Berufliche Praxis
Psychologische Arbeitsfelder sind breit gefächert: im Zentrum steht die Entwicklung, Durchführung und Evaluation von Diagnostik- und Interventionsverfahren, v. a. psychologischer Beratung und Trainings, sowohl in klinischen als auch in anderen Bereichen der angewandten Psychologie, sowie der wissenschaftlichen Grundlagenforschung.
Grundlage der psychologischen Tätigkeiten sind wissenschaftlich begründete Erkenntnisse und eine ethisch einwandfreie, vertrauenswürdige Arbeitsgestaltung und Behandlung der Klienten. Alle Arbeitsbereiche werden sowohl von Selbständigen als auch von Angestellten angeboten.
Tätigkeitsfelder
Das Berufsfeld umfasst zahlreiche Spezialisierungen, die ggf. auch spezielle Aus- und Weiterbildungen voraussetzen, um dort tätig sein zu dürfen (z. B. im Bereich der Psychotherapie oder Verkehrspsychologie).
Typische Arbeitsbereiche sind:
Unternehmensberatung und Personalmanagement: Personalauswahl (Entwicklung, Durchführung, Auswertung und Evaluation spezifischer Instrumente, wie z. B. Assessment-Center) und Personalentwicklung; Organisationsentwicklung, gelegentlich auch strategisches Consulting
Markt- und Meinungsforschung
bei Polizei, Militär und ähnlichen (staatlichen) Institutionen in der Entwicklung von Personalauswahlverfahren, der Evaluation von Ausbildungs- und Trainingsmaßnahmen und der Ausbildung.
Psychologen im Strafvollzug sind z. B. zuständig für die Einschätzung der Suizidgefährdung, Flucht- und Gewaltrisikoeinschätzung, gutachtliche Stellungnahmen bei Lockerungsentscheidungen, Mitarbeit bei der Vollzugsplanung und Betreuung bis hin zur Therapie von Straftätern (letzteres nur durch Psychologische Psychotherapeuten). Gelegentlich wirken sie bei der Personalauswahl und der Ausbildung der Justizvollzugsbeamten mit. Eine Zusatzausbildung als psychologischer Psychotherapeut ist sinnvoll, aber keine Einstellungsvoraussetzung. Für eine rechtspsychologische Zusatzausbildung gilt das gleiche.
Erziehungs-, Jugendberatungs- und Familienberatungsstellen
Schulpsychologische Beratungsstellen
Jugendämter, Sozialämter
Arbeitsmarkt- und Bildungsberatung: Testung und Beratung
verkehrspsychologische Einrichtungen oder als niedergelassener Verkehrspsychologe
Einrichtungen der Behindertenhilfe
Kindertagesstättenberatung
Lehramt an Schulen, Fachober- und Fachschulen (Psychologieunterricht, häufig im berufsbildenden Bereich; z. B. Erzieher-Ausbildung)
Psychotherapeutische Praxen (nach Ausbildung zum Psychologischen Psychotherapeuten),
psychotherapeutische, psychiatrische oder psychosomatische Abteilungen in Kliniken (im Rahmen oder nach der Ausbildung zum Psychologischen Psychotherapeuten)
neurologische Kliniken (meist mit Weiterbildung zum klinischen Neuropsychologen)
Einrichtungen der Prävention und Gesundheitspsychologie
Universitäten (Forschung und Lehre): als (reine) Wissenschaftler an Universitäten und anderen Forschungseinrichtungen, also meistens langfristig in Form einer akademischen Karriere, d. h. in der Regel über Promotion, dann Postdoc-/Assistenzzeit und Habilitation oder Juniorprofessur, dann befristeten Lehraufträgen bis zum Ruf auf eine Professur
Zur Grundlagen- und Anwendungsforschung (Forschung und Entwicklung) gehören etwa:
Entwicklung von (Eignungs-)Tests
zusammen mit oder in Konkurrenz zu Ingenieuren und Informatikern, teilweise auch Betriebswirten als Arbeitspsychologen z. B. in der Arbeits- und Bedienungssicherheit (Mensch-Maschine-Interaktion), in der Produktentwicklung (z. B. ergonomischen Gestaltung), in der Qualitätssicherung und Evaluation, im Sicherheits-, Risiko- und Krisenmanagement u. a. bei der Analyse von Entscheidungsprozessen
Typische gutachterliche Tätigkeiten sind etwa:
als Gerichtssachverständiger z. B. bei Sorgerechtsentscheidungen, zu Glaubwürdigkeitsfragen von Zeugenaussagen, zur Begutachtung der Einschätzung der Rückfallsgefährdung bei Entscheidungen von Strafvollstreckungskammern der Landgerichte und bei Schuldfähigkeitsbegutachtungen als Ergänzung zum psychiatrischen Gutachten.
als Sachverständiger in anderen behördlichen Verfahren, wie Feststellung der Fahrtüchtigkeit, sonderpädagogische Beurteilung, Mündigkeitfeststellungen etc.
als klinische Neuropsychologen im Auftrag von Ärzten Durchführung von Leistungs- und Funktionsdiagnostik zur besseren Einschätzbarkeit z. B. des Rehabilitationspotenzials (nach einer Hirnoperation, einem Schlaganfall etc.).
Die beiden erstgenannten Tätigkeiten erfordern nicht notwendiger- aber sinnvollerweise eine Zusatzausbildung zum Rechtspsychologen.
Image in der Öffentlichkeit
Kanning (2014) berichtet, dass über das Berufsbild des Psychologen in der Öffentlichkeit ein verzerrtes Bild bestehe. Psychologen werden regelhaft unzulässig mit Psychotherapeuten bzw. generell mit Beratern und Helfern im Gesundheitswesen und der Erziehung gleichgesetzt. Sie werden also in Bezug auf Qualifikationen und Tätigkeiten mit anderen Berufsgruppen verwechselt (z. B. Ärzten, Psychotherapeuten).
Im Gegensatz zum häufig verzerrten Bild in der Öffentlichkeit beschreibt der Begriff des Psychologen zwar eine Person mit einem abgeschlossenen Hochschulstudium, aber keinen Heilberuf, auch wenn heilkundliches Wissen (z. B. klinische Psychologie, Grundzüge der Psychotherapie, Psychopathologie) durchaus Teil des Studiums, der weiteren Tätigkeit und Fortbildung einer großen Zahl von Psychologen ist. Aus diesem Grunde können Psychologen im institutionellen Rahmen (z. B. im psychiatrischen Bereich) oder außerhalb der Psychotherapie (z. B. in der Begutachtung oder in psychosozialen Helferinstitutionen) zwar auch klinisch-diagnostisch oder therapeutisch (z. B. Familientherapie) tätig sein, gleichwohl darf ein Psychologe ohne spezialisierte Weiterbildung in einem anerkannten Therapieverfahren nicht selbstständig heilkundlich tätig werden (siehe auch Unterschiede Psychotherapeut – Psychiater – Psychologe). Dass die selbständige Ausübung der Therapie psychischer Störungen einschließlich therapeutischer Diagnostik eine Approbation mit entsprechender Weiterbildung erfordern, wie z. B. Mediziner mit Facharzt- oder Psychologen mit einer mehrjährigen Psychotherapie-Weiterbildung, ist weitgehend unbekannt.
Psychologen üben heute ebenso Tätigkeiten in Forschung, Entwicklung, Evaluation, Assessment, Ausbildung und wirtschaftsnahen wissenschaftlichen Dienstleistungen aus.
Aus- und Weiterbildung
An den verschiedenen Universitäten ist das Psychologiestudium fakultär den Geisteswissenschaften oder den Naturwissenschaften zugeordnet und zum Teil recht pragmatisch mit anderen Fächern institutionell verbunden. Während die Psychologie in einigen anderen Ländern (z. B. Frankreich, Argentinien) eine stärker geisteswissenschaftliche Haltung einnimmt, lässt sich an vielen deutschen Universitäten eine überwiegend naturwissenschaftliche Ausrichtung beobachten.
Für einige berufliche Tätigkeiten ist neben dem Universitätsstudium eine spezialisierende Aus- oder Weiterbildung notwendig (z. B. Psychologischer Psychotherapeut oder Verkehrspsychologe). Solche meist postgradualen Weiterbildungen können zum Führen von Fachtiteln berechtigen, welche die besondere Qualifikation ausdrücken. Regelmäßige berufsbegleitende Fortbildung kann als Forderung von entsprechenden Berufsverbänden als Voraussetzung für das Weiterführen von Fachtiteln bestehen und von diesen kontrolliert werden.
Klärungsbedarf besteht, welche beruflichen Tätigkeiten von Personen ausgeübt werden können, die einen B.Sc.-Abschluss erworben haben, aber keinen Masterabschluss. Einerseits wird daran festgehalten, dass ein vollwertiger Abschluss in Psychologie nur mit einem abgeschlossenen Masterstudium erreicht werden kann und dieser Voraussetzung für den Zugang zu Spezialisierungen und Weiterbildungen bleibt. Andererseits muss die Psychologie sich der Forderung stellen, dass der B.Sc. auch ein berufsqualifizierender Abschluss sein soll.
EU-Ebene
Auf europäischer Ebene wird im Rahmen des Bolognaprozess und der Niederlassungsfreiheit eine Harmonisierung des Berufsprofils vorbereitet (EuroPsy). Vorgesehen ist eine Mindestqualifikation in Form eines abgeschlossenen wissenschaftlichen Universitätsstudiums von mindestens fünf Jahren Dauer, in dem ein naturwissenschaftlich orientiertes Mindestcurriculum absolviert wurde. Da der Beruf hier zu den naturwissenschaftlichen Berufen gehört, wird ein Bachelor of Science (B.Sc.) bzw. Master of Science (M.Sc.) für den Beruf des Psychologen vorausgesetzt.
Für über die Bologna-Deklaration hinausgehende Spezialisierungen muss nach Abschluss des M.Sc. zusätzlich ein in Vollzeit absolviertes, einjähriges, von einem Psychologen supervidiertes und positiv evaluiertes Praxisjahr (Internship) abgeleistet werden.
Deutschland
Psychologen üben ihre berufliche Tätigkeit als abhängig beschäftigte Arbeitnehmer oder als Selbständige aus. Die Tätigkeit von selbständigen Psychologen ist in Deutschland seit 1995, unabhängig vom konkreten Tätigkeitsbereich, als freier Beruf (Katalogberuf gem. EStG bzw. PartGG) anerkannt.
Berufspsychologen mit staatlich anerkannter wissenschaftlicher Abschlussprüfung sind nach StGB zur Verschwiegenheit verpflichtet, welche sich nicht nur auf den klinischen Bereich bezieht.
Aus wettbewerbsrechtlichen Gründen ( UWG) ist es unzulässig, die Bezeichnung Psychologe im Zusammenhang mit einer geschäftlichen Handlung zu führen, ohne über die entsprechende akademische Qualifikation zu verfügen, denn dies wird als Irreführung des Verbrauchers angesehen.
Ein Bachelorabschluss soll nach Auffassung des Berufsverbands Deutscher Psychologinnen und Psychologen (BDP) nicht zur Führung der Berufsbezeichnung Psychologe qualifizieren, da die in den Rechtskommentaren geforderte Mindestqualifikation nicht erreicht werde. Außerdem vertritt der BDP die Ansicht, die Führung der Berufsbezeichnung Psychologe ohne über eine entsprechende akademische Ausbildung zu verfügen, sei nach Abs. 2 StGB strafbar.
Gesetzliche Regelung der universitären Ausbildung in Deutschland
Das Studium der Psychologie mit dem Abschluss Diplom ist in Deutschland seit 1941 gesetzlich geregelt und wurde seit Neugründung der universitären Lehre nach dem Ende des Nationalsozialismus regelmäßig durch die Deutsche Gesellschaft für Psychologie (DGPs) und die Kultusministerkonferenz (KMK) überarbeitet. Ziel der Ausbildungsorganisation war die Professionalisierung der Absolventen, also die Standardisierung und qualitative Sicherung der berufsmäßigen Ausübung der Psychologie. Für die neuen Studiengänge mit Abschlüssen als Bachelor und Master gibt es nur noch Empfehlungen der DGPs, welche sich nach der Umstellung auf den Bologna-Prozess am früheren Diplom-Studiengang orientieren. Eine gesetzliche Regelung und damit Bindung von Hochschulen an bestimmte wissenschaftliche Standards und (bestimmte) Inhalte eines Studiums mit der Bezeichnung Psychologie existieren für die neuen Studiengänge nicht mehr.
Durch eine mindestens dreijährige, selbst zu finanzierende Vollzeit-Zusatzausbildung/Aufbaustudium kann ein akademisch ausgebildeter Diplom-Psychologe den gesetzlich geschützten Titel des Psychotherapeuten erwerben, indem er nach bestandener Staatsprüfung die Approbation als Psychologischer Psychotherapeut erhält, mit der er dann im Rahmen der bedarfsabhängigen gesetzlichen Bestimmungen eine Kassenzulassung beantragen kann.
Änderung der Ausbildung: Umstellung auf Bachelor- und Masterstudiengänge
Ursprünglich stellte die DGPs die Forderung, dass eigentlich nicht der Bachelor, sondern der Master der Regelabschluss sein müsste. „Psychologie ist ein komplexes Studium, so komplex wie sein Gegenstand, das menschliche Verhalten und Erleben. Die Wissens- und Kompetenzvermittlung nimmt mehr als drei Jahre in Anspruch“, sagt Hannelore Weber, seit 1994 Professorin an der Uni Greifswald und von 2004 bis 2006 Präsidentin der Deutschen Gesellschaft für Psychologie. Diese Forderung ließ sich aber gegen die bildungspolitischen Forderungen der Politik nicht umsetzen.
Auch bei der Umstellung des Studiums vom Diplom auf Bachelor und Master stoßen die Fachbereiche auf bildungs- und hochschulpolitische Hürden bei der Umsetzung der DGPs-Empfehlungen. Zum einen wird zu wenig Zeit für das Studium eingeräumt, was in ersten Erfahrungen nur durch Reduktion der Anforderungen (Niveau) und der zu erbringenden Prüfungsleistungen kompensiert werden konnte (mitgeteilt auf dem Symposium Neue Studiengänge auf dem DGPs-Kongress 2006 in Nürnberg). Zum anderen wurde der Curricularnormwert von 4,0 (Diplom-Psychologie) auf Werte zwischen 2,2 und 3,4 (Bachelor of Science) bzw. zwischen 1,1 und 1,7 (Master of Science) deutlich reduziert (ebd.). Verluste sollen durch Einrichtung von postgradualen Studiengängen (Graduiertenkollegs) kompensiert werden. Damit scheint der Weg, der auch bei vergleichbaren Studiensystemen im Ausland beschritten wird, auch in Deutschland zur Notwendigkeit zu werden.
Ziele der Ausbildung zum Psychologen (früher Diplom, heute konsekutiver Studiengang Bachelor - Master)
Der Abschluss Diplom (verliehener akademischer Grad: Diplom-Psychologe: Dipl.-Psych.) wurde vor der Umstellung der deutschen Universitäten im Zuge des Bologna-Prozesses verliehen. Die richtlinienorientierte universitäre Diplom-Ausbildung des Psychologen in Deutschland benötigte real, unabhängig von der Regelstudienzeit, sechs bis sieben Jahre, seit der Reform des Studiums auf das Bachelor- und anschließende Masterstudium beträgt die Studiendauer in der Regel ca. 5 Jahre. Ziel ist es, dass ein berufspraktisch arbeitender Psychologe bei praktischen Entscheidungen auf wissenschaftliche Methodologie und empirische Befunde zurückgreifen kann, im Rahmen seiner Tätigkeit nur wissenschaftlich valide Methoden, Instrumente und Techniken einsetzt, dass er, soweit möglich, seine Kunden, Klienten, Patienten, sowie Mitglieder anderer Berufsgruppen über empirische Befunde und wissenschaftlich begründete Analyse-, Klärungs- und Lösungsmöglichkeiten ihrer Probleme und Fragestellungen informiert und Fragen selbst mittels angewandter Forschung und Entwicklung bearbeitet und die Befunde für sich und andere anwendungsorientiert umsetzt. Weitere Ziele sind der Gebrauch des Fachwissens zu Aufbau und Aufrechterhaltung von effektiver Zusammenarbeit und Teamarbeit mit Angehörigen anderer Berufsgruppen und zur Verfügung stellen des durch das Training in wissenschaftlichen Methoden und in der Durchführung von empirischer Forschung erworbenen Know-Hows für andere Berufsgruppen, die nicht über eine solche Ausbildung verfügen, um z. B. Team- und andere Entscheidungen wissenschaftlich abzusichern, die Qualität der Arbeit zu verbessern usw. Weiterhin soll ein Psychologe eigenes Handeln für andere transparent gestalten, es selbst kritisch reflektieren und vor allem wissenschaftlich evaluieren, sowie sich kontinuierlich fortbilden.
Berufschancen in Deutschland
Der Berufs-Chancen-Check gibt 206 Berufe an, die wissenschaftlich ausgebildete Psychologen ausüben können. Es zeigt sich eine Fortsetzung des Trends, dass sowohl in der Ausbildung im Bachelor-Master-System wie auch in der Berufspraxis psychosoziale und klinische Bereiche und Tätigkeiten stark rückläufig sind, zugunsten wirtschaftsnaher und auch neuer Arbeitsfelder, in denen allerdings stärker die wissenschaftlich-methodischen Kompetenzen von Psychologen nachgefragt werden. Dabei gibt es weiterhin einen starken Trend weg vom klassischen Angestelltenverhältnis hin zur Selbständigkeit.
Österreich
Rechtsgrundlagen: Das Psychologengesetz
In Österreich sind Ausbildung, Zugang, Berufsbezeichnung und -ausübung durch das Bundesgesetz über die Führung der Berufsbezeichnung „Psychologe“ oder „Psychologin“ und über die Ausübung des psychologischen Berufes im Bereich des Gesundheitswesens (Psychologengesetz) geregelt.
Dabei ist ausdrücklich festgelegt:
Diplompsychologe ist die alte Bezeichnung, anstelle des Magister treten Bachelor/Master of Science.
Berufsbereich Psychologie: Berufe und Ausbildungen
Der Beruf umfasst folgende Felder:
gesundheitsberufliche Spezialisierungen
Klinischer Psychologe
Gesundheitspsychologe
Für beide Berufe ist umfangreiche Weiterbildung notwendig, sie umfasst den Erwerb theoretischer und praktischer fachlicher Kompetenz, erstere im Ausmaß einer Gesamtdauer von zumindest 160 Stunden (§ 5 Abs. 1) in Lehrveranstaltungen anerkannter privat- oder öffentlich-rechtlicher Einrichtungen einschließlich der Universitätsinstitute und Universitätskliniken (§ 5 Abs. 1), zweitere von 1480 Stunden, davon zumindest 150 Stunden innerhalb eines Jahres in einer facheinschlägigen Einrichtung des Gesundheitswesens (§ 5 Abs. 2), sowie eine begleitende Supervision in der Gesamtdauer von zumindest 120 Stunden (§ 5 Abs. 2 Z. 2), mit Bestätigung (§ 9).
Nur dann ist der Psychologe berechtigt, im Gesundheitswesen tätig zu sein, dann aber auch als vollwertiger Gesundheitsberuf. Die Ausübung des Berufes umfasst dann insbesondere (§ 3 Abs. 2):
die klinisch-psychologische Diagnostik hinsichtlich Leistungsfähigkeit, Persönlichkeitsmerkmalen, Verhaltensstörungen, psychischen Veränderungen und Leidenszuständen sowie sich darauf gründende Beratungen, Prognosen, Zeugnisse und Gutachten
die Anwendung psychologischer Behandlungsmethoden zur Prävention, Behandlung und Rehabilitation von Einzelpersonen und Gruppen oder die Beratung von juristischen Personen sowie die Forschungs- und Lehrtätigkeit auf den [im Gesetz] genannten Gebieten
die Entwicklung gesundheitsfördernder Angebote und Projekte
Nach Gesetz unterliegen Klinische und Gesundheitspsychologen dann auch medizinischen Grundverpflichtungen wie Ausüben des Berufs nach bestem Wissen und Gewissen, Weiterbildung unter Beachtung der Entwicklung der Erkenntnisse der Wissenschaft, Verschwiegenheit, Auskunft über die Behandlung, und Ähnlichem (Berufspflichten §§ 13,14). Sie werden auch in eine am Bundeskanzleramt geführte Berufsliste eingetragen (Liste der klinischen Psychologen und Gesundheitspsychologen §§ 16,17)
Außerdem ist eine Fachspezialisierung möglich als
PsychotherapeutIn (Spezialausbildung nach Psychotherapiegesetz, Vorbildung Studium der Psychologie- oder Psychotherapiewissenschaft, umfasst psychotherapeutisches Propädeutikum, 2 Jahre und Fachspezifikum, 3–7 Jahre)
SupervisorIn (diesen Beruf können auch Sozialarbeiter ergreifen)
Neuropsychologe als wissenschaftlich-klinische Spezialisierung
Weitere Spezialausbildungen sind etwa Psychosozialer Gesundheitstrainer, Mehrfachtherapie-Konduktor für Cerebralparetiker und Mehrfachbehinderte
Verwandte Berufe – das heißt, dass die Ausbildung teilweise angerechnet wird – sind
Arzt, Bildungs- und Berufsberater, Ehe- und Familienberater, Kognitionswissenschafter, Lebens- und Sozialberater, Pädagoge, psychiatrische Gesundheits- und Krankenschwester/Pfleger, Psychotherapeut, Sozialarbeiter, Soziologe.
Lehramt
Für den Psychologieunterricht (Unterrichtsfachs Psychologie und Philosophie) an höheren allgemeinbildenden und berufsbildenden Schulen ist das Lehramtsstudium Psychologie und Philosophie Voraussetzung (diesen Beruf können auch Absolventen eines Philosophiestudiums ergreifen)
auch außerhalb des Gesundheitssektors
Arbeitspsychologe
Forensischer Psychologe
Kommunikationspsychologe
Schulpsychologe
Sozialpsychologe
Suchtpsychologe
Verkehrspsychologe
Wirtschaftspsychologe
Zugeordnet wird der Beruf Psychologe dem Berufsbereich Gesundheit und Medizin nach AMS für die gesetzlich besonders geregelten Formen, sonst den Bereichen Soziales, Erziehung und Bildung und Wissenschaft, Forschung und Entwicklung, oder der Berufsgruppe Gesundheit/Medizin/Pflege (Arbeitsfeld Arbeitsplatz Krankenhaus) nach BIC
Ausbildung in Österreich
Das Universitätsstudium Psychologie (Bachelor- und Diplomstudium, 6 bzw. 10 Semester) wird in Österreich derzeit (Stand 2011/12) angeboten:
Alpen-Adria-Universität Klagenfurt (Bachelor/Diplom)
Paris-Lodron-Universität Salzburg (Bachelor)
Karl-Franzens-Universität Graz (Bachelor/Diplom)
Universität Innsbruck (Bachelor)
Universität Wien (Bachelor/Diplom)
UMIT TIROL - Private Universität für Gesundheitswissenschaften und -technologie (Bachelor, Master, Doktorat)
Sigmund Freud Privatuniversität (Bachelor, dort auch Studium der Psychotherapiewissenschaften Bachelor/Diplom)
Webster University Vienna (Bachelor of Arts – Psychology Major angloamerikanischen Typs, 3–4 Jahre, engl.)
Das Studium hat großen Andrang, an den meisten österreichischen Universitäten wurden Zugangsbeschränkungen eingerichtet.
Für die berufliche Weiterbildung gibt es, neben Krankenhäusern und Universitäten auch:
Österreichischen Akademie für Psychologie (ÖAP)
Die Niederlassungsfreiheit ist über das Bundesgesetz über die Niederlassung und die Ausübung des freien Dienstleistungsverkehrs von klinischen Psychologen und Gesundheitspsychologen aus dem Europäischen Wirtschaftsraum (EWR-Psychologengesetz) geregelt, es gilt für die EWR-Vertragsstaaten und die Schweizerische Eidgenossenschaft, sowie dann für Drittländer, wenn deren Ausbildung in ersteren anerkannt ist. Im Ausland ausgebildete Nicht-Österreicher werden damit – eine vorausgehende Prüfung der Ausbildung durch den Gesundheitsminister vorausgesetzt – Österreichern (mit in- und ausländischer Qualifikation) gleichgestellt und allenfalls ebenfalls in der Liste der klinischen Psychologen und Gesundheitspsychologen zertifiziert.
Organisationen und Institutionen
Berufsvertretung ist der Berufsverband Österreichischer Psychologinnen und Psychologen (BÖP), 1953 gegründet, der auch die Österreichische Akademie für Psychologie betreibt
universitäre Interessensvertretung die Österreichische Gesellschaft für Psychologie (ÖGP), 1993 an der Universität Wien gegründet
Gesellschaft Kritischer Psychologen und Psychologinnen (GkPP), Vertreter der Kritischen Psychologie in Österreich
zuständige Behörde ist das Bundesministerium für Wissenschaft und Forschung (bmwf), für die Klinischen und Gesundheitspsychologen aber das Bundesministerium für Gesundheit (bmg)
Dem Psychologenbeirat, dem Beratungsorgan am Bundeskanzleramt (laut § 19 Psychologengesetz) gehören neben Vertretern von BÖP, ÖGP und GkPP und Psychotherapiebeirat beim Bundeskanzleramt auch Vertreter folgender Organisationen der Sozialpartnerschaft an: Österreichische Ärztekammer, Bundeskammer der Gewerblichen Wirtschaft, Hauptverband der Österreichischen Sozialversicherungsträger, Österreichischer Arbeiterkammertag, Österreichischer Gewerkschaftsbund, Präsidentenkonferenz der Landwirtschaftskammern Österreichs
Weitere spezialisierte anerkannte Organisationen und Fachgesellschaften sind:
Gesellschaft für Neuropsychologie Österreich
Notfallpsychologischer Dienst Österreich
Österreichisches Netzwerk Mediation
Verein für ambulante Psychotherapie
Schweiz
2013 ist das Psychologieberufegesetz (PsyG) in Kraft getreten. Es regelt den Titelschutz und die Berufspflichten der Psychologen. Zwecke sind der Gesundheitsschutz und der Schutz vor Täuschung und Irreführung von Personen, die Leistungen auf dem Gebiet der Psychologie in Anspruch nehmen. Zu diesem Zweck werden anerkannte inländische Hochschulabschlüsse in Psychologie, Anforderungen an die Weiterbildung, Voraussetzungen für die Erlangung eines eidgenössischen Weiterbildungstitels, periodische Akkreditierung der Weiterbildungsgänge, Anerkennung ausländischer Ausbildungsabschlüsse und Weiterbildungstitel, Anforderungen an die privatwirtschaftliche Berufsausübung der Psychotherapie in eigener fachlicher Verantwortung sowie die Voraussetzungen für die Verwendung geschützter Berufsbezeichnungen und eidgenössischer Weiterbildungstitel festgelegt. Die zugehörige Verordnung regelt u. a. Weiterbildung, Anerkennung ausländischer Abschlüsse, Akkreditierung von Weiterbildungsgängen, Titelverwendung in der Berufsbezeichnung. Danach dürfen sich nur die Personen „Psychologe“ oder „Psychologin“ nennen, die einen nach Gesetz anerkannten schweizerischen Master-, Lizenziats- oder Diplomabschluss in Psychologie an einer schweizerischen Universität oder Fachhochschule erworben haben. Vergleichbare ausländische Abschlüsse werden dann anerkannt, wenn die für ausländische Abschlüsse zuständige Psychologieberufekommission diese nach Abwägung anerkennt oder ein Staatsvertrag zur gegenseitigen Anerkennung entsprechender Diplome vorliegt. Bachelors dürfen sich gewerblich nicht schriftlich als Psychologe/Psychologin bezeichnen. Der Bachelortitel (Bachelor of Science in Psychologie) ist aber ebenfalls geschützt.
In der Schweiz wird ein Psychologiestudium – früher mit dem Abschluss eines Lizenziats (lic.phil.), heute EU-kompatibel als BA/BSc- oder MA/MSc-Studium – an folgenden Universitäten angeboten: Basel, Bern, Freiburg, Genf, Lausanne, Neuenburg und Zürich.
Die Studienpläne entsprechen dabei weitgehend etwa denen in Deutschland, Schweizer Wissenschaftler haben an der Erarbeitung der Empfehlungen der Deutschen Gesellschaft für Psychologie mitgearbeitet.
Daneben wird ein Fachhochschulstudium an der Zürcher Hochschule für Angewandte Wissenschaften – Departement Psychologie (ZHAW-P) und der Fachhochschule Nordwestschweiz (FHNW) – Hochschule für Angewandte Psychologie, mit einer Ausbildung zum Psychologen angeboten, welches gesetzlich anerkannt ist (BSc. MSc.). Der Ausbildungsschwerpunkt liegt dabei vor allem auf dem Aspekt der angewandten Psychologie. Die Vorgängereinrichtung bot bis 2003 Ausbildungsabschlüsse mit dem Titel Psych. IAP (Institut für angewandte Psychologie) danach wurde das Institut in eine Hochschule für angewandte Psychologie HAP umgewandelt und es wurde bis 2009 mit dem Titel dipl. Psych. FH abgeschlossen. Der dipl. Psychologe FH ist ebenfalls gesetzlich geschützt.
Die Föderation der Schweizer Psychologinnen und Psychologen (FSP) als Dachverband mit ihren kantonalen und thematischen Gliedverbänden ist der größte Berufsverband (über 8000 Mitglieder) der Psychologen in der Schweiz (Gründung 1987). Daneben besteht noch der ältere Schweizerische Berufsverband für Angewandte Psychologie (Gründung 1952), in welchen sich mehrheitlich die FH-Psychologen organisiert haben (ca. 900). Die Schweizerische Gesellschaft für Psychologie (SGP, Gründung 1943) als älteste Psychologenvereinigung der Schweiz ist die Wissenschaftliche Gesellschaft der Psychologie in der Schweiz.
Andere Staaten
In einigen Staaten, wie z. B. in den USA oder in Australien, ist Psychologe ebenfalls eine geschützte Berufsbezeichnung, die aber darüber hinaus einer besonderen staatlichen Zulassung zusätzlich zu einem absolvierten Studium bedarf. Da staatliche Regelungen für die Ausbildung von Psychologen oft fehlen, wird jeder Antragsteller in Bezug auf seine erworbenen Kompetenzen überprüft, ob und inwieweit er über eine ausreichende Qualifikation verfügt, als Psychologe (unabhängig vom Berufsfeld) verantwortungsvoll tätig sein zu können; dieses Vorgehen dient als Vorbild für die europäische Regelung. Darauf aufbauend gibt es auch weitere staatliche Zulassungen, wie z. B. für den Bereich der Psychotherapie.
Siehe auch
Liste bedeutender Psychologen
Weblinks
International
International Union of Psychological Science (IUPsyS)
European Association of Work and Organizational Psychology (EAWOP)
European Federation of Psychologist’s Association (EFPA)
Deutschland
Deutsche Gesellschaft für Psychologie (DGPs)
Berufsverband Deutscher Psychologinnen und Psychologen (BDP)
Österreich
Berufsverband Österreichischer Psychologinnen und Psychologen (BÖP)
Österreichische Gesellschaft für Psychologie (ÖGP)
Gesellschaft Kritischer Psychologen und Psychologinnen (GkPP)
Schweiz
Föderation der Schweizer Psychologinnen und Psychologen (FSP)
Schweizerische Gesellschaft für Psychologie (SGP)
Schweizer Berufsverband für Angewandte Psychologie (sbap.)
Liechtenstein
Berufsverband der Psychologinnen und Psychologen Liechtensteins (BPL)
Datenbanken
PsychAuthors, Datenbank der in der deutschsprachigen Psychologie wissenschaftlich publizierenden Autorinnen und Autoren, zpid.de
Einzelnachweise
Hochschulberuf
Akademischer Grad
|
Q212980
| 212.031856 |
39514
|
https://de.wikipedia.org/wiki/Helsingborg
|
Helsingborg
|
Helsingborg (historisch Hälsingborg; hochdeutsch veraltet Helsingburg) ist eine Stadt im südschwedischen Schonen in der Provinz Skåne län. Sie hat 104.250 Einwohner (Stand 31. Dezember 2015). Damit ist sie die achtgrößte Stadt Schwedens und nach Malmö die zweitgrößte Stadt Schonens. Helsingborg ist der Hauptort der gleichnamigen Gemeinde. Die Stadt ist ein bedeutender Industriestandort und hat den zweitgrößten Hafen des Landes.
Geographie und Geologie
Helsingborg liegt an der Westküste Schonens an der schmalsten Stelle des Öresunds, der Meerenge zwischen Schweden und der dänischen Insel Seeland, gegenüber der dänischen Stadt Helsingør. Im Norden, Osten und Süden ist die Stadt von offenem Land, das vorwiegend landwirtschaftlich genutzt wird, umgeben.
Prägend für das Stadtbild ist eine geologische Verwerfungszone, die sich leicht landeinwärts entlang des Öresundes zieht und die Stadt in einen höher- und einen tiefergelegenen Teil gliedert. Die Verwerfungskante, Teil der Tornquistzone, einer Verwerfung, die sich diagonal vom Kattegat durch Schonen bis nach Bornholm erstreckt, und die östlich angrenzende hochgelegene Ebene tragen die Bezeichnung Landborgen. Einige wenige natürliche Einschnitte in dem Hang, der im Stadtzentrum eine Höhe von 20 bis 40 Metern erreicht, verbinden die historische Altstadt mit den Stadtteilen oberhalb des Hangs. Die Altstadt liegt eingezwängt zwischen Landborgen und dem Öresund auf Meeresniveau. Über die durch die Landborgen gezogene natürliche Grenze hat sich die Innenstadt bis heute nicht landeinwärts ausgedehnt. Stattdessen wurde durch Landgewinnung im Öresund neues Bauland im Zentrum Helsingborgs geschaffen.
Im Süden Helsingborgs mündet der Fluss Råån in den Öresund.
Klima
Durch die Lage Helsingborgs am Öresund herrscht in der Stadt ein kühlgemäßigtes Klima mit einer Jahresdurchschnittstemperatur von 8,2 Grad Celsius. Die mittlere Monatstemperatur im Januar liegt bei −0,1 Grad Celsius, im Juli bei 16,8 Grad Celsius. Die durchschnittliche jährliche Niederschlagsmenge beträgt 568 mm.
Namensherkunft
Der Stadtname leitet sich vermutlich von hals für „Hals“, einer Bezeichnung für die schmalste Stelle des Öresunds, „ing“ für „Leute, Gefolge, Bewohner“ und borg für „Burg“ ab. Nach einer Rechtschreibreform 1906 wurde der Name 1912 in Hälsingborg geändert, um ihn den neuen Schreibregeln anzupassen. Diese Änderung wurde im Rahmen einer Gemeindereform 1971 rückgängig gemacht.
Geschichte
Helsingborg, ursprünglich eine dänische Stadt, ist eine der ältesten Städte im heutigen Schweden und war wegen seiner strategisch günstigen Lage am Öresund immer wieder umkämpft. Die Siedlung wurde um 1070 erstmals in einem Brief Adams von Bremen erwähnt; jedoch gilt heute die erste urkundliche Nennung unter der Bezeichnung Helsingaburgh durch den dänischen König Knut IV. vom 21. Mai 1085 als Geburtsstunde der Stadt.
Es wird vermutet, dass es hier zum Ende des 9. Jahrhunderts eine kleinere Befestigungsanlage zum Schutz der Überfahrt zwischen Schonen und Seeland gab. Zu den ersten größeren Bauten im Umkreis der Burg gehörten die drei Kirchen St. Clemens, St. Petri und St. Olai. Die einfache Festung wurde im 12. Jahrhundert durch ein Burgschloss aus Sandstein ersetzt, dessen dominierender Teil ein runder Turm mit etwa vier Meter dicken Wänden war. Die Stadt wuchs und immer mehr Menschen siedelten am Ufer des Öresunds im Schutze der Burg.
Im 14. Jahrhundert zählte Helsingborg zu den wichtigsten Städten Dänemarks. Die Burg gehörte mit ihrem um diese Zeit errichteten Verteidigungsturm, bezeichnet als Kärnan, zu einer der stärksten Festungen Nordeuropas. Die neuerbaute Sankt-Marien-Kirche, eine der größten Stadtkirchen Dänemarks in dieser Periode, zeugte von der Bedeutung Helsingborgs.
1329 verpfändete der dänische König Christoph II. Helsingborg – wie ganz Schonen und Blekinge – an Graf Johann III. von Holstein-Kiel. Von ihm erkaufte 1332 Magnus von Norwegen und Schweden das Pfand.
Nach dem Erwerb des Pfands behauptete Magnus die Souveränität über Blekinge und Schonen und ließ sich als König von Schonen und Blekinge huldigen. Blekinge und Schonen, und damit Helsingborg, kamen so in eine Personalunion mit Norwegen und Schweden. Die Souveränität des Magnus wurde 1343 von Waldemar IV. Atterdag von Dänemark, nie aber vom Papst anerkannt. Waldemar nahm 1360 Schonen und Blekinge zurück.
Nach der Schlacht bei Helsingborg 1362 eroberten 1369 die Truppen der Kölner Konföderation unter dem Kommando des Lübecker Bürgermeisters Bruno von Warendorp die Festung Helsingör. Die Einnahme dieser strategischen Schlüsselposition am Sund war Voraussetzung für die Beendigung des Zweiten Waldemarkrieges zwischen der Hanse und Dänemark durch den Frieden von Stralsund 1370.
Trotz der Einführung des Sundzolls 1429 nahm die Bedeutung Helsingborgs im 15. und 16. Jahrhundert ab, nachdem in Helsingør auf der gegenüberliegenden Seite des Sunds die modernere Festung Schloss Kronborg errichtet worden war. Im 17. und 18. Jahrhundert war das Geschick der Stadt von schweren Verwüstungen durch die dänisch-schwedischen Kriege bestimmt, die die Bevölkerung oftmals zur Flucht zwangen.
Die Stadt geriet 1658 durch den Frieden von Roskilde an die schwedische Krone. Im Schonischen Krieg zwischen 1675 und 1679 wurde Helsingborg zwei Mal von Dänemark unter Feldmarschall Gustav Wilhelm von Wedel zurückerobert. Aus diesem Grund beschloss der schwedische König Karl XI. den Abriss der Stadtmauern und des größten Teils des Schlosses. Einzig der Turm Kärnan blieb bestehen. Im Verlauf des Großen Nordischen Krieges landete 1709 ein starkes dänisches Heer unter Christian Detlev von Reventlow südlich von Helsingborg und nahm die Stadt ein. Der schwedischen Generalgouverneur von Schonen, Magnus Stenbock, besiegte am 28. Februar 1710 die dänische Armee in der Schlacht bei Helsingborg, und die Stadt wurde wieder von der schwedischen Krone regiert. 1719 wurde Helsingborg, wie ganz Schonen, Teil von Schweden.
Für die Bevölkerung der Stadt waren die vielen Kriege verheerend. Seuchen und der zu Kriegszeiten stark eingeschränkte Handel über den Öresund sorgten für eine Stagnation der Bevölkerungszahlen und der wirtschaftlichen Entwicklung. 1711 brach zudem die Pest aus, die ein Jahr später überwunden war.
Erst in der zweiten Hälfte des 19. Jahrhunderts begann sich die Stadt langsam wieder zu erholen. Vor allem viele neue Industriebetriebe und die Abschaffung des sogenannten Sundzolls für die Passage des Öresunds 1857 führten zu einem starken Bevölkerungswachstum. 1884 hatte Helsingborg 14.279 Einwohner. 1892 nahm die erste Fährverbindung nach Helsingør mit Dampfschiffen ihren Betrieb auf. Der Hafen wurde bedeutend für den Export von Getreide und anderen Gütern. Mehrere Industrielle, die oft gleichzeitig Ämter in der Gemeinde oder im schwedischen Reichstag innehatten, trieben die Entwicklung der Stadt voran.
Um die Jahrhundertwende expandierte die Stadt schnell und wuchs mit ehemals eigenständigen Ortschaften zusammen, die nun einer Stadt gehörten, die in den 1920ern bereits mehr als 50.000 Einwohner zählte und damit Schwedens fünftgrößte Stadt war. 1903 wurde im Rahmen der sogenannten „Helsingborgausstellung“ ein Straßenbahnnetz eingeweiht, das bis 1967 bestand.
Im Zweiten Weltkrieg führte zwischen 1940 und 1943 die den Deutschen von der schwedischen Regierung zugestandene Versorgungslinie (permittenttågen) der Wehrmacht zur russischen Front in Finnland und ins besetzte Norwegen durch Helsingborg. Nach der Auflösung des Vertrages und der einsetzenden Verfolgung unter anderem der jüdischen Bevölkerung in Dänemark flüchteten 1943 Nacht für Nacht hunderte Menschen über den Öresund und suchten in Helsingborg Schutz.
Stadtgliederung
Die Stadt Helsingborg besteht aus den 32 der 42 Gemeindebezirke (b-områden) der Gemeinde Helsingborg, die den „Innenbezirk“ (innerområde) der Gemeinde bilden. Ein Stadtbezirk ist jeweils nach einem der Stadtteile, die er umfasst, benannt. Speziell am Stadtrand zählen umgebende Industriegebiete sowie große forst- und landwirtschaftlich genutzte Flächen zu einem Stadtbezirk.
Die Charaktere der einzelnen Stadtteile sind sehr unterschiedlich. So gibt es die historische Altstadt (Gamla stan) mit einer zum Teil mehrere Jahrhunderte alten Bebauung, Massenwohnsiedlungen am Rande der Stadt wie Drottninghög, die in den 1960er und 70er Jahren im Rahmen des sogenannten Millionenprogramms, eines landesweiten Wohnungsbauprojekts der schwedischen Regierung, entstanden, städtische Villengegenden wie Olympia aus der wirtschaftlichen Hochzeit der Stadt und eher ländliche Gegenden wie in Råå.
Bevölkerung
Entwicklung der Einwohnerzahl
Bis etwa 1800 zählte Helsingborg unter 1500 Einwohner. In der zweiten Hälfte des 19. Jahrhunderts und Anfang des 20. Jahrhunderts stieg die Bevölkerungszahl sprunghaft an, was vor allem auf die zu dieser Zeit boomende Wirtschaft, sowie auf Eingemeindungen kleinerer umgebender Ortschaften zurückzuführen ist.
Die folgende Übersicht zeigt die Einwohnerzahlen von Helsingborg von 1570 bis 2005. Die Angaben beziehen sich vor 1862 (wahrscheinlich) auf die Stadt Helsingborg (s), von 1862 bis 1970 auf die Stadtgemeinde Helsingborg (g) und ab 1971 auf den Innenbezirk (innerområde) der Gemeinde Helsingborg (i).
Bevölkerung mit ausländischem Hintergrund
Der Anteil der Bevölkerung mit ausländischem Hintergrund an der Gesamtbevölkerung beträgt in Helsingborg 23,2 Prozent. Dabei sind unter „Bevölkerung mit ausländischem Hintergrund“ die Einwohner zu verstehen, die entweder im Ausland geboren sind oder deren beide Elternteile im Ausland geboren sind.
Die wichtigsten Herkunftsländer der im Ausland Geborenen, insgesamt sind es rund 150 Nationen, und die Zahl der von dort stammenden Personen zeigt für das Jahr 2006 die Tabelle. Die Zahlen beziehen sich auf die Gemeinde Helsingborg; allerdings lassen sich durchaus Rückschlüsse auf die Situation in der Stadt Helsingborg ziehen, da rund 84,5 Prozent der ausländischen Bevölkerung der Gemeinde in der Stadt leben.
Religion
Da in Schweden keine Daten zur Religionszugehörigkeit erhoben werden dürfen und deshalb keine offiziellen Statistiken existieren, lassen sich diesbezüglich nur Vermutungen anstellen.
Die größte religiöse Gruppe bilden die Mitglieder der evangelisch-lutherischen Schwedischen Kirche, die bis 1999 Staatskirche war. Nach eigenen Angaben zählte sie am 1. November 2005 in den vier Gemeinden (församlingar) Maria, Filborna, Gustaf Adolf und Raus, die im Stadtgebiet liegen, 62.747 Mitglieder. Seit dem 1. Januar 1990 ist mit der Gemeinde St. Basilus den Store die serbisch-orthodoxe Kirche in Helsingborg vertreten. Seit 1996 besitzt die für Nordwestschonen zuständige Gemeinde ein eigenes Kirchengebäude. Daneben existieren mehrere freikirchliche Gemeinden, unter anderem der Kirche Jesu Christi der Heiligen der Letzten Tage, der Pfingstbewegung, der Evangelischen Vaterlandsstiftung oder der Schwedischen Missionskirche.
Neben den christlichen Glaubensgemeinschaften gibt es eine jüdische Gemeinde mit einer Synagoge im Zentrum Helsingborgs. Der Ahel-Al-Sunnah-Verein ist die größte islamische Vereinigung in Helsingborg und hat im Stadtteil Högasten ihre Versammlungsräume.
Soziale Struktur
Zwischen den zentralen Stadtteilen nördlich und südlich des Zentrums bestehen traditionell deutliche Unterschiede in der sozialen Struktur. Waren die südlichen Stadtteile früher die Wohngebiete der in den benachbarten Industriegebieten beschäftigten Arbeiter und die nördlichen Stadtteile Heimat der bessergestellten Bürger, so bestehen zwischen dem Süden mit Stadtteilen wie Söder, Planteringen und Högaborg und dem Norden mit Stadtteilen wie Norr und Tågaborg heute erhebliche Unterschiede unter anderem bei Ausländeranteil, Arbeitslosenquote, Einkommensverteilung und Bildungsstand.
Zu den Gegenden mit überwiegend sozial schwacher Bevölkerung gehören viele der im Rahmen des Millionenprogramms entstandenen Stadtteile wie Drottninghög im Nordosten der Stadt.
Die Unterschiede lassen sich anhand der oben genannten statistischen Merkmale Ausländeranteil, Arbeitslosenquote, Bildungsstand (am Beispiel des Bevölkerungsanteils mit nachgymnasialem Bildungsabschluss) und durchschnittliches Jahreseinkommen belegen:
Aus den Ergebnissen einer Studie des schwedischen Integrationsverket geht hervor, dass sich die Segregation in Helsingborg in den Jahren 1997–2004 weiter verstärkt hat.
Politik
Hauptartikel: Helsingborg (Politik)
Die verwaltende Instanz der Stadt ist die Gemeinde Helsingborg (Helsingborgs stad). Ihr Gebiet erstreckt sich jedoch über die Grenzen der eigentlichen Stadt in siedlungsgeographischem Verständnis (tätort) hinaus und schließt außerhalb gelegene Ortschaften mit ein.
Helsingborg ist der Hauptort (centralort) der Gemeinde und damit Sitz der kommunalen Verwaltung.
Helsingborg ist traditionell sozialdemokratisch geprägt. Seit der letzten Gemeindewahl 2006 wird die Gemeindepolitik maßgeblich von der sogenannten „Bürgerlichen Allianz“ aus Konservativen, Christdemokraten, Zentrum und der Liberalen bestimmt.
Historische Entwicklung
1862 wurde Helsingborg mit Inkrafttreten von Gemeindegesetzen in eine Stadtgemeinde umgewandelt, in der alle der Stadt Steuer zahlenden Personen das Recht hatten, den Stadtrat zu wählen. Vorher war dies den Stadtbewohnern, die zum Stand der Bürger (burskap) gehörten, vorbehalten. Die neue Stadtgemeinde wurde von einem Magistrat geleitet und hatte einen 26-köpfigen Gemeinderat (stadsfullmäktige). Jeweils der halbe Gemeinderat wurde jedes zweite Jahr für vier Jahre gewählt. Da es zu dieser Zeit keine Parteien und damit wenig konträre politische Debatten gab, war das Interesse der Bevölkerung an den Wahlen anfangs gering. Das Wahlsystem sah vor, das jeder Einwohner bis zu 100 Stimmen haben konnte, je nachdem, wie viel Steuern er an die Gemeinde zahlte. Die Höchstzahl der Stimmen wurde 1909 auf 40 gesenkt, und 1918 wurde diese Form des Wahlsystems abgeschafft. 1899 wurde der erste Sozialdemokrat in den Gemeinderat gewählt. Dies geschah auf Initiative des Unternehmers Nils Persson und des Reichstagsmitglieds Oscar Trapp, die es als wichtig ansehen, dass die Arbeiterbewegung über Mitsprache im Gemeinderat verfügte. Durch die Wahlreform 1909 verdreifachte sich der Anteil der Sozialdemokraten im Gemeinderat und 1918 wurden sie zur größten Fraktion.
In den Jahren 1905, 1907, 1917 und 1918 wurden viele Orte der die Stadt umgebenden Landgemeinden in die Stadtgemeinde Helsingborg eingemeindet. 1971 wurde die Stadtgemeinde Helsingborg bei einer Kommunalreform mit vier bei der früheren Kommunalreform von 1952 gebildeten Landgemeinden zusammengelegt und ist seitdem ein Teil der Gemeinde Helsingborg. Die Gemeinde ist eine von dreizehn im Land, die in der Eigenbezeichnung stad anstelle von kommun verwendet.
Zur Geschichte der Gemeinde Helsingborg ab 1971 siehe: Helsingborg (Gemeinde)
Wappen
Das Stadtwappen von Helsingborg ist eine Weiterentwicklung eines Siegels aus dem 14. Jahrhundert. Das Siegel zeigt eine Burg mit einem zentralen, von einem Kreuz gekrönten Turm mit spitzem Dach hinter einer Mauer mit Zinnen. Der Turm stellt wahrscheinlich einen Kirchturm dar. Unwahrscheinlich ist die ältere Deutung, dass es sich um den Turm Kärnan handelt. Nach neueren archäologischen Erkenntnissen ist dieser Turm jünger als das Siegel. Das Siegel wurden zweimal, 1916 und 1946, von König Gustav V. als Wappen festgestellt. Seit 1971 wird das Wappen von der Gemeinde Helsingborg verwendet. Es wurde 1974 für die Gemeinde beim schwedischen Patentamt registriert.
Städtepartnerschaften
Helsingborg war eine der ersten Städte der Welt, die eine Städtepartnerschaft einging. Die Zusammenarbeit mit dem dänischen Helsingør begann bereits 1838. 1849 trafen sich Repräsentanten beider Städte auf dem zugefrorenen Öresund, um eine Freundschaftsbekundung zu unterzeichnen. Nach dem Beschluss des Baus der Öresundverbindung zwischen Malmö und Kopenhagen und im Hinblick auf den daraus folgenden Verlust der kürzesten Verbindung zwischen Schweden und Dänemark und die Verlagerung der Hauptverkehrsrouten Richtung Süden unterzeichneten Vertreter der beiden Städte 1995 ein Zusammenarbeitsabkommen („HH-samarbetet“) in den Bereichen Wirtschaft, Tourismus, Verkehrsinfrastruktur, Umwelt, Kultur und Bildung.
Heute hat Helsingborg vier Partnerstädte (vänorter):
(Dänemark), seit 1849
(Estland)
(Kroatien), seit 1998
(USA)
Neben den oben genannten Städtepartnerschaften gibt es noch zahlreiche weitere Partnerschaften zwischen Schulen der Stadt Helsingborg mit anderen Schulen auf der Welt. So findet beispielsweise seit vielen Jahren ein jährlicher Schüleraustausch zwischen einem Gymnasium in Helsingborg und dem Campe-Gymnasium in Holzminden (Niedersachsen) statt.
Stadtbild
Trotz des hohen Alters der Stadt gibt es nur wenige Gebäude, die davon zeugen. Ein Großteil der alten Bauten wurde Opfer der Verwüstungen, die die über Jahrhunderte immer wieder die Stadt heimsuchenden Kriege zwischen Dänen und Schweden mit sich brachten. Besonders schlimm waren die Zerstörungen im Schonischen Krieg, als der dänische König Kristian V. große Teile Helsingborgs niederreißen ließ, um mit dem gewonnenen Material die Stadtbefestigungen zu verstärken. Karl XI. zerstörte das Schloss Helsingborgs, von dem nur der Turm Kärnan übrig blieb. Die einzigen Profanbauten aus dem 17. und 18. Jahrhundert, die die Jahrhunderte überlebten, sind das Jacob-Hansen-Haus (Jacob Hansens hus), der Gamlegård und der Henckelsche Hof (Henckelska gården).
Im 19. Jahrhundert entwickelte sich Helsingborg zu einer „geteilten“ Stadt mit den reichen nördlichen Stadtteilen und den ärmeren Arbeiterquartieren im Süden. Die traditionelle Grenze war die Straße Trädgårdsgatan. Diese Teilung ist noch heute sichtbar, so hat der südliche Stadtteil Söder die höchste Einwandererdichte. Als Gründe für diese Separierung der Bevölkerungsschichten gilt sowohl die Nähe der südlichen Stadtteile zu den Industriegebieten als auch, dass der Norden durch seinen direkten Zugang zum Wasser, der den Wohngebieten im Süden durch den Hafen und die Eisenbahn verwehrt blieb, die attraktivere Wohngegend darstellte.
Baugeschichte
Die ersten Häuser der Stadt lagen auf dem Hang im Schutze des Schlosses. Die Stadt wuchs dann weiter in Richtung Öresund. In den Bereichen die an den Turm Kärnan anschließen, ist noch ein mittelalterliches Straßenmuster mit unregelmäßigen Wohnquartieren zu erkennen. Hier liegt Helsingborgs erste Hauptstraße, Storgatan, die heute in einen nördlichen und einen südlichen Teil aufgeteilt ist. An dieser Straße liegen einige der historisch wertvollsten Gebäude der Stadt. Dazu zählen die Sankt-Marien-Kirche und das älteste Wohnhaus Helsingborgs, das Jacob-Hansen-Haus, welches als einziges in der Stadt von vor 1670 stammt.
Bis zur Mitte des 19. Jahrhunderts wurden vorwiegend Fachwerkhäuser gebaut. Mit der dann einsetzenden neuen Blüte der Stadt wurden viele der alten Bauten durch eine protzigere Architektur ersetzt. Mit der Errichtung des Zentralhafens 1832 wuchs der Ort in den Öresund hinein. Auf der neu gewonnenen Landfläche entstanden viele Prunkbauten entlang der zu dieser Zeit angelegten Paradestraßen Drottninggatan und Järnvägsgatan, der heutigen Hauptverkehrsachse, sowie dem zentralen Platz Stortorget, darunter das Hotel Mollberg und das 1897 erbaute Rathaus im neugotischen Stil, das als Zeichen für die gestiegene Bedeutung der Stadt gelten sollte.
An der Straße Järnvägsgatan wurde 1865 der Hauptbahnhof errichtet, der mit dem Hafen eine Grundlage für viele neue Industriebetriebe darstellte. Im Anschluss an diese Betriebe entstanden Arbeiterquartiere, die zusammen den Stadtteil Söder bildeten. Hier wurde die Gustav-Adolf-Kirche und der Platz Nya torg (heute Gustaf Adolfs torg genannt) als zweites Stadtzentrum errichtet.
Im 19. Jahrhundert wurden die Befestigungsanlagen östlich des Schlosses abgerissen. Hier entstanden vor allem Gebäude für verschiedene Institutionen wie das Handelsgymnasium von 1863, das Lazarett von 1878, die Armenpflegestation von 1888 und die Nicolaischule von 1898. Mit diesen Bauten etablierte sich der Stadtteil Olympia mit Villen im Jugendstil. Mit Hilfe einer Spende des Industriellen Henry Dunker konnte die Stadt 1927 einen Wettbewerb für ein neues Konzerthaus starten. Diesen Wettbewerb gewann der Architekt Sven Markelius. Sein siegreicher Vorschlag war ein Funktionsgebäude mit weißem Putz, das 1932 fertiggestellt war und heute das beste Beispiel für funktionelle Architektur in Schweden ist.
Durch die andauernde Expansion Helsingborgs sind in der Stadt alle Baustile der letzten zwei Jahrhunderte vertreten. Das schwedische Millionenprogramm hat hier in den Stadtteilen Dalhem, Fredriksdal und Adolfsberg seine Spuren hinterlassen. Genauso blieb Helsingborg nicht von der großen Abrisswelle der 1970er-Jahre verschont. Viele ältere Gebäude im Zentrum mussten neuen Ziegelbauten weichen. Zwei dieser modernen Bauten sind das Firmengebäude von Skandia und die SEB-Bank.
Das größte Bauprojekt der neusten Zeit sind die Gebäude, die 1999 für die Architekturausstellung H99 am Nordhafen im neuen Funktionalstil errichtet wurden.
Plätze
Der älteste Platz Helsingborgs heißt Stortorget und erstreckt sich von einer Treppenanlage im Osten bis zur Straße Drottninggatan (Konsul Trapps plats) im Westen, wo eine Reiterstatue steht, die Magnus Stenbock zeigt. Der Platz verdankt seine spezielle längliche Form der Tatsache, dass dänische Truppen im Schonischen Krieg (1676–1679) eine breite Versorgungsschneise zwischen Schloss und Hafen durch die Stadt schlugen. Nach Kriegsende wurde die Freifläche bis Ende des 19. Jahrhunderts zu Handelszwecken genutzt. Im Laufe der Zeit entstanden rund um den Platz große Gebäude mit prunkvollen Fassaden.
Weiter Richtung Hafen liegt der Platz Hamntorget, der in den 1890er-Jahren im Zusammenhang mit dem Bau des Nordhafens geschaffen wurde. Im Alltag als Parkplatz genutzt, finden auf ihm zu besonderen Anlässen, wie dem Helsingborgsfestival Konzerte statt. Am Platz liegt das Alte Zollhaus (Gamla tullhuset), heute Abfahrt von Öresundsfähren, und die alte Fährstation, heute ein Rockclub. Direkt am Pier steht die Statue Sjöfartsgudinnan („Seefahrtsgöttin“), die von Carl Milles geschaffen wurde. Daneben steht ein Monument, dass an die Landung Karl XIV. Johans in Helsingborg erinnert.
Zwischen Hamntorget und Knutpunkten, dem (Bus-)Bahnhof und Fährterminal, liegt der Kungstorget, der früher, als die Bahngleise noch quer durch die Stadt führten, Bahn- und Parkgelände war. Heute gibt es hier im Sommer Freiluftgaststätten und Bühnen für unterschiedliche Veranstaltungen.
Der Sundstorget wurde 1865 auf dem Öresund abgewonnenem Land angelegt. Rund um den Platz wurden einige monumentale Gebäude gebaut und später ein großer Teil des Markthandels vom Stortorget hierher verlegt, nachdem in der Westhälfte des Platzes eine Markthalle gebaut worden war. In der zweiten Hälfte des 20. Jahrhunderts wurde diese wieder abgerissen und der Platz als Parkplatz genutzt. 2004 wurden bei Umbauarbeiten die Autos unter die Erde verbannt. Im Süden des Platzes entstand eine neue Markthalle aus Glas. Entlang der Nordseite des Platzes liegen einige Restaurants mit Terrassen. Im Westen wird der Platz von Dunkers kulturhus begrenzt.
Einige Plätze tragen den Namen von Personen, die für die Entwicklung der Stadt von Bedeutung waren. Beispiele sind Henry Dunkers plats zwischen dem Konzerthaus (Konserthuset) und dem Stadttheater (Stadsteatern), der seinen Namen während der Architekturausstellung H99 verliehen bekam, um die Verdienste Dunkers um das Kulturleben der Stadt zu ehren. Konsul Olssons plats liegt von kleinen Gassen umgeben mitten in der Altstadt in der Nähe eines Lagergebäudes des Unternehmers Petter Olsson. Im Stadtteil Söder liegt Konsul Perssons plats. Hier stand einst Nils Perssons Schwefelsäurefabrik; seit 2005 wird der Platz vom neuerbauten Tingshuset, dem Sitz des Amtsgerichts (tingsrätt), dominiert. Nördlich des Platzes schließt sich Mäster Palms plats mit dem Kaufhaus Söderpunkten an. Etwas weiter südlich liegt Gustav Adolfs torg, ehemals Nya Torg, der an den meisten Tagen der Woche als Marktplatz genutzt wird.
Parks und Grünanlagen
Viele Parks liegen am Rand der Innenstadt und bilden einen Grüngürtel. Oft haben sie ihren Ursprung in privaten Gärten, die später der Stadt geschenkt wurden. Die meisten Parks entstanden zum Ende des 19. Jahrhunderts im Zusammenhang mit der kräftigen Expansion Helsingborgs. Sie waren als grünes Gegengewicht zu den neuen Gebäuden und Industrieanlagen gedacht.
Der erste richtige Park war Krookska planteringen, gelegen zwischen der Innenstadt und dem damals neuen Stadtteil Söder. Als beabsichtigt war, die Freifläche zu bebauen, kauften die Geschwister Krook das Gelände und schenkten es der Stadt mit der Bedingung, es in einen Park zu verwandeln. 1873 wurde der Park, der heute allgemein als Stadtpark (Stadsparken) bezeichnet wird, fertiggestellt.
Ein weiterer früher Park ist der Öresundpark, der 1877 entlang eines natürlichen Einschnittes in der landborgen angelegt wurde, als die im ältesten Industriegebiet der Stadt angesiedelte Wassermühlen in das neue Industriegebiet im Süden verlegt wurden. Durch den Park führt die Hauptzufahrtsstraße zur Innenstadt aus Richtung Nordost. Der Park zieht sich bis auf das Plateau der landborgen hinauf. Von dort fällt der Blick über den Öresund.
Zum Anlass der „Helsingborgausstellung“ (Helsingborgsutställningen) 1903 wurde das ehemalige Burggelände um den Turm Kärnan, seit der Schleifung der Festungsanlagen stets nur dünn bebaut, in einen Park namens Slottshagen verwandelt. Heute gibt es dort einen Rosengarten und ein Freilufttheater.
Im Stadtteil Olympia liegt das Freilichtmuseum Fredriksdal, das der Stadt 1918 von Gisela Trapp, der Witwe des Konsuls Oscar Trapp, geschenkt wurde. Der Park beherbergt Fredriksdals herrgård, einen botanischen Garten, einen Garten mit Obstbaumbestand und das Theater Fredriksdal.
Nach dem Tod König Gustav VI. Adolfs erhielt Helsingborg das Schloss Sofiero nördlich der Stadt als Geschenk. Der dazugehörige Park verdankt seine Bekanntheit den vielen dort wachsenden Rhododendronarten sowie Veranstaltungen wie Orchideenwettbewerben und Oldtimerausstellungen.
Eine Schenkung von Ida und Otto Banck aus dem Jahre 1912 ist die Villa und der Park Vikingsberg im höhergelegenen Teil Helsingborgs. Die Villa war lange Jahre Herberge für die städtische Kunstsammlung. Heute befindet sich hier eine private Kunstgalerie.
Ein weiterer bekannter Park ist der Brunnenpark Ramlösa (Ramlösa brunnspark) im Süden von Helsingborg. Hier lag die alte, 1707 in Betrieb genommene Ramlösaquelle, und hier war der Ort, wo im 18. und 19. Jahrhundert Kurgäste mit Heilwasser ihre Leiden kurierten. Im Park stehen einige gelbgestrichene, mit Holzsägearbeiten verzierte Holzhäuser.
Im Norden der Stadt liegt der Wald von Pålsjö (Pålsjö skog) in Nachbarschaft zum Schloss Pålsjö und dem dazugehörigen Schlosspark. Im Süden liegt das Naturschutzgebiet Rååns dalgång, der auf einer Seite vom Fluss Råån begrenzt wird. Am Rande liegt die Kirche von Raus (Raus kyrka), die älteste Kirche Helsingborgs, deren Geschichte bis ins 12. Jahrhundert zurückgeht.
Entlang des Randes der landborgen wurde die Landborgspromenade geschaffen, die mehrere Parks der Stadt von Pålsjö skog bis Råådalen durch einen Wanderweg verbindet, von dem ein Ausblick über den Öresund besteht.
Kultur, Sehenswürdigkeiten und Freizeit
Helsingborg verfügt über ein großes Spektrum an Kultur- und Freizeiteinrichtungen. Die Stadtverwaltung unterstützt diese oft mit finanziellen Mitteln. Mit der Errichtung des Kulturhauses (Dunkers kulturhus) erhielt Helsingborg eine zentrale Einrichtung für Kunst, Musik und Ausstellungen.
Theater
Ab 1813 gab es ein Theater in der Stadt. Zu jener Zeit wurde dem damaligen Besitzer des Heilwasserbrunnens in Ramlösa, Achates von Platen, die Erlaubnis erteilt, ein „provisorisches Theaterhaus aus Holz“ in der Straße Prästgatan zu errichten. 1859 wurde das Theater von der Stadt aufgekauft und bald wurden Stimmen laut, die einen neuen und zeitgemäßen Theaterbau forderten. Das neue, 1877 eröffnete Theater zog immer öfter umherreisende Theatergruppen an und Anfang des 20. Jahrhunderts kam der Wunsch nach einem festen Ensemble auf. 1921 wurde so das erste fest mit einem Stadttheater verbundene Theaterensemble Schwedens gegründet. Durch die höheren (vor allem räumlichen) Anforderungen, die dies mit sich brachte, wurden das Theater bald zu klein und unfunktionell. So wurde 1976 das neue Stadttheater neben dem Konzerthaus errichtet, das über eine „die Große“ (Storan) genannte große und „die Kleine“ (Lillan) genannte Bühne verfügt. Das alte Theater wurde im selben Jahr trotz großer Proteste niedergerissen.
Theatervorstellungen finden zudem in Dunkers kulturhus statt. Im Sommer ist ein Besuch des 1932 gegründeten Freilufttheater Fredriksdal beliebt. Es ist landesweit durch die Übertragung von Vorstellungen im Fernsehen sowie durch das langjährige Wirken des Schauspielers Nils Poppe bekannt. Revuen unter freiem Himmel sind im Sommer im Park Slottshagen zu sehen.
Museen
Stadtmuseum
Der geschichtsinteressierte Konsul Oscar Trapp schlug Anfang des 20. Jahrhunderts die Einrichtung eines Museums in Helsingborg vor. 1909 eröffnete das neue Stadtmuseum in einem ehemaligen Schulgebäude in der Straße Södra Storgatan. Es zeigte neben Kunstwerken Sammlungen mit naturwissenschaftlichen, archäologischen, ethnografischen und kulturhistorischen Themen, die zum Teil schon ab 1890 begonnen worden waren. Nach der Schenkung der Villa Vikingsberg an die Stadt durch Otto Banck konnte die Kunstsammlung 1929 dorthin umziehen. Mit der Zeit wurden die Lokalitäten in der Södra Storgatan für die verbleibenden Ausstellungen zu klein und es wurden Ausweichmöglichkeiten gesucht. Die Raumfrage konnte erst 2002 gelöst werden, als sowohl das Stadtmuseum als auch die Kunstsammlung aus der Villa Vikingsberg in Dunkers kulturhus verlegt wurde. Das Stadtmuseum zeigt heute neben stadtgeschichtlichen Ausstellungen grafische Blätter, Ölgemälde, Kunsthandwerk und Designmöbel, die hauptsächlich aus dem nordwestlichen Bereich Schonens stammen.
Freilichtmuseum Fredriksdal
1918 stiftete Oscar Trapps Witwe Gisela Trapp das Gut Fredriksdal mit den zugehörigen Ländereien dem Museum mit der Bedingung, dass ein dort ein Freilichtmuseum eingerichtet und die Ländereien zur Finanzierung des Museumsbetriebes Verwendung finden sollten. Das Freilichtmuseum Fredriksdal wurde im Laufe der Jahre um weitere historische Hofanlagen aus verschiedenen Gegenden Schonens und kulturhistorisch interessante Gebäude aus den alten Stadtvierteln Helsingborgs erweitert. In einem der alten Häuser aus der Stadt liegt das Grafische Museum (Grafiska museet) – das größte dieser Art in Schweden –, das die Geschichte der Druckkunst von Gutenbergs Zeit bis heute zeigt. Im Anschluss an Fredriksdal liegt das „Kulturlager“ (Kulturmagasinet), wo große Teile der umfassenden Sammlungen Helsingborger Museen (zwischen)lagern. Das Kulturmagasinet ist daneben der Eigentümer des Burgturms Kärnan und damit für dessen Erhalt verantwortlich.
Weitere Museen
Östlich des Kärnan liegen zwei weitere Museen – das Schulmuseum (Skolmuseet) und das Medizinhistorische Museum (Medicinhistoriska museet). Das Schulmuseum wurde 1985 in der alten Östra skolan neben der Slottsvångschule eingerichtet. Es zeigt restaurierte alte Schuleinrichtungen und Lehrmittel aus verschiedenen Volksschulen in und um Helsingborg. Das Medizinhistorische Museum in einem ehemaligen Kinderkrankenhaus zeigt historische Krankenhauseinrichtungen und Gegenstände aus dem Bereich der Pflege. Das Helsingborger Sportmuseum (Helsingborgs Idrottsmuseum) in der Straße Carl Krooks gata in Söder vermittelt einen Einblick in die lange Sportgeschichte Helsingborgs und verleiht den Preis „Sportler des Jahres in Helsingborg“ (Årets idrottare i Helsingborg). Außerhalb der Stadt liegt das „Bereitschaftsmuseum“, das in der unterirdischen Batterie Helsingborg (Batteri Helsingborg), gebaut 1940, von den Umständen in Schweden zur Zeit des Zweiten Weltkriegs erzählt und Kriegsmaterial aus dieser Zeit zeigt. In Kulturhotell hat im Juni 2017 ein „Museum des Scheiterns“ (Museum of Failure) eröffnet; es zeigt rund 70 missratene und nicht erfolgreiche Erfindungen. Gründer und Leiter ist Samuel West.
Musik
Noch bis weit ins 19. Jahrhundert hinein war ein Konzert ein eher ungewöhnliches Ereignis in der Stadt am Öresund. Lediglich einige wenige Ensembles spielten hin und wieder bei den Heilquellen der Stadt, der Sofienquelle (Sofiakällan) und der Ramlösaquelle, und der Chor Husarrengementets musikkår gab vereinzelte öffentliche Konzerte. 1896 gründete sich die Helsingborger Musikgesellschaft (Helsingborgs musiksällskap), um die Musikliebe der Helsingborger Bürger mit regelmäßigen Konzertveranstaltungen zu wecken und zu fördern. 1911 beschloss der schwedische Reichstag die Förderung von Orchestern in Schwedens Provinzstädten. Da sich die Stadt an den Fördermaßnahmen ebenfalls beteiligte, entstand noch im selben Jahr die Orchestervereinigung Nordwestliches Schonen (Nordvästra Skånes Orkesterförening), aus der später das Sinfonieorchester Helsingborg hervorging. Das große Interesse, auf das die neue Einrichtung in den ersten Jahren stieß, drohte bald zu schwinden, da es an einem festen Konzerthaus mangelte. 1932 schließlich stand das neue Haus. Das vom Architekten Sven Markelius entworfene Helsingborgs konserthus sorgte für ein deutlich zunehmendes Musikinteresse in der Stadt.
Das Kulturleben in Helsingborg kann sich heute auf ein reiches Musikangebot aller Richtungen – von Klassik über Jazz bis zu eher moderner Musik – stützen. Im Konzerthaus finden neben regelmäßigen Auftritten des Sinfonieorchesters Helsingborg vielen Gastauftritte statt. Dunkers kulturhus ist eine bekannte Lokalität für Konzerte in kleinerem Rahmen, beispielsweise für Auftritte der Musikschule. In den Kirchen der Stadt, vor allem in der Marienkirche und der Gustav-Adolf-Kirche, werden oft musikalische Veranstaltungen verschiedener Ausprägungen wie Taizémessen oder Solokonzerte ausgerichtet. Liebhaber beschwingter Musik sind in den Kellerräumen des Jazzklubs in der Straße Kullegatan am richtigen Ort. The Tivoli am Nordhafen ist der einzige Rockklub der Stadt und bietet regelmäßige Konzerte angesagter Gruppen. Daneben gibt es in Helsingborg verschiedene Musikgruppierungen, darunter der Kammerchor Helsingborg (Helsingborgs kammarkör), die Kammermusikvereinigung Helsingborg (Helsingborgs kammarmusikförening), Visans vänner („Freunde der Weise“), Pearls of the Sound und das Vokalensemble Helsingborg (Helsingborgs vokalensemble).
Bauwerke
Zu den „herausragenden“ Sehenswürdigkeiten Helsingborgs gehört der restaurierte Burgturm Kärnan, einzig übergeblieben von der mittelalterlichen Befestigungsanlage, die 1150 erbaut, 1680 geschleift wurde. Von ihm aus geht der Blick über den Öresund in Richtung Dänemark. Sehenswert sind das Rathaus, erbaut 1857, und die Freitreppe am Stortorget sowie die Sankt-Marien-Kirche aus dem 12. Jahrhundert.
Das Brunnenhotel Ramlösa (Ramlösa brunnshotell, auch Stora hotellet, „Großes Hotel“), erbaut zwischen 1876 und 1882 im Stadtteil Ramlösa, der hauptsächlich durch das hier gewonnene Mineralwasser bekannt ist, ist das größte skandinavische Gebäude aus Holz. Das umliegende parkartige Wohngebiet war lange ein Treffpunkt für die soziale Oberschicht Schonens. Rund 3 km nördlich der Stadt liegt das von Parkanlagen umgebene Schloss Sofiero, ehemalige Sommerresidenz der königlichen Familie. Landesweit bekannt ist das Freilufttheater Fredriksdal im Freilichtmuseum Fredriksdal.
Gastronomie und Nachtleben
Helsingborg hat neben einer Reihe populärer Restaurants eine der höchsten Kneipendichten Schwedens zu bieten. Drei von zwanzig Restaurants der „schwedischen Meisterklasse“ sind laut dem Restaurantführer White Guide 2006 in Helsingborg zu finden. Neben weiteren guten und populären Adressen neueren Datums gibt es einige Restaurants, die auf eine lange Tradition zurückblicken können und beliebt sind, allen voran Mollbergs matsalar (etwa „Mollbergs Speisesäle“), die an das Hotel Mollberg angeschlossen sind. An dieser Stelle gibt es seit dem 15. Jahrhundert einen Gaststättenbetrieb. Aufgrund der Lage Helsingborgs am Öresund gibt es entlang der Wasserfront eine Reihe Restaurants im Bereich des Nordhafens, der Kaipromenade (Kajpromenaden) und der Strandpromenade (Strandpromenaden), die im Sommer unter freiem Himmel servieren. Außerdem gibt es eine Vielzahl an Gaststätten mit Speisen aus aller Welt. Einige Konditoreien und Cafés mit teils über hundertjähriger Geschichte sind in Helsingborg zu finden. Wie für Städte dieser Größenordnung üblich, unterhalten weit verbreitete Fastfoodrestaurant- und Caféketten wie McDonald’s und Wayne’s Coffee in der Stadt Filialen. Nachtclubs und Kneipen konzentrieren sich im Stadtzentrum. Der Stadtteil Söder hat ein Nachtleben zu bieten.
Strandgebiete
Helsingborg ist eine der wenigen Städte in Schweden, wo ansprechende Badestrände vorhanden sind, die nur zehn Minuten Fußweg vom Zentrum entfernt sind. Im Sommer sind oft Leute mit Badesachen in der Stadt zu sehen. Der stadtnächste Badeplatz heißt „Tropical Beach“ mit Palmen und Sonnenstühlen. Er wurde mit der Ausstellung H99 angelegt und liegt direkt an der Hafeneinfahrt des Inneren Hafens (Inre hamn).
Nördlich des Nordhafens (Norra hamn) liegen die sandlosen Badestellen namens „Järnvägsmännens“ und „Gröningen“ mit großer Liegewiese und Badesteg. Weiter nördlich liegt das Örestrandsbad („Fria bad“ genannt), einer der populärsten Strände, so wie ganz im Norden der Stadt der „Wikingerstrand“ (Vikingstrand), der behindertengerecht eingerichtet ist.
Südlich von Helsingborg ist das Ufer des Öresundes recht seicht, was dazu führt, dass die hier liegenden Strände Råå vallar und Örby ängar von Familien mit Kleinkindern bevorzugt werden. Zwischen diesen Stränden und dem Hafengelände liegt Helsingborgs FKK-Strand, Knähakens bad.
Außerdem gibt es in Helsingborg drei Seebadehäuser (kallbadhus), gelegen südlich des Wikingerstrands, (Pålsjöbaden), zwischen Örestrandsbad und Gröningen (Norra Kallbadhuset oder „Kallis“), sowie im Süden bei Råå (Råå kallbadhus).
Sport
Helsingborger Olympiade
Helsingborg blickt auf eine lange Sportgeschichte zurück. Bereits 1834 wurden bei Ramlösa ein erstes Sportfest in der olympischen Tradition veranstaltet. Hinter den Spielen stand der „Olympische Verein“ (Olympiska föreningen), dessen Ziel es war, das Interesse an den Olympischen Spielen in Schweden und Norwegen zu wecken. Als Disziplinen waren bei dieser Helsingborger Olympiade Gymnastik (gymnastik), Laufen (kapplöpning), Ringen (brottning) und Klettern (klättring) vertreten. Die Spiele zogen eine beachtliche Anzahl Zuschauer an und wurden einmalig 1836 wiederholt. Einige Straßen in der Gegend um den Austragungsort, heute ein Industriegebiet um den Bahnhof Ramlösa, tragen heute noch Namen wie Kapplöpningsgatan, Fäktmästargatan und Rännarbanan zur Erinnerung an das Geschehen.
Fußball
Die dominierende Sportart in Helsingborg ist das Fußballspiel und es gibt eine Vielzahl von Fußballvereinen in der Stadt. Der erfolgreichste unter ihnen ist Helsingborgs IF (HIF), entstanden 1907 durch die Zusammenlegung der Vereine Svithiod und Stattena. Der HIF spielt zurzeit in der zweithöchsten schwedischen Liga, der Superettan. Von den späten 1920ern bis Anfang der 1940er war Helsingborgs IF eine der besten Mannschaften Schwedens und gewann 1929, 1930, 1933, 1934 und 1941 die Meisterschaft. Darauf folgte eine Phase mit eher bescheideneren Erfolgen und 1968 schließlich stieg der Verein in die Division 1 ab. Der Wiederaufstieg gelang erst 1992, worauf 1999 der Gewinn des Meistertitels folgte. Das Heimatstadion des HIF ist das Olympia, eines der ältesten Stadien Schwedens, erbaut 1898. Die ursprünglich für sowohl Fußball- als auch Leichtathletikveranstaltungen gebaute Arena ist heute ein reines Fußballstadion mit Platz für etwa 16.700 Zuschauer. Im Umfeld des Stadions liegen zahlreiche weitere Sportanlagen.
Der HIF war jedoch nicht immer der einzige Repräsentant Helsingborgs in der Fotbollsallsvenskan. 1951 und 1952 spielte dort der Råå IF, dessen größter Triumph 1948 der Sieg des Landespokals war. Heute spielt der Verein im Amateurbereich. Weitere Fußballvereine der Stadt sind der 1927 gegründete Högaborgs BK, Heimatverein von Henrik Larsson, und der 1991 aus der Zusammenlegung von Helsingborgs Södra BK, Helsingborgs BoIS und BK Drott entstandene Verein Helsingborgs Södra BIS, die derzeit jeweils nur unterklassig antreten.
Helsingborgs erfolgreichste Damenfußballmannschaft gehört zum Stattena IF, gegründet 1922. Sie spielt heute in der Division 1 nach zwei Spielzeiten in der Allsvenskan der Damen 2003 und 2004.
IFK Helsingborg
Helsingborgs Sportkameradschaft (Idrottsföreningen Kamraterna), der IFK Helsingborg, wurde 1896 von dem erst 16-jährigen Hjalmar Hedenblad als Sällskapet Idrottsvänner („Gesellschaft der Sportfreunde“) gegründet und wurde eine zeitgleich mit der Zusammenlegung mit dem Fußballverein GFK zur Sportkameradschaft. Der Verein war in seiner Geschichte in vielen Disziplinen wie Fußball, Radfahren, Schwimmen, Orientierungslauf, Handball, Turnen, Eishockey und Basketball tätig. Heute vertretene Sportarten sind Leichtathletik (als einzige seit der Gründung mit dabei), Skifahren, Tennis, Bowling, Eiskunstlauf, Volleyball und Triathlon. Der IFK ist auf dem Sportplatz Heden und im „Haus des Sports“ zuhause.
Übrige Sportarten
Das „Haus des Sports“ (Idrottens hus) ist die größte Sporthallenanlage der Stadt. Die größte Halle fasst 1800 Zuschauer. Das Haus des Sports wird unter anderem vom Handballverein Olympic/Viking Helsingborg HK, dem Innebandyverein FC Helsingborg und dem Basketballverein Helsingborg Pearls für Training und Heimspiele genutzt. Der Handballverein Olympic/Viking entstand 1994 aus seinen Vorgängern Olympia und Vikingarna und spielt 2009/2010 in der Elitserien i handboll för herrar, die Frauen in der Division 2. Der FC Helsingborg, gegründet 2003, spielt in der Innebandy-Elitserie. Der Basketballverein Helsingborg Pearls – mit 900 Mitgliedern und 20 Jugendmannschaften – spielt seit 2003 in der schwedischen Basketligan unter dem Namen des Hauptsponsors, Öresundkraft. Eishockey steht in Helsingborg etwas abseits im Schatten des Fußballs.
Der Eishockeyverein der Stadt, der HHC Redskins, gegründet 1977, spielt in der viertklassigen Hockeytvåan. Das Heimatstadion, Olympiarinken, fasst 2100 Zuschauer.
Eine Vielzahl von Turnvereinen, GF Fram, GF Ling, Helsingborgs Turnéförening und Råå GF, die alle Helsingborgs Gymnastikförbund angehören, sind im „Haus der Gymnastik“ (Gymnastikens Hus) im Süden Helsingborgs angesiedelt.
Der Schwimmverein der Stadt, Helsingborgs Simsällskap, ist einer der erfolgreichsten in ganz Schweden. Der Verein betreibt die Schwimmhalle Filborna im Stadtteil Ättekulla. Südlich des Stadtzentrums steht die Schwimmhalle Simhallsbadet.
Neuere Zugänge in der Sportlandschaft Helsingborgs sind Rugby (Rugby Club Gripen) und American Football (Helsingborg Crocodiles).
Andere in Helsingborger Sportvereine sind der Tischtennisverein BTK Rekord, der Laufverein HLK-92 und der Badmintonklub Helsingborg zu nennen.
Mit dem B.K. Borgen besitzt die Stadt einen international erfolgreichen Billardklub. 1974 von Lennart Blomdahl und Frans Frank gegründet wurde er vier Mal Sieger beim Coupe d’Europe und 2012 zum 30. Mal Schwedischer Meister im Dreiband.
Wirtschaft und Infrastruktur
Wirtschaft
In Helsingborg sind über 10.000 steuerpflichtige Unternehmen registriert, von denen 94 mehr als 50 Angestellte haben. Rund 3.100 Betriebe beschäftigen zwischen 2 und 49 Menschen und etwa 7.000 sind Ein-Mann-Unternehmen. Die Unternehmen bieten insgesamt rund 58.000 Arbeitsplätze.
Die größten Wirtschaftszweige sind die Bereiche Handel und Verkehr mit rund 15.000 Beschäftigten. Weitere Schwerpunkte liegen in der Lebensmittel-, chemischen und Pharmaindustrie. Am schnellsten wächst der Dienstleistungssektor, der sich in den letzten zwanzig Jahren verdoppelt hat.
Diese Angaben beziehen sich auf die gesamte Gemeinde Helsingborg und lassen Rückschlüsse auf die Situation in der Stadt zu, da diese das Zentrum der wirtschaftlichen Tätigkeit in der Gemeinde darstellt.
Ansässige Unternehmen
Die verkehrsgünstige Lage Helsingborgs war und ist ein Grund für das gute Wirtschaftsklima der Stadt. Helsingborg und die nähere Umgebung zählt nach Stockholm, Göteborg und Malmö die meisten Unternehmenshauptsitze in Schweden.
Einige große, zum Teil international bekannte, in Helsingborg tätige Unternehmen sind ABB, der Handelsunternehmen ICA, der Möbelkonzern Ikea, das Pharmaunternehmen Pfizer, SKF Multitec AB, der Schuh- und Tennisballhersteller Tretorn, der Mineralwasserhersteller Ramlösa Hälsobrunn AB und Unilever Bestfoods.
Einzelhandel
Durch die Umwandlung der Straße Kullagatan zur Fußgängerzone 1961 erhielt Helsingborg die erste Fußgängerzone Schwedens. Heute liegt ein Großteil der Läden im Zentrum an dieser Straße, wovon viele Filialen der in ganz Schweden vertretenen Handelsketten sind. Die Einkaufsstraße setzt sich in Richtung Süden mit den Straßen Mariagatan und Bruksgatans fort. Hier und parallel zur Kullegatan in der Norra und Södra Storgatan, die keine Fußgängerzone sind, gibt es weitere, vermehrt nicht kettenangehörige Einzelhändler.
Am Mäster Palms plats im Stadtteil Söder liegt die Einkaufszentrum Söderpunkten mit einer Reihe von Läden großer Ketten und Imbisse. Etwas weiter südlich am Platz Gustav Adolfs torg findet an den meisten Tagen der Woche ein Markt statt.
Etwa sechs Kilometer außerhalb der Stadt liegt das Einkaufszentrum Väla (Väla centrum), eines der Größten in Schweden mit einer Fläche von 47.000 Quadratmetern und über einhundert Geschäften verschiedener Größe. Daneben gibt es in Stadtnähe je ein Kaufhaus der großen Ketten ICA (ICA Maxi) und Coop (Coop Forum).
Eine weitere Einkaufsalternative ist Helsingør auf der dänischen Seite des Öresund, das mit der Fähre in rund zwanzig Minuten vom Stadtzentrum aus zu erreichen ist. Die besondere Attraktivität Helsingørs, die viele Kunden aus Helsingborg und Umgebung anlockt, liegt in den geringeren Spirituosenpreisen in Dänemark.
Wirtschaftsgeschichte
Die Industriegeschichte Helsingborgs begann am Anfang des 18. Jahrhunderts, als die ersten kleinen Fabriken, in denen unter anderem Tabakwaren und Textilien hergestellt wurden, öffneten. Die erste größere Unternehmung war die Fayence och porcellainsfabrique bei Pålsjö im Norden der Stadt, gegründet 1766 von Michael Andreas Cöster und bereits 1774 nach wirtschaftlichen Problemen wieder geschlossen. 1799 gründete Graf Erik Ruuth eine Eisengießerei und eine Keramikfabrik am südlichen Stadtrand. Bekannt unter dem gemeinsamen Namen Ruuthska bruket waren lange Zeit die größten Arbeitgeber in Helsingborg.
In der zweiten Hälfte des 19. Jahrhunderts erlebt die Stadt einen starken wirtschaftlichen Aufschwung mit einem explosionsartigen Anstieg der Zahl der Unternehmensneugründungen, worauf ein ähnlich starkes Bevölkerungswachstum folgte. Diese Entwicklung war vor allem der Weitsicht und dem Unternehmergeist zweier Personen zu verdanken:
Einer von ihnen war der Handelsunternehmer Petter Olsson, der ein großes Vermögen mit dem Export von Getreide gemacht hatte. Als Mitglied des Stadtrats war Olsson eine treibende Kraft, wenn es um die Verbesserung der Verkehrsinfrastruktur der Stadt ging. Mit seinem Privatvermögen beteiligte er sich an der Finanzierung zahlreicher Projekte, wie 1880 am Ausbau des Südhafens (Södra hamnen) und zwölf Jahre später auch des Nordhafens (Norra hamnen). Er stand hinter dem Bau der Eisenbahnstrecken zwischen Helsingborg und Eslöv, Hässleholm, Landskrona und Värnamo, die stark zum wirtschaftlichen Wachstum der Stadt in dieser Zeit beitrugen. Weitere Aktivitäten Olssons, zwischenzeitlich zum Konsul ernannt, bestanden in der Gründung zahlreicher Industrieunternehmen, darunter die dampfkraftbetriebene Mühle Helsingborgs Ångqvarns AB 1884, die Zuckerfabrik Sockerbruket (in deren Gebäuden heute einige Einheiten des Möbelkonzerns Ikea ihren Sitz haben) 1890, Helsingborgs Gummifabriks AB gemeinsam mit Johan Dunker, dem Vater von Henry Dunker, und anderen 1891, und die Skånska Jutefabriks AB 1896.
Die andere Person von großer Bedeutung war Nils Persson, mit dem zusammen Olsson die Zuckerfabrik gründete. Er wurde später zum Konsul ernannt. Er begann seine Unternehmerkarriere als Händler und Importeur von Kunstdünger. Er gründete die Superfosfat- & Svavelsyrefabriks AB 1874. Als Rohstoff importierte er Schwefelkies (hier wohl Pyrit) aus seinen eigenen Gruben im norwegischen Sulitjelma. Da das Gebirge in jener Region reich an Eisenerz war, nahm 1886 sein kupferverarbeitender Betrieb Helsingborgs Kopparverk die Produktion auf. Darüber hinaus hatten Helsingborgs Ångtegelbruk AB (1873), die bereits genannte Zuckerfabrik und Helsingborgs Cinder- och Kalbfabriks AB ihre Existenz Persson zu verdanken.
Nach beiden Konsuln wurden später Plätze in der Stadt benannt. Konsul Olssons plats liegt im nördlichen Stadtzentrum, Konsul Perssons plats im Stadtteil Söder gegenüber dem Südhafen.
Viele der Industriebetriebe, die im 19. Jahrhundert gegründet wurden, haben bis heute überlebt, jedoch unter anderem Namen. So wurde Ruuthska bruket 1869 in Helsingborgs Jern- och Lerkärlsfabriks AB umbenannt, und als die Eisengießerei 1885 nach Söder umzog, änderte sich damit ebenfalls ihr Name und sie hieß fortan Helsingborgs Mekaniska Verkstad. 1918 ging sie in die AB Elektromekano über, die später ein Teil des ASEA-Konzerns, der heutigen ABB, wurde. Aus Perssons Schwefelsäurefabrik wurde 1918 Reymersholms Gamla Industri AB, die 1963 vom Bergbauunternehmen Boliden AB aufgekauft wurde. 1977 entstand daraus die Boliden Kemi AB, die 1989 schließlich von dem finnischen Chemieunternehmen Kemira Oy gekauft wurde und heute den Namen Kemira Kemi AB trägt. Helsingborgs Gummifabriks AB heißt heute Tretorn Sweden AB.
Im 19. Jahrhundert wurden mehrere Reedereien in Helsingborg gegründet. Die ersten Reeder waren die Brüder Carl August, Otto und Bror Banck, die 1873 die C A Banck & Co schufen. Konsul Olsson betätigte sich im Reedereigeschäft und war zusammen mit dem Schiffsmakler Axel Pyk und Konsul N. C. Corfitzon Teilhaber der Rederie AB Helsingborg (1896). Anfang des 20. Jahrhunderts entstanden weitere Reedereibetriebe und beim Ausbruch des Zweiten Weltkrieges gab es in Helsingborg um die 50 Reedereien. Die größten unter ihnen waren Transmarin, Gorthons und Hillerströms. In den 1970er und 1980er Jahren gerieten viele Reeder in wirtschaftliche Schwierigkeiten, was dazu führte, dass heute kein einziges Unternehmen der Branche seinen Sitz in der Stadt hat.
Verkehr
Helsingborg ist ein wichtiger Verkehrsknotenpunkt in der Öresundregion und verfügt über Anbindung an das schwedische und indirekt an das dänische Straßen- und Bahnnetz. Die Stadt ist außerdem auf dem See- und Luftweg zu erreichen.
See
Drei Reedereien betreiben Fährverbindungen nach Helsingør auf der dänischen Seite des Öresunds. Der größte Akteur auf der umgangssprachlich HH-leden genannten Strecke ist die dänisch-deutsche Scandlines mit den Fähren M/S Tycho Brahe, M/S Aurora af Helsingborg und M/S Hamlet. Sie verkehren tagsüber alle 20 Minuten, nachts etwas seltener, ab Knutpunkten, dem zentralen Knotenpunkt zwischen Zug-, Bus- und Fährverbindungen. Die Fähren M/S Mercandia IV und M/S Mercandia VIII der Reederei HH-Ferries verkehren halbstündlich (nachts stündlich) ab Nordhafen (Nordhamnen). 2018 wurden die Tycho Brahe und die Aurora af Helsingborg auf batterieelektrischen Betrieb umgerüstet. Geladen werden die Batterie nach jeder Überfahrt; dies dauert etwa 5 bis 9 Minuten.
Sowohl Scandlines als auch HH-Ferries befördern Personen, Kraftfahrzeuge, Busse und Lastkraftwagen, wogegen der dritte Mitwettbewerber, Sundsbussarna, auf seinen Personenfähren M/S Sundbuss Pernille und M/S Sundbuss Magdelone keine Fahrzeuge übersetzt. Sundsbussarna-Fähren verkehren ab dem alten Zollhaus am Hafenplatz halbstündlich, jedoch nur tagsüber.
Die Verbindung Helsingborg–Helsingør hat seit der Einweihung der Öresundverbindung im Jahr 2000 deutlich an Bedeutung verloren. Dennoch ist sie immer noch eine der am dichtesten befahrenen Fährrouten der Welt. Die Fahrtzeit auf dieser mit 4,9 Kilometern kürzesten Verbindung zwischen Schweden und Dänemark beträgt rund 20 Minuten.
Straße
Das Gebiet von Helsingborg war lange Zeit ein bedeutender Knotenpunkt im schwedischen Wegenetz. Dies beruhte unter anderem auf der Fähranbindung der Stadt an Dänemark. So trafen sich hier die seinerzeit wichtigen Reichsstraßen (riksväg) 1 und 2. Im Laufe der Jahre wurde das Straßennetz der Stadt mehrfach umgebaut und heute ist Helsingborg von verschiedenen Autobahnen umgeben. Im Osten verläuft die Europastraße 6/20 von Malmö nach Göteborg, von der nordöstlich der Stadt die Europastraße 4 in Richtung Stockholm abzweigt.
Schiene
Helsingborg ist ein wichtiger Eisenbahnknotenpunkt. Die Stadt liegt an der Bahnlinie Malmö–Lund–Landskrona–Helsingborg–Ängelholm–Göteborg (Västkustbanan). Daneben beginnen hier die Strecken Helsingborg–Teckomatorp–Lund–Malmö sowie Helsingborg–Åstorp–Hässleholm–Kristianstad (Skånebanan).
Helsingborg ist in das schonische Pågatåg- und das schwedisch-dänische Öresundståg-Netz eingebunden. Daneben verkehren Züge der schwedischen Eisenbahngesellschaft Statens Järnvägar (SJ). Direktverbindungen bestehen unter anderem nach Göteborg, Lund, Malmö, Kristianstad, Kopenhagen und Helsingør.
Neben dem Hauptbahnhof Helsingborg C gibt es seit 1998 beziehungsweise 1999 die Haltepunkte Ramlösa im Süden und Maria im Norden der Stadt. Helsingborg C ist Bestandteil des zentralen Verkehrsknotenpunktes Knutpunkten, an dem Übergang zu Öresundfähren nach Helsingør und zum Stadt- und Regionalbusnetz besteht.
Vor dem Bau der Öresundbrücke verkehrten zwischen Helsingborg und Helsingør Eisenbahnfähren, die einen Teil der Bahnlinie Kopenhagen–Stockholm darstellten. Diese Verbindung war vor allem zur Zeit des Kalten Krieges von entscheidender Bedeutung für Schweden, da sie die einzige Strecke war, über die schwedische Personenzüge ohne Transit durch ein Ostblockland das übrige Westeuropa erreichen konnten. Seit der Verlegung des grenzüberschreitenden Zugverkehrs auf die Öresundverbindung und der damit verbundenen Stilllegung der Eisenbahnfähren hat Helsingborg seine tragende Rolle im Fernverkehr verloren und ist heute vor allem von regionaler Bedeutung.
Für die Zukunft ist die Verlegung der innerhalb der Stadt verlaufenden Bahnstrecke und der Bau eines Eisenbahntunnels unter dem Öresund hindurch nach Helsingør im Gespräch. Bereits 1973 einigten sich Schweden und Dänemark auf einen solchen Tunnel, der bis 1985 fertiggestellt werden sollte.
Luft
Vom Flughafen Ängelholm-Helsingborg gibt es Inlandsflüge nach Stockholm. Zum internationalen Flughafen Kopenhagen verkehren Direktzüge.
Innerstädtischer öffentlicher Personennahverkehr
Der innerstädtische öffentliche Personennahverkehr besteht aus 16 Buslinien, die teilweise im 5-Minuten-Takt verkehren. Zwei Servicelinien, die unter anderem das Krankenhaus ansteuern, und vier Linien, die morgens und abends im Berufsverkehr verkehren, erweitern das Angebot. Drei weitere Linien werden bei Spielen des Fußballvereins Helsingborgs IF im Stadion Olympia eingesetzt. Seit 2005 wird das Busnetz im Auftrag von Skånetrafiken durch das Busunternehmen Arriva betrieben.
Von 1903 bis zur Umstellung von Links- auf Rechtsverkehr in Schweden 1967 verfügte die Stadt über ein Straßenbahnnetz.
Bildung
Helsingborg bietet ein komplettes Schulangebot, das Kindergärten (förskolor), Grundschulen (grundskolor) und Gymnasien (gymnasieskolor) umfasst. Daneben gibt es Sonderschulen (särskolor, träningsskolor) auf Grundschul- und Gymnasialniveau für unter anderem autistische und verhaltensgestörte Kinder, sowie in andere Schulen integrierte Sonderschulklassen (särskoleklasser).
Im ehemaligen Produktionsgebäude des Gummiprodukteherstellers Tretorn am Südhafen ist seit 2000 der „Campus Helsingborg“ der Universität Lund untergebracht. Hier studieren rund 3000 Studenten in den Richtungen Bauingenieurwesen, Informatik, Lebensmitteltechnik, Dienstleistungsmanagement, Kommunikationswissenschaft, Umweltmanagement, Meeresbiologie und Sozialarbeit.
Öffentliche Einrichtungen
Als Hauptort der Gemeinde haben in Helsingborg Gemeinderat und Gemeindeverwaltung ihren Sitz. Des Weiteren sind in der Stadt die Judikative mit dem Amtsgericht (tingsrätt) und das Finanzamt (Skatteverket) mit einer Außenstelle vertreten.
Medien
In Helsingborg erscheint mit Helsingborgs Dagblad (HD) eine traditionelle Tageszeitung. Die 1867 als Helsingborgs Tidning gegründete Zeitung ist seit 2001 eine von drei Regionalausgaben des Verlages Helsingborgs Dagblad AB. Zusammen sind die unter den traditionellen Namen Helsingborgs Dagblad, Nordvästra Skånes Tidningar und Landskrona Posten laufenden Zeitungen mit einer Gesamtauflage von 87.000 Exemplaren und einer Reichweite von rund 200.000 Lesern nach eigenen Angaben die fünftgrößte Tageszeitung Schwedens.
Die Boulevardzeitung Aftonbladet erscheint in einer speziellen Helsingborger Ausgabe. Daneben werden die kostenlose Helsingborger Tageszeitung xtra! sowie Regionalausgaben der Gratiszeitungen metro und Punkt SE verteilt.
Sonstiges
Nach der Stadt Helsingborg wurde ein Asteroid benannt.
Persönlichkeiten
Söhne und Töchter der Stadt
Christoph III. (1416–1448), Unionskönig von Dänemark, Schweden und Norwegen
Tycho Brahe (1546–1601), kaiserlicher Hofastronom; wurde auf Schloss Knutstorp, 20 km außerhalb von Helsingborg geboren
Dietrich Buxtehude (1637–1707), Komponist; wahrscheinlich in Helsingborg geboren und aufgewachsen, bis 1658 Kantor an der Sankt-Marien-Kirche
Svante Elis Strömgren (1870–1947), Astronom
Paul Isberg (1882–1955), Regattasegler
Anders Österling (1884–1981), schwedischer Dichter, 1941–64 Ständiger Sekretär der Schwedischen Akademie
Carl Silfverstrand (1885–1975), Turner und Leichtathlet
Erik Widmark (1889–1945), Chemiker
Ruben Rausing (1895–1983), Erfinder des Tetra-Paks
Sigge Lindberg (1897–1977), Fußballspieler, Bronzemedaillen-Gewinner bei Olympia
Nils Rosén (1902–1951), Fußballnationalspieler
Gösta Ståhl (1902–1983), Fußballspieler
Knut Kroon (1906–1975), Fußballspieler
Frej Ossiannilsson (1908–1995), Zoologe und Professor an der Universität Uppsala
Malte Johnson (1910–2003), Jazz- und Unterhaltungsmusiker
Harry Arnold (1920–1971), Tenorsaxophonist, Klarinettist und Bandleader sowie Komponist
Jörgen Persson (* 1936), Kameramann
Lennart Åberg (1942–2021), Jazz-Saxophonist, -Flötist und -Komponist sowie Hochschullehrer
Michael Treschow (* 1943), Manager
Ninne Olsson (* 1945), Dramatikerin, Regisseurin und Theaterleiterin
Sven Nordqvist (* 1946), Zeichner und Autor von Kinderbüchern
Lars Vilks (1946–2021), Künstler und Professor an der Kunst- und Designhochschule Bergen
Gunnar Nilsson (1948–1978), Formel-1-Fahrer
Ulf Nilsson (1948–2021), Schriftsteller
Thomas Sjöberg (* 1952), Fußballspieler
Mats Magnusson (* 1963), Fußballspieler
Christina Lindberg (* 1968), Pop- und Countrysängerin
Johan Liiva (* 1970), Extreme-Metal-Sänger und -Musiker
Henrik Larsson (* 1971), Fußballspieler
Malin Byström (* 1973), Opern- und Konzertsängerin
Marcus Lantz (* 1975), Fußballspieler
Andreas Lilja (* 1975), Eishockeyspieler
Joakim Persson (* 1975), Fußballspieler und -trainer
Erik Edman (* 1978), Fußballspieler
Filip Prpic (* 1982), Tennisspieler
Jonas Berg (* 1984), Tennisspieler
Alexander Farnerud (* 1984), Fußballspieler
Carl Bergman (* 1987), Tennisspieler
Eric Saade (* 1990), Sänger, Vertreter Schwedens beim Eurovision Song-Contest 2011
Daniel Berta (* 1992), Tennisspieler
Linus Persson (* 1993), Handballspieler
Hampus Lindholm (* 1994), Eishockeyspieler
Khaddi Sagnia (* 1994), Weit- und Dreispringerin
Louise Hansson (* 1996), Schwimmerin
Daniel Windahl (* 1996), Tennisspieler
Emma Lindqvist (* 1997), Handballspielerin
Nikolaj Möller (* 2002), Fußballspieler
Tim Prica (* 2002), Fußballspieler
ebenso:
Covenant (gegründet 1986), Future-Pop-Band
Mit der Stadt besonders verbundene Personen
Henry Dunker, Unternehmer, Philanthrop und Kulturmäzen
Petter Olsson, Unternehmer
Anette Olzon, Sängerin
Nils Persson, Unternehmer
Stellan Skarsgård, Schauspieler, in Helsingborg aufgewachsen
Literatur
Charlotta Jönsson: Fragment: en utställning om Helsingborgs historia. Stadshistoriska avd., Dunkers kulturhus, Helsingborg 2003, ISBN 91-974550-0-8.
Henrik Ranby: Helsingborgs historia, del VII:3: Stadsbild, stadsplanering och arkitektur – Helsingborgs bebyggelseutveckling 1863–1971. Kulturförvaltningen, Helsingborg 2005, ISBN 91-631-6844-8.
Gösta Johannesson: Helsingborg – stad i 900 år. AWE/Geber, Stockholm 1980, ISBN 91-20-06249-4.
Helsingborgs kommun (Hrsg.): Helsingborg 900 år. Helsingborgs kommun, Helsingborg 1985, ISBN 91-7690-156-4.
Stadsbyggnadskontoret (Hrsg.): Arkitekturguide för Helsingborg. Stadsbyggnadskontoret, Helsingborg 2005, ISBN 91-975719-0-3.
Weblinks
Webpräsenz der Stadt und Gemeinde Helsingborg (schwedisch)
Portal in Zusammenarbeit mit der Stadtverwaltung (schwedisch)
Bildergalerie (schwedisch)
Abbildung der Stadt 1588 in Civitates orbis terrarum von Georg Braun
Einzelnachweise
Grenze zwischen Dänemark und Schweden
Stadt als Namensgeber für einen Asteroiden
Geographie (Gemeinde Helsingborg)
Ersterwähnung 1085
|
Q25411
| 100.411569 |
18769
|
https://de.wikipedia.org/wiki/Rap
|
Rap
|
Rap [] ( „Plauderei, Unterhaltung“; „plaudern, schwatzen“) ist ein rhythmischer, markanter und meist schneller Sprechgesang in der populären Musik und Teil der Kultur des Hip-Hops. (‚klopfen‘ bzw. ‚pochen‘) deutet die Art der Musik und des Sprechgesangs an. Heute hat sich der Rap teilweise von seinen Wurzeln gelöst und wird auch in anderen Musikstilen eingesetzt, zum Beispiel in Pop, Eurodance, Crossover, Digital Hardcore und Metal. Besonders im Bereich unkommerzieller Rap-Musik, wie dem sogenannten Underground Rap, ist eine deutliche Abgrenzung zur ursprünglichen Hip-Hop-Musik erkennbar.
Geschichte
Rap kommt aus der afroamerikanischen Kultur und ist möglicherweise von westafrikanischen Griots beeinflusst, was jedoch mangels Quellen konkret schwer nachzuweisen ist. Rhythmen, die sich zwischen Gesang und Sprechgesang bewegten sind jedenfalls sowohl in afro-amerikanischen „work songs“ zu finden – den Gesängen und Parolen der Feldarbeiter – wie auch schon früh in afro-amerikanischen Kirchen, in denen der Prediger zwischen Deklamation, Sprechgesang und Gesang fließend die Register wechselt. Entsprechende gemischte Formen des musikalischen Vortrags, die sich zwischen Gesang und Sprechgesang bewegen, lassen sich entsprechend bereits in frühen Blues-Aufnahmen ab den 1920er Jahren finden. Hinzu kam ab etwa Ende der 1960er-Jahre der Einfluss von jamaikanischem Toasting sowie der Bürgerrechtsbewegung und der Black Panthers, in deren Umfeld auch Musiker wie James Brown, die Last Poets oder Gil Scott-Heron neben Gesang auch rhythmischen Sprechgesang verwendeten, um politische Botschaften zu verbreiten. In der Folge verwendeten DJs in den 1970er Jahren zunehmend Sprüche und Kommentare in einem der Jugend zugänglichen Slang. Dies taten sie zunehmend in Reimen zum Rhythmus der Musik. Dabei wurden in erster Linie Platten von bekannten Funk-Musikern gescratcht und backspinned. Beim so genannten backspin wird mit zwei Plattenspielern, auf denen die gleiche Platte liegt, ein Loop, also die Wiederholung einiger Takte erzeugt.
Die Aufgaben des DJs wurden schließlich mehr und mehr von so genannten MCs (Master of Ceremony, fälschlicherweise auch als Microphone Chief oder Microphone Checker bezeichnet oder als Verb „to move the crowd“ interpretiert) übernommen. Als die Rap-Einlage dann zu einem festen Bestandteil der Musik des DJs wurde, wurden auch die Texte länger und gehaltvoller, man begann Geschichten zu rappen und auf diesem Weg seinen Ansichten und Gefühlen Ausdruck zu vermitteln. Heute ist von Außenstehenden der Begriff Rapper etabliert, während MC in den Hintergrund getreten ist.
Als erste Rap-Aufnahme wird oft King Tim III (Personality Jock) von der Funk-Combo Fatback Band genannt, aber auch frühe Platten von The Last Poets waren ein wichtiger Grundstein für gesprochene Reime. In den frühen 1980ern hatten Rap-Interpreten wie Grandmaster Flash & the Furious Five mit The Message (über den harten Alltag auf der Straße) oder Sugarhill Gang mit Rapper’s Delight (veröffentlicht 1979; ein reiner Partytext) erstmals auch kommerziellen Erfolg. Später etablierten bis heute bekannte Rapper wie Run-DMC, LL Cool J (Ladies Love Cool James) oder die Beastie Boys diesen Musikstil auch außerhalb der Ghettos.
In New York etablierte sich Ende der 1970er ein Trend in den vorwiegend schwarzen Ghettos, in Abrisshäusern selbstorganisierte Partys zu feiern (sogenannte Blockpartys), da die Teilnehmer zu den Clubs häufig nur schwer Zugang bekamen. Auf diesen Blockpartys wurde der Rap häufig genutzt, um die Menge anzuheizen und sich selbst vor- und darzustellen.
Rap beinhaltete stets auch politische und soziale Themen, wie sie zum Beispiel von Public Enemy immer wieder lautstark ins Bewusstsein ihrer Hörer gerückt wurden. Diese Gruppen machten sich den neuen Musikstil zunutze, um ihre Botschaften zu verbreiten und als solche empfundene Missstände anzuprangern. Der Rap erlaubt es weit mehr Textinhalt in einen Song zu packen als der meiste Gesang. Des Weiteren erlangten Gang Starr, bestehend aus dem MC Guru, sowie DJ Premier, EPMD mit Erick Sermon, Geto Boys mit Willy D, Bushwick Bill und Scarface größeren Bekanntheitsgrad, auch über die USA hinaus.
Entwicklung
In den 1990er Jahren wird in den Texten des Raps das Leben in den amerikanischen Ghettos seit den 1970er Jahren wieder aufgerollt und im Kollektivgedächtnis der Schwarzen verarbeitet. Dabei handeln die Texte oft von den Problemen der Kriminalität und Drogen, manche distanzieren sich eindeutig davon, andere heißen dasselbe gut. Von den männlichen Rappern, die bei weitem in der Überzahl sind, werden dabei teilweise Fluchwörter ausgesprochen. Dies führte zu der Bezeichnung Conscious/Street Rap, die von KRS-One (the teacher) eingeführt wurde, dem damaligen Band-Leader der Boogie Down Productions und dem bis dahin unbekannten Rapper namens BurnArt, der aus seinem Block alle möglichen Geschichten erzählte, die sein Leben prägten. Viele Rapper wurden allerdings von den Medien mit einem negativen Image versehen (siehe N.W.A oder Tupac Shakur). Der Begriff des Gangsta-Rap wurde zunehmend popularisiert.
Da sich der „toughe“ und aggressive Verbrecher-Stil in der Hauptzielgruppe der Jugendlichen besser verkauft als anspruchsvollere Raptexte, sind die großen Verlagskonzerne längst auch dazu übergegangen, gezielt in dieser Straßenkriminalitätsszene nach vermarktungswürdigen „Stars“ zu suchen.
Hierdurch entstand ein Zerrbild des Rap, das von den Jugend-Musiksendern mit Übernahme dieser beschränkten Auswahl gezielt gefördert wird.
Die Verlagskonzerne unterstützen hierbei offene Feindschaften zwischen den einzelnen Rappern (seien sie nun real oder gespielt), um ihr aggressives Image zu unterstreichen. Eine Analogie dieses Verhaltens findet sich im amerikanischen Boxsport, wo auch neben der eigentlich rein sportlichen Veranstaltung den Boxern viel Raum gelassen wird, um einander vor der Presse zu beschimpfen.
Durch die unterschiedliche Entwicklung der Rapmusik an der Westcoast verglichen mit der Eastcoast entstand schließlich ein „Krieg“ zwischen den beiden repräsentativen Labels Death Row Records unter der Führung von Suge Knight der Westcoast und dem Label Bad Boy Entertainment unter der Führung Puff Daddys der Eastcoast. Diese Konflikte eskalierten und fanden einen tiefen Einschlag in der Rapszene, als 2Pac (Tupac Shakur) und Notorious B.I.G. 1996 und 1997 bei einem Drive-by erschossen wurden. Die Taten sind bis heute nicht aufgeklärt. Weitere Gangsta-Rapper sind 50 Cent, Snoop Dogg und Dr. Dre (ehemaliges N.W.A Mitglied).
Mittlerweile ist Hip-Hop und mit ihm der amerikanische Rap zu einem weltweiten Geschäft geworden. Allerdings ist Rap nicht auf die englische Sprache beschränkt. Vor allem in Frankreich wurde der Rap als Sprachrohr über die Probleme in den Pariser Vorstädten sehr erfolgreich entwickelt. Aber auch in Großbritannien, Italien, Deutschland, Polen, Iran, Japan, Österreich, Türkei, Russland und der Schweiz erfreut sich Rap immer größerer Beliebtheit.
Hauptsächlich im Hip-Hop beheimatet, wird inzwischen auch in anderen musikalischen Stilrichtungen wie Eurodance, House, Heavy Metal und sogar in der Country-Musik die Methodik des Rap verwendet.
Andererseits fließen auch andere Genres in den klassischen Rap mit ein. Darunter fallen Musikstile, wie Dancehall, Popmusik und R'n'b.
Rap-Kultur in Film und TV
Einer der bekanntesten und erfolgreichsten Filme zum Thema Rap ist 8 Mile (2003) mit Eminem; ältere Filme, die die noch vom Battle entfernte ursprüngliche Stimmung des amerikanischen Hip-Hop einfangen, sind Beat Street (1984), Breakin’ (1984), Style Wars (1983) oder Wild Style (1982). Auch das Producer-Werk Stomp the Yard (2007) konnte keine bemerkenswerten Erfolge verzeichnen.
2005 entstanden auch die Filme Hustle & Flow mit Terrence Howard und Get Rich or Die Tryin’ mit 50 Cent in der Hauptrolle, neben – wiederum – Terrence Howard. Ersterer handelt von einem Zuhälter, der es mit Mitte 30 noch mal im Musikbusiness versuchen will. Get Rich or Die Tryin’ ist eine mehr oder minder authentische Auto-Biografie von 50 Cent.
Als erster deutscher Kinofilm, der sich mit dem Thema Hip-Hop beschäftigt, konnte der Film Status Yo! im November 2004 Premiere feiern. Sowohl Kritiker als auch Hip-Hop-Fans würdigten den Film als Meilenstein der deutschen Hip-Hop-Kultur.
Trivia
Ein Song mit Namen „The Rapper“ von Donnie Iris wurde 1977, noch vor der Entstehung dieses Musikstils, veröffentlicht.
Siehe auch
Liste von deutschen Hip-Hop-Musikern
Hip-Hop-Jargon
East Coast vs. West Coast
Liste der meistverkauften Rapalben in Deutschland
Liste der meistverkauften Rapsongs in Deutschland
Literatur
Arbeitstexte für den Unterricht: Rap-Texte. Reclam, Stuttgart 2003, ISBN 3-15-015050-7, enthält neben einer Sammlung von Hip-Hop- und Rap-Texten eine ausführliche Darstellung der Geschichte und der Hauptstilelemente (s. o.) des Hip-Hop.
Lakeyta M. Bonnette: Pulse of the People: Political Rap Music and Black Politics. University of Pennsylvania Press, Philadelphia 2015, ISBN 978-0-8122-4684-1.
The RZA, Chris Norris, u. a.: The Wu-Tang Manual. Plexus, London 2005, ISBN 0-85965-367-6.
Gabriele Klein, Malte Friedrich: Is this real? Die Kultur des HipHop. 4. Auflage. Suhrkamp, Frankfurt a. M.: 2011, ISBN 978-3-518-12315-7.
Rap – Text – Analyse. Deutschsprachiger Rap seit 2000. 20 Einzeltextanalysen. transcript Verlag, Bielefeld 2020, ISBN 978-3-8376-4628-3.
Weblinks
Einzelnachweise
Lyrische Form
Gesangstechnik
|
Q6010
| 377.661929 |
171767
|
https://de.wikipedia.org/wiki/Webfarbe
|
Webfarbe
|
Webfarben sind Farben, die für die Gestaltung von Webseiten eingesetzt werden. Die Spezifikationen der Webbrowser bieten die Möglichkeit, die darstellbaren Farbvorgaben hexadezimal oder dezimal zu bezeichnen oder die browsereigenen Farbbezeichnungen zu nutzen.
Farbnotierungen in Stylesheets (CSS)
Webentwickler können eine Farbe innerhalb eines Stylesheets notieren.
RGB-Farbraum
Farben des RGB-Farbraums sind wie folgt definiert:
p { color: #F00; } /* #rgb */
p { color: #FF0000; } /* #rrggbb */
p { color: rgb(255, 0, 0); } /* integer 0 - 255 */
p { color: rgba(64, 0, 0, 0.7); } /* 0.7 = 70 % Deckkraft - spezifiziert in CSS 3 */
p { color: rgb(100%, 0%, 0%); } /* prozentuale Angaben 0,0 % - 100,0 % */
HSL-Farbraum
Farben nach dem Model des HSL-Farbraumes können ab CSS 3 wie folgt notiert werden:
p { color: hsl(120, 100%, 50%); } /* Grün */
p { color: hsl(120, 100%, 25%); } /* Dunkelgrün */
p { color: hsl(120, 100%, 75%); } /* Hellgrün */
p { color: hsl(120, 50%, 50%); } /* Pastellgrün */
p { color: hsla(120, 100%, 50%, 0.7); } /* Grün mit 70 % Deckkraft */
CMYK-Farbraum
Ab CSS 3 können Farben außerdem nach dem CMYK-Farbmodell angegeben werden:
p { color: device-cmyk(0.0, 0.95, 1, 0.1); } /* Rot */
Farbnamen
Vielen Farbwerten ist ein Name zugeordnet. Eine solche Angabe wird beispielsweise wie folgend notiert.
p { color: navy; /* Marineblau */ }
p { color: red; /* Rot */ }
Die Zuordnung der Farbwerte ist nachfolgend beschrieben.
Notierung mit Rückwärtskompatibilität
Da nur neuere Browser die rgba-, hsl(a)- und cmyk-Notierung interpretieren können, sollten Webentwickler eine „Fallback-Farbe“ definieren.
p {
color: red; /* Rückwärtskompatibilität */
color: cmyk(0.0, 0.95, 1, 0.1); /* Wird von modernen Browsern interpretiert */
}
Benannte Farben
Es gibt mehrere Standards, die den Hexadezimal-Codes einen Farbnamen zuordnen. So lassen sich definierte englische Farbnamen anstelle der Anteilswerte im RGB-Farbraum angeben. Die Nutzung solcher Namen erleichtert es dem Designer die Farbtöne nach eigener Wahrnehmung zu wählen, statt die unhandliche (formale) hexadezimale Notierung. Abhängig vom jeweiligen Standard ist die Anzahl an Farbnamen begrenzt, da diese naturgemäß bereits vorgegeben sein müssen.
HTML 4/VGA
Die dunklen Farben ergeben sich durch eine (nahezu) Halbierung des Rot-, Grün- und Blauwerts von 0xFF auf 0x80 (Ausnahme: schwarz und silber).
CSS 3
Die CSS-3-Spezifikation des World Wide Web Consortium (W3C) definiert aus der Liste des X11, die für SVG 1.0 standardisiert wurde, folgende 140 Farben:
Hierbei kann statt der Silbe gray auch grey geschrieben werden. Ferner repräsentieren aqua und cyan sowie fuchsia und magenta jeweils dieselbe Farbe. Die Liste setzt sich im Wesentlichen aus den 120 Farben des Netscape-Browsers und den 16 VGA-Farben zusammen. Die Farben bisque (#FFE4C4) und blanchedalmond (#FFEBCD) stammen nicht von dort.
2014 wurde die Farbe rebeccapurple (#663399) in Erinnerung an Eric Meyers Tochter Rebecca, die an ihrem sechsten Geburtstag an einem Hirntumor starb, neu aufgenommen.
Herstellerabhängige Farbnamen
Zusätzlich haben die Hersteller von Browsern eine Vielzahl von Farbnamen definiert. Bei diesen ist aber nicht sichergestellt, dass alle Browser diese Farbnamen auch interpretieren können.
Websichere Farben
Mit Beginn der Webgestaltungen wurde eine Bezeichnungsgruppe von Farben als „websichere Farbpalette“ bezeichnet. Diese wurde Mitte der 1990er Jahre entwickelt, als Grafikkarten häufig bei voller Auflösung nur 16 oder 256 Farben anzeigen konnten. Die Palette wurde zuerst durch Lynda Weinman vorgeschlagen. Das Ziel dieser Farbpalette war es, eine einheitliche Farbdarstellung auf unterschiedlichen Bildschirmen zu erreichen. Die sechs verschiedenen Farbtönungen jeder Grundfarbe des Bildschirms: Rot, Grün und Blau ergab 6 × 6 × 6 = 63 = 216 darstellbare Farben.
Der Spielraum für eine gute Farbgestaltung von Webseiten ist zwangsläufig eingeschränkt. Durch unzureichend kalibrierte Bildschirme und die subjektive Wahrnehmung des Betrachters konnte dieses Ziel von Gleichheit nicht erreicht werden. Spätestens seit dem Jahr 2000 können fast alle Grafikkarten eine ausreichend große Anzahl darstellen. Bei einer Notierung von 256 unterschiedenen Anteilen je der drei bildschirmbedingten Grundfarben ergeben sich 2563 also über 16,7 Millionen Farbdarstellungen. Dadurch hat die Palette der „websicheren Farben“ heute keine Bedeutung mehr.
Weblinks
CSS-3-Farbnamen-Definitionen des W3C auf w3.org
Paletton - The Color Scheme Designer – zusammenpassende Farb-Schemata, nützlich zur Auswahl passender Schattierungen
Metacolor.de – umfangreiches Tutorial über Farben im Webdesign
Colorizer.org – umfangreicher Farbauswähler mit Umrechnungen (RGB, HEX, HSL, HSV/HSB, CMYK)
html-colors.org – benannte Farben mit Dezimal- und Hexadezimalwerten in Tabellen, farblich gruppiert und sortiert nach Abstufungen
Einzelnachweise
HTML
Farbsystem
Bildtafel
Cascading Style Sheets
|
Q376346
| 88.849576 |
56620
|
https://de.wikipedia.org/wiki/Bristol
|
Bristol
|
Bristol ist eine Stadt, eine Unitary Authority sowie eine zeremonielle Grafschaft im Südwesten von England am Fluss Avon. Bristol hatte im Jahr 2019 etwa 463.000 Einwohner. Musikalisch hat die Stadt in den 1990er Jahren den Bristol Sound hervorgebracht.
Geschichte
Die Stadt Brycgstow (Altenglisch, der Ort an der Brücke) existierte bereits zu Beginn des 11. Jahrhunderts und erhielt unter normannischer Herrschaft eine der stärksten Burgen in Südengland. Im 12. Jahrhundert wurde sie eine wichtige Hafenstadt, besonders für den Handel mit Irland. 1247 wurde eine neue Brücke gebaut, und die Stadt weitete sich stark aus. 1373 wurde sie ein County. Bristol entwickelte sich zum Zentrum des Schiffbaus.
Bis zu seiner Auflösung in England unter Edward I. nutzte der Templerorden Bristol als Haupthafen für Pilgerfahrten sowie zur Ausfuhr von Wolle auf den Kontinent, vor allem nach La Rochelle in Frankreich. An den nicht unerheblichen Haus- und Grundbesitz der Templer in Bristol erinnern heute noch diverse Flur- und Straßennamen, so auch der Bahnhof Bristol Temple Meads („Templer-Wiesen“).
Im 14. Jahrhundert, kurz vor der Ankunft der Pest von 1348, war Bristol nach London und York die drittgrößte Stadt in England mit etwa 15.000 bis 20.000 Einwohnern. Die Seuche verursachte einen langanhaltenden Bevölkerungsrückgang. Allerdings blieb die Bevölkerungszahl im 15. und 16. Jahrhundert stabil und betrug zwischen 10.000 und 12.000 Einwohnern. 1497 war Bristol der Ausgangspunkt von John Cabots Erkundungsreise nach Nordamerika. 1542 erhielt Bristol das Stadtrecht, die frühere Abbey of St. Augustine wurde zu einer Kathedrale. Während des Bürgerkriegs von 1643 bis 1645 wurde Bristol von königlichen Truppen besetzt und verwüstet.
Mit der Errichtung der englischen Kolonien in Amerika im 17. Jahrhundert sowie dem Sklavenhandel im 18. Jahrhundert wuchs Bristol wieder. Neben Liverpool wurde Bristol das Zentrum des Sklavenhandels. Von 1700 bis 1807 wurde der Hafen von über 2000 Sklavenschiffen angefahren, die über eine halbe Million Menschen von Afrika nach Amerika verschleppten.
Ab 1760 geriet Bristol gegenüber dem Konkurrenten Liverpool ins Hintertreffen. Der Handelskrieg mit Frankreich (1793), das Verbot des Sklavenhandels (1807) sowie der verpasste Anschluss an moderne Herstellungsverfahren ließen Bristol wirtschaftlich zurückfallen. Auch der Bau des floating harbour (schwimmender Hafen) zwischen 1804 und 1809 vermochte nichts daran zu ändern. Doch trotz aller schwierigen Umstände verfünffachte sich die Bevölkerungszahl von Bristol während des 18. Jahrhunderts; 1801 lebten 66.000 Menschen in Bristol. 1838 erhielt Bristol einen Anschluss ans Eisenbahnnetz durch die von Isambard Kingdom Brunel geplante Great Western Main Line.
Im Jahr 1799 begründete Thomas Beddoes im Vorort Clifton sein Pneumatisches Institut zur Behandlung von Atemwegs- und Lungenerkrankungen mit bestimmten Gasen.
Bristol erlitt während des Zweiten Weltkrieges durch deutsche Luftangriffe schwere Verwüstungen. Das historische Zentrum beim Schloss wurde vollständig zerstört und ist heute ein Park, in dem zwei ausgebombte Kirchen als Mahnmale stehen.
1980 kam es im Stadtteil St Paul’s zu gewalttätigen Auseinandersetzungen zwischen jungen Männern, die meist aus den British West Indies stammten, und Polizisten. Eine Ursache der damals wachsenden Rassenspannungen waren der Niedergang und die Vernachlässigung der vor allem von ethnischen Minderheiten bewohnten Viertel vieler britischer Städte, so auch in Bristol.
Wirtschaft und Verwaltung
Im 20. Jahrhundert wurde Bristol ein Zentrum der Luftfahrtindustrie. Die British Aircraft Corporation (heute BAE Systems) war wesentlich an der anglo-französischen Produktion der Concorde sowie dem Senkrechtstarter Harrier beteiligt. Die BAC gründete 1945 eine kleine Autofirma namens Bristol Cars Ltd., die exklusive Sportwagen mit V8-Motoren baute, mittlerweile jedoch insolvent ist. Ein weiteres bedeutendes Unternehmen ist Cameron Balloons, der weltgrößte Hersteller von Heißluftballonen. Bristol ist auch Heimat des bekannten Animationsfilmstudios Aardman Animations, das mit Produktionen wie der Wallace-&-Gromit-Reihe, Creature Comforts, Chicken Run – Hennen rennen und der TV-Serie Shaun das Schaf Erfolge feierte.
In Bristol befindet sich die Hauptverwaltung der Environment Agency, der obersten Umweltschutzbehörde in England und Wales.
Kunst, Sehenswürdigkeiten und Freizeit
Jeden Sommer findet die Bristol Balloon Fiesta statt, eine der größten Veranstaltungen für Heißluftballone überhaupt. Zudem ist Bristol anerkannte Geburtsstadt des Trip-Hop, der vor allem von Künstlern wie Portishead, Tricky, Massive Attack vertreten wird und Nachahmer in aller Welt gefunden hat. In Bristol ansässig ist außerdem das Animationsstudio Aardman Animations, das unter anderem die Oscar-preisgekrönten Wallace-&-Gromit-Filme produziert. Bristol ist die Geburtsstadt des Schauspielers Cary Grant, des Künstlers Damien Hirst und des Popmusikers Nik Kershaw. Verbunden wird die Stadt außerdem mit der englischen Romantik: Thomas Chatterton und Robert Southey wurden hier geboren und auch Samuel Taylor Coleridge lebte in den 1790er Jahren in Bristol.
Bristol gilt als eine der schönsten Großstädte Englands, zum einen aufgrund der Kombination aus Meeresnähe und hügeliger Landschaft, zum anderen, weil trotz großer Zerstörungen im Zweiten Weltkrieg (z. B. die Temple Church) viele der alten Gebäude erhalten bzw. wieder aufgebaut wurden. Neben dem Stadtzentrum mit der Waterfront direkt am Hafen, wo z. B. mit dem @t Bristol ein ganzer Komplex aus IMAX-Kino (geschlossen seit dem 31. März 2007), Technik-Museum etc. entstanden ist, ziehen auch die beiden Vororte Clifton und Redland im Nordwesten viele Besucher an, weil hier viele Wohnhäuser des 18. und 19. Jahrhunderts zu bewundern sind. Im Stadtteil Redcliffe steht die spätgotische Kirche St Mary Redcliffe, eine der schönsten Englands. Ein bemerkenswertes Bauwerk der 1970er Jahre ist die römisch-katholische Kathedrale von Clifton des Bistums Clifton. Spektakulär ist auch die von Isambard Kingdom Brunel erbaute Clifton Suspension Bridge, eine Hängebrücke, die auf zwei großen steinernen Pfeilern ruht und die tiefe Schlucht des Avon in 75 m Höhe überquert.
Über die Stadt verstreut finden sich einige Werke des Graffiti-Künstlers Banksy, der in Bristol geboren wurde. Die Bahnstation Redland wurde 2009 mit Gemälden im Stil von Banksy versehen, die im viktorianischen Stil gekleidete Menschen mit modernen Accessoires zeigen.
Es gibt zwei Fußballclubs, Bristol City und Bristol Rovers, die in der Football League Championship bzw. in der Football League One spielen, daneben gibt es mehrere Amateurmannschaften. Ebenfalls in Bristol beheimatet sind der Rugby-Union-Verein Bristol Bears, der Gloucestershire County Cricket Club und der Rugby-League-Verein Bristol Sonics. In der Stadt findet jedes Jahr ein Halbmarathon statt und Bristol war 2001 Austragungsort der Halbmarathon-Weltmeisterschaften. Ebenso war Bristol unter anderem einer der Austragungsorte bei dem Cricket World Cup 1983, dem Cricket World Cup 1999, der Rugby-Union-Weltmeisterschaft 1999 und dem Cricket World Cup 2019.
Das Bristol International Kite Festival ist eines der großen Ereignisse.
Der Llandoger Trow Pub ist der Pub, in dem Alexander Selkirk Daniel Defoe traf und ihm seine Geschichte erzählte.
Die britische Fernsehserie Skins – Hautnah wurde in Bristol gedreht.
Bildung
Bristol hat zwei Universitäten: Die renommierte University of Bristol, gegründet 1909, und die ehemalige Fachhochschule oder Polytechnic, die University of the West of England, die 1992 Universitätsstatus erhielt. Zusammen studieren derzeit fast 40.000 Studenten in Bristol.
An der University of Bristol wurde von Kenneth Heaton und S. J. Lewis die Bristol-Stuhlformen-Skala zur Einschätzung der Stuhlkonsistenz entwickelt.
Verkehr
Es gibt zwei Hauptbahnhöfe. Bristol Temple Meads liegt südöstlich des Stadtzentrums; hier halten die Züge nach London, in die Midlands und in den Südwesten. Bristol Parkway befindet sich ungefähr fünf Kilometer nördlich im Vorort Stoke Gifford; hier halten die Züge nach Wales. Bristol liegt am Schnittpunkt der Autobahnen M4 (London – Wales) und M5 (Birmingham – Exeter). Bei Lulsgate befindet sich der kleine Bristol International Airport.
In Bristol befindet sich die weltweit einzige Versuchsstrecke für umweltschonende Solar-Straßenbahnen. Die auf einem 800 Meter langen Streckenabschnitt fahrenden Bahnen bestehen aus superleichtem Material und bewegen sich mit Hilfe von Sonnenkraft fort. Die aus einem Wagen mit 76 Plätzen bestehenden Fahrzeuge können durch einen elektrobetriebenen Hauptmotor eine Höchstgeschwindigkeit von 40 Kilometer pro Stunde erreichen. Die erste kommerziell betriebene elf Kilometer lange Strecke sollte ab 2007 in der griechischen Hafenstadt Kalamata gebaut werden. Dort war jedoch ein Dieselmotor als Unterstützung vorgesehen.
Dialekt
Bristols Dialekt, Brizzle oder Bristle genannt, ist besonders vom Bristol L gekennzeichnet. Nach jeder Vokalendung wird ein L hinzugefügt, was dazu führte, dass aus dem altenglischen Brycgstow Bristol wurde.
Persönlichkeiten
Partnerstädte
Hannover (Deutschland)
Tiflis (Georgien)
Beira (Mosambik)
Bordeaux (Frankreich)
Porto (Portugal)
Puerto Morazán (Nicaragua)
Guangzhou (China)
Literatur
Peter Aughton: Bristol: A People’s History. Carnegie, Lancaster 2000, ISBN 1-85936-067-X.
Thomas Götz: Stadt und Sound. Das Beispiel Bristol (= Berliner ethnographische Studien. Band 11). Lit, Berlin/Münster 2006, ISBN 3-8258-9700-1 (Rezension).
Weblinks
Visit Bristol – Touristeninformation der Stadt
Webpräsenz der Stadtverwaltung
Einzelnachweise
Ort in South West England
Unitary Authority (England)
City (England)
Englische Grafschaft
Borough (South West England)
Umwelthauptstadt Europas
Namensgeber für einen Marskrater
Hochschul- oder Universitätsstadt in England
|
Q23154
| 414.927481 |
4049
|
https://de.wikipedia.org/wiki/Pocken
|
Pocken
|
Als Pocken, Blattern oder Variola (), genannt auch Pockenkrankheit, bezeichnet man eine für den Menschen gefährliche und lebensbedrohliche Infektionskrankheit, die von Pockenviren (Orthopox variolae) verursacht wird. Durch ihre hohe Infektiosität und Letalität gehört die Erkrankung zu den gefährlichsten des Menschen. Das für die Erkrankung typische und namensgebende Hautbläschen wird als Pocke oder Blatter bezeichnet.
Seit den letzten Erkrankungen im Jahr 1977 in Somalia sowie von Janet Parker 1978 sind keine neuen Pockenfälle mehr aufgetreten; der letzte Fall in Deutschland trat im Jahr 1972 auf. Durch ein konsequentes Impf- und Bekämpfungsprogramm der WHO und anderer Gesundheitsorganisationen konnte die WHO am 26. Oktober 1979 die Welt für pockenfrei erklären.
Etymologie
Der Name „Pocken“ kommt zum ersten Mal in einer angelsächsischen Handschrift aus dem 9. Jahrhundert am Ende eines Gebets vor: … geskyldath me wih de lathan Poccas and with ealle yfeln. Amen. („… beschützt mich vor den scheußlichen Pocken und allem Übel. Amen.“) Das Wort Pocke kommt aus dem Germanischen und bedeutet „Beutel“, „Tasche“, „Blase“, „Blatter“ (mittelhochdeutsch blātere). Es ist mit den , , und verwandt. Im Englischen wurden zur Unterscheidung von der Syphilis („great pockes“ bzw. „great pox“) die Pocken seit Ende des 15. Jahrhunderts als „small pockes“ (bzw. „smallpox“) bezeichnet; im Französischen heißen sie dementsprechend petite vérole im Gegensatz zur „grosse Vérole“, dem Ausschlag bei Syphilis.
Die Bezeichnung variola (von lateinisch ‚bunt‘, ‚scheckig‘, ‚fleckig‘) wurde von Bischof Marius von Avenches (heute Schweiz) um 571 n. Chr. geprägt und soll im 11. Jahrhundert der Krankheit auch von dem Arzt und Übersetzer Constantinus Africanus gegeben worden sein.
Erreger
Die Erreger der Pocken beim Menschen sind Viren aus der Gattung Orthopoxvirus (Spezies Variola virus alias Orthopoxvirus variolae). Pockenviren sind mit 200 bis 400 nm die größten bekannten animalen Viren. Diese Viren sind auch hinsichtlich ihrer DNA-Replikation im Cytoplasma im Vergleich zu anderen DNA-Viren ungewöhnlich. Eine mit einem Pockenvirus infizierte Zelle weist eine DNA-Synthese in einer „Virusfabrik“ außerhalb des Kerns auf, was sonst nur in intrazellulären Organellen wie Mitochondrien (und bei Pflanzen in Chloroplasten) oder bei der Reifung des Hepatitis-B-Virus innerhalb des Kapsids im Cytoplasma vorkommt. Für Pockenviren ist eine zweite Membranstruktur innerhalb des Virions charakteristisch, die innerhalb der Virushülle liegt und während des Zusammenbaus des intrazellulären Viruspartikels de novo um das Kapsid herum synthetisiert wird.
Tierpocken
Neben den Pockenerkrankungen des Menschen gibt es auch bei einer Reihe von Tieren durch verwandte Viren ausgelöste Erkrankungen. Die ebenfalls durch Orthopox-Viren hervorgerufenen Tierpocken – die sogenannten „Säugerpocken“ wie Kuhpocken, Affenpocken, Katzen-, Kamel- und Mäusepocken – sind mit Ausnahme der Mäusepocken prinzipiell auch für den Menschen pathogen. Sie sind also Zoonosen und daher meldepflichtige Tierkrankheiten, lösen aber meist nur leichte Erkrankungen aus. Die übrigen durch Pockenviren hervorgerufenen Tierkrankheiten wie Schweine-, Schaf- und Ziegen-, Euter- und Vogelpocken, Myxomatose, Kaninchenfibromatose, Stomatitis papulosa der Rinder sind dagegen streng wirtsspezifisch und für den Menschen ungefährlich.
Von besonderer Bedeutung ist der Erreger der Kuhpocken Orthopoxvirus vaccinia, der mit dem Variolavirus eng verwandt ist, beim Menschen aber nur eine leichtere Krankheit auslöst. Dafür ist der Patient nach einer Ansteckung mit Kuhpocken gegen die echten Pocken immunisiert. Deshalb wurden Varianten von Vaccinia für die Pockenimpfung verwendet. Das Erregerreservoir stellen vermutlich Nagetiere dar, und ein wichtiger Überträger auf den Menschen sind Katzen (→ Katzenpocken). Bei Menschen mit geschwächtem Immunsystem (zum Beispiel durch AIDS oder eine hochdosierte Kortisonbehandlung) können durch Katzen übertragene Kuhpockeninfektionen auch tödlich enden.
Die Bläschenkrankheit der Schlangen wird fälschlicherweise auch als „Pocken“ oder „Wasserpocken“ bezeichnet. Sie ist jedoch keine Viruserkrankung, sondern eine bakterielle Hautentzündung infolge schlechter Haltungsbedingungen.
Übertragung
Pocken können direkt von Mensch zu Mensch durch Tröpfcheninfektion beim Husten übertragen werden. Daneben kann die Ansteckung auch durch Einatmen von Staub passieren, der z. B. beim Ausschütteln von Kleidung oder Decken Pockenkranker entsteht.
Krankheitsverlauf
Die Inkubationszeit beträgt ein- bis zweieinhalb Wochen, meistens jedoch 12 bis 14 Tage. Bei Beginn der Erkrankung kommt es zu schwerem Krankheitsgefühl, Kopf- und Rückenschmerzen mit hohem Fieber (Pockenfieber) und Schüttelfrost, ferner tritt ein Rachenkatarrh auf. Zu diesem Zeitpunkt ist der Patient hochinfektiös. Bei den Pocken ist ein biphasischer Fieberverlauf typisch: Nach ein bis fünf Tagen sinkt das Fieber und steigt nach einem Tag wieder an. Nun kommt es zu den typischen Hauterscheinungen.
Die Reihenfolge, in welcher die Hauterscheinungen (Effloreszenzen) auftreten, ist dabei typisch: Makula (Fleck) → Papel → Vesikel (Bläschen) → Pustel (Eiterbläschen) → Kruste. Die verschieden lokalisierten Hauteffloreszenzen sind, im Gegensatz zu den Effloreszenzen bei Windpocken, nacheinander alle im gleichen Stadium. Sie treten fast am gesamten Körper auf, wobei Kopf, Hände und Füße am stärksten, Brust, Bauch und Oberschenkel nur schwach betroffen sind. Ausgenommen sind die Achselhöhlen und Kniekehlen. Die eitrige Flüssigkeit in den Pusteln verbreitet einen sehr unangenehmen Geruch. Bei einem weniger schweren Krankheitsverlauf trocknen die Pusteln etwa zwei Wochen nach Ausbruch der Krankheit nach und nach ein und hinterlassen deutlich erkennbare Narben. In schwereren Fällen können Erblindung, Gehörlosigkeit, Lähmungen, Hirnschäden sowie Lungenentzündungen auftreten. Oft verläuft die Krankheit tödlich. Die geschätzte Letalität der unbehandelten Pocken liegt bei etwa 30 Prozent.
Impfung
Gegen Pocken gab es vor der Zulassung von Tecovirimat im Januar 2022 kein bekanntes Heilmittel, nur eine vorbeugende Impfung war möglich; sie kann ihre Schutzwirkung auch noch entfalten, wenn sie bis etwa fünf Tage nach der Infektion vorgenommen wird. Die Pockenimpfung ist eine Lebendimpfung und ist durch eine Reihe von Impfkomplikationen belastet, so dass nur bei eindeutigen Pockenausbrüchen geimpft werden sollte. Eine Massenimpfung ist z. B. in den USA gar nicht vorgesehen – die dortigen Notfallpläne sehen nur eine Impfung der gefährdeten Personen vor. Zur Eindämmung der Erkrankung haben sich dagegen Quarantänemaßnahmen (Isolierung von Kranken und Krankheitsgebieten) bewährt.
Am 18. April 1801 hatte Johann Friedrich Küttlinger erfolgreich eine Pockenimpfung bei dem Sohn des Schulleiters Degen im mittelfränkischen Neustadt an der Aisch durchgeführt. Am 26. August 1807 wurde in Bayern als weltweit erstem Land eine Impfpflicht eingeführt. Baden folgte 1809, Preußen 1815, Württemberg 1818, Schweden 1816, England 1867 und das Deutsche Reich 1874 durch das Reichsimpfgesetz. Im lutherischen Schweden hatte die protestantische Geistlichkeit bereits um 1800 eine Vorreiterrolle bei der freiwilligen Pockenschutzimpfung inne. In Liechtenstein war die erste Impfung 1801 vorgenommen worden, ab 1812 galt eine gesetzliche Impfpflicht.
Die ab 1967 weltweit von der Weltgesundheitsorganisation vorgeschriebene Impfpflicht gegen Pocken endete in Westdeutschland 1976, bis 1983 erfolgten nur noch Wiederholungsimpfungen (außer für Risikopersonen). In der DDR wurde die Pflichtimpfung gegen Pocken 1982 aufgehoben, bereits ab 1980 fanden keine Erstimpfungen mehr statt. In Österreich endete die Impfpflicht 1981. Die Impfung wurde typischerweise mit einer Impfpistole oder Lanzette meist am Oberarm ausgeführt, wo sich an der Einritzstelle durch die resultierende, gewollte Infektion in der Regel eine Pustel und daraus schließlich eine rundliche vertiefte Impfnarbe bildete, die bis heute bei vielen geimpften Menschen zu sehen ist. In manchen Ländern war es in Zeiten der Impfpflicht bei der Einreise erforderlich, die Impfnarbe vorzuzeigen.
Variolation – Impfung durch Variolaviren
Einfache Formen der Impfung sind schon lange bekannt. Die vorbeugende Ansteckung mit geringen Mengen von Variolaviren, heute Variolation genannt, wurde in China erstmals 1582 von Wàn Quán (1499–1582) in seiner Schrift „Behandlung von Pocken und Masern“ (Dòuzhěn xīnfǎ) erwähnt. Hierbei schnupfte man zerriebenen Schorf der Pusteln. In Indien dagegen wurde dieses Material in die Haut eingeritzt. In Europa führte Lady Montagu (1689–1762), die Frau eines britischen Diplomaten in Istanbul, die im Osmanischen Reich verbreitete Variolation durch Einritzen von etwas Flüssigkeit aus den Pockenbläschen in die Haut ein. Als einer der ersten Ärzte Deutschlands, der sich ab 1729 mit der Inokulation der Pocken befasst hatte und darüber publizierte, gilt Wilhelm Bernhard Nebel von der Universität Heidelberg. Im Jahr 1767 führte der Mediziner Franz Heinrich Meinolf Wilhelm (1725–1794), der in die Wien die dort 1760 eingeführte Blatterninokulation kennengelernt hat, am Würzburger Juliusspital eine Pockenimpfung, wahrscheinlich eine Variolation, durch.
Johann Friedrich Struensee begann als Amtsarzt in Altona 1758 mit der Variolation. 1770 impfte er auch den Sohn des dänischen Königs Christian VII.
Vakzination – Impfung mit Vaccinia-Viren
Die zweite, sicherere Impfmethode beruht auf der seit spätestens 1765 belegten Beobachtung, dass Menschen nach durchgemachter vermutlicher Kuhpocken-Infektion vor Infektionen mit den echten Pocken geschützt sind.
Erste Schritte zur Entdeckung der Vakzination
Als Edward Jenner während seiner Ausbildung 1768 in Thornbury in Gloucestershire als Assistent bei den Landärzten Daniel und Edward Ludlow arbeitete, erfuhr er erstmals von Kuhpocken und den Vorteilen einer Variolation. Ein weiterer Landarztkollege, John Fewster, machte in diesen Jahren die Entdeckung, dass bei einigen Patienten nicht einmal eine schwache Pockeninfektion ausgelöst wurde, wenn sie vorher an Kuhpocken erkrankt waren. Dies berichtete er 1765 vor der lokalen Ärztegesellschaft, und so galt Fewster als Entdecker des Nutzens von Kuhpocken. Auch der Göttinger Jobst Böse berichtete 1769 von dem Phänomen. Erst die Kuhpocken-Inokulation als folgerichtiger Schritt war die Entdeckung Jenners. Die infizierten Kühe waren jedoch nicht an echten Kuhpocken erkrankt, sondern an Vaccinia-Viren, deren Infektionen deutlich harmloser verlaufen.
Milchmädchen-Mythos
Sein Biograph John Baron setzte 13 Jahre nach dem Tod Jenners den Mythos in Umlauf, dass Jenner von den Vorteilen einer vorhergehenden Kuhpocken-Infektion über „Gerüchte in den Kuhställen“ gehört habe, und verschwieg Fewsters Erkenntnis. Dies galt als „Milchmädchen-Mythos“. Jenner selber hatte nie beansprucht, Entdecker oder Erstbeschreiber der Vorteile einer Kuhpockeninfektion gewesen zu sein.
Jenners Kuhpocken-Inokulation („vaccination“)
Erst 1796 wurde die „Kuhpocken“-Inokulation mit einer gewissen Breitenwirkung in England eingeführt. Zur Überprüfung seiner These vom Schutz vor Pocken durch Inokulation mit Kuhpocken infizierte Jenner zunächst den achtjährigen James Phipps mit aus den Pocken der infizierten Kühe gewonnenem Material und, nach Abklingen der Krankheit, mit den echten Pocken. Der Junge überlebte. Als Jenners Artikel von der Royal Society abgelehnt wurde, unternahm er weitere Versuche – auch mit seinem 11 Monate alten Sohn Robert. Im Jahr 1798 veröffentlichte er seine Ergebnisse und musste erleben, dass man ihn lächerlich zu machen versuchte. Dennoch setzte sich die von ihm propagierte Methode durch. Dieses Verfahren wird Vakzination genannt. Da der Impfstoff von Kühen stammte, nannte Jenner seinen Impfstoff Vaccine (von lat. vacca, dt. ‚Kuh‘) und die Technik der künstlichen Immunisierung „Vaccination“ (von lat. vaccinus, dt. ‚von Kühen stammend‘). Das Wort vaccination bedeutet heute im Englischen Impfung ganz allgemein, auch im Deutschen wird ein Impfstoff Vakzin genannt.
Weitere Forscher und Erstbeschreiber
Nach dem Engländer Edward Jenner sind weitere Einzelpersonen bekannt, die eine Inokulation mit Kuhpocken durchgeführt haben, u. a. eine Frau „Sevel“ (vermutlich 1772), der Pächter „Jensen“ (Jahreszahl nicht bestimmbar), Benjamin Jesty (1774), eine Frau „Rendall“ (vermutlich 1782) und Peter Plett (1791).
Europaweite Verbreitung
1799 führte der Arzt Jean de Carro, der an der Universität Wien wirkte, aufgrund der Vorarbeiten von Jenner als erster auf dem europäischen Kontinent in Wien die Pockenschutzimpfung ein. Bereits ein Jahrzehnt später wurde in vielen Ländern eine Impfpflicht bestimmt.
Das zur Pockenimpfung verwendete Modified-Vaccinia-Ankara-Virus wurde in den 1970er Jahren von Anton Mayr entwickelt. In vielen Ländern wurde die Impfung von Kleinkindern und auch die Nachimpfung nach etwa 12 Jahren gesetzlich vorgeschrieben.
Behandlung
Im Juli 2018 hat die amerikanische Zulassungsbehörde Food and Drug Administration (FDA) eine Zulassung für Tecovirimat (Handelsname: TPOXX, Hersteller: Siga Technologies) erteilt. Zugelassen wurde der antivirale Wirkstoff zur Behandlung von Pocken, obwohl laut Weltgesundheitsorganisation die Pocken seit 1980 ausgerottet sind. Hintergrund ist die Befürchtung, dass der hochansteckende und gefährliche Erreger als Biokampfstoff auftreten könnte.
Geschichte
Das Pockenvirus Variola vera ist wahrscheinlich von Nagetieren auf den Menschen übertragen worden (Übertragungen von Tieren auf Menschen sind auch von anderen Viren bekannt).
Altertum und Mittelalter
Pocken sind vermutlich schon seit Jahrtausenden bekannt, vermutlich traten sie vor 12.000 Jahren bei den ersten Siedlungen im Nordosten Afrikas auf. Von dort sind sie möglicherweise durch ägyptische Händler nach Indien gebracht worden. Die an mehreren Stellen des Alten Testaments (u. a. ; und das Leiden des Hiob) hebräisch als schechin (Pustel, Geschwür) bezeichnete Seuche wurde von Medizinhistorikern mit den Pocken in Verbindung gebracht. Besonders die sechste ägyptische Plage () gilt vielen Exegeten als Beschreibung einer Pockenepidemie. In der Vita Mosis beschreibt Philon von Alexandria diese Plage mit allen Symptomen der Pocken. Diese auch als „ägyptisches Geschwür“ (schechin mizraim. ) bezeichnete Seuche wurde auch mit der Uhedu-Krankheit identifiziert, die mehrfach im Papyrus Ebers genannt wird. Das altägyptische Wort uhedu oder uhet steht für einen eigentümlichen, tödlichen Hautausschlag, der mit Geschwüren einhergeht. Die Mumie von Pharao Ramses V. von Ägypten zeigt Läsionen, die histologisch den Pockennarben entsprechen könnten. Auch die Gesichter älterer Mumien der 18. bis 20. Dynastien zeigen Spuren einer Pockenerkrankung.
Zur Zeit des Hippokrates (4. Jahrhundert v. Chr.) traten die Pocken wahrscheinlich auch in Griechenland auf.
In China wurden die von dem Alchemisten Ge Hong beschriebenen Pocken vermutlich um 250 v. Chr. über die noch unfertige chinesische Mauer durch die Hunnen eingeschleppt. Daher rührt die dort verwendete Bezeichnung Hunnenpocken.
Nach Europa kamen die Pocken wahrscheinlich 165 n. Chr. mit dem Einzug der siegreichen römischen Legionen nach der Einnahme der parthischen Stadt Seleukia-Ktesiphon im heutigen Irak. Die Pocken breiteten sich rasch bis zur Donau und zum Rhein hin aus. Die Folge war ein 24 Jahre währendes Massensterben, das als Antoninische Pest in die Geschichte eingegangen ist. Der Bagdader Arzt Muhammad ibn Zakarīyā ar-Rāzī beschrieb um 910 den Unterschied zwischen Pocken und Masern und wusste bereits, dass kein zweiter Pockenbefall bei einem Menschen auftreten kann.
Die Kreuzritter des 11.–13. Jahrhunderts trugen zur Verbreitung der Pocken wesentlich bei.
Untersuchungen von Knochen und Zähnen begrabener Skelette in Skandinavien, England und Russland aus der Zeitperiode 600 bis 1050 n. Chr. (Gebiet der Wikinger) haben ergeben, dass das Genom des seinerzeit vorkommenden Pockenvirus sich deutlich von dem rezenten, im 20. Jahrhundert aufgetretenen Pockenvirus unterscheidet. So hat sich gezeigt, dass das Virus aus der Wikingerzeit größere genetische Übereinstimmungen mit dem Kamelpockenvirus und dem Taterapockenvirus aufweist. Dies stützt die Vermutung, dass das Pockenvirus ursprünglich aus Tieren stammt (zoonotischer Erreger). Wegen der Unterschiede geht man davon aus, dass die Wikinger mit einer Seitenlinie von Variola vera infiziert waren, die später ausgestorben ist. Zudem lassen die genetischen Untersuchungen darauf schließen, dass das Pockenvirus einen Teil seiner Gene im Laufe der Zeit verloren hat, zum einen Gene, die für eine Übertragung auf andere Spezies nötig waren. Diese waren nach der Spezialisierung auf den Menschen obsolet geworden. Zum anderen betraf es Gene, mit denen sich das Virus dem Angriff des Immunsystems entzog. Dies verursachte eine stärkere Immunreaktion und ging mit einer höheren Letalität (Pathogenität) einher.
16. bis 19. Jahrhundert
Die europäischen Eroberer brachten die Pocken nach Amerika mit, wo sie ab 1518 unter den Indianern verheerende Epidemien auslösten, die Millionen von Toten forderten. Man nimmt an, dass ein Viertel bis die Hälfte, nach Guenter Lewy sogar bis zu 90 % der indigenen Bevölkerung Amerikas nach Ankunft der Europäer den Pocken zum Opfer fielen. Gut untersucht ist die Pockenepidemie an der Pazifikküste Nordamerikas ab 1775. Die Europäer dagegen waren durch zahlreiche frühere Pockenepidemien stark durchseucht und daher relativ wenig gefährdet.
Ob die Pocken als biologische Waffe gegen die Indianer eingesetzt wurden, ist trotz aller Forschung umstritten. Aus dem Juni 1763 existieren ein Briefwechsel und eine Quittung, laut denen zwei Decken und ein Taschentuch aus dem Hospital des belagerten Fort Pitt – in dem die Pocken ausgebrochen waren – an eine Delegation der Lenni-Lenape-Indianer überreicht worden sind. Der Versuch hatte aber keinen Erfolg; die später doch ausgebrochene Epidemie wird auf andere Ursachen zurückgeführt. Die Pockenepidemie an der Pazifikküste Nordamerikas 1862 versuchten die Behörden auch mittels einer raschen Massenimpfung der lokal ansässigen Indianer einzudämmen; die Stadt Victoria in British Columbia nutzte die Gelegenheit jedoch zur schon länger geplanten Vertreibung der indigenen Bevölkerung. Als wissenschaftliche Fälschung enttarnt wurden hingegen im Jahr 2005 bis dahin kursierende Darstellungen bezüglich eines Pockenausbruchs 1837 bei den Mandan am Missouri River. Der Verantwortliche, Ward Churchill, verlor 2007 seinen Lehrstuhl an der Universität von Colorado.
Nach Australien kamen die Pocken vermutlich mit Seefahrern aus Makassar in Indonesien, die ab etwa 1700 alljährlich im Arnhemland Seegurken sammelten. Als erste Pockenepidemie wurde die von 1789 von den Mitgliedern der First Fleet im heutigen Gebiet von Sydney dokumentiert.
In Europa galten Pocken teilweise als Kinderkrankheit, und die Erkrankung, an der bis zum Ende des 18. Jahrhunderts noch bis zu 10 % aller Kleinkinder starben, wurde auch „Kindsblattern“ genannt. Ab dem 18. Jahrhundert häuften sich die Pockenfälle und lösten die Pest als schlimmste Krankheit ab. Nach Schätzungen starben jedes Jahr 400.000 Menschen an Pocken, und ein Drittel der Überlebenden erblindete. Oft zählten Kinder erst zur Familie, wenn sie die Pocken überstanden hatten. Berühmte Persönlichkeiten wie Mozart, Haydn, Beethoven und der junge Goethe blieben von der Krankheit nicht verschont, Ludwig XV. von Frankreich und Zar Peter II. sowie Kurfürst von Bayern Max III. Joseph starben daran. Die Heiratspolitik der Habsburger wurde gleichfalls von den Pocken immer wieder durcheinandergebracht. Die Kaiserin Maria Theresia, die mit der Verheiratung ihrer Töchter an andere Herrschaftshäuser Allianzpolitik betrieb, musste ihre Pläne ändern, weil zwei ihrer Töchter an den Pocken starben und eine dritte (Marie Elisabeth) durch diese verunstaltet wurde.
Die letzten großen Pockenepidemien traten in Deutschland 1870 (als Kriegsseuche im Deutsch-Französischen Krieg 1870/71) und 1873 vor Einführung des Reichsimpfgesetzes 1874 auf, während derer etwa 181.000 Menschen starben.
Um 1893 behandelten Joakim Nikolai Krej Lindholm und Johan Christoffer Svendsen die Pocken mit rotem Licht.
20. Jahrhundert
Der erste noch vage morphologische Nachweis des Pockenvirus wird dem in Mexiko gebürtigen Hamburger Impfarzt Enrique Paschen (1860–1936) zugeschrieben, der bereits 1906 mit einem Lichtmikroskop die von ihm „Elementarkörperchen“ und nach ihm „Paschensche Körperchen“ benannten Partikel in der Lymphe von an Variola major erkrankten Kindern sah.
Noch in den 1950er und 1960er Jahren gab es in Europa Pockenepidemien, so z. B. 1950 in Glasgow, 1958 in Heidelberg (18 Krankheitsfälle, davon zwei tödlich), 1963 in Breslau (99 Krankheitsfälle, davon sieben tödlich) und 1967 in der Tschechoslowakei. Ein Einzelfall im Frühsommer 1957 in Hamburg konnte hingegen isoliert werden. Ab 1967 wurde die Pockenimpfung auf Beschluss der Weltgesundheitsorganisation (WHO) weltweit Pflicht. Es wurde mit großangelegten Impfaktionen ein weltweiter Feldzug zur Ausrottung der Pocken gestartet. Unter der Führung von Donald Henderson wurde die „Ringimpfung“ als geeignete Strategie erfolgreich eingesetzt: Wichtige Kontrollpunkte, an denen Menschen zusammenkommen, wie Märkte oder Rastplätze, wurden engmaschig beobachtet. Bei einem Ausbruch wurden dann der erste Überträger isoliert und alle Kontaktpersonen geimpft.
1962 gab es eine Pockenepidemie in der Eifel.
Die letzte Pockenepidemie in Deutschland fand Anfang 1970 statt, als ein 20-Jähriger beim Pockenausbruch in Meschede die Krankheit in das nördliche Sauerland einschleppte und insgesamt 20 Personen infizierte. Die Erkrankten wurden im Marienhospital in Wimbern isoliert. Der letzte Pockenfall in der Bundesrepublik Deutschland wurde 1972 in Hannover bei einem jugoslawischen Gastarbeiter festgestellt, der aus dem Kosovo zurückkehrte, wo es zu einer Pockenepidemie gekommen war. Der letzte Fall von Echten Pocken wurde 1975 in Bangladesch dokumentiert, der letzte Fall von Weißen Pocken 1977 in Merka, Somalia, der letzte Erkrankte war der damals 23-jährige Ali Maow Maalin. Als weltweit letzter Mensch an Pocken starb die Britin Janet Parker 1978 in Birmingham, England, durch eine Laborinfektion. Am 8. Mai 1980 wurde von der WHO festgestellt, dass die Pocken ausgerottet sind. Für das weltweite Eliminationsprogramm wurden 2,4 Milliarden Impfdosen verabreicht und 300 Millionen Dollar ausgegeben, es waren mehr als 200.000 Helfer notwendig.
Dennoch sind weitere Pockeninfektionen nicht völlig ausgeschlossen. Offiziell existiert das Virus noch in zwei Laboratorien der Welt; allerdings ist unklar, ob in einigen Staaten unveröffentlichte Virenbestände gehalten werden.
Die meisten Staaten hoben ab den 1970er Jahren die Pockenimpfpflicht wieder auf (in Teilen Deutschlands wurde die Erstimpfung 1975 ausgesetzt, später die Wiederimpfung). Nach Erfahrungswerten aus den 1950er und 1960er Jahren rechnet das CDC mit 15 lebensbedrohlichen Komplikationen und zwei Todesfällen pro einer Million Geimpfter.
Pockengefahr nach der Ausrottung
Seit 1980 gibt es offiziell nur noch zwei Orte, an denen Pockenviren lagern, nämlich das Forschungszentrum der US-amerikanischen Seuchenbehörde CDC (Centers for Disease Control and Prevention) in Atlanta und ihr russisches Gegenstück VECTOR in Kolzowo südöstlich von Nowosibirsk. Über eine Vernichtung der letzten Bestände wurde nachgedacht, die Gedanken wurden allerdings verworfen. Die Bestände wären die letzte Möglichkeit, Impfstoffe gegen die Pocken auf ihre Wirksamkeit zu prüfen.
Nachdem die „natürliche“ Verbreitung der Pocken mit den Impfkampagnen eliminiert worden war, rückte das Virus als mögliche Methode eines Biowaffenanschlags wieder in die Aufmerksamkeit der Öffentlichkeit.
Die Industriestaaten haben sich nach den Terroranschlägen am 11. September 2001 umfassend mit Pockenimpfstoff für ihre Bevölkerung eingedeckt (u. a. die USA mit 100 Millionen Impfdosen), so dass umgehend reagiert werden könnte. Unter dem Eindruck des bevorstehenden Irakkriegs gab die Bundesrepublik Deutschland der Firma Bavarian Nordic um den Jahreswechsel 2002/2003 den Auftrag, für jeden Einwohner Deutschlands etwas mehr als eine Impfdosis auf Vorrat zu produzieren. Neben den USA und Deutschland hielten 2003 noch Südafrika, das Vereinigte Königreich und Israel größere Bestände an Impfstoffen vorrätig. Die Entwicklungsländer waren dagegen nicht in der Lage, sich die Anschaffung der kostspieligen Impfdosen für ihre ganze Bevölkerung zu leisten. Zwar hält auch die WHO 64 Millionen Impfstoffdosen vorrätig, doch für die Bevölkerung in den Entwicklungsländern wird diese Anzahl an Impfdosen im Ernstfall nicht ausreichen und die Pocken könnten sich erneut mit katastrophalen Folgen ausbreiten.
Um das von den gelagerten Pocken-Viren ausgehende Restrisiko zu beseitigen, wollten die Vertreter der Mitgliedsstaaten der Weltgesundheitsorganisation (WHO) bis 2014 eine Einigung darüber erzielen, wann die zwei noch vorhandenen Sammlungen der tödlichen Erreger unschädlich gemacht werden. Auf der Sitzung im Mai 2014 sprach sich die Mehrheit für eine Vernichtung aus, sie erreichte aber nicht die notwendige Einigkeit. Insbesondere wollten „russische Forschungseinrichtungen“ und das US-Verteidigungsministerium das Virus erhalten. Dies wurde damit begründet, dass es zur weiteren Forschung und Entwicklung benötigt werde. Zur Herstellung eines Impfstoffes und eines Heilmittels wird das Virus selbst jedoch nicht mehr benötigt. Ein neues Datum für die Diskussion wurde nicht beschlossen, die Viren bleiben also auf unbestimmte Zeit in den beiden Laboren erhalten.
2014 wurden versiegelte Ampullen mit gefriergetrockneten Pocken-Viren in einem Abstellraum in den National Institutes of Health entdeckt, das seit 1972 zur Food and Drug Administration gehört. Nach ersten Untersuchungen stammen die Proben aus den 1950er Jahren.
Der kanadische Mikrobiologe David Evans aus Edmonton konnte 2016 zeigen, dass es nur ein kleines Team, etwa sechs Monate Arbeit und weniger als 100.000 Euro brauche, um im Labor Pockenviren nachzubauen, was ihm mit den Pferdepocken-Viren gelang, die den menschlichen Pockenviren sehr ähnlich und im Rekonstruktionsverfahren gleich sind.
Meldepflicht
Deutschland
Aufgrund von § 6 Abs. 1 Nr. 5 IfSG sind Krankheitsverdacht, Erkrankung, Tod oder der Erregernachweis meldepflichtig.
§ 12 IfSG: Meldungen an die Weltgesundheitsorganisation und das Europäische Netzwerk.
Österreich
In Österreich sind Verdachts-, Erkrankungs- und Todesfälle an Pocken gemäß Abs. 1 Nummer 1 Epidemiegesetz 1950 anzeigepflichtig. Zur Anzeige verpflichtet wären unter anderem Ärzte und Labore ( Epidemiegesetz).
Schweiz
In der Schweiz sind Pocken ebenfalls eine meldepflichtige Krankheit und zwar nach dem Epidemiengesetz (EpG) in Verbindung mit der Epidemienverordnung und der Verordnung des EDI über die Meldung von Beobachtungen übertragbarer Krankheiten des Menschen. Zudem ist auch der positive und negative laboranalytische Befund für Pockenviren (Variola-Virus/Vaccinia-Virus) meldepflichtig und zwar nach den genannten Normen und der genannten Verordnung des EDI.
Literatur
Barbara I. Tshisuaka: Pocken (Variola, Blattern). In: Werner E. Gerabek, Bernhard D. Haage, Gundolf Keil, Wolfgang Wegner (Hrsg.): Enzyklopädie Medizingeschichte. Walter de Gruyter, Berlin / New York 2007, ISBN 978-3-11-097694-6, S. 1171–1173 (Erstausgabe ebenda 2005, ISBN 3-11-015714-4).
Karl Wurm, A. M. Walter: Infektionskrankheiten. In: Ludwig Heilmeyer (Hrsg.): Lehrbuch der Inneren Medizin. Springer-Verlag, Berlin/Göttingen/Heidelberg 1955; 2. Auflage ebenda 1961, S. 9–223, hier: S. 71–75.
Iris Friesecke, Walter Biederbick, et al.: Biologische Gefahren II – Entscheidungshilfen zu medizinisch angemessenen Vorgehensweisen in einer B-Gefahrenlage. Bundesamt für Bevölkerungsschutz, Robert Koch Institut 2007, ISBN 978-3-939347-07-1. Kapitel Pocken, S. 161–176
Weblinks
Pocken plagten schon die Wikinger
Einzelnachweise
Virale Infektionskrankheit des Menschen
Biologische Waffe
Meldepflichtige Krankheit
Meldepflichtiger Erreger
|
Q12214
| 253.900243 |
27535
|
https://de.wikipedia.org/wiki/Ky%C5%8Dto
|
Kyōto
|
Kyōto (, ), im Deutschen meist Kyoto oder Kioto geschrieben, ist eine der geschichtlich und kulturell bedeutendsten Städte Japans. Sie liegt im Südwesten der japanischen Hauptinsel Honshū im Ballungsgebiet Kansai. Beide Schriftzeichen des heutigen Stadtnamens werden alleine jeweils „Miyako“ gelesen und bedeuten im Japanischen wörtlich „kaiserliche Residenz“. In der heutigen sinojapanischen Lesung entspricht die Silbe „Kyō-“ einer Go-on-Lesung und die Silbe „-to“ einer Kan-on-Lesung.
Kyōto war von 794 bis 1868 Sitz des kaiserlichen Hofes von Japan und ist heute der Verwaltungssitz der Präfektur Kyōto.
14 Tempel und Shintō-Schreine wurden zusammen mit drei anderen in den benachbarten Städten Uji und Ōtsu 1994 zum UNESCO-Welterbe Historisches Kyōto (Kyōto, Uji und Ōtsu) erklärt.
Geografie
Kyōto liegt etwa 400 km südwestlich von Tokio im mittleren Westen der japanischen Hauptinsel Honshū, etwa zehn Kilometer südwestlich des Biwa-Sees und ca. 40 km von Osaka entfernt. Durch die Lage in einem nur nach Süden offenen Talkessel staut sich die schwüle Luft im Sommer; der Nordteil der Stadt wird im Winter erheblich kälter als die benachbarten Städte Osaka und Kōbe. Anders als letztere ist Kyōto aber durch die bis über 1000 Meter hohen Berge vor Taifunen weitgehend geschützt und auch kaum hochwassergefährdet.
Die Stadt ist nach der klassischen chinesischen Geomantie schachbrettartig angelegt. Das Zentrum und der Süden sind das wirtschaftliche Herz der Stadt. Die touristischen Sehenswürdigkeiten befinden sich teilweise im Zentrum; ein Großteil der berühmten Tempel liegt jedoch im Nordosten und Nordwesten der Stadt oder auf Berghängen in der Umgebung.
Stadtgliederung
Kyōto ist in elf Stadtbezirke (, -ku) eingeteilt:
Bevölkerungsentwicklung der Stadt
Quelle: PDF-Datei der Stadt Kyōto zur Bevölkerungsveränderung
Für die Jahre 1889 bis 1909 — Stand am Jahresende (Bevölkerungsregister)
Für die Jahre 1920 bis 2015 — Stand am Volkszählungstag (1. Oktober)
2018 – Stand am 1. Oktober — Bevölkerungsfortschreibung
2019 – Stand am 1. März 2019 — Bevölkerungsfortschreibung
Angrenzende Städte und Gemeinden
Präfektur Kyōto
Uji
Nagaokakyō
Mukō
Yawata
Kameoka
Nantan
Kumiyama
Ōyamazaki
Präfektur Shiga
Ōtsu
Takashima
Präfektur Osaka
Takatsuki
Shimamoto
Geschichte
Unter dem Namen Heian-kyō wurde Kyōto 794 nach Aufgabe von Heijō-kyō (Nara, 784) und einem gescheiterten Versuch im nahegelegenen Nagaoka-kyō (Nagaokakyō) unter Kaiser Kammu (781–806) die zweite ständige Hauptstadt Japans.
Nach dem Dōkyō-Zwischenfall sollte der Einfluss buddhistischer Klöster zurückgedrängt werden, indem sie in der neuen Hauptstadt aus dem inneren Stadtgebiet von etwa 4500 × 5200 Metern verbannt wurden.
Die Heian-Zeit, in der die politische Macht im Wesentlichen von Kyōto ausging (allerdings schon bald nicht mehr vom Kaiser selbst), dauerte bis 1185. Während der Muromachi-Zeit von 1333 bis 1568 residierte dann das zunächst an der Ostküste gebildete Shōgunat wieder in Kyōto, verlor dabei aber ständig an Macht. Mit den Verwüstungen des Ōnin-Kriegs (1467–1477) begann der Verfall der Stadt, die schließlich nur noch aus zwei getrennten Gebieten auf der östlichen Stadthälfte bestand. Erst unter Hideyoshi wurde ab 1580 mit einem Wiederaufbau begonnen. Nun erst entstanden Tempel innerhalb der Stadt, was in den Zeiten zuvor untersagt war. Im Jahr 1568 wurde eine erste christliche Gebetsstätte erbaut, die im Volksmund Namban-ji hieß.
In der Edo-Zeit ab 1603 verlagerte sich das politische Zentrum Japans endgültig von Kyōto weg an die Ostküste. Die höfische Kultur wurde am Sitz des Tennō weiterhin gepflegt.
Aus der Shogunatsverwaltung für die Stadt Kyōto und Shogunats- bzw. kaiserliche Güter im Umland entstand in der Meiji-Restauration die (in den Anfangsjahren: Stadt-)Präfektur (-fu) Kyōto, die sich aber bei der Konsolidierung der Präfekturen in den 1870er Jahren auf umfangreiche ländliche Gebiete in mehreren Provinzen ausdehnte. 1878/79 wurden die Präfekturen in Landkreise (-gun) und Stadtkreise/„Bezirke“ (-ku) unterteilt, dabei wurden auf dem Stadtgebiet von Kyōto am 10. April 1879 Kamigyō-ku und Shimogyō-ku eingerichtet. Aus diesen entstand am 1. April 1889 im Zuge der Reorganisation des japanischen Gemeindewesens die moderne kreisfreie Stadt (-shi) Kyōto, und die -ku wurden zu Stadtbezirken. Bis 1898 blieb die Stadt Kyōto nach einer Ausnahme der drei größten Städte des Reiches von der Stadtordnung (shisei tokurei) aber ohne eigenständige Verwaltung und wurde direkt von Gouverneur von Kyōto regiert. Erst danach wurden eigenständige Bürgermeister ernannt. Am 1. April 1929 wurden von beiden die neuen Stadtbezirke Higashiyama-ku, Nakagyō-ku und Sakyō-ku abgetrennt. Zum 1. April 1931 wurden eine Vielzahl umliegender Orte eingemeindet, wodurch Fushimi-ku und Ukyō-ku entstanden.
Im Zweiten Weltkrieg stand Kyoto ursprünglich ganz oben auf der Liste der Ziele für den ersten Einsatz der Atombombe. Insbesondere General Leslie R. Groves forderte den Abwurf auf Kyoto, da die Lage in einem Tal die Auswirkung der Explosion noch verstärkt hätte. Auf Drängen des US-Kriegsministers Henry L. Stimson, der die Stadt einst besucht hatte und um deren kulturelle Bedeutung wusste, wurde sie jedoch von der Liste gestrichen. Aus demselben Grund wurde Kyoto auch von schweren Luftangriffen verschont.
Am 1. September 1951 wurde Kita-ku von Kamigyō-ku und Minami-ku von Shimogyō-ku abgetrennt. Die letzte Änderung der Stadtgliederung fand am 1. Oktober 1976 statt, als Nishikyō-ku von Ukyō-ku und Yamashina-ku von Higashiyama-ku abgetrennt wurden.
Politik und Verwaltung
Der wie in allen Gemeinden direkt gewählte Bürgermeister von Kyōto (Kyōto shichō) ist seit 2008 Daisaku Kadokawa. Bei der Bürgermeisterwahl am 2. Februar 2020 wurde er mit Unterstützung von LDP, Kōmeitō, KDP, DVP und SDP und 45,1 % der Stimmen für eine vierte Amtszeit wiedergewählt. Es gab zwei Gegenkandidaten: Anwalt Kazuhito Fukuyama wurde neben der KPJ auch von der Reiwa Shinsengumi unterstützt und erhielt 34,6 % der Stimmen; außerdem bewarb sich der ehemalige Kyōto-Partei-Stadtparlamentsabgeordnete Shōei Murayama (20,3 %). Die Wahlbeteiligung erholte sich gegenüber 2016 um rund fünf Punkte auf 40,7 %.
Der zuletzt im April 2023 gewählte Stadtrat von Kyōto (Kyōto shikai) besteht regulär aus 67 Mitgliedern. Die LDP blieb mit 19 Abgeordneten stärkste Partei, die Kommunistische Partei Japans (KPJ) fiel in ihrer traditionellen Hochburg auf 14 Sitze zurück, die Kōmeitō gewann elf Sitze. Die in der Nachbarpräfektur Osaka beheimatete Ishin no Kai gewann sechs auf nun zehn Sitze hinzu. Ihre anschließend formierte Gemeinschaftsfraktion mit Kyōto-Partei () und DVP löst die KPJ als zweitstärkste Kraft ab.
Im 60-köpfigen Präfekturparlament von Kyōto (Kyōto fugikai) stellt die Stadt Kyōto mit 34 Abgeordneten die Mehrheit. Allgemeine Präfekturparlamentswahlen finden ebenfalls im einheitlichen Wahlzyklus statt.
Bei Wahlen zum Abgeordnetenhaus, dem Unterhaus des Nationalparlaments, erstreckt sich die Stadt Kyōto in vier der sechs Wahlkreise der Präfektur Kyōto. Die Wahlkreise 1 und 2, die ganz in der Stadt liegen, gewannen bei der Abgeordnetenhauswahl 2021 Yasushi Katsume (LDP) und Seiji Maehara (DVP), die Wahlkreise 3 und 4, die sich auch auf andere Gemeinden erstrecken, Kenta Izumi (KDP) und Keirō Kitagami (Unabh., nach der Wahl zur Fraktion Yūshi no kai).
Bürgermeisterwahl 2008
Die Wahl selbst fand am 17. Februar statt. Daisaku Kadokawa setzte sich knapp gegen den Kandidaten Kazuo Nakamura, welcher von der KPJ unterstützt wurde, durch. Der Vorsprung betrug allerdings nur 951 Wahlstimmen.
Der Wahl kam eine besondere Bedeutung zu, da ein Nachfolger für Yorikane Masumoto gesucht wurde, der seinen Rücktritt nach drei Amtsperioden (entspricht zwölf Jahren) bekannt gegeben hatte.
Kyōto-Protokoll
Vom 1. bis 10. Dezember 1997 fand in Kyōto eine internationale Klimakonferenz statt, auf der sich die Industrieländer im Rahmen des Kyoto-Protokolls verpflichteten, ihre Treibhausgas-Emissionen zu senken.
Städtepartnerschaften
Schwesterstädte:
Paris, Frankreich (seit 1958)
Boston, Vereinigte Staaten (seit 1959)
Köln, Deutschland (seit 1963)
Florenz, Italien (seit 1965)
Kiew, Ukraine (seit 1971)
Xi’an, Volksrepublik China (seit 1974)
Guadalajara, Mexiko (seit 1980)
Zagreb, Kroatien (seit 1981)
Prag, Tschechien (seit 1996)
Partnerstädte:
Jinju, Südkorea
Konya, Türkei
Qingdao, Volksrepublik China
Huế, Vietnam
Istanbul, Türkei
Vientiane, Laos
Wirtschaft und Wissenschaft
Eine wichtige Einnahmequelle ist der Tourismus. Die Sehenswürdigkeiten der Stadt ziehen Japaner aller Altersgruppen an, auch viele ausländische Touristen besuchen die Stadt. Die Stadt hat eine gut ausgebaute touristische Infrastruktur.
Ein weiterer Wirtschaftszweig sind kleine Betriebe und Familienunternehmen, die sich dem traditionellen japanischen Handwerk verschrieben haben. Berühmt ist Kyōto vor allem für seine Seidenmanufakturen (Nishijin, nach dem gleichnamigen Stadtteil) und seine Kimono-Produktion. Ende des 17. Jahrhunderts wurde von Yūzen Miyazaki in Kyōto eine besondere Färbetechnik (Kyō-yūzen) entwickelt, die heute außer in Kyōto fast nur noch in Kanazawa praktiziert wird. In den letzten Jahrzehnten stagniert dieser Sektor allerdings.
Der südliche Stadtteil Fushimi-ku ist neben Niigata und Nada (Kōbe) einer der namhaftesten Entstehungsorte von Sake.
Drittes Standbein der Stadt ist die Elektronik. In Kyōto befinden sich die Zentralen von Nintendo, OMRON, Kyocera, muRata Electronic und Wacoal. Die Hightech-Industrie kann den Rückgang des traditionellen Handwerks jedoch nur teilweise ausgleichen, so dass eine große Zahl Erwerbstätiger täglich nach Osaka pendelt.
Bildung
Universität
Kyōto ist eine Universitätsstadt mit Studenten aus allen Landesteilen. Unter den rund 40 Universitäten und Hochschulen finden sich so namhafte wie:
die staatliche Universität Kyōto (),
die staatliche Präfekturuniversität Kyōto ()
die private Dōshisha-Universität (),
die private Ritsumeikan-Universität (),
die Städtische Kunsthochschule Kyōto (),
die staatliche Pädagogische Hochschule Kyōto (),
die private Ōtani-Universität ()
die private Ryūkoku-Universität (),
die private Fremdsprachenhochschule Kyōto ().
Auch zahlreiche ausländische Kulturinstitute unterhalten Einrichtungen in Kyōto.
Verkehr
Der Hauptbahnhof von Kyōto liegt südlich und damit etwas abseits der Innenstadt. Seit der Eröffnung der ersten Shinkansen-Strecke 1964 wird Kyōto von den Hochgeschwindigkeitszügen angefahren. JR betreibt außerdem anderen Fernverkehr sowie zahlreiche Nahverkehrsstrecken. Der Hauptbahnhof von Kyōto wurde 1997 vollständig neu gebaut und ist architektonisch ebenso attraktiv wie umstritten, da er im Kontrast zum traditionellen Stadtbild Kyōtos steht.
Mehrere Privatbahnen fahren in Kyōto, darunter Hankyū und Keihan nach Osaka. Die städtische Straßenbahn Kyōto – das erste elektrische Verkehrssystem Japans – existiert seit 1978 nicht mehr, nur noch die Keifuku-Straßenbahn verkehrt im Nordwesten der Stadt, und seit 1981 gibt es die U-Bahn Kyōto, die inzwischen zwei Linien umfasst. Eine davon ist zudem über die Keihan-Straßenbahnstrecke nach Ōtsu durchgebunden.
Das Straßennetz von Kyōto ist nach dem Muster alter chinesischer Städte schachbrettartig angelegt. Die großen Straßen sind durchnummeriert, was eine Navigation einfach macht.
Kyōto besitzt ein gut ausgebautes Bussystem, das allerdings unter chronisch verstopften Straßen leidet. Für Touristen ist das Bus-Tagesticket eine preiswerte Möglichkeit, zu den Sehenswürdigkeiten zu gelangen. Die Kartenverkaufsstelle am Hauptbahnhof stellt auch englischsprachige Buspläne zur Verfügung.
Sehenswürdigkeiten
Kyōto hat den Stellenwert des kulturellen Zentrums von Japan.
Von den Bombardierungen des Zweiten Weltkriegs wurde Kyōto als eine von wenigen Städten bewusst verschont. Dadurch ist es mit seinen 1600 buddhistischen Tempeln, 400 Shintō-Schreinen, Palästen und Gärten eine der besterhaltenen Städte Japans. In der Neuzeit kam eine Reihe von Museen wie das Nationalmuseum Kyōto und das National Museum of Modern Art Kyōto dazu. Eine ganze Reihe der berühmtesten Bauwerke Japans befinden sich in Kyōto, und viele davon wurden 1994 von der UNESCO zum Welterbe erklärt. Dadurch ist Kyōto das beliebteste Touristenziel Japans.
Eine Auswahl der Sehenswürdigkeiten:
der Kaiserpalast Kyōto Gosho (), bis 1868 Residenz des Tennō
die kaiserliche Katsura-Villa (), einer von Japans schönsten Architekturschätzen
die kaiserliche Shugakuin-Villa (Shugakuin-rikyū, ) mit einem von Japans schönsten Gärten
Gion (), Zentrum der Geisha-Kultur
Gion-Matsuri
Pontochō (), ein altes Vergnügungsviertel
der Arashiyama () am malerischen Fluss Hozugawa
der Philosophenweg (), eine Route im Osten der Stadt, die an zahlreichen Tempeln vorbeiführt
Burgen und Burgruinen
Burg Nijō, die Burg des Shōgun in Kyōto
Burg Fushimi
Burg Yodo
Berg Funaoka-yama, der die Trümmer des gleichnamigen Schlosses und den Kenkun-Schrein beherbergt
Tempel und Schreine
Tempel
Kiyomizu-dera (), ein hölzerner Tempel auf Pfeilern an einem Berghang
Rokuon-ji () bzw. Kinkaku-ji () nach seinem Wahrzeichen – dem Goldenen Pavillon
Jishō-ji (), bzw. Ginkaku-ji () nach seinem Wahrzeichen – dem Silbernen Pavillon
Ryōan-ji (), berühmt durch seinen Zen-Garten
der Shunkō-in ()
Hongan-ji ()
Higashi Hongan-ji ()
Nishi Hongan-ji ()
Nanzen-ji ()
Tō-ji ()
Chion-in ()
Chion-ji ()
Hōkai-ji ()
Daigo-ji ()
Daitoku-ji ()
Ninna-ji ()
Saihō-ji (, volkstümlich Kokedera, Moos-Tempel)
Tenryū-ji ()
Kōzan-ji ()
Tōfuku-ji ()
Kōryū-ji ()
Daikaku-ji ()
Kurama-dera ()
Sanzen-in ()
Sanjūsangen-dō ()
Shisendō (), Wohnsitz des Dichters Ishikawa Jōzan (1583–1672)
Myōhō-in ()
ausgedehnte Tempel- und Schreinanlage im Maruyama-Park
Hōkō-ji (方広寺) mit dem Mimizuka
Rokuharamitsu-ji
Bukkō-ji
der Shosei-en (Kikoku-tei, „versteckter Orangenhain“), Garten
Schreine
der Heian-jingū (), ein neuzeitlicher Shintō-Schrein zu Ehren der kaiserlichen Familie
Kamo-Schreine ()
Yasaka-Schrein ()
Hirano-Schrein ()
Kitano Tenman-gū ()
Fushimi Inari-Taisha ()
Imamiya-Schrein()
Seimei Shrine()
Die wichtigsten Sehenswürdigkeiten Kyōtos verteilen sich auf drei Gebiete, den Osten, den Norden und den Westen der Stadt, denn die meisten Tempel sind auf den umliegenden Berghängen oder etwas abgelegen (im Norden) erbaut.
Kultur
Kyōto ist ebenfalls für seine Küche bekannt, die typischerweise vor allem pflanzliche Zutaten verwendet und bei aller Einfachheit besonders stilvoll angerichtet wird (beispielsweise Yudōfu, ein Tofu-Gericht). Auch gehören verschiedene Arten von eingelegtem Gemüse (Tsukemono) dazu: Die Gemüsesorten der Umgebung Kyōtos sind meist etwas kleiner und teils geschmacksintensiver als im übrigen Japan.
Kyōto ist das Zentrum der Tee-Zeremonie und des Ikebana und die Geburtsstätte der klassischen japanischen Theaterkünste (Nō-Theater, Kyōgen und Kabuki).
Eine weitere Besonderheit ist der Kyoto-Dialekt, eine gehobenere, vornehme Variante des Kansai-Dialekts, in der sich die alte Hofkultur der ehemaligen Hauptstadt widerspiegelt. Der Kyōto-Dialekt kennt eigene Abstufungen des Keigo, der japanischen Höflichkeitssprache, die im modernen Hochjapanisch fehlen.
Seit 2011 hat die Stadt eine deutsche Kultureinrichtung, die Villa Kamogawa, in der deutsche Stipendiaten für drei Monate leben und arbeiten können.
Die Opernfestspiele finden seit 2013 statt.
Souvenirs
Ein beliebtes Mitbringsel (Miyage) aus Kyōto ist Yatsuhashi, eine japanische Süßigkeit, die aus Reis und Zimt hergestellt wird.
Sport
Kyōto ist die Heimat des Fußballvereins Kyōto Sanga aus der J1 League, dessen Spiele im Sanga Stadium by Kyocera ausgetragen werden.
Persönlichkeiten
Siehe auch
Kyoto-Preis
Aufstand am Hamaguri-Tor
Literatur
Kyōto: Residenz der Kaiser und Götter. In: Geo-Magazin. Hamburg 1979, 3, S. 40–66. Informativer Erlebnisbericht: "Hisako Matsubara, Tochter eines hohen Shinto-Priesters in Kyoto, beschreibt ihre Vaterstadt und die Impulse, die von hier ausgingen und das Land veränderten".
Weblinks
Offizielle Website der Stadt Kyōto (japanisch, englisch, chinesisch und koreanisch)
Japanische Botschaft: Kyoto, die alte Kaiserstadt
Kyōtoer Ansichten
Einzelnachweise
Ort in der Präfektur Kyōto
Millionenstadt
Japanische Präfekturhauptstadt
Ehemalige Hauptstadt (Japan)
Hochschul- oder Universitätsstadt
|
Q34600
| 714.213112 |
622993
|
https://de.wikipedia.org/wiki/Informationszeitalter
|
Informationszeitalter
|
In der engeren Wortbedeutung stellt das Informationszeitalter, auch als Computerzeitalter oder Digitalzeitalter bezeichnet, nach der Agrargesellschaft und dem Industriezeitalter die dritte Epoche der (Wirtschafts- und) Gesellschaftsformen dar. Der Übergang vom Industrie- zum Digitalzeitalter wird als Digitale Revolution bezeichnet. Je nach zugrunde liegenden Parametern gibt es jedoch auch erweiterte Wortbedeutungen.
Informationszeitalter in der engeren Wortbedeutung
Das Hauptmerkmal des Informationszeitalters besteht darin, dass Informationen überwiegend in digitaler Form in der Digitalen Welt gespeichert und übermittelt werden. Gekennzeichnet ist diese Phase auch von der zentralen Bedeutung von Information als Rohstoff und Ware. Erst durch die elektronische Datenverarbeitung und die Globalisierung von Informationsflüssen mit Lichtgeschwindigkeit konnte diese zentrale Stellung erlangt werden.
Der Soziologe Manuel Castells erläutert den Begriff wie folgt:
Informationszeitalter in weiter gefassten Wortbedeutungen
Für Neil Postman ist das Informationszeitalter mit einem exponentiellen Wachstum von Informationen verbunden, über die die Menschheit zu einem bestimmten Zeitpunkt verfügen kann. Das stetige Wachstum der verfügbaren Menge an Informationen beginnt ihm zufolge bereits mit der Erfindung des Buchdrucks durch Johannes Gutenberg. Postman weist ausdrücklich die Engführung der Standarddefinition des Begriffs Informationszeitalter zurück: „Nichts wäre irreführender als die Behauptung, die Computertechnologie habe das Informationszeitalter hervorgebracht. Die Druckpresse hat damit begonnen, und seither sind wir nicht mehr von ihr losgekommen.“
Robert Darnton behauptet, dass jedes Zeitalter ein Informationszeitalter gewesen sei. Er begründet das damit, dass Informationen in der Kommunikation zwischen Menschen immer schon die Form der Nachricht angenommen hätten und dass diese Form ein „Artefakt“ sei.
Gert Scobel fragt sich zwar, „ob nicht die Einführung der Schrift den Anfang des Informationszeitalters markiert“, gibt aber zu bedenken, dass seit der internationalen Vernetzung digitaler Daten sich völlig neue Strukturen ergeben hätten, die es geboten erscheinen ließen, von einer Informationsgesellschaft im engeren Wortsinn zu sprechen.
Siehe auch
Informationsgesellschaft, Wissensgesellschaft
Informationsökonomie
Informationswirtschaft
Literatur
Manuel Castells: Die Netzwerkgesellschaft. Band I Das Informationszeitalter. Leske&Budrich, Opladen 2001. (Originaltitel: The Information Age. 3 Bde. 1996–1998)
Weblinks
Friedrich-Ebert-Stiftung: Das Informationszeitalter
Hannes Michalek: Das Informationszeitalter kann sich nicht einigen über den Begriff der ”Information“. Universität Leipzig. Sommersemester 2006
Einzelnachweise
Historischer Zeitraum
Informatik und Gesellschaft
Zeitalter
|
Q956129
| 106.10198 |
28620
|
https://de.wikipedia.org/wiki/Plautus
|
Plautus
|
Titus Maccius Plautus (* um 254 v. Chr. in Sarsina; † um 184 v. Chr.) war ein römischer Dichter. Er war einer der ersten und produktivsten Komödiendichter im alten Rom.
Leben
Plautus wurde um 254 v. Chr. in dem kleinen apenninischen Bergdorf Sassina (heute Sarsina in der Romagna) geboren. Als Jugendlicher schloss er sich einer der umherziehenden Theatertruppen an. Dann wurde er römischer Soldat, später Kaufmann. Dabei verlor er sein Geld und musste sich als wandernder Handmüller durchschlagen, so berichten antike Viten. Wie viel davon wahr ist, lässt sich nicht mehr feststellen.
Einigermaßen abgesichert ist nur eine Anekdote des großen Gelehrten Varro (1. Hälfte des 1. Jahrhunderts v. Chr.), die in den Noctes Atticae des Aulus Gellius überliefert ist:
Schiffbruch und Arbeit in der Mühle sind aber auch zentrale Motive in den Komödien des Plautus. So besteht die Frage, ob der Inhalt von Plautus’ Komödien autobiografisch geprägt ist oder ob die späteren Vitenschreiber dies nur unterstellt und Details aus den Werken übernommen haben.
Etwa im Alter von 45 Jahren fing Plautus an, Komödien zu schreiben. Komödien waren zu seiner Zeit sehr beliebt. Die seinen – er begann mit Addictus und Saturio – hatten rasch Erfolg beim Publikum, sodass er das Müllerdasein aufgeben und sich ganz dem Schreiben widmen konnte. Plautus starb um 184 v. Chr.
Werke
Unter Plautus' Namen wurden ca. 130 Komödien veröffentlicht. Hiervon gelten nur 21 als echt. Dabei handelt es sich wahrscheinlich um jene Werke, die der antike Philologe Varro in seiner Untersuchung De comoediis Plautinis für echt erklärt hat. In seinen Komödien nahm Plautus Bezug auf aktuelle Ereignisse wie den Zweiten Punischen Krieg gegen Karthago, die Kriege in Griechenland gegen Antigoniden und Seleukiden oder die Gefangennahme des Dichters Gnaeus Naevius. Im Vordergrund stand dabei jedoch immer die Unterhaltung und eine – teilweise derbe – Komik, deren Witz sich vielfach auch dem modernen Leser noch erschließt. Plautus ließ sich in seinem Schaffen stark von der Neuen Komödie, vor allem durch deren berühmtesten Vertreter, Menander, inspirieren. Die dort vorkommenden Motive und Charaktere passte er der römischen Lebenswirklichkeit an. Das Sprechtheater wurde durch Lieder und Flötenspiel ergänzt.
Rezeption
Die Werke von Plautus wurden im 16. Jahrhundert durch den Humanismus wiederentdeckt. Besondere Bedeutung für die frühe Rezeption haben die Ausgaben von Veit Werler, die in den 1510er Jahren entstanden. Plautus’ Werke wurden von späteren Dramatikern verschiedener Epochen für eigene Stücke verwandt. So lehnte sich William Shakespeare in seinem Jugendwerk Die Komödie der Irrungen eng an dessen Stück Menaechmi an. Heinrich von Kleists Tragikomödie Amphitryon ist zunächst eine Übertragung von Molières Amphitryon, der seinerseits aus Plautus’ Komödie Amphitruo schöpfte und nach dem Vorbild von Plautus’ Aulularia sein Stück Der Geizige schrieb. Besonders intensiv beschäftigten sich Gotthold Ephraim Lessing und J.M.R. Lenz mit dem altrömischen Dichter. Lessing studierte ihn gründlich (siehe seine Beiträge zur Historie und Aufnahme des Theaters), was ihn in seinem eigenen Dramenstil beeinflusste. Unmittelbar gestützt auf Plautus’ Trinummus schuf er das Lustspiel Der Schatz. Auch zwei unvollendete Werke, Justin und Weiber sind Weiber, waren Adaptionen der Plautus-Komödien Pseudolus und Stichus. Die Komödie Captivi des Plautus übersetzte Lessing ins Deutsche. Lenz, der Dichter des Sturm und Drang, bearbeitete wahrscheinlich zwischen 1772 und 1774 fünf Komödien des Plautus, wobei er den alten Stoff auf die deutschen Verhältnisse seiner Zeit übertrug. Die von Goethe durchgesehenen Stücke Das Väterchen (Asinaria), Die Aussteuer (Aulularia), Die Entführungen (Miles Gloriosus), Die Buhlschwester (Truculentus), und Die Türkensklavin (Curculio) erschienen 1774 unter dem Titel Fünf Lustspiele nach dem Plautus fürs deutsche Theater.
Der Musicalkomponist und -texter Stephen Sondheim legte seinem 1962 erstmals aufgeführten Broadway-Musical Toll trieben es die alten Römer die Komödie Pseudolus von Plautus zugrunde, wobei die bei Plautus in Athen spielende Handlung nach Rom verlegt wurde. Die Hauptperson in beiden Stücken ist der schlaue Sklave Pseudolus, der herumtrickst, um dem Sohn seines Herren zu seiner Liebe, einer verkauften Sklavin namens Phoenicium (bei Plautus) bzw. Philia (bei Sondheim) zu verhelfen. Das Musical wurde 1966 von Richard Lester verfilmt.
Ausgaben
T. Macci Plavti Comoediae. Hrsg. von Fridericvs Ritschelivs, Friderico Schoell, Georgivs Goetz & Gvstavvs Loewe, 4 Bände, Leipzig 1878–1894.
Plavti Comoediae. Hrsg. von Friedrich Leo, 2 Bände, Berlin 1895–1896.
T. Macci Plavti Comoediae. Hrsg. von Wallace Martin Lindsay, 2 Bände, Oxford 1904–1905.
T. Maccius Plautus: Komödien. Lateinisch und deutsch, hrsg. und übers. von Alfred Klotz, München 1948.
Plaute. Lateinisch und französisch, hrsg. u. übers. von Alfred Ernout, 7 Bände, Paris 1956–1961.
Plautus – Terenz: Antike Komödien. Hrsg. von Walther Ludwig, 2 Bände, München 1966.
Plautus: Truculentus. Hrsg., übers. und komm. von Walter Hofmann, Darmstadt 2001.
Plautus: Komödien. Lateinisch und deutsch, hrsg., übers. u. komm. von Peter Rau, 6 Bände, Darmstadt 2007–2009.
Plautus. Lateinisch und englisch, hrsg. und übers. von Wolfgang de Melo, 5 Bände, Cambridge (Mass.) 2011–2013.
Literatur
Jürgen Blänsdorf: T. Maccius Plautus. In: Werner Suerbaum (Hrsg.): Die archaische Literatur. Von den Anfängen bis Sullas Tod (= Handbuch der lateinischen Literatur der Antike, Band 1). München 2002, S. 183–228.
Benjamin W. Fortson: Language and rhythm in Plautus. Synchronic and diachronic studies. Berlin und New York 2008.
Michael von Albrecht: Geschichte der römischen Literatur von Andronicus bis Boethius und ihr Fortwirken. Band 1, 3., verb. und erw. Auflage. Berlin 2012, S. 141–177.
Erik Gunderson: Laughing awry. Plautus and tragicomedy. Oxford 2015.
Elisabeth Hollmann: Die plautinischen Prologe und ihre Funktion. Zur Konstruktion von Spannung und Komik in den Komödien des Plautus. Berlin 2016.
Rezeption
Barbara R. Kes: Die Rezeption der Komödien des Plautus und Terenz im 19. Jahrhundert. Theorie – Bearbeitung – Bühne, Amsterdam 1988.
Amy Richlin: Slave theater in the Roman Republic. Plautus and popular comedy, Cambridge u. a. 2017.
Weblinks
Plautus im Internet Archive
Plautus' Werke im Original
Biographisches und Inhaltsangaben
Anmerkungen
Autor
Literatur der Antike
Literatur (Latein)
Drama
Geboren im 3. Jahrhundert v. Chr.
Gestorben im 2. Jahrhundert v. Chr.
Mann
|
Q47160
| 97.739759 |
11578
|
https://de.wikipedia.org/wiki/Organist
|
Organist
|
Ein Organist ist ein Musiker, der die Orgel spielt. Die Orgel als Pfeifenorgel oder (selten) als digitale Sakralorgel findet ihre Verwendung vornehmlich in Kirchen und Gottesdiensten. Organisten gibt es auch im Konzertbereich. In der Unterhaltungsmusik, z. B. im Jazz, bezeichnet der Begriff Organist meist den Spieler einer elektronischen Orgel.
Tätigkeit
Der Organist muss zu dem vom Klavier her bekannten Manualspiel (oft auf mehreren Manualen) auch das Pedalspiel beherrschen.
Einerseits erfordert das Orgelspiel die Interpretation des Notentextes, andererseits eine möglichst werkgemäße Auswahl der vorhandenen Klangfarben („Registrieren“). Durch diese gezielte Auswahl von Registern erhält ein auf der Orgel gespieltes Musikstück erst seinen stil- und werkgerechten Klangcharakter.
Zum Organistendienst in der Rolle eines Kirchenmusikers gehören neben dem Literaturspiel und der Improvisation auch Grundkenntnisse im Orgelbau, z. B. das Nachstimmen einzelner Pfeifen, insbesondere von Zungenregistern. Organisten müssen weiterhin über Kenntnisse unter anderem in den Bereichen der Orgelmusik, der Musiktheorie, der Liturgik, der Hymnologie und der Kirchenmusikgeschichte verfügen.
Organisten als Kirchenmusiker
Im Gottesdienst vieler christlicher Kirchen hat das liturgische Orgelspiel seinen festen Platz. Es umfasst das Intonieren und Begleiten des Gemeindegesangs, das Vor- und das Nachspiel entsprechend dem Charakter des jeweiligen Gottesdienstes und das solistische Orgelliteraturspiel während des weiteren Verlaufs der gottesdienstlichen Feier. Mit der Rolle des Organisten ist in einem Gottesdienst zumindest in Deutschland häufig die des Kantors verbunden.
Stellen für reine Organisten im Hauptberuf sind im deutschsprachigen Raum selten und nur an großen und künstlerisch überregional bedeutenden Kirchen (zum Beispiel Thomaskirche (Leipzig), Kölner Dom, Paderborner Dom, Frauenkirche Dresden, Marienkirche (Lübeck)) anzutreffen. Ein Domorganist ist zusammen mit dem Domkapellmeister für die musikalische Gestaltung der Gottesdienste an einer Kathedrale verantwortlich. Organisten geben oft neben dem Spiel in Gottesdiensten auch Konzerte.
Hauptberufliche Organisten im Bereich der christlichen Kirchen finden sich gelegentlich auch auf regionalen Stellen oder im Dienst an mehreren benachbarten Kirchen.
Der Orgeldienst wird oft in Verbindung mit anderen Aufgaben versehen (z. B. Chorleitung, Christenlehre oder Küsterdienst), um ein auskömmliches Einkommen zu erzielen. In kleineren Kirchengemeinden wird der Organistendienst im Nebenamt oder auch ehrenamtlich ausgeübt.
In Frankreich und Österreich ist die Verbindung von Chorleitung und Orgeldienst an größeren Kirchen nicht üblich. Hier gibt es für jede der beiden Aufgaben einen eigens dafür angestellten Musiker.
Auch bei Hochzeiten, Taufen und Begräbnissen wirkt häufig ein Organist mit solistischem Orgelspiel, Begleitung von anderen Musikern sowie der singenden Gemeinde, bei der Trauerfeier in der Friedhofskapelle mit, häufig auf einem elektronischen Instrument oder einem Harmonium.
Konzertorganisten
Die Unterscheidung zwischen kirchlichen Organisten und Konzertorganisten ist nicht immer eindeutig zu treffen. Meist handelt es sich um dieselben Personen, die unterschiedliche Aufgaben übernehmen. Eine zusätzliche spezielle Ausbildung zum Konzertorganisten ist nicht zwingend notwendig. Der Anspruch an die dargebotene Spielqualität kann aber deutlich höher liegen als bei einem Organisten, der beispielsweise an einer Nebenkirche tätig ist. Daher findet man in diesem Bereich tendenziell Musiker, die einen höheren kirchenmusikalischen Ausbildungsstand haben, oder das Instrument Orgel sogar rein als Konzertfach studiert haben. Oft findet man zudem Organisten, ohne nennenswerte Examina, die zwar nebenberuflich und hobbymäßig aktiv sind, aber vom Spielniveau her gesehen gut an professionelle Konzertorganisten heranreichen und so auch im weltlichen Bereich tätig sein können.
Bereits in der Barockzeit wurden im protestantischen Norden in Kirchen Orgelkonzerte veranstaltet, die primär Repräsentationszwecken, weniger geistlichen dienten. Hinzu kommt, dass sich das Repertoire der einzelnen Tasteninstrumente in vielen Bereichen nicht wesentlich voneinander unterschied. Im privaten häuslichen Raum gab es neben den anderen Tasteninstrumenten viele kleinere Orgeln aber auch besaitete Tasteninstrumente mit Pedal. Cembalisten (und auch Cembalistinnen) waren oft gleichzeitig virtuose Organisten. Neben den typischen „weltlichen“ Gattungen für Tasteninstrumente (Toccaten, Sonaten, kontrapunktischen Formen) waren es auch religiöse Werke (etwa Choralvariationen), die außerhalb der Kirche gespielt wurden. Große Bedeutung hatte daneben immer die Improvisation.
Eine wichtige Rolle kommt der Orgel auch im Zusammenspiel mit anderen Instrumenten zu. Seit dem Aufkommen des Generalbasses ist die Orgel eines der möglichen Instrumente zur Ausführung desselben, auch beispielsweise in der frühen Oper.
Im 19. Jahrhundert fand die Orgel – und damit die Organisten – Einzug in die Konzertsäle. Es entstanden nun Kompositionen, in denen die Orgel eigenständiges Mitglied des Orchesters wird oder aber diesem solistisch entgegengestellt wird. Viele große Konzertsäle verfügen nun über Orgeln, die in Solokonzerten oder im Zusammenspiel mit Orchestern erklingen.
Damit treten heute Organisten sowohl im Bereich der „Alten Musik“ wie in den großen Konzertsälen auf. Die Literatur ist somit äußerst vielfältig.
Im Jazzbereich übernimmt der Hammond-Organist oft auch die Funktion des Bassisten mit Hilfe des Pedals.
Ausbildung
Der Begriff oder der Titel des Organisten ist in Deutschland nicht geschützt, so dass sich jeder, der Orgel spielt, grundsätzlich Organist nennen darf.
Für eine umfassende, hauptamtliche Anstellung im kirchlichen Bereich in Deutschland wird, je nach Stellenbeschreibung, ein Abschluss als Bachelor of Music oder als Master of Music vorausgesetzt. Die Tätigkeit als Organist im Nebenamt erfordert, je nach Stellenbeschreibung, einen Abschluss als C-Kirchenmusiker oder eine erfolgreich abgeschlossene kirchliche D-Ausbildung.
Im Jazzbereich ist ein entsprechender Studiengang die Ausnahme. Meist wird die Hammondorgel ähnlich wie andere Keyboard-Instrumente von ausgebildeten Pianisten gespielt, manchmal wird daher die Pedalklaviatur nicht benutzt.
Siehe auch
Liste von Organisten
Literatur
Arnfried Edler: Der nordelbische Organist. Studien zu Sozialstatus, Funktion und kompositorischer Produktion eines Musikerberufes von der Reformation bis zum 20. Jahrhundert (= Kieler Schriften zur Musikwissenschaft. Band 23). Bärenreiter, Kassel u. a. 1982, ISBN 3-7618-0636-1 (Zugleich: Kiel, Universität, Habilitationsschrift, 1978).
Weblinks
Einzelnachweise
Musikberuf (Instrumentalist)
Musikberuf (Kirchenmusik)
|
Q765778
| 108.00479 |
138443
|
https://de.wikipedia.org/wiki/Theta
|
Theta
|
Das Theta (, rekonstruierte altgriechische , griechisches Neutrum , Majuskel Θ, Minuskel ϑ oder θ) ist der achte Buchstabe des griechischen Alphabets und hat nach dem milesischen System den Zahlwert 9.
Im Neugriechischen heißt der Buchstabe [] und wird wie ein scharfes englisches th (stimmloser interdentaler Frikativ, „Lispellaut“) ausgesprochen.
Verwendung
In der Physik
ist das kleine Theta θ das Zeichen für die Celsius-Temperatur, wobei hier häufig auch die zweite Variante des kleinen Thetas ϑ verwendet wird;
ist das kleine Theta θ das Zeichen für den Verdrehwinkel;
ist das große Theta Θ das Zeichen für die magnetische Durchflutung sowie für das Trägheitsmoment;
ist das große Theta Θ das Dimensionssymbol für die Temperatur;
ist das große Theta Θ das Zeichen für den Kontaktwinkel an Phasengrenzen.
In der Astronomie
ist das große Theta Θ das Zeichen für die Sternzeit – ebenso wie in der Geodäsie;
ist das kleine Theta ϑ meist der siebent- bis neunthellste Stern im jeweiligen Sternbild;
dient Theta als nähere Bezeichnung zweier Meteorströme (Theta-Centauriden und Theta-Ophiuchiden), um in diesen großen Sternbildern die Lage des Radianten genauer zu beschreiben.
In der Meteorologie
ist das kleine Theta θ das Zeichen für die potentielle Temperatur.
In der Mathematik
ist das kleine Theta θ die Koordinate des Polarwinkels bei Kugelkoordinaten;
ist das kleine Theta θ das Zeichen für den Winkel einer Fläche;
ist das große Theta Θ eines der Landau-Symbole;
werden einige Funktionen als Thetafunktion bezeichnet;
ist das kleine Theta θ die Bezeichnung für einen unbekannten Parameter einer Wahrscheinlichkeitsverteilung, das große Theta Θ für den Parameterraum.
In der Finanzmathematik
Bei Optionsscheinen misst diese Kennzahl den Zeitwertverfall einer Option. Das Theta gibt an, wie viel ein Optionsschein, wenn alle anderen Faktoren gleich bleiben (ceteris paribus), in einem bestimmten Zeitraum an Wert verliert. In der Praxis wird etwa der prozentuale Wertverfall pro Woche verglichen.
Im Internationalen Phonetischen Alphabet
bezeichnet das kleine Theta den stimmlosen dentalen Frikativ, etwa wie beim engl. Wort theft [θɛft, Diebstahl].
In der Neurologie/Neuropsychologie
bezeichnet das kleine Theta θ eine bestimmte Frequenz im Elektroenzephalogramm (EEG).
In der Volkswirtschaftslehre
bezeichnet das kleine Theta θ den Reservesatz, den ein Finanzinstitut aufgrund gesetzlicher Grundlagen halten muss.
In der Populationsgenetik
bezeichnet das kleine Theta θ die genetische Differenzierung zwischen Populationen (analog zu Wrights FST).
In der Bodenkunde
bezeichnet das große Theta den volumetrischen Wassergehalt:
In der Geodäsie
ist das kleine Theta ϑ der Gesamtbetrag der Lotabweichung.
In der Strukturgeologie
zur Benennung eines Klast-Typus (siehe Theta-Klast)
Beispiele
Thales von Milet ()
Weblinks
Einzelnachweise
Griechischer Buchstabe
|
Q14398
| 147.594325 |
126501
|
https://de.wikipedia.org/wiki/T%C3%B3rshavn
|
Tórshavn
|
Tórshavn [] (, altnordisch Þórshǫfn; , kurz Havn) ist die Hauptstadt der Färöer und liegt an der Ostküste Streymoys. Sie hat eine Fläche von 158 km².
Als das politische, wirtschaftliche und geistige Zentrum des Gebietes bietet die Stadt weit mehr Infrastruktur, als man in einer vergleichbar großen mitteleuropäischen Kleinstadt erwarten würde. Die Stadt bezeichnete sich früher oft als die kleinste Hauptstadt der Welt, was aber nicht korrekt ist.
Bekanntestes Motto der Stadt ist Tann deiliga Havn („Das schöne Thorshaven“), das auch der Titel eines Liedes ist.
Name
Der theophore Name der Stadt kommt vom germanischen Gott des Donners und Blitzes Thor (färöisch: Tórur) und dem skandinavischen Wort für Hafen, havn. Tórshavn heißt also wörtlich: „Thors Hafen“. In der färöischen Sprache wandelte sich der stimmlose dentale Frikativ /þ/ meist zu /t/. Der altnordische Name Þórshöfn lebt heute noch im Isländischen fort.
Tórshavn wird von den Färingern meist nur Havn [] genannt, also einfach „Hafen“.
Das Stadtwappen zeigt den Thorshammer Mjölnir und kündet so von der vorchristlichen Gründungszeit des Ortes.
Geographie und Klima
Tórshavn liegt geografisch im Zentrum des Archipels an der südlichen Ostküste der größten Insel Streymoy auf 62° nördlicher Breite und 6° 45' westlicher Länge. Die östlich vorgelagerte Insel Nólsoy bildet einen zusätzlichen Schutz für den natürlichen Hafen der Stadt. Man sagt, dass Tórshavns Entwicklung zur Hafenstadt ohne den „Wellenbrecher“ Nólsoy undenkbar gewesen wäre.
Auf den ohnehin schon feuchten Färöern gilt Tórshavn als besonders nebelgefährdet.
Das zusammenhängende urbane Siedlungsgebiet der Stadt umfasst die Orte Argir im Süden und Hoyvík im Norden und hatte am 31. Dezember 2002 genau 17.064 Einwohner bei einer Bevölkerungsdichte von 116 Ew./km². Die Kommune Tórshavn erstreckt sich über diverse weitere Nachbarorte mit etwa 1400 zusätzlichen Einwohnern (siehe dort).
Nordwestlich der Stadt erhebt sich der 345 Meter hohe Berg Húsareyn, südwestlich der 351 Meter hohe Kirkjubøreyn.
Geschichte
Im Jahre 1075 wurde die Stadt erstmals urkundlich erwähnt und ist damit nach London die vermutlich älteste Hauptstadt Nordeuropas. Das Thing auf der hier gelegenen Halbinsel Tinganes geht aber wahrscheinlich auf ca. 850 zurück. Norwegische Flüchtlinge flohen vor der Tyrannei Haralds I von Norwegen und siedelten hier, im Jahr 1000 wurde auf dem Thing aufgrund der Missionarsarbeit des Sigmundur Brestisson das Christentum angenommen, wie die Färingersaga erzählt.
Ab 1271 wurde die norwegische Herrschaft mit einem Monopolhandel über die Färöer errichtet. Die Handelsvertreter ließen sich in der Folge in Tórshavn nieder. Schiffe aus Bergen brachten regelmäßig Salz, Getreide und Holz. Unter Bischof Erlendur wurde hier die Munkastovan errichtet.
1539 wurde das protestantische Christentum eingeführt.
1580 ließ Magnus Heinason die Festungsanlage Skansin am Nordende des Hafens zum Schutz vor Piraten erbauen. Unter der erdrückenden Gabelzeit vernichtete 1673 ein Großbrand weite Teile von Tinganes. Wertvolle Dokumente fielen den Flammen zum Opfer.
1709 übernahm die dänische Krone den Monopolhandel. Im selben Jahr suchte eine Pockenepidemie die Stadt heim, woran 250 der 300 Bewohner starben. Erst mit dem Rybergs Handel entwickelte sich Tórshavn dann Ende des 18. Jahrhunderts zu einer Stadt im eigentlichen Sinne. 1856 wurde der Monopolhandel aufgehoben und das Løgting bezog seinen heutigen Sitz.
1866 wurde die Kommune Tórshavn gebildet und damit die erste Bürgerversammlung des Ortes. Seitdem ist Havn offiziell die Hauptstadt der Färöer. Am 1. Januar 1909 bekam die Stadt den Status einer dänischen Handelsstadt zugesprochen. 1927 wurde der Tórshavn Havn ausgebaut und mit einer großen Kaimauer versehen. Seitdem hat Tórshavn einen richtigen Seehafen.
Unter der britischen Besatzung der Färöer im Zweiten Weltkrieg war Tórshavn mit der Festung Skansin Hauptquartier der Royal Navy. Zwei Seekanonen zeugen noch heute davon.
1974 wurde Hvítanes eingemeindet. Hoyvík folgte 1978, Argir 1997, Kollafjørður 2001 und 2005 schließlich die Kommunen Nólsoy, Hestur und Kirkjubøur.
Bevölkerungsentwicklung
Entwicklung der Einwohnerzahl der Stadt Tórshavn (ab 1985 zum 31. Dezember):
Wirtschaft und Verkehr
Tórshavn ist Dienstleistungs- und Verwaltungszentrum.
Hafen von Tórshavn
Tórshavn ist der wichtigste Handels- und Fährhafen der Färöer und damit eine internationale Verkehrsdrehscheibe.
Es ist Heimathafen der Norröna, einer modernen Autofähre, die direkt nach ihrer Inbetriebnahme nach Dänemark, Norwegen, Shetland, Schottland und Island fuhr. Da die Fahrten nach Shetland und später nach Schottland (Scrabster) sowie der Abstecher nach Bergen (Norwegen) sich als unrentabel erwiesen, bedient die Norröna seit Januar 2009 nur noch die Strecke Dänemark–Färöer–Island. Zwischen Dänemark und Färöer verkehrt die Linie im Sommer zweimal in der Woche und bis nach Island einmal wöchentlich. In den Wintermonaten wird auch die Strecke zwischen dem Hirtshalser Hafen in Dänemark und Tórshavn nur einmal wöchentlich bedient. Häufig liegen auch Kreuzfahrtschiffe für einen kurzen Aufenthalt im Hafen.
Der regionale Fährverkehr nach Nólsoy und Suðuroy wird von Strandfaraskip Landsins abgewickelt. Der Verkehr nach Hestur und Sandoy läuft inzwischen über den Landweg nach Gamlarætt an der Westküste, von wo sich die Passage zur See erheblich verkürzt hat.
Im Hafen befindet sich der Hauptstandort des färöischen Werftenverbundes Tórshavnar Skipasmiðja.
Busverkehr
In Tórshavn, das sich über ein relativ weites Areal erstreckt, verkehren mehrere Stadtbuslinien. Von hier aus fahren auch Überlandbusse, z. B. durch den 2002 eröffneten Vágartunnel zum Flughafen Vágar (Fahrtzeit 1 Stunde). Seit dem 1. Januar 2007 verkehren die Tórshavner Stadtbusse zum Nulltarif.
Hubschrauberlandeplätze
Vom Bodanes Heliport (ICAO-Code EKTB) bietet Atlantic Airways eine Hubschrauberlinie u. a. zum Flughafen Vágar, nach Klaksvík (ICAO-Code EKKV) und der Insel Koltur an. In der Nähe des Krankenhauses von Tórshavn befindet sich ein Hubschrauberlandeplatz für Rettungshubschrauber.
Politik und Verwaltung
Mitten im Hafen befindet sich die Halbinsel Tinganes mit dem Løgting, einem der ältesten bis heute bestehenden Parlamente der Welt, und der färöischen Landesregierung. Seit dem 1. Januar 2017 ist Annika Olsen Bürgermeisterin der Stadt.
Seit 1932 besteht in Tórshavn das Nationalarchiv der Färöer, zunächst ein reines Verwaltungsarchiv, besitzt es heute auch die größte Literatursammlung in färöischer Sprache, die fast lückenlosen genealogischen Daten der Inselbevölkerung der letzten 200 Jahre und übernimmt Aufgaben der Schulung von Verwaltungspersonal.
Die Reichsombudsschaft auf den Färöern hat ihren Sitz im Stadtzentrum und vertritt das Königreich Dänemark vor Ort.
Stadtverwaltung
Die Stadtverwaltung von Tórshavn bietet folgende, für Besucher relevante, Dienste an:
Stadtbücherei in der Fußgängerzone,
Schwimmhalle beim Sportzentrum Gundadalur,
Jugendzentrum Margarinfabrikkin als Treffpunkt zum Musizieren und Spielen,
Galerie Smiðjan für Hobbykünstler, die gerne ausstellen möchten.
Städtepartnerschaften
Tórshavn unterhält Städtepartnerschaften mit
Nuuk, Grönland
Reykjavík, Island
Stavanger, Norwegen
Aberdeen, Vereinigtes Königreich
Esbjerg, Dänemark
Mariehamn, Åland (Finnland).
Sehenswürdigkeiten
In der Stadt
Zur Ólavsøka am 28. und 29. Juli eines jeden Jahres findet in Tórhavn das bedeutendste Volksfest des Landes statt.
Die Halbinsel Tinganes mit ihren engen Gassen bildet den ältesten Teil der Stadt.
Am Ostufer des Hafens steht die alte Festung Skansin mit ihrem charakteristischen Leuchtturm.
Die Tórshavner Domkirche wurde 1788 erbaut und beherbergt ein Altarbild von 1647.
Im Stadtzentrum befindet sich die Fußgängerzone Niels Finsensgøta als Ladenzeile. Dort sind auch die Stadtbibliothek und einige Buchläden. An deren Beginn befindet sich das 1894 erbaute Rathaus und gegenüber davon die Touristeninformation. Nach 5–10 Minuten Fußweg in nördlicher Richtung erreicht man das 1977 eröffnete Einkaufszentrum SMS, welches einem mittelgroßen Einkaufszentrum einer europäischen Großstadt entspricht.
Der Tórshavner Stadtpark ist der größte „Wald“ auf den Färöern. Ein Mahnmal im Tórshavner Stadtpark erinnert an die 132 getöteten Fischer und Seemänner der Färöer im Zweiten Weltkrieg. Etwas oberhalb der Stadt dehnt sich im Nordwesten der kleinere Wald Viðarlundin í Kerjum aus.
Direkt am Stadtpark liegt die katholische Marienkirche, ein modernes Kleinod aus Stein, Glas und Kupfer mit Glasmalereien von Tróndur Patursson.
Das Kunstmuseum der Färöer beheimatet die größte Sammlung färöischer Kunst.
Das Historische Museum der Färöer stellt die Kultur- und Naturgeschichte der Färöer dar. Ihm ist eine Bibliothek, eine Bootshalle und ein Freilichtmuseum angeschlossen.
Das Haus des Nordens ist nicht nur das Kultur- und Kongresszentrum der Färöer, sondern auch ein architektonisches Highlight.
Die sehenswerte Universität der Färöer befindet sich am Park Viðarlundin á Debesartrøð.
Westlich der Innenstadt ist die 1975 eingeweihte, moderne Kirche Vesturkirkjan sehenswert. Gegenüber befindet sich die Parkanlage Viðarlundin úti í Grið.
Nordöstlich davon gelangt man zum Wasserfall Svartifossur im Tal Hoydalar.
Tórsvøllur ist das Stadion, wo der färöische Fußball seinen bekanntesten Platz hat.
Kneipen in der in Deutschland üblichen Form sind eher selten. Alkohol war bis 1992 auf den Färöern stark reglementiert. Leichtbier ist frei verkäuflich. Stärkeres Bier und sonstige alkoholische Getränke sind nur in den staatlichen Wein- und Spirituosenmonopolhandlungen sowie in Restaurants etc. mit Schankerlaubnis erhältlich. Klassiker sind der Klubbin und das (zurzeit geschlossene) Vertshúsið Restorff (eigene Brauerei).
Die besten Restaurants sind das Fischrestaurant Barbara, das traditionsreiche Hotel Hafnia mitten im Zentrum, und das Merlot. Das mit zwei Guide-Michelin-Sternen ausgezeichnete Restaurant Koks ist nach Leynar umgezogen.
Umgebung
Direkt vor Tórshavn liegt die kleine Insel Nólsoy mit ihrem Hafen. Mehrmals täglich verkehrt die Fähre Ternan dorthin.
Etwa zwei Kilometer nördlich der Altstadt von Tórshavn liegt der kleine Wasserfall Svartafoss (färöisch Svartifossur).
Westlich von Tórshavn gelangt man (leichter Wanderweg oder werktags per Stadtbus) in den kulturhistorisch bedeutendsten Ort der Färöer: Kirkjubøur mit seiner Dom-Ruine und dem ältesten Haus, welches aus der Wikingerzeit stammt, heute ein Museum.
Etwas oberhalb der Stadt liegt das renommierte Hotel Føroyar an der alten Ausfallstraße 10 in Richtung Norden über die Berge. Von hier genießt man einen Ausblick über die ganze Stadt.
Heute benutzen Autofahrer, die in den Norden fahren wollen, aber die bequemere Straße 50 an der Westküste über Hvítanes und den Tunnel hinter Kaldbaksbotnur.
Neben den Konsulaten diverser Staaten gibt es hier Museen, Theater, Bibliotheken, die Universität, eine pädagogische Hochschule, das Zentralkrankenhaus, Hotels, Restaurants, und – einen Park. Dieser Park ist die einzige Art Wald auf den Färöern.
Architektonisches Glanzstück und kultureller Mittelpunkt der Färöer ist das 1983 eingeweihte Haus des Nordens (Norðurlandahúsið) mit seinem charakteristischen Grassoden-Dach und einer kühnen Architektur. Es wird vom Nordischen Rat betrieben und ist einer der beliebtesten Treffpunkte der Stadt. Die Tórshavner sind sehr stolz auf dieses Gebäude und die dort stattfindenden Ereignisse, wie zum Beispiel die Konzerte des Färöischen Symphonieorchesters.
Bildung
Tórshavn ist Sitz der Universität der Färöer.
Persönlichkeiten
Literatur
William Heinesen und John Davidsen: Tann deiliga Havn. Zeichnungen von Ingálvur av Reyni. Tórshavn: H.N. Jacobsens Bokahandil, 1953, 19862 (färöisch).
William Heinesen: Fortællinger fra Thorshavn / i udvalg og med forord af Erik Vagn Jensen. Kopenhagen: Gyldendal, 19742; ISBN 87-00-78402-8 (dänisch).
Jákup Pauli Gregoriussen: Tórshavn vár miðstøð og borg II: tekningar úr Havn. Velbastað: Forlagið í Støplum, 2000. ISBN 99918-914-4-7 (Zusammenfassungen auf Dänisch und Englisch).
Jens Pauli A. Nolsøe: Havnar søga 1. Tórshavn: Tórshavnar Býráð, 2004; ISBN 99918-62-01-3 (Stadtgeschichte Band 1).
Jens Pauli A. Nolsøe: Havnar søga 2. Tórshavn: Tórshavnar Býráð, 2004: ISBN 99918-62-02-1 (Stadtgeschichte Band 2).
Weblinks
Torshavn.fo
Touristinformation Tórshavn
Faroeislands.dk – Tórshavn (private Website, englisch)
Einzelnachweise
Torshavn
Geographie (Kommune Tórshavn)
|
Q10704
| 193.815139 |
206194
|
https://de.wikipedia.org/wiki/Forint
|
Forint
|
Der Forint ist die Währung Ungarns. Ein Forint ist formal in 100 Fillér oder Filler (Abkürzung f; deutsch: „Heller“) eingeteilt, diese Einheit hat jedoch seit Ende der 1990er Jahre keine Bedeutung mehr. Nach dem Ende des Zweiten Weltkriegs wurde der Forint 1946 wieder eingeführt und hielt sich bis Mitte der 1980er Jahre stabil. Nach dem Zusammenbruch des sozialistischen Regimes kam es 1991 mit dem Wandel von Zentralverwaltungswirtschaft zu freier Marktwirtschaft zu einer Inflation. Der Wert des Forints fiel drastisch und im Jahr 1991 lag die Inflationsrate bei 32,2 %, im Jahr 2009 dagegen nur noch bei 5,6 %.
Als EU-Mitglied wird Ungarn den Forint aufgrund der Verpflichtungen in den EU-Verträgen durch den Euro ersetzen, dazu muss Ungarn aber zunächst den Wechselkursmechanismus II erfüllen.
Geschichte
Der Forint bekam seinen Namen vom Florin, einer nach der Stadt Florenz benannten Goldmünze, die sich im 13. Jahrhundert in ganz Europa verbreitete. Auch andere Währungen wie der Gulden waren vom Florin abgeleitet. In Ungarn wurde der Forint erst 1325 durch König Karl Robert von Anjou (ung. Károly Róbert) eingeführt. Im 14. und 15. Jahrhundert war Ungarn der größte Goldproduzent Europas. Der Forint zählte bis zum 17. Jahrhundert zu den stärksten Währungen der Region. Der Fillér hat seinen Namen vom Heller.
Die Osmanen beherrschten Ungarn im 16. und 17. Jahrhundert. Als die Macht nach 150 Jahren allmählich nachließ, begann die Regierungszeit der Habsburger. Aber auch das führte nicht zur Befriedung des Volkes, so dass es zu mehreren Aufständen kam. Vor allem die reiche Adelsfamilie Rákóczi war hierbei aktiv beteiligt. Ferenc II. Rákóczi ging als Führer der Rebellion als ungarischer Nationalheld in die Geschichte ein. Er ziert heute noch den 500-Forint-Schein. Rákóczi schuf während der Freiheitskriege eine neue Währung, indem er die Habsburger Münzen (1,10 und 20 Poltur) mit seinem Siegel überprägen ließ. Dieser Vorgang wird auch Kontramarkierung genannt.
In Österreich-Ungarn wurde der Forint ab 1868 für den ungarischen Reichsteil geprägt, bevor er mit der Währungsreform von 1892 durch die Österreichisch-ungarische Krone (Korona) ersetzt wurde. Nach dem Zerfall der Donaumonarchie wurde die Ungarische Krone eingeführt, die wiederum als Reaktion auf die von 1921 bis 1924 andauernde Inflation 1927 vom Pengő („klingende Münze“) abgelöst wurde. Schon 1931 wurde der Goldpengő mit 130 Trillionen Papierpengő bewertet. Am 3. Juni 1946 wurden Noten im Wert von 100 Trillionen Pengő in Umlauf gebracht und am 11. Juli 1946 wieder eingezogen. Kurz danach wurde der Adopengő (dt. Steuerpengő) eingeführt. Der Kurs zwischen Pengö und Steuerpengö wechselte ständig. Der Pengő erlitt eine so hohe Abwertung, dass dies als Inflationsweltrekord ins Guinness-Buch der Rekorde einging.
Nach dieser Hyperinflation und dem damit einhergehenden Geldchaos ist seit dem 1. August 1946 der Forint wieder offizielle Währung Ungarns. Ein Forint wurde als 4·1029 (400 Quadrilliarden, ausgeschrieben 400.000.000.000.000.000.000.000.000.000) Pengő oder 200 Millionen Steuerpengő festgesetzt.
Die kommunistische Führung, die ab 1948 regierte, ließ im Zuge der Planwirtschaft keinen Spielraum für einen Aufschwung des Forints. Trotz verschiedener Maßnahmen, darunter die Kontrolle der Ölpreise an der Grenze sowie dem Versprechen stabiler Inlandspreise, begannen auch in Ungarn die Preise sowie die Kosten für Devisen-Anleihen zu steigen. Die im Jahr 1946 festgelegten Nennwerte der Geldscheine reichten nicht mehr aus, was dazu führte, dass 1970 die erste 500-Forint-Note gedruckt wurde. 1983 folgte dann die 1000-Forint-Note und 1991 der 5000-Forint-Schein.
Die Änderung des politischen Systems im Jahr 1989 gab dem Forint erstmals die Chance, sich unter marktwirtschaftlichen Bedingungen zu entwickeln. Dies erwies sich als schwieriger Prozess. Die schnelle Freigabe der verbliebenen regulierten Preise sorgte im Jahr 1990 für eine Inflation von 33,35 Prozent und 1991 von 32,22 Prozent. Durch die relative wirtschaftliche Selbständigkeit Ungarns hatte das Land im Vergleich mit den anderen ehemals sozialistischen Ländern allerdings den niedrigsten Inflationswert aufzuweisen.
Das Vertrauen der Ungarn in den Forint war sehr gering, so dass die meisten Menschen ihre Ersparnisse in Devisen, vorzugsweise D-Mark oder US-Dollar, hielten. Erst Mitte der 1990er Jahre begann sich dieser Trend umzukehren und 2001 wurde der Forint für voll konvertierbar erklärt.
Ausgabeformen
Münzen
1946 wurden die Münzen zunächst im Wert von 2, 10 und 20 Fillér und 1, 2 und 5 Forint geprägt. 1947 folgten dann 5 Forint, sowie 1948 5 und 50 Fillér. Der Fillér bestand zunächst aus Kupfer-Verbindungen und der Forint aus Aluminium. Bis 1947 wurden wegen des Goldstandards auch echte Silbermünzen geprägt.
Alte Münzen (Serie ab 1949)
Die folgende Tabelle zeigt eine detaillierte Übersicht über die einzelnen Münzen.
Im Laufe der Jahre wurden immer wieder neue Münzen geprägt, die sich im Aussehen aber nicht wesentlich von den in der oben aufgeführten Tabelle unterscheiden. Bei den Aluminium-Münzen wurde über die Jahre noch Magnesium als Material hinzugefügt.
Die 10-Forint-Münze erschien 1983 auch als Kupfer-Aluminium-Nickel-Verbindung. Die Farbe der Münze änderte sich von Silber zu Gold.
Aktuelle Münzen (Serie ab 1990)
Seit dem 15. Juni 2009 sind Münzen zu 5, 10, 20, 50, 100 und 200 Forint im Umlauf. Die Fillér-Münzen wurden 1999 eingezogen. Ab dem 1. März 2008 wurden auch die Ein- und Zwei-Forint-Stücke wegen der geringen Verwendung seitens der Verbraucher und der fehlenden eigenständigen Kaufkraft eingezogen. Bei Barzahlungen im Einzelhandel wird derzeit der Rechnungsbetrag auf die nächste durch 5 teilbare Zahl auf- oder abgerundet. Bis 1. März 2012 war eine Einwechslung dieser Münzen bei der ungarischen Zentralbank Magyar Nemzeti Bank möglich. Am 15. Juni 2009 wurde die neue 200-Forint-Münze in Umlauf gebracht, welche die entsprechende Banknote ersetzte.
Die folgende Tabelle zeigt eine detaillierte Übersicht über die aktuellen Münzen:
Gedenkmünzen
Die erste Gedenkmünze nach der letztmaligen Forinteinführung 1946 war 1948 eine Serie zur 100. Jahreswende der Revolution und des Freiheitskrieges 1848–1849, entworfen von József Reményi. Sie zeigt ein Porträt von Sándor Petőfi; am Rand ist der Ausspruch „Wir schwören, wir schwören“ eingefräst. Die Münze erschien in 5-, 10- und 20-Forint-Prägungen.
Die nachfolgende Tabelle zeigt ausgewählte Gedenkmünzen von 1948 bis 2010:
Im Jahr 2010 wurde zuletzt die Gedenkmünze zum Weltkulturerbe Őrségi geprägt. Diese viereckige Silbermünze zeigt auf der Vorderseite die Wert- und Jahreszahl und in Umschrift „Republik Ungarn“. Auf der Rückseite ist der gleichnamige Őrségi-Nemzet-Park abgebildet. Die Münze ist im Wert von 5000 Forint erschienen.
Banknoten
Es gibt Banknoten zu 500, 1000, 2000, 5000, 10.000 und 20.000 Forint. Auf ihnen sind berühmte Persönlichkeiten der ungarischen Geschichte auf der einen Seite und dazugehörende Schlösser, Städte und Kunstwerke auf der anderen Seite abgebildet.
Die 200-Forint-Noten sind seit dem 16. November 2009 kein gültiges Zahlungsmittel mehr, werden aber bis zum 16. November 2029 von der Magyar Nemzeti Bank und anderen Banken umgetauscht.
1946 wurden zunächst 10- und 100-Forint-Scheine eingeführt. Wegen ihrer schlechten Qualität, bedingt durch den Offsetdruck, mussten die Scheine aber bereits 1947 wieder eingezogen und durch Scheine besserer Qualität ersetzt werden. 1947 wurden Scheine im Wert von 10, 20 und 100 Forint gedruckt.
Alte Banknoten (Serie ab 1947)
Im Lauf der Jahre erschienen unter den verschiedenen Regierungen immer wieder Neuauflagen der Scheine. Das Aussehen blieb aber im Wesentlichen gleich. Auffallendste Änderung sind die vier verschiedenen verwendeten Wappentypen, so wurde Anfang der 90er Jahre die Trikolore mit einem fünfzackigen Stern (3. Wappen) durch ein Wappen mit Krone und Kreuz ersetzt.
Alte Banknoten (Serie ab 1997)
Die Größe aller Banknoten ist identisch. Sie beträgt 154 × 70 mm.
Der 200er ist inzwischen im Umlauf durch eine Münze ersetzt. Seit 2008 existieren Banknoten mit OMRON-Kreisen. Das Design der anderen Noten wird seit 2014 überarbeitet: Porträts und Bilder bleiben, aber neue Sicherheitsmerkmale werden hinzugefügt.
Aktuelle Banknoten (Serie ab 2014)
Herstellung von Münzen und Banknoten
Ungarische Banknoten werden auf Bestellung der Magyar Nemzeti Bank (MNB) durch die Pénzjegynyomda Zrt. (Hungarian Banknote Printing Company), ein Unternehmen der MNB, hergestellt. Die Druckerei existiert seit den 1920er-Jahren, auch die ersten Banknoten wurden hier gedruckt.
Das spezielle Banknotenpapier, welches für den Druck von Forint-Banknoten benötigt wird, wird von der Diosgyor Papermill produziert. Diese Papierfabrik ist eine hundertprozentige Tochtergesellschaft der Hungarian Banknote Printing Company, eines traditionsreichen Unternehmens mit über 200-jähriger Geschichte. Die Münzen werden im Auftrag der MNB von der Ungarischen Prägeanstalt (Magyar Pénzverő Zrt.) geprägt, ebenfalls ein Unternehmen der Zentralbank. Auch sie existiert seit den 1920er-Jahren. Die Umlaufmünzen wurden 1993 ausgetauscht. In den 1990er Jahren wurden alle drei Betriebe vollständig saniert und so werden die neuen Banknoten und Münzen mit modernsten Werkstoffen und Technologien produziert.
Außenwert des Forint
Der Außenwert des Forint zeigt die historischen Wechselkurse zu Euro, US-Dollar, britischem Pfund und japanischem Yen im Zeitverlauf.
Wechselkurs zum Euro
Im Mehrjahres-Trend hat der Forint in den letzten 15 Jahre kontinuierlich an Wert verloren.
Wechselkurs zum US-Dollar
Die Tabelle zeigt, dass die Kurse im Verlauf von 1995 bis 2001 stark angestiegen sind. Im April 2001 bekam man für einen Dollar 298,96 Forint. Ab Mai 2001 verlor der US-Dollar im Gegensatz zum Forint wieder an Wert. Im Juli 2008 bekam man für einen US-Dollar nur noch 146,58 Forint.
Wechselkurs zum Britischen Pfund
Auch die Kurse des Britischen Pfund steigen im Verlauf bis 2001 stark an. Der Höchstwert liegt hier ebenfalls im April 2001 bei 429,06. Seit Mai 2001 fallen die Kurse stetig. Die 400-Forint-Grenze wurde seither nicht wieder passiert. Im Oktober 2009 bekam man für ein Pfund 292,58 Forint.
Wechselkurs zum Japanischen Yen
Der Höchststand des Forint lag im Januar 2000 bei 2,62. Bis Juli 2008 fiel der Kurs wieder soweit ab, dass man für einen Yen nur noch 1,37 Forint bekam. Seit 2009 erholt sich der Kurs wieder und erreichte im Februar 2009 ein Hoch mit 2,52 Forint pro Yen.
Euro und WKM II
Ungarn ist nicht Mitglied im „Eurowarteraum“ WKM II, war aber mit dem Beitritt zur Europäischen Union die Verpflichtung eingegangen, den Euro zu übernehmen. Allerdings lagen in Ungarn Inflation und Staatsverschuldung weit über den EU-Konvergenzkriterien. Sein Haushaltsdefizit lag im Jahre 2006 bei über neun Prozent des Bruttoinlandsprodukts und war damit das größte innerhalb der EU. Die Neuverschuldung könnte das Land jedoch im Jahr 2009 auf 5,7 Prozent absenken. Für 2010 zielte die Regierung auf maximal 4 Prozent des BIP; tatsächlich erreicht wurden 4,2 Prozent.
Die Nationalbank gab den Wechselkurs des Forint frei und setzte damit die zuvor geltende Schwankungsbreite von maximal 15 Prozent zum Euro aus. Dies wurde als Instrument eingesetzt, um die Inflation von nahezu 8 Prozent zu bremsen. Sie betrug im September 2011 gegenüber September 2010 noch 3,7 Prozent.
Auch 2022 lag Ungarns Haushaltsdezifit mit 6,2 Prozent weit über dem Euro-Zone-20-Mittelwert von 3,6 und gleichauf mit Rumänien nur vor Italien mit 8 Prozent. Seine gesamte Staatsverschuldung dagegen lag mit 73,3 Prozent nicht viel höher als die Deutschlands von 66,3 und deutlich unter dem Euro-Zone-Mittelwert von 91,5 Prozent.
Forint, IWF und Finanzkrise
Ungarn ist seit dem 6. Mai 1982 Mitglied im Internationalen Währungsfonds. Bis zum 5. November 2008 bekam Ungarn in Form von Bereitschaftskrediten und erweiterten Fondsfazilitäten ca. 2,567 Mrd. Sonderziehungsrecht, kurz SDR, des IWF bewilligt. Davon nahm die ungarische Regierung ca. 1,381 Mrd. SDR auch in Anspruch. Der komplette Betrag wurde in der vorgegebenen Zeit wieder zurückbezahlt.
Im Zuge der Wirtschafts- und Finanzkrise, von der Ungarn besonders stark betroffen war, bewahrte der IWF durch einen Bereitschaftskredit in Höhe von ca. 10,537 Mrd. SDR das Land vor dem Bankrott. Auch die Europäische Zentralbank und die EU halfen Ungarn mit Milliardenbeträgen. Ungarn nahm auch 7,637 Mrd. SDR des am 6. November 2008 gewährten Kredits des IWF in Anspruch.
Am 5. Oktober 2010 lief der Kredit aus. Auf folgende Zahlungen an den Fonds hatte sich Ungarn mit dem IWF geeinigt.
Weblinks
Magyar Nemzeti Bank – Ungarische Nationalbank
Abbildungen der verschiedenen Münzen
Abbildungen der verschiedenen Scheine
Ungarische Münzen-Katalog mit Abbildungen
Geschichte des Forint
historische Wechselkurse
Inflationsraten von Ungarn
Historische und aktuelle Banknoten aus Ungarn
Alle historischen und aktuellen Banknoten aus Ungarn
Einzelnachweise
Ungarischer Forint
Wirtschaft (Ungarn)
|
Q47190
| 92.122659 |
91657
|
https://de.wikipedia.org/wiki/Vikar
|
Vikar
|
Der Titel Vikar leitet sich von „Statthalter, Stellvertreter“ ab. In verschiedenen Konfessionen bezeichnet er unterschiedliche Ämter.
Orthodoxe Kirchen
In den Orthodoxen Kirche ist der Vikar ein Geistlicher im Bischofsrang, der den Ortsbischof unterstützt. Er hat aber keine eigene Diözese und ist somit mit einem Weihbischof der römisch-katholischen Kirche vergleichbar.
Römisch-katholische Kirche
In der römisch-katholischen Kirche bezeichnet der Begriff Vikar den Inhaber eines Stellvertretungsamtes, dem bestimmte Befugnisse übertragen worden sind. Das Amt des Vikars kann dauerhaft oder vorübergehend verfasst sein. Vikariate wurden im Mittelalter häufig von Privatpersonen gestiftet und konnten sich auf einen einzelnen Altar einer Stadtkirche beziehen, an welchem der so finanzierte Vikar „auf ewige Zeit“ Seelenmessen für den Stifter oder dessen Familie zu halten hatte.
In der kirchlichen Hierarchie unterscheidet man folgende Vikare:
Apostolischer Vikar: Vorsteher eines Apostolischen Vikariats, einer für Missionsgebiete errichteten bistumsähnlichen Gebietskörperschaft. Die Apostolischen Vikare üben an Stelle des Papstes, der als Universalhirte die eigentliche Gewalt innehat, in den ihnen zugewiesenen Gebieten die Jurisdiktion aus.
Kardinalvikar: Der Kardinalvikar ist der Vertreter des Papstes bei der Leitung der Diözese Rom. Der Papst selbst versteht sich als Vicarius Christi (lat. für „Stellvertreter Christi“).
Kapitularvikar oder Kapitelsvikar: Nach altem Kirchenrecht vorübergehender Leiter einer Diözese bei Erledigung des bischöflichen Stuhls. Das Amt entspricht heute in etwa dem des Diözesanadministrators.
Bischofsvikar: Der Bischofsvikar ist der Vertreter des Diözesanbischofs für einen bestimmten Bereich der Seelsorge oder territorialen Bereich der Diözese.
Generalvikar: Der Generalvikar ist der Vertreter des Bischofs bei der Verwaltung der Diözese, jedoch mit eingeschränkten Amtsbefugnissen. Er wird vom Bischof frei ernannt und verliert sein Amt automatisch mit Erledigung des bischöflichen Stuhls.
Gerichtsvikar: Er wird in Deutschland Offizial genannt und ist der Vertreter des Bischofs als Leiter des Diözesangerichts.
Domvikar: Domvikare unterstützen das Domkapitel an einer Kathedrale bei dessen Aufgaben, insbesondere bei geistlichen Handlungen wie dem Chordienst. Sie gehören dem Kapitel selbst nicht an, bilden aber in der Regel gemeinsam mit ihm das Domstift.
Pfarrvikar oder Vicarius paroecialis: Ein Pfarrvikar ist entweder ein Priester, der einem Pfarrer unterstellt ist und keine Alleinverantwortung für eine Pfarrei trägt (Kaplan oder Kooperator), oder ein einer Quasipfarrei (Pfarrvikarie, Pfarrrektorat, Pfarrkuratie) dauerhaft vorstehender Geistlicher. Im Mittelalter und in der Frühen Neuzeit hatte die Bezeichnung Vikar eine andere Bedeutung. Bei der Inkorporierung eines Seelsorgesprengels in den Rechtsverband eines Klosters wurde das inkorporationsberechtigte Institut rechtlich gesehen selbst Pfarrer („parochus habitualis“). Da das Pfarramt aber nur von einem geweihten Kleriker ausgeübt werden kann, bedurfte es einer Person, die dieses Amt stellvertretend für das Kloster ausübte. Dieser Amtsträger wurde Vikar oder „parochus actualis“ genannt. Es handelte sich dabei nicht um einen Hilfsgeistlichen, sondern um einen mit allen pfarrlichen Vollmachten ausgestatteten Kleriker, der in spiritueller Hinsicht nur dem Bischof unterstellt war.
Bei Hausgemeinschaften von Orden ist der Vikar der Stellvertreter des Hausoberen, beispielsweise der Vikar des Guardian bei den franziskanischen Orden. Ein Provinzvikar ist der Stellvertreter des Provinzials einer Ordensgemeinschaft.
Evangelische Kirchen
In der Evangelischen Kirche in Deutschland bezieht sich der Begriff Vikar in der Regel auf Theologen in der praktischen Ausbildung nach dem ersten theologischen Examen. Diese praktische Ausbildung wird mit dem zweiten Theologischen Examen abgeschlossen und ist Voraussetzung für die Ordination in den Pfarrdienst. Das evangelische Vikariat entspricht als Ausbildungsphase dem Referendariat bei Juristen und Lehrern.
Bei Vakanz des Bischofsamtes kann auch in der Evangelischen Kirche ein Bischofsvikar eingesetzt werden, der die Landeskirche bis zur Neuwahl eines Bischofes/einer Bischöfin leitet.
In der Evangelischen Kirche A. B. und H. B. in Österreich bezieht sich der Begriff auf die ersten beiden Jahre der praktischen Ausbildung zum Pfarrdienst. Um das Vikariat zu absolvieren, ist ein akademischer Abschluss notwendig.
Anglikanische Kirchen
In den Gliedkirchen der Anglikanischen Gemeinschaft ist Vikar der Titel eines Gemeindepfarrers, die Bezeichnung wird jedoch nicht einheitlich verwendet.
Church of England
Die Church of England unterschied ursprünglich nach der Art der Entlohnung zwischen drei Arten von in Pfarrgeistlichen: Rektoren, Vikare und Perpetual curates. Die Kirche stützte sich auf Abgaben, die sie – üblicherweise in Höhe des Zehnten (tithes) – auf die landwirtschaftlichen Erzeugnisse der Gemeinde erhob. Bei diesen differenzierte man zwischen greater tithes und lesser tithes. Erstere wurden auf Weizen, Heu und Holz erhoben, letztere auf alles Übrige. Einem Vikar standen im Gegensatz zu einem Rektor nur letztere zu, weil üblicherweise ein Mönchskloster die Stelle des Rektoren ausfüllte und die Mönche den Vikar unterhielten, damit dieser sie bei der Gemeindearbeit vertrat.
Ein Perpetual curate war üblicherweise für eine durch Abteilung von einer größeren Gemeinde unter Leitung eines Vikars neu entstandene Gemeinde verantwortlich. Er erhielt vom Zehnten grundsätzlich gar keinen Anteil, sondern wurde von der Diözese unterhalten. Das Attribut „ständig“ sollte betonen, dass ein solcher Kleriker dieselbe Sicherheit einer dauerhaften Anstellung genoss wie seine begüterten Kollegen. Allerdings diente es hauptsächlich den Perpetual curates dazu, sich von bloßen Hilfsgeistlichen mit eigenem Seelsorgebezirk (Kuraten) abzugrenzen, die anders als die Angehörigen der drei anderen Gruppen in ihrer jeweiligen Gemeinde nicht Repräsentanten der Autorität der Kirche waren und sich daher auch nicht Pfarrer nennen durften.
Ein vom britischen Parlament 1868 beschlossenes Gesetz erlaubte Perpetual curates, künftig den Titel Vicar zu führen. Die Verknüpfung dieser Neuerung mit nahezu gleichzeitigen weiteren Kirchenreformen zielte darauf, die Ungleichheiten beim Einkommen der Kleriker zu verringern. Die Rangunterschiede wurden in der Folge mehr und mehr verwischt. Umgangssprachlich wird heute häufig jeder Kleriker als Vikar bezeichnet. Somit wird die Bezeichnung heute so verwendet wie vor der Reform der heute weitgehend aus dem Sprachgebrauch verschwundene Begriff Parson (Pfarrer).
Die meisten Gemeinden in England und Wales haben die jeweilige überkommene Bezeichnung für ihren Gemeindegeistlichen beibehalten. Dabei überwiegt in städtisch geprägten Gegenden die Bezeichnung Vikar, was darauf zurückzuführen ist, dass im Viktorianischen Zeitalter viele neue Gemeinden gegründet worden waren, deren Geistliche diesen Titel nach 1868 annahmen.
Andere anglikanische Kirchen
In der Episkopalkirche der Vereinigten Staaten von Amerika ist der Vikar ein Geistlicher, der einer von der Diözese finanzierten Missionsgemeinde vorsteht, während eine Gemeinde, die imstande ist, sich selbst zu tragen, von einem Rektoren geleitet wird.
Altkatholische Kirchen
In der alt-katholischen Kirche in Deutschland ist der Vikar (bzw. die Vikarin) ein Pfarramtsanwärter, welcher bereits zum Priester geweiht worden ist. Nach der bestandenen Pfarramtsprüfung führt er den Titel Pfarrvikar. Ein Pfarrvikar kann sich auf jede vakante Pfarrstelle bewerben.
In der altkatholischen Kirche Österreichs erhält ein Priester nach seiner Weihe den Titel Vikar, wenn er vom Bischof für bestimmte geistliche Amtshandlungen zugelassen, bzw. mit einem Seelsorgeauftrag betraut und/oder einem amtsführenden Pfarrer als Unterstützung zur Seite gestellt wird.
Literatur
Thomas Benner: Handreichung für Theologiestudium und Vikariat: Ausbildung zum Pfarramt in der Evangelischen Kirche von Kurhessen-Waldeck. Hrsg. vom Ausbildungsdezernat der Evangelischen Kirche von Kurhessen-Waldeck. Kassel 1999.
Weblinks
Einzelnachweise
Kirchliches Amt
Kirchlicher Titel
|
Q193364
| 145.46638 |
263767
|
https://de.wikipedia.org/wiki/Kohelet
|
Kohelet
|
Kohelet ( „Versammler, Gemeindeleiter“; abgekürzt Koh), auch Prediger (abgekürzt Pred), ist ein Buch des Tanach, das dort zu den Ketuvim („Schriften“) gehört. Im christlichen Alten Testament (AT) wird es zu den Büchern der Weisheit gezählt. In der Lutherbibel trägt das Buch den Titel Der Prediger Salomo, in der Septuaginta den Titel Ekklesiastes ) und in der Vulgata den Titel .
Kennzeichnend für diese biblische Schrift ist ihre Multiperspektivität. Einige ihrer Deuter sehen Kohelet von einem tiefen Pessimismus und Skeptizismus geprägt. Andere dagegen verstehen den Verfasser als einen Weisheitslehrer, der zu heiterer Gelassenheit angesichts der unbegreiflichen Wechselfälle des Lebens aufruft. Die Gesamtaussage des Buches muss im Zusammenhang mit Kohelets Absicht verstanden werden, eine sinnvolle Lebensführung zu finden. Er setzt sich mit der traditionellen Weisheit auseinander, insbesondere mit dem Tun-Ergehen-Zusammenhang: Dem Gerechten wird es gut ergehen, dem Frevler schlecht. Kohelet stellt fest, dass die Erfahrung oft das Gegenteil lehrt. Außerdem kommt er zu der Erkenntnis, dass mit dem Tod letztendlich jede Errungenschaft des Lebens ausgelöscht wird. Angesichts einer ungewissen Zukunft empfiehlt er, das Gute im Leben als Gottes Gabe zu genießen.
Name
Das hebräische Wort bezeichnet nach eine Person, deren Lehren den Inhalt des Buchs bilden. Teilweise wird Kohelet im Buch wie ein Eigenname verwendet. Es ist ungewöhnlicherweise ein Partizip Femininum zum Verb „sammeln“, man könnte also übersetzen: „die Sammelnde“. Da dieses feminine Partizip aber mit einem maskulinen Verb konstruiert wird und Kohelet außerdem in 1,1 als „Sohn Davids“ bezeichnet wird, ist Kohelet eine männliche Person. Es gibt im Bibelhebräischen vergleichbare Bezeichnungen von Männern mit einem Partizip Femininum; dabei handelt es sich um eine Benennung nach Tätigkeiten, die regelmäßig ausgeübt wurden. Das ist auch hier anzunehmen. Eine Funktionsbezeichnung wird sekundär als Personenbezeichnung verwendet. Zwei Interpretationen sind möglich, die beide Anhalt im Buch finden:
Kohelet war ein Sammler von Sprichwörtern, die er verbesserte und in Form brachte (vergleiche ).
Kohelet versammelte Menschen. Dabei kann es sich dem Inhalt des Buches nach aber weder um eine politische Versammlung noch um die Kultgemeinde gehandelt haben, sondern Kohelet trat in der Art griechischer Wanderphilosophen öffentlich auf und versammelte einen Schülerkreis um sich.
Die antiken Übersetzer ins Griechische (Septuaginta) entschieden sich, Kohelet als Ekklesiastes (), „Redner in einer Volksversammlung“, zu übersetzen. Davon abgeleitet ist der lateinische Buchtitel in der Vulgata: . Hieronymus schlug als Übersetzung ins Lateinische beziehungsweise („Volksredner“) vor, weil der Verfasser sich nicht an eine einzelne Person, sondern an die Öffentlichkeit insgesamt wende. Martin Luthers Buchtitel „Prediger Salomo“ schließt sich dieser Tradition an.
Identifikation mit Salomo
Obgleich der Name des israelitischen Königs Salomo nicht explizit genannt wird, so legt doch der Text eine Identifikation des Autors mit Salomo nahe. Das „Ich“, das im Buch zu Wort kommt, stellt sich nämlich folgendermaßen vor: „Ich, Kohelet, war in Jerusalem König über Israel“ . Entsprechendes Wissen beim Leser vorausgesetzt, wird damit eine „salomonische Spur“ gelegt.
Die historisch-kritische Exegese ist sich darin einig, dass das Buch Kohelet eines der jüngeren des Tanach ist. Der historische Salomo kann demnach nicht der Verfasser sein. Vielmehr nimmt Kohelet im Sinne einer Salomo- oder Königsfiktion die Rolle des „Salomo“ ein, eines idealen weisen und reichen Herrschers, der alle Möglichkeiten hat, sein Leben selbstbestimmt zu gestalten. Die Exegeten sind jedoch uneins, ob die Rolle des Philosophenkönigs ab der Passage aufgegeben (Norbert Lohfink: „Der Königsmantel sinkt dann … zu Boden“) oder bis zum Ende des Buches beibehalten wird.
Die „Weisheit“ () des Salomo ist es, die ihn als Rollengeber interessant macht. Es wird hierbei insbesondere auf Salomos Gebet um Weisheit und Salomo als Weisheitslehrer angespielt. Eine weitere zentrale Salomotradition, Salomo als Erbauer des Jerusalemer Tempels, wird dagegen nicht thematisiert.
Entstehungszeit und -ort
Viele Forscher nehmen eine Entstehung in der frühen hellenistischen Zeit (3. Jahrhundert v. Chr.) an. Als Entstehungsort wird heute überwiegend Jerusalem vermutet, aber auch Alexandria ist nicht auszuschließen.
Die ältesten identifizierten Zitate oder Übernahmen aus dem Buch Kohelet enthält das Buch Jesus Sirach, das vermutlich im frühen 2. Jahrhundert v. Chr. verfasst wurde: kann als kritische Auseinandersetzung mit verstanden werden.
Unter den Qumran-Texten gibt es zwei Fragmente des Koheletbuchs, 4Q Koha und 4Q Kohb ; das ältere Fragment 4Q Koha kann in die Zeit zwischen 175 und 150 v. Chr. datiert werden und liefert so einen zusätzlichen Terminus ante quem für die Abfassung des Werks. Wenige Jahrzehnte nach seiner vermuteten Abfassung existierte der Text des Koheletbuchs in verschiedenen orthographischen und lexikalischen Varianten. Die beiden Qumran-Fragmente enthalten keine Hinweise auf eine gegenüber dem masoretischen Text ältere Textform.
Sprache
Das Hebräisch des Buchs Kohelet ist eigenartig und deutet auf eine späte Entstehung des Textes hin. Hugo Grotius bestritt deshalb als Erster eine salomonische Verfasserschaft. Er schrieb 1644: „Ich glaube nicht, dass Salomo der Autor war. Es wurde später unter dem Namen jenes Königs […] verfasst. Als Argumente dafür nenne ich die vielen Vokabeln, die man sonst nur bei Daniel, Esra und in den Targumen findet.“
Zwar könnte man einige Unterschiede zum klassischen Bibelhebräisch auch durch Dialekt oder Umgangssprache erklären, aber zusammengenommen brachten die Auffälligkeiten Franz Delitzsch 1875 zu dem Schluss: Wenn das Koheletbuch von Salomo stammte und also im 10. Jahrhundert v. Chr. geschrieben worden wäre, „so gäbe es keine Geschichte der hebräischen Sprache“.
Die Spätdatierung ist heute Konsens der Forschung. Sie wird gestützt durch die Beobachtung, dass zwei Lehnwörter aus dem Persischen auftreten:
„Baumgarten“ (als Lehnwort im Deutschen: Paradies);
„Botschaft“.
Außerdem gibt es im Wortschatz sowie der Grammatik Einflüsse des Aramäischen. Als die Provinz Jehud Teil des persischen Weltreichs war, hat dies in der hebräischen Sprache Spuren hinterlassen. Sie sind ein Merkmal der jüngeren Schriften des Tanach. Kohelet hat einerseits wie kein zweiter Autor des Alten Testaments einen individuellen Stil, andererseits weist sein aus dem Bereich der öffentlichen Verwaltung genommenes Vokabular darauf hin, dass hier die soziale Herkunft des Autors und seiner anvisierten Leserschaft zu suchen ist.
Eindeutige Gräzismen in Kohelets Wortschatz gibt es nicht. Ein möglicher Gräzismus ist beispielsweise Kohelets Gebrauch des Verbs . Es bedeutet im Bibelhebräischen sonst „auskundschaften, spionieren“, bei Kohelet (und nur bei ihm) aber ein nachdenkendes Erforschen und Ergründen: , , . Diese Bedeutungsentwicklung kann durch den griechischen philosophischen Terminus („schauen, spähen, betrachten, untersuchen“, vergleiche das Fremdwort Skeptizismus) beeinflusst sein.
Sozialgeschichtlicher Hintergrund
Die Lektüre des Koheletbuchs versetzt den Leser in eine Zeit, in der die jüdische Religion unter starkem Einfluss des Hellenismus stand. Im Buch klingen die wirtschaftlichen und sozialen Veränderungen an, die das mit sich brachte:
Der kleine Tempelstaat Judaia war (innerhalb der Provinz Syrien und Phönizien) Teil des Ptolemäerreichs. Die Art, wie Kohelet/Salomo als Herrscher dargestellt wird, erinnert Norbert Lohfink an die ptolemäische Reichsideologie, die „den gesamten Staat als eine Art riesigen Privathaushalt des Königs stilisierte“. Dem Verfasser stehe bei den „großen Taten“ seines königlichen Ichs das ferne Beispiel des Lagidenpalastes in Alexandria mit umgebenden Teichen und Parks vor Augen, aber auch die kleiner dimensionierten, an diesem Vorbild orientierten Palastanlagen der griechischen und judäischen Oberschicht, vor allem der Tobiadenpalast Tyros im Ostjordanland.
Es gab wirtschaftliche Innovationen: Züchtungen neuer Pflanzen, Terrassenbau und künstliche Bewässerung. Der Bevölkerungsmehrheit kam die Steigerung der landwirtschaftlichen Erträge aber kaum zugute, vielmehr wurde sie durch das System der Steuerpacht stark unter Druck gesetzt. „Dies funktionierte so, dass man auf die Steuer einer Stadt bot, für einen bestimmten Preis den Zuschlag bekam und anschließend dafür sorgte, dass die Gelder eingezogen wurden. Man musste dem König nur die abgesprochene fixe Summe […] abführen und konnte alles, was man über den Pachtpreis hinaus presste, als Gewinn verbuchen.“ Die lokale Elite konnte sich durch die Steuerpacht enorm bereichern. Für sie eröffneten sich neuartige Möglichkeiten der Lebensgestaltung, wie die Biografien der Tobiaden Josef und Hyrkanos zeigen. JiSeong James Kwon nennt eine Reihe von Motiven, die in der Tobiadenfamilie wichtig waren und im Koheletbuch angesprochen werden, darunter eine distanzierte Haltung zum Jerusalemer Tempel, ein Interesse an Palast- und Gartenarchitektur sowie an internationalen Bankgeschäften.
Das Koheletbuch ist in einer Umbruchszeit entstanden und nimmt zu diesen Veränderungen eine ambivalente Haltung ein: „Die Erfahrungen politischer und ökonomischer Fremdbestimmung, die Infragestellung sozialer Ordnungen und Werte sowie eines gesteigerten Leistungsdrucks […] können zu einem Gefühl der Ohnmacht und des Ausgeliefertseins führen, aber auch als Chance begriffen werden, durch beherztes und risikofreudiges Handeln einen ‚Gewinn‘ zu erzielen, der unter stabileren Verhältnissen unerreichbar geblieben wäre“ (Thomas Krüger).
Auseinandersetzung mit hellenistischer Philosophie
Dass das Koheletbuch aktuelle Themen seiner Entstehungszeit aufnimmt, ist unstrittig. Aber die Annahme, Kohelet zeige auch Kenntnis hellenistischer Autoren, hieße, dass man „gewissermaßen ein interkulturelles Diskussionsforum rekonstruiert, an dem Kohelet teilnimmt“. Krüger beispielsweise sieht einen gemeinsamen Grundansatz verschiedener Richtungen hellenistischer Philosophie darin, „das für den Menschen erreichbare Glück durch eine Entwertung und Vergleichgültigung alles Unverfügbaren zu bestimmen“; dies werde im Koheletbuch aufgenommen und kritisch reflektiert.
Diethelm Michel vertritt die Gegenposition. Das Koheletbuch sei aus einer innerjüdischen Problemkonstellation heraus verständlich. Kohelet argumentiere in zwei Richtungen:
gegen die Meinung, man könnte sich mit richtigem Handeln einen bleibenden Gewinn oder Vorteil () im Leben verschaffen;
gegen Askese, Leiden an der Welt und Hoffnung auf einen Ausgleich im Jenseits als Konsequenz aus der Erfahrung, dass der Tun-Ergehen-Zusammenhang (dem Guten ergeht es gut, dem Frevler schlecht) empirisch oft nicht aufgeht – eine beunruhigende Erfahrung, die Kohelet teilt .
Auseinandersetzung mit der Weisheitstradition Israels
Ging es in den älteren Weisheitstexten der Hebräischen Bibel um ein Bildungsgut, das die Funktionseliten brauchen, so wird die Weisheit in jüngeren Texten religiös aufgeladen. In den Kapiteln Spr 1 bis 9 konvergieren Weisheit und Tora. Sie sind eine Ergänzung des Sprüchebuchs aus hellenistischer Zeit und damit nur wenig älter als Kohelet.
Nach Thomas Krüger steht der Verfasser des Koheletbuchs positiv zur älteren Weisheitstradition, die sich relativ pragmatisch als Lebenslehre anbot, die zu einem gelingenden Leben verhelfen, aber dieses nicht garantieren konnte. Die neue Sicht der Weisheit, von Kohelet heftig attackiert, identifizierte sie mit der Schöpfungsordnung, personifizierte sie als weibliche, quasi göttliche Gestalt und umgab sie so mit einem religiösen Nimbus, womit sie einer kritischen Überprüfung entzogen war. Wenn die Weisheit gar als spielende Gefährtin JHWHs bei der Weltschöpfung imaginiert wurde , ist ein Einfluss hellenistischer Isis-Aretalogien möglich, was in der Ptolemäerzeit gut denkbar ist.
Indem Kohelet eine Alternative zur jüngeren Weisheit sucht, führt er doch nicht einfach die ältere Weisheit fort. Die traditionelle Weisheit hätte den Erfahrungen eines Individuums, wie Kohelet sie in seinen Reflexionen darlegt, nämlich wenig Bedeutung zugemessen. Diese in der 1. Person Singular gehaltenen Reflexionen geben dem Koheletbuch sein „‚modernes‘ Gepräge“: Eine Diskrepanz zwischen persönlicher Beobachtung und gesellschaftlichem Wissen wird erkennbar. Der Autor empfiehlt, sich ein fachliches Know-how anzueignen, mit dem Gefahrenquellen vermieden werden können (vergleiche ). Erfolgsgarantien gibt er allerdings so wenig, wie es die ältere Weisheit tat.
Aufbau
Die ältere Exegese (Franz Delitzsch 1875, Kurt Galling 1940) sah im Koheletbuch eine lockere Sammlung von Sentenzen. Walther Zimmerli (1974) arbeitete jedoch heraus, dass Koh 1,12–2,26 einen Spannungsbogen bildet. Darauf bauten viele spätere Exegeten auf. In den Kapiteln 1 bis 3 wird oft eine kompositionelle Einheit („Traktat“) erkannt, die entweder mit endet oder bis reicht.
In der neueren Exegese überwiegt die Annahme, dass das komplette Koheletbuch planvoll gestaltet sei. Eine das ganze Buch umgreifende Gesamtkomposition nahm Norbert Lohfink an (1980, Hauptübersetzer für Kohelet in der Einheitsübersetzung). Er sah ein spannungsvolles Zugleich von linear-dynamischer und „palindromischer“ Anordnung. Die „palindromische“ Konzeption Lohfinks, in deren Mittelpunkt die Religionskritik (Koh 4,17–5,6) stand, blieb eine Minderheitsmeinung, während Franz-Josef Backhaus und Ludger Schwienhorst-Schönberger Lohfinks lineare Gliederung modifizierten. Bei Schwienhorst-Schönberger (1997) ergibt sich daraus folgende Struktur des Textes:
Dem Koheletbuch wurden zwei Nachworte von verschiedenen Herausgebern angefügt.
Der erste Herausgeber hat die Überschrift und das Nachwort (Kolophon) verfasst.
Der zweite Herausgeber ist für den Buchschluss verantwortlich. Dabei handelt es sich um eine Uminterpretation der Lehre Kohelets, um sie in die weisheitliche Schultradition zurückzuholen, von der sich Kohelet distanziert hatte.
Literarische Gattung und Gattungen
Königstestament
Kurt Galling (1932) fand breite Zustimmung, aber auch Widerspruch mit seinem Vorschlag, das Koheletbuch als Weisheitslehre in Form eines (fiktiven) Königstestaments nach altägyptischem Vorbild zu verstehen (Beispiele: Lehre für Merikare, Lehre des Amenemhet). Auch Gerhard von Rad vertrat in dem Standardwerk Weisheit in Israel (1970) diese These. Die königliche Lebenslehre ist eine Besonderheit der altägyptischen Literatur. Sie ist aber keine eigenständige Literaturform, sondern gehört zu den „Lebenslehren“, die es auch außerhalb Ägyptens gab. Aus hellenistischer Zeit sind sogenannte Hypomnemata erhalten, die politisch bedeutenden Persönlichkeiten zugeschrieben wurden.
Es gibt interessante Parallelen, die sich dem Königstestament innerhalb der Hebräischen Bibel zur Seite stellen lassen:
Anweisungen des Königs David an seinen Sohn Salomo ;
das Buch Deuteronomium als Abschiedsrede des Mose und verbindliche Auslegung der Tora.
Diatribe
Schwienhorst-Schönberger sieht, wie seine Gliederung zeigt, formale und inhaltliche Gemeinsamkeiten des Koheletbuchs mit der hellenistischen Diatribe. Schon Lohfink hatte Kohelets Nähe zur Diatribe mit ihrer „auf Wirkung und Bekehrung abgestimmten Redepragmatik“ hervorgehoben: „Relativ früh steht nach einigen Schockoperationen die Hauptthese deutlich da. Dann wird sie vertieft, verteidigt, in die Lebenspraxis verlängert.“
Kleine Formen
Kohelet zitiert, verfasst und widerlegt Sprichwörter. Dabei zeigt er, dass er im kritischen Gespräch mit der weisheitlichen Tradition steht. Im Buch gibt es etwa 70 Sprichwörter:
Darüber hinaus gibt es weitere kleine Formen: eine Beispielerzählung und drei Gedichte über den Kosmos , über die Zeit und über das Altwerden .
Spannungen und Widersprüche
Es ist immer aufgefallen, dass es im Buch Spannungen und Widersprüche gibt. Nachdem literarkritische Modelle nicht überzeugen konnten, gilt das Koheletbuch (bis auf Überschrift, Nachworte und Glossen) heute meist als einheitliches Werk; die Spannungen werden durch die Theorie von Zitation und Argumentation erklärt.
Glossenmodell
Widersprüche können ein Indiz dafür sein, dass Texte verschiedener Autoren zusammengearbeitet wurden. Die extreme Anwendung der literarkritischen Methode brachte Carl Siegfried (1898) dazu, neun Schichten im Koheletbuch zu unterscheiden. Das war nicht konsensfähig. Für diese Forschungsrichtung steht in neuerer Zeit das von Aarre Lauha (1978) und James L. Crenshaw (1987) vertretene „Glossenmodell“: Redaktoren fügten demzufolge in das Koheletbuch dogmatische Korrekturen als Glossen ein. An dem besonders eindeutigen Fall kann man sich gut veranschaulichen, wie der Redaktor (kursiv) korrigierend in Kohelets Argumentation eingriff:„Freu dich, junger Mann, in deiner Jugend, sei heiteren Herzens in deinen frühen Jahren! Geh auf den Wegen, die dein Herz dir sagt, zu dem, was deine Augen vor sich sehen! Und sei dir bewusst, dass Gott über all dies mit dir ins Gericht gehen wird! Halte deinen Sinn von Ärger frei und schütz deinen Leib vor Krankheit; denn die Jugend und das dunkle Haar sind Windhauch!“
Polar structures
Manche sehen in den Widersprüchen des Textes eine spezifische Eigenart des Koheletschen Denkens, ein „Zwar – Aber“. James A. Loader (1986) fand dafür die Formulierung „polar structures“. Auf theoretischer Ebene bezeichne Kohelet dieses Zwar-Aber mit seinen Windhauch-Aussagen; auf praktischer Ebene löse er die von ihm konstatierten Widersprüche durch den Aufruf zur Lebensfreude. Loader fasst zusammen: „Vom Epilog abgesehen, gibt es keinen einzigen spürbaren Widerspruch in dem Buch. Die ‚Widersprüche‘, die den Rabbis so viel Kopfzerbrechen bereiteten und die von der Literarkritik so kunstvoll beseitigt wurden, sind weiter nichts als beabsichtigte polar structures.“
Zitat und Argumentation
Andere Ausleger nehmen an, dass Kohelet andere Meinungen zitiere, um sich dann kritisch mit ihnen auseinanderzusetzen (so Lohfink und Michel). Allerdings sind Zitat und Kommentar schwer voneinander abzugrenzen. Das führt zu der Vermutung, dass gerade diese Uneindeutigkeit vom Autor gewollt sei: „Thesen und Antithesen fungieren wie eine Art von Navigation. Der Leser wird gelenkt, ohne daß er sofort und eindeutig die Widersprüche und Spannungen […] verstehen und zuordnen kann.“ Diesen Ansatz vertreten Krüger und Schwienhorst-Schönberger.
Themen
Windhauch
Ein Leitwort des Koheletbuchs ist , im Status constructus: havel. Das Nomen bezeichnet konkret den Lufthauch und metaphorisch etwas Leichtes, Unbeständiges. Außerhalb des Koheletbuchs begegnet hevel in der Hebräischen Bibel in Klagen über die Vergänglichkeit des menschlichen Lebens. Vermeintlich Wertvolles wie Reichtum oder militärische Stärke kann sich als hevel erweisen. Polemisch werden andere Gottheiten und deren Kultbilder als machtlose Nichtse und hevel bezeichnet. Kohelet nimmt diesen Sprachgebrauch auf, gibt dem Wort aber auch eine eigene Bedeutung.
Als Mottovers ist Koh 1,2 dem Buch vorangestellt:
.
Wörtliche Übersetzung: „Hauch der Hauche, sprach Kohelet, Hauch der Hauche, das alles – Hauch.“
Die im Blick auf die Rezeptionsgeschichte wichtige Übersetzung der Vulgata blieb sehr eng am hebräischen Text: Vanitas vanitatum dixit Ecclesiastes / vanitas vanitatum omnia vanitas. „Nichtigkeit der Nichtigkeiten, sagte der Ecclesiastes, Nichtigkeit der Nichtigkeiten, alles ist Nichtigkeit.“
Einige deutsche Übersetzungen von Koh 1,2 sollen die Bandbreite der möglichen Deutungen aufzeigen.
Lebensfreude
Kohelet fragt nach dem „Guten“ im Leben, . Schwienhorst-Schönberger versteht darunter das menschliche Glück. Es konkretisiere sich als Glückserfahrung, nicht als Besitz materieller und sozialer Güter. Köhlmoos bevorzugt den Begriff Lebensfreude. Das „Gute“ wird bei Kohelet jedenfalls als eine Gabe Gottes verstanden, die unverfügbar und flüchtig ist (Carpe-diem-Motiv).
Gott und Gottesfurcht
Der Gott Kohelets gewährt dem Menschen Gutes und dadurch Lebensgenuss; er ist außerdem Schöpfer und Lenker der Welt auf eine für den Menschen unerkennbare Weise. Allerdings sei er, so Köhlmoos, kein personales Gegenüber und greife auch nicht handelnd in die Welt ein. Damit habe Kohelet innerhalb des Alten Testaments eine Außenseiterstellung. Auch Schwienhorst-Schönberger konstatiert einen Aspekt von Apersonalität. Kohelet betone den Geheimnischarakter des jüdischen Gottes.
Nach Frank-Lothar Hossfeld empfiehlt Kohelet, den Kontakt zu Gott zu wahren, aber das Übermaß zu meiden und nicht zu versuchen, Gott zu manipulieren. Kohelets religiöse Grundhaltung sei Scheu und Respekt im Bewusstsein der Distanz zwischen Mensch und Gott. Thomas Krüger definiert Kohelets Gottesfurcht als kritische Teilnahme an der religiösen Praxis. Die Gottesfurcht habe ihren Wert in sich und erwarte keine Belohnung. Das Thema Gottesfurcht wird beispielsweise bei der Frage der Gelübde konkret. Kohelet rät eher von dieser religiösen Praxis ab. Wenn man aber trotzdem ein Gelübde abgelegt habe, so solle man es halten, ohne Ausflüchte zu suchen .
Wesen der Zeit
In werden für den Alten Orient ungewöhnliche Reflexionen über das Wesen der Zeit angestellt. Die Menschenzeit () und die Gotteszeit bzw. Ewigkeit () bezeichnen verschiedene „Räume“, wobei die Gotteszeit vom Menschen nur geahnt werden kann: seine Aufgabe ist es, in der ihm zugänglichen eigenen Zeit das jeweils Lebensförderliche zu entdecken und „zeitgemäß“ zu handeln (vergleiche das griechische Konzept des Kairos).
Die Verse Koh 3,1–8 haben eine bedeutende Wirkungsgeschichte gehabt. Der Text ist aus sich selbst heraus ohne weiteres verständlich, es handelt sich um ein Traditionsstück, das Kohelet übernahm und (wahrscheinlich) mit einer eigenen Überschrift (V. 1) versah. In lockerer Reihung werden diametral einander entgegengesetzte Begriffspaare genannt, die „darin ihre Einheit finden, dass sie alle zu einer rechten Zeit stattfinden.“ Sie seien nicht absolut gut oder schlecht, und es sei nicht weiterführend, sie als wünschenswert oder nicht zu betrachten, vielmehr zeige sich der Weise darin, dass er erkenne, wann es an der Zeit ist, etwas zu tun oder zu lassen.
Stellung im Kanon
Das Koheletbuch wird zum Kanonteil Ketuvim gezählt und außerdem zu den fünf Buchrollen (Megillot), die jüdischen Festtagen zugeordnet sind. In der Anordnung der Megillot gibt es zwei Traditionen:
nach der Reihenfolge der Feste im jüdischen Kalender: Hoheslied – Rut – Klagelieder – Kohelet – Ester
nach der im Mittelalter angenommenen Entstehungszeit (dieser Tradition folgt die Biblia Hebraica Stuttgartensia): Rut – Hoheslied – Kohelet – Klagelieder – Ester
In der Antike gab es aber auch eine andere Gliederung des Kanonteils Ketuvim, wobei Kohelet zwischen dem Buch der Sprichwörter und dem Hohenlied angeordnet war. Sie wurde von der griechischen Übersetzung (Septuaginta) übernommen und für die christliche Tradition prägend. Ludger Schwienhorst-Schönberger zufolge hat diese Reihenfolge ihre Logik, denn das Koheletbuch setze sich kritisch mit der weisheitlichen Schultradition auseinander, wie sie im Buch der Sprichwörter vorliegt, und rufe zum Lebensgenuss auf, welcher das zentrale Thema des Hohenlieds ist.
Antike Übersetzungen
Zwischen dem Ersten Jüdischen Krieg und dem Bar-Kochba-Aufstand wurde das Koheletbuch wahrscheinlich erstmals ins Griechische übersetzt. Die Unterschiede der Septuaginta-Version zum masoretischen Text sind gering.
Im 2./3. Jahrhundert n. Chr. erfolgte eine Übersetzung ins Syrische (Peschitta). Den Übersetzern lag dabei ein hebräischer Text vor, welcher dem masoretischen Text sehr nahestand. Bei schwierigen Stellen zogen die Übersetzer die griechische Version zu Rate. Genauso verfuhr auch Hieronymus, als er das Buch Kohelet ins Lateinische übersetzte (Vulgata, ab 390 n. Chr.). Er konnte außerdem auch seinen eigenen Kommentar zum Koheletbuch nutzen, der bereits vor dem Übersetzungsprojekt entstanden war.
Wirkungsgeschichte
Judentum
Auslegung
Die Zugehörigkeit des Koheletbuchs zum Bibelkanon war im Judentum zwischen dem 1. und 5. Jahrhundert n. Chr. noch umstritten. Das Buch wurde dann in den Kanon aufgenommen, weil man annahm, König Salomo sei der Urheber („Salomofiktion“). Die Weisheit Salomos wurde mit der Tora identifiziert, Kohelet als Toralehrer interpretiert.
Der im 6./7. Jahrhundert n. Chr. entstandene Targum, eine Übersetzung ins Aramäische mit interpretierenden Zusätzen, zeigt, wie Kohelet vom rabbinischen Judentum als heilige Schrift verstanden werden konnte:
Kohelet/Salomo sah prophetisch die Geschichte Israels, die Tempelzerstörung und das Exil voraus. Das erklärt die „Windhauch“-Aussage.
„Unter der Sonne“ gibt es für den Menschen keinen Gewinn (vergleiche ), wohl aber in der kommenden Welt.
Die Freude, zu der Kohelet aufruft, ist eine Freude an der Tora.
Gottesdienst
Der Brauch, das gesamte Koheletbuch an Sukkot (Laubhüttenfest) zu lesen, ist seit dem 11. Jahrhundert in einigen jüdischen Gemeinden bezeugt. Heute wird Kohelet in aschkenasischen Gemeinden an dem Sabbat gelesen, der in die Sukkot-Festwoche fällt, oder aber am achten Tag des Festes (Schmini Azeret). Kohelet wurde wohl dadurch zur Lesung des Laubhüttenfestes, dass die anderen vier Megillot klare inhaltliche Bezüge zu dem jüdischen Feiertag haben, an dem sie gelesen werden. Sukkot und Kohelet sind dabei quasi übrig geblieben und wurden deshalb miteinander verbunden.
Nachträglich entdeckte man dann auch gewisse inhaltliche Bezüge. Die Weisheit Kohelets kann der Weisheit der Tora gegenübergestellt werden – das Sukkotfest hat die Übergabe der Tora an Israel zum Inhalt. Das Wohnen in Laubhütten erinnert an die unstete Lebensweise Israels während der Wüstenwanderung und damit die Unstetigkeit des menschlichen Lebens überhaupt, ein Thema des Koheletbuchs. Die Sicherheit der materiellen Existenz wird durch die Erfahrung, zeitweilig in der Laubhütte zu wohnen, hinterfragt, und auch dieses Hinterfragen alltäglicher Sicherheiten kommt bei Kohelet vor.
Christentum
Auslegung
Die christliche Auslegung des Buchs prägte der Kirchenvater Hieronymus. Die Welt sei nach der Lehre Kohelets keineswegs an sich (per se) Vanitas, wohl aber im Hinblick auf Gott (ad Deum comparata). Daraus ergibt sich für Hieronymus und die ihm folgende abendländische Tradition eine Geringachtung der Welt (contemptus mundi). Die Schöpfungswerke seien gut, aber unbeständig. Der Mensch solle nicht daran verhaftet bleiben, sondern sich auf die transzendente Wirklichkeit ausrichten. Wenn Kohelet zur Freude aufruft, so kann Hieronymus das dem Wortsinn nach als Rat zu maßvollem Genuss verstehen. Wichtiger ist ihm aber die spirituelle Deutung: wo Kohelet den Genuss beim Essen und Trinken preist, bezieht Hieronymus das auf die Eucharistie sowie – eine zusätzliche Sinnebene – auf das Bibelstudium.
In der klösterlichen Tradition wurde Hieronymus’ Koheletinterpretation fortgeführt. Thomas a Kempis etwa entnahm Koh 1,2 die Aufforderung, alles Irdische zu verachten und nur himmlische Güter zu begehren. Gegen diese Auslegungstradition wandten sich die Reformatoren, die das Buch als Aufruf zur gelassenen Erfüllung der alltäglichen Pflichten interpretierten. Ihre eigenen theologischen Fragestellungen prägten die Botschaft, die sie dem Koheletbuch entnahmen: Bestreitung des freien Willens (Martin Luther), göttliche Vorsehung (Philipp Melanchthon), Rechtfertigung (Johannes Brenz).
Aus moderner christlicher Perspektive konnte das Koheletbuch im 20. Jahrhundert von einzelnen Exegeten radikal negativ bewertet werden: Die alttestamentliche Weisheit scheitere, Kohelet gerate in den „weltanschaulichen Bankrott“ (Aarre Lauha), und eben dieses vermeintliche Scheitern Kohelets sei „die erschütterndste messianische Weissagung, die das AT aufzuweisen hat“ (Hans Wilhelm Hertzberg). Soll heißen: Kohelet habe in der Bibel nur deshalb ein Existenzrecht, weil er illustriere, dass Israels Glaube ohne Jesus Christus sinnlos sei. Damit wird Kohelet zum Kronzeugen einer antijüdischen Substitutionstheologie gemacht.
Gottesdienst
In der Leseordnung der katholischen Kirche wird am 18. Sonntag im Jahreskreis (Lesejahr C) die erste Lesung dem Buch Kohelet entnommen (Koh 1,2. 2,21–23). Außerdem werden in den Messen für die Werktage der 25. Lesewoche (Jahr II) Texte aus dem Buch Kohelet vorgetragen.
In der revidierten evangelischen Perikopenordnung (2018) sind am Altjahrsabend, an Septuagesimae und am 20. Sonntag nach Trinitatis als Lesung oder Predigttext aus dem Alten Testament vorgesehen. Damit ist Kohelet eines der biblischen Bücher, die durch die Revision mehr in den Blick der Gemeinde gerückt werden. In der vorherigen Perikopenordnung kam Kohelet nämlich nur marginal vor: Koh 3,1–14 war Predigttext am 24. Sonntag nach Trinitatis (Reihe III und VI). Diesen Sonntag gibt es im Kirchenjahr aber nur bei sehr frühem Ostertermin. Nur etwa einmal in 30 Jahren wurde deshalb über Kohelet gepredigt. Für Trauungen wird oft der Abschnitt verwendet, für Beerdigungen .
Rezeption
Musikalische und literarische Adaptionen
Das Gedicht „Salomonisch“ in dem Lyrikband Rebus (2009) von Hans Magnus Enzensberger bezieht sich auf das Koheletbuch.
Der Roman Gottesdiener von Petra Morsbach (2004) nutzt Koheletzitate als Gliederungselemente.
In der Oper Kar – Musiktheater für den Berg (1994) adaptierten Komponist Herbert Lauermann, Librettist Christian Martin Fuchs und Regisseur Herbert Gantschacher .
Der Titel des Justizromans A Time to Kill (1989) von John Grisham ist entnommen.
Oliver Stone stellte seinem Film Platoon (1986) den ersten Halbsatz von als Leitspruch voran („Rejoice O young man in thy youth […]“).
Zwei Lieder der Rock-Gruppe Die Puhdys zitieren das Koheletbuch: Wenn ein Mensch lebt (1974) nimmt Bezug auf Kapitel . Dabei diente die Textfassung der Luther-Übersetzung als Grundlage: Prediger 3,1: „Ein jegliches hat seine Zeit“, 3,2: „Geboren werden (im Liedtext: leben) und sterben, pflanzen und ausrotten, was gepflanzt ist“, 3,5: „Steine zerstreuen und Steine sammeln“, 3,8: „Streit und Friede“. Alles hat seine Zeit (2005) bezieht sich ebenfalls auf Koh 3.
Bernd Alois Zimmermanns Kompositionen Omnia tempus habent (1957) und Ich wandte mich und sah an alles Unrecht, das geschah unter der Sonne – Ekklesiastische Aktion (1970) sind eine musikalische Auseinandersetzung mit dem Buch Kohelet.
In dem Lied Turn! Turn! Turn! (1950) adaptierte Pete Seeger .
George R. Stewart stellte seinem Science-Fiction-Roman Leben ohne Ende (1949, im Original: Earth Abides) als Leitspruch voran; auch der Originaltitel ist diesem Vers entnommen. Zudem dient im Roman die Lektüre von Kohelet dem Protagonisten in einer entscheidenden Phase der Handlung als Inspiration.
Dem Roman The Sun Also Rises (1926) stellte Ernest Hemingway als Motto voran; der Buchtitel ist entnommen.
Granville Bantock hat 1913 eine Choralsymphony für 12-stimmigen Chor komponiert: The Vanity of Vanities. In sieben Sätzen werden ausgewählte Teile aus dem Buch Kohelet vertont.
Der Titel des Romans The House of Mirth (1905) von Edith Wharton nimmt Bezug auf („The heart of the wise is in the house of mourning; but the heart of fools is in the house of mirth.“)
Der Titel des Romans The Golden Bowl (1904) von Henry James nimmt Bezug auf („… or the golden bowl be broken …“)
In dem Liederzyklus Vier ernste Gesänge (1896) adaptierte Johannes Brahms .
Vanitas! Vanitatum Vanitas! (1643) ist der entnommene, lateinische Titel einer Ode von Andreas Gryphius.
Es ist alles eitel (1637) betitelte Gryphius ein im Dreißigjährigen Krieg erschienenes Sonett.
Geflügelte Worte
Georg Büchmann listet eine Reihe von Geflügelten Worten, die dem Koheletbuch entnommen sind:
„Alles ist eitel“ ,
„Alle Wasser laufen ins Meer“ ,
„Es geschieht nichts Neues unter der Sonne“ ,
„Ein Jegliches hat seine Zeit“ ,
„Ein lebendiger Hund ist besser als ein toter Löwe“ ,
„Weh dir, Land, dessen König ein Kind ist“ , bei Shakespeare: „Woe to that land that’s governed by a child“ (Richard III 2,3),
„Das sind die Tage, von denen wir sagen: Sie gefallen uns nicht“ .
Literatur
Textausgabe
Biblia Hebraica Stuttgartensia. 5. Auflage. Deutsche Bibelgesellschaft, Stuttgart 1997, ISBN 3-438-05219-9.
Hilfsmittel
Wilhelm Gesenius: Hebräisches und Aramäisches Handwörterbuch über das Alte Testament. Hrsg.: Herbert Donner. 18. Auflage. Springer, Berlin / Heidelberg 2013, ISBN 978-3-642-25680-6
Kommentare
Craig Bartholomew: Ecclesiastes (= Baker Commentary on the Old Testament). Baker Academic, Grand Rapids 2009, ISBN 978-0-8010-2691-1.
Joseph Carlebach: Das Buch Kohelet. Ein Deutungsversuch [mit eigener Übersetzung des Kohelet-Textes]. Hermon, Frankfurt am M. 1936 (Digitalisat im Internet Archive).
Franz Delitzsch: Hoheslied und Koheleth. Dörffling und Francke, Leipzig 1875. S. 190 ff. (Digitalisat)
Michael V. Fox: Ecclesiastes (= JPS Bible Commentary). JPS, Philadelphia 2004, ISBN 0-8276-0965-5.
Melanie Köhlmoos: Kohelet. Der Prediger Salomo (= Das Alte Testament Deutsch 16/5). Vandenhoeck & Ruprecht, Göttingen 2015, ISBN 978-3-525-51215-9.
Thomas Krüger: Kohelet (Prediger) (= Biblischer Kommentar Altes Testament 19, Sonderband). Neukirchener Verlag, Neukirchen-Vluyn 2000, ISBN 3-7887-1783-1.
Norbert Lohfink: Kohelet (= Neue Echter Bibel. Altes Testament). Echter Verlag, Würzburg 1980. ISBN 978-3-429-00655-6. (6., unveränderte Auflage 2009)
Tremper Longman: The Book of Ecclesiastes (= The New International Commentary on the Old Testament). Eerdmans, Grand Rapids / Cambridge 1998.
Annette Schellenberg: Kohelet (= Zürcher Bibelkommentare. AT. Band 17). TVZ, Zürich 2013, ISBN 3-290-14762-2.
Anton Schoors: Ecclesiastes (= Historical Commentary on the Old Testament). Peeters, Leuven 2013, ISBN 978-90-429-2940-1.
Ludger Schwienhorst-Schönberger: Kohelet (= Herders theologischer Kommentar zum Alten Testament). Übersetzt und ausgelegt. Herder, Freiburg (Breisgau) u. a. 2004, ISBN 3-451-26829-9.
Monographien
Alexander Achilles Fischer: Skepsis oder Furcht Gottes? Studien zur Komposition und Theologie des Buches Kohelet (= Beihefte zur Zeitschrift für die alttestamentliche Wissenschaft. Band 247). Walter de Gruyter, Berlin / New York 1997, ISBN 3-11-015458-7.
James A. Loader: Polar Structures in the Book of Qohelet (= Beihefte zur Zeitschrift für die alttestamentliche Wissenschaft. Band 152). Walter de Gruyter, Berlin / New York 1979, ISBN 3-11-007636-5.
Diethelm Michel: Untersuchungen zur Eigenart des Buches Qohelet (= Beihefte zur Zeitschrift für die alttestamentliche Wissenschaft. Band 183). Walter de Gruyter, Berlin / New York 1989, ISBN 3-11-012161-1.
Diethelm Michel: Qohelet (= Erträge der Forschung. Band 258). Wissenschaftliche Buchgesellschaft, Darmstadt 1988, ISBN 978-3-534-08317-6.
Annette Schellenberg: Erkenntnis als Problem. Qohelet und die alttestamentliche Diskussion um das menschliche Erkennenn. (= Orbus Biblicus et Orientalis. Band 188). Vandenhoeck & Ruprecht, Göttingen 2002, ISBN 3-525-53045-5.
Ludger Schwienhorst-Schönberger: Kohelet: Stand und Perspektiven der Forschung. In: Ludger Schwienhorst-Schönberger (Hrsg.): Das Buch Kohelet. Studien zur Struktur, Geschichte, Rezeption und Theologie (= Beihefte zur Zeitschrift für die alttestamentliche Wissenschaft. Band 254). Walter de Gruyter, Berlin / New York 1997, ISBN 3-11-015757-8. S. 5–38.
Weblinks
Einzelnachweise
Buch des Alten Testaments
Tanach
|
Q131072
| 87.230852 |
88939
|
https://de.wikipedia.org/wiki/Neukieferv%C3%B6gel
|
Neukiefervögel
|
Die Neukiefervögel (Neognathae) bilden eine der beiden Unterklassen der Vögel und umfassen mit etwa 9000 Arten den überwiegenden Anteil der Vogelvielfalt, darunter die Sperlingsvögel (Passeriformes) mit über 6500 Arten.
Die vollständige Liste der Ordnungen und Familien in der Systematik der Vögel.
Das bedeutendste Merkmal, das sie von den Urkiefervögeln (Palaeognathae) unterscheidet, ist die Gaumenstruktur: Neukiefervögeln fehlt die Versteifung des sogenannten „Pterygoid-Palatinum-Komplexes“ (PPC), einer Knochenkonfiguration, die aus Flügelbein (Pterygoid), Gaumenbein (Palatinum) und Pflugscharbein (Vomer) besteht. Anders als bei den Palaeognathae gibt es darüber hinaus aber kein besonders herausragendes Charakteristikum: So gibt es innerhalb der Neukiefervögel neben fliegenden Vögeln auch nicht-fliegende Vögel wie zum Beispiel die Pinguine, den zu den Papageien zählenden Kakapo oder den in seiner eigenen Familie stehende Kagu. Der größte Neukiefervogel ist der Andenkondor mit einer Länge von bis zu 1,30 Metern und einer Flügelspannweite von bis zu 3,20 Metern.
Der Ursprung der modernen Vögel reicht bis in die Kreidezeit zurück. Im März 2020 beschrieben belgische Wissenschaftler einen taubengroßen 66,7 Millionen Jahre alten fossilen Vogel (Asteriornis maastrichtensis), der Merkmale von Gänsen und Hühnern zeigt.
Belege
Weblinks
Mindell, David P. & Joseph W. Brown. 2005. Neornithes. Modern Birds. in The Tree of Life Web Project
Vögel
|
Q19168
| 94.666706 |
19182
|
https://de.wikipedia.org/wiki/Bergsteigen
|
Bergsteigen
|
Bergsteigen ist die sportliche Betätigung im Gebirge. Sie reicht von einem touristisch-sportlichen Gehen, dem Bergwandern, bis hin zum Klettern in Fels und Eis. Klettern umfasst verschiedene Aktivitäten in Fels (Klettern, alpines Klettern), Firn, Gletscher und Eis (Hochtour) oder eine Kombination dessen, bis zum Höhenbergsteigen in den sauerstoffarmen Regionen der Sieben- und Achttausender. Zum Winterbergsteigen gehören Skitouren, Schneeschuhtouren oder das Eisklettern. Bergsteigen in großen Höhen oder abgelegenen Regionen bezeichnet man als Expeditionsbergsteigen. In der Regel werden Personen, die ihr Beruf in die Berge führt (Jäger, Säumer), nicht als Bergsteiger bezeichnet.
Im erweiterten Sinn wird Bergsteigen auch als Alpinismus bezeichnet. Es umfasst Tätigkeiten wie Bergwandern, Alpinwandern und Trekking, die Erforschung und Kartografie unbekannter Berggebiete, sowie Naturschutz und Bergführerwesen.
Ausgeübt wird der Bergsport von Bergsteigern bzw. Alpinisten.
Früher und heute
Bis weit ins 18. Jahrhundert wurde das Hochgebirge von Wanderern und Reisenden noch weitgehend gemieden. Es gab auch keinen Kult, der dem Bergsteigen eine religiöse Überhöhung gegeben hätte. „Da man nie gezwungen gewesen war, sich dorthin zu begeben, wusste man auch nicht, ob das überhaupt möglich war“ und eine „einigermaßen senkrechte Wand zu besteigen, ist nicht schlimmer als über glühende Kohlen zu laufen“ schreibt Paul Veyne über die Vorgeschichte des Alpinismus. Als Geburtsstunde des Bergsteigens wird einerseits die Erstbesteigung des Mont Ventoux () am 26. April 1336 durch Francesco Petrarca, andererseits 1492 die Besteigung des Mont Aiguille () durch eine Söldnertruppe, befohlen von Karl VIII., betrachtet. Da diese beiden Erstbesteigungen Eingang in die Literatur fanden, wurden sie weitaus bekannter als die bereits 1358 geglückte Besteigung des hohen Rocciamelone durch Bonifacio Rotario d’Asti.
St. Niklaus im Schweizer Kanton Wallis gilt in der zweiten Hälfte des 19. Jahrhunderts als die Wiege des professionellen Alpinismus, wo das erste Bergführermuseum der Welt eingerichtet wurde.
Früher wurden das Bergsteigen und die damit verbundenen Expeditionen auch Bergfahrten genannt.
Dass Alpinismus mehr ist als Bergsteigen und Klettern, manifestiert sich in der Ernennung des Alpinismus zum Immateriellen Kulturerbe der UNESCO. Die Ernennung erfolgte 2019 auf Betreiben des französischen Alpinen Vereins Club Alpin Français (CAF), zusammen mit dem Schweizer Alpen-Club (SAC) und dem Club Alpino Italiano (CAI). Grundlage hierfür war die von den drei Alpinvereinen der UNESCO vorgelegte Definition von Alpinismus:
Wichtige Ereignisse
Antike und Mittelalter
181 v. Chr. – Nach der Überlieferung Besteigung des Musala im Rila-Gebirge, des höchsten Gipfels der gesamten Balkanhalbinsel, durch den makedonischen König Philipp V.
125 n. Chr. – Kaiser Hadrian besteigt den Ätna.
1336 – Francesco Petrarca lässt seine Ersteigung des Mont Ventoux in der Provence (ein früherer heiliger Berg der Kelten) in die Literatur einfließen.
1358 – Besteigung des Rocciamelone durch Bonifacio Rotario d’Asti.
Frühe Neuzeit
1492 – Erstbesteigung des Mont Aiguille (Felskletterei) in den französischen Voralpen.
1519 – Diego de Ordás besteigt zusammen mit zwei weiteren namentlich nicht mehr bekannten Konquistadoren den mexikanischen Vulkan Popocatépetl (heute ) und erstellt dabei einen Höhenweltrekord, der jahrhundertelang Bestand haben wird. Kaiser Karl V. gestattet de Ordás daraufhin, einen rauchenden Vulkan in seinem Wappen zu führen.
1573 – Erste überlieferte Besteigung des Corno Grande, höchster Gipfel des Gran Sasso-Massivs (Abruzzen, Apennin), des höchsten Berges in Italien (ohne Alpen und Ätna) durch den Bologneser Francesco De Marchi.
18. und 19. Jahrhundert
1762 – Der Ankogel (3263 m) in den östlichen Hohen Tauern wird von einem Bauern namens Patschg aus dem Gasteiner Tal erstiegen – erste überlieferte Gipfelbesteigung eines vergletscherten Dreitausenders in den Alpen.
1770 – Nach erfolglosen Versuchen ab 1765 erreichen die Brüder Deluc, Genfer Gelehrte, den Gipfel des Mont Buet (3098 m) und führen dort physikalische Höhenexperimente durch. In den Jahren 1775 und 1776 folgen ihnen die Wissenschaftler-Kollegen Marc-Théodore Bourrit und Horace Bénédict de Saussure, ebenfalls aus Genf, unter anderem, um von dort Wege auf den Mont Blanc zu erkunden.
ca. 1780 bis 1824 – Pater Placidus a Spescha aus dem Kloster Disentis besteigt zahlreiche Berge im Bündner Oberland, so das Rheinwaldhorn 1789, den Piz Terri 1798 und (fast – nur seine Begleiter erreichen den Gipfel) den Tödi 1824.
1786 – Erstbesteigung des Mont Blanc durch Michel-Gabriel Paccard und Jacques Balmat auf Anregung des Genfer Gelehrten Horace-Bénédict de Saussure.
1788 – Der Marineoffizier Daniil Gauss besteigt mit zwei Begleitern die Kljutschewskaja Sopka (4750 m) im Rahmen der Billings-Sarytschew-Expedition.
1800 – Erstbesteigung des Großglockners, des Watzmanns und des Hohen Gölls.
1802 – Alexander von Humboldt erreicht bei seinen Forschungsreisen in Südamerika am Chimborazo, damals höchster bekannter Berg, eine Höhe von 5800 m und stellt damit für 30 Jahre den Höhenweltrekord auf.
1804 – Erstbesteigung des Ortlers auf Befehl von Erzherzog Johann von Österreich.
1809 – Marie Paradis besteigt als erste Frau den Mont Blanc (siebte Besteigung).
1811 – Erstbesteigung der Jungfrau im Berner Oberland.
1852 – Vermessung des höchsten Bergs auf der Erde im Himalaya und Benennung nach dem ehemaligen Leiter des Vermessungsamtes, Sir George Everest.
1857 – Gründung des Alpine Club in London.
1860 – Franz Josef Lochmatter bringt den ersten Pickel, der in Chamonix in Gebrauch war, ins Mattertal bzw. in die Schweiz.
1862 – Gründung des Österreichischen Alpenvereins.
1863 – Gründung des Schweizer Alpen-Clubs.
1865 – Die Erstbesteigung des Matterhorns durch Edward Whymper endet in einer Katastrophe – vier seiner Begleiter stürzen beim Abstieg tödlich ab. Ebenfalls 1865 wird das Matterhorn über den Liongrat von Jean-Antoine Carrel und Gefährten bestiegen.
1867 – Vier Kletterer kommen am Matterhorn ums Leben.
1868 – Zweitbesteigung des Matterhorns über den Hörnligrat durch Josef Marie Lochmatter.
1869 – Gründung des Deutschen Alpenvereins.
1870 – Hermann von Barth erkundet die noch weitgehend unbekannten Nördlichen Kalkalpen (Karwendel, Berchtesgadener Alpen usw.) und berichtet eingehend darüber.
1871 – Lucy Walker besteigt als erste Frau das Matterhorn unter der Führung von Niklaus und Peter Knubel.
1874 – Peter Knubel führt die Erstbesteigung des hohen Elbrus im Kaukasus durch.
1876 – Am 18. August durchsteigen Markgraf Alfred Pallavicini und die Bergführer Hans Tribusser, G. Bäuerle und J. Kramser die Eisrinne, die zur Oberen Glocknerscharte des Großglockners führt. Tribusser schlägt 2500 Stufen in das Eis der später so genannten Pallavicinirinne.
1876 – Isabella Straton gelang als erstem Menschen die Winterbesteigung des Mont Blanc
1880 – Erstbesteigung des hohen Chimborazo durch Edward Whymper und Jean-Antoine Carrel.
1881 – Gründung des Edelweiss-Club Salzburg, Österreich.
1883 – Josef Imboden führt die Erstbesteigung des hohen Khanla Kang in der Kangchenjunga-Gruppe des Himalajas durch
1884 – Alois Pollinger setzt die moderne Abseiltechnik mit doppeltem Seil auf einer größeren Tour zum ersten Mal erfolgreich ein.
1889 – Erstbesteigung des Kilimandscharo.
1893 – Erstbegehung des Peutereygrates am Mont Blanc durch Paul Güßfeldt, Émile Rey und den Bergführer Christian Klucker.
1894 – Veröffentlichung des ersten Führers, der die angeführten Touren mit römischen Zahlen bewertet: die Benesch-Skala, bei der die niedrigste Zahl den höchsten Schwierigkeitsgrad bedeutet. In den folgenden Jahren entstehen im gesamten Alpenraum ähnliche Bewertungssysteme, wobei die Skala „umgedreht“ wurde (d. h. I entspricht dem geringsten Schwierigkeitsgrad). Die sechsstufige Alpenskala wurde später durch die nach oben offene UIAA-Skala ersetzt.
1895 – Gründung des Touristenverein Naturfreunde.
1896 – Gründung der ersten alpinen Rettungsorganisation, des Alpinen Rettungsausschusses Wien, eines Vorläufers des österreichischen Bergrettungsdienstes.
1900 – Reise des Bergführers Josef Lochmatter nach Norwegen, um sich dort die Skifahrtechnik noch besser anzueignen.
1901–2000
1902 – Am 10. Januar Wintererstbesteigung des Weisshorns () durch Josef Lochmatter.
1907 – Mit dem Trishul (Garhwalhimalaya) wird der erste Siebentausender durch eine englisch-französische Expedition bestiegen.
1908 – Entwicklung des zehnzackigen Steigeisens durch Oscar Eckenstein.
bis 1911 – Besteigung des 68. Viertausenders der Alpen durch Karl Blodig (nach dessen Zählart alle Viertausender der Alpen) unter der Führung von Josef Knubel.
1913 – Erstbesteigung des Denali (höchster Berg Alaskas).
1915–1918 – Der Erste Weltkrieg wird auch in den Alpen geführt und tausende Soldaten der Kriegsparteien werden bei Lawinenabgängen getötet („Alpenkrieg“)
1917 – Erste Skibesteigung des hohen Dom durch Josef Knubel
1924 – Bei der Erstbegehung des Wiesbachhorns durch Willo Welzenbach und Franz Riegele wird der erste Eishaken geschlagen.
1924 – Bei der 3. britischen Everest-Expedition erreicht Edward Felix Norton die Höhe von 8572 m und stellt damit einen neuen, lange gültigen Höhenrekord auf. Bei dieser Expedition verschwinden George Mallory und Andrew Irvine bei einem Sturm auf dem Gipfel spurlos.
1927 – Besteigung des Pik Lenin durch Karl Wien, Eugen Allwein und Erwin Schneider im Rahmen der deutsch-russischen Expedition in den Pamir (geführt von Willi Rickmer Rickmers).
1932 – Gründung der UIAA – Union Internationale des Associations d’Alpinisme; Erste deutsche Expedition auf den Nanga Parbat: Deutsch-Amerikanische Himalaya-Expedition 1932.
1934 – Bei der Deutschen Nanga-Parbat-Expedition 1934 sterben vier Expeditionsmitglieder, darunter auch der Expeditionsleiter Willy Merkl.
1936 – Gründung der Deutschen Himalaya-Stiftung zur Förderung von Expeditionen in den Himalaya, speziell auf den Nanga Parbat.
1937 – Bei einer erneuten Großexpedition zum Nanga Parbat werden 16 Bergsteiger (sieben Deutsche und neun Sherpas) unter einer Lawine begraben.
Juli 1938 – Erstdurchsteigung der Eiger-Nordwand – die letzte „große Nordwand“ wird bezwungen.
1939 – Fritz Wiessner muss am K2 kurz unter dem Gipfel die Besteigung abbrechen. Beim Rückzug starben vier Männer.
1948 – Gründung der Internationalen Kommission für alpines Rettungswesen (IKAR).
1950 – Als erster Achttausender wird die Annapurna ohne zusätzlichen Sauerstoff bestiegen durch Maurice Herzog und Louis Lachenal, der mit der Benennung des Gipfels Pointe Lachenal geehrt wurde.
1953 – Edmund Hillary und Tenzing Norgay besteigen den höchsten Berg der Welt – den Mount Everest.
1953 – Hermann Buhl besteigt den Nanga Parbat. Damit hat zum einzigen Mal in der Geschichte ein Mensch einen Achttausender im Alleingang erstbestiegen. Nach der Annapurna handelt es sich um die zweite Erstbesteigung eines Achttausenders, die ohne zusätzlichen Sauerstoff durchgeführt worden ist. Der Berg gilt als „Schicksalsberg der Deutschen“ und neben dem K2 als der schwierigste Achttausender.
1954 – Erstbesteigung des K2 durch die Italiener Achille Compagnoni und Lino Lacedelli am 31. Juli.
1959 – Umstrittene Erstbesteigung des Cerro Torre in Patagonien durch Cesare Maestri und Toni Egger. Egger stirbt beim Abstieg, Beweise für den Gipfelerfolg fehlen.
1961 – Winterbegehung der Eiger-Nordwand durch Toni Hiebeler und Gefährten.
1964 – Der Shisha Pangma wird als letzter Achttausender von einer chinesischen Expedition bestiegen.
1966 – Die „Hochzeit“ der Direttissime – Erstbegehung der John-Harlin-Direttissima in der Eiger-Nordwand im Februar und März.
1970 – Erste Überschreitung des Nanga Parbat durch Reinhold Messner und seinen Bruder Günther, der in der Diamirflanke stirbt.
1970 – Erstbesteigung des Lhotse Shar durch Rolf Walter und Sepp Mayerl
1971 – Cesare Maestri kehrt zum Cerro Torre zurück und bohrt sich seinen Weg zum Gipfel.
1973 – Veröffentlichung der noch heute gültigen Schwierigkeitsskala – die UIAA-Skala (mittlerweile nach oben „geöffnet“)
1977 – Der VI. Grad – bis dahin die höchste Schwierigkeit beim Felsklettern – wird von Helmut Kiene und Reinhard Karl überboten: Sie eröffnen die Pumprisse im Wilden Kaiser – die erste Tour im VII Schwierigkeitsgrad.
1978 – Peter Habeler und Reinhold Messner besteigen den Mount Everest als erste Menschen ohne Sauerstoffgerät.
1986 – Reinhold Messner besteigt als erster Mensch alle 14 Achttausender. Ebenso erreicht der Kanadier Pat Morrow das Ziel, den jeweils höchsten Gipfel jedes Kontinents zu besteigen (Seven Summits). Am K2 sterben in diesem Jahr 13 erfahrene Bergsteiger.
1987 – Jerzy Kukuczka besteigt als zweiter Mensch alle 14 Achttausender.
1991 – Robert Jasper gelingt die erste Solobegehung der Les Droites Nordwand in 3,5 Stunden über die "Ginat-Jackson Route"1000m, ED. Die schnellste Begehung der Grandes Jorasses Nordwand über die Leichentuch Route 1000 Meter, ED in 2Stunden und 20 Minuten gelingt Robert Jasper mit anschließender Überschreitung der Gipfelkette im gleichen Jahr. Außerdem folgt im gleichen Jahr durch den deutschen Bergführer Robert Jasper die erste Solobegehung von "Spitverdonesque endente" VIII-/A1 Eiger-Nordwand, in nur 4 Stunden, und erste Solobegehung „Löcherspiel“ VII/UIAA Eiger-Nordwand.
1992 – Robert Jasper gelingt das „Trilogie Enchainment“ am Mt.Blanc. Diese Leistung von Robert Jasper wurde in Frankreich zu einer der größten alpinen Leistungen gekürt. Dabei handelte es sich um Grand Pillier d´Angle Nordwand Soloerstbegehung einer neuen Route (800 m,ED-,90°) in 2,5 Stunden, Abstieg über Südwand in den Freney Kessel und Aufstieg auf den Mt.Blanc über die Route „Abonimette“ (800 m,ED-,VI,85°)
1994 – Robert Jasper gelingt die schnellste und erste Eintagesbesteigung des Cerro Torre mit Jörn Heller in 16,5 Stunden ab Camp Bridwell.
1997 – Robert Jasper und Daniela Jasper klettern erstmals mit der Route „Vol de Nuit“ den modernen „freien“ Mixedgrad M8-,450m im alpinen Gelände am Mont Blanc du Tacul.
1994 – Stefan Glowacz definiert eine Trilogie aus den drei damals weltweit schwierigsten alpinen Kletterrouten, Des Kaisers neue Kleider X+/8b+ (Erstbegehung von Stefan Glowacz), Silbergeier X+/8b+ (Erstbegehung von Beat Kammerlander) und End of silence X/8b (Erstbegehung von Thomas Huber).
1996 – 12 Bergsteiger (größtenteils Mitglieder kommerzieller Expeditionen) sterben am 10. Mai am Mount Everest, worauf eine breite Diskussion um das kommerzielle Expeditionsbergsteigen folgte.
1999 – Robert Jasper und Daniela Jasper, das deutsche Bergsteiger-Ehepaar, eröffnet die erste Route im Schwierigkeitsgrad X-/8a durch eine der drei ganz großen alpinen Nordwände, die Eiger-Nordwand mit der Route „Symphonie de liberte´“ und setzt so erstmals den modernen Freikletterimpuls in dieser hochalpinen Dimension um.
Nach 2000
2001 – Alexander Huber eröffnet mit seiner Route Bellavista an der Westlichen Zinne in den Dolomiten als Erster den XI. Grad in einer alpinen Route.
2001 – Erik Weihenmayer besteigt als erster Blinder den Gipfel des Mount Everest.
2005 – Im Februar besteigt der Steirer Christian Stangl zehn 6000er in sieben Tagen (u. a. Ojos del Salado, Tres Cruces) – in den Jahren davor bestieg er den Aconcagua und den Kilimandscharo in Rekordzeiten.
2007 – Der Tiroler Hansjörg Auer durchsteigt im Free Solo den „Weg durch den Fisch“ (9-) in der Marmolata-Südwand in den Dolomiten.
2012 – Am 21. Januar gelingt den Österreichern David Lama und Peter Ortner die erste freie Begehung entlang der „Kompressorroute“ (IX+/X-) in der Head Wall des Cerro Torre. Sie benötigten dafür 24 Stunden.
2015 – wurde die Route Odyssee X+/8a+ durch den Deutschen Robert Jasper, den Schweizer Roger Schaeli und den Italiener Simon Gietl erstbegangen und somit die schwierigste Route durch die Eiger-Nordwand, im modernen Freikletter-Stil eröffnet.
2019 – Alpinismus wird als gemeinsamer Beitrag von Frankreich, Italien und der Schweiz in das immaterielle Kulturerbe der UNESCO aufgenommen.
Berühmte Bergsteiger und Kletterer
Bekannte Bergsteiger erlangten ihre Berühmtheit immer durch besondere alpinistische Leistungen, das kann eine Erstbesteigung (Sommer- oder Winterbegehung), eine besonders anspruchsvolle Tour durch eine Wand oder das erste Mal eine Rot-Punkt-Begehung sein.
Die bedeutendsten Bergsteiger sind in der Liste berühmter Bergsteiger genannt, Sportkletterer werden zusätzlich in der Liste von Sportkletterern erwähnt.
Vereine und Organisationen
Alpine Vereine
Union Internationale des Associations d’Alpinisme (UIAA)
Internationale Kommission für alpines Rettungswesen (IKAR)
Literatur
Rainer Amstädter: Der Alpinismus. WUV, Wien 1996, ISBN 3-85114-273-X.
Uli Auffermann: Entscheidung in der Wand: Marksteine des Alpinismus. Wenn Leidenschaft viele Gesichter hat. Schall-Verlag, Alland 2010, ISBN 978-3-900533-62-5.
Hermann von Barth: Aus den Nördlichen Kalkalpen; Ersteigungen und Erlebnisse in den Gebirgen Berchtesgadens, des Algäu, des Innthales, des Isar-Quellengebietes und des Wettersteins; Mit erläuternden Beiträgen zur Orographie und Hypsometrie der Nördlichen Kalkalpen, Mit lythographierten Gebirgsprofilen und Horizontalprojectionen nach Original-Skizzen des Verfassers. Heinrich Hugendubel, München 1874. (Digitalisat (PDF; 86 MB)). (Faksimile: Fines Mundi Verlag, Saarbrücken 2008)
Luisa Francia: Der untere Himmel. Frauen in eisigen Höhen. Nymphenburger, München 1999, ISBN 3-485-00813-3 (über Bergsteigerinnen).
Peter Grupp: Faszination Berg. Die Geschichte des Alpinismus. Böhlau, Köln 2008, ISBN 978-3-412-20086-2.
Martin Krauß: Der Träger war immer schon vorher da. Die Geschichte des Wanderns und Bergsteigens in den Alpen. Nagel & Kimche, Zürich 2013, ISBN 978-3-312-00558-1.
Sherry B. Ortner: Die Welt der Sherpas. Leben und Sterben am Mount Everest („Life & Death on Mt. Everest. Sherpas & Himalayan Mountaineer“). Lübbe-Verlag, Bergisch Gladbach 2000, ISBN 3-7857-2025-4 (ethnologische Untersuchung).
Hans-Günter Richardi: Die Erschließung der Dolomiten. Auf den Spuren der Pioniere Paul Grohmann und Viktor Wolf-Glanvell in den Bleichen Bergen. Athesia-Verlag, Bozen 2008, ISBN 978-88-8266-524-1.
Horace-Bénédict de Saussure: Kurzer Bericht von einer Reise auf den Gipfel des Mont Blanc, im August 1787. Akademische Buchhandlung, Straßburg 1788. (Faksimile: Fines Mundi Verlag, Saarbrücken 2008)
Martin Scharfe: Berg-Sucht: eine Kulturgeschichte des frühen Alpinismus 1750–1850. Böhlau, Wien 2007, ISBN 978-3-205-77641-3.
Pit Schubert: Sicherheit und Risiko in Fels und Eis. 2. Auflage. Rother, München 1995, ISBN 3-7633-6000-X.
Helmuth Zebhauser: Alpinismus im Hitlerstaat. Rother, München 1998, ISBN 3-7633-8102-3.
Bergsteigen natürlich. Broschüre des DAV mit Informationen zum umweltverträglichen Bergsteigen (PDF)
Quellen
Weblinks
Natursportart
Sportgattung
Repräsentatives immaterielles Kulturerbe
sv:Klättring#Alpin klättring
|
Q36908
| 254.088103 |
1207995
|
https://de.wikipedia.org/wiki/Kynismus
|
Kynismus
|
Der Kynismus [] () war eine Strömung der antiken Philosophie mit den Schwerpunkten auf ethischem Skeptizismus und Bedürfnislosigkeit. Der moderne Begriff Zynismus ist von dem ursprünglichen Wort abgeleitet, hat jedoch im heutigen Sprachgebrauch eine andere Bedeutung.
Die ersten und bis heute bekanntesten Kyniker waren im 5. und 4. Jahrhundert v. Chr. der Sokrates-Schüler Antisthenes und danach dessen Schüler Diogenes. Die philosophische Strömung verebbte bald, gab jedoch einige ihrer Vorstellungen – auch über die Diogenes-Schüler Stilpon und Krates – an die spätere Stoa weiter.
Die Grundidee der kynischen Philosophie bestand darin, jeglichen Besitz auf das Allernotwendigste zu reduzieren, um Glückseligkeit durch größtmögliche Unabhängigkeit von äußerer Hilfe zu erreichen: „Ich besitze nicht, damit ich nicht besessen werde“. Die Kyniker kleideten sich (wenn überhaupt) in einfachste Gewänder, machten sich die Armut zur Regel, lebten von Almosen, zogen als Wanderprediger umher und schliefen auf der Straße oder in den Säulengängen der Tempel.
In ihrer Lehre eines „Zurück zur Natur“ verwarfen sie die Metaphysik als ebenso sinnlos wie Platons Ideenlehre. Sie betrachteten die Ethik als einzigen Leitfaden und die Natur als einzig wahres Vorbild. In letzterem Punkt gingen sie so weit, die freie Befriedigung des Geschlechtstriebes als ebenso natürlich anzusehen wie das Stillen des Hungers. Davon abgesehen finden sich viele Elemente ihrer asketischen Lebensweise später bei den Essenern Judäas oder den Mönchen des frühchristlichen Ägypten wieder.
Namensherkunft
Die Bezeichnung leitete sich ursprünglich vom Kynosarges her, einem Athener Gymnasion, in dem Antisthenes unterrichtete. Die Halle war an jener Stelle erbaut worden, wo sich einst das Heiligtum des Herakles Kynósarges befand. Dieses verdankte seinen Namen wiederum einer mythologischen Erzählung um den Gründer Diomos, bei der ein Hund (griechisch , Genitiv ) eine maßgebliche Rolle spielte.
Obwohl die Bezeichnung also ebenso zufällig war wie bei Platons Akademie und dem Lykeion des Aristoteles, drängte sich im Volk wohl eine Assoziation mit dem „Hundeleben“ der Kyniker auf. Die Philosophen griffen das – ganz „zynisch“ – auf und spielten selbst mit dieser Zuordnung. Diogenes etwa stellte sich in dem berühmten Dialog mit Alexander („Ich bin Alexander, der große König“) mit den Worten vor: „Und ich bin Diogenes der Hund“. Die Korinther setzten später einen Marmorhund auf sein Grab.
Einzelne moderne Philosophiehistoriker zweifeln die Namensherkunft trotzdem an.
Überlieferung
Da von den Kynikern keinerlei Schriften hinterlassen wurden, ist ihr historisches Bild vor allem aus Berichten und Legenden geprägt. Dabei ist zu beachten, dass die Gestalt des Diogenes, aber auch die gesamte Lehre des Kynismus, bereits in der Antike sehr stark polarisierten. Die Berichte sind also entweder von einer Idealisierung des Diogenes zum unfehlbaren ethischen Vorbild geprägt, oder sie weisen seine Ansichten zurück, verzerren sie ins Lächerliche und tadeln seinen Lebenswandel als unmoralisch. Die oft nur anekdotenhaften Überlieferungen wurden dabei kaum hinterfragt, den darin klaffenden Lücken erstaunlich wenig Bedenken gewidmet. So ist z. B. lange unkritisch hingenommen worden, dass fast das gesamte antike Material über den Kynismus drei- bis fünfhundert Jahre jünger ist als die ersten Kyniker und dass nur eine geringe Zahl von Vertretern der sogenannten „kynischen Schule“ bekannt war.
Diogenes Laertios hat die Namen von Schriften der Kyniker überliefert; welche davon es tatsächlich gegeben hat, ist unklar. Von Antisthenes zählt er beispielsweise über 70 Titel auf.
Ein Zugang zum historischen Kynismus ist daher nur schwer zu gewinnen. Der Großteil der Quellen über den Kynismus stammt aus dritter Hand, von Marcus Tullius Cicero und Diogenes Laertios (3. Jahrhundert), der im 6. der 10 Bücher seines Werks Über Leben und Lehren berühmter Philosophen die Kyniker behandelt. Dass vom Kynismus nur wenig Material erhalten ist, hat mehrere Gründe. Zum einen liegt es daran, dass man dem Kynismus bereits im Altertum den Charakter einer echten Philosophenschule abgesprochen hat, da es sich eher um eine Lebensform handle. Tatsächlich gibt es aber einige wenige Kyniker, die sich sehr ausführlich mit der Literatur beschäftigten. Zu ihnen gehören Monimos und Krates, die – ganz im Gegensatz zu Diogenes – vor allem durch ihre schriftstellerische Tätigkeit als Satiriker und Moralisten bekannt wurden. Krates schrieb parodistische Tragödien, Hymnen, Elegien und Briefe, die allesamt verloren gegangen sind. Aber auch Antisthenes soll ein zehnbändiges Werk über die Lehren des Kynismus verfasst haben (von dem allerdings nur mehr Fragmente erhalten sind). Der Großteil ist im Laufe der Zeit verloren gegangen und nur wenige Werke sind teilweise erhalten geblieben (siehe auch Bücherverluste in der Spätantike).
Lehre
Wegen der schlechten Überlieferungslage werden die Lehren der Kyniker aus den Anekdoten oft unter Rückgriff auf die verwandte Lehre der Stoa rekonstruiert. Zwar hat der Kynismus starken Einfluss auf die Stoa ausgeübt, doch philosophiehistorisch führt die Vermischung leicht zur Chimäre eines „kynisierenden Stoizismus“.
Ethik
Höchstes Ziel ist für die Kyniker, wie für die meisten anderen nachsokratischen Schulen, das Erreichen des Glücks des Einzelnen. Der Weg dahin, den die Kyniker beschreiten wollen, ist dem der Stoiker sehr ähnlich: Nach der kynischen Lehre beruht Glück auf innerer Unabhängigkeit und Autarkie. Diese innere Freiheit wiederum könne man durch Tugend erreichen, die somit für sich selbst ausreichend zum Glück sei. Sie sei der einzig wahre Wert; alle anderen vermeintlichen Güter seien in Wirklichkeit Übel oder zumindest unwichtig für ein glückseliges Leben. Abweichend von den Stoikern weisen sie eine Verstrickung in das Streben nach anderen Gütern aktiv zurück, während die Stoiker passive Zurückhaltung empfehlen.
Worin die eigentliche Tugend besteht, scheinen die Kyniker nicht näher definiert zu haben. Am ehesten finden wir eine Antwort in den Anekdoten, die über die Kyniker verfasst worden sind: Primär ist die kynische Tugend als Vermeidung des Übels und Bedürfnislosigkeit zu verstehen. Letztere sichert die innere Freiheit und führt zu einem weiteren Grundsatz des Kynismus: der Orientierung an der Natur. Was natürlich ist, könne weder schlecht sein, noch ein Grund, sich dafür zu schämen. Somit ist für die Kyniker beispielsweise das öffentliche Leben des Diogenes oder die offene Tür von Krates und Hipparchia nicht skandalös, sondern natürlich und normal. Eine Art Vorbild stellten die Tiere dar, da sie einerseits Ansätze zur Kritik an der menschlichen Gesellschaft bieten, andererseits aber auch – so waren die Kyniker überzeugt – eine positive Anleitung zu einem glücklichen und richtigen, naturgemäßen Leben brachten.
Doch auch wenn die Bedürfnislosigkeit die Autarkie sichert, so führt sie zur Negation der althergebrachten Sitten, Normen und Gesetzen, der Kultur, Kunst und Familie, bis hin zur Erregung des öffentlichen Ärgernisses. Dieses muss in Kauf genommen, ja sogar erwartet werden: Durch die Bedürfnislosigkeit wird dem Schicksal aber möglichst wenig Angriffsfläche geboten: wer nichts besitzt, kann auch nicht enttäuscht werden, weil er nichts verlieren kann. Deswegen sind die größten Hindernisse auf dem Weg zum Glück Begierde, Angst (z. B. vor Schicksalsschlägen) und Unwissenheit. Denn nur durch Wissen sei Tugend erlernbar, wenn man auch bereit ist, das Erlernte umzusetzen. Der Kynismus ist in seinen Lehren und seiner Umsetzung also sehr radikal: alle äußerlichen, weltlichen Dinge sollen abgelegt werden, weil sie unglücklich machen und wider die Natur sind.
Die Mittel, mit denen die Kyniker „zubeißen“, um die bestehende Ordnung durch ein „natürlicheres“ zu ersetzen, sind das Vorleben der Armut, Provokation und Satire und Spott in Form von heftigen Bußpredigten, die durch einen aggressiven Stil des Vortrags, auffällige, extreme Bildersprache und derbe Anschaulichkeit gekennzeichnet sind, die sogenannte Diatribe (). Diese verwenden auch Stoiker, besonders Seneca, und transformieren sie in eine lockere, im volkstümlichen Ton gehaltene moralphilosophische Rede. Diese wendete sich an ein breites Laienpublikum, um es durch unterhaltsame Belehrung zu erziehen und beeinflusste im Stil auch die frühchristliche Predigt sehr stark. Häufig waren die Kyniker auch darauf aus, durch Skandale Aufmerksamkeit zu erregen, um ihrem Protest gegen die bestehenden Verhältnisse Nachdruck zu verleihen.
Während der hellenistische Kynismus also sehr individualistisch ausgerichtet war, so änderte sich dies im Laufe der Jahrhunderte. Der Kynismus der römischen Kaiserzeit – ganz im Gegensatz zum Kynismus des Diogenes – trug fast schon religiöse Züge. Das Gemeinschaftswesen spielte nun eine große Rolle. Das Einzige, das sich nicht veränderte, waren die kompromisslosen Einstellungen in Bezug auf Askese und Bedürfnislosigkeit. So ist es auch kaum verwunderlich, dass der Kynismus mit dem Ende der Antike als eigenständige Philosophierichtung verschwand. Nur im Stoizismus lebten einige Grundgedanken weiter.
Kynismus und Stoa
Die Stoa folgt denselben ethischen Maximen wie im Kynismus. Während aber für die Kyniker das naturgemäße Leben, das mit Bedürfnislosigkeit einhergeht, ein Weg ist, um dem Schicksal, der Ananke, so weit es geht zu entfliehen, bedeutet für die Stoiker (Zenon), dass das Leben von Vernunft bestimmt ist, da sie uns erkennen lässt, dass Reichtum oder Ansehen nur vermeintliches Glück sind. Nicht die Vermeidung des Schicksals durch eine Trennung von natürlichen und unnatürlichen Bedürfnissen, sondern eine apathische Gleichgültigkeit gegenüber den Bedürfnissen ist das Ziel, nicht die Vermeidung des Schicksals, sondern die Hinnahme der Pflichten und Aufgaben, die sich aus den Zufällen von Geburt und Eignung ergeben.
Der Versuch der Kyniker, der öffentlichen Welt zu entrinnen, wird von der Stoa dafür kritisiert, dass so das eigene Ego, das noch immer mit Problemen, Sorgen und Ängsten kämpft, dem Glück im Weg steht.
Kosmopolitismus
Das altgriechische Wort für Kosmopolitismus taucht das erste Mal im Zusammenhang mit dem Kyniker Diogenes von Sinope auf. Auf die Frage woher er komme, soll er geantwortet haben, er sei Weltbürger (). Dieser Ausspruch soll wohl einen Gegensatz zu den zeitgenössischen Ansichten aufzeigen, denen gemäß jeder freie Mensch erstens Bürger einer Polis und zweitens Grieche (im Unterschied zu den nicht-griechischen Barbaren) war.
Geschichte des Kynismus
Als Vertreter des Kynismus gelten
im 5. und 4. Jahrhundert v. Chr. Antisthenes,
im 4. Jahrhundert v. Chr. Diogenes von Sinope,
im 4. und 3. Jahrhundert v. Chr. Onesikritos (Historiker), Krates von Theben und Hipparchia, Bion von Borysthenes,
im 3. Jahrhundert v. Chr. Menippos von Gadara (Literat), Teles von Megara, Kerkidas (Literat),
im 1. Jahrhundert v. Chr. Meleagros von Gadara (Literat) und
während der römischen Kaiserzeit Demetrios (1. Jahrhundert), Dion Chrysostomos (1. und 2. Jahrhundert), Demonax, Peregrinus Proteus (beide 2. Jahrhundert), Salustios aus Emesa (5. Jahrhundert).
Wenig bis kaum etwas ist über die im 4. bzw. 3. Jahrhundert v. Chr. tätigen Kyniker Philiskos von Ägina, Monimos, Metrokles und Menedemos bekannt.
Begründer
Als Begründer des Kynismus gelten der Sokrates-Schüler Antisthenes und sein Schüler Diogenes von Sinope. Antisthenes war im 5. und 4., Diogenes von Sinope im 4. Jahrhundert v. Chr. tätig.
Antisthenes riet zum Rückzug aus dem politischen Leben und den alten Werten zugunsten eines naturgemäßen Lebens, das weniger Enttäuschungen mit sich bringt. Der bedeutendste Schüler des Antisthenes war Diogenes von Sinope, der bekannteste Kyniker und eigentliche Begründer des Kynismus als Lebensform und philosophische Schule. Schüler des Diogenes waren Monimos und Krates von Theben, der wiederum der Lehrer von Zenon von Kition, dem Begründer der Stoa, war. Damit lassen sich Kynismus und Stoa gleichermaßen auf Antisthenes und damit auf Sokrates zurückführen. Die in der Antike aufgestellten Stammbäume der Philosophenschulen, die alle nachsokratischen Schulen auf Sokrates zurückführen, sollten jedoch historisch mit Zurückhaltung betrachtet werden.
Im Gegensatz zu Antisthenes ziehen sich Diogenes und die anderen Kyniker nicht völlig aus der Öffentlichkeit der Polis zurück, sondern provozieren und gehen in Opposition zu der bestehenden Ordnung, von der sie ahnen, dass sie dem Untergang geweiht ist.
In der Überlieferung zu Diogenes erfahren wir nichts, das nicht in Zweifel gezogen werden könnte. Nicht einmal seine historische Existenz ist klar nachweisbar, er findet nur bei einem einzigen zeitgenössischen Autor Erwähnung, bei Theophrast. Auch in der neuen Griechischen Komödie, die sonst eine der wichtigsten Informationsquellen über die öffentliche Wirkung griechischer Philosophen darstellt, treten von den Kynikern nur Monimos und Krates als Figuren auf. Erst mit dieser auf Diogenes folgenden Generation wird der Kynismus historisch einwandfrei fassbar. Alle unter seinem Namen verzeichneten Schriften wurden schon in der Antike für unecht erklärt.
Eine der bekanntesten Anekdoten über Diogenes, ja eine der populärsten Anekdoten aus der Antike überhaupt, ist die Begegnung mit Alexander dem Großen. Alexander soll Diogenes aufgesucht und ihm einen Wunsch gewährt haben, worauf dieser geantwortet habe: Geh mir ein bisschen aus der Sonne!
Weitere Vertreter
Symbolträchtig ist die Handlung, mit der Monimos den Anfang seines kynischen Lebens setzte: Er war bei einem Geldwechsler angestellt. Als er über einen Geschäftsfreund seines Herrn von Diogenes hörte, war er so begeistert, dass er sich wahnsinnig stellte und so lange das Kleingeld sowie sämtliche Silbermünzen durcheinander warf, bis er entlassen wurde.
Weitere Kyniker dieser Zeit waren der ehemalige Geschichtsschreiber Onesikritos, Zoilos von Amphipolis, Menedemos und der Bruder der Hipparchia, Metrokles.
Von Krates ist überliefert, dass er reich geboren sei, aber sein Vermögen und das seiner Frau Hipparchia zugunsten eines kynischen Bettlerlebens an seine Mitbürger verschenkt bzw. einen Teil für seine Kinder auf die Seite gelegt habe, für den Fall, dass diese nicht Philosophen würden (als Philosophen hätten sie den Reichtum nicht nötig). Auch soll er der menschenfreundlichste der Kyniker gewesen sein und dadurch den Beinamen „Türenöffner“ erhalten haben, weil er wegen seiner Freundlichkeit und seiner guten Ratschläge zu jedem Haus Zutritt hatte. Das hatte allerdings zur Folge, dass auch für Krates die von Diogenes berichtete Aufhebung der Trennung von Öffentlichem und Privaten galt. Er und seine Frau sollen in aller Öffentlichkeit miteinander geschlafen haben.
Hauptmerkmale der schriftlichen Werke von Monismos und Krates, die aus zweiter Hand überliefert sind, ist ein satirischer Ton, das „spoudogeloion“, der ernsthafte moralische Probleme mit Lächerlichem verbindet.
Literarischer Kynismus
Ab etwa 300 v. Chr. entsteht eine Strömung des Kynismus, in der Parodie und Satire auf Kosten des philosophischen Gehalts in den Vordergrund treten. Vertreter dieser Strömung sind Bion, Menippos, Teles von Megara, Kerkidas und Meleagros.
Kynismus bei den Römern
Prominente römische Vertreter des Kynismus während der römischen Kaiserzeit waren Demetrios, Dion Chrysostomos, Demonax, Peregrinus und Oinomaos.
Im Jahr 362 verfasste der römische Kaiser Julian zwei Reden (Gegen den Kyniker Herakleios und Gegen die ungebildeten Hunde), die gegen zeitgenössische Kyniker gerichtet waren. In der ersten wird Herakleios dafür kritisiert, dass er sich gegen die Götter und den Kaiser ausgesprochen hat; in der zweiten werden die römischen Kyniker als ordinäre Kyniker den alten Kynikern als den wahren Kynikern gegenübergestellt. Wie auch bei Epiktet findet man bei Julian eine stoisch geprägte Idealisierung des ursprünglichen Kynismus.
Rezeption
Antike
Seneca bewunderte seinen Zeitgenossen, den Kyniker Demetrius, für seine Bedürfnislosigkeit und Unerschütterlichkeit. Epiktet beschrieb den idealen Kyniker als von seiner Umwelt losgelösten Zeugen und Prediger Gottes. Neben solchen anerkennend positiven Bewertungen findet sich aber auch wiederholt Kritik am kynischen Schmarotzertum, am ungepflegten Äußeren der Kyniker und den oft provokanten Belästigungen ihrer Mitmenschen.
Neuzeit
Als man im Frankreich des 17. Jahrhunderts auf der Suche nach antiken Lebensidealen war, trat der Kynismus ins Blickfeld neuzeitlicher Rezipienten. Zu dieser Zeit setzte man Kynismus mit der Missachtung gesellschaftlicher Konventionen gleich. In dieser Bedeutung wird das Wort ab dem 18. Jahrhundert auch in Deutschland gebraucht. Allgemein ist die neuzeitliche Begriffsgeschichte eng verwoben mit der Geschichte des Begriffs „Zynismus“.
Quellensammlungen
Originaltexte
Gabriele Giannantoni (Hrsg.): Socratis et Socraticorum Reliquiae, Band 2, Bibliopolis, Neapel 1990, Abschnitte V-A bis V-N (online)
Übersetzungen
Malte Hossenfelder (Hrsg.): Antike Glückslehren. Quellen in deutscher Übersetzung (= Kröners Taschenausgabe. Band 424). Kröner, Stuttgart 1996, ISBN 3-520-42401-0, S. 1–37.
Georg Luck (Hrsg.): Die Weisheit der Hunde. Texte der antiken Kyniker in deutscher Übersetzung mit Erläuterungen (= Kröners Taschenausgabe. Band 484). Kröner, Stuttgart 1997, ISBN 3-520-48401-3.
Literatur
Übersichtsdarstellungen
Aldo Brancacci: Kyniker. In: Christoph Riedweg u. a. (Hrsg.): Philosophie der Kaiserzeit und der Spätantike (= Grundriss der Geschichte der Philosophie. Die Philosophie der Antike. Band 5/1). Schwabe, Basel 2018, ISBN 978-3-7965-3698-4, S. 182–196
Marie-Odile Goulet-Cazé: Kynismus. In: Reallexikon für Antike und Christentum. Band 22, Hiersemann, Stuttgart 2008, ISBN 978-3-7772-0825-1, Sp. 631–687
Gesamtdarstellungen und Untersuchungen
Margarethe Billerbeck (Hrsg.): Die Kyniker in der modernen Forschung. Grüner, Amsterdam 1991
Klaus Döring: Die Kyniker. Buchner, Bamberg 2006
Klaus Döring: Der Sokratesschüler Aristipp und die Kyrenaiker, Akademie der Wissenschaften und der Literatur, Mainz 1988
Heinrich Niehues-Pröbsting: Der Kynismus des Diogenes und der Begriff des Zynismus, Suhrkamp, Frankfurt am Main 1988
Weblinks
Wilhelm Nestle: Die Sokratiker, Diederichs, Jena 1922, S. 79–162 (unvollständige Quellensammlung in deutscher Übersetzung; online)
Anmerkungen
Griechische Philosophie
Philosophie des Hellenismus
Römische Philosophie
|
Q485459
| 115.827519 |
50889
|
https://de.wikipedia.org/wiki/Polyphonie
|
Polyphonie
|
Polyphonie ( und ) oder Vielstimmigkeit bezeichnet verschiedene Arten der Mehrstimmigkeit in der Musik. Das Wort polyphonia erscheint in dieser Bedeutung erstmals um 1300, wird bis zum 18. Jahrhundert jedoch selten verwendet.
Im Deutschen wird häufig zwischen musikalischer Mehrstimmigkeit als allgemeinerem Phänomen und Polyphonie als Satztechnik (polyphoner Satz) in der europäischen Musik unterschieden, wohingegen das Englische den Begriff polyphony für beides, also in einer allgemeineren Bedeutung verwendet.
Definition
Polyphonie bedeutet in der Musik die Selbstständigkeit und Unabhängigkeit der Stimmen eines Stückes. Vom Spätmittelalter bis zum 18. Jahrhundert entwickeln sich in Europa bestimmte Techniken der Polyphonie, die Ende des 18. Jahrhunderts zurücktraten, aber in der Musik des 20. Jahrhunderts teilweise neu belebt werden. Sie werden seit der Renaissance im Fach des Kontrapunkts gelehrt. Ein Lehrbuch-Ideal seit Gradus ad Parnassum (1725) von Johann Joseph Fux ist der sogenannte Palestrina-Stil als Gegenprinzip zu der von Jean-Philippe Rameau 1722 begründeten Harmonielehre.
Der Begriff Polyphonie wird als Abgrenzung zu anderen musikalischen Phänomenen gebraucht. Im Allgemeinen gibt es drei Unterscheidungen:
Polyphonie – Homophonie
Polyphonie kann die Selbstständigkeit zusammenklingender Stimmen bezeichnen. Dann versteht man Polyphonie als Gegensatz zur Homophonie (dem mehrstimmigen, aber bloß akkordischen Musizieren). Wenn man auf einer Gitarre nur Akkorde spielt statt mehrerer selbstständiger Melodien, würde man in dieser Bedeutung des Wortes nicht polyphon spielen. Ähnlich ist es bei Registerklängen von Orgeln oder elektronischen Instrumenten: Beim Betätigen einer Taste erklingen zwar mehrere Stimmen, aber sie sind nicht selbstständig.
Polyphonie in diesem Sinn ist eine Form der Mehrstimmigkeit, bei der die einzelnen Stimmen im Wesentlichen gleichwertig sind. Dies wird erreicht, indem ein Komponist ihren Verlauf nach den Regeln des Kontrapunkts führt. Polyphone Musikstücke sind in ihrer inneren Struktur stark linear bzw. horizontal orientiert, d. h. die Unabhängigkeit der einzelnen Stimmen drückt sich darin aus, dass sie unterschiedliche Rhythmen, Tonhöhen- und Tondauerverläufe haben.
Polyphonie – Monophonie
Im modernen (aber auch im spätmittelalterlichen) Sprachgebrauch kann Polyphonie einfach Mehrstimmigkeit bedeuten im Gegensatz zur Einstimmigkeit. Auf einer Gitarre kann man zum Beispiel mehrstimmig (Akkorde) oder einstimmig (Melodie) spielen. Ein elektronisches Musikinstrument (z. B. Synthesizer), das mehrere Töne gleichzeitig erzeugen kann, wird „polyphon“ genannt. Frühe Musikautomaten nannten sich Polyphon.
In der westlichen Musikgeschichte wird diese Unterscheidung betont, indem die Homophonie einen letzten Rest Polyphonie behält: Die Regeln der Harmonielehre, bei der Quintparallelen und Oktavparallelen ausgeschlossen sind, trennen streng den Mixturklang (bei dem mehrere Stimmen parallel verlaufen, zum Beispiel die Registerklänge der Orgel oder die spontanen „Barbershop harmonies“ beim Singen), vom Akkord, dessen zusammenhängende Komposition ein Wissen über alle Stimmverläufe voraussetzt, um die Illusion ihrer Selbständigkeit zu erzeugen. Auf diese Weise wird ein einstimmiges Musizieren mit angereichertem Obertonspektrum von einem mehrstimmigen unterschieden.
Polyphonie – Heterophonie
Die Satztechnik der Polyphonie kann sich von Varianten der Heterophonie abgrenzen. Dies ist im Grunde ein Gegensatz zwischen schriftgebundener und schriftunabhängiger Mehrstimmigkeit. Eine komponierte Mehrstimmigkeit, die Parallelen und Dissonanzen nach bestimmten Regeln zulässt oder vermeidet, wird von einem relativ selbständigen, aber eher improvisatorischen Zusammenklingen von Stimmen abgegrenzt, wie es bei vielen außereuropäischen Kulturen, aber auch in der westlichen populären Musik üblich ist.
Geschichte
Polyphonie als Mehrstimmigkeit in der westlichen, „abendländischen“ Tradition ist stets „graphogenetisch“, d. h. abhängig von der Schrift. Der Begriff ist für improvisierte und traditionsgebundene Mehrstimmigkeit kaum anwendbar. Er ist zudem stark von Lehrmeinungen des 19. Jahrhunderts geprägt, die von einer Unterscheidung zwischen Harmonielehre und Kontrapunkt ausgehen, was eine Übertragung auf frühere Zeiten problematisch macht.
Ursprünge
Die schriftlich festgelegte Mehrstimmigkeit entwickelte sich in der europäischen Vokalmusik im Spätmittelalter. Sie steht im Zusammenhang mit dem Universalienproblem der Scholastik. Die so genannte Notre-Dame-Schule der Polyphonie befindet sich in der Zeit zwischen dem strengen Realismus von Wilhelm von Champeaux und der Gründung der Pariser Sorbonne. Im Verhältnis der Stimmen zueinander zeigt sich das Verhältnis des Einzelnen zum Allgemeinen, also vor allem des einzelnen Menschen zu einer Gesamtheit, sei das eine göttliche Weltordnung oder ein Staat. Häufig in polyphoner Vokalmusik sind Symbole der Dreifaltigkeit wie der harmonische Dreiklang oder das Tempus perfectum der Mensuralnotation.
Erste zweistimmige musikalische Aufzeichnungen im Zusammenhang mit Gregorianischem Gesang zeigen sich beim Organum seit dem 9. Jahrhundert. Vermutlich spiegeln sie anfänglich eine Praxis musikalischer Improvisation wider. Die Weiterentwicklung des Discantus im 12. Jahrhundert machte eine Notation des mehrstimmigen Klanggebildes nötig. Léonin und Pérotin sind als früheste Komponisten mehrstimmiger Musik bekannt.
Renaissance und Barock
Die neuen Ausdrucksmöglichkeiten der Ars nova fördern im 14. Jahrhundert die Entstehung einer weltlichen, höfischen Vokalpolyphonie. In der Musik des 16. Jahrhunderts erreichte die Polyphonie einen Höhepunkt (vgl. Niederländische Polyphonie) und beherrschte die Musik der Renaissance. Von kirchlicher Seite kritisiert wurde sie mit dem Argument der fehlenden Textverständlichkeit. Nach einer unbelegten Hypothese rettete Giovanni Pierluigi Palestrina die Polyphonie vor einem päpstlichen Verbot mit seiner Missa Papae Marcelli, in welcher der Messetext leicht verständlich vertont wird. Um 1600 trat dem „Stimmengewirr“ der Polyphonie die Monodie gegenüber: Eine führende Melodie wurde einem Chor von Begleitstimmen vorangestellt.
Im Zeitalter des Absolutismus bildet sich die Polyphonie zurück (vgl. Barockmusik), was erst nachträglich wahrgenommen wurde. Jean-Philippe Rameau stellte fest, dass die Akkorde mittlerweile wichtiger waren als die individuellen Stimmen (Traité de l’harmonie, 1723), bezeichnete dies als „natürliches Prinzip“ und wurde deshalb stark angegriffen. Die Selbständigkeit der Stimmen, so hatte er bemerkt, war zur Illusion geworden.
Nun galt die zunehmend zurückgedrängte Imitation zwischen den Stimmen als Merkmal der Polyphonie. In dieser Spätzeit wurden schon länger existierende polyphone musikalische Formen wie die Fuge perfektioniert, vor allem von Johann Sebastian Bach.
Klassik und Romantik
Allgemein ließ das Aufstreben der Instrumentalmusik die Polyphonie zurücktreten und begünstigte einen architektonischen Aufbau längerer musikalischer Sätze in periodischer Gliederung. Die Komposition von Fugen gehörte nach wie vor zur musikalischen Ausbildung, spielte in der Praxis aber nur noch eine untergeordnete Rolle. Daher bekam die Polyphonie den Anstrich des Gelehrten oder Esoterischen. Polyphone Passagen in Kompositionen seit der Wiener Klassik wirken oft wie historistische Zitate.
Die romantische Musik entdeckte die koloristische, nicht strukturell gehörte Wirkung der Polyphonie. Richard Wagner hat zur Überwindung der musikalischen Periodik eine Art akkordische Polyphonie entwickelt, bei der sich die einzelne Stimme im Gesamtklang auflöst. Damit steigerte er sowohl die Unselbständigkeit der einzelnen Stimme als auch den Schein ihrer Selbständigkeit, was er mit sozialpolitischen Ideen wie der Institution der Genossenschaft begründete: Der gemeinsame längere Atem der Ausführenden ermöglicht eine „unendliche Melodie“.
20. Jahrhundert
Viele Komponisten des 20. Jahrhunderts, etwa Arnold Schönberg, haben sich gegen diese Art Gemeinschaftserlebnis aufgelehnt und ältere Vorstellungen von Polyphonie, verbunden mit einer neuen Behandlung der Dissonanzen, wieder aufleben lassen.
Siehe auch
Homophonie
Mikropolyphonie
Multiphonics
Quartorganum
Quintorganum
Polyphon (Musikautomat)
Iso-Polyphonie
Literatur
Roger Blench: Eurasian folk vocal polyphony traditions. (Draft) 12. Januar 2021
Wieland Ziegenrücker: Allgemeine Musiklehre mit Fragen und Aufgaben zur Selbstkontrolle. Deutscher Verlag für Musik, Leipzig 1977; Taschenbuchausgabe: Wilhelm Goldmann Verlag, und Musikverlag B. Schott’s Söhne, Mainz 1979, ISBN 3-442-33003-3, S. 152–155 (Homophoner und polyphoner Satz).
Weblinks
Joseph Jordania: Who asked the first Question? The Origin of Human Choral Singing, Intelligence, Language and Speech. (PDF; 3,1 MB) Tiblisi Ivane Javakhishvili State University. Institute of Classical, Byzantine and Modern Greek Studies. International Research Centre of Traditional Polyphony. Tiflis (Georgien) 2006
Musiktheorie
Kontrapunkt
|
Q179465
| 102.889257 |
2764370
|
https://de.wikipedia.org/wiki/Kernwaffe
|
Kernwaffe
|
Eine Kernwaffe (Atomwaffe, Nuklearwaffe, Atombombe, Atomsprengkopf) ist eine Waffe, deren Wirkung auf kernphysikalischen Reaktionen – Kernspaltung und/oder Kernfusion – beruht. Konventionelle Waffen beziehen dagegen ihre Explosionsenergie aus chemischen Reaktionen, bei denen die Atomkerne unverändert bleiben. Die Entwicklung der Kernwaffentechnik begann mit dem Zweiten Weltkrieg.
Zusammen mit biologischen und chemischen Waffen gehören Kernwaffen zu den Massenvernichtungswaffen. Bei der Explosion einer Kernwaffe wird sehr viel Energie in Form von Hitze, Druckwelle und ionisierender Strahlung frei. Dadurch kann eine Kernwaffe innerhalb kürzester Zeit eine ganze Stadt zerstören und hunderttausende Menschen töten. Die Strahlung verursacht akute Strahlenkrankheit und gesundheitliche Langzeitschäden. Durch den radioaktiven Niederschlag (Fallout) werden größere Gebiete verseucht.
Durch die Kernspaltung eröffnete sich gegen Ende des Zweiten Weltkriegs die Möglichkeit, die Sprengkraft von tausenden Tonnen TNT in militärisch einsetzbaren Sprengkörpern zu realisieren. Die Weiterentwicklung zur technisch anspruchsvolleren Fusionsbombe versprach im Rahmen des Wettrüstens zu Beginn des Kalten Kriegs Bomben mit mehreren Millionen Tonnen TNT-Äquivalent.
Die Atombombe wurde zuerst von den USA im Manhattan-Projekt entwickelt. Am 16. Juli 1945 fand der erste Kernwaffentest mit einer Kernwaffenexplosion unter dem Projektnamen Trinity (engl. ‚Dreifaltigkeit‘) statt. Am 6. und 9. August 1945 folgten die Atombombenabwürfe auf Hiroshima und Nagasaki, die hunderttausende Opfer forderten.
Seitdem wurden Atombomben nicht mehr als Waffen eingesetzt. Fast 2100 Kernwaffentests fanden statt. Am 30. Juni 1946 warf ein Flugzeug der USAAF eine Atombombe auf das Bikini-Atoll im Pazifik (→ Operation Crossroads).
Auch die Sowjetunion entwickelte ab 1949 Kernwaffen. Am 30. Oktober 1961 zündete die Sowjetunion über der Insel Nowaja Semlja die Zar-Bombe, die mit 57 Megatonnen stärkste jemals gezündete Kernwaffe.
Während des Kalten Krieges kam es zu einem Wettrüsten zwischen den USA und der Sowjetunion, auf dessen Höhepunkt die beiden Staaten zusammen rund 70.000 Atomsprengköpfe besaßen. Ihr Kernwaffenarsenal hatte gegen Ende des Kalten Krieges insgesamt eine Sprengkraft von mehr als 800.000 Hiroshima-Bomben.
Die Notwendigkeit, Plutonium beziehungsweise angereichertes Uran zum Kernwaffenbau herzustellen, führte zur Entwicklung und zum Bau von Urananreicherungsanlagen sowie der ersten Kernreaktoren. Die dabei gewonnenen Erfahrungen beschleunigten den Aufbau einer zivilen Nutzung der Kernenergie. Das noch heute meistgenutzte Verfahren der nuklearen Wiederaufarbeitung, PUREX, hat seinen Ursprung in der Gewinnung waffenfähigen Plutoniums aus niedrig abgebrannten Brennstoff und ist deswegen bis heute als Dual-Use-Technologie in der Kritik, auch wenn aus dem kommerziellen abgebrannten Brennstoff von Reaktoren moderner Bauformen kein bombenfähiges Material gewonnen werden kann.
Kernwaffen wurden im Kalten Krieg auch eine hemmende Wirkung zugeschrieben: gerade die Drohung einer totalen Auslöschung der Menschheit habe das „Gleichgewicht des Schreckens“ aufrechterhalten und damit eine direkte Konfrontation vermieden. Dies trug nach Ansicht einiger Politiker und Politikwissenschaftler dazu bei, dass es zu keinem direkten Krieg zwischen den beiden Militärblöcken kam. Nach und nach erlangten weitere Staaten Kernwaffen; heute gelten neun Staaten als Atommächte: USA, Russland, Großbritannien, Frankreich, China, Israel, Indien, Pakistan und Nordkorea (in chronologischer Reihenfolge).
Zusammen haben diese Staaten heute (Januar 2019) ca. 13.865 Atomsprengköpfe; Mitte der 1980er Jahre waren es etwa 70.000. Das ist genug, um die Menschheit mehrfach zu vernichten (sog. Overkill). Weltweit, teilweise auch in den USA selbst, wird der Einsatz dieser Massenvernichtungswaffen hauptsächlich gegen die Zivilbevölkerung als unmoralisch und ethisch nicht verantwortbar verurteilt. Die Entwicklung der Atombombe wird heute von vielen als das dunkelste Kapitel der Technik- und Wissenschaftsgeschichte angesehen, und die Atombombe ist zu einem Inbegriff des „Fluches der Technik“ geworden.
Die Weiterverbreitung von Kernwaffen zu verhindern, gilt als eine große Herausforderung für die internationale Sicherheit im 21. Jahrhundert. Seit dem ersten Kernwaffeneinsatz wurde angesichts der katastrophalen humanitären Folgen und der Gefahr, die Kernwaffen und insbesondere ein Atomkrieg für die Menschheit darstellen, vielfach ihre komplette Abrüstung gefordert. Einige internationale Verträge haben zu Einschränkungen und Reduktionen der Kernwaffenarsenale (Rüstungskontrolle) und zu atomwaffenfreien Zonen geführt.
Geschichte
Begriff
Kurz nach der Entdeckung der Radioaktivität gegen Ende des 19. Jahrhunderts wurde klar, dass beim Zerfall radioaktiver Elemente über lange Zeiträume ungeheuer große Energiemengen freigesetzt werden. Bald entstanden daher Spekulationen über die technische und militärische Nutzung dieser neuartigen Energie. Das Wort , wurde von H. G. Wells in seinem 1914 erschienenen Roman geprägt, der damit eine Waffe beschrieb, die mit Hilfe induzierter Radioaktivität eine sich über lange Zeit fortsetzende Explosion bewirken sollte. Der Begriff der Atombombe entstand damit zwei Jahrzehnte vor der Entdeckung der Kernspaltung, der Grundlage für die seit den 1940er Jahren entwickelten Nuklearwaffen, auf welche die literarisch bereits eingeführte Bezeichnung schließlich übertragen wurde. Wells hatte sein Buch dem Chemiker Frederick Soddy gewidmet, einem Mitarbeiter des damals führenden Atomphysikers Ernest Rutherford.
Rutherford beschrieb 1911 mit seinem Atommodell den grundsätzlichen Aufbau der Atome aus einem schweren Kern und einer leichten Hülle aus Elektronen. In der Folgezeit wurden die sogenannten atomphysikalischen Vorgänge, zu denen auch chemische Reaktionen gehören und an denen im Wesentlichen die Elektronenhülle beteiligt ist, von den energiereicheren Vorgängen im Atomkern (wie der Radioaktivität und der Kernspaltung) unterschieden, die zum Gegenstand der Kernphysik wurden. Daher werden in der neueren Fachsprache oft Bezeichnungen wie Kernwaffe oder Nuklearwaffe (zu ) und Kernkraftwerk gegenüber Atombombe und Atomkraftwerk vorgezogen; zuweilen wird ein solcher Gebrauch aber auch als euphemistisch angesehen. Auch die Behördensprache verwendet zum Teil weiterhin die Zusammensetzungen mit Atom-: So werden in Deutschland die für die Kernenergie fachlich zuständigen Genehmigungsbehörden teilweise als Atomaufsicht bezeichnet, es gibt ein Atomgesetz, und ein Vorgänger des Bundesministeriums für Bildung und Forschung hatte den Titel Atomministerium. Auch im Sprachgebrauch der meisten anderen Nationen sind die herkömmlichen Bezeichnungen verbreitet, wie der Name der Internationalen Atomenergie-Organisation (IAEO) zeigt.
Der Begriff Atombombe umfasste zunächst nur die auf der Kernspaltung (Fission) beruhenden Kernwaffen (A-Bombe), im Gegensatz dazu wurden Fusionswaffen Wasserstoffbombe (H-Bombe) genannt; daneben gibt es Spezialentwicklungen wie die Kobaltbombe und die Neutronenbombe. Die Ausdrücke Kernwaffen und nukleare Waffen sind Oberbegriffe für alle Arten von Waffen, die Energiegewinne aus Kernreaktionen ausnutzen.
Anfänge
Allgemein bekannt für ihre Arbeit bei der Entwicklung von Kernwaffen sind Robert Oppenheimer und Edward Teller. Der erste Wissenschaftler, der ernsthaft über Kernwaffen nachdachte, war wohl der ungarische Physiker Leó Szilárd; er erwog im September 1933 die Möglichkeit, Atomkerne mittels Beschuss durch Neutronen zu einer Energie liefernden Kettenreaktion zu bringen. Diese Idee war damals noch spekulativ. Die deutsche Chemikerin Ida Noddack-Tacke äußerte 1934 die Vermutung „daß bei der Beschießung schwerer Kerne mit Neutronen diese Kerne in mehrere größere Bruchstücke zerfallen.“
Mit der Entdeckung der neutroneninduzierten Urankernspaltung 1938 durch Otto Hahn und Fritz Straßmann und deren korrekter theoretischer Deutung durch Lise Meitner und deren Neffen Otto Frisch waren 1939 die wichtigsten theoretischen Grundlagen und experimentellen Befunde veröffentlicht, die Kernwaffen bei ausreichender Verfügbarkeit von spaltbarem Uran möglich erscheinen ließen. Diese Möglichkeit erkannten zuerst die beiden an der Universität Birmingham arbeitenden deutsch-österreichischen Emigranten Rudolf Peierls und Otto Frisch. In einem geheimen Memorandum aus dem März 1940 beschrieben sie theoretische Berechnungen zum Bau einer Uran-Bombe und warnten eindringlich vor der Möglichkeit des Baus einer Atombombe durch Deutschland. Infolgedessen wurde die ebenfalls geheim gehaltene britische MAUD-Kommission ins Leben gerufen, die Forschungen zum Bau einer Atombombe empfahl.
Schon vor dem Beginn des Zweiten Weltkrieges am 1. September 1939 richteten die drei aus Deutschland in die Vereinigten Staaten emigrierten Physiker Leó Szilárd, Albert Einstein und Eugene Wigner im August 1939 einen Brief an den damaligen US-Präsidenten Franklin D. Roosevelt, um ihn vor der Möglichkeit der Entwicklung einer Atombombe in Deutschland zu warnen und ihn zur Entwicklung einer eigenen Atombombe anzuregen. Im Herbst 1940 erhielten Enrico Fermi und Szilárd Geld, um mit der Entwicklung eines Kernreaktors zu beginnen. Als die US-Regierung durch die Erfolge dieser Arbeit davon überzeugt wurde, dass die Entwicklung einer Atombombe grundsätzlich möglich war und der Kriegsgegner Deutschland diese Möglichkeit besaß, wurden die Forschungen verstärkt und führten schließlich zum Manhattan-Projekt.
Deutsches Kernspaltungsprojekt
Im nationalsozialistischen Deutschland arbeiteten während des Zweiten Weltkrieges Wissenschaftler wie Werner Heisenberg, Carl Friedrich von Weizsäcker, Walther Gerlach, Kurt Diebner und Otto Hahn unter anderem im Rahmen des deutschen Uranprojekts an der Nutzbarmachung der Kernspaltung zur Erreichung deutscher Kriegsziele.
Die Befürchtung der USA, Deutschland könnte so einen eigenen nuklearen Sprengsatz entwickeln, war ein wichtiger Anlass, ein eigenes Atombombenprogramm zu initiieren. Es wurde vermutet, dass mehrere, über das Gebiet des Deutschen Reichs verteilte und zum Teil unabhängig voneinander arbeitende Forschergruppen bis zum Kriegsende an der Entwicklung einer deutschen Kernwaffe arbeiteten. Nach dem Krieg wurde jedoch festgestellt, dass im Uranprojekt keine Kernwaffen entwickelt wurden. Beim letzten Großversuch, dem Forschungsreaktor Haigerloch, war der Forschergruppe um Heisenberg 1945 noch nicht einmal die Herstellung einer kritischen nuklearen Kettenreaktion gelungen.
Allerdings gibt es auch Recherchen, in denen von geheimen Versuchen der Forschergruppe um Kurt Diebner mit strahlendem Material in Verbindung mit Explosionen gesprochen wird. Dies wird von vielen Physikern angezweifelt und bislang konnten auch keine Beweise für die Durchführung solcher Tests erbracht werden.
Manhattan-Projekt
1942 wurde unter größter Geheimhaltung unter dem Decknamen „Projekt Y“ (als Teil des Manhattan-Projekts) das Forschungslaboratorium Los Alamos im US-Bundesstaat New Mexico konzipiert. Von 1943 an arbeiteten dort unter der wissenschaftlichen Leitung Robert Oppenheimers mehrere tausend Menschen, viele von ihnen Wissenschaftler und Techniker.
Am 16. Juli 1945 wurde die erste Atombombe oberirdisch bei Alamogordo gezündet (Trinity-Test). Das in der Bombe verwendete nukleare Brennmaterial war Plutonium und besaß eine Sprengkraft von 21 Kilotonnen TNT-Äquivalent.
Wegen der Kapitulation Deutschlands Anfang Mai 1945, also 2½ Monate vor dem Trinity-Test, kam in Deutschland keine Atombombe zum Einsatz. Die ersten und bisher einzigen Luftangriffe mit Atombomben wurden am 6. und 9. August 1945 gegen die japanischen Städte Hiroshima und Nagasaki geflogen.
Einsatz gegen Hiroshima und Nagasaki
Am 6. August 1945, also 21 Tage nach dem ersten erfolgreichen Test bei Alamogordo, warf der Bomber Enola Gay die erste Atombombe (Sprengstoff: Uran-235), Little Boy genannt, über der Küstenstadt Hiroshima ab, wo sie um 08:15 Uhr Ortszeit etwa 600 m über dem Boden detonierte. Rund 90.000 Menschen starben sofort, weitere 50.000 Menschen starben innerhalb von Tagen bis Wochen an der Strahlenkrankheit.
Am 9. August 1945 sollte der Bomber Bockscar die zweite Atombombe (Sprengstoff: Plutonium-239), Fat Man genannt, über Kokura abwerfen. Als dort auch nach drei Anflügen noch schlechte Sicht herrschte und der Treibstoff knapp wurde, wich der Kommandant auf das Alternativziel, die Küstenstadt Nagasaki, aus. Da auch dort die Wolkendecke zu dicht war, wurde das Stadtzentrum um mehrere Kilometer verfehlt. Weil zudem das Stadtgebiet hügeliger als das Hiroshimas ist, was die Ausbreitung der Druckwelle behinderte, waren dort weniger Opfer zu beklagen – obwohl Fat Mans Sprengkraft etwas mehr als 50 % stärker war, als die von Little Boy. Dennoch starben bei diesem Angriff 36.000 Menschen sofort; weitere 40.000 Menschen wurden so stark verstrahlt, dass sie innerhalb von Tagen bis Wochen starben.
Lange Zeit wurde angenommen, weitere Zehntausende Menschen seien im Laufe von Jahren und Jahrzehnten an Spätfolgen der Strahlenbelastung gestorben. Studien aus Deutschland, USA und Japan haben diese Schätzungen deutlich nach unten korrigiert: demnach können etwas mehr als 700 Todesfälle der nuklearen Kontamination zugeordnet werden.
Die Bedeutung und die Notwendigkeit der Atombombeneinsätze sind bis heute umstritten. Befürworter haben argumentiert, der Einsatz habe die Kriegsdauer verringert und somit Millionen Menschen das Leben gerettet. Andere haben argumentiert, ein Atombombeneinsatz sei ethisch nicht zu verantworten gewesen; der Krieg hätte auch ohne Atombombeneinsatz in kurzer Zeit geendet und hätte es Alternativen gegeben, die verworfen, nicht genutzt oder nicht bedacht worden seien.
Entwicklung nach dem Zweiten Weltkrieg
Die USA hatten drei Jahre lang als einziger Staat einsatzfähige Atomwaffen und führten damit Tests beispielsweise unter Wasser durch. 1948 besaßen sie rund 50 einsatzbereite Sprengköpfe. Angesichts ihrer militärischen Unterlegenheit gegenüber der Sowjetunion in konventioneller Hinsicht wurde Anfang 1948 im Plan „Halfmoon“ erstmals ein massiver atomarer Vergeltungsschlag gegen die UdSSR entworfen, der zunächst 133 Atombomben auf 70 sowjetische Städte, aber bald darauf in reduzierter Fassung die vorhandenen 50 Atombomben auf 20 sowjetische Städte vorsah.
Unterdessen arbeiteten Großbritannien und die Sowjetunion an eigenen Atombomben. Die Sowjetunion wurde schon während des Zweiten Weltkriegs von Klaus Fuchs über das Atombombenprogramm informiert. Das sowjetische Atombomben-Projekt führte zur erfolgreichen Zündung der ersten eigenen Atombombe am 29. August 1949, was Großbritannien erst am 2. Oktober 1952 und Frankreich am 13. Februar 1960 gelang. 1962 erlaubte Großbritannien den USA die Durchführung der Testserie Dominic auf der Weihnachtsinsel Kiritimati im Pazifik. Die Volksrepublik China zündete am 16. Oktober 1964 eine erste Atombombe im Kernwaffentestgelände Lop Nor im autonomen Gebiet Xinjiang. Diese Kernwaffe wurde mit sowjetischer Technik entwickelt.
Soldaten als Testsubjekte
Das nebenstehende Bild zeigt einen amerikanischen Truppenversuch mit Soldaten in geringer Entfernung zur Atomexplosion im Jahr 1951 in den USA; es dokumentiert den damaligen teilweise sorglosen und ignoranten Umgang mit Radioaktivität. Auch etwa 20.000 britische Soldaten wurden, ohne genauer informiert zu werden, in Testareale nach Australien (12 Tests), nach Kiritimati (6 Versuche) und nach Malden Island (3 Versuche) verlegt. Die größtenteils jungen Soldaten wurden angewiesen, während der Tests die Augen mit Händen oder Ellbogen zu schützen. Die Soldaten, die als Zeugen jener Tests als Atomic Veterans (Atomveteranen) bezeichnet werden, berichteten von den Explosionen als unvergleichbar beängstigenden Erlebnissen. Sie berichteten, dass die freigesetzte Strahlung so grell und durchdringend war, dass die Blutgefäße und Knochen der eigenen Hände und Arme (bei hochgekrempelten Ärmeln) durch die Haut sichtbar wurden. Die darauf folgende Hitzewelle der Explosion habe sich wie körperdurchdringendes Feuer angefühlt. Die Druckwelle habe außerdem indirekt zu Prellungen und Knochenbrüchen geführt, da Soldaten durch die Stoßwelle fortgeschleudert wurden. Fast alle bei den Tests eingesetzten Soldaten erlitten körperliche und seelische Schäden. Einige Soldaten waren nach den Tests zeugungsunfähig; Insgesamt wurde bei den Nachkommen der Soldaten eine vielfach höhere kindliche Sterberate sowie häufigere Fehlbildungen beobachtet. Viele jener Veteranen wurden chronisch krank und hatten verschiedene Formen von Krebs. Laut Berichten waren bei nahezu allen Personen, die bei jenen Tests zugegen waren, die Langzeitschäden ein Faktor ihrer späteren Todesursache.
Entwicklung der Wasserstoffbombe
Die weitere Entwicklung von Kernwaffen führte zur Wasserstoffbombe. Die USA zündeten am 31. Oktober/1. November 1952 ihre erste Wasserstoffbombe (Codename Ivy Mike). Sie setzte eine Energie von 10,4 Megatonnen TNT-Äquivalent frei, das 800-Fache der Hiroshimabombe.
Die Sowjetunion zündete ihre erste Wasserstoffbombe am 12. August 1953 auf dem Atomwaffentestgelände Semipalatinsk. Am 22. November 1955 zündete sie ihre erste transportable H-Bombe. Die USA testete während der Operation Redwing (4. Mai bis 21. Juli 1956) am 20. Mai 1956 erstmals eine thermonukleare Wasserstoffbombe nach dem Teller-Ulam-Design. Am 30. Oktober 1961 zündete die Sowjetunion auf der Insel Nowaja Semlja die Zar-Bombe, die mit 57 MT stärkste jemals gezündete Kernwaffe.
Großbritannien zündete seine erste Wasserstoffbombe 1957 (Operation Grapple), China zündete die erste am 17. Juni 1967 auf dem Testgelände Lop Nor (Test Nr. 6) und Frankreich am 24. August 1968 auf dem Fangataufa-Atoll (Canopus).
Großbritannien trat 1962 dem Verbot von atmosphärischen Kernwaffentests bei. Danach wurden alle Tests unterirdisch in Zusammenarbeit mit den USA auf dem Nevada-Testgelände (Nevada Test Site) durchgeführt (24 Versuche), zuletzt im Jahr 1991. Insgesamt führte Großbritannien 45 Versuche durch.
Entwicklung nach dem Kalten Krieg
Nach dem Zerfall der Sowjetunion zu Beginn der 1990er Jahre haben Experten den militärischen Sinn von Kernwaffen bezweifelt, da jedes Ziel auch mit konventionellen Waffen der gewünschten Größenordnung zerstört werden kann. Die größte Gefahr der atomaren Bewaffnung sei ein Einsatz durch Terroristen, denn diese könnten bei Verwendung von Atomwaffen mit geringem Aufwand großen Schaden anrichten; Atomwaffen dagegen seien im Kampf gegen den Terrorismus vollkommen ungeeignet.
Unabhängig von dieser Entwicklung blieben die USA und Russland als Nachfolgerstaat der Sowjetunion diejenigen Staaten mit den meisten Kernwaffen. Ihr Arsenal wird auch weiterhin gepflegt; es wurde nach Ende des Kalten Krieges immer weniger öffentlich beachtet.
Die Entwicklung solcher kleiner Kernwaffen ist in der Fachwelt als eine Gefahr eingeschätzt worden, da ihr Einsatz kaum Aufsehen erregen würde. Statt zerstörter Städte und tausender Toter würde die Weltöffentlichkeit lediglich einen kleinen Krater sehen. In der Konsequenz würde die Hemmschwelle sinken, Atomwaffen einzusetzen und auf diese Weise vergleichsweise preisgünstig – ohne Verlust eigener Soldaten und ohne allzu negatives Image – Kriege zu führen. Auch der Atomwaffensperrvertrag würde damit in Frage gestellt werden, was unabsehbare Konsequenzen zur Folge haben könnte (Vertragsabschaffung).
Konstruktion
Die technische Entwicklung der Kernwaffen seit den 1940er Jahren hat eine große Vielfalt unterschiedlicher Varianten hervorgebracht. Unterschieden werden grundsätzlich Atombomben nach dem Kernspaltungs- oder -fissionsprinzip („klassische“ Atombombe) und nach dem Kernfusionsprinzip (Wasserstoff- oder H-Bombe).
In einer Kernspaltungsbombe wird zur Auslösung eine überkritische Masse von spaltbarem Material zusammengebracht. Wie hoch diese Masse ist, hängt von Material, Geometrie und Konstruktion ab. Die kleinste kritische Masse lässt sich mit einer Kugelform des spaltbaren Materials erreichen, am häufigsten werden Uran-235 oder Plutonium-239 verwendet. Die Überkritikalität führt zu einer Kernspaltungs-Kettenreaktion mit schnell anwachsender Kernreaktionsrate. Die dadurch freigesetzte Energie bringt das Material zur explosiven Verdampfung.
Bei der Fusionsbombe wird zunächst eine Kernspaltungsbombe gezündet. Die dadurch im Inneren der Bombe erzeugten Drücke und Temperaturen reichen aus, um mit dem in ihr enthaltenen 6Li die Fusionsreaktion zu zünden. Mit dem vorhandenen Deuterium und dem in der genannten Reaktion erzeugten Tritium kommt die thermonukleare Reaktion in Gang.
Explosion
Um Atombomben zur Explosion zu bringen, also den Kernspaltungsprozess in Gang zu setzen, wurden mehrere verschiedene Systeme entwickelt.
Autorisierung und Befehl
Die Befehlsabläufe werden über sog. Atomkoffer gesteuert.
Gun-Design
Das einfachste Prinzip besteht darin, mit einer konventionellen Sprengladung einen für sich allein unterkritischen Kernsprengstoffkörper auf einen zweiten, ebenfalls unterkritischen zu schießen, um die beiden Teile zu einer überkritischen Masse zusammenzufügen.
Es werden entweder zwei Halbkugeln aus spaltbarem Material mit zwei Sprengstoffkapseln aufeinander geschossen oder ein zylinderförmiger Körper aus spaltbarem Material wird auf eine Kugel mit einem entsprechenden Loch geschossen.
Ein solcher Aufbau einer Atombombe wird Gun-Design genannt. Die von den USA am 6. August 1945 auf Hiroshima abgeworfene Atombombe Little Boy war nach diesem System gebaut und hatte eine Sprengkraft von 13 Kilotonnen TNT.
Implosion
Eine weitere Methode ist die Implosion, bei der das spaltbare Material als Hohlkugel vorliegt. Diese ist von einer Schicht Sprengstoff umgeben, der bei der Explosion durch eine Anzahl elektrischer Zünder so gezündet wird, dass die entstehende Druckwelle das Spaltmaterial im Zentrum zusammendrückt. Durch diese Implosion erhöht sich dessen Dichte, ein überkritischer Zustand entsteht.
Sowohl bei der Testbombe von Alamogordo als auch bei der am 9. August 1945 auf Nagasaki abgeworfenen Atombombe handelte es sich um Implosionsbomben. Diese hatten eine Sprengkraft von 20 Kilotonnen TNT.
Kenngrößen
Die bei der Explosion einer Nuklearwaffe freigesetzte Energie wird gewöhnlich in Kilotonnen angegeben. Eine Kilotonne, abgekürzt kT, ist diejenige Energie, die bei der Detonation von 1000 Tonnen (1 Gg) TNT freigesetzt wird (etwa 4·1012 J). Daher wird auch von TNT-Äquivalent gesprochen. Aus diversen Gründen ist die Sprengkraft von konventionellen und nuklearen Waffen über diese Einheit aber nur ungefähr gleichzusetzen. Bei sehr starken Explosionen, etwa von Wasserstoffbomben, wird die Sprengkraft in Megatonnen, kurz MT, angegeben. Diese Einheit entspricht der Energie einer Million Tonnen (1 Tg) TNT.
Die reine Sprengkraft allein ist allerdings noch kein Maß für die Wirksamkeit einer Kernwaffe. Je nach Typus, Einsatzbereich und Explosionshöhe der Waffe sind verschiedene andere Faktoren von Bedeutung. Es sind unter anderem folgende Kenngrößen in Verwendung:
Totaler Zerstörungsradius: der Radius um das Explosionszentrum, in dem alles tierische und menschliche Leben sowie alle Gebäude, Pflanzen usw. komplett vernichtet werden. Je nach Größe der Bombe kann dieser bis zu 10 km betragen. Die experimentelle sowjetische Zar-Bombe hatte in ihrer stärksten Version einen totalen Zerstörungsradius von bis zu 20 km. Danach folgen weitere Radien, in denen die Zerstörungskraft der Bombe abnimmt, z. B. der Radius, bei dem die Überlebenschance über 50 % liegt; danach der, bei dem sie über 80 % liegt, und so weiter.
Millionen Tote: Anzahl der Getöteten bei Explosion in einem Ballungsgebiet. Diese Größe hängt sehr stark vom Ort ab. Insbesondere haben die Bevölkerungsdichte und die Bauweise der Stadt einen sehr großen Einfluss auf die Zahl der Toten. Im Kalten Krieg wurden Modellrechnungen zum Einsatz starker nuklearer Waffen gegen die wichtigsten Ziele durchgeführt, unter anderem Moskau, Leningrad, Washington, D.C. und New York. In heutiger Zeit gibt es entsprechende Simulationen, die von einem terroristischen Anschlag mit einer kleinen Kernwaffe (einige Kilotonnen) ausgehen.
Anzahl der Sprengköpfe: Viele Nuklearraketen verfügen über mehrere nukleare Sprengköpfe, die dann in großer Höhe von der Trägerrakete getrennt werden und sich auf eine große Fläche verteilen. Eine einzige Rakete kann auf diese Weise riesige Gebiete verwüsten, so kann etwa die sowjetische SS-18 Satan – je nach Bestückung – ihre Sprengköpfe über ein Areal von bis zu 60.000 km² verteilen. (Zum Vergleich: Bayern hat eine Fläche von 70.552 km².) Bei modernen Raketen sind die einzelnen Sprengköpfe so steuerbar, dass mit jedem Sprengkopf ein einzelnes Ziel angegriffen werden kann.
Dieses sind jeweils keine festen Einheiten, sondern nur Richtgrößen, anhand derer sich der Schaden einer nuklearen Waffe abschätzen lässt. Je nach Verwendungszweck können auch andere Größen interessant sein, etwa die mechanische, die thermische und die elektromagnetische Leistung, oder der entstehende Fallout und Langzeitwirkungen. Manchmal sind auch einfach nur technische Größen wie Abmessungen und Gewicht von Bedeutung. Um sich ein genaues Bild von der Wirkung einer einzelnen Bombe zu machen, ist die detaillierte Kenntnis verschiedenster Daten notwendig.
Die stärksten als reguläre militärische Sprengköpfe konstruierten Kernwaffen sind Wasserstoffbomben mit bis zu 25 MT Sprengkraft (Sprengkopf für SS-18 ICBM oder Mk-41 Bombe für B-52 Bomber). Die stärkste derzeit im Einsatz befindliche Kernwaffe ist vermutlich der Sprengkopf der chinesischen DF-5A Interkontinentalrakete mit 3 MT (Zum Vergleich: Die Explosionskatastrophe in Beirut hatte eine Sprengkraft von etwa 0,001 MT bzw. 1 kT). Typischerweise sind es aber deutlich weniger, so 100 kT bei der häufigsten amerikanischen Kernwaffe W-76-0. Ohne Kernfusion, das heißt nur mit Spaltung von Uran- oder Plutoniumkernen, werden 500 kT (amerikanischer Ivy King-Test – Mk-18 Bombe) bis 800 kT (stärkster französischer Test) erreicht. Fat Man, über Nagasaki abgeworfen, hatte demgegenüber nur 20 kT Sprengkraft. Einige moderne Kernwaffen lassen auch ein Wählen der Sprengkraft zu, so kann die amerikanische B83 Bombe mit wenigen kT bis zu 1,2 MT gezündet werden.
Klassifizierung
Strategische Kernwaffe
Strategische Kernwaffen sind Kernwaffen mit großer Sprengkraft, die nicht auf dem Gefechtsfeld eingesetzt werden, sondern Ziele im gegnerischen Hinterland zerstören sollen, wie z. B. ganze Städte oder Raketensilos von Interkontinentalraketen. Ihre Sprengkraft reicht vom Kilotonnenbereich bis zu theoretisch über 100 Megatonnen TNT bei der Wasserstoffbombe.
Die Nukleare Triade besteht aus Interkontinentalraketen, U-Boot-gestützten ballistischen Raketen und strategischen Bombern.
Die Verteilung der Kernwaffen auf mehreren Plattformtypen soll die Schlagkraft einer Nuklearmacht im Konfliktfall sicherstellen.
Strategische Kernwaffen sind:
freifallende Kernbomben, die von Flugzeugen (meist Langstreckenbombern) direkt auf das Ziel abgeworfen werden;
landgestützte Interkontinentalraketen (ICBM) mit nuklearem Sprengkopf, die in Silos oder mobil auf dem Festland stationiert sind;
landgestützte Mittelstreckenraketen (MRBM, IRBM) mit nuklearem Sprengkopf, die in Silos oder auf mobilen Abschussrampen montiert sind. Ein besonderes Problem dieser Waffen ist die extrem kurze Flug- und damit Reaktionszeit von nur wenigen Minuten. Sie gelten deshalb als besonders anfällig für das unbeabsichtigte Auslösen eines Atomschlages, da nach radargestützter (Fehl-)Erkennung einer solchen Rakete praktisch keinerlei Zeit bleibt, politische Entscheidungsprozesse auszulösen. Beispiele für diese Raketen sind die in den 1950er Jahren von den USA in der Türkei stationierten Jupiter-Raketen und jene Raketen, die die UdSSR auf Kuba stationieren wollte – was damals die Kubakrise auslöste. Derartige Waffen werden heute lediglich noch von solchen Staaten stationiert, denen die Technik von Interkontinentalraketen fehlt, wie Pakistan oder Israel.
U-Boot-gestützte ballistische Raketen (SLBM) mit nuklearem Sprengkopf;
luftgestützte ballistische Raketen (ALBM) mit nuklearem Sprengkopf, gestartet von Flugzeugen;
Marschflugkörper (Cruise-Missiles) mit nuklearem Sprengkopf, die von Flugzeugen (ALCM), Kriegsschiffen oder U-Booten abgefeuert werden können, sind vorwiegend für den „taktischen“ Einsatz vorgesehen.
Eine Rakete kann je nach Bauart auch mehrere nukleare Sprengköpfe transportieren (sogenannte MIRV-Bauweise, Multiple Independently targetable Re-entry Vehicle) und so Radien von mehreren Hundert Kilometern verwüsten.
Taktische Kernwaffe
Taktische Kernwaffen (auch nukleare Gefechtsfeldwaffen genannt) sollen ähnlich wie konventionelle Waffen zur Bekämpfung gegnerischer Streitkräfte eingesetzt werden. Ihr Wirkungskreis und in der Regel auch die Sprengkraft sind deutlich geringer als bei strategischen Waffen. Die kleinste taktische Atomwaffe im Truppendienst hat eine Sprengkraft von circa 0,3 kT (zum Vergleich: Little Boy (Hiroshima) hatte eine Sprengkraft von etwa 13 und Fat Man (Nagasaki) von etwa 21 kT). Der geringe Wirkradius soll einen Einsatz relativ nahe an den eigenen Positionen erlauben.
Taktische Kernwaffen gab und gibt es in verschiedenen Formen:
Nukleare Artilleriegeschosse (etwa W9), die von Artilleriegeschützen verschossen werden können, siehe M65-Geschütz, später Panzerhaubitze M109;
Infanteriegranaten mit Treibsatz (RPG), siehe Davy Crockett;
Taktische Boden-Boden-Raketen kurzer Reichweite (z. B. Honest John, FROG, Lance);
Atomic Demolition Munitions, umgangssprachlich 'Atomminen';
nukleare freifallende Bomben (z. B. B61);
Luft-Luft-Raketen zur Bekämpfung von Flugzeugen, etwa die AIM-26 Falcon;
Boden-Luft-Raketen (z. B. Bomarc, Nike) zur Bekämpfung von Flugzeugen;
Raketen zur U-Boot-Abwehr (z. B. RUR-5 ASROC);
nukleare Wasserbomben zum Einsatz gegen U-Boote (z. B. B57);
nuklear bestückte Seezielflugkörper, um mit einem Schlag ganze Trägergruppen ausschalten zu können;
nuklear bestückte Torpedos (etwa der sowjetische Schkwal-Torpedo); Nukleartorpedos sollten von den sowjetischen U-Boot-Besatzungen autonom auch ohne Befehl aus Moskau eingesetzt werden und verfügten damit eine tiefe Schwelle vor dem Einsatz.
Die Bezeichnung „taktisch“ kann insofern missverstanden werden, als bereits diese Waffen schwerste Zerstörungen anrichten und erhebliche Radioaktivität freisetzen können, was im Kriegsfall verheerende Auswirkungen hätte. Bei der NATO-Nuklearstrategie „Flexible Response“ wurde davon ausgegangen, dass der Einsatz taktischer Kernwaffen kontrollierbar sei. Erwiesen sich konventionelle Kampfmittel als zu schwach, würde der Gebrauch taktischer Kernwaffen die Abwehr von Angriffen auf NATO-Gebiet ermöglichen, ohne dass die Auseinandersetzung zu einem umfassenden nuklearen Schlagabtausch (sog. all-out war) eskalieren müsste. Auf sowjetischer Seite wurde diese Theorie von Anfang an verworfen. Man hielt eine Begrenzung für unmöglich, sobald es einmal zum Einsatz von Kernwaffen gekommen wäre. Auch Frankreich stand dem Konzept sehr skeptisch gegenüber.
2022 kam nach unverhohlenen Drohungen Russlands nach dem russischen Überfall auf die Ukraine das Konzept der taktischen Atombombe in die Schlagzeilen. Taktische militärische Ziele könnten mit einer solchen Waffe nie erreicht werden, weil ein Einsatz von Nuklearwaffen immer politisch strategische Folgen hätte, so Oliver Thränert vom Center for Security Studies an der ETH Zürich. Insofern sei die Bezeichnung ‚taktische Atomwaffe‘ „irreführend“.
Spezielle Kernwaffen
Neutronenbombe
Neutronenbomben sind taktische Kernwaffen, die im Vergleich zur herkömmlichen Bauweise eine geringere Sprengkraft (etwa 1 kT), aber eine stärkere Neutronenstrahlung erzeugen.
Man versprach sich davon vor allem eine erhöhte Effektivität gegen gepanzerte Streitkräfte: Für die Zerstörung von Panzern muss eine Bombe normalerweise in der unmittelbaren Umgebung explodieren, da die Panzerung einen Schutz gegen Druck und Hitze bietet. Gegen Neutronenstrahlung hingegen schützt sie kaum, da Neutronen auch schwere Materialien nahezu ungehindert durchdringen. Die Explosion einer Neutronenbombe könnte daher die Besatzung eines Panzers augenblicklich töten, ohne den Panzer selbst zu vernichten. Allerdings erzeugt die Neutronenstrahlung im Zielgebiet sekundäre Radioaktivität, die das Gelände und dort verbliebenes Material dauerhaft unbrauchbar macht.
Daneben können Neutronenbomben verwendet werden, um gegnerische Kernwaffen (z. B. anfliegende Raketen) durch Zerstören der Zünd- oder Steuerelektronik unbrauchbar zu machen.
Entwicklung und Stationierung von Neutronenbomben, auch in Deutschland, wurden anfangs so begründet, dass ein damit geführter Krieg selbst bei der größeren benötigten Anzahl von Explosionen Land und Infrastruktur weniger verwüste als herkömmliche Kernwaffen.
Modellrechnungen zeigten aber bald, dass dieses in der Praxis kaum zuträfe. Denn in dem wirksam bestrahlten Gebiet wäre bereits die Druck- und Hitzewirkung tödlich, auch Gebäude und Anlagen würden zerstört und das Material durch Einfang radioaktiv. Eine „saubere“ Alternative zur klassischen Atombombe würde somit nicht erreicht.
Der Denkansatz der Neutronenwaffe, Menschen zu töten und Ausrüstung, z. B. Panzer, zu erhalten, wurde ab 1977 in Westeuropa von vielen Menschen scharf kritisiert. Egon Bahr sprach von einem „Symbol der Perversion menschlichen Denkens“. Weiterhin wurde kritisiert, dass der Tod durch eine Neutronenbombe besonders grausam sei. Menschen, die starken Neutronenstrahlen ausgesetzt sind, würden einen qualvollen und langsamen Tod sterben. Opfer würden mehrere Wochen lang unter Haarausfall, Lähmung, Verlust der Sinneswahrnehmung und Artikulationsfähigkeit, Spasmen, unkontrolliertem Durchfall und Flüssigkeitsverlust leiden, bis sie schließlich sterben. Die Friedensbewegung entfaltete ab 1977 zunächst in den Niederlanden, dann auch in Westdeutschland eine Kampagne gegen die Neutronenbombe.
Zudem befürchteten die Kritiker, durch die Neutronenbombe werde die Einsatzschwelle von Kernwaffen herabgesetzt und damit das Risiko einer Eskalation zum Krieg mit stärkeren nuklearen Bomben erhöht.
In den USA wurden seit 1974 etwa 800 Neutronensprengsätze gebaut. Die letzten Neutronenbomben wurden 1992 offiziell verschrottet.
Zu einem Stationierungsort in Deutschland in den 1980er Jahren siehe Sondermunitionslager Gießen.
Mini-Nuke
Sogenannte Mini-Nukes sind Kernwaffen mit einer Sprengkraft unter fünf Kilotonnen. Die neue Forschung über kleine, technisch hoch entwickelte Kernwaffen ist in den USA geplant. Der US-Senat hob im Mai 2003 ein zehn Jahre altes Verbot der Entwicklung von Mini-Nukes auf. Diese Entscheidung wurde im Kongress durch eine Resolution geschwächt, welche die Forschung erlaubt, jedoch ein Verbot der Entwicklung oder Herstellung neuer Atomwaffen mit geringer Sprengkraft beibehält.
Kofferbomben, beispielsweise zum Einsatz durch Geheimdienste oder Terroristen, wurden beschrieben und werden auch auf dem High Energy Weapons Archive vorgestellt; dort wird aber auch betont, dass die physikalische Umsetzbarkeit mehr als zweifelhaft ist (beispielsweise wären zu hohe Mengen an konventionellem Sprengstoff zur Zündung nötig gewesen). Andererseits lag bereits das Gewicht des amerikanischen W-54-Gefechtskopfs zum Davy-Crockett-Leichtgeschütz bei nur 23 Kilogramm. Die eiförmige Waffe aus den 1950er Jahren hatte einen Durchmesser von nur etwa 27 cm bei 40 cm Länge und erreichte eine maximale Sprengkraft von etwa 0,02 kT TNT-Äquivalent.
Ferner war in den 1950er- und 60er Jahren eine Antriebstechnik mittels kleinen Atomsprengkörpern in Entwicklung der NASA, so wie sie für bemannte oder unbemannte Missionen eingesetzt werden sollte. Das Konzept wurde zwar verworfen, allerdings liegen die Dokumente des Orion-Projektes bis heute unter Verschluss, vor allem, um einen Missbrauch durch z. B. Terroristen zu verhindern.
Bunkerbrecher
Nukleare bunkerbrechende Waffen sollen tief in die Erde eindringen, um unterirdische und gehärtete Bunker zu zerstören. Es ist ausgeschlossen, dass die Bomben, aus der Luft abgeworfen, tief genug unter die Oberfläche eindringen können und die Explosion vollkommen unterirdisch abläuft. Somit wird ein Bombenkrater erzeugt und hochradioaktives Material wird in die Luft ausgeworfen. Ebenso sind durch die erzeugten Erschütterungen großflächige Zerstörungen um das eigentliche Ziel herum zu befürchten. Es gibt im US-Arsenal bereits eine »Bunker Buster«: die B-61-11, die laut des im Januar 2002 veröffentlichten Überprüfungsberichts (Nuclear Posture Review, NPR) der US-Atomwaffenpolitik eine Sprengkraftgröße von mehr als fünf Kilotonnen hat und damit keine »Mini-Nuke« ist. Diese Waffe dringt aus einer Höhe von gut 13.000 Metern nur bis zu sieben Meter in die Erde und 2–3 Meter in gefrorenen Boden ein. Die USA haben etwa 50 dieser Bomben zur Verfügung.
Schmutzige Bombe
Bei einer schmutzigen Bombe wird die Wirkung der Explosion mit der großflächigen und jahrelangen Kontamination durch radioaktiven Niederschlag weiter gesteigert. Dieses wird durch den Aufbau der Waffe oder durch eine Kernexplosion auf dem Erdboden erreicht (für letzteres siehe Kernwaffenexplosion). Besonders die Kobaltbombe wurde als schmutzige Bombe bezeichnet. In dieser Bauform wird um den eigentlichen Sprengsatz ein Kobaltmantel angebracht. Dieses Metall wird durch die Explosion in 60Co umgewandelt, ein stark strahlendes Isotop mit relativ langer Halbwertszeit, das als Staub herabregnen und das betreffende Gebiet für lange Zeit kontaminieren sollte.
Zu Beginn des 21. Jahrhunderts wurde der Begriff Schmutzige Bombe umgeprägt. Man bezeichnet damit nun einen Sprengsatz aus konventionellem Sprengstoff, dem radioaktives Material beigemischt wurde, das durch die Explosion möglichst weit verteilt werden soll. Eine nukleare Explosion findet dabei nicht statt. Es wird angenommen, dass Terroristen derartige USBV einsetzen könnten, um Schrecken zu verbreiten.
Auch die Internationale Atomenergieorganisation warnt davor, dass Terroristen radioaktives Material, z. B. aus Nachfolgestaaten der Sowjetunion, erwerben könnten. Dort, ebenso wie in den USA, kommen immer wieder Substanzen aus Industrie, Forschungseinrichtungen oder Krankenhäusern abhanden. Da das Material für eine schmutzige Bombe aus der zivilen Kerntechnik gewinnbar ist, wird auch die gesamte Kerntechnik zu den Dual-Use-Produkten gezählt.
Als Beispiel für die Folgen einer schmutzigen Bombe wird teils der Goiânia-Unfall in Brasilien 1987 herangezogen, bei dem Diebe in ein leerstehendes Krankenhaus einbrachen und einen Behälter mit radioaktivem 137Caesiumchlorid stahlen und nach Hause nahmen. Aus Neugier und Unwissenheit hantierten viele Menschen in ihrer Umgebung mit dem bläulich fluoreszierenden Material und trugen Teile der Substanz mit sich herum. Mehrere Wohnbezirke waren betroffen, und schließlich starben vier Menschen an der Strahlenkrankheit, zehn weitere brauchten intensive medizinische Behandlung, 85 Gebäude mussten abgerissen oder dekontaminiert werden.
Kernwaffen in Europa
Alle Staaten in Europa haben den am 5. März 1970 in Kraft getretenen Atomwaffensperrvertrag ratifiziert. Dem Vertrag zufolge ist der Besitz von Kernwaffen (von den in Europa liegenden Staaten) nur Großbritannien, Frankreich und der Sowjetunion bzw. deren Nachfolgestaat Russland erlaubt. Auch die europäischen Atommächte dürfen, wie die übrigen europäischen Länder, Atomwaffen nicht weitergeben. Darüber hinaus hat sich die Bundesrepublik Deutschland durch den am 5. Mai 1955 in Kraft getretenen Deutschlandvertrag gegenüber den Siegermächten des Zweiten Weltkriegs verpflichtet, auf den Bau von Atomwaffen zu verzichten. Dieser Verzicht wurde 1990 im Zwei-plus-Vier-Vertrag bekräftigt.
Die in Europa gelagerten Kernwaffen (vgl. Sondermunitionslager) sind nach Ende des Kalten Krieges drastisch reduziert worden. Auf den europäischen Luftwaffenstützpunkten sind von 1990 bis 1996 rund 208 Kernwaffensilos der NATO gebaut worden. Ursprünglich waren hierfür 438 NATO-Bunker vorgesehen, die aber nicht mehr benötigt wurden. Die von den US-Streitkräften kontrollierten Bunker für Bomben, die im Ernstfall den NATO-Streitkräften zur Verfügung standen, waren nicht alle bestückt worden. Bis 1998 hatte Großbritannien sein Arsenal an Fallbomben auf den Stützpunkten abgebaut. Ab 1996 wurden dann die weiteren Arsenale geleert.
Die USA und Großbritannien lagerten während des Kalten Krieges bis zu 5.000 Kernwaffen in deutschen Bunkern, darunter das für den Einsatz innerhalb Deutschlands bestimmte Zebra-Paket. Es wird vermutet, dass heute in Europa im Rahmen der nuklearen Teilhabe schätzungsweise 480 Nuklearwaffen gelagert sind, davon 20 auf dem deutschen Fliegerhorst Büchel. Dort trainiert die Luftwaffe im Rahmen der nuklearen Teilhabe den Einsatz von Kernwaffen durch Jagdbomber vom Typ Tornado. Die deutschen Luftwaffenstützpunkte in Memmingen und Nörvenich verfügten schon ab 1995 über keinerlei Kernwaffen mehr. Auch wird davon ausgegangen, dass die 130 Sprengköpfe aus der Ramstein Air Base abgezogen wurden.
Die beiden westeuropäischen Atommächte Großbritannien und Frankreich begannen bereits in den 1960ern bzw. 1970ern Teile ihrer Arsenale auf seegestützte Systeme umzustellen. Beide Staaten unterhalten heute je vier ballistische Atom-U-Boote, von denen jedes mit jeweils 16 Atomraketen ausgestattet werden kann. Frankreich hält lediglich noch 60 Sprengköpfe zum Einsatz durch Bomber bereit, Großbritannien verfügt seit dem Jahr 2000 ausschließlich über seegestützte Systeme. Infolge dieser Veränderung wurde auch die Anzahl der Lagerstätten auf Luftwaffenstützpunkten reduziert. Die seegestützten Sprengköpfe machen heute den größten Teil der in Europa stationierten Atomwaffen aus. Die britischen Sprengköpfe werden komplett in der Marinebasis Clyde gelagert, die französischen in Brest.
Die Schweiz begann kurz nach den amerikanischen Atombombenabwürfen eine Studie zur Produktion eigener Waffen. Das Schweizer Kernwaffenprogramm wurde, nach anfänglicher Geheimhaltung bis 1958, durch zwei Volksabstimmungen in den Jahren 1962 und 1963 in einzigartiger Weise legitimiert, in Form von Planungen fortgesetzt und erst 1988 definitiv gestoppt, obwohl die Schweiz bereits 1969 den Atomwaffensperrvertrag unterzeichnet hatte. 1995 wurde dessen unbefristeter Verlängerung zugestimmt, und im Jahre 2016 wurden die verbliebenen 20 kg waffenfähiges Plutonium aus dem Schweizer Lager in die USA transportiert.
NATO-Luftwaffenstützpunkte mit Kernwaffen
(Stand: 2011, bei Anzahl der Waffen und Lagersysteme, Stand: 2022, bzgl. der Orte mit eingelagerten Atomwaffen)
Großbritannien
Lakenheath (33 WS3-Lagersysteme, zurzeit keine Waffen gelagert)
Niederlande
Volkel (elf WS3-Lagersysteme, 10–20 Bomben B61-3/4)
Belgien
Kleine Brogel (elf WS3-Lagersysteme, 10–20 Bomben B61-3/4)
Deutschland
Fliegerhorst Büchel (elf WS3-Lagersysteme, 10–20 Bomben B61-3/4)
Ramstein Air Base (55 WS3-Lagersysteme, Ausbildungseinrichtung, zurzeit keine Waffen gelagert)
Italien
Aviano (18 WS3-Lagersysteme, 50 Bomben B61-3/4)
Ghedi-Torre (elf WS3-Lagersysteme, 10–20 Bomben B61-3/4)
Griechenland
Araxos (elf WS3-Lagersysteme, zurzeit keine Waffen gelagert)
Türkei
Balıkesir (elf WS3-Lagersysteme, zurzeit keine Waffen gelagert)
Incirlik Air Base (25 WS3-Lagersysteme, 60–70 Bomben B61-3/4)
Akıncı (Mürted) (elf WS3-Lagersysteme, zurzeit keine Waffen gelagert)
Aktueller Stand
Die fünf ständigen Mitglieder des Weltsicherheitsrats gelten als offizielle Atommächte. Sie sind im Atomwaffensperrvertrag als Staaten mit Kernwaffen aufgeführt.
Zwei Staaten haben bislang die Anzahl ihrer nuklearen Sprengköpfe öffentlich gemacht.
Großbritannien: 225 (Stand 2010)
USA: Die Atomstreitkräfte der Vereinigten Staaten umfassen 3750 Sprengköpfe. (einschließlich nichteinsatzbereite, Stand 2021)
Die genaue Anzahl der nuklearen Gefechtsköpfe ist oft unklar und muss geschätzt werden. Die „Federation of American Scientists“ gab für 2009 folgende Zahlen bekannt:
China: ≈ 180
Frankreich: ≈ 300
Großbritannien: ≈ 160
Russland: ≈ 13.000 (4.830 operativ)
USA: 9.400 (2.700 operativ)
Indien, Pakistan, Israel und Nordkorea sind nicht im Atomwaffensperrvertrag aufgeführt, besitzen aber trotzdem Kernwaffen und Trägersysteme (Zahlen für 2008):
Indien: ≈ 50
Israel: ≈ 80
Pakistan: ≈ 60
Nordkorea: < 10
Die Stiftung Carnegie Endowment for International Peace gab für 2007 folgende Angaben im Proliferation-Report heraus:
China: 410
Frankreich: 350
Großbritannien: 200
Russland: ≈ 16.000
Vereinigte Staaten: ≈ 10.300
sowie
Indien: ≈ 75 bis 110
Israel: ≈ 100 bis 170
Pakistan: ≈ 50 bis 110
Obwohl lange Zeit nicht von offizieller Seite bestätigt, gilt es als unstrittig, dass auch Israel seit den 1970er Jahren im Besitz von Kernwaffen ist. Mordechai Vanunu, damals Techniker am Kernforschungszentrum Negev, verriet 1986 die Existenz des israelischen Kernwaffenprojekts und wurde vom Mossad aus Rom nach Israel entführt. Am 11. Dezember 2006 gab der israelische Ministerpräsident Olmert gegenüber dem deutschen Sender Sat.1 zu, dass Israel eine Atommacht sei. Dieses wurde jedoch später von ihm wieder dementiert. Zuvor gab es Proteste im In- und Ausland als Reaktion auf diese Aussage. Im Januar 2007 meldeten iranische Medien, Israel plane einen atomaren Angriff auf den Iran, was von Tel Aviv dementiert wurde.
Nordkoreanische Kernwaffen
Nordkorea erklärte im Frühjahr 2005 ebenfalls, Kernwaffen zur Abschreckung entwickelt zu haben; die Aussage wurde und wird jedoch von verschiedenen Seiten bezweifelt. Unstrittig war und ist jedoch, dass Nordkorea ein ambitioniertes Programm zum Erlangen von Kernwaffen unterhält. Am 3. Oktober 2006 wurde von der nordkoreanischen Regierung bekannt gegeben, Atombombentests durchführen zu wollen.
Am 9. Oktober 2006 um 10:36 Uhr Ortszeit wurde in Hwadaeri nahe Kilju ein erfolgreicher unterirdischer Nuklearwaffentest durchgeführt und später durch seismische Messungen in Russland und den USA bestätigt. Die Sprengkraft lag nach südkoreanischen Schätzungen bei über 800 Tonnen TNT. Russlands Verteidigungsministerium geht dagegen von 5 bis 15 Kilotonnen TNT aus. (Zum Vergleich: Die Hiroshima-Bombe hatte eine Sprengkraft von umgerechnet 13 Kilotonnen TNT.) Bis heute ist jedoch noch nicht eindeutig geklärt, ob es sich bei der Detonation vom 9. Oktober 2006 tatsächlich um eine Kernexplosion gehandelt hat. Es wäre möglich, dass die Sprengung auch mit konventionellen Mitteln durchgeführt worden sein könnte, um den politischen Druck auf die internationale Gemeinschaft zu erhöhen. Durch Spionageflugzeuge der USA gibt es Hinweise auf eine sehr schwach erhöhte Radioaktivität in der Atmosphäre über dem Testgebiet, die jedoch so schwach war, dass sie erst im zweiten Anlauf überhaupt entdeckt wurde. Ein zweiter Atomwaffentest gelang offenbar am 25. Mai 2009, wobei eine Sprengkraft von 20 Kilotonnen erreicht worden sein soll. Am 6. Januar 2016 verkündete Nordkorea, dass ein erfolgreicher Test einer Wasserstoffbombe durchgeführt worden sei. Experten bezweifeln allerdings, dass es sich wirklich um einen erfolgreichen Test einer Wasserstoffbombe gehandelt habe, da die freigesetzte Energie zu niedrig für eine Wasserstoffbombenexplosion sei. Entweder sei der Test gescheitert oder es habe sich nur um eine Hybride Atombombe gehandelt.
Programme des Iran
Dem Iran wird das Streben nach Atomwaffen unterstellt, allen voran von Israel und den USA. Einen Nachweis dafür gibt es allerdings nicht. Nach eigenen Angaben arbeitet der Iran an der zivilen Nutzbarmachung der Kernkraft zur Energiegewinnung.
Diplomaten in Wien, dem Sitz der Internationalen Atomenergiebehörde (IAEA), sagten 2015 der F.A.Z., der Iran habe vor einigen Wochen bereits 1000 Zentrifugen zur Urananreicherung in der Anlage in Natans installiert gehabt. Das ist eine deutliche Erhöhung, da Iran nach Beginn der Anreicherung vor einem Jahr zunächst nur zweimal 164 Zentrifugen in Betrieb hatte. Die Regierung in Teheran hatte am 12. April 2007 sogar gemeldet, dass sie insgesamt 3000 Zentrifugen in Betrieb habe, womit eine Anreicherung auf industriellem Niveau erreicht sei.
Die Zahl der Zentrifugen gilt als wichtig, weil daran der Fortschritt des iranischen Atomprogramms abgelesen werden kann. Westliche Regierungen befürchten, dass der Iran sich unter dem Deckmantel eines zivilen Atomprogramms die Fähigkeit zum Bau von Kernwaffen verschaffen möchte. Etwa 3000 Zentrifugen gelten als notwendig, um das Material für ein bis zwei Atombomben im Jahr herzustellen.
Programme oder Besitz in der Vergangenheit
Mit dem Zerfall der Sowjetunion gab es neben Russland drei weitere Nachfolgestaaten der UdSSR mit Kernwaffen: die Ukraine, Belarus und Kasachstan. Die Ukraine war zeitweise das Land mit dem drittgrößten Kernwaffenarsenal der Erde. Alle diese Staaten waren Vertragsparteien des START-1-Vertrages, welcher 1991 von der Sowjetunion und den USA unterzeichnet wurde und 1995 in Kraft trat. Die Ukraine, Belarus und Kasachstan bekannten sich zum NPT-Vertrag und sicherten zu, ihr Kernwaffenarsenal zu vernichten. Kasachstan und Belarus wurden bis 1996 kernwaffenfrei. Der letzte ukrainische Sprengkopf wurde im Oktober 2001 in Russland vernichtet.
Südafrika entwickelte unter der Apartheids-Regierung, wahrscheinlich mit israelischer Hilfe, eine Atomwaffe und führte im September 1979 möglicherweise einen Test vor der Küste durch. Kurz vor dem Ende der Apartheid zerstörte Südafrika seine sechs Atomwaffen, um dem Atomwaffensperrvertrag 1991 beizutreten und sich damit wieder in die internationale Gesellschaft eingliedern zu können. Bis 1994 wurden alle südafrikanischen Anlagen zum Bau von Atomwaffen abgebaut.
Argentinien, Brasilien, Libyen und die Schweiz verfügten in der Vergangenheit über Kernwaffenprogramme, haben diese aber aufgegeben und offiziell beendet. Die Regierung von Schweden diskutierte nach 1945, ob es Kernwaffen entwickeln wollte und entschied sich dagegen.
Unfälle
Zwischen 1950 und 1980 wurden 32 Unfälle allein mit amerikanischen Kernwaffen bekannt. Laut Recherchen von Eric Schlosser verzeichnete die US-Regierung zwischen 1950 und 1968 mindestens 700 „bedeutende“ Unfälle und Zwischenfälle, in die rund 1250 Atomwaffen verwickelt waren. Vor allem in den 1950er und 1960er Jahren mussten viele Waffen bei Notlandungen von Bombern abgeworfen werden. Manche der Waffen wurden nie wiedergefunden, weil sie in den Ozeanen abgeworfen (aber nicht gezündet) wurden. Nach Schätzungen von Greenpeace gingen etwa 50 Atombomben verloren. Elf Bomben vermissen die USA offiziell. Radioaktive Verseuchung wurde in mehreren Fällen festgestellt.
Abstürze von Atombombern und andere Unfälle sind sehr problematisch, weil durch den Aufprall das spaltbare Material in der Umgebung verstreut werden kann, auch wenn die Bombe nicht zur Zündung kommt. Im Falle von Plutonium ist dies besonders gefährlich, da es auch chemische Giftigkeit besitzt.
Siehe auch:
Unfälle mit Interkontinentalraketen
Unfälle mit Kernwaffen an Bord des Bombers B-36
Unfälle mit Kernwaffen an Bord des Bombers B-47
Unfälle mit Kernwaffen an Bord des Bombers B-50
Unfälle mit Kernwaffen an Bord des strategischen Bombers B-52
Unfälle mit Kernwaffen an Bord des Transportflugzeuges Douglas C-124
Verlust einer Kernwaffe und einer Douglas A-4
Verlust einer Kernwaffe an Bord des Flugbootes Martin P5M
Liste von U-Boot-Unglücken seit 1945, darunter auch von Atom-U-Booten mit Nuklearraketen.
Aber nicht nur bei Unfällen, sondern auch im Rahmen des Entsorgungsprozesses innerhalb der normalen Produktion gelangte insbesondere in der Sowjetunion massiv radioaktives Material in die Umwelt (Majak, Karatschai-See).
Abrüstung und Rüstungsbegrenzung
Wegen der enormen Zerstörungskraft nuklearer Bomben gab es stets Bestrebungen, sämtliche Kernwaffen abzuschaffen und generell zu verbieten, um zu verhindern, dass damit die Menschheit vernichtet würde. Der Kalte Krieg und die Machtinteressen einzelner Nationen verhinderte jedoch eine schnelle Abkehr von Massenvernichtungswaffen. Dennoch wurden einige Abkommen durchgesetzt, die jeweils einen großen Schritt in Richtung einer nuklearwaffenfreien Welt signalisierten. Ob die Verträge tatsächlich so wirksam sind wie gewünscht, wird allerdings angezweifelt.
Am 10. Oktober 1963 trat das Teststoppabkommen in Kraft, worin sich einige Großmächte einigten, keine Nuklearwaffen im Wasser, im All und in der Atmosphäre zu zünden. Unterirdische Tests sollten eine bestimmte Stärke nicht überschreiten. Diesem Abkommen sind bisher 120 Nationen beigetreten.
Der Atomwaffensperrvertrag wurde am 1. Juli 1968 von den USA, der Sowjetunion und Großbritannien unterzeichnet und trat 1970 in Kraft. Nachdem Nordkorea seine Unterschrift 2003 zurückgezogen hatte, besitzt das Vertragswerk in 188 Staaten Gültigkeit. Zu den Unterzeichnerstaaten gehört auch die Volksrepublik China und Frankreich (beide 1992). Der Beitritt zum Atomwaffensperrvertrag bedeutet für die Unterzeichnerstaaten die Verpflichtung, sich in regelmäßigen Abständen den von der Internationalen Atomenergieorganisation durchgeführten Kontrollen auf Einhaltung des Vertrags zu unterwerfen. Artikel VI besagt allerdings, dass die Staaten sich verpflichten „in naher Zukunft“ Verhandlungen zu führen, welche die „vollständige Abrüstung“ garantieren.
Seit 1996 liegt der Vertrag zum umfassenden Verbot von Nuklearversuchen (CTBT) zur Unterzeichnung auf. Er tritt erst in Kraft, wenn eine bestimmte Gruppe von Ländern ihn ratifiziert hat, u. a. die USA. Die Ratifizierungen einiger wichtiger Länder stehen derzeit noch aus. Vor allem die USA lehnen Rüstungskontrollen ab.
Die Einhaltung der Verträge wird durch verschiedene Techniken verifiziert: Erdbebenmessstationen reagieren bereits auf kleinste Vibrationen und ermöglichen eine recht genaue Ortung von unterirdischen Detonationen. Sie können auch die seismographischen Signaturen von Erdbeben und Atomwaffentests deutlich unterscheiden. Hydroakustik kann Unterwasserexplosionen aufspüren und lokalisieren. Spezialmikrophone und Radionuklid-Detektoren können atmosphärische Kernexplosionen entdecken, identifizieren und lokalisieren. Die Messstationen sind über die ganze Welt verteilt. Wenn der Vertrag in Kraft tritt, wird es auch noch die Möglichkeit der Vor-Ort-Inspektion geben. Die Implementation des Vertrages wird von der Organisation des Vertrags über das umfassende Verbot von Nuklearversuchen (CTBTO) vorbereitet.
Bilaterale Verträge zwischen den USA und der Sowjetunion beziehungsweise Russland mit dem Ziel der Begrenzung oder Abrüstung von strategischen Atomwaffen sind die SALT-I- und -II-Gespräche (1969 bis 1979) die unter anderem zum ABM-Vertrag (1972) führten, der INF-Vertrag (1987), START I und II (1991 und 1993) und der SORT-Vertrag (2002).
Demontage
Atombomben auf Uranbasis enthalten hochangereichertes Uran. Man spricht erst ab einem Anreicherungsgrad von 85 % von waffentauglichem Uran. Natur-Uran hat 0,7 % Uran-235; zur Verwendung in Leichtwasserreaktoren muss das Uran auf 3–4 % 235U-Gehalt angereichert werden (reactor-grade). Hochangereichertes Uran ist also ein wertvoller Rohstoff.
Das Plutonium aus Plutoniumbomben dagegen – wegen seiner langen Halbwertzeit und seiner hohen Radiotoxizität ein sehr problematischer Stoff – kann nicht vernichtet werden: „Beseitigt werden kann das Plutonium nur in Form einer Endlagerung nach einer Vermischung mit anderen atomaren Abfällen oder durch eine Umarbeitung in MOX-Elemente.“
Zwischen 1993 und 2013 kooperierten die USA und Russland erfolgreich im Rahmen des Megatonnen-zu-Megawatt-Abrüstungsprojekts. Durch die Verstromung von 500 Tonnen russischem Atomwaffenmaterial deckten die USA 20 Jahre lang 10 % ihrer Elektrizitätserzeugung ab und Russland erhielt insgesamt 17 Milliarden US-Dollar.
Kampagnen für die Abschaffung
Zahlreiche internationale Kampagnen setzen sich für die Abschaffung aller Atomwaffen ein, darunter:
Internationale Kampagne zur Abschaffung von Atomwaffen (ICAN)
Internationale Ärzte für die Verhütung des Atomkrieges / Ärzte in sozialer Verantwortung e. V. (IPPNW)
Büchel ist überall! atomwaffenfrei.jetzt
Parlamentarisches Netzwerk für Nukleare Abrüstung und Nichtverbreitung (PNND)
Zahlreiche Appelle zur nuklearen Abrüstung und Rüstungskontrolle wurden auch aus der Physikerschaft an die Politik gerichtet – wie z. B. der Franck-Report, das Russell-Einstein-Manifest, das zur Gründung der Pugwash-Bewegung führte, die Mainauer Kundgebung oder die Erklärung der Göttinger Achtzehn. Auch von der Deutschen Physikalischen Gesellschaft (DPG) wurde in einer Reihe von Resolutionen auf die mit der Existenz von Kernwaffen verbundenen Gefahren hingewiesen und die Reduktion der vorhandenen Arsenale sowie der Abschluss eines Kernwaffenteststopp-Vertrages gefordert. In ihrer Resolution vom April 2010 spricht sich die DPG zunächst für den Verzicht auf den Ersteinsatz und den Abzug aller in Deutschland und Europa verbliebenen Atomwaffen aus.
Darüber hinaus sprechen sich prinzipiell alle christlichen Kirchen gegen die Verwendung jeder Art von Kernwaffen, zum Teil auch gegen den Besitz, aus. Erst 2006 hat der Ökumenische Rat der Kirchen erneut zur Eliminierung aller nuklearer Waffen aufgerufen.
Ausgehend von katholischen Philosophen in Großbritannien Anfang der 1960er Jahre wurden gegen die Strategie der nuklearen Abschreckung ethische Bedenken eingebracht. Für viele Menschen war die Benutzung einer atomaren Waffe unmoralisch, da sie notwendigerweise den Tod von Zivilisten und die Vergiftung der Erde nach sich zieht. Es wurde folgendermaßen argumentiert: Wenn der Einsatz von Kernwaffen unmoralisch sei, so gelte das auch für die Strategie der nuklearen Abschreckung, da diese die bedingte Intention zu einer unmoralische Handlung umfasst.
In der katholischen Kirche wird mit dem Zweiten Vatikanischen Konzil (1965) bei der Verwendung der sogenannten wissenschaftlichen Waffen auf die Grenzüberschreitung einer gerechten Verteidigung hingewiesen, da die Anwendung derselben „ungeheure und unkontrollierbare Zerstörungen auszulösen“ vermag. Die Pastoralkonstitution Gaudium et Spes spricht des Weiteren ein Verbot des totalen Krieges aus, der „auf die Vernichtung ganzer Städte oder weiter Gebiete und ihrer Bevölkerung unterschiedslos abstellt“. (GS 80)
Die Verletzung der Prinzipien der Diskrimination und der Proportionalität (siehe Gerechter Krieg) stellen die Hauptkritikpunkte am Einsatz von Nuklearwaffen dar.
Am 27. März 2017 begannen auf Beschluss der UN-Generalversammlung Verhandlungen über einen Atomwaffenverbotsvertrag. Angestrebt wird eine „unzweideutige politische Verpflichtung“ auf das Ziel einer von Atomwaffen freien Welt. Dies ist als erster, schnell zu erreichender Schritt zu einer auch konkrete Abrüstungmaßnahmen umfassenden Nuklearwaffenkonvention gedacht. An den Verhandlungen nehmen jedoch zunächst nur zwei Drittel der 193 Mitgliedsstaaten teil. Nicht beteiligt sind die Atommächte und fast alle NATO-Staaten einschließlich Deutschlands.
Siehe auch
Atomkriegsuhr
Atomstreitkraft
Kernwaffen in Deutschland
Kernwaffen-Effekt
Liste von Nuklearsprengköpfen
Ziviler atomarer Sprengsatz erläutert Verfahren zur zivilen Nutzung von Kernexplosionen
Literatur
Sachbücher
Die UNO-Studie: Kernwaffen. C.H.Beck, München 1982, ISBN 3-406-08765-5.
Peter Auer: Von Dahlem nach Hiroshima. Die Geschichte der Atombombe. Aufbau, Berlin 1995, ISBN 3-351-02429-0.
Klaus Fuchs, Ruth Werner, Eberhard Panitz: Treffpunkt Banbury oder Wie die Atombombe zu den Russen kam. Das neue Berlin, Berlin 2003, ISBN 3-360-00990-8.
Robert Jungk: Heller als tausend Sonnen. 1958 und Strahlen aus der Asche, Alfred Scherz Verlag, 1959
Rainer Karlsch, Zbynek Zeman: Urangeheimnisse. Links, Berlin 2002, ISBN 3-86153-276-X.
Hubert Mania: Kettenreaktion. Die Geschichte der Atombombe. Rowohlt Verlag, Reinbek bei Hamburg 2010, ISBN 978-3-498-00664-8.
Richard Rhodes: The Making of the Atomic Bomb 1995, ISBN 0-684-81378-5, deutsch Greno, Nördlingen 1988; Volk und Welt, 1990, ISBN 3-353-00717-2 (Standardwerk).
Joseph Rotblat: Strahlungswirkungen beim Einsatz von Kernwaffen, Berlin 1996, ISBN 3-87061-544-3.
Helmut Simon (Vorwort): Atomwaffen vor dem Internationalen Gerichtshof. Lit, Münster 1997, ISBN 3-8258-3243-0.
Wolfgang Sternstein: Atomwaffen abschaffen!. Meinhardt, Idstein 2001, ISBN 3-933325-05-6.
Mark Walker: Die Uranmaschine. Mythos und Wirklichkeit der deutschen Atombombe. Siedler, Berlin 1990, ISBN 3-88680-359-7.
Egmont R. Koch: Atomwaffen für Al Qaida. „Dr.No“ und das Netzwerk des Terrors. Aufbau Verlag, Berlin 2005, ISBN 3-351-02588-2.
Kenneth W. Ford: Building the H Bomb – A Personal History. World Scientific, Singapur 2015, ISBN 978-981-4632-07-2.
Bildband
Michael Light: 100 Sonnen. Knesebeck, München 2003, ISBN 3-89660-190-3.
Romane und Theaterstücke
Heinar Kipphardt: In der Sache J. Robert Oppenheimer. Rowohlt, Reinbek 1996, ISBN 3-499-12111-5.
Masuji Ibuse: Schwarzer Regen. Fischer-Taschenbuch-Verlag, Frankfurt am Main 1985, ISBN 3-596-25846-4.
Weblinks
Sammlung von Archivdokumenten und akademischen Artikeln zur Thema Waffenverbreitung beim Nuclear Proliferation International History Project (englisch).
Online-Lexikon zu Atomwaffen
Nuclear Weapons FAQ (englisch)
Dokumentationen und Diagramme zur Atombombe
Überblicksseite zu Rüstungskontrolle und Abrüstung
Die Atombombentests der USA (ausführliche Beschreibung)
Atomwaffentests
Nuclear Explosion Database
Vulnerability of populations and the urban health care systems to nuclear weapon attack Simulation und Analyse eines Angriffs mit Atombomben auf US-amerikanische Städte (im Wesentlichen im Rahmen eines Terroranschlags).
Center for Defense Information (USA) – Kolumne zu aktuellen Risiken betr. Kernwaffen
Nuclear Weapons, Science Tracer Bullet, Library of Congress
Studie der ICAN zur Finanzierung von Atomwaffen, Stand März 2012: „A Global Report on the Financing of Nuclear Weapons Producers“, (PDF auf www.ippnw.de, abgerufen am 10. März 2012)
SIPRI Bericht zu den weltweiten Kernwaffenbeständen
Ryan Crierie: An illustrated guide to the Atomic Bombs (Enola Gay)
Simulation bekannter Kernwaffen an beliebigen Orten
Einzelnachweise
Waffe im Kalten Krieg
Wikipedia:Artikel mit Video
|
Q12802
| 540.47573 |
89531
|
https://de.wikipedia.org/wiki/Israeliten
|
Israeliten
|
Die Israeliten sind – nach der Bibel – alle Angehörigen der Zwölf Stämme Israels und ihre Nachkommen: die Juden und die Samaritaner. Sie bilden in ihrer Gesamtheit und Generationenfolge das Volk Israel (), das in einem „Bund“ (, auch Brith oder Bərit), das heißt einem Vertrag zwischen der Gottheit JHWH und den Menschen der Zwölf Stämme, steht.
Später wurde in der Bibel die Bezeichnung Israeliten nur für die Bewohner des Nordreiches verwendet.
In der europäischen Aufklärung und dann im 19. Jahrhundert unter dem französischen Kaiser Napoleon I. in der französischen Amtssprache wurde der Ausdruck „Israeliten“ dem durch antisemitische Anfeindungen belastet empfundenen Ausdruck „Juden“ vorgezogen. Im 19. und 20. Jahrhundert wurde der Ausdruck teilweise die offizielle und die Selbst-Bezeichnung für europäische Juden. So kam es zu Einrichtungsnamen wie Israelitische Kultusgemeinde.
Der Zionismus lehnte den Ausdruck „Israeliten“ ab. Nach 1945 hat er sich noch in Frankreich gehalten.
Israeliten nach der biblischen Geschichte
Name
→ siehe auch: Israel (Name)
Im Tanach erscheint der Name zuerst als Ehrenname Gottes für den Stammvater der Israeliten, Jakob (Gen 32,29). Volksetymologisch wird er von der Wurzel I „er kämpft wider Gott“ hergeleitet. Die genaue Etymologie ist jedoch umstritten.
Der Name enthält das Element , das zwar auch eine allgemeine Bezeichnung für „Gott“ ist, hier jedoch als Eigenname El zu verstehen ist.
Der konservative Rabbi und Religionsphilosoph Abraham Joshua Heschel schreibt dazu:
Die beiden ältesten Belege für den Namen stammen aus dem 13. Jh. v. Chr.: Eine 1954 in Ugarit gefundene Kriegerliste, die an zweiter Stelle einen Israel (jšril) aufführt, sowie die Merenptah-Stele, die Israel (jsiri’r) als Volksgruppe aufführt.
In deutschen Bibelübersetzungen heißen die Angehörigen dieses Volkes bis heute Israeliten, abgeleitet vom griechischen Suffix -it-, das der hebräischen Volksbezeichnung seit der Septuaginta angehängt wurde ().
Eine weitere Bezeichnung für die Angehörigen des Volkes Israel ist „Hebräer“. Diese wird fast ausschließlich in der Frühgeschichte Israels verwendet. Begrifflich lässt sich die Verwendung der beiden Bezeichnungen nicht genau klären, meist jedoch wird Israel als Eigenbezeichnung und Hebräer als mitunter abwertende Fremdbezeichnung verwendet. Womöglich besteht ein Zusammenhang zwischen der Bezeichnung Hebräer und den Hapiru.
Entstehung
Nach dem 1. Buch Mose stammen die Israeliten von den zwölf Söhnen Jakobs, dessen Vater Isaak und Großvater Abraham ab. Zum Volk wurden sie nach dem 2. Buch Mose erst in der Sklaverei in Ägypten. In diese seien sie infolge einer Hungersnot geraten, die Jakobs Söhne und ihre Familien veranlasst habe, in Ägypten Getreidevorräte zu kaufen. Ein späterer Pharao, vermutlich Ramses II., habe sie dann dort zur Zwangsarbeit für seine Vorratsstädte gezwungen.
Auf ihre Hilfeschreie hin habe JHWH Mose erwählt und gesandt, um sie aus der Sklaverei zu befreien. Er habe 600.000 Männer sowie ihre Frauen und Kinder zum Auszug aus Ägypten geführt. Diese werden fortan Gemeinde Israel genannt. Nach dem Durchzug der Wüste seien sie an den Berg Sinai gelangt, wo JHWH sich Mose offenbart und ihm die Tora übergeben habe. Dann habe er mit Mose und 70 Führern der Israeliten einen Bund geschlossen, mit dem er sich zur Treue für dieses Volk und dieses zur Treue zu ihm und seinen Geboten verpflichtet und ihnen erneut die Gabe des Landes versprochen habe.
Mose und Josua führen die Israeliten dann nach Kanaan. Das Buch Josua und Buch Richter erzählen den Verlauf der sogenannten Landnahme und anschließende Behauptung gegen äußere Feinde der Israeliten in der vorstaatlichen Zeit des Zwölfstämmebundes.
Um der ständigen Bedrohung Herr zu werden und außenpolitische Stabilität zu erlangen, hätten die Israeliten später als andere Völker einen König verlangt und Saul zu ihrem ersten König gewählt. Nachdem König David diesen abgelöst hatte, eroberte er Jerusalem und machte es mit der Überführung der Bundeslade zum kultischen Zentrum seines Reiches. Sein Sohn Salomo ließ dann den Jerusalemer Tempel erbauen.
Jüdische Bibel
Die Jüdische Bibel (Tanach) beschreibt die Juden als auserwähltes Volk Gottes, das sich durch seine Beziehung („Bündnis“) zu ihm definiert und von den anderen Völkern unterscheidet.
Als einzige Religion berichtet das Judentum, nach jüdischen Quellen, wie das gesamte Volk Israel Zeuge der Offenbarung Gottes wurde. Das historische Alleinstellungsmerkmal der Massenoffenbarung wird im Segensspruch auf die Wahrheit und auf die Erlösung/Befreiung Emet we-Emuna („Wahrheit und Glaube“) deutlich:
Neues Testament
Im Neuen Testament kommen die Ausdrücke „Israel/Israelit/Israeliten“ 73-mal vor und bezeichnen immer das jüdische Volk insgesamt oder Einzelpersonen als dessen Angehörige. An allen Stellen ist das von Gott bleibend erwählte Gottesvolk gemeint und angesprochen. Alle NT-Schriften erwarten, erhoffen und erbitten daher die endgültige Rettung aller Israeliten durch Gott.
Besonders Paulus von Tarsus macht diese Rettung in seinem Römerbrief (Röm 9-11) zu einem für alle Christen maßgebenden Thema. Sein früher Galaterbrief schließt das „Israel Gottes“ in die Fürbitte der Christen ein (Gal 6,16). Sein später Epheserbrief bekräftigt die israelitische Hoffnung der Völkerwallfahrt zum Zion, die Christi Sühnetod am Kreuz ermöglicht und die Urchristen begonnen hätten. Diese Voraussetzung gilt auch im Johannesevangelium (Joh 1,31.47.49; 3,10), das die Juden sonst als Vertreter des von Jesus Christus beendeten „Alten Äons“ darstellt, und in der Johannesoffenbarung (2,14; 7,4; 21,12).
Geschichte der Israeliten in historisch-kritischer Sicht
Name
Nur wenige außerbiblische Quellen geben Hinweise auf die Herkunft der Israeliten. Der früheste Beleg für eine Ethnie „Israel“ ist die auf 1208 v. Chr. datierte Merenptah-Stele, auf welcher der Pharao Merenptah einen Stamm oder ein Volk in Kanaan namens Ysrjr erwähnt:
M17-M17-O34:D21-M17-G1-D21:Z1*T14-A1*B1:Z2
Reichsteilung
Salomos Reich zerfiel in der Folgegeneration wegen eines Aufstands der Nordstämme in die Teilstaaten Reich Juda mit Jerusalem und Nordreich Israel mit Sichem als Hauptstadt . Das Nordreich endete 722 v. Chr. mit der Eroberung durch die Assyrer und Deportation der dortigen Oberschicht . Die zehn Stämme des Nordreichs werden auch als „Verlorene Stämme Israels“ bezeichnet.
Die verbliebenen Stämme Juda, Benjamin und Teile Levis werden seit der Reichsteilung als Jehudi bezeichnet. Daraus ging über die römische Provinz Judäa die Bezeichnung Juden hervor, die sich heute auf alle Nachfahren der früheren Israeliten und alle Angehörigen des Judentums auch in der jüdischen Diaspora erstreckt.
Staat Israel
Der 1948 gegründete Staat Israel gab sich diesen Namen in bewusster Anknüpfung an den biblischen Namen. Heutige Juden nennen sich weiterhin Israeliten und Volk Israel. Auch die Samaritaner als Mischbevölkerung von Eingewanderten und im Lande verbliebenen bzw. zurückgekehrten Resten der Bevölkerung des früheren Nordreichs Israel haben Anspruch auf diesen Namen.
Literatur
Gösta W. Ahlström: Who were the Israelites? Eisenbrauns, Winona Lake IN 1986, ISBN 0-931464-24-2.
Markus Witte, Johannes F. Diehl (Hrsg.): Israeliten und Phönizier. Ihre Beziehungen im Spiegel der Archäologie und der Literatur des Alten Testaments und seiner Umwelt (= Orbis biblicus et orientalis. Band 235). Academic Press u. a., Fribourg u. a. 2008, ISBN 978-3-7278-1621-5.
Weblinks
Einzelnachweise
Volk in der Bibel
Jüdische Geschichte (Antike)
|
Q51669
| 128.086111 |
59076
|
https://de.wikipedia.org/wiki/Golgi-Apparat
|
Golgi-Apparat
|
Der Golgi-Apparat [] (das zweite „g“ wird ähnlich wie das „j“ in Jeans ausgesprochen) zählt zu den Organellen eukaryotischer Zellen und bildet einen membranumschlossenen Reaktionsraum innerhalb der Zelle. Er ist an der Sekretbildung und weiteren Aufgaben des Zellstoffwechsels beteiligt und wurde nach dem italienischen Pathologen Camillo Golgi benannt, der ihn 1898 bei histologischen Forschungen am Gehirn entdeckte und durch seine Färbemethoden zum Fortschritt in der Erforschung des Nervensystems beitrug.
Aufbau
Bei den meisten Eukaryoten ist der Golgi-Apparat in
mehreren Abschnitten strukturiert und besteht aus Stapeln von miteinander verschmolzenen, membranumschlossenen, Bläschen, die aus Cytoplasma entstehen und als Zisternen oder Dictyosomen bezeichnet werden.
Säugetierzellen enthalten typischerweise 40–100 solcher Stapel.
Jeder Stapel besteht dabei aus typischerweise 4–8 Dictyosomen, in einzelnen Protisten wurden bis zu 60 Dictyosomen pro Stapel beobachtet.
Der Golgi-Apparat befindet sich meist nahe dem Zellkern und Zentrosom, was durch Mikrotubuli gewährleistet wird. In manchen Zellen ist der Golgi-Apparat jedoch nicht auf diesen Raum begrenzt, sondern im gesamten Cytoplasma verteilt; dies trifft für die meisten Pflanzenzellen und einige nicht pflanzliche Zellen zu.
Am Golgi-Apparat lässt sich eine eindeutige Polarisierung feststellen. Die Seite, die dem Endoplasmatischen Retikulum (ER) zugewandt ist und abgeschnürte Vesikel von diesem empfängt, welche mit dem Hüllprotein COP II besetzt sind, nennt sich cis-Golgi-Netzwerk (CGN); sie ist konvex. Ebenfalls können Vesikel vom CGN zum ER geschickt werden, hierfür werden die Vesikel mit einem anderen Hüllenprotein (COP I) versehen. Die Seite, die dem ER abgewandt und eher der Plasmamembran zugewandt ist, wird als trans-Golgi-Netzwerk (TGN) bezeichnet; sie ist konkav. Hier werden sogenannte Golgi-Vesikel abgeschnürt. Bei den Golgi-Netzwerken handelt es sich um mehrere kleinere Zisternen und Vesikel, die untereinander in Verbindung stehen.
Die Zisternen zwischen den Golgi-Netzwerken werden Golgi-Stapel genannt, die einzelnen Stapel enthalten eine spezifische enzymatische Ausstattung. Für das Durchlaufen der Proteine durch den Golgi-Apparat gibt es zwei Modelle, die vermutlich beide zutreffend sind: Zum einen „wandern“ die einzelnen Zisternen von der cis- zur trans-Seite, während die Enzyme über entgegengesetzten vesikulären Transport für die nachrückende Zisterne zurückbehalten werden (Modell der Zisternenreifung). Zum anderen beobachtet man Vesikelbewegungen, durch die die Proteine zur nächsten Zisterne – in Richtung des TGN – transportiert werden (Modell des vesikulären Transports); der Golgi-Apparat ist also ein dynamisches System.
Kommt es in der Zelle zur Zellteilung, zerfällt der Golgi-Apparat und wird auf beide Tochterzellen aufgeteilt, wo er sich dann wieder zusammensetzt.
Strukturvielfalt am Beispiel Hefe
In Pichia pastoris gibt es normalerweise ungefähr vier Golgi-Stapel pro Zelle, die aus je vier Zisternen bestehen. Im Gegensatz zu Wirbeltierzellen ist die Struktur der Golgi-Stapel in P. pastoris unabhängig von Mikrotubuli oder dem Zellzyklus. Die Golgi-Stapel wachsen nicht aus der Kernhülle, sondern werden am Endoplasmatischen Retikulum (ER) gebildet. Da P. pastoris gebündelte Strukturen des ER aufweist, entstehen typische Golgi-Stapel direkt daneben. Im Gegensatz dazu besitzt Saccharomyces cerevisiae in der gesamten Zelle verteilt Strukturen des ER, die einen ebenso verstreuten Golgi formen anstatt typische Golgi-Stapel.
Funktionen
Die Funktionen des Golgi-Apparates sind vielfältig und sehr komplex, lassen sich aber nach dem heutigen Wissensstand in drei Gruppen einteilen:
Bildung und Speicherung sekretorischer Vesikel (extrazelluläre Matrix, Transmitter/Hormone),
Synthese und Modifizierung von Elementen der Plasmamembran,
Bildung von primären Lysosomen.
Wie schon oben beschrieben, empfängt der Golgi-Apparat (meist vom ER) Vesikel, in denen Proteine bzw. Polypeptide enthalten sind; diese Proteine werden hier nun weiter modifiziert. Je nach späterer Verwendung und nach Protein werden unterschiedliche weitere Proteine oder Zuckerreste (Glykosylierung) unterschiedlicher Länge an das eigentliche Protein gebunden; auch wird die Struktur des Proteins verändert. All diese Modifizierungen finden innerhalb des Golgi-Apparates statt, da sie im Cytoplasma zu Reaktionen mit anderen Zellorganellen und Stoffen führen würden, was den sofortigen Tod der Zelle bedeuten könnte.
Sind die Proteine vollständig modifiziert, werden sie im TGN nach ihrem Bestimmungsort sortiert, in Golgi-Vesikeln abgeschnürt, mit Signalproteinen versehen (SNARE-Proteine) und über zellinterne Transportmechanismen an den Ort ihrer Bestimmung transportiert. Die meisten Proteine, die im Golgi-Apparat modifiziert werden, werden über Exozytose aus der Zelle heraus transportiert, so kann über Exozytose die extrazelluläre Matrix (EZM) modifiziert werden, wobei wichtig ist, dass alle Substanzen außer dem Glycosaminoglycan (GAG) Hyaluronan (früher: Hyaluronsäure), welches einen bedeutenden Anteil der EZM bildet, im Golgi-Apparat hergestellt werden. Die Modifizierung der EZM trägt maßgeblich zur interzellulären Kommunikation und zur Stabilität der Gewebe bei und ist somit eine der wesentlichsten Aufgaben des Golgi-Apparates.
Außerdem kann eine Zelle zum Beispiel ihre Zellmembran ausbessern oder vergrößern; gleichzeitig ist der Zelle eine Möglichkeit gegeben, die äußere Struktur der Membran zu verändern, was dem Stoffwechsel und der interzellulären Kommunikation dienlich sein kann.
Der Golgi-Apparat bildet primäre Lysosomen. Darin enthalten sind lytische Enzyme, deren Aktivitätsoptimum bei einem pH-Wert von ungefähr 4,5 liegt, was bedeutet, dass das Innere des Lysosoms angesäuert werden muss, was durch spezifisch in die Membran eingebaute Protonenpumpen gewährleistet wird. Das Innere des Lysosoms ist als Säureschutz mit Proteoglykanen ausgekleidet. Damit beim Abschnüren von Lysosomen keine falschen Proteine eingeschlossen werden, ist die lysosomale Membran mit Mannose-6-phosphat-Rezeptoren besetzt, an die die lytischen Enzyme, welche mit Mannose-6-phosphaten modifiziert wurden, binden.
Die Funktion des Golgi-Apparates ist in pflanzlichen und tierischen Zellen nahezu identisch, die wichtigste Aufgabe des Golgi-Apparates bei Pflanzen ist jedoch die Produktion von Polysacchariden für die pflanzliche Zellwand (Pektine und Hemizellulosen). Da diese Stoffe in sehr großen Mengen produziert werden müssen, wird hierdurch die enorme Quantität des Golgi-Apparates in der Pflanzenzelle im Vergleich zur tierischen Zelle erklärt.
Postmetapher
Der Golgi-Apparat funktioniert im Grunde wie die Post: Er empfängt Proteinpäckchen aus dem Endoplasmatischen Retikulum. Innerhalb des Golgi werden diese Proteine modifiziert, indem Zuckermonomere entfernt oder ersetzt werden. Zusätzlich werden die Proteine sortiert, indem Identifikationssymbole wie Phosphatgruppen (ähnlich einer Postleitzahl) angehängt werden. Diese „Postleitzahl“ nennt den Zielort. Schließlich werden die Proteine in Transportvesikeln versendet.
Literatur
Bruce Alberts u. a.: Molecular Biology of the Cell. 5. Auflage. Garland Science, New York 2008, ISBN 0-8153-4106-7.
Neil A. Campbell u. a.: Biologie. 1. Auflage, 1. korrigierter Nachdruck, Spektrum, Heidelberg 1997, ISBN 3-8274-0032-5.
Weblinks
Golgi-Apparat Aufbau und Funktion Text mit Grafik zum Golgi-Apparat
Ausführlicher Artikel zu Camillo Golgi und seinen Forschungen (englisch)
Einzelnachweise
Zellorganell
|
Q83181
| 209.090563 |
6670
|
https://de.wikipedia.org/wiki/1657
|
1657
|
Ereignisse
Politik und Weltgeschehen
Zweiter Nordischer Krieg
Mai: Vom ostpreußischen Hafen Pillau aus sticht zum ersten Mal die brandenburgische Flotte in See.
7. Juni: Der polnische König Kasimir IV. Jagiello zieht in die durch Kauf erworbene Ordensburg Marienburg ein. Der Hochmeister des mit ihm verfeindeten Deutschen Ordens flieht nach Königsberg.
19. September: Kurfürst Friedrich Wilhelm von Brandenburg wechselt mit dem Vertrag von Wehlau auf die Seite Polen-Litauens. Das vom Kurfürsten regierte Herzogtum Preußen wird unabhängig von Polen.
6. November: Der Vertrag von Bromberg bestätigt im Wesentlichen die Inhalte des Vertrags von Wehlau.
10. November: Schwedens vormalige Königin Christina lässt ihren früheren Günstling und Stallmeister Giovanni Monaldeschi unter dem Vorwurf des Hochverrats im französischen Schloss Fontainebleau töten.
Heiliges Römisches Reich
2. April: Auf den verstorbenen Kaiser Ferdinand III. folgt sein Sohn Leopold I. als Herrscher über die habsburgischen Erblande. Wahl und Krönung zum Kaiser erfolgen im nächsten Jahr.
22. April: Infolge des Testaments von Johann Georg I. entstehen mit dem Freundbrüderlichen Hauptvergleich die sächsischen Sekundogenitur-Herzogtümer Sachsen-Weißenfels, Sachsen-Merseburg und Sachsen-Zeitz.
West- und Südeuropa
20. April: Im Englisch-Spanischen Krieg kommt es zur Seeschlacht von Santa Cruz: Der englische Admiral Robert Blake besiegt bei Santa Cruz de Tenerife eine spanische Flotte.
Im Restaurationskrieg um die Unabhängigkeit Portugals von Spanien wird die Stadt Mourão von den Spaniern erobert, im selben Jahr von den Portugiesen jedoch wieder zurückerobert.
In Malta beginnt unter Großmeister Martin de Redin der Bau der De Redin Towers als Teil der Befestigungsanlagen der Insel. Bis 1660 werden an strategischen Punkten 13 dieser Türme errichtet.
Wirtschaft
3. Februar: Die Stadt Warendorf erhält das Recht verliehen, einen zweitägigen Viehmarkt abzuhalten, den Fettmarkt.
Nach dem Tod Kaiser Ferdinand III. am 2. April übernimmt Johann Georg II., Kurfürst von Sachsen, gemäß den Regelungen der Goldenen Bulle bis zur Krönung eines Nachfolgers das Reichsvikariat. Aus diesem Anlass lässt er in der Münzstätte Dresden Vikariatsmünzen prägen.
Wissenschaft und Technik
Christiaan Huygens entwickelt erste Grundlagen der Wahrscheinlichkeitsrechnung.
Otto von Guericke führt am Hof des Kurfürsten Friedrich Wilhelm von Brandenburg seine Magdeburger Halbkugeln ein weiteres Mal vor.
Die Didactica magna von Johann Amos Comenius wird erstmals veröffentlicht.
Kardinal Leopoldo de’ Medici und sein Bruder, Großherzog Ferdinando II. de’ Medici, gründen in Florenz die Accademia del Cimento, eine frühe wissenschaftliche Gesellschaft für experimentelle Physik.
Der böhmische Pädagoge und Philosoph Johann Amos Comenius formuliert erstmals Unterrichtsprinzipien.
Tokugawa Mitsukuni beginnt mit der Arbeit an dem mehrbändigen Literarischen Werk Dai Nihon shi über die Geschichte Japans.
Kultur
Bildende Kunst
Jan Vermeer malt in Öl auf Leinwand das Bild Schlafendes Mädchen. Im selben Jahr entsteht auch die Briefleserin am offenen Fenster.
Musik und Theater
13. Februar: Die Uraufführung des musikalischen Dramas Oronte von Johann Caspar Kerll findet in München statt.
Der Komponist Maurizio Cazzati reformiert das Musikleben in der Basilika San Petronio und in ganz Bologna mit der Gründung der Bologneser Schule.
Am Salvatorplatz wird das erste Opernhaus Münchens eröffnet.
Der Codex Manesse, eine um 1300 in Zürich entstandene berühmte Liederhandschrift, taucht in Paris wieder auf.
Gesellschaft
Der Maler Rembrandt van Rijn, muss sein Renaissance-Haus in der heutigen Jodenbreestraat, der damaligen Hauptstraße des Amsterdamer jüdischen Viertels, verlassen, das er 1639 käuflich erworben hat.
Katastrophen
In Braunschweig wütet die Pest, die in den Jahren 1657/1658 laut Kirchenbüchern 5420 Todesopfer fordert.
Beim Meireki-Großbrand in Edo in Japan kommen rund 100.000 Menschen ums Leben.
Geboren
Geburtsdatum gesichert
1. Januar: Johann von Bacmeister, deutscher Rechtswissenschaftler und Reichshofrat († 1711)
3. Januar: Domenico Pelli, Schweizer Architekt und Bauunternehmer († 1728)
18. Januar: Heinrich Casimir II., Fürst von Nassau-Dietz, Statthalter von Friesland, Groningen und Drenthe († 1696)
25. Januar: Giuseppe Nicola Nasini, italienischer Maler († 1736)
26. Januar: William Wake, Erzbischof von Canterbury († 1737)
27. Januar: Johann Heinrich von Berger, deutscher Jurist († 1732)
11. Februar: Bernard le Bovier de Fontenelle, französischer Schriftsteller († 1757)
1. März: Samuel Werenfels, reformierter Theologe († 1740)
2. März: Zacharias Steinel, kursächs. ev.-luth. Theologe und Pastor, mehrfacher Magister († 1710)
6. März: Auguste Magdalene von Hessen-Darmstadt, deutsche Dichterin († 1674)
24. März: Arai Hakuseki, neokonfuzianischer Gelehrter, Ökonom und Dichter († 1725)
25. März: Johann Baptist Adolph, deutscher Jesuit und Bühnendichter († 1708)
25. April: Emmerich Thököly, Anführer eines Aufstands gegen die habsburgische Herrschaft und Fürst von Siebenbürgen († 1705)
8. Mai: Martino Altomonte, italienischer Maler († 1745)
14. Juni: Cornelius Cruys, norwegisch-niederländischer Admiral in russischen Diensten († 1727)
26. Juni: Johann Carl Trumler, Dombaumeister am Stephansdom in Wien († 1720)
11. Juli: Friedrich I., König in Preußen († 1713)
12. Juli: Friedrich Wilhelm III., Herzog von Sachsen-Altenburg († 1672)
25. Juli: Philipp Heinrich Erlebach, deutscher Barockkomponist († 1714)
1. August: Louis Thomas von Savoyen-Carignan, Graf von Soissons († 1702)
9. August: Pierre-Étienne Monnot, französischer Bildhauer († 1733)
30. August: Philipp Peter Roos, deutscher Maler († 1706)
4. September: Martin Knorre, deutscher Mathematiker († 1699)
11. September: Johann Sinapius, schlesischer Gelehrter (Historiker) († 1725)
17. September: Pieter Schuyler, englischer Gouverneur der Provinz New York († 1724)
27. September: Sofia Alexejewna, Regentin von Russland († 1704)
29. September: Heinrich, Herzog von Sachsen-Weißenfels-Barby und kursächsischer General († 1728)
4. Oktober: Francesco Solimena, neapolitanischer Maler († 1747)
21. Oktober: Johann Adam Brandenstein, deutscher Orgelbauer († 1726)
11. November: Guido von Starhemberg, österreichischer Offizier, kaiserlicher Feldmarschall († 1737)
12. November: Anna Dorothea von Sachsen-Weimar, Äbtissin des Reichsstifts Quedlinburg († 1704)
16. November: Juliane Louise von Ostfriesland, deutsche Adlige, Ehefrau des Hamburger Pastors Joachim Morgenweck († 1715)
26. November: William Derham, englischer Geistlicher und Naturphilosoph († 1735)
2. Dezember: Johann Werner von Veyder, Weihbischof und Generalvikar in Köln († 1723)
15. Dezember: Michel-Richard Delalande, französischer Komponist († 1726)
Genaues Geburtsdatum unbekannt
Hattori Dohō, japanischer Dichter († 1730)
Catherine Sedley, Countess of Dorchester, Mätresse von Jakob II. von England († 1717)
Sébastien Truchet, französischer Priester, Mathematiker, Physiker und Typograph († 1729)
Gestorben
Erstes Halbjahr
6. Januar: Hans Hutschenreuther, erzgebirgischer Hammerherr (* 1575)
22. Januar: Niels Aagaard, dänischer Schriftsteller und Gelehrter (* 1612)
24. Januar: Claude de Lorraine, Herzog von Chevreuse (* 1578)
2. Februar: Nicole, Herzogin von Lothringen (* 1608)
8. Februar: Laura Mancini, Herzogin von Mercoeur (* 1635/36)
19. Februar: Evert van Aelst, niederländischer Maler (* 1602)
19. Februar: Reinhard Bake, evangelischer Theologe und Pfarrer am Magdeburger Dom (* 1587)
20. Februar: Ferdinand Ernst von Waldstein, kaiserlicher Hofrat und böhmischer Obristkämmerer (* 1619)
24. Februar: Rudolf von Colloredo, kaiserlicher Feldmarschall und Großprior des Malteserordens (* 1585)
25. Februar: Andreas Butz, in Passau tätiger Orgelbauer (* zwischen 1580 und 1590)
7. März: Balthasar van der Ast, niederländischer Maler (* 1593/94)
25. März: Johann Jakob Wolff von Todenwarth, Rat der Landgrafschaft Hessen-Darmstadt und kaiserlicher Rat (* 1585)
26. März: Jonkheer Jacob van Eyck, niederländischer Musiker (* ~1590)
31. März: Johannes Scherenbeck, westfälischer Geistlicher (* unbekannt)
2. April: Ferdinand III., römisch-deutscher Kaiser, Erzherzog von Österreich sowie König von Ungarn, Böhmen und Kroatien (* 1608)
2. April: Johann VIII. von Sayn-Wittgenstein, Militär, Diplomat und brandenburgischer Statthalter (* 1601)
8. April: Philipp von Mansfeld, Feldmarschall im Dreißigjährigen Krieg (* 1589)
10. April: Johann Konrad Varnbüler, württembergischer Diplomat (* 1595)
17. April: Heinrich Cosel, böhmischer Rechtswissenschaftler (* 1616)
9. Mai: William Bradford, englischer Puritaner, Pilgervater, Mitbegründer und Gouverneur der Plymouth Colony (* 1590)
10. Mai: Gustaf Graf Horn, schwedischer Feldherr im Dreißigjährigen Krieg (* 1592)
3. Juni: William Harvey, englischer Arzt und Anatom, Entdecker des Blutkreislaufs und Wegbereiter der modernen Physiologie (* 1578)
Zweites Halbjahr
2. Juli: Conrad Buchau, deutscher Bildhauer (* um 1600)
6. Juli: Tobias Michael, deutscher Komponist und Thomaskantor (* 1592)
6. August: Bogdan Chmelnizki, ukrainischer Hetman, Anführer des nach ihm benannten antipolnischen Aufstands (* 1595)
17. August: Robert Blake, englischer Admiral (* 1598)
19. August: Frans Snyders, flämischer Maler (* 1579)
10. September: Dietrich von Velen, Drost des Emslandes und Gründer von Papenburg (* 1591)
23. September: Joachim Jungius, deutscher Mathematiker, Physiker und Philosoph (* 1587)
26. September: Olimpia Maidalchini, römische Adelige (* 1591)
28. September: Emilia Secunda Antwerpiana von Oranien-Nassau, Pfalzgräfin von Zweibrücken-Landsberg (* 1581)
3. Oktober: Moritz von Savoyen, Kardinal der Römischen Kirche (* 1593)
22. Oktober: Johann Benedikt Carpzov I., deutscher evangelischer Theologe (* 1607)
22. Oktober: Cassiano dal Pozzo, italienischer Gelehrter und Mäzen (* 1588)
20. November: Menasse ben Israel, sephardischer Jude, Gelehrter, Diplomat, Schriftsteller, Kabbalist, Drucker und Verleger (* 1604)
November: Hermann Mylius von Gnadenfeld, Rat und Gesandter des Grafen von Oldenburg (* 1603)
5. Dezember: Johan Axelsson Oxenstierna, schwedischer Staatsmann (* 1611)
6. Dezember: Charles d’Avaugour, französischer Diplomat (* 1600)
12. Dezember: Justus Sinold, deutscher Rechtswissenschaftler (* 1592)
Genaues Todesdatum unbekannt
Thomas Aylesbury, 1. Baronet, hoher englischer Beamter der Royal Navy (* 1576)
David Bailly, niederländischer Maler (* 1584)
Gilles de Haes, flandrischer Soldat (* 1597)
Ján Šimbracký, slowakischer Komponist (* um 1600)
Weblinks
|
Q6987
| 157.544936 |
19626
|
https://de.wikipedia.org/wiki/Bia%C5%82ystok
|
Białystok
|
Białystok [] (deutsch veraltet Bjelostock, Bjalistok, Belastok) ist die Hauptstadt und einzige Großstadt der polnischen Woiwodschaft Podlachien.
Im Laufe ihrer Geschichte war Białystok eine vielsprachige Stadt. Von der Stadtgründung bis zum Zweiten Weltkrieg stellten Juden oft die Bevölkerungsmehrheit. Von der Mitte des 19. bis zum Anfang des 20. Jahrhunderts existierte hier auch eine zahlenmäßig bedeutsame deutsche Minderheit. Heute sind die Belarusen die größte Minderheit der Stadt.
Białystok liegt in einer ertragreichen ländlichen Region. Im 19. und 20. Jahrhundert wurde die Stadt zu einem Zentrum des Maschinenbaus und der Elektro-, Metall- und Bierindustrie. Sie liegt an der Eisenbahnstrecke von Warschau in Richtung Kaunas/Vilnius (Rail Baltica). In Białystok gibt es mehrere Hochschulen. Die Stadt ist der Sitz eines katholischen Erzbistums.
Geographie
Geographische Lage
Białystok liegt rund 180 km nordöstlich der Landeshauptstadt Warschau nahe der belarussischen Grenze an dem kleinen Fluss Biała, der im Nordwesten der Stadt in den Supraśl mündet, der sich wiederum einige Kilometer weiter westlich in den Narew ergießt.
Klima
Geschichte
Białystok wurde im 16. Jahrhundert erstmals urkundlich erwähnt. Ab 1665 gehörte es der Familie Branicki, die es zur Residenzstadt ausbaute. Auf Betreiben von Stefan Branicki erhielt Białystok 1692 das Stadtrecht, das August III. 1749 erneuerte.
Białystok und sein Umland kamen 1796 unter preußische Herrschaft und fielen nach dem Frieden von Tilsit (1807) als Белосток/Belostok an Russland. Dieser Umstand und die Errichtung einer Zollgrenze zwischen Kongresspolen und Russland im Jahr 1831 sorgten für einen Aufschwung der Stadt. Die Zollgrenze sorgte dafür, dass Betriebe aus Polen ihren Sitz nach dem jetzt russischen Białystok (Belostok) verlagerten, um weiter für die russische Armee produzieren zu können. Durch die Eröffnung der Warschau-Petersburger Eisenbahn, die durch Białystok führte, wurde die Stadt zu einem industriellen Zentrum. Mit der Industrialisierung Mitte des 19. Jahrhunderts bildete sich eine bedeutende deutsche Minderheit, die 1885 ca. 12.000 Menschen umfasste, in den folgenden Jahrzehnten jedoch wieder abnahm: 1913 gab es nur noch 5.000 Deutsche in Białystok, 1935 noch 2.500. Im Jahre 1900 waren 63 % der Einwohner Juden, sodass sich die Stadt auch als ein bedeutendes jüdisches Zentrum entwickelte. Im Ersten Weltkrieg erfolgte am 20. April 1915 ein deutscher Luftangriff auf Białystok, welcher 13 Tote und 34 Verletzte zur Folge hatte. Schwere Schäden richteten die russischen Truppen an, als sie sich am 13. August 1915 vor den heranrückenden Deutschen zurückzogen.
Die Stadt blieb von da an bis zum 19. Februar 1919 unter deutscher Kontrolle.
Nach dem Ersten Weltkrieg wurde Białystok Teil der Zweiten Polnischen Republik und von 1919 bis 1939 Hauptstadt der gleichnamigen Woiwodschaft.
Kurz nach Beginn des Zweiten Weltkriegs wurde die Stadt im Rahmen des Überfalls auf Polen Mitte September 1939 von deutschen Truppen eingenommen, nach der geheimen Absprache im deutsch-sowjetischen Nichtangriffspakt jedoch am 22. September 1939 den Truppen der Sowjetunion übergeben (amtlicher Name Беласток/Belastok). Im Zuge des am 22. Juni 1941 begonnenen deutschen Angriffs auf die Sowjetunion wurde Białystok erneut von der Wehrmacht besetzt; am 27. Juni 1941 brannte das deutsche Polizei-Bataillon 309 die Große Synagoge von Białystok nieder, in die sie zuvor Hunderte Juden getrieben hatten. Die neuen Machthaber errichteten hier den Bezirk Bialystok und das Ghetto Białystok. Die meisten der damals circa 43–60 Tausend jüdischen Einwohner wurden in die Vernichtungslager Treblinka und Auschwitz verbracht und dort ermordet. Białystok war Amtssitz des Chefs der Zivilverwaltung und des Befehlshabers der Sicherheitspolizei und des SD, der die unterstellten Kommandeure (KdS) und Einsatzgruppen der Sicherheitspolizei und des SD befehligte.
Ende Juli 1944 wurde die Stadt von der Roten Armee eingenommen. Es war zunächst vorgesehen, die Stadt zusammen mit dem westlichen Teil der vormaligen Woiwodschaft in die Sowjetunion einzugliedern. Seit 1945 gehört sie zu Polen und ist, nachdem sie bis 1998 Sitz der gleichnamigen Woiwodschaft gewesen war, seit der Reform der öffentlichen Verwaltung Polens 1999 Hauptstadt der Woiwodschaft Podlachien (województwo podlaskie).
Sehenswürdigkeiten
Sehenswert sind das barocke Rathaus (barokowy ratusz miejski), der Branicki-Palast (Pałac Branickich), heute Medizinische Universität, das Dom-Ensemble (alte Kirche aus dem 16. Jahrhundert mit prachtvoller Ausstattung aus dem 18. Jahrhundert sowie der in neugotischem Stil gebaute Dom aus den Jahren 1904 bis 1915 – dort befinden sich mehrere Kunstwerke wie der Hauptaltar und die Kanzel). In Białystok befinden sich auch mehrere orthodoxe Kirchen, unter anderem die St.-Nikolai-Kathedrale und die Hagia Sophia.
Zweihundert Meter östlich des Doms befindet sich das Armeemuseum (). Es ist ein Museum zur polnischen Militärgeschichte und das größte Kriegsmuseum in Podlachien. Im Jahr 2018 hatte es mehr als 40.000 Besucher.
Das Palais Nowik wurde 1912 erbaut.
Die Podlachische Oper und Philharmonie wurde 2012 eröffnet.
Etwa 80 km von der Stadt entfernt befindet sich der Białowieża-Nationalpark, wo viele seltene Tiere leben, darunter auch Wisente.
Bevölkerung
Historisch war Białystok lange ein Schmelztiegel verschiedener Kulturen. Zur Wende des 19. zum 20. Jahrhundert lebte in Białystok eine gemischte Bevölkerung.
Um 1765 war Białystok zu 65–70 % von Polen, zu 20–25 % von Juden und zu 10 % von anderen Nationalitäten bewohnt. Doch bereits um 1800 machten Juden fast 40 % der Stadtbevölkerung aus, während Polen etwa 55 % ausmachten.
1897 hatte die Stadt rund 66.000 Einwohner. Dabei gaben 62 % der Bevölkerung Jiddisch als Muttersprache an, 17,2 % Polnisch, 10,3 % Russisch, 5,6 % Deutsch und 3,7 % Belarussisch. Daneben gab es noch einige hundert Lipka-Tataren in der Stadt.
Nach der Volkszählung von 1931 machten Polen 50 % der Bevölkerung Białystoks aus, Juden 45 %, andere Minderheiten 5 % (hauptsächlich Weißrussen und Russen). 1939, vor Ausbruch des Krieges, lebten 53 % Polen, 42 % Juden und etwa 5 % andere Minderheiten in der Stadt.
Die deutsche Minderheit verfügte bis 1928 über eine deutsche Volksschule (Schulleiter war zuletzt Wilhelm Migulski) und eine protestantische Gemeinde St. Johannis, welche 1912 in der damaligen Alexandrowska (Alexanderstraße), nach dem Ersten Weltkrieg Ulica Pierackiego und spätestens ab 1932 Ulica Warszawska genannt) eine steinerne Kirche im neoromantischen Stil errichtete, die heute als Kościół św. Wojciecha der polnischen katholischen Gemeinde dient.
Im Zweiten Weltkrieg wurde der Großteil der Juden von Białystok im Holocaust ermordet, und die demografische Zusammensetzung der Stadt änderte sich radikal. Ende 1945 lebten nur noch 1.085 Juden in der Stadt, deren Zahl sich in den nächsten Jahren durch Emigration noch weiter verringerte. Auch die deutsche und die russische Minderheit der Stadt hatten nach Ende des Krieges Białystok weitgehend verlassen.
Von den heute rund 295.000 Einwohnern sind etwa 97 % Polen, daneben gibt es noch eine kleine belarussische Minderheit von etwa 2,5 %. Sie ist durch einige Kulturzentren in der Stadt vertreten und betreibt unter anderem den Radiosender Radyjo Razyja.
Verkehr
Białystok liegt an der größtenteils fertiggestellten Schnellstraße S8, die den Ort mit der Landeshauptstadt Warschau verbindet. Außerdem ist geplant, die Landesstraße DK19 zur Schnellstraße S19 auszubauen, die über Lublin nach Rzeszów führen soll.
Die Stadt ist Ausgangspunkt der Bahnstrecke Głomno–Białystok, außerdem liegt sie an der Bahnstrecke Zielonka–Kuźnica Białostocka entlang der ehemaligen Petersburg-Warschauer Eisenbahn, die von Zielonka bei Warschau zur belarussischen Grenze führt. Im Juni 2016 wurde eine Regionalzugverbindung am Wochenende ins litauische Kaunas wiederaufgenommen. Außerdem zweigen in Białystok Regionalstrecken nach Czeremcha sowie nach Zubki in der Gmina Gródek ab. Zudem soll die geplante Eisenbahnverbindung Rail Baltica durch Białystok führen.
Im Januar 2017 wurde ein Referendum über den Bau eines Regionalflughafens für die Woiwodschaft Podlachien in Białystok abgehalten, bei der 96 % der Abstimmenden sich dafür aussprachen. Aufgrund der niedrigen Wahlbeteiligung von etwa 13 % ist das Ergebnis aber nicht bindend.
Hochschulen
Universität Białystok
Technische Universität Białystok
Musikhochschule
Medizinische Universität Białystok
Schauspielschule
Sport
In Białystok ist der Fußballverein Jagiellonia Białystok ansässig, der in der Ekstraklasa, der höchsten polnischen Spielklasse, antritt. Größter Erfolg des Vereins, der seine Heimspiele im etwa 22.000 Zuschauer fassenden Stadion Miejski austrägt, ist der Gewinn des polnischen Fußballpokals 2010.
Politik
Stadtpräsident
An der Spitze der Stadtverwaltung steht ein Stadtpräsident, der von der Bevölkerung direkt gewählt wird. Seit 2006 ist dies Tadeusz Truskolaski von der Platforma Obywatelska (PO).
Bei der Wahl 2018 trat Truskolaski für das Wahlbündnis Koalicja Obywatelska aus PO und Nowoczesna an. Die Abstimmung brachte folgendes Ergebnis:
Tadeusz Truskolaski (Koalicja Obywatelska) 56,2 % der Stimmen
Jacek Żalek (Prawo i Sprawiedliwość) 30,2 % der Stimmen
Tadeusz Arłukowicz (Wahlkomitee Tadeusz Arłukowicz „Białystok Ja Bitte“) 7,9 % der Stimmen
Katarzyna Sztop-Rutkowska (Wählerinitiative für Białystok) 4,2 % der Stimmen
Übrige 1,5 % der Stimmen
Damit wurde Truskolaski bereits im ersten Wahlgang wiedergewählt.
Stadtrat
Der Stadtrat besteht aus 28 Mitgliedern und wird direkt gewählt. Die Stadtratswahl 2018 führte zu folgendem Ergebnis:
Koalicja Obywatelska (KO) 42,1 % der Stimmen, 16 Sitze
Prawo i Sprawiedliwość (PiS) 37,2 % der Stimmen, 12 Sitze
Wählerinitiative für Białystok 8,1 % der Stimmen, kein Sitz
Wahlkomitee Tadeusz Arłukowicz „Białystok Ja Bitte“ 5,9 % der Stimmen, kein Sitz
Sojusz Lewicy Demokratycznej (SLD) / Lewica Razem (LR) 3,8 % der Stimmen, kein Sitz
Wahlkomitee Spoza Sitwy 2,8 % der Stimmen, kein Sitz
Städtepartnerschaften
Die 21 Partnerstädte von Białystok sind:
Kultur
Theater und Philharmonie
Podlachische Oper und Philharmonie
Dramatisches Theater Aleksander Węgierka in Białystok
Puppentheater Białystok
Museen
In Białystok gibt es zahlreiche staatliche wie auch private Museen. Nachfolgend eine kleine Liste ausgewählter Museen.
Persönlichkeiten
Siehe auch
Kesselschlacht bei Białystok und Minsk – 1941
TV-Dokumentationen
Thomas Gaevert, Martin Hilbert: Ausgelöscht – Bialystok und seine Juden, Dokumentarfilm, 43 Minuten, Produktion: WDR/RBB 2007; Erstsendung: 22. November 2007, Das Erste
Weblinks
Website der Stadt (polnisch, englisch)
VisitBiałystok.com (englisch)
Publikationen über Białystok im Bibliotheks- und Bibliographieportal / Herder-Institut (Marburg)
Einzelnachweise
Hauptstadt einer Woiwodschaft
Ort der Woiwodschaft Podlachien
Hochschul- oder Universitätsstadt in Polen
Stadt als Namensgeber für einen Asteroiden
|
Q761
| 174.240853 |
12613698
|
https://de.wikipedia.org/wiki/Pr%C3%A4fix
|
Präfix
|
Das Präfix (lateinisch praefixum ‚vorne angeheftet‘), in der traditionellen Grammatik auch Vorsilbe, ist ein unselbständiger Wortteil (Affix), der vorne an den Wortstamm angefügt wird (im Gegensatz zum Suffix, das dem Stamm nachfolgt). In der deutschen Morphologie finden sich Präfixe in der Wortbildung bei Verben, Substantiven und Adjektiven. Im Sprachvergleich findet man vielfältige weitere Anwendungen, allerdings zeigt sich der statistische Effekt, dass natürliche Sprachen den Gebrauch von Suffixen gegenüber Präfixen bevorzugen.
Begriff
Präfix als Stellungstyp von Affixen
Definition und Beispiele für Präfigierung
Ein Affix ist ein unselbständiger Wortbestandteil, der sich mit einem selbständigen Wortteil als seiner Basis verbindet, um ein erweitertes Wort zu bilden. Ein Präfix ist dann definiert als ein Affix, das vor seiner Basis (oder „links“ an der Basis) angefügt wird (dieser Vorgang heißt Präfigierung). Beispiele:
verbale Basis: „schenk(en)“ – Präfigierung: „ver-schenk(en)“
(Die Infinitivendung muss bei den Beispielen zunächst ignoriert werden, siehe später im Abschnitt #Flexion von Präfixverben.)
adjektivische Basis: „schön“ – Präfigierung: „un-schön“
substantivische Basis: „Sinn“ – Präfigierung: „Un-sinn“
Anmerkung: „Basis“ ist ein allgemeiner und rein relativer Begriff für das Gegenstück zum Affix, der bekanntere Begriff Wortstamm hat hingegen eine engere Bedeutung. In den obigen Beispielen ist die Basis aber jedes Mal auch ein Wortstamm (wenn man Infinitivendungen wegstreicht).
Abgrenzung von Komposition
Die Präfigierung ist zu unterscheiden von der Bildung eines Kompositums, also einer Verbindung, bei der einem (traditionell so genannten) „Grundwort“ ein „Bestimmungswort“ vorangestellt wird. In der Komposition hat man zwei wortfähige Einheiten (mit lexikalischem Gehalt); in der Präfigierung ist nur die Basis wortfähig, das Präfix zählt als ein grammatisches und abhängiges Element. Dieser theoretische Unterschied ist in manchen Anwendungsfällen sehr subtil und auch strittig:
Präfigierung „Un-sinn“ – Komposition: „Schwach-sinn“
(Nur „schwach“ ist selbst wortfähig.)
Präfigierung: „Erz-herzog“ – Komposition: „Groß-herzog“
(Nur „groß“ ist wortfähig. Das Präfix „Erz-“ ist ein anderes Element als das Substantiv „Erz“.)
Es gibt also einen Übergangsbereich, bei dem fraglich ist, wie wortartig das erste Element noch ist oder wie präfixartig es schon ist. Man spricht dann auch von einer Klasse von Präfixoiden, speziell bei emotional-wertender Funktion:
„Riesen-sauerei“, „Mords-spaß“
Siehe auch im Artikel Komposition (Grammatik) #Die Abgrenzung zwischen Komposition und Derivation.
Mehrfache Präfigierung
Die Basis einer Präfigierung kann ihrerseits komplex sein. Theoretisch könnte sie sogar selbst eine Präfixbildung sein; allerdings ist dieser Fall im Deutschen selten oder wird gänzlich bezweifelt. (Nur Kombinationen aus Partikel und Präfix sind häufig.) Beispiele sind aber möglicherweise:
„Missgeschick“: miss- [ge- [schick]]
„überbeanspruch(en)“: über- [be- [anspruch]]
Der Begriff Präfix ist jedenfalls, ebenso wie Suffix, so angelegt, dass nur die relative Stellung zur jeweiligen Basis bezeichnet wird. Diese Affixe können folglich durchaus im Wortinneren erscheinen, wenn mehrere Affigierungsschritte hintereinander abgelaufen sind. Im obigen Beispiel ist also „über-“ ein Präfix, seine Basis ist „beanspruch(en)“ und darin ist „be-“ ein Präfix zur Basis „Anspruch“. (Zur Analyse dieses Beispiels siehe: Präfix- und Partikelverben im Deutschen #Zwei Präfixe als Problemfall.)
Die Begriffe Präfix und Silbe
Präfixe sind Einheiten des Wortaufbaus (der linguistischen Morphologie), hingegen sind Silben Einheiten der Lautstruktur (Phonologie). Die traditionelle Bezeichnung „Vorsilbe“ für ein Präfix wird daher in der Sprachwissenschaft kritisch gesehen. Beispielsweise gibt es im Deutschen Präfixe, die aus zwei Silben bestehen, und in manchen Sprachen auch Präfixe aus einzelnen Konsonanten, die lautlich gar nie eine Silbe bilden könnten:
Deutsch: „wieder-holen“
Russisch: делать delat’ („machen“, imperfektiver Aspekt) → сделать s-delat’ („machen“, perfektiv)
Bei Suffixen geht die Silbenbildung sogar über die Grenzen der morphologischen Einteilung hinweg; Suffixe sind also oft keine eigenständige Silbe, von daher keine „Nachsilbe“:
„Zauberei“ – Verbstamm „zauber-“(n) mit Affix: „-ei“ – Silbenbildung: „Zau-be-rei“
Hier verhalten sich die deutschen Präfixe allerdings anders: Es gibt zwischen Präfix und Basis oft eine stärkere Grenze, die von der Silbenbildung respektiert wird – daher tritt nach einem Präfix bei vokalisch anlautender Basis auch der Kehlkopf-Knacklaut „ʔ“ auf, genauso wie am Wortanfang:
Basis: „einfach“ – Präfigierung: „ver-einfach(en)“ – Silbenbildung „ver-ʔein-fa-chen“, nicht: * „ve-rein-fa-chen“
Dies wird in der Literatur so formuliert, dass sich Präfixe vielleicht sogar wie ein eigenständiges Phonologisches Wort verhalten (eine Einheit, die größer ist als die Silbe und die Bereiche der Silbenbildung begrenzt), jedenfalls wenn das Präfix silbenfähiges Material enthält.
Andererseits findet eine sprachvergleichende Untersuchung, dass es bei Präfixen häufiger ist als bei Suffixen, dass sie nur aus einem Konsonanten bestehen. Siehe bereits das russische Beispiel weiter oben.
Präfixe im Deutschen
Präfixe begegnen im Deutschen in der Wortbildung von Substantiven, Adjektiven und Verben. Für die Wortbildung im Verbwortschatz des Deutschen spielen sie eine besonders große Rolle. Für die Flexion im Deutschen wird die Existenz von Präfixen häufig verneint, teilweise wird aber das Affix ge- der Partizipform (die als Variante des Infinitivs dienen kann) als Präfix bezeichnet.
Bei Substantiven und Adjektiven
Die Substantiv- und Adjektiv-Präfixe im Deutschen überschneiden sich teilweise, jedenfalls der äußeren Erscheinung nach. Die Abgrenzung zwischen Präfigierung und Komposition ist oft schwierig; beispielsweise können Verbindungen mit Präpositionen bzw. Adverbien als Komposita gewertet werden, etwa unter-ernährt, zu-geknöpft, ab-geneigt.
Die nachfolgende Beispielübersicht ist nach inhaltlichen Funktionen gegliedert und ist kein vollständiges Verzeichnis der deutschen Präfixe.
Manche Präfixe haben eine steigernde Bedeutung:
erz-konservativ, Erz-schurke
Haupt-problem, Haupt-vertreter (eines Typs)
Wertende Präfixe mit der Bedeutung eines negativen konträren Gegenstücks zu einem positiven Begriff, oder in der Bedeutung „falsch / misslungen“:
Miss-achtung, Miss-griff (hingegen wird Fehl-griff als Kompositum angesehen, mit einem Verbstamm (ver)fehl-). Adjektivische Basis ist seltener, vgl. aber miss-liebig.
Wertungsumkehrung verflochten mit Negation:
Un-mensch, Un-sinn (un- bei substantivischer Basis ist wertend, nur teilweise negierend)
Substantive wie Unabhängigkeit sind hingegen Substantivableitungen von einem Adjektiv mit un-.
Un-kraut (keine Komponente von Negation)
Reine Negationspräfixe:
un-schön, un-abhängig (un- bei adjektivischer Basis ist eine konträre Negation)
Nicht-Mitglied, nicht-flüssig
non-verbal
Häufig und sehr produktiv ist das Präfix Ex- in der Bedeutung, dass eine vom Substantiv bezeichnete Eigenschaft nicht mehr vorliegt. Dieses und sehr viele andere regelmäßige Präfixe sind Entlehnungen aus dem Lateinischen oder Griechischen (auch: ultra-, prä-, pro-, hyper-, anti-, pseudo-)
Eine der wenigen eher grammatischen Kategorien, die von einem Präfix ausgedrückt werden, ist die Kollektivbildung bei Substantiven mit Ge-: Berg – Gebirge, Busch – Gebüsch, Ast – Geäst. Im Unterschied dazu werden Ableitungen von Verben wie Ge-schrei, Ge-tu-e, Ge-renn-e als Zirkumfix (zweiteiliges Affix) der Form Ge-…(-e) analysiert, nicht als reines Präfix.
Verbpräfixe
Präfix- und Partikelverben
Bei der Wortbildung des Verbs im Deutschen ist eine Unterscheidung zwischen nicht abtrennbaren Wortteilen und abtrennbaren Verbalpartikeln wichtig:
(a) Er umfährt das Hindernis. („umfáhren“ in nicht trennbarer Variante, Bedeutung: einen Weg drum herum nehmen)
(b) Er fährt das Hindernis um. (trennbares „úmfahren“, Bedeutung: Verursachen, dass etwas umfällt.)
Die bevorzugte Terminologie ist heute, eine strikte Unterscheidung zu machen, so dass nur die nicht trennbare Variante (a) als Präfixverb bezeichnet wird, im Unterschied zu (b) als einem Partikelverb. Dies ist im Einklang mit der Sichtweise, dass ein Präfix ein Wortteil ist, der einen integralen Bestandteil des Wortes ergibt, und dass die Syntaxregeln immer ganze Wörter verarbeiten. Die Verbalpartikel in (b) ist hingegen eine Besonderheit, sie verhält sich syntaktisch wie ein eigenes Wort.
Ein Element wie das obige „um-“ in der nicht trennbaren Variante wird als Präfix bezeichnet, obwohl es einer Präposition gleicht und Zusammensetzungen mit Präposition als Erstglied sonst als Komposition gewertet werden. Der Grund hierfür ist, dass dieses „um-“ als gleichwertig zu anderen Präfixen eingeordnet wird, die nicht auch als Präposition vorkommen, so wie „be-“, „ent-“, „er-“ etc. (Trennbare Bildungen, also Partikelverben, werden hingegen manchmal als Komposita eingeordnet.)
Mit einer strikten Unterscheidung Präfixverb/Partikelverb fehlt allerdings ein Oberbegriff für die beiden Typen von Verben der obigen Beispiele, obwohl hier hinsichtlich der Erweiterung des Verbwortschatzes ähnliche Funktionen zu sehen sind. Manchmal werden Präfixe und Verbalpartikeln als „verbale Satelliten“ zusammengefasst. Die Bezeichnung „Verbzusatz“ begegnet vereinzelt als Oberbegriff für beide Typen, anderswo allerdings nur als Synonym für „Partikel“.
Traditionell ist jedoch auch von „Präfix im weiten Sinn“ die Rede, und in dieser Variante dann von einer Unterscheidung „trennbares Präfix (= Partikel) / nichttrennbares Präfix“. Diese Terminologie richtet sich nach dem Augenschein, wonach beide Elemente z. B. in der Zitatform des Verbs vor einem Wortstamm erscheinen; sie werden dann auch in der Orthografie gleich behandelt. Es existieren außerdem Fälle, die in ihren Eigenschaften eine Zwischenstellung zwischen den beiden Typen einnehmen, und eben die Ambiguität zwischen äußerlich gleichen Formen wie im obigen Beispiel; siehe hierzu den Hauptartikel. Ferner können beide Typen als Basis für weitere Wortbildung dienen, der Effekt der Abtrennbarkeit verschwindet dabei (z. B. von trennbarem „umleiten“ kann gebildet werden „Umleitung, Umleitungsschild“; dies sind untrennbare Wörter genauso wie „Umfahrung“ zum Präfixverb „umfahren“). All dies motiviert eine zusammenfassende Bezeichnung.
Zu beachten ist jedoch auch dann, dass „Präfix in einem weiten Sinn“ keinen Oberbegriff für die kompletten Klassen Präfixverben + Partikelverben ergibt. Der Grund ist, dass der Kategorie Partikelverb üblicherweise auch Fälle zugerechnet werden, in denen nicht von einem Affix gesprochen werden kann. Dies sind Fälle, wo der Verbstamm sich mit einem offenbar lexikalischen Element verbindet, etwa: sauber-machen, glatt-ziehen, rad-fahren, kopf-stehen (mit Adjektiv bzw. Substantiv). In manchen Einteilungen ist sogar bei einer Kombination aus zwei Verben von einem Partikelverb die Rede, also etwa „kennenlernen“. Daher erfasst der Begriff „Präfix in einem weiten Sinn“ nur einen Untertyp der Partikelverben, nämlich Partikeln aus geschlossenen Klassen wie ein, aus, über etc., die Präpositionen gleichen und somit nicht auf Inhaltswörter zurückführbar sind. (Die Gemeinsamkeit ist, dass auch die eigentlichen Verbpräfixe des Deutschen historisch eine Herkunft aus Präpositionen haben, etwa „be-“ aus „bei“ oder „ver-“ (unter anderem) aus „vor“.)
Aus den dargestellten Gründen verhält sich die Bezeichnung „Präfixverb“ bzw. „Verbpräfix“ in manchen Texten zur deutschen Grammatik als unscharf und missverständlich.
Flexion von Präfixverben
Während Präfixe die Valenz eines Verbs ändern können, ändern sie nicht die Flexionsklasse: Starke Verben behalten auch mit Präfix (und erst recht Partikel) ihren Ablaut in der Vergangenheitsform. Beispiele: „vertragen – vertrug, betragen – betrug, zergehen – zerging“ etc. Wenn es anders zu sein scheint, kann dies daran liegen, dass eine Substantivierung dazwischengeschaltet ist, etwa: 1. „auftragen“ / „Man trug ihm etwas auf“ – 2. (Substantivierung) „der Auftrag“ – 3. Verbableitung mit Präfix: „be-auftrag(en)“, Präteritum jetzt: „beauftragte“.
Partizip-, Infinitiv- und finite Wortformen werden vom präfigierten Verb als Ganzem gebildet, die Gliederung ist also z. B. „[vertrag]-en“. Bei der Beschreibung von Präfigierungen entsteht also das Problem, dass immer nur vom Verbstamm geredet werden müsste, die Nennform des Verbs aber die Infinitivendung einschließt (daher wurde der Infinitiv hier meist in Klammern hinzugesetzt). Bei Partikelverben steht die Partikel außerhalb der flektierten Wortform (unabhängig davon, wie die Rechtschreibung dies darstellt): „ab-[gefahren], ab-[zu-fahren]“. Dies ist der Grund, warum im Hauptsatz die vorangestellte finite Form die Partikel am Satzende zurücklässt, anders als bei vorangestellten Präfixverben.
Präfixe im Sprachvergleich
Sowohl Präfixe als auch Suffixe sind in den Sprachen der Welt verbreitet, aber Präfixe deutlich weniger. Das Gesamtverhältnis Präfixe zu Suffixe wird auf etwa 30:70 geschätzt, und es gibt erheblich mehr Sprachen, die zum Ausdruck grammatischer Funktionen nur Suffixe verwenden, als Sprachen, die nur Präfixe verwenden.
In einer sprachvergleichenden Untersuchung zu Mechanismen der Wortbildung fand sich, dass nur 3,6 % der Sprachen in der Stichprobe keine Wortbildungs-Suffixe hatten, aber 29,9 % hatten keine solchen Präfixe.
In einer Untersuchung zur Flexionsmorphologie im World Atlas of Language Structures (WALS) steht eine Stichprobe zur Verfügung, die 828 Sprachen mit ausreichend Flexionsaffixen enthält; hiervon haben 529 Sprachen (= 63,9 %) vorherrschend oder tendenziell Suffixe und nur 152 (= 18,4 %) vorherrschend oder tendenziell Präfixe. Zusätzlich sind in der Mehrzahl der suffigierenden Sprachen Suffixe auch „dominante“ Technik, hingegen ist unter den präfigierenden Sprachen die Mehrheit nur „tendenziell“ präfigierend. Sprachen unterscheiden sich allerdings sehr stark darin, wie viel Affigierung sie überhaupt haben, speziell in der Flexion. In der Untersuchung in WALS wird daher zunächst ein Schwellenwert definiert, wann eine Sprache reich genug an Flexionsaffixen ist, um überhaupt für die Untersuchung der Affixpositionen gezählt zu werden. Beispielsweise wird Khmer in der typologischen Literatur als eine der wenigen Sprachen genannt, die ausschließlich präfigierend sind, sie bildet aber keine Flexionsformen, so dass sie in der WALS-Untersuchung aussortiert wurde.
Es kann auch danach gefragt werden, ob bestimmte Typen von Markierungen eigene Präferenzen aufweisen. Der stärkste bekannte Zusammenhang von dieser Art ist, dass die Markierung von Kasus an Substantiven in aller Regel durch Suffixe und fast nie durch Präfixe erfolgt. Hingegen ist Negation eine Kategorie, für die Präfigierung vergleichsweise häufig ist. Es gibt ferner einige Sprachen, die sehr viel Präfigierung zeigen, aber diese nur an Verben (etwa das Navajo).
Ein bekanntes Beispiel für stark präfigierende Sprachen sind die Bantu-Sprachen. Sie zeigen Affixe für die Flexionskategorien Tempus sowie Subjekt- und Objekt-Kongruenz in Form von Verb-Präfixen, besitzen aber Suffixe für Passiv und deverbale Wortbildung. Das Bild, dass im Bereich der Präfixe Personalflexion einen relativ großen Anteil einnimmt, wird auch in der Gesamtsicht bestätigt.
Siehe auch
Liste griechischer Präfixe
Liste lateinischer Präfixe
Vorsätze für Maßeinheiten – SI-Präfixe für das SI-Einheitensystem
Literatur
Matthew S. Dryer: Prefixing vs. Suffixing in Inflectional Morphology. In: Matthew S. Dryer, Martin Haspelmath (Hrsg.): The World Atlas of Language Structures Online. Kapitel 26. Max-Planck-Institut für Evolutionäre Anthropologie, Leipzig 2013 (Online, abgerufen am 30. März 2023).
Angelika Wöllstein, Dudenredaktion (Hrsg.): Duden. Die Grammatik (= Der Duden, 4). 10. Auflage. Dudenverlag, Berlin 2022, ISBN 978-3-411-91447-0 (elektronisch).
Wolfgang Fleischer, Irmhild Barz: Wortbildung der deutschen Gegenwartssprache. 4. Auflage. Walter de Gruyter, Berlin 2012, ISBN 978-3-11-025663-5.
Christopher Hall: Prefixation, suffixation and circumfixation. In: Gert Booij, Christian Lehmann, Joachim Mugdan (Hrsg.): Morphologie / Morphology. Ein internationales Handbuch zur Flexion und Wortbildung / An International Handbook on Inflection and Word-Formation. 2 Bände. Walter de Gruyter, Berlin 2000, ISBN 3-11-011128-4, Band 1, S. 535–545.
Pavol Štekauer, Salvador Valera, Lívia Körtvélyessy: Word-Formation in the World’s Languages. A Typological Survey. Cambridge University Press, Cambridge (UK) 2012, ISBN 978-0-521-76534-3.
Gregory Stump: Affix Positions. In: Martin Haspelmath, Ekkehard König, Wulf Oesterreicher, Wolfgang Raible (Hrsg.): Language Typology and Language Universals / Sprachtypologie und sprachliche Universalien. An International Handbook / Ein internationales Handbuch. 2 Bände. Walter de Gruyter, Berlin 2001, ISBN 3-11-011423-2, Band 1, S. 708–714.
Einzelnachweise
Affix (Grammatik)
|
Q134830
| 360.753126 |
734
|
https://de.wikipedia.org/wiki/B%C3%A4rlapppflanzen
|
Bärlapppflanzen
|
Die Bärlapppflanzen (Lycopodiopsida) sind eine Klasse von Gefäßpflanzen. Sie besteht rezent aus drei Familien mit krautigen Vertretern. Im Zeitalter des Karbon dominierten baumförmige Vertreter weite Gebiete der heute auf der Nordhalbkugel befindlichen Kontinente, sie waren die Grundlage für die heutigen Steinkohlevorkommen in diesen Gebieten.
Merkmale
Wie auch bei den anderen Gefäßpflanzen ist hier der Sporophyt die dominierende Generation. Der Sporophyt ist meist gabelig (dichotom) verzweigt. Die Sprossachsen tragen einfache, nicht gegliederte Blätter, die klein und schmal sind (Mikrophylle). Vom Habitus ähneln die Bärlappe den Moosen, sind mit diesen jedoch nicht näher verwandt als die anderen Gefäßpflanzen auch. Die heutigen Vertreter sind in der Regel klein und krautig, unter den fossilen Vertretern waren aber auch 40 Meter hohe Bäume.
Die Sporangien stehen einzeln in den Achseln oder am Grund von Blättern (Sporophylle). Die Sporophylle stehen meist am Ende von Sprossabschnitten zu Sporophyllständen („Blüte“) vereinigt. Ausnahmen gibt es bei einigen fossilen Gruppen. Die meisten Gruppen sind isospor, sie bilden also nur gleich große Sporen aus. Einige Gruppen, die Moosfarne und Isoetales, sind heterospor, bilden also große weibliche und kleine männliche Sporen aus. Die Spermatozoiden sind in der Regel zweigeißelig, ein Unterscheidungsmerkmal zu den Farnen, der anderen Gruppe von Gefäßsporenpflanzen. Einzig Isoetes besitzt vielgeißelige Spermatozoiden.
Systematik
Äußere Systematik
Die Bärlapppflanzen sind die Schwestergruppe aller anderen Gefäßpflanzen, die Farne sind demnach näher mit den Samenpflanzen verwandt als mit den Bärlapppflanzen:
Innere Systematik
Die rezenten Vertreter der Klasse werden in drei Ordnungen gegliedert, zu der rezent jeweils nur eine Familie gehört:
Lycopodiales mit den Bärlappgewächsen (Lycopodiaceae).
Isoetales mit den Brachsenkrautgewächsen (Isoetaceae).
Selaginellales mit den Moosfarngewächsen (Selaginellaceae).
Daneben gibt es vier Ordnungen ausgestorbener Bärlapppflanzen:
Drepanophycales
Protolepidodendrales
Lepidodendrales, etwa mit den Schuppenbäumen.
Pleuromeiales
Paläobotanik
Die ältesten Vertreter der Bärlapppflanzen sind seit dem Silur bekannt, ab dem mittleren Devon lösten sie zusammen mit den Calamiten die Psilophyten als vorherrschende Gruppe ab. Bei den ursprünglichen Vertretern waren die Blätter und die Sporophylle noch gabelig. Einige baumartige Vertreter gehören zu den Hauptvertretern der Steinkohlenwälder des Karbons. Im Karbon hatten die Bärlapppflanzen ihre größte Mannigfaltigkeit, besonders in der Ordnung Lepidodendrales mit den „Schuppenbäumen“ der Familien Lepidodendraceae und Diaphorodendraceae, und den „Siegelbäumen“ (in der Familie Sigillariaceae). Einige baumförmige Arten reichen noch ins Rotliegend, seitdem gibt es nur mehr krautige Vertreter.
Belege und weiterführende Informationen
Literatur
Walter Zimmermann: Phylogenie der Pflanzen. Ein Überblick über Tatsachen und Probleme. 2., völlig neu bearbeitete Auflage. Gustav Fischer, Stuttgart 1959, S. 289–295.
Weblinks
Botanik online über Bärlappgewächse (Universität Hamburg)
Einzelnachweise
|
Q1149748
| 117.575986 |
24129
|
https://de.wikipedia.org/wiki/Neuguinea
|
Neuguinea
|
Neuguinea (; Hiri Motu: Niu Gini; ; niederländisch: Nieuw-Guinea) ist mit einer Fläche von 786.000 km² nach Grönland die zweitgrößte Insel der Erde. Der Westteil, Westneuguinea, wurde 1963 von Indonesien besetzt, 2003 in zwei Provinzen, Papua und Papua Barat, unterteilt; seit 2022 ist er in sechs Provinzen unterteilt. Der Osten der Insel ist seit 1975 Teil des unabhängigen Staates Papua-Neuguinea. Neuguinea besitzt den größten Tropenwald Australasiens, die reichhaltigsten Korallenriffe der Welt und einen der höchsten Biodiversitätsgrade der Welt. Weltweit einzigartig ist auch die Anzahl von über eintausend indigenen Sprachen.
Geografie
Neuguinea liegt in der Nähe des Äquators, im Norden des australischen Kontinents, von dessen Festland es erst infolge des Anstiegs des Meeresspiegels nach der letzten Kaltzeit vor 8000 Jahren getrennt wurde (Torres-Straße). Im Westen stellt es das Bindeglied zu Südostasien dar.
Die Insel befindet sich im Gebiet des pazifischen Feuerrings, wo die pazifische und die australische Lithosphärenplatte aufeinanderstoßen. Deshalb ist sie von einer Kette von großen Gebirgen durchzogen. Im Westen, dem indonesischen Teil der Insel, ragt das Maokegebirge auf, dessen höchster Berg der Puncak Jaya (von Bergsteigern auch Carstensz-Pyramide genannt; 4884 m) und dessen zweithöchster der Trikora mit 4750 m ist. Im östlichen, zu Papua-Neuguinea gehörenden Teil der Insel erhebt sich das Bismarckgebirge mit dem höchsten Gipfel Mount Wilhelm (4509 m). Dort findet sich noch eine Reihe von weiteren Gebirgen und eine Vielzahl an Vulkanen (z. B. Tavurvur, Giluwe, Lamington und Victory). Ursächlich dafür ist, dass im Norden und Osten vor der Insel im Pazifik und auf der Insel der Randbereich der pazifischen Platte in mehrere kleine Mikroplatten mit jeweils tektonisch aktiven Plattenrändern zerbrochen ist.
Auf dem Puncak Jaya gibt es heute nur noch winzige Gletscherreste. Noch 1972 gab es mehrere kleinere Gletscher, wie beispielsweise den Northwall Firn, den Meren-Gletscher, den Carstensz-Gletscher und die Southwall Hanging-Gletscher. Es sind Reste eines noch 1936 vorhandenen großen, geschlossenen Gletschers. Die Gletscherschmelze führte bereits im 20. Jahrhundert zum Verschwinden der Gletscher auf dem Trikora, dem 4800 m hohen Pilimsit und dem 4760 m hohen Mandala.
In den großen Gebirgen entspringen die längsten Flüsse Neuguineas. Ausgehend vom Maokegebirge fließt der Sepik in nordöstlicher Richtung und mündet in die Bismarcksee, während der Fly nach Südosten fließt, wo er im Golf von Papua mündet. Im Südwesten mündet der Digul in die Arafurasee, im Nordwesten der Mamberamo in den Pazifik und der Waipoga im Westen in die Cenderawasih-Bucht. Während der Regenzeit setzen die Flüsse monatelang große Flächen der nördlichen und südlichen Tiefländer unter Wasser.
Die Korallenriffe am Nordwestende bei Raja Ampat und am Südostende in der Milne Bay gehören zu den artenreichsten Riffen der Welt.
Die im Südosten gelegene Hauptstadt Papua-Neuguineas Port Moresby hat offiziell etwa 250.000 Einwohner, die zweitgrößte Stadt Lae im Osten etwa 80.000 Einwohner. Dort beginnt der Highlands Highway, die Hauptfernverkehrsstraße der Insel, über die die Bewohner der Gebirgsregion mit importierten Waren versorgt werden. Die Hauptstadt der indonesischen Region Westpapua ist Jayapura mit etwa 200.000 Einwohnern. Weitere indonesische Städte sind beispielsweise Manokwari im Osten der Vogelkop-Halbinsel und Merauke im Süden.
Flora und Fauna
Neuguinea ist ein tropisches Land und hat eine große ökologische Vielfalt. Viele hier heimische Tiere und Pflanzen kommen nirgendwo sonst auf der Welt vor (sogenannte Endemiten). Zoogeografisch gehört die Tierwelt Neuguineas zum Australischen Faunenreich. Die Pflanzenwelt Neuguineas wird dagegen zur indomalaiischen Florenregion gerechnet (Indochina, Malaysia, Indonesien).
Der Westteil der Insel ist als einer der wenigen Teile der Erde noch nicht vollständig kartographiert. Aufgrund oft tief hängender Wolken über dem dicht bewaldeten Gebiet im westlichen Landesinneren der Insel, durch das keinerlei Straßen oder Wege führen, ist dieses Gebiet trotz neuer Möglichkeiten durch Satellitentechnologie noch nicht in Atlanten verzeichnet.
Flora
Etwa 12.000 wissenschaftlich beschriebene Pflanzenarten sind auf Neuguinea heimisch, Schätzungen gehen von einer tatsächlichen Artenanzahl von etwa 20.000 aus. Unter den Pflanzenarten der Insel befinden sich etwa 2500 Orchideen, 1500 Flechten, 1200 Baumarten – darunter 620 Pandanus-Arten und 80 Gattungen Epiphyten. Typisch sind weiterhin Kannenpflanzen, Ameisenbäume (epiphytische Halbsträucher der Gattung Myrmecodia) und Baumfarne aus der Familie der Dicksoniaceae. „Traditionelle“ Nutzpflanzen sind Banane, Kokospalme, Süßkartoffel, Kohl und Ananas.
Fauna
Durch die während der Eiszeiten bestehenden Landverbindungen zwischen Australien und Neuguinea gibt es viele Gemeinsamkeiten in der Wirbeltierfauna. So dominieren unter den in Neuguinea lebenden etwa 188 Säugetierarten die Beuteltiere mit etwa 70 Arten, wie Kletterbeutler und Baumkängurus. Auch Fledermäuse sind mit etwa 70 Arten stark vertreten, sowie Nagetiere. In den unzugänglichen Urwäldern der Insel werden auch heute immer noch Säugetiere entdeckt.
Auf Neuguinea leben etwa 700 Vogelarten, darunter die charakteristischen 43 Paradiesvogelarten, zwölf Arten Laubenvögel und Kasuare, die auf Neuguinea das größte Landtier stellen.
Unter den 300 bis 400 Amphibien- und Reptilienarten gibt es 14 Schildkrötenarten, 190 Eidechsen, Skinke und Warane, und ca. 200 Schlangenarten. Bekannteste Vertreter der Herpetofauna sind der Grüne Baumpython oder der Papuapython sowie das Leisten- und das Neuguinea-Krokodil. Vipern sind auf Neuguinea nicht verbreitet.
An den Küsten, in den Lagunen, Seen und Flüssen leben über 2700 Fischarten, davon über 350 Arten von Süßwasserfischen, von denen die Regenbogenfische mit ungefähr 100 Arten und Grundeln charakteristisch sind. Gerade im westlichen Teil der Insel werden auch heute immer noch neue Arten entdeckt, da die Flüsse und viele Seen in Neuguinea nur wenig erforscht sind.
Die Wirbellosenfauna Neuguineas ist äußerst artenreich, aber noch wenig erforscht. Es sind erst 25.000 Insekten und Käfer, 300 Spinnen- und 959 Tagfalterarten bekannt. Auf Neuguinea lebt der größte Tagfalter der Erde, der Königin-Alexandra-Vogelfalter mit einer Flügelspannweite von 25 cm.
Hunde wie der Neuguinea-Dingo wurden im Laufe der Zeit eingeschleppt, sind aber nicht näher mit dem australischen Dingo verwandt. Die heute etwa 1,5 Millionen Schweine (Sus scrofa papuensis) wurden im 16. Jahrhundert von europäischen Siedlern eingeführt.
Schutzgebiete
Neuguinea verfügt über eines der größten zusammenhängenden, ursprünglichen Waldgebiete der Erde. Dennoch betreffen vor allem die fortschreitende Rodung der Wälder, die Gewinnung von Bodenschätzen und der illegale Tier- und Pflanzenhandel auch Neuguinea. Andererseits gibt es Gesetze und Hilfsprogramme, um eine weitere Verschärfung der Probleme zu unterbinden. In den letzten Jahrzehnten sind zahlreiche Naturreservate durch staatliche oder private Initiativen entstanden. In den meisten Fällen handelt es sich um Schutzgebiete, in denen die gesamte Fauna und Flora eines bestimmten Landschaftstyps geschützt wird. Die Naturreservate sind für die Forschung und den Tourismus zugänglich.
Die wichtigsten und interessantesten Naturparks Neuguineas sind:
in Papua-Neuguinea, dem östlichen Teil der Insel
Baiyer River Sanctuary, 120 km²
McAdam-Nationalpark, 20 km²
Tonda Wildlife Management Area
Varirata Nationalpark
in Westneuguinea, dem westlichen Teil der Insel
Lorentz-Nationalpark, 23.555 km²
Mamberamo Foja Naturreservat, 14.420 km²
Nationalpark Cenderawasih, 14.330 km²
Jayawijaya, 8000 km²
Nationalpark Wasur Rawa Biru, 4260 km²; angrenzend an das Tonda-Reservat
Nationalpark Teluk Bintuni, 2600 km²
Rouffer-Park, 818 km²
Arfak-Park, 450 km²
Zyklop-Park, 225 km²
Bevölkerung
Neuguinea wird von 1089 verschiedene Sprachen sprechenden indigenen Bevölkerungsgruppen bevölkert.
Bei vielen Stämmen ist die Körperbemalung verbreitet, die oft extreme Formen annimmt und auch der Abschreckung von Feinden dient. Ebenso gehörte, v. a. in der vorkolonialen Zeit, die Kopfjagd zur Kultur indigener, pflanzerischer Bevölkerungsgruppen wie den Marind-anim, Sawi, Asmat und Iatmul.
Geschichte
Frühzeit
Die Insel Neuguinea war vor 60.000 bis 50.000 Jahren, als sie erstmals von Menschen besiedelt wurde, der nördliche Teil von Sahul, einer zusammenhängenden Landmasse, die den gesamten Kontinent Australien umfasste. Die Menschen wanderten damals mit Hilfe kleiner Boote von Westen aus ein, denn die westlich von Neuguinea gelegenen heutigen Inseln waren zu dieser Zeit keine Inseln, sondern höher gelegene Teile der ebenfalls zusammenhängenden Landmasse Sunda, die der südliche Teil des asiatischen Kontinents war.
Vor etwa 30.000 Jahren wurden das Hochland und einige Inseln besiedelt.
Seit etwa 10.000 Jahren wird Ackerbau betrieben. Damit gilt die Insel als eine eigenständige Wiege der Landwirtschaft. Der Nachweis von weiteren Zivilisationsgegenständen ist aber sehr schwierig, da organisches Material in dem Tropenklima schnell verfällt. Im Zuge des Abschmelzens der Gletscher am Ende der letzten Eiszeit vor etwa 6000 Jahren wurden weite Küstengebiete überflutet, was das Wissen über frühe Küstenkulturen stark einschränkt.
Vor ca. 7000 Jahren ist der Anbau von Zuckerrohr und Bananen im Hochland nachgewiesen. Es wurden Überreste von Taro-Wurzeln gefunden, die ebenfalls als landwirtschaftliche Hinterlassenschaften gedeutet werden, da sie im Hochland nicht natürlich vorkommen. Auch Entwässerungskanäle wurden entdeckt. Die Völker in Neuguinea hatten keine Handelsbeziehungen zu den anderen Teilen der Welt und zu den Hochkulturen. Auf der Insel bildete sich eine starke Diversifizierung mit unzähligen kleinen voneinander isolierten Stämmen heraus, so dass es noch heute auf Neuguinea ungefähr 800 Sprachen gibt.
Vor mehr als 2000 Jahren besiedelten Menschen der austronesischen Sprachfamilie vorwiegend die Küstengebiete Neuguineas, da diese zur Lapita-Kultur gehörenden Menschen hervorragende Seefahrer waren. Die Papua und Melanesier waren dunkelhäutig. Bei den Papuas und melanesischen Völkern war ein sakrales Häuptlingstum vorherrschend. Auf Neuguinea war in den Religionen die Magie weit verbreitet. Aus der Zeit vor der Entdeckung durch die Europäer ist bekannt, dass es schwache Verbindungen zum östlichen Teil des malaiischen Archipels gab.
Erste Kontakte mit Europäern
Der Portugiese Jorge de Meneses, der 1526/27 die Nordküste und vorgelagerte Inseln erkundete, gilt als europäischer Entdecker der Insel.
1545 landete der Spanier Íñigo Ortiz de Retez und nannte die Insel „Neuguinea“, weil ihn die Küste an die des afrikanischen Guinea erinnerte, an der er zuvor vorbeigesegelt war.
1623 kartographierte Jan Carstenszoon im Auftrag der Niederländischen Ostindien-Kompanie große Teile der Küste. Ab diesem Zeitpunkt unterhielt die Niederländische Ostindien-Kompanie geschäftliche und machtpolitisch motivierte Kontakte zu der Region und dem Sultanat Tidore.
Ära der Kolonialzeit bis zum Ersten Weltkrieg
Die Kolonisierung Neuguineas zur Zeit des Imperialismus erfolgte von drei Seiten: durch die Niederlande, durch Großbritannien und durch das Deutsche Reich. Die Annexionen, die kurz nacheinander stattfanden, führten zu einer Aufteilung Neuguineas in drei Einflusssphären, in deren Folgezeit sich unterschiedliche Entwicklungen ergaben.
1828 fand eine staatlich finanzierte Expedition des Vereinigten Königreichs der Niederlande in die Südsee statt, in deren Folge die Niederländer die Halbinsel Vogelkop im Westen der Insel besetzten und eine Siedlerkolonie errichteten.
1884 wurde der Rest der Insel unter den Niederlanden, Großbritannien und dem Deutschen Reich aufgeteilt. Die Niederlande nahmen die Westhälfte der Insel (Niederländisch-Neuguinea, welches von 1898 bis 1962 Teil Niederländisch-Indiens war), Großbritannien den Südosten (Britisch-Neuguinea), Deutschland den Nordosten (Kaiser-Wilhelms-Land) in Besitz.
Die Neuguinea-Kompagnie erhielt am 17. Mai 1885 durch einen kaiserlichen Schutzbrief Hoheitsrechte in Kaiser-Wilhelms-Land und übernahm damit auch hoheitliche Aufgaben. Ab 1899 verwaltete das Deutsche Reich dann die Insel unter eigener Verwaltung, als Teil von Deutsch-Neuguinea.
Der britische Teil wurde 1906 als Territorium Papua an Australien abgetreten, aufgrund der Aufteilung des deutschen Kolonialreichs unter die Siegermächte des Ersten Weltkriegs wurde der deutsche Teil 1919 als Territorium Neuguinea australisches Völkerbundsmandat. Die Entwicklung der beiden Gebiete verlief wegen der getrennt gehaltenen Verwaltung recht unterschiedlich. Beide Territorien wurden 1949 unter gemeinsamer australischer Verwaltung zum Territorium Papua und Neuguinea zusammengelegt.
Situation im Zweiten Weltkrieg
Im Pazifikkrieg besetzte die Armee des Japanischen Kaiserreichs von 1942 bis 1945 den Norden der Insel. Die Papua unterstützten die Alliierten, indem sie Ausrüstung und verletzte Menschen quer durch Neuguinea transportierten. Die Hauptstadt Port Moresby wurde zeitweise Hauptquartier des US-amerikanischen Generals Douglas MacArthur. Die Kämpfe zwischen Japanern und Alliierten dauerten drei Jahre und verliefen an einigen Orten sehr erbittert. An vielen Küstenorten liegen immer noch versunkene Kriegsschiffe aus jener Zeit. Bekannt geworden ist auch der Kokoda Track, auf dem die japanische Armee nach Port Moresby marschierte.
Das 1949 unabhängig gewordene Indonesien erhob Anspruch auf den Westteil von Neuguinea, dieses blieb aber zunächst niederländisch.
Heute
Niederländisch-Neuguinea wird 1963 Teil Indonesiens
Ab 1957 begannen die Niederlande und Australien, Pläne für die Unabhängigkeit eines vereinigten Neuguinea in den 1970er Jahren zu entwickeln. 1961 wurde eine Versammlung in Westpapua (Westneuguinea) abgehalten und ein Parlament, der Nieuw Guinea Raad, eingeführt. Indonesien marschierte daraufhin in den westlichen Teil der Insel ein und begann etwas später, die Papua aus den Gebieten zu vertreiben. Im nun so benannten Irian Jaya sollten vor allem Javaner angesiedelt werden. Bis heute haben etwa 300.000 von ehemals 700.000 Papua dadurch ihr Leben verloren, während etwa 800.000 malaiische Indonesier nach Westpapua einwanderten. Grundlage dafür ist eine Politik, die Transmigrasi genannt wird.
Die Nationalflagge von Westpapua wird Morgenstern genannt und besteht aus einem weißen Stern auf rotem Grund mit blauen und weißen horizontalen Streifen, die vom Flaggenmast wegzeigen. Diese Flagge (Niederländisch: „Morgenster“) wurde 1961 von der niederländischen Regierung als Symbol und erster Schritt zur geplanten Selbstregierung der Papua-Bevölkerung eingeführt. Unter der Suharto-Regierung hatte das Hissen der Flagge Gefangenschaft, Folter oder sogar Tod zur Folge.
Britisch- und Deutsch-Neuguinea werden 1973 zu Papua-Neuguinea
Im Osten Neuguineas wurden 1972 Wahlen abgehalten und die Bevölkerung stimmte für die Unabhängigkeit. Im Dezember 1973 wurde Papua-Neuguinea autonom und erhielt am 16. September 1975 die volle Souveränität.
Literatur
Gillian Gillison, Fotos: David Gillison: Neuguinea: Ihre Toten leben in Australien. In: Geo-Magazin. Hamburg 1978,12, S. 62–82. „Zu den Gimi, einem Stamm der Papuas, nahmen Gillian und David Gillison ihre Tochter Samantha mit.“ Informativer Erlebnisbericht.
Steffen Keulig: Alptraum Zivilisation – Zurück in die Steinzeit. Eine Reise zu den Waldmenschen Neuguineas. Meridian, Rostock 2002, überarbeitete Auflage 2015 ISBN 3-934121-04-7
Siehe auch
Liste der größten Inseln der Erde
Liste geteilter Inseln
Musik Neuguineas
Sprachen Papua-Neuguineas
Religion in Papua-Neuguinea
Weblinks
Virtuelle Museumsausstellung über Neuguinea
Papua New Guinea. mongabay.com Informationen zum Regenwald Neuguineas (englisch)
Einzelnachweise
Insel (Melanesien)
Insel (Indonesien)
Insel (Papua-Neuguinea)
Insel (Australien und Ozeanien)
Insel (Australasiatisches Mittelmeer)
Wikipedia:Artikel mit Video
|
Q40285
| 647.286514 |
187180
|
https://de.wikipedia.org/wiki/Carbons%C3%A4uren
|
Carbonsäuren
|
Carbonsäuren, auch Karbonsäuren, sind organische Verbindungen, die eine oder mehrere Carboxygruppen (–COOH) tragen und damit einen mehr oder weniger ausgeprägten aciden Charakter haben. Die Salze von Carbonsäuren werden Carboxylate genannt. Verbindungen, in denen die OH-Gruppe der Carboxygruppe durch eine andere Gruppe, z. B. –OR, –NH2 oder –Cl ersetzt ist, werden Carbonsäurederivate genannt. Zu den Carbonsäurederivaten gehören auch die genannten drei Beispiele: Carbonsäureester, Carbonsäureamide und Carbonsäurehalogenide.
Nomenklatur
Für die systematische Benennung der Carbonsäuren im Deutschen wird dem Namen des Grundgerüsts der Wortbestandteil „-säure“ angehängt. Viele Carbonsäuren tragen daneben unsystematische Namen (Trivialnamen), die ebenfalls mit „-säure“ enden. Beispiele für Bezeichnungen von Carbonsäuren mit dem Grundgerüst eines Alkans sind Methansäure (Ameisensäure), Ethansäure (Essigsäure) und Butansäure (Buttersäure). Der Trivialname kennzeichnet die jeweilige Carbonsäure zumeist nach einem typischen Vorkommen.
Einteilung
Nach der chemischen Struktur des Rests R, an welchen die Gruppe –COOH gebunden ist, unterscheidet man zwischen aliphatischen, aromatischen und heterocyclischen Carbonsäuren. Die aliphatischen Carbonsäuren lassen sich weiter in Alkansäuren, Alkensäuren und Alkinsäuren unterteilen. Alkansäuren werden auch gesättigte Carbonsäuren genannt. Alkensäuren, also Carbonsäuren mit mindestens einer Doppelbindung im Rest (z. B. Acrylsäure) und Alkinsäuren, mit mindestens einer Dreifachbindung im Rest, werden dagegen als ungesättigte Carbonsäuren bezeichnet.
Weiterhin lassen sich Carbonsäuren nach Anzahl der enthaltenen Carboxygruppen unterscheiden. Monocarbonsäuren haben eine Carboxygruppe, während Dicarbonsäuren (z. B. Oxalsäure) zwei und Tricarbonsäuren (z. B. Citronensäure) drei Carboxygruppen enthalten.
Außerdem gibt es Gruppen von Carbonsäuren, die neben der Carboxygruppe noch weitere funktionelle Gruppen tragen, so die Ketocarbonsäuren, die Hydroxycarbonsäuren (z. B. Milchsäure) und die Aminosäuren (eigentlich: Aminocarbonsäuren).
Unter dem Gesichtspunkt der chemischen Struktur sind die sogenannten Fettsäuren keine besondere Gruppe der Carbonsäuren, denn es handelt sich bei ihnen um meist unverzweigte, aliphatische, gesättigte oder ungesättigte Monocarbonsäuren, häufig mit 12 bis 22, manchmal, wie in der Butter, auch mit nur 4 Kohlenstoffatomen. Sie liegen dort verestert mit Glycerin als sog. Triglyceride in den tierischen und pflanzlichen Fetten vor (siehe z. B. Milchfett). Neuere Erkenntnisse haben ergeben, dass in den fettartigen Lipiden von Zellmembranen auch kürzerkettige und verzweigte Carbonsäuren vorkommen, so dass heute unter dem Begriff Fettsäure alle Carbonsäuren mit (kettenförmigen) Organylgruppen zusammengefasst werden können.
Eine weitere nach dem Vorkommen bezeichnete Gruppe von Carbonsäuren sind die Harzsäuren, die in Naturharzen vorkommen.
Unter dem Gesichtspunkt der chemischen Struktur gehören die sog. Metallacarbonsäuren nicht in die Gruppe der Carbonsäuren. So bezeichnet werden Metall-Komplexe mit Carboxyliganden die als Zwischenprodukte in (katalysierten) Reaktionen mit Kohlenstoffmonoxid (CO) und Kohlenstoffdioxid (CO2) auftreten, etwa bei der Wassergas-Shift-Reaktion.
Beispiele
Eigenschaften
Die chemischen Eigenschaften von Carbonsäuren ohne zusätzliche funktionelle Gruppen in der Alkylkette werden allein von der Carboxygruppe bestimmt. Das Sauerstoffatom der Carbonylgruppe (C=O) hat einen relativ starken elektronenziehenden Effekt, sodass die Bindung zwischen Wasserstoff und dem Sauerstoffatom der Hydroxygruppe stark polarisiert wird. Das fördert die Freisetzung von H+-Ionen aus der Carboxygruppe, hier anhand von Essigsäure dargestellt:
Zusätzlich ist der saure Charakter der Carbonsäuren eine Folge der Mesomeriestabilisierung des Carboxylat-Anions. Sie begünstigt die deprotonierte Form der Carbonsäure und damit die Stabilität des Anions. Ähnlich wie bei der Mesomerie-Stabilisierung des Benzols deutet man das delokalisierte Elektron oft mit der folgenden Schreibweise an (Im Beispiel steht R für die Methylgruppe CH3).
Die physikalischen Eigenschaften von Carbonsäuren (Säurestärke, Siedepunkt, bzw. Schmelzpunkt, Löslichkeit in Wasser) werden wesentlich von der Art der Alkylkette und von eventuell vorhandenen Substituenten in der Alkylgruppe bestimmt.
Die Acidität einer Carbonsäure ist umso stärker ausgeprägt, je kürzer die Alkylkette ist. Ein zusätzlich am Alpha-C-Atom vorhandener Substituent mit einem elektronenziehenden induktivem Effekt (−I-Effekt), steigert die Säurestärke erheblich. Der Carboxygruppe wird eine positivere Partialladung zugeführt, welche die negative Ladung des Anions stärker ausgleichen und damit das Anion stabilisieren kann. Ein Beispiel dafür ist das stabilere Trichloracetat im Vergleich zum Acetat. Ein Maß für die Säurestärke einer Carbonsäure ist die Säurekonstante bzw. der pKs-Wert.
Kurzkettige Carbonsäuren mit bis zu sechs C-Atomen sind farblose, stechend (Ameisensäure) bzw. unangenehm (Buttersäure) riechende Flüssigkeiten mit relativ hohen Siedepunkten. Carbonsäuren haben durch die Carboxygruppe einen polaren Charakter, was eine gute Löslichkeit in Wasser zur Folge hat, die mit zunehmender Länge der Alkylkette abnimmt. Die gut mögliche räumliche Anordnung von zwei Carboxygruppen begünstigt die Ausbildung von intermolekularen Wasserstoffbrückenbindungen und führt damit zu Carbonsäuredimeren. Die doppelte Masse der Teilchen im Dampfraum über der Flüssigkeit kann die relativ hohen Siedepunkte von Carbonsäuren erklären.
Mit zunehmender Kettenlänge nimmt der lipophile Charakter von Carbonsäuren zu und der hydrophile Charakter ab. Das gilt auch für die Salze der Carbonsäuren. Die Salze haben aber neben der lipophilen Alkylkette, mit eventuell mehr als sechs Kohlenstoffatomen, mit der Carboxylat-Gruppe auch eine hydrophile Gruppe im gleichen Molekül. Die Natrium- und Kaliumsalze der langkettigen Carbonsäuren sind also amphiphile Substanzen. Sie haben die Eigenschaften von Tensiden und werden als Kernseifen und Schmierseifen verwendet.
Herstellung
Oxidationen
Carbonsäuren können immer nur dann durch Oxidationsreaktionen mit starken Oxidationsmitteln aus Alkanen oder aus mit Alkylgruppen substituierten aromatischen Kohlenwasserstoffen hergestellt werden, wenn keine anderen oxidierbaren funktionellen Gruppen im Molekül vorhanden sind, die auch oxidiert werden können, wie z. B. Hydroxyl- oder Aminogruppen oder C–C-Doppelbindungen, Zwischenstufen der vollständigen Oxidation von Alkylgruppen sind Alkohole, und Aldehyde, die deshalb auch selbst als Ausgangssubstanzen für Oxidationsreaktionen eingesetzt werden können. Bekannte geeignete Oxidationsmittel sind Sauerstoff, oder gar Ozon, Kaliumpermanganat, Chromtrioxid, Salpetersäure oder Kaliumdichromat.
Oxidation von Alkanen: Ein ab 1930 in Deutschland industriell betriebenes Verfahren war die sogenannte Paraffinoxidation. Dabei wurden Gemische von längerkettigen Alkanen, mit Luftsauerstoff und Permanganaten bei 120 °C. behandelt. Durch oxidative Spaltungen der Alkanketten entstanden Gemische verschiedener Carbonsäuren, die aufgetrennt werden mussten. Als Nebenprodukte entstanden Alkohole und Aldehyde. Die folgende zugehörige Reaktionsgleichung und alle folgenden Reaktionsgleichungen für Oxidationsreaktionen sind schematisch vereinfacht.
Oxidation von alkylierten Aromaten:
Oxidation von primären Alkoholen und Aldehyden:
Oxidation von Olefinen mit basischem Kaliumpermanganat. Unter neutralen Bedingungen führt die Reaktion nur zu vicinalen Diolen.
Reaktionen mit Verlängerung der Alkylkette
Reaktion von Grignard-Verbindungen, vorher gebildet aus Halogenalkanen, mit Kohlenstoffdioxid. Die anschließende Zugabe von Wasser führt zur freien Carbonsäure. (Reaktionsgleichung fasst beide Schritte schematisch zusammen).
Wenn in der Alkylkette funktionelle Gruppen vorhanden sind, die die Herstellung einer Grignard-Verbindung verhindern, muss ein Umweg
über die Kolbe-Nitrilsynthese und anschließende Hydrolyse des Nitrils gewählt werden. (Reaktionsgleichung zeigt beide Schritte zusammengefasst nur schematisch)
Hydrolyse von Carbonsäurederivaten
Die Hydrolyse von sog. reaktiven Carbonsäurederivaten, z. B. Carbonsäurechloriden oder Carbonsäureanhydriden ergibt keinen Sinn, da reaktive Carbonsäurederivate zunächst immer erst aus Carbonsäuren hergestellt werden müssen, um dann aus ihnen andere, weniger reaktive Carbonsäurederivate herstellen zu können. Deshalb handelt es sich bei Hydrolysereaktionen von reaktiven Carbonsäurederivaten meist um unerwünschte Nebenreaktionen, die dadurch vermieden werden können, dass unter Ausschluss von Wasser und Luftfeuchtigkeit gearbeitet wird.
Dagegen handelt es sich bei der alkalischen Hydrolyse (auch „Verseifung“ genannt) oder bei der sauer katalysierten Hydrolyse von nicht reaktiven Carbonsäurederivaten, wie z. B Carbonsäureestern oder Carbonsäureamiden um erwünschte bzw. geplante Hydrolysereaktionen:
Die saure oder basische Hydrolyse von Carbonsäureamiden muss sogar wegen der Stabilität der Carbonsäureamide unter energischen Bedingungen erfolgen.
Auch die saure oder basische Hydrolyse von Nitrilen muss wegen der Stabilität der Nitrile unter energischen Bedingungen erfolgen.
Sonstige spezielle Reaktionen
Kolbe-Schmitt-Reaktion: zur Synthese von Hydroxybenzoesäuren (z. B. Salicylsäure) aus Phenolaten und Kohlendioxid
Benzilsäure-Umlagerung: aus 1,2-Diketonen werden α-Hydroxycarbonsäuren
Koch-Reaktion (Hydroformylierung): aus verzweigten Alkenen werden durch Anlagerung von Kohlenmonoxid am α-C-Atom stark verzweigte Carbonsäuren
Spektroskopie von Carbonsäuren
Die wichtigsten analytischen Methoden zur Strukturaufklärung von Carbonsäuren sind die IR- und NMR-Spektroskopie.
Im IR-Spektrum sind die C=O-Valenzschwingung bei etwa 1710–1760 cm−1 und die breite OH-Valenzschwingung um 3000 cm−1 charakteristisch.
Im 1H-NMR-Spektrum sind die aciden Hydroxy-Protonen zu ungewöhnlich niedrigem Feld verschoben, 10–13 ppm. Die Protonen der Alkylgruppen am Carbonyl-C haben eine chemische Verschiebung im Bereich von ca. 2,0–2,5 ppm; das direkt an die Carbonylgruppe gebundene H-Atom der Ameisensäure erscheint bei 8,08 ppm. In einer C-Kette einer nicht konjugierten Carbonsäure sind die Peaks, die weiter von der Carbonylfunktion entfernt sind, mit zunehmendem Maße weniger stark zu tiefem Feld verschoben, weil der Einfluss des induktiven Effekts der Carbonylgruppe abnimmt.
Im 13C-NMR-Spektrum findet man das Carboxy-C-Atom im Bereich von zirka 170 bis 180 ppm.
Wichtige Reaktionen
Wegen der beiden dem C-Atom der Carboxygruppe benachbarten Sauerstoffatome, die elektronenziehend wirken, können nucleophile Angriffe auf das Kohlenstoffatom der Carboxygruppe stattfinden. Der nucleophile Angriff kann durch Säurekatalyse (Protonierung der Carbonylgruppe) gefördert werden, wenn die angreifenden Nucleophile keine starken Brønsted-Basen sind, wie z. B. Alkohole. Wenn die Nucleophile Basen sind, wie z. B. Ammoniak oder Amine werden sie durch die Säurekatalyse protoniert und geschwächt. Auch ohne Säurekatalyse werden solche Nucleophile durch die Carbonsäure selbst protoniert und unwirksam. Gleichzeitig entstehen auch die entsprechenden Salze der Carbonsäure, die nicht mehr nucleophil angreifbar sind.
Veresterung
Bei der säurekatalysierten Veresterung reagiert die Carboxyl-Gruppe einer organischen Säure mit der Hydroxygruppe eines Alkohols. Unter Abspaltung von Wasser entsteht ein Ester. Im Laufe der Reaktion setzt eine Rückreaktion ein, denn auch die Carboxygruppe im entstandenen Ester kann durch das entstandene Wasser nucleophil angegriffen werden. Nach Abspaltung des Alkohols wird dann die ursprüngliche Säure zurückgebildet. Wenn R1 der Rest der Säure, und R2 der Rest des Alkohols ist, stellt sich im Laufe der Reaktion die folgende Gleichgewichtsreaktion ein:
Die Lage des Gleichgewichts kann beeinflusst werden. Wenn der gebildete Ester einen niedrigeren Siedepunkt hat als die Säure kann er durch kontinuierliche Abdestillation gewonnen werden. Ein Zusatz von festen Trocknungsmitteln, die Wasser binden können, lässt die Esterbildung vollständiger verlaufen.
Dehydratisierung
Carbonsäuren können theoretisch leicht unter intermolekularer Wasserabspaltung (Dehydratisierung) bei höheren Temperaturen in organische Carbonsäureanhydride umgewandelt werden. In der Laborpraxis gelingt diese Reaktion wohl nur selten, denn bei hohen Temperaturen kann auch intramolekulare Wasserabspaltung eintreten, wobei sich Ketene bilden.
Eine Alternative zur Bildung von Carbonsäureanhydriden aus Carbonsäuren ist der Zusatz von stark wasserentziehenden Substanzen (Phosphorpentoxid) oder andere Reaktionen, wie die Umsetzung von Carbonsäurehalogeniden mit den Salzen von Carbonsäuren, oder die Umsetzung von Ketenen mit Carbonsäuren.
Carbonsäureanhydride können mit Wasser wieder zu den entsprechenden Carbonsäuren zurück reagieren.
Weblinks
Einzelnachweise
Stoffgruppe
|
Q134856
| 143.503619 |
13228
|
https://de.wikipedia.org/wiki/Tirol
|
Tirol
|
Tirol () ist eine Region in den Ostalpen im Westen Österreichs und Norden Italiens. Seit dem Jahr 2011 besitzt das historische Gebiet mit der Europaregion Tirol–Südtirol–Trentino eine eigene Rechtspersönlichkeit in Form eines Europäischen Verbundes für territoriale Zusammenarbeit.
Das Gebiet stand einst als Grafschaft Tirol lange Zeit unter einer gemeinsamen Herrschaft. Nach dem Ersten Weltkrieg und dem Zusammenbruch der Habsburgermonarchie Österreich-Ungarn war auch Tirol betroffen und wurde im Jahre 1919 durch den Vertrag von St. Germain geteilt:
Nordtirol und Osttirol (das heutige Bundesland Tirol) verblieben bzw. gehörten fortan zur neuen Republik Österreich.
Südtirol und Welschtirol, die bis auf wenige abgetrennte Gemeinden die heutige Autonome Region Trentino-Südtirol bilden, wurden im November 1918 militärisch besetzt und kamen 1919/20 auch formal zum Königreich Italien.
Geografie
Landschaftlich ist Tirol durch die Alpen geprägt.
Tirols höchste Berge sind:
der Ortler ()
die Königspitze ()
der Großglockner ()
der Monte Cevedale ()
die Wildspitze ()
Die Entwässerung erfolgt in Nord- und Osttirol über Inn, Drau und Lech, die alle in die Donau münden. Südtirol und Trentino werden hauptsächlich von der Etsch und ihren Nebenflüssen entwässert. Die Teilung des Landes erfolgte fast genau an der Wasserscheide.
Die Region Tirol grenzt im Norden an Bayern, im Westen an Vorarlberg und den Kanton Graubünden, im Südwesten an die Lombardei, im Süden und Südosten an Venetien und im Osten an Salzburg und Kärnten.
Ballungsgebiete
Stand Österreich:
Stand Italien:
Wappen
Das Wappentier Tirols ist der Tiroler Adler: Im silbernen Schild der goldene gekrönte und bewehrte rote Adler mit goldenen Flügelspangen.
Etymologie
Der Name Tirol ist sicher vorrömischen Ursprungs und stammt möglicherweise von einem Geländenamen, der anschließend auf Schloss Tirol und Dorf Tirol sowie zuletzt das gesamte Herrschaftsgebiet der Grafen von Tirol überging. Von Interesse ist dabei, dass unter den frühesten Belegen aus dem 12. Jahrhundert auch Schreibungen mit der zweiten Silbe -al (etwa de Tirale) auftauchen, wodurch die parallel im selben Zeitraum einsetzenden Schreibungen auf -ol als Folge einer lautgesetzlichen Verdumpfung der eventuell als älter anzusetzenden Form auf -al interpretiert werden könnten. Die Etymologie wie auch die Ausgangssprache des Toponyms liegen im Dunkeln, es gibt aber eine Reihe von Hypothesen.
In älterer Literatur wurde gelegentlich ein direkter Zusammenhang mit dem römischen Kastellnamen Teriolis, aus dem sich Zirl entwickelte, vermutet, allerdings handelt es sich wohl weniger um eine Ableitung als um einen zufälligen lautlichen Anklang von zwei als unabhängig voneinander zu betrachtenden Ortsnamen, worauf bereits Karl Finsterwalder hinwies.
Geschichte
Frühgeschichte
Das Gebiet von Tirol ist mindestens seit 30.000 Jahren besiedelt, wie Funde in der Tischoferhöhle bei Kufstein erweisen; sie stellen zugleich die einzigen Funde des Paläolithikums in Tirol dar. Aus der Epoche nach der letzten Eiszeit, dem Mesolithikum, haben sich im Gegensatz dazu zahlreiche Spuren finden lassen. Allerdings fanden sich in Tirol erst 1986 erste Belege, nämlich am Tuxer Joch (2338 m). Bis 2009 erhöhte sich die Zahl der nachgewiesenen Fundplätze aus dieser Zeit allein im österreichischen Tirol auf 114 (S. 60), wobei es sich allerdings fast ausschließlich um Oberflächenfunde handelte. Systematisch ergraben wurden nur sehr wenige Plätze. 1997 wurde in der Nähe der Dortmunder Hütte ein Silexartefakt entdeckt. 1995 bis 2004 erfolgten Grabungen am Ullafelsen bei Sellrain. Das dortige Jägerlager ließ sich auf die Zeit zwischen 9200 und 7500 v. Chr. datieren. Weitere Grabungen erfolgten auf der Krimpenbachalm (Gemeinde Oberperfuss) sowie im Sulztal (Gemeinde Längenfeld). Im Längental ließ sich ebenfalls ein in zwei Phasen genutztes Jägerlager nachweisen, datiert auf etwa 7000 und 6500 v. Chr. Der Fundplatz Alm I wurde ins Beuronien datiert, und damit in die Zeit zwischen 9000 und 6500 v. Chr. Er erbrachte mehr als 3000 Artefakte, meist aus dem späten 8. Jahrtausend. Davon waren 2497 aus Gangquarz, 547 aus Silex und 35 aus Bergkristall. Ebenfalls aus dem Mesolithikum fanden sich Artefakte auf der Seiser Alm und an weiteren Plätzen im Süden.
Die ersten Siedler lebten als Jäger und Sammler, bis sich um etwa 5500 v. Chr. der Ackerbau durchsetzte. Von dieser Zeit zeugen der Fund der Gletschermumie Ötzi und mehrere Ausgrabungen in allen Teilen Tirols.
Tirol verfügte schon früh über eine Bergbaukultur. Die älteste Verhüttung wurde in der Nähe von Brixlegg gefunden und stammt aus dem frühen 4. Jahrtausend v. Chr. In den folgenden Jahrtausenden wurden weitere Abbaustellen vor allem für Kupfer errichtet. Der Kupferabbau führte zu einem blühenden Handel, was vor allem die reichen Grabbeigaben in der Urnenfelderzeit, z. B. aus dem Gräberfeld Volders (ca. 1400–900 v. Chr.) beweisen. Das damalige Handelsnetz reichte von der Nordsee bis zum Mittelmeer.
Die Zeit ab ca. 450 v. Chr. bis zur römischen Invasion wird als La-Tène-Zeit bezeichnet. In dieser Zeit siedelten in den Tiroler Alpen Völker, die in den umliegenden Gebieten oft von Kelten verdrängt worden sind. Diese Völker, die zwischen dem Comer See (lat. Larius, ital. Lario) und Kärnten lebten, wurden von den Römern als Räter bezeichnet, wie die Breonen
(in der Inschrift des Tropaeum Alpium von 6/7 v. Chr. als Breuni erwähnt, wohl im Inntal), Genaunen (Unterinntal), Isarken (am Eisack), Venosten (im Vinschgau). Die Kultur bezeichnen Historiker nach den beiden wichtigsten Fundorten als die Fritzens-Sanzeno-Kultur. Sie verfügte über Weinfässer, die später von den Römern übernommen wurden, und über ein eigenes Alphabet. Daneben finden sich auch keltische Bergvölker, wie die Taurisker (Salzach-, Zillertal, davon wohl Tauern) und Saevaten (Pustertal), und später von den Slawen aus dem ehemaligen Norikum verdrängte westwärts ziehende Stämme, sowie Stämme unklarer Zuordnung wie die Fokunaten (wohl Unterinntal).
Im Süden finden sich aber die nördlichsten Siedlungsgebiete der Veneter. Die Siedlungsgebiete dieser Stämme lassen sich auch über die Tiroler Ortsnamen nachzeichnen, die nicht selten auf vorrömische Ausgangswörter zurückgehen.
Römerzeit
Im Jahr 15 v. Chr. wurde das Gebiet von den Römischen Feldherren Drusus und Tiberius erobert und auf die römischen Provinzen Rätien (Vinschgau, Burggrafenamt, Eisacktal, Wipptal, Oberinntal und Teile des Unterinntals) und Noricum (Pustertal, Defereggen und Teile des Unterlandes rechts des Zillers und des Inns) aufgeteilt. Bozen und der äußerste Süden des Landes gehörten zur Provinz Venetia et Histria.
In dieser Zeit übernahmen die in Tirol lebenden rätischen Stämme das Vulgärlatein und verbanden es mit ihrer eigenen Sprache. Daraus wurde dann das noch heute gesprochene Ladinisch.
Tirol profitierte zu dieser Zeit vor allem durch den römischen Fernhandel, der durch die Errichtung von befestigten Straßen wie der Via Claudia Augusta und Via Raetia begünstigt wurde. Als Siedlungsgebiet war Tirol für die Römer aber nicht attraktiv, was die wenigen Städte beweisen. Die bekannteste römische Stadt auf Tiroler Gebiet war in Noricum die Stadt Aguntum, die sich in der Nähe von Lienz befand.
In der Spätantike (ab 476 n. Chr.) gehörte Tirol zum Reich der ostgermanischen Ostgoten. 534 überließen diese den Vinschgau mit Meran bis zur Passer den westgermanischen Franken. Nach dem Zusammenbruch des Ostgotenreichs (550/553) erfolgte von Norden her die Einwanderung der westgermanischen Bajuwaren (Baiern), während ab 568 die ebenfalls westgermanischen Langobarden weite Teile Italiens eroberten und von Süden heraufdrangen. Im heutigen Trentino, dem ehem. Welschtirol, errichteten sie das langobardische Herzogtum Trient, das bis Bozen reichte. Von Osten erfolgte ab dem Jahr 590/91 eine slawische Besiedelung, die wohl bis zur Eroberung Kärntens durch die Baiuwaren um das Jahr 740 an die Grenzen Osttirols herangereicht hat.
Mittelalter
Seither gehörte der weitaus größte Teil Tirols zum Herzogtum Bayern. Die bayerisch-langobardische Grenze lag unmittelbar südwestlich von Bozen. Salurn und das Gebiet rechts der Etsch, darunter auch Eppan, und Kaltern bis zur Falschauer in Lana wurden langobardisch. Das Gebiet links der Etsch und das Fassatal wurden bayerisch. Die Christianisierung erfolgte durch die Bischöfe von Brixen und Trient. Der Grenzverlauf blieb auch während der Karolingerzeit und der Ottonenzeit unverändert, obwohl auch im langobardischen Teil bis Salurn die bajuwarische Besiedlung vordrang. Für diese Epoche, im Wesentlichen das 7. bis 9. Jahrhundert, ist für die jeweiligen Rechtsräume die Anwendung der sogenannten „Stammesrechte“ – bei den Kodifikationen handelt sich um die Lex Romana Curiensis, die Lex Alamannorum, die Lex Baiuvariorum und die Leges Langobardorum – urkundlich bezeugt.
1027 trennte Kaiser Konrad II. zur Sicherung der wichtigen Brennerroute das südlich angrenzende Bistum Trient vom italienischen Reichsteil (dem ehem. Königreich der Langobarden) ab und gliederte es dem deutschen Reichsteil ein. Dadurch kam auch das rechte Etschtal zwischen Lana und Deutschmetz (Mezzocorona) zum Herzogtum Bayern. Im Laufe des 12. Jahrhunderts gelang es den Grafen von Tirol, einem bayerischen Adelsgeschlecht, im südlichen Teil des Herzogtums ausgehend von Schloss Tirol bei Meran und dem Vinschgau mit der Grafschaft Tirol ein eigenes Territorium zu schaffen und im 13. Jahrhundert während der kaiserlosen Zeit anerkennen zu lassen.
Die Grafen von Tirol waren zunächst Vögte der Bischöfe von Brixen und Trient, erweiterten aber ihr Land bald auf Kosten der Bischöfe und konkurrierender Adelsfamilien (wie der Grafen von Eppan) und machten sich von ihnen wie auch vom bayerischen Herzog unabhängig (Absetzung Heinrichs des Löwen 1180). 1228 traten sie die Saalforste an die Wittelsbacher ab; diese Gebiete gehören auch heute noch (eigentumsrechtlich) zu Bayern. 1253 wurden sie von den Meinhardinern beerbt, nach dem Aussterben derer männlichen Linie 1335 kam das Land abwechselnd an die Luxemburger und an die Wittelsbacher. 1363 vermachte die Tochter des letzten Meinhardiners, Margarete Maultasch von Tirol, ihr Land im Einvernehmen mit den Landständen ihrem nächsten Verwandten, dem Habsburger Rudolf, dem Stifter. Im Frieden von Schärding erkannten 1369 auch die Wittelsbacher diese Entscheidung an.
Zum Zeitpunkt des Übergangs an die Habsburger war die Grafschaft Tirol ein geschlossenes Territorium mit etwa der heutigen Größe (Südtirol und Teile des Trentino eingeschlossen). Das Unterinntal unterhalb von Schwaz sowie das Sölllandl, das Leukental und die Untere Schranne gehörte allerdings weiterhin zu Bayern, das Zillertal und das Brixental zu Salzburg. Brixen und das Pustertal waren bischöfliche Territorien bzw. Teil der Grafschaft Görz. Dafür waren das Montafon und das Unterengadin tirolerisch.
Unter den Habsburgern hatte das Gebiet große strategische Bedeutung, da es nicht nur an vielen wichtigen Alpenpässen Anteil hatte, sondern auch eine Landbrücke in ihre alemannischen Besitzungen darstellte. 1406, im Zuge der habsburgischen Erbteilungen, wurde es wieder zu einer eigenen Herrschaft, in der die Landstände, zu denen in Tirol auch die Großbauern gehörten, bedeutende Mitspracherechte hatten. Friedrich IV. verlegte seine Residenz nach Innsbruck, das von da an Meran überflügelte.
Neuzeit
1500 fielen mit dem Stammland der Görzer auch Lienz und das Pustertal an das Haus Habsburg und wurden mit Tirol vereinigt (strategische Landbrücke von Wien nach Mailand). Nachdem mit dem Verzicht Herzog Siegmunds 1490 das Land wieder an die Hauptlinie zurückgefallen war, wurde Innsbruck Residenz des römisch-deutschen Königs und späteren Kaisers Maximilian I. Mit dem Gewinn der Herrschaften Kufstein, Kitzbühel und Rattenberg von Bayern nach dem Landshuter Erbfolgekrieg wurde das Gebiet 1505 abgerundet. In den drei genannten Gerichtsbezirken galt aber bis in das 19. Jahrhundert weiterhin das Landrecht Ludwigs des Bayern, so dass diese innerhalb Tirols eine juristische Sonderstellung einnahmen. Die Reformation fand auch in Tirol ursprünglich zahlreiche Anhänger. Unter ihnen waren auch viele radikal-reformatorische Täufer wie der aus dem Pustertal stammende Jakob Hutter, der 1528 die Bewegung der Hutterer gründete. Wegen starker Verfolgung waren sie zur Auswanderung zunächst nach Mähren und später Nordamerika gezwungen, wo heute ihre Nachkommen noch immer einen tirolischen Dialekt pflegen.
Im Jahre 1525 geriet Tirol in den Sog der deutschen Bauernkriege. Der Aufstand in Tirol wurde von Michael Gaismair angeführt, allerdings nach zwei Monaten niedergeschlagen.
Danach rief Kaiser Ferdinand I. die Jesuiten ins Land, um im Zuge der Gegenreformation unter der Führung von Petrus Canisius eine Lateinschule zu errichten. Somit wurde 1562 das heutige Akademische Gymnasium gegründet, das das älteste Gymnasium Westösterreichs ist und aus dem 1669 die Universität Innsbruck hervorging.
In der Tiroler Landesordnung von 1532 wurden das Freistiftrecht verboten und generell die Erbleihe eingeführt.
1564 wurde Tirol mit Vorderösterreich an Ferdinand II., einem Sohn Ferdinands I. übergeben, der aber aufgrund seiner morganatischen Ehe mit Philippine Welser keine erbberechtigten Nachkommen hatte. Nach seinem Tod herrschten mehrere Statthalter aus habsburgischem Haus, von denen einer, Leopold V. von Habsburg, sich erneut zum Landesherren aufschwingen konnte. Diese Nebenlinie starb aber mit seinem jüngeren Sohn Sigismund Franz schon wieder aus.
Nachdem auch Tirol Anfang 1349 vom europaweit grassierenden „Schwarzen Tod“ erfasst worden war, kam es beim Ausgleich des Bevölkerungsverlustes zu einer regen Zuwanderung aus dem heutigen Slowenien. Erneut wütete die Pest im Jahre 1512 und forderte allein in der Stadt Innsbruck 700 Opfer, auch die Umgebung der Stadt war betroffen. Die letzte Pestepidemie traf Tirol in den Jahren 1611 bis 1612.
Im späten 16. und in der ersten Hälfte des 17. Jahrhunderts kam es zu den letzten Änderungen der Bevölkerungsstruktur bis 1919, die vor allem durch die Gegenreformation verursacht wurden. In dieser Zeit verstärkte sich der italienische Einfluss im Trentino, was zum einen durch die Besetzung der Pfarreien mit italienischen Priestern und zum anderen durch die Zuwanderungen aus der Poebene verursacht wurde. Durch diese Entwicklung entstand die noch heute bestehende deutsch/italienische Sprachgrenze, südlich derer nur die deutschen Sprachinseln der Zimbern verblieben. In der Region rund um den Reschenpass wurde die rätoromanische Sprache endgültig verdrängt, was durch die Feindschaft gegen die meist protestantischen Bewohner des Unterengadins begünstigt wurde.
Im Gegensatz zu anderen Gebieten des Römisch-Deutschen Reiches blieb Tirol vom Dreißigjährigen Krieg fast vollständig verschont; nur in den Gemeinden Leutasch und Seefeld kam es zu größeren Plünderungen.
1703 stießen im Spanischen Erbfolgekrieg die bayerischen Soldaten nach Tirol vor, um sich mit den verbündeten Franzosen dort zu vereinigen. Sie erlitten aber an der Pontlatzer Brücke bei Landeck und im Wipptal eine Niederlage und wurden aus dem Land getrieben. Die Tiroler verfolgten die flüchtenden Feinde bis nach Bayern, raubten, plünderten und steckten dort Klöster, Dörfer und Höfe in Brand.
Von den Gubernatoren der Habsburger regierte dann der Wittelsbacher Karl Philipp von der Pfalz, ein Onkel der Kaiser Joseph I. und Karl VI. 1706–1717 in Innsbruck und setzte Reformen durch.
1796/97 griffen die Franzosen zum ersten Mal Tirol an und besetzten einige Ortschaften, wurden jedoch von den Tiroler Schützen vertrieben.
Mit dem Reichsdeputationshauptschluss 1803 wurden die Bistümer Brixen und Trient offiziell dem Land angegliedert. Nach der Niederlage gegen Napoléon Bonaparte wurde Tirol im Frieden von Pressburg vom 26. Dezember 1805 an das Kurfürstentum Bayern abgetreten. Es entstanden der Innkreis (Hauptstadt Innsbruck), der Eisackkreis (Brixen und Bozen) und der Etschkreis (Trient).
Tiroler Volksaufstand
1809 entlud sich der Widerstand gegen die bayerische Politik unter dem Grafen Maximilian von Montgelas im Tiroler Volksaufstand, der von Andreas Hofer, Josef Speckbacher und Pater Joachim Haspinger angeführt wurde. Der Volksaufstand wurde auch vom konservativen Klerus unterstützt, aber vor allem vom österreichischen Hof in Wien zuerst aufgestachelt, dann aber im Stich gelassen.
Die entscheidende Niederlage erlitten die Österreicher und Tiroler bei Wörgl am 13. Mai. Es gab jedoch auch kleinere Erfolge der Tiroler wie im „Giggler Tobl“, wo die Frauen und Kinder des Paznauns mit Steinlawinen und anderen primitiven Waffen die Bayerische Armee aus ihrem Tal hielten. Infolge der Niederlage kamen die südlichen Teile des Landes (Teile des Eisackkreises und gesamter Etschkreis) 1810 vorübergehend an das Königreich Italien und an die Illyrischen Provinzen Frankreichs. Am 3. Juni 1814 wurde das Land wieder vereinigt und kam zurück an den Habsburger Vielvölkerstaat Österreich. Die seit alters Salzburger Talschaften Zillertal und Brixental fielen mit Salzburg 1805 an Österreich und 1810 an Bayern. Erst durch den Vertrag von München kamen die beiden Täler 1816 (innerhalb Österreichs) an Tirol.
Selbständigkeit von Vorarlberg
Noch bis in die Spätzeiten des Kaisertums Österreich hieß das Territorium Gefürstete Grafschaft Tirol mit dem Lande Vorarlberg
(gefürstet 1493 von König Maximilian)
und umfasste die Territorien am Rhein, die teils schon immer von Innsbruck aus verwaltet wurden, teils auch die von Vorderösterreich, welche nach dem Wiener Kongress 1815 noch übrig geblieben waren.
Am 6. April 1861 erhielt Vorarlberg, wie alle Kronländer, auf Grund des Februarpatents von Kaiser Franz Joseph I. wieder einen eigenen Landtag, der vom Kaiser zu genehmigende Gesetze beschloss. Das Land blieb aber, was die Vertretung des Kaisers und der k.k. Regierung in Wien betraf, weiterhin im Amtsbereich des Statthalters in Innsbruck.
Das bis 1918 für beide Kronländer in Innsbruck publizierte Gesetz- und Verordnungsblatt für die gefürstete Grafschaft Tirol und das Land Vorarlberg
enthielt auch die nur Vorarlberg betreffenden Rechtsvorschriften; sie wurden im Unterschied zu den Tiroler oder den in beiden Ländern geltenden Rechtstexten nicht auch auf Italienisch abgedruckt.
Die Vorarlberger Versuche von 1907 und 1913, eine von Innsbruck gänzlich unabhängige Verwaltung zu erhalten, blieben damit aber in der Monarchie erfolglos.
Tirol verblieb als Gefürstete Grafschaft Tirol bis zum Ende Österreich-Ungarns 1918 bei Österreich.
Teilung in Nord und Süd
Während des Ersten Weltkrieges verlief die Gebirgsfront von 1915 bis 1918 an der südlichen Grenze Tirols. 1919, im Friedensvertrag von St. Germain, kam das Gebiet südlich des Brenners an Italien. Italien hatte ungeachtet der viel weiter südlich verlaufenden deutsch-italienischen Sprachgrenze die Wasserscheide zwischen Mittelmeer und Schwarzem Meer als seine Nordgrenze beansprucht, die anderen Alliierten hatten diesem Punkt zugestimmt, nicht zuletzt, um das politisch instabile Italien an sich zu binden (siehe Londoner Geheimverträge). Selbst die Teilung an der Wasserscheide wurde nicht eingehalten, da drei Gemeinden des östlichen Pustertals, Toblach, Innichen und Sexten, deren Bäche zum Teil in die Drau münden, zu Italien kamen.
Durch die Machtergreifung der Faschisten in Italien, der Nationalsozialisten in Deutschland und den „Anschluss“ Österreichs an das Deutsche Reich vertieften sich die Gräben zwischen Nord- und Südtirol weiter. Im Abkommen zwischen Hitler und Mussolini wurde die Grenze am Brennerpass besiegelt, wobei mit der Option in Südtirol eine Umsiedlung der deutschsprachigen Südtiroler geplant war, die jedoch wegen des Krieges nur partiell durchgeführt wurde.
Auch nach dem Zweiten Weltkrieg blieb die Teilung Tirols bestehen – die Grenzziehung des Friedensvertrages von St. Germain existiert bis heute.
Autonomie und europäische Integration
Obwohl auch weitere Versuche nach dem Zweiten Weltkrieg, zumindest den Gebietsteil mit deutschsprachiger Bevölkerung wieder an das österreichische Tirol anzugliedern, scheiterten, konnte basierend auf dem Gruber-Degasperi-Abkommen 1948 und 1972 (1. und 2. Autonomiestatut) eine Autonomie für Südtirol und gleichzeitig das Trentino erreicht werden. Die nun „autonomen Provinzen“ haben umfassende Kompetenzen erhalten, in Südtirol ist die Zwei- bzw. Dreisprachigkeit (Deutsch, Italienisch und Ladinisch) gesetzlich verankert.
Im Zuge der europäischen Integration erlangten das österreichische Bundesland Tirol und die italienische autonome Provinz Südtirol wieder eine gewisse Zusammengehörigkeit. Durch den Beitritt Österreichs und Italiens zum Schengen-Raum verschwanden alle Grenzkontrollposten zwischen den Ländern, und durch die Einführung der Gemeinschaftswährung Euro wuchs die Region auch wirtschaftlich enger zusammen. 1998 wurde darüber hinaus die Europaregion Tirol–Südtirol–Trentino gegründet, in der die Landeshauptmänner des Bundeslandes Tirol, der Autonomen Provinz Bozen – Südtirol und der Autonomen Provinz Trient in regelmäßigen Abständen einem gesamttirolerischen Landtag vorstehen. Die Arbeit der Europaregion stärkt seither die gemeinsame kulturelle Identität der Region und fördert die wirtschaftliche und politische Zusammenarbeit innerhalb dieser.
Das ladinischsprachige Gebiet um Cortina d’Ampezzo (ladinisch Anpezo, deutsch Hayden oder Haiden) gehörte ursprünglich ebenfalls zum Kronland Tirol, wurde 1923 von den italienischen Faschisten jedoch der Provinz Belluno angeschlossen. Derzeit gibt es Bestrebungen, die Gemeinden Cortina d’Ampezzo, Livinallongo del Col di Lana (ladinisch Fodom, deutsch Buchenstein) und Colle Santa Lucia (ladinisch Col, deutsch Verseil) an Südtirol anzugliedern. Am 28. Oktober 2007 ergab eine Volksbefragung hierzu eine deutliche Mehrheit für die Wiederangliederung.
Auch die Gemeinde Pedemonte war Bestandteil des altösterreichischen Kronlandes. Sie wurde 1929 der Provinz Vicenza zugeschlagen. Valvestino und Magasa wurden 1934 von der Provinz Trient getrennt und Brescia angegliedert. Im Jahr 2008 fanden in den drei Gemeinden Referenden statt, die ein klares Votum für die Wiederherstellung der historischen Landesgrenzen brachten.
Letztendlich wird das italienische Parlament über diese Neugliederungen entscheiden.
Zur detaillierten Geschichte nach 1919 siehe Bundesland Tirol, Geschichte Osttirols und Geschichte Südtirols.
Wirtschaft
Der Tourismus stellt einen wichtigen Wirtschaftszweig dar. Allein der österreichische Teil von Tirol verzeichnete im Jahr 2014 mehr Gästenächtigungen (44,3 Millionen) als ganz Griechenland.
Die gesamte Tiroler Region verfügt aber auch über moderne Industrieansiedlungen, die sich vor allem durch Swarovski, GE Jenbacher, Tyrolit, Adler Lacke, die Plansee Group, die Felder-Gruppe und Novartis/Sandoz (in Kundl und Schaftenau) in Nordtirol, sowie durch Seilbahnbauer Leitner AG, die Bergsportgruppe Salewa und die Südtiroler Speckerzeuger einen Namen gemacht hat. Südtirol und Welschtirol sind zudem für ihre sonnenverwöhnte Tal- und Gebirgslandschaft, ihren Wein und für ihren Obstanbau bekannt.
Tirol in seiner Gesamtheit ist allgemein ein sehr wohlhabendes Land. Südtirol ist das reichste Gebiet; es konnte 2004 ein Pro-Kopf Einkommen von 31.158 Euro vorweisen mit einer Kaufkraft, die 40 Prozent über dem EU-27-Schnitt liegt. Es folgen das Bundesland Tirol mit 29.461 Euro und das Trentino mit 28.212 Euro, was immer noch ein Einkommen ausmacht, das beinahe 27 Prozent über EU-Schnitt liegt.
Kultur
Die Staatsgrenze, die Tirol durchzieht, ist weder eine Sprach- noch eine Kulturgrenze. Unterschiede in den Kulturen Tirols sind wenig festzustellen. Die Salurner Klause gilt heute als Sprachgrenze, wenn sie auch nicht gänzlich als solche bezeichnet werden kann, da es seit jeher Deutschsprachige in Trentino sowie seit langer Zeit Italiener im südlichen Südtirol und Ladiner in beiden Landesteilen gab. Varianten der rätoromanischen Sprache finden sich heute neben den Tälern der Dolomiten (ladinische Sprache) auch im Nonstal. Bis ins 17. und 18. Jahrhundert wurde das Bündnerromanische auch im Südtiroler Vinschgau sowie im Nordtiroler oberen Gericht gesprochen.
Die traditionelle Kultur des Trentino verbindet Tiroler Traditionen mit Elementen der italienischen Nachbarn in Venetien und in der Lombardei. So wird in allen Landesteilen das Tiroler Musik- und Schützenwesen (Tiroler Schützen) gepflegt. Viele Gemeinsamkeiten zwischen den verschiedenen Sprachgruppen im Süd- und Welschtiroler (Trentiner) Raum haben sich auch bei traditionellen Trachten, Speisen, Festen, weltlichen und religiösen Bräuchen erhalten.
Universitäten und Forschungseinrichtungen
Universitäten
Universität Innsbruck (gegründet 1669)
Universität Trient (gegründet 1962)
Freie Universität Bozen (gegründet 1997)
UMIT TIROL - Private Universität für Gesundheitswissenschaften und -technologie (UMIT) (gegründet 2001)
Medizinische Universität Innsbruck (2004 von der Universität Innsbruck getrennt)
Hochschulen
Philosophisch-Theologische Hochschule Brixen
Konservatorium „Claudio Monteverdi“ Bozen
Landesfachhochschule für Gesundheitsberufe „Claudiana“ Bozen
Tiroler Landeskonservatorium
FH Kufstein
FH Gesundheit Tirol (FHG)
Management Center Innsbruck (MCI)
Pädagogische Hochschule Tirol (PHT)
Kirchliche Pädagogische Hochschule – Edith Stein (KPH)
Unabhängige Forschungseinrichtungen
Institut für Interdisziplinäre Gebirgsforschung (IGF), Österreichische Akademie der Wissenschaften, Innsbruck
Europäische Akademie Bozen (Eurac Research)
Fondazione Bruno Kessler (FBK, ehem. Istituto Trentino di Cultura)
Agrarinstitut San Michele all’Adige (Fondazione Edmund Mach), San Michele all’Adige
Versuchszentrum Laimburg, Pfatten-Bozen
NOI Techpark Südtirol/Alto Adige, Bozen
Wichtige Persönlichkeiten
Politische Parteien (Auswahl)
Christliche Partei Österreichs
Die Freiheitlichen Südtirol
Die Grünen – Die Grüne Alternative Tirol
FPÖ Tirol
KPÖ Tirol
Liste Fritz Dinkhauser
MoVimento 5 Stelle in Südtirol und im Trentino
NEOS Tirol
Partito Autonomista Trentino Tirolese
Partito Democratico in Südtirol und im Trentino
Piraten Partei Tirol
Popolo della Libertà in Südtirol und im Trentino
Rettet Österreich
SPÖ Tirol
Süd-Tiroler Freiheit
Südtiroler Volkspartei
Tiroler Volkspartei (Tiroler Landesverband der ÖVP)
Unione per il Trentino
Verdi Grüne Vërc, Südtiroler Partei
Siehe auch
Europaregion Tirol–Südtirol–Trentino
Hofer-Kreuzer – Münzen des Tiroler Volksaufstands
Literatur
Franz X. Bogner: Tirol aus der Luft. Tyrolia, Innsbruck 2012, ISBN 978-3-7022-3214-6.
Josef Egger: Die Geschichte Tirols. Von der ältesten Zeit bis in die Neuzeit. 3 Bände. Wagner, Innsbruck 1872, 1876, 1880 (Digitalisat Bd. 1, Digitalisat Bd. 2, Digitalisat Bd. 3).
Josef Fontana u. a. (Hrsg.): Geschichte des Landes Tirol. 4 Bände in 5 Teilen. Bozen-Innsbruck: Athesia-Tyrolia 1987–1990.
Michael Forcher: Kleine Geschichte Tirols. Haymon, Innsbruck 2006, ISBN 978-3-85218-519-4.
Michael Gehler: Tirol. „Land im Gebirge“: Zwischen Tradition und Moderne, Wien 1999.
Horst Schreiber: Wirtschafts- und Sozialgeschichte der Nazizeit in Tirol (Geschichte und Ökonomie 3). Studienverlag, Innsbruck 1994, ISBN 3-901160-35-3.
Ulrich Leitner (Hrsg.): Berg & Leute. Tirol als Landschaft und Identität. Innsbruck 2014
Johann Jakob Staffler: Tirol und Vorarlberg statistisch, topographisch, mit geschichtlichen Bemerkungen in 2 Theilen, Innsbruck 1839 (Digitalisat 1841 Bd. 1), (Digitalisat 1844 Bd. 2), (Digitalisat 1846 Bd. 2, Heft 2), Register
Thomas Bachnetzer, Michael Brandl, Alfred Pawlik: Mesolithische Jäger im Hochgebirge, in: Nikolaus Hofer, Franz Sauer (Hrsg.): Ins wilde Längental. Steinzeitjäger und Almwirtschaft im Kühtai, Tirol, 2018, S. 58–71, 94–96 (Literatur). (academia.edu)
Weblinks
Europaregion Tirol
Tirol-Atlas für Nord-, Ost- und Südtirol, ohne Trentino
Laurence Cole: (PDF; 4,3 MB) The Construction of German Identity in Tirol, c. 1848–1945. In: Regionale Bewegungen und Regionalismen in europäischen Zwischenräumen seit der Mitte des 19. Jahrhunderts. Hgg. Philipp Ther & Holm Sundhaussen. Herder-Institut (Marburg), 2003, S. 19–42
Einzelnachweise
Region in Europa
Historische Landschaft oder Region in Europa
Habsburgermonarchie vor 1804
Österreichisches Kronland
|
Q153809
| 114.772524 |
23872
|
https://de.wikipedia.org/wiki/Friesen
|
Friesen
|
Die Friesen sind eine Bevölkerungsgruppe, die an der Nordseeküste in den Niederlanden und Deutschland lebt. Sie galten traditionell als seefahrendes Handelsvolk. Ihr Meer, die Nordsee, wurde bis ins späte Hochmittelalter als mare frisicum, also Friesisches Meer bezeichnet. In beiden Ländern sind die Friesen als nationale Minderheit anerkannt. In Deutschland wird dabei auf die Friesen der Terminus Volksgruppe angewandt, ohne dass dies den Status als nationale Minderheit berührt. Ein germanischer Volksstamm der Friesen (lateinisch: Frisii, griechisch: οἱ Φρίσσιοι oder Φρείσιοι) ist seit der Antike belegt.
Für den heutigen internationalen Zusammenhang sind sprachliche Gemeinsamkeiten und das Wissen um eine friesische Geschichte von Bedeutung. Während in der niederländischen Provinz Friesland neben Niederländisch das Westfriesische anerkannte Amtssprache ist, ist der Status der friesischen Sprachen in Deutschland schwächer.
Geschichte
Aus der früheren Geschichte Frieslands sind keine Textquellen erhalten, wohl aber gibt es Funde, die z. T. bis in die letzte Zwischeneiszeit zurück datieren. Aus der Mittelsteinzeit sind Funde aus dem Gebiet des Brockzeteler Moors erhalten. Mit der Jungsteinzeit vergrößert sich die Zahl der Funde: Steinbeile und andere Werkzeuge, Becher, Urnen und anderes sind erhalten. Unter anderem fand sich im Moor von Georgsfeld einer der ältesten bisher bekannten Pflüge der Welt. Zunächst in das 4. Jahrtausend vor Christus, später (in den fünfziger Jahren) in die ausgehende Jungsteinzeit (etwa 2000 v. Chr.) eingeordnet, datieren neuere Messungen den Pflug inzwischen in die frühe Bronzezeit (1940 bis 1510 v. Chr.). Frühestens 300 v. Chr. entstanden an der friesischen Küste die Warften oder Wurten.
Die große Verlandung, die im 1. Jahrhundert v. Chr. begann, hatte eine große Siedlungswelle zunächst in das Marschgebiet zur Folge. Dass auch Land besiedelt wurde, das zweimal am Tag von der Flut bedeckt wurde, wie Plinius der Ältere behauptete, ist wohl eher ein Missverständnis, denn Plinius’ Schilderung scheint eher die Situation nach einer verheerenden Sturmflut darzustellen.
Römerzeit
Die antiken Friesen („Frisii“) wurden vom römischen Historiker Tacitus (~58 bis 120 n. Chr.) in seiner Germania der Gruppe der Ingaevones zugeordnet, zu denen auch die Chauken und Sachsen gezählt wurden. Das Land der Friesen lag an der Küste der Nordsee von der Mündung des Rheins bis etwa zur Ems. Ostwärts der Ems siedelten nach diesen römischen Angaben die Chauken. Die erste Erwähnung der Friesen stammt von Plinius dem Älteren und steht in Zusammenhang mit den Drusus-Feldzügen (12 bis 8 v. Chr.). Im Jahr 12 v. Chr. fand Drusus in den Friesen Verbündete. Doch bereits in den Jahren von 28 bis 47 lehnten sich die Friesen gegen die Ausbeutung durch die Römer auf, wie Tacitus berichtet. In seinen Annalen berichtete er über das Jahr 28: „Im selben Jahr brachen die Friesen, ein Volk jenseits des Rheins, den Frieden, mehr infolge unserer Habsucht als aus Trotz gegen unsere Herrschaft. Drusus hatte ihnen in Rücksicht auf ihre dürftigen Verhältnisse einen mäßigen Tribut auferlegt: Sie sollten für Heerzwecke Rinderhäute liefern.“ Obwohl die Rinder der Friesen damals klein waren, forderten die römischen Beamten Häute in der Größe von Auerochsen. Tacitus führt aus: „Die Bedingung, die auch andere Völker nur schwer hätten erfüllen können, war um so drückender für die Friesen; denn wenn auch ihre Wälder reich an mächtigen Ungetümen sind, sind ihre zahmen Rinder jedoch klein. So lieferten die Friesen am Anfang ihre Rinder; dann mussten sie auch ihre Frauen und Kinder oder beides an Tribut leisten. … Die römischen Soldaten, die zur Erhebung des Tributes nach Friesland kamen, wurden daher von den Friesen angegriffen und ans Kreuz geschlagen.“ Im Zusammenhang mit diesem Aufstand wurde auch Flevum, die nordwestlichste römische Garnison Kontinentaleuropas von den Friesen angegriffen.
In der Folge gelang es den römischen Legionen zwar, den Aufstand niederzuschlagen, aber sowohl der Feldzug als auch die gewonnene Entscheidungsschlacht führten zu großen Verlusten. So gerieten nahe dem heiligen Hain der Friesen, Baduhenna, einige römische Verbände in einen Hinterhalt und wurden ausgelöscht, wobei nach den Berichten 900 Römer den Tod fanden. Die Angehörigen eines weiteren Truppenverbandes von 400 Legionären wurden ebenfalls eingeschlossen und gaben sich überwiegend selbst den Tod, indem sie sich in ihre Schwerter stürzten, nachdem ihre Lage aussichtslos war. Tacitus berichtet: „Seither hat der Name der Friesen bei den Germanen einen hellen Klang.“
Auch wird für das Jahr 16 die Anwesenheit eines großen römischen Heeres an der Ems im Bereich des Fundplatzes Bentumersiel bei Jemgum angenommen.
Die Quellenlage zu den Friesen wird vom 4. bis 7. Jahrhundert sehr dünn. Archäologische Funde lassen darauf schließen, dass um 300 die Bevölkerung stark zurückgegangen war, allerdings um das Jahr 500 wieder sprunghaft anstieg. Im Zusammenhang mit diesen Ereignissen wird vermutet, dass die Friesen um diese Zeit einen starken Zuzug aus den umliegenden angelsächsischen Stammesgruppen zu verzeichnen hatten. Dabei kann bis heute nicht ganz geklärt werden, ob die „Ur-Friesen“ überhaupt germanischen Ursprungs waren oder erst durch den Zuzug „germanisiert“ wurden, im Gegenzug den Neuankömmlingen allerdings auch ihren Stempel aufdrückten. Eine Kontinuität der „Frisii“ des Tacitus zu den Friesen ab dem Jahr 500 ist jedenfalls nur sehr bedingt gegeben. Zudem waren in den Randgebieten Frieslands sächsische und fränkische Bewohner durchaus nicht selten.
Ins Licht der Geschichte traten die Friesen zurück, als sie mit den Merowingern und Karolingern in Kontakt kamen.
Zeit der Völkerwanderung
Für das 5. Jahrhundert, dessen Quellen die Friesen nicht erwähnen, wird vermutet, dass sich Teile von ihnen an den Raub- und Eroberungszügen der Angeln und Sachsen beteiligten. Bis etwa 1950 wurde deshalb auch die Meinung vertreten, dass sich Friesen mit den Jüten in Kent niedergelassen hätten. Als Begründung diente den Vertretern dieser These, dass das „Kentische“ (engl. Kentish) bis heute eine große Ähnlichkeit mit dem Westfriesischen habe. Heute gilt diese These als nicht mehr haltbar und wird kaum noch vertreten.
Es ist jedoch historisch überliefert, dass die Jüten über das damalige Friesland nach Britannien einfielen, was auch dort ihr südöstliches Siedlungsgebiet erklärt. Dieses war am kürzesten über die Küstengebiete der heutigen Provinzen Zuid- und Noord-Holland zu erreichen. Diese gehören geschichtlich zum einstigen Siedlungsgebiet der Friesen. Heute gilt es aufgrund von Bodenfunden als sicher, dass die Jüten sich südlich der späteren Stadt Dorestad niedergelassen und eine längere Zeit dort gewohnt haben. Während ihres Aufenthaltes an der Rheinmündung dürften sich die Jüten sprachlich ihren friesischen Nachbarn angepasst haben, was die Ähnlichkeit des Kentischen mit dem modernen Westfriesischen erklärt.
Am Ende des 6. Jahrhunderts besetzten die Friesen die Küste bis zur Mündung der Weser. Dabei assimilierten sie die wenigen noch verbliebenen Sachsen, die nicht nach Britannien ausgewandert waren. Im Süden gründeten Friesen im 7. Jahrhundert die Siedlung Dorestad und von dort aus dehnten sie den friesischen Einflussbereich bis Brügge aus.
Herrschaft der Franken
Im Jahre 734 eroberte Karl Martell den westlichen Teil Frieslands, und der letzte Gesamtherzog der Friesen, Poppo, fiel in einem Kampf gegen einen fränkischen Adeligen. Diese größte Ausbreitung des friesischen Territoriums ist bekannt als „Frisia Magna“. Das, was heute von der „Frisia Magna“ übriggeblieben ist, ist klein und verstreut. Das meiste ist von den sich ausbreitenden Nachbarn erobert worden, von den Sachsen, die in den Norden und Westen vordrangen und den Franken, die den Norden und Osten besetzten.
Karl der Große eroberte 785 nach dem Sieg über die Sachsen ganz Friesland einschließlich der östlichen Gebiete bis zur Weser für das fränkische Reich. Er vertrat eine Politik, die den einzelnen Stämmen im Reich eine gewisse Autonomie sicherte. Aus diesem Grund ließ er gegen Ende des 8. Jahrhunderts die überlieferten germanischen Stammesgesetze aufzeichnen, so auch die Lex Frisionum, das alte Gesetz der Friesen.
Etwa um 800 besiedelten Friesen die heutigen nordfriesischen Inseln zwischen Eiderstedt und Sylt. Die in den Uthlanden wohnenden Friesen unterstanden als „Königsfriesen“ direkt der dänischen Krone. Deutlich später, vermutlich im 11. Jahrhundert, wurde in einer zweiten Welle dann auch die Westküste Süderjütlands, das spätere Herzogtum Schleswig, zwischen den Flüssen Eider und Vidå besiedelt. Möglicherweise bestand bei dieser Auswanderung ein Zusammenhang mit der Ausdehnung der fränkischen Herrschaft, denn die Nordfriesen siedelten außerhalb des karolingischen Machtbereichs, der an der Eider endete.
Unter der Frankenherrschaft wurden die Friesen im alten Kernland christianisiert. Bis zum Jahr 800 war die Oberschicht zum Christentum konvertiert, bei der einfachen Bevölkerung dauerte der Prozess deutlich länger. Die an die jütische Küste in Schleswig ausgewanderten Friesen wurden dagegen erst im 11. Jahrhundert Christen, nachdem die Annahme dieser Religion für sie nicht mehr automatisch die Unterwerfung unter die fränkische Herrschaft bedeutete. Unter Karl dem Großen wurden die Friesen von der Heerfolge, d. h. vom fränkischen Militärdienst, befreit und mussten nunmehr nur das Kirchen-Zehntel zahlen.
Nachdem die Friesen schließlich die von den Frankenkönigen eingesetzten Grafen wieder vertreiben konnten, begann die häufig romantisch überhöht dargestellte, aber dennoch bemerkenswerte Zeit der Friesischen Freiheit. Diese Form der friesischen Selbstverwaltung bedeutete einen deutlichen Unterschied zu anderen Territorien in Europa. In Friesland von der Zuidersee bis zur Weser bildeten sich zahlreiche kleine Landesgemeinden, die häufig freiheitlich und genossenschaftlich organisiert waren und eigene Ratsverfassungen besaßen. Die Friesen beriefen sich auf Freiheitsrechte, die der Legende nach von Karl dem Großen, tatsächlich wohl aber von einem seiner Nachfolger an die Friesen verliehen wurden. Im Gegensatz zum übrigen Europa etablierte sich kein feudalistisches System.
Nach Karl dem Großen
Nach dem Zerfall des Frankenreiches unter den Erben Karls des Großen gehörte das Gebiet der Friesen ab 843 zum Mittelreich Lothars I. und nach dessen Zerschlagung zum Ostfränkischen Reich. Dort wurden sie lose dem Herzogtum Niederlothringen zugeordnet.
Friesische Freiheit
Die Zeit der Friesischen Freiheit dauerte etwa vom 12. bis zum 14. Jahrhundert.
Die Landesgemeinden, symbolisch die sieben friesischen Seelande genannt, waren reichsunmittelbar und somit nur dem Kaiser untertan. Die Abgesandten der Landesgemeinden trafen sich einmal im Jahr am Upstalsboom.
Neuzeit
Mit dem Tod des ostfriesischen Fürsten Carl Edzard erlosch mit dem Haus Cirksena im Jahr 1744 das letzte einheimische friesische Geschlecht, das eine Herrschaft auf friesischem Boden begründen konnte. Anschließend wurde Ostfriesland von Friedrich dem Großen für Preußen in Besitz genommen.
Wirtschaftsgeschichte
Bis zum Aufstieg der Hanse waren die Friesen das bedeutendste Handels- und Seefahrervolk der Nordseeküste.
Der älteste Bericht von der Wirtschaftsweise an der Nordseeküste stammt von Plinius dem Älteren, der im Jahr 47 als Reiteroffizier am Feldzug des Corbulus gegen die Chauken, die östlichen Nachbarn der Friesen an der Nordseeküste, teilnahm. Diese Schilderung der Chauken gibt auch sicherlich ein exaktes Bild der Wirtschaftsweise der Friesen.
Das Wattgebiet: Fischfang und Leben auf der Warft, Binsen und Schilf, Torfstecherei
Plinius: „Gesehen haben wir im Norden die Völkerschaften der Chauken, die die größeren und die kleineren heißen. In großartiger Bewegung ergießt sich dort zweimal im Zeitraum eines jeden Tages und einer jeden Nacht das Meer über eine unendliche Fläche und offenbart einen ewigen Streit der Natur in einer Gegend, in der es zweifelhaft ist, ob sie zum Land oder zum Meer gehört. Dort bewohnt ein beklagenwertes Volk hohe Erdhügel, die mit den Händen nach dem Maß der höchsten Flut errichtet sind. In ihren erbauten Hütten gleichen sie Seefahrern, wenn das Wasser das sie umgebende Land bedeckt, und Schiffbrüchigen, wenn es zurückgewichen ist und ihre Hütten gleich gestrandeten Schiffen allein dort liegen. Von ihren Hütten aus machen sie Jagd auf zurückgebliebene Fische. Ihnen ist es nicht vergönnt, Vieh zu halten wie ihre Nachbarn, ja nicht einmal mit wilden Tieren zu kämpfen, da jedes Buschwerk fehlt. Aus Schilfgras und Binsen flechten sie Stricke, um Netze für die Fischerei daraus zu machen. Und indem sie den mit den Händen ergriffenen Schlamm mehr im Winde als in der Sonne trocknen, erwärmen sie ihre Speise und die vom Nordwind erstarrten Glieder durch Erde.“ Gekocht und geheizt wurde also mit Torf.
Salzgewinnung im Wattgebiet
Neben Fischen und dem auch in der Nordsee fündigen Bernstein lieferte Salzgewinnung ein wertvolles und wichtiges Handelsgut für die Wattbewohner. Dazu wurde salzhaltiger Torf getrocknet, verbrannt, das Restsalz gelöst und filtriert und die Sole mittels Torffeuern verdampft, wodurch das „friesische Salz“ gewonnen wurde, das von der Römerzeit bis ans Ende des Mittelalters ein gefragtes und teures Handelsgut war. Später wurde es auch Grundlage für den Export von gesalzenem Hering.
Ackerbau und Viehhaltung, bäuerliche Textilindustrie in den Marschen
In den Marschen baute man nach den archäologischen Befunden Gerste und Hafer an, Bohnen und Raps, und züchtete Rinder, Pferde, Ziegen und Schafe. Wegen der Kälte und des Windes verwendeten die Friesen viel Mühe darauf, die Wolle der Ziegen und Schafe zu guten Fäden zu verspinnen und zu dichten Stoffen zu weben. Neben Salz und getrockneten oder gesalzenen Fischen wurden Stoffe und Mäntel ein wichtiges Exportgut der Friesen. Bereits die Römer waren Kunden für friesische Wollmäntel. Damit standen den Friesen drei selbstproduzierte gesuchte Handelswaren für den Fernhandel zur Verfügung.
Handel
Neben den selbstproduzierten Handelsgütern verfügten die Friesen als Fischer und Küstenbewohner über einen ausgezeichneten Schiffbau und viel Erfahrung auch mit rauer See, die über die Jahrhunderte gewachsen war. Damit hatten sie die Mittel, ihre Exportwaren an die Kunden und das Eingehandelte heimzubringen. Da sie auch sehr wehrhaft waren, ihnen wie früher den Griechen und Phöniziern im Mittelmeer und später den Portugiesen im Indienhandel das wertvolle Handelsgut nicht leicht zu rauben war, waren alle Voraussetzungen für das lukrative Geschäft des Handels gegeben.
Die Friesen bauten eine andere Schiffform als ihre Konkurrenten, die Wikinger. Das 1891 in einem Tief südlich Dornum-Westeraccum gefundene Schiff von Roggenstede war flach gebaut (zum Trockenliegen bei Niedrigwasser), 1,37 Meter breit und acht Meter lang. Gebaut war es stabil aus starkem Eichenholz. Später wurde das weiterhin im Rumpf flach gebaute friesische Schiff zur hochbordigen Kogge, mit dem Ruder mittschiffs, und zum Vorläufer der Hansekoggen.
Im 7. Jahrhundert begannen die Friesen nicht nur Warften für Einzelgehöfte zu bauen, sondern errichteten auch bogenförmig längs an Buchten und Prielen Dorfwarften als Handelsniederlassungen für Händler und Handwerker wie Bootsbauer, Küfer, Segelmacher. Diese als Straßendörfer angelegten Handelsniederlassungen wurden Wik genannt.
Nordsee, Ostsee
Zunächst handelten die Friesen an der ganzen Nordseeküste und vor allem mit Jütland und Irland. Im Laufe der nächsten hundert Jahre gewannen sie auch über die Zwischenstation Haithabu eine führende Stellung im Ostseehandel. Bezogen wurden von dort Pelze. Wie die Wikinger handelten die Friesen aber auch über Gotland, Nowgorod und die russischen Flüsse bis nach Byzanz und bezogen von dort Seide, die von China über die Seidenstraße gekommen war, und Pfeffer der über arabische Zwischenhändler bezogen wurde und von den Gewürzinseln stammte.
Dorestad
Das größte Wik war Dorestad an der Gabelung des Alten Rheins und der Lek, das sich am flachen Ufer 1000 Meter hinzog und eine Breite von 90 bis 150 Meter hatte. Die Straße verlief in Nord-Süd-Richtung und war auf der Westseite dicht mit Häusern bebaut. Gehandelt wurden vor allem Tuche und Wollmäntel in verschiedenen Farben, Salz und Nahrungsmittel, vor allem Getreide und getrockneter Fisch. Nach Norden, nach Dänemark, Norwegen und Schweden wurden dort hochgeschätzte Ziegenhaardecken aus friesischer Produktion verkauft. Kauffahrer aus Byzanz verkauften Seide und erwarben friesische Tuche. Soweit nicht Waren getauscht wurden, war Silber in Drahtstücken oder als Münzen das Hauptzahlungsmittel. Die von Dorestad selbst geprägten Münzen waren überall anerkannt und zeugen in ganz Europa von den weiten Handelsbeziehungen der Friesen. Über den Rhein nach Deutschland und weiter über die Alpen verlief eine weitere wichtige Handelsroute.
Rheinroute, Deutschland, Alpen, Rom und Italien
Friesische Mäntel genossen höchste Wertschätzung. So verschickte Karl der Große diese Mäntel als Geschenke, auch zum Beispiel an Hārūn ar-Raschīd. Fränkische Hofbeamte erhielten als Teil ihrer Entlohnung jährlich einen Mantel aus Friesland. Großkunden wie das Kloster Fulda bezogen pro Jahr 700 bis 800 Mäntel für die Mönche und zum Weiterverkauf. Die Besitzungen des Klosters Werden hatten ihren Zehnten in Wolle, Ziegenhaardecken und Mänteln zu entrichten. Der „Fries“ war ein überall in Norden anerkanntes Tuchmaß.
Über den Rhein importierten die Friesen etwa aus dem Brohltal bei Andernach Tuffstein für den Kirchenbau, Krapp zum Rotfärben der Wolle und Wein aus der Pfalz und dem Elsass. Handelsniederlassungen der Friesen gab es in allen Rheinstädten bis Straßburg und Basel. In Speyer etwa, dem zentralen Weinumschlagplatz der Pfalz und Zentrum eines großen Krappanbaus, bestanden im 11. Jahrhundert die Händler im Bereich der Domimmunität aus Friesen und Juden. Siehe auch: Geschichte der Juden in Ostfriesland.
Auf der Route über die Alpen ließen sich Friesen oberhalb von Bern im Haslital nieder. Die Ortsnamen dort erinnern an Friesland und vor allem das Jeverland. Sehr früh waren die Friesen auch in Rom vertreten. So half die Bruderschaft der Friesen in Rom (Schola) im Jahr 854 dem Papst, Rom gegen die Sarazenen zu verteidigen. In Trani in Mittelitalien bargen die Friesen die Gebeine des Heiligen Magnus und bestatteten sie in der Friesenkirche St. Michaelis und St. Magnus neben dem Petersplatz. Die Rettungstat wurde in der Kirche durch eine Marmortafel vermerkt. Später wurden die Reliquien von St. Magnus nach Friesland gebracht und in einem Schrein in der St.-Magnus-Kirche in Esens bestattet, was seit 1150 bezeugt ist.
Bremen, Kreuzfahrerschiffe, Westfalen, Flandern
Zwischen Rüstringen und Bremen wurde am 9. Juli 1220 ein regelrechter Handelsvertrag geschlossen. Rüstringen lieferte Schlachtvieh, Häute, Schafe, Käse, Eier, während Bremen Bier lieferte. An diesem Handel beteiligte sich auch das Harlinger Land.
In der Zeit der Kreuzzüge rüsteten die friesischen Werften viele Schiffe, ja ganze Flotten aus, die Friesen stellten auch Seeleute und Soldaten. Friesische Kreuzfahrer waren am 21. Oktober 1147 dabei, als Lissabon zurückerobert wurde. Dabei fiel Bischof Popted Ulvinga. 1187 fuhren friesische und dänische Kreuzfahrer mit 50 Schiffen ab, eroberten auf dem Weg die portugiesische Stadt Silves und erreichten 1189 Akkon.
Friesland blieb auch Agrarexportland. So lieferte es zum Beispiel 1383 über Oldenburger Händler Pferde, Rinder, Schafe, Butter und Heringe nach Westfalen. Im Hafen Damme am Zwin, dem Hafen von Brügge in Flandern, sind friesische Viehhändler bereits seit 1252 bezeugt. Damme wünschte gemäß einer Urkunde von 1394 ausdrücklich den Besuch von Kaufleuten aus Norden und Harling. Graf Ludwig von Mele sicherte auf Wunsch von Brügge, Gent und Ypern auf drei Jahre freien Handel mit Flandern zu. Auf der Rückfahrt wurde Tuch aus Flandern, dem neuen Zentrum der Tuchindustrie importiert.
Die Städte des östlichen Friesland (vor allem Emden) lehnten trotz eines Aufnahmeangebots den Beitritt zur Hanse ab und verloren damit eine wichtige Einflussmöglichkeit im Fernhandel, vor allem an die angrenzenden Hansestädte Groningen und Bremen.
Die Friesen heute
Heute gibt es noch drei Gebiete, in denen traditionell Friesen anzutreffen sind. Die in den Niederlanden zwischen dem IJsselmeer (der ehemaligen Zuiderzee) und der Lauwers lebenden Friesen werden in Deutschland als Westfriesen bezeichnet. Ihre Selbstbezeichnung lautet aber nur Friesen oder westlauwers'sche Friesen, da die Westfriesland genannte Region in der heutigen Provinz Noord-Holland liegt und nicht mit der Provinz Friesland (Fryslân) identisch ist. Die westlauwers'schen Friesen leben zum größten Teil in dieser Provinz, die etwa 600.000 Einwohner hat.
Die zweite Gruppe lebt an der Küste des deutschen Landes Niedersachsen, von der niederländischen Grenze bis jenseits der Weser (Ost-Friesland). Aufgrund ihrer Geschichte sind diese Friesen territorial sehr zersplittert. Traditionell friesische Gebiete, in denen die friesische Identität mehr oder weniger stark ausgeprägt ist, sind Ostfriesland und das Oldenburger Friesland, Wilhelmshaven, das Saterland, Butjadingen und das Land Wursten. Die tatsächliche Anzahl der Friesen in Niedersachsen ist nur schwer zu schätzen, in allen genannten Gebieten leben über 500.000 Menschen. Deren Zuordnung ist auch deshalb schwierig, weil „Friese“ „heutzutage weniger eine ethnisch-genetische, als vielmehr eine kulturell-historische Kategorie der personalen Bestimmung und regionalen Zuordnung“ ist. Obwohl überwiegend mit benachbarten Friesen verwandt, bezeichnen sich nur die aus dem Gebiet der ehemaligen Grafschaft Ostfriesland stammenden Friesen uneingeschränkt als Ostfriesen. Die anderen Gruppen bevorzugen Bezeichnungen in Zusammenhang mit ihrer territorialen Zugehörigkeit, etwa Wurtfriesen oder Saterfriesen.
Die dritte Gruppe sind die Nordfriesen in Schleswig-Holstein. Sie leben an der Küste und auf den Inseln und Halligen Nordfrieslands (im Westen des Kreises Nordfriesland gelegen). Zu ihnen werden in der Regel auch die Helgoländer Friesen gerechnet. Es wird von offizieller Seite davon ausgegangen, dass sich etwa 50.000 Menschen zu den Nordfriesen rechnen. Durch die Nationalisierung des Grenzraumes und die Volksabstimmung in Schleswig über die Zugehörigkeit zu Dänemark oder Deutschland im Jahre 1920 spalteten sich die Nordfriesen ideologisch in deutsch gesinnte und nationale Friesen, die sich für einen Anschluss an Dänemark aussprachen. Nachdem das friesische Siedlungsgebiet zum allergrößten Teil bei Deutschland verblieben war, betonten die nationalen Friesen die Eigenständigkeit der Friesen als Volk und betrieben aktive Minderheitenpolitik, während die deutsch gesinnten Friesen die Pflege der friesischen Kultur am besten unter dem Dach des Deutschtums aufgehoben sahen und die Friesen nationalromantisch als „deutschen Stamm“ betrachteten. Durch den Nationalsozialismus wurde diese ideologische Verwerfung noch verstärkt. Erst seit dem späten 20. Jahrhundert näherten sich die aus diesen Gruppen hervorgegangenen Vereine einander wieder an, was unter anderem in der Arbeit des Nordfriisk Instituutes zum Ausdruck kommt.
Unstrittig ist allerdings, dass Friesen in der Regel Bürger desjenigen Staates sind, in dem sie leben. Insofern sind auch in Deutschland lebende nationale Friesen deutsche Staatsangehörige.
Kultur und Sprache
In Deutschland und den Niederlanden sind die Friesen als nationale Minderheit beziehungsweise als eigene Volksgruppe anerkannt. Wie viele Mitglieder diese Volksgruppe hat, ist jedoch nicht genau festzustellen, da das Bekenntnis zu einer Minderheit frei ist und vom Staat nicht abgefragt werden darf.
Die engste Definition der Minderheit ist jedoch jene, die sich rein über die Sprache definiert. Demnach gelten nur solche Menschen als Friesen, die eine der friesischen Sprachen sprechen. Diese „Sprachfriesen“ sind heute vor allem in der niederländischen Provinz Friesland anzutreffen. Dort sprechen noch etwa 400.000 Menschen Westfriesisch, auf dem Festland und auf den Wattenmeerinseln Terschelling und Schiermonnikoog. 55 % der Bevölkerung bezeichnet das Westfriesische als Muttersprache. In der Provinz Fryslân wohnen zudem etwa 120.000 Menschen, die das Friesische als Fremdsprache gelernt haben.
Im schleswigschen Nordfriesland findet man dagegen nur noch geschätzte 10.000 Menschen (Stand um 1970), die einen der nordfriesischen Dialekte sprechen, vor allem auf den nordfriesischen Inseln Sylt, Amrum und Föhr und in der Nähe der deutsch-dänischen Grenze, besonders um Risum-Lindholm. Allerdings gibt es keine aktuelle empirische Untersuchung darüber, wie viele Menschen in Nordfriesland heute noch friesisch sprechen oder verstehen können. Das Friisk Gesäts schuf in Schleswig-Holstein für das Friesische 2004 einen rechtlich klaren Status der Sprache.
Im östlichen Friesland ist die ostfriesische Sprache nahezu ausgestorben. Lediglich im oldenburgischen Saterland hat sich ein Dialekt erhalten, das Saterfriesische, ein von ca. 2000 Menschen gesprochener ostfriesischer Dialekt.
Viele der Menschen, die heute noch Friesisch sprechen, bedienen sich im Alltag auch der verwandten Sprachen wie Niederländisch, Niederdeutsch, Hochdeutsch oder Dänisch. Wie viele andere kleine Minderheitensprachen Europas auch ist das Friesische akut vom Aussterben bedroht. Viele Friesen sprechen somit heute kein Friesisch mehr. Aber insbesondere in Ostfriesland, das seit Jahrhunderten komplett niederdeutsch geprägt ist, hat die friesische Identität den Untergang der friesischen Sprache überlebt. Das Ostfriesische Platt ist zudem eine noch relativ stark friesisch geprägte Variante des Niederdeutschen. Sie ist in Ostfriesland ähnlich identitätsstiftend wie die friesischen Sprachen in Nord- und Westfriesland und hebt sich von anderen niedersächsischen Dialekten deutlich ab. In der niederländischen Provinz Friesland wird neben dem Friesischen in manchen Gebieten ebenfalls traditionell Niedersächsisch gesprochen. Auch holländisch-friesische Mischdialekte sind dort zu finden (Stadtfriesisch, Bildts).
Zahlreiche historisch friesische Gebiete werden heute nicht mehr zu Friesland gezählt. Das heute zu den Niederlanden gehörende Hauptgebiet der Friesen, West- und Mittelfriesland, erstreckte sich von Alkmaar in der Provinz Noord-Holland entlang der Küste der Provinzen Friesland und Groningen (Ommelande) bis zur Mündung der Ems. Friesische Identität ist in Nordholland und Groningen heute jedoch kaum noch vorhanden.
Es gibt auch noch einige Nachkommen der Friesen an der Küste von Jütland. Es handelt sich hierbei um einige Orte zwischen der deutsch-dänischen Grenze und dem Fluss Wiedau. Die Inseln Rømø und Fanø werden zum Teil geographisch zu den nordfriesischen Inseln gezählt, wurden jedoch nie von Friesen besiedelt. An der Ostseeküste beherbergte nur Flensburg lange Zeit eine bedeutende friesische Minderheit, da im 17. und 18. Jahrhundert viele Nordfriesen in die Stadt zogen, um dort als Seeleute anzuheuern. Heute ist von dieser Vergangenheit nur noch wenig zu bemerken. Mitte des 12. Jahrhunderts wurden Friesen durch Adolf II. Graf von Schauenburg, Holstein und Stormarn in und um Süsel angesiedelt.
Die Wissenschaft von der Sprache, Literatur und Landeskunde der Friesen wird als Frisistik bezeichnet.
Politik
Die friesische Volksgruppe stellt zusammen mit den Dänen und den Sorben sowie den in Deutschland lebenden Roma und Sinti eine der vier staatlich anerkannten, in Deutschland ansässigen nationalen Minderheiten dar. Die gesetzlich anerkannte dänische Minderheitspartei, der Südschleswigsche Wählerverband, arbeitet auch mit der Strömung der nationalen Friesen in Nordfriesland zusammen. Somit setzt sich der SSW auch für friesische Interessen ein. In den Niederlanden gibt es die seit Jahrzehnten etablierte Friesische Nationale Partei und daneben seit 2006 bis 2023 die Partei namens „DeFriezen“. In Ost-Friesland gibt es friesische Interessensgemeinschaften. Zusätzlich zu den politischen Parteien gibt es mehrere Gruppen, die sich für friesische Belange einsetzen, darunter die separatistische Groep fan Auwerk.
Die Friesen aus West, Ost und Nord haben sich im Interfriesischen Rat zusammengeschlossen.
Herzöge Frieslands
Finn um 400
Audulf um 600
Aldegisel 654–680
Radbod 680–719
Poppo 719–734
Siehe auch
Eala Frya Fresena
Friesische Sprachen
Nationale Friesen
Literatur
Thomas Steensen: Die Friesen. Menschen am Meer. Wachholtz, Kiel/Hamburg 2020, ISBN 978-3-529-05047-3.
John Hines, Nelleke IJssennager (Hrsg.): Frisians and their North Sea Neighbours. From the Fifth Century to the Viking Age. Boydell Press, Woodbridge 2017, ISBN 978-1-78327-179-5.
Thomas Steensen (Hrsg.): Die Frieslande. Nordfriisk Instituut, Bräist/Bredstedt 2006, ISBN 978-3-88007-333-3.
Conrad Borchling, Rudolf Muuss: Die Friesen. Breslau 1931 (Nachdruck: Reprint-Verlag, Leipzig, Holzminden 2001, ISBN 3-8262-0215-5)
Weblinks
Wolfgang Meiners: Der Mythos vom Nassen Tod. Zur Entwicklung der Nordseeküste und der Kultur an der Küste aus Sicht der Ökologie. Iffens 2006
Einzelnachweise
Ethnie in Europa
Germanischsprachige Ethnie
Ethnische Minderheit in Deutschland
Ethnische Minderheit in Europa
Friesland
|
Q106416
| 142.121103 |
505352
|
https://de.wikipedia.org/wiki/Wirtschaftsliberalismus
|
Wirtschaftsliberalismus
|
Wirtschaftsliberalismus oder wirtschaftlicher Liberalismus ist die ökonomische Ausprägung des Liberalismus. Der wirtschaftliche Liberalismus, dessen theoretische Grundlagen durch Adam Smith entwickelt wurden, geht von der freien wirtschaftlichen Betätigungsmöglichkeit jedes Einzelnen aus. Die unsichtbare Hand des Marktes sorgt laut Smith dafür, dass bei der Verfolgung der eigennützigen Ziele der einzelnen Menschen nach Gewinn und Wohlstand gleichzeitig dem Wohl der Gesellschaft gedient werde, auch ohne dass dies beabsichtigt ist.
Die Utopie des Wirtschaftsliberalismus beschreibt eine Wirtschaftsform, die sich ohne staatliche Eingriffe über den Markt selbst steuert. Der Liberalismus befürwortet demzufolge eine freie Marktwirtschaft als Wirtschaftsordnung mit allen wirtschaftlichen Freiheiten wie Gewerbefreiheit, freier Preisbildung und Wettbewerbsfreiheit. Staatliche Eingriffe in die Wirtschaft werden als störend empfunden und abgelehnt.
Laut dem österreichischen Ökonomen Ewald Nowotny handelt es sich um eine liberale Denkrichtung, in deren Mittelpunkt das Konzept der spontanen Ordnung steht, nach dem die unsichtbare Hand des Marktes die Interessen der Individuen und der Gesellschaft in Einklang bringt. Die spontane Ordnung entsteht durch menschliches Handeln, aber nicht nach menschlicher Planung. Dem Wirtschaftsliberalismus liegt der negative Freiheitsbegriff zugrunde, der Freiheit als Abwesenheit von staatlicher Einschränkung definiert.
Philosophische Grundlagen
Freiheit des Individuums
Das allgemeine liberale Prinzip lautet: Jeder hat die Freiheit, alles zu tun, was er will, sofern er nicht die Freiheit eines anderen verletzt. John Stuart Mill formulierte es so: „dass der einzige Grund, aus dem die Menschheit, einzeln oder vereint, sich in die Handlungsfreiheit eines ihrer Mitglieder einzumischen befugt ist: sich selbst zu schützen. Dass der einzige Zweck, um dessentwillen man Zwang gegen den Willen eines Mitglieds einer zivilisierten Gesellschaft rechtmäßig ausüben darf: die Schädigung anderer zu verhüten.“ (On Liberty)
Daraus ergeben sich, auf den Bereich der wirtschaftlichen Handlungen bezogen, die Forderungen nach
Vertragsfreiheit
Gewerbefreiheit
Konsumentenfreiheit
Berufsfreiheit
Freihandel
Privateigentum
Wirtschaftsliberale betonen besonders das Recht auf privates Eigentum, da sie dieses für die Freiheit des Einzelnen als zentral erachten. Naturrechtliche Begründungen dieser Art von Eigentumstheorien finden sich in Ansätzen bei Hugo Grotius und Samuel Pufendorf und werden von John Locke ausformuliert: Der Einzelne besitze Eigentum an seinem Körper und folglich auch an der Arbeit seines Körpers. Er sei auch berechtigt, Dinge aus dem Naturzustand zu reißen, wenn er diese bearbeitet hat (beispielsweise den Boden, den jemand das erste Mal bearbeitet). Ist das Objekt aus dem Naturzustand gerissen, könne es dann nur noch durch Schenkung oder Tausch den Eigentümer wechseln. Zwang sei hiermit ausgeschlossen. In der Tradition dieser Begründung argumentieren beispielsweise die US-amerikanischen Gründerväter sowie im 20. Jahrhundert Robert Nozick oder Ayn Rand. Weiter wird die Idee des klassischen Liberalismus – explizit ohne naturrechtliche Komponente – von den Klassikern des Utilitarismus Jeremy Bentham und John Stuart Mill vertreten.
Theoretische Grundlagen
Freie Marktwirtschaft
Nach wirtschaftsliberaler Überzeugung sorgt der Markt, also die Steuerung von Art, Preis und Menge der Sach- und Dienstleistungen über Angebot und Nachfrage, für die effizienteste Allokation der Ressourcen. Bekannt wurde in dem Kontext der Ausdruck der „unsichtbaren Hand“ von Adam Smith in seinem Werk Der Wohlstand der Nationen (Kapitel 4). Mit dem Ausdruck beschrieb er, dass wenn ein Unternehmer aus Eigeninteresse die Produktivität erhöhe, er somit (wie von „unsichtbarer Hand“) auch der Gesellschaft helfe, obwohl er nur den Eigennutz anstrebt. Der Mechanismus der „unsichtbaren Hand“ wurde von Friedrich Hayek im 20. Jahrhundert erstmals durch ein Modell eines heuristischen, evolutionären Erkenntnissystems konkretisiert. Aufgabe der Marktordnung sei es, unter der Nutzung des Marktes ein Zusammenfallen des Eigennutzens mit dem Gemeinwohl zu erreichen. Diese Idee ist Ausgangspunkt von konstitutionen- und institutionen-ökonomischen Ansätzen, die der Frage nach den geeigneten Regeln bzw. der staatlichen Verfasstheit nachgehen, um eine möglichst gute Marktordnung zu erreichen.
Das nach Jean Baptiste Say benannte Saysche Theorem besagt, dass sich ohne staatlichen Eingriff stets ein Marktgleichgewicht einstellt und bildet eine Theoriegrundlage des Wirtschaftsliberalismus für das Verhalten auf dem Markt. Ein freier Wettbewerb stelle deswegen das optimale Steuerungsinstrument der Wirtschaft dar. Staatliche Eingriffe wie Subventionen oder Schutzzölle werden als Wettbewerbshemmnisse angesehen und insbesondere sofern keine Internalisierung externaler Effekte dadurch realisiert wird, werden sie kritisch gesehen. Bzgl. technologischen Fortschritts und des zeitlich befristeten Schutzes geistigen Eigentums (Patente, Urheberrecht) wird eine Einschränkung des Wettbewerbs durch liberale Denkansätze mitgetragen. Die Thematik der Erziehungszölle wird demgegenüber von den einzelnen Denkströmungen des Wirtschaftsliberalismus uneinheitlich gesehen.
Freihandel
Adam Smith entwickelte im 18. Jh. die Theorie der Absoluten Kostenvorteile, wonach bei unterschiedlichen Produktivitäten die Länder vom Handel untereinander profitieren. Historisch wandte sich Smith mit dieser Ansicht gegen den Merkantilismus, in dem staatliche Außenhandelssteuerung dazu diente, die Politik absolutistisch regierter Staaten zu stützen. Der klassische Ökonom David Ricardo versuchte mit seiner Theorie der komparativen Kostenvorteile, die Vorteile des Freihandels für alle Länder aufzuzeigen. Der freie Handel trage zur Förderung von weltweitem Wohlstand bei.
Wirtschaftsliberale befürworten für die Wohlfahrtsmaximierung einer Gesellschaft die arbeitsteilige Wirtschaft (Globalisierung) im Sinne des Abbaus von tarifären (Schutzzölle) und nicht-tarifären Handelshemmnissen bzw. generell dem Abbau von Kosten der Marktbenutzung (direkte und indirekte Steuern, Abgabenlast, Gebühren, Rechtsunsicherheit, ineffiziente, ausufernde Regulierungen). Die Subventionierung bestimmter privilegierter Wirtschaftszweige durch den Staat hingegen führen nach liberaler Vorstellung automatisch zu einer Diskriminierung der nicht privilegierten Wirtschaftszweige, die durch zusätzliche Steuer- und Abgabenlast die Privilegierung zu finanzieren haben.
Der Protektionismus verzerrt die Kapitalallokation und zieht unmittelbar Netto-Wohlfahrtsverluste nach sich; insbesondere im Zusammenspiel zwischen Industrienationen und Entwicklungsländern werden durch Protektionismus Armut und Perspektivlosigkeit in den wirtschaftlich schwächeren Ländern zementiert. So hätten es diese schwer, zum Besispiel gegenüber der hochsubventionierten europäischen Agrarwirtschaft zu konkurrieren (Agrardumping). Liberale werfen den Industriestaaten vor, ihre politische Macht zu Lasten der Entwicklungsländer zu missbrauchen, indem in den Marktsegmenten der Abbau aller Handelsschranken durchgesetzt werde, in denen die Entwicklungsländer nicht wettbewerbsfähig zu den Industrieländern seien, während in allen Bereichen, in denen die Entwicklungsländer sich zu den Industrieländern im Wettbewerb befinden und überlegen sind, massivste Handelshemmnisse auf- und ausgebaut würden. Anhänger des Freihandels fordern, im Sinne eines fairen und gesamtwohlfahrtsförderlichen Welthandels, sämtliche Handelsschranken zu anderen Ländern abzubauen und die selektive Privilegierung einiger Produkte durch Subventionen einzuschränken. Damit könnten Entwicklungsländer besser am Wohlfahrtsgewinn durch Spezialisierung und Handel profitieren.
Privatwirtschaft
Nach wirtschaftsliberaler Auffassung ist es keine Aufgabe des Staates, unternehmerisch tätig zu werden. Der Vorrang von Privateigentum und privatwirtschaftlichen Regelungsformen gegenüber staatlichem Einfluss wird mitunter aus einer bestimmten Sichtweise auf die ökonomische Theorie der Verfügungsrechte abgeleitet. Demnach steige der volkswirtschaftliche Wohlstand, je mehr Eigentum sich in privater Hand befindet. Bei sozialistischen Regelungsformen komme es hingegen zwangsläufig zur sogenannten Tragik der Allmende.
In der praktischen Umsetzung der Wirtschaftsliberalisierung, also bei der regulär gewährten Freistellung von Gewinnbesteuerung institutioneller Gewinne, zeigt sich jedoch, dass zwar Unternehmen in einen härteren Wettbewerb um bessere Produkte treten können, hierbei aber weder allgemeine Entwicklungsvoraussetzungen noch allgemeine Kostenanteile mittragen können. Die weitgehende Finanzierung dieser gesellschaftlichen Erfordernisse verbleibt somit bei den diversen Besteuerungsformen privater Einkommen, was nicht nur die wirtschaftliche Gerechtigkeit nach Nutznießer-und-Verursacher-Prinzip verletzt, sondern auch einen institutionellen Vermögenszuwachs bewirkt. Demgegenüber ist ein Rückgang der durchschnittlichen Privatvermögen zu verzeichnen. Diese Tendenz hat einen Kaufkraftverlust zur Folge, der die Gesamtwirtschaft von den Endverbrauchern aus drosselt. Somit sind die Konsequenzen einer übermäßig zugestandenen Gewinnsteuer-Befreiung den gesellschaftlichen, den allgemeinen Interessen und am Ende auch den der Privatwirtschaft zuwider.
Normativer Individualismus
Neoliberalismus und ordoliberale Kritik
Im Jahr 1938 organisierte der französische Philosoph Louis Rougier im Institut International de Coopération Intellectuelle in Paris ein Kolloquium, das später als Colloque Walter Lippmann bekannt wurde und Lippmanns Thesen des 1937 veröffentlichten Werkes An Enquiry into the Principles of the Good Society (deutsch Die Gesellschaft freier Menschen) diskutieren sollte. Dort prägte der nach Ankara ins Exil gezwungene deutsche Soziologe und Wirtschaftswissenschaftler Alexander Rüstow den Begriff des Neoliberalismus. Er wollte den Liberalismus erneuern, der angesichts des Zweifels am menschlichen Fortschritt nach dem Grauen des Ersten Weltkriegs, der teilweise funktionierenden Planwirtschaft im Krieg, des Versagens der neoklassischen Wirtschaftstheorie während der Weltwirtschaftskrise, des Erfolges der New-Deal-Politik in den USA und des Aufstiegs totalitärer Systeme ins Hintertreffen geraten war. Bereits 1924 hatte J. M. Keynes im Vortrag „Das Ende des Laissez-faire“ diese Kritik vertreten. Der US-Publizist Walter Lippmann selbst entfernte sich nach 1938 von den im Kolloquium vertretenen Ideen.
Die Impulse wurden von Friedrich Hayek in London und der 1947 gegründeten marktfundamentalistischen Mont Pèlerin Society aufgenommen. Aus Sicht der ordoliberalen Freiburger Schule führte Alexander Rüstow in seinem Werk Das Versagen des Wirtschaftsliberalismus als religionsgeschichtliches Problem (1945) den weltanschaulichen Hintergrund des klassischen Liberalismus auf die Vorstellung von einer mit der göttlichen Schöpfung in die Welt gesetzten prästabilierten Harmonie zurück. Der Ursprung dieser „Wirtschaftstheologie“ sei jedoch weniger christliche Religiosität gewesen, sondern beruhe vielmehr auf der Wiederbelebung antiker Philosophie in der Zeit der Aufklärung. Adam Smith sei sich seiner Abhängigkeit von der stoischen Philosophie des allgemeinen Harmonieglaubens bewusst gewesen, als er das symbolkräftige Bild von der unsichtbaren Hand schuf. Die liberale ökonomische Theorie habe dadurch eine geradezu metaphysische Würde erhalten. Jeden menschlichen Eingriff in den „göttlichen“ Automatismus der Marktwirtschaft mussten die Anhänger des laissez-faire daher als Sakrileg ablehnen. Auch nach Adam Smith habe die Nationalökonomie den Charakter eines Erlösungswissens behalten. Dieser habe sich gegen Ende des 19. Jahrhunderts dann verflüchtigt, es sei jedoch eine Deformation der Geisteshaltung geblieben, welche die soziologischen Bedingungen für eine funktionierende Marktwirtschaft habe verkennen lassen. Deshalb hätten Vertreter der Wirtschaftsfreiheit selbst die Entartung der Marktwirtschaft im Manchesterkapitalismus als zwar bedauerliche, aber unvermeidbare ökonomische Folge hingenommen. Nach Ansicht von Hans Willgerodt ging es Rüstow nicht darum, den Wirtschaftsliberalismus zu ersetzen, sondern „ihn von Monopolismus, Megalomanie, Gruppenanarchie und Proletarisierung zu befreien“. Rüstow habe dabei allerdings Smiths Ansichten überspitzt dargestellt und sich nur auf dessen Äußerungen bezogen, in denen dieser eine Selbststeuerung über den Markt für sinnvoll erachtet, nicht jedoch auf dessen zahllose Hinweise auf Unvollkommenheiten des Marktes.
Neben Rüstow kritisierten Wilhelm Röpke und Walter Eucken die „ökonomistische Verengung“ des Wirtschaftsliberalismus (im Sinne von libertären Minimalstaatskonzeptionen). Rüstow bemühte sich seit 1931 um den Aufbau eines Sammelbeckens für alle, die eine „irgendwie wirtschaftsliberale Einstellung vertreten“. Der ordoliberale Flügel um den Freiburger Walter Eucken stand dieser Gruppe gegenüber, indem er sozialstaatliche Eingriffe oder Arbeitsschutzmaßnahmen als noch zur Marktwirtschaft passend einstufte. Während der Zeit des Nationalsozialismus gelang es Eucken, der sich selbst als „wirtschaftspolitisch Liberalen“ bezeichnete, in Freiburg i. Br. ein Zentrum wirtschaftsliberalen Denkens zu erhalten.
Literatur
Adam Smith: The Wealth of Nations. 1776, Artikel in Wikipedia
Milton Friedman: Kapitalismus und Freiheit. Eichborn, Frankfurt am Main 2002, ISBN 3-8218-3960-0.
Friedrich Hayek: Die Verfassung der Freiheit. Mohr, Tübingen 1991, ISBN 3-16-145844-3.
Friedrich Hayek: Der Weg zur Knechtschaft. Olzog, München 2003, ISBN 3-7892-8118-2.
Ludwig von Mises: Liberalismus. 1927, ISBN 3-88345-428-1.
Ludwig von Mises: Wirtschaftlicher Liberalismus in Handwörterbuch der Sozialwissenschaften. Band 6, 1959, S. 596–603, (online; PDF; 179 kB)
Ulrich van Suntum: Die unsichtbare Hand. Springer, Berlin 2003, ISBN 3-540-41003-1.
Weblinks
Einzelnachweise
|
Q729119
| 149.491542 |
1271374
|
https://de.wikipedia.org/wiki/Chromatin
|
Chromatin
|
Chromatin ist das Material, aus dem die Chromosomen bestehen. Es handelt sich um einen Komplex aus DNA und speziellen Proteinen, von denen wiederum etwa die Hälfte Histone sind. Der Name kommt von griech. chroma (Farbe), weil sich Chromatin mit basischen Kernfarbstoffen anfärben lässt. Im Lichtmikroskop erscheint es als sichtbares Fadengerüst im Zellkern einer eukaryotischen Zelle. Im funktionalen Sinn gilt alles, was sich während der Teilung des Zellkerns (Mitose oder Meiose) in den Chromosomen wiederfindet, als Chromatin – ausgenommen einige Strukturproteine. Chromatin ist neben den Nucleoli, der Kern-Grundsubstanz und der Kernhülle eine wichtige Strukturkomponente des Zellkerns (Nucleus).
Chromatin besteht aus der DNA, die um die Histone gewickelt ist, sowie aus weiteren Proteinen, die sich an die DNA anlagern. DNA und Histone bilden die Nucleosomen, die kettenförmig aneinandergereiht sind. Die Nucleosomen werden mit Hilfe der Nichthiston-Proteine dichter gepackt. Chromatin ist somit das Produkt von Interaktionen der eukaryotischen DNA mit unterschiedlichen DNA-Bindeproteinen, die einen kompakten filamentösen Komplex bilden, den sogenannten Desoxyribonucleoprotein-Komplex, man spricht auch von Chromatinfasern oder Chromatinfäden (englisch: chromatin fibers). Durch die Komplexbildung werden die langen chromosomalen DNA-Stränge in ihrer Länge um das rund 10.000- bis 50.000-fache verkürzt (kondensiert), sodass sie in den Zellkern passen. Trotz der dichten Packung der DNA liegen die Chromosomen weiterhin in einer Form vor, die regulatorischen Proteinen Zugang zur DNA erlaubt, so dass die Biosynthese von RNA und Proteinen aus den genetischen Informationen (Genexpression) bzw. die Duplikation der chromosomalen DNA (Replikation) möglich ist.
Während der Mitose und Meiose kondensieren die Chromosomen, so dass sie im Lichtmikroskop erkennbar werden. Die kleinsten lichtmikroskopisch sichtbaren Chromatinstrukturen nennt man Chromonema.
Das Verständnis der Chromatinstruktur und ihres Beitrags zu Regulation der Gene ist Gegenstand der Epigenetik.
Chromatinstrukturen machen Stäbchen bei nachtaktiven Säugetieren empfindlicher, da sie die Lichtausbreitung beeinflussen. Bei Nicht-Säugern ist das Phänomen noch nicht untersucht worden (Stand 2010).
Chromatin-Typen
Es werden zwei Typen von Chromatin unterschieden:
Euchromatin, dessen DNA aktiv ist, d. h., zu Proteinen exprimiert werden kann. Die euchromatischen Abschnitte des Chromosoms weisen keine Unterschiede in ihrer Struktur auf, gleichgültig, in welchem Kondensationsgrad sich ein Chromosom befindet.
Heterochromatin, das hauptsächlich aus inaktiver DNA besteht. Es scheint strukturelle Funktionen in den verschiedenen Kondensationsstufen auszuüben. Die heterochromatischen Abschnitte des Chromosoms weisen in der Interphase den gleichen Kondensationsgrad auf wie in der Metaphase, d. h., es bleibt auch im Interphasekern kondensiert und tritt in Form dichter Chromozentren in Erscheinung. Heterochromatin kann in zwei Untertypen unterteilt werden:
Konstitutives Heterochromatin, das nie exprimiert wird. Es findet sich im Bereich des Centromers und besteht gewöhnlich aus repetitiven (sich wiederholenden) DNA-Sequenzen.
Fakultatives Heterochromatin, das manchmal exprimiert wird.
Eine weitere begriffliche Abgrenzung kann somit auch nach den Kernteilungsphasen getroffen werden: Hierbei ist das Interphasechromatin gegenüber dem Metaphasechromatin mit seinen sehr kompakten Chromosomen stark aufgelockert.
Prokaryonten haben im Gegensatz zu Eukaryonten eine ringförmige DNA-Struktur. Die Eukaryonten haben Chromosomen, die die Struktur der DNA bilden.
Zeittafel wichtiger Entdeckungen
1842: Chromosom (Struktur) (Carl Wilhelm von Nägeli)
1874: Nukleinsäure (Friedrich Miescher)
1879: prägt Walther Flemming den Begriff Chromatin.
1883: August Weismann verbindet Chromatin mit der Vererbung.
1884: Albrecht Kossel entdeckt Histone.
1888: Sutton und Boveri schlagen die Theorie der Kontinuität von Chromatin während des Zellzyklus vor.
1888: Wilhelm Waldeyer prägt den Begriff Chromosom
1910: Chromosomen sind die Träger der Gene (Thomas Hunt Morgan)
1928: Emil Heitz prägt den Begriff Heterochromatin und Euchromatin.
1942: Conrad Waddington postuliert die epigenetischen Landschaften.
ca. 1945 Basenpaarung von Adenin und Thymin sowie Cytosin und Guanin postuliert (Erwin Chargaff, Chargaff-Regeln)
1948: Rollin Hotchkiss entdeckt DNA-Methylierung
1953: Die DNA-Struktur wird aufgeklärt von James Watson, Francis Crick, Maurice Wilkins, Rosalind Franklin
1961: Aufklärung der genetischen Struktur (Marshall Warren Nirenberg, Heinrich Matthaei)
1961: Mary Lyon postuliert das Prinzip der X-Inaktivierung.
1966: Histon-Modifikationen/-Acetylierung (Vincent Allfrey)
1973:/1974 Chromatinfasern werden entdeckt
1973:–75 Vom nu-Body zum Nukleosom (Ada Olins, Donald Olins, Roger Kornberg)
1975: Nukleosomen-Überstruktur/Solenoid (John T. Finch und Aaron Klug)
1975: Pierre Chambon prägt den Begriff der Nukleosomen.
1976: Chromatinfäden werden entdeckt
1982: Chromosomenterritorien werden entdeckt
1984: John T. Lis entwickelt die Chromatin-Immunpräzipitationstechnik.
2002: Job Dekker entwickelt die Chromosome Conformation Capture (3C) Technik.
2006: Marieke Simons entwickelt die 4C-, Dostie die 5C-Methode
2007: B. Franklin Pugh entwickelt die ChIP-Seq-Technik.
2009: Lieberman-Aiden und Job Dekker erfindet die Hi-C-Technik, Melissa J. Fullwood erfindet die ChIA-Pet-Technik.
2012: Eine Gruppe der Ren-Labs und die von Edith Heard und Job Dekker geleiteten Gruppen entdecken Topologically Associated Domains (TADs) bei Säugetieren.
Siehe auch
Polycomb-Körper
Literatur
Evolution:
R. Ammar, D. Torti u. a.: Chromatin is an ancient innovation conserved between Archaea and Eukarya. In: eLife. 1, 2012, S. e00078–e00078, doi:10.7554/eLife.00078.
Xavier Grau-Bové, Cristina Navarrete, Cristina Chiva, Thomas Pribasnig, Meritxell Antó, Guifré Torruella, Luis Javier Galindo, Bernd Franz Lang, David Moreira, Purificación López-Garcia, Iñaki Ruiz-Trillo, Christa Schleper, Eduard Sabidó, Arnau Sebé-Pedrós: A phylogenetic and proteomic reconstruction of eukaryotic chromatin evolution. In: Nature Ecology & Evolution, Band 6, S. 1007–1023, 9. Juni 2022; doi:10.1038/s41559-022-01771-6, PMID 35680998 . Dazu:
Fig. 1: Diversity of post-translational modifications in eukaryotic canonical and variant histones.
Fig. 3: Taxonomic distribution of chromatin-associated gene classes.
Fig. 6: Chromatin evolution and eukaryogenesis.
Xavier Grau-Bové: Repository: Chromatin evolution. Auf: GitHub.
Chromatin First Evolved in Ancient Microbes 1-2 Billion Years Ago, New Research Suggests. Auf: sci.news vom 13. Juni 2022.
Shrouded in Mystery: Scientists Finally Discover the Origin of Chromatin. Auf: SciTechDaily vom 24. August 2022.
Chromatin originated in ancient microbes one to two billion years ago. Genomic and proteomic analysis reveals that the regulatory role of chromatin is a eukaryotic innovation. Auf: ScienceDaily vom 9. Juni 2022. Quelle: Center for Genomic Regulation (CRG)
Chromatin originated in ancient microbes one to two billion years ago. Center for Genomic Regulation (CRG) vom 9. Juni 2022.
Histon-Modifikationen:
Nukleosomen:
Solenoid-Modell:
Einzelnachweise
Weblinks
ChromDB – The Chromatin Database
Epigenetik
Stoffgemisch
|
Q180951
| 100.07318 |
45068
|
https://de.wikipedia.org/wiki/Gesch%C3%A4ftsf%C3%A4higkeit
|
Geschäftsfähigkeit
|
In den Rechtsordnungen verschiedener Länder bezeichnet Geschäftsfähigkeit die Fähigkeit natürlicher Personen, sich selbst durch rechtsgeschäftliche Erklärungen (z. B. einen Vertrag) wirksam zu binden. Die Regelungen dienen dem Schutz derjenigen, deren geistige Entwicklung nicht das notwendige Maß an Einsicht für die Teilnahme am Rechtsverkehr hat. Die volle Geschäftsfähigkeit ist an die Volljährigkeit gekoppelt.
Die Geschäftsfähigkeit ist von der Rechtsfähigkeit zu unterscheiden, also von der Fähigkeit, Träger von Rechten und Pflichten zu sein. Natürliche Personen sind bereits ab der Geburt rechtsfähig.
Rechtslage in Deutschland
Das Vorhandensein der Geschäftsfähigkeit kann in Deutschland in schweren Fällen, in denen Personen „sich in einem die freie Willensbestimmung ausschließenden Zustand krankhafter Störung der Geistestätigkeit befinden“ (, BGB), in einem Streitfall gerichtlich als nicht gegeben festgestellt werden. Hierzu muss in der Regel ein Sachverständigengutachten eingeholt werden.
Eine Entmündigung mit daraus folgender konstitutiver (also für den gesamten Rechtsverkehr verbindlichen) Feststellung der Geschäftsunfähigkeit gibt es seit Einführung des Betreuungsrechts 1992 nicht mehr, vorher war dies bei einer Entmündigung wegen Geisteskrankheit der Fall.
Auch bei festgestellter und amtlich dokumentierter Geschäftsunfähigkeit bleibt i. d. R. das Recht zur Tätigung von Alltagsgeschäften ( BGB) unangetastet. Während bei Geschäftsunfähigkeit ein Vertrag üblicherweise nichtig ist ( BGB), sind Verträge nach dem Wohn- und Betreuungsvertragsgesetz lediglich schwebend unwirksam, wie sonst bei Minderjährigen über 7 oder bei angeordnetem Einwilligungsvorbehalt ( Abs. 2 WBVG).
Rechtslage in Ländern des romanischen Rechtskreises
In den Ländern des Romanischen Rechtskreises sind Minderjährige grundsätzlich an einen von ihnen geschlossenen Vertrag gebunden, haben jedoch die Möglichkeit, den Vertrag durch Klageerhebung anzufechten. Der deutsche Rechtskreis unterscheidet zwischen Geschäftsunfähigen und beschränkt Geschäftsfähigen, deren Verträge bis zur Zustimmung ihres gesetzlichen Vertreters schwebend unwirksam sind. Dem in vielen englischsprachigen Ländern vorherrschenden common law schließlich ist eine umfassende gesetzliche Stellvertretung und somit auch allgemeine Geschäftsfähigkeit unbekannt, stattdessen wird kasuistisch auf die Schutzwürdigkeit des Minderjährigen im Einzelfall abgestellt. Von besonderer Bedeutung ist dabei die Lehre von den necessaries, der zufolge ein Jugendlicher bei Verträgen über Dinge, die seiner Lebensführung angemessen und dienlich sind, nur einen angemessenen Preis statt des vertraglich vereinbarten zu zahlen hat.
Rechtslage in einzelnen Staaten
Deutschland: Geschäftsfähigkeit (Deutschland)
Frankreich: → Abschnitt Geschäftsfähigkeit im Artikel Schuldrecht (Frankreich)
Österreich: Geschäftsfähigkeit (Österreich)
Schweiz: Handlungsfähigkeit (Schweiz)
Siehe auch
Strafmündigkeit
Weblinks
Vertragsrecht
|
Q584804
| 90.776032 |
9567550
|
https://de.wikipedia.org/wiki/Art%2BFeminism
|
Art+Feminism
|
Art+Feminism, , ist ein Edit-a-thon (kollaborativer Schreib- oder Editiermarathon) mit dem Ziel, in Wikipedia Inhalte über Frauen in der Kunst hinzuzufügen sowie Frauen zur Mitarbeit an der Wikipedia zu befähigen. Er wurde 2014 in New York erstmals gestartet und findet weltweit jedes Jahr um den Internationalen Frauentag im März statt.
Initiatoren
Die Idee zu Art+Feminism entstand aus einem Projekt über Frauen und Kunst, das die Bibliothekarin Siân Evans für die Art Libraries Society of North America, ein Ausbildungsinstitut für Bibliothekare, konzipierte. Ihre Ko-Kuratorin Jacqueline Mabey hatte an einer Edit-a-thon-Veranstaltung der Wikipedia 2013 teilgenommen, bei der zu Ehren von Ada Lovelace Artikel über Frauen in Naturwissenschaften, Technik, Mathematik und im Ingenieurwesen geschrieben oder verbessert wurden. Sie sprachen darauf Michael Mandiberg an, ein Künstler und Professor an der City University of New York, der Wikipedia in den Unterricht integriert, und nahmen mit der Kunsthistorikerin und Kuratorin Laurel Ptak Kontakt auf. Das Team wurde verstärkt durch die Dorothy Howard, einer Wikipedian in residence am Metropolitan New York Library Council, und Richard Knipel, Repräsentant der lokalen Wikipedia-Community in New York City.
Ziel
Edit-a-thons für Wikipedia zielen u. a. darauf ab, die Präsenz und Darstellung über Frauen, Minderheiten, der LGBTQ-Gemeinschaft und anderen in Wikipedia unterrepräsentierten Gruppen zu verbessern. Dabei führen erfahrene Nutzer neue Freiwillige in die Regeln und Syntax zur Bearbeitung von Inhalten ein. Laut einer Studie, die 2011 von der Wikimedia Foundation durchgeführt wurde, sind trotz des angeblich egalitär zugänglichen Formats der Website Wikipedia mehr als neunzig Prozent ihrer Beitragenden männlich. Weniger als fünf Prozent der Superuser – Personen mit mehr als fünfhundert Bearbeitungen unter ihren Namen – sind Frauen. Das Projekt Art+Feminism bekämpft diese „gut dokumentierte geschlechtsspezifische Diskrepanz von Wikipedia“, indem es Frauen einlädt und unterstützt sowie die räumlichen und technischen Ressourcen bereitstellt, die Berichterstattung über Frauen in der Kunst schrittweise zu verbessern. Anlässlich der Einladung zur vierten Veranstaltung im Museum of Modern Art 2017 erklärten die Organisatorinnen: „Wikipedia ist etwas, das uns allen gehört. Es ist keine privat gehaltene Ressource, ihre Inhalte sind nicht von den Launen eines Eigentümers motiviert. Wenn sich eine Regierung an alternative Fakten hält, ist die Verbesserung der Zuverlässigkeit und Vollständigkeit von Wikipedia ein wichtiger Akt des alltäglichen Widerstands.“
Veranstaltungen
Das Initiatoren-Team und engagierte Frauen und Männer aus den Bereichen Kunst und Kultur haben Art+Feminism mit professionellen Institutionen wie Kunstmuseen, insbesondere das Museum of Modern Art in New York in Kooperation mit Universitäten wie Stanford, Berkeley und Cornell organisiert, finanziell unterstützt von der Wikimedia Foundation. Art + Feminism lehrte die Teilnehmenden best practices für die Bearbeitung einer Wikipedia-Seite. Der Unterrichtsplan wurde mit Open-Source erstellt. Seit 2014 fanden 480 Veranstaltungen auf sechs Kontinenten statt, darunter in Australien, Kanada, Kambodscha, Indien, Neuseeland, und in vielen europäischen Ländern.
Der Schreibmarathon am Internationalen Frauentag 2015 im Museum of Modern Art wurde gleichzeitig in Satellitensitzungen an mehr als 70 Orten weltweit durchgeführt, darunter im Walker Art Center in Minneapolis, im Los Angeles County Museum of Art, in der Art Gallery of Ontario in Toronto und im Stedelijk Museum in Amsterdam. Die Fondation Galeries Lafayette veranstaltete 2014, '15 und '16 einen zweitägigen Art+Feminism-Schreibmarathon in Paris. Im März 2016 organisierte die Tate Gallery of Modern Art in London den Schreibmarathon, um Künstlerinnen in der Sammlung des Museums für die kommenden Generationen online sichtbar zu machen. Weitere teilnehmende Standorte waren u. a. das Smithsonian American Art Museum, die Uffizien in Florenz, die Archives nationales in Paris, die Royal Academy of Arts, die National Library of Wales in Aberystwyth, das Philadelphia Museum of Art, das Carnegie Museum of Art, die Ashesi Universität Berekuso in Accra (Ghana), das Museo Universitario Arte Contemporáneo in Mexiko-Stadt und das National Museum of Women in the Arts. In New York schloss sich 2016 ein Art+Feminism-Workshop im Solomon R. Guggenheim Museum an.
Die Inhalte, die Teilnehmer der Editier-Veranstaltung erstellten, wurden in einem Koordinationsforum auf Wikipedia erfasst.
Ergebnisse
2014 zog die Eröffnungskampagne von Art+Feminism in New York 600 Freiwillige zu 30 separaten Veranstaltungen. 101 neue Einträge wurden angelegt, die sich in Umfang und Qualität unterscheiden, und 80 bestehende erweitert. 2016 waren es 1500 Seiten, die bearbeitet, und 2000, die in 175 Veranstaltungen neu geschaffen wurden. Bis 2017 haben 2500 Freiwillige 6500 Artikel über Frauen in der Kunst geschrieben oder ausgearbeitet und verbessert. Die neuen Biografien reichen von den australischen Modernistinnen Ethel Spowers und Dorrit Black, der brasilianischen Konstruktivistin Lygia Clark bis hin zu der katalanischen Malerin Josefa Texidor i Torres sowie den zeitgenössischen Künstlerinnen Xaviera Simmons, Monika Bravo und der afroamerikanischen Bildhauerin Senga Nengudi.
Rezeption
Das Projekt wurde von Art News als „eine starke, multinationale Leistung“ beschrieben, „welche die schwer abbaubare Tendenz der unverhältnismäßig von und über Männer gemachten Wikipedia korrigieren will“.
Das Magazin Foreign Policy wählte die Initiatoren von Art+Feminism Siân Evans, Jacqueline Mabey, Michael Mandiberg, Laurel Ptak, Dorothy Howard und Richard Knipel zu den 100 „führenden globalen Denkern“ 2014, weil sie den Gender-Gap (Geschlechterabstand) in der Wikipedia berichtigt haben.
Laut Katherine Maher war Art+Feminism die erfolgreichste der Edit-a-thon-Veranstaltungen von Wikipedia.
Auf Artnet hob Sarah Cascone hervor, dass die größten Kunstinstitutionen der Welt Art+Feminism Editiermarathons veranstaltet haben sowie auch alternative Organisationen wie die Open Foundation West Africa in Accra und Transgender Europe in Berlin.
Publikation
Siân Evans, Jacqueline Mabey, Michael Mandiberg: Editing for Equality: The Outcomes of the Art+Feminism Wikipedia Edit-a-thons. In: Art Documentation: Journal of the Art Libraries Society of North America. Band 34, Nr. 2, Herbst 2015, S. 194–203 (englisch; doi:10.1086/683380).
Siehe auch
Women in Red („Frauen in Rot“: Wikipedia-Schreibprojekte zur Erstellung von Frauenbiografien)
Geschlechterverteilung in der Wikipedia
Weblinks
Offizielle Website (englisch).
Sarah Mirk: An Epic Feminism Edit-a-thon Takes Aim at Wikipedia’s Gender Gap. In: BitchMedia.org. 24. Januar 2014 (englisch).
Caitlin Cogdill: Wikipedia’s Art & Feminism Edit-A-Thon and the Gender Gap. In: Wikimedia-Blog. 19. Februar 2014 (englisch).
Amy K. Hamlin: Art History, Feminism, and Wikipedia: Could Wikipedia be a new frontier in art history? In: Art History Teaching Resources. Dezember 2015 (englisch).
Einzelnachweise
Wikipedia
Frauen und Medien
!
Kulturgeschichte
Wikipedia:Artikel mit Video
|
Q24909800
| 265.506858 |
36425
|
https://de.wikipedia.org/wiki/Leiterplatte
|
Leiterplatte
|
Eine Leiterplatte (Leiterkarte, Platine oder gedruckte Schaltung; , PCB) ist ein Träger für elektronische Bauteile. Sie dient der mechanischen Befestigung und elektrischen Verbindung. Nahezu jedes elektronische Gerät enthält eine oder mehrere Leiterplatten.
Leiterplatten bestehen aus elektrisch isolierendem Material mit daran haftenden, leitenden Verbindungen (Leiterbahnen). Als isolierendes Material ist faserverstärkter Kunststoff, bei günstigeren Geräten Hartpapier, üblich. Die Leiterbahnen werden zumeist aus einer dünnen Schicht Kupfer, üblich sind 35 µm, geätzt. Die Bauelemente werden auf Lötflächen (Pads) oder in Lötaugen gelötet. So werden sie an diesen footprints gleichzeitig mechanisch gehalten und elektrisch verbunden. Größere Komponenten können auch mit Kabelbindern, Klebstoff oder Verschraubungen auf der Leiterplatte befestigt werden.
Leiterplattenarten
Die Leiterplattenarten reichen von einseitigen Leiterplatten über Multilayer bis hin zu Sondertechniken.
Standardleiterplatten
Einseitige und zweiseitige Leiterplatten
Multilayer mit mehreren Lagen (unterschiedlich, je nach Hersteller)
Sondertechniken (Sondertechniken kommen in allen Industriezweigen zum Einsatz und besitzen besondere Eigenschaften und Anforderungen)
Flexlam
Hochstrom: Um den Transport von hohen Strömen und Signalelektronik über eine Leiterplatte zu realisieren.
Dickkupfer
Dünnstleiterplatten
Schleifring: Ein Schleifring wird für die Übertragung und zum Abgreifen von Energie, Signalen und Daten bei sich drehenden Systemen genutzt. Einsatzgebiete sind beispielsweise bei Industrierobotern und Windkrafträdern. Voraussetzung für die Zuverlässigkeit und Lebensdauer einer Schleifringoberfläche ist die richtige Applikation der Edelmetallbeschichtung.
HDI-Leiterplatte
IMS-Leiterplatte
Leiterplatten auf Glas
Herstellung
Entwurf
Der Leiterplattenentwurf (Layout) erfolgt heute meist mit einer Software, die neben den Leiterzug-Daten auch den Schaltplan und oft Stücklisten sowie auch Daten wie Lotpasten-Muster oder Bestückungsdruck enthält. Der Leiterplattenentwurf kann von den Leiterplatten-Layout-Programmen in einem Standardformat ausgegeben werden. Die meisten Leiterplattenhersteller verarbeiten die Formate Gerber RS-274X, Excellon oder Sieb & Meyer. Dabei werden die Projektdaten der Leiterplatte aufgeteilt. Der erste Teil besteht aus Gerber-Daten für die Topographie der Leiterplatten. Damit werden z. B. der Leiterbahnverlauf und die Lokalisierung von PADs etc. dokumentiert. Der zweite Teil besteht aus den Bohrdaten im Format der Excellon- oder Sieb & Meyer-Daten.
Die Leiterplattenentflechtung (manuell oder mit einem Autorouter) ist der Hauptinhalt des Entwurfes. Dazu kommen technologische Angaben wie Kupferstärke, Platinen-Fertigungstechnologie und Oberflächenart. Jetzt erfolgt die Übergabe der Daten an den Leiterplattenhersteller.
CAM
Der Leiterplattenhersteller wird die Daten zuerst in eine CAM-Station einlesen. Dort wird zunächst der Lagenaufbau extrahiert, damit die Funktion der Daten beim System bekannt ist. Dann wird mittels Design Rule Checks geprüft, ob die angelieferten Daten fehlerfrei und fertigbar sind. Dann wird ein Produktionspanel erstellt. Es besteht aus den für die Fertigung benötigten Programme. Dazu gehören Ausgaben für Filmplotter/Imager, Bohr-, Fräs- und Ritzdaten, AOI (Automatic Optical Inspection) Ausgaben, Elektrische Prüfprogramme, und vieles mehr.
Die Produktionsdaten sind in nach Funktion getrennten Ebenen strukturiert:
Muster einer oder mehrerer Kupferlagen (Leiterzüge und Flächen)
Bohrlöcher (Lage, Tiefe und Durchmesser)
Umriss und Durchbrüche
Bestückungsplan oben und unten
Lötstopplack oben und unten
Bestückungsdruck oben und unten
Klebepunkte und Lotpastenmuster für SMD-Bauteile oben und unten
Partielle Metallisierungen (zum Beispiel Vergoldung für Kontaktflächen)
Serienfertigung
Photochemisches Verfahren
Der größte Teil einseitiger und doppelseitiger durchkontaktierter Leiterplatten wird fotochemisch hergestellt.
Die heutige Reihenfolge der Herstellungsschritte ist:
Bohren
Durchkontaktieren (bei doppelseitigen Leiterplatten)
Fotoresist laminieren
Belichten
Entwickeln
Ätzen
Spülen
Trocknen
Danach folgen je nach Bedarf weitere Nachbearbeitungsschritte.
Ursprünglich wurde das Bohren und Durchkontaktieren erst nach dem Ätzen der Leiterplatte vorgenommen. Seitdem aber der Fotolack durch sog. Trockenresist, also eine fotoempfindliche Folie ersetzt wurde, konnte die Reihenfolge der Produktionsschritte verändert werden. Vorteil ist, dass nun nicht mehr vor dem Durchkontaktieren eine Maske auf die Platine aufgebracht werden muss, die das Aufwachsen des Kupfers an unerwünschten Stellen verhindert. Da zu diesem Zeitpunkt noch die gesamte Leiterplatte von Kupfer bedeckt ist, erhöht sich nur die Schichtdicke der Kupferfolie. Die metallisierten Bohrungen werden während des Ätzvorganges von der Fotoresistfolie beidseitig abgeschlossen.
Die Herstellung der Leiterbahnen erfolgt in der Regel fotolithografisch, indem eine dünne Schicht lichtempfindlichen Fotolacks auf die Oberfläche der noch vollständig metallisierten Platte aufgebracht wird. Nach der Belichtung des Fotolacks durch eine Maske mit dem gewünschten Platinenlayout sind je nach verwendetem Fotolack entweder die belichteten oder die unbelichteten Anteile des Lacks löslich in einer passenden Entwicklerlösung und werden entfernt. Bringt man die so behandelte Leiterplatte in eine geeignete Ätzlösung (z. B. in Wasser gelöstes Eisen(III)-chlorid oder Natriumpersulfat oder mit Salzsäure + Wasserstoffperoxid,) so wird nur der freigelegte Teil der metallisierten Oberfläche angegriffen; die vom Fotolack bedeckten Anteile bleiben erhalten, weil der Lack beständig gegen die Ätzlösung ist.
Prototypen können auch durch Fräsen der Kupferschichten strukturiert werden („Isolationsfräsen“, s. u. Bild zu Lötrasterplatinen). Solche Platinen bestehen nicht aus Leiterbahnen, sondern aus Flächen, die voneinander durch Frässpuren getrennt sind.
Die Kupferschichten können nach dem Ätzen galvanisch verstärkt werden.
Die Herstellung der Bohrungen zur Aufnahme bedrahteter Bauteile sowie für Durchkontaktierungen erfordert aufgrund des Glasfaser-Anteils des Trägermaterials Hartmetallwerkzeuge. Wenn Bohrungen an den Innenwänden metallisiert werden, entstehen Durchkontaktierungen. Die Metallisierung der Bohrungen (isolierende Flächen) erfordert eine Bekeimung, nachfolgende stromlose Abscheidung einer dünnen Kupferschicht und schließlich deren elektrolytische Verstärkung.
Zusätzlich können galvanisch auf Teilflächen oder der gesamten Kupferfläche metallische Schutz- und Kontaktschichten aus Zinn, Nickel oder Gold aufgebracht werden. Dünne Vergoldungen erfordern zum Kupfer hin eine Diffusionssperrschicht (Nickel-Sperrschicht).
Danach wird Lötstopplack (grüne Lackschicht der Leiterplatte im Foto) aufgebracht, der die Leiterbahnen abdeckt und nur die Lötstellen frei lässt. Damit lassen sich Lötfehler vermeiden, beim Schwalllöten spart man Zinn und die Leiterbahnen werden vor Korrosion geschützt. Die frei bleibenden Lötstellen (Pads und Lötaugen) können mit einem physikalischen Verfahren (hot air leveling) mit einer Zinnschicht und zusätzlich mit einem Flussmittel überzogen werden, die besseres Löten ermöglicht.
Lotpaste-Inseln zum Auflöten von SMD-Bauteilen werden mittels einer Lotpasten-Maske aufgebracht. Sie ist aus Metallblech und enthält an den Stellen Löcher, wo Lotpaste aufgetragen werden soll. Die Masken werden durch Laserfeinschneiden hergestellt. Ein weiterer möglicher Verfahrensschritt bei der SMD-Bestückung ist das Aufbringen von Kleberpunkten, die die Fixierung der Bauteile beim Bestücken (Pick and place) bis zum Löten sicherstellt.
Oft tragen Leiterplatten einen per Siebdruck hergestellten Bestückungsdruck, der in Verbindung mit dem Schaltplan Montage und Service erleichtert.
Stanztechnik und Drahtlegetechnik
Zwei weitere wichtige Herstellungsverfahren für Leiterplatten sind die Stanztechnik und Drahtlegetechnik.
In Stanztechnik werden Leiterplatten für sehr große Stückzahlen hergestellt. Die Technik eignet sich nur für einseitige Leiterplatten aus Pertinax oder unverstärkten Kunststoffen. Dabei wird Basismaterial ohne Kupferauflage verwendet, eine Kupferfolie mit einer Klebstoffschicht wird auf das Basismaterial gelegt und dann mit einem Prägestempel die Leiterbahnformen ausgestanzt und gleichzeitig auf das Basismaterial gedrückt. In einem Arbeitsgang werden dabei die Kontur der Leiterplatte und die Bohrungen gestanzt sowie das Leiterbild ausgestanzt und mit dem Basismaterial verklebt.
Für kleine Serien und für spezielle Anwendungen, die eine hohe Stromfestigkeit der Leiterplatte benötigen, wird die Drahtlegetechnik angewandt. Dabei verlegt eine Maschine isolierte Drähte auf dem Basismaterial, die mittels Ultraschallschweißens sowohl an den Lötpunkten angeschlossen, als auch auf der Oberfläche des Basismaterials befestigt werden.
Mit „Nutzen“ wird bei der Anfertigung von Leiterplatten das Zusammenfassen mehrerer kleinerer Layouts auf einer großen Platine bezeichnet. Der Begriff stammt aus der Drucktechnik. Die gesamte Verarbeitungskette erfolgt soweit möglich mit diesem Nutzen. Durch geschickte Anordnung unterschiedlicher Entwürfe können die üblicherweise rechteckigen Formate des Basismaterials auch bei abweichenden, beispielsweise L-förmigen Geometrien gut ausgenutzt werden. Für die anschließend erforderliche Zerteilung der Platine ist der Begriff Nutzentrennung gebräuchlich.
Siebdruck
Anstelle des fotochemischen Verfahrens kann für die Abdeckung der Leiterzüge vor dem Ätzen auch die Siebdrucktechnik verwendet werden. Diese ist insbesondere für einseitig beschichtetes Material und wenig komplexe Leiterplatten geeignet.
Prototypen
Vor der Serienfertigung wird meist ein oder mehrere Portoyip erstellt und getestet, um im Fehlerfall die hohen Kosten für die Erstellung der Fotomasken zu vermeiden.
Dazu gibt es folgende Möglichkeiten:
Fertigung im Pool Hersteller bieten die Fertigung von Einzelstücken und Kleinstserien im „Pool“ an, d. h. mehrere Einzelstücke als Nutzen (siehe oben) werden auf einer großen Platte gebohrt, durchkontaktiert, belichtet, geätzt und danach ausgefräst.
Fräsen Bei der Frästechnik werden mit einem Stiftfräser Trennlinien zwischen den Leiterflächen hergestellt. Dabei bleibt alles Kupfer stehen (Inselverfahren). Die nasschemischen und fotolithografischen Schritte entfallen. Viele ECAD-Programme können CNC-Programme generieren, mit denen Prototypen und Kleinserien schnell gefertigt werden können.
Tonertransfermethode Das Layout wird mit einem Laserdrucker spiegelverkehrt auf geeignetes Papier oder eine hitzebeständige Folie gedruckt und anschließend mit Bügeleisen oder Laminiergerät auf die Platine „aufgebügelt“. Der Toner wird dabei wie in der Fixiereinheit des Druckers leicht flüssig und verbindet sich mit dem Kupfer der Platine. Anschließend wird das Papier wieder mit Wasser abgelöst – der Toner verbleibt auf dem Kupfer. Darauf folgt das Ätzen des Kupfers, wobei die vom Toner abgedeckten Stellen stehenbleiben. Der Toner wird anschließend abgelöst. Es können Ungenauigkeiten durch Papiertransport im Drucker sowie durch Dehnen und Schrumpfen des Papiers durch die Erhitzung auftreten. Wird eine transparente Folie bedruckt, kann eine Fotomaske hergestellt werden, um mit Fotolack beschichtetes Basismaterial zu belichten.
Stifte Die Leiterbahnen und Lötaugen werden direkt mit einem wasserfesten Filzstift (sog. Permanent Marker) auf das Basismaterial übertragen. Auf diese Weise kann auch aus einer durchsichtigen Kunststofffolie eine Fotomaske für das Photopositivverfahren hergestellt werden. Die Farbe auf dem Basismaterial schützt während des Ätzens die abgedeckten Flächen. Nach dem Ätzen wird die Farbe mit Spiritus oder Aceton entfernt. Wird zum Zeichnen stattdessen gelöstes und gefärbtes Kolophonium in einer Röhrchenfeder verwendet, kann auf die Entfernung des Abdecklacks verzichtet werden.
Anreibesymbole Manche Hersteller vertreiben Anreibesymbole, die Lötaugen, Leiterbahnteile oder elektrische Symbole darstellen. Diese werden – ähnlich wie Abziehbilder – auf die Leiterplatte aufgelegt und angerieben. Die aufgebrachten Symbole schützen dann das Kupfer unter ihnen während des Ätzvorganges. Dieses Verfahren wird auch in Kombination mit einem Filzstift angewendet (z. B. Lötaugen mit Anreibesymbolen, Leiterbahnen mit Filzstift). Nach dem Ätzen werden die Symbole mit Aceton oder durch Abkratzen entfernt. Lötlack, der oft aufgebracht wird, um die Fließeigenschaften des Lötzinns zu verbessern, löst ebenfalls die Symbole. Auch dieses Verfahren kann zur Massenproduktion auf eine Folie für das Photopositivverfahren angewendet werden.
Ölmethode Bei Bastlern ist die „Ölmethode“ bekannt. Dabei wird das Layout mit höchster Schwärzung mit dem Laserdrucker auf normales Schreibpapier gedruckt und dann mit Öl getränkt, wodurch das Papier weitestgehend transparent wird. Die Belichtung des mit Fotolack beschichteten Basismaterials durch diese Maske hindurch kann mit einer üblichen UV-Quelle oder auch Sonnenlicht erfolgen.
Die schaltung selbst kann mit Experimentierplatinen getestet werden. : Lochrasterplatinen weisen Bohrungen oder Lötaugen (einseitig oder durchkontaktiert) mit einem Rastermaß auf, das für Elektronikbauteile üblich ist, also 2,54 mm, was 0,1 Zoll (= 100 mil) entspricht, (für die selteneren metrischen Bauteile 2,5 mm) oder die Hälfte davon. Verbindungen können durch Löten mit Schaltdraht, in Fädeltechnik, in Wickeltechnik oder durch einfaches Stecken hergestellt werden. Oft sind mehrere Augen bereits durch Leiterbahnen verbunden (z. B. für Betriebsspannungen) oder es sind längere und kürzere Leiterbahnen bereitgestellt, um praktischen Anforderungen näherzukommen. Auch komplett mit parallelen Leiterbahnen versehene Experimentierplatinen (Lötstreifenplatine) sind üblich. Diese können nach Bedarf mit einem Werkzeug aufgetrennt werden, indem die Leiterbahn durchgeritzt wird. Zudem gibt es kleine Experimentierplatinen, passend für gängige SMD-Gehäuseformen, um deren Anschlüsse auf das Raster zu adaptieren.
Geschichte
Vor der Einführung von Leiterplatten wurden elektronische Schaltungen frei verdrahtet, ggf. unter zusätzlicher Verwendung von Lötleisten. Mechanische Stützpunkte waren dabei Bauteile wie Potentiometer, Drehkondensatoren, Schalter mit ihren Lötösen sowie die Fassungen von Elektronenröhren. Je nach Hersteller bemühte man sich um übersichtlich rechtwinklige Anordnung der Bauelemente oder wählte immer die direkte, schräge Verbindung. Da die Bauelemente, wie Kondensatoren oder Widerstände, damals noch recht groß und lang waren, konnten sie Distanzen von einigen Zentimetern überbrücken.
Geräte dieser Art waren nur von Hand und mit Kenntnis des Verdrahtungsplanes zu fertigen.
Leiterplatten-Vorläufer ab den 1920er Jahren waren gestanzte Leiterzüge, die auf Hartpapier aufgenietet wurden. Bauelemente (Widerstände, Kondensatoren) wurden ohne Lötverbindung zwischen Blechfedern getragen. Paul Eisler, ein Wiener Elektronik-Ingenieur, ließ sich 1943 das Prinzip der gedruckten Leiterplatte patentieren, das aber lange Zeit neben der regulären Handverdrahtung ein eher unbedeutendes Schattendasein fristete. Erst mit der zunehmenden Miniaturisierung der Elektronik nahm die Bedeutung dieser Technik zu.
In der Anfangszeit um 1940 wurden Schaltkreise auch durch Siebdrucken von Silberleitlack auf der Grundplatte hergestellt. Auf Keramiksubstrate gedruckte und eingebrannte Leiterbahnen und Widerstände werden demgegenüber unter dem Begriff Dickschichttechnik geführt.
Fertigungstechnik
Der Einsatz von Leiterplatten begann Anfang der 1950er Jahre durch die von Fritz Stahl gegründeten Ruwel-Werke in Geldern am Niederrhein.
Bei gedruckten Schaltungen werden die Anschlussdrähte der Bauteile von oben durch Bohrlöcher durch die Leiterplatte gesteckt (engl. Through Hole Technology, THT) – eine auch heute noch weit verbreitete Technik. Auf der Unterseite (Löt-, Leiter- oder L-Seite) befinden sich die Kupferleiterbahnen, an denen sie festgelötet werden. Das erlaubt eine vereinfachte und automatisierbare Fertigung, gleichzeitig sinkt die Fehlerrate bei der Produktion, da Verdrahtungsfehler damit für die Schaltung auf der Leiterplatte ausgeschlossen werden.
Komplexere einlagige Leiterplatten erfordern zusätzliche Verbindungen, die nicht im Layout herstellbar sind. Diese werden durch Lötbrücken mittels abgewinkelter Drähte oder Null-Ohm-Widerstände hergestellt. Letztere lassen sich besser in Bestückungsautomaten einsetzen. Alternativ nutzt man für diese Verbindungen Kupferbahnen auf beiden Seiten der Leiterplatte (doppellagige Leiterplatte, DL). Verbindungen zwischen oberer (Bestückungs- oder B-Seite) und unterer Seite wurden durch Löten eingepresster Stifte oder Niete erzeugt.
Erst in den 1960er Jahren wurden diese Verbindungen (Durchkontaktierungen, DK, engl. vias) durch die Leiterplatte hindurch chemisch durch Metallisierung der Lochwände der Bohrungen erzeugt.
Aus Kostengründen werden auch heute noch einlagige Leiterplatten hergestellt, wenn die Schaltung es erlaubt. Gegenüber einer doppelseitigen, durchkontaktierten Leiterplatte liegen die Kosten für eine gleich große einseitige Leiterplatte bei 25–50 %.
Ein erheblicher Teil der weltweit hergestellten Leiterplatten wird auch heute noch von Hand bestückt, obwohl es bereits seit ca. Mitte der 1970er Jahre Bestückungsautomaten gibt. Moderne Leiterplatten mit hoher Packungsdichte und oberflächenmontierbaren Bauteilen (SMD) können allerdings nur teilweise von Hand bestückt werden. Sogenannte „Pick & place“-Automaten übernehmen die Handhabung der manchmal weniger als 1 mm² großen Bauteile. Zunehmend werden im Anschluss an das Reflowlöten der auf beiden Seiten bestückten SMD die THT-Bauelemente von Hand bestückt und anschließend selektiv gelötet. Bis auf QFN, BGA sowie sehr kleine 0201 milli-Zoll-Bauteile können nahezu alle SMD-Bauteile problemlos von Hand gelötet werden. Problematisch von Hand zu löten sind Leistungsbauelemente (unabhängig von der Bauform) mit einem großen Pad an der Unterseite zur Wärmeabfuhr. Diese Leistungsbauelemente sowie QFN- und BGA-Bauteile können unter Umständen trotzdem noch von Hand zu gelötet werden, beispielsweise mit einer Heißluftpistole. Allerdings kann das Bauteil oder Bauteile in der Umgebung dabei Schaden nehmen, falls es zu lange erhitzt wird.
Layout
In den 1960er Jahren zeichnete man das Layout (Leiterbahnen-Struktur) im Maßstab 2:1 mit Tusche oder in Klebetechnik mit Layoutsymbolen und Kleberollen (Brady) auf Rasterfolien. Später erstellte man an Programmierarbeitsplätzen NC-Programme zur Steuerung eines Lichtzeichengerätes, welches den zur Fotolithografie erforderlichen Film herstellte. Danach verwendete man Computer, um die Zeichnungen der verschiedenen Kupfer- und Drucklagen sowie das NC-Steuerprogramm für die Herstellungen der Bohrungen zu erzeugen.
Aktuelle Layoutprogramme für die sog. Electronic Design Automation (EDA) ermöglichen die Erzeugung eines Verbindungsplanes und der entsprechenden Darstellung („Rattennest“) aus einem Stromlaufplan und beinhalten umfangreiche Bauteil-Bibliotheken, in denen für jedes Bauteil auch die Gehäusegeometrien, technische Daten und die Lage und Größe der Lötpads (, für „Fußabdruck“) enthalten sind. Der Footprint bezeichnet die Abmessungen der Lötaugen bei der Through Hole Technology (THT) bzw. die Abmessungen der Lötpads bei Surface Mounted Devices (SMD) für ein bestimmtes Bauteil auf der Leiterplatte.
Die automatische Leiterplattenentflechtung anhand eines gegebenen Stromlaufplanes und Design-Regeln der elektrischen Verbindungen ist heute bei einfachen Leiterplatten möglich (Autoplacement und Autorouting). An seine Grenzen stößt dieses Verfahren bei komplexen Leiterplatten, die viel Erfahrung bei der Entflechtung erfordern (z. B. bei Mobiltelefonen). Auch eine Steigerung der Computer-Rechenleistung bringt keine Verbesserung, da die Eingabe der komplexen Design-Vorgaben teilweise mehr Zeit in Anspruch nimmt als die manuelle Entflechtung.
Die Strombelastbarkeit (Stromdichte) von Leiterbahnen ist ein wichtiger Design-Aspekt. Sie kann wesentlich höher als diejenige von Massivdrähten liegen, da das Substrat durch Wärmeleitung kühlt. Layout-Software kann die Strombelastbarkeit berücksichtigen.
Weitere Aspekte sind:
Bei hohen Frequenzen und Impuls-Steilheiten ist die Wellenimpedanz der Leiterbahnen von Bedeutung (siehe Streifenleitung).
Bei Digitalschaltungen mit hoher Taktfrequenz muss darauf geachtet werden, dass zusammengehörende Leiterbahnen (Bus) dieselbe Länge haben, so dass die Signale an Ende der Leiterbahnen gleichzeitig ankommen.
Bei analogen Signalen (besonders Audioanwendungen mit hohem Dynamikumfang) müssen Masseschleifen (auch Erdschleifen, Brummschleifen genannt) vermieden werden.
Bei hohen elektrischen Spannungen oder hohen Impedanzen müssen wegen der Kriechstromfestigkeit zwischen den Leiterbahnen bestimmte Mindestabstände (Aura) eingehalten werden. Optokoppler, die Netz- und Signalstromkreise galvanisch trennen verbinden, haben die Pins des DIP-Gehäuses gespreizt oder in die Leiterplatte ist unter dem Bauteil ein Schlitz gefräst.
EMV-gerechtes Layout
Die kapazitive und induktive Verkopplung der Leiterbahnen, deren Empfänglichkeit gegenüber externen elektromagnetischen Feldern sowie die Abstrahlcharakteristik (Störemission) wird unter dem Sammelbegriff Elektromagnetische Verträglichkeit (EMV) beschrieben.
Entwurfs-Software kann ansatzweise auch EMV-Aspekte innerhalb der Platine berücksichtigen.
EMV-gerechtes Leiterplattenlayout ist durch Vorschriften zur Störabstrahlung oder die Funktion des Gerätes motiviert. Regeln sind beispielsweise möglichst kurze Leiterbahnen, sodass sie nicht als Antenne wirken, sowie die möglichst parallele Rückführung der Ströme hochfrequenter und leistungsintensiver Signale bzw. deren Betriebsspannung.Hauptplatinen wie das mit vier Kupferlagen produzierte K7S5A aus dem Jahr 2001, sowie der teilweise mit 4 Kupferlagen (Layern) aufgebaute Lerncomputer Gigatron TTL haben zum Beispiel je ein Layer als Masse sowie als Betriebsspannung. Diese Layer sind daher induktionsarm und besonders störende oder störempfindliche Leitungen können zwischen sie eingeschlossen werden.
Schaltnetzteile weisen besonders hohe Störpegel auf und erfordern kurze breite Leiterzüge für deren typische stromstarke Rechteckimpulse.
Längere Signalleitungen können aufeinander kapazitiv oder induktiv koppeln. Dementsprechend können sie mit Masseflächen umgeben werden, es muss genügender Abstand vorliegen oder die Kopplung muss kompensiert werden.
In den 1990er Jahren gab es in Leiterplatten-CAD-Programmen noch keine Möglichkeit, das EMV-Verhalten von Leitungen und Anschlüssen zu definieren. Es war Erfahrung notwendig. Inzwischen ist es zwar möglich, Leitungsimpedanzen, Laufzeiten, Koppelung und Abstrahlung mathematisch zu simulieren, Erfahrung und das Wissen um die physikalischen Zusammenhänge sind jedoch weiterhin erforderlich, um die steigenden EMV-Anforderungen umzusetzen.
Leiterplattentechnologien
Ein großer Teil der Leiterplatten in elektronischen Geräten wird auch heute noch aus einseitig kaschiertem Material und mit bedrahteten Bauteilen hergestellt (Durchsteckmontage, kurz THT von engl. through hole technology). Mit fortschreitender Miniaturisierung werden auf deren Unterseite zunehmend SMD-Bauteile (von engl. Surface Mounted Device) eingesetzt, während die Durchsteckbauelemente von oben bestückt werden. Die SMD-Bauteile können zusätzlich geklebt sein, sodass sie beim Löten nicht abfallen.
Die teureren durchkontaktierten Platinen sowie noch teurere Mehrlagenplatinen werden bei komplexeren (z. B. Computer), zuverlässigeren (z. B. Industrieelektronik) oder miniaturisierten (z. B. Mobiltelefone) Baugruppen eingesetzt.
SMD-Leiterplatten
Mitte der 1980er Jahre begann man damit, unbedrahtete Bauteile zu fertigen, die direkt auf die Leiterbahnen zu löten waren (SMD). Diese ermöglichten es, die Packungsdichte zu erhöhen und trugen zu einer enormen Verkleinerung von elektronischen Geräten bei. Zudem ist es möglich, SMD auf beiden Seiten einer Leiterplatte zu platzieren.
Zum Bestücken werden bei gemischt bestückten Platinen (THT und SMD) zunächst die auf der Unterseite (Sekundärseite) anzubringenden SMD auf die Platine geklebt, danach der Kleber ausgehärtet und die Leiterplatte umgedreht, um die andere Seite mit SMD und ggf. THT-Bauteilen zu bestücken. Das Löten der Unterseite kann nun mittels Wellenlöten (Schwallöten) geschehen, sofern die auf der Unterseite angebrachten Teile geeignet sind, durch die Lotwelle zu laufen.
Das Reflow-Löten erfordert das vorherige Aufbringen von Lotpaste (per Hand, per Automat, mittels Maske oder im Direktdruck/Dispenser.) Danach werden die Bauteile platziert. Oft reicht die Adhäsion des geschmolzenen Lotes aus, um die SMDs auch ohne Kleber zu halten. Bei gemischt bestückten Platinen (SMD und THT) müssen die THT-Bauteile mit selektivem Wellenlöten (bewegte Lötdüsen, aus denen flüssiges Lot austritt) oder per Hand gelötet werden, wenn die Unterseite nicht durch den Schwall laufen kann (z. B. unverklebte SMD, Kantensteckverbinder, ungeeignete Abstände und Orientierungen). Andererseits gibt es viele Bauteile (z. B. Polypropylen-Folienkondensatoren, Transformatoren), die nicht durch den reflow-Ofen laufen können und daher nachbestückt werden müssen.
Ein wesentlicher Vorteil von SMD-Bauteilen ist die Handhabbarkeit in Bestückungsautomaten. Bei bedrahteten Bauteilen ist es immer ein wesentliches Problem, mit allen Anschlüssen die Bohrungen zu treffen und die zulässigen Biegeradien der Anschlussdrähte mit einem Biegemaß einzuhalten, weshalb große bedrahtete Bauteile auch heute noch in ansonsten automatisierten Fertigungen von Hand eingesetzt werden.
Mehrlagige Leiterplatten
Um die höchstmögliche Packungsdichte bei SMD auszuschöpfen, werden doppelseitige Leiterplatten verwendet und beidseitig bestückt. Später begann man, Mehrlagen-Leiterplatten zu verwenden, indem man mehrere dünnere Leiterplatten mit sog. Prepregs aufeinanderklebte. Diese Multilayer-Leiterplatten können bis zu etwa 48 Schichten haben. Üblich sind jedoch vier bis acht Lagen in Computern und bis zu zwölf Lagen in Mobiltelefonen. Die Verbindungen zwischen den Lagen werden mit Durchkontaktierungen („Vias“) hergestellt.
In vielen Fällen ist die Verwendung von Multilayer-Leiterplatten auch bei geringerer Packungsdichte notwendig, z. B. um die induktionsarme Stromversorgung aller Bauteile zu gewährleisten.
Bauelemente auf und in Leiterplatten
Einfache passive Bauelemente können in die Platine integriert werden. Induktivitäten, Spulen, kleine Kapazitäten, Kontakte oder Kühlkörper können direkt als Kupferschicht-Struktur ausgebildet werden. Widerstände werden teilweise mittels spezieller Pasten auf die Oberfläche oder in die verdeckten Layer eingedruckt. Dadurch werden in der Massenfertigung Bauelemente und Bestückung gespart.
Es gibt Platinen, auf oder in denen integrierte Schaltungen direkt platziert sind (Chip-On-Board-Technologie, kurz COB). Oft sind sie direkt zur Platine gebondet und nur durch einen Tropfen Kunstharz geschützt ().
Microvia-Technik
Bei Multilayer-Platinen werden HDI-Leiterplatten (von engl. High Density Interconnect) angewendet. Dabei werden Sacklochbohrungen mit 50 µm bis 100 µm Durchmesser mittels Laser oder durch Plasmaätzen in die Außenlagen eingebracht und enden auf dem Kupfer der nächsten oder übernächsten Lage. Nach der Reinigung des verbliebenen Harzes werden diese Mikrobohrlöcher wiederum galvanisch verkupfert und somit elektrisch angebunden.
Bei Leiterplatten mit hoher Packungsdichte ist die Microvia-Technik notwendig, da wegen des Platzmangels und des geringen Abstandes der Kontakte nicht mehr alle Kontakte z. B. von Ball-Grid-Array-Bauteilen (BGA) elektrisch angebunden werden könnten. So bindet man die Pads der BGAs an Microviabohrungen an, die auf einer anderen Lage enden und gewährleistet so deren Entflechtung.
Buried-Via-Technik
Die Vias (Durchkontaktierungen) verbinden auch hier zwei oder mehrere Kupferlagen, sind jedoch nur zwischen Innenlagen eingebracht und nicht von der Platinenoberfläche aus zugänglich. Buried Vias (dt. vergrabene Durchkontaktierungen) sind somit erst bei Multilayer-Platinen ab vier Lagen möglich.
Plugged-Via-Technik
Neben Buried- und Micro-Vias besteht die Möglichkeit, Vias verschließen („pluggen“) zu lassen. Mit dieser Technik können Vias direkt in SMD-Pads platziert werden, was z. B. bei BGA-Gehäusen mit kleinen Ballabständen die Entflechtung stark vereinfacht. Die Technik ist allerdings relativ teuer und wird nur selten genutzt, da die Oberfläche zusätzlich geschliffen und poliert werden muss, um überschüssiges Material abzutragen. Die verschiedenen Möglichkeiten, ein Via zu verschließen, sind spezifiziert in der Richtlinie IPC 4761.
Dickkupfer
Die Verwendung von Kupferstärken jenseits der üblichen Dicke von 35 µm (oft 200 µm bis 400 µm) wird als Dickkupfer bezeichnet. Sie erlauben höhere Strombelastbarkeiten und verbesserten lateralen Wärmetransport. Die Leiterzüge werden hierzu galvanisch verstärkt, die Genauigkeit ist eingeschränkt.
Eine Platine mit geringer Kupferdicke wird mit Fotolack bedeckt, invers belichtet und entwickelt. Nun liegen alle die Flächen frei, die Leiterzüge werden sollen. Nun wird galvanisch mit Kupfer verstärkt. Nachfolgendes Ätzen vermag dann ohne Abdecklack die Leiterzüge freizulegen, sodass nicht die gesamte Kupferdicke, sondern nur die dünne Grundschicht geätzt werden muss.
Eine Variante der Dickkupfertechnik ist die Eisbergtechnik (). Dabei werden die noch geschlossenen in Folienform vorliegenden Kupferlagen photolithographisch vorstrukturiert: Bereiche, die kein Dickkupfer benötigen, werden dabei auf 20 µm oder 100 µm zurückgeätzt. Die Folien werden dann in das Prepreg eingepresst und konventionell weiterverarbeitet. Die partiell geringeren Erhebungen in Bereichen geringer Schichtdicke erlauben eine feinere Strukturierung und eine zuverlässigere Überdeckung mit Lötstopplack.
Wärmemanagement
Thermal Vias haben keine elektrische Funktion, sie verbessern den Wärmetransport senkrecht zur Leiterplatte. Die Wärmeleitfähigkeit von Basismaterialien wie FR-4 ist mit 0,3 W/(m·K) für eine Entwärmung von Bauelementen oft zu gering. Thermal Vias nutzen die hohe Wärmeleitfähigkeit (300 W/(m·K)) von Kupfer, dem Material der Durchkontaktierung. Durch eine dichte Anordnung in einem Raster kann der Kupferanteil in die Leiterplatte wesentlich erhöht werden.
Metallkern () und Dickkupfer erlauben eine höhere laterale Wärmeleitfähigkeit. Dazu werden Kupfer- oder Aluminiumbleche oder auf bis zu 400 µm verstärkte Kupferlagen in die Leiterplatte eingearbeitet.
Die Wärmeableitung durch Kühlmaßnahmen im Layout oder auch induktionsarme Durchkontaktierungen und Anschlüsse sind beim Löten jedoch ein Nachteil, weil dadurch der Wärmebedarf lokal stark erhöht ist. Sogenannte Thermal Pads, bei denen die Anbindung an kupfergefüllte Flächen gezielt geschwächt wird, dienen dazu, die Wärme in der Lötstelle zu halten und nicht in die Kupferfläche abzuleiten.
Flexible Leiterplatten
Alternativ zu starren Leiterplatten finden auch dünne Flexleiterplatten bzw. Leiterfolien z. B. auf Basis von Polyimid-Folien Verwendung. Damit aufgebaute Baugruppen sind zwar teurer, können jedoch platzsparend durch Falten in engste Räume z. B. von Fotoapparaten, Videokameras oder Smartphones eingesetzt werden.
Flexible Verbindungen für dauernde Beanspruchung, z. B. in Tintenstrahldruckern, werden häufig ebenfalls als Polyimid-Folienleiterplatte ausgebildet.
Starrflexible Leiterplatten Durch Kombination von flexiblen und starren Schichten beim Verpressen erhält man eine starrflexible Leiterplatte. Hier befinden sich z. B. Polyimid-Folien auf oder zwischen gewöhnlichen FR4-Schichten, die nach einer Tiefenfräsung Bereiche mit unterschiedlicher Dicke und Flexibilität ergeben. So lassen sich Stecker, Kabel und andere Verbindungselemente einsparen, allerdings entsteht damit auch die Notwendigkeit, bei Defekten das gesamte Starrflex-System auswechseln zu müssen.
Semiflexible Leiterplatten Wird nur ein nicht dauerhaft flexibler Bereich in der Leiterplatte benötigt, z. B. um die Montage bei begrenztem Platz zu ermöglichen, gibt es den Ansatz, den aus mehreren Prepregs (s. u.) aufgebauten Schichtstapel einer Leiterplatte bis auf wenige Lagen durch Fräsen oder vorgestanzte Prepregs mit ausgesparten Bereichen zu verjüngen. Der verjüngte Bereich wird typischerweise mit einer dauerflexiblen Lackschicht versehen und lässt sich dann wenige Male biegen.
Lötalternativen
Als Alternative zum Verlöten der Bauteilanschlüsse auf einer Leiterplatte gibt es die Einpresstechnik. Dabei werden elastische oder starre Stifte in eng tolerierte und metallisierte Bohrungen der Leiterplatte gepresst. Aufgrund der plastischen Verformung der Partner ergeben sich sichere elektrische Verbindungen ohne Löten. Eine Anwendung sind vielpolige Stecker und Gewindebolzen.
Bei der Chip-On-Board-Technologie werden Chips ohne Gehäuse auf die Leiterplatte geklebt oder gelötet (Chipbonden) und direkt dort mittels Drahtbonden angeschlossen. Die auf Leiterplatten gebondeten Chips und Bonddrähte werden durch lichtabsorbierendes Kunstharz geschützt.
Oberflächenbehandlung und Ausrüstung
Da zwischen der Leiterplattenproduktion und dem anschließenden Bestückprozess der elektronischen Bauelemente auf Leiterplatten im Regelfall Transport- und Lagerzeiten liegen, ist es notwendig, die Lötflächen aus blanken Kupfer, welche die Kontakte zu den elektronischen Bauelementen darstellen, vor Umwelteinflüssen wie Korrosion zu schützen, da andernfalls der Lötvorgang beeinträchtigt ist. Für die Oberflächenbehandlung finden folgende Verfahren bei Leiterplatten Anwendung:
HAL
Bei HAL, auch HASL für , wird die fertige produzierte Leiterplatte in ein Bad aus flüssigem Zinn-Blei getaucht und nachfolgend mit heißer Luft das überschüssige Zinn-Blei auf der Oberfläche weggeblasen, um eine möglichst glatte Oberfläche an den Lötpads zu erhalten. Damit wird das Kupfer durch eine Schicht aus Zinn-Blei überzogen, welche auch dem herkömmlichen Lötzinn entspricht. HAL ist wegen der kostengünstigen Durchführung die am weitesten verbreitete Oberflächenbehandlung, weist aber als Nachteil durch ungleiche Verteilung der Zinn-Blei-Beschichtung an der Oberfläche relativ große Unebenheiten auf und kann bei sehr feinen Strukturen zu Kurzschlüssen führen.
Chemisch-Zinn
Bei der Methode Chemisch-Zinn () wird die oberste Schicht des Kupfers mit Hilfe von Thioharnstoff durch Zinn chemisch ausgetauscht. Der chemische Austausch von Kupferatomen durch Zinnatome endet von selbst, wenn die Kupferoberflächen auf der Leitplatte vollständig durch Zinn in einer Dicke von ca. 0,7 µm bis 1,2 µm abgedeckt sind. Der Vorteil von Chemisch-Zinn ist die sehr ebene Oberfläche und das Vermeiden von problematischen Stoffen wie Blei im Endprodukt. Die Nachteile sind der Aufwand und Kosten in der Fertigung, der Einsatz von krebserregendem Thioharnstoff und die Problematik, dass die reine Zinnoberfläche Whisker ausbilden kann.
OSP
OSP, , ist eine Oberflächenbehandlung basierend auf organischen Substanzen wie Benzotriazol, Imidazol oder Benzimidazol, welche mit der obersten Kupferschicht eine einige 100 nm dicke metallorganische koordinative Bindung eingehen und so das Kupfer vor Oxidation schützen. Die OSP wird erst thermisch beim Lötprozess aufgelöst. Von Vorteil ist neben der ebenen Oberfläche die günstige Herstellung, nachteilig ist aber die begrenzte Lagerzeit. OSP sollte nicht bei Leiterplatten mit Durchsteckbauelementen eingesetzt werden, da die Oberflächenpassivierung in den Lötaugen nicht gewährleistet ist.
ENIG
Bei ENIG, , wird zunächst eine ca. 3 µm bis 6 µm Schicht chemisch Nickel auf die Kupferoberfläche aufgebracht. Die Nickelschicht stellt eine Barriere für Gold zur Kupferschicht dar, da sonst das Gold in das Kupfer diffundieren würde. Auf die Nickelschicht wird eine ca. 50 nm bis 100 nm dicke Schicht chemisch Gold aufgebracht, dabei wird die oberste Nickelschicht durch Gold chemisch ausgetauscht. Der Vorteil dieser Methode ist auch neben der ebenen Oberfläche die vergleichsweise lange Lagerfähigkeit. Nachteilig ist der vergleichsweise hohe Prozessaufwand und damit verbundene Kosten. Des Weiteren führt die Goldbeschichtung der ENIG-Leiterplatten bei Wellenlöten zu einer Verunreinigung des Lötbades.
Normen und Vorschriften
Zu dem Aufbau und den Eigenschaften von Leiterplatten gibt es vielfältige Vorschriften und Normen. Außer DIN-, IEC- und Normen des Institute for Printed Circuits (IPC) haben große Unternehmen teilweise auch eigene Werksnormen. Neben diesen universellen Normen gibt es für Rack-Systeme standardisierte Abmessungen für Leiterplatten:
Europakarte (3 HE): 160 mm × 100 mm (DIN 41494 Teil 2), an der Schmalseite kontaktiert
Doppeltes Europakarten-Format (6 HE): 233 mm × 160 mm, an der Breitseite kontaktiert.
Tests
Leiterplatten werden oft noch vor der Auslieferung und Bestückung einer Prüfung unterzogen.
Die visuelle Kontrolle (Auge oder digitale Bildverarbeitung) zwischen den einzelnen Fertigungsschritten (z. B. vor dem Aufbringen einer weiteren Lage) und am Ende der Fertigung ist bei den Leiterplattenherstellern meist im Preis inbegriffen.
Ein elektrischer Test am Ende der Herstellung ist meist kostenpflichtig und erfordert die kompletten CAD-Daten sowie einen Prüfautomaten, der sämtliche Signalwege kontaktiert und prüft. Bei den Prüfautomaten unterscheidet man zwischen dem In-Circuit-Tester und dem Flying-Prober. Die Flying-Prober haben mehrere einzelne Prüffinger, welche die Leiterplatten abtesten. Diese Technik hat den großen Vorteil, dass keine Adapter zum Kontaktieren benötigt werden und so auch kleine Serien günstig getestet werden können. Als Nachteil zählt die lange Prüfzeit zum Testen und dass mit diesem System meistens kein 100%iger Test durchgeführt wird (zu lange Prüfzeit). Beim In-Circuit-Tester werden die Leiterplatten mit Federstift-bestückten Adaptern oder sehr feinen sogenannten Starrnadeladaptern getestet. Diese Technik hat den Vorteil, dass alle Testpunkte auf einmal kontaktiert werden können und so ein sehr schneller Test mit einer 100%igen Prüftiefe erreicht werden kann. Die heutigen MCA-Microadapter (siehe Starrnadeladapter) ermöglichen mit dem Staggering das Kontaktieren von feinsten Strukturen der Mikroelektronik. Als Nachteil sind hier die hohen Adapterkosten zu erwähnen, die aber bei größeren Stückzahlen nicht mehr ins Gewicht fallen.
Fertig bestückte Leiterplatten können ebenfalls mit einem ICT-Testsystem geprüft werden, wofür oft zusätzliche Kontaktinseln layoutet werden, die im späteren Einsatz nicht mehr benötigt werden. Damit keine solchen zusätzlichen Testpunkte generiert werden müssen, kann auch hier ein Starrnadeladapter eingesetzt werden, der das Kontaktieren auf Bauteilanschlüsse, Stecker oder sogar Chips ermöglicht.
Oft wird nur eine optische (Bilderkennungssoftware) und/oder Funktionskontrolle am Ende der Fertigung (d. h. nach der Bestückung) durchgeführt, da die Herstellungstechnologie der Leiterplatten selbst sehr viel zuverlässiger als nachfolgende Verfahrensschritte ist.
Durchgangstest
Beim Durchgangstest wird die Leiterplatte auf fehlerhafte und fehlende Verbindungen getestet. Diese Unterbrechungen können durch mechanische Beschädigungen oder durch Filmfehler beim Belichten entstehen.
Funktionsweise Beim Durchgangstest werden alle zu einem Netz gehörenden Punkte gegeneinander getestet. Bei Einzelpunkten kann keine Verbindung geprüft werden.
Durch Schmutz auf den Kontaktierstellen können die Messungen ein hochohmiges Ergebnis zeigen. Mögliche Verschmutzungen sind: Staub, Fräsrückstände oder Oxidation auf der Kontaktierfläche. Durch ein erneutes Kontaktieren (Retest) können diese Phantomfehler (Fehler, die nicht existieren) oft ausgeschlossen werden.
Die Messresultate werden bei zweipoliger Messung produktspezifisch z. B. folgendermaßen klassifiziert:
(Messschwellen sind teilespezifisch zu definieren)
Messung < 10 Ω → Gute Verbindung
Messung > 10 Ω → Hochohmige Verbindung
Messung > 2 MΩ → Unterbrechung
Für Messungen von Verbindungen oder Widerständen unter 10 Ω muss oft eine Vierleitermessung eingesetzt werden, dadurch verfälschen die Kabel- und Kontaktwiderstände das Messresultat nicht.
Kurzschlusstest
Ein Kurzschluss ist eine Verbindung zwischen zwei Punkten, die entsprechend der Schaltung nicht bestehen darf.
Kurzschlüsse sind Verbindungen, die z. B. durch Zinnfäden, schlechtes Ätzen oder mechanische Beschädigung der Isolationsschicht zwischen den Lagen hervorgerufen werden.
Funktionsweise Für jedes Netz wird ein Testpunkt als Primärtestpunkt festgelegt. Danach wird zwischen allen Netzen die Isolation gemessen.
Wenn eine Leiterplatte 3 Netze hat, wird Netz 1 gegen Netz 2, Netz 1 gegen Netz 3 und Netz 2 gegen Netz 3 gemessen. Sind weitere Netze vorhanden, verhalten sich die Anzahl Messungen nach:
2 Netze = 1 Messung
3 Netze = 3 Messungen
4 Netze = 6 Messungen
5 Netze = 10 Messungen
6 Netze = 15 Messungen
N Netze = N·(N-1)/2 Messungen
Wird beim Durchgangstest eine Unterbrechung festgestellt, wird dort ein weiterer Primärpunkt gesetzt und ein weiteres Sub-Netz generiert (Netz 3a). So kann die Leiterplatte zu 100 % auf Kurzschlüsse getestet werden.
Die Messresultate werden produktspezifisch zum Beispiel folgendermaßen interpretiert:
Messung > 2 MΩ → Kein Kurzschluss
Messung < 2 MΩ → Hochohmiger Kurzschluss
Messung < 100 Ω → Kurzschluss
Röntgentest
Vor allem bei mehrlagigen Platinen werden auch Röntgenaufnahmen eingesetzt, um eine visuelle Prüfung durchführen zu können, zum Beispiel der Passgenauigkeit der verschiedenen Lagen.
Belastung von Leiterbahnstrukturen mit großen Strömen
Häufig, besonders in Dickschicht-Hybridtechnik, besteht die Notwendigkeit, unbestückte Leiterplatten mit größerem Prüfstrom auf Einengungen, schlechte Durchkontaktierungen usw. zu testen. Solche Fehlerstellen werden dann zerstört und können als Unterbrechung erkannt werden. Ein zerstörungsfreies Mittel zur Prüfung von Leiterplatten auch im Betrieb ist die Thermografie.
Basismaterial
Einfache Leiterplatten bestehen aus einem elektrisch isolierenden Trägermaterial (Basismaterial), auf dem eine oder zwei Kupferschichten aufgebracht sind. Die Schichtstärke beträgt typischerweise 35 µm und für Anwendungen mit höheren Strömen zwischen 70 µm und 140 µm. Um dünnere Leiterbahnen zu ermöglichen, werden auch Leiterplatten mit nur 18 µm Kupfer hergestellt. In englischsprachigen Ländern wird manchmal statt der Schichtstärke die Masse der leitfähigen Schicht pro Flächeneinheit in Unzen pro Quadratfuß (oz/sq.ft) angegeben. In diesem Fall entspricht 1 oz/sq.ft etwa 35 µm Schichtstärke.
Leiterplatten waren früher meist Hartpapier mit der Materialkennung FR2. Heute werden außer für billige Massenartikel meist mit Epoxidharz getränkte Glasfasermatten mit der Materialkennung FR4 verwendet. FR4 hat eine bessere Kriechstromfestigkeit und bessere Hochfrequenzeigenschaften sowie eine geringere Wasseraufnahme als Hartpapier.
Durch die Glasfasermatten hat FR4 eine anisotrope Struktur, was sich unter anderem in den Längenausdehnungskoeffizienten ausdrückt, die senkrecht zur Leiterplatte 50–60 ppm/K (bis 100 °C) beträgt, in X- und Y-Richtung ca. 18 bzw. 14 ppm/K, also ähnlich zu den aufgebrachten Kupferbahnen (17 ppm/K).
Für Spezialanwendungen kommen auch andere Materialien als Basismaterial zum Einsatz. Beispiele sind Teflon, Aluminiumoxid oder Keramik in LTCC und HTCC für die Hochfrequenztechnik sowie Polyesterfolie für flexible Leiterplatten. Hersteller dieser speziellen Basismaterialien sind Firmen wie Rogers Corporation und Arlon Materials for Electronics, wovon sich auch die umgangssprachliche Bezeichnung „Rogers“ bzw. „Arlon“ im technischen Englischen für teflonbasierende Leiterplatten mit Anwendungsbereich in der Hochfrequenztechnik ableitet.
Für Leiterplatten mit hohen Anforderungen an die Wärmeabführung werden Basismaterialien mit Metallkernen wie Aluminium oder Kupfer verwendet, z. B. im Bereich der Beleuchtungstechnik mit Hochleistungsleuchtdioden. Diese Trägermaterialien werden auch als Direct Bonded Copper oder als (IMS) bezeichnet.
Bei Anwendungen für niedrige Temperaturen oder hohe Luftfeuchtigkeit können auch Basismaterialien mit integrierten Heizelementen eingesetzt werden, die Unterkühlen oder Betauung der Schaltung verhindern. Zudem wird an alternativen Materialien geforscht, die umweltfreundlicher sind, aktuell gibt es dort aber noch Probleme mit der Feuchteresistenz.
Parameter verschiedener Materialien
Basismaterialherstellung
In der Imprägnieranlage werden zunächst das Grundharz, Lösungsmittel, Härter, Beschleuniger gemischt. Dem können noch andere Stoffe zugesetzt werden, wie z. B. Farbpigmente, Flammschutzmittel und Flexibilisatoren. Die Trägerstoffe (z. B. Papier, Glasgewebe, Aramidgewebe) werden in Rollen angeliefert, so dass der Prozess fortlaufend durchgeführt werden kann. Nachdem der Träger über Umlenkrollen durch das Bad gezogen wurde (Tränkung), wird das Material im Ofen getrocknet. Dabei verdunstet nicht nur das Lösungsmittel, sondern auch das Harz erreicht durch die Wärmezufuhr einen Zwischenzustand – das Harz härtet noch nicht vollständig aus, bei erneuter Wärmezufuhr wird es zunächst wieder klebrig und härtet erst dann aus. Dieses Halbzeug aus Harz und Träger nennt man Prepreg. Es wird zur Herstellung der Leiterplatten verwendet, indem die Lagen unter Wärmeeinfluss verpresst werden. Bei Multilayer-Leiterplatten werden mehrere Schichten Basismaterial und Kupfer nacheinander verpresst und geätzt.
Verbindungen
Mechanische Verbindungen
Bei der Montage von Platinen in einem Gehäuse muss zwischen der ggf. metallenen Montagebasis und der Platine ein Abstand sichergestellt werden. Zum einen, damit keine Kurzschlüsse entstehen, zum anderen, damit die unebene Unterseite der Platine mit den vielen Lötpunkten und teilweise hervorstehenden Drahtenden nicht direkt aufliegt, was zu mechanischen Spannungen führen würde. Dazu verwendet man u. a. lange Gewindeschrauben mit Abstandshaltern und Muttern oder Kunststoffelemente, die in Löcher in der Platine und auf der anderen Seite im Gehäuse eingeklipst werden. Manchmal übernimmt auch die im Folgenden beschriebene elektrische Verbindung den mechanischen Part mit.
Elektrische Verbindungen
Wenn die Leiterplatte eine Steckkarte ist, die auf einer anderen Leiterplatte sitzt, verwendet man meist direkte Steckverbinder und Federleisten.
Andere vielpolige Kabelverbindungen werden über Leitgummi oder über Steckerleisten und Stiftleisten realisiert, wobei die Kontakte in einer oder auch mehreren Reihen angeordnet sein können. Wenn es nur um wenige Pole geht, werden auch Federleisten oder kleine Buchsen- oder Kupplungsteile auf Lötstifte aufgesteckt.
In speziellen Umgebungen wie beispielsweise innerhalb mechanischer Fotoapparate wählt man Folienverbinder, die praktisch biegsame Leiterplatten darstellen, ggf. mit direkten Steckverbindern an einem oder beiden Enden oder alternativ direkter Verlötung.
Recycling
Leiterplatten enthalten einen hohen Anteil Kupfer und Edelmetallen, dessen Wiedergewinnung durch die Fortschritte bei Recycling-Verfahren wirtschaftlich geworden ist:
Literatur
Günther Hermann (Hrsg.): Handbuch der Leiterplattentechnik – Laminate – Manufacturing – Assembly – Test. 2. Auflage. Eugen G. Leuze Verlag, Saulgau/Württ. 1982, ISBN 3-87480-005-9.
Günther Hermann (Hrsg.): Handbuch der Leiterplattentechnik – Band 2: Neue Verfahren, neue Technologien. Eugen G. Leuze Verlag, Saulgau/Württ. 1991, ISBN 3-87480-056-3.
Günther Hermann (Hrsg.): Handbuch der Leiterplattentechnik – Band 3: Leiterplattentechnik, Herstellung und Verarbeitung, Produkthaftung, Umweltschutztechnik mit Entsorgung. Eugen G. Leuze Verlag, Saulgau/Württ. 1993, ISBN 3-87480-091-1.
Günther Hermann (Hrsg.): Handbuch der Leiterplattentechnik – Band 4: Mit 112 Tabellen. Eugen G. Leuze Verlag, Saulgau/Württ. 2003, ISBN 3-87480-184-5
H.-J. Hanke (Hrsg.): Baugruppentechnologie der Elektronik – Leiterplatten. Technik Verlag, Berlin 1994, ISBN 3-341-01097-1.
Daniel Schöni (Hrsg.): Schaltungs- und Leiterplattendesign im Detail – Von der Idee zum fertigen Gerät. BoD Books on Demand, Norderstedt 2017, ISBN 978-3-7392-1871-7.
Siehe auch
Molded Interconnect Device (MID)
Weblinks
Günstige Platinenherstellung mit einfachen Mitteln
Platinen mit der „Direkt-Toner-Methode“ ätzen
Funktionsprinzip der Bestückungstechnologien (SMD, BGA, THT) bildlich erklärt.
Einzelnachweise
|
Q173350
| 163.949698 |
4016093
|
https://de.wikipedia.org/wiki/Gospel
|
Gospel
|
Der Gospel (von ‚Evangelium‘, ‚Gute Nachricht‘; hergeleitet vom Altenglischen gōdspel, gōd ‚gut‘ und spel ‚Erzählung‘, ‚Nachricht‘) ist nach deutschem Sprachgebrauch eine christliche afroamerikanische Stilrichtung in der Musik, die sich Anfang des 20. Jahrhunderts aus dem Spiritual sowie Elementen des Blues und Jazz entwickelt hat. Als den oder das Gospel bezeichnet man im Deutschen ein dieser Musikrichtung zugehöriges Werk. Im weiteren Sinn wird der Begriff auch für christliche englisch gesungene Musik im europäischen Raum bis hin zu christlicher Popmusik im Allgemeinen verwendet.
Im Originalverständnis der englischen Sprache bezeichnet „Gospel Music“ im weitesten Sinne die Entwicklung der christlichen Musik auf dem nordamerikanischen Kontinent vom Evangeliumslied des 19. Jahrhunderts bis hin zur christlichen Popmusik, im engeren Sinne jedoch ebenfalls die Kirchenmusik afroamerikanischer Gemeinden.
Deutscher Sprachgebrauch
Im deutschen Sprachverständnis wird der Begriff Gospel als Oberbegriff für die unterschiedlichen Ausprägungen und die Entwicklungen der afroamerikanischen christlichen Musik aus der Modernisierung bzw. Kommerzialisierung des Spirituals Anfang des 20. Jahrhunderts heraus verwendet. Folglich gelten lediglich Werke mit entsprechenden stilistischen Wurzeln im Deutschen als Gospels.
Die Gospels wurden zunächst meistens als Gemeindegesang praktiziert, aber auch von Gesangsgruppen, Chören und solistisch vorgetragen. Die instrumentale Begleitung übernahm oft eine Band mit Schlagzeug, Bass, Klavier und/oder Orgel, letztere oft in Form einer Hammondorgel. Dieses chronologisch gesehen erste untergeordnete Genre wird im Deutschen als Black Gospel bezeichnet (Englisch: Traditional Black Gospel).
Eine nähere Bezeichnung für Weiterentwicklungen der Stilrichtung bis hin zum aktuellen Gospel (Englisch: Contemporary Black Gospel) versuchen im Deutschen Projekte wie Modern Gospel von christlichen Musikern wie Danny Plett oder die Reihe Songs for Gospel von Hanjo Gäbler zu positionieren. Als Gospelchor bezeichnen sich religiös orientierte Chöre, die einen Schwerpunkt auf Gospel im engeren Sinn oder Spirituals legen. Oft nennen sich auch Kirchenchöre so, die neben Gospel auch vielfältige andere populäre Stilrichtungen pflegen.
Englischer Sprachgebrauch
Obwohl diese Definition im engeren Sinne auch für den englischen Sprachgebrauch gilt, wird der Begriff hier auch in einer erweiterten Bedeutung genutzt und umschließt dann die gesamte Entwicklung der christlichen Musik Nordamerikas seit der baptistischen und methodistischen Erweckungsbewegung im 19. Jahrhundert. Der Begriff des „Gospel Song“ taucht hier in gedruckter Form vermutlich erstmals 1874 von Philip P. Bliss verwendet auf und hatte gemäß dem englischen Wort „gospel“ für „Evangelium“ ursprünglich einen evangelistischen und missionarischen Charakter. Im Deutschen, damals noch weitestgehend frei von Anglizismen, wurde aus dem Begriff „Gospel Song“ in diesem Verständnis das Evangeliumslied.
Die Komplexität des englischen Verständnisses des Begriffs zeigt folgendes Zitat:
Gospel-Award
Von 2004 bis 2006 vergab die Fernseharbeit der evangelischen und der katholischen Kirche sowie die Hilfsorganisation World Vision Deutschland im größten deutschen Gospelwettbewerb den Gospel-Award.
Bekannte Gospelsongs
Bekannte Lieder des Gospel nach deutscher Definition sind unter anderem:
Joshua Fought the Battle of Jericho
Precious Lord, Take my Hand (Thomas A. Dorsey, 1932)
Oh Happy Day (Edwin Hawkins, 1969)
Rock of Ages (Augustus Toplady)
Soon and Very Soon (Andraé Crouch)
This Little Light of Mine
Für als Gospel assoziierte Lieder wie Go down Moses oder When the Saints Go Marching In siehe: Spiritual.
Literatur
Teddy Doering: Gospel. Musik der guten Nachricht und Musik der Hoffnung. Aussaat, Neukirchen-Vluyn 1999, ISBN 3-7615-5121-5
Bernhard Hefele: Jazz-Bibliographie. Verzeichnis des internationalen Schrifttums über Jazz, Blues, Spirituals, Gospel und Ragtime. Saur, München u. a. 1981, ISBN 3-598-10205-4
C. H. Dood: History and the Gospel, Oxford 1963, Hooder.
Andrae Crouch, Nina Ball: Die Andrae Crouch Story, Asslar 1977, ISBN 3-921872-00-6 (Hauptquelle dieses Artikels)
Micha Keding: Geschichte und Entwicklung der Gospelmusik (Volltext, Hauptquelle dieses Artikels)
Micha Keding: Musikalische Stilbeschreibung (Volltext, Hauptquelle dieses Artikels)
Lothar Zenetti: Peitsche und Psalm, Negrospirituals + Gospelsongs, München 1963, Verlag J.Pfeiffer
Wilhelm Otto Deutsch: Spirituals und Gospels sind nicht dasselbe, in: Ev. Kirche im Rheinland, „Thema: Gottesdienst“, Nr. 27 / 2007, S. 45–51
Robert Marovitch: The Gospel According to Malaco: Celebrating 75 Years of Gospel Music (Malaco Records. Buch und 8-CD-Set.)
Einzelnachweise
Weblinks
|
Q180268
| 225.97597 |
2381260
|
https://de.wikipedia.org/wiki/Fernsehger%C3%A4t
|
Fernsehgerät
|
Ein Fernsehgerät oder Fernsehapparat, in den 1930er Jahren auch Ferntonkino, ist ein Gerät zum Empfang und zur Wiedergabe von analogen und digitalen Fernsehsignalen. Die Idee für einen ersten mechanischen Fernsehapparat wurde bereits im Jahr 1886 von Paul Nipkow in einem Patent dargelegt. Er gilt damit als der eigentliche Erfinder des Fernsehens. Gebräuchlich für Fernsehgeräte ist auch die Bezeichnung Fernsehempfänger.
In Anspielung auf das anfangs noch relativ leicht wahrnehmbare Flimmern der bewegten Bilder wird der Fernsehapparat umgangssprachlich oft als Flimmerkiste bezeichnet. Weitere umgangssprachliche Bezeichnungen für das Fernsehgerät sind Fernseher, Flimmerkasten, Pantoffelkino bzw. Patschenkino, Röhre (für ältere Geräte nach der Bildröhre), Mattscheibe, Sesselkino, Guckkasten, Glotzofon, Glotzkasten, Glotzkiste oder Glotze, TV-Gerät (Abkürzung für Television; aus griechisch tele ‚fern‘ und bzw. ).
Wiedergabemöglichkeiten
Die Wiedergabe der Bilder beim Fernsehgerät erfolgt auf einem Bildschirm. Die Nutzung von Videoprojektoren als Fernsehapparat (als „Heimkino“) ist eine weitere Möglichkeit. Mit einer TV-Karte kann der Monitor des Computers auch als Fernsehgerät genutzt werden. Außerdem gibt es Übertragungsmöglichkeiten via Internet und über Breitbandkabel, bei denen der Computer als Empfangsgerät dient.
Der neben dem Bildwiedergabesystem wichtigste Teil eines Fernsehgerätes ist der Tuner, der die analogen oder digitalen Hochfrequenzsignale aus dem Kabelanschluss, der Antenne oder dem Satelliteingang in ein Videosignal umwandelt. Für den Anschluss von anderen Videosystemen (zum Beispiel DVD-Player, DVB-T-Tuner, Satelliten-Receiver) steht an europäischen Geräten meist eine SCART-Buchse zur Verfügung, bzw. für Digitalsignale DVI- oder HDMI-Buchsen. Die Wiedergabe der Töne erfolgt über Lautsprecher, die auch außerhalb des Gerätes stehen können.
Am Anfang der Fernsehgeschichte standen Schwarz-Weiß-Geräte, die lediglich Graustufen-Bilder wiedergeben konnten, ehe die technische Entwicklung Farbfernsehgeräte ermöglichte. Mittlerweile geht der Trend zu Geräten, die auch hochauflösende Bilder (UHD) wiedergeben können.
Weltweit wurden für das analoge Fernsehen diverse unterschiedliche Fernsehnormen mit verschiedenen Bildauflösungen entwickelt, die mit Einzelbuchstaben von A bis N bezeichnet werden. Die grundlegenden verschiedenen Farbübertragungsnormen sind PAL, SECAM und NTSC. Im deutschsprachigen Raum wurden im Jahr 2012 nur noch im analogen Kabelfernsehen die Fernsehnormen B für VHF-Sender und G für UHF-Sender sowie der PAL-Standard für die Farbübertragung verwendet, entsprechend spricht man von PAL-B/G. Beim Digitalfernsehen sind diese Normunterschiede außer der Bildauflösung nicht mehr von Bedeutung.
Bei den sogenannten 100-Hz-Fernsehgeräten wird das erste Halbbild jedes Bildes gespeichert und dann erst mit dem zweiten Halbbild zusammen dargestellt; danach werden beide nochmals wiederholt, während bereits das erste Halbbild des nächsten Bildes empfangen wird. Im Ergebnis wird jedes Bild zweimal gezeigt, dadurch verschwindet das Bildflimmern subjektiv vollständig. Bei schnell bewegten Bildern ist jedoch eine recht aufwändige digitale Nachbearbeitung der Bilder im Gerät nötig (sogenanntes Deinterlacing), um Artefakte durch den veränderten Zeitablauf der Bilddarstellung zu vermeiden.
Bedient wird der Fernsehapparat heutzutage fast ausschließlich über eine IR-Fernbedienung. Mit einem häufig vorhandenen Hotelmodus lassen sich bestimmte Einstellmöglichkeiten blockieren.
Seit den späten 1970er Jahren diente das Fernsehgerät nicht mehr ausschließlich dem Fernsehen. Mit der schrittweisen Markteinführung der neuen Medien, wobei Videorekorder und DVD-Recorder den größten Bekanntheitsgrad haben, wurde der Fernsehapparat zu einem Bildschirm für externe Medien.
Typen von Fernsehgeräten
Neben den nachfolgend detailliert beschriebenen Röhrenfernsehgeräten sowie Flachbild-Fernsehgeräten werden weitere Anzeigetechniken für Fernsehgeräte eingesetzt.
Rückprojektionsbildschirm
Videoprojektor
Mittels TV-Karte kann auch der Computer zum Fernsehgerät werden und damit der notwendige Bildschirm zur Anzeige genutzt werden. In neuerer Anwendung ist das über das Internet übertragene Fernsehsignal letztlich eine Variante der Computernutzung im Sinne eines Fernsehgeräts.
Röhrengeräte
Bis in die 2000er Jahre wurde unter dem Begriff „Fernsehgerät“ grundsätzlich ein Röhrengerät verstanden, wobei sich der Begriff Röhre hier auf das Hauptbauteil, die Bildröhre bezieht. Diese ist ihrer Konstruktion nach eine Braunsche Röhre, benannt nach ihrem Erfinder Karl Ferdinand Braun. Diese Röhre besteht aus einem unter Vakuum stehenden, trichterförmigen Glasbehälter, in dem je nach der gewünschten Helligkeit eines Bildpunktes mehr oder weniger Elektronen von der Kathode im hinten liegenden Bildröhrenhals nach vorn zur Anode (dem eigentlichen Bildschirm) hin beschleunigt werden und die dort aufgebrachte Leuchtschicht erregen.
Die Hochspannung an der Anode wird in der Regel aus dem Zeilengenerator gewonnen und durch den Zeilentrafo auf je nach Bildschirmgröße 6000 bis 33.000 Volt hochtransformiert. Die Bildröhre wirkt mit ihrer inneren und äußeren Aquadag-Beschichtung als großer Kondensator und behält die Hochspannung noch einige Zeit nach dem Abschalten des Gerätes und kann damit eine Gefahr darstellen. Aufgrund der geringen Leistung ist diese Spannung für Menschen im Allgemeinen nicht tödlich; es kommt aber bei einer Berührung zu schreckhaften starken Muskelbewegungen, die sekundär körperlichen Schaden und Sachschaden nach sich ziehen können. Deshalb sollten Arbeiten im Inneren von Röhrenfernsehgeräten grundsätzlich nur von geschultem Personal durchgeführt werden.
Ein beheiztes Metallröhrchen dient in der Bildröhre als Glühkathode. Von dieser werden durch ein mit 400 bis 1000 Volt positiv geladenes Gitter (G2) (positiv bedeutet Elektronenmangel) Elektronen punktförmig losgerissen. Ein leicht negativ geladener Zylinder (Wehneltzylinder) ermöglicht eine Steuerung der Elektronenmenge, was einer Steuerung der Bildpunkthelligkeit entspricht. Ein weiteres elektrostatisches Linsensystem (3 bis 4 kV) regelt den Fokus (Größe und Schärfe des Bildpunkts). Insgesamt ähnelt das kompakte Bildröhren-Elektronen-System stark einem optischen Linsensystem mit einer Iris und einer Lichtquelle.
Ohne eine weitere Ablenkvorkehrung würde der Elektronenstrahl durch die Bildschirmanode in Richtung Bildschirmmitte beschleunigt, in der an der Bildschirmrückseite aufgetragenen Leuchtstoffschicht („Phosphor“) lediglich einen einzigen hellen Bildpunkt hinterlassen – und die Schicht sofort durch einen Einbrennpunkt schädigen. Durch zwei am Bildröhrenhals 90 Grad versetzt angeordnete Ablenkeinheiten wird der Elektronenstrahl in der gewünschten Zeilenzahl und Bildfrequenz mittels zweier sägezahnförmiger Ablenksignale über den Bildschirm geführt. Normalerweise wird der Elektronenstrahl zeilenweise von links nach rechts und oben nach unten über den Bildschirm gefahren und ergibt so aus den unterschiedlichen Helligkeiten das Bild. Die Wiederholrate eines kompletten Vorgangs (zum Beispiel des Bildaufbaus) wird in Hertz (Hz) angegeben (Beispiel: 100 Hz = 100-mal pro Sekunde). Die horizontale Ablenkung ist in der Regel im Zeilentransformator mit der Hochspannungserzeugung gekoppelt. Bei einem Ausfall bleibt so durch Wegfall der Bildröhren-Anodenhochspannung ein schädigender Einbrennfleck aus; bei Ausfall der vertikalen Ablenkeinheit entsteht auf dem Bildschirm der charakteristische horizontale helle Strich.
In der Frühzeit des Fernsehens (1930er und 1940er Jahre) wurde die elektrostatische Bildablenkung verwendet. Hier befinden sich zwei in einem Winkel von 90 Grad gegeneinander versetzte Kondensatorplatten im Hals der Bildröhre, zwischen denen sich bei Anlegen einer hohen Spannung ein elektrostatisches Feld aufbaut, welches den Elektronenstrahl ablenkt. Da – mit annehmbaren Ablenkspannungen – so nur maximale Ablenkwinkel von etwa 40 Grad erzielbar sind, und die Röhren dadurch eine erhebliche Einbautiefe erforderten, hatte sich später die elektromagnetische Ablenkung mit Ablenkspulen durchgesetzt, mit der Ablenkwinkel von über 110 Grad möglich sind.
Bei Farbfernsehgeräten gibt es drei leicht gegeneinander versetzte Kathoden für die drei Grundfarben Rot, Grün und Blau. Eine Maske in Form eines feinen Metallgitters knapp hinter der Mattscheibe sorgt in diesem Fall dafür, dass die Elektronen von jeder Kathode nur auf Fluoreszenzpunkte „ihrer“ Farbe treffen können. Die übrigen Elektronen bleiben in der Maske hängen. Da die meisten Elektronen daher den Bildschirm nie erreichen, muss die Beschleunigungsspannung in einem Farbfernsehgerät bei gleicher Bildhelligkeit viel höher sein als in einem Schwarz-Weiß-Gerät. Die fluoreszierende Schicht besteht in diesem Fall aus nebeneinanderliegenden kleinen Punkten oder Streifen der drei Grundfarben. Diese Elemente sind leicht zu erkennen, wenn man den Bildschirm aus kurzer Distanz betrachtet.
Flachbildgeräte
Die konventionellen Röhrenfernsehgeräte wurden in den 2000er Jahren zunehmend von Flachbild-Fernsehgeräten (Plasma- und LCD-Technologien) abgelöst. Diese basieren auf den auch anderweitig eingesetzten Flachbildschirmen.
Im Jahr 2006 wurden in Deutschland erstmals mehr Flachbildgeräte verkauft als konventionelle Röhrengeräte. Weltweit wurden 2007 erstmals mehr Flachbildfernsehapparate als Röhrengeräte verkauft.
Um HD-ready-konform zu sein, sind mindestens 720 Bildzeilen nötig. HDTV ist die weltweit eingeführte Norm für hochauflösendes Fernsehen. Sie ist zum Beispiel in Nordamerika und Ostasien recht verbreitet. HDTV-fähige Röhrenfernsehgeräte gab es in Deutschland von JVC, Philips und Samsung. 2008 hatten fast alle Hersteller die Produktion von Röhrenfernsehern eingestellt; Philips galt als der letzte europäische Hersteller (bis 2011).
Die Bildqualität und die korrekte Bildjustierung von Fernsehgeräten lassen sich mithilfe von Testbildern beurteilen.
Techniken
Unterteilt nach der verwendeten Technologie für den Flachbildschirm unterscheidet man
PDP-Fernsehgeräte () mit Plasmabildschirmen
LCD-Fernsehgeräte mit Flüssigkristallbildschirmen (LCD) mit traditioneller Leuchtröhren-Hintergrundbeleuchtung.
LED-Fernsehgeräte – fälschliche Bezeichnung für LC-Bildschirme mit LED-Hintergrundbeleuchtung zur Optimierung von Bild und Stromverbrauch. Mini-LED ist die neuste Entwicklung von Flachbildfernseherhersteller. Durch Mini-LED wird der Kontrast verbessert, denn die vielen minimen LEDs hinter dem Bildschirm leuchten nur an ausgewählten Stellen mit voller Kraft, wo auch das Bild hell sein soll.
OLED-Fernsehgeräte mit OLED-Bildschirmen
SED-Fernsehgeräte mit Surface-Conduction-Electron-Emitter-Displays. Sie vereinen die Vorteile von Plasma (selbstleuchtend, echtes Schwarz, trägheitslos) und LCD (niedriger Energiebedarf), ohne deren Nachteile zu übernehmen. Jeder Bildpunkt besteht aus einer winzigen Elektronenquelle mit einer Beschleunigereinheit, was aber Röntgenstrahlung verursacht. Zu einer Markteinführung kam es nicht.
FED-Fernsehgeräte mit Feldemissionsbildschirmen. Verwandt mit SED. Die Entwicklung wurde wegen fehlender Mittel eingestellt.
Vorteile
Der Hauptvorteil der Flachbildtechnik ist die wesentlich geringere Gerätetiefe von wenigen Zentimetern, die unabhängig von der Bildschirmgröße ist. Dagegen brauchen Röhrenfernseher bei größerem Bildschirm eine Bautiefe von bis zu 60 Zentimetern.
Das beim „Röhrenfernsehen“ zur Vermeidung des Zeilenflimmerns verwendete Zeilensprungverfahren ist bei Flachbildfernsehgeräten nicht mehr erforderlich. Flachbildfernsehgeräte „schreiben“ Bilder im Vollbildverfahren. Im Zeilensprungverfahren vorliegendes Videomaterial wird daher vor einer Darstellung am Flachbildschirm digital auf Vollbilddarstellung (progressive scan) umgerechnet. Daraus entstehen gelegentlich Darstellungsprobleme (Kammeffekte).
Moderne Flachbildfernsehgeräte treiben einen hohen Rechenaufwand zur digitalen Bildverbesserung; bei niedrigpreisigen Geräten ist die Bildqualität aus demselben Grund etwas geringer.
Eine Verbesserung der Bildqualität bringt bei modernen Flachbildfernsehgeräten eine Steigerung der Bildwechselfrequenz von 50 Hertz (50 Halbbilder im Zeilensprungverfahren ergeben 25 Vollbilder) auf 100 Hertz, 200 Hertz oder eine noch höhere Frequenz.
Digitale Gerätetechnik bietet zahlreiche Möglichkeiten zur Steigerung des Gebrauchswerts. So kann beispielsweise das störende Umgebungslicht bei LCD-Fernsehgeräten mit einem Sensor im Bildschirmrahmen gemessen und zur Nachsteuerung der Bildverstärker genutzt werden und so zur Bildverbesserung (Erhöhung des Kontrasts) beitragen. Röhrengeräte eignen sich nicht für solche Manipulationen und wurden auch wegen des mit der Röhrentechnik verbundenen Aufwandes nicht mit derartigen Features ausgestattet.
Plasmatechnik eignet sich hingegen besonders für großformatige Flachbildschirme. Plasmafernseher beherrschen kurze Pixel-Umschaltzeiten besser als LCD-TVs. Daher können (Stand 201x) Plasma-3D-Bildschirme die räumlichen 120-Hz-3D-Videosignale wie bei 3D-Blu-ray-Discs mit deutlich weniger Links-rechts-Übersprechen (Ghosting) darstellen als 3D-LC-Bildschirme.
Das niedrige Gewicht (welches ein direktes Montieren an Wänden ermöglicht) erfüllt die frühere Zukunftsvision eines Fernsehgeräts, „das wie ein Bild an die Wand gehängt werden kann“.
Flachbildgeräte haben oftmals eine höhere darstellbare Bildauflösung und sind auch fähig, HDTV-Signale entgegenzunehmen, während das bei Röhrenapparaten bis zuletzt nur auf einige wenige Modelle zutraf.
Vermeidung der Möglichkeit einer Implosion der Bildröhre und der damit verbundenen Brandgefahr.
Nachteile
Flachbildgeräte bieten weniger Resonanzraum für den Ton (genauer: die Lautsprechermembran des Tieftöners). Die Tonqualität vieler Geräte ist schlechter als die von Röhrenfernsehern mit guten Lautsprecher-Chassis.
LCD-Fernsehgeräte haben noch immer eine gewisse Abhängigkeit des Bildeindrucks (Helligkeit, Kontrast, Farbe) vom Winkel des Betrachters zum Fernsehgerät; Plasma-TVs hatten und haben dies nie.
Bei vielen LC-Bildschirmen – insbesondere bei solchen mit Kaltkathodenlampe – lässt sich prinzipbedingt kein dem gewohnten Fernsehbild vergleichbarer Schwarzwert darstellen, daher ist statt echtem Schwarz (kein Licht) nur ein dunkles Grau (oft mit bläulichem Einschlag) möglich. Abhilfe wird durch LED-Hintergrundbeleuchtung geschaffen, die sich in den dunklen Bildbereichen dimmen oder abschalten lässt.
Geringere Lebensdauer. Einzelne Fernsehtechniker glauben, dass manche Hersteller die Lebensdauer von Flachbildfernsehern künstlich auf unter 10.000 Betriebsstunden beschränken (Geplante Obsoleszenz).
Ehemalige Nachteile
Bis etwa 2007 hatten die meisten Flachbildschirme gegenüber konventionellen Röhrenmonitoren einige Nachteile:
Bei schnell bewegten Bildern zeigten LC-Bildschirme (nicht jedoch Plasma-Bildschirme) Verwischungen, die als Nachzieheffekte oder Bewegungsartefakte, bisweilen als Kometenschweif bezeichnet werden. Das lag an gegenüber Kathodenstrahlröhren hohen Pixel-Umschaltzeiten von mehr als 20 ms. Heutzutage sind Pixel-Reaktionszeiten von 2–8 ms üblich, damit ist das Problem nicht mehr gegeben.
Helle stationäre Bildstellen wie Sender-Logos neigten – insbesondere bei Plasmabildschirmen – zum Einbrennen.
Flachbildschirme haben ein festes Pixel-Raster (Bildauflösung; z. B. HD oder Full HD); bei Darstellung von Bildern, die von diesem Raster abweichen, muss eine Umrechnung (Skalierung) erfolgen. Früher kam es dabei zu Artefakten und Einbußen der Bildqualität. Die verbesserten Scalerchips haben eine höhere Rechenleistung.
Plasmabildschirme verbrauchten früher im Verhältnis zur LCD-Technik sehr viel Strom.
Besondere Technologien
100-Hz-Röhrenfernseher
Durch fallende Preise für Speicherbausteine (RAM) konnten ab zirka 1988 100-Hz-Fernsehgeräte zu einem akzeptablen Preis angeboten werden. Durch Zwischenspeichern eines Video-Halbbildes und Auslesen der Bildinformation in doppelter Geschwindigkeit (100 Hertz anstatt 50 Hertz) war es möglich, das bei normalen Fernsehgeräten problematische unruhige Flimmern des Bildes zu eliminieren (siehe auch: 100-Hz-Technik). Allerdings war der Preis für das jetzt flimmerfreie 100-Hz-Bild die in allen derartigen Fernsehempfängern erforderliche aufwändige Deinterlacing-Technik, da das Zeilensprungverfahren nun nicht mehr analog auf der Leuchtstoffschicht der Bildröhre sowie im Auge des Betrachters angewandt werden konnte.
100-, 200- und 600-Hz-Flachbildfernseher
Die 100-Hz-Technologie, die bei Flachbildfernsehern zum Einsatz kommt, unterscheidet sich trotz identischer Bezeichnung grundlegend von der bei Röhrengeräten: Ein Prozessor im Gerät errechnet zusätzliche Zwischenbilder, so dass schließlich bis zu 100 Bilder pro Sekunde (bei 100-Hz-Technik und Eingangssignalen mit 25 Bildern pro Sekunde) dargestellt werden (siehe hierzu auch Motion-Interpolation). Dies soll insbesondere bei schnellen Bewegungen im Bild (beispielsweise bei Sportübertragungen oder Actionszenen) für glattere Bewegungsabläufe sorgen. Analog funktioniert die 200-Hz-Technologie, die die Vorteile der 100-Hz-Technologie noch steigern soll. Kritisiert wird bei diesen Technologien jedoch, dass es bei der Zwischenbildberechnung zu Bildfehlern in Form von Artefakten und Bildzittern kommen kann. Zudem wird die Bewegungsglättung von einigen Betrachtern als unnatürlich empfunden (sogenannter „Soap-Opera-Effekt“).
Einige Hersteller bieten Plasmafernsehgeräte mit 600-Hz-Technologie an, dabei handelt es sich jedoch nicht um eine „Echtbildfrequenz“ von 600 Hz. Stattdessen wird zwischen den Bildern (ursprünglichen und zusätzlich berechneten) noch ein schwarzes Bild eingefügt und so die Anzahl von 600 „Bildern“ pro Sekunde erreicht.
Digitale Bildsignalverbesserung
Standard Elektrik Lorenz (SEL) präsentierte im Herbst 1983 neuartige digitale Fernsehgeräte unter der Bezeichnung „Digivision“. Nach einer Idee des jugoslawischen Ingenieurs Lubo Micic hatte dazu Intermetall Freiburg in 10-jähriger Entwicklungsarbeit neuartige integrierte Schaltkreise entwickelt, die erstmals eine voll digitale Bildbearbeitung im Fernsehgerät ermöglichten. Dazu wurde ein analog empfangenes Videosignal im Fernsehgerät digitalisiert, digital verbessert, und anschließend zur Ausgabe über die weiterhin analoge Bildröhre wieder in ein Analogsignal umgewandelt. Neben einer digitalen Bildverbesserung war so auch ein digitales Einstellen verschiedener weiterer Parameter eines Fernsehgeräts wie Bildgeometrie oder Farbwiedergabe möglich. Das Konzept sollte vor allem eine über die gesamte Lebensdauer des Gerätes konstante Bildqualität gewährleisten.
Da der Empfangsweg weiterhin analog und somit fehleranfällig sowie Ressourcen verschwendend war, wurde zu dieser Zeit intensiv über eine Digitalisierung des Empfangsweges nachgedacht.
Digitaler Fernsehempfang
Erste Schritte auf dem Weg zu digitalem Fernsehempfang waren TV-SAT und D2-MAC. Bei diesem europäischen 16:9-Format wurde das Bild noch analog, der Ton aber schon digital mehrkanalig übertragen. Wegen relativ geringer Verbreitung der Empfangsgeräte und hoher Zusatzkosten bei der Produktion und Sendung über Satellit lief die Verbreitung nach einer Versuchsphase auch mit der hochaufgelösten Variante HD-MAC Mitte der 1990er Jahre allmählich aus.
Die Digitalisierung des Fernsehens erfolgte seit diesem Zeitpunkt in zwei parallelen getrennten Bereichen.
Digitalisierung des Empfangsweges (DVB oder IP)
Digitalisierung der Bildausgabe (Flachbildschirm)
Fernsehgeräte mit digitaler Verarbeitung wie auch (digitale) Flachdisplays gelten als Standard. Volldigitale Fernsehgeräte – sie haben neben digitalem Empfang und digitaler interner Verarbeitung ein digitales Display – werden IDTV genannt.
Hochauflösendes Fernsehen
Seit Mitte der 2000er Jahre finden höher auflösende Flachbildschirme für den Fernsehempfang zunehmend Verbreitung. Voraussetzung für den Genuss schärferer Bilder sind HD-fähige Geräte (Receiver, Recorder, Player) sowie in HD produziertes Programmmaterial. Die meisten neueren Flachbildschirme bieten bereits eingebaute Empfangsteile für digitalen Fernsehempfang von HDTV-Sendern. Ergänzt wird die Heimanlage meist mit einem Blu-Ray-Player, der im Allgemeinen auch DVDs in besserer Qualität wiedergeben kann.
3D-Fernsehen
Vorläufer
Bereits seit den 1950er Jahren gibt es in den Kinos 3D-Filme. Hintergrund der Entwicklung war die zunehmende Beliebtheit des häuslichen Fernsehens. Die Filmindustrie suchte nach Innovationen, um die Attraktivität des Kinos für die Zuschauer wieder zu steigern. Hierfür wurden Polarisations- oder farbanaglyphe Verfahren verwendet. Erst mit dem Aufkommen des Farbfernsehens konnte das farbanaglyphe Verfahren auf das Fernsehen übertragen werden. In den 1980er Jahren wurde das Verfahren für experimentelle 3D-Sendungen in den dritten TV-Programmen eingesetzt. Die geringe Bandbreite des analogen PAL-TV-Farbkanals verringerte aber die notwendige Auflösung und Schärfe des empfangenen 3D-Bildes so stark, dass kein befriedigender Raumeindruck zustande kam und die Versuche eingestellt wurden.
Technik
Fernsehgerätehersteller arbeiteten an 3D-Wiedergabe-Geräten für das Heimkino unter Verwendung der digitalen „High-Definition“-Technologie mit der Blu-ray Disc als Datenträger. Anfang 2010 brachten mehrere Unternehmen Fernsehgeräte und Video-Projektoren auf den Markt, mit denen man zu Hause digitale 3D-Filme anschauen kann. Hierfür wird eine aktive 3D-LCD-Shutterbrille benötigt, die sich mit dem schnellen Bildwechsel-Takt des 3D-Bildschirms (100 bzw. 120 Hz) mittels Infrarot- oder Funksignalen synchronisiert. Einige Anbieter boten Endgeräte mit passiven Polarisationsbrillen an. Auf der IFA 2010 wurde ein kinoleinwandgroßes aus LED-Arrays bestehendes Display präsentiert, das mittels spezieller Folien zirkular polarisiert war.
Ebenfalls auf der IFA 2010 zeigten mehrere Hersteller 3D-Bildschirme, für die keine speziellen Brillen notwendig sind, sogenannte autostereoskopische Displays. Dazu ist der Schirm – wie bei Wackelbildern – mit senkrechten Streifen von Mikroprismen versehen, so dass verschiedene Bilder die beiden Augen erreichen. Dazu muss der Betrachter allerdings still sitzen; jede Bewegung kann den Eindruck stören. Einige Anbieter können nicht nur eine Sichtachse, sondern mehrere bedienen. Auf der Fachmesse CES in Las Vegas im Januar 2011 haben drei Unternehmen kommerziell verfügbare, autostereoskopische 3D-Bildschirme präsentiert. Einige dieser präsentierten Geräte konnten bis zu sieben Sichtachsen gleichzeitig mit 3D-Bildern „bedienen“. Die ersten kommerziellen Einsätze lagen insbesondere im Bereich von Außenwerbung, d. h. Digital Signage, Gaming sowie anspruchsvollen PC-Anwendungen wie CAD. Die Bildschirmgröße variierte dabei zwischen 56 cm (18 Zoll) und 165 cm (65 Zoll). Seit Juli 2012 war mit dem Toshiba 55 Zl2g der erste Fernseher mit dieser brillenlosen 3D-Technologie als Großseriengerät auch außerhalb Japans erhältlich. Die Bilddiagonale beträgt 140 cm (55 Zoll); die Auflösung „4K“ (viermal mehr Bildpunkte als Full HD).
Eine brillenlose 3D-Technik – Autostereoskopie – kommt wie bei ersten 3D-Videokameras (Fujifilm, Sony) bei der tragbaren Videospielkonsole Nintendo 3DS zum Einsatz, die laut Herstellerangabe das Anschauen von 3D-Filmen auf dem handtellergroßen Bildschirm ermöglichen soll. Der Hersteller sprach vorsorglich eine Gesundheitswarnung für Kinder unter sechs Jahren und ältere Personen aus. Einige Augenärzte äußerten, es gebe keine wissenschaftlichen Belege für eine schädliche Wirkung von 3D-Darstellungen.
Einige der angebotenen 3D-Fernseher und 3D-Blu-ray-Player können 2D-Fernsehbilder in Echtzeit in 3D umrechnen. Das Verfahren basiert z. B. darauf, dass das Gerät erkennt, worauf die Kamera während der Aufnahme scharfgestellt war. Der 3D-Eindruck ist nicht mit dem von in digitalem Stereo-3D gedrehten Kinofilmen vergleichbar. So ist der 3D-Effekt bspw. nach hinten beschränkt, und das Geschehen scheint sich eher in verschiedenen Bildebenen abzuspielen, anstatt stufenlos räumlich zu wirken.
Verträglichkeit
Die Hersteller von Fernsehgeräten warnen in ihren Gebrauchsanleitungen vor dem übermäßigen Konsum von 3D-Filmen. Das korrespondiert mit der Empfehlung von Ärzten, dass Kinder unter zehn Jahren nach Möglichkeit keine, Kinder im Schulalter nicht länger als etwa eine halbe Stunde 3D-Filme sehen sollten, weil sich bei ihnen der Sehsinn erst entwickelt. Ärzte befürchten bleibende Schäden im räumlichen Wahrnehmungsvermögen. Besonders anfällig sind demnach Kinder mit Sehfehlern wie Schielen. Weitere Folgen übermäßigen 3D-Konsums können Unwohlsein und Übelkeit, in Einzelfällen sogar ein epileptischer Anfall bei Modellen mit aktiver 3D-Technik (Shutterbrille) sein.
Quellmaterial
Als Zuspieler für 3D-Material gibt es 3D-Blu-Ray-Player, digitale Sat-Receiver und Multimedia-Player. Alle Sat-Receiver können das ausgestrahlte 3D-Signal wiedergeben, da diese im SBS(Side-by-Side)-Verfahren arbeiten. Aktuelle Multimedia-Festplatten geben 3D-Blu-Ray-ISO-Dateien wieder; somit lassen sich Sicherheitskopien von 3D-Blu-Ray-Scheiben problemlos abspielen.
Verbreitung
Nach einem anfänglichen „Hype“ um 3D-Filme, der durch den Erfolg des Kinofilms Avatar – Aufbruch nach Pandora 2009 ausgelöst worden war, gingen die Verkaufszahlen der 3D-Fernseher schon ab 2012 wieder zurück. Laut dem amerikanischen Marktforschungsinstitut NPD machten 3D-fähige Fernseher 2012 noch 23 Prozent der Umsätze aus, 2016 nur noch acht Prozent. Mehrere TV-Hersteller hatten angekündigt, die Produktion von 3D-Fernsehern auslaufen zu lassen. So boten Samsung ab 2016 sowie LG und Sony ab 2017 keine 3D-Modelle mehr an. Mit Stand von Anfang 2018 waren 3D-Fernseher noch von mehreren traditionell auf den deutschen Markt ausgerichteten Herstellern und Marken wie Loewe, TechniSat und Metz erhältlich. Statt 3D sind andere neue Techniken wie Ultra HD und HDR in den Vordergrund getreten.
Fernsehgerät als Medienzentrale und Internet-Anbindung
Im Zuge der fortschreitenden Digitalisierung der Technik wachsen Fernsehempfänger immer mehr in Richtung voll funktionsfähiger All-in-one-Computer. Für die meist asiatischen Hersteller konventioneller Fernseher bedeutet dies sinkende Umsätze und jahrelange Verluste in Folge.
Moderne Fernsehgeräte verfügen über Anschlüsse für USB-Speichergeräte und die gängigsten Speicherkarten und können von diesen Medien Daten wie im DivX-, Xvid-, MP4-, Nero-Digital- oder WMV9-Format wiedergeben. Daneben verfügen sie oft über einen Ethernet-Anschluss bzw. WLAN-Antennen, mit denen sich beispielsweise Videostreams empfangen und abspielen lassen.
Zur optionalen Tonausgabe verfügen moderne Geräte oft über einen zusätzlichen optischen oder koaxialen Digitalausgang. Mit entsprechenden Digitalkabeln können sie mit einem entsprechend ausgestatteten AV-Receiver verbunden werden, womit unter anderem Raumklang-Wiedergabe möglich ist.
Über WLAN wird oft eine Internet-Anbindung realisiert, die es erlaubt, beliebige Internetseiten mit einem integrierten Webbrowser aufzurufen oder verschiedene vom Fernsehgeräteanbieter zur Verfügung gestellte TV-Apps und Widgets zu nutzen. Diese Applikationen können auch für das Webradio, als Streaming-Client oder als DLNA-Client geeignet sein. Solche Fernsehgeräte, die zusehends interaktiver gestaltet und mit Internet-Funktionen ausgestattet sind, werden häufig unter dem Begriff Smart-TV geführt.
Es gibt einen deutlichen Trend zur Konvergenz der Technik von Fernsehempfängern und Personal Computern. Mit der VGA- und der HDMI-Schnittstelle lassen sich vorhandene Computer und moderne Fernsehgeräte miteinander verbinden.
Von der Seite der Personal Computer gibt es immer mehr Geräte, die in der All-in-one-Bauweise vom Design und durch die Media-Center-Software her „wohnzimmertauglich“ gemacht wurden und die auf diese Weise das komplette Funktionsspektrum eines Fernsehgeräts und eines PCs anbieten. Eine weitere Möglichkeit, Fernsehgeräte um Smart-TV-Funktionen zu erweitern, ist der Anschluss von sogenannten HDMI-Sticks über die vorhandene HDMI-Schnittstelle.
Bildauflösung der einzelnen Gerätegenerationen im deutschsprachigen Raum
Beginn des Fernsehzeitalters in Deutschland mit der ersten Nachrichtensendung am 29. Oktober 1929. Auflösung 30 Zeilen bei 12,5 Bildern pro Sekunde.
Schwarz-weiß-Fernsehen: Erste offizielle Norm 1935 mit 180 Zeilen ohne Zeilensprungverfahren, ab 1937 bis 1945 mit 441 Zeilen im Zeilensprungverfahren.
Seit 1952 (Versuchssendungen) bis heute 625 Zeilen (Deutschland) in der sogenannten „Gerber-Norm“, was maximal 768 × 576 sichtbaren Punkten entspricht.
PAL-System: Erweiterung des Standards für Farbwiedergabe. Die Auflösung wird von 5 MHz herabgesetzt auf gut 3 MHz, um Raum zu schaffen für das Farbsignal. Eingeführt in Deutschland auf der Internationalen Funkausstellung Berlin (IFA) am 25. August 1967.
Ab 1991 wurden in Deutschland erstmals Fernsehgeräte mit querformatigem Bildschirm (16:9) angeboten.
HDTV-System: Start des HDTV-Fernsehens am 26. Oktober 2005. Der Sender ProSieben in München strahlte sein Programm parallel zur Standard-Verbreitung zusätzlich (meistens hochskaliert von SD) in HDTV aus. Die Auflösung betrug maximal 1.920 × 1.080 Punkte, dieses Angebot wurde im Frühjahr 2008 wieder eingestellt. Der Bezahlsender Premiere strahlte ab der Fußball-Weltmeisterschaft 2006 in Deutschland ein regelmäßiges HDTV-Programm mit durchgehend „nativen“ HD-Inhalten (Original 1920 × 1080 Pixel) aus.
Am 3. Dezember 2007 startete das Schweizer Fernsehen (SF) HD suisse, einer der ersten öffentlich-rechtlichen Sender Europas, im Standard 720p.
Das Erste Deutsche Fernsehen kündigte nach der Einstellung des von ProSieben ausgestrahlten Full-HDTV-Angebotes im Frühjahr 2008 einen HDTV-Start der öffentlich Rechtlichen in der durch die EBU für HDTV empfohlenen Norm 720p an.
Der Österreichische Rundfunk startete zur Fußball-Europameisterschaft in Österreich/Schweiz 2008, am Montag, den 2. Juni 2008 mit ORF1-HD einen regulären HDTV-Sendebetrieb mit 720p.
Seit dem Start der Olympischen Winterspiele in Vancouver am 12. Februar 2010 (am 11. Februar wurde auf HD geschaltet) senden Das Erste und das ZDF ihr Programm parallel in 576i und 720p aus (native-HD-Anteil rund 25 Prozent).
Die Plus-X-Award-Night am 27. Mai 2010 wird erstmals in HDTV und Stereo-3D aufgenommen. Die Veranstaltung wird von Anixe HD europaweit und frei empfangbar ab 4. Juni nachts als räumliches HD-Erlebnis im „Side-by-side“-3D-Standard (zwei 3D-Teilbilder nebeneinander 2:1 komprimiert in einem HDTV-Kanal) ausgestrahlt.
Sky Deutschland (früher Premiere) zeigt ab Oktober 2010 3D-Fernsehen auf einem speziellen „3D-Event-Kanal“ im „Side-by-side“-3D-Standard, d. h. tagsüber frei empfangbare Kinofilm-Trailer und Demo-Schleifen und abends verschlüsselt Eigenproduktionen, Bundesliga-Fußball oder Spielfilme.
Betrachtungsabstände und Bildschirmergonomie
Obwohl Fernsehen und Zusatzdienste wie das Internet sowohl auf Fernsehgeräten wie auf Computerarbeitsplätzen darstellbar sind und beide Anwendungen miteinander verschmelzen und nicht mehr deutlich zu trennen sind, gelten hier unterschiedliche Empfehlungen für den günstigsten Betrachtungsabstand.
Der optimale Sitzabstand für Fernseher wird durch Multiplikation der Bildschirmdiagonale mit einem Faktor berechnet, der von der Auflösung abhängt. Für SD-Fernseher beträgt der empfohlene Abstand das Dreifache der Diagonalen, für HD-Fernseher das 2,5-Fache und für 4K- oder 8K-Fernseher etwa das 1,5-Fache. Der Faktor kann je nach Sehvermögen variieren, sodass bei schlechteren Augen ein näherer Abstand empfohlen wird.
Die Auswahl der Fernsehergröße hängt von der bevorzugten Bildauflösung (SD, HD, UHD, 4k oder 8k) ab. Wenn der Nutzer hauptsächlich SD-Inhalte wie ältere Videos oder DVDs ansieht, ist es ratsam, eine kleinere Bildschirmdiagonale zu wählen, um einzelne Pixel sichtbar zu vermeiden. Andernfalls kann er auch weiter vom Fernseher entfernt sitzen. Ein Rechner kann helfen, die passende Bildschirmgröße zu berechnen.
Die meisten Fernsehsender und Streaming-Dienste wie Netflix bieten bereits HD-Qualität an. In diesem Fall und bei UHD-Auflösung (4k) ist das oben genannte Problem kaum vorhanden, sodass größere Bildschirmdiagonalen auch bei geringerem Sitzabstand möglich sind.
Bei 8k-Auflösung ist eine noch größere Bildschirmdiagonale oder ein geringerer Abstand möglich, aber es gibt derzeit nur wenige Inhalte in dieser Qualität.
Fernsehen unterscheidet sich vom Lesen auch dadurch, dass der Betrachter oder Zuschauer (Fernseher/Fernseherin) sein Blickfeld nicht nur auf ein kleines Detail einer Darstellung, sondern überwiegend auf ein Gesamtbild richtet. Dieses ist beim Fernsehen üblicherweise bewegt. Im Gegensatz zum Lesen empfiehlt sich beim Fernsehen ein Mindestbetrachtungsabstand zum Bildschirm. Dieser Mindestabstand orientierte sich ursprünglich (als es ausschließlich 4:3-Bildschirme gab) an der gewählten Bildschirmdiagonale und resultierte unter anderem aus der anderenfalls störend wahrgenommenen Zeilenstruktur des Bildes. Seit der Existenz von 16:9-Bildschirmen und dem überwiegend vorhandenen Digitalfernsehen empfiehlt man Mindestabstände, die von der Bildhöhe ausgehen. Dies vermeidet eine sonst notwendige Unterscheidung zwischen 4:3- und 16:9-Bildschirmen. Für normal aufgelöstes Fernsehen (SDTV, PAL) werden Mindestabstände von der sechsfachen Bildhöhe und bei HDTV Mindestabstände von der drei- bis vierfachen Bildhöhe empfohlen. Damit kann das menschliche Auge beim Fernsehen einerseits ohne Anstrengung einem gesamten Bildeindruck folgen und andererseits auch (bei HDTV) in den Genuss eines Kinofeelings kommen.
Auf einem (zum Lesen optimierten) Computerarbeitsplatz gelten andere Kriterien, die sich überwiegend an der dargestellten Schriftgröße orientieren. Findet ein solcher Arbeitsplatz für das Fernsehen Verwendung, so sollte der Betrachter seinen Abstand zum Bildschirm vergrößern oder am Computerbildschirm ein entsprechend kleineres Programmfenster für die Videodarstellung öffnen.
Eine Alternative für die Lesbarkeit von Texten am Bildschirm im gewohnten Betrachtungsabstand zum Fernsehgerät ist es, diese in großen Schriften anzuzeigen, wie beim Teletext. Gewöhnlich formatierte Webseiten erfordern Bildschirme höherer Auflösung und/oder entsprechender Größe.
Unpfändbarkeit in Deutschland
Nach § 811 Abs. 1 Nr. 1 ZPO ist ein Fernsehgerät unpfändbar, und zwar auch dann, wenn daneben ein Hörfunkgerät vorhanden ist (BFH NJW 1990, 1871). Der Grund dafür liegt darin, dass dem Schuldner ohne Fernsehgerät die ihm grundrechtlich geschützte Möglichkeit genommen würde, sich aus allgemein zugänglichen Quellen über das Weltgeschehen zu informieren. Ausnahmen können jedoch im Rahmen der sogenannten Austauschpfändung auftreten.
Bekannte Hersteller von Fernsehgeräten
In den vergangenen Jahrzehnten verlagerte sich die Produktion von Fernsehgeräten zunehmend von Europa und Nordamerika nach Südostasien (insbesondere Südkorea und China). Selbst Unternehmen wie Philips, die noch ihren Sitz in Europa haben, lassen in China produzieren. So meldeten insbesondere eine Reihe deutscher Unternehmen Insolvenzen an.
Siehe auch
Geschichte des Fernsehens und Geschichte des Fernsehens in Deutschland
Taschenfernseher
Videokunst
Fernsehtechnik
Weblinks
Eine kleine Geschichte des Fernsehens bei Telepolis
Jahresarbeit Physik – Fernsehtechnik
Vom Einheitsempfänger bis zum Taschen-Farbfernseher: Fernseher und Farbfernseher aus der Anfangszeit des Fernsehens
Fernsehbilderzeugung mit 4 rotierenden Leuchtdiodenzeilen (232 LEDs pro Zeile), Video bei YouTube
Fernsehtechnik im Museum bei technikum29.de
Blockschaltbild eines Röhrenfernsehers
Blaupunkt-Toskana-De Luxe-110, Bilder eines Fernsehers von Anfang der 1960er Jahre, mit Innenansichten der Technik
Video-Beitrag: So funktionieren 3D-Fernseher
Video-Beitrag: Aktives und passives 3D-Fernsehen im Vergleich
Einzelnachweise
Unterhaltungselektronik
Elektronisches Gerät
|
Q8075
| 275.653378 |
2831025
|
https://de.wikipedia.org/wiki/Diskriminierung
|
Diskriminierung
|
Diskriminierung bezeichnet im allgemeinen Sprachgebrauch meist die herabsetzende Diskriminierung, d. h. die Benachteiligung oder Herabwürdigung von Gruppen oder einzelnen Personen nach Maßgabe bestimmter diskriminierender (d. h. Unterscheidungen vornehmender) Wertvorstellungen oder aufgrund unreflektierter, z. T. auch unbewusster Einstellungen, Vorurteile oder emotionaler Assoziationen.
In wertneutraler Bedeutung bezeichnet Diskriminierung die Trennung oder unterschiedliche Behandlung von Objekten. Diese Begriffsbedeutung wird in Fachsprachen außerhalb der Sozialwissenschaften verwendet. Siehe hierzu auch Diskrimination.
Definitionen
Begriffsgeschichte
Das Wort Diskriminierung stammt von dem aus dem lateinischen Verb discriminare „trennen, absondern, abgrenzen, unterscheiden“ im Spätlateinischen abgeleiteten Verbalsubstantiv discriminatio „Scheidung, Absonderung.“ Das Verb diskriminieren wurde im 16. Jahrhundert in der wertneutralen Bedeutung „unterscheiden, sondern, trennen“ ins Deutsche entlehnt und ist dort seit dem 19. Jahrhundert kontinuierlich belegt. Seit dem späten 20. Jahrhundert bedeutet es mit negativer Bewertung „jemanden herabsetzen, benachteiligen, zurücksetzen“, zunächst im politischen und dann vor allem im sozialen Bereich, während die ältere wertneutrale Bedeutung des Verbs nur noch fachsprachlich erscheint.
Das Verbalsubstantiv Diskriminierung ist im Deutschen seit dem frühen 20. Jahrhundert in der Bedeutung „Herabsetzung, Benachteiligung, Verunglimpfung“ etabliert, zunächst im Bereich der Wirtschaft (für handelspolitische und wirtschaftliche Diskriminierung) und dann auch für die Diskriminierung gesellschaftlicher Gruppen. In der wertneutralen Bedeutung „Unterscheidung“ ist auch Diskriminierung vereinzelt in fachsprachlichem Gebrauch anzutreffen.
Seit dem 19. Jahrhundert belegt ist als zweite Form der Entlehnung außerdem Diskrimination, das im fachsprachlichen Gebrauch seine wertfreie Bedeutung „Unterscheidung“ beibehalten hat, seit dem frühen 20. Jahrhundert aber auch in der Bedeutung von (gesellschaftlicher) Diskriminierung erscheint.
Die in der allgemeinen Erklärung der Menschenrechte von 1949 formulierte Definition gilt bis heute als dominant. Demnach ist Diskriminierung beschrieben als ein Verhalten, „das auf einer Unterscheidung basiert, die aufgrund natürlicher oder sozialer Kategorien getroffen wird, die weder zu den individuellen Fähigkeiten oder Verdiensten noch zum konkreten Verhalten der individuellen Person in Beziehung stehen.“
Die Soziologie untersucht gesellschaftliche Diskriminierung und differenziert hierbei unter anderem zwischen individueller, struktureller, institutioneller und sprachlicher Diskriminierung. In Abgrenzung gegen die sozialpsychologische Vorurteilsforschung geht es also um soziale Bedingungen und Ursachen, die nicht nur auf individuelle Einstellungen reduzierbar sind. In der Rechtswissenschaft ist der Begriff enger gefasst und bezieht sich nur auf die Differenzierung wegen bestimmter enumerativ aufgeführter Gründe. Soziologie und Rechtswissenschaft gebrauchen den Begriff also in normativer Weise.
Diskriminierung wurde in der Soziologie zunächst als Handlung verstanden. Von Diskriminierung könne man sprechen, wenn das individuelle Handeln erkennbare Folgen habe, welche eingetreten seien, „weil Akteure andere Akteure aufgrund wahrgenommener sozialer oder ethnischer Merkmale als ungleiche bzw. minderwertige Partner angesehen und, im Vergleich zu den Angehörigen des eigenen Kollektivs, entsprechend abwertend behandelt haben.“ Benachteiligt würden Menschen aufgrund ethnischer bzw. sozialer Zuschreibungen als Fremde und Minderheiten. Ihre Möglichkeiten werden im gesellschaftlichen Zusammenhang beschränkt und diese Beschränkung werde als eine „natürliche“ begründet und gerechtfertigt.
Der Täter der sozialen Diskriminierung wird auch Diskriminator genannt.
Ungleichbehandlung, Ungleichstellung, ungleiche Rechte
Soziale Ungleichheiten bzw. soziale Diskriminierungen aufgrund von Faktoren, welche vom Betroffenen beeinflussbar sind (Zugangsberechtigung zu Bildungseinrichtungen, Einkommenshöhe, soziales Verhalten), werden tendenziell eher akzeptiert bzw. toleriert als individuell nicht veränderbare Faktoren und Auslöser von Diskriminierungen (Ethnie, Geschlecht, Behinderung, Alter oder sexuelle Präferenzen). Eine hohe Akzeptanz gibt es auch für Bevorzugungen, die die Position anderer nicht verschlechtern (Beispiel: Erwachsene ohne Kinder werden nicht dadurch benachteiligt, dass Kinder ermäßigten oder freien Eintritt zu einer Einrichtung erhalten).
Generell gilt aber das, was etwa der Leitsatz des deutschen Bundesverfassungsgerichts über den Umgang mit dem Gleichheitsgrundsatz des Art. 3 GG ausdrückt: „Der allgemeine Gleichheitssatz des Art. 3 Abs. 1 GG gebietet dem Gesetzgeber, wesentlich Gleiches gleich und wesentlich Ungleiches ungleich zu behandeln.“ Die Gesetzgeber verwenden dazu die Begriffe Gleichbehandlung, Gleichstellung und Gleichberechtigung. So drückt das etwa der Artikel 7 des Bundes-Verfassungsgesetzes Österreichs aus, der besagt, dass alle Staatsbürger „vor dem Gesetz gleich“ seien und dass sich die öffentlichen Körperschaften „zur Gleichstellung von Mann und Frau“ zu bekennen haben und dazu, „Gleichbehandlung von behinderten und nichtbehinderten Menschen […] zu gewährleisten.“
Zu klären ist also immer, ob eine Ungleichheit „in der Natur der Sache liegt“ und folglich verschiedene rechtliche Regelungen erlaubt oder gar gebietet oder ob eine Regelung wesentlich Gleiches ungleich behandelt. Nicht jede Form von Ungleichbehandlung erfüllt das Begriffprofil der sozialen Diskriminierung. Einige Formen von Ungleichbehandlung sind nicht nur rechtlich geboten, sondern auch legitim.
So muss der im Wesentlichen gleichen Fähigkeit des Vaters und der Mutter eines Kindes, persönlich für ihr Kind zu sorgen, dadurch Rechnung getragen werden, dass auch Väter Elternschaftsurlaub in Anspruch nehmen können. Ungleichbehandlungen von Männern und Frauen (z. B. bei Pausenregelungen) wären nur durch spezifische Notwendigkeiten wie die, ein Kind zu stillen, zu rechtfertigen. Der Schutz bei Schwangerschaft und Geburt aber ist geboten.
Während die Geschlechter im Prinzip als unter gleichen Bedingungen gleichzustellend betrachtet werden (Gender-Mainstreaming), ist das bei Behinderten nicht so: Hier besteht ein Bekenntnis dazu, die Behinderung als Folge geringerer gesellschaftlicher Berücksichtigung von Ungleichem dadurch auszugleichen, dass trotz unterschiedlicher Voraussetzung jeder die gleichen Möglichkeiten zur Teilhabe haben sollte (Disability Mainstreaming, Universelles Design, Nachteilsausgleich).
Die Unterscheidung zwischen Menschenrechten und Bürgerrechten: Die ungleichen Rechte von Staatsbürgern und Nicht-Staatsbürgern sind keine Diskriminierung, solange sie keine zwischenstaatlichen Abkommen verletzen, insbesondere die Forderungen über die grundlegenden Menschenrechte, zu denen sich die meisten Staaten der Erde mit der Unterschrift zur Menschenrechtserklärung bekannt haben.
Rechtliche Bestimmungen über eingeschränkte Rechte Minderjähriger (Grund: mangelnde Reife, Schutzbedürftigkeit, politische Kontrolle)
Ungleichbehandlungen dürfen in Deutschland aufgrund des Grundgesetz nur vorgenommen werden, wenn
mit ihnen ein legitimer Zweck verfolgt wird
die Ungleichbehandlung zur Erreichung des vom Gesetzgeber verfolgten Zwecks geeignet ist, also den angestrebten Zweck fördert
sie erforderlich sind (es darf also kein milderes Mittel geben, mit dem sich gleichermaßen effektiv der Zweck erreichen ließe)
das Gebot der Verhältnismäßigkeit beachtet wird, das heißt, wenn Maß und Gewicht der tatsächlichen Ungleichheit bzw. des mit der Ungleichbehandlung verfolgten Zwecks in einem angemessenen Verhältnis zum Maß und Gewicht der rechtlichen Ungleichbehandlung stehen.
Weiterhin wurde zwischen „negativer“ (benachteiligender) und „positiver“ (begünstigender) Diskriminierung unterschieden (siehe unten im Abschnitt positive Diskriminierung). Nach Karl-Heinz Hillmann erhält die soziale Diskriminierung als Benachteiligung ihre soziale Relevanz erst unter Bezug auf die in einer Gesellschaft postulierten spezifischen Gleichheits- bzw. Gleichbehandlungsgrundsätze. Demnach muss immer unterschieden werden zwischen illegitimer, normativ unzulässiger Diskriminierung und sozial legitimer Ungleichbehandlung.
Auch eine Gleichbehandlung verschiedener Gruppen, die die Ungleichheit der Lebensverhältnisse nicht berücksichtigt, kann als Diskriminierung bewertet werden. So kritisiert Anatole France Normen, die „ohne Ansehen der Person“ gelten, indem er von der „majestätischen Gleichheit des Gesetzes, das Reichen wie Armen verbietet, unter Brücken zu schlafen, auf den Straßen zu betteln und Brot zu stehlen“, spricht.
Diskriminierungstheorie (Soziologie)
Soziale Diskriminierung
Soziale Diskriminierung im engeren Sinne ist (nach Wagner u. a. 1990) die rein kategorische Benachteiligung von Personen aufgrund einer (meist negativen) Beurteilung.
Bewertung und Kategorisierung
Ausgangspunkt jeder Diskriminierung ist eine Bewertung von Lebewesen anhand von tatsächlichen oder zugeschriebenen gruppenspezifischen Merkmalen. Beispiele hierfür sind:
Abstammung („Rasse“), Hautfarbe oder Ethnie, nationale oder geografische Herkunft (Fremdenfeindlichkeit, Rassismus, Antisemitismus, Antiziganismus, übersteigerter Nationalismus, Chauvinismus, Regionalismus)
Geburt, soziale Herkunft (Klassismus) oder wirtschaftliche Verhältnisse
Sprache (Linguizismus)
Alter (Altersdiskriminierung)
Geschlecht (Sexismus, Transphobie)
Religion (Religiöse Verfolgung, Christenverfolgung, Judenfeindlichkeit, Islamophobie)
politische oder sonstige Überzeugung (politische Verfolgung, Diskriminierung von Atheisten und Agnostikern)
sexuelle Orientierung (Heterosexismus, Homophobie)
körperliche oder geistige Fähigkeiten und körperliches Erscheinungsbild (Ableism, Behindertenfeindlichkeit, Lookism, Audismus)
In Diskursen zur Tierethik wird der Speziesismus ebenfalls als Diskriminierung gegenüber Tieren bezeichnet.
Nach der Bewertung als Teil einer Kategorie werden die „Personen unter Absehung von ihren je besonderen Eigenschaften, Interessen und Verdiensten auf bloße Vertreter einer Kategorie reduziert“.
Diskriminierungstheorien wie die Triple-Oppression-Theorie oder die Intersektionalitätsforschung gehen davon aus, dass sich verschiedene Diskriminierungsformen überschneiden und verstärken bzw. in ihren Überschneidungen zu ganz neuen Diskriminierungen führen. Das Bielefelder Forschungsprojekt Gruppenbezogene Menschenfeindlichkeit geht davon aus, dass die verschiedenen Diskriminierungsformen ein Syndrom bilden, dem eine generalisierte Ideologie der Ungleichwertigkeit zugrunde liegt.
Bewertungsmaßstab können gesellschaftliche Normen einer Mehrheitsgesellschaft sein, die durch eine bewusste Entscheidung oder durch eine gesellschaftliche Entwicklung vorgegeben sind. Sie definiert den Standard, dem eine Person vermeintlich zu entsprechen hat. Als Norm einer Mehrheitsgesellschaft kann zum Beispiel „weiß, deutsch, männlich, heterosexuell, gesund, leistungsfähig, christlich“ gelten. Gegenstand von benachteiligender Diskriminierung sind deshalb meist gesellschaftliche Minderheiten. Aber auch Mehrheiten oder zahlenmäßig gleich stark vertretene Bevölkerungsanteile, wie beispielsweise Frauen in patriarchalen Gesellschaften, kolonisierte Bevölkerungsgruppen, benachteiligte Schichten in Klassengesellschaften oder Schwarze in Apartheidregimes, können diskriminierte Gruppen darstellen.
Ansatzpunkt für Diskriminierungen können auch Verhaltensweisen sein, auf die derjenige, der sie (regelmäßig) ausübt, fixiert wird. So wird z. B. jemand, der regelmäßig raucht, sprachlich zum Mitglied der sozialen Gruppe der „Raucher“. Auch solche Gruppen können zum Objekt einer gruppenspezifischen Diskriminierung (hier: einer „Raucherdiskriminierung“) werden. Eine Qualifizierung der Sanktionierung verbotenen Verhaltens (bis hin zur Strafverfolgung) als „Diskriminierung“ setzt allerdings voraus, dass die entsprechenden Verbote illegitim und rechtsstaatswidrig sind. Im Allgemeinen stellen Maßnahmen der Strafverfolgung keine Form der Diskriminierung dar.
Oftmals wird der Diagnose, wonach bestimmte Verhältnisse oder Verhaltensweisen „diskriminierend“ seien, entgegengehalten, diese Diagnose sei Ausdruck von „Sozialneid“.
Benachteiligung
Benachteiligungen können auf allen Ebenen des Lebens stattfinden, insbesondere in den Bereichen Wohnen, Arbeit (z. B. Berufsausübung, Entgelt), Recht (z. B. Freizügigkeit), Versorgung (z. B. Gesundheit), Bürokratie, Öffentlichkeit, Freizeit (z. B. Sport) und im Privatbereich.
Eine soziale Diskriminierung kann in vielen Erscheinungsformen auftreten. So unterscheidet man in der wissenschaftlichen und politischen Diskussion vor allem die
bewusste von der unbewussten Diskriminierung
unmittelbare und mittelbare Diskriminierung
individuelle, strukturelle und institutionelle Diskriminierung
Individuelle Diskriminierung
Individuelle Diskriminierungen (z. B. nach „schön“ und „hässlich“, oder „nahe-“ und „fernstehend“) werden in verschiedenen Theorieansätzen bei jedem sozialen Akteur als nie gänzlich zu vermeidende Verhaltensmuster vorausgesetzt. Individuelle Diskriminierung kann im Zusammenhang mit struktureller oder institutioneller Diskriminierung erfolgen und bewusst oder unbewusst ausgeübt werden. Hier wird allgemein zwischen Vorurteil, Stereotyp und konkreter Diskriminierung unterschieden. Gegenüber Personen, die zu bestimmten Gruppen gezählt werden, bezeichnen
Stereotype: hauptsächlich generalisierte Überzeugungen und Meinungen
Vorurteile: darüber hinaus auch allgemeine Bewertungen, gefühlsmäßige Reaktionen und Verhaltensdispositionen
individuelle Diskriminierungen: konkrete Handlungen und Verhaltensweisen durch einzelne Personen
Die Ermittlung diskriminierender Einstellungen findet mittels der Vorurteilsforschung statt.
Strukturelle Diskriminierung
Strukturelle Diskriminierung ist die Diskriminierung gesellschaftlicher Teilgruppen, die in der Beschaffenheit der Struktur der Gesamtgesellschaft begründet liegen. Sie ist nicht klar auf bestimmte Institutionen zurückzuführen und verdichtet sich durch Vorurteile, Benachteiligung und Ausgrenzung im Alltag. So sind in einer patriarchal strukturierten Gesellschaft Frauen strukturell diskriminiert, Männer hingegen nur durch individuelle Stereotypen oder einzelne Institutionen. Strukturelle Diskriminierung ist zu unterscheiden von der institutionellen Diskriminierung.
Thematisch verwandte Fragen zu Struktureller Diskriminierung behandeln Forschungen zur gesellschaftlichen Hegemonie (Antonio Gramsci) oder zur Dominanzgesellschaft (Birgit Rommelspacher).
Abgrenzung Struktureller Diskriminierung von Unterdrückung Abzugrenzen von der Strukturellen Diskriminierung ist die Soziale Unterdrückung. Eine gängige Definition von Unterdrückung findet sich bei Iris Marion Young, die fünf Aspekte von Unterdrückung auflistet:
Ausbeutung
Kulturimperialismus
Marginalisierung
Machtlosigkeit
Gewalt
Unterdrückung beinhaltet nach Young ein gewaltsames „Niederhalten“ der benachteiligten Gruppe und geht oftmals mit Ausbeutung einher. Ein Aufbegehren gegen Unterdrückung wird mit gewaltsamen Repressionen rechnen müssen. Während das, was Young als Kulturimperialismus bezeichnet, sowie die Marginalisierung und Machtlosigkeit durchaus auch zur Diskriminierung zählen, muss Diskriminierung nicht mit Ausbeutung und Gewalt verknüpft sein.
Institutionelle Diskriminierung
Institutionelle Diskriminierung bezeichnet Praktiken der Herabsetzung, Benachteiligung und Ausgrenzung, die von organisatorischem Handeln von Institutionen ausgehen. Dieses findet häufig in einem Netzwerk gesellschaftlicher Institutionen, beispielsweise im Bildungs- und Ausbildungssektor, dem Arbeitsmarkt, der Wohnungs- und Stadtentwicklungspolitik, dem Gesundheitswesen oder der Polizei statt. Historisch geht der Begriff der institutionellen Diskriminierung auf die Diskussion zum Institutionellen Rassismus in den USA und in Großbritannien zurück. Im Gegensatz zur strukturellen ist die institutionelle Diskriminierung nicht gesamtgesellschaftlich präsent, kann aber Teil der ersteren sein.
Ein wesentlicher Bestandteil der institutionellen Diskriminierung ist die ökonomische Diskriminierung. Individuen gelten dann als ökonomisch diskriminiert, „wenn sie bei wirtschaftlichen Transaktionen mit Gegenleistungen konfrontiert werden, welche sich an persönlichen Merkmalen bemessen, die nicht in direktem Zusammenhang mit der Leistung stehen“. Eine ökonomische Diskriminierung findet insbesondere auf dem Arbeitsmarkt, dem Kreditmarkt, dem Versicherungsmarkt und dem Wohnungsmarkt statt und äußert sich häufig in einer Lohn- und Einkommensdiskriminierung.
Symbolische Diskriminierung
Birgit Rommelspacher betont den Aspekt der Symbolischen Diskriminierung. Zwar werde oftmals betont, dass die diskriminierte Gruppe im Vergleich zur privilegierten Gruppe „weniger Lebenschancen, das heißt weniger Zugang zu Ressourcen und weniger Chancen zur Teilhabe an der Gesellschaft habe.“ Aber Diskriminierung findet auch auf der symbolischen Ebene statt. Hierher gehört beispielsweise als eine der von Berit Ås festgestellten fünf Herrschaftstechniken das Unsichtbarmachen diskriminierter Gruppen. Auch Axel Honneth betont den Aspekt der Unsichtbarkeit. Allgemein sieht er auf der Anerkennungsebene die Persönlichkeitskomponenten
der persönlichen Integrität durch Vergewaltigung und Misshandlung
der sozialen Integrität durch Entrechtung und Ausschließung und
der Würde durch Entwürdigung und Beleidigung
bedroht.
Pierre Bourdieu betrachtet Phänomene symbolischer Diskriminierung unter dem Blickwinkel symbolischer Gewalt.
Sprachliche Diskriminierung
Diskriminierung mittels Sprache
Unter sprachlicher Diskriminierung, wie sie bereits für das Mittelalter nachweisbar ist, wird jene Form des Sprachgebrauchs verstanden, bei der andere Personen oder Gruppen von einzelnen Personen oder Gruppen bewusst oder unbewusst verbal herabgesetzt, abgewertet, beleidigt oder angegriffen werden. Sprachlich diskriminiert werden kann man
auf der Wort- oder Begriffsebene durch die Verwendung von Namen, Bezeichnungen und Begriffen, welche Geringschätzung zum Ausdruck bringen;
auf der Satz- und Textebene durch die Verwendung historisch belasteter Phrasen, Stereotype und Vorurteile;
auf der Ebene des Agenda-Settings einerseits dadurch, dass an sich unbedenkliche, Menschen unterscheidende Bezeichnungen in negativen Kontexten erwähnt werden, obwohl diese Bezeichnungen nichts zur Erklärung der jeweiligen Situation beitragen; dies gilt insbesondere für Berichte über Straftaten. Unangemessenes Agenda-Setting liegt andererseits auch beim traditionellen Umgang mit dem Begriffspaar „Frau“/„Fräulein“ vor, da dieser Sprachgebrauch nur bei weiblichen, nicht aber bei männlichen Personen den Familienstand automatisch thematisiert.
Eine sprachliche Kategorisierung von Menschen allein stellt noch keine Diskriminierung dar. Sie kann aber dazu werden, wenn die zugeschriebene Kategorie mit so geringem sozialem Prestige verbunden ist, dass eine Gleichbehandlung von vornherein ausgeschlossen ist. Untersuchungen über abwertende Urteile aufgrund ethnischer Merkmale (Ethnophaulismen) haben gezeigt, dass mit steigendem sozialen Abstand der ethnischen Gruppen die Zahl der verschiedenen Schimpfnamen gegenüber der unteren Gruppe zunehmen. Oftmals dienten diese Ethnophaulismen („Nigger“, „Spaghettifresser“, …) dazu, vergangene und bestehende Ungerechtigkeiten zu rechtfertigen.
Sprach- und Kulturwissenschaftler weisen auf den verletzenden Charakter diskriminierender Begriffe und Sprachweisen, wie die Benutzung des rassistisch und kolonialistisch geprägten Wortes Neger, hin. Viktor Klemperer verweist darauf, dass Wörter wie „Arsen wirken“ können.
Ob bestimmte Begriffe diskriminierend gemeint sind, kann durch Methoden der Linguistik objektiviert werden (Beispiel: die Bedeutungsverschlechterung des Wortes „Weib“, das erst seit dem 19. Jahrhundert als Beleidigung empfunden wird). In der Gegenwart sind Methoden der Sprachstatistik geeignet, über die pragmatische Verwendung von Begriffen empirisch Auskunft zu geben. Ein konkretes Beispiel für diese Methode stellt die Untersuchung zum Gebrauch des Wortes „Fräulein“ in der „Süddeutschen Zeitung“ in den Jahren 1995–2005 durch Okamura Saburo dar, der nachweist, dass nicht jeder Gebrauch des Wortes „Fräulein“ in der Gegenwart Ausdruck von Sexismus sei. Zugleich hilft Saburos Analyse, eindeutig diskriminierende Absichten von Sprechern und Schreibern nachzuweisen.
Diskriminierung aufgrund der Sprache
Die politische Diskriminierung von Gruppen aufgrund ihrer sprachlichen Eigenheiten bzw. Besonderheiten (siehe Ethnolekt, Pidgin-Sprachen, pejorativ auch als Radebrechen bezeichnet) wird in Anlehnung an das Englische Linguizismus genannt. Betroffen davon erweisen sich nicht nur ohnehin marginalisierte Sprachminderheiten. Vielmehr nehmen bestimmte Sprachgebiete und -kulturen fremde wachsende Sprachmehrheiten als bedrohlich wahr wie gegenwärtig etwa allgemein verbreitet das Englische im Zuge der Amerikanisierung. Diesen sucht man etwa durch Maßnahmen wie gesetzliche Radioquoten entgegenzutreten.
Diskriminierung in Deutschland:
Hannoverismus: Innerhalb der deutschen Sprachgemeinschaft in Deutschland spielt diese sprachliche Ideologie zweifellos eine herausragende Rolle. Der Hannoverismus besagt, dass das beste Hochdeutsch in Norddeutschland, insbesondere in und um Hannover, gesprochen wird. Sie hat eine grundlegende Bedeutung bei der Bewertung des Sprachgebrauchs unter sprachlichen Laien in Deutschland. Von besonderer Bedeutung aus der Sicht professioneller Sprachwissenschaftler ist die Tatsache, dass der linguistische Hannoverismus auch von Menschen unterstützt wird, die möglicherweise nie in Hannover waren oder einen Hannoveraner sprechen gehört haben. Ironischerweise wird diese Ideologie sogar von Menschen im Süden Deutschlands vertreten, deren Sprachgebrauch gerade im Rahmen dieser Ideologie als minderwertig bewertet und stigmatisiert wird. Es gibt explizite und implizite sprachliche Ideologien. Im expliziten Fall werden sie bewusst ausgedrückt und treten beispielsweise in Form von Behauptungen auf sprachlicher Ebene in Erscheinung. Im impliziten Fall sind sie entweder versteckt zwischen den Zeilen und werden durch Implikaturen hinter metasprachlichen Aussagen erkennbar oder sie ergeben sich aus dem, was bewusst nicht gesagt wird, aber dennoch ausgedrückt werden könnte. Implizite Sprachideologien sind daher nicht unmittelbar für den Beobachter zugänglich, oft sind sie nicht einmal denen bewusst, die sie vertreten.
Homogenismus: Es besteht eine Tendenz, von mehreren Varianten einer sprachlichen Variable nur eine als richtig zu akzeptieren, normalerweise diejenige, die dem schriftlichen oder formalen Sprachgebrauch einer norddeutschen Bildungselite entspricht. Auf diese Weise fungieren sprachliche Ideologien als latent wirkende Instrumente der Macht, die als "naturalisierte Macht, als Macht, die nicht mehr wie Macht aussieht", beschrieben werden. In der deutschen Sprachgemeinschaft ist beispielsweise die Ideologie des Standardismus stark präsent. Das Erlernen und die Verwendung einer homogenen Standardsprache werden in der Regel als gemeinsames Interesse aller Sprecherinnen und Sprecher des Deutschen dargestellt. Es besteht der Verdacht, dass der Standardismus weniger dem Gemeinwohl dient, sondern eher den Interessen bestimmter gesellschaftlicher Gruppen, die am Erhalt des Status quo interessiert sind. Dies kann darauf zurückzuführen sein, dass sie die sprachliche Vielfalt als problematisch empfinden und/oder ihren eigenen Sprachgebrauch an den Standard anpassen, um soziale Privilegien zu genießen.
Diskriminierungstheorie (Sozialpsychologie)
Erklärung des Verhaltens von Diskriminatoren
Streben nach einer positiven sozialen Identität
Die Theorie der sozialen Identität von Tajfel und Turner beschreibt stattfindende psychologische Prozesse, durch die ein Individuum seine soziale Identität gewinnt. Die soziale Identität umfasst den Teil des Selbstkonzepts, der aus der Identifikation mit einer oder mehreren Gruppen resultiert, also die aus Gruppenzugehörigkeiten resultierenden Vorstellungen, wer oder was man ist. Die soziale Identität resultiert jedoch nicht allein aus der Identifikation mit einer oder mehrerer Gruppen, sondern auch aus der Bewertung dieser Gruppen infolge des Vergleichs mit anderen Gruppen. Die Diskriminierung kann dann durch das Bedürfnis nach einer positiven sozialen Identität bedingt werden. Um eine positive soziale Identität zu erreichen:
vergleicht man sich hinsichtlich der Dimensionen, bei denen die Mitglieder der Eigengruppe besser abschneiden als die der Fremdgruppe;
werden die Mitglieder der Eigengruppe hinsichtlich relevanter Vergleichsmerkmale tendenziell positiver wahrgenommen als die der Fremdgruppe.
Die tendenziell positivere Wahrnehmung kann durch eine selektive Informationsverarbeitung zustande kommen: Man schenkt Informationen, die die Eigengruppe positiv, und solchen, die die Fremdgruppe negativ darstellen, besonders viel Aufmerksamkeit (selektive Wahrnehmung). Es erfolgt eine Abgrenzung (Othering) von der Fremdgruppe und damit die Aufwertung der Eigengruppe. Diese vermeintlich legitimierte Hierarchie zwischen Eigengruppe und Fremdgruppe führt zu einer Rechtfertigung für Benachteiligung und Diskriminierung der Fremdgruppe.
Im Sinne der Verfügbarkeitsheuristik nach Tversky und Kahneman überschätzt man dann positive Eigenschaften der Eigengruppe und negative der Fremdgruppe aufgrund der besseren Verfügbarkeit entsprechender Informationen. Es wirken also mannigfaltige motivationale und kognitive Prozesse zusammen, die zu einer negativeren Wahrnehmung der Fremdgruppe führen. Neben den genannten dürften noch eine Vielzahl weiterer psychologischer Prozesse an dem Zustandekommen von Diskriminierung beteiligt sein, z. B. die im Folgenden kurz angesprochenen Vorurteile gegenüber Mitgliedern anderer Gruppen, etwa anderer ethnischer Gruppen.
Sicherung von Ressourcen / Dominanzorientierung
Diskriminierung dient als Mechanismus, um Angehörige der Fremdgruppe grundsätzlich von der eigenen Gruppe zu unterscheiden und als ungleichwertig darzustellen. Durch die damit begründete Legitimation von Ungleichbehandlung sichert sich die Eigengruppe Privilegien und Ressourcen und verweigert eine gerechte Teilung dieser (vgl. Theorie des realistischen Gruppenkonflikts nach LeVine und Campbell und Soziale Dominanztheorie nach Sidanius und Pratto), selbst wenn kein Ressourcenmangel vorliegt.
Autoritärer Charakter
Menschen die die Persönlichkeitseigenschaften eines autoritären Charakters besitzen, sich also aufgrund ihrer Sozialisation bzw. Erziehung an Macht- und Dominanzkonstellationen orientieren, anderen Menschen eher misstrauen und an Konventionen festhalten, neigen stärker zu diskriminierendem Verhalten bzw. sehen Diskriminierungen als legitim und gerechtfertigt an.
Ethnische Vorurteile
Das Verhältnis zwischen Haltungen und Vorurteilen sowie Verhalten, wie z. B. Diskriminierung,
ist komplex. Obwohl davon ausgegangen werden kann, dass ein kausaler Zusammenhang zwischen Haltung und Verhalten besteht und sich aus Vorurteilen meist eine allgemeine Tendenz zu diskriminierendem Verhalten ergibt, kann im Einzelfall jedoch kein Rückschluss bezüglich einer konkreten Handlung und eines entsprechenden Vorurteils gezogen werden.
Das Ausmaß des Einflusses von Vorurteilen hängt von den verschiedensten Ursachen ab, wie familiäre Sozialisation, Cliquensozialisation, Ausmaß an Kontakten mit Ausländern, Alter, Bildungsgrad, Geschlechtsmerkmale, Autoritarismusneigung, Dominanzorientierung, Nationalstolz, soziale relative Deprivation, Intergruppenangst.
Das Ausmaß an Kontakten mit Ausländern verdient eine besondere Betrachtung, da dies auch einen der Interventionsansätze betrifft, um ethnische Vorurteile abzubauen. Beispielsweise konnten Rolf van Dick und Kollegen zeigen, dass Vorurteile gegenüber Ausländern mit dem Ausmaß an Kontakterfahrungen negativ korrelieren. Mithilfe von Pfadanalysen konnten van Dick und Kollegen zeigen, dass der Einfluss der Kontakterfahrungen auf das Ausmaß an Vorurteilen stärker ist als der Einfluss von Vorurteilen auf die Anzahl der Kontakte. Dies deutet darauf hin, dass es hier eine kausale Wirkrichtung von den Kontakterfahrungen auf das Ausmaß an Vorurteilen geben könnte.
Diese empirischen Erkenntnisse stehen in guter Übereinstimmung mit dem Prinzip der Dekategorisierung durch Personalisierung nach Brewer und Miller (1984). Durch direkte Kontakte bewegen sich die Selbstkategorisierungsprozesse von der Gruppenebene hinab auf die personale Ebene, weshalb die entsprechende Person nicht mehr als gleichförmiges und austauschbares Gruppenmitglied gesehen wird, sondern als unverwechselbares Individuum mit einzigartigen Merkmalen. Vorurteile können auf diese Weise widerlegt werden und sollten demnach auch abnehmen. Vergleichbares vertritt Gordon Allport mittels seiner Kontakthypothese.
Diskriminierungen im Kontext von Marktwirtschaften
Exklusion und Diskriminierung als unverzichtbare Instrumente des Wirtschaftsprozesses
In der Wirtschaftswissenschaft werden die Begriffe „(Preis-)Diskriminierung“ und „(Preis-)Differenzierung“ weitgehend wie Synonyme behandelt und beschreiben den Vorgang, dass je nach Zahlungsbereitschaft unterschiedliche Preise von den Kunden verlangt werden. Dem Begriff „Diskriminierung“ fehlt hier also weitgehend die Konnotation „ungerecht, illegitim, unzulässig“. Preisdiskriminierung wird als Synonym für Preisdifferenzierung aufgefasst.
Kritiker der Marktwirtschaft werfen dieser vor, sie sei schon von ihrer Konstruktion her „institutionalisierte Diskriminierung“, da bei steigenden Preisen systematisch Menschen mit geringer Kaufkraft ausgesondert würden, bei sinkenden Preisen hingegen viele kleine Anbieter ihre Existenzgrundlage verlören. Verfechter der Marktwirtschaft wie Adam Smith, der „geistige Vater“ des Liberalismus, meinen hingegen, dass eine Wirtschaftsordnung, die auf Altruismus statt auf Egoismus aufgebaut sei, nicht zu allgemeinem Wohlstand führen könne. Aus der ständigen ökonomischen Knappheit in einer Volkswirtschaft bzw. der Weltwirtschaft folgt zwangsläufig eine Diskriminierung des Zugangs von Einzelnen und Gruppen zu den verfügbaren Ressourcen. Ob diese Unterscheidungen herabsetzend für die „Ausgesonderten“ bzw. „gerecht“ sind, kann explikativ nicht entschieden werden und nur bei Einführung expliziter Wertvorstellungen diskutiert werden. Der normative auf Wertungen und Politikempfehlungen zielende Ansatz stellt das „Wünschenswerte“ oder „Unerwünschte“ in den Vordergrund. Der Einführung „normativer Ansätze“ in den marktwirtschaftlichen Prozess können sich Wirtschaftssubjekte vor allem dann nicht entziehen, wenn sie durch den Staat (in Form von Gesetzen, Erlassen, Verordnungen, Verfügungen, Gerichtsurteilen usw.) oder in Form von „Neidreaktionen“ (d. h. des gezielten Boykotts „ungerecht handelnder“ Anbieter durch Konsumenten) ins Spiel gebracht werden.
In der Versicherungswirtschaft wird die Differenzierung nach Risiken Prämiendifferenzierung genannt. Diese steht wiederum im konfliktbeladenen Zusammenhang mit der Antidiskriminierungsgesetzgebung (Allgemeines Gleichbehandlungsgesetz). Stehen diese Risiken mathematisch nachweisbar in einem Zusammenhang mit dem Differenzierungsmerkmal, nach dem die Tarife strukturiert sind, so ist eine Bevorzugung oder Benachteiligung auch sachlich begründet und daher keine unsachliche „Diskriminierung“ im rechtlichen-soziologischen Sinne.
Diskriminierungstheorie (Wirtschaftswissenschaft)
Oftmals wird die These, eine bestimmte soziale Gruppe werde unzulässig diskriminiert, von den (angeblichen) Diskriminatoren zurückgewiesen. So erklärt die Bundesvereinigung der Deutschen Arbeitgeberverbände in einer Studie 2015, dass in Deutschland Frauen durchschnittlich 14,62 €, Männer aber 18,81 € in der Stunde verdienen (Stand 2010), sei nicht Ausdruck einer unzulässigen Diskriminierung von Frauen aufgrund ihres Geschlechts. Denn „[e]s wäre […] ökonomisch unsinnig, Männern bei gleicher Arbeit mehr zu zahlen als Frauen.“ Lediglich ein kleiner Teil der Differenz in Höhe von 4,19 € sei nicht auf Qualifikationsdefizite und ähnliche Faktoren zurückzuführen, die eine Ungleichbehandlung rechtfertigten.
Zugegebenermaßen problematische Ungleichbehandlungen von Wirtschaftssubjekten werden in der Wirtschaftswissenschaft mit Hilfe des Präferenzmodells und der Theorie der statistischen Diskriminierung erklärt. Das Präferenzmodell als prominentestes Beispiel der neoklassischen Diskriminierungstheorien geht davon aus, dass sich Lohndifferenziale zwischen Arbeitnehmergruppen aus der Vorliebe von Unternehmern für bestimmte Gruppen und aus dem Vorurteil von Unternehmern gegen bestimmte Gruppen erklären lassen. Problematisch seien derartige Präferenzen aus wirtschaftswissenschaftlicher Sicht aber nur dann, wenn sie die Optimierung der Umsätze und Gewinne beeinträchtigten.
Im Modell der statistischen Diskriminierung verfügen Unternehmer nur über unvollständige Informationen über die Produktivität einzelner Arbeitnehmer bzw. über die Zahlungsfähigkeit bzw. -bereitschaft einzelner Kunden. Sie verwenden deshalb repräsentative, sozialstatistische Merkmale von Gruppen (z. B. Nationalität, Alter, Geschlecht, Qualifikationsniveau) zur wahrscheinlichkeitstheoretischen Einschätzung der Eigenschaften von Gruppenmitgliedern. Gruppenmerkmale wirken damit unabhängig von ihren tatsächlichen individuellen Ausprägungen als Kosten sparende Indikatoren für die zu erwartende Produktivität des Arbeitnehmers bzw. die Zahlungsfähigkeit und -bereitschaft von Kunden. Arbeitnehmer, deren tatsächliche Produktivität über (bzw. unter) der angenommenen liegt, erhalten einen „zu geringen“ (bzw. „zu hohen“) Lohn, und ältere Menschen erhalten Kredite nur zu relativ hohen Zinsen, wenn bei ihnen „der Einfachheit halber“ pauschal angenommen wird, sie hätten eine relativ schlechte Bonität. Das Modell der statistischen Diskriminierung wurde Anfang der 1970er Jahre von Kenneth Arrow und Edmund Phelps entwickelt.
Politik und Recht
Der Begriff wird auf den Sprachebenen der Politik und des Verfassungsrechts auch normativ verwandt.
Politik
Auf der politischen Ebene wird die politisch nicht gewollte Ungleichbehandlung von Menschen aufgrund von Gruppenmerkmalen von Interessenvertretern kritisiert und mindestens eine Gleichberechtigung, oft auch eine Gleichstellung verlangt. Dies ist vergleichbar mit der Kritik an sozialer Ungerechtigkeit bestimmter Regelungen des Familienrechts, der Besoldungsstruktur oder der Steuergesetzgebung. Die Effektivität der Berufung auf eine soziale Diskriminierung erweist sich durch den Erfolg, den die jeweilige Gruppe auf die Gesetzgebung hat. Ein erfolgreiches Beispiel für solche Gesetzgebung war der Civil Rights Act von 1964. Hierbei hatten sich Lobbyisten für Afroamerikaner unter Einsatz des eigenen Lebens so erfolgreich engagiert, dass sie letztendlich ihr eigenes Interesse an erhöhter gesellschaftlicher Teilhabe (Bildung, Wahlen etc.) gegenüber dem Interesse der Gegner des Civil Rights Act durchsetzen konnten.
Recht
Diskriminierungstheorie (Rechtswissenschaft)
In der Rechtswissenschaft meint Diskriminierung eine Ungleichbehandlung, die ohne einen rechtfertigenden sachlichen Grund erfolgt. Eine rechtlich gewollte, bevorzugte Behandlung wird hingegen Privilegierung genannt. Jede Ungleichbehandlung, die – egal ob sozial gewollt oder nicht – von den Gleichbehandlungsgesetzen, die bestimmte Gründe als nicht rechtfertigend einordnen, nicht erfasst ist, stellt in der Rechtswissenschaft keine soziale Diskriminierung dar, sondern nur eine Ungleichbehandlung.
Weltweit gültiges Recht
Von Anfang an stellten die Vereinten Nationen den Kampf gegen soziale Diskriminierung an die Spitze ihrer menschenrechtlichen Aktivitäten.
Von ihrer Seite existieren das soziale Diskriminierungsverbot Art. 26 UN-Pakt III, das Internationale Übereinkommen zur Beseitigung jeder Form von Rassendiskriminierung von 1966, das Übereinkommen zur Beseitigung jeder Form von Diskriminierung der Frau von 1979, und die Erklärung über die Beseitigung aller Formen von Intoleranz und Diskriminierung der Religion oder der Überzeugung von 1981.
Für die Mitgliedsstaaten des Europarates gültiges Recht
Die Europäische Menschenrechtskonvention enthält in Artikel 14 ein Diskriminierungsverbot.
Nach des AEU-Vertrags ist jede Diskriminierung Staatsangehöriger der Mitgliedstaaten auf Grund deren Staatsangehörigkeit verboten. Zur Ausgestaltung dieser Norm wurden unter anderem EG-Richtlinien, wie Richtlinie 2000/43/EG des Rates vom 29. Juni 2000 zur Anwendung des Gleichbehandlungsgrundsatzes ohne Unterschied der Rasse oder der ethnischen Herkunft (ABl. EG Nr. L 180, S. 22) sowie die Richtlinie 2000/78/EG des Rates vom 27. November 2000, welche einen allgemeinen Rahmen für die Verwirklichung der Gleichbehandlung in Beschäftigung und Beruf festlegen, erlassen.
Für die Mitgliedsstaaten der Europäischen Union gültiges Recht
Im europäischen Gemeinschaftsrecht stellt Diskriminierung wegen enumerativ aufgeführter Merkmale das Gegenteil von Gleichbehandlung dar. Es wird zwischen unmittelbarer und mittelbarer Diskriminierung unterschieden. Hier wird Diskriminierung synonym mit Ungleichbehandlung verwandt, diese umfasst jedoch auch die ungerechtfertigte Gleichbehandlung: „Eine Ungleichbehandlung kann dadurch hervorgerufen werden, dass unterschiedliche Regeln auf vergleichbare Situationen oder gleiche Regeln auf unterschiedliche Situationen angewandt werden.“ Eine unmittelbare Diskriminierung liegt vor, wenn eine Person wegen eines genannten Grundes in einer vergleichbaren Situation eine weniger günstige Behandlung erfährt. Eine mittelbare Diskriminierung findet statt, wenn ein scheinbar neutrales Kriterium oder eine scheinbar neutrale Praxis einer Vorschrift Menschen, die eine bestimmte Religion oder Weltanschauung haben, eine besondere Behinderung aufweisen, ein bestimmtes Alter haben oder eine besondere sexuelle Orientierung zeigen, im Vergleich mit anderen Personen einer besonderen Benachteiligung aussetzt.
Nach einer Definition der Europäischen Union liegt eine mittelbare Diskriminierung vor,
„wenn dem Anschein nach neutrale Vorschriften, Kriterien oder Verfahren bestimmte Personen aufgrund ihrer Rasse oder ethnischen Herkunft, ihrer Religion oder Weltanschauung, einer Behinderung, ihres Alters oder ihrer sexuellen Ausrichtung in besonderer Weise benachteiligen können […]“.
Deutsches Recht
Auf verfassungsrechtlicher Ebene hat der Begriff einen individualistischen Sinn und bezieht sich auf eine gerichtsfähige, angebliche oder wirkliche Ungleichheit unter Berufung auf die Grundrechte, insbesondere Art. 3 Absatz 3 GG. Dabei ist zu berücksichtigen, dass in erster Linie Staatsorgane die Adressaten verfassungsrechtlicher Willkürverbote sind. Die Zulässigkeit von Eingriffen in die Vertragsfreiheit privater Wirtschaftssubjekte (insbesondere die Zulässigkeit der rechtlichen Bewertung ihrer Präferenzen) wird strittig diskutiert.
Eine häufig verwandte Strategie bei der Verwendung des Begriffs macht sich die Vermischung der normativen und der sachlich-beschreibenden Ebene des Begriffs Diskriminierung zunutze, um sich über die Grundrechtsanalogie Vorteile in der politischen Auseinandersetzung über Gruppeninteressen zu verschaffen. Es handelt sich somit um Interessenpolitik für partikulare Gruppen, die damit eine Gleichbehandlung erlangen wollen.
Eine unmittelbare Diskriminierung liegt nach Abs. 1 AGG vor, wenn eine Person eine weniger günstige Behandlung (im Sinne des AGG) erfährt, erfahren hat oder erfahren würde als eine andere Person in einer vergleichbaren Situation.
Nach dem deutschen Abs. 2 AGG gilt als mittelbare Diskriminierung,
„wenn dem Anschein nach neutrale Vorschriften, Kriterien oder Verfahren Personen gegenüber anderen Personen in besonderer Weise benachteiligen (im Sinne des AGG), es sei denn, die betreffenden Vorschriften, Kriterien oder Verfahren sind durch ein rechtmäßiges Ziel sachlich gerechtfertigt.“
Im Unterschied zu einer unmittelbaren Diskriminierung bedarf es demnach bei der mittelbaren Diskriminierung nicht eines offenen, zielgerichteten oder willkürlichen Verhaltens. Es reicht aus, dass die festgestellte Benachteiligung nicht sachlich gerechtfertigt ist.
Das Bundesverfassungsgericht bestätigte 2008, dass eine geschlechtsneutral formulierte Regelung (im konkreten Fall eine Benachteiligung aufgrund eines Versorgungsabschlags für ehemals Teilzeitbeschäftigte) eine mittelbare geschlechtsspezifische Diskriminierung darstellen kann:
„Eine Anknüpfung an das Geschlecht kann deshalb auch dann vorliegen, wenn eine geschlechtsneutral formulierte Regelung überwiegend Frauen trifft und dies auf natürliche oder gesellschaftliche Unterschiede zwischen den Geschlechtern zurückzuführen ist“.
US-amerikanisches Recht
Der 14. Zusatzartikel zur Verfassung der Vereinigten Staaten ermöglicht in den USA ähnliche Vorgehensweisen wie in Deutschland der Art. 3 GG.
Empirische Forschung
Zur Erhebung von als Diskriminierungen interpretierbaren Verhaltensweisen, Einstellungen und Strukturen werden von verschiedenen Forschungsgruppen empirische Untersuchungen durchgeführt. Diese können auf bestimmte Teilaspekte beschränkt sein (z. B. wird regelmäßig die Bildungsbeteiligung in der Sozialerhebung über die soziale Situation von Studierenden in Deutschland untersucht) oder allgemein diskriminierende Einstellungen erheben. So erforscht seit 2002 eine Gruppe um Wilhelm Heitmeyer an der Universität Bielefeld die gruppenbezogene Menschenfeindlichkeit. Diese Erhebung war zunächst auf Deutschland beschränkt und wurde 2008 auf weitere EU-Länder ausgeweitet.
Die Europäische Union erhebt im Rahmen ihrer „Euro-Barometer“ ebenfalls die Einstellungen zu Fragen der Diskriminierung. In den EU-Barometern zur Diskriminierung seit 2003 wurden die Einstellung der Europäer zur Diskriminierung und die persönlichen Erfahrungen mit ihr untersucht.
In dieser Untersuchung wurden jeweils die Einstellungen zu einzelnen Diskriminierungsformen aufgrund von ethnischer Herkunft, Religion/Weltanschauung, sexueller Orientierung, Alter oder Behinderung untersucht. Es zeigte sich, dass in allen Ländern die Befragten im Durchschnitt der Meinung waren, dass andere eher denken, dass Diskriminierung legitim sei, als man selber. In allen Ländern lehnte auch die Mehrheit von über 80 Prozent Diskriminierung in jedem Fall ab. Lediglich in den deutschsprachigen Ländern war diese Mehrheit zum Teil weit unter diesen 80 Prozent angesiedelt (Österreich 78 %, Deutschland/Ost 71 %, Deutschland/West 68 %). Zudem zeigte sich, dass die Einstellungen zu Diskriminierungen der jeweiligen Gruppen korrelierten, d. h. wenn jemand z. B. eine Diskriminierung aufgrund des Alters zulässig fand, machte er dies auch aufgrund z. B. des Geschlechts. Dieser empirische Befund deckt sich mit der Annahme des Forschungsprojekts zur Gruppenbezogenen Menschenfeindlichkeit, dass die jeweiligen Feindlichkeiten gegenüber benachteiligten Gruppen auf einem gemeinsamen „Syndrom gruppenbezogener Menschenfeindlichkeit“ beruhten.
Allerdings zeigte 2008 die „Wohlfühlfrage“ („Was empfinden Sie bei dem Gedanken an einen Nachbarn [mit der Eigenschaft x]?“), dass die Aversionen gegen bestimmte gesellschaftliche Gruppen in der EU verschieden stark ausgeprägt sind: Gegen behinderte Nachbarn hat angeblich kaum jemand etwas (Durchschnittswert auf einer Skala von 1 bis 10: europaweit 9,1), während es eine starke Ablehnung von Sinti und Roma als Nachbarn gibt (Durchschnittswert: 6,0). Demnach wären Fremdenfeindlichkeit und Heterosexismus deutlich stärker ausgeprägt als andere Formen der Diskriminierung.
Laut einer Studie der Antidiskriminierungsstelle des Bundes aus dem Jahr 2013 gehört Diskriminierungserfahrung an deutschen Schulen und Universitäten zum Alltag. Jeder vierte Schüler oder Student mit Migrationshintergrund fühle sich diskriminiert.
Diskriminierungsmessung
Eine übliche und auch juristisch anerkannte Methode der Diskriminierungsmessung ist die Residualmethode, auch bekannt als Methode der Komponentenzerlegung. Mit der Residualmethode werden diskriminierende von nicht-diskriminierenden Ursachen von Ungleichheit unterschieden. So wird nicht einfach nur der Verdienstunterschied zwischen Männern und Frauen (Gender-Pay-Gap) betrachtet, sondern in Beziehung gesetzt mit der Ausbildung. Das heißt, der Verdienstunterschied, der mit einer unterschiedlichen Ausstattung mit Humankapital begründbar ist, wird von dem gesamten Verdienstunterschied „abgezogen“. Dieser nicht-begründbare Rest ist das Residuum, welches Diskriminierung darstellt. Eine Kritik an dieser Methode setzt daran an, dass bereits die begründbare Ungleichbehandlung auf Diskriminierung beruht, in diesem Beispiel also die geschlechtsspezifisch unterschiedliche Erlangung, Entwicklung und Bewahrung von Humankapital auf Diskriminierung beruhen könne. Bei einer anderen Betrachtungsweise handelt es sich um eine problematische Form der Gleichbehandlung, indem z. B. bei allen Arbeitnehmern die Anzahl der im Beruf verbrachten Jahre addiert und so das „Dienstalter“ als Grundlage der Entlohnung errechnet wird. Die Diskriminierung besteht in diesem Fall darin, dass die „Zuständigkeit“ von Frauen für die Kindererziehung und damit verbundene Ausfalljahre nicht berücksichtigt werden. Mit der Residualmethode kann also nur ein Mindestmaß an Diskriminierung gemessen werden. Abgesehen davon ist es schwer zu beurteilen, ob und inwieweit z. B. bei der Entscheidung gegen einen gut bezahlten Beruf und für einen schlecht bezahlten „typischen Frauenberuf“ am Anfang eines Frauen-Berufslebens Frauen diskriminierende Faktoren im Spiel sind.
Grenzen der empirischen Methode
Generell besteht ein methodisches Problem bei Umfragen darin, dass Befragte oft dazu neigen, sozial erwünschte Antworten zu geben. Wichtig ist es daher, Fragen zu finden, mit denen Interviewte aus der Reserve gelockt werden.
Beispiele:
Bereits 2000 hatte Hans Wocken herausgefunden, dass kaum jemand in Deutschland sich dazu bekennen mag, dass er sich unwohl fühlt, wenn er einen behinderten Nachbarn hat. Die Frage: „Wenn ein schwer behindertes Kind geboren wird, wäre es da nicht für alle besser, wenn man dieses Kind sterben lassen würde?“ bejahten allerdings 60 Prozent der Befragten bei derselben Erhebung; weitere 15 Prozent widersprachen der Vorgabe nicht.
Nur 20 Prozent der im Rahmen des Euro-Barometers 2008 (s. o.) befragten Bulgaren gaben an, dass Diskriminierung von Menschen auf Grund ihrer sexuellen Ausrichtung in Bulgarien verbreitet sei (europaweit bester Wert). Dieselben Befragten reagierten auf die zugehörige Wohlfühlfrage („Wie fühlen Sie sich bei dem Gedanken an eine homosexuelle Person – also einen Schwulen oder eine Lesbierin – als Nachbarn?“) mit dem europaweit schlechtesten Wert (5,3).
Gegenmaßnahmen
Rechtspolitische Regelungen gegen Diskriminierung
Auf nationaler und internationaler Ebene existieren außer den oben unter Rechtswissenschaft dargestellten noch eine Reihe weiterer Gesetze, Verordnungen und Empfehlungen. Siehe dazu Diskriminierungsverbot. Nicht als Benachteiligung angesehen werden in der Regel Merkmale wie z. B. Führung und Leistung.
Inklusion
Eine mögliche Maßnahme gegen Diskriminierung ist die Soziale Inklusion (so viel wie Einbeziehung), bei der Benachteiligungen für ausgegrenzte Personen oder Personengruppen durch gezielte Erleichterungen bei der Teilnahme am öffentlichen Leben (Ausbildung, Arbeit, Kultur, …) verringert oder verhindert werden sollen, z. B.:
Integrationsklassen bzw. Inklusionsklassen, in denen behinderte und nicht-behinderte Kinder gemeinsam unterrichtet werden
Staatliche Zuschüsse zur Einrichtung von Behindertenarbeitsplätzen.
Barrierefreiheit:
Anlegen von barrierefreien Parkplätzen, Toiletten, Gebäudezugängen, Sitzplätzen, Einstiegmöglichkeiten in Busse u. v. m. (Barrierefreies Bauen)
Beschriftungen von öffentlichen Anlagen in Brailleschrift.
Markierung von Gefahrstellen wie z. B. Kreuzungen und Haltestellen für Sehbehinderte durch wechselnde (meist gerippte) Bodenbeläge.
Ihre Grenze finden Bestrebungen, benachteiligte Gruppen zu inkludieren, in den systematisch exkludierenden Mechanismen der Marktwirtschaft (s. o.) und in der positiven Bewertung des Begriffs und der Idee der „Exklusivität“ unter Angehörigen privilegierter sozialer Gruppen.
Affirmative Action/positive Diskriminierung
Unter Affirmative Action versteht man institutionalisierte Maßnahmen, die die Diskriminierung von Mitgliedern einer Gruppe beheben sollen.
Positive Diskriminierung und Affirmative Action sind beides unklare Begriffe, die oftmals gleichbedeutend und in keinem klaren Verhältnis zueinander stehen. Antirassismus-Organisationen verweisen darauf, dass der Begriff Positive Diskriminierung missverständlich sei und dass Positive Maßnahmen keine Diskriminierungen seien, da Diskriminierung „seinem Wesen nach negativ“ sei.
Zur Unterscheidung von Bevorzugung und Benachteiligung wird häufig das Begriffspaar positive und negative Diskriminierung genutzt. Zu beachten ist dabei, dass positive Diskriminierung je nach Autor manchmal im Sinne von Affirmative Action für eine positive Bevorzugung, eine Maßnahme der Förderung einer unterrepräsentierten, nicht aber notwendigerweise diskriminierten, Gruppe gemeint ist (z. B. Frauenquote). Es kann aber auch gemeint sein, dass eine Benachteiligung, d. h. eine negativ bewertete Diskriminierung durch Anknüpfung an eine positive Gruppendefinition erfolgt (z. B. „Nur für ‚Weiße“‘). Die Benachteiligung bewirkt dann eine Diskriminierung der nicht geförderten Gruppe.
Zur Affirmative Action gehören sogenannte positive Maßnahmen, die benachteiligte Gruppen bevorzugen
(Nachteilsausgleich: z. B. Quotenregelungen für Menschen mit Behinderung und Frauen, Erleichtern des Zuganges zu Universitäten für Afroamerikaner in den USA). Solche als positiv bewerteten Maßnahmen gelten in der österreichischen und deutschen Gesetzgebung nicht als Diskriminierung derjenigen, deren Erfolgschancen sich durch die positiven Maßnahmen verringern (z. B. die damit einhergehende Schlechterstellung männlicher Bewerber, wenn eine Konkurrentin die gleiche/ähnliche Leistung erbringt).
Eine weitere Maßnahme der Affirmative Action ist das sogenannte „contract compliance“, womit gemeint ist, dass bei öffentlichen Aufträgen Firmen bevorzugt werden, die Gleichstellungsziele anstreben bzw. erreichen.
Unter positive action werden meistens Maßnahmen wie Informierung, Schulung und Ermutigung benachteiligter Gruppen oder „codes of practice“ verstanden, die den Benachteiligten helfen sollen, sich selbst aus der Benachteiligung zu befreien, indem die Einflüsse der Diskriminierung reduziert werden. Weitere Maßnahmen sind Herstellung von Chancengleichheit bei Stellenbesetzungen durch korrekte öffentliche Ausschreibungen und die Eindämmung von Seilschaften.
Die Begriffe positive Diskriminierung und negative Diskriminierung
Zur Unterscheidung von Bevorzugung und Benachteiligung wird häufig das Begriffspaar „positive“ und „negative Diskriminierung“ genutzt. Zu beachten ist dabei, dass positive Diskriminierung je nach Autor manchmal im Sinne von Affirmative Action für eine positive Bevorzugung, eine Maßnahme der Förderung einer unterrepräsentierten, nicht aber notwendigerweise diskriminierten Gruppe gemeint ist (z. B. die Frauenquote). So begann die Honecker-Regierung der DDR 1973 eine gezielte Förderungsbewegung bezüglich Frauenbild und -Rolle in Kultur und Medien und nannte dies politik-intern „positive Diskriminierung der Frau“. Es kann aber auch gemeint sein, dass eine Benachteiligung im Sinne einer negativ bewerteten Diskriminierung durch Anknüpfung an eine positive Gruppendefinition erfolgt (s. o.).
Doch wird auch innerhalb der Soziologie zwischen negativer (benachteiligender) und positiver (begünstigender) Diskriminierung unterschieden. Beide folgen sozialen Rollenmerkmalen und sind dementsprechend überall antreffbar, offen, verdeckt oder sogar unbewusst. Sie können sich einerseits z. B. bis zum Rassismus, andererseits bis zum Nepotismus steigern. Ihr Gegenteil, die Gleichheit, also das Absehen von entsprechenden Merkmalen etwa im Rahmen einer Organisation durchzusetzen und aufrechtzuerhalten, ist eine Machtfrage. Da hier Werturteile aus verschiedenen Bezügen (Gender, Klasse, Religion, Ethnos, Verwandtschaft u. a. m.) kollidieren, ist in den begleitenden Meinungskämpfen stets mit einer Ideologisierung zu rechnen.
Kritik am Ansatz der Affirmative Action
Kritiker der Affirmative action argumentieren, dass infolge einer immer weiter gefassten Liste aus anti-diskriminierenden Gesetzen, affirmative action, und multikulturellen, egalistischen Einwanderungsregelungen jeder noch so kleine Bereich der amerikanischen Gesellschaft durch die erzwungene Integration geregelt werde, was zu verstärkten sozialen Konflikten und ethnisch und moralisch-kulturellen Spannungen führe.
Nicht-diskriminierende Sprachverwendung
Um Menschen sprachlich nicht auf ein bestimmtes Merkmal und eine Gruppenzugehörigkeit zu reduzieren und mitmenschliche Gemeinsamkeiten zu betonen, wird vereinzelt auf unterschiedliche Weise versucht, mit den zuschreibenden Begriffen verbundene negative Konnotationen zu unterbinden, z. B. durch das Ersetzen von Begriffen, die als verletzend empfunden werden, durch neue Wortschöpfungen.
Beispiel: Termini wie „Mensch mit einer Behinderung“ ersetzen Termini wie „Behinderter“. Im Rahmen der Frauenforschung entstand die Feministische Linguistik, die Konzepte für eine nicht-sexistische Geschlechtergerechte Sprache entwickelt hat. Dies versucht z. B. die „Bibel in gerechter Sprache“ umzusetzen.
Für die Berichterstattung über Straftaten empfiehlt Ziffer 12.1 des „Pressekodex“ des „Deutschen Presserats“: „In der Berichterstattung über Straftaten wird die Zugehörigkeit der Verdächtigen oder Täter zu religiösen, ethnischen oder anderen Minderheiten nur dann erwähnt, wenn für das Verständnis des berichteten Vorgangs ein begründbarer Sachbezug besteht.“ Denn schon durch die bloße Erwähnung von Unterscheidungsmerkmalen können Vorurteile bestätigt werden.
Im Artikel Politische Korrektheit befinden sich weitere Beispiele zur Vermeidung von sozialer Diskriminierung durch Sprechen und Schreiben.
Kritik solcher Bemühungen
Die Kritik an Bemühungen einer nicht-diskriminierenden Sprachverwendung kann unterschieden werden in zwei Argumentationsstränge. Zum einen lehnen Kritiker der sogenannten Political Correctness diese Sprachregelungen generell ab, zum anderen fordern Kritiker, dass nicht-diskriminierende Sprachverwendung mit Reflexionen über die Effizienz anderen Sprechens und Schreibens einhergehen müsse.
Es ist umstritten, welche Formen anderen Sprechens und Schreibens als legitim und effektiv gelten sollen, ob die Verständlichkeit von Texten und Aussagen erhalten bleibt und ob durch den Zwang, anders zu sprechen und zu schreiben, die Meinungsfreiheit beeinträchtigt wird.
Befürworter einer „robusteren Sprache“ werfen ihren Gegnern vor, Political Correctness (PC) zu betreiben und überempfindlich zu sein. Sprachliche PC-Bemühungen hätten jeweils nur einen temporären Erfolg (vgl. die „Euphemismus-Tretmühle“) und machten einen ständigen Austausch notwendig, weil emotionale Vorbehalte und Abneigungen gegen bestimmte Gruppen sich relativ schnell an den neuen sprachlichen Begriff anhefteten.
Eine geläufige Beobachtung sei, dass stabile Vorurteile rasch auf die immer angestrengter konstruierten und durchgesetzten ‚neutralen‘ Ersatzbegriffe übergehen. Die Theorie der Kollektivsymbolik verdeutlicht, dass das einfache Ersetzen von Begriffen ihnen nicht zwangsläufig den sozial diskriminierenden Gehalt nimmt, da sich die sozial diskriminierenden (rassistischen, sexistischen, behindertenfeindlichen) Bilder und Bedeutungen auch auf die neuen Begriffe übertragen können.
Anti-Bias-Ansatz / Sensibilität für Diskriminierungen
Um die Gesellschaft auf vorhandene individuelle und strukturelle Diskriminierung aufmerksam zu machen und für deren Folgen zu sensibilisieren, werden pädagogische Maßnahmen durchgeführt, so etwa Anti-Bias-Trainings, Diversity-Trainings oder Anti-Diskriminierungstrainings. Inhalt dieser ist unter anderem eine Auseinandersetzung mit „gesellschaftlichen Schieflagen“ wie Vorurteilen und Diskriminierung. Ziel ist es, Menschen dazu zu bringen, einen (selbst-)kritischen Blick auf Diskriminierungsmechanismen zu werfen, um letztendlich aktiv gegen Ausgrenzungen vorzugehen.
Gemäß Tupoka Ogette wird Diskriminierung oft als „individueller, bewusster Fehltritt der anderen“ missverstanden. Durch mediale Darstellungen würden schweres diskriminierendes Verhalten und Rechtsextremismus oft gemeinsam oder rasch hintereinander behandelt. Das führe zur Vorstellung vieler Menschen, dass nur Rechtsextreme und andere „schlechte Menschen“ so etwas tun würden. In der Folge komme es häufig zu Wut oder empörter Abwehr (sog. White Fragility), wenn eine diskriminierte Person auf ihre Ausgrenzungserfahrungen aufmerksam macht.
Siehe auch
Literatur
Soziologie
Ulrike Hormel, Albert Scherr: Bildung für die Einwanderungsgesellschaft. Strategien zur Überwindung struktureller, institutioneller und interaktioneller Diskriminierung. 2. Auflage. VS Verlag, Wiesbaden 2004, ISBN 3-531-14399-9.
Ulrike Hormel, Albert Scherr (Hrsg.): Diskriminierung. Grundlagen und Forschungsergebnisse. VS Verlag, Wiesbaden 2010, ISBN 978-3-531-16657-5.
Lars-Eric Petersen, Bernd Six (Hrsg.): Stereotype, Vorurteile und soziale Diskriminierung: Theorien, Befunde und Interventionen (2. Auflage). Beltz, Weinheim 2020, ISBN 978-3-621-28422-6.
Albert Scherr, Aladin El-Mafaalani, Gökçen Yüksel (Hrsg.): Handbuch Diskriminierung. Springer VS, Wiesbaden 2017, ISBN 978-3-658-10975-2.
Heike Weinbach: Social Justice statt Kultur der Kälte. Alternativen zur Diskriminierungspolitik in der Bundesrepublik Deutschland. Karl Dietz Verlag, Berlin 2006, ISBN 3-320-02911-8.
Institutionelle Diskriminierung
Peter A. Berger, Heike Kahlert (Hrsg.): Institutionalisierte Ungleichheiten. Wie das Bildungswesen Chancen blockiert. Weinheim/München 2005, ISBN 3-7799-1583-9.
Pädagogik
Mechthild Gomolla: Schulentwicklung in der Einwanderungsgesellschaft. Strategien gegen Diskriminierung in England, Deutschland und in der Schweiz. Waxmann Verlag, Münster 2005, ISBN 3-8309-1520-9.
Doris Liebscher, Heike Fritzsche: Antidiskriminierungspädagogik: Manual für die Arbeit mit Jugendlichen. VS Verlag für Sozialwissenschaften, 2010, ISBN 978-3-531-16784-8.
Politikwissenschaft
Kurt Möller, Florian Neuscheler (Hrsg.): „Wer will die hier schon haben?“. Ablehnungshaltungen und Diskriminierung in Deutschland. Kohlhammer, Stuttgart 2017, ISBN 978-3-17-032799-3.
Rechtswissenschaft
Bernhard Franke, Andreas Merx: Das Allgemeine Gleichbehandlungsgesetz (AGG). Textausgabe mit Einführung. Kommunal- und Schul-Verlag, ISBN 978-3-8293-0796-3.
Christian Müller: Rechtsprobleme eines Anti-Diskriminierungsgesetzes. Unter Berücksichtigung bereits bestehender nationaler und internationaler Normen. Verlag Dr. Kovac, Hamburg 2003, ISBN 3-8300-1121-0.
Weblinks
Eurobarometer 393: Diskriminierung in der EU / in Deutschland im Jahr 2012
Eurobarometer 393: Diskriminierung in der EU / in Österreich im Jahr 2012
Sammlung europäischer Rechtssetzung und Dokumente zu
Antidiskriminierungsstelle des Bundes (ADS)
Einzelnachweise
Arbeitsrecht
|
Q169207
| 240.941212 |
88618
|
https://de.wikipedia.org/wiki/Windenergie
|
Windenergie
|
Die Windenergie, Wind-Energie oder Windkraft ist die großtechnische Nutzung des Windes als erneuerbare Energiequelle. Die Bewegungsenergie des Windes wird seit dem Altertum genutzt, um Energie aus der Umwelt für technische Zwecke verfügbar zu machen. In der Vergangenheit wurde die mit Windmühlen verfügbar gemachte mechanische Energie direkt vor Ort genutzt um Maschinen und Vorrichtungen anzutreiben. Mit ihrer Hilfe wurde Korn zu Mehl gemahlen, Grundwasser an die Erdoberfläche gefördert, oder Sägewerke betrieben. Heute ist die Erzeugung von elektrischer Energie mit Windkraftanlagen die mit großem Abstand wichtigste Nutzung.
Ende 2022 waren weltweit Windkraftanlagen mit einer Nennleistung von ca. 906 GW installiert. 2022 lieferten die weltweit installierten Anlagen rund 2.160 TWh elektrischer Energie; entsprechend etwa 7,6 % der weltweiten Stromproduktion. Auf guten Standorten waren die Stromgestehungskosten von Windkraftanlagen bereits 2013 günstiger als die Stromgestehungskosten neuer Kohle- und Kernkraftwerke. Abhängig von verschiedenen Faktoren wie z. B. Windhöffigkeit (meint hier: quantitativ und qualitativ geeignetes Windvorkommen – vor Ort) und Anlagenauslegung erreichen Windkraftanlagen etwa zwischen 1.400 und über 5.000 Volllaststunden (letzteres auf den besten Offshore-Standorten).
Geschichte der Windenergienutzung
Wann die ersten Windmühlen errichtet wurden, ist umstritten. Nach schriftlichen Überlieferungen aus dem Codex Hammurapi wurden sie vor mehr als 4.000 Jahren genutzt, andere Forscher betrachten ihren Einsatz erst für das 7. Jahrhundert nach Christus als belegt. In Europa datieren die ältesten Erwähnungen aus England in die Mitte des 9. Jahrhunderts nach Christus, im 11. Jahrhundert sind sie in Frankreich nachgewiesen. Im 13. Jahrhundert hatten sie sich bis nach Polen verbreitet. Eingesetzt wurde die Windenergie zur Verrichtung mechanischer Arbeit mit Hilfe von Windmühlen und Wasserpumpen.
In Europa existierten im 19. Jahrhundert einige 100.000 Windräder, die bei guten Windverhältnissen bis zu 25–30 kW Leistung erzielten. In Frankreich, England, Deutschland, den Niederlanden, Belgien und Finnland gab es in der ersten Hälfte des 19. Jahrhunderts zwischen 50.000 und 60.000 Windmühlen. Um 1900 waren alleine in den Nordsee-Anrainerstaaten etwa 30.000 Windmühlen mit einer Gesamtleistung von mehreren 100 MW in Betrieb. Insbesondere in den Niederlanden waren Windmühlen stark verbreitet, hier gab es in der zweiten Hälfte des 19. Jahrhunderts alleine etwa 9.000 Mühlen. Einsatzzwecke waren das Mahlen von Getreide, die Baumwollspinnerei und die Tuchwalkerei, zudem dienten die Mühlen als Kraftquelle für das Stoßen von Leder, das Sägen von Holz, die Herstellung von Öl, Papier und Tabak sowie das Entwässern von Sumpfgebieten oder unter dem Meeresspiegel liegenden Landflächen.
In Deutschland stieg die Zahl der Windmühlen während der Industriellen Revolution zunächst bis zur Hochindustrialisierung weiter an und erreichte in den 1880er Jahren ihr Maximum. In den Jahrzehnten darauf wurden viele der Windmühlen sukzessive durch fossile Kraftquellen bzw. elektrische Antriebe ersetzt. 1895 waren in Deutschland rund 18.000 Windmühlen in Betrieb. Man schätzt, dass 1914 etwa 11.400 und 1933 noch 4.000 bis 5.000 Windmühlen betrieben wurden. Ebenfalls bedeutend waren Windpumpen; die vielflügeligen Western-Windräder mit einer Leistung von wenigen 100 Watt waren weit verbreitet. Bis ca. 1930 wurden über sechs Millionen Westernmills produziert, von denen noch immer ca. 150.000 vorhanden sind. Die ab 1854 in den USA entwickelten Western-Windräder (eng. Western Mill) verbreiteten sich als Wasserpumpe in Nord- und Südamerika, Australien und Teilen von Afrika und wurden später auch zur Stromerzeugung genutzt. In den USA gab es etwa 1000 Hersteller von Windmühlen, die jedoch nach dem Boom nahezu vollständig vom Markt verschwanden.
Nach der Entdeckung der Elektrizität und der Erfindung des Generators lag der Gedanke der Nutzung der Windenergie zur Stromerzeugung nahe. Die ersten Windkraftanlagen zur Stromerzeugung wurden im späten 19. Jahrhundert errichtet und blieben bis nach dem Zweiten Weltkrieg, als erste größere Anlagen mit wenigen 100 kW auf den Markt kamen, weitgehend unverändert. Seit den Ölpreiskrisen in den 1970er Jahren wird weltweit verstärkt nach Alternativen zur Energieerzeugung gesucht, womit auch die Entwicklung moderner Windkraftanlagen vorangetrieben wurde. 1979 begannen verschiedene dänische Unternehmen, Windkraftanlagen in Serie zu fertigen. Seit den frühen 1990er Jahren gehört die Windindustrie zu den am schnellsten wachsenden Industriebranchen der Welt.
Nach dem Zweiten Weltkrieg wurden in den amerikanisch besetzten Gebieten in Bayern mehrere tausend und in Oberösterreich zahlreiche Western-Windräder (Westernmills) aufgebaut, um Wasser zu pumpen. Um 1958 bzw. um 1970 waren noch einige zu sehen, überlebt bis heute in Bayern hat nur eine in Dietmannsried im Allgäu. Jene in Unterroithen in Oberösterreich ist Wahrzeichen von Edt bei Lambach und im 1980 verliehenen Wappen symbolisch golden und 12-flügelig dargestellt.
Stromerzeugung durch Windenergie
Die Windenergie gilt aufgrund ihrer weltweiten Verfügbarkeit, ihrer niedrigen Kosten sowie ihres technologischen Entwicklungsstandes als eine der vielversprechendsten regenerativen Energiequellen. Sie zählt mittlerweile zu den Mainstreamtechnologien in der Stromproduktion und spielt, auch aufgrund technologischer Fortschritte sowie der wirtschaftlichen Konkurrenzfähigkeit in vielen Märkten weltweit, eine zentrale Rolle in der Energiepolitik und den Energiestrategien in einer wachsenden Anzahl von Staaten der Erde.
Windenergieanlagen können in allen Klimazonen, auf See und allen Landstandorten (Küste, Binnenland, Gebirge) zur Stromerzeugung eingesetzt werden. Häufig wird nur zwischen der Windenergienutzung an Land (onshore) und der Nutzung auf See in Offshore-Windparks unterschieden. Bisher ist vor allem die Windenergie an Land von Bedeutung, während die Offshore-Windenergie global gesehen mit einem Anteil von ca. 3,5 % an der installierten Leistung bisher noch ein Nischendasein fristet. Auch langfristig wird mit einer Dominanz des Onshore-Sektors gerechnet, allerdings mit steigendem Anteil der Offshore-Installationen. So geht z. B. die IEA davon aus, dass bis 2035 rund 80 % des Zubaus an Land erfolgen werden.
Physikalische Grundlagen
Leistungsdichte des Windes
Die Dichte der kinetischen Energie der Strömung steigt quadratisch mit der Windgeschwindigkeit v und hängt von der Luftdichte ρ ab:
.
Bei einer Windgeschwindigkeit von 8 m/s (≈ Windstärke 4 Bft) beträgt sie knapp 40 J/m³.
Diese Energie wird mit dem Wind herantransportiert. In der freien Strömung weit vor dem Rotor der Windkraftanlage beträgt die Leistungsdichte dieses Transports
,
im Beispiel also 320 W/m².
Aufgrund dieses starken Anstiegs der Leistungsdichte mit der Windgeschwindigkeit sind windreiche Standorte besonders interessant. Die Turmhöhe spielt dabei eine große Rolle, besonders im Binnenland, wo Bodenrauigkeit (Bebauung und Vegetation) die Windgeschwindigkeit verringert und den Turbulenzgrad erhöht.
Verlustloser Leistungsbeiwert
Die Leistungsfähigkeit eines Windrotors wird üblicherweise ausgedrückt, indem seine an die Welle abgegebene Leistung auf die Rotorfläche und auf die Leistungsdichte des Windes bezogen wird. Dieser Bruchteil wird nach Albert Betz als Leistungsbeiwert cP bezeichnet, umgangssprachlich auch als Erntegrad. Betz leitete 1920 aus grundlegenden physikalischen Prinzipien einen maximal erreichbaren Leistungsbeiwert ab. Der Grund für die Begrenzung ist, dass durch die Leistungsentnahme die Strömungsgeschwindigkeit sinkt, die Luftpakete in Strömungsrichtung kürzer werden und die Stromlinien ihre Abstände zueinander vergrößern, siehe Abbildung. Je stärker der Wind abgebremst wird, desto mehr strömt ungenutzt am Rotor vorbei. Das Optimum von 16/27 = 59,3 % würde durch einen verlustlosen Rotor erreicht, der die Strömung durch einen Staudruck von 8/9 der Energiedichte des Windes auf 1/3 der Windgeschwindigkeit abbremst. Der Rest dieser Leistung befindet sich noch in der Strömung: 1/3 = 9/27 in den Stromfäden, die dem Rotor ausgewichen sind, 1/9 von 2/3 = 2/27 in der abgebremsten Luftmasse.
Leistungsgrenzen und Verluste
Wie alle Maschinen erreichen auch reale Windkraftanlagen das theoretische Maximum nicht. Aerodynamische Verluste ergeben sich durch Luftreibung an den Blättern, durch Wirbelschleppen an den Blattspitzen und durch Drall im Nachlauf des Rotors. Bei modernen Anlagen reduzieren diese Verluste den Leistungsbeiwert von cP,Betz ≈ 0,593 auf cP = 0,4 bis 0,5. Von den genannten 320 W/m² sind also bis zu 160 W/m² zu erwarten. Ein Rotor mit 113 m Durchmesser (10.000 m² Fläche) gibt dann 1,6 Megawatt an die Welle ab. Zur Berechnung der Leistung am Netzanschluss müssen zusätzlich noch die Wirkungsgrade aller mechanischen und elektrischen Maschinenteile berücksichtigt werden.
Der Leistungsbeiwert des Rotors wird beim Vergleich verschiedener Bauarten oft überbewertet. Ein um zehn Prozent niedrigerer Leistungsbeiwert kann durch eine fünfprozentige Erhöhung des Rotordurchmessers ausgeglichen werden. Für den wirtschaftlichen Erfolg ist es von höherer Bedeutung, mit gegebenem Materialeinsatz eine möglichst große Rotorfläche abzudecken. In dieser Hinsicht ist die heute übliche Bauform mit horizontaler Drehachse und wenigen schlanken Rotorblättern anderen Bauformen überlegen.
Nennleistung
Zu unterscheiden ist zwischen der installierten elektrischen Nennleistung einer Windkraftanlage, die sich aus der technischen Konstruktion ergibt, und der tatsächlich am jeweiligen Standort im Jahresdurchschnitt erzielten Leistung, die sich aus einer Reihe weiterer Faktoren ergibt, und grundsätzlich weit niedriger ist (siehe Grafik Windeinspeisung unten), da die Windkraftanlage den größten Teil des Jahres im Teillastbereich arbeitet. Bei der Planung werden Daten aus Wetterbeobachtungen (Windgeschwindigkeit und Windrichtung) verwendet, um daraus eine Prognose zu berechnen. Diese Prognosen sind Mittelwerte. Die Windenergieerzeugung kann in verschiedenen Jahren stark voneinander abweichen. Langzeitbetrachtungen sind für eine großmaßstäbliche Nutzung der Windenergie und für die Planung von Stromnetzen und Speicherkapazitäten unerlässlich.
Der Zusammenhang zwischen Windgeschwindigkeit und erzielter Leistung wird durch eine Leistungskennlinie beschrieben, die für jeden Anlagetyp durch Messung ermittelt wird. Die erzielbare Leistung nimmt dabei zunächst mit der dritten Potenz der Windgeschwindigkeit zu. Das bedeutet, dass doppelte Windgeschwindigkeit zu einem 8-fachen Windenergieertrag führt und umgekehrt eine Halbierung der Windgeschwindigkeit den Ertrag auf 1/8 sinken lässt. Dies trägt mit zu den hohen Schwankungen der Windenergieeinspeisung bei. Allerdings werden Maximalleistungen der Anlagen schon bei relativ niedrigeren (und häufigen) Windgeschwindigkeiten erreicht. Wird die Nennwindgeschwindigkeit überschritten, werden die Rotorenblätter mit der Pitchregelung stückweise aus dem Wind herausgedreht, um möglichst lange die Nennleistung halten zu können. Überschreitet die Windgeschwindigkeit die Abschaltgeschwindigkeit, so schaltet die Windkraftanlage ab, um Beschädigungen zu vermeiden. Somit erhält man eine Abhängigkeit zwischen Windgeschwindigkeit und Leistung, die zunächst mit der dritten Potenz ansteigt, dann eine Weile konstant ist und schließlich relativ abrupt auf Null geht.
Die Windgeschwindigkeit und ihre Häufigkeitsverteilung ist daher ein Schlüsselfaktor für die Wirtschaftlichkeit von Windkraftanlagen und Windparks.
Die Häufigkeitsverteilung der erzeugten Windleistung kann mit der Weibull-Verteilung gut angenähert werden. Dieselbe Verteilungsart beschreibt auch die Häufigkeitsverteilung der Windgeschwindigkeit.
Wegen der hohen Variabilität ist eine möglichst genaue Prognose der erwarteten Einspeisung aus Windkraftquellen (Windleistungsvorhersage) unerlässlich, um eine entsprechende Planung und Verteilung im elektrischen Stromnetz vornehmen zu können.
Potential
Weltweit
2015 haben Wissenschaftler des Max-Planck-Institut für Biogeochemie die physikalischen Randbedingungen für den weiteren Ausbau der Windenergie untersucht. Die Forscher kamen zu dem Ergebnis, dass großangelegte Windparks in windreichen Regionen auf eine Leistung von maximal 1 Watt/m² kommen können. Als ursächlich für die geringe Leistung wird in der Studie der Bremseffekt gesehen, der auf den Wind wirkt, wenn viele Windkraftanlagen in einer Region installiert sind. Der derzeitige Ausbaustatus der Windkraft liegt allerdings noch weit unter den hier beschriebenen Grenzen.
Weltweit bietet die bodennahe Windenergie nach einer 2013 im Fachjournal Nature Climate Change erschienenen Arbeit theoretisch Potential für über 400 Terawatt Leistung. Würde zusätzlich die Energie der Höhenwinde genutzt, wären sogar 1.800 Terawatt möglich, etwa das 100-Fache des derzeitigen weltweiten Energiebedarfs. Bei der Nutzung des gesamten Potentials der Windenergie hätte dies ausgeprägte Veränderungen des Klimas zur Folge; bei der Nutzung von nur 18 Terawatt, was dem aktuellen Weltprimärenergiebedarf entspricht, wären keine wesentlichen Einflüsse auf das Klima zu erwarten. Es gilt daher als unwahrscheinlich, dass das geophysikalische Windenergiepotential dem Ausbau der Windstromerzeugung Grenzen setzt.
2009 ermittelten Forscher der Harvard-Universität unter konservativen Annahmen das globale Windenergiepotential und kamen zu dem Ergebnis, dass es den Weltenergiebedarf weit übersteigt: den damaligen Bedarf an elektrischer Energie um das 40-Fache, den Gesamtenergiebedarf um das 5-Fache. Laut einer ebenfalls 2009 veröffentlichten Strömungs-Modellrechnung der Stanford University würden Windkraftanlagen, sollten sie den gesamten heutigen Weltenergiebedarf decken, den Energiegehalt der unteren Luftschicht um circa 0,007 % verringern. Dies sei jedoch mindestens eine Größenordnung kleiner als der Einfluss durch Besiedlung und durch Aerosole aus Abgasen. Die Aufheizeffekte durch Stromerzeugung mit Windkraftanlagen seien viel niedriger als die Abwärme thermischer Kraftwerke.
Deutschland
Die im Jahr 2017 in Deutschland auf Land installierten rund 29.000 Windkraftanlagen benötigten eine Fläche von etwa 1800 km², das entspricht 0,5 % der Landesfläche. Die Anlagen erzeugten im Jahr 2020 mit 104 TWh 18,7 Prozent des Bruttostromverbrauch (siehe Tabelle Windenergiestatistik Deutschland) und machten 27 Prozent der Nettostromerzeugung aus.
2013 veröffentlichte das Umweltbundesamt eine Studie zum bundesweiten Flächen- und Leistungspotential der Windenergie an Land. Das Potential wurde vom Fraunhofer-Institut für Windenergie und Energiesystemtechnik auf Grundlage detaillierter Geodaten und moderner Windenergieanlagentechnik modelliert. Demnach stehen auf Basis der getroffenen Annahmen prinzipiell 13,8 Prozent der Fläche Deutschlands für die Windenergienutzung zur Verfügung. Dieses Flächenpotential ermöglicht eine installierte Leistung von rund 1.190 GW mit einem jährlichen Stromertrag von ca. 2.900 TWh. Das realisierbare Potential der Windenergie an Land wird aber erheblich kleiner geschätzt, weil verschiedene Aspekte im Rahmen der Studie nicht betrachtet wurden (z. B. artenschutzrechtliche Belange oder wirtschaftliche Rahmenbedingungen).
Eine vom Bundesverband WindEnergie e.V. und Landesverband Erneuerbare Energien NRW beauftragte Analyse der Deutsche WindGuard GmbH zeigt im Rahmen einer Potenzialabschätzung, dass bei einer Nutzung von 2 % der Fläche Deutschlands, in allen Regionen an Land, eine installierte Leistung von 200 GW möglich wäre. Falls es keine Einschränkungen durch Bestandsanlagen gäbe, könnten dort 40.000 Anlagen, der mittleren Anlagentechnologie für das kommende Jahrzehnt, errichtet werden. Diese könnten einen Energieertrag von 500 TWh pro Jahr erreichen. Also höher als die Nettostromerzeugung in Deutschland im Jahr 2020 in Höhe von 488,7 TWh.
Bayern
Im Jahr 2021 waren in Bayern 1.150 Windkraftanlagen mit einer Gesamtleistung von 2,5 GW installiert. Von diesen Anlagen werden 700 mit einer Gesamtleistung von 2 GW bis 2030 weiterbestehen.
Der Landesverband Bayern des BWEs veröffentlichte im März 2022 eine Studie über das Potential des Ausbaus der Windkraft in Bayern.
In dieser Studie fordert der Verband unter anderem die Abschaffung der 10H-Regelung, welche den Ausbau der Windkraft in Bayern im Vergleich zu anderen Bundesländern stark beeinträchtigt, und einer gesetzlichen Verankerung des Flächenziels von 2 % der Bundesregierung. Hierdurch könnte man die Zahl von Windkraftwerken auf 1.900 mit einer Gesamtleistung von 8,5 GW bis 2030 und 3.000 mit einer Gesamtleistung von 18 GW bis 2040 erhöhen. Im Jahr 2040 würde dies etwa ein Drittel des bayrischen Strombedarfs abdecken.
Auch sprach der BWE die Versorgungssicherheit des Landes an und betonte die momentane Abhängigkeit Bayerns von Erdöl und Gas Importen aus Russland, welche durch den Krieg in der Ukraine verdeutlicht wurde.
Die Bayerische Landesregierung hielt jedoch an ihrem im Sommer 2021 formulierten Vorhaben fest, lediglich 500 neue Windkraftwerke zu bauen.
Hierfür wurde die Regierung von dem BWE kritisiert. Ausnahmen von der 10H-Regelung in Wäldern oder Vorrangflächen wurden jedoch angekündigt.
Wirtschaftlichkeit
Stromgestehungskosten und Wettbewerbsfähigkeit
Bei der modernen Windenergienutzung handelt es sich um eine Technologie, die nach den Anfängen in den späten 1970er Jahren seit den 1990er Jahren in größerem Ausmaß zum Einsatz kommt. Die Verbesserungspotentiale werden allmählich durch Skaleneffekte infolge weiterer Erforschung und der mittlerweile bei den meisten Herstellern etablierten industriellen Serienfertigung erschlossen, weshalb noch ein weiteres Kostensenkungspotential aufgrund technischer Weiterentwicklung besteht.
Windkraftanlagen können inzwischen in vielen Fällen günstiger elektrische Energie produzieren als konventionelle Kraftwerke. Auch der Weltklimarat IPCC hielt in seinem 2022 erschienenen Sechsten Sachstandsbericht fest, dass die Stromerzeugung mit Windkraftanlagen mittlerweile in vielen Regionen der Erde günstiger ist als die Stromerzeugung mit fossilen Energieträgern. Alleine zwischen 2015 und 2020 fielen die Kosten für Windstromerzeugung um 45 %. Aufgrund ihrer Wirtschaftlichkeit kommt der Windenergie eine wichtige Rolle zur Dämpfung des Strompreisanstiegs zu.
Größter Kostenfaktor bei der Windstromerzeugung sind die relativ hohen Anfangsinvestitionen in die Anlagen; die Betriebskosten (u. a. Wartung; ggf. Standortmiete) und die Rückbaukosten sind relativ gering. Praktisch weltweit sind auch Standorte im Binnenland wirtschaftlich nutzbar; auf guten Onshore-Standorten sind Windkraftanlagen schon seit 2008 ohne Förderung mit konventionellen Kraftwerken konkurrenzfähig.
Langfristig wird davon ausgegangen, dass die Windenergie entweder in der Zukunft die günstigste Form der Stromproduktion sein oder hinter Photovoltaik-Großkraftwerken auf dem zweiten Rang liegen wird. Wichtig bei solchen Vergleichen ist es, die tatsächlichen vollen Stromgestehungskosten der einzelnen Technologien über ihren gesamten Betriebszeitraum anzusetzen. Der in diesem Kontext bisweilen angeführte Strombörsenpreis ist hingegen ungeeignet, da er für konventionelle Kraftwerke Werte ergibt, die aufgrund verschiedener struktureller Faktoren weit unterhalb ihrer Stromgestehungskosten liegen. Dadurch erscheint der Unterschied zwischen Windenergie und konventionellen Kraftwerken größer, als er in der Realität ist.
In Deutschland lagen die Stromgestehungskosten von Onshore-Windkraftanlagen 2021 zwischen 3,94 und 8,29 Cent/kWh und lagen damit ebenfalls niedriger als bei fossilen Kraftwerken. Offshore-Windkraftanlagen hatten Stromgestehungskosten zwischen 7,23 €Cent/kWh und 12,13 €Cent/kWh, womit diese vergleichbar mit GuD-Kraftwerken und deutlich günstiger als bei Braun- und Steinkohlekraftwerken waren.
Auf guten Standorten lagen die Stromgestehungskosten schon 2013 unterhalb derer neuer Kohle- und Kernkraftwerke. In Brasilien, das zu den Ländern gehört, in denen die Nutzung der Windenergie im weltweiten Vergleich mit am günstigsten ist, lagen die Stromgestehungskosten von Windkraftanlagen bereits 2012 bei unter 60 US-Dollar/MWh, umgerechnet ca. Euro/MWh.
Förderung
Um die erwünschten Investitionen in Windenergie auch an Standorten mit geringerer Windhöffigkeit zu erleichtern, werden diese in vielen Staaten unabhängig von politischer Ausrichtung gefördert. Mögliche Förderungsmaßnahmen sind:
Förderung von Forschung und Entwicklung
Förderung von Prototypen und Demonstrationsobjekten
teilweise Übernahme der Investitionskosten
Günstigere Kredite
Steuervergünstigungen (z. B. PTC in den USA)
Zahlungen auch für nicht produzierten Strom (Geisterstrom)
Garantiepreise für erzeugten Strom (Einspeisetarif)
In Österreich liegt der Einspeisetarif für Windkraft mit Stand Juli 2008 bei 7,8 ct/kWh für bestehende Anlagen und bei 7,54 ct/kWh für neue Anlagen.
In Deutschland betrug 2017 die nach EEG für mindestens 5 Jahre gezahlte Anfangsvergütung für Onshore-Windenergie 8,38 ct/kWh; die nach Ablauf der Anfangsvergütung gezahlte Grundvergütung lag bei 4,66 ct/kWh. Beide sanken jährlich um 1,5 %. Mittlerweile ist die Grundlage für die Förderung von Windenergie in Deutschland das Marktprämienmodell. Dabei ermittelt die Bundesnetzagentur zunächst über eine Ausschreibung monatlich zuzubauender Mengen einen sogenannten anzulegenden Wert. Dies ist der Stromerlös in ct/kWh, für den der Anbieter bereit ist, den entsprechenden Leistungszubau vorzunehmen. Erhält der Anbieter den Zuschlag, so gilt für ihn der von ihm gebotene anzulegende Wert (Pay-as-Bid). Aus der EEG-Umlage wird ihm jeden Monat expost die Differenz zwischen seinem anzulegenden Wert und dem spezifischen Preis, den ein typisches Windprofil im letzten Monat an der EPEX-SPOT erzielt hätte auf die von ihm erzeugte Menge vergütet. Die 2021 kontrahierten anzulegenden Werte liegen bei 6ct/kWh bei einem ungefähren Spotpreisniveau von 2,5 ct/kWh.
Als wichtigstes Kriterium für den Ausbau nennen Gasch u. a. Planungssicherheit, wie sie vor allem bei Mindestpreissystemen auf Basis von Einspeisevergütungen erreicht wird. Erste Gesetze hierzu wurden 1981 in Dänemark, 1991 in Deutschland und 1993 in Spanien erlassen und führten dort zu einem langfristigen und stabilem Ausbau der Windenergie. Als wenig zielführend gelten hingegen Quotensysteme, wie sie in England und bis 2002 in Frankreich existierten; ihr Erfolg wird mit „mäßig bis null“ beziffert. Mittlerweile setzen viele Staaten auf Mindestpreissysteme (z. B. Deutschland, Spanien, Österreich, Frankreich, Portugal, Griechenland, Großbritannien), da auf diese Weise mehr installierte Leistung erzielt wird.
Nach 20 Jahren läuft die Förderung mittels einer festen Einspeisevergütung durch das EEG aus. Dies ist erstmals zum 1. Januar 2021 geschehen. Gleichzeitig wurden Windenergieanlagen traditionell für eine Lebensdauer von 20 Jahren ausgelegt. Ende 2020 wurde befürchtet, dass aufgrund hoher Reparaturkosten und niedriger Börsenpreise hierdurch der Betrieb von vor dem 1. Januar 2021 installierten Windkraftanlagen unwirtschaftlich wird. Als Lösung wird allgemein das Repowering gesehen.
Vermeidung externer Kosten
Verglichen mit konventionellen Stromerzeugungsformen weist die Windenergie deutlich geringere externe Kosten auf. Dabei handelt es sich um nicht in die Strompreise mit einfließende Schadenseffekte durch Treibhausgasemissionen, Luftschadstoffe usw., die sich z. B. im Klimawandel, Gesundheits- und Materialschäden sowie landwirtschaftliche Ertragsverluste äußern. Bei Kohlekraftwerken liegen die externen Kosten in Bereich von 6 bis 8 ct/kWh, bei GuD-Kraftwerken bei ca. 3 ct/kWh. Erneuerbare Energien liegen zumeist unter 0,5 ct/kWh, die Photovoltaik im Bereich von 1 ct/kWh. Unter Einbeziehung dieser externen Kosten ergeben sich für die Windkraft deutlich niedrigere Vollkosten als bei der konventionellen Energieerzeugung und damit volkswirtschaftliche Einspareffekte. Unter anderem vermieden Windkraftanlagen 2017 in Deutschland Treibhausgasemissionen in Höhe von 71,2 Mio. Tonnen Kohlenstoffdioxidäquivalent.
Im Jahr 2011 wurden in Deutschland durch die erneuerbaren Energien insgesamt ca. 9,1 Mrd. Euro an externen Kosten eingespart. Da die Messung externer Kosten und Nutzen jedoch aufgrund verschiedener Methodiken nicht eindeutig zu beziffern ist, kamen ältere Studien mit Daten nicht neuer als 2004 zu anderen Ergebnissen.
Energiewirtschaftliche Aspekte
Bereitstellungssicherheit
Windenergie ist Teil eines Energiemix und bildet nur eine Säule der erneuerbaren Energien. Ihr Hauptnachteil ist – insbesondere bei Onshore-Anlagen – die unregelmäßige, mit dem Wind schwankende Leistungsabgabe. Dies zeigt beispielhaft das dargestellte aggregierte Einspeiseprofil der Windparks in Deutschland und Luxemburg vom Januar 2020. Besonders die Onshore-Windeinspeisung zeichnet sich durch eine hohe Volatilität aus. Dagegen zeigt die Offshore-Windeinspeisung ein deutlich günstigeres Profil. Zwischen der mittleren Windeinspeisung insgesamt (an der linken Achse markiert) und der installierten Windleistung insgesamt (rechts markiert) lag im dargestellten Zeitraum ein Faktur von 2,8. Einer mittleren Einspeisung von 21,45 GW stand eine installierte Leistung von 60,84 GW gegenüber. Für Offshore-Windparks lag im selben Zeitraum die installierte Leistung bei 7,5 GW und die mittlere Einspeisung bei 4,41 GW mit nur einem dazwischenliegenden Faktor von 1,7.
Maßgeblich ist die Summe der eingespeisten Windenergie über größere Gebiete. Die großflächige Verteilung von Windkraftanlagen (z. B. im europäischen Maßstab) reduziert die relative Variabilität der Windstromerzeugung deutlich. Hingegen ist die Volatilität der Einspeisung in ganz Deutschland vergleichbar mit der eines einzelnen norddeutschen Standorts. 2012 betrug die maximale (am 3. Januar 2012 gemessene) onshore Einspeisung in Deutschland mit 24.086 MW etwa 78 % der installierten Gesamtnennleistung.
Andere erneuerbare Energien können ausgleichend wirken und haben ein im Mittel teils gegenläufiges Angebotsverhalten. Die über mehrere Jahre gemittelte Kurve der Einspeiseleistung von Windenergieanlagen zeigt in Westeuropa im Durchschnitt tagsüber höhere Mittelwerte als nachts und im Winter höhere als im Sommer, sie korreliert somit über den Tagesverlauf wie auch jahreszeitlich mit dem im Mittel benötigten Strombedarf. In Deutschland wird in den Wintermonaten üblicherweise etwa doppelt so viel Windstrom erzeugt wie in den Sommermonaten.
Meteorologische Prognosesysteme ermöglichen es, die von Windparks in das Stromnetz eingespeiste Leistung per Windleistungsvorhersage im Bereich von Stunden bis zu Tagen im Voraus abzuschätzen. Bei einem Vorhersagezeitraum von 48 h bis 72 h beträgt die Genauigkeit 90 %, bei einer 6-Stunden-Vorhersage mehr als 95 %.
Regelenergiebedarf
Anlagen über 100 MW müssen nach dem EEG ihre Erzeugung direktvermarkten. Das heißt, sie müssen wie konventionelle Erzeugungsanlagen eine viertelstundengenaue Einspeiseprognose für den Folgetag erstellen und ihre Erzeugung auf dieser Basis an den Energiehandelsmärkten vermarkten. Die Abweichung zwischen tatsächlich viertelstündlich eingespeisten Strommengen und den vermarkteten Mengen wird Ihnen vom Übertragungsnetzbetreiber ebenso wie konventionellen Erzeugern als Ausgleichsenergie in Rechnung gestellt. Große Windanlagenbetreiber tragen also wie konventionelle Erzeuger die wirtschaftlichen Risiken ihrer Prognoseabweichung, allerdings erhalten sie im Gegensatz zu diesen zusätzlich zu den Erlösen aus dem Verkauf an den Stromhandelsmärkten eine sogenannte Marktprämie. Diese wird anlässlich der regelmäßigen Ausschreibungen der Bundesnetzagentur für neuzubauende Windanlagen für jeden bezuschlagten Windpark individuell bestimmt.
Kleinere Anlagen erhalten nach dem EEG weiterhin eine Fixvergütung nach dem EEG und tragen keine wirtschaftlichen Risiken aus der Abweichung. Die Abweichung landet dann direkt beim Übertragungsnetzbetreiber, der auch für die Vermarktung dieser Anlagen zuständig ist.
Obwohl die Abweichung der Windenergieanlagen durch Regelenergie gedeckt werden muss, sind die ausgeschriebenen Mengen für Regelenergie insgesamt in den letzten Jahren nicht gestiegen. Auch Stromausfälle sind in den letzten Jahren eher seltener geworden. Dies bedeutet, dass die unerwarteten Abweichungen durch die installierten Marktmechanismen gut abgefangen werden. Dazu trägt insbesondere der mittlerweile sehr liquide Intradayhandel bei, auf dem kurzfristig bekannt werdende Abweichungen noch bis 5 min vor Lieferung glattgestellt werden können.
Auswirkung auf kurzfristige Stromhandelspreise
Die Windenergie trägt als erneuerbare Energie zum Merit-Order-Effekt bei und senkt durch die Verdrängung konventioneller Kraftwerke den Strompreis an der Börse. Die Marktprämie, die den Betreibern zusätzlich zum an der Börse erzielten Preis gezahlt wird, landet als EEG-Umlage beim Verbraucher und wirkt preiserhöhend. Der Nettopreiseffekt hängt von dem Vergleichskraftwerkspark und vielen anderen Effekten wie Windaufkommen und Rohstoffpreisen ab.
Wird an windstarken Tagen viel aus Windenergie erzeugter Strom eingespeist, sinkt der Großhandelspreis an der Strombörse. Ist wenig Windenergie vorhanden, steigt der Preis an der Strombörse. Die Strompreissenkung durch Windenergie entsteht durch die gesetzliche Abnahmepflicht für produzierten Windstrom. Ist viel Strom aus Windenergie verfügbar, wird der Einsatz teurer konventioneller Kraftwerke, insbesondere Gaskraftwerke, („Grenzkosten-Theorie“) vermindert, was zu einem Absinken der Preise an der Strombörse führt. Im Jahr 2007 betrug dieser preisdämpfende Effekt ca. 5 Mrd. Euro. Im 2. Quartal 2008 kostete Strom an der Leipziger Strombörse im Mittel 8,495 ct/kWh, ging aber u. a. durch die verstärkte Einspeisung der erneuerbaren Energien bis 2012 auf ca. 4 ct/kWh zurück.
Überschüssige Erzeugungsmengen, die nicht produktiv genutzt werden können, äußern sich in Negativ- und Nullpreisen auf dem Strommarkt, die trotz Ausbau des europäischen Verbundnetzes und europaweiter Preiskopplung immer häufiger werden.
Für den Ausgleich der Unstetigkeit des Windes kommt die Umwandlung in Windgas oder auch Einspeisung in Wärmenetze über Power-to-Heat in Frage. Weitere Möglichkeiten, zukünftig den Anteil an Windstrom an der Gesamtstromerzeugung weiter zu erhöhen, sind:
Verstärkung und Vermaschung des Hochspannungsnetzes mit benachbarten Regelzonen bzw. weiter entfernten Regionen und strategische Verteilung von Windkraftanlagen im so gebildeten Großraum,
Demand Side Management durch intelligente Stromnetze,
Kombination mit weiteren grundlastfähigen regenerativen Energien zur Glättung der Einspeisung,
Auslegung der Windkraftanlagen auf einen höheren Kapazitätsfaktor durch Erhöhung der Rotorfläche bei gleichbleibender Nennleistung,
Erhöhung der installierten Nennleistung und zeitweise Abschaltung bei Leistungsüberschuss,
Verbesserte Energiespeicherung, zum Beispiel durch Hubspeicherkraftwerke und Druckluftspeicherkraftwerke.
Möglicher großflächiger Nichtverfügbarkeit von Windenergie wurde mit einer strategischen Kapazitätsreserve Rechnung getragen.
Einspeisemanagement - Netzengpassmanagement
Aufgrund begrenzter Netzkapazitäten kann es insbesondere während Starkwindphasen lokal bzw. regional zu Abschaltung bzw. Drosselung von Windkraftanlagen kommen (sogenanntes Einspeisemanagement). Die Abregelungsmengen wie auch die gezahlten Vergütungen für nicht erzeugten Strom, genannt Ausfallarbeit, stiegen in den letzten Jahren weitgehend kontinuierlich an.
Der größte Teil der Ausfallarbeit in Deutschland beruht auf fehlenden Netzkapazitäten. In 2020 trug die Windenergie an Land zu 67 %, die Windenergie auf See mit knapp 29 % bei. Abgeregelt wurden die Anlagen insbesondere in Schleswig-Holstein (50 %), gefolgt von Niedersachsen (34 %). 69 Prozent der Abregelungen wurden im Verteilernetz vorgenommen, allerdings lag der verursachende Netzengpass zu rund 79 Prozent im Übertragungsnetz bzw. in der Netzebene zwischen Übertragungs- und Verteilernetz.
In zahlreichen, zumeist dieselgestützten Inselnetzen mit Windstromeinspeisung (Australien, Antarktis, Falklands, Bonaire), werden neben dem Demand Side Management zudem Batterien und teilweise auch Schwungradspeicher zur kurz- und mittelfristigen Netzstabilisierung und -optimierung eingesetzt, wobei relativ schlechte Wirkungsgrade aus wirtschaftlichen Gründen (Reduktion des sehr teuren Dieselstromanteils) akzeptiert werden können. Speicherung von Windstrom durch Wasserstoffelektrolyse und -verbrennung (siehe Wasserstoffspeicherung, Wasserstoffwirtschaft) und Schwungradspeicher wurde in einem Modellprojekt auf der norwegischen Insel Utsira erprobt.
Blindleistungsregelung
Ältere drehzahlstarre Windenergieanlagen mit Asynchrongeneratoren, die in der Frühphase der Windenergienutzung (d. h. von den 1970er bis in die frühen 1990er Jahre) zum Einsatz kamen, haben zum Teil Eigenschaften, die bei einem starken Ausbau Probleme im Netzbetrieb bereiten können; dies betrifft vor allem den sog. Blindstrom. Dem kann durch Blindstromkompensation abgeholfen werden; moderne drehzahlvariable Anlagen mit elektronischem Stromumrichter können den Blindstromanteil ohnehin nach den Anforderungen des Netzes beliebig einstellen und auch Spannungsschwankungen entgegenwirken, so dass sie sogar zur Netzstabilisierung beitragen können. Im Zuge des sogenannten Repowering sind zahlreiche alte Anlagen abgebaut worden.
Politische und ökologische Aspekte heutiger Nutzung
Nachhaltigkeit
Die Windenergie gehört zu den umweltfreundlichsten, saubersten und sichersten Energieressourcen. Ihre Nutzung wird in der wissenschaftlichen Literatur – auch verglichen mit anderen regenerativen Energien – zu den umweltschonendsten Energiegewinnungsformen gerechnet. Wie andere Arten der Energiegewinnung ist auch die Windstromerzeugung mit Eingriffen in die Umwelt verbunden, jedoch sind diese bei der Windenergie gering, leicht zu beherrschen und treten ausschließlich lokal auf. Verglichen mit den Umweltbelastungen der konventionellen Energieerzeugung sind sie vernachlässigbar.
Wie auch andere erneuerbare Energien ist die Energie des Windes nach menschlichem Ermessen zeitlich unbegrenzt verfügbar und steht somit im Gegensatz zu fossilen Energieträgern und Kernbrennstoffen dauerhaft zur Verfügung. Ebenfalls entsteht bei der Windenergienutzung nahezu keine Umweltbelastung infolge von Schadstoffemissionen, wodurch die Windenergie als wichtiger Baustein der Energiewende sowie einer nachhaltigen und umweltschonenden Wirtschaftsweise angesehen wird. Da sie zugleich weltweit und im Überfluss vorhanden ist und ihre Wandlung vergleichsweise kostengünstig ist, wird davon ausgegangen, dass sie in einem zukünftigen regenerativen Energiesystem zusammen mit der Photovoltaik den Großteil der benötigten Energie bereitstellen wird.
Aufgrund ihres sehr geringen CO2-Ausstoßes von ca. 9,4 g/kWh gilt sie darüber hinaus als wichtiges Mittel im Kampf gegen die globale Erwärmung. Zudem gibt es bei der Windenergie keine Risiken von großen oder extrem großen Umweltschädigungen wie bei der Kernenergie infolge von schweren Unfällen. Über 20 Betriebsjahre liefert eine 5-MW-Anlage bei jährlich 2000 Volllaststunden insgesamt 200 Millionen kWh Ökostrom, wodurch 120.000 Tonnen Kohlenstoffdioxid eingespart werden können.
Befürworter der Windenergie versprechen sich von ihrer Nutzung zudem mehr Gerechtigkeit, da auf diese Weise insbesondere vor dem Hintergrund steigender Preis für fossile Energieträger auch Staaten ohne Energieressourcen einen höheren Grad der Selbstversorgung bis hin zur Autarkie in der Energieversorgung erreichen könnten.
Moderne Windenergieanlagen besitzen eine kurze energetische Amortisationszeit von nur wenigen Monaten.
Bislang nicht gelöst ist das Problem des Recyclings ausgedienter Windkraftanlagen, da die vorhandenen Kapazitäten für die Entsorgung von Windkraftanlagen für die in den nächsten Jahren entstehenden Mengen nicht ausreichen und Verfahren zur Verwertung der aus Verbundwerkstoffen aus verklebten Glas- und Kohlenstofffasern bestehenden Rotorblätter noch entwickelt werden müssen. Nach Feststellungen in einer durch das Umweltbundesamt veröffentlichten Studie werden bei dem Zersägen der Rotorblätter lungengängige Stoffe freigesetzt, die das Lungenkrebsrisiko erhöhen, und eine Verbrennung der verwendeten carbonfaserverstärkten Verbundwerkstoffe ist nur unter extremen Bedingungen möglich.
Flächenverbrauch
Die Energieerzeugung aus Windenergie weist insgesamt einen vergleichsweise niedrigen Flächenverbrauch auf. Die von ihr ausgehende Flächenversiegelung durch die Fundamente ist verglichen mit konventionellen Energiegewinnungsformen sehr gering. Grund hierfür ist, dass die eigentliche Energiegewinnung in der Höhe stattfindet. Nahezu 99 % der von einem Windpark beanspruchten Fläche können weiterhin für ihre ursprünglichen Zwecke genutzt werden. Als Standort werden zumeist landwirtschaftliche Flächen gewählt. In Deutschland stehen etwa 95 % aller Windkraftanlagen auf landwirtschaftlicher Fläche, 3,3 % stehen in Wald- oder Forstgebieten und 1,5 % auf sonstigen Standorten.
Für eine moderne Windkraftanlage geht man von circa 0,4 ha (4.000 m²) beanspruchter Fläche aus. Die Fundamentfläche moderner Anlagen der 3-MW-Klasse liegt bei ca. 350–500 m², die größten derzeit errichteten Windkraftanlagen vom Typ Enercon E-126 liegen bei einer Leistung von 7,6 MW bei einer Fundamentfläche von etwa 600 m². Hinzu kommt bei Verwendung eines Mobilkranes die Kranstellfläche mit einem Flächenverbrauch von circa 0,3 ha, die während des Betriebes der Anlage dauerhaft erhalten bleibt. Kranstellflächen werden zumeist geschottert, wodurch sie wasserdurchlässig bleiben und nicht zur Bodenversiegelung beitragen. Kommt zur Errichtung der Anlage ein Turmdrehkran zum Einsatz, reduziert sich der Flächenbedarf für die Montage des Krans und der Windkraftanlage auf rund 0,12 ha. Daneben kann ggf. ein Neu- oder Ausbau der Zuwegung zur Anlage notwendig werden, zudem wird während der Bauphase temporär eine Bedarfsfläche von 0,2–0,3 ha für die Lagerung und evtl. Vormontage von Anlagenteilen benötigt.
Insgesamt betrug der Flächenverbrauch von Windkraftanlagen in Deutschland im Jahr 2011 rund 100 km². Zum Vergleich: Laut Statistik der Kohlenwirtschaft wurde Stand 2017 seit Beginn der Abbautätigkeiten für Braunkohle in Tagebauen in Deutschland insgesamt 1773 km² Fläche in Anspruch genommen, von der etwa 69,7 % bis Ende 2016 bereits rekultiviert wurden. Dabei wurden mehr als 300 Siedlungen für den Braunkohlebergbau aufgegeben und ca. 100.000 Menschen umgesiedelt. Der Anteil der Braunkohle am deutschen Stromverbrauch lag 2017 grob beim 1,5-fachen der Windstromerzeugung. Geht man von einer Stromproduktion von 6–8 Mio. kWh jährlich und einem Flächenverbrauch von 4.000 m² aus, was typische Werte für eine moderne Binnenlandanlage der 3-MW-Klasse sind, so ergibt sich ein Stromertrag von 1.500–2.000 kWh pro m² Gesamtfläche pro Jahr. Auf Starkwindstandorten liegt der Flächenertrag noch deutlich höher. Zum Vergleich: Bei der Nutzung von Energiemais als Substrat für Biogasanlagen ergeben sich pro Jahr nutzbare Biomethanausbeuten von ca. 45 MWh pro ha bzw. 4,5 kWh pro m² und Jahr. Hiervon kann in einer Biogasanlage ca. 35–40 % in Strom gewandelt werden.
In Deutschland vereinbarte die Ampel-Regierung, dass 2 % der Landesfläche für Windenergie zur Verfügung stehen sollen. Dies entspricht nicht ganz der Fläche von Straßen (2,6 %) und Gewässern (2,3 %). Von diesen 2 % wird wiederum nur ein kleiner Teil tatsächlich für die Windkraftanlagen, Zuwege usw. benötigt, während der Großteil weiter für Landwirtschaft usw. zur Verfügung steht. Setzt man den Wert von 4600 m² Flächenverbrauch für Windkraftanlagen im Wald an, der im offenen Gelände wahrscheinlich zu hoch gegriffen ist, und geht von 5 Windkraftanlagen pro Quadratkilometern aus, so würden von den 2 % Landesfläche nur 2,3 % tatsächlich durch die Windenergie beansprucht. Auf Deutschland hochgerechnet entspricht dies ca. 0,05 Prozent der Landesfläche.
Arbeitsplatz-Zahlen
Die Windenergietechnik erfordert bei gleicher Stromerzeugung ein Mehrfaches an Arbeitsplätzen, verglichen mit konventionellen Kraftwerken. Verglichen mit Kohlekraftwerken, die mit importierter Steinkohle betrieben werden, ist die Zahl der Arbeitsplätze pro generierter kWh um den Faktor 4 höher, verglichen mit Kernkraftwerken etwa um den Faktor 10.
Weltweit waren im Jahr 2017 ca. 1.148.000 Menschen in der Windenergie-Branche beschäftigt. In Deutschland stieg die Zahl der Arbeitsplätze von etwas mehr als Hunderttausend im Jahr 2011 auf rund 149.000 im Jahr 2014 an, etwa 130.500 davon im Bereich Onshore- und etwa 18.700 im Bereich Offshore-Windenergie. 2015 waren etwa 80 Prozent dieser Arbeitsplätze im Bereich Produktion und 20 Prozent in Betrieb und Wartung. Laut einer Studie der 'Gesellschaft für Wirtschaftliche Strukturforschung' (GWS) erstrecken sich die Beschäftigungseffekte auf alle Bundesländer, nicht nur auf die vorwiegend in Norddeutschland befindlichen Zentren des Ausbaus.
2016 waren in Deutschland insgesamt 161.000 Menschen in der Windenergiebranche beschäftigt. Mit dem Einbruch des deutschen Windenergiemarktes fiel diese Zahl laut IG Metall im Jahr 2017 um 26.000 und von 2018 bis Mitte 2019 um weitere 8.000 bis 10.000.
Hemmnisse beim Ausbau
In Deutschland stagniert der Ausbau der Onshore-Windenergie seit 2018. Der Brutto-Zubau der Windenergie an Land lag 2019 auf dem tiefsten Stand seit Einführung des EEG und betrug 1 Gigawatt (GW) bzw. 325 Anlagen. Als Hauptgrund für die Stagnation wird die Genehmigungssituation gesehen, insbesondere die Pflicht zum bundesweiten Ausschreiben neuer Windkraftanlagen seit 2017 und Förderzusagen an immissionsschutzrechtlich noch nicht genehmigte Windenergieprojekte. Auch fehlende Flächen, zunehmende Klagen von Naturschutzverbänden und Konflikte mit der Luftverkehrssicherung spielen eine Rolle.
Gesellschaftliche Akzeptanz
Eine große Mehrheit der Bevölkerung befürwortet die Windenergienutzung, auch in Regionen noch ohne Windkraftanlagen, wie Umfragen international belegen (Deutschland, Schweiz, USA). In der Vergangenheit gründeten sich trotzdem gelegentlich Bürgerinitiativen gegen geplante Projekte.
Umweltauswirkungen
Da eine Windkraftanlage aus der Energie des Windes Elektrizität erzeugt, muss der Wind hinter der Anlage weniger Energiegehalt aufweisen als vor ihr. Eine Windkraftanlage wirft immer einen Windschatten auf die windabgewandte Seite (Leeseite). Hinter der Anlage entsteht stets ein Nachlauf (Wake-Effekt), ein turbulenter Windschweif mit einer geringeren Geschwindigkeit im Vergleich zum Wind vor der Anlage. Hierdurch entstehen Strömungen und Verwirbelungen. Windparks durchmischen die unteren Luftschichten, was insbesondere in der Nacht zu lokaler Erwärmung führt. Eine Studie, der ein Szenario zugrunde liegt, dass die USA den gesamten derzeitigen Strombedarf aus Windkraft deckt, kommt zu dem Schluss, dass sich dadurch die Luft in 2 m Abstand zur Erdoberfläche auf dem Gebiet der USA um durchschnittlich 0,24 °C erwärmen würde. Als Ursache wurde neben dem direkten Durchmischungseffekt auch die Erhöhung des vertikalen Gradienten der Windgeschwindigkeit genannt, was verstärkte Turbulenzen bewirke. Im Gegensatz zur durch Treibhausgase hervorgerufenen globalen Erwärmung kommt es also nicht zu einer Erhöhung der in der Atmosphäre befindlichen Wärmeenergie, sondern zu einer Umverteilung bereit vorhandener Energie. Langfristig würde sich diese Erwärmung der oberflächennahen Luftschicht zugleich mit der Abkühlung aufgrund geringerer Kohlendioxid-Emissionen relativieren. Insgesamt seien die klimatischen Effekte der Windenergie nicht notwendigerweise vernachlässigbar, aber klein im Vergleich zur Verbrennung fossiler Brennstoffe. Zugleich schneide die Windenergie „pro gewonnener Energieeinheit in jeglicher vernünftigen Maßeinheit langfristiger Umweltauswirkungen“ besser ab als fossile Brennstoffe.
Laut einer Mitteilung des Westdeutschen Rundfunks sind die Umweltkosten der Windenergie am geringsten. Sie betragen 0,28 ct/kWh, wobei 0,18 ct davon auf Treibhausgase entfallen (Herstellung, Transport, Rückbau, Recycling).
Internationale Entwicklung
Globale Statistik
International liegen nach installierter Leistung die Volksrepublik China, USA, Deutschland, Indien und Spanien auf den ersten fünf Rängen. Österreich lag Ende 2017 mit 2828 MW außerhalb der Top 20, die Schweiz verfügt bisher nur über eine geringe Windenergieleistung. 2017 deckte die Windenergie in mindestens 13 Staaten mehr als 10 % des Elektrizitätsbedarfes. Auch in der EU lag der Anteil mit ca. 11,6 % über diesem Wert, wobei insgesamt 8 EU-Mitgliedsstaaten über dem Durchschnitt lagen. Den höchsten Windstromanteil hatte mit 43,4 % Dänemark. Ein besonderes schnelles Wachstum hatte Uruguay vorzuweisen, das den Windstromanteil in nur drei Jahren von 6,2 auf 26,3 % steigerte.
Die Ende 2017 weltweit installierte Leistung hat ein Stromerzeugungspotenzial, das 5,6 % des Weltstromverbrauchs entspricht. Das Regelarbeitsvermögen der rund 142 GW, die Ende 2015 in der EU installiert waren, liegt in einem durchschnittlichen Jahr bei 315 TWh, entsprechend 11,4 % des Elektrizitätsbedarfes der EU.
In Deutschland, Dänemark und Spanien gab es über Jahre eine durch den politischen Willen getragene gleichmäßige Entwicklung der Windenergie. Dies hat zur Entwicklung eines neuen Industriezweiges in diesen drei Staaten geführt. Im Jahre 2009 hatten die führenden Hersteller mit Standorten in Deutschland noch einen Anteil von mehr als 36 %, zwei Jahre später hatten allein die fünf größten asiatischen Unternehmen einen Anteil von 36 % am Weltmarkt erreicht. Insgesamt decken die zehn Top-Firmen der Windenergiebranche rund 80 % des weltweiten Bedarfes ab. Deutschland ist einer der Hauptexporteure von Windkraftanlagen.
2022 wurden weltweit ca. 78 GW neu installiert, das meiste davon in der Volksrepublik China.
Quelle: GWEC
Deutschland
Geschichtliche Entwicklung
Ganz entscheidend für den Boom der Windenergie in der Bundesrepublik Deutschland war das Stromeinspeisungsgesetz von 1991, das die Stromnetzbetreiber zur Abnahme des erzeugten Stroms verpflichtete. Diese Förderung des Technologieeinstiegs in erneuerbare Energien wurde von der von Herbst 1998 bis Herbst 2005 bestehenden Rot-Grünen Bundesregierung im Jahr 2000 im Erneuerbare-Energien-Gesetz (EEG) mit Einschränkungen fortgeschrieben. Das Gesetz sicherte den Betreibern von Windenergieanlagen feste Vergütungen für den eingespeisten Strom zu. In der Folge verdoppelte sich die installierte Leistung etwa alle zwei Jahre, bis etwa 2002. Ende 2003 war rund die Hälfte der gesamten europäischen Windenergieleistung (28.700 MW) in Deutschland installiert. Mittlerweile haben andere europäische Staaten stark aufgeholt, während in Deutschland die Vergütung reduziert wurde, sodass 2017 der deutsche Anteil an der europäischen Windkraftleistung nur noch gut 31 % betrug.
Die EEG-Förderung der Investoren stärkte indirekt die Stellung der deutschen Windkraftindustrie, was andere EU-Staaten kritisierten. Vom Europäischen Gerichtshof (EuGH) wurde jedoch mit Entscheidung vom 13. März 2001 C-379/98 bestätigt, dass es sich bei Transfers aus dem EEG um keine Beihilfen im Sinne des EG-Vertrages handelt. Auch der Subventionsbegriff laut § 12 des Stabilitäts- und Wachstumsgesetzes wird vom EEG nicht erfüllt. Die strukturellen Wirkungen des EEG sind denjenigen von Subventionen vergleichbar, jedoch wird die Förderung von den Stromkunden aufgebracht und nicht aus Steuermitteln.
Statistik
Bundesweit
Deutschland hatte bis Ende des Jahres 2007 mit 22.247 MW die höchste installierte Leistung weltweit installiert, 2008 wurde es von den USA und 2010 von China übertroffen. Ende 2014 waren in Deutschland 38.215 MW Onshore-Windkraft installiert, mit einem Zuwachs von 4.665 MW Neuinstallation allein im Jahr 2014. Offshore waren 1044 MW installiert, davon 523 MW neu ins Netz genommen. Bis Ende 2017 wuchs die installierte Leistung auf 55.876 MW an.
Mit Enercon, Siemens Windenergie, Senvion und Nordex haben mehrere Windenergieanlagenhersteller ihren Sitz in Deutschland, weitere in der Windbranche tätige Unternehmen wie Vestas und General Electric betreiben Werke in Deutschland. Im Jahr 2010 betrug der Exportanteil der Branche 66 %, der Umsatz lag im Jahr 2011 bei über 10 Mrd. Euro.
Im Jahr 2019 lieferte die Windenergie nach vorläufigen Zahlen der AG Energiebilanzen ca. 126,4 TWh elektrische Energie, womit sie vor Braunkohle (114,0 TWh), Erdgas (91,3 TWh), Kernenergie (75,2 TWh) und Steinkohle (56,9 TWh) die wichtigste Stromquelle in Deutschland war. Windkraftanlagen an Land produzierten 101,8 TWh, Offshore-Windparks 24,6 TWh TWh. Insgesamt produzierten Kraftwerke in Deutschland 611,5 TWh, von denen 569,0 TWh im Inland verbraucht wurden, der Rest wurde in europäische Nachbarstaaten exportiert. Prozentual betrug der Anteil der Windenergie an der Stromerzeugung rund 21 %, Braunkohle lag bei ca. 19 %. Tagesaktuelle Einspeisedaten (für Deutschland) sind für die Jahre ab 2011 im Internet frei zugänglich.
Den bisherigen Windstromrekord hält der Monat Februar 2020. In diesem außergewöhnlich stürmischen Monat produzierten Windkraftanlagen nach vorläufigen Daten des BDEW ca. 20,9 TWh elektrischer Energie, was etwa der Jahresstromproduktion von zwei Kernkraftwerken entspricht. Zugleich wurde damit der bisherige Windstromrekord von 16,5 TWh um rund 25 % übertroffen. Ungewöhnlich stark war insbesondere die Kalenderwoche 8, in der die Windenergie mehr als 55 % des deutschen Strombedarfs deckte (siehe Grafiken in der folgenden Galerie).
Bestand in den einzelnen Bundesländern
Da das jährliche Windaufkommen schwankt, wird vom Deutschen Windenergie-Institut (DEWI) für die Berechnung der Windenergieanteile nach Bundesländern ein sogenanntes 100-%-Jahr (d. h. ein durchschnittliches Windjahr gemäß dem Windindex) als Berechnungsgrundlage verwendet.
Der Aufbau von Windkraftanlagen in verschiedenen Bundesländern hat diverse Vorteile. Während z. B. in den norddeutschen Bundesländern tendenziell höhere Windgeschwindigkeiten herrschen, was die Wirtschaftlichkeit der Windenergie positiv beeinflusst, könnten sich durch die zusätzliche Erschließung von Standorten im Binnenland positive Effekte für die Energiesicherheit ergeben.
Der Bau von Windkraftanlagen ist abhängig von der Gebietskategorie, der Art des Grundstückes und der Bebauung in der Umgebung. In den Regionalplänen können Vorranggebiete und Vorbehaltsgebiete ausgewiesen werden. Die Regelungen zum Abstand zu Wohngebieten wurden und werden kontrovers diskutiert.
Das Bundesland Schleswig-Holstein plante 2012, ab 2020 300 % seines theoretischen Strombedarfs durch erneuerbare Energien zu decken, den größten Teil davon durch Windenergie. Niedersachsen plante im Januar 2012, bis 2020 90 % des Stromes aus erneuerbaren Quellen zu beziehen, wovon der größte Teil von der Onshore-Windenergie gedeckt werden soll. Dieses Ziel wurde erreicht: 2020 stammten rund 96 % des Stromverbrauchs in Niedersachsen aus erneuerbaren Quellen (2019: 81 %).
Offshore-Windenergie
Seit 2009 ist in Deutschland der Bau von Offshore-Windparks wirtschaftlich attraktiv. Als erster Offshore-Windpark wurde der als kommerzielles Testobjekt entwickelte Offshore-Windpark alpha ventus im Jahr 2010 in Betrieb genommen. 2011 folgte der Ostsee-Windpark Baltic 1. Größere Anlagen gingen erst danach sukzessive ans Netz. Insgesamt ist der Ausbau der Offshore-Windenergie in Deutschland erst im Anfangsstadium begriffen.
Im Jahr 2015 speisten insgesamt 546 neue Offshore-Windkraftanlagen mit einer Gesamtleistung von 2.282,4 MW ins Netz ein. Zusätzlich wurden 41 weitere Windkraftanlagen errichtet, deren Netzanschluss noch aussteht. Insgesamt waren Ende 2015 792 Offshore-Windkraftanlagen mit einer Gesamtleistung von 3.294,9 MW in Betrieb. Ende Juni 2019 waren 1.351 Offshore-Windkraftanlagen mit Netzeinspeisung und einer Gesamtleistung von 6.658 MW in Betrieb, sowie 56 Anlagen mit 410 MW ohne bisherige Netzeinspeisung.
Australien
Belgien
Brasilien
Chile
Dänemark
Dänemark war u. a. aufgrund seiner durch die geographische Lage des Landes bedingten guten Windbedingungen sowie der Tradition der Windenergienutzung, auf die in den 1970er Jahren institutionell wie technologisch aufgebaut werden konnte, der Pionier in der Entwicklung der modernen Windkrafttechnik (siehe auch Geschichte der Windenergienutzung). Von Dänemark aus verbreitete sich die Windenergienutzung ab den 1970er Jahren weltweit. Bereits 1981 wurde ein erstes Einspeisegesetz eingeführt, das Windstromproduzenten einen festen Preis pro kWh zusicherte und damit Investitionssicherheit schuf. Im Jahr 2012 überstieg der Anteil der Windenergie am dänischen Stromverbrauch zum ersten Mal die 30-%-Marke. Bis 2020 soll der Anteil gemäß den Ausbauplanungen der dänischen Regierung 50 % betragen. Im Jahr 2019 deckte Windstrom 47 % des dänischen Strombedarfes. 2015, als ca. 42 % Windstromanteil erreicht wurden, wurden ca. 14,1 TWh Windstrom produziert.
Dänemark setzt sowohl auf die Windenergie an Land als auch auf die Windkraft im Meer (Offshore-Windenergie). Im Gegensatz zu Deutschland, wo die meisten Offshore-Windparks zum Schutz des Wattenmeers sowie aus Sorge um touristische Belange weit vor der Küste geplant sind, sind die dänischen Windparks vor allem im küstennahen Bereich in geringen Wassertiefen zu finden. Bedeutende Offshore-Windparks sind Horns Rev, Nysted und Anholt. Im März 2013 überschritt die in Offshore-Windparks installierte Anlagenleistung 1000 MW. Nach einer Untersuchung aus dem Jahr 2020 sieht die dänische Windagentur ein Potenzial von bis zu 18 GW.
Japan
In Japan gibt es ähnlich wie in Deutschland einen festen Vergütungssatz für erneuerbare Energien. Die Vergütung für elektrischen Strom aus Windenergieanlagen beträgt seit 1. Juli 2012 mit 23,1 Yen pro kWh (umgerechnet 24 Cent im Berichtsmonat Juli 2012) deutlich mehr als in anderen Ländern. Stand Ende 2019 hatte Japan 4 GW an Erzeugungskapazität aus Wind. Nach Plänen der japanischen Regierung soll bis 2040 allein Offshore 30-45 GW an Erzeugungskapazität aufgebaut werden.
Niederlande
Österreich
Ende 2020 waren in Österreich 1.307 Windenergieanlagen (WEA) mit einer Gesamtleistung von 3.120 MW in Betrieb. Sie produzierten rechnerisch genug Strom für 2 Millionen Haushalte.
2014 war mit zusätzlichen 411 MW Windkraftleistung das bisher stärkste Ausbaujahr in Österreich. Fast die Hälfte davon (192 MW) wurde im Burgenland errichtet. Das Burgenland ist seit März 2013 rechnerisch stromautark.
Die jährliche Gesamtproduktion aller Windräder Österreichs belief sich 2017 auf ungefähr 7 TWh. Dies entsprach zu dieser Zeit etwa 11 Prozent des gesamten österreichischen Strombedarfs. 2019 wurden etwa 13 Prozent des Bedarfs aus Windkraft gedeckt.
In Oberzeiring in der Steiermark wurde 2002 der Tauernwindpark (damals 11 × 1,75 MW = 19,25 MW Gesamtleistung) errichtet, welcher Österreichs bisher höchstgelegener Windpark auf 1900 m Seehöhe ist. Er umfasst nach einem Umbau im Jahr 2019 zehn Anlagen mit einer Gesamtleistung von 32 MW.
Mit Abstand am meisten Windenergie wird in Niederösterreich produziert. Allerdings nahm der dortige Ausbau zuletzt wieder deutlich ab.
In Vorarlberg steht noch kein größeres Windkraftwerk. Eine Initiative von Privaten, Bürgermeistern und Experten hat im Mai 2022 die Planung für einen Windpark auf dem Pfänder wieder aufgenommen.
Polen
Portugal
Ende 2019 hatte Portugal eine Windkraftleistung von 5.437 MW aufgebaut. (2015: 5.033 MW, 2016: 5.313 MW, 2017: 5.313 MW durch 2.743 Turbinen in 257 Windparks). Am gesamten Stromverbrauch betrug der Windstromanteil 24 % im Jahr 2017, 27 % 2019 und 24,4 % 2020.
Schweden
Schweiz
Ab 1996 entstand mit dem Windkraftwerk Mont Crosin im Kanton Jura der erste leistungsstarke Windpark in der Schweiz; er wurde bis 2013 auf eine Leistung von 29 MW ausgebaut. Auf der Gütsch ob Andermatt steht auf rund 2300 m über dem Meeresspiegel der Windpark Gütsch, er hat seit 2012 vier Anlagen mit insgesamt 3,3 MW Leistung. Der Windpark Gries ist Europas höchstgelegener Windpark und steht auf rund 2500 m über dem Meeresspiegel beim Gries-Stausee im Kanton Wallis; es handelt sich um vier Enercon-Turbinen mit zusammen 9,3 MW Leistung.
Mit Einführung der kostendeckenden Einspeisevergütung (KEV) 2009 sind einige Erweiterungen und neue Windparks entstanden. Ende 2017 waren in der Schweiz insgesamt 37 Anlagen mit einer Gesamtleistung von 75 MW installiert und am Netz. Seit 2014 werden in der Schweiz jährlich mehr als 100 GWh erzeugt (2014: 100,9 GWh.; 2015: 110 GWh; 2016: 108,6 GWh 2017: 132,6 GWh). 2020 rechnet das BfE mit etwa 140 GWh
Das Bundesamt für Energie (BfE) hat den Windatlas 2016 und den Windatlas 2019 veröffentlicht. Letzterer zeigt im Mittel 0,5 Meter pro Sekunde geringere Windgeschwindigkeiten als der Wiindatlas 2016.
Spanien
Die Entwicklung der modernen Windenergienutzung begann in Spanien Mitte der 1990er Jahre, als staatliche Förderungen eingeführt wurden. Diese waren industriepolitisch motiviert, wobei die Schaffung neuer Arbeitsplätze im Vordergrund stand. Zudem sind die geographischen Bedingungen für die Windkraft günstig sowie Widerstände durch die Bevölkerung aufgrund der geringen Besiedlungsdichte selten. Bis 2006 hatte Spanien bei der installierten Leistung mit 11.630 MW weltweit hinter Deutschland den zweiten Platz inne. Bis 2012 wurden mehr als 11 GW zugebaut, was aber nicht verhindern konnte, dass China und die USA nach installierter Leistung an dem Land vorbeizogen: 2012 lag Spanien mit einer installierten Leistung von 22,8 GW weltweit auf dem vierten Platz, womit es weiterhin zu den führenden Windenergienutzern gehörte.
Nach vorläufigen Zahlen des Netzbetreibers Red Eléctrica de España war die Windenergie im Jahr 2013 der wichtigste spanische Stromproduzent. Mit einem Anteil von 21,1 % lag die Windenergie damit knapp vor der Kernenergie mit 21,0 %, Kohlekraft (14,6 %) und Großwasserkraft (14,4 %). Die Gesamterzeugung Spaniens betrug 246,17 TWh. Spanien ist nach Angaben der Windkraft-Fachzeitschrift Windpower Monthly damit das erste Land, in dem die Windenergie auf Platz 1 der Erzeugungsstatistik liegt. Ende 2019 lag die in Spanien installierte Gesamtleistung der Windkraftwerke bei 25.808 MW, der zweitgrößte Wert in Europa (nach Deutschland). Der Anteil des Windstroms am gesamten Verbrauch lag 2019 bei 21 %.
Mit Siemens Gamesa hat einer der größten Windkraftanlagenhersteller der Welt seinen Sitz in Spanien. Zudem avancierte Iberdrola zu einem weltweit führenden Investor in der Branche.
Vereinigte Staaten
Die USA sind nach Dänemark das Land, das auf die längste Geschichte der modernen Windstromnutzung zurückblicken kann. Erste Fördermaßnahmen wurden Ende der 1970er Jahre infolge der Ölkrisen beschlossen. Daraufhin setzte in Kalifornien, wo neben der staatlichen Förderung auch ein bundesstaatliches Förderprogramm aufgelegt wurde, Anfang der 1980er Jahre ein früher Windenergieboom ein. Ende 2020 waren in den USA Windkraftanlagen mit einer Leistung von 122,3 GW installiert (2016: 82,2 GW, 2019: 105,4 GW). Der Zubau 2020 betrug 16,2 GW. Im Jahr 2015 wurden 191 TWh Strom aus Windenergie produziert, 2020 waren es 338 TWh, das waren 8,4 % der bereitgestellten elektrischen Energie.
Gefördert werden Windkraftanlagen – wie auch andere Formen erneuerbarer Energien – in den USA per Production Tax Credit; die Höhe dieser Steuergutschrift betrug 2013 2,2 US-Cent/kWh. Diese läuft (Stand November 2016) bis 2020. Obwohl es in den USA vor 2016 keine Offshore-Windparks gab, kamen Windkraftanlagen 2011 auf einen vergleichsweise hohen Kapazitätsfaktor von 33 %, entsprechend etwa 3000 Volllaststunden.
Volksrepublik China
Erste Schritte zur modernen Windenergienutzung gab es in der Volksrepublik China bereits in den 1980er Jahren, als der Germanische Lloyd ein Testfeld in der Inneren Mongolei betrieb. Zudem wurden, unterstützt durch Förderprogramme, kleine Windkraftanlagen nach China geliefert, um dort die Elektrifizierung des Landes voranzutreiben. Über eine Nischenfunktion kamen diese Projekte jedoch nicht hinaus.
Seit Mitte der 2000er Jahre wird die Windenergie in der Volksrepublik dagegen massiv ausgebaut. Ende 2006 waren erst 2,6 GW installiert, bis 2009 verdoppelte sich die Kapazität jährlich (Ende 2009 waren 25 GW installiert). 2010 wurden 19 GW zugebaut, womit in diesem Jahr rund die Hälfte der weltweit zugebauten Leistung auf China entfiel. Bis Ende 2016 waren 168,7 GW installiert; gut ein Drittel der weltweit installierten Leistung. Der Zubau im Jahr 2017 betrug 19,5 GW. Die Stromproduktion lag 2015 bei 186,3 TWh, was ca. 3,3 % der chinesischen Gesamtproduktion entsprach. Dieses Wachstum übertraf deutlich die Erwartungen des zwölften Fünfjahresplans von 2011, in dem ein Ausbau auf 200 GW bis zum Jahr 2020 vorgesehen war. 2016 wurde das Ziel nur auf 250 GW angehoben und eine moderate Absenkung der Einspeisevergütungen beschlossen, da es regional Probleme mit den Netzausbau gibt. 2020 nahm China Anlagen mit einer Leistung von etwa 58 Gigawatt neu in Betrieb.
Literatur
Albert Betz: Windenergie und ihre Ausnutzung durch Windmühlen. Ökobuch, Kassel 1982, ISBN 3-922964-11-7. (Reprint der Ausgabe Vandenhoeck & Ruprecht, Göttingen 1926).
Horst Crome: Handbuch Windenergie-Technik. Ökobuch Verlag, ISBN 3-922964-78-8.
Robert Gasch, Jochen Twele (Hrsg.): Windkraftanlagen. Grundlagen, Entwurf, Planung und Betrieb. 9., aktualisierte Auflage. Springer, Wiesbaden 2016, ISBN 978-3-658-12360-4.
Erich Hau: Windkraftanlagen – Grundlagen, Technik, Einsatz, Wirtschaftlichkeit. 5. Auflage. Springer, Berlin/Heidelberg 2014, ISBN 978-3-642-28876-0 .
Siegfried Heier: Nutzung der Windenergie. 7. Auflage. Fraunhofer IRB Verlag, Stuttgart 2016, ISBN 978-3-8167-9587-2.
Siegfried Heier: Windkraftanlagen: Systemauslegung, Netzintegration und Regelung. 5. Auflage. Vieweg/Teubner, Wiesbaden 2009, ISBN 978-3-8351-0142-5.
Nicole Hesse: Windwerkerei. Praktiken der Windenergienutzung in der frühen deutschen Umweltbewegung. In: Technikgeschichte, , 83 (2016) H. 2, S. 125–150.
Matthias Heymann: Die Geschichte der Windenergienutzung 1890–1990. Campus-Verlag, Frankfurt am Main 1995, ISBN 3-593-35278-8.
Martin Kaltschmitt, Wolfgang Streicher, Andreas Wiese (Hrsg.): Erneuerbare Energien. Systemtechnik, Wirtschaftlichkeit, Umweltaspekte. Springer Vieweg, Berlin / Heidelberg 2013, ISBN 978-3-642-03248-6.
Jens-Peter Molly: Windenergie: Theorie, Anwendung, Messung. 2., vollst. überarb. u. erw. Auflage. Verlag C.F. Müller, Karlsruhe 1990, ISBN 3-7880-7269-5.
Mario Neukirch: Die internationale Pionierphase der Windenergienutzung, Diss. Göttingen 2010, uni-goettingen.de (PDF; 1,8 MB)
Volker Quaschning: Regenerative Energiesysteme. Technologie – Berechnung – Simulation. Hanser, München 2015, ISBN 978-3-446-44267-2.
Stefano Reccia, Daniel Pohl, Denise von der Osten: CleanTech Studienreihe. Band 2: Windenergie. Deutsches CleanTech Institut, Bonn 2009, ISBN 978-3-942292-02-3.
Alois Schaffarczyk (Hrsg.): Einführung in die Windenergietechnik. Carl Hanser Verlag, München 2012, ISBN 978-3-446-43032-7.
Hermann-Josef Wagner, Jyotirmay Mathur: Introduction to wind energy systems. Basics, technology and operation. Springer, Berlin/Heidelberg 2013, ISBN 978-3-642-32975-3.
Viktor Wesselak, Thomas Schabbach, Thomas Link, Joachim Fischer: Handbuch Regenerative Energietechnik. 3., aktualisierte und erweiterte Auflage. Berlin/Heidelberg 2017, ISBN 978-3-662-53072-6.
Daniel Hautmann: Windkraft neu gedacht, Carl Hanser Verlag, München 2020, ISBN 978-3-446-46460-5.
Weblinks
[ Dia-Show der Bilder-Kategorie Wind turbines in Germany]
Bundesverband WindEnergie (Deutschland)
Fördergesellschaft Windenergie (Deutschland)
IG Windkraft (österreichische Interessenvertretung für Windenergiebetreiber, -hersteller und -förderer)
EWEA: Europäischer Windkraftverband (englisch)
Informationen zur Windenergie beim Bundesministerium für Wirtschaft und Energie
Windenergie – Informationen des Bundesamts für Energie (Schweiz)
Portal „Windenergie“ bei der Agentur für Erneuerbare Energien
Einzelnachweise
|
Q43302
| 254.837451 |
6420
|
https://de.wikipedia.org/wiki/1770
|
1770
|
Ereignisse
Politik und Weltgeschehen
Nordamerikanische Kolonien
23. Februar bis 25. November: Auch Samuel Hearne zweite im Auftrag der Hudson’s Bay Company unternommene Überlandexpedition scheitert mit dem Ziel, einen Nachweis für die Nordwestpassage zu erbringen, die Kupferminen am Coppermine River zu untersuchen, die durchstreifte Landstriche zu erforschen sowie die Indianerstämme zu Handelsbeziehungen mit der Hudson’s Bay Company zu bewegen.
Aus seinen Fehlern lernend, entschließt sich Hearne, als einziger Europäer mit einer Gruppe von Indianern unter Führung des Häuptlings Matonabbee aufzubrechen. Bei der von 1770 bis 1772 fast 19 Monate dauernden dritten Expedition, die am 7. Dezember beginnt, hat Matonabbee, der das zweifache Scheitern auf das Fehlen von Frauen zurückführt, wesentlichen Anteil am Erfolg.
5. März: Beim Massaker von Boston werden bei einer Straßenschlacht fünf Zivilisten durch eine provozierte britische Bewachungseinheit getötet. Der Vorfall schürt weitere Unzufriedenheit unter den Kolonisten.
Falklandkrise
6. Juni: Eine spanische Flotte unter General Juan Ignacio de Madariaga erobert während der Falklandkrise mit Großbritannien die Siedlung Port Egmont auf Westfalkland. Madariaga zerstört die britischen Befestigungen und fordert die Briten ultimativ auf, die Inseln zu verlassen. Damit die Nachricht von diesem Angriff jedoch zuerst von den Spaniern nach Europa gebracht werden kann, demontiert er das Ruder des einzigen britischen Schiffes und bricht am 30. Juni nach Spanien auf.
20. August: Der spanische Botschafter in London unterrichtet den zuständigen Secretary of State for the Southern Department von der Entsendung von General Madariaga. Die Spanier wollen weiterhin einen Konflikt vermeiden und bezeichnen die Expedition als eine Eigenmächtigkeit des Gouverneurs von Buenos Aires. Großbritannien verlangt die Räumung der Falklandinseln durch Spanien.
7. Dezember: Thomas Thynne, 1. Marquess of Bath tritt im Zuge der Falklandkrise als Secretary of State zurück.
James Cooks erste Südseereise
22. Januar: James Cook durchfährt als erster Europäer mit der Endeavour die Cookstraße und weist damit Neuseeland als Doppelinsel nach.
11. März: James Cook entdeckt auf seiner ersten Südseereise eine vor der Südinsel Neuseelands gelegene Inselgruppe, den Solander Islands, die er nach dem mitreisenden Botaniker Daniel Solander benennt.
20. April: James Cook sichtet die Küste von New South Wales (Australien), die von ihm in den nächsten Monaten erforscht und kartografiert wird.
28. April: Auf seiner ersten Südseereise erreicht der britische Seefahrer und Entdecker James Cook die Ostküste Australiens und landet an der Botany Bay im heutigen New South Wales.
24. Mai: James Cook landet im heutigen Queensland an der Stelle, an der heute die Ortschaft Seventeen Seventy liegt.
11. Juni: Aus seiner ersten Südseereise läuft James Cook mit seinem Schiff HMS Endeavour beim Cape Tribulation auf dem Endeavour Reef auf Grund. Das so entdeckte Great Barrier Reef hätte beinahe zum Untergang des Schiffes geführt. Während der Reparaturarbeiten der Schiffzimmerleute, die insgesamt sechs Wochen beanspruchen, beobachtet der mitreisende Naturforscher Joseph Banks unter anderem „riesige Hasen“, die von den Eingeborenen Kängurus genannt werden. Danach setzt Cook die Fahrt fort, findet Mitte August die Cook-Passage durch das Great Barrier Reef und kann endlich frei nach Norden segeln.
23. August: Captain James Cook nimmt die Ostküste von Australien für die britische Krone in Besitz.
Am 10. Oktober erreicht er Batavia in Niederländisch-Indien, wo er das Schiff drei Wochen lang gründlich überholen lässt. Während dieser Zeit fallen sieben seiner Männer Durchfallerkrankungen zum Opfer, und viele weitere sterben auf der Weiterfahrt.
Frankreich
19. April: Marie-Antoinette wird in der Wiener Augustinerkirche per procuraturem mit dem Dauphin Louis-Auguste vermählt und beginnt zwei Tage später ihre Brautfahrt nach Versailles.
16. Mai: Der französische Thronfolger Louis Auguste, der spätere König Ludwig XVI., heiratet in Versailles Marie-Antoinette aus dem Hause Habsburg.
24. Dezember: Kriegs- und Außenminister Étienne-François de Choiseul fällt auf Betreiben von Joseph Marie Terray am französischen Hof in Ungnade und wird auf seine Güter verbannt. Auch Marineminister César Gabriel de Choiseul-Praslin wird entlassen.
Eidgenossenschaft
16. März: Patriziat in Luzern: Der Schumacher-Meyer-Handel wird mit einem Friedensschluss beigelegt. Joseph Rudolf Valentin Meyer erklärt sich bereit, für 15 Jahre in die Verbannung zu gehen, sofern er seiner Ehren und Rechte dadurch nicht verlustig gehe. Der von diesem angeklagte Jost Niklaus Joachim Schumacher wird in allen Ehren rehabilitiert, auch Franz Plazid Schumacher darf nach Luzern zurückkehren. Anton Schumacher, der Führer der Schumacher-Partei, vermählt sich in dritter Ehe mit einer Meyer von Schauensee. Ob man beim Friedensschluss auch eine posthume Begnadigung für den 1764 hingerichteten Lorenz Plazid Schumacher anregt, ist nicht bekannt.
Orlow-Revolte in Griechenland/Russisch-Türkischer Krieg
Frühjahr: In Griechenland beginnt die Orlow-Revolte unter Grigori Grigorjewitsch Orlow, Alexei Grigorjewitsch Orlow und Fjodor Grigorjewitsch Orlow gegen die osmanische Fremdherrschaft.
25. März: In Kreta beginnt im Vertrauen auf russische Unterstützungszusagen unter der Führung von Daskalogiannis ein Aufstand gegen die osmanische Herrschaft, der jedoch rasch niedergeschlagen wird.
28. Juni: Feldmarschall Pjotr Alexandrowitsch Rumjanzew-Sadunaiski schlägt an der Donaufront unweit der Räbnia Mogila 20.000 Türken in die Flucht.
5. Juli: Die aus der Baltischen Flotte kommenden Einheiten der zaristischen Marine spüren in der Zeit der Orlow-Revolte die osmanische Flotte in der Bucht von Çeşme auf und eröffnen die Seeschlacht von Çeşme.
7. Juli: Nach der dreitägigen Seeschlacht von Çeşme im Fünften Russisch-Türkischen Krieg ist die Vernichtung der osmanischen Flotte durch die Russen so gut wie abgeschlossen. In der Nacht zum 8. Juli klingen letzte kleinere Kämpfe aus.
18. Juli: Die russische Armee besiegt ein 80.000 Mann starkes türkisches Heer in der Schlacht an der Larga.
1. August: In der Schlacht von Cahul, eine der größten im 18. Jahrhundert, bringt eine die Gegner überraschende Offensive der Russen unter Pjotr Rumjanzew im Krieg mit den Osmanen Beute und militärische Vorteile ein. Die Truppen des Fürsten Nikolai Repnin nehmen Ismail und Kilija ein.
Polen-Litauen
Die Konföderation von Bar erleidet Anfang des Jahres zwei schwere Niederlagen gegen russische Truppen. Noch im selben Jahr verlegt sie den Konföderationsrat von Schlesien nach Ungarn.
Dänemark
Sommer: Während einer Pockenepidemie in Kopenhagen gewinnt der Arzt Johann Friedrich Struensee endgültig das Vertrauen König Christians VII., den er gegen die Pocken impft.
September: In Dänemark wird durch Kabinettssekretär Johann Friedrich Struensee unter anderem die unbeschränkte Preßfreiheit eingeführt.
15. September: Premierminister Johann Hartwig Ernst von Bernstorff wird entlassen.
17. Dezember: Christian VII. ernennt Struensee zum Maître des requêtes (Chef der Gesuche). Damit läuft die Kommunikation zwischen König und Volk allein über Struensee. Am nächsten Tag wird er offizieller Leibarzt des Königs.
27. Dezember: Der Gehejmekonseil, bislang das mächtigste Regierungsgremium im Staat, wird aufgelöst.
Wirtschaft
Ende Februar: Bürgermeister Georg Heinrich von Roßkampff lässt auf den Hammelwasen erstmals den Heilbronner Pferdemarkt abhalten.
Der seit 1745 erscheinende Wandsbecker Mercurius wird vom Hamburger Senat verboten. Heinrich Carl von Schimmelmann gründet daraufhin den ab 1771 erscheinenden Wandsbecker Bothen. Einziger Redakteur ist Matthias Claudius.
Der Klarinettist Bernhard Schott gründet in Mainz den Musikverlag B. Schott’s Söhne.
John Harvey gründet in Glasgow die Whiskybrennerei Yoker.
Wissenschaft und Technik
1. November: Das Berg- und hüttenmännische Lehrinstitut (Vorgänger der Technischen Universität) wird in Berlin gegründet.
14. November: Der schottische Reisende James Bruce erkundet die Quellen des Blauen Nils.
Kultur
Literatur
Johann Christian Dieterich gibt den ersten Göttinger Musenalmanach heraus.
Karl Gottlieb von Windisch gründet in Pressburg die moralische Wochenschrift Der vernünftige Zeitvertreiber.
Musik und Theater
10. Januar: Die Uraufführung der Commedia per musica Le donne letterate von Antonio Salieri erfolgt am Wiener Burgtheater. Mit dieser Komposition legt der junge Salieri den Grundstein für seine erfolgreiche Karriere als Musikdramatiker.
Karneval: Die Pastorale per musica L’amore innocente von Antonio Salieri wird am Wiener Burgtheater uraufgeführt.
30. Mai: Die Oper Armida abbandonata (Die verlassene Armida) von Niccolò Jommelli mit einem Libretto nach Torquato Tassos Epos Das befreite Jerusalem wird am Teatro San Carlo in Neapel uraufgeführt. Die Titelpartie singt Anna Lucia De Amicis. Trotz der allseits gerühmten Besetzung kommt Jommellis Stil mit seiner Chromatik, den komplexen rhythmischen Strukturen und der dichten Instrumentierung beim neapolitanischen Publikum nicht gut an.
26. Dezember: Die opera seria Mitridate, re di Ponto von Wolfgang Amadeus Mozart hat ihre Uraufführung in Mailand. Der Text stammt von Vittorio Amedeo Cigna-Santi nach dem Drama Mithridate von Jean Racine in der italienischen Übersetzung von Giuseppe Parini.
Um 1770 entwickelt sich aus dem Ländler die Tanzform des Walzers.
Religion
14. November: Feierliche Übersetzung der kaiserlich-königlichen-auch-herzoglich-österreichischen höchsten Leichen
Katastrophen
November: In einem Soldatenkrankenhaus außerhalb Moskaus bricht vermeintlich das Fleckfieber aus, das sich im Nachhinein als Pest herausstellt. Im selben Monat kommt es in einer Textilfabrik einer Vorstadt zu weiteren Todesfällen. Im Folgejahr breitet sich die Seuche über die Stadt aus.
Die Hungersnot in Bengalen verursacht in der unteren Ganges-Ebene in Indien schätzungsweise zehn Millionen Todesopfer. Sie wird meist der Herrschaft der Britischen Ostindien-Kompanie zugeschrieben.
In Murshidabad bricht eine Pockenepidemie aus, die rund 63.000 Todesopfer fordert.
Natur und Umwelt
1. Juli: Der Komet Lexell passiert die Erde in ca. 2 Mio. km Entfernung. Dies war laut Internationaler Astronomischer Union (IAU) der dichteste jemals offiziell registrierte Vorbeiflug eines Kometen in der Geschichte der Wissenschaft.
3. September: Das stärkste bislang in Norddeutschland nachgewiesene Erdbeben erschüttert mit der Stärke VII auf der Medwedew-Sponheuer-Kárník-Skala den niedersächsischen Ort Alfhausen, Landkreis Osnabrück.
Geboren
Erstes Quartal
8. Januar: Nathan Smith, US-amerikanischer Politiker († 1835)
10. Januar: Nicolaas Cornelis de Fremery, niederländischer Mediziner, Pharmakologe, Zoologe und Chemiker († 1844)
13. Januar: Carl Friedrich Wilhelm Gottlob von Bibra, deutscher Landwirt und Politiker († 1842)
14. Januar: Adam Jerzy Czartoryski, polnischer Politiker († 1861)
22. Januar: Karl Ferdinand Friedrich von Nagler, bayrischer Generalpostdirektor des Norddeutschen Bundes († 1846)
23. Januar: Georg Heinrich Nöhden, deutsch-britischer Erzieher und Philologe († 1826)
2. Februar: Johann Georg Oestreich, deutscher Orgelbauer († 1858)
9. Februar: Samuel Bell, US-amerikanischer Politiker († 1850)
10. Februar: Alexandre Brongniart, französischer Chemiker, Mineraloge, Geologe und Zoologe († 1847)
10. Februar: Ferdinando Carulli, italienischer Komponist und Gitarrist († 1841)
17. Februar: David Stone, US-amerikanischer Politiker († 1818)
18. Februar: Johann Gottlieb Brucker, deutscher Mediziner († 1829)
18. Februar: Christian Heinrich Rinck, deutscher Komponist und Organist († 1846)
19. Februar: Maximilian von Wimpffen, österreichischer Feldmarschall († 1854)
21. Februar: Georges Mouton de Lobau, französischer General, Pair und Marschall von Frankreich († 1838)
23. Februar: Friedrich Philipp Wilmsen, deutscher reformierter Theologe und Pädagoge († 1831)
25. Februar: Adam Simons, niederländischer reformierter Theologe, Dichter, Rhetoriker und Historiker († 1834)
26. Februar: Anton Reicha, tschechischer Komponist († 1836)
27. Februar: Don Juan Bautista Arriaza y Superviela, spanischer Staatsmann und Dichter († 1837)
28. Februar: Johann Ludwig von Bernuth, preußischer Beamter († 1857)
2. März: Louis Gabriel Suchet, französischer Marschall († 1826)
3. März: Franz Reichetzer, Bergrat während des österreichischen Kaisertums († nach 1843)
4. März: Jean Joseph Jacotot, französischer Gelehrter und Begründer der nach ihm benannten Unterrichtsmethode († 1840)
4. März:Christian Zais, deutscher Architekt († 1820)
5. März: Hans Ernst Karl von Zieten, preußischer Generalfeldmarschall († 1848)
7. März: Gabriel Jean Joseph Molitor, französischer General, Marschall und Pair von Frankreich († 1849)
9. März: Karl von Einsiedel, deutscher Diplomat († 1841)
12. März: François Gérard, französischer Maler († 1837)
20. März: Friedrich Hölderlin, deutscher Dichter († 1843)
20. März: Johann Gottfried Tulla, badischer Ingenieur († 1828)
27. März: Sophie Mereau, deutsche Schriftstellerin († 1806)
29. März: Johann Georg Josef Karl Maria von Aretin, bayerischer Staatsbeamter, Jurist und Nationalökonom († 1845)
Zweites Quartal
2. April: Alexandre Sabès Pétion, Präsident von Haiti († 1818)
5. April: Heinrich Behrmann, deutsch-dänischer Pädagoge, Sachbuchautor und Privatgelehrter († 1836)
5. April: Just Friedrich von Seelhorst, deutscher Beamter († 1857)
7. April: William Wordsworth, britischer Dichter († 1850)
9. April: Johann Georg Kerner, württembergischer Arzt und Chronist der Französischen Revolution († 1812)
9. April: Thomas Johann Seebeck, estnisch-deutscher Physiker (Seebeck-Effekt) († 1831)
10. April: Joseph von Laßberg, deutscher Germanist und Schriftsteller († 1855)
11. April: George Canning, britischer Politiker und Regierungschef († 1827)
11. April: Karl Gustav Friedrich Schwalbe, deutscher Lehrer und Schriftsteller († ?)
15. April: Jana Wynandina Gertrut d’Aubigny von Engelbrunner, deutsche Schriftstellerin, Sängerin und Musikpädagogin († 1847)
17. April: Mahlon Dickerson, US-amerikanischer Politiker († 1853)
10. Mai: Louis-Nicolas Davout, französischer General, Pair und Marschall von Frankreich († 1823)
16. Mai: Carl Friedrich Ernst Aschenborn, preußischer Jurist († 1827)
18. Mai: Ferdinand Heinrich Lachmann, deutscher Pädagoge († 1848)
20. Mai: Anna Emilie, Prinzessin von Anhalt-Köthen und Erbin der Standesherrschaft Pleß († 1830)
24. Mai: Luise Friederike von Preußen, preußische Prinzessin († 1836)
3. Juni: Manuel Belgrano, argentinischer Anwalt, Politiker und General († 1820)
4. Juni: James Hewitt, US-amerikanischer Komponist († 1827)
7. Juni: Robert Banks Jenkinson, britischer Staatsmann († 1828)
8. Juni: Anton Aloys Buchmayer; Bischof von St. Pölten († 1851)
22. Juni: Wilhelm Traugott Krug, deutscher Philosoph († 1842)
24. Juni: Eli P. Ashmun, US-amerikanischer Politiker († 1819)
24. Juni: Albrecht Ludwig Berblinger, württembergischer Schneider, Erfinder und Flugpionier († 1829)
25. Juni: Friedrich Adrian von Arnstedt, deutscher Landrat († 1833)
26. Juni: Johann Christoph Schreiter, deutscher evangelisch-lutherischer Theologe († 1821)
Drittes Quartal
2. Juli: Maximilian Joseph Pozzi, deutscher Bildhauer († 1842)
9. Juli: Kaspar Maximilian Droste zu Vischering, deutscher römisch-katholischer Bischof († 1846)
9. Juli: Abner Lacock, US-amerikanischer Politiker († 1837)
11. Juli: Vincenz Darnaut, österreichischer Geistlicher und Topograf († 1821)
11. Juli: Ludwig von Westphalen, deutscher Beamter († 1842)
23. Juli: Karl Ferdinand Friese, preußischer Staatssekretär und Präsident der Preußischen Hauptbank († 1837)
26. Juli: Charles Willing Byrd, US-amerikanischer Politiker († 1828)
28. Juli: Gerhard Janssen Schmid, deutscher Orgelbauer († 1845)
30. Juli: José Ignacio de Gorriti, argentinischer Politiker und General des Unabhängigkeitskrieges († 1835)
1. August: William Clark, US-amerikanischer Soldat und Entdecker († 1838)
3. August: Friedrich Wilhelm III., preußischer König († 1840)
4. August: François-Etienne Kellermann, französischer Kavalleriegeneral († 1835)
8. August: Charles Marie Auguste de Beaumont d’Autichamp, französischer General († 1852)
10. August: Dorothea Schlözer, deutsche Philosophin und Salonnière, zweite promovierte Frau in Deutschland († 1825)
11. August: Joseph Mendelssohn, deutscher Bankier († 1848)
16. August: François André Michaux, französischer Botaniker († 1855)
22. August: Hans Conrad von Orelli, Schweizer evangelischer Geistlicher und Hochschullehrer († 1826)
25. August: Bernhard Wilhelm Toel, deutscher Geistlicher († 1840)
27. August: Georg Wilhelm Friedrich Hegel, deutscher Philosoph († 1831)
29. August: Ludwig Wilhelm, Landgraf von Hessen-Homburg († 1839)
29. August: Franz Pettrich, deutscher Bildhauer († 1844)
3. September: Johann Heinrich Karl Hengstenberg, preußischer Kirchenliederdichter († 1834)
6. September: Theodor Heinsius, deutscher Sprachforscher und Lexikograf († 1849)
10. September: Christian Friedrich Goedeking, deutscher Beamter († 1851)
10. September: Nikolaus Schuble, deutscher Orgelbauer († 1816)
19. September: Johann Georg Repsold, deutscher Feinmechaniker († 1830)
30. September: Ferdinand Arrivabene, italienischer Jurist und Schriftsteller († 1834)
Viertes Quartal
1. Oktober: Karl vom Stein zum Altenstein, preußischer Politiker († 1840)
5. Oktober: Carl August Alsleben, preußischer Politiker († 1855)
7. Oktober: Max Keller, deutscher Komponist und Organist († 1855)
11. Oktober: Bernhard von Keeß, österreichischer Offizier († 1800)
12. Oktober: James Findlay, US-amerikanischer Politiker († 1835)
17. Oktober: Johann Christian Engel, Historiker († 1814)
19. Oktober: Johann Clarisse, niederländischer reformierter Theologe († 1846)
20. Oktober: Antoine Jay, französischer Jurist und Schriftsteller († 1854)
24. Oktober: Karl Emanuel von Savoyen-Carignan, Fürst von Carignan († 1800)
27. Oktober: Pietro Francesco Galleffi, italienischer Kardinal († 1837)
5. November: Sarah Guppy, britische Erfinderin († 1852)
5. November: Dominique Joseph Vandamme, französischer General in den Napoleonischen Kriegen († 1830)
7. November: Christian Rudolph Wilhelm Wiedemann, deutscher Physiker, Historiker, Naturwissenschaftler und Insektenforscher († 1840)
19. November: Adam Johann von Krusenstern, erster russischer Weltumsegler († 1846)
19. November: Bertel Thorvaldsen, dänischer Bildhauer († 1844)
20. November: Johann Ludwig Klohss, deutscher Mediziner († 1825)
22. November: Caroline von Bourbon-Parma, Mutter der sächsischen Könige Friedrich August II. und Johann († 1804)
11. Dezember: Jan Theobald Held, tschechischer Arzt und Komponist († 1851)
11. Dezember: Samuel Marot, preußischer Theologe († 1865)
getauft 17. Dezember: Ludwig van Beethoven, deutscher Komponist († 1827)
27. Dezember: Carl Weisflog, deutscher Schriftsteller († 1828)
29. Dezember: Wilhelm Karl Friedrich Suckow, war ein deutscher Mediziner († 1848)
Dezember: Samuel White, US-amerikanischer Politiker († 1809)
Genaues Geburtsdatum unbekannt
Vasile Aaron, rumänischer Dichter († 1822)
Heinrich Otto von Aderkas, General der Kaiserlich Russischen Armee († 1840)
Fidel André, deutscher Politiker († 1827)
Zaman Mirza Shah Durrani, Emir des Durrani-Reiches († 1844)
Hamidu Reis, algerischer Korsar († 1815)
Theodor Franz Thiriart, Kölner Buchdrucker und Verleger († 1827)
Sergei Nikolajewitsch Titow, russischer Komponist († 1825)
Gestorben
Erstes Halbjahr
2. Januar: Joseph Anton Feuchtmayer, österreichischer Stuckateur und Bildhauer (* 1696)
7. Januar: Carl Gustaf Tessin, schwedischer Politiker, Reichsrat und Präsident der Staatskanzlei (* 1695)
27. Januar: Johann Karl Philipp Graf Cobenzl, österreichischer Politiker (* 1712)
6. Februar: Franz Kaspar von Franken-Siersdorf, preußischer Weihbischof in Köln (* 1683)
26. Februar: Giuseppe Tartini, italienischer Komponist (* 1692)
5. März: Crispus Attucks, Märtyrer des Massakers von Boston (* 1723)
5. März: Gaetano Chiaveri, italienischer Baumeister und Architekt (* 1689)
14. März: Christoph Langhansen, deutscher Mathematiker und lutherischer Theologe (* 1691)
23. März: Martin van Meytens, niederländischer Maler (* 1695)
27. März: Giovanni Battista Tiepolo, venezianischer Künstler des Barocks (* 1696)
11. April: August Wilhelm Reinhart, deutscher evangelischer Theologe (* 1696)
27. April: José Solís Folch de Cardona, spanischer Offizier, Geistlicher, Kolonialverwalter und Vizekönig von Neugranada (* 1716)
28. April: Marie Camargo, französische Tänzerin (* 1710)
8. Mai: Karl I., paragierter Landgraf von Hessen-Philippsthal (* 1682)
20. Mai: Paul Christian Zink, deutscher Maler (* 1687)
24. Mai: Johann Eberhard Rau, deutscher evangelischer Theologe und Hochschullehrer (* 1695)
27. Mai: Sophie Magdalene von Brandenburg-Kulmbach, hohenzollernische Prinzessin und Königin von Dänemark (* 1700)
30. Mai: François Boucher, französischer Maler, Zeichner und Kupferstecher (* 1703)
23. Juni: Mark Akenside, englischer Arzt und Dichter (* 1721)
Zweites Halbjahr
7. Juli: Johann August von Berger, deutscher Jurist (* 1702)
7. Juli: Suzuki Harunobu, japanischer Künstler (* um 1725)
8. Juli: Jean-Baptiste de Durfort, Marschall von Frankreich (* 1684)
20. Juli: Francis Cotes, englischer Maler (* 1725)
27. Juli: Robert Dinwiddie, britischer Kolonialbeamter (* 1692)
3. August: Guillaume-François Rouelle, französischer Chemiker (* 1703)
7. August: Johann Caspar Richter, Kaufmann, Ratsherr und Ratsbaumeister in Leipzig (* 1708)
22. August: Johann Gottfried Lessing, deutscher lutherischer Theologe (* 1693)
22. August: Christian von Loß, deutscher Kabinettsminister (* 1697)
25. August: Thomas Chatterton, britischer Dichter (* 1752)
17. September: Johann Rudolph von Ahlefeldt, Herr der Güter Damp und Saxdorf (* 1712)
30. September: George Whitefield, englischer Prediger und Mitbegründer des Methodismus (* 1714)
10. Oktober: Hieronymus Annoni, Schweizer reformierter Theologe und Kirchenliederdichter (* 1697)
1. November: Gaspare Traversi, italienischer Maler (* 1722/23)
9. November: John Campbell, 4. Duke of Argyll, schottischer Adeliger, General und Politiker (* um 1693)
11. November: Tupaia, polynesischer Priester, Navigator und Übersetzer für James Cook (um 1724–25)
16. November: Johann Anwander, deutscher Rokokomaler und Freskant (* 1715)
23. November: Felix Adam Joseph von Fugger-Glött, Tiroler Domherr des Kölner Doms (* 1719)
23. November: Adam Rudolf Solger, deutscher evangelischer Geistlicher und Bibliothekar (* 1693)
24. November: George Grenville, britischer Politiker und Staatsmann (* 1712)
26. November: Gerlach Adolph von Münchhausen, Hannoverscher Staatsmann (* 1688)
1. Dezember: Gianbettino Cignaroli, italienischer Maler (* 1706)
5. Dezember: James Stirling, schottischer Mathematiker (* 1692)
9. Dezember: Gottlieb Muffat, österreichischer Organist und Komponist (* 1690)
12. Dezember: Johann Ludwig von Dorville, preußischer Justizminister (* 1714)
13. Dezember: Johann Bätz, deutsch-niederländischer Orgelbauer (* 1709)
22. Dezember: Johann Hinrich Armowitz, deutscher Metall- und Glockengießer
Genaues Todesdatum unbekannt
Johann Heinrich Arnold, badischer Werkmeister (* 1697)
Francesco Barsanti, italienischer Komponist, Oboist und Flötist (* 1690)
Johann Jacob Cramer, deutscher Flötist (* 1705)
Weblinks
|
Q7683
| 321.093909 |
31536
|
https://de.wikipedia.org/wiki/Zellbiologie
|
Zellbiologie
|
Die Zellbiologie, Zytologie (von ‚Zelle‘, ‚Lehre‘) oder Zellenlehre ist ein Teilgebiet der Biologie und der Medizin. Mit Hilfe der Mikroskopie und molekularbiologischer Methoden erforscht die Zellbiologie Zellen, um biologische Vorgänge auf zellulärer Ebene zu verstehen und aufzuklären. Dazu gehört die Untersuchung der verschiedenen Zellkompartimente und der Zellorganellen, der Zellteilung, der Bewegung von Zellen und Zellverbänden sowie der Kommunikation von Zellen untereinander.
Die Zellbiologie hat enge Kontakte mit den Nachbardisziplinen Biochemie, Molekularbiologie, Botanik, Zoologie, Physiologie, Entwicklungsbiologie und Immunologie.
Die Bezeichnung „Zytologie“ wird umgangssprachlich auch synonym für Zytodiagnostik gebraucht.
Geschichte
1590–1610: Lichtmikroskop von Hans und Zacharias Janssen sowie Cornelis Jacobszoon Drebbel
1665–1667: Robert Hooke prägte den Begriff Zelle (cellula, Kämmerchen, „Schachtel“), nachdem er diese als Hohlräume im Gewebe des Flaschenkorks, später dann des Farns und Sonnentaus, mit Hilfe eines der ersten Mikroskope entdeckte und detailliert aufzeichnete (siehe Abbildung).
1675 und 1679: Mikroskopische Beschreibung der Pflanzenzellen durch Marcello Malpighi in Anatome plantarum.
1683: Antoni van Leeuwenhoek entdeckte Mund- und Darmbakterien, parasitäre Einzeller und rote Blutkörperchen.
Zu Beginn des 19. Jahrhunderts wurde die Zelle als Elementareinheit der Pflanzenorgane betrachtet (Franz Meyen (1804–1840)).
1837 beschreibt Jan Evangelista Purkyně „körnige Gebilde“ als Aufbauelemente der Organismen.
1838 begründete Matthias Jacob Schleiden die Zelltheorie mit der Behauptung, dass alle Pflanzen aus Zellen bestehen. Theodor Schwann erweiterte noch im selben Jahr die Aussage auf Tiere. Er stellte fest, dass Zellen von einer Membran umgeben sein müssen und dass jedes Gewebe aus Zellen einer bestimmten Art besteht.
1839: Theodor Schwann zeigte, dass Tiere und Pflanzen aus Zellen bestehen.
1845 veröffentlichte Carl von Siebold ein Buch, in dem er Protozoen als einzellige Lebewesen darstellte und damit zeigte, dass Zellen unabhängig voneinander leben können.
Zur gleichen Zeit widerlegten Louis Pasteur und andere die Theorie, dass Zellen spontan aus toter organischer Materie (generatio spontanea) entstehen können.
1855 bestätigte Rudolf Virchow für das Gebiet der Pathologie die auf Pflanzen bezogene Theorie Meyens, dass jede Zelle aus einer anderen entsteht („omnis cellula e cellula“), und publizierte seine ab 1849 entwickelte Zellularpathologie
1861 zeigte Max Johann Sigismund Schultze, dass das Protoplasma unabhängig von der Art der Zelle immer nahezu die gleichen physikalischen Eigenschaften aufweist.
1902 veröffentlicht Rudolf Höber die Physikalische Chemie der Zelle und der Gewebe.
Siehe auch
Histologie
Literatur
Bruce Alberts, Alexander Johnson, Julian Lewis, Martin Raff, Keith Roberts, Peter Walter: Molecular Biology of the Cell. 4. Auflage. Garland Science, New York 2002, ISBN 0-8153-3218-1; deutsch: Molekularbiologie der Zelle. Aus dem Englischen übersetzt unter der der Leitung von Lothar Jaenicke. 4. Auflage. Wiley-VCH, Weinheim 2003, ISBN 3-527-30492-4.
Andreas Held: Prüfungs-Trainer Biochemie und Zellbiologie. Spektrum Akademischer Verlag, 2004, ISBN 3-8274-1542-X.
Harvey F. Lodish et al.: Molekulare Zellbiologie. 4. Auflage. Spektrum Akademischer Verlag, 2001, ISBN 3-8274-1077-0.
May-Britt Becker, Armin Zülch, Peter Gruss: Von der undifferenzierten Zelle zum komplexen Organismus: Konzepte der Ontogenie. In: Biologie in unserer Zeit. Band 31, Nr. 2, 2001, S. 88–97.
Sven P. Thoms: Ursprung des Lebens. Fischer, Frankfurt am Main, ISBN 3-596-16128-2.
Hans-Achim Müller: Zytologie. In: Enzyklopädie Medizingeschichte. Hrsg. von Werner E. Gerabek, Bernhard D. Haage, Gundolf Keil, Wolfgang Wegner. Walter de Gruyter, Berlin/New York 2005, ISBN 3-11-015714-4, S. 1535–1540.
Bernd Krebs: Beiträge zur Begriffsgeschichte der Nomenklatur der Zellenlehre bis zum Anfang des 20.Jahrhunderts. Dissertation, Ruhr-Universität Bochum 2013 (online), insbesondere S. 38–40.
Helmut Plattner, Joachim Hentschel: Zellbiologie. 5., überarbeitete Auflage. Thieme Verlag, Stuttgart 2017, ISBN 978-3-13-240227-0.
Helmut Plattner: Abenteuer Zellbiologie – Streifzüge durch die Geschichte. Springer Spektrum, Berlin u. a. 2021, ISBN 978-3-662-62117-2.
Weblinks
BioChemWeb – The Virtual Library of Biochemistry, Moleculer Biology and Cell Biology (engl.) – gut organisierte Seite mit vielen (verlinkten) Beiträgen zum Thema – (Dead Link)
Vorlesung Zellbiologie Videoaufzeichnung einer kompletten Vorlesung von Alfred Nordheim, Michael Kiebler und Olaf Heidenreich. TIMMS, Tübinger Internet Multimedia Server. (Dead Link)
Website der Deutschen Gesellschaft für Zellbiologie
Einzelnachweise
|
Q7141
| 597.623882 |
831314
|
https://de.wikipedia.org/wiki/Clonazepam
|
Clonazepam
|
Clonazepam (Handelsname: Rivotril, Hersteller: Roche) ist ein Benzodiazepin, welches in Deutschland hauptsächlich als Antikonvulsivum zur medikamentösen Behandlung zerebraler Krampfanfälle verwendet wird. Clonazepam wird angewendet bei allen Formen der Epilepsie, auch jener des Kindesalters.
Es wurde von Leo Sternbach entwickelt.
Pharmakokinetik
Clonazepam wird nach Verabreichung über den Magen-Darm-Trakt schnell aufgenommen. Die maximale Konzentration im Blut wird nach zwei bis drei Stunden erreicht. Die Ausscheidung erfolgt überwiegend unverändert über die Nieren, teilweise auch über den Stuhl. Ein kleiner Teil wird chemisch umgebaut und dann erst ausgeschieden. Die Plasmahalbwertszeit beträgt etwa 30–40 Stunden. Der Anteil, der an die Eiweißmoleküle im Blut gebunden ist (Plasmaproteinbindung), liegt bei 83–87 %, die Bioverfügbarkeit bei 71–76 %. Es wirkt über die verstärkte Hemmung GABAerger Nervenzellen, indem es am Omega-Rezeptor (Benzodiazepin-Rezeptor) bindet, wodurch die Affinität des GABA zum GABAA-Rezeptor (und damit die Bindungshäufigkeit) verstärkt wird. Durch die Bindung von GABA an den GABAA-Rezeptor erfolgt ein Chlorideinstrom in die Nervenzelle, was zur Hyperpolarisation der Nervenzellmembran und somit zur Hemmung der neuronalen Aktivität führt. Clonazepam ist also kein direkter GABA-Agonist, sondern in seiner Wirkung auf das vorhandene GABA angewiesen, was die Anwendungssicherheit (z. B. gegenüber Barbituraten) deutlich erhöht.
Anwendungsgebiete
In Deutschland ist Clonazepam in erster Linie als Antiepileptikum zugelassen. Aufgrund seiner krampfunterdrückenden Wirkung wird Clonazepam zur Behandlung von Epilepsien auch bei Kindern angewendet. Clonazepam wird zudem für die Behandlung der REM-Schlaf-Verhaltensstörung, die auch als „REM sleep behavior disorder“ (RBD) oder als „Schenck-Syndrom“ bezeichnet wird, als ein Mittel der ersten Wahl empfohlen. Vor dem Schlafengehen eingenommen wird die Muskelaktivität im REM-Schlaf reduziert. In diesem Zusammenhang tritt auch bei langjähriger Einnahme kaum Toleranzbildung und Wirkungsverlust (trotz bestehendem Suchtpotential) auf, was bei dem oft chronischen Verlauf der Erkrankung wichtig ist.
Clonazepam spielt eine Rolle als Ausweichmedikament beim Restless-Legs-Syndrom sowie als Mittel der zweiten Wahl bei therapierefraktärem Tourette-Syndrom. In Deutschland wird es vor allem in der Akutbehandlung, zumeist intravenös oder intramuskulär eingesetzt. Es ist aber auch in Tropfenform und als Tablette verfügbar. Neben der krampflösenden Wirkung wirkt Clonazepam wie alle Benzodiazepine angstlösend und schlafanstoßend. Somit kann Clonazepam auch beim Somnambulismus (Nachtwandeln) angewendet werden.
In den USA gilt Clonazepam als eines der am häufigsten verschrieben Benzodiazepine und wird auch als Mittel der ersten Wahl bei Panikattacken und Angststörungen als Anxiolytikum verwendet. Außerdem soll es Derealisations-/Depersonalisationszustände erträglicher machen. Für diese psychiatrischen Indikationen bestehen in Deutschland jedoch keine behördliche Zulassung, sodass eine entsprechende Anwendung des Mittels nur im Einzelfall durch einen Facharzt abgewogen werden kann, und dementsprechend für diesen Einsatzbereich in Deutschland einer eher geringen Rezeptierung unterliegt, da Off-Label Use.
Weitere Anwendungsgebiete sind die medikamentöse Begleitung des stationären Alkoholentzugs und die seltene konnatale Hyperekplexie.
Anwendung in der Schwangerschaft und Stillzeit
Tierversuche haben unerwünschte Effekte auf den Fetus gezeigt. Deswegen sollte das Arzneimittel während der Schwangerschaft nur bei dringender Notwendigkeit angewendet werden. Clonazepam sollte jedoch nicht plötzlich abgesetzt werden, ohne dies mit einem Arzt abgesprochen zu haben. In der Stillzeit sollte Clonazepam nicht angewendet werden, da es in die Muttermilch übertritt. Bei zwingender Indikation sollte abgestillt werden.
Nebenwirkungen
Entsprechend der Krampfunterdrückung wirkt Clonazepam allgemein dämpfend auf das Zentralnervensystem, so dass es zu Müdigkeit, Schläfrigkeit, Mattigkeit, verminderter Muskelspannung, Muskelschwäche, Schwindelgefühl, Benommenheit, Gleichgewichtsstörungen und verlängerter Reaktionszeit kommen kann. Bei einer Dauertherapie gehen diese Nebenwirkungen durch einen Gewöhnungseffekt meist zurück. Durch einen einschleichenden Behandlungsbeginn lassen sie sich teilweise vermeiden. Weitere häufigere Nebenwirkungen am Zentralnervensystem sind Konzentrationsstörungen, Unruhe, Verwirrtheit und Gedächtnisstörungen, die auch mit unangemessenem Verhalten einhergehen können. Als paradoxe Reaktionen wurden Erregbarkeit, Reizbarkeit, aggressives Verhalten, Nervosität, Feindseligkeit, Angstzustände, Schlafstörungen, Albträume und lebhafte Träume beobachtet. Selten treten allergische Symptome wie Nesselsucht, Juckreiz, Hautausschläge, Schwellung von Gesicht und Mundschleimhaut sowie des Kehlkopfes auf. Ebenfalls selten sind vorübergehender Haarausfall, Pigmentverschiebungen, Übelkeit und Oberbauchbeschwerden, Kopfschmerzen, Brustschmerzen, Abfall der Blutplättchen, Störung der sexuellen Appetenz, Impotenz und Harninkontinenz. Bei Kindern wurde in Einzelfällen von einem vorzeitigen Einsetzen der Entwicklung der Geschlechtsorgane berichtet. Ebenfalls in Einzelfällen kann Clonazepam das Atemzentrum dämpfen und zu einem verminderten Atemantrieb führen. Bei Säuglingen und Kleinkindern kann es außerdem zu vermehrtem Speichelfluss und einer vermehrten Schleimproduktion in den Atemwegen mit Behinderung der Atmung kommen.
Abhängigkeitspotenzial
Clonazepam kann wie alle Benzodiazepine zu einer körperlichen und psychischen Abhängigkeit mit entsprechender Entzugssymptomatik führen.
Handelsnamen
Monopräparate
Rivotril (D, CH), Antelepsin (D), und unter dem Substanznamen vertriebene Generika
Siehe auch
Schädlicher Gebrauch von Benzodiazepinen
Weblinks
Einzelnachweise
Arzneistoff
Antikonvulsivum
Notfallmedikament
5-Phenyl-benzodiazepin
Chlorbenzol
Lactam
Nitrobenzol
Betäubungsmittel (BtMG Anlage III)
Psychotropes Benzodiazepin
Psychotroper Wirkstoff
Synthetische psychotrope Substanz
|
Q407988
| 98.020903 |
10109944
|
https://de.wikipedia.org/wiki/B%C3%BCrgerrechtsbewegung
|
Bürgerrechtsbewegung
|
Die Bürgerrechtsbewegung () ist eine antirassistische soziale Bewegung in den Vereinigten Staaten. Ihre historische Hochphase erreichte sie zwischen den späten 1950er Jahren und dem Ende der 1960er Jahre. Der Schwerpunkt der damaligen Bewegung lag im Engagement für die Durchsetzung der Bürgerrechte der Afroamerikaner gegen die zu dieser Zeit in Form der „Rassentrennung“ (englisch Racial Segregation) gesetzlich festgeschriebenen Diskriminierung der schwarzen Bevölkerung in den Südstaaten der USA. Dort erstritt sie maßgebliche Reformen zur Gleichberechtigung und Gleichstellung mit bis in das amerikanische Verfassungsrecht auswirkender Bedeutung.
Das Civil Rights Movement erlangte vor allem durch dessen populären Protagonisten Martin Luther King und den von ihm propagierten gewaltfreien Widerstand im zivilen Ungehorsam (englisch Civil Disobedience) weltweite Aufmerksamkeit. Mit der 1964 erfolgten Verleihung des Friedensnobelpreises an King wurde über seine Person hinaus auch die US-amerikanische Bürgerrechtsbewegung auf internationaler Ebene gewürdigt.
Geschichte
Das Civil Rights Movement setzt sich bereits seit Anfang des 20. Jahrhunderts für die Gleichberechtigung der Afroamerikaner und die Überwindung des Rassismus in den Vereinigten Staaten ein. Seit dem Ende des Amerikanischen Bürgerkriegs 1865 war die Sklaverei in den USA zwar abgeschafft, dennoch blieben die Afroamerikaner vor allem in den Südstaaten weiterhin unterdrückt.
Zunächst wurden den ehemaligen Sklaven mit dem 14. Zusatzartikel zur Verfassung das Bürger- und mit dem 15. Zusatzartikel das Wahlrecht gewährt und schwarze Politiker in die Parlamente gewählt. Doch die Situation der Schwarzen verbesserte sich nur so lange, wie die Truppen der Union die Südstaaten besetzt hielten. Nach ihrem Abzug und dem Ende der Reconstruction kehrte sich der Trend um: Die sogenannten Jim-Crow-Gesetze, die als Alternative für die nun abgeschafften Black Codes dienten, hielten die Beschäftigung der Schwarzen hauptsächlich als schlecht bezahlte Farmarbeiter aufrecht und umgingen das Wahlrecht durch Einschränkungen wie einen Alphabetismus-Test, von denen teils solche, deren Großväter schon gewählt hatten, wiederum ausgenommen wurden (Großvater-Klausel). Zusammen mit der gewalttätigen Einschüchterung schwarzer Wähler durch den 1865/66 gegründeten Ku-Klux-Klan führte das zum Erliegen der politischen Repräsentation der Schwarzen.
Gesetze und Klagen bis Mitte der 1950er Jahre
Weiterhin wurde durch die Jim-Crow-Gesetze genannten Gesetze die Rassentrennung (Racial Segregation) festgeschrieben, die alle öffentlichen Einrichtungen betraf, darunter Schulen, Universitäten, Krankenhäuser, öffentliche Verkehrsmittel und Gebäude, Gaststätten, Theater, Kinos, Schwimmbäder und Parks. Die Segregation wurde 1896 im Urteil des Obersten Gerichtshofs im Fall Plessy v. Ferguson bestätigt und legitimiert. Es erklärte getrennte Einrichtungen für verfassungsgemäß, solange sie von gleicher Qualität waren („getrennt, aber gleichwertig“). Diese Gleichheit wurde aber nie überprüft, so dass Einrichtungen für Schwarze stets schlechter ausgestattet waren.
Die Entwicklungen dieser Zeit bildeten im weltweiten Vergleich, insbesondere bezüglich der politisch vorherrschenden Nationalstaaten des 19. und frühen 20. Jahrhunderts keine Ausnahme. Zunächst hatte sich in Europa der Rassismus im Zuge des spätneuzeitlichen Kolonialismus und der Aufteilung Afrikas sowie der Verbreitung diverser pseudowissenschaftlicher Rassentheorien ausgebreitet, denen zufolge eine „weiße Rasse“ anderen überlegen sei. Auch die Vereinigten Staaten begannen nun, imperialistische Ziele zu verfolgen. Das nationale Denken zu der Zeit war nicht nur gegenüber Afroamerikanern, sondern gegenüber allen nicht-„Weißen“ (im Sinn von nicht-europäischstämmigen Bevölkerungsgruppen) von rassistischen Klischees und Vorurteilen geprägt, USA-spezifisch verbunden mit einem Sendungsbewusstsein im Sinne der Manifest Destiny zunächst bis zum Pazifik, schließlich auch darüber hinaus.
Es stellte sich für die Afroamerikaner die Frage, wie sie mit der erschwerten Situation umgehen sollten. Booker T. Washington vertrat um die Jahrhundertwende die Ansicht der Akkommodation (im Sinn einer Form der „Anpassung“). Seiner Meinung nach sollten die Schwarzen die bestehenden Unterschiede für den Moment hinnehmen – im Glauben an kommenden wirtschaftlichen Aufschwung hoffte er, eine Verbesserung ihrer wirtschaftlichen Lage erreichen zu können. Durch eine bessere Bildung und das Erlernen besonders technischer Berufe sollten die Schwarzen mit der Zeit zu Gleichberechtigung und friedlicher Koexistenz mit den Weißen gelangen. Wie er war auch der Separatist Marcus Garvey auf die wirtschaftliche Unabhängigkeit der Schwarzen bedacht (Black Business Power). Er und die 1914 von ihm gegründete Universal Negro Improvement Association förderten darüber hinaus die politische Unabhängigkeit von den „weißen“ USA, z. B. durch die kollektive Auswanderung nach Afrika. Seine Philosophie des schwarzen Stolzes (Black Pride) gab vielen Schwarzen mehr Selbstachtung und Identifikation mit sich selbst. Garveys Bewegung erfreute sich besonders in der Zeit nach dem Ersten Weltkrieg besonderer Beliebtheit.
Die dritte und zur damaligen Zeit am weitesten gehende organisierte Bewegung propagierte die Integration und damit die vollständige auch gesetzliche Gleichberechtigung der schwarzen Bevölkerung. Vertreten wurde diese Bewegung durch W. E. B. Du Bois und die 1909 gegründete National Association for the Advancement of Colored People (NAACP). Ihr Ziel war die schnellstmögliche Gleichstellung der Schwarzen gegenüber den Weißen. Vor Gericht versuchte die NAACP, die Rechte Schwarzer zu wahren. 1915 erreichte sie die Abschaffung von Großvater-Klauseln in den Verfassungen von Maryland und Oklahoma, was 1939 auf den gesamten Süden ausgedehnt wurde. Auch die National Urban League (NUL), die als Reaktion auf die vermehrte Abwanderung von Schwarzen in die Städte des Nordens deren dortige Lebens- und Arbeitsbedingungen verbessern wollte, zählt zu den Integrationisten.
Während der 1940er und 1950er Jahre gewann die NAACP mit Thurgood Marshall mehrere Verfahren, in denen er nachweisen konnte, dass die Bildungseinrichtungen seiner schwarzen Mandanten im Vergleich zu denen der Weißen nicht gleichwertig waren. Anfang der 1950er Jahre plante die NAACP jedoch, sich nicht mehr auf die Doktrin „getrennt, aber gleichwertig“ zu berufen, sondern sie anzugreifen. Nach einem mehrjährigen Prozess fällte der Oberste Gerichtshof 1954 ein historisches Urteil im Fall Brown v. Board of Education, das die Rassentrennung an Schulen als in sich nicht gleichwertig und somit für generell verfassungswidrig erklärte und ihre Aufhebung anordnete. Es gab zwar keinen festgelegten Zeitraum für die Umsetzung des Urteils, das im Übrigen keine anderen öffentlichen Einrichtungen als nur Schulen betraf. Doch das Urteil löste unter den Schwarzen Amerikas Begeisterung aus, während es unter Weißen – insbesondere im Süden – auf Widerstand stieß.
Busboykott von Montgomery (1955/56)
Der Busboykott von Montgomery von 1955/56 wird als Geburtsstunde der US-amerikanischen Bürgerrechtsbewegung angesehen. Infolge der Festnahme von Rosa Parks, die sich geweigert hatte, ihren Sitzplatz in einem Bus in Montgomery, Alabama für einen Weißen zu räumen, boykottierte die afroamerikanische Bevölkerung der Stadt 13 Monate lang das Busunternehmen. Zusätzlich reichte eine Gruppe Betroffener Klage ein (Gayle v. Browder), mit der Begründung, die Regeln der Rassentrennung des Busunternehmens verstießen gegen den 14. Zusatzartikel zur Verfassung. Dieser Klage wurde mit Verweis auf die Grundsatzentscheidung Brown v. Board of Education stattgegeben, was der Oberste Gerichtshof am 13. November 1956 bestätigte. Die Schwarzen hatten durch diesen Vorfall nationale Aufmerksamkeit gewonnen, insbesondere der Anführer des Boykotts, der Baptistenpfarrer Martin Luther King, jr., Mitbegründer der Southern Christian Leadership Conference (SCLC), wurde zum populärsten Anführer der schwarzen Bürgerrechtsbewegung.
Little Rock und Schulintegration (1957)
1957 verwehrte eine aufgebrachte Menge in Little Rock, Arkansas neun schwarzen Schülern den Zugang zur bis dahin ausschließlich von Weißen belegten Little Rock Central High School. Der Gouverneur von Arkansas weigerte sich, den Schülern Zugang zur Schule zu verschaffen, ebenso sie zu schützen. Durch die erstmalige Live-Berichterstattung durch das Fernsehen sah sich Präsident Eisenhower gezwungen, die Nationalgarde von Arkansas dem Befehl des Gouverneurs zu entziehen und den Schülern selbst Schutz und Zugang zu ihrer Schule zu verschaffen.
Strategie des zivilen Ungehorsams
Mit den Mitteln des zivilen Ungehorsams, zu dem der gewaltlose Widerstand mit unterschiedlichen Formen des friedlichen Protests gehörte, konnte die Bürgerrechtsbewegung die Aufhebung der institutionellen Segregationspolitik in den US-Südstaaten durchsetzen. In seinen Methoden und seiner Strategie orientierten sich King und seine Anhänger auch an den Methoden Mahatma Gandhis im gewaltfreien Kampf um die Unabhängigkeit Indiens von der britischen Kolonialmacht. Studenten in North Carolina begannen 1960 als erste mit dem gewaltlosen Widerstand. Mit ihren Sit-ins in Restaurants für Weiße setzten sie eine nationale Bewegung zur Aufhebung der Rassentrennung in allen öffentlichen Einrichtungen ein. Aus dieser Bewegung ging 1960 das Student Nonviolent Coordinating Committee (SNCC) hervor.
1961 begannen die so genannten Freedom Rides (Freiheitsfahrten), Busfahrten über Grenzen von US-Bundesstaaten hinweg in Staaten, in denen die Rassentrennung lediglich formaljuristisch aufgehoben war. Den Freiheitsfahrern gelang es, der Öffentlichkeit aufzuzeigen, dass die Segregation auf diesen Busfahrten und den dazugehörigen Bahnhöfen faktisch weiter bestand. Die Schwarzen wurden an den Bahnhöfen von weißen Rassisten durch körperliche Gewalt misshandelt, was durch die Berichterstattung der Medien nationale Empörung auslöste. Der Druck auf die US-Regierung wuchs; ab 1962 wurde das bestehende Gerichtsurteil, das die Rassentrennung auf zwischenstaatlichen Busfahrten verbot, durchgesetzt.
Kampf um Aufhebung der Rassentrennung in Birmingham und Bürgerrechtsgesetz (1963/64)
Die Bürgerrechtsbewegung hatte durch die Freedom Rides ihre Methode des gewaltlosen Widerstands vervollständigt. Sie offenbarte die Gewalt weißer Rassisten und stellte sie mit Hilfe der Berichterstattung der Medien als wirkungslos und falsch dar, wie es Martin Luther King formulierte. Durch die Bilder wuchs der moralische Druck auf die rassistischen Gewalttäter; die Offenlegung der Krise zwang die Behörden, sich mit dem Thema zu befassen und es zu lösen. Mithilfe dieser Taktik setzte die Bürgerrechtsbewegung 1963 die Aufhebung der Rassentrennung in Birmingham, Alabama durch. Nach wochenlangen Demonstrationen, bei denen die Gewalt der Polizei unter Eugene „Bull“ Connor die USA schockierte, insbesondere angesichts der Misshandlung demonstrierender Kinder, setzten die um Birminghams Ruf besorgten Geschäftsleute der Stadt die Forderungen der Bürgerrechtsbewegung um. Präsident John F. Kennedy und große Teile der US-amerikanischen Bevölkerung unterstützten nun Kings Bewegung.
Kennedy, dessen Wahl 1960 durch schwarze Wählerstimmen entschieden worden war, versprach, ein Bürgerrechtsgesetz zugunsten der Schwarzen in den Kongress einzubringen. Zur Unterstützung dieses Gesetzentwurfs veranstalteten die Bürgerrechtsorganisationen im August 1963 einen „Marsch auf Washington für Arbeit und Freiheit“, an dem 250.000 Schwarze und Weiße teilnahmen. Als Höhepunkt ließ Martin Luther Kings berühmte Rede „Ich habe einen Traum“ (I Have a Dream) die Integration Schwarzer in die weiße Gesellschaft Amerikas möglich erscheinen. Dazu trug auch das Bürgerrechtsgesetz von 1964 bei, das von Kennedys Nachfolger Lyndon B. Johnson unterzeichnet wurde, der ebenfalls die schwarze Bevölkerung in ihrem Bestreben nach Gleichberechtigung unterstützte. Im selben Jahr wurde Martin Luther King für sein Engagement und seine beispielgebende Politik der Gewaltfreiheit der Friedensnobelpreis zuerkannt.
„Bloody Sunday“ in Selma und Voting Rights Act, 1965
Das SNCC hatte 1965 ein ehrgeiziges Wählerregistrationsprogramm in Selma (Alabama) begonnen, aber angesichts der Gegnerschaft des dortigen Sheriffs Jim Clark kam sie damit kaum voran. Nachdem örtliche Anwohner die SCLC um Hilfe gebeten hatten, kam King nach Selma, um eine Anzahl von Märschen anzuführen. Dabei wurde er mit 250 anderen Demonstranten verhaftet. Diejenigen, die weiter marschierten, trafen auf gewaltsamen Widerstand der Polizei. Ein Einwohner von Selma, Jimmie Lee Jackson, wurde von der Polizei bei einem späteren Marsch im Februar getötet.
Am Sonntag, dem 7. März, der später Bloody Sunday (‚Blutiger Sonntag‘) genannt wurde, führte Hosea Williams vom SCLC und John Lewis vom SNCC einen Marsch von 600 Menschen an, die vorhatten, die 86 km Entfernung zwischen Selma und der Landeshauptstadt Montgomery zu gehen. Bereits nach einigen hundert Metern (sechs Blocks), an der Edmund Pettus Bridge, griffen Staatspolizisten und Beamte der kommunalen Polizei, von denen einige beritten waren, die friedfertigen Demonstranten mit Knüppeln und Tränengas sowie mit Stacheldraht umwickelten Gummischläuchen und Bullenpeitschen an und trieben sie nach Selma zurück. John Lewis wurde bewusstlos geschlagen und in Sicherheit gezerrt, während mindestens 16 andere Teilnehmer des Zuges in Krankenhäusern behandelt werden mussten. Unter denen, die mit Gas und Schlägen angegriffen wurden, war Amelia Boynton Robinson, die sich damals im Mittelpunkt der Bürgerrechtstätigkeit befand.
Die nationale Rundfunkübertragung von Polizisten, die widerstandslose Marschierer angriffen, die nur das Wahlrecht zu erlangen suchten, provozierte eine nationale Reaktion, die der ähnelte, die von den Szenen aus Birmingham zwei Jahre vorher ausgelöst worden war. Während die Demonstranten eine gerichtliche Verfügung erlangen konnten, die ihnen das Recht einräumte, zwei Wochen später den Marsch unbehindert durchzuführen, verprügelten extremistische Weiße einen weiteren Unterstützer des Wahlrechts, Reverend James Reeb nach einem zweiten Marsch am 9. März, der die Stelle des „Blutigen Sonntags“ zum Ziel hatte. Reeb starb am 11. März an den Folgen der Schläge in einem Birminghamer Krankenhaus. Am 25. März erschossen vier Mitglieder des Ku-Klux-Klan Viola Liuzzo, eine Hausfrau aus Detroit, während sie in der Nacht Demonstranten nach Selma in ihrem Auto zurückbeförderte, nachdem sie den erfolgreichen Marsch auf Montgomery beendet hatten.
US-Präsident Johnson hielt acht Tage nach dem ersten Marsch eine Fernsehansprache an die Nation, bei der er um Unterstützung für den Gesetzentwurf des neuen Wahlrechtsgesetzes (Voting Rights Act) warb. Darin sagte er:
Am 6. August 1965 unterschrieb Johnson das Voting Rights Act. Dies hob sogenannte Poll Taxes (Wahlsteuern), Lesetests und andere Prüfungen auf und autorisierte die Aufsicht des Bundes für die Registrierung von Wählern in Staaten und Wahlbezirken, wo solche Tests zur Anwendung kamen. Afroamerikaner, die so bislang davon abgehalten worden waren, sich in den Wählerregister eintragen zu lassen, hatten damit erstmals eine Alternative zu einem Prozess vor Gericht. In Fällen, wo Diskriminierung im Hinblick auf Wahlen stattfand, autorisierte das Gesetz von 1965 den United States Attorney General, Bundesuntersucher zu entsenden, die örtliche Registerführer ersetzen würden.
Das Gesetz hatte einen sofortigen und positiven Effekt auf Afroamerikaner. Innerhalb weniger Monate nach seinem Inkrafttreten ließen sich eine Viertelmillion schwarze Wähler neu registrieren; ein Drittel davon wurden von Bundesbeamten registriert. Innerhalb von vier Jahren verdoppelte sich die Zahl der registrierten Wähler in den Südstaaten. 1965 hatte Mississippi die höchste Wahlbeteiligung unter der schwarzen Bevölkerung (74 %) und führte die Nation an in der Zahl der gewählten schwarzen Amtsträger. 1969 hatte Tennessee eine Wahlbeteiligung von 92,1 % der schwarzen Wähler, Arkansas 77,9 % und Texas 73,1 %. Einige Weiße, die gegen das Gesetz gewesen waren, mussten dafür einen unmittelbaren Preis bezahlen. Sheriff Jim Clark von Alabama, der berüchtigt dafür war, dass er Feuerwehrschläuche und Rindviehpiekser benutzen ließ, um gegen Bürgerrechtsdemonstrationen vorzugehen, stand 1966 zur Wiederwahl. Obwohl er sein Markenzeichen, eine Anstecknadel mit dem Wort Niemals, von seiner Uniform entfernte, hatte er keinen Erfolg. Bei der Wahl verlor er, da Schwarze abstimmten, nur um ihn aus dem Amt zu bekommen.
Dass Schwarze das Wahlrecht bekamen, veränderte dauerhaft die politische Landschaft des Südens der USA. Als der Kongress den Voting Rights Act verabschiedete, hatten kaum 100 Afroamerikaner ein gewähltes Amt inne; bis 1989 gab es mehr als 7200 Amtsinhaber, darunter mehr als 4800 in den Südstaaten. Fast jedes County im Black Belt in Alabama hatte 1989 einen schwarzen Sheriff und Schwarze hatten auch weitere Spitzenpositionen in kommunalen und bundesstaatlichen Regierungen inne. So hatten Atlanta mit Andrew Young einen schwarzen Bürgermeister wie auch Jackson (Mississippi) mit Harvey Johnson und New Orleans mit Ernest Morial. Auf nationaler Ebene hat es auch schwarze Politiker gegeben wie Barbara Jordan, die für Texas im US-Repräsentantenhaus saß, und der ehemalige Bürgermeister von Atlanta, Andrew Young, der als US-Botschafter während der Carter-Regierung an die Vereinten Nationen entsandt wurde. Julian Bond wurde 1965 in das Landesparlament von Georgia gewählt; die politische Reaktion auf seine öffentliche Gegnerschaft zum Vietnamkrieg verhinderte jedoch, dass er vor 1967 sein Mandat annehmen konnte. Gegenwärtig vertritt John Lewis den fünften Kongressbezirk von Georgia im Repräsentantenhaus der Vereinigten Staaten, in das er 1986 erstmals gewählt wurde. Lewis gehört dort dem einflussreichen Finanzausschuss an. Von 2009 bis 2017 war Barack Obama der erste afroamerikanische Präsident der Vereinigten Staaten von Amerika.
Zersplitterung, Gewaltsame Unruhen, Ermordung von Martin Luther King
Ab Mitte der 1960er Jahre kam es jedoch zum Zerfall der Bürgerrechtsbewegung. Angesichts zunehmender Gewalt gegen Bürgerrechtler wuchs unter den jungen Radikalen der Bewegung die Sympathie für Anführer wie Malcolm X, einen prominenten Protagonisten der Black-Muslim-Bewegung. 1966 schwor das SNCC unter ihrem neuen, umstrittenen Vorsitzenden Stokely Carmichael dem gewaltlosen Widerstand ab und sagte sich von der Bürgerrechtsbewegung Kings los. Stattdessen forderte er Black Power. Dieser in den Medien umstrittene und kritisierte Begriff spaltete die Bürgerrechtsbewegung weiter. So distanzierten sich die NAACP und die NUL vom SNCC und auch von King, als dieser deren Verurteilung von Black Power nicht übernahm, sondern um Verständnis für die Black-Power-Bewegung warb.
In ihrer gewaltbereiten Form drückten sich Black Power und Schwarzer Nationalismus auch in der Black Panther Party aus. Diese legitimierte ihre Militanz mit der nach wie vor existenten rassistischen Gewalt gegen Schwarze in den USA. Neben ihrem Selbstverständnis als bewaffnete Wachen der schwarzen Bevölkerung verfolgte sie ein radikal sozialistisches Programm, das sich gegen die soziale Benachteiligung Schwarzer richtete. Diese Probleme erwiesen sich als schwieriger zu lösen als die politischen. Die geeinte Bürgerrechtsbewegung war an ihnen gescheitert, ebenso Malcolm X, der 1965 ermordet wurde. King erkannte die Brisanz dieses Themas, das sich von 1964 bis 1967 alljährlich in Rassenunruhen in den Ghettos der Städte des Nordens ausdrückte. Ab 1966 widmete er sich daher der Armut und sozialen Benachteiligung der Schwarzen in Chicago. Damit stieß er aber auch im Norden der USA auf Widerstand; seine Kampagnen brachten kaum Erfolg. King erkannte, dass Rassismus kein politisches Problem des Südens darstellte, sondern in den wirtschaftlichen und sozialen Strukturen der USA ruhte. Daher forderte er im Kampf gegen diese soziale Segregation und den systeminhärenten Rassismus eine Revolution des amerikanischen Wertesystems und eine Umverteilung von Macht und Kapital.
Dazu sollte es jedoch nicht kommen. King kam 1968 durch ein Attentat ums Leben. Danach traten zögerliche Verbesserungen ein. Die amerikanische Gesellschaft hat sich jedoch bis in die Gegenwart in Bezug auf die Ungleichbehandlung der schwarzen gegenüber der weißen Bevölkerung nicht grundlegend gewandelt – soziale Differenzen zwischen Schwarz und Weiß bestehen nach wie vor. Allerdings sind seit der Bürgerrechtsbewegung neue Generationen geboren worden, die in einer veränderten Zeit allmähliche Verbesserungen auch der sozialen Probleme vornahmen.
Weitere Bürgerrechtsbewegungen in den USA
Vor allem in den 1960er und 1970er Jahren wurden auch von weiteren nationalen oder ethnischen Minderheiten in den Vereinigten Staaten Forderungen der Bürgerrechtsbewegung der Afroamerikaner aufgegriffen. Dies mündete in eigenständige Bürgerrechtsbewegungen, die sich gegen Rassismus bzw. rassistische Unterdrückung und soziale Benachteiligungen zur Wehr setzten. So entstanden beispielsweise das American Indian Movement oder die Bewegung der Chicanos.
Seit 2013 ist Black Lives Matter eine der bekanntesten Bürgerrechtsbewegungen.
Dokumentarfilm
Freedom on my Mind, 110 Minuten, 1994, Produktion und Regie: Connie Field and Marilyn Mulford, 1994 Academy Award Nominee, Best Documentary Feature
Literatur
John A. Kirk: The Civil Rights Movement: A Documentary Reader. John Wiley & Sons, New York 2020, ISBN 978-1-118-73716-3.
Jonathan Rosenberg: How Far the Promised Land? World Affairs and the American Civil Rights Movement from the First World War to Vietnam. Princeton University Press, Princeton 2018, ISBN 978-0-691-18729-7.
Russell Brooker: The American Civil Rights Movement 1865–1950: Black Agency and People of Good Will. Lexington Books, Lanham 2016, ISBN 978-0-7391-7993-2.
Bruce J. Dierenfield: The Civil Rights Movement. Routledge, London 2014, ISBN 978-1-138-83557-3.
Danielle L. McGuire, John Dittmer (Hrsg.): Freedom Rights: New Perspectives on the Civil Rights Movement. University Press of Kentucky, Lexington 2011, ISBN 978-0-8131-4024-7.
Glenda Elizabeth Gilmore: Defying Dixie: The Radical Roots of Civil Rights, 1919-1950. W. W. Norton, New York 2009, ISBN 978-0-393-34818-7.
Weblinks
Video: Demonstranten für schwarze Bürgerrechte in Auseinandersetzung mit der Polizei in Birmingham, Alabama, 1963 (Stimme im Off von John F. Kennedy) (Quick Time)
Artikelsammlung zur Bürgerrechtsbewegung in den USA
African-American History (englisch)
Einzelnachweise
Soziale Bewegung
|
Q48537
| 147.821855 |
10459
|
https://de.wikipedia.org/wiki/Simbabwe
|
Simbabwe
|
Simbabwe (deutsch üblicherweise [] ausgesprochen; lokale Sprachen und ; übersetzt „Steinhäuser“ in der Sprache der Shona) ist ein Binnenstaat im Südlichen Afrika, der als ehemalige britische Kronkolonie Südrhodesien sowie als Sezessionsterritorium kurzzeitig Rhodesien und Simbabwe-Rhodesien hieß.
Der Name Simbabwe geht auf die heute Groß-Simbabwe genannte Ruinenstätte zurück, die größten vorkolonialen Steinbauten im Südlichen Afrika. Darüber hinaus ist Simbabwe auch für das UNESCO-Weltnaturerbe der Victoria Wasserfälle international bekannt.
Seit der Unabhängigkeit 1980 regierte der ehemalige Guerillakämpfer der Unabhängigkeitsbewegung ZANU Robert Mugabe das Land. 2017 wurde er vom Militär entmachtet und durch seinen Parteikollegen Emmerson Mnangagwa ersetzt.
Geografie
Simbabwe liegt zwischen den Breitengraden 15° und 23° Süd und den Längengraden 25° und 34° Ost und hat als Binnenstaat keinen eigenen Zugang zum Meer. Es grenzt an Südafrika (225 km), Botswana (831 km), Sambia (797 km, ehemals Nordrhodesien) und Mosambik (1231 km). Der Sambesi bildet die nördliche Grenze zu Sambia, und der Limpopo die südliche zu Südafrika. Simbabwe hat eine Fläche von 390.757 km², wovon 3910 km² Wasser sind. Die Gesamtfläche des Landes entspricht ungefähr der Fläche von Deutschland und Belgien oder die halbe Fläche der Türkei. Die höchste Erhebung mit 2592 m, der Inyangani, liegt im östlichen Hochland nördlich von Mutare im Nyanga-Nationalpark.
Klima
Simbabwe hat ein subtropisches bis tropisches Klima mit feuchtem, teilweise schwül-heißem Sommer (bis über 35 °C) und winterlicher Trockenzeit mit angenehmer Wärme (um 25 °C). In den höheren Lagen, die den größten Teil des Landes ausmachen, ist die sommerliche Hitze gemäßigt (25 bis 30 °C) und im Winter gibt es ab und zu gemäßigte Nachtfröste (bis −5 °C). Die Regenzeit dauert von November bis März, wobei über 90 % der jährlichen Niederschläge fallen, die im Schnitt 1000 mm betragen. In der Hauptstadt Harare liegt die durchschnittliche Temperatur bei 20 °C, sonst bei 19 bis 22 °C.
Zu den Auswirkungen des Klimawandels in Simbabwe gehört der Rückgang des Niederschlags um 5 % im 20. Jahrhundert (bis 2017); daneben ist ein unbeständigerer Regen zu unterschiedlicheren Zeiten und an anderen Orten sowie eine Zunahme von Dürren und Hitzeperioden zu verzeichnen. In einigen Jahren, wie etwa 2007/2008, kam es zu ungewöhnlich hohen Niederschlägen, die Todesopfer forderten und Ernten bedrohten. 2015/2016 kam es zu einer schweren Dürrekatastrophe.
Flüsse
Das südafrikanische Land Simbabwe wird hydrologisch durch die von Südwest nach Nordost verlaufende Ovambo-Kalahari-Simbabwe-Verwerfung (OKZ Axis) als zentrale Wasserscheide (Central Zimbabwe Watershed) grob in zwei Hälften geteilt. Das Einzugsgebiet des Sambesi im Norden ist mit gut 50 Prozent das wichtigste. Der Süden entwässert teils in den Limpopo und teils in den Save. Im äußersten Osten sind kleine Gebiete, die in den Buzi und den Pungwe entwässern und ein kleiner Teil im Westen, der in die Makgadikgadi-Salzpfannen abfließt.
Die Eastern Highlands bilden mit dem Inyangani das „Wasserschloss“ des Landes. Mehrere Flüsse haben in diesem Gebiet ihre Quellen.
Umwelt
Bekannte Nationalparks in Simbabwe sind der Hwange National Park, der Mana-Pools-Nationalpark und der Victoria Falls National Park.
Flora und Fauna
Das Land ist fast durchweg von Trockensavanne bedeckt, dominierend sind Miombo- und Mopane-Wälder. Häufig anzutreffen sind außerdem Affenbrot- und Leberwurstbaum sowie Schirmakazien. Das Gras der Savanne ist in der Trockenzeit braun und verdorrt, erreicht aber zum Ende der Regenzeit eine Höhe von bis zu zwei Metern; es bildet die Nahrungsgrundlage für zahlreiche Tierarten.
Humangeografie
Provinzen
Simbabwe gliedert sich in acht Provinzen und zwei Metropolregionen mit Provinzstatus (Greater Harare – zur Provinz gehören auch zwei angrenzende Städte – und Bulawayo). Die Provinzen teilen sich in 59 Bezirke und 1200 Gemeinden. Letztere bestehen wiederum meist aus mehreren Ortschaften. Die Einwohnerzahlen in der folgenden Tabelle beziehen sich auf die Volkszählung vom 17. August 2012.
Städte
Im Jahr 2021 lebten 32 Prozent der Einwohner Simbabwes in Städten. Die größten Städte (Einwohnerzahlen gemäß Volkszählung 2012) sind Harare (1.485.231), Bulawayo (653.337), Chitungwiza (356.840), Mutare (187.621), Epworth (167.462) und Gweru (157.865).
Bevölkerung
Demografie
Simbabwe hatte 2021 15,1 Millionen Einwohner. Das jährliche Bevölkerungswachstum betrug + 1,5 %. Zum Bevölkerungswachstum trug ein Geburtenüberschuss (Geburtenziffer: 29,0 pro 1000 Einwohner vs. Sterbeziffer: 7,7 pro 1000 Einwohner) bei. Die Anzahl der Geburten pro Frau lag 2020 statistisch bei 3,5, die der Region Ost- und Süd-Afrika betrug 4,3. Die Lebenserwartung der Einwohner Simbabwes ab der Geburt lag 2020 bei 61,7 Jahren (Frauen: 63,2, Männer: 60). Der Median des Alters der Bevölkerung lag im Jahr 2020 bei 18,7 Jahren.
Bevölkerungsstruktur
Mehr als 75 % der simbabwischen Bevölkerung gehören dem Volk der Shona an, die hauptsächlich im nordöstlichen Teil des Landes leben. Die zweitgrößte Gruppe der Ndebele (18 %) leben größtenteils im südwestlichen Matabeleland. Außerdem gibt es die Chewa (6 %) und mehrere kleinere Ethnien mit lokal begrenztem Siedlungsraum wie die Tonga am Sambesi sowie die Tsonga und die Venda im Grenzgebiet zu Südafrika.
Mit Beginn der britischen Kolonialherrschaft im 19. Jahrhundert wanderten vermehrt weiße Händler und Farmer aus Großbritannien und Südafrika ein, die Mitte des 20. Jahrhunderts mit einer Viertelmillion knapp 5 % der Gesamtbevölkerung stellten. Im Zuge der Unabhängigkeit und der Umsetzung der Landreform ging deren Zahl jedoch wieder zurück. Darüber hinaus gibt es eine Bevölkerungsgruppe, Coloureds genannt, die aus Verbindungen von Weißen mit der einheimischen schwarzen Bevölkerung hervorging oder Nachfahren von Einwanderern aus Südafrika sind. Ferner gehört eine kleine Minderheit mit familiären Wurzeln im indischen Subkontinent zu Simbabwes Bevölkerung. Insgesamt trugen um 2002 die Einwohner nichtafrikanischer Herkunft bzw. Abstammung mit etwas über 2 Prozent zur Gesamtbevölkerung bei, von denen die meisten im Land geboren worden sind.
Im Jahre 2017 waren 2,4 % der Bevölkerung im Ausland geboren. Die meisten Einwanderer kamen aus Malawi (110.000), Mosambik (90.000) und Sambia (30.000).
Religion
90 bis 95 % der Bevölkerung sind Christen und 62 % besuchen regelmäßig den Gottesdienst. Die größten christlichen Gemeinden sind die anglikanische, römisch-katholische und methodistische Kirche. Wie in den meisten anderen ehemaligen europäischen Kolonien mischen sich Reste lokaler Religionen aus der Zeit vor der Christianisierung in den christlichen Glauben. Daneben und teilweise mit christlichen Glaubensinhalten vermischt gibt es traditionelle afrikanische Vorstellungen wie Ahnenkult, Besessenheitskulte wie Mashawe und Heilserwartungen.
Etwa 50.000 Zimbabwer und 20.000 Menschen in den Nachbarländern verehren den Himmelsgott Mwari. Über den Monotheismus hinaus hatten diese Lemba seit jeher noch weitere Vorstellungen und Riten mit dem Judentum gemeinsam.
Weniger als 1 % der Bevölkerung sind Muslime.
Sprachen
Mit Änderung der Verfassung 2013 hat Simbabwe 16 gleichberechtigte Amtssprachen: Chewa, Chibarwe, Englisch, Kalanga, Khoisan, Nambya, Ndau, Nord-Ndebele, Shangani, Shona, Sotho, Tonga, Tswana, Venda, Xhosa und die Gebärdensprache.
Gesundheit
Im Jahr 2018 praktizierten in Simbabwe 2,1 Ärztinnen und Ärzte je 10.000 Einwohner. Die Sterblichkeit bei unter 5-jährigen betrug 2020 53,9 pro 1000 Lebendgeburten.
Weltweit gehört Simbabwe zu den von HIV und AIDS am stärksten betroffenen Ländern. Rund ein Siebtel der erwachsenen Bevölkerung ist nach offiziellen Angaben von der Krankheit betroffen. Die Rate der HIV-Infizierten konnte jedoch von Mitte der 1990er Jahre bis 2017 halbiert werden. Fast 80 % aller mit HIV infizierten Jugendlichen sind Frauen. Eine spezifische soziale Randgruppe sind die sogenannten AIDS-Waisen.
Geschichte
Vorkoloniale Geschichte
Vor etwa 2000 Jahren (Eisenzeit) begannen Völker der Bantu in dieses Gebiet zu migrieren. Dies schließt auch die Vorfahren der Shona mit ein, die heute mit circa 76 % den größten Teil der Bevölkerung stellen. Zur Zeit des europäischen Mittelalters schufen hier Bantu, Vorfahren der heutigen Shona, eine Zivilisation, deren bedeutendstes Zeugnis die Ruinen von Great Zimbabwe sind. Wichtige Quelle des Reichtums war der Handel mit der ostafrikanischen Küste, wo seit dem frühen 10. Jahrhundert regelmäßig muslimische Handelsleute verkehrten, alsbald auch Niederlassungen gründeten. Von deren Swahili-Kultur unterschied sich die Simbabwe-Kultur dabei deutlich. Mitte des 15. Jahrhunderts verlagerten sich die Zentren der Simbabwe-Kultur, und an der Küste wurden die Swahili-Händler immer mehr von Portugiesen verdrängt, die auch schon einen – vergeblichen – Versuch unternahmen, einen Teil des Landes zu erobern. 1837 wurden die Shona-Staaten von den Ndebele unterworfen, die im Zuge der Mfecane aus dem heutigen Südafrika nach Norden gewandert waren.
Koloniale Herrschaft
Ab 1893 erwarb Cecil Rhodes das Ndebeleland und überließ die Förderung der Bodenschätze, das fruchtbare Land und die Nutzung der Arbeitskraft der Einheimischen nach blutigen Eroberungskriegen den britischen Einwanderern. Nach ihm benannt, entstand im Binnenland des südlichen Afrika die Kolonie Rhodesien, die 1911 in Nordrhodesien (heute Sambia) und Südrhodesien, das heutige Simbabwe, geteilt wurde. Dieser durch sein mildes Klima begünstigte Teil wurde 1922 zur Siedlungskolonie. Mit dem Landgesetz von 1930 verfügte die britische Kolonialverwaltung, dass der Landbesitz, insbesondere in den fruchtbarsten Regionen des Landes, ausschließlich den weißen Kolonisten vorbehalten war. An den Wahlen von 1930 durften Männer und Frauen teilnehmen. Da aber das aktive und passive Stimmrecht an Bildungskriterien und finanzielle Voraussetzungen, nämlich an das Zahlen von Einkommensteuer oder an Grundbesitz, gebunden war, stimmten weniger als 2000 weibliche und männliche Schwarzafrikaner ab. Die Landwirtschaft der afrikanischen Ureinwohner wurde in unfruchtbare Regionen verdrängt. Wer aus dem Mutterland einwandern durfte, bestimmte die koloniale Selbstverwaltung. Europäische Flüchtlinge waren unerwünscht, sodass eine hierdurch mögliche Aufstockung der weißen Bevölkerung nach 1945 ausblieb.
Vom 1. August 1953 bis zum 31. Dezember 1963 war das Gebiet von Südrhodesien zusammen mit Nordrhodesien und Njassaland (heute Malawi) Teil der Föderation von Rhodesien und Njassaland. Damals wurde das Wahlrecht in Simbabwe erstmals auf schwarze Frauen ausgeweitet. Vor 1957 konnten nur Männer und europäische Frauen wählen. Ab 1957 wurde verheirateten schwarzen Frauen ein eingeschränktes Frauenwahlrecht zugestanden und nach und nach erweitert. Es gab für die Registrierung zur Wahl eine spezielle Liste für schwarze Frauen, in die diese unter bestimmten Voraussetzungen (Bildung, Vermögen) aufgenommen wurden.
Die Frauen wurden wahlrechtlich so behandelt wie ihre Männer; bei Mehrfachehen galt dieses Privileg aber nur für die erste Frau. Ehefrauen mussten die englische Sprache lesen und schreiben und einen Schulbesuch nachweisen können. Um für eine Wahl registriert werden zu können, musste eine Person eine der vier folgenden Anforderungen erfüllen: Jahreseinkommen von mindestens 720 £ oder Grundbesitz von mindestens 1500 £; Jahreseinkommen von 3480 £ sowie Grundbesitz im Wert von 1000 £ plus eine abgeschlossene Primarbildung, die die vorgeschriebenen Standards erfüllte; religiöse Führerschaft, nachdem die Person eine bestimmten Ausbildung durchlaufen hatte, eine gewisse Amtszeit nachweisen konnte und nur, wenn kein anderer Beruf ausgeübt wurde; politische Führer (chiefs) nach gesetzlichen Maßgaben. Diese komplexen Voraussetzungen für die Gewährung des Wahlrechts wurden in die Verfassung von 1961 aufgenommen. Der Schwarzen Bevölkerung wurden 15 reservierte Parlamentssitze zugestanden. Etwa 50 000 Schwarze konnten damals eine beschränkte politische Macht ausüben.
Nach der Auflösung der Föderation von Rhodesien und Njassaland blieb Südrhodesien bis 1965 eine britische Kolonie.
Einseitig erklärte Unabhängigkeit
Während im benachbarten Nordrhodesien und Njassaland schwarze Mehrheitsregierungen die Macht ergriffen, erklärte – stark ermutigt von der an einer Apartheidpolitik interessierten südafrikanischen Regierung – eine weiße Minderheitsregierung unter Ian Smith am 11. November 1965 einseitig die Unabhängigkeit als „Rhodesien“, das zunächst innerhalb der Monarchie unter der Krone verblieb. Die britische Regierung hatte sich den Unabhängigkeitsbestrebungen wegen der unzureichenden politischen Beteiligungsmöglichkeiten der schwarzen Mehrheitsbevölkerung in der Kronkolonie entgegengesetzt und erklärte demzufolge diesen Schritt für illegal. Der 1963 gegründete Geheimdienst Central Intelligence Organisation, dem bis heute die Verfolgung von Oppositionellen vorgeworfen wird, wurde beibehalten. Die 1965 erklärte Unabhängigkeit wurde außer von Südafrika von keinen anderen Staat anerkannt.
1969 wurde eine neue Verfassung vorgestellt. Diese beschnitt die Rolle der schwarzen Wählerschaft, vor allem die der Frauen, denn die Hälfte der für Schwarze reservierten Sitze wurde durch ein von Männern besetztes Wahlmännergremium vergeben. Erst 1978 wurde das allgemeine aktive und passive Frauenwahlrecht eingeführt.
(Süd-)Rhodesien war entsprechend der Entwicklung in den anderen britischen Siedlungskolonien formal eine parlamentarische Demokratie, in der jedoch der schwarzen Bevölkerungsmehrheit erst 1978 vergleichbare politische Teilnahmerechte gewährt wurden. An der Spitze der Regierung stand ein Premierminister. Staatsoberhaupt war zunächst nach der einseitigen Erklärung der Unabhängigkeit am 11. November 1965 weiterhin die britische Königin, vertreten durch einen Officer Administering the Government of Rhodesia, ab Inkrafttreten der republikanischen Verfassung am 2. März 1970 ein Präsident.
Unabhängigkeit (seit 1980)
Am 18. April 1980 erlangte das Land als Simbabwe auf der Grundlage des zuvor zwischen den verschiedenen Parteien ausgearbeiteten Lancaster-House-Abkommen die international anerkannte Unabhängigkeit. Das Lancaster-House-Abkommen vom 21. Dezember 1979 umfasste unter anderem eine vorübergehende Rückkehr unter die britische Herrschaft (Gouverneur: Lord Christopher Soames), eine neue, parlamentarische Verfassung sowie mehrere, auf sieben bis zehn Jahre ausgelegte Garantien für die weiße Minderheit, u. a. die Reservierung von 20 % der Parlamentssitze ausschließlich für Weiße. Noch im Unabhängigkeitsjahr, am 25. August, wurde das Land in die Vereinten Nationen (UNO) aufgenommen.
Beginn der Präsidentschaft Mugabes
Die parlamentarische Regierungsform wurde nach 1980 zunächst beibehalten; Präsident war Canaan Banana, Regierungschef Robert Mugabe. Die Legislative bestand aus dem House of Assembly mit 100 auf fünf Jahre gewählten Abgeordneten, von denen 20 Mandate bis 1987 für die weiße Bevölkerungsminderheit reserviert waren, und dem bis 1989 bestehenden Senat, dessen 40 Mitglieder mehrheitlich vom House of Assembly gewählt und ein kleinerer Teil von den Stammeshäuptlingen nominiert und vom Präsidenten ernannt wurden. Auch hier waren bis 1987 20 % der Mandate der weißen Minderheit vorbehalten. Mit den Jahren begann Mugabe das Land zunehmend autokratisch und diktatorisch zu führen, auch mit Hilfe des von der Vorgängerregierung übernommenen Geheimdienstes Central Intelligence Organisation. Zum Jahreswechsel 1987/1988 wurden in Simbabwe Verfassungsänderungen eingeleitet, die nach Ansicht von Beobachtern auf längere Sicht auf die Bildung eines sozialistisch orientierten Einparteienstaates abzielten. Simbabwe wurde in eine Präsidialrepublik umgewandelt, die Position des Premierministers wurde abgeschafft; der Amtsinhaber wurde Staatspräsident mit den Befugnissen eines Regierungschefs.
Nach Amtsantritt 1980 förderte die Regierung Mugabe Kleinbauern und startete mehrere Regierungsprogramme, unter anderem im Gesundheits- und Bildungsbereich. Die Wirtschaftsleistung der Kleinbauern nahm zu (3,6 % Wachstum pro Jahr). Erfolge wurden auch bei den anderen Programmen erzielt und soziale Indikatoren verbesserten sich enorm. So sank z. B. der Anteil der Kinder mit Mangelernährung von 22 % (1980) auf 12 % (1990).
In den 1980er Jahren fand der Gukurahundi statt, bei dem mehr als 10.000 Ndebele-Zivilisten von der simbabwischen Armee getötet wurden.
Die Lebenserwartung stieg zwischen 1980 und 1990 deutlich, die Kindersterblichkeit ging von 86 Promille auf 49 zurück. Problematisch blieb in Bezug auf die Arbeitslosigkeit die Wirkung des hohen Bevölkerungswachstums, wenngleich sich die Anzahl der Beschäftigten von 1980 bis 1991 um über 20 % erhöhte. Das durchschnittliche Wirtschaftswachstum pro Jahr von 1980 bis 1989 betrug 4,5 % des BIP (unter der Vorgängerregierung 1966–1979: 3,8 %).
Seit 1990 wird der Präsident in direkten Wahlen für eine Amtszeit von sechs Jahren gewählt. Ab 1991 veränderte die Regierung unter Mugabe im Rahmen eines Strukturanpassungsprogramms der Weltbank und des Internationalen Währungsfonds ihren wirtschaftspolitischen Kurs deutlich hin zu einer Liberalisierung und Deregulierung der Märkte. Die Begründung für die Politik bildete das Anstreben von mehr Auslandsinvestitionen durch internationale Unternehmen. Die Regierungsprogramme wurden mit einem Austeritätsprogramm deutlich gekürzt. Die Weltbank nahm in ihrem Bericht von 1995 zu den Wirkungen selbst kritisch Stellung: „Große Teile der Bevölkerung, darunter viele Kleinbauern und Kleinbetriebe, fanden sich in einer gefährdeten Position mit eingeschränkten Möglichkeiten, auf die neuen Marktbedingungen zu antworten.“ Als Grund gab der Bericht den mangelnden Zugang zu natürlichen, technischen und finanziellen Ressourcen sowie die Schrumpfung der öffentlichen Dienstleistungen für die Bevölkerung an. Auch die Anzahl der Beschäftigten ging deutlich zurück und die Wirtschaft stagnierte. Lediglich das Bildungssystem blieb auf einem für Entwicklungsländer hohen Niveau.
Als Mugabes Verfassungsentwurf 2000 in einem Referendum von der Mehrheit der Bevölkerung abgelehnt wurde, sahen die Politiker der ZANU-PF ihre Macht zum ersten Mal seit der Unabhängigkeit ernsthaft bedroht. Die Regierung reagierte mit Angriffen und Repressionen gegen zahlreiche Organisationen, von Oppositionsparteien über Verbände und Gewerkschaften bis hin zu den Landarbeitern.
Landreform
Die Landreform zur Umverteilung des Agrarlandes von den weißen Nachfahren der kolonialen Siedler zur schwarzen Bevölkerung wurde in den ersten Jahren der Unabhängigkeit aufgrund einer Klausel im Lancester House Abkommen erschwert. Demnach durften Agrarflächen nur enteignet werden, wenn die Eigentümer bereit waren das Land zu verkaufen, obwohl das Land während der Kolonialzeit gewaltsam angeeignet worden war. Dieser Versuch der Landreform auf Basis des „Willing Seller, Willing Buyer“ Prinzips gilt weitgehend als gescheitert, da nur wenige Farmer ihr Land verkaufen wollten und in den ersten zehn Jahren nur 3 Millionen von ursprünglich geplanten 8 Millionen umverteilt wurden.
Im Jahr 2000 wurde die Landreform schließlich gewaltsam durchgeführt. In mehreren Schritten hat Präsident Robert Mugabe seit dem Jahr 2000 rund elf Millionen Hektar Land der weißen Farmer enteignet und neu verteilt – offiziell an rund 300.000 Kleinbauern, während die Weißen nach dem sogenannten Land Acquisition Act für die Besitztümer auf dem Land entschädigt werden sollten. Viele Höfe gingen jedoch ohne eine Entschädigungszahlung an Politiker von Mugabes Regierungspartei ZANU-PF. Viele weiße Siedler flüchteten oder wurden vertrieben, Vieh und Maschinen der Farmen wurden geplündert. Durch diese Art der „Landreform“ verwandelte sich der einstige „Brotkorb“ Afrikas in ein von Hungersnöten und Unterernährung geplagtes, dauerhaft von Lebensmitteleinfuhren abhängiges Land. Dadurch bedingt leiden zudem große Teile der Bevölkerung unter Arbeitslosigkeit; die Geldwirtschaft wird durch eine galoppierende Inflation beeinträchtigt. Handelnder Güterverkehr ist weitgehend nur noch durch Tauschgeschäfte möglich, der allgemeine Versorgungsgrad ist auf Subsistenzniveau gesunken. 2005 wurde als zweite Kammer der Legislative der Senat wiedereingeführt.
Die Mitglieder der Oppositionsparteien – vor allem Anhänger des Movement for Democratic Change (MDC) – und andere regierungskritische Personenkreise wurden zunehmend eingeschüchtert und mitunter getötet. So konnte die Regierung ihren unmittelbaren Einfluss auf die übrige Landbevölkerung wieder verstärken und die Arbeiter dem (politischen) Einfluss der Opposition, vornehmlich des MDC, entziehen. Da die MDC dennoch weiter an Popularität gewann, etablierte die Regierung unter Robert Mugabe eine konsequente Diktatur. So wurden Justiz und Medien gleichgeschaltet, Meinungs- und Versammlungsfreiheit dramatisch eingeschränkt und massive Maßnahmen gegen politisch Andersdenkende ergriffen.
Nach Einschätzung der wenigen zugelassenen unabhängigen Wahlbeobachter waren konsequenterweise sowohl die Ergebnisse der letzten beiden Parlamentswahlen als auch die der Präsidentschaftswahl 2002 in erheblichem Umfang gefälscht. Auch die folgende Zerstörung von ärmeren Stadtvierteln („Operation Murambatsvina“) mit hoher MDC-Wählerschaft schlug international Wellen. Die Umstände der Wahl führten noch im selben Jahr zur Suspendierung Simbabwes aus dem Commonwealth of Nations. Mugabes konsequentes Missachten der internationalen Kritik führte zur Isolierung des diktatorischen Regimes, was – durch die Unzufriedenheit der Bevölkerung verstärkt – die Wirtschaft Simbabwes an den Rand des Zusammenbruchs brachte.
Koalition zwischen ZANU-PF und MDC (2009-13)
Bei der Präsidentschaftswahl am 29. März 2008 kandidierte der zu diesem Zeitpunkt 84-Jährige Mugabe für eine sechste Amtszeit. Neben dem ehemaligen Finanzminister Simba Makoni trat auch der Oppositionsführer Morgan Tsvangirai von der MDC bei den Wahlen an. Gleichzeitig mit dem Präsidenten wurden die Parlamente neu gewählt. Da Umfragen einen Sieg der Opposition vorausgesagt hatten, stand die Wahl auch im internationalen Blickfeld, doch wurden nur wenige Wahlbeobachter zugelassen. Nach Verzögerungen bei der Stimmauszählung rief sich die Opposition vorzeitig zum Wahlsieger aus. Erste Hochrechnungen vom 2. April sagten einen Sieg der MDC sowie die absolute Mehrheit ihres Präsidentschaftskandidaten voraus. Nach den offiziellen Wahlergebnissen aus Harare konnte jedoch keiner der beiden Kandidaten eine absolute Mehrheit erlangen. Tsvangirai wollte zur Stichwahl gegen Mugabe antreten, zog aber, infolge von fortgesetzten, massiven Repressionen und Gewaltakten gegen MDC-Mitglieder durch das Mugabe-Regime, seine Kandidatur Ende Juni 2008 zurück, so dass Mugabe mit großer Mehrheit wiedergewählt wurde. Am 15. September 2008 einigten sich die beiden verfeindeten Politiker Mugabe und Tsvangirai in Harare unter Vermittlung des südafrikanischen Staatspräsidenten Thabo Mbeki auf eine Machtteilung.
Daraufhin wurden im Februar 2009 Tsvangirai als Ministerpräsident und Mugabe erneut als Präsident vereidigt. Die Regierungsbildung verzögerte sich jedoch, nachdem der designierte Vize-Landwirtschaftsminister, Roy Bennett (MDC), unter dem Vorwurf des Terrorismus von der Polizei verhaftet worden war. Am 6. Oktober 2009 bot Mugabe im Parlament in Harare den westlichen Regierungen „kooperative Beziehungen“ an. Zur Bedingung machte er die Aufhebung der Sanktionen gegen Simbabwe. Unter der Einheitsregierung setzte sich die schlechte wirtschaftliche Lage des Landes zunächst fort. Die Gewalt nahm allerdings ab und die Wirtschaftssituation hat sich seit 2010 wieder etwas verbessert. Anfang 2011 lebten rund drei Millionen Simbabwer in Südafrika. Ein Ziel der gemeinsamen Regierung war die Erstellung eines Verfassungsentwurfs, über den am 16. März 2013 abgestimmt wurde. Der Entwurf wurde mit 95 % der rund drei Millionen Stimmen angenommen.
Für Aufsehen sorgte 2008 ein Schiff, das Waffen und Munition liefern sollte, die Simbabwe in China gekauft hatte. Als bekannt wurde, dass die An Yue Jiang im Hafen von Durban (Südafrika) gelöscht werden sollte, kam es dort zu einem Aufruhr in der öffentlichen Meinung, weil befürchtet wurde, dass die Waffen gegen die Bevölkerung eingesetzt werden. Die Hafenarbeiter weigerten sich, die Ladung zu löschen, die auf dem Landweg nach Simbabwe transportiert werden sollte. Das Schiff musste schließlich am 25. April 2008 mitsamt der Ladung wieder nach China zurückkehren, obwohl die südafrikanische Regierung die Ladung zunächst nach Simbabwe passieren lassen wollte. Auch andere Staaten weigerten sich, die Lieferung über ihr Territorium entladen und transportieren zu lassen. Dieser Ausgang der „An Yue Jiang-Affäre“ wurde als Erfolg der südafrikanischen Zivilgesellschaft betrachtet.
Ab August 2008 breitete sich in Simbabwe eine Choleraepidemie aus, die am 4. Dezember 2008 zur Ausrufung des nationalen Ausnahmezustands führte. Bis zum 16. März 2009 wurden bereits mehr als 90.000 Krankheitsfälle und rund 4.030 Tote gezählt.
Die Präsidentschafts- und Parlamentswahl am 31. Juli 2013 war erneut von erheblichen Betrugsvorwürfen begleitet, etwa gefälschten Wählerverzeichnissen und abgewiesenen Wählern. Erneut standen sich Mugabe und Tsvangirai als Kandidaten gegenüber. UN-Generalsekretär Ban Ki-moon lobte den weitgehend friedlichen Ablauf der Wahlen und rief dazu auf, dass den Vorwürfen auf den „etablierten Kanälen“ nachgegangen werde. Bereits am Tag nach der Wahl, vor Auszählung der Mehrzahl der Stimmen, rief sich Mugabe zum Sieger aus. Am 3. August wurde Mugabe nach Auszählung der Stimmen des ersten Wahlgangs mit ca. 61 % der Stimmen offiziell zum Wahlsieger erklärt, Tsvangirai unterlag mit ca. 34 %. Im Parlament erlangte die ZANU-PF mit 197 der 270 Sitze eine Zweidrittelmehrheit, die ihr auch Verfassungsänderungen erlaubt. Tsvangirai kündigte eine juristische Anfechtung der Wahl und einen Boykott der Regierung an. Die Wahlbeobachter der Afrikanischen Union berichteten in einem vorläufigen Bericht zwar von „Unregelmäßigkeiten“, sahen aber einen Fortschritt gegenüber den Wahlen von 2008. Die Südafrikanische Entwicklungsgemeinschaft (SADC) bezeichnete die Wahlen vorläufig als , nicht jedoch als „fair“, was die SADC in ihrer Wahlbeobachtung zum Ziel erklärt hatte.
Absetzung Robert Mugabes (2017)
Nachdem der über 90-jährige Mugabe keine Bereitschaft erkennen ließ, das Präsidentenamt zu übergeben, und es Anzeichen dafür gab, dass er seine Ehefrau Grace Mugabe zu seiner Nachfolgerin aufbauen wollte, wurde die Kritik an seiner Amtsführung auch aus den Reihen der ZANU-PF immer lauter. Am 15. November 2017 übernahm das Militär Simbabwes die Kontrolle über das Land. Mugabe trat schließlich am 21. November 2017 zurück. Am 24. November 2017 wurde Mugabes Parteifreund Emmerson Mnangagwa als neuer Präsident eingesetzt, jahrzehntelang ein enger Weggefährte Mugabes.
Politik
Politisches System
Simbabwe hat seit einem Verfassungsreferendum im März 2013 ein präsidentielles Regierungssystem. Staatsoberhaupt ist der Präsident, der für fünf Jahre vom Volk gewählt wird und einmal wiedergewählt werden kann. Seit November 2017 ist Emmerson Mnangagwa von der ZANU-PF Präsident. Der Machtwechsel an der Staatsspitze erfolgte durch einen Militärputsch. Mnangagwas übernahm das Amt von Langzeitherrscher Robert Mugabe, der von 1987 bis 2017 das Land teilweise diktatorisch regierte. 2009 sah sich Mugabe aufgrund massiver Proteste wegen Wahlfälschung gezwungen, seine Macht zu teilen und den Posten eines Premierministers zu schaffen, der vom Oppositionsführer Morgan Tsvangirai vom Movement for a Democratic Change (MDC) übernommen wurde. Mit der Verfassungsänderung von 2013 wurde das Amt wieder abgeschafft. Bei den Wahlen 2018 erhielt Mnangagwa 50,6 % der Stimmen vor seinem Gegenkandidaten Nelson Chamisa vom MDC mit 44,4 %. Bei den Wahlen vom August 2023 gewann Mnangagwa laut Angaben der Wahlkommission 53 %. Die Opposition bezweifelt das Ergebnis.
Die Legislative wird durch ein Zweikammersystem gebildet. Die Nationalversammlung (bis 2013 House of Assembly, „Versammlungshaus“) zählt 270 Abgeordnete, die alle fünf Jahre nach dem Mehrheitswahlrecht bestimmt werden. Bei den Wahlen 2018 gewann die regierende ZANU-PF laut offiziellen Wahlergebnisse 180 Sitze (−17). Die MDC (bis zum Tod Morgan Tsvangirais MDC-T) erhielt 87 Sitze (+16), sonstige Kandidaten erhielten 3 Sitze. Die MDC war in den vergangenen Jahre von zahlreichen Parteiabspaltungen und Umbenennungen geprägt. Aus diesem Grund hat sich Parteiführer Chamisa entschlossen, im Januar 2022 eine neue Partei mit neuer Farbe zu gründen: die CCC (Citizen Coalition for Change). Parteifarbe ist nun gelb statt rot. Bei Nachwahlen im Frühjahr 2022 konnte die CCC bereits erste Erfolge verbuchen und 19 der 28 Sitze gewinnen. Die letzten Wahlen fanden im August 2023 statt. Aufgrund manipulierter Wählerverzeichnisse, einer von der Regierung kontrollierten Wahlkommission, drakonischen Strafen bei Kritik an der Regierung und Repressionen gegen die Oppositinen gelten die Wahlen schon im Vorfeld als nicht frei und fair. Auch der Verdacht des Stimmenkaufs stand im Raum.
Der Senat umfasst 80 Mitglieder (60 direkt per Mehrheitswahl gewählt, 18 Chiefs und zwei Behinderten-Vertreter).
Die Judikative wird vom Chief Justice, dem Vorsitzenden des Supreme Court of Zimbabwe (Oberster Gerichtshof von Simbabwe) angeführt.
Die zehn Provinzen werden von einem Provincial Governor geleitet, der vom Präsidenten ernannt wird; die Verwaltung leitet der Provincial Administrator. Insgesamt gibt es 59 Distrikte, die wiederum in wards (etwa: „Gemeinden“) aufgeteilt sind. Die Distrikte werden von einem District Administrator geführt. Ihnen steht ein Rural District Committee, in dem unter anderem ein Vertreter der Chiefs einen Sitz hat, zur Seite.
Politische Indizes
Simbabwe gehört nach dem Fragile States Index zu den 20 Ländern, in denen sich in der letzten Dekade von 2010–20 am meisten verbessert hat, wobei das Land in den letzten Jahren stets eine der schlechtesten Bewertungen erhielt. Auch der Demokratieindex zeigt seit 2014 vorsichtige Verbesserungen auf weiterhin niedrigem Niveau.
Menschenrechte
Im September 2007 leitete die Regierung mit Unterstützung des UN-Entwicklungsprogramms einen Konsultationsprozess zur Gründung einer nationalen Menschenrechtskommission ein. Dieser Schritt wurde allerdings weithin als Versuch der Machthaber angesehen, von der schweren Menschenrechtskrise im Land abzulenken. Die Menschenrechtslage verschlechterte sich im Jahr 2008 drastisch. Nach den Wahlen im März wurde das Land von Menschenrechtsverletzungen ungekannten Ausmaßes erschüttert, die von staatlicher Seite unterstützt oder geduldet wurden. Die Täter waren zumeist Angehörige der Sicherheitskräfte, Kriegsveteranen oder Anhänger der Afrikanischen Nationalunion von Simbabwe.
2016 wurde das früheste Heiratsalter für Frauen dem der Männer angeglichen. Es liegt jetzt einheitlich bei 18 Jahren. Damit war Simbabwe zu diesem Zeitpunkt eines von 33 afrikanischen Ländern, in denen das jüngste Heiratsalter beider Geschlechter bei dieser Altersstufe liegt.
1995 hatte Präsident Mugabe auf der Internationalen Buchmesse in der Hauptstadt Harare den Stand der schwulen und lesbischen Gruppierungen abräumen lassen. Mugabe äußert seine Feindseligkeiten gegenüber Homosexuellen in aller Deutlichkeit: „Homosexuelle sind pervers und abstoßend. Sie verstoßen gegen die Gesetze der Natur und der Religion.“ Und: „Sind Perversitäten etwa die Grundlage der Buchmesse?“ Nach einer Meldung der Presseagentur dpa hatte er als Präsident von Simbabwe bei der Eröffnung der Buchmesse erklärt, Homosexuelle hätten in seinem Land keine Rechte und seien „schlimmer als Tiere“.
In Simbabwe ist seit 2006 ein Gesetz gegen „sexuelle Abnormitäten“ in Kraft, unter die auch jede Handlung fällt, „die Kontakt zwischen zwei Männern beinhaltet und von einer vernünftigen Person als unanständige Handlung angesehen wird“. Der Strafrahmen reicht von einer Geldbuße bis zu drei Jahren Haft.
Als Folge der Landreform unter der Präsidentschaft von Robert Mugabe hatten viele einheimische weiße Farmerfamilien nach dem Jahr 2000 Simbabwe verlassen, da sie enteignet wurden. Eine kleine Gruppe der betroffenen Farmer versuchte deswegen die Regierung vor einem simbabwischen Gericht zu verklagen, scheiterten jedoch mit ihrem Vorhaben an der Gerichtsentscheidung. Darauf wandten sie sich an den SADC-Gerichtshof und erhielten eine Gerichtsentscheidung zu ihren Gunsten. Als Folge dieser Rechtsprechung zog sich Simbabwe aus diesem multilateralen Organ zurück und die SADC löste ihren Gerichtshof auf, woran die südafrikanische Regierung unter Jacob Zuma maßgeblich beteiligt war. Dieser Umstand gab den Anlass, dass 25 Farmer mit Beistand von AfriForum später vor dem Pretoria High Court auf Entschädigung klagten. Im Zuge dieser Sache entschied im Dezember 2018 das Südafrikanische Verfassungsgericht, dass die südafrikanische Mitwirkung an der Auflösung der SADC-Gerichtsbarkeit unrechtmäßig und verfassungswidrig war. Dadurch eröffnete sich mit dem neuen Präsidenten Emmerson Mnangagwa eine entsprechende Verhandlungsperspektive. Die Commercial Farmers’ Union (CFU) und Regierungsvertreter Simbabwes unterzeichneten am 29. Juli 2020 ein Abkommen, auf dessen Grundlage 3500 Farmerpersonen einen Anspruch auf finanzielle Entschädigung erlangten. Das dafür zur Verfügung stehende Budget hat einen Umfang und Wert von 3,5 Milliarden US-Dollar.
Außenpolitik
Die Außenpolitik steht in der Tradition der Blockfreiheit. Simbabwe bemüht sich in pragmatischer Weise um ausgewogene Beziehungen nach allen Seiten und engagiert sich im multilateralen Rahmen (UN, SADC, AU, COMESA).
Von besonderer Bedeutung für Simbabwe sind die Beziehungen zu Südafrika. Aus der Vergangenheit herrührende Spannungen und eine gewisse Rivalität konnten nie ganz überwunden werden. In Südafrika herrscht große Besorgnis über die innenpolitische Entwicklung und den wirtschaftlichen Niedergang Simbabwes. Für Südafrika ist die Stabilisierung des nördlichen Nachbarlandes wichtig. Die Zahl der simbabwischen Migranten in Südafrika wird auf bis zu drei Millionen geschätzt. Mitte 2009 hob Südafrika die Visumpflicht für Bürger Simbabwes auf und bot den sich illegal in Südafrika aufhaltenden Simbabwern an, bis Ende 2010 ihren Aufenthaltsstatus zu legalisieren. Dennoch halten sich noch mehrere hunderttausend Simbabwer, unter anderem wegen bürokratischer Hindernisse, illegal in Südafrika auf.
Das Verhältnis zur ehemaligen Kolonialmacht Großbritannien und anderen wichtigen westlichen Geberländern wie den USA ist infolge von Mugabes destruktiver Politik seit 2000 stark belastet. Die Europäische Union hatte 2002 den mit Simbabwe auf der Basis des Cotonou-Abkommens geführten politischen Dialog abgebrochen und gezielte restriktive Maßnahmen gegen Personen und Firmen verhängt, die aktiv an Gewalt gegen die eigene Bevölkerung beteiligt waren und demokratische Reformen blockieren. Die weitaus meisten dieser restriktiven Maßnahmen wurden seit 2012 schrittweise aufgehoben. Nur gegenüber Präsident Mugabe, seiner Ehefrau Grace Mugabe und einer staatlichen Rüstungsfirma bleiben derartige Maßnahmen (Einreiseverbote, Einfrieren von Konten) in Kraft. Ferner gilt das Waffenembargo fort. Die ZANU-PF-Regierung versuchte in der Mitte der 2010er Jahre verstärkt, als Gegengewicht zu der Isolierung durch den Westen Partnerschaften mit anderen Staaten wie der Volksrepublik China, Russland und Iran zu intensivieren. Mugabe bezeichnete dies als „Look East Policy“. Die erhoffte Unterstützung blieb allerdings in bescheidenem Rahmen.
Wirtschaft
1997 war das Land eines der wirtschaftlich stärksten Afrikas, 2015 wächst es mit prognostizierten 1,5 % schwächer als all seine Nachbarn. Aufgrund des diktatorischen politischen Umfelds haben sich die Voraussetzungen für die einst prosperierende Wirtschaft seit den 1990er Jahren substantiell verschlechtert. Von 1998 bis 2008 schrumpfte die Wirtschaftsleistung um etwa die Hälfte. Ende 2008 waren aufgrund von Hyperinflation, Devisenknappheit, fehlenden Investitionen, Import- und Exportrestriktionen und Energieknappheit alle Wirtschaftsbereiche nahezu vollständig zum Erliegen gekommen. Die Einführung eines Multiwährungssystems nach dem Kollaps der einheimischen Währung (Inflationsrate von 100.000 % im Jahre 2008), mit dem US-Dollar als Leitwährung brachte ab 2009/2010 nur vorübergehend Besserung. Nahezu alle Sektoren der verarbeitenden Industrie mussten massive Umsatzeinbußen hinnehmen. Darüber hinaus haben die Kriegsverwicklung mit der Demokratischen Republik Kongo der Wirtschaft Devisen im Wert von mehreren hundert Millionen US-Dollar entzogen. Die Arbeitslosigkeit wurde 2005 auf rund 80 % geschätzt, nach einer anderen Form der Erhebung 2009 auf 95 %.
Im Global Competitiveness Index, der die Wettbewerbsfähigkeit eines Landes misst, belegt Simbabwe Platz 126 von 138 Ländern (Stand 2016). Im Index für wirtschaftliche Freiheit belegt das Land 2017 Platz 175 von 180 Ländern.
Währung
Der Simbabwe-Dollar (Z$) wurde eingeführt, nachdem 1980 eine schwarze Mehrheitsregierung an die Macht gekommen war. Nach einer Hyperinflation wurde seine Funktion als gesetzliches Zahlungsmittel am 12. April 2009 für mindestens ein Jahr ausgesetzt, da er im Zahlungsverkehr faktisch von ausländischen Währungen verdrängt worden war.
Stattdessen wurden im Januar 2009 mehrere ausländische Zahlungsmittel zugelassen, darunter der US-Dollar und der Südafrikanische Rand sowie der Euro. Der Renminbi wurde 2015 ebenfalls offizielles Zahlungsmittel, nachdem China 40 Millionen US-Dollar Schulden erlassen hatte.
Am 1. Oktober 2015 wurde der Simbabwe-Dollar offiziell abgeschafft.
Der Mangel an Banknoten ließ die Zentralbank im September 2016 ankündigen, sie würde Schuldscheine als Parallelwährung ausgeben. Am 31. Oktober 2016 verfügte der damalige Präsident Mugabe die Einführung der Schuldscheine, die die Wirtschaft stabilisieren sollten, aber im Februar 2019 vom US-Dollar abgekoppelt und durch den RTGS-Dollar ersetzt wurden.
Am 24. Juni 2019 wurde der Simbabwe-Dollar erneut als einziges gültiges Zahlungsmittel eingeführt. Fremdwährungen wurden zur Zahlung verboten.
Sektoren
Der halbherzige weltweite Boykott des weißen Rhodesien hatte dessen industrielle Entwicklung begünstigt. Statt dem Land Fertigprodukte zu verkaufen, vergaben die weltweit operierenden Konzerne großzügig Lizenzen. So wurden die meisten wichtigen Verbrauchsgüter im Lande selbst hergestellt, teilweise Produkte auswärtiger Konkurrenten im selben Werk (z. B. Kraftfahrzeuge von Renault, Peugeot und Mitsubishi). Mit dem Ende des Boykotts entfiel der Schutz dieser einheimischen Produktion, schon bevor die Regierung sich politisch auf Abwege begab.
Die bei Antritt der schwarzen Regierung allgemein erwartete Landreform wurde erst jahrelang verzögert und dann chaotisch und unter Ausbrüchen von Gewalt durchgeführt. So wurde der Agrarsektor in eine schwere Krise gestürzt. Drei Millionen Menschen sind mittlerweile auf Lebensmittelhilfe angewiesen. Ein Viertel seiner Bevölkerung könnte Simbabwe ohne internationale Hilfsprogramme nicht mehr ernähren. 2015 waren 44,7 % der Bevölkerung unterernährt, was eine der höchsten Raten weltweit ist. Bei landwirtschaftlichen Exporten ist der Umsatz von 2000 bis 2009 um 12 Milliarden Dollar eingebrochen. Insbesondere der für den Export wichtige Anbau von Tabak ist dramatisch zurückgegangen.
Der Tourismus litt seit der schwarzen Regierungsübernahme darunter, dass manche weißen Hoteliers ihre Betriebe aus einer Boykotthaltung heraus geschlossen hielten. Mit dem Ende der Apartheid in Südafrika nahm ein wichtiger Kundenkreis stark ab: Vorher hatten wohlhabende südafrikanische Inder bevorzugt in Rhodesien bzw. Simbabwe Urlaub gemacht.
Die heimische Goldindustrie leidet unter den diktatorischen Machtstrukturen und der Korruption. Ein Großteil des geförderten Goldes gelangt mittlerweile auf illegalen Wegen ins Ausland. 2004 wurden offiziell 17 Tonnen Gold in Simbabwe produziert. 2013 waren es lediglich noch 900 Kilogramm.
Die seit Mitte 2007 durchgesetzten Preisbindungen führten in Verbindung mit der durch die Staatsfinanzierung verursachten hohen Inflation zu Treibstoffknappheit, einem Mangel an Gütern der Grundversorgung und einem weiteren Schrumpfen der offiziellen Wirtschaft.
Kennzahlen
Die simbabwische Statistikbehörde ist die Zimbabwe National Statistics Agency. Die wichtigen Wirtschaftskennzahlen Bruttoinlandsprodukt, Inflation, Haushaltssaldo und Außenhandel entwickelten sich in den letzten Jahren folgendermaßen:
Nachdem die Inflationsrate bis Ende 2008 auf knapp 90 Trilliarden % anstieg, musste der US-Dollar als Hauptwährung eingeführt werden. Danach hat sich die Inflation im Land beruhigt und Simbabwes Wirtschaft befand sich ab 2014 in einer Deflation. 2019 begann die Inflation wieder stark anzusteigen und lag 2020 bei mehr als 500 Prozent.
Inflation
Die von der Regierung Simbabwes nach fiskalischen Motiven bestimmte Geldmengenpolitik der Reserve Bank führte seit längerem zu hohen Inflationsraten. Von Anfang 2008 bis Anfang 2009 herrschte in Simbabwe Hyperinflation mit allen negativen Begleiterscheinungen, bis schließlich die Währung aufgegeben werden musste.
Die Inflationsrate, die sich in den 1990er Jahren in zweistelligen Prozentwerten bewegt hatte, jedoch meist unter 30 % geblieben war, erreichte 1999/2000 rund 50 % und begann ab Ende 2001 in den dreistelligen Bereich anzusteigen. Ende 2003/Anfang 2004 war mit ca. 600 % zunächst ein Gipfel erreicht, bis Anfang 2005 ging die Rate wieder auf 125 % zurück. Dann nahm der Preisauftrieb jedoch wieder stark zu. 2006 verharrte die Inflation bei rund 1000 %, und es kam im August zu einer Währungsumstellung im Verhältnis 1:1000. Dabei behielt der Simbabwe-Dollar seinen Namen, das internationale Kürzel änderte sich von ZWD zu ZWN. Ab Dezember 2006 begann die Inflationsrate sich mit hoher Geschwindigkeit auf fünfstellige Raten zuzubewegen.
Als Mitte 2007 Werte um 7000 % erreicht wurden, versuchte die Regierung mit Polizeigewalt Preisbindungen durchzusetzen, was zu einzelnen Geschäftsschließungen, Verhaftungen von Ladenbesitzern und langen Warteschlangen vor den Geschäften führte. Erfolge erzielten diese Maßnahmen jedoch nicht. Im letzten Quartal 2007 war die Inflationsrate fünfstellig, im Januar 2008 wurden 100.000 % erreicht. Der IWF befürchtete Hyperinflation.
Entsprechend der Zahlen der Reserve Bank herrschte nach dem üblichen Kriterium von 50 % monatlicher Geldentwertung tatsächlich im Dezember 2007 und ab März 2008 durchgehend Hyperinflation. Die ermittelte Inflationsrate stieg von 100.000 % im Januar 2008 auf 231 Millionen % im Juli. Die monatliche Entwertung bedeutete Preissteigerungen von durchschnittlich 7,35 % bzw. 11,1 % pro Tag im Juni und Juli. Für die folgenden Monate wurden keine offiziellen Zahlen mehr veröffentlicht. Der Ökonom und Inflationsexperte Steven H. Hanke ermittelte noch bis Mitte November einen Anstieg der Inflationsrate auf 90 Trilliarden % und eine monatliche Entwertung, die einer täglichen Verdoppelung der Preise entsprach. Danach war keine sinnvolle Bestimmung mehr möglich, weil kaum noch Güter gegen diese Währung gehandelt wurden. Die Inflation des Simbabwe-Dollars ist damit die zweithöchste jemals erreichte neben der des ungarischen Pengő von 1946.
Im Juli stellten Giesecke und Devrient auf Druck der deutschen Bundesregierung die Lieferung von vorbedruckten Banknotenpapierbögen an die simbabwische Zentralbank ein. Zum 1. August 2008 gab die simbabwische Zentralbank erneut die Streichung von zehn Nullen bei der Landeswährung (jetzt ZWR) bekannt. Anstelle der zunächst mit einstelligen Werten ausgegebenen neuen Banknoten und Zehn-Cent-Münzen waren im Dezember 2008 mittlerweile wieder Noten mit Milliarden-Nennwerten im Umlauf. Im Januar 2009 gab die Zentralbank neue Banknoten mit höheren Nennwerten bis 100 Billionen Simbabwe-Dollar aus.
Am 29. Januar 2009 wurden die ausländischen Währungen, die trotz Verbots bereits zuvor den Simbabwe-Dollar im Zahlungsverkehr faktisch verdrängt hatten, als Zahlungsmittel offiziell zugelassen. Der damit bedeutungslose Simbabwe-Dollar wurde schließlich am 12. April 2009 offiziell ausgesetzt. Noch am 2. Februar 2009 war unter Streichung von zwölf Nullen ein vierter Simbabwe-Dollar mit Noten im Wert von 1, 5, 10, 20, 50, 100 und 500 Dollar (ZWL) eingeführt worden.
Die Inflation kam mit der Außerverkehrsetzung des Simbabwe-Dollar zum Erliegen, der Wechselkurs wurde wegen der nominellen Gültigkeit dennoch zunächst weitergeführt. Am 1. Oktober 2009 lag der Kurs bei 518 ZWL je Euro und am 12. April 2010 bei 512 ZWL je Euro.
Staatshaushalt
Der Staatshaushalt umfasste 2017 Ausgaben von umgerechnet 5,5 Milliarden US-Dollar, dem standen Einnahmen von umgerechnet 3,8 Milliarden US-Dollar gegenüber. Dies entspricht einem Haushaltsdefizit in Höhe von 9,6 % des Bruttoinlandsprodukts.
Die Staatsverschuldung betrug 2017 82,3 % des BIP.
Reformen
Mit der vermeintlichen Zielvorgabe, den ausufernden Schwarzmarkt auszutrocknen, ergriff die Regierung im Mai/Juni 2005 drastische Maßnahmen, indem im Rahmen der Aktion mit der Bezeichnung Operation Murambatsvina („Müllbeseitigung“) schätzungsweise 750.000 Menschen obdachlos wurden und ihre oft einzige Einnahmequelle, Aktivitäten im Kontext des informellen Sektors, aufgeben mussten. Zudem wurden ihre Behausungen zerstört und oft ihr vollständiger Besitz beschlagnahmt. Tatsächlich ging es dem Mugabe-Regime mit diesen auch von den Vereinten Nationen verurteilten Maßnahmen jedoch um eine gezielte Schwächung der Opposition, die insbesondere in den Städten ihre Wähler hat. So werden diese nicht nur für ihre Unterstützung der MDC „bestraft“, sondern auch gezwungen – soweit dies überhaupt möglich ist –, zurück in die von der Regierung kontrollierten ländlichen Gebiete des Landes zu ziehen. Aus den Armutsvierteln der Städte, in denen der Schwarzmarkt florierte, wurden die Menschen vertrieben, anschließend ihre Behausungen zerstört.
Nahezu ein Jahr später, im Mai 2006, wurde erneut eine ähnliche Aktion durchgeführt, bei der in Harare 10.000 Straßenkinder, Straßenhändler und Obdachlose festgenommen wurden, da sie nach Angaben eines Behördensprechers „Unordnung stiftende Elemente“ und für die Kriminalität in der Stadt verantwortlich seien. Die Kinder sollten zu ihren Eltern auf dem Land zurückgebracht werden. Im November 2006 wurden bei der Operation Chikorokoza Chapera („Stoppt illegalen Abbau“) 25.000 Bergleute festgenommen.
Im Januar 2007 wurden die Gebühren für den Rundfunkempfang um das 2500-fache erhöht. Statt bis dahin 20 Simbabwe-Dollar pro Jahr mussten nun 50.000 gezahlt werden. Dies entsprach zu diesem Zeitpunkt einem durchschnittlichen Monatseinkommen.
Infrastruktur
Verkehr
Flugplätze: insgesamt: 404 (2005), davon asphaltiert: 17 (2005), davon länger als 3048 m (10.000 ft): drei, von 2438 bis 3048 m (8000 ft bis 10.000 ft): zwei, von 1524 bis 2437 m (5000 ft bis 8000 ft): vier, von 914 bis 1523 m (3000 ft bis 5000 ft): acht, davon nicht asphaltiert: 387 (2005), von 1524 bis 2437 m (5000 ft bis 8000 ft): fünf, von 914 bis 1523 m (3000 ft bis 5000 ft): 186, unter 914 m (3000 ft): 196. Die Hauptstadt Harare verfügt über einen internationalen Flughafen.
Straßennetze: insgesamt 97.440 km, davon asphaltiert: 18.514 km, nicht asphaltiert: 78.926 km
Wasserstraßen: nur auf dem Karibasee zwischen den Häfen Binga und Kariba
Eisenbahnnetz: siehe Schienenverkehr in Simbabwe und National Railways of Zimbabwe
Kommunikation
Im Jahr 2020 nutzten 29,3 Prozent der Einwohner Simbabwes das Internet.
Telefonnetz: Das Telefonnetz des Landes erlebte ein Auf und Ab. Bei Ende der Kolonialherrschaft war es völlig abgewirtschaftet. Die meisten Gespräche waren noch handvermittelt, sodass Telefonate zwischen zwei ländlichen Orten nur selten gelangen. Wenige Jahre nach der Regierungsübernahme der schwarzen Bevölkerungsmehrheit modernisiert, ist es inzwischen Opfer der allgemeinen Misswirtschaft geworden. 100.000 Anschlüsse warten zurzeit darauf, geschaltet zu werden. Festnetz: 317.000 (2004) Anschlüsse, Mobiltelefone: 423.600 (2004)
Internet: Zwei internationale digitale Gateways, eines in Harare, eines in Gweru
Satelliten-Downlinks: 2
Rundfunk
Alle Rundfunksender sind im Besitz der Regierung und vertreten deren Politik. Der Inlandsdienst der Zimbabwe Broadcasting Corporation (ZBC) sendet in den Landessprachen Shona und isiNdebele über einen Kurzwellensender im 49-m-Band. Bei guten Ausbreitungsbedingungen sind Sendungen auch in Europa zu empfangen und Empfangsberichte werden mit einer QSL-Karte bestätigt.
Kultur
Denkmäler
Höhlenzeichnungen
Die steinzeitliche Kultur der San, die sich im benachbarten Botswana bis ins 20. Jahrhundert hielt, bestand in Simbabwe bis etwa 1000 nach Chr. und entsprach etwa der mittleren Steinzeit Europas. Hinterlassenschaft dieser Kultur sind Höhlenzeichnungen, die Jahrtausende älteren europäischen Funden aus der Eiszeit ähneln.
Steinbauten
Great Zimbabwe aus dem 11. bis 14. Jahrhundert, Zentrum des Munhumutapa Reiches, die größte der Ruinenstätten
Ruinenstätte Khami aus dem 15. Jahrhundert, westlich von Bulawayo
Dhlodhlo (älterer Name Danangombe), Zentrum des Torwa-Staates im 17. Jahrhundert
Außerdem gibt es noch zahlreiche kleinere Steinruinen.
Zeitgenössische Kultur
Bildhauerei
Die monumentalen Steinbauten der Ruinenstadt Great Zimbabwe, die von ca. 1200 bis ins 15. Jahrhundert besiedelt war, zeugen von der bedeutenden Kultur des damaligen Munhumutapa-Reiches. Sie wurde zum Namensgeber der heutigen Republik. In den bis zu 10 Meter hohen, ganz ohne Mörtel gefügten Mauern fand man riesige, in Stein gemeißelte Vögel. Der „Simbabwe-Vogel“ ziert heute die Nationalflagge.
Schon damals gab es demnach eine Tradition der Steinmetzkunst, auch wenn die Vögel aus dem weichen Speckstein gearbeitet waren und nicht aus den festeren Gesteinen des Great Dyke, die im 20. Jahrhundert eine der günstigen Voraussetzungen für die Entstehung einer neuen Bildhauertradition wurden. Die geologische Auffaltung des Great Dyke, die sich 555 km vom Norden bis in den Süden des Landes erstreckt, birgt reiche Vorkommen mineralischer Rohstoffe, wie Serpentinite („Springstone“), Opal, Dolomit, Marmor, Steatit, Jade, Lepidolith und andere, mitunter in vielfältigen Farbvarianten. Das große, rohstoffreiche Areal des Great Dyke und des Grünsteingürtels entstand vor ca. 2,5 Milliarden Jahren, durch vulkanische und tektonische Aktivitäten bei sehr hohen Temperaturen und großem Druck. Das Farbenspiel der Gesteine und Minerale tritt zutage, wenn man sie schleift, wachst und poliert.
Ein weiterer günstiger Umstand für die Entstehung einer zeitgenössischen Bildhauerei war der Bau der Nationalgalerie in Salisbury, dem heutigen Harare. Der Kanadier Frank McEwen wurde als erster Direktor berufen. Er hatte ein für das rassistische Rhodesien ungewöhnlich großes Interesse an den Werken afrikanischer Künstler. Einem Landwirtschaftsberater, Joram Mariga, der bei Straßenbauarbeiten einen schimmernden Speckstein gefunden und begonnen hatte, mit einem Küchenmesser daran zu schnitzen, kaufte MacEwen für eine hohe Summe eine Steinschale ab, deren außerordentlichen künstlerischen Wert er sofort erkannt hatte. Mariga gründete auf dem Gelände der Nationalgalerie den Vukutu-Nyanga-Workshop für Bildhauerei, die spätere Vukutu-Kunstakademie, die zum Ausgangspunkt einer ganzen Generation von Bildhauern wurde. Schließlich brachte McEwen Künstler auf Kunstausstellungen in Paris, London und New York City.
Eine wichtige Rolle spielten auch Tom Blomefield und seine Farm Tengenenge nordwestlich von Harare, unmittelbar an den Hängen des Great Dyke. Blomefield war Tabakfarmer. Als es ab 1966 aufgrund der einseitigen Unabhängigkeitserklärung Ian Smiths und seiner Apartheidregierung zu internationalen Sanktionen kam, wurde es unmöglich, vom Tabakanbau zu leben. So schlug Blomefield seinen Arbeitern vor, Steinskulpturen zu meißeln.
Zur ersten Generation moderner Bildhauer, die während jener Zeit ihre Kunst entwickelte, zählen vor allem Henry Munyaradzi, Bernard Matemera, Nicholas Mukomberanwa, Fanizani Akuda, Enos Gunja, Edward Chiwawa und Sylvester Mubayi. Auf ihrer ersten Ausstellung 1968 in der National Gallery of Zimbabwe in Harare wurden bereits sämtliche Werke verkauft.
In der zweiten „Generation“ ragen die Söhne Henry Munyaradzis, Mike M., und Nicholas Mukomberanwas, Lawrence M., hervor; beide sind Vorstandsmitglieder der Künstlervereinigung Friends Forever, der sich viele Bildhauer und Bildhauerinnen wie die international erfolgreiche Colleen Madamombe angeschlossen haben. Auch der taubstumme Godfrey Kututwa aus Chitungwiza bei Harare zählt hierzu; er ist Schüler von Claud Nyanhongo, dessen künstlerische Aktivitäten sich ebenfalls auf mehrere Söhne und Töchter übertragen haben.
Als „dritte Generation“ der simbabwischen Bildhauerbewegung bezeichnet man unter anderem die jüngeren Söhne und Töchter Nicholas Mukomberanwas, Taguma, Ennika und Netsai in Ruwa sowie den jungen Kapenda Tembo, Itai Nyama und viele andere. Insgesamt arbeiten in Tengenenge, Ruwa, Guruve und anderen Orten inzwischen weit über 300 Künstler; zahlreiche Galerien verbreiten ihre Werke weltweit.
Diese Kunst ist heute im Museum of Modern Art in New York City ebenso zu finden wie im Pariser Musée Rodin und in anderen großen Museen der Welt. Auf der Biennale in Venedig erhielten die Künstler Simbabwes einen eigenen Pavillon, an der Expo 92 in Sevilla und der Expo 2000 in Hannover nahmen sie ebenfalls teil.
Obwohl der Begriff „Shona“ eine ganze Gruppe von Völkern in und außerhalb von Simbabwe bezeichnet und auch Künstler aus anderen Ethnien als Steinbildhauer im Lande arbeiten, spricht man generalisierend häufig von Shona-Skulpturen.
Sculpture Prize: Seit 2002 findet im zweijährigen Rhythmus ein Bildhauer-Wettbewerb statt, bei dem die Preisträger des Kristin Diehl Sculpture Prize ermittelt werden. Unter der Schirmherrschaft der deutschen Botschaft, des Goethe-Instituts und – ehemals – mit Hilfe des Deutschen Entwicklungsdienstes (DED) wird der Wettbewerb in Harare durchgeführt.
Malerei
Ein bedeutender Maler und Poet der Gegenwart ist Victor Mavedzenge.
Literatur
Musik
Zu den bekanntesten zeitgenössischen Musikern Simbabwes zählen Thomas Mapfumo, die 2023 gestorbene Stella Chiweshe sowie der 2019 gestorbene Oliver Mtukudzi. Auch die Bhundu Boys haben Musik aus Simbabwe in Europa bekannt gemacht, ebenso wie die Band Mokoomba, die eine Mischung aus Afropop, Funk und Reggae spielt.
Sport
Cara Black (mit ihrer US-amerikanischen Doppelpartnerin Liezel Huber) sowie Kevin Ullyett (mit Jonas Björkman, Schweden) gehörten in den Tennis-Doppelwettkämpfen zur Weltspitze. Noch bekannter ist allerdings die Ausnahmeschwimmerin Kirsty Coventry, die nach ihren Olympiasiegen 2004 und 2008 zur Volksheldin und Hoffnungsträgerin für ihr Land avancierte.
Die populärste Mannschaftssportart ist Fußball. Die simbabwische Fußballnationalmannschaft, die erst ab 1980 an internationalen Wettbewerben teilnehmen konnte, qualifizierte sich hingegen für die Afrikameisterschaften 2004, 2006, 2017 und 2019. Im Ausland bekannt ist der in Südafrika spielende Benjani. Der ehemalige Fußballnationaltorwart Bruce Grobbelaar spielte in den 1980ern und frühen 1990ern für den englischen Top-Club FC Liverpool, mit dem er zahlreiche Titel gewann.
Nach Fußball sind Cricket und Rugby Union weitere beliebte Sportarten. Bereits 1895 wurde der Rugbyverband Rhodesia Rugby Football Union gegründet. Die Rugby-Nationalmannschaft qualifizierte sich für die ersten beiden Rugby-Union-Weltmeisterschaften 1987 und 1991, danach scheiterte man jedoch in den Qualifikationen. Simbabwe ist einer der Teilnehmer bei der Rugby-Union-Afrikameisterschaft und trifft dort auf andere aufstrebende Nationalmannschaften. Dort wurde man 2012 Afrikameister sowie dreimal Vizeafrikameister. Ein bekannter simbabwischer Rugbyspieler, der für Südafrika spielt, ist Tendai Mtawarira.
Die Cricket-Nationalmannschaft ist eine von aktuell zwölf Test-Cricket Nationen und qualifizierte sich von 1983 bis 2015 für jeden Cricket World Cup. Außerdem war man 2003 Co-Gastgeber mit Südafrika und Kenia. Im November 2021 wurde Simbabwe zusammen mit Namibia und Südafrika zum Gastgeber des Cricket World Cup 2027 ernannt. Bekannte simbabwische Cricketspieler sind Andy Flower und Brendan Taylor.
Special Olympics Simbabwe wurde 1987 gegründet und nahm mehrmals an Special Olympics Weltspielen teil. Der Verband hat seine Teilnahme an den Special Olympics World Summer Games 2023 in Berlin angekündigt. Die Delegation wird vor den Spielen im Rahmen des Host Town Programs von Sankt Wendel betreut.
Literatur
Literatur zur Bildhauerei in Simbabwe
Ben Joosten: Lexicon: Sculptors from Zimbabwe. The first generation. Dodeward, ISBN 90-806629-1-7.
Contemporary Master Sculptors of Zimbabwe. Ruwa 2007, ISBN 978-0-7974-3527-8.
Oliver Sultan: Life in Stone. Zimbabwean Sculpture. Birth of a Contemporary Art Form. Harare 1999, ISBN 1-77909-023-4.
Eberhard Schnake: Spirits in Stone. Steinskulpturen aus Zimbabwe, Münster 2003.
Celia Winter-Irving: Tengenenge – Art, Sculpture and Paintings.
Celia Winter-Irving: Stone Sculpture in Zimbabwe. Context, Content and Form. Harare 1991.
Listen von Steinbildhauern der ersten, zweiten und dritten Generation
Weblinks
Landeseigene Links
Republic of Zimbabwe: Zimbabwe Government Online. Auf www.zim.gov.zw (englisch)
Republic of Zimbabwe: Office of the President and Cabinet. Auf www.opc.gov.zw (englisch)
Republic of Zimbabwe: Parliament of Zimbabwe. Auf www.parlzim.gov.zw (englisch)
Republic of Zimbabwe: Zimbabwe National Statistics Agency (ZIMSTAT). Auf www.zimstat.co.zw (englisch)
Republic of Zimbabwe: Ministry of Foreign Affairs & International Trade. Auf www.zimfa.gov.zw (englisch)
Landesprofil bei Ministerien deutschsprachiger Staaten
Auswärtiges Amt (D): Simbabwe. Auf www.auswaertiges-amt.de
Bundesministerium für auswärtige Angelegenheiten (A): Länderspezifische Reiseinformation: Simbabwe. Auf www.bmeia.gv.at
Eidgenössisches Departement für auswärtige Angelegenheiten (CH): Eckdaten Republik Simbabwe. Auf www.helpline-eda.ch
Internationale Links
United Nations: United Nations Statistics Division. Zimbabwe. Auf www.data.un.org (englisch)
World Bank: Countries. Zimbabwe. Auf www.worldbank.org (englisch)
US-Government: CIA World Fact Book. Zimbabwe. Auf www.cia.gov (englisch)
Media Institute of Southern Africa: Zimbabwe. Fast Facts. Auf www.misa.org (englisch)
Electoral Institute for Sustainable Democracy in Africa: Zimbabwe. Fact file. Auf www.eisa.org.za (englisch)
World Health Organization: Zimbabwe. Auf www.who.int (englisch)
World Food Programme: Zimbabwe. Auf www.wfp.org (englisch)
UNHCR: 2014 UNHCR regional operations profile – Southern Africa. Zimbabwe. Auf www.unhcr.org (englisch)
UNICEF: Situation reports 2012–2013. Zimbabwe. Auf www.unicef.org (englisch)
International Fund for Agricultural Development: Rural poverty in Zimbabwe. Auf www.ruralpovertyportal.org (englisch)
World Directory of Minorities and Indigenous Peoples: Zimbabwe. Auf www.minorityrights.org (englisch)
UNCTAD: Voluntary peer review of competition law and policy. Zimbabwe. Auf www.unctad.org (englisch; PDF)
U.S. Department of the Interior: U.S. Geological Survey, 1994–2010 Minerals Yearbook, Volume III. Area Reports: International. Zimbabwe. Auf www.minerals.usgs.gov (englisch)
Einzelnachweise
Staat in Afrika
Binnenstaat
Mitgliedstaat der Vereinten Nationen
Mitgliedstaat der Entwicklungsgemeinschaft des südlichen Afrika
Ehemaliger Mitgliedstaat des Commonwealth of Nations
|
Q954
| 2,285.741955 |
23407
|
https://de.wikipedia.org/wiki/Dualsystem
|
Dualsystem
|
Das Dualsystem (lat. dualis „zwei enthaltend“), auch Zweiersystem oder Binärsystem genannt, ist ein Zahlensystem, das zur Darstellung von Zahlen nur zwei verschiedene Ziffern benutzt.
Im üblichen Dezimalsystem werden die Ziffern 0 bis 9 verwendet. Im Dualsystem hingegen werden Zahlen nur mit den Ziffern des Wertes null und eins dargestellt. Oft werden für diese Ziffern die Symbole 0 und 1 verwendet. Die Zahlen null bis fünfzehn sind in der rechts stehenden Liste aufgeführt.
Das Dualsystem ist das Stellenwertsystem mit der Basis 2, liefert also die dyadische (2-adische) Darstellung von Zahlen (Dyadik) (gr. δύο = zwei).
Aufgrund seiner Bedeutung in der Digitaltechnik ist es neben dem Dezimalsystem das wichtigste Zahlensystem.
Die Zahldarstellungen im Dualsystem werden auch Dualzahlen oder Binärzahlen genannt. Letztere ist die allgemeinere Bezeichnung, da diese auch verkürzt für binärcodierte Zahlen stehen kann. Der Begriff Binärzahl spezifiziert die Darstellungsweise einer Zahl also nicht näher, er sagt nur aus, dass zwei verschiedene Ziffern verwendet werden.
Definition und Darstellung
Bei der Zahldarstellung im Dualsystem werden die Ziffern wie im gewöhnlich verwendeten Dezimalsystem ohne Trennzeichen hintereinander geschrieben, ihr Stellenwert entspricht allerdings der zur Stelle passenden Zweierpotenz und nicht der Zehnerpotenz.
Die höchstwertige Stelle mit dem Wert wird also ganz links und die niederwertigeren Stellen mit den Werten bis in absteigender Reihenfolge rechts davon aufgeschrieben. Zur Darstellung von rationalen oder reellen Zahlen folgen dann nach einem trennenden Komma die Stellen bis , die den gebrochenen Anteil der Zahl darstellen. Wenn diese Darstellung abbricht, dann sieht das so aus:
Der Wert der Dualzahl ergibt sich durch Addition dieser Ziffern, welche vorher jeweils mit ihrem Stellenwert multipliziert werden:
.
Gewöhnlich werden analog zu anderen Zahlensystemen die Symbole 0 und 1 zur Darstellung der beiden Ziffern verwendet.
In älterer Literatur mit Bezug zur elektronischen Datenverarbeitung werden manchmal die Symbole Low (L) und High (H) anstelle von 0 und 1 verwendet. Low steht dann meist für den Wert null und High für den Wert eins. Diese Zuordnung nennt sich positive Logik, bei negativer Logik werden die Werte andersherum zugeordnet.
In der Informatik werden für binär kodierte Werte auch die „Ziffern“ wahr (w) und falsch (f) bzw. die englischen Übersetzungen true (t) und false (f) verwendet, wobei meist falsch=0 und wahr=1 gesetzt wird.
Auch die Symbole L für den Wert eins und 0 für den Wert null finden (selten) Verwendung.
Negative Zahlen werden im Dualsystem wie im Dezimalsystem mit einem vorangestellten Minus (−) geschrieben.
Beispiele
Die Ziffernfolge 1101 zum Beispiel stellt nicht (wie im Dezimalsystem) die Tausendeinhunderteins dar, sondern die Dreizehn, denn im Dualsystem berechnet sich der Wert durch
und nicht wie im Dezimalsystem durch
.
Für weitere Techniken und Beispiele zum Umrechnen von Dualzahlen in Dezimalzahlen und umgekehrt: siehe Abschnitt Umrechnen von Dualzahlen in andere Stellenwertsysteme.
Die Klammerung der Resultate mit der tiefgestellten 2 beziehungsweise der 10 gibt die Basis des verwendeten Stellenwertsystems an. So kann leicht erkannt werden, ob die Zahl im Dual- oder im Dezimalsystem dargestellt ist. In der Literatur werden die eckigen Klammern oft weggelassen und die tiefergestellte Zahl dann manchmal in runde Klammern gesetzt. Ebenfalls möglich ist die Kennzeichnung durch den nachgestellten Großbuchstaben B (für binary, engl. für binär).
Verschiedene Schreibweisen der Zahl dreiundzwanzig im Dualsystem:
[10111]2
101112
10111(2)
0b10111
%10111 (sog. Motorola-Konvention, aber z. B. auch bei DR-DOS DEBUG)
HLHHH
L0LLL
Die gelegentlich verwendete Schreibweise 10111b bzw. 10111B ist nicht empfehlenswert, da sie mit Hexadezimalzahlen verwechselt werden kann.
Geschichte
Entwicklung des Dualsystems
Der alt-indische Mathematiker Pingala stellte die erste bekannte Beschreibung eines Zahlensystems bestehend aus zwei Zeichen im 3. Jahrhundert v. Chr. vor. Dieses Zahlensystem kannte allerdings keine Null.
Eine Serie von acht Trigrammen und 64 Hexagrammen sind aus dem alt-chinesischen und daoistischen Text I Ching bekannt. Der chinesische Gelehrte und Philosoph Shao Yong entwickelte im 11. Jahrhundert daraus eine systematische Anordnung von Hexagrammen, die die Folge von 1 bis 64 darstellt, und eine Methode, um dieselbe zu erzeugen. Es gibt jedoch keine Hinweise, dass Shao es verstand, Berechnungen im Dualsystem vorzunehmen oder das Konzept des Stellenwertes erkannt hatte.
Schon Jahrhunderte bevor das Dualsystem in Europa entwickelt wurde, haben Polynesier binäre Zusammenfassungen von Zahlen zur Vereinfachung von Rechnungen benutzt.
Gottfried Wilhelm Leibniz erfand schon Ende des 17. Jahrhunderts die Dyadik (dyo, griech. = Zwei), also die Darstellung von Zahlen im Dualsystem. Er sah darin ein so überzeugendes Sinnbild des christlichen Glaubens, dass er damit den chinesischen Kaiser Kangxi überzeugen wollte. Dazu schrieb er an den französischen Jesuitenpater Joachim Bouvet (1656–1730):
„Zu Beginn des ersten Tages war die 1, das heißt Gott. Zu Beginn des zweiten Tages die 2, denn Himmel und Erde wurden während des ersten geschaffen. Schließlich zu Beginn des siebenten Tages war schon alles da; deshalb ist der letzte Tag der vollkommenste und der Sabbat, denn an ihm ist alles geschaffen und erfüllt, und deshalb schreibt sich die 7 111, also ohne Null. Und nur wenn man die Zahlen bloß mit 0 und 1 schreibt, erkennt man die Vollkommenheit des siebenten Tages, der als heilig gilt, und von dem noch bemerkenswert ist, dass seine Charaktere einen Bezug zur Dreifaltigkeit haben.“
Etwas weltlicher fiel hingegen seine Beschreibung in einem Brief an den Herzog Rudolf von Braunschweig-Wolfenbüttel vom 2. Januar 1697 aus:
Wohl weil die feinmechanischen Fertigkeiten der damaligen Zeit nicht ausreichten, griff Leibniz beim Bau seiner Rechenmaschinen auf das Dezimalsystem zurück.
Das Dualsystem wurde von Leibniz am Anfang des 18. Jahrhunderts in seinem Artikel Explication de l’Arithmétique Binaire (Histoire de l’Academie Royale des Sciences 1703, veröffentlicht in Paris 1705) vollständig dokumentiert. Leibniz bestätigt darin außerdem die Ansicht Joachim Bouvets, eines Missionars am chinesischen Kaiserhof, der die Tri- und Hexagramme des Fu Hsi (siehe Abbildung: „Zeichen des Fu Hsi“) bei bestimmter Leserichtung als Zahlzeichen interpretiert hat. Er sah darin ein archaisches Binärsystem, das in Vergessenheit geraten ist. Diese Deutung gilt inzwischen als sehr unwahrscheinlich.
Leibniz hatte aber auch in Europa Vorgänger. Eine frühere Behandlung des Dualsystems und anderer Stellensysteme von Thomas Harriot wurde von diesem nicht veröffentlicht, sondern fand sich erst im Nachlass. Die erste Veröffentlichung des Dualsystems in Europa ist wahrscheinlich in Mathesis Biceps vetus et nova 1670 vom späteren spanischen Bischof Juan Caramuel y Lobkowitz (1606–1682), der auch Zahlen zu anderen Basen behandelt. Auch Blaise Pascal merkte schon in De numeris multiplicibus (1654, 1665) an, dass die Basis 10 keine Notwendigkeit ist.
1854 veröffentlichte der britische Mathematiker George Boole eine richtungsweisende Arbeit, die detailliert ein logisches System beschreibt, das als Boolesche Algebra bekannt wurde. Sein logisches System bereitete der Realisierung von elektronischen Schaltungen den Weg, welche die Arithmetik im Dualsystem implementieren.
Die ersten Realisierungen in der Technik
Im November 1937 vollendete George Stibitz, der später bei den Bell Labs arbeitete, seinen Relais-gestützten Rechner „Modell K“ (nach „K“ für „Küche“, wo er ihn zusammengebaut hat), der die Addition im Dualsystem beherrschte.
1937 baute Konrad Zuse eine auf dem Dualsystem basierende Rechenmaschine, die mechanische Zuse Z1, welche aber aufgrund mechanischer Probleme unzuverlässig arbeitete.
1937 fertigte Claude Shannon seine Master-Abschlussarbeit am MIT an, die erstmals die Boolesche Algebra und die Arithmetik im Dualsystem in elektrischen Relais und Schaltern realisierte. Unter dem Titel A Symbolic Analysis of Relay and Switching Circuits hat Shannons Arbeit die Konstruktion Digitaler Schaltkreise begründet.
1937 bis 1941 bauten John Atanasoff und Clifford Berry den ersten elektronischen Digitalrechner, den auf Elektronenröhren basierenden Atanasoff-Berry-Computer.
Am 12. Mai 1941 führte Konrad Zuse einem kleinen Kreis in Berlin den weltweit ersten universell programmierbaren binären Digitalrechner, die elektromechanische Zuse Z3 vor, welcher aber im Zweiten Weltkrieg komplett zerstört wurde.
Am 19. März 1955 stellten die Bell-Forschungslaboratorien den weltweit ersten ausschließlich mit Halbleiter-Elementen realisierten binären Digitalrechner, den TRansistorized Airborne DIgital Computer, vor.
Anwendung in der elektronischen Datenverarbeitung
Bei der Entwicklung von elektronischen Rechenmaschinen erlangte das Dualsystem große Bedeutung, denn in der Digitaltechnik werden Zahlen durch elektrische Zustände dargestellt. Bevorzugt werden zwei komplementäre Zustände wie Strom an / Strom aus oder Spannung / Masse verwendet, da auf diese Weise sehr fehlerresistente und einfache Schaltungen zu realisieren sind (siehe Binärcode). Diese zwei Zustände lassen sich dann als Ziffern benutzen. Das Dualsystem ist die einfachste Methode, um mit Zahlen zu rechnen, die durch diese zwei Ziffern dargestellt werden.
Dualzahlen finden in der elektronischen Datenverarbeitung bei der Darstellung von Festkommazahlen oder ganzen Zahlen Verwendung. Negative Zahlen werden vor allem als Zweierkomplement dargestellt, welches nur im positiven Bereich der Dualzahlendarstellung entspricht. Seltener wird dazu das Einerkomplement verwendet, welches der invertierten Darstellung von Dualzahlen mit vorangestellter Eins entspricht. Die Darstellung von negativen Zahlen im Einerkomplement hat den Nachteil, dass zwei Darstellungen für die Null existieren, einmal im Positiven und einmal im Negativen. Eine weitere Alternative bietet der auf einer Wertebereichsverschiebung basierende Exzesscode.
Um rationale oder gar reelle Zahlen mit nicht abbrechender Dualzahl-Darstellung näherungsweise in der elektronischen Datenverarbeitung darzustellen, werden vorzugsweise Gleitkommadarstellungen verwendet, bei der die Zahl normalisiert und in Mantisse und Exponent aufgeteilt wird. Diese beiden Werte werden dann in Form von Dualzahlen gespeichert.
Berechnung benötigter Stellen
Eine Dualzahl mit Stellen kann maximal den Wert annehmen. Eine vierstellige Dualzahl kann also höchstens den Wert , also 16 − 1 = 15 haben.
Konsequenterweise kann man im Dualsystem mit seinen 10 Fingern bis , also bis 1023 zählen.
In der Digitaltechnik gilt es zu beachten, dass häufig beim Speichern einer Dualzahl auch deren Vorzeichen gespeichert werden muss. Dazu wird meistens das eigentlich höchstwertige Bit in dem für die Zahl reservierten Speicherbereich verwendet. Ist dieser Speicherbereich Bit groß, so beträgt (bei der Darstellung der negativen Zahlen im Zweierkomplement) der maximale Wert der positiven Zahlen und der minimale Wert der negativen Zahlen . Dabei zählt die zu den positiven Zahlen und die ist die „erste negative Zahl“. Insgesamt bleibt damit die Anzahl der darstellbaren Zahlen gleich .
Die Anzahl benötigter Stellen im Dualsystem für eine gegebene Zahl im Dezimalsystem ist
.
Dabei bezeichnet die Abrundungsfunktion und den Logarithmus zur Basis 2 der Zahl .
Alternativ kann die Anzahl der Dezimalstellen mit 3,322 multipliziert werden (+Aufrunden), was eine Obergrenze ergibt, denn (eine Dezimalstelle, eigentlich also wird maximal zu Dualstellen).
Anwendung in der Unterhaltungsmathematik
Der folgende zur Unterhaltungsmathematik zählende Trick trägt zum Verständnis des Dualsystems bei und verblüfft insbesondere mathematisch weniger Geübte, indem er vermeintlich Hellseherei vortäuscht.
Vorgehensweise
Eine Person A übergibt die sechs Zahlenkarten (Abbildung 1) einer Person B mit der Aufforderung, sich eine Zahl zwischen und zu merken, geheim zu halten und nur die Karten wieder zurückzugeben, auf denen die gemerkte Zahl vorkommt. Die Person A schaut sich die zurückgegebenen Karten an, addiert danach (möglichst schnell und unauffällig) deren Anfangszahlen und nennt der Person B die berechnete Summe, welche gleich der gedachten Zahl ist.
Struktur der Karten
Die Zahlenkarten sind folgendermaßen strukturiert: Ist eine der Zahlen bis , so ist in genau denjenigen Kärtchen enthalten, deren Anfangszahlen die Summe haben. Genauer formuliert: Nach Zerlegung einer der Zahlen in Zweierpotenz-Summanden ist die betreffende Zahl in genau denjenigen Karten enthalten, deren Anfangszahlen diese Summanden sind.
Der Zahlentrick beruht darauf, dass sich jede natürliche Zahl eindeutig als Summe von Zweierpotenzen darstellen lässt.
Erläuterndes Beispiel
Die Zahl ist wegen in den Karten mit den Anfangszahlen , , und enthalten. (Abbildung 2).
Grundrechenarten im Dualsystem
Analog zu den Zahlen im Dezimalsystem lassen sich mit Dualzahlen die gängigen arithmetischen Grundoperationen Addition, Subtraktion, Multiplikation und Division durchführen.
Tatsächlich werden die benötigten Algorithmen sogar einfacher und lassen sich effizient mit logischen Schaltungen elektronisch realisieren. Die Einführung von Dualzahlen in der Rechentechnik brachte daher viele Vorteile.
Schriftliche Addition
Die binäre Addition ist eine grundlegende Basisoperation in der Computerwelt. Will man zwei nicht negative Binärzahlen und addieren, kann man das wie im Dezimalsystem tun. Nur muss man beachten, dass beim Ergebnis an der jeweiligen Stelle keine „Zwei“ notiert wird, sondern eine Null und an die nächste Stelle ein Übertrag. Das geschieht analog zur Dezimaladdition, wenn sich bei der Addition einer Stelle eine Zehn ergibt:
Die Zahlen werden übereinander aufgeschrieben. Nun arbeitet man von rechts nach links alle Binärziffern (=Bits) von und simultan ab und erzeugt in jedem Zwischenschritt ein Ergebnisbit sowie ein Merkerbit (auch Übertrag genannt). Dabei werden die Bits entsprechend der Tabelle rechts zusammengezählt. In den Spalten A und B sind die Bits der zu addierenden Zahlen zu finden. In der Spalte steht das Merkerbit des vorherigen Zwischenschrittes. Daraus ergeben sich (entsprechend dieser Tabelle, welche einem Volladdierer entspricht) ein Ergebnisbit (E) und ein neues Merkerbit (). Alle Ergebnisbits, von rechts nach links aneinandergereiht, stellen das Resultat dar. Entsteht beim letzten Zwischenschritt ein Merkerbit, so bekommt das Resultat links eine zusätzliche 1.
Am besten sieht man das anhand eines Beispiels. Hier werden die Zahlen A und B zusammengezählt. In jedem Schritt wird ein anfallendes Merkerbit bei der nächsten Ziffer notiert.
A = 10011010 (154)
B = 00110110 ( 54)
Merker = 01111100
————————
Ergebnis = 11010000 (208)
‗‗‗‗‗‗‗‗
Schriftliche Subtraktion
Die Subtraktion verhält sich analog zur Addition.
, Übertrag (borrow) 1
Zwei Zahlen im Dualsystem können voneinander wie im folgenden Beispiel dargestellt subtrahiert werden:
Hier wird die Subtraktion 110−23 = 87 durchgeführt. Die kleinen Einsen in der dritten Reihe zeigen den Übertrag. Das Verfahren ist das Gleiche, wie es in der Schule für das Dezimalsystem unterrichtet wird. Etwas ungewohnt sieht der Fall 0−1 aus. Zur Verdeutlichung das Beispiel 2−9 im Dezimalsystem: Man denkt sich eine Zehnerstelle vor die Zwei, wodurch sich die Subtraktion 12−9 ergibt. Die gedachte Zehnerstelle wird dann als Übertrag an die nächste Stelle weitergereicht. Im Dualsystem geschieht das Gleiche: Aus 0−1 wird 10−1. Als Ergebnis kann also eine 1 hingeschrieben werden; die vor die 0 gedachte Eins muss dann als Übertrag an die nächste Stelle geschrieben und von dieser zusätzlich abgezogen werden.
Das Verfahren funktioniert (wie auch im Dezimalsystem) nicht, wenn der Minuend (1. Zahl) kleiner ist als der Subtrahend (2. Zahl). Sollte das der Fall sein, erfolgt die Subtraktion einer Zahl durch die Addition des Zweierkomplementes dieser Zahl. Die Subtraktion einer positiven Zahl ergibt nämlich das gleiche Ergebnis wie die Addition der entsprechenden negativen Zahl mit dem gleichen Betrag:
Wäre der (blau markierte) Übertrag 1, müsste das Zweierkomplement des Ergebnisses nicht mehr gebildet werden, da die vorzeichenlose Darstellung der positiven Zahlen im Zweierkomplement gleich ist (siehe Tabelle dort). Der Übertrag wird zu den (nicht dargestellten) führenden Einsen des Zweierkomplementes addiert, wodurch im Ergebnis nur führende Nullen entstehen. Als Beispiel dient die obige Rechnung 110−23 = 87 :
Schriftliche Multiplikation
Die Multiplikation wird im Dualsystem genauso durchgeführt wie im Dezimalsystem. Dadurch, dass nur 0 und 1 als Ziffern vorkommen, ist die schriftliche Multiplikation jedoch sogar einfacher. Das folgende Beispiel, in dem die Zahlen 1100 (12) und 1101 (13) multipliziert werden, zeigt die Vorgehensweise.
Zuerst schreibt man die Aufgabenstellung in eine Zeile und zieht zur Vereinfachung einen Strich darunter.
1100 · 1101
———————————
Die erste Ziffer des zweiten Faktors ist eine Eins und deshalb schreibt man den ersten Faktor rechtsbündig unter diese Eins.
1100 · 1101
———————————
1100
Auch für alle weiteren Einsen des zweiten Faktors schreibt man den ersten Faktor rechtsbündig darunter.
1100 · 1101
———————————
1100
1100
0000
1100
Die so gewonnenen Zahlen zählt man dann zum Ergebnis der Multiplikation zusammen.
1100 · 1101
———————————
1100
+ 1100
+ 0000
+ 1100
———————————
10011100 (156)
Ein besonders einfacher Fall ist die Multiplikation einer positiven Dualzahl mit der Zahl 10 (2). In diesem Fall muss lediglich an die positive Dualzahl eine 0 angehängt werden:
usw.
Für diese Rechenoperation existieren einfache Befehle in der Digitaltechnik.
Bei der Multiplikation zweier Zweierkomplement-Dualzahlen wird der Booth-Algorithmus benutzt.
Schriftliche Division
Bei der Division zweier Dualzahlen werden folgende Algorithmen verwendet.
Am Beispiel der Division von 1000010 / 11 (entspricht 66:3 im Dezimalsystem)
1000010 ÷ 11 = 010110 Rest 0 (= 22 im Dezimalsystem) somit mod
− 011
—————
00100
− 011
————
0011
− 011
—————
0
Die Anwendung der Modulo-Funktion mit dem Divisor 10 (2) auf positive Dualzahlen ergibt immer 1, wenn die letzte Ziffer des Dividenden 1 ist und 0, wenn die letzte Ziffer des Dividenden 0 ist:
Für diese Rechenoperation, die einer UND-Verknüpfung mit 1 entspricht, existieren einfache Befehle in der Digitaltechnik.
Ein besonders einfacher Fall ist die Division mit Rest einer positiven Dualzahl durch die Zahl 10 (2). In diesem Fall muss lediglich die letzte Ziffer des Dividenden gestrichen werden. Ist die letzte Ziffer des Dividenden eine 1, so verschwindet dieser Rest. Entspricht bei diesem Verfahren die Anzahl der Divisionen durch 2 der Anzahl der Stellen des Dividenden, so ist das Endergebnis immer 0:
Für diese Rechenoperation existieren einfache Befehle in der Digitaltechnik.
Umrechnen von Dualzahlen in andere Stellenwertsysteme
Durch die kleine Basis ergibt sich der Nachteil, dass Zahlen im Verhältnis zu Dezimalzahlen relativ lang und schwer zu überschauen sind (siehe Tabelle unten). Das hat zur Verbreitung des Hexadezimalsystems geführt, welches die Basis 16 besitzt.
Da 16 eine Potenz von 2 ist, ist es besonders einfach möglich, Dualzahlen in Hexadezimalzahlen umzurechnen. Dazu werden je vier Stellen der Dualzahl durch eine Hexadezimalstelle ersetzt, was auch die Länge der dargestellten Zahlen um den Faktor vier verringert. Die Hexadezimalziffern mit dem Wert 0–15 werden in der Regel durch die Ziffernsymbole 0–9 und die Großbuchstaben A–F (für die Werte 10–15) dargestellt. Dadurch sind sie verhältnismäßig gut lesbar, so lässt sich zum Beispiel leicht feststellen, dass EDA5(16) größer ist als ED7A(16), wohingegen sich die entsprechenden Dualzahlen 1110110110100101(2) und 1110110101111010(2) nicht so schnell überblicken lassen.
Vom Dualsystem ins Dezimalsystem
Um eine Dualzahl in die entsprechende Dezimalzahl umzurechnen, werden alle Ziffern jeweils mit ihrem Stellenwert (entsprechende Zweierpotenz) multipliziert und dann addiert.
Beispiel:
Endet die Dualzahl mit einer 1, so ist die Dezimalzahl eine ungerade Zahl. Ist die letzte Ziffer der Dualzahl eine 0, so ist die Dezimalzahl gerade.
Beispiel:
Dieses Verfahren kann auch in Form einer Tabelle aufgeschrieben werden. Dazu notiert man die einzelnen Ziffern einer Dualzahl in Spalten, die mit dem jeweiligen Stellenwert der Ziffer überschrieben sind. In der folgenden Tabelle ist der Stellenwert orange hinterlegt. In jeder der drei Zeilen des weißen Teils steht eine Dualzahl:
Man addiert nun alle Stellenwerte, die über den Einsen der Dualzahl stehen und erhält die entsprechende grün hinterlegte Dezimalzahl. Um zum Beispiel den Dezimalwert der dritten Dualzahl zu errechnen, werden die Stellenwerte 8 und 2 addiert. Das Ergebnis ist 10.
Diese Tabellenmethode ist auch für Stellenwertsysteme zu anderen Basen möglich; die Besonderheit im Dualsystem ist, dass der jeweilige Feldeintrag ('0' oder '1') nicht erst mit der Wertigkeit der Stelle multipliziert werden muss, sondern direkt als Auswahl-Flag ('nein' / 'ja') dieser Stellenwertigkeit zur Addition verwendet werden kann.
Vom Dezimalsystem ins Dualsystem
Es gibt mehrere Möglichkeiten der Umrechnung ins Dualsystem. Im Folgenden ist die Divisionsmethode (auch Modulo-Methode genannt) am Beispiel 41(10) beschrieben:
Die entsprechende Dualzahl ergibt sich durch Notation der errechneten Reste von unten nach oben: 101001(2).
Eine andere Methode ist die Subtraktionsmethode. Bei dieser subtrahiert man jeweils die größtmögliche Zweierpotenz von der umzurechnenden Dezimalzahl. Wenn die nächstgrößte Zweierpotenz größer als die Differenz der vorherigen Subtraktion ist, so ist die Wertigkeit der nächsten Binärstelle 0. Andernfalls ist die nächste Binärstelle 1, und die Zweierpotenz wird abgezogen.
Um diese Methode zu verdeutlichen, bedienen wir uns weiter des Beispiels der Zahl 41:
Eigenschaften
Teilbarkeit durch eine 2er Potenz
Eine Zahl, dargestellt zur Basis , ist so oft durch die Basis ohne Rest teilbar (-fach, also durch ), wie die Zahl Nullen am Ende hat ( Stück). Eine Dualzahl (im Dezimalsystem ) ist also dreimal durch teilbar (), da sie auf drei Nullen endet und tatsächlich gilt
Teilbarkeit durch 3
Sei eine Binärzahl, wobei . Weiter definieren wir die Menge der Einsen an geraden Stellen und die Menge der Einsen an ungeraden Stellen . Dann gilt für die Zahl bezüglich der Teilbarkeit durch ( steht für die Anzahl):
Mit Worten ausgedrückt, eine Binärzahl ist genau dann ohne Rest durch 3 teilbar, wenn die Betragsdifferenz der Anzahl der Einsen auf den geraden Positionen und der Anzahl der Einsen auf den ungeraden Positionen durch 3 teilbar ist. Man spricht hier auch von der alternierenden Quersumme, die durch 3 teilbar sein muss.
Beispiel an der Zahl :
Die Zahl hat folgende Binärdarstellung . Es gilt und und tatsächlich
Ähnliche Zahlensysteme
Das Unärsystem, 1er-System oder Strichliste ist das einfachste Zahlensystem.
Andere gängige Stellenwertsysteme sind
Ternärsystem (3er-System)
Quaternär (4er-System)
Quinär (5er-System)
Senär (6er-System)
Dezimalsystem (10er-System)
Hexadezimalsystem (16er-System)
Siehe auch
Boolesche Variable
Bacon-Chiffre
Zweierkomplement
Weblinks
Leibniz und die Dyadik
Umrechnung von Zahlensystemen (u. a. dual↔dezimal)
Dezimalzahlen in Binärzahlen umwandeln mit Nachkommastellen
ulthryvasse.de – Einfache Erklärung zum Rechnen mit dualen Zahlen
Einzelnachweise
Zeichenkodierung
Zahlensystem
Binärcode
|
Q3913
| 300.759455 |
2181304
|
https://de.wikipedia.org/wiki/Internet
|
Internet
|
Das Internet (von ,zusammengeschaltete Netzwerke‘, kürzer oder kurz net ‚Netz‘), umgangssprachlich auch Netz, ist ein weltweiter Verbund von Rechnernetzwerken, den autonomen Systemen. Es ermöglicht die Nutzung von Internetdiensten wie WWW, E-Mail, Telnet, SSH, XMPP, MQTT und FTP. Dabei kann sich jeder Rechner mit jedem anderen Rechner verbinden. Der Datenaustausch zwischen den über das Internet verbundenen Rechnern erfolgt über die technisch normierten Internetprotokolle. Die Technik des Internets wird durch die RFCs der Internet Engineering Task Force (IETF) beschrieben.
Die Verbreitung des Internets hat zu umfassenden Umwälzungen in vielen Lebensbereichen geführt. Es trug zu einem Modernisierungsschub in vielen Wirtschaftsbereichen sowie zur Entstehung neuer Wirtschaftszweige bei und hat zu einem grundlegenden Wandel des Kommunikationsverhaltens und der Mediennutzung im beruflichen und privaten Bereich geführt. Die kulturelle Bedeutung dieser Entwicklung wird manchmal mit der Erfindung des Buchdrucks gleichgesetzt.
Bezeichnung
Der Ausdruck Internet ist ein Anglizismus. Er entstand als Kurzform der Bezeichnung interconnected networks (zusammengeschaltete Netzwerke) bzw. des daraus entwickelten Fachausdrucks internetwork, unter dem in den 1970er und 1980er Jahren die Entwicklung eines Systems zur Vernetzung von bestehenden, kleineren Rechnernetzen diskutiert wurde. Aus der allgemeinen englischen Fachbezeichnung für ein internetwork oder internet verbreitete sich das seit 1996 auch in den Duden aufgenommene Wort „Internet“ als Eigenname für das größte Netzwerk dieser Art, das aus dem Arpanet entstand. Mit der gesellschaftlichen Durchdringung des Internets etablierten sich die Bezeichnungen „Internet“ und umgangssprachlich „Netz“ auch in der Alltagssprache. „Netz“ bezeichnet aber in der Informatik nicht zwingend das Internet, sondern es gibt auch diverse andere Netzwerk-Infrastrukturen.
Sprachkritiker, wie beispielsweise verschiedene Sprachvereine und viele rechtsextreme Organisationen wie die NPD, verwenden anstelle des Worts Internet deutsche Wortschöpfungen wie Weltnetz, Zwischennetz oder Internetz. Obwohl seit Mitte der 1990er Jahre bekannt, sind diese Wortschöpfungen zwar in diversen sprachkritischen Publikationen zu finden, haben aber in der Alltagssprache keine praktische Bedeutung erlangt.
Der Begriff Weltnetz wird heute bisweilen im rechtsextremen Umfeld verwendet.
Geschichte
1969–1983 Vorläufer Arpanet
Das Internet begann am 29. Oktober 1969 als Arpanet. Es wurde zur Vernetzung der Großrechner von Universitäten und Forschungseinrichtungen genutzt. Das Ziel war zunächst, die Rechenleistungen dieser Großrechner effizienter zu nutzen, zuerst nur in den USA, später weltweit.
Diese Großrechner waren untereinander über Interface Message Processors verbunden, die die Netzwerkkommunikation mittels Paketvermittlung übernahmen. Die verwendeten Protokolle waren in heterogenen Umgebungen unzuverlässig, weil sie für ein bestimmtes Übertragungsmedium optimiert waren.
Vinton G. Cerf und Robert E. Kahn entwickelten 1973 und 1974 eine frühe Version von TCP, um andersartige Netze miteinander zu verbinden. Nach Weiterentwicklungen in den folgenden Jahren wurde es als TCP/IP bekannt.
Nach einer weit verbreiteten Legende bestand das ursprüngliche Ziel des Projektes vor dem Hintergrund des Kalten Krieges in der Schaffung eines verteilten Kommunikationssystems, um im Falle eines Atomkriegs eine störungsfreie Kommunikation zu ermöglichen. Tatsächlich wurden hauptsächlich zivile Projekte gefördert, obwohl die ersten Knoten von der DARPA finanziert wurden.
Die wichtigste Anwendung in der Anfangszeit war die E-Mail. In dem Jahr 1971 betrug die Datenmenge des E-Mail-Verkehrs mehr als die Datenmenge die mit den anderen Protokollen des Arpanet, nämlich Telnet und FTP, übertragen wurde. Damit wurde das Ziel, Rechenarbeit nach Angebot und Nachfrage auszulagern, verfehlt.
1981–1993 TCP/IP, DNS und Usenet
1981 wurden mit RFC 790-793 IPv4, ICMP und TCP spezifiziert, die bis heute die Grundlage der meisten Verbindungen im Internet sind. Diese sollten nach einer knapp zweijährigen Ankündigungszeit am 1. Januar 1983 auf allen Hosts aktiv sein. Mit der Umstellung von den Arpanet-Protokollen auf das Internet Protocol begann sich auch der Name „Internet“ durchzusetzen. Dies stellt die erste globale Protokollumstellung in der Geschichte des Internets dar und dauerte laut Kahn fast sechs Monate. Die anfängliche Verbreitung des Internets ist eng mit der Entwicklung des Betriebssystems Unix verbunden.
Mit dem 1984 entwickelten DNS wurde es möglich, auf der ganzen Welt Rechner mit von Menschen merkbaren Namen anzusprechen.
Das Internet verbreitete sich über immer mehr Universitäten und weitete sich auch über die Grenzen der USA aus. Dort fand das Usenet weite Verbreitung und wurde zeitweise zu der dominanten Anwendung des Internets. Es bildeten sich erste Verhaltensregeln (Netiquette) und damit erste Anzeichen einer „Netzkultur“.
Ab 1989 Kommerzialisierung und das WWW
Im Jahr 1990 beschloss die National Science Foundation der USA, das Internet für kommerzielle Zwecke nutzbar zu machen, wodurch es über die Universitäten hinaus öffentlich zugänglich wurde. Tim Berners-Lee entwickelte um das Jahr 1989 am CERN die Grundlagen des World Wide Web. Am 6. August 1991 machte er dieses Projekt eines Hypertext-Dienstes via Usenet mit einem Beitrag zur Newsgroup alt.hypertext öffentlich und weltweit verfügbar.
Rasanten Auftrieb erhielt das Internet ab 1993, als der erste grafikfähige Webbrowser namens Mosaic veröffentlicht und zum kostenlosen Download angeboten wurde, der die Darstellung von Inhalten des WWW ermöglichte. Insbesondere durch AOL und dessen Software-Suite kam es zu einer wachsenden Zahl von Nutzern und vielen kommerziellen Angeboten im Internet. Da der Webbrowser fast alles andere verdrängte, wird er auch als die „Killerapplikation“ des Internets bezeichnet. Das Internet ist ein wesentlicher Katalysator der Digitalen Revolution.
Mit der Verbesserung der Datenübertragungsraten und der Einführung normierter Protokolle wurde die Nutzung der Internet-Infrastruktur für die Telefonie attraktiv. Ende 2016 nutzten in Deutschland rund 25,2 Millionen Menschen die Voice-over-IP-Technologie (VoIP).
Als sich eine Verknappung des noch freien IP-Adressraums abzeichnete, begann die Entwicklung eines Nachfolgeprotokolls. Im Dezember 1995 wurde die erste Spezifikation von IPv6 veröffentlicht und fortan in Pilotprojekten getestet, etwa im globalen Testnetzwerk 6Bone und im deutschsprachigen Raum im JOIN-Projekt. Im Februar 2011 wies die ICANN die letzten IPv4-Adressblöcke an die Regional Internet Registries zur Weiterverteilung zu. Je nach Registry werden die restlichen IPv4-Adressblöcke noch zugeteilt oder sind bereits aufgebraucht. Infolge des World IPv6 Day und World IPv6 Launch Day im Juni 2011 und Juni 2012 stieg der Anteil von IPv6 am Internetverkehr, betrug insgesamt jedoch weniger als ein Prozent.
2003 bis heute: Web 2.0 und die Cloud
Mit Social-Media-Plattformen wie Facebook, Twitter oder YouTube trat das bidirektionale Austauschen von Inhalten unter den Nutzern (sogenanntem user-generated content) in den Vordergrund, allerdings jetzt auf zentralen, abgeschlossenen Plattformen und praktisch ausschließlich durch Nutzung eines Webbrowsers. Das Schlagwort Web 2.0 verweist auf die zunehmende Interaktivität, auch durch Audio- und Videoeinbindung, des Internets.
Mit der zunehmenden Verbreitung von verschiedenen mobilen Endgeräten entwickeln sich über Webseiten ausgelieferte JavaScript-Programme in Kombination mit zentral gehosteten Serveranwendungen und deren Speicher zunehmend zur interoperablen Alternative zu herkömmlichen Anwendungen.
Unter dem Sammelbegriff „Internet der Dinge“ wurden Technologien etabliert, die den direkten Anschluss von Geräten, Maschinen, Anlagen, mobilen Systemen usw. an das Internet erlauben. Sie dienten der Interaktion dieser „Dinge“ untereinander bzw. dem Fernzugriff auf sie durch den menschlichen Bediener. Diese Anschlusstechnologien umfassten einerseits Cloud-basierte Dienste, andererseits geräteseitige Anbindungstechnologien.
Gesellschaftliche Aspekte und Staatliche Eingriffe
Das Internet gilt bei vielen Experten als eine der größten Veränderungen des Informationswesens seit der Erfindung des Buchdrucks mit großen Auswirkungen auf das alltägliche Leben. Im Jahr 2013 hat der Bundesgerichtshof erklärt, dass das Internet zur Lebensgrundlage von Privatpersonen gehört.
Eine zunehmende Bedeutung erhält auch der Online-Journalismus, der heute zu einem großen Konkurrenten der klassischen Medienlandschaft geworden ist. Aktuell sehen Beobachter zudem einen Wandel des Nutzers vom „surfenden“ (passiven) Medienkonsumenten zum aktiven User-generated content-Autor, der sich zu vielerlei Themen in Online-Communitys mit Gleichgesinnten vernetzt, die die klassische, bisher eher techniklastige Netzkultur ergänzt. Räumliche Grenzen sind durch das Internet aufgehoben und werden durch themenbezogene Gruppen ersetzt. Durch die Vielzahl der Informationsquellen stellt der sinnvolle Umgang mit dem Internet andere Anforderungen an die Medienkompetenz der Benutzer als klassische Medien.
Das Internet wird häufig in politischen Kontexten als rechtsfreier Raum bezeichnet, da nationale Gesetze durch die internationale Struktur des Internets und durch Anonymität als schwer durchsetzbar angesehen werden. Bei Anwendungen wie E-Mail zeigt sich, dass die Technik auf das Phänomen des Spam überhaupt nicht vorbereitet ist. Dienste wie Myspace oder Facebook sollen den Aufbau sozialer Netzwerke ermöglichen; Funktionen wie Instant Messaging erlauben online nahezu verzögerungsfreie Kommunikation. Mit der steigenden Verbreitung des Internets wird in den Medien der Begriff Internetsucht immer wieder thematisiert, der wissenschaftlich jedoch umstritten ist. Ob und wann die exzessive Nutzung des Internets einen „schädlichen Gebrauch“ oder Missbrauch darstellt und zur Abhängigkeit führt, wird in verschiedenen Studien aktuell untersucht.
Staatliche Stellen hatten lange Zeit von der Funktion des Internets wenig Kenntnisse und wenig Erfahrung mit der Anwendung der Gesetze. Bis zur New Economy ab dem Jahr 1998 war zudem die Bedeutung des Internets seitens der Politik unterschätzt worden. Dies änderte sich erst infolge der New-Economy-Entwicklung, Gesetze wurden angepasst und die Rechtsprechung hat eine Reihe von Unsicherheiten zumindest de jure beseitigt. Der zunehmende Einfluss des Staates wird dabei teils als Steigerung der Rechtssicherheit begrüßt, teils als Fortschreiten in Richtung auf einen Überwachungsstaat („Netokratie“) kritisiert, etwa durch das am 1. Januar 2008 in Kraft getretene Gesetz zur Vorratsdatenspeicherung, das am 3. März 2010 vom Bundesverfassungsgericht als verfassungswidrig eingestuft wurde.
International wird das Internet durch verschiedene Staaten überwacht, kontrolliert und teilweise gesperrt, so etwa beim in Teilen gesperrten Internet in der Volksrepublik China oder Aufbau eines vom Staat kontrollierbaren Internets in Russland. Eine fallweise Sperre des Internets ist aus der Türkei oder Iran bekannt; dort wird das Internet während Demonstrationen ausgeschaltet.
Digitale Kluft
Der Begriff digitale Kluft beschreibt Unterschiede im Zugang zu und der Nutzung von Informations- und Kommunikationstechnologie, insbesondere dem Internet, zwischen Volkswirtschaften bzw. verschiedenen Bevölkerungsgruppen aufgrund von technischen und sozioökonomischen Faktoren.
Schon Anfang der 1980er Jahre waren Mailbox-Netze entstanden, basierend auf Datenfernübertragung über das Telefonnetz oder auf Netzen wie Datex-P. Diese Technik blieb aber Experten vorbehalten, wie auch der Zugang zu weltweiten TCP/IP-Netzen lange Zeit zunächst nur über Universitäten möglich war. Erst mit der kommerziellen Verbreitung der Internet-E-Mail Anfang der 1990er und durchgreifend dann mit dem World Wide Web etablierte sich das Internet seit Mitte der 1990er Jahre zunehmend als Standard für die Verbreitung von Informationen jeder Art.
Waren dies in der Anfangszeit vor allem Kommunikation per E-Mail und die Selbstdarstellung von Personen und Firmen, folgte im Zuge der New Economy zum Ende des letzten Jahrtausends der Online-Handel. Mit steigenden Datenübertragungsraten und sinkenden Preisen und nicht zuletzt begünstigt durch die Verfügbarkeit von DSL-Flatrates dient es auch der Verbreitung größerer Datenmengen. Hiermit verbunden sind allerdings massenhafte Urheberrechtsverletzungen, deren Bekämpfung heute einen Großteil der Internet-Gesetzgebung ausmachen.
Technik
Infrastruktur
Das Internet besteht aus Netzwerken unterschiedlicher administrativer Verwaltung, die zusammengeschaltet sind. Darunter sind hauptsächlich
Providernetzwerke, an die die Rechner der Kunden eines Internetproviders angeschlossen sind,
Firmennetzwerke (Intranets), die die Computer einer Firma verbinden, sowie
Universitäts- und Forschungsnetzwerke.
Physikalisch besteht das Internet im Kernbereich, also bei Verbindungen zwischen den oben genannten Netzwerken und in den Backbones großer Netzwerke, kontinental und interkontinental hauptsächlich aus Glasfaserkabeln, die durch Router zu einem Netz verbunden sind. Glasfaserkabel bieten eine enorme Übertragungskapazität und wurden vor einigen Jahren zahlreich sowohl als Land- als auch als Seekabel in Erwartung sehr großen Datenverkehr-Wachstums verlegt. Da sich die physikalisch mögliche Übertragungsrate pro Faserpaar mit fortschrittlicher Lichteinspeisetechnik (DWDM) aber immens vergrößerte, besitzt das Internet hier zurzeit teilweise Überkapazitäten. Schätzungen zufolge wurden im Jahr 2005 nur drei Prozent der zwischen europäischen oder US-amerikanischen Städten verlegten Glasfasern benutzt. Auch Satelliten und Richtfunkstrecken sind in die globale Internet-Struktur eingebunden, haben jedoch einen geringen Anteil.
Auf der sogenannten letzten Meile, also bei den Hausanschlüssen, werden die Daten oft auf Kupferleitungen von Telefon- oder Fernsehanschlüssen und vermehrt auch über Funk, mittels WLAN oder Mobilfunk (anfangs UMTS, gefolgt von LTE, 5G usw.), übertragen. Glasfasern bis zum Haus (FTTH) sind in Deutschland noch nicht sehr weit verbreitet. Privatpersonen greifen auf das Internet entweder über einen Schmalbandanschluss, zum Beispiel per Modem oder ISDN (siehe auch Internet by Call), oder über einen Breitbandzugang, zum Beispiel mit DSL, Kabelmodem oder Mobilfunk, eines Internetproviders zu. Firmen oder staatliche Einrichtungen sind häufig per Standleitung auf Kupfer- oder Glasfaserbasis mit dem Internet verbunden, wobei Techniken wie Kanalbündelung, ATM, SDH oder – immer häufiger – Ethernet in allen Geschwindigkeitsvarianten zum Einsatz kommen.
In privaten Haushalten werden oft Computer zum Abrufen von Diensten ans Internet angeschlossen, die selbst wenige oder keine solche Dienste für andere Teilnehmer bereitstellen und nicht dauerhaft erreichbar sind. Solche Rechner werden als Client-Rechner bezeichnet. Server dagegen sind Rechner, die in erster Linie Internetdienste anbieten. Sie stehen meistens in sogenannten Rechenzentren, sind dort schnell angebunden und in klimatisierten Räumlichkeiten gegen Strom- und Netzwerkausfall sowie Einbruch und Brand gesichert. Peer-to-Peer-Anwendungen versetzen auch obige Client-Rechner in die Lage, zeitweilig selbst Dienste anzubieten, die sie bei anderen Rechnern dieses Verbunds abrufen. So wird hier die strenge Unterscheidung des Client-Server-Modells aufgelöst.
An Internet-Knoten werden viele verschiedene Backbone-Netzwerke über leistungsstarke Verbindungen und Geräte (Router und Switches) miteinander verbunden. Darauf wird der Austausch von Erreichbarkeitsinformationen zwischen jeweils zwei Netzen vertraglich und technisch als Peering, also auf der Basis von Gegenseitigkeit organisiert und somit der Datenaustausch ermöglicht. Am DE-CIX in Frankfurt am Main, dem größten Austauschpunkt dieser Art, sind beispielsweise mehr als hundert Netzwerke zusammengeschaltet. Eine solche Übergabe von Datenverkehr zwischen getrennten administrativen Bereichen, sogenannten autonomen Systemen, kann auch an jedem anderen Ort geschaltet werden, es ist meist jedoch wirtschaftlich sinnvoller, dies gebündelt an verschiedenen Internet-Knoten vorzunehmen. Da in der Regel ein autonomes System, wie ein Internetprovider, nicht alle anderen auf diese Art erreichen kann, benötigt es selbst mindestens einen Provider, der den verbleibenden Datenverkehr gegen Bezahlung zustellt. Dieser Vorgang ist technisch dem Peering ähnlich, nur stellt der sog. Upstream- oder Transitprovider dem Kundenprovider alle via Internet verfügbaren Erreichbarkeitsinformationen zur Verfügung, auch diejenigen, bei denen er selbst für die Zustellung des zu ihnen führenden Datenverkehrs bezahlen muss. Es gibt derzeit neun sehr große, sogenannte Tier-1-Provider, die ihren gesamten Datenverkehr auf Gegenseitigkeit abwickeln oder an ihre Kunden zustellen können, ohne einen Upstreamprovider zu benötigen.
Da das Arpanet als dezentrales Netzwerk möglichst ausfallsicher sein sollte, wurde schon bei der Planung beachtet, dass es keinen Zentralrechner geben soll, also keinen Ort, an dem alle Verbindungen zusammenlaufen. Diese Dezentralität wurde jedoch auf der politischen Ebene des Internets nicht eingehalten. Die Internet Corporation for Assigned Names and Numbers (ICANN) ist als hierarchisch höchste Organisation zuständig für die Vergabe von IP-Adressbereichen, die Koordination des Domain Name Systems (DNS) und der dafür nötigen Root-Nameserver-Infrastruktur sowie für die Festlegung anderer Parameter der Internetprotokollfamilie, die weltweite Eindeutigkeit verlangen. Sie untersteht formal dem US-Handelsministerium.
Die netzartige Struktur sowie die Heterogenität des Internets tragen zu einer hohen Ausfallsicherheit bei. Für die Kommunikation zwischen zwei Nutzern existieren meistens mehrere mögliche Wege über Router mit verschiedenen Betriebssystemen, und erst bei der tatsächlichen Datenübertragung wird entschieden, welcher benutzt wird. Dabei können zwei hintereinander versandte Datenpakete beziehungsweise eine Anfrage und die Antwort je nach Auslastung und Verfügbarkeit verschiedene Pfade durchlaufen. Deshalb hat der Ausfall einer physikalischen Verbindung im Kernbereich des Internets meistens keine schwerwiegenden Auswirkungen; nur ein Ausfall der einzigen Verbindung auf der letzten Meile lässt sich mit der jetzigen Infrastruktur nicht rasch ausgleichen. Internetkomplettausfälle etwa aufgrund von Katastrophen sind bei der derzeitigen Infrastruktur dennoch möglich und regional begrenzt vielfach aufgetreten. Solare Superstürme würden laut einer Studie weltweite monatelange Internetausfälle verursachen, wobei Meshnetzkapazitäten, verbundene Peer-to-Peer Anwendungen und neue Protokolle mögliche Ausnahmen und Maßnahmen sein könnten.
Internetprotokoll und Domain Name System
Das Internet basiert auf der Internetprotokollfamilie, die die Adressierung und den Datenaustausch zwischen verschiedenen Computern und Netzwerken in Form von offenen Standards regelt. Das Protokoll, in dem die weltweit eindeutige Adressierung von angebundenen Rechnern festgelegt und benutzt wird, heißt Internetprotokoll (IP). Die Kommunikation damit geschieht nicht verbindungsorientiert, wie beim Telefon, sondern paketorientiert. Das heißt, dass die zu übertragenden Daten in IP-Paketen einer Größe von bis zu ca. 65.000 Byte, meist aber nur 1500 Byte, übermittelt werden, die jeweils IP-Adressen als Absende- und Zielinformation beinhalten. Der Empfänger setzt die Daten aus den Paketinhalten, auch Nutzdaten genannt, in festgelegter Reihenfolge wieder zusammen.
Die Netzwerkprotokolle sind je nach Aufgabe verschiedenen Schichten zugeordnet, wobei Protokolle höherer Schicht samt Nutzdaten in den Nutzdaten niederer Schichten transportiert werden. Die Standards und Protokolle des Internets werden in RFCs beschrieben und festgelegt. Ein großer Vorteil des Internetprotokolls ist, dass die Paketübertragung unabhängig von der Wahl der verwendeten Betriebssysteme und unabhängig von den Netzwerktechniken der Protokollschichten unterhalb von IP geschehen kann, ähnlich wie ein ISO-Container im Güterverkehr nacheinander per Schiff, Bahn und Lastwagen transportiert werden kann, um an sein Ziel zu gelangen.
Um einen bestimmten Computer ansprechen zu können, identifiziert ihn das Internetprotokoll mit einer eindeutigen IP-Adresse. Dabei handelt es sich bei der Version IPv4 um vier Byte (32 Bit), die als vier Dezimalzahlen im Bereich von 0 bis 255 durch einen Punkt getrennt angegeben werden, beispielsweise 66.230.200.100. Bei der neuen Version IPv6 sind dies 16 Byte (128 Bit), die als acht durch Doppelpunkt getrennte Blöcke aus je vier hexadezimalen Ziffern angegeben werden, z. B. 2001:0db8:85a3:08d3:1319:8a2e:0370:7344. Man kann sich diese Adressen wie Telefonnummern für Computer mit dem Domain Name System (DNS) als automatischem Telefonbuch vorstellen.
Das DNS ist ein wichtiger Teil der Internet-Infrastruktur. Es ist eine über viele administrative Bereiche verteilte, hierarchisch strukturierte Datenbank, die einen Übersetzungsmechanismus zur Verfügung stellt: Ein für Menschen gut merkbarer Domänenname (zum Beispiel „wikipedia.de“) kann in eine IP-Adresse übersetzt werden und umgekehrt. Dies geschieht – vom Nutzer unbemerkt – immer dann, wenn er etwa im Webbrowser auf einen neuen Hyperlink klickt oder direkt eine Webadresse eingibt. Der Browser fragt dann zuerst mittels IP-Paket einen ihm bekannten DNS-Server nach der IP-Adresse des fremden Namens und tauscht dann IP-Pakete mit dieser Adresse aus, um die Inhalte der dort angebotenen Dienste wie beispielsweise Webseiten abzurufen. Zum Ermitteln der IP-Adresse befragt oft der DNS-Server selbst der Hierarchie folgend andere DNS-Server. Die Wurzel der Hierarchie, die in den Namen durch die Punkte erkennbar wird, bilden die Root-Nameserver. So wird also das Erreichen der erwähnten Dienste mit IP-Paketen ermöglicht, durch die den Anwendern erst ein Nutzen aus dem Internet entsteht. Auch das DNS selbst ist genau genommen schon ein solcher, wenn auch sehr grundlegender Dienst, ohne den die Nutzer zum Verbinden mit anderen Rechnern IP-Adressen statt Namen angeben müssten.
Im Kernbereich des Internets müssen die IP-Pakete durch ein weit verzweigtes Netz. Die Verzweigungsstellen sind Router, die über den kürzesten Weg zur Ziel-IP-Adresse des Paketes entscheiden. Sie verwenden dazu Routingtabellen, die über Routingprotokolle automatisch erstellt und aktuell gehalten werden; so wird automatisch auf ausgefallene Verbindungen reagiert. In Routingtabellen werden mehrere mögliche Ziel-IP-Adressen mit Hilfe von Netzmasken – bei IPv6 spricht man von Präfixlängen – zu Zielnetzen zusammengefasst, und diesen wird jeweils ein Ausgang des Routers, zum Beispiel in Form der Sprungadresse zum nächsten Router (Next Hop IP Address), zum Weiterleiten zugeordnet. Zwischen autonomen Systemen geschieht der Austausch dieser Erreichbarkeitsinformationen heute ausschließlich über das Border Gateway Protocol, innerhalb eines autonomen Systems stehen viele andere Routingprotokolle zu Verfügung. Für Computer und Router, die nicht im Kernbereich des Internets stehen, reicht eine statische, nicht durch Routingprotokolle erzeugte, Routingtabelle aus. Diese enthält dann eine Default-Route, oft auch Standard- oder Default-Gateway genannt, die für alle Zielnetze, die nicht anders eingetragen sind, in Richtung des Kernbereichs des Internets weist, ähnlich einem Wegweiser „Alle Richtungen“ im Straßenverkehr. Die Router im Kernbereich verwalten zurzeit Routingtabellen mit bis zu 900.000 Zielnetzen für IPv4 und 150.000 für IPv6.
In den Nutzdaten des Internetprotokolls werden abhängig vom verwendeten Dienst immer noch Protokolle höherer Schichten (wie TCP oder UDP) übertragen, so wie ein ISO-Container im Güterverkehr Postpakete beinhalten kann, in denen wiederum Güter eingepackt sind. Die meisten Webseiten benutzen, aufbauend auf TCP, das Hypertext Transfer Protocol (HTTP) und für verschlüsselte Seiten das Hypertext Transfer Protocol Secure (HTTPS). E-Mails benutzen das Simple Mail Transfer Protocol (SMTP), ebenfalls aufbauend auf TCP, das DNS wird dagegen weitgehend mittels UDP abgewickelt.
Bei IPv4 erhalten oft viele Arbeitsplatzrechner in dem Netzwerk einer Firma oder Organisation private IP-Adressen, die bei nach außen gerichteter Kommunikation per Network Address Translation (NAT) auf wenige öffentliche, global eindeutige IP-Adressen übersetzt werden. Auf diese Rechner kann aus dem Internet nicht direkt zugegriffen werden, was meistens zwar aus Sicherheitsgründen erwünscht ist (siehe auch: Firewall), aber auch offensichtliche Nachteile hat. Für IPv6 stehen erheblich mehr öffentliche Adressen zur Verfügung, so kann laut RFC 4864 auf NAT verzichtet werden und die Filterung des Datenverkehrs hat mehr Möglichkeiten.
Energieverbrauch
Der Strombedarf in den Privathaushalten für die Nutzung des Internets ist in den letzten Jahren erheblich angestiegen und wird seriösen Schätzungen zufolge auch in den nächsten Jahren weiter steigen. Im Jahr 2003 wurden in Deutschland etwa 6,8 Milliarden Kilowattstunden elektrischer Strom für den Betrieb des Internets benötigt, für das Jahr 2010 gehen Schätzungen von einem Energiebedarf des Internets von 31,3 Milliarden Kilowattstunden nur in Deutschland aus. Berücksichtigt wurden sowohl die Endgeräte von Privathaushalt und Gewerbe sowie der Energieaufwand zur Bereitstellung der notwendigen Infrastruktur des Internets an Serverstandorten. Nicht in diese Rechnung eingegangen ist der Energiebedarf von Serverstandorten im Ausland. Am Stromverbrauch eines Privathaushaltes ist die Nutzung des Internets zu einem großen Teil beteiligt.
Für das Jahr 2005 wurde weltweit von einem Energieverbrauch von 123 Milliarden Kilowattstunden nur für den Betrieb der Infrastruktur für das Internet ausgegangen. Unberücksichtigt blieben nach dieser Studie die Geräte der Endverbraucher. Zu dieser Zeit wurden damit etwa 0,8 % der weltweiten Stromerzeugung für den Betrieb des Internets benötigt. Aufgrund der stetigen Vergrößerung des Internets auch in den Entwicklungsländern ist mit einem weiteren Anstieg des Verbrauches zu rechnen.
Laut einer Schätzung ist der Anteil am weltweiten Stromverbrauch von rund 3,9 % im Jahr 2007 auf 4,6 % im Jahr 2012 gestiegen, was gut 900 Terawatt entspricht. Darin ist der gesamte Bereich der Informations- und Kommunikationstechnik enthalten. Der Energiebedarf im Bereich der Mobilfunknetze steigt durch deren Ausbau am schnellsten, da auf jedem Endgerät hohe Downloadgeschwindigkeiten erwartet werden; die Probleme von Streaming Media sind bekannt.
Laut einer Studie des amerikanischen Wissenschaftlers Jonathan Koomey sind Rechenzentren am weltweiten Stromverbrauch zwischen 1,1 bis 1,5 Prozent beteiligt, in den USA seiner Schätzung nach bis zu 2,2 Prozent. Das Borderstep Institut geht für die Rechenzentren in Deutschland von 2 Prozent des gesamten Stromverbrauchs im Jahr 2015 aus – im Raum Frankfurt läge dieser sogar bei bis zu 20 Prozent.
Sicherheit
Die Informationssicherheit oder IT-Sicherheit ist von hoher Bedeutung für Unternehmen, Verwaltung, Vereine und private wie sonstige Anwender. Zu den Bedrohungen im Internet zählen Schadprogramme wie Computerviren, Keylogger, Trojanische Pferde, Phishing-Mails und andere Angriffe von Hackern, Crackern oder Script-Kiddies. Als Schutzmechanismen dienen eine Firewall und eine aktuelle Anti-Viren-Software.
Datenaufkommen
Im Jahr 2012 betrug das Datenaufkommen im festverkabelten, öffentlich zugänglichen Internet mehr als 26,7 Exabyte (1 Exabyte = 1 Mrd. Gigabyte) pro Monat, was einem täglichen Datenaufkommen von annähernd einem Exabyte entspricht. Die Datenmenge von einem Exabyte ist vergleichbar mit der mehr als 2500-fachen Datenmenge aller Bücher, die je geschrieben wurden. Das mobile Datenaufkommen (Datenaustausch über Mobilfunknetze) beläuft sich im Jahr 2012 auf über 1,1 Exabyte Daten monatlich.
Bis zum Jahr 2015 wird das Datenaufkommen im festverkabelten Internet voraussichtlich auf annähernd 60 Exabyte pro Monat wachsen. Im mobilen Internet wird ein Datenaufkommen von mehr als 6,2 Exabyte monatlich prognostiziert. Über die Hälfte der übertragenen Daten machen Videodienste (Video-on-Demand) aus.
Weltweit wird der IP-Datenverkehr für 2017 auf 1,4 Zettabyte angenommen, allein in Deutschland werden 38 Exabyte angenommen, gegenüber einem Aufkommen im Jahre 2012 von 17 Exabyte. Dabei wird eine Steigerung im mobilen Datenverkehr mit Smartphones und Tablets bis 2017 um jährlich 60 % auf dann 13,6 Exabyte erwartet.
Nutzerzahlen
Dieser Abschnitt behandelt den Zugang zum Internet unter demographischen Aspekten; technische Aspekte werden im Artikel Internetzugang erläutert.
Weltweit
Die Internationale Fernmeldeunion sowie die World Wide Web Foundation kamen nach Schätzungen aus dem Jahr 2020 zu dem Ergebnis, dass in den Jahren 2019 und 2020 ca. 54 % der Weltbevölkerung einen Zugang zum Internet hatten. Etwa 3,5 Milliarden der Weltbevölkerung hatten in diesen Jahren dagegen keinen Internetzugang.
Laut dem European Information Technology Observatory nutzten Anfang 2008 etwa 1,23 Milliarden Menschen das Internet. Im März 2007 hatten 16,9 Prozent der Weltbevölkerung einen Internetzugang. In der EU nutzten Anfang 2008 mehr als die Hälfte (51 Prozent) der 500 Millionen EU-Bürger regelmäßig das Internet, wobei 40 Prozent das Internet gar nicht benutzten. In Europa gab es starke Unterschiede bei den regelmäßigen Internetbenutzern. 80 Prozent der Haushalte mit Internetanschluss verfügen über einen Breitbandzugang. In den USA waren es da bereits 75 Prozent, skandinavische Länder lagen bei 70 Prozent, osteuropäische Staaten teilweise bei 14 Prozent. Besonders verbreitet war das Internet bereits in Estland, da Estland per Gesetz den kostenlosen Zugang ins Internet garantierte.
In China hatten nach dem Report über die Entwicklung des Internets Mitte 2007 etwa 162 Millionen Menschen einen Internetzugang, davon besaßen 122 Millionen einen Breitbandanschluss. Bei jungen Europäern verdrängt das Internet das Fernsehen und andere traditionelle Medien. US-Amerikaner nutzen als Nachrichtenquellen vorwiegend (48 Prozent) das Internet.
In Deutschland
Laut ARD/ZDF-Onlinestudie steigt der Anteil der Internetnutzer an allen Personen in Deutschland ab 14 Jahren jährlich und lag 2022 bei 95 %.
Die Nutzerzahlen sind seit 2003 stets bei jüngeren Altersgruppen höher als bei älteren. Vor allem die mobilen Geräte trieben die Nutzung des Internets in den Jahren um 2013 herum weiter voran. Innerhalb eines Jahres stieg der Anteil der mobilen Nutzung des Internets von 23 % (2012) auf 41 % (2013).
Klassisches wird von elektronischem Spielzeug verdrängt: Neben alten Menschen nutzen in Deutschland auch sozial Schwache und Arbeitslose das Internet weniger. In Deutschland verfügen über 80 Prozent der Internetnutzer über einen Breitbandzugang.
Nach einer Studie der Stiftung für Zukunftsfragen – eine Initiative von British American Tobacco – waren 2015 rund 73 Prozent der Deutschen regelmäßig im Netz unterwegs. Im Zeitraum von 2010 bis 2015 erhöhte sich damit die Zahl der Internetnutzer um 25 Prozent.
Insbesondere bei den 14- bis 24-Jährigen herrschte Vollversorgung. In der Altersgruppe 25-49 Jahre konnten 86 Prozent nicht auf das Internet verzichten und bei den Jungsenioren im Alter von 50 bis 64 Jahren waren mehr als sieben von zehn regelmäßig online. Die über 65-Jährigen zeigten sich mit 35 Prozent hingegen auch 2015 noch vergleichsweise zurückhaltend. Im Fünfjahresvergleich ergab sich auch hier eine deutliche Steigerung. 2010 waren es noch 14 Prozent.
Deutsche besuchen statistisch gesehen regelmäßig acht Internet-Seiten. (Männer: durchschnittlich 9,4; Frauen: 6,4 Seiten / 14- bis 19-jährige: 5,8; 30 bis 39 Jahre alte: 9,1 Seiten). Die Jungen nutzen bevorzugt Unterhaltungsangebote. Die deutschen Männer sind im Durchschnitt 1,3 Stunden am Tag online, bei den deutschen Frauen sind es durchschnittlich 0,8 Stunden.
In der Auswertung der Umfrage Private Haushalte in der Informationsgesellschaft 2013 ergaben sich für Deutschland folgende Zahlen
83 % der privaten Haushalte besitzen einen Computer, 82 % einen Internetzugang
97 % der Haushalte mit Internetzugang nutzen einen Breitbandanschluss, wobei 82 % über einen DSL-Zugang verfügen
19 % der Personen über 10 Jahren waren noch nie online, dagegen sind 78 % innerhalb eines Quartals mindestens einmal online, wobei von diesen 80 % täglich oder fast täglich das Internet nutzen
Die Nutzung ist nahezu geschlechtsunabhängig, die Altersstruktur ist differenzierter: nur 66 % der über 54-Jährigen nutzen das Internet häufig, bei den 10- bis 24-Jährigen nutzen 49 % mobile Geräte. Die Nutzung mobiler Geräte nimmt mit dem Alter ab und sind Männer häufiger als Frauen mobil im Internet.
Genutzt wird der Internetzugang von 91 % der privaten Nutzer für den E-Mail-Verkehr, 50 % nutzen soziale Netze, 89 % nutzen es neben Informationen auch für Waren und Dienstleistungen und 64 % lesen Online-Nachrichten. Für Reisedienstleistungen nutzen 61 % ihren Zugang und zur Jobsuche und Bewerbung sind es 20 %.
In Österreich
Acht von zehn Haushalten waren 2012 mit einem Internetzugang ausgestattet (79 %). Für den Internetzugang werden in Haushalten auch immer öfter Breitbandverbindungen genutzt, in 77 % aller Haushalte wurden Breitbandverbindungen eingesetzt. 60 % nutzten dabei feste Breitbandverbindungen über eine Leitung (DSL, TV-Kabel, Glasfaser), in 41 % wurde mobiles Breitband (z. B. über tragbare Computer mit Modem oder über Mobiltelefon mit zumindest 3G-Technologie, wie UMTS, HSDPA) verwendet.
88 % der Internetnutzer nutzten das Internet um Informationen über Waren und Dienstleistungen zu finden. Ebenfalls 57 % der User wickelten ihre Bankgeschäfte über das Internet ab. Das Internet wurde von 46 % zum Chatten oder zum Posten von Nachrichten in Social Networking-Sites, in Blogs, in Newsgroups oder auf Online-Diskussionsforen oder zum Nutzen von Instant-Messaging genutzt.
Den größten Anteil an Internetnutzerinnen und Internetnutzern, die das Internet anderswo als zu Hause oder in der Arbeit nutzten, findet man bei den unter 35-Jährigen: 83 % der 16- bis 24-Jährigen haben dies getan, bei den 25- bis 34-Jährigen waren es 71 %.
In der Schweiz
Im 1. Quartal 2017 hatte fast die gesamte Schweizer Bevölkerung zwischen 15 und 54 Jahren einen Internetzugang. Je nach Alterskategorie sind es zwischen 96 und 99 Prozent. Bei den Personen im Alter von 55 bis 64 Jahren nutzen 91 Prozent das Internet, gegenüber 80 Prozent drei Jahre zuvor. Bei den 65- bis 74-Jährigen stieg die Zahl von 62 auf 77 Prozent. 45 Prozent der Personen ab 75 Jahren verwenden das Internet, 2014 waren es 20 Prozentpunkte weniger.
Digitale Schriftlichkeit
Das Internet hat eine eigene Art der Schriftlichkeit hervorgebracht. Ebenso haben soziale Netzwerke zur Entwicklung einer eigenen Netzkultur mit verschiedenen sprachlichen Ausprägungen beigetragen.
Charakteristika
Das Internet eignet sich dafür, über zeitliche und räumliche Distanzen hinweg schriftlich zu kommunizieren. Es integriert dabei multimediale Aspekte in seine Schriftlichkeit (Emoticons – Symbole, die sich bewegen und bestimmte Gefühlszustände darstellen sollen). Außerdem unterliegt es einer beständigen Wandlung und hat keinen Anspruch auf Endgültigkeit. Die schriftlichen Produkte im Internet lassen sich schnell verändern und verlangen die Bereitschaft, sich beständig auf Neues einzustellen. Durch die Möglichkeiten der lokalen und globalen Verlinkung von einzelnen Wörtern eines Online-Textes, kann auch die Linearität, die einem traditionellen Text innewohnt, teilweise aufgehoben werden. Man spricht in dem Zusammenhang auch von Hypertexten.
Literatur im Internet
Via Internet wird Literatur zur Verfügung gestellt und Literatur geschrieben. So entstanden etwa literarische Gattungen wie Digitale Poesie, Weblogs oder kollaboratives Schreiben im Internet. Literarische Produktion via Internet folgt anderen Kriterien als herkömmliche Literatur und Textproduktion. Literatur im Internet ist von Aspekten der Technik, Ästhetik und Kommunikation geprägt. So haben beispielsweise Neal Stephenson und sein Team mit dem Schreiben eines Romans („The Mongoliad“) via Internet begonnen, bei dem eine Community von Autoren interaktiv mitschreibt. Neben dem eigentlichen Text gibt es eine eigene E-Publishing-Plattform („Subutai“) mit Videos, Bildern, einer Art Wikipedia und einem Diskussionsforum zum Roman.
Literatur
Matthias Röhr: Der lange Weg zum Internet. Computer als Kommunikationsmedien zwischen Gegenkultur und Industriepolitik in den 1970er/1980er Jahren, transcript, Bielefeld 2021, ISBN 978-3-8376-5930-6
Schmitt, Martin: Internet im Kalten Krieg: eine Vorgeschichte des globalen Kommunikationsnetzes, transcript, Bielefeld 2016, ISBN 978-3-8376-3681-9
Abbate, Janet: Inventing the Internet, Cambridge, Mass: MIT Press 1999 (Inside technology).
Hellige, Hans Dieter: „Die Geschichte des Internet als Lernprozess“, Kreowski, Hans-Jörg (Hrsg.) Informatik und Gesellschaft. Verflechtungen und Perspektiven, Münster, Hamburg, Berlin 2007 (Kritische Informatik 4), S. 121–170.
Holger Bleich: , In: c’t 7/2005, S. 8893 (21. März 2005)
Manuel Castells: Die Internet-Galaxie – Internet, Wirtschaft und Gesellschaft, Wiesbaden 2005, ISBN 3-8100-3593-9
Philip Kiefer: Internet & Web 2.0 von A bis Z einfach erklärt, Data Becker, Düsseldorf 2008, ISBN 978-3-8158-2947-9
Ch. Meinel, H. Sack: WWW – Kommunikation, Internetworking, Web-Technologien. Springer-Verlag, Berlin Heidelberg New York 2004
Andreas Metzner-Szigeth: Internet & Gesellschaft: Ein Humanes Projekt? In: Sic et Non – Zeitschrift für Philosophie und Kultur – im Netz, No. 8, 2007
Andreas Schelske: Soziologie vernetzter Medien. Grundlagen computervermittelter Vergesellschaftung, Oldenbourg Verlag, München 2006, ISBN 3-486-27396-5 (Reihe: Interaktive Medien. Herausgeber: Michael Herczeg)
Stefan Scholz: Internet-Politik in Deutschland. Vom Mythos der Unregulierbarkeit, Lit, Münster 2004, ISBN 3-8258-7698-5
Bridgette Wessels: Understanding the Internet: a socio-cultural perspective, Palgrave Macmillan, Basingstoke 2010, ISBN 978-0-230-51733-2
Michael Friedewald: Vom Experimentierfeld zum Massenmedium: Gestaltende Kräfte in der Entwicklung des Internet. In: Technikgeschichte, Bd. 67 (2000), H. 4, S. 331–361.
Siehe auch
Weblinks
Die Sendung mit der Maus: Der Datenweg durchs Internet
Wie das Internet funktioniert (PDF; 1,6 MB) – Grundlegende Erklärung zum Thema Internet
Internet Explained – Eingehender Überblick und Erklärung über den Ursprung des Internets (englisch)
Skript über das Internet
ARD/ZDF Online-Studie 1997–2007, Strukturdaten zur deutschen Internetnutzung – jährliche, bevölkerungsrepräsentative Online-Studie von ARD und ZDF
(N)ONLINER Atlas, Deutschlands größte Studie zur Nutzung und Nicht-Nutzung des Internets
Internet Traffic Report – Globale Statistik des Internets (englisch)
Internet World Stats (englisch)
Schema: History of the interwebs, Mark Schueler, Wendy Hall 2014
Einzelnachweise
Rechnernetzwerk
Abkürzung
|
Q75
| 6,496.243942 |
2163
|
https://de.wikipedia.org/wiki/Heroin
|
Heroin
|
Heroin (griechisches Kunstwort: , siehe Heros), auch Diamorphin oder Diacetylmorphin (DAM), Handelsname Diaphin, ist ein halbsynthetisches, stark analgetisches Opioid und Rauschgift mit einem sehr hohen Abhängigkeitspotential bei jeder Konsumform. Trotz 1,5- bis 3-fach höherer schmerzstillender Wirksamkeit des Diamorphins im Vergleich zur Stammsubstanz Morphin ist die therapeutische Anwendung von Diamorphin (Heroin) in den meisten Ländern verboten.
Geschichte
Die Geschichte des Konsums von betäubenden oder euphorisierenden Opiaten reicht bis ungefähr 2000 bis 3000 v. u. Z. in das alte Ägypten. Chemiker versuchten ab dem 19. Jahrhundert, ein synthetisches Äquivalent zu dem Naturstoffextrakt Opium zu finden und ein Heilmittel zu entwickeln, das schnell herzustellen war und auch entsprechend vermarktet werden konnte.
Der englische Chemiker Charles Romley Alder Wright untersuchte 1873 die Reaktionen von Alkaloiden wie Morphin mit Essigsäureanhydrid. Zwanzig Jahre später befasste sich der im Bayer-Stammwerk in Elberfeld (Wuppertal-Elberfeld) beschäftigte Chemiker und Pharmazeut Felix Hoffmann mit dieser Reaktion, die direkt zu Diacetylmorphin führte. Bayer entwickelte hieraus ein Verfahren zur Synthese von Diacetylmorphin und ließ sich dafür am 27. Juni 1898 den Markennamen „Heroin“ schützen.
Heroin wurde in einer Werbekampagne in zwölf Sprachen als ein oral einzunehmendes Schmerz- und Hustenmittel vermarktet. Es wurde außerdem bei etwa 40 weiteren Indikationen angewendet, zum Beispiel bei Bluthochdruck, Lungenerkrankungen, Herzerkrankungen, zur Geburts- und Narkoseeinleitung sowie als „nicht süchtigmachendes Medikament“ gegen die Entzugssymptome von Morphin und Opium.
Es wurde angenommen, Heroin habe alle Vorteile von Morphin, aber kaum Nebenwirkungen – zunächst wurden lediglich Verstopfung und leichte sexuelle Lustlosigkeit als solche vermutet. Heroin wurde von vielen Ärzten und Patienten zunächst positiv aufgenommen.
Doch 1904 wurde erkannt, dass Heroin noch stärker oder schneller als Morphin abhängig macht und dass Patienten bei wiederholter Einnahme bald eine größere Heroinmenge brauchten, um dessen anfängliche Wirkung erneut zu erzielen. Einige Ärzte warnten, dass Heroin das gleiche Abhängigkeitspotenzial wie Morphin habe; diese Erkenntnis verbreitete sich aber nur langsam. Das lag unter anderem daran, dass die orale Darreichungsform eine relativ langsame Aufnahme des Stoffes bewirkt, wodurch starke Rauschzustände in der Regel ausblieben.
Ab etwa 1910 wurde vor allem in den Vereinigten Staaten von Amerika, wo die Morphin- und Opiumsucht häufiger und in breiteren Schichten vorkam als in Europa, die von der Droge Heroin ausgehende Gefahr erkannt. Als in den USA bekannt wurde, dass gerauchtes, geschnupftes und insbesondere intravenös gespritztes Heroin eine weitaus stärkere Wirkung hatte, stiegen viele Opioidabhängige auf die leicht erhältliche Substanz um, die außerdem nebenwirkungsärmer als Morphin war (hinsichtlich Histaminreaktion). Die Zahl der Abhängigen stieg rasch an, so auch unter oftmals stigmatisierten und mit Opiumkonsum in Verbindung gebrachten chinesischen Einwanderern. Zunächst erließen einzelne Bundesstaaten der USA verschiedene Gesetze zwecks Verbot einiger Opioide. Später, auf der ersten Opiumkonferenz 1912, wurde zum ersten Mal ein staatenübergreifendes Verbot diskutiert.
1931 gab Bayer dem politischen Druck nach, stellte die Produktion ein und entfernte Heroin damit aus seiner Produktpalette.
Erste illegale Herstellungslabore entstanden in den 1930er Jahren in Marseille, wo sie durch die French Connection, geleitet von Paul Carbone und François Spirito, betrieben wurden. Das Rohmaterial stammte aus Indochina und der Türkei, wurde nach Frankreich geschmuggelt und dort raffiniert. Dieses Heroin wurde dann hauptsächlich in die USA gebracht.
Trotz der Verbote stieg insbesondere nach dem Zweiten Weltkrieg und nach dem Vietnamkrieg die Zahl der Heroinsüchtigen weltweit an, weil Soldaten bei ihren Einsätzen mit Morphin und Heroin in Kontakt gekommen waren. Nach 1945 organisierte vornehmlich die italo-amerikanische Mafia in Zusammenarbeit mit der italienischen Mafia sowie der French Connection den Schmuggel von Heroin in die USA (siehe Pizza Connection). Einen ersten Höhepunkt erreichte die Zahl der Heroinsüchtigen in den 1970er Jahren. US-Präsident Richard Nixon verwendete den Begriff War on drugs auf einer Pressekonferenz am 18. Juni 1971, bei der er Drogenkonsum zum erklärte. 1982 begann unter anderem der damalige US-Vizepräsident George H. W. Bush, CIA und US-Truppen dafür einzusetzen, um Drogenanbau und -handel im Ausland zu reduzieren.
Nach vorübergehenden Erfolgen hat die Zahl der Heroinabhängigen in den Jahren seit 2000 in den USA wieder stark zugenommen, wobei diesmal besonders Gebiete abseits der Ballungszentren betroffen sind. Das wird zumeist damit in Verbindung gebracht, dass seit Ende der 1990er von amerikanischen Ärzten vermehrt Opioide wie Oxycodon, Hydrocodon und Fentanyl verschrieben wurden. Sind Patienten von diesen abhängig geworden, steigen sie oft auf das weitaus billigere Heroin um: Vier von fünf Heroinsüchtigen in den USA haben zuerst verschreibungspflichtige Opioide genommen (siehe Opioidkrise in den USA). Dieser Umstand wird insbesondere von mexikanischen Drogenkartellen genutzt, deren illegale Heroinproduktion Schätzungen zufolge alleine in den Jahren zwischen 2005 und 2009 um 600 Prozent gesteigert wurde, um die gewachsene Nachfrage in den USA zu bedienen. Die Süchtigen entstammen nun stärker als früher allen Gesellschaftsschichten und Bevölkerungsgruppen. 2015 starben fast 13.000 US-Amerikaner an einer Heroin-Überdosis, dies waren 23 Prozent mehr als 2014.
In der Bundesrepublik Deutschland wurde Heroin bis 1958 legal verkauft. Es wurde anschließend im Betäubungsmittelgesetz verboten.
Der medizinische Einsatz von Heroin ist heute in mehreren Staaten – darunter seit 2009 auch wieder Deutschland – unter strengen Auflagen erlaubt; es gibt eine legale Heroinproduktion.
Herstellung
Heroin wird halbsynthetisch hergestellt, Ausgangssubstanz ist dabei das Morphin. Gewonnen wird Morphin als Extrakt aus Rohopium, dem getrockneten Milchsaft aus den Samenkapseln des Schlafmohns (Papaver somniferum). Zur Herstellung von Heroin wird die im ersten Bearbeitungsschritt gewonnene Morphinbase an den beiden Hydroxy-Gruppen mittels Essigsäureanhydrid (Acetanhydrid) oder Essigsäurechlorid acetyliert und zur Heroinbase umgewandelt. Als Nebenprodukt kann monoacetyliertes Morphin entstehen (z. B. 6-MAM). Unter Zugabe von organischen Lösungsmitteln (z. B. Aceton) und Salzsäure entsteht ggf. in einem weiteren Schritt das sogenannte Heroinhydrochlorid. Reines Heroin ist sowohl als Base als auch als Hydrochlorid-Salz ein farbloser kristalliner Feststoff.
Pharmakologie
Wirkung
Diacetylmorphin hat ähnlich wie Morphin eine euphorisierende und analgetische Wirkung, normaler Schlaf wird durch die Verabreichung aber eher gestört. Es wirkt je nach Applikationsform mit einer Halbwertszeit von vier bis sechs Stunden und ist für die Organe des menschlichen Körpers nicht toxisch. Weitere Wirkungen auf den ungewöhnten Körper sind die emetische (griechisch Emesis = Brechreiz) und atemdepressive Wirkung. Die Nebenwirkung der Obstipation unterliegt keiner Toleranzbildung – der Wirkstoff wurde um die Jahrhundertwende als Mittel gegen Durchfall eingesetzt. Bei einer Überdosierung ist hauptsächlich eine Atemdepression gefährlich, die, insbesondere wenn zusätzlich andere sedierende psychotrope Substanzen wie Alkohol, Benzodiazepine oder Barbiturate im Sinne einer Polytoxikomanie hinzukommen, zum Atemstillstand mit Todesfolge führen kann (der sogenannte „goldene Schuss“). Um die Wirkung im Falle einer Überdosierung aufzuheben, werden Opioidantagonisten (zum Beispiel Naloxon) eingesetzt.
Pharmakodynamik
Heroin bindet nur schwach an die verschiedenen Opioid-Rezeptoren, wirkt aber als Prodrug (Drogen-Vorstufe), dessen aktive Metaboliten hauptsächlich die Wirkung vermitteln. Erwähnenswert ist die hohe intrinsische Aktivität von 6-MAM am µ-Opioidrezeptor, sie ist höher als die von Morphin und ist daher mitentscheidend für die starke Ausprägung des Rauschgefühls nach intravenöser Heroininjektion.
Die Dosen, die ein körperlich Heroinabhängiger zu sich nimmt, überschreiten nicht selten das 10- bis 30fache der ursprünglich therapeutischen Dosis (Einzeldosis zur Schmerzlinderung: 2,5 bis 20 mg bei Erwachsenen) der Substanz. Wenn man den durchschnittlichen Reinheitsgrad von Schwarzmarktheroin mit berücksichtigt, der in Europa – von den Niederlanden abgesehen – für den Endkunden in der Regel zwischen 5 und 15 %, selten über 20 % (Stand 2006) beträgt – in den USA liegt der Reinheitsgrad inzwischen oft deutlich höher –, kommt ein durchschnittlicher langjähriger intravenöser Heroinkonsument mit einer Menge aus, die 100–200 mg der Reinsubstanz entspricht. Die Rechtsprechung in der Bundesrepublik Deutschland legte bei der Festlegung der nicht geringen Menge Heroin im Sinne von § 29a Betäubungsmittelgesetz zugrunde, dass eine Dosis von 50 mg bei einer nicht drogenabhängigen Person letal wirkt, obwohl diese Zahl höchstwahrscheinlich nicht der Wahrheit entspricht und einige Studien von einer weitaus höheren humanen LD50 ausgehen. Diese Zahl scheint eher für Mischkonsum zuzutreffen, der sehr häufig anzutreffen ist und in vielen Toxizitätsberichten von Krankenhäusern nach fatalen Überdosen nicht erkannt wird, speziell, wenn die Substanzen mit einem Standard-Drogenscreening nicht erfassbar sind oder es sich um den weitaus verbreitetsten fatalen Mischkonsum, den mit Ethanol, handelt.
Die Wirkung von Heroin hält bei Konsumenten ohne Toleranz 6 Stunden bis oftmals über 24 Stunden an, wobei Nachwirkungen nach dem ersten Konsum manchmal mehrere Tage andauern können. Hingegen dauert die Wirkung von Heroin bei einem körperlich Abhängigen, wenn er eine für sich durchschnittlich hohe Dosis konsumiert, nicht länger als 6–8 Stunden, wonach die Entzugserscheinungen langsam wieder einsetzen. Opioide wie das Diamorphinsubstitut Methadon besitzen eine Halbwertszeit von bis zu 24 Stunden. Die Dosistoleranz von Opioiden steigt bei täglichem Konsum zügig auf ein Mehrfaches an.
Pharmakokinetik
Die Bioverfügbarkeit ist abhängig von der Konsumform.
Heroin ist deutlich stärker lipophil (fettlöslich) als Morphin und gelangt daher rasch ins Gehirn, was zu einer starken Anflutung an den Wirkrezeptoren führt; daher löst eine intravenöse Heroin-Injektion einen initialen „Kick“ (auch Flash genannt) aus. Dieser Effekt ist bei allen anderen Konsumformen als der intravenösen Injektion aufgrund der langsameren Anflutung nach dem heutigen Stand der Wissenschaft zumindest stark abgeschwächt, wenn überhaupt vorhanden. Gründe dafür sind die langsamere Resorption, die vorzeitige Hydrolyse und der First-Pass-Effekt.
Die Hauptmetabolisierungsroute des Heroins ist
Heroin → 6-MAM → Morphin
Heroin wird im Körper rasch, mit einer Plasmahalbwertszeit von drei Minuten, zu 6-Monoacetylmorphin (6-MAM) deacetyliert. Daneben gibt es noch den inaktiven Metaboliten 3-MAM. Beide werden weiter zu Morphin hydrolysiert (Halbwertszeit ca. 20 Minuten). Etwa 1–10 % des Morphins werden in den ebenfalls aktiven Metaboliten Morphin-6-Glucuronid umgewandelt, der eine deutlich höhere Halbwertszeit als Morphin selbst aufweist und sich deswegen bei Patienten mit einer gestörten Nierenfunktion bei langandauernder Verabreichung anhäufen kann. Weitere 55–75 % des Morphins werden zu inaktivem Morphin-3-Glucuronid metabolisiert. Es wird auch zu etwa 5 % zu Normorphin verstoffwechselt.
Nachweis
In forensischen Erfassungstests, sogenannten Screeningtests (), können die metabolischen Rückstände chemischer Substanzen verschiedener Analgetika (beispielsweise Paracetamol), Barbiturate und Opiate wie Heroin toxikologisch im menschlichen Körper nachgewiesen werden. Hierfür wird in der klinischen Chemie bei Verdacht auf Intoxikation mit Medikamenten und Drogen das Screening aus Blutserum, Speichel, Sperma, Heparinplasma oder Urin verwendet.
Chemisch standardisiert können halbsynthetische Opiate wie Heroin jedoch nur über Urinausscheidungen nachgewiesen werden, da das Diacetyl-Morphin Heroin vom Organismus relativ schnell zu Morphin metabolisiert wird. Verfälscht werden kann der Urintest überdies durch opiatähnliche Substanzen gleicher Struktur oder Wirkung wie beispielsweise das Codein, welches in handelsüblichen Schmerzmitteln oder in Antitussiva (Hustensäften) vorkommt. Insofern muss ein positives toxikologisches Ergebnis nicht unbedingt auf einen Heroinmissbrauch schließen lassen.
Der zuverlässige qualitative und quantitative Nachweis in verschiedenen Untersuchungsmaterialien gelingt nach angemessener Probenvorbereitung durch chromatographische Verfahren in Kopplung mit der Massenspektrometrie.
Toxikologie
Bei keiner anderen gängigen Droge ist die relative Differenz zwischen einer wirksamen und einer tödlichen Dosis so gering wie bei Heroin, wodurch sich in Kombination u. a. mit dem ebenfalls höchsten Abhängigkeitspotential und einer Tendenz zur Dosissteigerung die vergleichsweise hohe Zahl von Todesfällen erklären lässt. Die konkrete Dosis, die zum Tode eines Konsumenten führt, ist von Person zu Person sowie insbesondere stark von einer möglichen Toleranzentwicklung und damit auch vom Zeitpunkt des letzten Konsums abhängig. Ein langjähriger Dauerkonsument „verträgt“ u. U. das 10fache einer Menge, die bei einem Erstkonsumenten bereits zum Tode führen würde. Nach wenigen Tagen Konsumpause kann dieser Wert aber schon wieder sinken und eine entsprechende Hochdosierung auch für den Dauerkonsumenten tödlich enden. Problematisch sind auch die üblichen Verunreinigungen (Streckungen), die Konsumenten generell zu einer schwer kalkulierbaren Höherdosierung veranlassen, was dann u. U. bei unerwartet reinerem Stoff zum Tod führt.
Einige Quellen geben für die in 50 % der Fälle tödliche Dosis (LD50) Dosen von 1 bis 5 mg pro Kilogramm Körpergewicht für Erstkonsumenten an (75 bis 375 mg bei einer Person von 75 kg Körpergewicht). Tödliche Dosen wurden beim Menschen aber auch schon ab 10 mg (absolut) beobachtet.
Antidote und Opioidantagonisten
Bei einer opiat- oder heroinbedingten Intoxikation werden Opioidantagonisten eingesetzt. In Deutschland wird häufig Naloxon-Hydrochlorid verwendet, welches die Aufnahme des Opioids an den Opioidrezeptoren blockiert. Problematisch ist hier die weitaus kürzere Halbwertszeit gegenüber dem Opioid. Dieser Antagonist wirkt zu kurzzeitig (etwa eine Stunde) und hebt außerdem die etwa drei bis vier Stunden dauernde analgetische (schmerzstillende) Wirkung des Heroins auf, was sofort zu heftigsten Entzugssyndromen (Schweißausbrüche, Schmerzen und Krämpfen bis hin zum Kreislaufkollaps) führen kann, wenn der Patient eine auch nur kleine Toleranz gegenüber Opioiden hat. Opioidantagonisten dürfen aufgrund ihrer Nebenwirkungen nur unter ärztlicher Kontrolle verabreicht werden. Vorsicht gilt in besonderem Maße für Substituierte mit dem halbsynthetischen Opioid Buprenorphin (z. B. Subutex), welches eine höhere Rezeptoraffinität als Naloxon besitzt – alle derzeit am Markt verwendeten Opioidrezeptor-Vollagonisten haben eine signifikant niedrigere Affinität als Naloxon und werden daher vom Naloxon schnell verdrängt – hingegen lässt sich aus diesem Grund Buprenorphin nur mit äußerst hohen Dosen Naloxon antagonisieren. Es besitzt außerdem eine interindividuell stark variable Halbwertszeit bis zu 48 Stunden, weshalb zusätzlich Naltrexon gegeben werden muss.
Konsumformen
Es gibt verschiedene Konsumformen, die alle mit Risiken verbunden sind. Die Sucht kann bei jeder Konsumform eintreten.
Intravenöser Konsum
Der intravenöse Konsum (umgangssprachlich „drücken“, „ballern“ oder „fixen“) ist wohl die bekannteste Konsumform. Da die zumeist in Europa erhältliche Heroinbase nicht in Wasser löslich ist, braucht man einen Hilfsstoff, um sie in Lösung zu bringen. Das Heroin wird (in der Regel auf einem Löffel) mit einer Säure (pulverige Ascorbinsäure (Vitamin C) oder Zitronensaft) und Wasser erhitzt und danach durch einen Filter aufgezogen. Die Säure bewirkt beim Aufkochen die für die intravenöse Injektion notwendige Bildung eines wasserlöslichen Heroinsalzes.
Durch häufige intravenöse Injektionen unter nicht sterilen Bedingungen, wie sie unter Schwarzmarktbedingungen vorherrschen, bilden sich oft Hämatome und Vernarbungen, die eine Thrombose (Venenverschluss) verursachen können. Allerdings kann auch der injizierende Konsum von reinem Heroin, wie jede andere Injektion auch, zu Abszessen führen. Zittern als Entzugserscheinung führt zu einer erhöhten Verletzungsgefahr bei der Selbstinjektion. Es besteht die Gefahr, die Vene zu verfehlen und sich eine „Kammer“ unter die Haut zu spritzen („sich ein Ei schießen“), was bei ausbleibender medizinischer Behandlung zu Abszessen führen kann.
Die Benutzung derselben Kanüle durch mehrere Personen oder das Aufteilen einer aufgekochten Zubereitung birgt das Risiko einer Infektion mit HIV/AIDS und sonstigen durch das Blut übertragbaren Krankheiten (z. B. Hepatitis B und besonders Hepatitis C). Durch die Strecksubstanzen in Schwarzmarktheroin (Strychnin und viele andere) kann es zu lebensbedrohlichen Vergiftungen kommen.
Auf einen intravenösen Heroinkonsum deuten Einstichstellen (nicht nur am Arm) und Vernarbungen hin.
Intranasaler Konsum
Zum Schnupfen (Sniefen, Sniffing) durch die Nase wird das Heroin zu feinem Pulver zermahlen. Ähnlich wie bei Kokain wird es anschließend mit einem Schnupfröhrchen durch die Nase eingezogen, wodurch es auf die Nasenschleimhaut gelangt. Dort geht es umgehend in die Blutbahn über und entfaltet dann seine Wirkung.
Wie auch beim intravenösen Konsum von Kokain besteht die Gefahr einer Überdosierung. Wird Heroin über einen längeren Zeitraum immer wieder auf die Nasenschleimhaut aufgebracht, trocknet diese aus und atrophiert, was wiederum Nasenbluten begünstigt. Da die Nasenschleimhaut nach einer toxischen Schädigung nur bedingt regenerationsfähig ist, bildet diese bei anhaltendem, extremem nasalem Heroinkonsum geschwürige Substanzdefekte aus, und kann – sofern im Bereich der Nasenscheidewand lokalisiert – diese unter Einbeziehung des Nasenscheidewandknorpels schließlich perforieren.
Gemeinsamer Gebrauch von Ziehwerkzeugen mit anderen Konsumenten kann zur Übertragung ansteckender Krankheiten führen.
Inhalation
Das Rauchen des Heroins (Slangbegriffe: „Blowen“, „Chasing the Dragon“, „den Drachen jagen“, „eine Folie rauchen“, „ein Blech rauchen“, „chineesen“) ist eine Konsumform, bei der das Heroin auf einem Stück Alufolie verdampft wird. Dieser Dampf wird dann zum Beispiel mithilfe eines Aluröhrchens inhaliert. Da sublimiertes Heroin bei Raumtemperatur sehr schnell wieder kondensiert, setzt sich in dem Inhalationsröhrchen schnell eine Schicht Heroin ab, die von den Konsumenten, wenn sie eine bestimmte Menge erreicht hat, dann gesammelt und konsumiert wird. Der Vorteil des Inhalierens von Heroin ist die relativ gut kontrollierbare Dosierung. Aufgrund des sofortigen Wirkungseintritts wird eine drohende Überdosis bemerkt, bevor eine zu große Menge der Droge konsumiert wurde, was beim Injizieren oder „Sniefen“ nicht möglich ist. Bei den letzteren Konsumformen wird jeweils eine bestimmte Menge der Droge zugeführt und befindet sich dann im Körper. Die Wirkung erreicht ihren Höhepunkt also erst, nachdem der Konsument sich die entsprechende Menge zugeführt hat, sodass er keine Chance hat, diese zu korrigieren.
Seit 1982 werden unspezifische Veränderungen der weißen Hirnsubstanz mit der Inhalation von Heroin in Verbindung gebracht und als spongiforme Leukenzephalopathie bezeichnet. Auch wenn vermutet worden ist, dass beim Erhitzen des Heroins ein Streckstoff oder eine andere Substanz im Heroin in eine für das Gehirn schädliche Form umgewandelt werden könnte, bleiben Ätiologie und Pathogenese bislang ungeklärt.
Orale Anwendung
Die orale Applikation von Heroin ist nicht weit verbreitet. Der Grund dafür ist, dass je nach Zustand des Verdauungssystems der Wirkungseintritt nach Konsum stark verzögert ist, die Wirkung langsam und graduell eintritt und sich der Rausch auch noch nach Stunden intensivieren kann. Im Gegensatz zum parenteralen Konsum tritt zudem der First-Pass-Effekt ein, der einen Teil des Wirkstoffes noch vor Erreichen der Rezeptoren eliminiert. Die benötigte Dosis ist dadurch größer, teurer und schwerer zu kontrollieren. In der Schweiz wird Heroin unter dem Namen Diaphin in Tablettenform an Patienten abgegeben, die in heroingestützter Behandlung sind.
Mischkonsum
Der Konsum mehrerer Drogen gleichzeitig kann zu Wechselwirkungen führen, welche die Wirkung von Heroin verstärken. Es gibt sehr wenige Überdosierungen von Heroinabhängigen, die letal enden, wenn nur Heroin allein genommen wurde. Wenn allerdings Mischkonsum mit anderen sedierenden Substanzen wie Alkohol oder Benzodiazepinen wie zum Beispiel Flunitrazepam oder Diazepam betrieben wird, steigt die Gefahr einer lebensgefährlichen Überdosis enorm an.
Eine Mischung aus Heroin und Kokain wird umgangssprachlich „Cocktail“ oder „Speedball“ genannt. Hierbei ist die Wirkung der beiden Drogen entgegengesetzt, was vor allem für das Kreislaufsystem eine gefährliche Belastung darstellt. Die Gefahr einer Überdosierung ist dabei besonders hoch.
Werden mit Heroin auch Benzodiazepine eingenommen, besteht die Gefahr eines Atemstillstandes. Beide Stoffe wirken atemdepressiv, rufen also eine verminderte Aktivität der Atemmuskulatur hervor. Heroin kann über eine zerebrale Vaskulitis – vorwiegend in Zusammenhang mit Alkoholaufnahme – auch zu Blutungen im Gehirn führen.
Logistik
Heroin wird hauptsächlich in Westeuropa und den USA konsumiert. Braunes Heroin (Heroinbase) wurde im Jahr 2015 hauptsächlich in Afghanistan und anderen Ländern in Südwestasien hergestellt. Das seltenere weiße Heroin (Heroinhydrochlorid, „Heroinsalz“) wurde früher hauptsächlich in Südostasien hergestellt, im Jahr 2015 vor allem in Afghanistan und vermutlich im Iran und in Pakistan. Diese als Goldener Halbmond bezeichnete Region ist der Hauptlieferant für den europäischen Markt.
Handelsrouten
Der Rohstoff Opium wurde im Jahr 1979 vor allem in den benachbarten Staaten Afghanistan, Pakistan und Iran (zusammen 1600 Tonnen) sowie im goldenen Dreieck um Thailand (160 Tonnen) und in Mexiko (10 Tonnen, mit zuletzt stark steigender Tendenz) erzeugt. Bis in die 1980er Jahre war auch die Türkei ein wichtiger Opiumproduzent. In Deutschland ist die in Afghanistan hergestellte braune Heroinbase am gebräuchlichsten, wohingegen das vorwiegend in Südostasien produzierte weiße Heroin von relativ geringer Bedeutung ist.
Von den 1600 Tonnen Opium, die 1979 in den drei größten Erzeugerländern hergestellt wurden, wurden 1000 Tonnen im Inland verbraucht. Die restlichen 600 Tonnen wurden in chemischen Labors, die sich vor allem in Pakistan, Syrien, im Libanon, Iran und der Türkei befanden, in etwa 55 Tonnen Morphin umgewandelt.
Der Mohn, aus dem das Rohopium gewonnen wird, wird von Bauern angebaut. Es handelt sich dabei oft um Kleinbauern, für die das die einzige Geldeinkommensquelle ist. Einen Teil des Opiums verkaufen sie legal an staatliche Einrichtungen, die auch für die Kontrolle des Opiumanbaus verantwortlich sind. Der Rest wird an lokale Händler verkauft, die oft ein Vielfaches des offiziellen Preises zahlen. Im Dreiländereck Afghanistan, Iran, Pakistan wird ein großer Teil der Produktion von eigenen Händlergruppen en gros aufgekauft, die das Opium oder das bereits umgewandelte Morphin im Mittleren Osten weiterverkaufen.
Im Mittleren Osten wird das Morphin weiterverkauft, wobei oft Mitglieder der politischen und militärischen Eliten beteiligt waren. Anschließend gibt es verschiedene Möglichkeiten, wie das Morphin gen Westen kommt. Die beliebteste davon ist ein Transport über die Balkanroute, wo das Morphin beispielsweise in Zügen, Autos und auf Mauleseln nach Ankara und Istanbul transportiert und dann weiter über den Balkan nach Westeuropa geschafft wird. Hier wird das Morphin in Heroin umgewandelt, das für den europäischen oder nordamerikanischen Markt bestimmt ist. Eine zweite Möglichkeit ist der Transport über die sogenannte „Südroute“, welche vom Mittleren Osten über Ostafrika schließlich per Schiff oder Flugzeug nach Europa führt. Weniger gebräuchlich ist die „nördliche Schwarzmeerroute“ über die Kaukasusregion oder Anrainerstaaten des Schwarzmeers.
Heroin kann leicht transportiert und versteckt werden, es hat im Verhältnis zu seinem Wert ein geringes Gewicht und Volumen. Die Behörden sind daher nur imstande, einen Bruchteil des im Umlauf befindlichen Heroins zu beschlagnahmen.
Wie legale Waren wird auch Heroin von verschiedenen Händlern gekauft und weiterverkauft, jedoch wesentlich öfter. Je mehr Händler beteiligt sind, desto schwieriger ist es, die Großhändler ausfindig zu machen. Die Information, die kleinere Dealer vom nächsthöheren Dealerring (zum Beispiel über die Identität der Mitglieder) bekommen, beschränken sich meist auf ein Minimum. Um große Lieferungen kaufen zu können, werden von den Dealern oft vermögende Leute beteiligt, die der legalen und anerkannten Welt angehören (Freiberufler, Geschäftsmänner, Kaufleute). Diese haben mit dem Geschäft nichts zu tun, sie strecken lediglich unter der Hand größere Geldbeträge vor, mit denen die Drogen gekauft werden. Nach Geschäftsabschluss und oft kurzer Zeit erhalten sie ein Vielfaches des schwarz investierten Kapitals zurück.
Der Großhandel mit Heroin wurde in den 1980er Jahren zu einem erheblichen Teil von kriminellen Organisationen verschiedener Nationalität durchgeführt (zum Beispiel Mafiafamilien oder -Clans). Diese kauften große Mengen und verkauften die Drogen weiter an kleinere, unabhängige Gruppen, welche das Heroin dann weiter an die nichtkriminellen Konsumenten verkaufen. Um im größeren Stil im Heroingeschäft mitmischen zu können, benötigten die kriminellen Organisationen erstens Kapital zum Ankauf der Drogen und zur chemischen Umwandlung in geheimen Labors. Zweitens Gewalt, um die Konkurrenz zu bekämpfen, Zeugen, Polizisten und Beamte einzuschüchtern und schließlich sicherzustellen, dass eingegangene Abmachungen eingehalten werden. Die zur Gewaltausübung rekrutierten Personen reichten von arbeitslosen Jugendlichen bis hin zu Profimördern. Während sich in den Endphasen des Verteilungsprozesses beinahe jeder als kleiner oder mittlerer Dealer am Drogenmarkt betätigen konnte, war der Großhandel umkämpft und nur mit organisierter Gewalt kontrollierbar. Der Schmuggler Eric Chalier berichtete in den 1970ern vor Gericht, dass ein Kilo Morphin in Afghanistan 2.000 Dollar kostete, in der Türkei 3.500, in Griechenland 8.000 und in Mailand 12.000 Dollar. Eine weitere Möglichkeit, hohe Gewinne zu erzielen, ist die Veredelung des Morphins in das weitaus teurere Heroin. Hier lagen die Profite damals zwischen 1.000 und 2.000 Prozent. Während es in Afghanistan noch jedem größeren Bauern möglich ist, mit Opium zu handeln, erfordert Heroinhandel in Europa ein gewisses verfügbares Kapital.
Preisentwicklungen
Der Schwarzmarktpreis ist stark vom Reinheitsgrad und dem Verkaufsort abhängig. Die Reinheit des „braunen Heroins“ liegt in den meisten europäischen Ländern zwischen 15 % und 25 %. In Ländern wie Österreich, Griechenland und Frankreich liegt der Wert unter 10 % und in Großbritannien bei 41 %. Die Reinheit des „weißen Heroins“ liegt höher bei 45 % bis 71 %. Der durchschnittliche Preis des „braunen Heroins“ in den meisten europäischen Ländern liegt zwischen 30 und 45 Euro pro Gramm, in Schweden bei 110 Euro pro Gramm, in der Türkei dagegen nur 7–10 Euro pro Gramm bei einer durchschnittlichen Reinheit zwischen 30 und 50 Prozent. Der Preis des „weißen Heroins“ ist wesentlich differenzierter und wird in wenigen europäischen Ländern zwischen 27 und 110 Euro pro Gramm gemeldet. Die Preise haben eine sinkende Tendenz.
Gefahren
Abhängigkeit
Heroin zählt aufgrund der für einen hohen Anteil der Konsumenten überwältigenden psychischen Wirkung zu den Substanzen mit dem höchsten Abhängigkeitspotential überhaupt. Körperliche Entzugserscheinungen können je nach individueller Konstellation bereits nach zwei Wochen täglichen Konsums auftreten.
Die Konsumform und -dosis wird in der Regel von dem Grad der körperlichen und psychischen Abhängigkeit beeinflusst. Mit häufigerem Rauchen oder nasalem Konsum und damit steigender Toleranz wird diese Einnahmeform unökonomisch, da bei beiden genannten Konsumformen im Schnitt etwa zwei Drittel des Wirkstoffes bei der Einnahme verloren gehen, ohne dass sie an ihren Wirkort, die Opioidrezeptoren, gelangt sind und Heroin am Schwarzmarkt gekauft extrem teuer ist. So sind Abhängige meist gezwungen, auf intravenöse Injektion überzugehen, was durch die höhere Wirkstoffaufnahme auch die Toleranz noch weiter steigen lässt.
Gesundheitliche Risiken
Nicht jeder mit Heroin experimentierende (psychisch stabile und sozial abgesicherte) Konsument wird zwangsläufig abhängig.
Nichtsdestoweniger führt die sich in der Regel rasch entwickelnde und ausgeprägte körperliche und psychische Abhängigkeit mit ihren Folgen, das Leben in der Drogenszene (mit Vernachlässigung, sozialer Marginalisierung, Disstress, Delinquenz, Obdachlosigkeit), die indirekten Gesundheitsschäden (u. a. Infektionen, Thrombophlebitiden, Embolien bei intravenösem Konsum ohne entsprechende Maßnahmen zur Sterilität) sowie die häufig nachweisbaren Komorbiditäten zu einer gegenüber der Normalbevölkerung 20–50-fach erhöhten Sterblichkeit. Die Suizidrate ist gegenüber der gleichaltrigen Normalbevölkerung um das 14fache erhöht. Zunehmend wird erkannt, dass Schadensminimierung (harm reduction) sich nicht auf die körperlichen und psychischen Probleme des einzelnen Konsumenten beschränken darf, sondern auch soziale (und damit politische) Lösungen für ein soziales Problem erfordert.
In Deutschland wurden im Jahr 2010 529 Todesfälle gezählt, die direkt mit dem alleinigen Konsum von Heroin in Verbindung standen. In 326 weiteren Todesfällen war Heroin neben anderen Drogen ebenfalls involviert. Heroin spielte somit in rund 70 % aller mit dem Konsum illegaler Drogen in Verbindung gebrachten Todesfälle eine Rolle. Im Jahr 2013 wurden in Deutschland 194 Todesfälle im direkten Zusammenhang mit Heroin/Morphin gezählt, in 280 weiteren Fällen war Heroin neben anderen Drogen involviert. Der somit auf etwa 47 % gesunkene Anteil lässt sich durch einen entsprechend gestiegenen Anteil an Todesfällen erklären, der mit Opiat-Substitutionsmitteln in Verbindung gebracht wird. Bezogen auf das Jahr 2014 veröffentlichte die Drogenbeauftragte der Bundesregierung keine konkreten Zahlen, bezeichnete Heroinmissbrauch aber weiterhin als Hauptursache in Bezug auf die Zahl der Drogentoten. Die Sterblichkeit der Opioidabhängigen ist in der Schweiz gegenüber der Normalbevölkerung nur noch geringfügig erhöht, da rund Dreiviertel in dauerhafter Behandlung mit Opioidagonisten (Methadon, Morphin, Heroin) stehen und gegen HIV oder HCV behandelt werden.
Akutes körperliches Symptom einer Intoxikation ist hauptsächlich eine dosisabhängige Atemdepression, die durch gleichzeitig eingenommene Sedativa (meist den Beikonsum von Benzodiazepinen) erheblich verstärkt wird.
Eine nachgewiesene Folge des Langzeitkonsums ist die Obstipation, welche allerdings auch kurzfristig auftreten kann, da die µ2-Rezeptoren im GI-Trakt wenig oder gar keiner Toleranzentwicklung unterworfen sind, weswegen dieses Symptom bei Dauerkonsum auch langfristig bestehen bleiben kann. Unregelmäßigkeiten des Menstruationszyklus (Oligomenorrhoe oder Amenorrhoe), Unfruchtbarkeit und Abnahme der Libido sind teilweise auf Heroin (oder Opioide) zurückzuführen. Auswirkungen der Opioide auf das Hormonsystem sind vielfach nachgewiesen. So kommt es zu einer Abnahme der Blutspiegel des Luteinisierenden Hormons (LH) und Follikel-stimulierenden Hormons (FSH), im Verlauf einer Substitutionsbehandlung bei vielen Frauen aber auch wieder zu einer Normalisierung, womit die Gefahr unerwünschter Schwangerschaften steigt. Es wird angenommen, dass zumindest ein großer Teil dieser hormonellen Veränderungen, die zur Oligo- oder Amenorrhoe führen, auf die Lebensumstände von Opioidabhängigen unter Prohibitionsbedingungen (unausgewogene/Mangelernährung, reduzierter Allgemeinzustand aufgrund diverser Infektionen, welche durch unsauberen i.v.-Konsum entstehen, soziale Ausgrenzung usw.) zurückzuführen ist.
Neugeborene heroinabhängiger Mütter weisen in der Regel ein Neugeborenen-Entzugssyndrom auf, welches zwar nicht grundsätzlich lebensgefährlich für das Neugeborene ist; jedoch wird angenommen, dass durch den vorgeburtlichen Dauerkontakt mit exogenen Opioiden biochemische/physiologische Veränderungen im ZNS/Neurotransmitterstoffwechsel stattfinden. Welche Auswirkungen das konkret hat, ist bisher noch nicht genau bekannt.
Injektion oder Folienrauchen von Heroin kann über eine Beeinflussung des Hippocampus die Krampfschwelle senken und damit Krampfanfälle auslösen. Diese stellten im bundesdeutschen Modellprojekt zur heroingestützten Behandlung Opiatabhängiger bei den insgesamt 156 Teilnehmern eines Beobachtungszeitraums von vier Jahren mit insgesamt zehn Fällen das häufigste schwerwiegende unerwünschte Begleitsymptom dar. Unter Methadon-Substitution dürften epileptische Anfälle seltener auftreten.
Nach den CASCADE-Daten war die Übersterblichkeit von HIV-infizierten Drogenkonsumenten 2004/2006 insgesamt 3,7-fach höher als bei HIV-infizierten männlichen Homosexuellen.
Soziale Folgen
„Längerdauernde Heroinabhängigkeit führt in einem Teil der Fälle zu schwerwiegenden sozialen Folgen, unter anderem aufgrund der Kriminalisierung durch Beschaffung, Besitz und Handel des illegalen Rauschmittels.“ Die durch Heroinkonsumenten begangenen Straftaten, welche in die Kategorie Beschaffungskriminalität fallen, können nicht auf die Substanz an und für sich zurückgeführt werden, sondern müssen mit der Kriminalisierung der Beschaffung erklärt werden. Eine kontrollierte Legalisierung könnte diesen Teil der kriminellen Belastung beseitigen (siehe erfolgreiche Pilotversuche in Deutschland, Schweiz, Niederlanden, England usw.).
Oft versetzen abhängige Konsumenten ihren gesamten Besitz, um die Substanz zu finanzieren, was mit sozialem Abstieg verbunden ist (der per se zu einer vermehrten Gesundheitsbeeinträchtigung führt). Die Betroffenen sind meist nicht imstande, einer Arbeit nachzugehen, werden häufig obdachlos, auch weil sie es nicht mehr schaffen, ihren Verpflichtungen (Ämtergänge etc.) nachzukommen oder weil das gesamte Bargeld für Drogen ausgegeben wird.
Allerdings gibt es auch eine nicht bekannte Zahl von Heroinabhängigen (über die z. B. in der niedrigschwelligen Drogenhilfe wiederholt berichtet wurde), die ihrer Arbeit geregelt nachgehen, sozial integriert sind und ihrem Umfeld ihre Abhängigkeit verheimlichen können, sodass nicht zwingend ein sozialer Abstieg folgt.
Entzug
Wenn stark Heroinabhängige nicht innerhalb von acht bis zwölf Stunden nach dem letzten Konsum eine weitere Dosis zu sich nehmen, kommt es zu Entzugssymptomen. Dieser Entzug ist im Allgemeinen nicht lebensbedrohlich, aber oft sehr gefürchtet und körperlich sehr anstrengend.
Sämtliche Entzugsmethoden werden kontrovers diskutiert. So kann beispielsweise ein „Turboentzug“ mit Opioidantagonisten wie Naltrexon (forcierter Opioidentzug in Narkose) mit schwersten gesundheitlichen Risiken verbunden sein. Nach einem körperlichen Entzug besteht die Gefahr, dass die zuvor gewohnte Dosis bei erneutem Konsum wegen einer Toleranzabsenkung zu einer Überdosierung führen kann. Heroinentzug führt zu einer erhöhten Sterblichkeit. In entzogenem Zustand ist die Sterblichkeit gegenüber mit Methadon oder anderen Opioiden behandelten Opioidabhängigen um ein Vielfaches erhöht.
Modellversuch zur diamorphingestützten Behandlung
Das Bundesministerium für Gesundheit initiierte in Kooperation mit den Bundesländern Hamburg, Hessen, Niedersachsen und Nordrhein-Westfalen und den Städten Frankfurt am Main, Hamburg, Köln, Bonn, Hannover, München und Karlsruhe ein Modellprojekt zur heroingestützten Behandlung Opiatabhängiger. Im März 2002 lief das Projekt in Bonn an, die anderen Städte folgten nach und nach. Dabei erhielten Opiatabhängige, bei denen bisherige Drogentherapien nicht erfolgreich waren oder bei denen die Methadonsubstitution nicht befriedigend verlief, pharmakologisch reines Heroin (Diacetylmorphin, Diamorphin) zur intravenösen Einnahme unter Aufsicht; eine Kontrollgruppe erhielt parallel die Ersatzdroge Methadon. Beide Gruppen wurden regelmäßig medizinisch betreut und erhielten eine psychosoziale Begleittherapie. Die Zuweisung zu den beiden Gruppen wurde per Zufall vorgenommen; Teilnehmer der Methadongruppe konnten, als Anreiz, nach dem Jahr zur Heroingruppe wechseln. Die Trennung in Experimentalgruppe (Heroin) und Kontrollgruppe (Methadon) war erforderlich, da es sich bei der Studie um eine klinische Arzneimittelprüfung handelte, was für eine mögliche Zulassung von Heroin als Medikament die Voraussetzung darstellte.
Beide Gruppen wurden nochmals unterteilt in Untergruppen, die mit unterschiedlichen Verfahren psychosozial betreut wurden, entweder durch Case-Management oder in Form von Drogenberatung mit Psychoedukation. Die Rekrutierung erstreckte sich bis Ende 2003. Insgesamt nahmen 1032 Patienten an dem Projekt teil. Im Ergebnis traten in der Diamorphingruppe mehr Zwischenfälle auf, die gesundheitliche und soziale Situation der Patienten verbesserte sich aber im Vergleich zu denen der Methadongruppe signifikant.
Das Projekt war ursprünglich auf zwei beziehungsweise drei Jahre angelegt (zwei Jahre Studie und ein Jahr Auswertung der Studie), wurde aber im August 2004 bis 2006 verlängert, da man die Behandlung nicht abbrechen wollte, aber erst 2006 über die Zulassung von Heroin als Medikament entschieden werden sollte. Nachdem die CDU eine Aufnahme der diamorphingestützten Behandlung in die Regelversorgung lange Zeit blockiert hatte, wurde diese im Mai 2009 schließlich mit den Stimmen von SPD, FDP, Linkspartei und Grünen beschlossen.
In Großbritannien ist Heroin als Schmerzmittel verschreibungsfähig und wird von einigen Ärzten mit Genehmigung des Home Office auch an Heroinsüchtige verschrieben. Diese Behandlungspraxis existiert schon seit den 1920er-Jahren, wurde in den 1970er-Jahren allerdings stark reduziert. Zurzeit werden in ganz England nur einige hundert Suchtkranke mit Heroin behandelt.
In den Niederlanden liefen ebenfalls schon Versuche einer heroingestützten Behandlung, die sehr positive Ergebnisse erzielten, genauso wie in Spanien, Belgien, Kanada und Dänemark.
In der Schweiz wurde die Heroinabgabe im Rahmen der PROVE-Versuche (Projekte zur Verschreibung von Betäubungsmitteln) 1991 durch das Bundesamt für Gesundheitswesen BAG unter Flavio Cotti vorbereitet und vom eidgenössischen Bundesrat am 21. Oktober 1992 beschlossen: Versuche der ärztlich kontrollierten Drogenabgabe erlaubten die Abgabe von Heroin, Methadon und Morphin in spritzbarer Form, Heroin (und sehr beschränkt Kokain) in rauchbarer Form und von Heroin, Methadon und Morphin als schluckbare Zubereitungen. Die Heroinabgabe wurde 2008 per Volksabstimmung dauerhaft in Sonderinstitutionen erlaubt. Theoretisch könnte Heroin in Palliativbehandlungen durch jeden Arzt in der Schweiz verschrieben werden. Heute ist Heroin, Diacethylmorphin, DAM, in der Schweiz unter dem Handelsnamen Diaphin registriert. Da Heroinbehandlungen nur in sehr restriktiven Sondersettings erlaubt sind, haben sie nie eine wichtige Bedeutung zur Bewältigung der in den 1990er Jahren extremen Drogenprobleme erlangt. Zu keinem Zeitpunkt waren mehr als 3 Prozent der Süchtigen in der Schweiz in Heroinbehandlung (dagegen sind seit Mitte der 1990er Jahre immer mehr als die Hälfte der Opioidabhängigen in Substitutionsbehandlungen mit Methadon, Morphin retards oder Buprenorphin).
Da durch die „Nulltoleranzstrategie“ und Kriminalisierung keine Verringerung der Zahl der Heroinsüchtigen erreicht werden konnte und kann, entstanden dort, wo Heroinsüchtige aufgrund ihrer Anzahl und segregierten Existenz (oft an zentralen Plätzen von Großstädten, etwa am Zürcher Platzspitz) von einer breiteren Öffentlichkeit als Gesundheits- und Sicherheitsproblem wahrgenommen wurden, neue Wege des Umgangs mit Heroinsüchtigen. Insbesondere entstand so die akzeptierende Drogenarbeit, deren wesentliches Merkmal die Einrichtung von Drogenkonsumräumen als sicherer Rahmen fürs Konsumieren ist.
2023 beschreibt Correctiv, wie die an sich sinnvolle Gabe von Diamorphin durch ihre Lukrativität möglicherweise zu häufig angewendet wird.
Heroin und Kunst
Heroin spielt, wie auch andere Drogen, im Leben und Werk mehrerer Musiker eine Rolle. Bekannte Rockbands thematisierten den Gebrauch und die Folgen von Heroin in ihren Songs.
Jazz
Eine der ersten Künstlerszenen, in denen häufig Heroin gespritzt wurde, war die New Yorker Jazzszene der 1940er und 1950er Jahre. Teilweise auch infolge von Charlie Parkers Heroinkonsum übernahmen andere Jazzmusiker die Angewohnheit, manche davon mit ausdrücklichem Verweis auf Parkers zugeschriebenes Improvisationstalent. Musiker wie Chet Baker, Art Blakey, John Coltrane, Miles Davis, Stan Getz, Grant Green, Dexter Gordon, Billie Holiday, Jackie McLean, Hank Mobley, Thelonious Monk, Bud Powell und Sonny Rollins konsumierten über einen längeren Zeitraum Heroin und waren zeitweise Junkies.
Mit Paul Chambers, Sonny Clark, Elmo Hope, Fats Navarro, Charlie Parker und Freddie Webster gab es mehrere prominente Herointote. Parker setzte seinem Dealer Emry Bird mit der Komposition Moose the Mooche ein musikalisches Denkmal. Anita O’Day nannte ihre 1981 erschienene Autobiografie High Times, Hard Times.
Rock
John Lennon schrieb 1969 den Song Cold Turkey. Darin beschrieb er den Versuch, gemeinsam mit Yoko Ono von der Droge loszukommen. Janis Joplin starb 1970 nach einer Überdosis Heroin. Die Rolling Stones veröffentlichten die Songs Coming Down Again („Wieder runterkommen“) und Before They Make Me Run, die von Keith Richards geschrieben wurden und von seiner Heroinsucht handeln. Mick Jagger schrieb die Songs Monkey Man und zusammen mit Marianne Faithfull Sister Morphine. Das Album Sticky Fingers, welches in den britischen und amerikanischen Charts Platz eins erreichte, behandelt in jedem Track Aspekte von Drogenkonsum.
Black Sabbath schrieben mit Hand of Doom einen Song, der sich mit der oft vernichtenden Wirkung der Droge befasste.
Die New Yorker Band The Velvet Underground, besonders Lou Reed, schrieb mehrere Songs über Heroin: Waiting for the Man und das eindeutig betitelte Heroin gelten als Klassiker des drogeninspirierten Rock.
Im Punk-Rock war Heroin zum Ende der 1970er-Jahre ein verbreitetes Thema. Die Ramones weigerten sich, den von Dee Dee Ramone geschriebenen Song Chinese Rocks zu spielen, da er zu offensichtlich Drogenmissbrauch thematisierte. Dee Dee vollendete das Lied mit Richard Hell von den Heartbreakers. Der Song wurde zu einem der populärsten Stücke der Gruppe.
Das wohl bekannteste Lied der Stranglers, Golden Brown, dreht sich nach Aussage von deren damaligem Frontmann Hugh Cornwell um Heroin, zwecks Wahrung der Zweideutigkeit im Text aber auch um ein Mädchen. Ein ähnliches lyrisches Mittel ließ Lou Reed in seiner Ballade Perfect Day aus dem Jahr 1972 durchblicken.
Einer der bekanntesten Songs von Red Hot Chili Peppers, Under the Bridge, thematisiert die Heroinerfahrungen des Sängers Anthony Kiedis in den Drogenregionen von Los Angeles.
Der Christian-Death-Sänger Rozz Williams beschrieb in seinem letzten Soloalbum vor seinem Suizid, From the Whorse’s Mouth, seine Suchtprobleme.
Kurt Cobain injizierte sich zur Zeit der Veröffentlichung von Nevermind regelmäßig die Droge.
Kevin Russell, Sänger der Band Böhse Onkelz, war jahrelang abhängig. Die Band thematisiert dies im Song H.
Der niederländische Rockmusiker Herman Brood war ebenfalls jahrzehntelang abhängig. In Liedern wie Rock’n’Roll Junkie und Dope Sucks setzte er sich mit Heroin auseinander. Er nahm sich das Leben, im Juli 2001 nach einer Entgiftung. Laut seinem Abschiedsbrief erschien ihm ein Leben ohne Drogen nicht lebenswert.
Einige bekannte Rockmusiker starben an den Folgen ihrer Sucht, wie John Belushi, Janis Joplin, Phil Lynott, Dee Dee Ramone, Hillel Slovak und Sid Vicious.
Literatur und Film
Die Öffentlichkeitswahrnehmung von Heroinkonsum wird unter anderem von Spielfilmen beeinflusst, in denen die Droge eine dominante Rolle spielt, wie in Christiane F. – Wir Kinder vom Bahnhof Zoo oder in Trainspotting – Neue Helden, die jeweils auf Buchvorlagen beruhen.
Rechtslage
Deutschland
Mit dem Gesetz zur diamorphingestützten Substitutionsbehandlung (Diamorphin-Gesetz) wurde Diamorphin im Juli 2009 ein verschreibungsfähiges Betäubungsmittel, das unter staatlicher Aufsicht in Einrichtungen, die eine entsprechende Erlaubnis besitzen, an Schwerstabhängige abgegeben werden kann. Der verschreibende Arzt muss suchttherapeutisch qualifiziert sein, die Betroffenen müssen mindestens 23 Jahre alt, seit mindestens fünf Jahren opiatabhängig sein und mindestens zwei erfolglose Therapien nachweisen. Durch das Gesetz wurden das Betäubungsmittelgesetz, die Betäubungsmittelverschreibungsverordnung und das Arzneimittelgesetz entsprechend geändert.
Unabhängig von den oben genannten Regularien ist das Führen von Kraftfahrzeugen unter Heroin-Einfluss gem. § 24a StVG ordnungswidrig, im Falle einer daraus resultierenden Fahruntüchtigkeit ist das Führen von Fahrzeugen oder Kraftfahrzeugen strafbar gem. § 316 StGB.
Schweiz
In der Schweiz darf Heroin nach dem Bundesgesetz über die Betäubungsmittel und die psychotropen Stoffe nicht eingeführt, hergestellt oder in Verkehr gebracht werden. Eine ärztlich kontrollierte Abgabe zur heroingestützten Behandlung (HeGeBe) von schwer Abhängigen ist unter speziellen Bedingungen jedoch möglich.
Im Unterschied zu anderen Substitutionsmitteln wie Methadon, muss man für den Heroinbezug einen Antrag bei den Bundesbehörden stellen. Dabei bekommen die Patienten Heroin (Diacetylmorphin) als Medikament für die Einnahme oder können es sich in speziellen Kliniken unter Aufsicht intravenös verabreichen. Das Medikament wird unter dem Handelsnamen Diaphin vertrieben und gibt es in drei Verabreichungsformen: für die orale Gabe mit rascher oder verlangsamter (retardierter) Wirkstofffreisetzung sowie als Injektionslösung. Der Transport von Diaphin zu den Abgabestellen unterliegt höchsten Sicherheitsvorkehrungen und ist vergleichbar wie ein Goldtransport geschützt mit gepanzerten Lieferwägen und bewaffnetem Personal.
Andere Staaten
In Kanada und vor allem in Großbritannien wird Diacetylmorphin nach wie vor als Schmerzmittel eingesetzt, insbesondere bei chronischen Schmerzen und in der Palliativmedizin. In Großbritannien darf es von zugelassenen Ärzten auch zur Erhaltungstherapie bei Opiatabhängigen eingesetzt werden. Großbritannien ist das einzige Land weltweit, in dem Abhängige Heroin tatsächlich „auf Rezept“ bekommen können, während entsprechende Behandlungsformen in Deutschland und der Schweiz immer die Einnahme unter Aufsicht voraussetzen.
In Dänemark wird der Besitz einer geringfügigen Heroinmenge zur Deckung des persönlichen Bedarfs nicht bestraft und in diesen Fällen auch die Sicherstellung der Substanz unterlassen, da das kriminelle Handlungen bei der Beschaffung einer neuen Dosis auslösen könnte. Aus diesem Grund ist auch in Tschechien Anfang 2010 eines der liberalsten Drogengesetze in Kraft getreten, das den Besitz von bis zu 1,5 g Heroin erlaubt. Von dortigen Hilfsorganisationen wie „Sananim“ oder „Drop“ wird die neue Gesetzgebung einerseits wegen der Entkriminalisierung begrüßt, andererseits aber auch kritisiert mit dem Argument, der Staat kümmere sich unzureichend um Vorbeugung und Betreuungsangebot für Drogensüchtige.
Parallel zur Präsidentschaftswahl am 3. November 2020 in den Vereinigten Staaten von Amerika stimmten die Einwohner in einer Volksabstimmung des US-Bundesstaates Oregon einer Entkriminalisierung von Heroin zu. Seit dem 1. Februar 2021 wird bei Konsumenten eine geringe Menge Heroin wie eine Ordnungswidrigkeit gehandhabt.
Siehe auch
Ibogain (Substanz, die als Entzughilfe genutzt wird)
18-MC (vom Ibogain abgeleitete Forschungssubstanz mit Craving- und Entzugs-lindernder Wirkung)
Literatur
Alfred W. McCoy: Die CIA und das Heroin. Weltpolitik durch Drogenhandel. Westend Verlag, Frankfurt am Main 2016, ISBN 978-3-86489-134-2.
Michael de Ridder: Heroin. Vom Arzneimittel zur Droge. Campus, Frankfurt am Main 2000, ISBN 3-593-36464-6.
Herbert Elias: Der Heroinrausch. Fünfunddreißig Interviews zur Pharmakopsychologie von Diacetylmorphin. VWB, Berlin 2001, ISBN 3-86135-221-4.
Lutz Klein: Heroinsucht, Ursachenforschung und Therapie. Biographische Interviews mit Heroinabhängigen. Campus, Frankfurt am Main 1997, ISBN 3-593-35828-X (Campus Forschung. Band 755).
Andre Seidenberg, Ueli Honegger: Methadon, Heroin und andere Opioide. Medizinisches Manual für die ambulante opioidgestützte Behandlung. Huber, Bern 1998, ISBN 3-456-82908-6.
Robert Knoth, Antoinette de Jong: Poppy – Trails of Afghan Heroin. Hatje Cantz, 2012, ISBN 978-3-7757-3337-3.
Hamish Warburton, Paul J. Turnbull, Mike Hough: Occasional and controlled heroin use: Not a problem? Joseph Rowntree Foundation, York 2005, ISBN 1-85935-424-6.
Hörspiele
Heroin, WDR-Hörspiel über die Entwicklung und Vermarktung von Heroin, 2013
Weblinks
Hubert Ostendorf: Geschichte eines „Hustensaftes“: 100 Jahre Heroin von BAYER. In: STICHWORT BAYER. 01/1998
Werbe-Motive von BAYER aus dem Jahr 1912 aufgetaucht. Werbung für Heroin
Weblinks zum Thema Heroinabgabe und Methadonprogramme
Unbequeme Sensation – Kontrollierte Herointherapie wirkungsvoller als Methadonersatz. Deutschlandradio, 23. Juni 2006
Verordnung über die ärztliche Verschreibung von Heroin vom 8. März 1999 (Stand am 1. Januar 2010). (PDF; 155 kB) Schweizer Rechtslage
Einzelnachweise
Arzneistoff
Opioid
Essigsäureester
Cumaran
Piperidin
Cyclohexen
Halbsynthetische psychotrope Substanz
Betäubungsmittel (BtMG Anlage I)
Betäubungsmittel (BtMG Anlage II)
Betäubungsmittel (BtMG Anlage III)
Psychotroper Wirkstoff
Psychotropes Opioid
|
Q60168
| 99.945181 |
8168
|
https://de.wikipedia.org/wiki/Milcherzeugnis
|
Milcherzeugnis
|
Ein Milcherzeugnis, Milchprodukt oder Molkereiprodukt ist ein Lebensmittel, dessen Zutaten hauptsächlich aus Milch oder Milchbestandteilen (Milcheiweiß, Milchfett oder Milchzucker) besteht. Zu den Milcherzeugnissen gehören einerseits verschieden behandelte Milcharten und andererseits durch Fermentation oder Extraktion von Milchbestandteilen gewonnene Produkte der Milch.
Rechtsvorschriften
Verkehrsbezeichnung (was unter der Bezeichnung Milch- bzw. Milcherzeugnis bzw. Milchmischerzeugnis im Handel angeboten werden darf):
Die Bezeichnungen Milch, Milcherzeugnisse sowie Milchmischerzeugnis sind im Milch- und Fettgesetz in Verbindung mit der Milcherzeugnisverordnung gesetzlich festgelegt
die Bezeichnung Käse ist gesondert in der Käseverordnung gesetzlich festgelegt
die Bezeichnung Butter ist gesondert in der Butterverordnung gesetzlich festgelegt
Identifikation: Innerhalb der EU trägt ein jedes Milcherzeugnis ein Identitätskennzeichen.
Hygiene: Rechtlich gelten für Milcherzeugnisse die Regelungen der Verordnung über Anforderungen an die Hygiene beim Herstellen, Behandeln und Inverkehrbringen von bestimmten Lebensmitteln tierischen Ursprungs (Tierische Lebensmittel-Hygieneverordnung – Tier-LMHV).
Herkunftsbezeichnung: einige wenige Produkte dürfen mit diesen Siegeln versehen in den Handel
Arten von Milcherzeugnissen
Unbehandelte Milch
Rohmilch (Frischmilch) und Rohmilchkäse
Vorzugsmilch
Behandelte Milch
Dauermilchprodukte
Kondensmilch
Milchpulver, Molkepulver und Sahnepulver
Entrahmte Milch, Magermilch
Homogenisierte Milch (Frische Milch)
Pasteurisierte Milch
Sterilisierte Milch
Teilentrahmte, fettarme Milch
Thermisierte Milch
Ultrahocherhitzte Milch (H-Milch, UHP-Milch)
Vollmilch
ESL-Milch
Extrahierte / fermentierte Milchprodukte
Butter
Butterschmalz
Halbfettbutter
Käse
Frischkäse
Weichkäse
Halbfester Schnittkäse
Schnittkäse
Hartkäse
Milchmischerzeugnis
Molke
Quark
Sahne
Kaffeesahne
fermentierte Milchextrakte
Molkebier
Sauermilchprodukte (durch Milchsäuregärung gesäuert)
Buttermilch
Dickmilch
Joghurt
Kefir
Schmand
Saure Sahne
Crème fraîche
Milch, Milchbestandteile und Milchnebenprodukte (Molke, Buttermilch) werden in der Lebensmittelindustrie, Bäckereien, in der Getränkeproduktion, bei der Kosmetikaherstellung und in der Tiermast noch als Ausgangsstoffe für zahlreiche andere Produkte verwendet:
Milcheis aus Milch, Milchpulver, Molkepulver, Milchfett usw.
Milchschokolade
Milchserumgetränke aus Molke, bspw. Rivella
Kosmetika und Salben zum Beispiel aus Ziegenbutter
Badezusätze aus Molke
Auch Kunststoffe aus Kasein; Kaseinkunststoffe waren die erste Kunststoffgeneration (z. B. Kunsthorn für Knöpfe, Kämme, Möbelgriffe usw.).
Siehe auch
Liste der Milchprodukte
Untersuchung von Milchprodukten im Rahmen eines Schulexperiments
Im Hinblick auf eine stärkere Berücksichtigung von Lactoseintoleranz in der Bevölkerung kann es sehr aufschlussreich sein, den Lactosegehalt von Milchprodukten mit einfachen Mitteln chemisch zu untersuchen. Hierzu bietet sich die Wöhlk-Reaktion (siehe Abbildung) sowie deren Weiterentwicklungen Fearon-Test und 1,6-Diaminohexan-Verfahren an.
Weblinks
Milchverordnung (nicht mehr in Kraft) (PDF; 389 kB)
Einzelnachweise
|
Q185217
| 111.044824 |
71028
|
https://de.wikipedia.org/wiki/Calais
|
Calais
|
Calais [] (veraltet ; veraltet ) ist eine Hafenstadt im Norden Frankreichs mit Einwohnern (Stand ). Der nach dem Ort benannte Pas de Calais – Schritt über die Meerenge, , bzw. neutral benannte Ärmelkanal hat hier gegenüber von Dover seinen viel benutzten südlichen Hafen.
Geographie
Calais liegt an der nordfranzösischen Küste, an der Straße von Dover, dem zentralen Abschnitt des Ärmelkanals (frz. la Manche) zwischen der Nordsee (frz. Mer du Nord) und dem Nordatlantik. Es befindet sich an der engsten Stelle des Ärmelkanals, nur 34 km von der Südküste Englands entfernt. Bei guter Sicht sind die Kreidefelsen von Dover sichtbar. Der Ort ist die größte Stadt, aber nicht Sitz der Präfektur des Départements 62, Pas-de-Calais, und neben Boulogne der wichtigste Hafen für den Schiffsverkehr mit England. In der Nähe liegt das französische Portal zum Eurotunnel in Coquelles/Sangatte. Calais ist Mittelpunkt der Tourismus-Region Opalküste (frz. Côte d’Opale).
Westlich der Stadt weitet sich der Kanal, indem die Küste dort weit in Südrichtung läuft.
Der Kernbereich der Stadt unterteilt sich in den Altstadtbereich innerhalb der alten Stadtbefestigung sowie den jüngeren Vorort St. Pierre, welche durch einen Boulevard verbunden sind.
Geschichte
Antike
Von dem etwas südwestlich des heutigen Calais gelegenen Portus Itius aus startete Julius Caesar seine beiden Feldzüge der Jahre 55 und 54 v. Chr. nach Britannien.
Vom 10. Jahrhundert bis zur englischen Eroberung 1347
Calais, das zu den Grafschaften Boulogne und Flandern gehörte, entstand wahrscheinlich aus einem Petresse genannten Fischerdorf, das 938 urkundlich erwähnt und in diesem Jahr als Pertinenz von Marck durch den flandrischen Grafen Arnulf I. der Abtei Saint-Bertin übertragen wurde. Aufgrund der Unterwerfung Englands unter die Herrschaft der Normannen (1066) und der Ausbildung des Tuchgewerbes Flanderns entwickelte Calais sich zu einem zunehmend wichtigen Hafen- und Handelsort. Matthäus von Elsass führte 1173 die Stadtgründung von Calais durch, in dessen damaliger Wirtschaft der Fang von Heringen dominant war. Ab dem Ende des 12. Jahrhunderts ersetzte Calais das nahe gelegene Wissant als Fährhafen für den Handel (insbesondere von Wolle) zwischen England und Flandern. Kaufleute von Calais konnten in den 1190er Jahren das später öfters bestätigte Vorrecht der Zollfreiheit in allen englischen Häfen erwirken. Als Calais von Marck losgelöst wurde, erreichte die Gilde seiner Kaufleute 1210 ihre Anerkennung. Mittlerweile war die Stadt samt Südflandern in den Besitz der französischen Krone übergegangen und bildete nun bis zu ihrer Eroberung durch die Engländer (1347) einen Teil des Artois.
Als der Dauphin Ludwig (VIII.) von gegen den englischen König Johann Ohneland rebellierenden Baronen und Prälaten eingeladen wurde, die Herrschaft in England zu übernehmen, machte er Ende 1215 Calais zum Ausgangspunkt der Invasion Britanniens; allerdings scheiterte sein Unternehmen. Ab 1224 ließ der Graf von Boulogne, Philippe Hurepel, Befestigungswerke für Calais und in der Nähe ein Schloss erbauen. Durch Gräfin Mathilde von Boulogne erhielt Calais 1253 größere Stadtrechte und damit fast den Status einer unabhängigen Kommune.
Gegen Ende des 13. Jahrhunderts betätigten sich aus Calais stammende Seeleute häufig als Piraten, indem sie englische Schiffe ausraubten, weil dies einträglicher als Handelsaktivitäten war. Dieses Verhalten intensivierte sich zu Beginn des Hundertjährigen Krieges. So wurde Calais nach der Schlacht von Crécy vom englischen König Eduard III. elf Monate belagert und schließlich im August 1347 durch Aushungern der Eingeschlossenen eingenommen. Sechs Bürger von Calais sollen laut dem Chronisten Jean Froissart durch ihren Opfergang ins feindliche Lager die Stadtbevölkerung vor einem Blutbad bewahrt haben. Die Einwohner wurden aber größtenteils vertrieben und statt ihrer nach und nach englische Kolonisten und Soldaten in Calais angesiedelt.
Unter englischer Herrschaft
Nach seiner Eroberung fungierte Calais als stark verteidigter englischer Stützpunkt in Frankreich; die Festung Rysbank diente zur Sicherung der Hafeneinfahrt. In Calais wurde am 24. Oktober 1360 jener englisch-französische Frieden endgültig ratifiziert, der am 8. Mai 1360 in Brétigny signiert worden war und u. a. vorsah, dass das Lösegeld für den gefangenen König Johann II. nur noch 3 Millionen Écus betragen sowie dass Eduard III. die Gascogne, die Guyenne, das Limousin, die Grafschaften Ponthieu und Guînes, Calais und weitere Gebiete im Norden und Westen Frankreichs vertraglich zugesichert erhalten sollte. Gemäß einem Zusatzabkommen hatte Eduard III. der französischen Krone zu entsagen und Johann II. die nunmehrige Zugehörigkeit der abgetretenen Gebiete zu England bis zum November 1361 zu akzeptieren, was aber nicht befolgt wurde und daher zur Fortsetzung des Kriegs beitrug.
Calais hatte auch die Funktion einer zentralen Handelsstation für den Export englischer Wolle auf den Kontinent; die Erträge aus den dabei erhobenen Zöllen waren die hauptsächliche Quelle zur Aufbringung der von Calais verausgabten Geldsummen. Zwar blieb das überkommene administrative System bestehen, doch errichtete die englische Regierung von Calais 1363 den Wollstapel, der einem sog. Stapler-Konsortium übertragen wurde. Finanziell schwierig erwies sich die Entlohnung der etwa 1100 englischen Besatzungssoldaten, und die fiskalischen Einnahmen aus dem Wollstapel blieben hinter den Veranschlagungen zurück. An der Spitze des städtischen Magistrats standen seit 1365 ein vom englischen Monarchen bestimmter Bürgermeister (Maire) und mehrere Aldermen, doch hatte bald für lange Zeit der jeweilige Chef des Stapler-Konsortiums außerdem das Amt des Maire inne.
Im späteren Verlauf des Hundertjährigen Krieges konnte der französische König Karl VII. im April 1436 Paris erobern. Bald darauf versuchte der seit dem Frieden von Arras (1435) auf die französische Seite übergetretene burgundische Herzog Philipp der Gute, Calais den Engländern zu entreißen. Grund dafür waren nicht nur die Plünderung der Besitzungen flämischer und picardischer Kaufleute in London und englische Einfälle ins Territorium des burgundischen Herzogs aus Ärger über dessen Seitenwechsel, sondern auch die Angst der niederländischen Kaufleute vor der Konkurrenz durch die aufstrebende englische Tuchindustrie. Im Juni 1436 erschien Philipp mit einer starken Armee vor Calais und schritt an dessen Belagerung. Doch die Unerfahrenheit und mangelnde Kriegszucht seines Heeres vereitelten die Eroberungsbemühungen Philipps. Die Genter Soldaten verloren bald die Lust zu kämpfen. Als dann der Herzog Humphrey von Gloucester mit einem 10.000 Mann starken englischen Entsatzheer anrückte, wagte Philipp gegen dieses keine militärische Konfrontation, sondern hob noch im Juli 1436 vor Ankunft des Herzogs von Gloucester die Belagerung von Calais wieder auf.
Nach deutlicher Verringerung der Wollimporte pachtete das Stapler-Konsortium 1466 alle in Calais erhobenen Zölle und übernahm dafür die Begleichung des Lohnes der hier stationierten Soldaten. 1467–1482 durfte es alle königlichen Steuern und Abgaben für Calais eintreiben und beglich dafür nicht nur die Kosten für die Soldaten, sondern auch jene, die für die Gewährleistung der weiteren Funktionstüchtigkeit der Festungswerke notwendig waren.
Französische Rückeroberung (1558)
Nachdem England im Juni 1557 unter der Regierung der Königin Maria I. an der Seite von deren Gatten Philipp II. in den Krieg Spaniens gegen Frankreich eingetreten war und spanische Truppen in der Schlacht bei Saint-Quentin (10. August 1557) einen entscheidenden Sieg über Frankreich errungen hatten, ging der daraufhin aus Italien zurückgerufene François de Lorraine, duc de Guise daran, Calais für Frankreich zurückzuerobern. Der Erfolg seiner Unternehmung schien aber von der Überraschung des Feindes und Geheimhaltung seines Plans abzuhängen. Daher entschloss er sich, die Stadt mitten im Winter anzugreifen. Das französische Heer sammelte er in Compiègne. Unter anderem nahmen auch der Prinz von Condé und der Markgraf d’Elbeuf am Feldzug teil.
Der Herzog von Guise erschien am 1. Januar 1558 mit einem Heer von 25.000 Mann vor der Stadt und begann deren Belagerung. Der Gouverneur, Thomas Wentworth, 2. Baron Wentworth, war auf eine entschiedene Verteidigung nicht völlig vorbereitet und musste deshalb alle Außenwerke den Franzosen überlassen. Binnen eines Tages waren diese in Besitz der Werke Froyten und Nesle (Nieulet) sowie der Newhavenbreite und des Fortes Risban. Sie legten nun Batterien auf der Peterhaide an, womit sie den Wall beschossen, und einer anderen glückte es, eine Bresche in das Schloss zu schlagen. Der Kommandant befahl, das Schloss in die Luft zu sprengen. In der Nacht zum 7. Januar durchwatete eine Abteilung Franzosen während der Ebbe einen Teil des Hafens; die Anzündung der Minen wurde versäumt, und noch in derselben Nacht wehten die französischen Fahnen auf den Mauern der Stadt. Am Morgen des 8. Januar 1558 kam eine Kapitulation zustande, nach der sich die Stadt mit allen Vorräten unter der Bedingung eines freien Abzugs der Besatzung ergab. Somit verlor England seine letzte Besitzung auf dem Kontinent an Frankreich.
Mit dem Verlust von Calais ging die Phase der englischen Handelspolitik, die bis dahin auf der Ausübung des Stapelrechts beruht hatte, zu Ende.
Von der zweiten Hälfte des 16. Jahrhunderts bis zum 19. Jahrhundert
Nach dem Frieden von Cateau-Cambrésis (1559) sollte Calais acht Jahre in französischer Gewalt bleiben und dann den Engländern zurückgegeben werden; aber Frankreich behielt es. Seitdem erhielt das Gebiet der Stadt (Calaisis) zusammen mit der angrenzenden Grafschaft Guînes den Namen Pays Reconquis und bildete eine Unterstatthalterschaft der Picardie. Die Zitadelle wurde 1561 erbaut.
1596 eroberten die Spanier unter Erzherzog Albrecht VII. von Habsburg Calais, das jedoch bereits 1598 durch den Frieden von Vervins wieder an Frankreich kam. Ein Teil der für einen geplanten, allerdings nie durchgeführten Einfall in England bestimmten Armee Napoleons bezog 1805 in Calais Quartier. Im 19. Jahrhundert fand wieder ein Ausbau der Stadt als Festung und Hafen statt. 1885 wurden Calais und St. Pierre zu einer Stadt vereint.
20. Jahrhundert
Calais war im Ersten Weltkrieg der Haupthafen der englischen Armee in Frankreich. Während des Zweiten Weltkriegs wurde es am 25. Mai 1940 (Westfeldzug) von Truppen der Wehrmacht erobert.
Im Verlauf des Kriegs kam es zu großen Zerstörungen. Zuerst wurde die Stadt von der Luftwaffe der deutschen Wehrmacht und später von den Westalliierten bombardiert. Das Ende September 1944 zurückeroberte Calais erlitt im Februar 1945 zusätzlich ein schweres irrtümliches Bombardement, als britische Bomberpiloten eigentlich Dünkirchen bombardieren wollten, das noch bis zur Kapitulation am 8. Mai 1945 von der Wehrmacht gehalten wurde. Einen Wiederaufbau der historischen Innenstadt von Calais gab es kaum.
Migranten
Durch Calais kommen jährlich mehrere hundert Transitmigranten auf ihrem Weg nach Großbritannien. Da bis zum Brexit das Vereinigte Königreich dem Schengen-Abkommen nur eingeschränkt beigetreten war, werden die Grenzübergänge zwischen Frankreich und England kontrolliert. Einwanderer, die ohne Einreiseerlaubnis auf dem Landweg nach Großbritannien einreisen möchten, versuchen diese Grenze zu passieren, indem sie sich beispielsweise auf oder unter LKW verstecken. Viele dieser Reisenden halten sich wochen- oder monatelang in Calais auf und versuchen jede Nacht aufs Neue den Ärmelkanal zu überqueren. Während ihrer Zeit in Calais sind sie obdachlos. Unterkunft finden sie in leerstehenden Häusern oder im sogenannten Dschungel von Calais, im Unterholz errichteten Hüttendörfern aus Plastikplanen und Paletten.
Anfang September 2014 versuchten Migranten den Hafen zu stürmen und auf eine Kanalfähre zu gelangen. Durch massiven Polizeieinsatz und rechtzeitiges Ablegen der Fähre konnten die Migranten abgewehrt werden. Aufgrund des Vorfalls bat die Bürgermeisterin der Stadt Großbritannien um Hilfe. Großbritannien erklärte sich bereit, der Stadt drei Meter hohe Zäune zu schenken, die ehemals für das NATO-Treffen genutzt wurden. Damit soll der Hafen besser gegen illegale Einwanderer gesichert werden. Von Januar bis Juni 2015 wurden rund 37.000 Personen an einer Ausreise nach England gehindert; im Sommer 2015 begannen Migranten, in Gruppen bis zu 2000 Personen auf Lastwagen zu steigen oder auf Züge aufzuspringen. Im Januar 2016 besuchte der britische Oppositionsführer Jeremy Corbyn ein Hüttendorf und forderte das Recht auf Einreise und Familienzusammenführung für die betreffenden Flüchtlinge.
Religion
Die katholischen Kirchen in Calais gehören zum Dekanat Calais des Bistums Arras, und zwar vor allem zu den Pfarreien Pentecôte – Blanc Nez und Saint Vincent de Paul.
Kultur und Sehenswürdigkeiten
Bauwerke
Der Tour de Guet ist 39 Meter hoch. Er wurde im 13. Jahrhundert errichtet, überwiegend aus den für die Küstenebene des Département Nord typischen stark gemagerten und darum blassgelben Ziegelsteinen, briques de sable genannt. Errichtet als Teil einer Festung als Wachturm (daher der Name „Lauerturm“), erhielt er 1818 ein ölbetriebenes rotierendes Leuchtfeuer und diente in der ersten Hälfte des 19. Jahrhunderts außerdem als optischer Telegraf.
Der Leuchtturm (frz. Phare) wurde um 1848 erbaut und ist 50 m hoch. Er bietet einen guten Blick auf den Hafen.
Das Rathaus im Stil der flämischen Renaissance wurde erst 1910 bis 1922 erbaut und hat einen Belfried (Glockenturm). Er gehört wie 21 weitere Glockentürme der Region und der Tour du Guet zum Weltkulturerbe.
Auf dem Platz vor dem Rathaus steht das Denkmal Les Bourgeois de Calais („Die Bürger von Calais“) von Auguste Rodin. Es wurde 1895 geschaffen.
Die Kirche Notre Dame aus dem 13.–15. Jh. ist vor allem auf der Südseite ein außergewöhnlicher Baukomplex, indem hier an das Langhaus eine Zisterne anschließt. Der festungshafte Charakter verdeutlicht die exponierte Stellung von Calais als englischer Brückenkopf für zwei Jahrhunderte. Am 23. September 1944 wurde sie versehentlich von den Alliierten eine Woche vor der Befreiung der Stadt bombardiert.
Das historische Theatergebäude steht am Boulevard de Jacquard, benannt nach Joseph-Marie Jacquard.
In der Kunst
Ein international bekanntes Gemälde von William Turner (1775–1851) Calais Pier (1803, 172 × 240 cm) zeigt die Hafenanlage vor ca. 200 Jahren und die mit einer Überfahrt verbundenen Schwierigkeiten.
Museen
Musée des Beaux-Arts et de la Dentelle Museum der schönen Künste und der Spitze mit Ausstellung zur Stadtgeschichte
Musée de la Seconde Guerre Mondiale (Museum des Zweiten Weltkriegs) gegenüber dem Rathaus mit Exponaten aus der Zeit der deutschen Besetzung 1940–1944
Infrastruktur
Wirtschaft
Calais verzeichnet als Hafenstadt und Ausgangspunkt zu Kanalüberquerungen jährlich 30 Millionen Durchreisende. In den letzten Jahrzehnten sind viele Arbeitsplätze in den Bereichen Fischerei, Textilindustrie und Schifffahrt verloren gegangen. Die Arbeitslosigkeit liegt bei 15 %. Durch Touristen aus England, den booze cruisers, die billig Alkohol und Zigaretten kaufen, profitiert der Tunnel-Terminal bei Sangatte, ein riesiger Einkaufskomplex neben dem Eurotunnel.
Durch das Projekt Mission 2012 wurden Investitionen von 100 Millionen Euro in touristische Infrastrukturen geplant. Insbesondere ein Teil der Besucher der Olympischen Spiele 2012 in London sollte so angezogen werden. Die Stadt Calais etablierte 2013 in dem stadteigenen Einkaufscenter Centre Commercial ein Kunst- und Kulturhaus mit Einkaufsmöglichkeiten. Die Buddy Bären eröffneten als erste große Kunstausstellung den neuen Kulturort.
Verkehr
Der Bahnhof Calais-Fréthun liegt an der LGV Nord und nahe dem Eurotunnel.
Calais ist der zweitgrößte Passagierhafen Europas, nach Dover. Der Seehafen liegt im Norden der Stadt an der Straße von Dover. Die meisten der täglich 60 Fährverbindungen der Reedereien Irish Ferries, DFDS und P&O Ferries verbinden Calais mit Dover. 1,7 Mio. LKW setzen hier jährlich über. Die Reederei SeaFrance war der größte Arbeitgeber der Stadt.
Seit dem 21. Dezember 2019 ist der ÖPNV in Calais kostenlos.
Ab 1972 bestand zudem eine Hovercraft-Verbindung nach Dover, die von der Reederei Hoverspeed betrieben wurde. Die Hovercrafts verkehrten vom Hoverport Calais, östlich des Haupthafens, und benötigten etwa 30 Minuten für die Überfahrt. Sie wurden im Jahr 2000 durch Katamarane ersetzt, deren Betrieb im November 2005 aufgrund des Konkurses der Reederei Hoverspeed eingestellt wurde.
Die Autoroute A26 verbindet Calais mit Paris (295 km). Südöstlich der Stadt kreuzt die A 26 die Küstenautobahn Autoroute A16, die im Westen nach Boulogne-sur-Mer (36 km) und im Osten nach Belgien führt.
Der Flughafen Calais-Dunkerque liegt nordöstlich von Calais.
Partnerschaften
Duisburg, Deutschland, seit 1964
Wismar, Deutschland, seit 1971
Dover, Vereinigtes Königreich, seit 1973
Riga, Lettland, seit 1976
Brăila, Rumänien, seit 2002
Bardejov/Bartfeld, Slowakei, seit 2002
Persönlichkeiten
Pierre-Antoine de La Place (1707–1793), Schriftsteller und Übersetzer
Jean Nicolas Grou (1731–1803), Jesuit, Theologe, Schriftsteller
Pigault-Lebrun (1753–1835), Schriftsteller
Tom Souville (1777–1839), Freibeuter, Korsar und Freimaurer
Felice Varesi (1813–1889), italienischer Opernsänger
Joseph Crèvecoeur (1819–1891), Komponist
Yvonne de Gaulle (1900–1979), Frau von Charles de Gaulle
Louis Daquin (1908–1980), Filmregisseur und Drehbuchautor
Gérard Debreu (1921–2004), Nobelpreisträger (Wirtschaft)
Ghislaine Demonceau (1921–2014), Geigerin
Raymond Lefèvre (1929–2008), Orchesterleiter und Komponist
Ida Gotkovsky (* 1933), Komponistin und Pianistin
Francis Lockwood (* 1952), Jazz- und Fusionmusiker
Didier Lockwood (1956–2018), Jazz-Geiger und Komponist
Djezon Boutoille (* 1975), Fußballspieler
Camille Maussion (* 1988), Jazz- und Improvisationsmusikerin
Camille Cerf (* 1994), Model und Miss France 2015
Claire Lavogez (* 1994), Fußballspielerin
Lucas Chevalier (* 2001), Fußballspieler
Literatur
Weblinks
calais.fr Offizielle Seite (frz.)
calais-port.com Offizielle Seite des Hafens
pas-de-calais.com Regionale Tourismus-Seite
Abbildung der Stadt 1598 in Civitates orbis terrarum von Georg Braun und Frans Hogenberg
calaismigrantsolidarity.wordpress.com
Historische Karte als Digitalisat der Universitäts- und Landesbibliothek Düsseldorf
Einzelnachweise
Ort in Hauts-de-France
Ort mit Seehafen
Unterpräfektur in Frankreich
Mitglied der Ehrenlegion (Stadt)
Stadt in Frankreich
|
Q6454
| 107.365928 |
4830890
|
https://de.wikipedia.org/wiki/Acetylsalicyls%C3%A4ure
|
Acetylsalicylsäure
|
Acetylsalicylsäure (auch Azetylsalizylsäure; kurz ASS) ist ein weit verbreiteter schmerzstillender, entzündungshemmender, fiebersenkender und thrombozytenaggregationshemmender (TAH) Arzneistoff aus der Gruppe der nichtsteroidalen Antirheumatika (NSAR). ASS wird seit 1977 auf der Liste der unentbehrlichen Arzneimittel der WHO aufgeführt. Der Stoff wird seit Anfang des 20. Jahrhunderts in diversen Produkten von Pharmaherstellern vertrieben.
Die Bezeichnung Aspirin, die zunächst im englischsprachigen Raum und später teilweise auch international zum Synonym für ASS wurde, ist in vielen Staaten der Welt – darunter Deutschland, Österreich und die Schweiz – ein Markenname der Bayer AG oder ihrer Tochtergesellschaften für Medikamente mit diesem Wirkstoff, in anderen Staaten hingegen gemeinfrei und dort daher auch für Produkte anderer Hersteller in Gebrauch.
Nomenklatur
Acetylsalicylsäure ist der Trivialname für 2-Acetoxybenzoesäure, wie sie nach den IUPAC-Regularien heißt. Dabei handelt es sich um ein Derivat der Salicylsäure (o-Hydroxybenzoesäure), womit die Acetylsalicylsäure sowohl als Derivat der Benzoesäure (siehe IUPAC-Name) als auch als Ester der Essigsäure (Essigsäuresalicylester) aufgefasst werden kann.
Etymologie
Reine Acetylsalicylsäure wurde erstmals 1897 von Felix Hoffmann in Zusammenarbeit mit Arthur Eichengrün in den Farbenfabriken vorm. Friedr. Bayer & Co. synthetisiert. Der Markenname Aspirin wurde am 6. März 1899 in die Warenzeichenrolle des Kaiserlichen Patentamtes aufgenommen. Dieser Name leitet sich vom Echten Mädesüß ab, einem salicylathaltigen Rosengewächs, das auch Spiere genannt wurde (veraltet: Spiraea ulmaria L. heute: Filipendula ulmaria (L.) Maxim.): ‚A' (für die Acetylgruppe), ‚spir’ soll auf die Geschichte des Wirkstoffs hinweisen (Anlehnung an die Spirsäure, die mit Salicylsäure chemisch identisch ist) und ‚in’ als gebräuchliches Suffix der chemischen Namensgebung dieser Zeit. Geprägt wurde der Name durch Kurt Witthauer, Oberarzt am Diakonissenkrankenhaus Halle/Saale, der im April 1899 die erste klinische Studie über die Anwendung von Acetylsalicylsäure publizierte.
Handelsnamen und Darreichungsformen
Acetylsalicylsäure wird als Monopräparat weltweit in über 500 Fertigarzneimitteln in der Darreichungsform von Tabletten, Sublingualtabletten, Filmtabletten, Schmelztabletten, Trinktabletten, Pulver, Granulat, Kautabletten, Kaudragées, Brausetabletten, Retardtabletten, Kapseln, Retardkapseln, Injektionslösungen, Suppositorien und Dragées vermarktet.
Nachfolgend einige Beispiele von Handelsnamen:
Deutschland: ASS-AbZ, Acesal, Acetylin (hist.), Alka-Seltzer, Aspirin, Aspirin i.v. (ehemals Aspisol), Eudorlin, Godamed, Herz-ASS, Miniasal, Togal-ASS, ASS-ratiopharm
Schweiz: Alcacyl, Asa-Tabs, Aspégic, Aspirin, Aspirin Direkt, Aspirin Effect, Aspirin Migräne, Aspirin protect, Aspro, Contra-Schmerz plus, Kardégic, Tiatral
Österreich: Acekapton, Aspirin, Aspro Classic, Herz-ASS, Thrombo-ASS, Togal Mono, ASS Genericon
Neben diesen Monopräparaten sind noch zahlreiche Generika und Kombinationspräparate im Handel, die neben Acetylsalicylsäure auch Vitamin C, Paracetamol, Coffein oder Pseudoephedrin-Hydrochlorid enthalten, wie Aspirin Plus C, Aspirin Plus C Forte – mit den Wirkstoffen Acetylsalicylsäure und Ascorbinsäure (Vitamin C); Aspirin Coffein – mit den Wirkstoffen Acetylsalicylsäure und Coffein oder Aspirin Complex – mit den Wirkstoffen Acetylsalicylsäure und Pseudoephedrin-Hydrochlorid.
Die oben angezeigte Abkürzung Asa (oder ASA, statt ASS) stammt von englischen .
Geschichte
Weidenrinde wurde als Mittel gegen Fieber und Schmerzen aller Art spätestens in den frühen Hochkulturen eingesetzt. Hippokrates von Kos, Dioscurides und der römische Gelehrte Plinius der Ältere sahen die Weidenrinde als Arznei an. Durch Kochen von Weidenbaumrinden haben Germanen und Kelten Extrakte gewonnen und zu Heilzwecken verwendet, die der synthetischen Acetylsalicylsäure verwandte Substanzen enthielten. 1763 meldete der in Oxford lebende Geistliche Edward Stone der Royal Society in London, dass diese aus der Überlieferung bekannten Erkenntnisse korrekt seien. 1828 gelang es Johann Andreas Buchner, das Salicin, einen chemischen Verwandten der ASS, der im Körper zu Salicylsäure umgesetzt wird, aus den besagten Weidenrindenextrakten (Weide, Salix sp.) zu isolieren, ebenso wie der französische Apotheker Pierre-Joseph Leroux.
Auch Bibergeil (Castoreum), ein Sekret der Analdrüse des Bibers, enthält Salicylsäure und wurde bis ins 19. Jahrhundert gegen Krämpfe, hysterische Anfälle, Nervosität u. v. m. eingesetzt. In der gräco-romanischen Antike war die Substanz schon als Wirkstoff gegen Epilepsie bekannt.
Die Vorstufe Salicylsäure wurde (weltweit als erstes industriell hergestelltes und „abgepacktes“ Medikament) ab 1874 durch Friedrich von Heyden (Chemische Fabrik v. Heyden in Radebeul) großtechnisch durch die Kolbe-Schmitt-Reaktion hergestellt. Der bittere Geschmack der Substanz und Nebenwirkungen wie Magenbeschwerden schränkten jedoch die Einsatzmöglichkeiten als Medikament stark ein.
Der Chemiker Charles Frédéric Gerhardt hatte 1853 in Straßburg bereits Acetylsalicylsäure in nichtreiner Form synthetisiert. Durch Kochen von Acetylchlorid mit Salicylsäure konnte Hugo von Gilm (1831–1906) 1859 unreine o-Acetylsalicylsäure als wasserunlöslichen Feststoff erhalten. Die Verfahren von Friedrich von Heyden und Hugo von Gilm wurden 1869 von Karl Kraut eingehend untersucht, es bildeten sich bei beiden in stark unterschiedlichen Mengenverhältnissen schlecht charakterisierbare Anhydride und „Acetylosalicylsäure“ (Schmelzpunkt 118 °C) als Ester.
1872 wies Hugo Schiff nach, dass sich acetylhaltige Anhydride der Salicylsäure thermisch sehr leicht in isomere Salicylsäure-Ester umwandeln und darüber hinaus höhere Kondensationsprodukte gebildet werden. Aus Acetylchlorid und Salicylsäure, jedoch unter Zusatz von Eisen(III)-chlorid unter Friedel-Crafts-Bedingungen von 1877, wurde Anfang 1897 die p-Acetylsalicylsäure (Schmelzpunkt 210 °C) hergestellt.
Am 10. August 1897 gelang erstmals im Bayer-Stammwerk in Wuppertal-Elberfeld die Synthese von nebenproduktfreier o-Acetylsalicylsäure (Schmelzpunkt 136 °C) aus Acetanhydrid und Salicylsäure. In einer US-Patentschrift vom 1. August 1898 stellte der häufig als Erfinder bezeichnete Felix Hoffmann – dessen führende Rolle jedoch von seinem damaligen Vorgesetzten, dem jüdischen Chemiker Arthur Eichengrün, als spätere Arisierung der Erfindung bestritten wurde – nochmals detailliert klar, dass nur bei dem von ihm angewendeten Verfahren und im Gegensatz zu den von Kraut beschriebenen Varianten die gewünschte Acetylsalicylsäure in reiner Form gebildet wird. Das Patent wurde in den USA und in Großbritannien erteilt, nicht jedoch in Deutschland, da die Chemische Fabrik v. Heyden in Radebeul bei Dresden unter dem Chemiker Carl Kolbe bereits seit 1897 Acetylsalicylsäure in industriellem Maßstab, erst unter ihrem chemischen Namen und später unter dem Handelsnamen Acetylin, als Heilmittel produzierte und vertrieb.
Das Mittel wurde von Kurt Witthauer am Diakoniekrankenhaus in Halle 1898 auf seine Vorzüge an über 50 Patienten geprüft und er stellte vor allem die gute Verträglichkeit im Vergleich zu anderen Salicylpräparaten heraus. Eine Beschreibung des industriellen Schwefelsäure-katalysierten Verfahrens findet sich in Ullmanns Enzyclopädie von 1915. Am 7. April 1921 meldete Bayer eine Modifikation dieses Verfahrens zum Patent an. Anstelle von Schwefelsäure eignete sich auch ein geringer Pyridin-Zusatz als Katalysator bei ansonsten milderen Reaktionsbedingungen.
1949 veröffentlichte Arthur Eichengrün eine Arbeit, in der er schrieb, er habe die Entwicklung von Aspirin sowie einiger benötigter Hilfsstoffe geplant und koordiniert. Schon zuvor schrieb Eichengrün aus dem Konzentrationslager – fast ein halbes Jahrhundert nach der Erfindung von Aspirin – der I.G. Farben (Bayer), als er sich seinem Tode nahe sah, dass Hoffmann an der Erfindung von Aspirin nur in der Weise beteiligt gewesen sei, dass er (bei der ersten chemisch völlig reinen Synthese der Acetylsalicylsäure) die Anordnungen Eichengrüns befolgte, ohne überhaupt zu wissen, was er dabei genau tat. Während des Nationalsozialismus wurde er weiterhin als Beteiligter oder gar Erfinder verleugnet, wie dies bei allen jüdischen Errungenschaften üblich war, und die Erfindung des Aspirins öffentlich vor allem Hoffmann zugesprochen. Eichengrün hat dies nach seiner Entlassung in einer noch aus Zeiten des Nationalsozialismus stammenden Ausstellung, über deren Pforte „Juden ist der Zutritt verboten“ prangte, auf einer Tafel zum Thema Aspirin gelesen. Auf ihr wurden Hoffmann und eine mit der Entwicklung Aspirins nicht in Verbindung stehende Person als Erfinder genannt, ohne jegliche Erwähnung Eichengrüns. In vielen geschichtlichen Abhandlungen und Lexika zu dem Thema wird aufgrund dieser Vorgänge während des Nationalsozialismus und der damit entsprechend beeinflussten Geschichtsbücher vornehmlich Felix Hoffmann als Erfinder oder wahrscheinlicher Erfinder genannt und die Erklärung Eichengrüns in seiner 1949 veröffentlichten Arbeit oftmals lediglich als Behauptung betitelt.
Sowohl Felix Hoffmann als auch Arthur Eichengrün werden als Erfinder für den nebenproduktelosen Syntheseweg der Acetylsalicylsäure diskutiert. Zuletzt kam 1999 Walter Sneader von der Abteilung Pharmazeutische Wissenschaften der Universität Strathclyde in Glasgow zu dem Ergebnis, dass Eichengrün der Erfinder des Aspirins sei – Bayer bestritt diese Theorie unmittelbar darauf in einer Pressemitteilung. Eichengrün wurde aufgrund seiner jüdischen Herkunft während der Nazizeit in seiner wissenschaftlichen Arbeit zunehmend behindert. Sicher ist, dass Eichengrün nach der Zulassung von Aspirin zum Leiter der pharmazeutischen Abteilung bei der Bayer AG befördert und Hoffmann Leiter der Marketing-Abteilung wurde. Bayer vermarktete jedoch vorerst den elf Tage später von Hoffmann entwickelten Hustenstiller, das als Heroin bekannt gewordene Diacetylmorphin (DAM), stärker, da man nach Versuchen an Menschen davon ausging, dass Aspirin zu viele Nebenwirkungen habe.
Chemische und physikalische Eigenschaften
Acetylsalicylsäure liegt als weißes Pulver vor oder bildet flache bis nadelförmige Kristalle mit schwachem Geruch nach Essigsäure. Der pKS-Wert beträgt 3,5. Sie schmilzt bei einer Temperatur von 136 °C, bei Temperaturen über 140 °C tritt Zersetzung ein. Acetylsalicylsäure ist gut löslich in Ethanol und Alkalilauge, aber schlecht löslich in Benzol oder kaltem Wasser (3,3 g·l−1 bei 20 °C), was auf den hydrophoben Benzolring zurückzuführen ist. Die Wasserlöslichkeit steigt erheblich beim Erwärmen. Aufgrund der erheblich besseren Wasserlöslichkeit werden therapeutisch auch das Magnesium- und Calciumsalz eingesetzt. Die Dichte von Acetylsalicylsäure beträgt 1,35 g·cm−3, der Dampfdruck ist gering.
Herstellung
Die phenolische Hydroxygruppe in Ortho-Stellung zur Carboxygruppe der Salicylsäure reagiert mit dem Essigsäureanhydrid unter Acetylierung, wobei der Wasserstoff der Hydroxygruppe durch eine Acetylgruppe ersetzt wird.
Hierzu wird durch Kolbe-Schmitt-Reaktion industriell hergestellte Salicylsäure mit protoniertem Essigsäureanhydrid an der phenolischen Hydroxygruppe zu Acetylsalicylsäure verestert (acetyliert). Alternativ kann das Reaktionsprodukt der Kolbe-Schmitt-Reaktion (Natriumsalicylat) auch direkt mit Essigsäureanhydrid acetyliert werden, wobei Acetylsalicylsäure resultiert und Natriumacetat in stöchiometrischer Menge entsteht.
Typische Nebenprodukte aller ASS-Synthesen sind die Kondensationsprodukte Acetylsalicylsäureanhydrid (ASN), o-Acetylsalicyl-salicylsäure (ASSA), o-Salicoyl-salicylsäure (SSA) und Disalicylid, sie müssen durch nachfolgende Kristallisationen entfernt werden.
Pharmakologie
Wirkungsmechanismus
Acetylsalicylsäure wirkt durch Hemmung der Cyclooxygenasen COX-1 und COX-2.
Die Funktionsweise der Acetylsalicylsäure, nämlich die Hemmung der Prostaglandinproduktion, wurde 1971 von John Robert Vane aufgeklärt, wofür er 1982 zusammen mit Sune Bergström und Bengt Samuelsson den Nobelpreis für Medizin erhielt:
Die Wirkung der Acetylsalicylsäure beruht auf einer irreversiblen Hemmung der Prostaglandin-H2-Synthase, genauer der Cyclooxygenasen COX-1 und COX-2. Diese Enzyme katalysieren die Bildung von entzündungsverstärkenden Prostaglandinen sowie z. B. Thromboxan A2, das u. a. thrombozytenaktivierend wirkt. Die Acetylsalicylsäure überträgt bei der Hemmung einen Acetylrest auf einen Aminosäurerest (Serin 530) kurz vor dem katalytischen Zentrum. Dadurch kann die Arachidonsäure als Substrat des Enzyms das aktive Zentrum nicht mehr erreichen und das Enzym wird dauerhaft inaktiviert. Die COX-1 wird durch Acetylsalicylsäure etwa 10- bis 100-mal stärker gehemmt als die COX-2. Da Thrombozyten aufgrund des fehlenden Zellkerns keine Enzyme nachbilden können, ist die gerinnungshemmende Wirkung auf sie irreversibel – die Wirkungsdauer deckt sich daher mit der Überlebenszeit der Thrombozyten (8–11 Tage).
Ein weiterer indirekter Wirkmechanismus scheint die indirekte Hemmung der Cyclooxygenase zu sein: Acetylsalicylsäure verstärkt effektiv die Aktivität der Cytochrom P450-Isoformen CYP2E1 und CYP4A1, welche Arachidonsäure zu Epoxyeicosatriensäuren abbauen. Einige dieser Epoxyeicosatriensäuren gehören zu den endogenen Antipyretika, also Stoffen des Körpers, die die Fieberreaktion begrenzen; sie hemmen die Cyclooxygenase-2 effektiver als das Aspirin an sich.
Pharmakokinetik
Acetylsalicylsäure unterliegt einem ausgeprägten First-pass-Metabolismus (zum Teil schon in Magen- und Darmwand durch spezielle Esterasen) und hat eine orale Bioverfügbarkeit von etwa 70 %. Sie wird im Körper innerhalb von 15 Minuten in den Hauptmetaboliten Salicylsäure umgewandelt. Im Blut geht sie zu 50–70 % eine Bindung an Albumin ein.
Systemische Wirkungen
Hemmung der Thrombozytenaggregation
Acetylsalicylsäure wirkt durch Hemmung der Cyclooxygenase COX-1 in kleinen Dosen (30–50 mg) thrombozytenaggregationshemmend (Hemmung der Verklumpung von Blutplättchen).
Schmerzstillende, antirheumatische, antipyretische und antiinflammatorische Wirkung
Mit steigender Dosis (0,5–2 g) wirkt ASS durch Hemmung der Cyclooxygenasen COX-1 und COX-2 und der daraus folgenden sinkenden Bildung von Prostaglandinen auch dezentral schmerzstillend, antirheumatisch sowie fiebersenkend und schließlich (2–5 g) entzündungshemmend.
Erhöhung der Magensäuresekretion
Prostaglandine sind unter anderem auch noch an der Regelung der Magensäuresekretion und der Magenschleimhautdurchblutung beteiligt, so dass durch die Hemmung der Prostaglandinsynthese bei höheren Dosierungen und längerfristiger ASS-Einnahme, beispielsweise im Rahmen der Behandlung von rheumatischen Beschwerden, Magenbeschwerden und Magenblutungen auftreten können.
Die Magenunverträglichkeit beruht zu einem wesentlichen Teil auf der (gewünschten) systemischen Hemmung der Prostaglandinsynthese und lässt sich durch andere Darreichungsformen (magensaftresistente Tablette, Zäpfchen oder intravenöse Gabe) allenfalls abmildern. Eine Arzneiform, die auf der Magenschleimhaut aufliegend den Wirkstoff abgibt, beeinträchtigt das Gewebe des Magens kurzzeitig jedoch noch zusätzlich.
Therapeutische Verwendung
Anwendungsgebiete
Schmerzen und Fieber
Acetylsalicylsäure (ASS) ist aufgrund ihres Wirkspektrums angezeigt zur Behandlung von leichten bis mäßig starken Schmerzen wie Kopfschmerzen, Zahnschmerzen, Regelschmerzen und schmerzhaften Beschwerden, die im Rahmen von Erkältungskrankheiten auftreten (z. B. Kopf-, Hals- und Gliederschmerzen). Ferner dient sie der Senkung von Fieber.
Nicht angezeigt ist ASS zur Unterdrückung von Wundschmerz, wie nach chirurgischen Eingriffen oder nach Verletzungen, da die gerinnungshemmende Wirkung bis etwa sieben Tage nach der letzten Einnahme anhält und damit Blutungen begünstigt. Wegen der irreversiblen Hemmung der Cyclooxygenase in den Thrombozyten ist auch eine Gabe eines Gegenmittels zur sofortigen Aufhebung der Gerinnungshemmung nicht möglich.
Antithrombotische Behandlung
In niedrigen Dosen wird sie zur Hemmung der Thrombozytenaggreagtion verwendet, um durch arterielle Blutgerinnsel ausgelöste kardiovaskulären Ereignissen (Herzinfarkten, Schlaganfällen, inklusive solcher mit tödlichem Ausgang) bei entsprechender Vorgeschichte vorzubeugen (Reinfaktprophylaxe, Sekundär/Tertiärprophylaxe bei bekannten arteriosklerotischen Gefäßveränderungen).
Von der Verwendung von ASS zur Prävention von venösen thromboembolischen Ereignisse (VTE) rät die Leitliniengruppe der AWMF (Stand 2015), außer in begründeten Einzelfällen, ab.
In zwei Studien wurde die Wirksamkeit einer verlängerten Thromboembolie-Rezidivprophylaxe mit ASS untersucht. Die WARFASA-Studie ergab, dass Patienten, die nach einer erstmaligen venösen Thromboembolie zunächst 6–18 Monate mit Vitamin-K-Antagonisten behandelt worden waren, danach ein geringeres Risiko für eine erneute Venenthrombose hatten, wenn sie mit täglich 100 mg ASS weiter behandelt wurden (im Vergleich zu Placebo). Die ASPIRE-Studie zeigte keine signifikante Minderung des Risikos für venöse Thromboserezidive, jedoch eine Reduktion des Auftretens schwerwiegender kardiovaskulärer Ereignisse wie Herzinfarkt, Schlaganfall oder Herz-Kreislauf-Tod.
Eine Untersuchung zeigte, dass Acetylsalicylsäure nicht wirksam ist zur Anwendung bei Venenverschlüssen der Netzhaut wie dem retinalen Zentralvenenverschluss (ZZV) oder dem Venenastverschluss (VAV), und sich zudem nachteilig auf das Sehvermögen der Patienten auswirkt.
Gefäßchirurgische Eingriffe, Therapie des Myoakardinfarkts und der instabilen Angina pectoris
ASS wird in Kombination z. B. mit Clopidogrel bei Patienten mit frischen Stents in den Herzkranzgefäßen eingesetzt, um einen Verschluss (Stentthrombose) zu vermeiden. Auch bei der Notfallbehandlung des akuten Koronarsyndroms, etwa beim Herzinfarkt, gehört ASS zur Standardtherapie. In einer Studie erwies sich in diesen Fällen die intravenöse Gabe von ASS als vorteilhafter im Vergleich zur oralen Verabreichung.
Sekundärprophylaxe kardiovaskulärer Ereignisse
Diverse Studien haben die Wirksamkeit von ASS bei Patienten mit stabiler koronarer Herzkrankheit (KHK) und akuten koronaren Syndromen gegenüber Placebo gezeigt. Die Metaanalyse dieser Untersuchungen ergab einen eindeutigen Vorteil für ASS bei der Minderung ischämischer Ereignisse. Die Wirksamkeit von ASS im Vergleich zu Clopidogrel untersuchte die 1996 veröffentlichte CAPRIE-Studie. Sie ergab keine signifikanten Unterschiede in den individuellen Endpunkten und in der Gesamtsterblichkeit. Im kombinierten Endpunkt (kardiovaskulärer Tod, Herzinfarkt, Schlaganfall) hatte Clopidogrel eine relative günstigere Risikoreduktion, ohne Unterschied in Blutungsereignissen. In der Untergruppe der Patienten mit KHK war ASS ebenso wirksam und sicher wie Clopidogrel, sodass auf ASS nur bei Unverträglichkeit verzichtet werden müsste.
Im Vergleich der Thrombozytenhemmung mit ASS alleine gegenüber einer dualen Therapie mit einem weiteren TAH gab es unterschiedliche Ergebnisse je nach Krankheitsgeschichte.
Acetylsalicylsäure eignet sich jedoch nicht für die Primärprävention gesunder Patienten mit erhöhtem kardiovaskulären Risiko – das wurde 2018 durch drei Studien belegt. Die American Heart Association und das American College of Cardiology hatten daraufhin entschieden, die entsprechenden Richtlinien für die klinische Praxis zu ändern. Acetylsalicylsäure verursacht häufig Blutungen im Magen-Darm-Trakt. Trotzdem nehmen Millionen Menschen, auch ohne ärztliche Verordnung, weiterhin täglich niedrigdosiert Acetylsalicylsäure ein.
Polycythaemia vera
Aufgrund seiner positiven Wirkungen bei Polycythaemia vera wurde Aspirin von der Europäischen Kommission der Status eines Orphan-Arzneimittels erteilt.
Nebenwirkungen und Gegenanzeigen
Die bei analgetischer Dosierung auftretenden Nebenwirkungen sind meist leichterer Art: Übelkeit, Sodbrennen und Erbrechen werden relativ häufig beobachtet. Bei Asthmatikern kann Acetylsalicylsäure Ursache von Anfällen sein, die sich dadurch erklären, dass durch Hemmung der Cyclooxygenasen ein Überangebot an Arachidonsäure vorliegt, die dann die Bildung von bronchokonstriktorischen (die Bronchien verengenden) Leukotrienen begünstigt. Eine Kreuzreaktion zu anderen Schmerzmitteln wie beispielsweise Ibuprofen, Diclofenac oder Naproxen ist häufig.
Die Arzneimittelkommission der deutschen Ärzteschaft weist darauf hin, dass Acetylsalicylsäure aufgrund ihrer Reizwirkung bei regelmäßiger Einnahme Schleimhautreizungen, Blutungen im Magen-Darm-Trakt und Magengeschwüre verursachen kann. Bei chronisch entzündlichen Darmerkrankungen (Morbus Crohn, Colitis ulcerosa) ist Vorsicht geboten, da Acetylsalicylsäure schubauslösend wirken kann.
Zur möglichen positiven Beeinflussung der oben genannten UAW werden Antioxidantien wie z. B. Tocopherole und Tocotrienole erforscht.
Bei Kindern und Jugendlichen mit fieberhaften Erkrankungen sollte Acetylsalicylsäure nicht eingesetzt werden, da es (möglicherweise nach einer überstandenen Viruserkrankung) das mitunter tödliche Reye-Syndrom auslösen könnte; es sollte auf alternative Substanzen – wie Paracetamol oder Ibuprofen – ausgewichen werden. In Großbritannien ist die rezeptfreie Abgabe von Acetylsalicylsäure an Kinder und Jugendliche unter 16 Jahren aus diesem Grund verboten. Diskutiert wird auch eine suppressive Wirkung auf das unspezifische Immunsystem, da der Immunmodulator Desoxycholsäure (Literatur) erst nach Abklingen der Wirkungen der Acetylsalicylsäure aktiv werden kann. Dennoch gibt es auch im Kindesalter Krankheitsbilder, bei denen die Behandlung mit Acetylsalicylsäure durchaus angezeigt ist. Dazu gehören das rheumatische Fieber oder das Kawasaki-Syndrom.
In der Schwangerschaft darf Acetylsalicylsäure nur in kleinen Mengen verabreicht werden, da ASS insbesondere im dritten Trimenon zu einem vorzeitigen Verschluss des Ductus arteriosus des ungeborenen Kindes führen kann. Außerdem besteht durch die gehemmte Blutgerinnung eine erhöhte Blutungsneigung der Mutter bei der Geburt.
1999 wurde die Anzahl tödlicher Ereignisse im Zusammenhang mit Aspirin und ähnlichen Schmerzmitteln unter Amerikanern auf jährlich 16.500 geschätzt.
Im Jahr 2004 geriet Aspirin in die Schlagzeilen, da in einer großen Studie mit 88.000 Teilnehmerinnen (Nurses’ Health Study) ein Zusammenhang zwischen langjähriger und häufiger Aspirineinnahme und Bauchspeicheldrüsenkarzinomen gezeigt wurde. In einer vorhergehenden Studie mit 28.000 Teilnehmerinnen (Iowa Women's Health Study) wurde zuvor jedoch gerade ein gegenteiliger Effekt für Aspirin gezeigt, nämlich dass die regelmäßige Einnahme vor Bauchspeicheldrüsenkrebs schützt. Eine noch größere Studie der American Cancer Society mit insgesamt 987.000 Teilnehmern zeigte dann jedoch, dass Aspirin weder einen fördernden noch einen schützenden Effekt in Bezug auf Bauchspeicheldrüsenkrebs hat. Dies gilt für Frauen wie für Männer.
Eine britische Metaanalyse zeigte 2010 eine deutliche, signifikante Reduktion der Entstehung von Darmkrebs – und möglicherweise auch anderer Krebstypen – bei täglicher Einnahme von ASS auf. Dabei wurden die Patientendaten aus 7 Studien (23.535 Patienten, 657 Todesfälle durch Krebs) analysiert. Es konnte gezeigt werden, dass eine Langzeiteinnahme (mindestens 5 Jahre) von Aspirin zu einer Reduktion der Krebssterbefälle unabhängig von der Dosierung (75 mg oder mehr), Geschlecht oder Rauchverhalten führt, wobei sich der Effekt mit zunehmendem Alter der Probanden und Verlängerung der Einnahmedauer verstärkt. Sowohl gastrointestinale (zum Beispiel kolorektales Karzinom oder Speiseröhrenkrebs) als auch nicht-gastrointestinale Karzinome (zum Beispiel Lungenkrebs) führten seltener zum Tod bei Langzeitaspirineinnahme (bis 20 Jahre wurde analysiert). Der Effekt war bei Adenokarzinomen (gastrointestinale und nicht-gastrointestinale) besonders ausgeprägt. Somit würde eine tägliche Aspirineinnahme über 5–10 Jahre unter Berücksichtigung der Nebenwirkungen von ASS zu einer Reduktion der Todesfälle während dieser Zeit um etwa 10 % führen.
Bei Asthmatikern beträgt der Anteil der Patienten mit ASS-Intoleranz etwa 8 bis 20 % und bei Patienten mit Nasenpolypen etwa 6 % bis 15 %. Diese Allergie wird als Samter-Trias bezeichnet. Es wird eine genetische (erbliche) Prädisposition vermutet.
In einer schwedischen Studie, veröffentlicht im August 2009 im Fachmagazin Pharmacoepidemiology and Drug Safety, mit 58.465 Studienteilnehmern konnte durch Einsatz des Mortalitätsregisters und des im Patientenregister dokumentierten Arzneimittelgebrauchs festgestellt werden, dass der Gebrauch von Aspirin bei diabetischen Patienten ohne kardiovaskuläre Krankheitsanzeichen zu einer erhöhten Mortalität führte. Bei diabetischen Patienten mit kardiovaskulären Krankheitsanzeichen wurde jedoch eine Verminderung der Mortalität unter der Anwendung von Aspirin beobachtet. Die bisherige Praxis der Anwendung von Aspirin auch bei Diabetikern ohne kardiovaskuläre Krankheitszeichen sollte danach revidiert werden, bis weitere Erkenntnisse aus laufenden Studien verfügbar sind.
Wie eine 2010 veröffentlichte Studie aus der Schweiz aufzeigte, kann die regelmäßige Einnahme von Aspirin nicht nur zu häufigerem Nasenbluten führen; bei den Patienten, die Aspirin zur Prophylaxe von Herzerkrankungen in Dosen von 100 mg und 300 mg täglich einnahmen, verlief Nasenbluten schwerer als bei vergleichbaren Patienten ohne Aspirineinnahme und bedurfte öfter einer chirurgischen Behandlung.
Im Tierversuch an Ratten ergaben sich laut Roter Liste Hinweise auf eine mögliche teratogene (fruchtschädigende) Wirkung bei chronischer Einnahme von ASS während der Schwangerschaft.
Mediziner der University of Sydney veröffentlichten 2013 im Journal of the American Medical Association (JAMA) eine Studie, in der die Vermutung nahe liegt, dass die regelmäßige Einnahme von Aspirin für Netzhautschädigungen (Makuladegeneration (AMD)) verantwortlich ist.
Eine am 18. Oktober 2018 veröffentlichte australische Langzeitstudie der Monash University in Melbourne, die im US-Fachmagazin The New England Journal of Medicine erschien, sieht bei der Einnahme von Acetylsalicylsäure negative Auswirkungen auf die Lebenszeit. Die Einnahme des Arzneimittels durch gesunde Patienten sei sogar oft komplett überflüssig.
Eine am 22. Januar 2019 veröffentlichte Metaanalyse von Wissenschaftlern des King’s College London im US-Fachmagazin Journal of the American Medical Association (JAMA) mit 164.225 Probanden aus insgesamt 13 klinischen Testreihen kam zum Schluss, dass die Verwendung von Acetylsalicylsäure (ASS, Aspirin) bei Menschen ohne Herz-Kreislauf-Erkrankungen mit einem geringeren Risiko für kardiovaskuläre Ereignisse (Hazard ratio, 0,89; absolute Risikoreduktion, 0,38 %) und einem erhöhten Risiko für schwere Blutungen (Hazard ratio, 1,43; absolute Risikoerhöhung, 0,47 %) verbunden ist. Die Deutsche Herzstiftung rät zur ASS-Einnahme als Thrombozytenaggregationshemmer nur bei Patienten mit einem deutlichen Risikoprofil für Herzinfarkt oder Schlaganfall.
Arzneimittelinteraktionen und Wechselwirkungen
Wegen der Häufigkeit der gleichzeitigen Anwendung von ASS- und Vitamin-E-Präparaten wird der möglichen Arzneimittelinteraktion hinsichtlich der Auswirkungen auf das Gerinnungssystem vermehrte Aufmerksamkeit geschenkt und eine gründliche Kontrolle der Gerinnungsparameter empfohlen. Gesundheitliche Aspekte einer möglichen erhöhten Blutungsneigung unter Komedikation mit Tocopherolpräparaten werden seit einiger Zeit in der Literatur diskutiert.
Weiterhin mehren sich in letzter Zeit die Hinweise, dass Acetylsalicylsäure und bestimmte andere Schmerzmittel aus der Gruppe der nichtsteroidalen Antiphlogistika bzw. der nichtsteroidalen Antirheumatika (NSAIDs) sowie Paracetamol die Wirksamkeit von Impfstoffen herabsetzen können, indem der Körper nach einer Impfung weniger der schützenden Antikörper bildet. Letzteres wird darauf zurückgeführt, dass durch Medikamente wie Acetylsalicylsäure die terminale Differenzierung der B-Zellen zu Antikörper-produzierenden Plasmazellen beeinträchtigt wird. Forscher und Ärzte raten daher, einige Zeit vor und nach der Impfung auf entsprechende Medikamente zu verzichten.
„ASS-Resistenz“
Es gibt Hinweise aus Labortests, dass ASS in Standarddosierung bei einem Teil von Patienten die Thrombozytenaggregation unzureichend hemmt. Jedoch war die Korrelation mit klinischen Ereignissen wie Schlaganfall, Herzinfarkt und Tod durch vaskuläre Ereignisse unklar. Eine Metaanalyse von 2008 ergab, dass eine „ASS-Resistenz“ mit kardiovaskulären Ereignissen korrelieren soll. Die „Resistenz“ war von der ASS-Dosis unabhängig und die Patienten profitierten nicht von einer zusätzlichen Gabe von Clopidogrel oder Tirofiban. Eine Umstellung auf einen anderen TAH wurde nicht geprüft. Die Autoren empfahlen für Patienten mit kardiovaskulärem Risiko die Weiterführung der Behandlung mit Acetylsalicylsäure bei gleichzeitiger Information über ein mögliches Nichtansprechen.
Sonstige Verwendung, Flussmittel beim Weichlöten
Acetylsalicylsäure kann als Flussmittel beim Weichlöten verwendet werden.
Toxizität
Hohe Dosen, beispielsweise 10 g ASS beim Erwachsenen, können bereits zu einer lebensgefährlichen metabolischen Azidose (Übersäuerung) mit Atemlähmung und Bewusstlosigkeit führen. Außerdem kann das Innenohr geschädigt werden, was sich in einem Hörverlust oder Tinnitus äußert. Auch Nierenschädigungen sind beschrieben worden (Analgetikanephropathie).
Abgelaufene oder nach Essig riechende Präparate sollten nicht mehr verwendet werden. Letztere waren wahrscheinlich großer Wärme und Feuchtigkeit ausgesetzt, wodurch nicht nur die Wirkung beeinträchtigt wird, sondern auch für den Magen toxische phenolische Abbauprodukte durch autokatalytische Zersetzung entstehen.
Die CLP-Verordnung mit dem H-Satz gesundheitsschädlich beim Verschlucken bezieht sich auf den sicheren Umgang mit dem Rohstoff im Produktionsbetrieb. Für die arzneiliche Verwendung gelten die Hinweise der Produktkennzeichnung (z. B. Packungsbeilage).
Die mittlere letale Dosis (LD50) bei oraler Aufnahme liegt bei Ratten bei 200 mg/kg Körpergewicht.
Nachweis
Um Acetylsalicylsäure chemisch nachzuweisen, wird sie zunächst mittels alkalischer oder saurer Hydrolyse in Salicylsäure und Essigsäure gespalten. Als Katalysator wird entsprechend Natronlauge oder Salzsäure verwendet, in der die Substanz gekocht wird. Ohne Erhitzen bildet sich in der Natronlauge lediglich das Natriumsalz, welches aufgrund seiner ionischen Eigenschaft in Lösung geht, jedoch nicht reagiert. Nach der Hydrolyse kann der Nachweis der freigesetzten Salicylsäure mit Eisen(III)-chlorid (FeCl3) (es entsteht ein rotvioletter Chelatkomplex) oder Hydroxamsäurereaktion erfolgen. Der eher nicht ganz sichere Nachweis von Acetat oder Essigsäure kann durch Geruchsprüfung erfolgen. Sicherer ist die Veresterung mit Chlorethan (Entstehung von charakteristisch riechendem Ethylacetat) oder Versetzen mit Lanthan(III)-nitrat (La(NO3)3) und Iod (blaue Färbung).
Die qualitative und quantitative Bestimmung der Acetylsalicylsäure in pharmazeutischen Zubereitungen oder im Blutplasma erfolgt vorzugsweise durch chromatographische Verfahren wie z. B. die HPLC, Gaschromatographie oder Gaschromatographie mit Massenspektrometrie-Kopplung.
Die hochspezifische Analytik der Salicylsäure – als Stoffwechselprodukt im Humanserum – kann durch Einsatz der HPLC mit Fluoreszenzdetektion erfolgen.
Varianten
Acetylsalicylsäure-DL-Lysinsalz (DL-Lysin-2-(acetyloxy)benzoat [1:1]) ist das Lysinsalz der ASS und kommt wegen seiner besseren Wasserlöslichkeit für die i.v.-Gabe zur Anwendung.
Carbasalat-Calcium ist eine leicht wasserlösliche, äquimolare Komplexverbindung von 2-(Acetyloxy)benzoesäure-Calciumsalz (2:1) und Harnstoff (Summenformel: C19H18CaN2O9, molare Masse 458,06 g·mol−1, Formelstamm: 2 (C9H7O4)– Ca2+ · CH4N2O, ATC-Codes: , ).
Das Aluminiumsalz Aluminium-bis(2-acetyloxybenzoat)hydroxid (Aluminiumacetylsalicylat, Acetylsalicylsäure-Aluminium, Summenformel: C18H15AlO9, molare Masse: 402,29 g·mol−1) wurde in der oralen Behandlung von Fieber, Schmerzen sowie bei Beschwerden es Bewegungsapparates (muskuloskelettales System) und der Gelenke verwendet. Aluminium-bis(2-acetyloxybenzoat)hydroxid ist ein weißes kristallines Pulver, geruchlos oder mit einem leichten, essigartigen Geruch. Es ist praktisch unlöslich in Wasser, Methanol, Ethanol (95 %) und Diethylether. Es löst sich unter Zersetzung in Natriumhydroxid- und Natriumcarbonatlösung. Der Aluminiumgehalt beträgt 6,0 bis 7,0 %.
Ein Gremium der FDA urteilte Ende der 1970er Jahre, dass trotz – aufgrund der Schwerlöslichkeit – nur langsamer Freisetzung des Wirkstoffes es dennoch Hinweise auf eine wirksame Analgesie gebe. Im Vergleich mit ASS könne die Wirksamkeit jedoch nicht abschließend beurteilt werden.
Aloxiprin ist der Freiname eines Polykondensats aus Acetylsalicylsäure und Aluminiumoxid.
Benorilat oder (4-Acetamidophenyl)[2-(acetyloxy)benzoat] (ATC-Code: ) ist ein in den 1960er Jahren patentierter Wirkstoff, der einen Ester der ASS mit Acetaminophen (Paracetamol) darstellt. Er wurde ebenfalls als Analgetikum, Antipyretikum und Antiphlogistikum verwendet.
NOSH-Aspirin ist ein Stickstoffmonoxid (NO) und Wasserstoffsulfid (H2S) freisetzendes Prodrug der Acetylsalicylsäure.
Literatur
Helga Vollmer: Aspirin – Ein Jahrhundertmittel macht Karriere, Wilhelm Heyne Verlag, München 1997, ISBN 3-453-12268-2.
Uwe Zündorf: 100 Years Aspirin – The Future has just begun / 100 Jahre Aspirin – die Zukunft hat gerade erst begonnen. Herausgegeben von der Bayer AG. Leverkusen 1997, (deutsch).
Nicolai Kuhnert: Hundert Jahre Aspirin. In: Chemie in unserer Zeit. 1999, 33 (4), S. 213–220, doi:10.1002/ciuz.19990330406.
Kay Brune, Tobias Egger: Die Entwicklung der antipyretischen Analgetika. In: Pharmazie in unserer Zeit. 2002, 31 (2), S. 133–139, .
Doris Schwarzmann-Schafhauser: Aspirin. In: Werner E. Gerabek, Bernhard D. Haage, Gundolf Keil, Wolfgang Wegner (Hrsg.): Enzyklopädie Medizingeschichte. De Gruyter, Berlin/ New York 2005, ISBN 3-11-015714-4, S. 114.
Andrew T. Chan u. a.: Long-term Aspirin Use and Mortality in Women. In: Archives of Internal Medicine. 2007, 167, S. 562–572. PMID 17389287.
Karsten Schrör: Acetylsalicylsäure. 3., vollständig neu überarbeitete und aktualisierte Auflage, 2018. Dr. Schrör Verlag, Frechen. ISBN 978-3-9819062-0-2.
Acetylsalicylsäure. In: Beilsteins Handbuch der Organischen Chemie. 3. Auflage. 2. Band. S. 1496; . Ergänzungswerk, S. 889; .
Acetylsalicylsäure. In: Beilsteins Handbuch der Organischen Chemie. 4. Auflage. Band 10, H, S. 67; . EI, S. 28; . EII, S. 41; .
G. Geisslinger, S. Menzel, T. Gudermann, B. Hinz, P. Ruth: Mutschler Arzneimittelwirkungen. Pharmakologie – Klinische Pharmakologie – Toxikologie. Begründet von Ernst Mutschler, 11. Auflage. Wissenschaftliche Verlagsgesellschaft, Stuttgart 2020, ISBN 978-3-8047-3663-4. S. 264 ff., 434, 472 ff.
Weblinks
– detaillierte Daten zu Acetylsalicylsäure (englisch)
(PH Heidelberg)
biochemische Grundlagen der Aspirin-Wirkung (FIZ Chemie Berlin)
Einzelnachweise
Essigsäureester
Benzolcarbonsäure
Phenylester
Nichtopioid-Analgetikum
Arzneistoff
|
Q18216
| 93.753559 |
210445
|
https://de.wikipedia.org/wiki/Ladino
|
Ladino
|
Ladino (in hebräischer Schrift ), Judäo-Spanisch (, auch Judenspanisch, Jüdischspanisch) oder Djudezmo ist eine seit dem Mittelalter ausgebildete romanische Sprache der sephardischen Juden.
Ladino hat sich im Laufe von Jahrhunderten aus verschiedenen Varietäten der iberoromanischen Sprachen, insbesondere des Kastilischen, und unter dem Einfluss mehrerer Kontaktsprachen herausgebildet. Als jüdische Sprache weist Ladino Einflüsse des Hebräischen und Aramäischen auf, aber auch der Sprachen der Siedlungsgebiete der sephardischen Juden, Arabisch, Türkisch, Italienisch, Griechisch und Slawisch. Auch Entlehnungen aus dem Französischen, das in vielen Ländern des Mittelmeerraumes als Bildungssprache gelernt wurde, sind häufig.
Das Verhältnis zwischen Ladino und den Sepharden ist in kulturgeschichtlicher und soziolinguistischer Hinsicht vergleichbar mit demjenigen zwischen Jiddisch und den aschkenasischen Juden.
Die folgenden Ausführungen verwenden die heute in Israel übliche Sprachbezeichnung „Ladino“, die jedoch nicht unumstritten ist.
Die verschiedenen Sprachbezeichnungen
Die Bezeichnung der hier zu behandelnden Sprache ist nicht einheitlich. Welche Bezeichnung verwendet wird, ist zum Teil geografisch bedingt. Manche Forscher sehen im Fehlen eines einheitlichen Namens ein Indiz dafür, dass die Sprache kein hohes Ansehen genießt und „ihre Sprecher sie gewissermaßen […] als Jargon qualifizieren“.
Judäo-Spanisch, Judenspanisch, Jüdischspanisch, Djudeo-Espanyol
Für viele Sprachhistoriker ist Judäo-Spanisch, auch Judenspanisch, Jüdischspanisch oder Djudeo-Espanyol der angemessene Begriff zur Bezeichnung der Sprache, da dieses Wort auf Spanisch als ihre historische Grundlage ebenso wie auf die Juden als ihre Sprecher hinweist.
Ladino
Ladino wird häufig, insbesondere in Israel, als Bezeichnung für die Sprache der sephardischen Juden verwendet, bezeichnet jedoch in einem engeren Sinne nur das Verfahren der Interlinearübersetzung der hebräischen Bibel und des hebräischen Gebetbuches (Haggada und Siddur) in ein von den Juden der Iberischen Halbinsel gesprochenes Romanisch im Mittelalter. Ladino ist demnach eine künstlich geschaffene Schriftsprache, die erst im Prozess des Übersetzens aus dem Hebräischen ins Spanische entsteht, eine an das gesprochene Ladino angelehnte Hilfssprache, die die hebräische Bibellektüre erleichtern sollte, und keine Volkssprache, die in dieser Form je gesprochen worden ist.
Der Grund zur Anfertigung solcher Wort-für-Wort-Übersetzungen der hebräischen Bibel ist das im Deuteronomium (5. Buch Mose) formulierte Gebot, am Wortlaut des Bibeltextes, der als offenbart und damit göttlich galt, nichts zu verändern. Wenn also nicht der hebräische Text selbst gelesen wurde, sollte seine Übersetzung dem hebräischen Original möglichst nahe stehen und seine Besonderheiten in der Zielsprache deutlich machen. Man geht davon aus, dass Ladino im 13. Jahrhundert in Spanien geschaffen wurde, um Übersetzungen für die spanischen Juden anzufertigen, die das Hebräische nicht mehr verstanden. Ladino ist in Syntax und Wortwahl eng an den hebräischen Text angelehnt. Das Ziel war insbesondere, „den ungebildeten Leser über die Landessprache an die heilige Sprache heran[zu]führen und ihm eine Einsicht in die Struktur des Hebräischen [zu] vermitteln.“ Diese Art der Übersetzung setzte sich oft gegen die Regeln der spanischen Grammatik zugunsten der hebräischen hinweg. Ein berühmtes Werk dieses Genres ist die von Gracia Nasi in Auftrag gegebene und 1553 von Abraham Usque gedruckte Bibel von Ferrara. Im Laufe der Jahrhunderte beeinflusste das kontinuierliche Studium solcher Übersetzungen in einem gewissen Maße auch das gesprochene Ladino, verschmolz aber nie damit.
In der Linguistik wird für Sprachen wie Ladino die Bezeichnung Calque-Sprache („durchgepauste Sprache“) verwendet. Vom Hebräischen ausgehende Calque-Sprachen wurden unter anderem für das Griechische, Italienische, Arabische und Türkische geschaffen. Auch Bibelübersetzungen ins Deutsche wurden insbesondere im Zuge der jüdischen Aufklärung nach diesem Verfahren angefertigt.
Die Knesset, das israelische Parlament, präferiert die Bezeichnung Ladino. 1996 wurde dort die Gründung der Autoridad Nasional del Ladino i su Kultura beschlossen; primär gemeint ist aber nicht die Pflege des eigentlichen Ladino.
Ladino ist nicht mit dem Ladinischen der Alpenregion zu verwechseln. Beide sind jedoch romanische Sprachen und damit lateinischen Ursprungs. Das Wort Ladino geht auf das lateinische Wort latinus („latinisch“) zurück.
Djudezmo
Abgeleitet vom spanischen Wort judaísmo, war Djudezmo ursprünglich eine von den nichtjüdischen Nachbarn der Sepharden gebrauchte Bezeichnung der Gesamtheit jüdischer Sitten und Anschauungen, einschließlich ihrer Art zu reden. Inzwischen taucht Djudezmo auch in sprachwissenschaftlichen Schriften vor allem amerikanischer und jüdischer Forscher auf. Verbreitet war diese Bezeichnung der sephardischen Sprache in Bulgarien, Mazedonien sowie zum Teil in Griechenland und Rumänien. In der Türkei ist eine ähnliche Bezeichnung, djidió, verbreitet, die vom spanischen Wort judío (Jude, jüdisch) abgeleitet ist.
Espanyol oder Spaniolisch
Auch: Espanyolit, Spanyol, Spanyolit (wörtlich: Spanisch). Vor allem in der Türkei war diese Bezeichnung dort verbreitet, wo djidió kaum oder nicht gebräuchlich war. Der Begriff ist von dem Ladino-Wort espanyol abgeleitet. In der Form spanyol war er die meistgebrauchte Bezeichnung für Ladino in den jüdischen Gemeinden Palästinas. Die dortigen Juden sprachen vorwiegend Ladino und Arabisch, bevor die Einwanderung aus Mittel- und Osteuropa vorübergehend (bis zur Durchsetzung des Hebräischen) das Jiddische zum dominierenden Alltagsidiom der Juden in Palästina machte. Die auf -it endenden Formen sind die hebräischen Bezeichnungen und von espanyol bzw. spanyol abgeleitet.
Sephardisch
Auch: Sefaradí, Sefardí. Dieser auf das hebräische Wort für Iberien oder Spanien zurückgehende Terminus ist keine Bezeichnung der Sprache seitens der Sprecher selbst und wird in der Regel verwendet, um Sepharden und ihr Brauchtum (mitunter auch ihre Sprache) von dem anderer ethnischer Untergruppen des jüdischen Volkes zu unterscheiden, etwa von den Aschkenasen. Verallgemeinernd umfasst er manchmal auch die Misrachim, orientalische Juden, die nicht spanischen Ursprungs sind, deren Siedlungsräume sich jedoch mit denen der Sepharden überschnitten.
Haketia
Auch: Hakitiya, Haketía. Als Bezeichnung der Sprache der sephardischen Juden wurde der Terminus ausschließlich in Nordmarokko verwendet. Es handelt sich um einen eigenen Dialekt mit wesentlichen Unterschieden zum balkanischen Ladino. Daher ist Haketia kein Synonym der oben angeführten Bezeichnungen. Der Begriff ist von arabisch ḥakā (sprechen) bzw. ḥekāiat (Erzählung) abgeleitet.
Die Sprachwissenschaft nutzt bei der Einteilung der Ladino-Dialekte für Haketia auch die Bezeichnung westliches Judenspanisch.
Geschichte und Verbreitung
Juden auf der Iberischen Halbinsel vor ihrer Ausweisung 1492
Historiker gehen davon aus, dass sich Juden bereits im 1. Jahrhundert v. Chr. auf der Iberischen Halbinsel ansiedelten, vor allem in den Hafenstädten der Mittelmeerküste. Das älteste dokumentarische Zeugnis ist ein ins 2. Jahrhundert n. Chr. datierter jüdischer Grabstein. Aus schriftlichen Quellen ist bekannt, dass im 4. Jahrhundert der Anteil der jüdischen Bevölkerung auf der Iberischen Halbinsel beträchtlich gewesen sein soll. Wie die heidnische und christliche Bevölkerung wurde sie unter dem Einfluss der römischen Herrschaft romanisiert und begann die aus dem Latein entstehenden romanischen Volkssprachen zu sprechen. Dieser Prozess setzte sich nach der Expansion des Westgotenreiches auf die Iberische Halbinsel (nach 418) fort.
Nach der arabischen Eroberung im frühen 8. Jahrhundert setzte die Überformung der iberischen Kulturen durch die arabisch-islamische Kultur ein. Eine für das Judentum glanzvolle Zeit waren das 10. und 11. Jahrhundert unter dem Kalifat von Córdoba, das so genannte Goldene Zeitalter von Al-Andalus. Auf Arabisch und Hebräisch entwickelte sich ein umfangreiches jüdisch-spanisches Schrifttum (siehe Schmuel ha-Nagid, Moses ibn Esra, Solomon ibn Gabirol, Jehuda ha-Levi, Maimonides), während das Romanische als Schrift- und Kultursprache noch keine Rolle spielte.
Die Ankunft der Almoraviden (1086–1147), die die Konversion zum Islam erzwangen, bewirkte die Flucht vieler Juden, die sich daraufhin hauptsächlich in den nördlich gelegenen Königreichen Kastilien-León, Aragón und Navarra niederließen. Mitte des 13. Jahrhunderts befand sich der größte Teil der Iberischen Halbinsel außer dem Emirat von Granada nach fast einem halben Jahrtausend muslimischer Herrschaft unter der Herrschaft christlicher Fürsten. Diese räumten ihren jüdischen Untertanen und deren Gemeinden Privilegien ein, für die sie besondere Abgaben und Steuern verlangten. Als Blütezeit des Judentums in Kastilien und Aragón gilt namentlich die Regierungszeit von Alfonso X. und Jaume I.
Antijüdische Propaganda seit der zweiten Hälfte des 13. Jahrhunderts gipfelte im Jahr 1391 in Sevilla in Tätlichkeiten gegen die jüdische Gemeinde, die sich schnell über die Stadt hinaus ausbreiteten. In drei Monaten wurden etwa 50.000 der 300.000 Juden der Iberischen Halbinsel getötet, ganze Gemeinden vernichtet. Daraufhin ließen sich viele Juden taufen oder wurden zwangsgetauft. Die nunmehr meist nur noch in Landstädten bestehenden jüdischen Gemeinden verarmten.
Ausweisung der Juden aus Kastilien und Aragón (1492)
Am 31. März 1492 erließen die Katholischen Könige, Isabella von Kastilien und Ferdinand II. von Aragon, zum Abschluss der Reconquista, d. h. der über Jahrhunderte dauernden Eroberung der Iberischen Halbinsel von den muslimischen Herrschern, das Alhambra-Dekret. Es enthielt den Befehl zur vollständigen Ausweisung derjenigen Juden aus Kastilien, Leon und Aragon, die sich innerhalb von vier Monaten nicht taufen ließen. Wie viele Juden daraufhin das Land verließen, ist nicht genau zu beziffern; man schätzt ihre Zahl auf 90.000 bis 400.000.
Etliche der danach in Spanien verbliebenen, zum Christentum konvertierten Juden, die sogenannten Neuchristen oder Marranen, und ihre Nachfahren wurden später Opfer der Inquisition, da man ihnen nachwies oder unterstellte, heimlich am Judentum festzuhalten. Dies zog die Emigration zahlreicher Marranen nach sich, die danach in ihren neuen Heimatländern meist wieder den jüdischen Glauben annahmen (vor allem im 16. und 17. Jahrhundert).
Auch im Königreich Portugal nahmen die Repressalien gegenüber Untertanen jüdischer Herkunft zu. Im Frühjahr 1506 wurden mindestens 2.000 Neuchristen in Lissabon ermordet. Dies provozierte eine Flüchtlingswelle, die mit der 1539 in Kraft getretenen Inquisition weitere Neuchristen zur Emigration veranlasste; viele von ihnen waren vorher aufgrund des Alhambra-Dekrets von 1492 nach Portugal geflüchtet.
Ein Ziel vieler Auswanderer war das Osmanische Reich. Sultan Bayezid II., der über die Türkei, Griechenland, die Balkanländer, die Levante bis zu den heiligen Städten des Islams auf der Arabischen Halbinsel und Teile Nordafrikas (außer Marokko) herrschte, bot den Vertriebenen Asyl an, um die Entwicklung seines Reiches in Bereichen der Wissenschaft und Technik zu fördern. Bayezid soll gesagt haben: „Wie töricht sind die spanischen Könige, dass sie ihre besten Bürger ausweisen und ihren ärgsten Feinden überlassen.“ Die Neuankömmlinge waren dankbar und stellten ihr Können und Wissen gern in den Dienst der neuen Heimat.
Außerhalb des Osmanischen Reiches wandten sich die Flüchtlinge anfangs auch nach Portugal, zudem nach Marokko, Italien und vor allem nach Nordeuropa (Frankreich, England, Deutschland, Niederlande). Im Norden Marokkos waren die Sepharden zahlenmäßig in der Minderheit gegenüber der ansässigen arabisch- und berbersprachigen jüdischen Bevölkerung. Dennoch konnte sich dort Spanisch bzw. Ladino halten. Das marokkanische Ladino ist unter dem Namen Hakitía bekannt und lexikalisch stark arabisch beeinflusst. Die nach Italien geflüchteten Sepharden gaben ihre Sprache zugunsten des engverwandten Italienischen schnell auf. Ebenso passten sich die nach Nordeuropa Geflüchteten zügig an die jeweilige Landessprache an. In die Niederlande kamen vom 17. Jahrhundert an hauptsächlich Marranen, die wieder ihren ursprünglichen Glauben annahmen. Sie wurden oft als portugiesische Juden bezeichnet und verwendeten in ihren Gemeindeakten das Spanische und das Portugiesische; siehe auch Portugiesische Synagoge Amsterdams.
Das spanische Ausweisungsdekret von 1492 wurde im Jahr 1924 aufgehoben. Heute existieren wieder jüdische Gemeinden in Spanien. Ladino spielt dort jedoch keine Rolle mehr.
Ursprung des Ladino
Ob Juden bereits auf der Iberischen Halbinsel eine im umfassenden Sinne eigene Varietät ihrer romanischen Umgebungssprachen verwendeten, ist nicht bezeugt, doch darf es aufgrund der Existenz jüdischer Varietäten anderer Sprachen in anderen Ländern angenommen werden. Gewisse Abweichungen im Wortschatz weisen darauf hin. Demnach hätte es jüdisch-kastilische, jüdisch-aragonesische, jüdisch-katalanische und jüdisch-portugiesische Mundarten gegeben, die sich geringfügig von den Mundarten der christlichen und muslimischen Bevölkerung abhoben. „Der Tatsache, dass das Judenspanische des Osmanischen Reiches und das Haketía [in Marokko] z. T. gemeinsame Neuerungen haben [… und zudem in beiden Regionen] der gemeinsame Verlust einiger Wörter [feststellbar ist, …] ist bisher zu wenig Beachtung geschenkt worden“, betont der Romanist Gabinskij. Oft dienten zur Beschreibung des religiösen Lebens hebräische und aramäische Wörter, sodass sich mindestens in diesem Lebensbereich der jüdische Sprachgebrauch von dem der christlichen und muslimischen Bevölkerung unterschied. Auch die kommunale und juristische Selbstständigkeit der jüdischen Gemeinden dürfte der Ausbildung eines spezifisch jüdischen Vokabulars insbesondere in diesen Bereichen förderlich gewesen sein.
Beispiele sprachlicher Besonderheiten des Spanischen (eigentlich des Kastilischen) der Juden vor 1492:
Eigene Formen bzw. Arabismen zur Vermeidung christlich konnotierter Begriffe:
das Wort Dios (Gott), das durch das auslautende -s wie ein Plural klingt, wandelte sich im streng monotheistischen Sinne des Judentums zu Dio;
das Wort domingo (Sonntag) wurde wegen seines spezifisch christlichen Hintergrundes nicht verwendet; an seine Stelle trat alhad, das auf arabisch al-ahad (der Erste; der erste Wochentag) zurückgeht.
Hebraismen im ethischen Bereich:
mazal (Stern, Schicksalsstern, Schicksal);
kavod (Ehre, Herrlichkeit);
mamzer (Bastard).
Bedeutungswandel romanischer Wörter:
Das Verb meldar von lat. meletare (sich üben, etwas sorgfältig betreiben) bezog sich zunächst nur auf das Studium religiöser Texte; auf Ladino weitete sich die Bedeutung zu lesen, lernen.
Über die üblichen kastilischen Entlehnungen aus dem Arabischen hinausgehende arabische Lehnwörter:
adefina (begraben);
alarze (Zeder).
Wortbildung auf der Basis hebräischer Wörter mit spanischen Vor- und Nachsilben:
enheremar (mit dem Bann belegen) von hebr. herem (Bann).
Hebräische Pluralbildung einiger romanischer Wörter:
ladroním neben ladrones (Diebe).
Weitere romanische Wörter mit hebräischer Endung:
haraganud von span. haragán (Faulheit)
Das heutige Ladino bildete sich erst nach 1492, als die Verbindung der Exilanten zu ihren Ursprungsländern auf der Iberischen Halbinsel abriss. Nach der Vertreibung der Juden entwickelte sich das Jüdisch-Kastilische, die von den meisten sephardischen Juden gesprochene romanische Varietät, zu einer selbstständigen Sprache, die die anderen jüdisch-iberischen Varietäten aufsog. In der Sprachwissenschaft herrscht heute die Ansicht vor, dass es sich bei Ladino um eine selbstständige, d. h. nicht mehr spanische Fortsetzung der spanischen Sprache vom Ende des 15. Jahrhunderts handele. Sie weise eine größere Nähe zum mittelalterlichen Spanisch als das moderne Spanisch, das eine andere Entwicklung nahm, auf.
Verbreitung des Ladino
Schon vor der Ankunft der Sepharden im Osmanischen Reich lebten dort Juden, vor allem griechischsprachige Romanioten sowie einige Jiddisch sprechende Aschkenasen. In den arabischen Gebieten sprachen die Juden Arabisch. Die nun hinzukommenden Flüchtlinge sprachen verschiedene iberoromanische Varietäten, insbesondere Kastilisch, Katalanisch und Aragonesisch; später gelangten auch Portugiesisch sprechende Sepharden ins Osmanische Reich.
Eine politische Grundlage des Osmanischen Reiches war das Millet-System, d. h. die Bevölkerung lebte in eigenständigen überwiegend nach ihrer Konfession definierten Gemeinschaften, den Millet-Gemeinden. Der osmanische Staat verstand sich nicht als homogenisierend angelegter Nationalstaat, sondern als multiethnischer „Vielvölkerstaat“, der den Gemeinden den Schutz von Leben und Besitz sowie die freie Religionsausübung garantierte und ihnen eine selbstständige Gemeindeorganisation gestattete. Das Millet-System sorgte dafür, dass die Minderheiten ihre kulturellen und sprachlichen Besonderheiten bewahren konnten. Das galt für die jüdische Minderheit ebenso wie, bis zur Verbreitung des Nationalstaatsgedankens seit dem 19. Jahrhundert, für die christlichen Minderheiten (vgl. Griechische Revolution). Diese Abgrenzung und die dadurch geförderte Konzentration in einem eigenen sozialen Milieu mit eigenen kulturellen Institutionen führte bei den Sepharden zur kollektiven Identitätsbildung; ein starker sozialer Zusammenhalt sorgte für ein ungehindertes und freies Gemeindeleben, innerhalb dessen sich Bräuche, Traditionen, Sprache und Religion entfalten konnten.
Dass sich die Neuankömmlinge sprachlich vor allem in den Hauptzentren des Osmanischen Reiches, Konstantinopel (Istanbul) und Saloniki (Thessaloniki), gegenüber anderssprachigen jüdischen Gruppen durchsetzten, lag nicht nur an ihrer zahlenmäßigen, sondern auch an kultureller Überlegenheit. Die kastilischen Sepharden assimilierten die anderen Juden iberischen Ursprungs (Katalanen, Aragonesen, Portugiesen), und es entwickelte sich eine eigene, überwiegend kastilisch geprägte sephardische Koine, das Ladino. „So also stellt das Judenspanische die Fortsetzung der jüdischen Varietät des Spanischen vom Ende des 15. Jh. dar, die sich in der Folgezeit isoliert und getrennt von der Sprache Spaniens entwickelt.“ Zudem spielte die Sprache der Sepharden im 16. Jahrhundert eine wichtige Rolle als Kommunikationsmittel zwischen verschiedenen ethnischen Gruppen, insbesondere als Handelssprache im östlichen Mittelmeerraum. Darüber hinaus bewahrte Ladino im Allgemeinen seine Position nicht nur als Sprache des Alltags, sondern war auch Sprache des Unterrichts, der Literatur und Presse im 19. und 20. Jahrhundert, als das in Westeuropa entwickelte nationalstaatliche Gedankengut auf das Osmanische Reich einzuwirken begann und sich dort nationale Minderheiten bildeten. Ladino wurde in dieser Zeit gleichsam zur Nationalsprache der osmanischen Sepharden.
Dank der oben genannten Besonderheiten der osmanischen Minderheitenpolitik hatte sich Ladino vom 16. bis zum 19. Jahrhundert stabil gehalten. Auch die einträglichen wirtschaftlichen Bedingungen jüdischer Handwerker und Kaufleute haben dazu beigetragen, ebenso die Sephardisierung der Mehrheit der übrigen im Osmanischen Reich lebenden Juden, sodass innerhalb der jüdischen Bevölkerung des Reiches alsbald eine kulturelle Homogenität auf religiöser und sprachlicher Grundlage herrschte, die von der ungehinderten Verbindung zwischen den Gemeinden innerhalb eines großen Staatsgefüges gestützt wurde. Wesentliche Faktoren waren zudem der Gemeinschaftssinn der Sepharden, die Solidarität der Bewohner der jüdischen Viertel untereinander sowie deren beschränkte Kontakte zur Außenwelt mit einer Spezialisierung der jüdischen Bevölkerung auf wenige Erwerbszweige.
Rückgang des Ladino
Seit Beginn des 19. Jahrhunderts änderte sich die geistige, wirtschaftliche und politische Verfassung des Osmanischen Reiches und leitete den allmählichen Rückgang von Ladino ein. Wesentliche Faktoren waren die Industrialisierung und der damit einhergehende Niedergang auch des jüdischen Handwerks sowie das Entstehen einer neuen bürgerlichen Schicht, die sich nicht mehr primär ethnisch-religiös, sondern national (im Sinne der sie umgebenden Bevölkerungsmehrheit) definierte und ihr überkommenes kulturelles Erbe teilweise aufgab.
Insbesondere das Edikt von Gülhane aus dem Jahr 1839 bedeutete eine Wende für die osmanische Gesellschaft. Die Reformen (Tanzimat) beabsichtigten eine Modernisierung des Landes, als deren wichtigste Voraussetzung die Stärkung der Zentralmacht angesehen wurde. Frankreich als Muster eines zentralisierten Nationalstaats diente als Vorbild. Die Neuausrichtung veränderte nicht nur den Staatsaufbau, sondern auch die Bildungs- und Sprachenpolitik. Die Religionsgemeinschaften, die den verschiedenen Bevölkerungsgruppen bisher als Identifikationsstifter dienten, mussten hinter die zentralen Institutionen des Staates zurücktreten.
Einige Bevölkerungsgruppen entwickelten eigene nationale Konzepte, die zur Loslösung vom türkisch dominierten Osmanischen Reich führten, und bildeten eigene Staaten: Griechenland 1830 mit Ausnahme von Saloniki, das erst 1913 griechisch wurde; Serbien 1867; Bulgarien, Sarajevo, Rumänien 1878. Die Unabhängigkeit dieser Gebiete veränderte die Lebenswelt der Sepharden nachhaltig, denn nun gehörten die einst in einem großen Reich zusammengefassten Gemeinden verschiedenen Staaten an und waren mit deren Minderheitenpolitik konfrontiert. Die Grenzen zwischen den neuen Staaten bildeten zudem ein Hindernis für den freien Austausch von Wirtschaftsgütern und Ideen. Nach Einführung der allgemeinen Schulpflicht wurde der Unterricht in allen Ländern in der jeweiligen Nationalsprache verpflichtend.
Durch diese Entwicklungen, begleitet vom Rückgang traditioneller Lebensformen, wurde Ladino seit Beginn des 20. Jahrhunderts vielfach zugunsten der Mehrheitssprache (Türkisch, Griechisch, Bulgarisch, Serbokroatisch) aufgegeben. So gaben in den Volkszählungen in der Türkei 1935 und 1955 fast 72 % der befragten Juden Ladino als ihre Muttersprache an, wohingegen sich bei der Volkszählung von 1965 nur noch rund 32 % als Muttersprachler bezeichneten und 18 % Ladino als Zweitsprache nannten. Zudem hatte sich der Gebrauch von Ladino vom öffentlichen in den privaten Bereich zurückgezogen.
In Nordafrika vollzog sich seit dem Kontakt mit der spanischen Kolonialmacht ab 1860 eine rasche Angleichung von Ladino an das iberische Spanisch. Die als Haketia bezeichnete Varietät von Ladino, die seit dem 18. Jahrhundert eigene Wege gegangen war und sich von der südosteuropäischen Varietät von Ladino entfernte, verschwand schneller als Letztere am östlichen Mittelmeer, und die jüdische Bevölkerung des Maghrebs assimilierte sich an die Kolonialsprachen, insbesondere das Französische, sodass die Masseneinwanderung maghrebinischer Juden nach Israel nach 1948 keine Stärkung der dortigen ladinosprechenden Minderheit bewirkte, sondern für einige Jahrzehnte Französisch zu einer wichtigen Umgangssprache im Judenstaat machte.
Zum Verlust von Ladino trug insbesondere auch die deutsche Invasion im Zweiten Weltkrieg bei. In den besetzten Ländern wurde die jüdische Bevölkerung verfolgt und ermordet, vor allem in Griechenland und Jugoslawien. In Städten wie Saloniki, in denen zuvor die Mehrheit der Bewohner Ladino sprach, leben heute nur noch wenige Sepharden.
Alliance Israélite Universelle (AIU)
Einen wesentlichen Einfluss auf die Entwicklung von Ladino hatte die 1860 in Paris gegründete Alliance Israélite Universelle. Die Gründer der AIU, jüdische Intellektuelle, wollten die Emanzipation ihrer jüdischen Brüder und Schwestern gegenüber der muslimischen bzw. christlichen Bevölkerungsmehrheit fördern und sich für die Rechte der Juden weltweit einsetzen. Als wichtigstes Mittel für die Verbesserung ihrer wirtschaftlichen und gesellschaftspolitischen Stellung wurde eine moderne westliche Bildung angesehen. Aufgrund des großen Einflusses Frankreichs auf die osmanische Führungsschicht wurden dem Engagement der AIU kaum bürokratische Hindernisse entgegengestellt. 1910 waren bereits 116 Schulen der AIU im Osmanischen Reich und Marokko tätig. Von 1920 bis 1930 wurden sie jedoch in der Türkei, aber z. B. auch in Griechenland verstaatlicht.
Da in den Schulen der AIU die Verbreitung der französischen Sprache und Kultur eine wichtige Rolle spielte, fanden große Teiles des Unterrichts fast überall auf Französisch statt. Einerseits leistete die AIU damit einen erheblichen Beitrag zur Bildung der Sepharden, andererseits verdrängte sie Ladino in den familiären Bereich. Französisch war die Sprache der Gebildeten, Ladino wurde zum Jargon.
Amsterdam, Bordeaux, London, Emden und Altona: die nördliche Diaspora der Sepharden
Bemerkenswert ist, dass das Spanische und Portugiesische der in den Jahrhunderten nach 1492 (siehe Karte) von der Iberischen Halbinsel auswandernden Conversos keine wesentlichen Unterschiede zur jeweiligen Sprachform der Iberischen Halbinsel entwickelte. Der Übergang vom mittelalterlichen zur modernen Sprache hatte sich bereits vollzogen, sodass die typische Lautung des Djudeo-Espanyol, die es vom modernen Spanisch unterscheidet (Charakteristika von Ladino siehe unten), hier nicht feststellbar ist. Die Conversos brachten bereits das moderne Spanisch nach Nordeuropa mit. So sind auch die Schriften der sephardischen Gemeinde Amsterdams auf Spanisch (und Portugiesisch) abgefasst; siehe auch Jacob Emden.
Heutige Situation und drohender Sprachtod
Eine spanische Erhebung von 1922 bezifferte für Saloniki 80.000 Hispanophone, 24.000 für Belgrad, 30.000 für Bukarest, 10.000 für Kairo, 6.000 für Alexandria und 50.000 für Bulgarien, doch vermutlich seien diese Zahlen zu optimistisch angesetzt, schreibt Armin Hetzer 2001 in seinem Lehrbuch Sephardisch. Eine Schätzung von 1966 besagt, dass es weltweit 360.000 Sprecher von Ladino gebe, davon 300.000 in Israel, 20.000 in der Türkei, 15.000 in den USA und 5.000 in Griechenland. 2012 schätzt ein führender Forscher der Geschichte und Traditionen von Ladino, Michael Studemund-Halévy, in einem Interview mit der taz, dass es weltweit nur noch rund 25.000 Sprecher gebe. In der Türkei leben demzufolge 22.000 Sepharden, von denen aber nur 600 bis 800 Ladino sprechen. In Bulgarien seien von 3.000 Sepharden noch 250 bis 300 Sprecher von Ladino. In Serbien gebe es zwei Sprecher, in Slowenien, Bosnien-Herzegowina, Mazedonien und Griechenland nur noch wenige, dafür aber größere Sprechergruppen in Paris, London, den USA und Israel. Unter Berücksichtigung der Werte von 1966 dürfte sich die Sprecherzahl in Israel heute auf etwa 20.000 Personen belaufen. Studemund-Halévy vermutet, dass in der nächsten Generation Ladino nur noch Erinnerung sein werde. Daneben gibt es jedoch auch optimistischere Schätzungen; so ging J. Leclerc 2005 von ca. 110.000 Sprechern aus, von denen ca. 100.000 in Israel leben sollen.
Trotz des Rückgangs der Sprecherzahl gibt es Bemühungen, die jüdischspanische Kassel und Kultur lebendig zu halten. Erwähnenswert sind unter anderem zwei ausschließlich auf Ladino gehaltene Periodika: El Amaneser erscheint monatlich in Istanbul und wird vom Sentro De Investigasiones Sovre La Kultura Sefardi Otomana-Turka herausgegeben. Die Zeitschrift Aki Yerushalayim erschien zwischen 1980 und 2017 zweimal jährlich in gedruckter Form in Jerusalem, soll aber als Online-Ausgabe weiterexistieren. In New York bemüht sich die Foundation for the Advancement of Sephardic Studies and Culture, FASSAC, um die Kultur von Larino. Auch in Lateinamerika existieren sephardische Gemeinden. Besonders aktiv ist die Gemeinde in Buenos Aires, die monatlich eine Zeitschrift auf Spanisch und Ladino herausgibt. Im staatlichen israelischen Hörfunk gibt es eine wöchentlich einstündige Sendung auf Ladino.
Spezielle Programme zum Studium von Ladino bieten derzeit drei Universitäten in Israel an; außerdem gibt es – einmalig in Europa – u. a. einen Masterstudiengang in Paris, der das Studium der jüdischspanischen Sprache, Literatur und Kultur mit dem anderer jüdischer Gemeinschaften kombiniert, sowie Kurse an anderen Hochschulen (so in Marseille und Frankfurt am Main im Rahmen des Faches Hebräisch bzw. Judaistik, ferner in Hamburg, Tübingen und Basel im Rahmen der Romanistik und in Madrid und den USA).
Dialekte
Bedingt durch das ausgedehnte Verbreitungsgebiet haben sich verschiedene Dialekte entwickelt. Die Dialekte des Balkans (orientalisches Judenspanisch) sind vom Türkischen und Griechischen, die nordafrikanischen Dialekte (westliches Judenspanisch oder Haketia) vom Arabischen beeinflusst.
Orientalisches Judenspanisch
Das orientalische Judenspanische unterteilt sich in eine südliche und eine nördliche Varietät, die nördliche wiederum in eine nordwestliche (ehemaliges Jugoslawien) und eine nordöstliche (Rumänien und Bulgarien außer dem Küstenstreifen). Die südliche Gruppe umfasst den südlichen Balkan einschließlich Saloniki und Istanbul sowie die ganze Türkei und das östliche Bulgarien. Saloniki bildet mit seinem Hinterland eine gesonderte Dialektzone.
Westliches Judenspanisch (Haketia)
Das westliche Judenspanisch wurde vor allem auf lexikalischer Ebene vom Arabischen beeinflusst. Im Wortschatz finden sich die größten Unterschiede zum orientalischen Judenspanisch. Kaum Einfluss hatte das Arabische auf die grammatischen Strukturen.
Grundsätzlich stand das westliche Judenspanisch der spanischen Standardsprache näher, da Spanier in verschiedenen Städten an der Küste Nordafrikas lebten (Ceuta, Melilla, Oran, Tanger, Asilah, Larache) und Spanien 1860 den Norden Marokkos eroberte und fortan als Kolonie verwaltete. Vor allem Letzteres beeinflusste den Status des Judenspanischen in diesem Gebiet. Je höher eine Person auf der sozialen Leiter stieg, desto weniger nutzte sie typisch judenspanische Ausdrücke; die Arabismen wurden sogar fast ganz aufgegeben. Vor allem junge Menschen sprachen nur noch in der Familie oder der Gemeinde Hakitía. So näherte sich das Judenspanische Marokkos sukzessive dem Standardspanischen an.
Das Ansehen der Hakitía begann sich erst in den 1980er Jahren in Israel zu verändern. Dadurch, dass nun auch die kulturelle und ethnische Vielfalt des jüdischen Volkes als bereichernd erkannt wurde, wurde Hakitía erstmals wieder als autonome Sprache und wertvolles Kulturgut begriffen.
Ladino als Schriftsprache
Ursprünglich wurde Ladino mit hebräischen Buchstaben geschrieben. Als Druckbuchstaben dienten dabei sowohl die Buchstaben der sogenannten Raschi-Schrift als auch die der traditionellen Quadratschrift. Der Raschidruck erschien immer ohne Vokalmarkierungen, die Quadratschrift diente hauptsächlich dem Druck von Überschriften und religiösen Texten und war mit masoretischen Vokalzeichen versehen. Diese beiden Schreibformen wurden hauptsächlich in den großen Verlagsorten Saloniki und Konstantinopel verwendet, während die Mehrheit der sephardischen marokkanischen Literatur in der handschriftlichen Variante der Raschi-Schrift, dem solitreo- oder soletero-Stil (auch letra de carta, letras españolas oder Judezmo) erschien, da es dort an Verlegern für Ladino-Literatur mangelte. Bereits im 16. Jahrhundert gab es einige mit lateinischen Buchstaben gedruckte Texte.
Bücher und Zeitschriften, gedruckt in Raschi-Schrift, wurden in den verschiedenen Regionen des Osmanischen Reiches problemlos gelesen und verstanden, trotz verschiedener regionaler Umgangssprachen des Ladino.
Die Modernisierung und gesellschaftlichen Umbrüche im Osmanischen Reich beeinflussten auch das Leben der sephardischen Juden. Der Wunsch, sich an die moderne Gesellschaft anzupassen, förderte die Auseinandersetzung mit der jüdisch-spanischen Kultur. In diesem Zusammenhang diskutierte man in den Zeitungen ab Ende des 19. Jahrhunderts auch über Ladino. Die Schreibung entwickelte sich zu einem zentralen Thema in den Debatten der sephardischen Intellektuellen, befördert durch die AIU und durch die nach der Gründung der Republik Türkei (1923) von Kemal Atatürk durchgesetzte Schreibung des Türkischen in lateinischen Buchstaben. Hintergrund der Diskussion waren zudem das geringe Ansehen des Ladino, das Fehlen einheitlicher linguistischer Normen sowie der Fakt, dass Ladino eine romanische Sprache war, was die Verwendung der lateinischen Schrift nahelegt. Luzero de la Paciencia von Turnu Severin, in Rumänien, war die erste ladinosprachige Zeitung, die ab 1887 lateinische Schriftzeichen verwendete. Die Zeitschrift Şalom wurde gleich von Beginn an (1947) in lateinischen Lettern gedruckt.
Ziel der Debatte war es, eine Orthographie mit lateinischen Buchstaben zu entwickeln, die der Phonetik von Ladino Rechnung trug. Redakteure verschiedener Zeitungen erarbeiteten neue Grafien, die nebeneinander bestanden und zum Teil heute noch bestehen. Die bekanntesten sind die der Zeitschriften Aki Yerushalayim (Israel) und Şalom (Türkei), die Grafie nach dem Dictionnaire du judéo-espagnol von Joseph Nehama (Madrid 1977) und die französisch orientierte Grafie der Association Vidas Largas (Frankreich). Da lange Zeit keine einheitlichen, stabilen Normen bestanden, da keine Sprachakademie feste Regeln aufstellte, existieren bis heute verschiedene orthografische Systeme, die sich meist an den Umgebungssprachen orientieren. So schreibt man das Wort noche je nach Ort und Medium noche (Aki Yerushalayim), notche (Vidas Largas) oder noçe (Şalom).
Nach 1992 habe es „acht Jahre gebraucht, bis sich die Sepharden nach heißen Diskussionen auf eine annähernd einheitliche und vor allem systematische Schreibung ihrer Sprache geeinigt haben, indem sie sich dem Vorbild der von Moshe Shaul herausgegebenen Zeitschrift Aki Yerushalayim anschlossen“, stellen Busse/Kohring 2011 fest. „Es gibt noch keine normgebenden Instanzen, aber die Absicht ist schon auf dem besten Wege der Realisierung.“
Charakteristika des Ladino
Ladino ist eine iberoromanische Sprache und mit dem Spanischen so nah verwandt, dass in der Regel eine gegenseitige Verständigung leicht möglich ist. Syntax, Phonologie, Morphologie und Lexik basieren in vielerlei Aspekten noch auf dem Spanisch des späten 15. und frühen 16. Jahrhunderts. Hinzu kommen eigene Innovationen und eine Vielzahl an Elementen und Lehnwörtern aus den Umgebungssprachen. Die Differenzierung des Judäo-Spanischen gegenüber dem Spanischen war etwa ab Beginn des 17. Jahrhunderts erkennbar.
Ladino wird in der Regel ohne Akzente geschrieben. Dies betrifft vor allem die Schreibung nach Aki Yerushalayim. Ausnahmen werden sporadisch in Fällen gemacht, wo man die Stelle der Betonung auf eine andere Silbe zu verlegen geneigt sein könnte.
Auch die folgende Beschreibung der Sprachmerkmale bezieht sich auf die Grafie der Zeitschrift Aki Yerushalayim.
Alphabet (Aki Yerushalayim)
Phonetik
Die Vokale sind wie im Spanischen a, e, i, o, u. Unterschiede zum heutigen Spanisch fallen besonders in der Diphthongierung auf.
jsp. pueder – span. poder 'können'
jsp. buendad – span. bondad 'Güte'
jsp. adientro – span. adentro 'innen, hinein'
jsp. vierbo – span. verbo 'Verb'
jsp. kero – span. quiero 'ich möchte'
jsp. penso – span. pienso 'ich denke'.
Im Konsonantensystem ist auffällig, dass Ladino nicht die kastilische Desonorisierung, durchmachte, welche erst nach der Ausweisung der sephardischen Juden gegen Ende des 16. Jahrhunderts in Spanien stattfand. So behielten Wörter wie abajo, mujer oder gente, die im heutigen Spanisch mit dem velaren [x] ausgesprochen werden, auf Ladino die altspanische palatale Aussprache von [ʃ], [ʒ] und [dʒ] bei. Auf Ladino wird der Laut [ʃ] normalerweise mit -sh- geschrieben:
jsp. abasho – span. abajo 'unten'
jsp. deshar – span. dejar 'lassen'
jsp. pasharo – span. pájaro 'Vogel'
jsp. bushkar – span. buscar 'suchen'.
Ein Relikt aus dem Altspanischen ist das anlautende f- wie in fierro (span. hierro 'Eisen' oder ferir (span. herir 'verletzen, beschädigen')), jedoch ist diese Bewahrung nicht allgemein Ladino, sondern regional begrenzt. Ebenfalls bewahrt blieb die Opposition /b/ (okklusiv) und /v/ (frikativ, Realisierung regional unterschiedlich [v] oder [β]), die im Neuspanischen homophon sind.
Neuerungen im phonetischen Bereich von Ladino sind folgende:
Übergang von nue- zu mue-: jsp. muevo – span. nuevo 'neu'; jsp. muez – span. nuez 'Nuss'
Übergang von sue- zu eshue-, esfue-: jsp. es.huenyo – span. sueño 'Traum, Schlaf'
Übergang von -iu- zu -iv-: jsp. sivdad – span. ciudad 'Stadt'; jsp. bivda – span. viuda 'Witwe'
Yeísmo: jsp. yamar – span. llamar 'rufen'; jsp. maraviya – span. maravilla 'das Herrliche'
Wegfall von [j] nach -i- oder -e-: jsp. amario – span. amarillo 'gelb'; jsp. akeo – span. aquello 'jenes'
Metathese -rd- zu -dr-: jsp. vedre – span. verde 'grün'; jsp. tadre – span. tarde 'spät'.
Morphologie
Die Morphologie von Ladino stimmt mit dem heutigen Standardspanisch größtenteils überein. Einige wesentliche Unterschiede sind:
anderes Genus einiger Substantive: jsp. la azeta – span. el aceite 'das Öl'; jsp. la onor – span. el honor 'die Ehre'; jsp. la tema – span. el tema 'das Thema'; jsp. la idioma – span. el idioma 'die Sprache'
Genusmarkierung der Substantive – -o, -a statt -e: jsp. la klasa – span. la clase 'die Klasse'; jsp. la fraza – span. la frase 'der Satz'; jsp. la katastrofa – span. la catástrofe 'die Katastrophe'; jsp. el atako – span. el ataque 'der Angriff'
Adjektive erhalten meist eine Genusmarkierung im Feminin: una situasion paradoksala, la revista kulturala
das Perfekt (span. preterito perfecto) existiert auf Ladino nicht
die zusammengesetzte Vergangenheit (pasado kompozado) wird mit tener als Hilfsverb gebildet
im Präteritum (pasado semple) ist die 1. Ps.Sg.+Pl. der Verben der a-Konjugation auf -i, -imos: (f)avlar, (f)avli, (f)avlimos (span. hablar, hablé, hablamos).
Beispiele der regelmäßigen Verbkonjugation:
Präsens:
Präteritum:
Syntax
Grundsätzlich entspricht die Syntax von Ladino der spanischen, also der SVO-Wortstellung, Pronomina und Numeralia stehen vor dem Beziehungswort, Adjektive und Genitivattribute stehen nach dem Beziehungswort.
Typischste Innovation von Laino sind die balkanischen Konstruktionen mit dem Konjunktiv anstatt mit dem Infinitiv:
jsp. Ke ke aga? – span. ¿Qué quiere(s) que haga? 'Was soll ich tun?', jsp. kale ke aga – span. tengo que hacer 'ich muss tun'.
Lexik
Ein bedeutender Teil aus dem Grundwortschatz des Spanischen des 15. Jahrhunderts, der sich auch in Spanien bis heute gut erhalten hat, wurde bewahrt. Dadurch ist eine Kommunikation zwischen Sprechern beider Sprachen recht problemlos möglich. Dabei ist für Spanisch Sprechende das Verstehen einfacher, da im Judenspanischen oft bloß ein oder zwei aus einer größeren Anzahl von Synonymen erhalten sind.
span. nunca und jamás 'nie' – jsp. nur nunka
span. empezar, comenzar und principiar 'anfangen' – jsp. nur empesar und prisipiar
Es gibt etliche Wörter auf Ladino, die sich in ihrer Bedeutung stark von der modernen spanischen Sprache unterscheiden:
atravesar jsp. 'sich übergeben' – span. 'etwas durchmessen, durchqueren'
boda jsp. 'Feiertag' – span. 'Hochzeit'
sakudir jsp. 'reinigen' – span. sacudir 'durchrütteln, schütteln'.
Andererseits sind bei zahlreichen Wörtern Bedeutungen aus dem Altspanischen erhalten geblieben, die die moderne spanische Sprache nicht mehr kennt:
afeitar jsp. 'in Ordnung bringen' – span. 'rasieren'.
Noch zahlreicher sind die Wörter, die nicht nur der Bedeutung, sondern auch der Form nach aus dem Altspanischen erhalten blieben:
jsp. agora – span. ahora 'nun'
jsp. estonses – span. entonces 'dann'
jsp. solombra – span. sombra 'Schatten'.
Innovationen, die typische Elemente des Spanischen nutzen, finden sich im Bereich der Wortbildung:
Ableitungen auf -edad: jsp. derechedad, djustedad – span. justicia 'Gerechtigkeit'; jsp. provedad – span. pobreza 'Armut'
Ableitungen auf -és: jsp. chikés – span. infancia, niñez 'Kindheit'; jsp. muchachés – span. juventud 'Jugend'.
Auffällig ist, dass Ladino nur wenige Arabismen aus der hispanischen Zeit bewahrte. Zudem wurden ganze Teile des Wortschatzes aufgegeben (besonders im Bereich Fauna und Flora) und neue geschaffen, wie beispielsweise die Vogelbezeichnungen. Die allgemeinen Begriffe ave und pasharó (span. ave 'Vogel, Geflügel'; pájaro 'Vogel, Vögelchen') wurden beibehalten, die übrigen Vogelnamen entlehnt:
jsp. bilbiliko – span. ruiseñor – türk. bülbül 'Nachtigal'.
Daneben weist Ladino viele Wörter aus dem Hebräischen auf, die häufig einen Bezug zur Religion haben. Durch den Sprachkontakt mit den Umgebungssprachen finden sich lexikalische Einflüsse des Türkischen sowie in geringerem Maße des Italienischen; Einflüsse des Französischen sind auf die Rolle der AIU zurückzuführen. Griechische, slawische sowie rumänische Einflüsse waren meist auf das regionale Gebiet beschränkt. Auch die portugiesischsprachigen Sepharden, die sich nach ihrer Vertreibung aus Portugal im östlichen Mittelmeerraum niederließen, beeinflussten die Lexik von Ladino.
Hebraismen: ganéden 'Paradies, Garten Eden'; sedaká 'Almosen, Wohltätigkeit'
Turkismen: adjidearse de 'Mitleid haben mit'; djomerto 'großzügig'
Gallizismen: banker 'Bankier'; matmazel ~ madmuazel 'Mademoiselle'; regretar 'bedauern'
Italianismen: adío 'adieu, tschüss'; lavoro 'Arbeit'; nona 'Großmutter'.
Lusitanismen: chapeo 'Hut'; kalmo 'ruhig'; malfadado 'Missgeschick'
Textbeispiel
„LAS KONSEJAS I LOS KUENTOS POPULARES DJUDEO-ESPANYOLES“
„Ke azian muestros padres en los tiempos ke no avia ni radio ni televizion i ke el uzo de los sefaradis era de pasar la noche adientro de kaza, kon la famiya o kon los vizinos? Uno de los divertimientos los mas populares de akeyos tiempos era el de sintir las narasiones de kuentos i konsejas. Sovre todo en las largas noches de invierno, kuando eskuresia bien presto i toda la famiya estava en kaza, arekojida al deredor del ‚tandur‘, del brazero, ke plazer era de eskuchar los kuentos i las konsejas sovre las fantastikas aventuras de prinsipes o kavayeros barraganes, o de mansevos proves ma intelijentes i korajozos, ke kombatiendo kontra dragos i leones, o kontra ichizeras i reyes krueles, riushian siempre a salvar a sus keridos i a yegar a porto a salvo, malgrado todas las difikultades i todos los peligros ke los enfrentavan.“
Hörbeispiele
Die folgenden Hörbeispiele von Ladino sind von der Internetseite der Ladinokomunita.
Hörbeispiel 1 (MP3-Datei; 390 kB)
Hörbeispiel 2 (MP3-Datei; 364 kB)
Sprachvergleich Ladino – Spanisch
Ladino
El djudeo-espanyol, ladino o djudezmo es la lingua favlada por los sefardim, djudios arrondjados de la Espanya enel 1492. Es una lingua derivada del Ladino i favlada por 25.000 personas en komunitas en Israel, la Turkiya, antika Yugoslavia, la Gresia, el Marokko, Mayorka i las Amerikas, entre munchos otros.
Spanisch
El judeo-español, ladino o djudezmo es la lengua hablada por los sefardíes, judíos expulsados de España en 1492. Es una lengua derivada del castellano y hablada por 25.000 personas en comunidades en Israel, Turquía, la antigua Yugoslavia, Grecia, Marruecos, Mallorca y las Américas, entre muchos otros.
Deutsch
Judäo-Spanisch, Ladino oder Djudezmo ist die gesprochene Sprache der Sepharden, Juden, die 1492 aus Spanien ausgewiesen wurden. Es ist eine vom Spanischen abgeleitete Sprache und wird von 25.000 Personen in Gemeinschaften gesprochen, unter anderem in Israel, in der Türkei, im ehemaligen Jugoslawien, in Griechenland, in Marokko, auf Mallorca, in Amerika.
Siehe auch
Sephardische Musik
Literatur
Johannes Kramer: Judenspanisch in Israel. In: Sandra Herling, Carolin Patzelt (Hrsg.): Weltsprache Spanisch. ibidem-Verlag, Stuttgart 2013, ISBN 978-3-89821-972-3, S. 291–310.
Tamar Alexander: El klavo de Djoha 'El Kantoniko de Haketia' en la revista Aki Yerushalayim. In: Pablo Martín Asuero/Karen Gerson Şarhon: Ayer y hoy de la prensa en judeoespañol. Actas del simposio organizado por el Instituto Cervantes de Estambul en colaboración con el Sentro de Investigasiones Sovre la Cultura Sefardi Otomana Turka los días 29 y 30 de abril de 2006. Editorial Isis, Istanbul 2007, S. 97–105.
Anonym (o. A.): Las konsejas i los kuentos populares djudeo-espanyoles. , abgerufen am 3. Oktober 2012.
Stefan Barme: Syntaktische Gallizismen im modernen südosteuropäischen Judenspanisch. In: Winfried Busse (Hrsg.): Judenspanisch VIII. Neue Romania 31. Institut für romanische Philologie, Berlin 2004, S. 73–91.
Annette Bitzer: Juden im mittelalterlichen Hispanien. Geschichte, kulturelle Leistung, Sprache. In: Winfried Busse (Hrsg.): Judenspanisch III. Neue Romania 21. Institut für romanische Philologie, Berlin 1998, S. 7–150.
Studemund-Halévy, Michael (2014): La Boz de Bulgaria. Barcelona.
Studemund-Halévy, Michael et al. (2013): Sefarad an der Donau. Barcelona.
Bossong, Georg (2008): Die Sepharden. Geschichte und Kultur der spanischen Juden. Hamburg: Beck.
Winfried Busse (1991): Zur Problematik des Judenspanischen. In: Busse, Winfried (Hrsg.): Judenspanisch I. Neue Romania 12. Berlin: Institut für romanische Philologie, S. 37–84.
Busse, Winfried (1999): Die Sprache(n) der Sepharden: Ladino, Ladino. In: Rehrmann, Norbert / Koechert, Andreas (Hrsg.): Spanien und die Sepharden. Geschichte, Kultur, Literatur. Romania Judaica Band 3. Tübingen: Max Niemeyer, S. 133–143.
Busse, Winfried (2003): Judeo-Spanish writing systems in Roman letters and the normalization of orthography. In: Busse, Winfried (Hrsg.): Judenspanisch VII. Neue Romania 28. Berlin: Institut für romanische Philologie, S. 105–128.
Busse, Winfried (2011): Kurzcharakteristik des Judenspanischen. In: Busse, Winfried (Hrsg.): Judenspanisch XIII. Neue Romania 40. Berlin: Institut für romanische Philologie, S. 171–196.
Busse, Winfried / Kohring, Heinrich (2011): Vorwort zu/in Gabinskij, Mark A.: Die sefardische Sprache. Tübingen: Stauffenberg, S. 7–9.
Busse, Winfried / Studemund-Halévy, Michael (Hrsg.) (2011): Lexicologia y lexicografía judeoespañolas. Peter Lang, Bern
Diaz-Mas, Paloma (1992): Sephardim. The jews from Spain. Chicago: University of Chicago Press.
Fintz Altabé, David (2003): Reflexiones sobre la grafía del judeo-español. In: Busse, Winfried (Hrsg.): Judenspanisch VII. Neue Romania 28. Berlin: Institut für romanische Philologie, S. 59–85.
Gabinskij, Mark A. (2011): Die sefardische Sprache. Tübingen: Stauffenberg.
Christoph Gabriel, Susann Fischer und Elena Kireva: Judenspanisch in Bulgarien: Eine Diasporasprache zwischen Archaismus und Innovation. In: Doerte Bischoff, Christoph Gabriel, Esther Kilchmann (Hrsg.): Sprache(n) im Exil. (Jahrbuch Exilforschung 32) Edition Text + Kritik, München, S. 150–167
Gerson Sarhon, Karen (2004): Judeo-Spanish: Where we are, and where we are going. , abgerufen am 18. März 2013.
Hetzer, Armin (2001): Sephardisch: Einführung in die Umgangssprache der südosteuropäischen Juden. Wiesbaden: Harrassowitz.
Kramer, Johannes / Kowallik, Sabine (1994): Einführung in die hebräische Schrift. Hamburg: Buske.
Kowallik, Sabine (1998): Beiträge zum Ladino und seiner Orthographiegeschichte. Tübingen: Buske.
Liebl, Christian (2007): Early recordings of Judeo-Spanish in the Phonogrammarchiv of the Austrian Academy of Sciences. In: Busse, Winfried (Hrsg.): Judenspanisch XI. Neue Romania 37. Berlin: Institut für romanische Philologie, S. 7–26.
Overbeck de Sumi, Ruth (2005): Urtext und Übersetzung der Hebräischen Bibel im sefardischen Judentum. Eine sprachliche Analyse von Ladinoversionen zum Buch Ruth. In: Busse, Winfried (Hrsg.): Judenspanisch IX. Neue Romania 34. Berlin: Institut für romanische Philologie, S. 109–216.
Platikanova, Slava (2011): Jacques Loria. Dreyfus I. In: Busse, Winfried (Hrsg.): Judenspanisch XIII. Neue Romania 40. Berlin: Institut für romanische Philologie, S. 109–133.
Esther Sarah Rosenkranz: Die soziolinguistische Entwicklung des Sephardischen in der Diaspora – unter besonderer Berücksichtigung der Entwicklung in Israel. Diplomarbeit, Universität Wien, Wien 2010
Quintana Rodríguez, Aldina (2004): El sustrato y el adstrato portugueses en judeo-español. In: Busse, Winfried (Hrsg.): Judenspanisch VIII. Neue Romania 31. Berlin: Institut für romanische Philologie, S. 167–192.
Quintana Rodríguez, Aldina (2006): Sephardica. Geografía Lingüística del Judeoespañol. Peter Lang, Bern.
Şahin Reis, Seminur (2005): Die Sepharden im Osmanischen Reich und in der Türkei seit 1839. In: Busse, Winfried (Hrsg.): Judenspanisch IX. Neue Romania 33. Berlin: Institut für romanische Philologie, S. 217–259.
Socolovsky, Jerome (2007): Lost Language of Ladino Revived in Spain. , abgerufen am 21. Februar 2013.
Studemund-Halévy, Michael (2012): Eine sagenhafte Welt. , abgerufen am 27. September 2012.
Zeitschrift Transversal, Heft 2, Jg. 13: Schwerpunkt Sefarad in Österreich-Ungarn. Zeitschrift des Centrums für jüdische Studien, Universität Graz. Studienverlag, Innsbruck 2012 (drei Artikel zur Sefarad in Sarajevo, in Bosnien, über Baruch Mitrani in Wien und auf dem Balkan, S. 9–80).
Varol, Marie-Christine (2003): Normalización gráfica del judeoespañol: ¿Por qué? y ¿Para quién? In: Busse, Winfried (Hrsg.): Judenspanisch VII. Neue Romania 28. Berlin: Institut für romanische Philologie, S. 87–104.
Varol, Marie-Christine (2008): Manual of Judeo-Spanish. Language and Culture. Bethesda: University Press of Maryland.
Weblinks
Jewisch Language Research
Phonogrammarchiv in Wien, Österreich
Ladinokomunita
Ottoman-Turkish Sephardic Culture Research Center
Die sephardische Sängerin Yasmin Levy
Ladinokomunita.
Zeitungen und Zeitschriften:
Aki Yerushalayim: in Israel erscheinende Kultur-Zeitschrift auf Judenspanisch
Şalom: in Istanbul, Türkei, erscheinende Zeitung der sephardischen Juden mit Artikeln auch auf Judenspanisch
El Amaneser: monatlich erscheinende judenspanische Beilage der Zeitung Şalom, herausgegeben vom Ottoman-Turkish Sephardic Culture Research Center
Sefaraires: monatlich erscheinende, unabhängige Publikation der sephardischen Gemeinde in Buenos Aires, Argentinien
Einzelnachweise
Ladino
Ladino
Sephardisches Judentum
Spanische Sprache
Ladino
|
Q36196
| 372.531793 |
8467
|
https://de.wikipedia.org/wiki/Hanoi
|
Hanoi
|
Hanoi (dt. Aussprache [, auch ], [], Hán tự 河內, wörtlich: Stadt zwischen den Flüssen) ist die Hauptstadt und nach Ho-Chi-Minh-Stadt die zweitgrößte Stadt Vietnams. Nach der Neugliederung der Verwaltungsgrenzen im Jahr 2008, bei der die gesamte Provinz Hà Tây und Teile weiterer Provinzen Hanoi zugeschlagen wurden, wies die Stadt Ende 2019 rund 8,05 Mio. Einwohner auf.
Hanoi war der einzige Ort im asiatisch-pazifischen Raum, dem am 16. Juli 1999 von der UNESCO der Titel „Stadt des Friedens“ verliehen wurde, in Anerkennung seiner Beiträge zum Kampf für den Frieden, seiner Bemühungen zur Förderung der Gleichberechtigung in der Gemeinschaft, zum Schutz der Umwelt und zur Förderung der Kultur und Bildung und Betreuung für jüngere Generationen. Hanoi ist am 31. Oktober 2019 anlässlich des Weltstädtetags als Design City dem Network of Creative Cities der UNESCO beigetreten. Die Stadt war auch Gastgeber zahlreicher internationaler Veranstaltungen, darunter APEC Vietnam 2006, 132. Versammlung der Interparlamentarischen Union (IPU-132), das Gipfeltreffen in Hanoi 2019 zwischen Nordkorea und den Vereinigten Staaten sowie die Südostasienspiele 2003 und 2021 und die Asien-Hallenspiele 2009.
Geschichte
Hanoi ist die älteste der bestehenden Hauptstädte Südostasiens. Belegt ist sie in ihrem Gründungsjahr 1010 als Zitadelle Thăng Long.
Bereits seit der Bronzezeit besiedelt war die nur wenige Kilometer nördlich des heutigen Stadtzentrums gelegene Zitadelle von Cổ Loa, aus der viele Relikte aus der Dong-Son-Kultur bis ins siebte vorchristliche Jahrhundert hinein nachweisbar sind. Sie wurde 257 v. Chr. von Thục Phán zur Hauptstadt des von ihm gegründeten frühvietnamesischen Königreichs Âu Lạc bestimmt.
Im Jahre 866 errichtete die chinesische Tang-Dynastie zur Konsolidierung ihrer Besatzung am Westufer des Roten Flusses eine Zitadelle namens Đại La, die König Lý Thái Tổ, der Begründer der Lý-Dynastie, im Jahre 1010 zu seiner Residenzstadt auserwählte und „Thăng Long“ (Hán tự: 昇龍, „aufsteigender Drache“) nannte.
Zahlreiche Sagen und Legenden umranken Hanois Geschichte.
Im Laufe der Jahrhunderte wurde Hanoi wiederholt von Invasoren erobert, verlor dabei auch seinen Status als Hauptstadt und wurde mehrfach umbenannt.
Während der Ho-Dynastie (1400–1407) trug die Stadt den Namen Đông Đô (östliche Hauptstadt), während der Besetzung durch die chinesische Ming-Dynastie hieß sie Đông Quan (östliches Tor). Die Le-Könige benannten sie 1430 wieder in Đông Kinh (östliche Hauptstadt) um; als die Niederländische Ostindien-Kompanie im 17. Jahrhundert hier eine Handelsniederlassung einrichtete, gelangte dieser Name als Tongking ins europäische Schrifttum.
Während der Nguyen-Dynastie (1802–1945) verlor Hanoi seinen Status als Hauptstadt und musste diesen an Huế abtreten, blieb jedoch administratives Zentrum des Nordens.
Da der Drache als Symbol der kaiserlichen Macht der Hauptstadt Huế vorbehalten bleiben sollte, wurde die Stadt abermals umbenannt. Der Nguyen-Kaiser Minh Mạng (1820–1841) gab ihr 1831 ihren heutigen Namen Hà Nội (Hán Nôm: 河内) – die „Stadt innerhalb der Flüsse“, der nichts weiter als eine geografische Lage bezeichnet.
1873 wurde Hanoi von den Franzosen erobert. Von 1883 bis 1945 war die Stadt Verwaltungszentrum der Kolonie Französisch-Indochina. Die Franzosen errichteten südlich von Alt-Hanoi eine moderne Verwaltungsstadt, legten breite, rechtwinklig zueinander liegende, baumgesäumte Alleen mit Oper, Kirchen, öffentlichen Bauten und Luxusvillen an, zerstörten aber auch große Teile der Stadt, schütteten Seen und Kanäle zu oder verkleinerten diese; Kaiserpaläste und Zitadelle mussten ebenfalls weichen.
Von 1940 bis 1945 war Hanoi, wie auch der größte Teil von Französisch-Indochina und Südostasien, japanisch besetzt. Am 2. September 1945 rief Ho Chi Minh hier die Demokratische Republik Vietnam (Nordvietnam) aus. Die vietnamesische Nationalversammlung beschloss am 6. Januar 1946, Hanoi zur Hauptstadt der Demokratischen Republik Vietnam zu machen.
Zwischen 1946 und 1954 war die Stadt Schauplatz heftiger Kämpfe zwischen Franzosen und den Việt Minh (Indochinakrieg). Während des Vietnamkrieges wurde Hanoi von den Amerikanern bombardiert; die ersten Bombenangriffe erfolgten 1966, die letzten Ende 1972. Allein zum Weihnachtsfest 1972 trafen 40.000 t Sprengstoff die Stadt und zerstörten sie zu 25 Prozent.
Als nach dem Ende des Krieges Nord- und Südvietnam wieder vereinigt wurden, wurde Hanoi am 2. Juli 1976 zur Hauptstadt von ganz Vietnam.
Geografie
Die Stadt liegt am fruchtbaren Delta des Roten Flusses (Sông Hồng), etwa 100 km von dessen Mündung in den Golf von Tonkin entfernt.
Klima
Das Klima ist subtropisch-monsunal mit feucht-heißen Sommern und mild-trockenen Wintern. Die Jahresniederschlagsmenge beträgt 1.682 mm; acht Monate sind humid, vier arid.
Politik
Verwaltung
Hanoi ist direkt der Zentralregierung unterstellt und verwaltungstechnisch einer Provinz gleichgestellt.
Zum 1. August 2008 wurde Hanoi erweitert. Die Provinz Hà Tây sowie der Bezirk Mê Linh der Provinz Vĩnh Phúc und die Bezirksteile Đông Xuân, Tiến Xuân, Yên Bình und Yên Trung des Provinzbezirks Lương Sơn (Provinz Hòa Bình) wurden dem Verwaltungsgebiet Hanoi hinzugefügt. Durch diese Erweiterung hat sich die Fläche verdreifacht, womit Hanoi heute zu den größten Hauptstädten der Welt gehört.
Die Stadt ist in die folgenden 29 Bezirke untergliedert:
10 Stadtbezirke (Quận): Ba Đình, Cầu Giấy, Đống Đa, Hà Đông, Hai Bà Trưng, Hoàn Kiếm, Hoàng Mai, Long Biên, Tây Hồ und Thanh Xuân
1 Marktgemeinde (Thị xã): Sơn Tây
18 Landkreise (Huyện): Ba Vì, Chương Mỹ, Đan Phượng, Đông Anh, Gia Lâm, Hoài Đức, Mê Linh, Mỹ Đức, Phú Xuyên, Phúc Thọ, Quốc Oai, Sóc Sơn, Thạch Thất, Thanh Oai, Thanh Trì, Thường Tín, Từ Liêm und Ứng Hòa.
Städtepartnerschaften
Ankara (Türkei), seit 1998
Bangkok (Thailand), seit 2004
Peking (China), seit 1994
Seoul (Südkorea), seit 1996
Warschau (Polen), seit 2000
Städtepartnerschaften einzelner Stadtbezirke
Stadtbezirk Hoàng Mai mit dem Berliner Bezirk Marzahn-Hellersdorf, seit 2013
Stadtbezirk Hoàn Kiếm mit dem Berliner Bezirk Lichtenberg, seit 2015
Kooperations- und Freundschaftsabkommen
Präfektur Fukuoka (Japan)
Toulouse (Frankreich)
Verkehr
Der Flughafen Hanoi (Nội Bài International Airport) ist der zweitgrößte Flughafen in Vietnam. Über die Nord-Süd-Schnellstraße ist Hanoi mit Giang verbunden.
Vom Hauptbahnhof (Ga Hà Nội) fahren meterspurige Züge nach Lào Cai, Đồng Đăng (Grenzübergang nach China, Provinz Lạng Sơn, durch die ca. 10 km davor gelegene gleichnamige Provinzhauptstadt), Hải Phòng und Ho-Chi-Minh-Stadt. Vom Bahnhof Gia Lâm verkehrt ein täglicher normalspuriger Nachtreisezug nach Nanning (China).
Der formalisierte öffentliche Personennahverkehr wird heutzutage größtenteils mit Omnibussen betrieben. Die letzte Straßenbahnlinie wurde 1989 stillgelegt. Ein U-Bahn-System mit fünf Linien ist in Planung, bzw. teilweise in Betrieb. Nach mehrfachen Verzögerungen wurde die erste etwa 13 Kilometer lange Linie am 6. November 2021 in Betrieb genommen. Sie hat 12 Stationen und verkehrt zwischen Cat Linh und Ha Dong. Die Linie verläuft aber vollständig auf Brücken in Hochlage in der Mitte großer Straßen. Es handelt sich also um eine Hochbahn, die nur wegen der vergleichbaren Funktion als U-Bahn bezeichnet wird. An einer zweiten Linie wird derzeit gebaut. Neben dem formalisierten öffentlichen Personennahverkehr wickeln auch Motorradtaxen einen Teil des Verkehrs ab.
Sehenswürdigkeiten
Altstadt, Viertel der 36 Gassen
Ba-Đình-Platz, zentraler Platz mit Parkanlage
Hoan-Kiem-See
Westsee
Jadeberg-Tempel
Literaturtempel, die Sammlung der 82 Stelen im Literaturtempel wurde am 9. März 2010 in das UNESCO-Weltdokumentenerbe aufgenommen.
Einsäulenpagode (Chùa Một Cột)
Ho-Chi-Minh-Wohnhaus
Ho-Chi-Minh-Mausoleum
Ho-Chi-Minh-Museum
Überreste der Zitadelle Thăng Long; der zentrale Bereich wurde 2010 zum UNESCO-Weltkulturerbe erklärt.
Flaggenturm
Nationalmuseum
Parfüm-Pagode
Revolutionsmuseum
Vietnamesische Nationaluniversität
Oper
Thăng-Long-Wasserpuppentheater
Ethnologisches Museum von Vietnam
Söhne und Töchter der Stadt
Nguyễn Văn Vĩnh (1882–1936), frankophoner Publizist
Gaston Aumoitte (1884–1957), französischer Krocketspieler
Henri Laborit (1914–1995), französischer Neurologe, Arzt und Chemiker
Vũ Văn Mẫu (1914–1998), Politiker
Tô Hoài (1920–2014), Schriftsteller und Journalist
Phạm Duy (1921–2013), Komponist, Sänger und Autor
Lê Thành Khôi (* 1923), Bildungswissenschaftler
Madame Nhu (1924–2011), First Lady
Bernard Moitessier (1925–1994), französischer Segler
Mai Văn Hòa (1927–1971), Tischtennisspieler
Madeleine Moreau (1928–1995), französische Wasserspringerin
Nicole May Vidal (1928–2003), französische Schriftstellerin
Vũ Giáng Hương (1930–2011), Seidenmalerin
Nguyễn Khải (1930–2008), Schriftsteller
Aldo Eminente (1931–2021), französischer Schwimmer
François Xavier Nguyên Van Sang (1932–2017), römisch-katholischer Geistlicher, katholischer Bischof von Thái Bình
Nguyễn Văn Hiệu (1938–2022), Physiker, Kernphysiker und Hochschullehrer
Perrette Pradier (1938–2013), französische Schauspielerin
Évelyne Pisier (1941–2017), französische Politologin und Schriftstellerin
Bùi Tường Phong (1942–1975), Computergrafik-Pionier
Hervé d’Encausse (* 1943), französischer Stabhochspringer
Dương Thụ (* 1943), vietnamesischer Sänger
Nguyễn Phú Trọng (* 1944), Politiker
Phạm Gia Khiêm (* 1944), Politiker
Trịnh Xuân Thuận (* 1948), Astrophysiker
Nguyễn Huy Thiệp (* 1950), Schriftsteller
Mai Đức Chung (* 1951), Fußballspieler und -trainer
Luy Gonzaga Nguyễn Hùng Vị (* 1952), römisch-katholischer Geistlicher, Bischof von Kontum
Trịnh Thị Minh Hà (* 1952), postkolonialistische Differenz-Theoretikerin, Komponistin und Filmemacherin
Alphonse Nguyên Huu Long (* 1953), römisch-katholischer Bischof von Vinh
Joseph Dang Duc Ngan (* 1957), römisch-katholischer Bischof von Đà Nẵng
Dang Thai Son (* 1958), Konzertpianist
Chu-Tan-Cuong (* 1963), Kampfsportler und -künstler
Mai-Phuong Kollath (* 1963), Integrationsaktivistin in Deutschland
Hoàng Anh Tuấn (* 1965), Diplomat
Trịnh Xuân Thanh (* 1966), Manager und Politiker (KPV)
Phạm Nhật Vượng (* 1968), Unternehmer
Thanh Lam (* 1969), Sängerin
Dam Thanh Son (* 1969), Physiker
Thanh Thanh Hiền (* 1969), Sängerin
Hồng Nhung (* 1970), Sängerin
Van H. Vu (* 1970), Mathematiker
Ngô Bảo Châu (* 1972), Mathematiker
Bằng Kiều (* 1973), Sänger
The Duc Ngo (* 1974), Koch
Lê Minh Sơn (* 1975), Gitarrist und Komponist
Mỹ Linh (* 1975), Sängerin
Nguyen Xuan Huy (* 1976), Maler
Ngo The Chau (* 1977), Kameramann
Thu Minh (* 1977), Sängerin
Hà Trần (* 1977), Sängerin
Hoàng Thanh Trang (* 1980), Schachspielerin
Nguyễn Ngọc Duy (* 1986), Fußballspieler
Trang Le Hong (* 1987), Schauspielerin
Chi Le (* 1987), Schauspielerin
Thao Vu (* 1987), Schauspielerin
Mai Phương Thúy (* 1988), Model und Miss Vietnam 2006
Đỗ Thị Ngân Thương (* 1989), Turnerin
Alice Svensson (* 1991), schwedische Popsängerin
Bùi Thị Thu Thảo (* 1992), Weitspringerin
Chu Hoàng Diệu Linh (* 1994), Taekwondoin
Nguyễn Thị Oanh (* 1996), Leichtathletin
Nguyễn Thị Hằng (* 1997), Sprinterin
Nhat Nguyen (* 2000), irischer Badmintonspieler
Nhung Hong (* 2002), deutsche Schauspielerin
Trivia
Es gibt ein mathematisches Knobel- und Geduldsspiel namens „Türme von Hanoi“.
Halle-Neustadt wird im Volksmund in ironischer Anspielung auf die vietnamesische Hauptstadt auch HaNeu genannt.
Galerie
Literatur
Georges Boudarel, Van Ky Nguyen: Hanoi 1936–1996. Édition Autrement, Paris 1997, ISBN 2-86260-719-3.
Georges Boudarel, Van Ky Nguyen, Claire Duiker: Hanoi. City of the rising dragon. Rowan & Littlefield, Lanham 2002, ISBN 0-7425-1655-5.
Jörg Knieling: Leitbilder nachhaltiger Raum- und Siedlungsentwicklung in Großstadtregionen: Hanoi. In: Hans-Heinrich Bass, Christine Biehler, Ly Huy Tuan (Hrsg.): Auf dem Weg zu nachhaltigen städtischen Transportsystemen. Rainer Hampp Verlag, München und Mering 2011, ISBN 978-3-86618-639-2, S. 128–149.
William S. Logan: Hanoi – Biography of a City. University of Washington Press, Seattle 2000, ISBN 0-86840-443-8.
Mary McCarthy: Hanoi 1968. (Hanoi). Droemer Knaur, München 1968.
Philippe Papin: Histoire d'Hanoi (französisch). Fayard, Paris 2001, ISBN 2-213-60671-4.
Heinz Schütte: Hanoi, eine nachsozialistische Moderne. regiospectra Verlag, Berlin 2010, ISBN 978-3-940132-23-9.
Weblinks
Offizielle Website Hanois
Gesichter einer Stadt: Mit Herrn Duong durch Hanoi – Reportage (Augsburger Allgemeine)
Eine Stadt auf zwei Rädern – Reisebericht (welt.de)
Hanoi bei goruma
Einzelnachweise
Ort in Vietnam
Provinz in Vietnam
Hauptstadt in Asien
Millionenstadt
Hochschul- oder Universitätsstadt
|
Q1858
| 806.556863 |
67193
|
https://de.wikipedia.org/wiki/Lysosom
|
Lysosom
|
Lysosomen (von λύσις, von lysis ‚Lösung‘, und σῶμα sṓma ‚Körper‘) sind Zellorganellen in eukaryotischen Zellen. Es handelt sich dabei um von einer einfachen Biomembran umschlossene Vesikel mit saurem pH-Wert. Sie enthalten Verdauungsenzyme und werden teilweise im Golgi-Apparat gebildet. Die Funktion der Lysosomen besteht darin, Biopolymere in ihre Monomere zu zersetzen.
Aufbau
Lysosomen haben einen Durchmesser von 0,1–1,1 μm. Sie enthalten zur intrazellulären Verdauung von Material viele verschiedene hydrolysierende Enzyme wie Proteasen, Nukleasen und Lipasen. Diese Enzyme dienen der Hydrolyse von Proteinen, Polysacchariden, Nucleinsäuren und Lipiden, also aller wichtigen Gruppen von Makromolekülen. Diese erreichen nur eine hohe Aktivität in einer sauren Umgebung mit einem pH von 4,5–5. Dies dient dem Schutz der Zelle bei einem Aufbruch eines Lysosoms. In einem solchen Fall wären die Enzyme im pH-neutralen Milieu des Cytosols inaktiv. Dies ist ein Beispiel für die Wichtigkeit der Kompartimentierung innerhalb der Zelle. Der niedrige pH-Wert innerhalb der Lysosomen wird durch die Lysosomenmembran aufrecht gehalten. Lysosomen sind von einer Membran mit spezifischer Proteinausstattung umgeben. Eine V-Typ-ATPase transportiert pro ATP-Molekül zwei Protonen (2H+) in die Lysosomen. Die Membranproteine sind auf der Innenseite zum Schutz vor der Selbstverdauung stark glykosyliert.
Entstehung
Die hydrolytischen Enzyme und die Lysosomenmembran werden durch Ribosomen am rauen (granulären) Endoplasmatischen Retikulum (rER) gebildet und anschließend zum Golgi-Apparat transportiert. Die lysosomalen Enzyme erfahren im trans-Golgi-Apparat eine Sortierung und werden gezielt in Vesikel verpackt und zu den späten Endosomen transportiert.
Im Fall der Hydrolasen ist ein spezifisches Signal bekannt: Mannose-6-phosphat-Gruppen (M6P) an ausschließlich Stickstoff-gekoppelten Oligosacchariden. Diese Modifikation findet im cis-Golgi-Apparat statt und wird von zwei Enzymen katalysiert: Eine Phosphotransferase erkennt, dass es sich um ein lysosomales Enzym handelt und heftet N-Acetylglucosamin-1-phosphat an ein oder zwei Mannosereste; das zweite Enzym schneidet den N-Acetylglucosamin-Rest ab, womit die Markierung durchgeführt ist.
Im trans-Golgi-Apparat werden die M6P-Reste von membranintegralen M6P-Rezeptoren erkannt. Im späten Endosom trennen sich die M6P-Rezeptoren bei pH 6 wieder von ihren Liganden und werden rezyklisiert.
Es gibt auch einen M6P unabhängigen Transportweg in die Lysosomen, z. B. bei den Membranproteinen der Lysosomen. Der Mechanismus ist nicht bekannt.
Aufgaben
Verdauung zellfremden Materials
Lysosomen wirken auf mehrere Weisen an der Verdauung auf Zellebene mit. Durch Endozytose entstandene Endosomen verschmelzen mit primären Lysosomen zu sekundären Lysosomen. Bei Protisten wird dies Nahrungsvakuole genannt. In einigen Zelltypen werden Bruchstücke des im Lysosom verdauten zellfremden Materials in Form sogenannter Antigenfragmente durch MHC-II-Rezeptoren an der Zelloberfläche präsentiert. Dieser Vorgang spielt eine wichtige Rolle im Immunsystem. Als Beispiel für menschliche Zellen, die hierzu fähig sind, sind die Makrophagen zu nennen.
Verdauung zelleigenen Materials
Die Lysosomen verwerten nicht nur zellfremdes, sondern auch zelleigenes Material. Dies nennt man Autophagie. Hierbei werden Organellen oder Teile des Zytosols durch die Lysosomenenzyme zerlegt und wiederverwertet. Auf diese Weise erneuert sich die Zelle mit Hilfe der Lysosomen selbst. In einer menschlichen Leberzelle werden pro Woche die Hälfte aller Makromoleküle auf diese Weise zerlegt.
Programmierter Zelltod
Auch der programmierte Zelltod (Apoptose) durch eigene Lysosomenenzyme ist eine wichtige Aufgabe der Lysosomen. Durch Apoptose werden beispielsweise der Schwanz der Kaulquappe bei Amphibien oder die Schwimmhäute zwischen den Fingern des menschlichen Embryos abgebaut.
Erkrankungen mit lysosomaler Beteiligung
Ein Defekt in der Phosphotransferase führt zu einer so genannten lysosomalen Speicherkrankheit. Da keine Markierung mit Mannose-6-Phosphat stattfinden kann, werden die lysosomalen Enzyme nicht sortiert und gelangen unkontrolliert über die Plasmamembran in die extrazelluläre Matrix (I-Zellkrankheit, autosomal rezessiv vererbt). Andere lysosomale Speicherkrankheiten werden durch Defekte lysosomaler Hydrolasen ausgelöst. Dadurch kommt es zur Vermehrung von nicht-abgebautem Material in den Lysosomen (z. B. Morbus Hunter). Meistens sind schwere Krankheitserscheinungen die Folge. Bei einer Mutation der LIPA kommt es zur Lysosomalen saure Lipase-Defizienz. LIPA ist die lysosomale, saure Lipase, die wichtig für den Stoffwechsel von Cholesterin-Estern und Triglyzeriden ist.
Lysosomale Kumulation von Pharmaka
Schwache Basen mit lipophilen Eigenschaften neigen zur Akkumulation in sauren intrazellulären Kompartimenten wie den Lysosomen. Während die Plasma- und Lysosomenmembranen für die neutralen, ungeladenen Formen solcher Moleküle durchlässig sind, passieren die geladenen, protonierten Formen schwacher Basen die Membranen nicht und kumulieren in Lysosomen. Im Vergleich zum extrazellulären Bereich kann sich dadurch im Lysosom eine 100 bis 1000fach höhere Konzentration der schwachen Basen aufbauen. Dieser Mechanismus wird "Lysosomotropie" oder auch "acid trapping" genannt. Über ein zellbasiertes mathematisches Modell lässt sich die Kumulation lysosomotroper Substanzen berechnen.
Viele klinisch eingesetzte Medikamente sind schwache Basen und kumulieren in Lysosomen. Darüber lassen sich verschiedene pharmakologische Eigenschaften solcher Medikamente erklären. So liegt die Gewebekonzentration lysosomotroper Medikamente deutlich über der Plasmakonzentration; und die Halbwertszeit im Gewebe ist höher als im Plasma; als Beispiele seien hier Haloperidol, Levomepromazin oder Amantadin genannt. Zu den hohen Gewebekonzentrationen und langen Gewebehalbwertszeiten trägt neben der lysosomalen Akkumulation auch die Lipophilie der Substanzen und deren Absorption in fetthaltigen Gewebestrukturen bei. Wichtige lysosomale Enzyme, wie die saure Sphingomyelinase, können durch lysosomal akkumulierte Medikamente gehemmt werden. Solche Substanzen werden FIASMAs genannt. Dieses Akronym leitet sich von der englischen Bezeichnung Functional Inhibitor of Acid SphingoMyelinAse ab; zu dieser Substanzgruppe gehören z. B. Fluoxetin, Sertralin oder Amitriptylin.
Literatur
Bruce Alberts u. a.: Molecular Biology of the Cell. 4. Auflage. Garland Science, New York 2002, ISBN 0-8153-4072-9.
Neil A. Campbell, Jane B. Reece: Biologie. 6. Auflage. Spektrum, Heidelberg 2003, ISBN 3-8274-1352-4.
Weblinks
Einzelnachweise
Zellorganell
|
Q83330
| 164.151656 |
6854888
|
https://de.wikipedia.org/wiki/Arbeitsmarkt%C3%B6konomik
|
Arbeitsmarktökonomik
|
Die Arbeitsmarktökonomik ist eine Teildisziplin der Wirtschaftswissenschaften, die sich aus ökonomischer Sicht mit der Funktionsweise von Arbeitsmärkten befasst. Zentraler Untersuchungsgegenstand ist dabei das Angebot an und die Nachfrage nach Arbeit als essenziellem Produktionsfaktor. Im Fokus der Disziplin stehen zu diesem Zweck beispielsweise die Faktoren und Mechanismen, durch die die Entscheidung zur Arbeitsaufnahme, die Wahl des individuellen Arbeitseinsatzes, die Lohnhöhe sowie die Höhe der Arbeitslosigkeit beeinflusst werden.
Die neoklassische Theorie
Im Standardmodell der neoklassischen Theorie folgt der Arbeitsmarkt denselben Regeln wie ein klassischer Gütermarkt und lässt sich analog dazu ebenfalls durch Angebots- und Nachfragekurven charakterisieren. Der Verlauf der Kurven ist von den individuellen Präferenzen der Arbeitsanbieter (Haushalte) und der Arbeitsnachfrager (Unternehmen) abhängig, wobei im einfachsten Modell von folgenden Voraussetzungen ausgegangen wird:
Auf dem Arbeitsmarkt bestehen weder Marktzutrittsbarrieren noch andere Wettbewerbsbeschränkungen.
Die Arbeitskraftanbieter sind homogen: Sie unterscheiden sich hinsichtlich ihrer Produktivität nicht und sind aus diesem Grund vollständig substituierbar (austauschbar). Zudem existiert keinerlei Diskriminierung.
Der Arbeitsmarkt ist transparent: Alle Akteure (Arbeitsanbieter und -nachfrager) verfügen stets über vollständige Information, wissen also zu jedem Zeitpunkt über die aktuelle und zukünftige Marktsituation Bescheid. Dies schließt beispielsweise ein, dass sowohl Haushalten als auch Unternehmen der markträumende Anspruchslohn für eine Stelle bekannt ist.
Die Anpassungsprozesse sind unendlich schnell und werden nicht durch Rigiditäten oder Friktionen beeinflusst. Angebot bzw. Nachfrage reagieren also beispielsweise sofort auf Preisveränderungen.
Die Arbeitsanbieter sind vollständig mobil (und mobilitätsbereit), sodass Raumfaktoren keinerlei Relevanz für ihre Angebotsentscheidung besitzen.
Es gibt keine Transaktionskosten. Hiermit werden insbesondere auch Kosten für die Informationsbeschaffung (zum Beispiel über offene Stellen) ausgeschlossen.
Das Arbeitsangebot
Dem Arbeitsanbieter steht grundsätzlich eine Vielzahl von Möglichkeiten zur Verfügung, sein Zeitbudget aufzuteilen. Die denkbaren Aktivitäten können zur besseren Erfassbarkeit in verschiedene „Zeit(verwendungs)-Gruppen“ unterteilt werden, worunter beispielsweise Erwerbsarbeitszeit, Hausarbeitszeit, Regenerationszeit und Freizeit fallen. Zur Vereinfachung wird gewöhnlich nur zwischen Arbeit und Freizeit als Alternativen unterschieden, wobei der Begriff „Arbeit“ für Erwerbsarbeit und „Freizeit“ für alle anderen Aktivitäten steht.
Ein Akteur wählt diejenige Zeitallokation, die ihm den größtmöglichen Nutzen bringt (Prinzip der Nutzenmaximierung).
Bestimmung des individuellen Arbeitsangebots
Ein individueller Akteur setzt sein (beliebig teilbares) Zeitbudget stets entweder für Arbeit oder Freizeit ein. Die persönliche Freiheit, seine Zeit für verschiedene Verwendungszwecke einzuteilen, unterliegt daher der Zeitrestriktion
.( : Gesamtzeitbudget in Stunden, : Arbeitszeit in Stunden, : Freizeit in Stunden)
Neben dieser Zeitrestriktion besteht eine zweite Einschränkung, die Budgetrestriktion. Sie lässt sich als
( : Konsumausgaben in Euro, : Lohn in Euro / Stunde, : Nichtlohneinkommen in Euro)
formulieren (aus Gründen der Übersichtlichkeit wurden alle Preise auf 1 normiert, sodass Nominal- und Realeinkommen identisch sind). Da nur eine Periode betrachtet und von einem positiven Grenznutzen des Einkommens ausgegangen wird, gilt für die Budgetgleichung eines nutzenmaximierenden Arbeitsanbieters (das gesamte Geldeinkommen wird ausgegeben). Die resultierende Budgetgerade weist die Steigung auf.
Als Nutzenmaximierer löst der Arbeitsanbieter somit das Maximierungsproblem
unter der Nebenbedingung , wobei quasi-konkav und stetig differenzierbar sei. Diejenigen Freizeit-Konsum-Kombinationen, die dasselbe Nutzenniveau stiften, bilden eine (streng monoton fallende und konvexe) Indifferenzkurve. Für diese gelten die klassischen Eigenschaften, insbesondere steigt das Nutzenniveau von Einkommen-Freizeit-Kombinationen mit zunehmender Entfernung der jeweiligen Kurve vom Ursprung. Bei einem maximal erreichbaren Einkommen von markiert im Schaubild der Punkt den nutzenmaximalen Arbeitseinsatz. Die Steigung der Indifferenzkurve entspricht dort derjenigen der Budgetgerade; hierzu identisch lässt sich auch formulieren, dass das Grenznutzenverhältnis von Freizeit und Konsum dem Lohn entspricht. Anders formuliert: „Das ‚subjektive‘ Austauschverhältnis zwischen den beiden Gütern ist gleich dem ‚objektiven‘ Austauschverhältnis, welches durch die Höhe des Lohnsatzes angegeben wird.“ In Punkt liegt somit das Haushaltsgleichgewicht.
Die vorangegangenen Betrachtungen implizieren für das neoklassische Standardmodell als Ganzes die Existenz individueller Reservationslöhne, womit derjenige Lohnsatz bezeichnet wird, welcher mindestens erforderlich ist, um zur Aufnahme einer (weiteren) Stunde Arbeit zu motivieren. Der Reservationslohn entspricht somit gerade der Grenzrate der Substitution im tiefsten Punkt der Budgetgerade; er ist im obigen Modell einzig abhängig von der konkreten Gestalt der Nutzenfunktion sowie der Höhe des Nichtlohneinkommens , wobei er von diesem positiv abhängig ist (sofern Freizeit ein normales Gut ist).
Reaktion auf Lohn- und Einkommensänderungen
Bei einer Lohnerhöhung sind für einen Arbeitnehmer zwei Reaktionen denkbar. Er kann zum einen sein Arbeitsangebot ausweiten, also mehr arbeiten und dafür auf einen Teil seiner Freizeit verzichten. Ökonomisch ist dies mit den Opportunitätskosten der Freizeit begründbar: Steigt der angebotene Lohn, wird es relativ teurer, nicht zu arbeiten. Dieser Effekt wird als Substitutionseffekt bezeichnet, weil der Arbeitsanbieter Freizeit durch Arbeit substituiert (ersetzt). Eine zweite denkbare Reaktion ist die Einschränkung des Arbeitsangebotes – der Lohnzuwachs gibt dem Arbeiter die Möglichkeit, sich anderen Gütern zuzuwenden (Urlaub, Familie etc.). Hierbei handelt es sich um den Einkommenseffekt. Der Einkommenseffekt bei einer Lohnerhöhung unterscheidet sich von einem Einkommenseffekt auf einem klassischen Gütermarkt dergestalt, dass sich das monetäre Einkommen eines Akteurs (qua definitionem) verändert, während dies bei entsprechenden Preisänderungen auf anderen Märkten nicht der Fall ist.
Aus diesem Grund kann man den Einkommenseffekt in einen „normalen“ oder „reinen“ Einkommenseffekt und einen „zusätzlichen“ Einkommenseffekt (endowment income effect) zerlegen. Ersterer ist hinsichtlich einer Lohnerhöhung aufgrund der Annahme der Normalität von Freizeit immer negativ, was leicht einzusehen ist, wenn man sich vorstellt, dass statt des Lohneinkommens das Nichtlohneinkommen erhöht würde. Das Vorzeichen des letzteren ist hingegen nicht bestimmt, sodass eine Erhöhung des Lohnsatzes theoretisch auch durchaus zur Einschränkung der Arbeitszeit führen kann, obwohl Arbeit an sich ein normales Gut ist. Tatsächlich ist davon auszugehen, dass die Stärke des Einkommenseffektes eng mit der Höhe des Einkommens zusammenhängt, das der Akteur bislang bezogen hat: Erhöht sich der Lohn, steigt zunächst auch das Arbeitsangebot, ab einem Reallohn verringert es sich dann jedoch wieder. Dies impliziert für Angebotskurven mitunter halbkreisartige, rückwärtsgebogene Verläufe (backward-bending labor supply curve). In der Literatur wird diese Unterteilung des Einkommenseffektes meist nicht vorgenommen und man spricht schlicht von einem in seiner Wirkrichtung unbestimmten Gesamteffekt.
Die Auswirkung einer Lohnänderung auf den Arbeitseinsatz lassen sich mittels der (Marshall’schen) Elastizität des Arbeitsangebots beziffern. Sie ist definiert als
und gibt die prozentuale Änderung der Arbeitszeit an, die eine einprozentige Lohnänderung nach sich zieht. Dominiert der Substitutionseffekt, gilt wegen auch , ein Überwiegen des Einkommenseffektes impliziert dementsprechend .
Erweiterungen
In der Literatur werden vielerlei Erweiterungen des klassischen Modellrahmens angeregt. Eine modellierbare Unzulänglichkeit des Grundmodells besteht beispielsweise darin, dass sich aufgrund der dichotomen „Zeitverwendungsgruppen“ Unterschiede in den Präferenz- und Nutzenstrukturen von Aktivitäten im Bereich des Nichtlohneinkommens unberücksichtigt bleiben. Dies beinhaltet insbesondere die Tatsache, dass Haushalte einen erheblichen Teil ihrer Zeit für produktive Tätigkeiten aufwenden (man denke an Kochen [in Substitutionsbeziehung zum Restaurantbesuch] oder auch Schlafen [als Bedingung für die erfolgreiche Erwerbsarbeit]). Gary Becker (1965) versucht in diesem Lichte, das Modell der Realität durch die Einführung einer Produktionskomponente im Nutzenmaximierungsproblem stärker anzunähern. Die verschiedenen Aktivitäten eines Haushalts können so ihrerseits positiv oder negativ in das Entscheidungskalkül einfließen. Ein anderer Teil der Literatur versucht, die Rolle familiärer Strukturen in das Modell miteinzubeziehen. Beispielsweise kann man hierzu individuelle Budgetrestriktionen aggregieren und/oder die individuellen Nutzen der Familienmitglieder aggregieren, sodass nur noch der Gesamtnutzen unter Beschränkung des Gesamtbudgets maximiert wird. Pierre-André Chiappori regte zum Beispiel in mehreren Arbeiten ein Kollektivmodell an, in dem die Haushaltsmitglieder zwar individuell ihren Nutzen maximieren, dieser aber auch vom individuellen Nutzen anderer Haushaltsmitglieder abhängig ist, sodass es effektiv zu einer gewissen Aufteilung individueller Risiken kommt.
Eine weitere Gruppe von Erweiterungsansätzen setzt an der Linearität der Budgetbeschränkung ein. In der Realität wird es hieran in aller Regel fehlen, da beispielsweise progressiv erhobene Steuern die Budgetbeschränkung endogenisieren, dergestalt dass die realisierbare Budgetmenge nunmehr als eine Funktion der Arbeitszeit behandelt werden muss.
Die Arbeitsnachfrage
Der Arbeitsnachfrager folgt der Maxime der Gewinnmaximierung. Wie auch bei der Theorie des Arbeitsangebots werden bereits durch diese Grundannahme viele Akteure ausgeblendet, darunter beispielsweise Non-Profit-Organisationen oder auch der Staat. Arbeit ist für eine Unternehmung einer der Produktionsfaktoren und wird mit anderen Faktoren wie Kapital so kombiniert, dass ein möglichst hoher Gewinn abfällt. Arbeit verfügt über ein positives Grenzprodukt, d. h. eine zusätzliche Einheit Arbeit ist stets geeignet, den Output des Arbeitsnachfragers zu erhöhen. Ob ein Arbeiter jedoch überhaupt eingestellt wird, ist zum einen abhängig von den entstehenden Lohnkosten, zum anderen aber auch von den Kosten anderer Produktionsfaktoren (zum Beispiel Kapital) sowie weiteren spezifischen Einzelfaktoren, die den Absatz der Firma bestimmen (beispielsweise der Produktivität eines Arbeitnehmers).
Bestimmung der individuellen Arbeitsnachfrage in kurzer Frist
Als relevant für die Arbeitsnachfrageentscheidung werden in der Regel die Inputfaktoren Kapital und Arbeit betrachtet. Da auf kurze Frist üblicherweise der Kapitalstock und andere Einflussfaktoren wie die Betriebsgröße als konstant angenommen werden, ist Arbeit in kurzer Frist der einzige variable Produktionsfaktor. Hieraus folgt die allgemeine kurzfristige Produktionsfunktion , für die annahmegemäß die folgenden Eigenschaften gelten:
Für die Bestimmung der Wirkmechanismen der Arbeitsnachfrage ist entscheidend, welche Annahmen über den Arbeitsmarkt und über den Absatzmarkt des produzierten Gutes getroffen werden. Zunächst wird im Folgenden von einem Unternehmen ausgegangen, das in einem kompetitiven Arbeits- und Gütermarktumfeld operiert (im nachfolgenden Abschnitt „Formen unvollständigen Wettbewerbs“ werden diese Annahmen dann sukzessive aufgegeben). Konkret bedeutet dies, dass zum einen der Lohn nicht von der Einstellungsentscheidung des Unternehmens abhängig ist, zum anderen dass auch der Güterpreis nicht dadurch beeinflusst werden kann, wie viel der einzelne Akteur produziert. Ein Unternehmen, die in einem solchen Umfeld produziert, folgt dann beispielsweise der Gewinnfunktion
( : Gewinn, : Kapital [hier konstant], : Arbeitseinsatz, : Preis einer Gütereinheit, : Absatzmenge, : Lohn / Stunde, : Kapitalnutzungskosten, : Steuern/Abgaben etc.)
Notwendig für ein Maximum ist dann:
– also das Produkt aus Absatzpreis und dem physischen Grenzprodukt der Arbeit – wird dabei als Wertgrenzprodukt der Arbeit () bezeichnet. Da das physische Grenzprodukt definitionsgemäß derjenigen Produktionsmenge entspricht, die eine zusätzliche Einheit Arbeit hervorbringen würde, beschreibt das Wertgrenzprodukt der Arbeit den Umsatz, den das Unternehmen durch Einsatz einer weiteren Arbeitseinheit erzielen könnte. Aus der Gleichung folgt, dass das Wertgrenzprodukt der Arbeit im Optimum dem Lohn entsprechen muss. Liegt es darüber, bringen neue Arbeiter eine Gewinnsteigerung mit sich, liegt es darunter, wäre ein neues Arbeitsverhältnis offensichtlich nicht mehr rentabel und die Firma würde demgemäß so lange Arbeiter einstellen bzw. entlassen, bis das Wertgrenzprodukt der Belegschaft dem Belegschaftslohn entspricht. Entsprechend ist die Kurve des Wertgrenzprodukts auf kompetitiven Märkten – wie in der Abbildung verdeutlicht – aufgrund der exogenen Gegebenheit des Lohnes mit der Arbeitsnachfragekurve identisch.
Betrachtet man die Auswirkungen einer Lohnerhöhung auf die nachgefragte Arbeit, so ist der Effekt unmittelbar aus den getroffenen Annahmen ersichtlich – die Arbeitsnachfrage sinkt. Im Fall der Arbeitsnachfrage gibt es also anders als beim Arbeitsangebot keine zwei konträren quantitativen Effekte.
Monopolistische Strukturen
Gibt man die Annahme der vollständigen Konkurrenz auf dem Gütermarkt auf, ist der Preis nicht mehr fix vorgegeben; vielmehr nimmt das Unternehmen durch die von ihm produzierte Gütermenge nun direkten Einfluss auf den Marktpreis. Hierbei handelt es sich um eine Form von Monopolmacht, sodass neu (wobei weiterhin ). Für die Gewinnfunktion gilt demnach
,
im Maximum mithin notwendig (und auch hinreichend)
Ein äquivalenter Ausdruck hierfür eignet sich besser für die Betrachtung der Unterschiede zum Modell mit vollkommenem Wettbewerb:
( : Elastizität der Nachfrage auf dem Absatzmarkt)
Die vorstehende Bedingung für den gewinnmaximierenden Lohn in einem Arbeitsmarkt monopsonistischer Prägung ist das funktionale Äquivalent zum Wertgrenzprodukt bei vollständigem Wettbewerb; es unterscheidet sich von diesem einzig durch den Elastizitätsfaktor . Tatsächlich handelt es sich bei dem resultierenden Ausdruck für um eine verallgemeinerte Form des Wertgrenzprodukts im vollkommenen Wettbewerb und man bezeichnet den Ausdruck generell als Grenzerlösprodukt (marginal revenue product, MRP). Eine Verallgemeinerung liegt deshalb vor, weil auf einem kompetitiven Markt gerade und gilt, sodass sich das Grenzerlösprodukt unmittelbar in seine spezielle Ausprägung des Wertgrenzproduktes überführen lässt.
Damit impliziert das neoklassische Standardmodell für Fälle unvollständigen Wettbewerbs zugleich eine geringere Arbeitsnachfrage als im kompetitiven Fall. Dies deshalb, weil im Fall von unvollständigem Wettbewerb stets auf dem elastischen Teil der Nachfragekurve produziert wird – da die Nachfrageelastizität dann aber stets negativ ist, ist auch das Grenzerlösprodukt stets geringer als das Wertgrenzprodukt. Die intuitive Erklärung für diese Tatsache besteht darin, dass die Einstellung eines zusätzlichen Arbeiters zugleich zu einer Erhöhung des Outputs führt. Wenn das Unternehmen auf dem Absatzmarkt aber über Preissetzungsmacht verfügt, wird die Ausweitung der Produktion nach den Gesetzen von Angebot und Nachfrage den Absatzpreis verringern ( fällt in ). Die Einstellung von zusätzlichen Arbeitnehmern ist folglich nicht mehr so lukrativ.
Monopsonistische Strukturen
Ein viel beachteter Sonderfall des nicht kompetitiven Arbeitsmarktumfeldes stellt das Monopson (auch: „Nachfragemonopol“) dar, bei dem es lediglich einen Arbeitsnachfrager gibt. Während bei vollkommenem Wettbewerb das Unternehmen als „Preisnehmer“ in Bezug auf den Lohnsatz agiert – es also auf individueller Ebene mit einer horizontalen Arbeitsangebotskurve konfrontiert ist, bei der jede marginale Lohnsatzsenkung unter den Marktlohn den Verlust der Belegschaft mit sich brächte –, besteht bei Formen des monopsonistischen Wettbewerbs ein direkter Einfluss auf den sich auf dem Markt bildenden Lohn. Der Lohn ist folglich neu eine Funktion der nachgefragten Arbeitsmenge: . Dabei gilt zudem , es liegt also eine steigende Arbeitsangebotskurve vor.
Analog zu obigem Fall gilt im Monopsonmodell für die Gewinnfunktion neu
und im Maximum notwendig (und auch hinreichend)
Das Wertgrenzprodukt der Arbeit muss also gerade den Grenzkosten der Arbeit entsprechen. Für den Lohnsatz lassen sich daraus im Vergleich zum kompetitiven Fall wichtige Aussagen treffen. Weil gemäß den Voraussetzungen, ist der Lohn im Umfeld eines Monopsons oder monopsonistischer Konkurrenz offensichtlich geringer als bei vollständigem Wettbewerb.
Dies ist ein generelles Resultat. Intuitiv besteht die Erklärung darin, dass die Arbeitsnachfrageentscheidung bei vollständiger Konkurrenz auf dem Arbeitsmarkt den Marktlohn nicht beeinflusst; kommt der Firma aber wie im Monopsonfall Marktmacht zu, steigert eine höhere Nachfrage des Monopsonisten entsprechend den Gesetzen von Angebot und Nachfrage auch den Preis des nachgefragten Gutes, der im Falle von Arbeit eben gerade im Lohn besteht. Dieser Effekt wirkt sich wiederum negativ auf den Gewinn des Unternehmens aus, weshalb die Arbeitsnachfrage eines Monopsonisten auch hinter der eines Akteurs bei vollständiger Konkurrenz zurückbleibt. Da der Lohnsatz aber in der Arbeitsnachfrage steigt, stellt der Monopsonist nicht nur weniger Arbeiter ein als dies im vollkommenen Wettbewerb der Fall wäre, sondern entlohnt die Belegschaft zusätzlich auch noch geringer.
Ein sozialer Planer kann den negativen Effekten eines Monopsons auf Beschäftigung und Lohn grundsätzlich durch die Einführung eines Mindestlohns beikommen. Wie man grafisch der Abbildung entnehmen kann, führt ein Mindestlohn in Höhe von zu einer Änderung der Grenzkostenstruktur. In jenem Bereich, in dem die Faktorgrenzkosten über dem Wertgrenzprodukt bzw. Grenzerlösprodukt liegen, setzt ein Mindestlohn, der oberhalb des Monopsonlohns, aber unterhalb des durch den Schnittpunkt von ursprünglicher Grenzkostenkurve und der Kurve des Grenzprodukts gegebenen Maximallohnsatzes (im Schaubild: ) liegt, die Grenzkosten der Arbeit exogen auf die Höhe des Mindestlohnes (so lange der Mindestlohn nicht gerade oberhalb der Grenzerlösproduktes liegt – aber dort wird auch keine Arbeit mehr nachgefragt). Der Mindestlohn nähert das imperfekte Marktergebnis damit dem für Arbeitsanbieter wünschbaren Ergebnis des vollständigen Wettbewerbs an. Setzt man den Mindestlohn exakt gleich dem Kompetitivlohn werden sogar sämtliche Negativeffekte des Monopsons auf Beschäftigung und Lohn neutralisiert. Jeder Mindestlohn unterhalb des Monopsons wäre hingegen nicht bindend und damit wirkungslos; jeder Mindestlohn über würde im Vergleich zum kompetitiven Gleichgewicht wieder zu einem Rückgang der Arbeitsnachfrage (und damit Arbeitslosigkeit) führen.
Bestimmung der individuellen Arbeitsnachfrage in langer Frist
Während in kurzer Frist der Kapitalbestand als fixe (da exogene) Größe aufgefasst werden kann, ist dies langfristig meist nicht der Fall. Dies deshalb, weil in größeren Zeithorizonten die Möglichkeit besteht, dass Arbeit und Kapital zueinander in begrenztem Maße in einer Substitutionsbeziehungen stehen. So lässt sich ja auch in der Realität beobachten, dass im Zuge von Technologisierungsprozessen bestimmte Arbeitsplätze durch Roboter ersetzt werden.
Langfristig gilt daher zunächst die neue Produktionsfunktion und es muss sowohl die gewinnmaximale Arbeits- als auch die gewinnmaximale Kapitalmenge maximiert werden. Daher ist es nun – besonders einfache und entsprechend konstruierte Funktionsverläufe vorausgesetzt – in einer Situation mit einem kompetitivem Gütermarktumfeld (der allgemeine Fall bleibt an dieser Stelle unberücksichtigt) erforderlich, dass neben der bereits bekannten Bedingung für den gewinnmaximalen Arbeitseinsatz,
,
überdies die Bedingung für die gewinnmaximale Kapitalmenge erfüllt sein muss:
Zusammengefasst folgt:
Die Bedingung besagt, dass ein gewinnmaximierendes Unternehmen so lange seinen Arbeits- und Kapitaleinsatz modifiziert, bis die Grenzkosten, die bei der Produktion einer weiteren Gütereinheit mittels Arbeit entstünden, identisch zu denjenigen sind, die bei der Produktion mittels Kapital anfielen.
Übertragung in die Makroebene
Die beschriebene statische Sichtweise ermöglicht eine sehr einfache Übertragung dieses an sich mikroökonomischen Analysemodells in eine makroökonomische Dimension, indem das Marktgeschehen als Interaktion eines repräsentativen Arbeitsanbieters und eines repräsentativen Arbeitsnachfragers betrachtet wird. Diese Vorstellung findet ihren Niederschlag in einem entsprechenden Marktdiagramm, das rechtsstehend wiedergegeben ist: Je höher der Lohnsatz, desto geringer die nachgefragte Arbeit und desto höher die angebotene Arbeit.
Sieht man, wie dies der Kern des Konzepts des repräsentativen Akteurs ist, das gesamtwirtschaftliche Angebot bzw. die gesamtwirtschaftliche Nachfrage als Aggregation individueller Arbeitsnachangebots- und Arbeitsnachfragekurven, lässt sich feststellen, dass die bloße horizontale Aggregation von Arbeitsnachfragekurven zu fehlerhaften Ergebnissen führt. Dem liegt nicht nur zugrunde, dass Arbeitsnachfragekurven prinzipiell nur dann horizontal aggregiert werden können, wenn der Absatzpreis vollständig fixiert ist (das heißt vollständiger Wettbewerb auf dem Absatzmarkt herrscht). Vielmehr ließe das Verfahren unberücksichtigt, dass die Tatsache, dass jedes einzelne Unternehmen für sich den Marktpreis des Absatzgutes nicht durch Änderungen seiner Güterproduktion beeinflussen kann, nicht auch bedeutet, dass der Absatzpreis auch dann konstant bliebe, wenn jedes Unternehmen seinen Output verändert. Bei der aggregierten Nachfragekurve muss daher beachtet werden, dass beispielsweise die Erhöhung des Arbeitseinsatzes über eine Erhöhung des Outputs zu einer Verringerung des Absatzpreises führen wird, wodurch aber wiederum ein Anreiz geschaffen wird, den Arbeitseinsatz zu verringern. In der Konsequenz führt der beschriebene Mechanismus dazu, dass ungeachtet der Marktstruktur die aggregierte Nachfrage einen steileren fallenden Verlauf haben wird als eine Kurve, die durch horizontale Aggregation entstanden ist.
Das Gleichgewicht, das durch den Schnittpunkt von Angebots- und Nachfragekurve angezeigt wird, ist der einzige stabile Marktzustand. Für jeden Lohn gäbe es beschäftigungslose Arbeitsanbieter, die bereit wären, zu einem Lohn zu arbeiten, sodass auf der Anbieterseite ein gegenseitiger Unterbietungswettbewerb in Gang gesetzt würde, an dessen Ende wieder der Gleichgewichtslohn steht;. Analog gäbe es für jeden Lohn Unternehmen, die zusätzliche Arbeitskraft nachfragen wollen und die dafür eine Zahlungsbereitschaft von aufbringen, sodass ein Überbietungswettbewerb einsetzen würde. Zugleich ist das Gleichgewicht auch der einzige Pareto-optimale Marktzustand: Für jeden (Lohn)zustand besteht, wie man anhand einer Kontraktkurve einsehen kann, eine Reformmöglichkeit, die mindestens einen Akteur besser stellt, ohne irgendeinen anderen – ungeachtet ob Haushalt oder Unternehmen – schlechter zu stellen.
Kritik
Die Annahmen des statischen (neoklassischen) Standardmodells weichen in vielfacher Hinsicht von den Beobachtungen in der Realität ab. Es vermag so beispielsweise nicht zu berücksichtigen, dass Arbeitnehmer tatsächlich nur selten die Möglichkeit haben, vollkommen eigenständig über die Zahl der geleisteten Arbeitsstunden zu entscheiden. Das Standardmodell kann zudem die Okkurenz von Lohndifferentialen nicht erklären. Ebenso wird Vermachtungsstrukturen auf der Arbeitgeber- und Arbeitnehmerseite nur unzureichend Rechnung getragen. Zwar ist es möglich, mithilfe verschiedener Elastizitätsparameter verschiedene Grade von Monopol- oder Monopsonmacht in das Modell zu integrieren, allerdings führt die für deren Schätzung erforderliche Aggregation unweigerlich zu einem Informationsverlust.
Effizienzlohntheorien
Suchtheorie und Matchingtechnologie
Die Mikro-Ebene – Arbeitnehmer als Sucher
Eine der grundlegenden Annahmen des neoklassischen Basismodells des Arbeitsmarktes besteht darin, dass alle Marktakteure über perfekte Information verfügen. So wissen sie beispielsweise über verfügbare Arbeitsplatzangebote ebenso Bescheid wie über die dazugehörigen Anforderungen und ihre jeweiligen Anspruchslöhne. Diese, der wahrgenommenen Realität offensichtlich zuwiderlaufende Prämisse wird in der insbesondere seit den 1970er-Jahren gebräuchlichen Suchtheorie des Arbeitsmarktes aufgegeben. Suchtheoretische Modellierungen des Arbeitsmarkt nehmen dabei die einer Beschäftigung vorangehende Arbeitsplatzsuche in den Blick – da Arbeitsanbieter nicht über perfekte Information verfügen, ist dieser Suchprozess selbst eine produktive Tätigkeit und Arbeitsanbieter stehen in einem friktionsbehafteten Marktumfeld beständig vor der Frage, welchen Teil ihres Zeitbudgets sie für ihre eigentliche Tätigkeit und welchen sie für die Suche nach einem (für sie produktiveren) Job aufwenden sollen. Dabei sind Arbeitsanbieter und Arbeitsnachfrager beiderseits darum bemüht, bestehende Vakanzen (d. h. offene Stellen) zu besetzen; der schon beschriebene Suchprozess muss dann zunächst zu einem Zusammentreffen zweier Akteure führen; an seinem Ende steht schließlich mit einer gewissen „Kontraktwahrscheinlichkeit“ ein Match (d. h. eine erfolgreiche Übereinkunft zwischen den Parteien).
Während bei den ersten Suchmodellen – insbesondere demjenigen von George J. Stigler (1962), das weithin als Ursprung der Suchtheorie des Arbeitsmarktes gilt – noch eine Zwei-Perioden-Betrachtung vorherrschte, in der die Arbeitsanbieter die optimale Zahl ihrer Schritte (d. h. der durchgeführten Kontakte) ex ante festlegen, dann die jeweiligen Lohnofferten für die zufällig ausgewählten Vakanzen einholen, untereinander vergleichen und schließlich das am höchsten rentierende potenzielle Match zustande kommen lassen, gründen spätere Modelle auf sequenziellen Prozessen (McCall 1970, Mortensen 1970). Im Folgenden wird das Grundprinzip der Suchtheorie anhand eines einfachen Modells beschrieben.
Grundmodell (Franz 2006)
Dem im Folgenden skizzierten Modell wohnt der Gedanke inne, dass der Sucher in jeder Periode ein Unternehmen aufsucht und bei diesem ein Lohnangebot einholt. Allerdings weiß er bis zu seiner direkten Kontaktaufnahme mit dem Unternehmen nicht, wie hoch ein solches – falls er denn überhaupt eines erhält (die Wahrscheinlichkeit hierfür beträgt , siehe nächster Absatz) – überhaupt ausfallen würde. Vielmehr folgt die Lohnhöhe einer sich über die Zeit nicht ändernden Dichtefunktion und die einzelnen Offerten sind unabhängig und identisch verteilt (i.i.d.). Schließlich muss der Sucher nach jeder Offerte (der Lohn sei das einzige Charakteristikum eines Arbeitsplatzes) entscheiden, ob er die Stelle annimmt oder nicht. Nimmt er sie nicht an, verzichtet er damit nicht nur auf das angebotene Einkommen, sondern muss darüber hinaus Suchkosten in der nächsten Periode in Kauf nehmen; nimmt er das Angebot hingegen an, entgehen ihm höhere Einkommen, die ihm in den Folgeperioden angeboten würden.
Zusammengefasst lauten die Grundannahmen im Einzelnen:
Arbeitsanbieter sind homogen, werden allerdings mit unterschiedlichen Lohnangeboten konfrontiert;
Arbeitsanbieter kennen die Verteilung der Löhne, wissen allerdings nicht, von welchem Unternehmen welcher Lohn angeboten wird;
Arbeitsanbieter bevorzugen einen hohen vor einem niedrigen Lohn, wobei sie darauf abzielen, ihr (diskontiertes) Lebenseinkommen zu maximieren;
jede Kontaktaufnahme mit einem Unternehmen verursacht Suchkosten.
Man nimmt zunächst an, dass die Wahrscheinlichkeit, dass einem Arbeitssuchenden überhaupt ein Arbeitsplatz angeboten wird, beträgt. Diese Wahrscheinlichkeit ist von Sucher zu Sucher verschieden – Persönlichkeit, Qualifikation oder andere individuelle Faktoren nehmen maßgeblichen Einfluss auf ihren Wert. Zudem wirkt sich der Lohnsatz, durch den eine Stelle charakterisiert ist, negativ auf aus; je höher der angebotene Lohn, desto mehr Arbeitsanbieter werden sich um die Stelle bemühen und desto geringer wird für den Einzelnen die Chance sein, eine Offerte zu erhalten. Sei also ein Vektor der individuellen Faktoren und der angebotene Lohn, dann gilt . Wir unterstellen weiter, dass die Wahrscheinlichkeit, dass der Sucher ein Stellenangebot annimmt, beträgt. ist seinerseits abhängig vom individuellen Reservationslohn und darüber hinaus wieder von persönlichen Eigenschaften (repräsentiert durch ), sodass .
Die Wahrscheinlichkeit, die Offerte anzunehmen, ist dann
wobei man intuitiv zu dieser Formel gelangt, indem man für jeden Lohnsatz über dem Reservationslohn prüft, mit welcher Wahrscheinlichkeit man eine entsprechende Offerte erhält und dann diese Wahrscheinlichkeit mit der Wahrscheinlichkeit, dass ein kontaktiertes Unternehmen überhaupt einen solchen Lohn anbietet, gewichtet. bezeichnet damit gerade die Wahrscheinlichkeit, einen konkreten Lohnsatz zu erhalten; die Wahrscheinlichkeit, eine Offerte anzunehmen, ist folglich gerade die Summe der Wahrscheinlichkeiten, eine spezifische Offerte anzunehmen, und zwar bezogen auf jede Offerte, deren angebotener Lohn mindestens so hoch wie der Reservationslohn des Suchers ist.
Damit beträgt der erwartete Lohn eines in der nächsten Periode akzeptierten Angebots
Suchoptimal ist offensichtlich eine Strategie, bei der der diskontierte Erwartungswert des aus der Offerte resultierenden Einkommens dem erwarteten Ertrag aus der Fortsetzung der Suche entspricht. Zunächst definiert man den Erwartungswert des Reservationslohnes. Dieser entspricht schlicht der diskontierten Summe aller Lohnzahlungen in dieser Höhe über den gesamten Zeitverlauf, also
nach den Rechengesetzen über die Geometrische Reihe. Um die Höhe des erwarteten Payoffs zu bestimmen, der bei Ablehnung der Offerte anfiele, zerlegt man diesen zunächst nach den jeweiligen Suchschritten bzw. Perioden. Der diskontierte Wert des unmittelbar auf die Ablehnung folgenden Schrittes ist dann
,
wobei beispielsweise für Zuwendungen aus einer Arbeitslosenversicherung stehen kann und den Suchkosten entspricht, die dem Akteur durch die erneute Einholung einer Offerte entstehen. Darunter mögen direkte Kosten wie Anfahrt oder Ähnliches zu verstehen sein, insbesondere aber auch Opportunitätskosten, die dadurch anfallen, dass der Akteur dadurch in seinen sonstigen Aktivitäten gehemmt ist.
Unter Berücksichtigung der Tatsache, dass der Sucher mit Wahrscheinlichkeit zu Beginn der Folgeperiode noch arbeitslos ist und unter Rücksichtnahme auf den unter dem nominalen Wert liegenden Barwert zukünftiger Lohnersatzeinkommen und Suchkosten gilt für das erwartete Einkommen in der Folgeperiode analog
In der Summe (das heißt für alle Folgeperioden) führt dies auf einen erwarteten Payoff von
Dieser muss nun aber gerade gemäß obiger Bedingung identisch zur Summe der diskontierten Reservationslöhne sein, was nach einigen Umformungen auf
führt.
Interpretation
Aus den Modellergebnissen des Modells lassen sich einige wichtige Erkenntnisse für das Suchverhalten von Arbeitsanbietern ableiten. Der Reservationslohn ist hier abhängig vom Diskontierungssatz, der Stellenangebotswahrscheinlichkeit, der Stellenannahmewahrscheinlichkeit sowie dem erwarteten Lohn. Klare Aussagen zu den Auswirkungen dieser Variablen lassen sich beispielsweise hinsichtlich des (bedingten) Erwartungswerts des Lohnsatzes treffen. Je höher dieser ist, desto größer wird der individuelle Reservationslohn des Suchers sein, weil sich die Fortsetzung der Suche dann eher lohnt. Die Höhe der Zuwendungen im Fall von Arbeitslosigkeit (Arbeitslosengeld oder dergleichen) beeinflusst den Reservationslohn ebenfalls positiv, weil hierdurch die Kosten eines weiteren Suchschrittes geringer werden. So lange der direkte Nettoertrag aus dem nächsten Suchschritt, (also Arbeitslosenunterstützung abzüglich der direkten Suchkosten) nicht schon positiv ist und darüber hinaus auch noch den erwarteten Lohn übersteigt, wirkt sich weiterhin auch ein höherer Diskontsatz negativ auf den Anspruchslohn aus. Da ein höheres eine höhere Gegenwartspräferenz anzeigt, erscheint dieses Ergebnis einsichtig, da der Sucher somit das bisherige Einkommen höher schätzt als ein etwaiges höheres in der Zukunft. Unter derselben Einschränkung ist die Wirkung von hingegen positiv bezüglich des Reservationslohns – je höher die Wahrscheinlichkeit, eine Stelle anzunehmen, desto höher muss ceteris paribus auch der Lohn sein, den man sich davon erhofft.
Die suchtheoretische Modellvorstellung macht auch deutlich, wovon die Länge von Arbeitslosigkeit abhängig sein kann. Naheliegenderweise wird die Länge der durchschnittlichen Suchdauer (bis zur Beschäftigung) positiv mit dem Reservationslohn korrelieren. Eine hohe Arbeitslosenunterstützung und eine niedrige Gegenwartsvorliebe können dabei ebenso die Dauer der Arbeitslosigkeit erhöhen wie ein hoher erwarteter Lohnsatz. Dies kann in Zeiten, in denen es zu Schocks auf die Arbeitsnachfrage kommt (zum Beispiel bei Rezessionen oder Ähnlichem) dazu führen, dass Arbeitsanbieter bei der Bildung ihrer Lohnansprüche die veränderte Wirtschaftslage nicht oder nicht ausreichend berücksichtigen, indem sie eine (Links)verschiebung der Dichtefunktion nicht als solche erkennen, sondern bei Sichtung einer niedrigen Offerte lediglich davon ausgehen, sich auf einem äußeren Punkt der bisherigen Dichtefunktion zu befinden, also nur zufällig ein besonders ungünstiges Angebot erhalten zu haben (siehe Abbildung). Dies verlängert den Suchprozess (und damit die Dauer der Arbeitslosigkeit) weiter.
Bewertung und Erweiterungen
Eine offensichtliche Unzulänglichkeit des dargestellten Modells besteht darin, dass die Sucher allesamt von einem Zustand der Arbeitslosigkeit in einen Zustand der Erwerbstätigkeit übergehen (möchten). Dieser Ausschluss einen „Turnovers“ kann am einfachsten dadurch umgangen werden, dass man die Periode der Erwerbstätigkeit exogen begrenzt, indem man beispielsweise einen „Entlassungsparameter“ einführt, der, einer bestimmten Verteilung folgend, Jobs terminiert (siehe zum Beispiel Wright 1987). Der grundlegendere Erweiterungsansatz beruht aber darauf, die so genannte „On-the-Job“-Suche explizit zu modellieren. Angefangen mit dem Modell von Kenneth Burdett (1978) wurden diese Modelle auch immer wieder als theoretisches Fundament für mehrere empirische Erkenntnisse zum Suchverhalten genutzt, darunter der Tatsache, dass ein höheres Alter der Beschäftigten üblicherweise mit einer geringeren Kündigungswahrscheinlichkeit einhergeht.
Problematisch am obigen Modell ist weiterhin, dass es voraussetzt, dass den Suchern die Verteilungsfunktion bekannt ist. Ein Teil der Literatur ist daher dazu übergegangen, Lerneffekte über die Verteilungsfunktion in das Modell miteinzubeziehen. Michael Rothschild (1974) setzte für seine Version des Suchmodells (das allerdings nicht auf den Arbeits-, sondern auf einen Gütermarkt bezogen war; das Problem ist aber analog) beispielsweise voraus, dass der Sucher zwar von einer festen Dichtefunktion ausgeht, bei der er zunächst von einem bestimmten Preis ausgeht, den er erzielen will, nach einer bestimmten Häufigkeit des Nichterreichens dieses Preises aber seine Preisvorstellung revidiert. Damit soll auch der Beobachtung Rechnung getragen werden, dass individuelle Reservationslöhne typischerweise mit der Dauer der bisherigen Arbeitslosigkeit fallen, was die Standardmodelle nicht erklären können (praktische Implikationen des kontinuierlichen Revisionsprozesses der Verteilungsfunktionen finden sich auch bei Burdett/Vishwanath 1988)
Die Grundannahme, dass lediglich die Lohnhöhe für die Akzeptanz einer Job-Offerte relevant ist, kann dahingehend konzeptionell modifiziert wird, dass statt des Lohnes der durch den Arbeitsplatz entstehende Nutzen zum entscheidungsrelevanten Kriterium erhoben wird; in einer entsprechenden Nutzenfunktion kann so beispielsweise neben der Lohnhöhe auch die Arbeitszeit Niederschlag finden.
Im Kern handelt es sich bei suchtheoretischen Modellen dieser Art um angebotsseitige Theorien – wie sich die Arbeitsnachfrage zusammensetzt oder wie sich in der Realität die Löhne herausbilden vermögen sie nicht hinreichend zu erklären.
Eine neuere und weit verbreitete Klasse von Suchmodellen randomisiert den Such- und Einstellungsprozess. Im Nachgang des ursprünglichen Modells von Christopher Pissarides (1985) wird dabei die Einstellungswahrscheinlichkeit mittels einer – konzeptionell bereits auf Peter Diamond (1982) zurückgehenden – Matching-Funktion modelliert; der Lohn wiederum bestimmt sich sodann auf Grundlage eines Verhandlungsspiels. Diese im Bereich der arbeitsmarktökonomischen Forschung zentralen Matching-Prozesse sind im Detail Gegenstand des folgenden Abschnitts.
Eine Makro-Ebene – Matching und der randomisierte Suchprozess
Die Modellierung von Interaktionen auf dem Arbeitsmarkt mittels einer Matching-Funktion birgt primär den Vorteil, Friktionen auf einfache Weise und ohne Notwendigkeit zur Generalrevision modelltheoretischer Grundlagen modellieren zu können. Dabei können Friktionen verschiedener Art sein: Schocks auf wichtige makroökonomische Kenngrößen des Arbeitsmarktes wie der Zahl der Arbeitsnachfrager können so ebenso berücksichtigt werden wie Schocks auf Verhaltensparameter der Arbeitsanbieter (zum Beispiel eine höhere Suchintensität). Der nachfolgende Abschnitt skizziert die einfachste Form der Matchingfunktion. Die Darstellung des Grundmodells folgt dabei Pissarides 2000 und Economic Sciences Prize Committee of the Royal Swedish Academy of Sciences 2010.
Grundlagen und Beveridge-Kurve
Sei die Zahl der Erwerbsfähigen, der Anteil der Erwerbsfähigen, der aktiv eine Arbeitsstelle sucht, und der Anteil der Erwerbsfähigen, für den eine offene Stelle bereitsteht. Dann beträgt die Anzahl der Jobsucher gerade und die Anzahl der offenen Stellen . Man definiert eine Matchingfunktion
;
wobei die Zahl der Neueinstellungen ist. Für die weiteren Berechnungen voraus gesetzt ist zudem, dass monoton in seinen beiden Argumenten steigt sowie konkav und homogen vom Grade eins ist (konstante Skalenerträge).
Das Verhältnis offener Stellen zur Zahl der Arbeitssuchenden wird mit bezeichnet und es gilt entsprechend – man bezeichnet dieses Verhältnis von Vakanzen zu Arbeitslosen im Folgenden mit Pissarides als „Marktanspannung“. Des Weiteren definiert man eine Stellenbesetzungswahrscheinlichkeit . Intuitiv erschließt sich ihr Zusammenhang zur Matchingfunktion dadurch, dass das Produkt aus Stellenbesetzungswahrscheinlichkeit und der Zahl der offenen Stellen der Zahl der Neueinstellungen entsprechen sollte, das heißt also . Umstellen liefert die Definition von :
(unter Ausnutzung der Homogenitätseigenschaft).
Betrachtet man nun ein gewisses Zeitintervall, beträgt die Wahrscheinlichkeit, dass ein Arbeitsloser eine neue Arbeitsstelle findet, . Die durchschnittliche Dauer der Arbeitslosigkeit entspricht gerade dem Kehrwert, . Die durchschnittliche Dauer der Arbeitslosigkeit ist in unbestimmter Weise abhängig von der Marktanspannung. Aus Anbietersicht führt ein hohes zu einer höheren Wahrscheinlichkeit, Arbeit zu finden; aus Sicht der Arbeitsnachfrager kann eine Vakanz aber bei kleinerem schneller besetzt werden (). Mit ähnlicher Begründung erklären sich die so genannten Suchexternalitäten infolge einer Ausweitung der Zahl der Sucher: Ein zusätzlicher Sucher steigert die Wahrscheinlichkeit, dass ein anderer Arbeitsanbieter keine Beschäftigung findet (diese beträgt gerade ) und senkt die Wahrscheinlichkeit, dass ein Unternehmen eine Stelle nicht besetzen kann (diese beträgt ).
Man unterscheidet dann zwei Stromgrößen, den Fluss aus dem Pool der Beschäftigten in den Pool der Arbeitslosen (job destruction) und den umgekehrten Fall (job creation). Arbeitslosigkeit kommt in diesem vereinfachten Modell einzig als Resultat idiosynkratischer Produktivitäts- oder Outputschocks vor, der mit einer gewissen Wahrscheinlichkeit () auf ein konkretes Arbeitsverhältnis „einfallen“. Anders als in komplexeren Modellen, in denen diese Schocks nur mit einer gewissen Wahrscheinlichkeit überhaupt zu einer Auflösung des Arbeitsverhältnisses führen, nehmen wir hier an, dass jeder Schock zur Trennung vom Arbeitnehmer führt. Nimmt man dann für eine kurze Zeitperiode an, dass konstant ist, beträgt die durchschnittliche Zahl derer, die arbeitslos werden, – ist ja die Zahl der Beschäftigten. Im selben Intervall werden jedoch auch wieder einige Arbeitslose erwerbstätig. Weil die Zahl der Arbeitslosen ist und bereits oben als Wahrscheinlichkeit ermittelt wurde, dass ein Arbeitsloser eine Arbeitsstelle findet, können wir die durchschnittliche Zahl derer, die in der Zeit eine Beschäftigung finden, durch quantifizieren.
Im Steady-State müssen Zu- und Abgänge zum Arbeitslosenpool gerade identisch sein, das heißt . Löst man diese Gleichung nach auf, ergibt sich
.
Hierbei handelt es sich um eine Gleichgewichtsbedingung. Sie ordnet einer gegebenen Kündigungsrate und Marktanspannung eine Arbeitslosenquote zu; das so definierte bezeichnet man dann als gleichgewichtige Arbeitslosigkeit. Durch die Bedingung ist die so genannte Beveridge-Kurve gegeben. Graphisch repräsentiert in einem -Diagramm wird so offenbar, dass die Arbeitslosigkeit negativ von der Marktanspannung abhängig ist. Je höher die Marktanspannung, das heißt je höher die Zahl der Vakanzen im Verhältnis zur Zahl der Arbeiter, desto geringer die Arbeitslosenquote. Eine exogene Erhöhung der Kündigungsrate führt dazu, dass bei gegebener Marktanspannung die Arbeitslosigkeit ansteigt, sodass sich die Kurve nach oben verschiebt. Überträgt man die Beziehung in ein -Diagramm, zeigt sich ebenfalls ein fallender Verlauf der entsprechenden Kurve. Je höher die Zahl der vakanten Stellen, desto höher die Marktanspannung und desto geringer die Arbeitslosigkeit. Hier führt ein Anstieg von dazu, dass sich die Kurve nach rechts verschiebt, weil für jeden gegebenen Anteil vakanter Stellen die korrespondierende Arbeitslosenquote nunmehr höher liegt.
Job Creation
Die in der Beveridge-Kurve inkorporierte Steady-State-Bedingung enthält mit eine noch weitgehend unbestimmte Variable (das Modell beinhaltet noch keine Informationen darüber, woraus sich die Zahl der offenen Stellen ergibt); es lässt sich allerdings zeigen, dass mit den Modellannahmen hierfür ein eindeutiger Wert bestimmt werden kann, sodass auch die Gleichgewichtsarbeitslosigkeit für jeden durch und gegebenen Marktzustand eindeutig bestimmt ist.
Wann wird ein Arbeiter eingestellt? Man nehme an, dass jede Firma genau jeweils einen Arbeiter einstellen kann, ihm stets kündigen kann und dies situationsabhängig auch tut, und nur dann produzieren kann, wenn sie einen Arbeiter beschäftigt. Die Produktivität des Arbeiters sei allgemein der Wert des Outputs und betrage (fixe Arbeitszeit); die Einstellungskosten seien proportional zur Produktivität und betragen pro Zeitspanne ( steht dabei zum Beispiel für Suchkosten oder die Kosten des Vertragsabschlusses); die Lohnkosten seien durch gegeben. Der Marktwert einer besetzten Stelle betrage , derjenige einer Vakanz . Um zur so genannten Job-Creation-Bedingung zu gelangen, ist es nötig, diese beiden Marktwerte explizit zu berechnen.
: Im Optimum entspricht der erwartete Gewinn, der der Firma aus einer offenen Stelle entsteht, dem erwarteten Ertrag, den die Investition des Marktwerts der Vakanz auf dem Kapitalmarkt erbringen würde. Die Investition in die Vakanz kostet zunächst . Mit Wahrscheinlichkeit wird die Vakanz besetzt und erbringt sodann einen Gewinn in Höhe von . Investiert man den Marktwert hingegen auf dem Kapitalmarkt, so erzielt man damit einen Ertrag in Höhe von (mit dem Zinssatz). Im Gleichgewicht gilt demnach .
Da im Gleichgewicht von den Unternehmen alle Gewinnmöglichkeiten durch die Schaffung neuer Jobs ausgenutzt werden, beträgt der Marktwert einer Vakanz dort null. Mit der eben hergeleiteten Gleichung folgt deshalb .
: Zunächst bringt eine besetzte Stelle einen Nettoerlös von (Outputwert minus Lohn). Allerdings wird die Stelle mit Wahrscheinlichkeit durch einen idiosynkratischen Schock wieder zerstört (und rentiert ), andernfalls besteht sie fort und rentiert . Weil im Gleichgewicht ohnehin null beträgt (siehe vorheriger Punkt), stellt sich für das Unternehmen mit Wahrscheinlichkeit ein Verlust von ein. Wieder ist im Optimum der erwartete Gewinn aus einer besetzten Stelle identisch zum erwarteten Ertrag, den die Investition des Marktwerts der besetzten Stelle auf dem Kapitalmarkt erbringen würde. Es folgt . Einsetzen des Ergebnisses aus dem vorhergehenden Punkt liefert
.
Arbeiter
Nachdem im vorangehenden Abschnitt die Perspektive der Firma und damit die der Arbeitsnachfrager eingenommen wurde, soll im Folgenden das Verhalten der Arbeitsanbieter betrachtet werden. Zur Vereinfachung wird hier darauf verzichtet, dem vielfältigen Einfluss der Jobsucher auf das Gleichgewichtsergebnis Rechnung zu tragen. Anstatt wie in der Realität naheliegend zum Beispiel das Suchverhalten oder das Verhalten in Lohnverhandlungen Einfluss nehmen wird, wird in diesem Grundmodell lediglich ein Einflusskanal modelliert – die Lohnhöhe; sei konstant und die Arbeitsproduktivität aller Arbeiter identisch. Ist ein Akteur beschäftigt, beträgt sein Einkommen , während der Arbeitssuche (bzw. der Arbeitslosigkeit) beträgt es (Arbeitslosenunterstützung, „Entsparen“ oder Ähnliches), wobei hier, erneut vereinfachend, als nicht von der Marktsituation abhängig angenommen wird. Jeder Arbeiter ist zu jedem Zeitpunkt entweder beschäftigt oder auf der Suche nach einem Arbeitsplatz.
Sei der Barwert der zukünftigen Einkommen aus der Arbeitslosigkeit und der Barwert der zukünftigen Einkommen aus der Beschäftigung. Für und gelten folgende Erwägungen:
: Der Barwert der zukünftigen Einkommen eines Beschäftigten setzt sich zum einen zusammen aus dem Lohn ; allerdings besteht auch das Risiko, den Arbeitsplatz wieder zu verlieren. In diesem Fall erfährt der Akteur einen Einkommensverlust in Höhe von . Daraus resultiert für den erwarteten Periodenertrag eines Beschäftigten . Dieser muss im Optimum gleich dem Betrag sein, den der Arbeitnehmer auf dem Kapitalmarkt für die Anlage dieser Summe bekommen könnte. Somit gilt . (So lange arbeitet der Beschäftigte weiter; hinreichend dafür ist , was wir hier voraussetzen.)
: Der Barwert des zukünftigen Einkommens eines Arbeitslosen setzt sich zum einen zusammen aus dem direkten Einkommen, das er im Zustand der Nichterwerbstätigkeit generieren kann (); allerdings findet er mit Wahrscheinlichkeit auch wieder Arbeit und erfährt dadurch einen Einkommensgewinn in Höhe von . Daraus resultiert für den erwarteten Periodenertrag eines Arbeitslosen . Dieser muss im Optimum gleich dem Betrag sein, den der Arbeitnehmer auf dem Kapitalmarkt für die Anlage dieser Summe bekommen könnte. Somit gilt .
Lohnverhandlungen
Es wird angenommen, dass nach einer erfolgreichen Zusammenkunft von Arbeiter und Arbeitgeber ein Lohn ausgehandelt wird. Die Höhe des Lohnes hat anders als in der walrasianischen Modellvorstellung keine markträumende Funktion und keineswegs ist er das Resultat eines Über- bzw. Unterbietungswettbewerbs auf Arbeitsanbieter- bzw. -nachfragerseite. Vielmehr ist der Lohn im Alltag der Matching-Akteure der Kanal, über den in dem beim Match entstehenden bilateralen Monopol die Monopolrente aufgeteilt wird. Es muss zunächst bedacht werden, dass der Gesamtertrag, der im Gleichgewicht aus einer besetzten Stelle resultiert, höher ist als die Summe aus dem Marktwert des besetzten Jobs, (dem „Nutzen für die Firma“) und dem Barwert der zukünftigen
Einkommen des Beschäftigten (dem „Nutzen für den Arbeiter“); dies deshalb, weil die Zerstörung des Arbeitsverhältnisses für beide Seiten wieder Suchkosten mit sich bringen würde. Die Rente aus einem Match beläuft sich für die Firma daher auf , für den Arbeiter auf und damit insgesamt auf .
Die Aufteilung dieser Matchrente erfolge beim Aufeinandertreffen der beiden Akteure mittels eines Nash-Verhandlungsspiels. Lässt man das Symmetrieaxiom unberücksichtigt, ist durch
eine Nash-Lösung, und zwar die so genannte allgemeine Nash-Lösung, gegeben, wobei () die Verhandlungsmacht des Arbeiters, diejenige der Firma angibt. Notwendige Bedingung für die Lösung des Problems ist , sodass für mit und folgt, dass ( taucht hier also wieder dadurch auf, dass es den Anteil des Arbeiters an der Überschussrendite des Arbeitgebers aus der Schaffung des Arbeitsplatzes angibt). Für gilt wiederum im Gleichgewicht , sodass die Lohngleichung nun auch als
geschrieben werden kann (graphisch repräsentiert durch die Lohnkurve).
Aus der Lohngleichung lassen sich vielerlei Rückschlüsse auf den Lohnbildungsprozess in den Matching-Modellen ziehen. Eine hohe Marktanspannung impliziert beispielsweise einen hohen Lohnsatz, da die Anbieter von Arbeit aufgrund des höheren Verhältnisses von vakanten Stellen zu Arbeitslosen eine größere Verhandlungsmacht haben. Ähnliches gilt auch für das Einkommen bei Arbeitslosigkeit – –, das man hier als direkte outside option (und damit die Verhandlungsposition stärkend) betrachten kann. Auch hohe Einstellungskosten tragen zu einem relativ hohen Lohn bei, was intuitiv darauf gründet, dass Firmen bei höheren Einstellungskosten durch eine rasche Besetzung ihrer Offerte auch umso höhere Kosten sparen. Die Steigung der Lohnkurve beträgt . Eine marginale Änderung der Marktanspannung führt also zu umso größeren Lohnzugewinnen, je höher die durchschnittlichen Einstellungskosten sind.
Gleichgewicht
Das eindeutige Matching-Gleichgewicht wird durch ein Tupel markiert. In diesem Punkt sind sowohl
die Gleichung der Beveridge-Kurve,
die Job-Creation-Bedingung als auch
die Lohngleichung
erfüllt. JC-Bedingung und Lohngleichung definieren dabei für einen gegebenen Zinssatz das gleichgewichtige sowie den gleichgewichtigen Lohnsatz (Job-Creation-Kurve und Lohnkurve fungieren dabei als matchingtheoretischer Ersatz für die neoklassischen Arbeitsnachfrage- und Arbeitsangebotskurve); mit folgt sodann aus der Beveridge-Kurve die gleichgewichtige Arbeitslosigkeit .
Die nachfolgende an Wagner/Jahn angelehnte Tabelle gibt einen Überblick über die Implikationen von Parameteränderungen:
{| style="text-align: center" class="wikitable" width="50%"
! colspan="4" | Übersicht über die Auswirkung der Änderung von Parametern auf die Komponenten des Matching-Gleichgewichts
|-
! rowspan="2" |
! colspan="3" | … führt zu …
|-
|
|
|
|-
!
|
|
|
|-
!
|
|
|
|-
!
|
|
|
|-
!
|
|
|
|}
Ein positiver Produktivitätsschock () führt so beispielsweise zu einem höheren Lohnniveau und einer geringeren Arbeitslosenquote, indem er die Lohnkurve nach oben und die JC-Kurve nach rechts verschiebt. Damit ist bereits die Auswirkung auf die Lohnhöhe unmittelbar ersichtlich. Der positive Effekt auf die Arbeitslosenquote kann nicht direkt analytisch eingesehen werden, denn es wäre theoretisch denkbar, dass die Verschiebung der JC-Kurve im Verhältnis zu der der Lohnkurve so stark ist, dass die Marktanspannung sinkt anstatt wie intuitiv angenommen zu steigen. Es lässt sich allerdings zeigen, dass aufgrund der Annahme, dass strikt kleiner als eins ist, ein solcher Effekt nicht einstellt.
Eine Zunahme des Diskontierungssatzes wird hingegen dazu führen, dass der Lohn fällt und die Arbeitslosigkeit steigt. Während die Lohnkurve unbeeinflusst bleibt, führt ein solcher Schock nämlich zu einer Linksverschiebung der JC-Kurve, wodurch sich wegen der positiven Steigung der Lohnkurve ein niedrigeres gleichgewichtiges Lohnniveau sowie eine geringere Anspannung einstellt. Dies folgt der Intuition, dass Arbeiter mit hoher Gegenwartspräferenz eher bereit sein werden, auch gering entlohnte Offerten anzunehmen als andere.
Bereits zuvor wurde deutlich, dass ein höheres mit einem höheren Lohn einhergeht; die Gesamtbetrachtung in diesem Abschnitt zeigt, dass dies auch im Gleichgewichtszustand der Fall ist. Überdies wird aber ersichtlich, dass die höhere Verhandlungsmacht der Arbeitnehmer – graphisch über die Verschiebung der Lohnkurve nach oben und den damit verbundenen Rückgang der Marktanspannung – auch zu höherer Arbeitslosigkeit führt.
Diskussion
Das vorstehend skizzierte Matching-Modell lässt zwar vielerlei Einsichten in den Modellalltag der Marktakteure zu, doch bietet es zugleich eine mächtige Basis für Erweiterungen. Eine wichtige Komponente der in der Praxis zur Anwendung kommenden Modelle ist die Modellierung von Entscheidungen über den Kapitaleinsatz. Ebenso wie im kurzfristigen neoklassischen Modell die Veränderung des Kapitalbestandes und allfällige Substitutions- oder Komplementaritätsbeziehungen zwischen den Produktionsfaktoren Kapital und Arbeit keine Berücksichtigung fanden, kam der Kapitalbestand auch hier lediglich als fixe gegebene Größe vor (beinhaltet in der Produktivität). Moderne Matchingmodelle endogenisieren dem gegenüber die Kapitalentscheidung.
Ein weiterer bedeutender Faktor ist die simplifizierende Annahme identischer Löhne, die für jede Offerte angeboten werden und in modernen Modellen üblicherweise aufgegeben wird; basierend auf den suchtheoretischen Grundlagen, die weiter oben dargestellt wurden, würde man demgegenüber erwarten, dass die Lohnhöhe der Offerten zumindest teilweise einem Zufallsprozess unterliegt; eine einfache Möglichkeit zur Implementation besteht hier darin, dass man für die Produktivität der Matches eine Verteilungsfunktion einsetzt (der Lohn passt sich dieser dann ja an).
Seit Mitte der neunziger Jahre hat sich im Bereich der Matchingtheorie ein nunmehr als Diamond-Mortensen-Pissarides-Modell (DMP-Modell) bezeichneter Modellansatz durchgesetzt, der heute als „gegenwärtige[s] Standardmodell der Matchingtheorie“ gilt. Das auf einen Artikel von Dale Mortensen und Christopher Pissarides aus dem Jahr 1994 zurückgehende Modell trägt insbesondere dem Umstand Rechnung, dass die Produktivität eines Jobs über die Fortdauer des Arbeitsverhältnisses keineswegs wie im Grundmodell konstant bleibt, sondern vielmehr erheblichen arbeitsplatzspezifischen Schwankungen on the job unterliegt, wie sie ja auch schon die empirisch gesicherte Existenz der Konjunkturzyklen implizieren. Die Produktivitätsschocks wirken sich sodann auf die Marktpartizipanten aus, und zwar sowohl auf die Produktivität der bestehenden Jobs als auch der etwaig zu schaffenden neuen Offerten; ein Poisson-Prozess modelliert die Ankunftsrate entsprechender Schockereignisse. Im DMP-Modell setzt daraufhin ein Entscheidungsprozess ein, in dessen Zuge auf Basis einer Anpassung des Marktwerts des Arbeitsverhältnisses bestimmt wird, ob das Unternehmen den Markt ganz verlassen, die Lohnhöhe neu verhandelt oder ein bestehender Job zerstört werden soll oder nicht. Lohnverhandlungen sind somit nicht auf die Einstellung beschränkt, sondern kommen auch bei bestehenden Arbeitsverhältnissen zur Anwendung. Exogene Schocks, zum Beispiel eine Erhöhung der Arbeitslosenunterstützung, wirken sich damit also nicht mehr nur wie im obigen Grundmodell auf den Job-Creation-, sondern auch auf den Job-Destruction-Prozess aus; die vormals exogene Trennungsentscheidung wird, mit anderen Worten, endogenisiert. Große Teile der arbeitsmarktökonomischen Theorie bauen seitdem auf dem DMP-Modell auf. Erweiterungen des Modells berücksichtigen beispielsweise:
Job-to-Job-Bewegungen (Schaffung und Zerstörung von Arbeitsverhältnisses hängen dort zusammen)
On-the-Job-Suchanstrengungen von Arbeitnehmern, womit gemeint ist, dass die Arbeitnehmer ihre Suchanstrengungen nicht nach Akzeptanz eines Jobangebots sofort wieder einstellen;
die explizite Modellierung der Heterogenität von Arbeitern und/oder Firmen.
Eine Übersicht über verschiedene explizite Matching-Funktionen findet sich bei Petrongolo/Pissarides 2001.
Eine andere Modellklasse ist diejenige der kompetitiven Suchmodelle (zurückgehend unter anderem auf Moen 1997), in denen an die Stelle der zufälligen Ankunft von Arbeitern an einem Unternehmen (wie im matchingtheoretischen Grundmodell oder dem DMP-Modell) eine zweistufige Lösung tritt: Zunächst macht eine Gruppe von Akteuren ein Lohnangebot, dann sucht die andere Gruppe das lukrativste Angebot aus. In einer einfachen Version machen beispielsweise Firmen (Arbeiter) ein Angebot und die Arbeiter (Firmen) entscheiden sich daraufhin für das höchste (niedrigste). Das primäre Abgrenzungsmerkmal zu den obig skizzierten Matching-Modellen besteht dabei in der Annahme des zielgerichteten Suchprozesses (directed search). Anders als die klassischen Matching-Modelle liefern kompetitive Suchmodelle hierdurch auch mitunter sozial effiziente Verhandlungsergebnisse. Ungeachtet der methodologischen Nähe bieten derlei Modelle mit zielgerichteten Suchprozessen eine größere Einsicht in den Matching- und Verhandlungsprozess: Während beispielsweise noch im DMP-Modell die Matchrente im Rahmen des Nash-Verhandlungsspiels (ex post) exogen aufgeteilt wird, liegt die Aufteilung hier in der Macht der Matching-Akteure – Arbeiter beziehungsweise Firmen sind bei ihrer Ex-Ante-Entscheidung über die offerierte Lohnhöhe im ständigen Trade-off zwischen Einstellungswahrscheinlichkeit und Lohnhöhe. Versionen des Modells beziehen zudem noch spezifische Heterogenitätsfaktoren mit ein, die zu Friktionen führen.
Literatur
Pierre Cahuc, André Zylberberg: Labor Economics. MIT Press, Cambridge u. a. 2004, ISBN 0-262-03316-X.
Ronald G. Ehrenberg, Robert S. Smith: Modern Labor Economics. Theory and Public Policy. 6. Auflage. Addison-Wesley Longman, Amsterdam u. a. 1997, ISBN 0-673-98013-8.
Wolfgang Franz: Arbeitsmarktökonomik. 6. Auflage. Springer, Berlin/ Heidelberg 2006, ISBN 3-540-32337-6, (digitalisierte Version).
Richard B. Freeman: Labour economics. In: Steven N. Durlauf, Lawrence E. Blume (Hrsg.): The New Palgrave Dictionary of Economics. 2. Auflage. Palgrave Macmillan. (Online-Ausgabe)
Berndt Keller: Einführung in die Arbeitspolitik. 7. Auflage. Oldenbourg, München 2008, ISBN 978-3-486-58475-2.
Brian P. McCall, John J. McCall: The Economics of Search. Routledge, London 2008, ISBN 978-0-415-29992-3, E-Book-ISBN 978-0-203-49603-9. [Insbesondere Kap. 6–11.]
Paul J. McNulty: The Origins and Development of Labor Economics. A Chapter in the History of Social Thought. MIT Press, Cambridge/ London 1980, ISBN 0-262-13162-5.
Christopher Pissarides: Equilibrium Unemployment Theory. 2. Auflage. MIT Press, Cambridge 2000, ISBN 0-262-16187-7. (Technische Abhandlung zur Matching-Theorie)
Werner Sesselmeier, Gregor Blauermel: Arbeitsmarkttheorien. Ein Überblick. 2. Auflage. Physika 1998, ISBN 3-7908-1057-6. (Nichttechnische Übersichtsdarstellung)
Stephen Smith: Labour Economics. 2. Auflage. Routledge, London 2003, ISBN 0-415-25985-1, E-Book-ISBN 978-0-203-42285-4.
Hal Varian: Intermediate Microeconomics. A Modern Approach. 7. Auflage. W. W. Norton, New York/ London 2006, ISBN 0-393-92862-4. (Einführendes Lehrbuch zur Mikroökonomik, zum Arbeitsmarkt siehe Kap. 8 und 9)
Thomas Wagner, Elke J. Jahn: Neue Arbeitsmarkttheorien. 2. Auflage. Lucius & Lucius (UTB), Stuttgart 2004, ISBN 3-8282-0253-5.
Jürgen Zerche, Werner Schönig, David Klingenberger: Arbeitsmarktpolitik und -theorie. Oldenbourg, München/ Wien 2000, ISBN 3-486-25413-8.
Weblinks
[Erklärungen zum neoklassischen Standardmodell; Java-Applet zur Simulation eines Arbeitsmarktes bestehend aus Unternehmen und Gewerkschaften]
Anmerkungen
Volkswirtschaftslehre
|
Q28161
| 160.447802 |
85672
|
https://de.wikipedia.org/wiki/Naturdenkmal
|
Naturdenkmal
|
Ein Naturdenkmal (abgekürzt: ND) ist ein natürlich entstandenes Landschaftselement, das unter Naturschutz gestellt ist. Es kann ein einzeln stehendes oder vorkommendes Gebilde wie eine Felsnadel oder ein einzeln stehender Baum sein, undefinierten Umfangs wie eine Höhle oder ein Gebiet oder Gebilde mit einer beschränkten Fläche und einer klaren Abgrenzung von seiner Umgebung wie ein Felsengarten oder eine Wiese; letztere werden als flächenhaftes Naturdenkmal oder Flächennaturdenkmal (abgekürzt: FND) bezeichnet.
Definition
Geschichte
Das Naturdenkmal – ein Begriff, den Alexander von Humboldt in der Beschreibung seiner Amerikareise „Relation historique“ benutzt: „monuments de la nature“, dennoch konnte der Begriff „Naturdenkmal“ in Wörterbüchern oder Lexika vor 1900 nicht nachgewiesen werden – wird oft als Naturschöpfung bezeichnet, kann jedoch gleichzeitig Zeuge der historischen Kulturlandschaft sein (markante gepflanzte Einzelbäume oder Aufschlüsse mit besonderen geologischen Bildungen).
Nachdem in der zweiten Hälfte des 19. Jahrhunderts in Deutschland der Naturschutzgedanke aufgekeimt war, verfasste im Jahr 1900 der Botaniker Hugo Conwentz den ersten Band eines Nachweises „der beachtenswerthen und zu schützenden urwüchsigen Sträucher, Bäume und Bestände im Königreich Preußen“, der Kandidaten für schützenswerte Naturdenkmäler inventarisierte. Im Jahr 1904 verfasste Conwentz eine Denkschrift mit dem Titel Die Gefährdung der Naturdenkmäler und Vorschläge zu ihrer Erhaltung, die er bei dem Ministerium der geistlichen, Unterrichts- und Medizinal-Angelegenheiten einreichte. Sie enthielt eine umfassende Definition des Begriffs Naturdenkmal, zu dem flächenhafte Elemente der Natur, „Landschafts-“ und „Lebenszustände“ zählten. Conwentz war es auch, der die Leitung der 1906 im damals preußischen Danzig eingerichteten ersten Staatlichen Stelle für Naturdenkmalpflege übernahm.
Artikel 150 der Weimarer Verfassung reihte den Schutz der Naturdenkmäler in den Schutz der Kultur- und Geschichtsdenkmäler ein. Das Reichsnaturschutzgesetz (RNG) von 1935 sah neben dem Tier-, Pflanzen- und Naturschutz den Schutz von Naturdenkmälern vor. Bis 1940 wurden knapp 50.000 Naturdenkmäler ausgewiesen. Der in der Zeit des Nationalsozialismus ideologisch aufgeladene Naturschutz geriet jedoch immer wieder in Konflikt mit der höher priorisierten Intensivierung der Landwirtschaft und Ausbau von Verkehrswegen (→ Naturschutz im Nationalsozialismus). In der Bundesrepublik Deutschland löste 1976 das Bundesnaturschutzgesetz das RNG ab und regelt seitdem den Schutz von Naturdenkmalen (siehe Abschnitt #Deutschland).
Kategorie der IUCN: Natural Monument or Feature
In der 1978 erstellten Schutzgebiets-Systematik der International Union for Conservation of Nature and Natural Resources (IUCN), der als internationaler Vergleichsmaßstab dient, bildet (deutsch meist Naturdenkmal) die Kategorie III.
Wie bei allen IUCN-Kategorien liegt der Fokus der Klassierung auf der Gestaltung von Schutzziel und Management (Maßnahmen von Eingriffen und Verboten). Sie sind nicht darauf ausgerichtet, Ökosysteme zu bewahren, Biodiversität wird aber indirekt begünstigt. Außerdem ist es eine Klasse, die beispielsweise in dicht bebautem Gebiet ausgewiesen werden kann und daher Naturreste schützen kann. Sonst gelten aber Naturdenkmäler insbesondere als „Botschafter“ des Umweltgedankens, da sie Schutzgut in seiner Vielfalt sehr eindrücklich darstellen (daher der deutsche Ausdruck Denkmal). Im Unterschied etwa zu Nationalparks tritt also der Erholungsgedanke in den Hintergrund, der didaktische Zweck in den Vordergrund.
Zur IUCN-Kategorie III gehören die Naturdenkmäler mitteleuropäischen Gepräges, aber auch zahlreiche andere Schutzgebiete in Natur- und Landschaftsschutz als ganze Klasse oder einzelne Schutzobjekte je nach nationalem Schutzziel und -ausmaß.
Nationales
Deutschland
In Deutschland ist der Schutz von Naturdenkmälern seit März 2010 in Bundesnaturschutzgesetz (BNatSchG) verankert. Geschützt werden können außer Einzelbäumen auch andere besondere Objekte der Natur (Naturgebilde) oder entsprechende Flächen bis zu 5 Hektar (Flächennaturdenkmale), sofern ihr Schutz wegen ihrer Seltenheit, Eigenart oder Schönheit oder aus wissenschaftlichen, naturgeschichtlichen oder landeskundlichen Gründen erforderlich ist. Der Schutz bedeutet ein weitgehendes Veränderungsverbot, das wie der jeweilige Schutzgegenstand und -zweck durch Rechtsverordnungen im Landesrecht näher bestimmt wird.
Geschichte
Naturdenkmäler wurden bereits in § 3 Reichsnaturschutzgesetz vom 26. Juni 1935 geschützt. Dieses wurde in der Bundesrepublik ersetzt durch § 17 Bundesnaturschutzgesetz vom 20. Dezember 1976. In der DDR galten § 3 Gesetz zur Erhaltung und Pflege der heimatlichen Natur der DDR von 1954, § 13 Gesetz über die planmäßige Gestaltung der sozialistischen Landeskultur der DDR von 1970 und §18 Erste Durchführungsverordnung zum Landeskulturgesetz der DDR von 1989.
Länder
Die Landesnaturschutzgesetze enthalten unterschiedliche Bestimmungen zu Naturdenkmälern und beriefen sich z. T. noch bis 2005 auf das Reichsnaturschutzgesetz von 1935. Naturdenkmale, die zuvor nach DDR-Recht unter Schutz gestellt worden waren, wurden 1990 vorbehaltlich einer Neuregelung übergeleitet. Daher kann es in den betreffenden Bundesländern Abweichungen, beispielsweise deutlich größere Flächennaturdenkmale geben. Es gibt in allen Bundesländern – außer in Bremen – verschiedene Naturdenkmale.
Österreich
In Österreich können Naturgebilde, besondere Einzelbäume oder Baumgruppen, Felsen, Höhlen und Wasserfälle, wegen ihrer Eigenart, Schönheit, Seltenheit oder ihres besonderen Gepräges, ihrer wissenschaftlichen oder kulturellen Bedeutung von der Bezirksverwaltungsbehörde zu Naturdenkmalen erklärt werden. Die Objekte werden von den Naturschutzabteilungen der Landesregierungen registriert und sind mit Tafeln mit Landeswappen gekennzeichnet. Sie sind in den Landesnaturschutzgesetzen definiert, da Naturschutz Ländersache ist, und in allen neun Bundesländern vorhanden.
Zur IUCN-Kategorie III gehören neben der Klasse Naturdenkmal auch meistens geschützter Landschaftsteil und diverse Spezialklassen der Landesebene, wie geschütztes Naturgebilde (Salzburg), Naturdenkmal von örtlicher Bedeutung (Vorarlberg) oder Örtliches Naturdenkmal (Kärnten), und diverser ex-lege-Schutz (nicht explizit ausgewiesene Naturgebilde, die prinzipiell unter Schutz stehen), wie der Höhlenschutz (sofern es zugängliche Schauhöhlen sind, sonst gilt Betretungsverbot für die Öffentlichkeit, womit sie in eine höhere Schutzkategorie fallen), oder die Baumschutzverordnung (Stadt Salzburg, für alle Bäume eines gewissen Alters/Stammdurchmessers).
Schweiz
In der Schweiz ist das Bundesgesetz über den Natur- und Heimatschutz (NHG) maßgebend und die Schutzobjekte sind im Bundesinventar der Landschaften und Naturdenkmäler von nationaler Bedeutung (BLN) aufgeführt.
Serbien
In Serbien werden sogenannte Schutzgebiete (serbisch zaštićeno područje) in sechs Kategorien eingeteilt:
Nationalpark (nacionalni park)
Naturpark (park prirode)
Naturreservat (rezervat prirode)
Naturdenkmal (spomenik prirode)
Schutzbiotop (zaštićeno stanište)
Bereich außerordentlicher Qualität (predeo izuzetnih odlika)
Darunter werden ganzheitliche Gebiete verstanden, die eine spezifische geologische, biologische oder für das Ökosystem relevante Vielfalt aufweisen. Insbesondere geht mit der Ausweisung als Naturdenkmal das Verbot einher, auch nur Teile des Denkmals zu verändern. Naturdenkmäler können geologischen, geomorphologischen, speläologischen, hydrologischen oder botanischen Ursprungs sein und werden vom zuständigen Ministerium für Umwelt und Raumplanung (ministarstvo životne sredine i prostornog planiranja) ernannt. In Serbien gibt es fünf Nationalparks, 13 Naturparks, 74 Naturreservate, 78 Naturdenkmäler, drei Schutzbiotope und 28 Bereiche außerordentlicher Qualität.
Japan
In Japan können Tiere, Pflanzen, geologische Formationen und Naturschutzgebiete zum Naturdenkmal (, Tennen Kinenbutsu) deklariert werden. Die Einteilung erfolgt in Abgrenzung zum Kulturdenkmal (, Bunka Kinenbutsu), das vom Menschen im Rahmen kultureller Aktivitäten geschaffen wird. In Japan erfolgt die amtliche Klassifikation von Naturdenkmälern nach dem Kulturgutschutzgesetz und den Kulturgutschutzbestimmungen der Gebietskörperschaften (). Die Ernennung erfolgt durch den Minister für Bildung, Kultur, Sport, Wissenschaft und Technologie, die Klassifikation obliegt dem Amt für kulturelle Angelegenheiten. Die Ernennung zum Naturdenkmal kann durch den Zusatz „besonderes Naturdenkmal“ um eine Ernennungsstufe und damit in der Wertschätzung erhöht werden. Die Idee des Schutzes von Naturdenkmälern geht auf westliches Vorbild, insbesondere Deutschland, die Schweiz und Amerika, zurück und umfasst anders als in westlichen Breiten auch Lebewesen.
Der japanische Begriff für Naturdenkmal „Tennen Kinenbutsu“ geht auf einen Vorschlag des Botanikers Miyoshi Manabu (, 1862–1939) der Kaiserlichen Universität Tokio zurück. Er ist eine analoge Nachbildung des deutschen Begriffs „Naturdenkmal“ von Alexander von Humboldt. In einem Aufsatz von 1906 über die Notwendigkeit alte Bäume vor der Abholzung zu schützen, führte er den Gedanken des Erhaltes von Naturdenkmälern in Japan ein und vertiefte ihn ein Jahr später mit zwei weiteren Schriften, in denen er bereits den Begriff „Tennen Kinenbutsu“ verwendete. 1911 brachte er einen Antrag zum Erhalt von Naturdenkmälern, landschaftlich schönen Orten und historischen Stätten im japanischen Oberhaus ein, das 1919 das „Gesetz zum Erhalt historischer Stätten, landschaftlich schöner Orte und Naturdenkmäler“ verabschiedete und den Schutz administrativ verankerte. 1933 wurde das System zum Erhalt von Naturdenkmälern auch in Korea und Taiwan, die unter japanischer Herrschaft standen, ein- und nach dem Krieg fortgeführt. 1950 wurde das Gesetz von 1919 zu Gunsten des Kulturgutschutzgesetzes abgeschafft.
Gegenwärtig (Stand: 29. Juli 2014) sind 1012 Naturdenkmäler deklariert, darunter 75 als „besondere Naturdenkmäler“.
Siehe auch
Liste der Naturdenkmale in Deutschland
Listen der Naturdenkmäler in Österreich
Anmerkungen
Literatur
nach Autoren alphabetisch geordnet
Ernst-Rainer Hönes: Über den Schutz von Naturdenkmälern – Rund 100 Jahre Naturdenkmalpflege. In: Die Gartenkunst 16 (2/2004), S. 193–242.
Anette Lenzing: Der Begriff des Naturdenkmals in Deutschland. In: Die Gartenkunst 15 (1/2003), S. 4–27.
Reinhard Piechocki: Stichwort: Naturdenkmal. In: Naturwissenschaftliche Rundschau 59 (4), S. 233–234 (2006),
Rudolf Schröder: Entwidmung von Baum-Naturdenkmalen – eine ernste Gefahr für ausgewiesene Bäume. In: Mitteilungen des Landesvereins Sächsischer Heimatschutz e. V. 1/2019, S. 48–52.
Weblinks
Einzelnachweise
Denkmal
3
|
Q23790
| 213.712355 |
18168
|
https://de.wikipedia.org/wiki/Adel
|
Adel
|
Der Adel ( oder „edles Geschlecht, die Edelsten“, ) versteht sich selbst als eine „sozial exklusive Gruppe mit gesellschaftlichem Vorrang“, die Herrschaft ausübt und diese in der Regel innerfamiliär (als Adelsgeschlecht) tradiert. Eine Klarheit des Begriffs gibt es allerdings nicht. Und in den einzelnen europäischen Herrschaftsbereichen gelten bzw. galten unterschiedliche Kriterien, wer zum Adel gehört und wer nicht. Noch viel mehr gilt dies für außereuropäische Kulturkreise. Ein Angehöriger des Adels wird als Adeliger, Edelfrau, Edelfräulein oder Edelmann bezeichnet.
Der Herrschaftsanspruch des Adels gründete sich unter anderem auf Leistung, Erziehung und Abstammung sowie unterstellte göttliche Absicht. Führungsschichten in den verschiedenen Kulturen der Welt und in unterschiedlichen Gesellschaften werden als Adel gedeutet. Der Adel war trotz zum Teil sehr langer Phasen der Kontinuität immer wieder Veränderungen ausgesetzt. Er konnte zusammenbrechen, wie der spätrömische Adel, oder sich neu bilden. In vielen Ländern der Welt hält der Adel seine ehemals umfangreiche und exklusive politische Macht nicht mehr in den Händen, ist zum Teil sogar nicht mehr existent (z. B. China), nicht einmal mehr als nach außen wahrnehmbare soziale Gruppe. Gleichzeitig gibt es viele Staaten, die von adeligen Häusern regiert oder repräsentiert werden und in denen der Adel eine wichtige Rolle spielt – von Großbritannien bis Kambodscha.
In Europa kennt die Archäologie früheste Zeugnisse, die als solche adeligen Lebens gedeutet werden, vor allem Grabfunde und Reste ehemaliger Villen und Burgen. Antike griechische, römische, aber auch z. B. etruskische Führungsschichten werden als Adel aufgefasst. Im Mittelalter hat sich der Adel aus römischen und germanischen, ethnisch gesehen teilweise auch aus slawischen Wurzeln zu einer „multifunktionalen Elite“ entwickelt, die politisch und militärisch, ökonomisch, sozial, kulturell und religiös führte, allerdings nicht zwingend als „Adel“ zu deuten ist.
Der europäische Adel hat sich etwa ab dem 11./12. Jahrhundert in der Regel ständisch organisiert. In solchen ständischen Systemen gelten für den Adel bestimmte Rechte, Privilegien, Pflichten und Verhaltenskodizes. Mit der Ablösung der ständischen durch demokratische, sozialistische oder kommunistische Systeme oder konstitutionelle Monarchien hat der Adel in Europa seine politische Bedeutung größtenteils verloren.
Die rechtliche wie gesellschaftliche Situation des Adels gestaltet sich historisch je nach Region äußerst unterschiedlich: Vom prinzipiellen Verbleib der Standesunterschiede (z. B. Vereinigtes Königreich Großbritannien und Nordirland) über die Aufhebung der Standesvorrechte und -pflichten (z. B. Weimarer Republik) und seine Abschaffung (z. B. Österreich) bis hin zur Auslöschung durch Verfolgung, Vertreibung, Inhaftierung oder Ermordung (z. B. Frankreich, Russland, SBZ/DDR).
Der Begriff Adel wird im allgemeinen deutschen Sprachgebrauch heute für die Gesamtheit der Familien benutzt, die in früheren Zeiten einem mit Vorrechten ausgestatteten Stand angehörten. In Europa stellt der Adel in der gegenwärtigen Zeit mitunter eine relativ geschlossene soziale Schicht mit eigenen Lebensweisen, Umgangsformen und einem differenzierten Standesethos dar.
Wortherkunft
„Adel“ ist verwandt mit „edel“, das auf althochdeutsch edili („adlig“) und auf ein westgermanisches Wort adilu („von Adel“, „vornehm“) zurückgeht.
Ob das Wort Adel mit dem Wort Odal (etwa: angestammter Grundbesitz einer Familie, siehe Artikel) verwandt ist, ist Gegenstand einer langen wissenschaftlichen Kontroverse. Gustav Neckel wollte eine völlige Identität dieser Begriffe darlegen. Friedrich Kauffmann schloss aus der Wortähnlichkeit, dass Odal Stammgut eines adligen Geschlechtes sei. Dem wird entgegengehalten, dass zu Beginn der Überlieferung den Verfassern die Wortverwandtschaft längst nicht mehr gegenwärtig war. Außerdem könne aus solchen Ableitungen nicht hergeleitet werden, dass es überhaupt einen ur- oder gemeingermanischen Adel gegeben hat. Otto Behaghel bestritt jeglichen Zusammenhang zwischen den Wörtern „Odal“ und „Adel“. Werner Conze hielt aber an einer Verwandtschaft der Begriffe fest, desgleichen die derzeit führenden etymologischen Wörterbücher des Deutschen, Kluge/Seebold und Pfeifer.
Die Verbindung zwischen „Odal“ und „Adel“, „edel“ wurde dahingehend interpretiert, dass bei der Entstehung des Adels der Grundbesitz eine entscheidende Rolle gespielt habe. Dies entsprach dem Stand der historischen Forschung im 19. und zu Beginn des 20. Jahrhunderts. Doch diese Verbindung zwischen Adel und Grundbesitz lässt sich heute nicht mehr aufrechterhalten. Der Adel gründete sich nicht auf wirtschaftliche Elemente, sondern auf Teilhabe an der Macht im Sinne von Herrschaft über Menschen.
Aus dem Vorkommen von nōbĭlís oder Ableitungen daraus in lateinischen Texten wurde oft auf die Existenz eines Adels für die Zeiten und Gesellschaften geschlossen, über die diese Texte Auskunft geben. Das ist aber nicht zwingend. Bereits Autoren des späten Mittelalters wussten, dass die Worte nōbĭlís und „Adel“ mehrdeutig sind. „Sie kannten den Abstand zwischen Begriff und Begriffenem. Der Begriff Adel sei viel- und mehrdeutig, konstatierte Bartolus von Sassoferato (1314–1357). […] Humanisten des 15. Jahrhunderts beklagten den ausnehmend weiten Bedeutungsumfang des Begriffs nobilitas, seinen latissimus ambitus (Giovanni Francesco Poggio Bracciolini: De nobilitate. Straßburg 1513; Laurence Humphrey: Optimates sive de nobilitate. Basel 1559 S. 84).“ Es gibt starke Hinweise darauf, dass es im Mittelniederdeutschen und Frühneuhochdeutschen noch kein allgemeines Wort für den Adel gab. Erst mit der Übersetzung lateinischer und frühneuhochdeutscher Texte ins Neuhochdeutsche wurde aus nobiles/nobilis scheinbar eindeutig Adlige/adlig, was in den Originaltexten keineswegs eindeutig ist. Martin Luthers Bibelübersetzung ist weit davon entfernt, die beiden Stellen, wo in der Vulgata eine Ableitung von nōbĭlís vorkommt (2. Makkabäer 6.23; 1. Korinther 1.26), irgendwie mit „Adel“ in Verbindung zu bringen. „Man ist ‚edel‘ im Verhältnis zum (all-)‚gemeinen‘ Volk, fällt auf (lat. no(ta)bilis) durch Bekanntheit und ‚nobles‘ = vornehmes, großmütiges Verhalten und bildet schließlich in Bezug auf hervorragende menschliche Eigenschaften – Talente, Tugenden, Tüchtigkeit auf unterschiedlichen Gebieten (lat. Virtus, griech. Arete) – eine Gemeinschaft der ‚Besten‘ (griech. Aristoi).“ In den romanischen Sprachen und im Englischen bleibt die Doppelbedeutung des lateinischen nōbĭlís im Sinne von „edel“ und „adlig“ erhalten.
Herkunft und Entwicklung
Allgemein
Oft wird behauptet, Adel sei „ein universalgeschichtliches Phänomen, das sich bereits in den frühen Hochkulturen findet“, von den Pharaonen Ägyptens über den Adel Mesopotamiens, die attischen Eupatriden, die byzantinische und römische Aristokratie, den japanischen und chinesischen oder den arabischen Adel über den spätrömischen Senatorenadel, der die Brücke bilde zum europäischen Adel des Mittelalters usw., bis zum modernen neuzeitlichen Adel. Diese Aussage ist jedoch umstritten. Spätestens in der Renaissance fing man an, zu diskutieren, was „adelig“ und „Adel“ sei und eine „seit jeher“ gegebene Vorherrschaft des Adels wurde in Frage gestellt. Wo keine schriftlichen Quellen vorliegen, weisen archäologische Funde überaus reicher Grabausstattungen, die neben einfachsten stehen, auf gesellschaftliche Führungsschichten hin. Archäologen sprechen im Zusammenhang mit reichster Grabausstattung von „Fürstengräbern“, ohne – mangels schriftlicher Quellen – etwas über die Herrschaftsstruktur aussagen zu können.
Die Behauptung, alle als vorindustrielle Hochkulturen bezeichneten Gesellschaften wiesen eine Adelsschicht auf, ist nicht hinreichend belegbar. Adel wird oft von andersartigen Führungsschichten nicht hinreichend unterschieden. Daraus ergibt sich eine so starke Heterogenität des Adelsbegriffs, dass die genaue Definition von Adel nur mit Blick auf eine bestimmte Region und einen bestimmten Zeitraum geliefert werden kann. Umstritten ist auch, ob die scheinbar ununterbrochene Kontinuität „des Adels“ in Europa zwischen Römischem Reich und Zweitem Weltkrieg tatsächlich eine Einheit darstellt, ob sie in Hinsicht auf Prestige konstruiert wurde oder ob es sich um eine soziale Position handelt, die sich mit jeder Generation auch inhaltlich wandelt.
Der Adel hebt sich in der Regel zunächst durch einen höheren Einfluss auf das öffentliche Geschehen, u. a. in Form einer militärischen Überlegenheit oder Leistung (Schwertadel, Rittertum, Samurai, Amtsadel) und höherem wirtschaftlichen Potential, zumeist in Form von Grundbesitz (z. B. römisches Patriziat), von der gesellschaftlichen Umgebung ab. Daraus ergibt sich der Anspruch, diese auch politisch zu dominieren. Diese gehobene Stellung ist – unabhängig von der ökonomischen Grundlage – zumeist erblich, woraus sich eine zentrale Bedeutung der Familie ergibt.
Spezielle adelige Erziehung sollte schon seit der Kindheit möglichst umfassend auf das Tragen militärischer, politischer, gesellschaftlicher und kultureller Verantwortung vorbereiten (vgl. „Adel verpflichtet“). Dies basiert auf der Idee der Aristokratie, also dem Bestreben nach einer Herrschaft der Besten bzw. Geeignetsten, die sich am Gemeinwohl orientiert. Ausschlaggebend sei dabei neben der Tüchtigkeit auch die Tugendhaftigkeit der Person, was sich in Europa u. a. im christlichen Ideal ritterlicher Tugenden niederschlage. Entsprechendes galt auch für das Ideal des gerechten Herrschers (vgl. etwa fír flathemon) bzw. eines aufgeklärten Absolutismus.
Aus der Idee der Aristokratie resultierte auch der Aufstieg bzw. die Erhebung besonders tüchtiger und tugendhafter Personen in einen Adelsstand. Es war dem Adel, meist – regional unterschiedlich – dem Höchstrangigen, dem König oder Kaiser, aber in einigen Ländern auch Herzögen und anderen Fürsten vorbehalten, Nichtadelige in den Adelsstand zu erheben (Dienst- oder Amtsadel), z. B. im Heiligen Römischen Reich seit Kaiser Karl IV. Der Herr und Monarch wiederum leitete seinen Herrschaftsanspruch von einer göttlichen Gnade oder Vorbestimmung ab, seine Herrschaftswürde durch Erbe (Erbmonarchie), Wahl (Wahlmonarchie) oder gar Prophezeiung (vgl. etwa tarb-feis) oder bestimmte Zeichen und Prüfungen (vgl. etwa Artussage, Lia Fáil) erlangt zu haben.
Allgemein wurde Herrschaft in unterschiedlichen Weltregionen, neben einer alten Abstammung von verdienten, berühmten, mythischen oder göttlichen Vorfahren, auch mit einer als besonders angenommenen Beziehung zu den Göttern (Priesteradel), einer besonderen Sakralität des Herrschers bzw. der Herrscherdynastie (Königsheil) oder gar einer Vergötterung des Herrschers (Gottkönig) legitimiert.
Europa
Antike
Das Konzept „Adel“ des europäischen Mittelalters, das wesentlich im 19. Jahrhundert ausgebildet wurde, lässt sich nur bedingt auf die antiken Kulturen der Griechen und Römer übertragen. Hier galt nicht wie in den Feudalgesellschaften seit dem europäischen Mittelalter die Abstammung als das herausragendste Kennzeichen des Adels, sondern ihre Leistung bzw. „Bestheit“ (griechisch arete, lateinisch nobilitas). Die antike Aristokratie leitete ihren Herrschaftsanspruch eher aus einer besonderen Leistung (für den Staat) ab und weniger aus dem Glück, in eine bestimmte Familie geboren worden zu sein. So verlieh beispielsweise der römische Senat mit der Lex Cassia (44 v. Chr.) Gaius Iulius Caesar das Recht, neue Patrizier zu ernennen. Kaiser Augustus der seit seiner testamentarischen Adoption durch Julius Caesar Patrizier war, ließ sich vom Senat mit der Lex Saenia (29 v. Chr.) ebenfalls ein solches Recht verleihen, das auch durch Augustus' Nachfolger ausgeübt wurde. Anlass war Lucius Saenius, der sich – wie andere niedere Beamte auch – von Augustus als Werkzeug gebrauchen ließ und als Gegenleistung Suffektkonsul wurde.
Antikes Griechenland
Mangels schriftlicher Quellen gibt es nur wenige gesicherte Erkenntnisse über das antike Griechenland, etwa das Königtum in Sparta oder die Herrschaft im Königreich Makedonien.
Anders als die auf Handel und Seefahrt begründete Macht der Phönizier gründete die adlige Vorherrschaft jedoch in Sparta und Korinth vor allem auf ausgedehntem Grundbesitz, dem Innehaben der Priesterämter und dem Privileg der Rechtsprechung bis hin zum Sklavenhandel (Schuldknechtschaft). Kennzeichnend war eine Spaltung der Gesellschaft in die „Vornehmen und Reichen“ (Kalokagathia) und die „Geringen“. Insbesondere das Halten von Pferden und die Teilnahme an Pferde- und Wagenrennen bei Olympischen Spielen waren dem Adel vorbehalten. Ein Beispiel sind die „Hippoboten“ (der berittene Adel) auf Euböa.
Aus der zu Oligarchie und Tyrannis verkommenen Aristokratie entwickelte sich die demokratische Polis in den Stadtstaaten wie dem antiken Athen.
Antikes Rom
Im antiken Rom gab es einen Stand der equites (Ritter), der mitunter als „niederer Adel“ gedeutet wird. Der Aufstieg eines Römers in einen höheren Stand bis zum Ritter war möglich, maßgebend aber durch festgelegte Vermögensgrenzen bestimmt (vgl. Zensuswahlrecht). Diese Rangordnung ging wahrscheinlich auf die römische Frühzeit zurück, in der die Gesellschaft entsprechend der Heeresordnung gegliedert war. Die Stellung im Heer bestimmte sich aus der selbst bereitzustellenden Ausrüstung; entsprechend nahmen Wohlhabendere höhere Stellungen ein. Ein eques ist in diesem Sinn ein Soldat zu Pferde. Über die genaue Stellung dieser Krieger ist sich die Forschung uneins. Gesichert ist, dass von den Punischen Kriegen an die Bedeutung der eques vor allem im wirtschaftlichen Bereich begründet liegt. Als vermögende Schicht ohne die Ehrenpflichten der Senatoren konnten sie vom Staat verpachtete Hoheitsaufgaben übernehmen, beispielsweise die Einziehung der indirekten Steuern und Zölle.
Kaiser Commodus bezeichnete sich ab 186 als nobilitas Augusti, um so seine inzwischen umstrittene Herrschaft durch eine vermeintliche Verwandtschaft mit Kaiser Augustus zu begründen. Im 3. Jahrhundert wurde die Bezeichnung nobilissimus üblich für den Cäsaren als designierten Nachfolger des Herrschers, was ihn lediglich als Sohn desselben kenntlich machte. Die ehemaligen Inhaber konsulischer Ämter (s. dazu auch Cursus honorum) und deren Nachkommen bildeten den senatorischen Adel. Der Senatorenstand wurde im Gegensatz zur Ritterwürde nicht vom Kaiser verliehen, sondern konnte nur geerbt werden. Der senatorische Adel verlor während der Reichskrise des 3. Jahrhunderts an Bedeutung; die Machtgrundlagen (Großgrundbesitz, Finanzen sowie sozialer und politischer Einfluss) blieb den Senatoren dennoch meist erhalten. Seit Kaiser Konstantin wurde dies zu einer exklusiven Rangbezeichnung. Der Senatsadel entwickelte erst in der Spätantike ein adliges Standesbewusstsein. Er bezeichnete seine Mitglieder bis ins 6. Jahrhundert als nobiles und senatores und markiert den langsamen Übergang zum Adel des Mittelalters. Der spätantike gallorömische Senatsadel verfügte aber noch in der frühen Merowingerzeit über beträchtlichen Einfluss.
Mittelalter
Allgemein
Der Ursprung des mittelalterlichen Adels ist umstritten. In einer die Mittelalterforschung seit dem 19. Jahrhundert umfassenden Untersuchung hat Werner Hechberger gezeigt, „daß Untersuchungen zur Geschichte des mittelalterlichen Adels immer – und zwar gleichgültig, ob sich die Verfasser dessen bewußt sind oder nicht – auf theoretischen Prämissen beruhen, die den Ausgangspunkt von Quellenanalysen bilden. Diese theoretischen Vorüberlegungen wandeln sich mit der Gegenwart der Historiker“. Immer wieder werden überlieferte antike oder mittelalterliche Quellen von unterschiedlichen Autoren völlig unterschiedlich, teilweise dieselben Textstellen gegensätzlich interpretiert, je nachdem welches Gesellschaftsmodell vom jeweiligen Autor ausdrücklich oder unbewusst zugrundegelegt wird.
Nach Marc Blochs grundlegendem Werk Die Feudalgesellschaft (1939) gab es zwar schon im merowingischen und karolingischen Frühmittelalter einen grundbesitzenden Adel, etwa die Großen des Fränkischen Reichs (z. B. die Robertiner als Ahnen der Kapetinger), die Inhaber karolingischer Grafenämter (etwa die Welfen), einige davon Aufsteiger in höfischem oder kirchlichem Dienst, andere vielleicht im Ursprung sogar germanische oder keltische großbäuerliche Häuptlingssippen (von denen aber allenfalls wenige bis auf die Anführer germanischer Gefolgschaftsbanden der Völkerwanderungszeit zurückgehen mochten). Politisch wuchs das Gewicht dieses Adels (ebenso wie das der Kirche und des Königstums) zunächst auch zu Lasten der anderen Freien. Im Heeresaufgebot der Karolinger, das teilweise Funktionen der Volksversammlung übernahm, in der Verwaltung und Gerichtsbarkeit dominierte zusehends der aus germanischem Geblütsadel und romanischem Landadel zusammenwachsende Adelsstand. Nach Bloch sei dieser ältere Adel jedoch in der Zeit des Zusammenbruchs der staatlichen Ordnung in Europa während der Anstürme durch Wikinger, Sarazenen und Magyaren ab etwa 800 bis kurz nach 1000 n. Chr. durch einen spontan entstandenen, wehrhaften Schwertadel (teils unfrei-bäuerlicher, teils freier oder edelfreier Herkunft) abgelöst worden, der es auf sich nahm, als Panzerreiter die bäuerliche Bevölkerung zu verteidigen und der dafür von ihr ernährt und mit (damals kostspieligen) Pferden und Waffen sowie Kriegsknechten ausgerüstet wurde. Diese Gruppe bildete anschließend die Basis der Lehnspyramide. Es ist jedoch davon auszugehen, dass manche der mächtigsten Familien des Hochmittelalters genealogisch und auch besitzmäßig aus den frühmittelalterlichen Eliten hervorgegangen sind.
Es entwickelte sich ein Vasallensystem, in dem entweder der Mächtigere seinen Gefolgsleuten die Mittel und Verantwortung für ihren eigenen Unterhalt (Land und Leute) übertrug oder – häufiger – die Schwächeren ihren Beschützern umgekehrt ihre Ländereien übergaben und diese als Lehen zurückerhielten, um sodann den mit Geld- oder Naturalabgaben und Ackerfronen belasteten Grund und Boden den Hintersassen zum Ackerbau zu überlassen. Die Erblichkeit der Lehen und die Zulässigkeit des Weitervergebens als Afterlehen wurden 1037 von Kaiser Konrad II. mit der Constitutio de feudis festgelegt. So kam es, dass im 12. Jahrhundert bereits alle Herzogtümer und Grafschaften als Lehen vergeben waren. Innerhalb dieser einzelnen geistlichen und weltlichen Territorien bestand aber wiederum ein vielgliedriges Lehnswesen.
Im 13. Jahrhundert traten neben den älteren, edelfreien Adel immer mehr Angehörige ursprünglich unfreier Familien, die sich als Dienstmannen („Ministeriale“) durch kriegerische oder administrative Fähigkeiten auszeichneten und aufgrund ihrer Stellung, z. B. als Burgmannen, bald die Schwertleite oder den Ritterschlag erhielten. Auch diese untere Gruppe begann sich seit der Mitte des 13. Jahrhunderts als Adel zu verstehen, auch wenn die soziale Trennung zum „alten“ Adel noch lange Zeit eine Rolle spielte; so werden in Urkunden die Edelfreien als Zeugen gewöhnlich vor den Ministerialen aufgezählt. Die sich herausbildenden Standesideale und Kulturmerkmale des Rittertums, idealisiert durch den Minnesang und Formen des Wettkampfes wie das Turnier, trugen zur Ausbildung einer einheitlichen Adelskultur unter den „Ritterbürtigen“ und damit zum Verschmelzen von Edelfreien und Ministerialen zum Uradel bei.
Im Sachsenspiegel aus dem 13. Jahrhundert kommt das Wort „Adel“ nur einmal vor: Ein eheliches Kind ist entweder ein adeliges Kind oder ein leibeigenes Kind („adel kint“, „egen kint“, Ssp. Ldr. I/51,2). Sonst spricht der Sachsenspiegel von „Freien“. Das Rechtsbuch deutet aber an, dass damit ein kriegerischer, über Grund und Boden und unfreie Bauern herrschender Stand gemeint ist. Ein eindrucksvolles Beispiel ist die Legende über die Herkunft der Sachsen:
Die Heidelberger Bilderhandschrift des Sachsenspiegels stellt die beiden Stände, sauber getrennt, einander gegenüber. Wie immer man die Entstehung des mittelalterlichen Adels erklären will, er stand jedenfalls zur Zeit des Sachsenspiegels schon in voller Blüte. Der Adel erscheint hier allerdings noch nicht als eine auf den Landesherrn ausgerichtete Ritterschaft, wie sie für die späteren Jahrhunderte typisch ist, sondern eher als eine Genossenschaft der Ritterbürtigen, die im fernen, kaum wahrnehmbaren König den Garanten ihres alten, überlieferten Rechts erblickte.
Frühmittelalter
Die frühmittelalterlichen germanischen Herrscher regierten noch überwiegend mit und in Stammesstrukturen und -verbänden. Bei den Franken gab es auch unter den Merowingern keinen Adel. Erst als im karolingischen Reich und dann unter den sächsischen und salischen Herrschern in Deutschland stammesübergreifende Strukturen geschaffen wurden und erste Ansätze von Staatsbildung erfolgten, mussten die Herrscher neben den Stammesführern (Herzögen) stammesunabhängige Funktionäre (Dienstadel = Ministeriale) als zunächst nicht-erbliche „Verwaltungsbeamte“ installieren. Hierbei griffen sie meist auf ihre ritterlichen Vasallen, manchmal aber auch auf befähigte Aufsteiger zurück. Parallele Entwicklungen gab es auch in den anderen großen europäischen Reichen. Das Denken jener Zeit bewegte sich aber weiterhin in Stammes- und Familienstrukturen, und so bestand eine Tendenz, diese Funktionen erblich werden zu lassen. Da die „Bezahlung“ der Funktionsträger in einer Gesellschaft, die noch keine entwickelte Geldwirtschaft kannte, in der Zuweisung von Land zur Versorgung erfolgte, entstand daraus das Lehnswesen und in der Folge auch die Erblichkeit des zusammen mit der Funktion verliehenen Grundbesitzes.
Als edelfrei (Edelfreie oder Edelinge) wurden zunächst diejenigen bezeichnet, die sich von den anderen Freien durch die Zahlung des dreifachen Wergeldes unterschieden. Inzwischen gilt als wissenschaftlich gesichert, dass es sich bei der Auffassung, es handele sich bei diesen Personen per se um Adlige, um eine Übertragung von Vorstellungen des 19. Jahrhunderts auf das frühe Mittelalter handelt. Erst im Laufe des 12. Jahrhunderts entstand im Heiligen Römischen Reich der Hohe Adel im Unterschied zum Dienstadel, den Ministerialen.
Hochmittelalter
Im 11. und 12. Jahrhundert lässt sich eine starke Vermehrung der Ministerialen (abhängigen Adelsfamilien) feststellen, weil die Könige, Herzöge und die geistlichen Fürsten diese zunehmend als Verwalter ihrer Güter einsetzten. Mit der Ausdifferenzierung dieses Systems entstanden unterschiedliche Adelsränge; manchen edelfreien Geschlechtern gelang der Aufstieg zu mehr oder weniger souveränen Herrschern ihrer Territorien, die man später als reichsunmittelbar bezeichnete, andere wurden gezwungen, sich einem Lehnsherren zu unterstellen oder traten aus wirtschaftlichen Gründen in die Ministerialität ein. Einige große Reichsministerialen wiederum eigneten sich die von ihnen verwalteten Königsgüter an oder erhielten diese als Reichslehen in erblichen Besitz und stiegen damit, wie die unabhängig gebliebenen Edelfreien, in den sich herausbildenden hohen Adel auf (Herzöge, Fürsten und regierende Grafen), ein Prozess, der im 14. Jahrhundert seinen Abschluss fand. Daran schloss sich eine Phase an, in der dieser hohe Adel zunehmend versuchte, sich gegenüber der königlichen und kaiserlichen Zentralgewalt zu emanzipieren. In Deutschland und Italien gelang dies weitgehend: Hier erfolgte auf der Ebene der Territorien eine Staatenbildung in Form von Herzogtümern, Markgrafschaften, Pfalzgrafschaften, Landgrafschaften, Grafschaften, anderen Herrschaften sowie in Italien Stadtstaaten. Dazu kommen noch die Fürstbistümer und Fürstabteien. In England und vor allem Frankreich gingen diese Prozesse nicht so weit und es bildeten sich zentral organisierte nationale Staaten mit einem zwar reichen und einflussreichen Besitz- und Hofadel, der jedoch keine eigenständige Regierungsgewalt ausübte, sondern eine abgeleitete im Dienst der zentralen Monarchie. Aus den militärischen Dienstpflichten des Lehnswesens entwickelte sich ab etwa 1100 eine europaweite einheitliche Adelskultur, das Rittertum. Mit dem Aufkommen geschlossener Rüstungen (speziell des Topfhelms) im Hochmittelalter waren Freund und Feind in der Schlacht nicht mehr erkennbar, sodass das Wappen, das an Helm und Schild geführt wurde, als Identifikationshilfe diente. Zudem entwickelte sich das Turnierwesen als gesellschaftliches Kampfspiel zum identitätsstiftenden Vorrecht (Adelsprobe).
Blüte und Niedergang
In Europa hatte der Adel seine Blüte vom Hochmittelalter bis in das späte 18. Jahrhundert, wobei sich seine Funktion in der Ständegesellschaft mit ihrer Ständeordnung bis in die Zeit des Absolutismus stetig wandelte. Während im Früh- und noch im Hochmittelalter die Landesherren für ihre Regierungsgeschäfte fast ausschließlich Geistliche (da diese der lateinischen Sprache und des Schreibens kundig waren) einsetzten, stellten sie ab dem 15., vor allem aber im 16. und 17. Jahrhundert zunehmend lateinkundige bürgerliche Rechtsgelehrte ein, welche die Macht des ständischen Adels zugunsten der Landesherren zu beschneiden suchten, die allerdings ihrerseits durch Adelsbriefe oft selbst in den Adel aufstiegen, wenn sie auch dort als „Briefadel“ meist unter sich blieben, sofern es ihnen nicht gelang, Grundherrschaften zu erwerben. Die Grundherrschaft bildete die wirtschaftliche Basis des Adels.
Der Übergang vom Ritterheer der Lehnsvasallen zum professionellen Söldnerheer leitete im 14. Jahrhundert einen wirtschaftlichen Niedergang des Adels ein (und beförderte etwa das Phänomen der „Raubritter“), während gleichzeitig in den wohlhabender werdenden Städten die kaufmännischen Führungsschichten zu Patriziern aufstiegen, die sich aber teilweise früh aristokratisierten. Dies geschah in vielen europäischen Handelsstädten, welche sich teilweise zu mehr oder weniger unabhängigen Stadtstaaten entwickelten, zu Handelsrepubliken wie etwa den deutschen Reichsstädten, den Hansestädten, der Republik Venedig, der Republik Genua, Florenz, der Republik der Vereinigten Niederlande oder den Schweizer Stadtkantonen, die vom Patriziat der Alten Eidgenossenschaft beherrscht wurden. Teilweise wurde dieser Stadtadel dann auch förmlich nobilitiert, teilweise erwarb er adlige Grundherrschaften, bisweilen machte er auch aus eigenem Recht seine Ebenbürtigkeit und Zugehörigkeit zum Adel geltend; das Nürnberger Patriziat ist ein bekanntes Beispiel. Diese Städtearistokratien standen an der Spitze sogenannter „Aristokratischer Republiken“.
Im Absolutismus konzentrierte sich die Macht bei den regierenden Fürsten. Sie erweiterten ihre Hofstaaten in immer aufwändigerer Weise, was auch dem niederen Adel nochmals Chancen zum Erwerb einflussreicher und lukrativer Positionen bot. Ludwig XIV. schuf mit dem Schloss Versailles samt Residenzstadt den Prototyp eines absolutistischen Hofes, der in ganz Europa Nachahmung fand. Zugleich erfand er auch ein kompliziertes Hofzeremoniell, mit dem er die Noblesse d'épée, den ranghohen und reichen Geburtsadel, beschäftigt hielt, während er die verantwortungsvollen Positionen in der Staatsverwaltung der Noblesse de robe übertrug, einem neuen Amtsadel, in den auch gut ausgebildete Bürgerliche gelangen konnten, die wirtschaftlich von der Gunst des Herrschers abhängig waren. Die höfische Etikette nötigte die reichen Adeligen nun dazu, immense Geldsummen für ihre Kleidung auszugeben und ihre Zeit vor allem auf Bällen, Diners und anderen Festlichkeiten zu verbringen, anstatt ihre angestammte Macht in den Provinzen auszuüben. Kein Aristokrat, der auf die Gunst des Königs angewiesen war, konnte seine Abwesenheit riskieren – so ruhte die politische Macht fest in der Hand des „Sonnenkönigs“. Im Heiligen Römischen Reich ahmten die regionalen Machthaber bis hinunter zu den Duodezfürsten dieses System nach. Hoher und niederer Adel sowie Kirchenfürsten schufen sich prachtvolle Residenzen oder Landschlösser, samt Parks, Kirchen und Theatern, bereicherten damit die deutsche Kulturlandschaft und ruinierten die Finanzen ihrer Länder.
Seit dem 17. Jahrhundert bildeten sich zugleich neuere bürgerliche Oberschichten, die dem Adel weder angehörten noch in ihn aufstiegen (oder aufsteigen wollten), etwa die Hanseaten, die daher bisweilen auch als „Bürgeradel“ bezeichnet werden (siehe: Hamburg und der Adel). Während in England die Gentry schon seit dem Spätmittelalter das immer mächtiger werdende House of Commons beherrschte, wurde in Frankreich ab der zweiten Hälfte des 18. Jahrhunderts das gehobene Bürgertum (bestehend aus Kaufleuten, Privatbankiers und zunehmend auch Industriellen) tonangebend. Mit der Französischen Revolution und der Übernahme staatlicher und gesellschaftlicher Aufgaben durch das aufsteigende Bürgertum endete die Adelsherrschaft in Frankreich und spätestens seit dem „Bürgerkönig“ übernahm dort das Bürgertum auch dauerhaft die politische Macht, während sie anderswo (etwa im Königreich Preußen) noch länger in der Hand von Monarchie und Adel blieb. Wirtschaftlich setzte aber auch dort die Bauernbefreiung im frühen 19. Jahrhundert der überkommenen Feudalherrschaft ein Ende. Der landbesitzende Adelige lebte nun nicht mehr überwiegend von Diensten und Abgaben, sondern musste sich als landwirtschaftlicher Unternehmer versuchen; die vom Adel durchgesetzten Einfuhrzölle im Deutschen Kaiserreich federten das Risiko allerdings ab. Mit dem Aufkommen des Kapitalismus und der Industrialisierung erwies sich die bürgerliche Bildung in Industrie, Verwaltung und Wissenschaft jedoch auf Dauer als konkurrenzfähiger als die im 19. Jahrhundert noch an traditionellen adeligen Berufsbildern (Offizier, Diplomat, Land- und Forstwirt, Jäger und Geistlicher) ausgerichtete Erziehung des Adels. Allerdings wurden auch die älteren bürgerlichen Führungsschichten ab Ende des 18. Jahrhunderts im Zuge von Revolutionen und Industrialisierung in ihren lokalen Wirkungskreisen häufig durch neue Wirtschaftseliten abgelöst, Bourgeoisie und Bildungsbürgertum traten ins Licht.
Käuflichkeit
Die Möglichkeit, sich den Adel zu kaufen, kann definitionsgemäß nicht für den Uradel zutreffen, der seine Entstehung im Mittelalter den Aufstiegsmöglichkeiten der damaligen Standespyramide zu verdanken hat, zu denen Adelsbriefe noch nicht gehörten. Den sozialen Aufstieg (und den Erwerb von Grundherrschaften) ermöglichte vielmehr das Lehnswesen, wobei der Weg über den Ministerialenstand führte. In diesen traten auch oft die älteren Edelfreien ein, die eigentlich auf einer höheren Stufe standen. Die Währung für den Aufstieg waren nicht Geldzahlungen, sondern Kriegsdienste als Panzerreiter, später Ritter genannt, außerdem Verwaltungsdienste.
Für Nobilitierungen gegen klingende Münze kommt also nur der Briefadel der Neuzeit in Betracht. Es gab tatsächlich mannigfache Erwerbsmöglichkeiten, doch dürfte die überwiegende Anzahl der Nobilitierungen auch hier andere Ursachen haben. Im Heiligen Römischen Reich war die Erhebung in den Adelsstand dem Reichsoberhaupt, dem römisch-deutschen Kaiser, vorbehalten, auch wenn sich nach und nach einige wenige andere Reichsfürsten dieses Recht ebenfalls herausnahmen (siehe: Nobilitierungen im deutschen Adel). Die Reichsvikare, welche während der Thronvakanzen die kaiserlichen Rechte ausüben durften, waren in diesen kurzen Phasen notorisch für ihr Kassemachen, doch betraf dies zumeist prestigeträchtige Rangerhöhungen von bereits adligen Familien, insbesondere in den Grafenstand, in den im Alten Reich nur äußerst selten ein Bürgerlicher direkt aufstieg. Dass Nobilitierungen im Alten Reich nicht ganz selten auch gegen Zahlung erfolgten, ist unbestritten; meist suchten die Reichsfürsten beim Kaiser um Nobilitierung ihrer Günstlinge nach und mussten dafür Gebühren entrichten (welche sie sich, sofern möglich, auch gern erstatten ließen), doch war dieses „Massengeschäft“ von Erhebungen in den untitulierten Briefadel nicht sonderlich lukrativ und wurde auch nicht in erster Linie aus finanziellen Motiven unternommen; demgegenüber musste ein Graf, der zum Fürsten aufsteigen wollte, wie etwa Leopold I. zur Lippe im Jahr 1789, sich dies immerhin 4.400 Reichstaler kosten lassen (etwa der Preis eines großen Rittergutes), worauf die Familie über Generationen hingespart hatte. Es handelte sich wohlgemerkt um offizielle Gebühren. Ähnliches gilt auch für Frankreich oder England, wo vor allem Jakob I. den Titelverkauf zu einer sprudelnden Einnahmequelle machte. Seit 1611 vergab er die Ritterwürde gegen Zahlung von 1.000 Pfund, wofür die Erwerber sich Baronets nennen durften und auch Peerswürden samt ihren Sitzen im House of Lords wurden massenhaft an reiche Bürger verkauft: Von 1611 bis zum Ende der Regierungszeit seines Enkels, Jakob II. 1688, wurden an die 200 Peerswürden neu verliehen.
Keine finanzielle Gegenleistung sah indessen der sogenannte systemmäßige Adel in Österreich-Ungarn vor, durch den bürgerliche Offiziere von 1757 bis 1918 unter bestimmten Bedingungen „auf dem Dienstweg“ einen Rechtsanspruch auf Erhebung in den erblichen einfachen Adelsstand erhielten.
Im 19. Jahrhundert gab es allerdings einige notorisch klamme Staaten, die berüchtigt für ihre Titelverkäufe waren, dazu zählten das Königreich Portugal, zeitweise auch der Kirchenstaat (Päpstlicher Adel) und sogar die winzige Republik San Marino (Letztere bis weit ins 20. Jahrhundert hinein), wobei die Verleihungen meistens an zahlungskräftige Ausländer erfolgten. Auch ein paar kleine deutsche Bundesfürsten nutzten im 19. Jahrhundert ihr neugewonnenes Privileg der Adelsverleihung (oder Rangerhöhung bis hinauf in den Grafenstand) zur Aufbesserung ihrer Kassen. So wurde etwa der in Paris lebende Bankier Adolf Wilhelm von Kessler 1881 durch den Fürsten Reuß j. L. in den erblichen Grafenstand erhoben, was von Höfen und Adel im Reich mit Argwohn betrachtet wurde; in dem winzigen thüringischen Fürstentum gab es sonst keine Grafen und die Zwischenstufe des Freiherrnstandes war bei der Erhebung übersprungen worden. Das preußische Heroldsamt erkannte den Grafenstand des Bankiers, der zuvor schon in den einfachen preußischen Adelsstand erhoben worden war, folglich für Preußen nicht an – hier blieb er ein Herr von. Im Königreich Preußen wurde der Grafentitel nur an besonders bedeutende und begüterte, meist uradlige Familien und oft auch bloß als Erstgeburtstitel verliehen, um eine „Inflation“ besitzloser Grafen zu vermeiden. Auch das kleine Herzogtum Sachsen-Meiningen galt als notorischer Titelverkäufer. Hiergegen richtete sich ein durch den Fall Kessler ausgelöstes Geheimabkommen „zur Verhinderung mißbräuchlicher Adelsverleihungen“ vom 26. Oktober 1888 zwischen den Königreichen Preußen, Sachsen, Bayern und Württemberg, dem die übrigen deutschen Bundesstaaten (unter sanftem politischem Druck) bis 1912 sukzessive – wenn auch nicht ohne Widerstände – beitraten.
20. und 21. Jahrhundert
In Europa hat der Adel in vielen Ländern durch die Entwicklung hin zu Republiken, konstitutionellen Monarchien, sozialistischen oder kommunistischen Systemen seine politische Macht als eigener Stand verloren, ist aber aufgrund seines nach wie vor wirksamen Sozialprestiges nach wie vor überdurchschnittlich oft in repräsentativen Führungspositionen vertreten (mehr als in eigentlichen Machtpositionen) und stellte bis in das 20. Jahrhundert hinein eine relativ geschlossene soziale Schicht, heute häufig zumindest noch ein stilbestimmendes soziales Milieu (darin vergleichbar den verschiedenen Schichten des Bürgertums) mit eigenen Lebensformen, Umgangsweisen und differenziertem Standesethos dar. Die Verbände des Adels, wie die Dachorganisation Cilane und die einzelnen Adelsvereinigungen in den europäischen Ländern werden von einem Teil des Adels als Interessenverbände genutzt.
Die Situation des Adels in den verschiedenen europäischen Ländern ist heute sehr heterogen – eine Folge der sehr unterschiedlichen historischen Prozesse in den Ländern:
In einigen Ländern West- und Nordeuropas erlebt der Adel Kontinuität, trotz aller Veränderungen und dem schrittweisen Teilen und Aufgeben seiner politischen Macht (z. B. Großbritannien und Nordirland, die Niederlande, Belgien, Luxemburg, Norwegen, Schweden, Dänemark, Liechtenstein, Monaco, Spanien). In diesen Ländern stehen Monarchenfamilien als Repräsentanten an der Spitze des Staates, wenn auch zum Teil ohne oder mit stark eingeschränkter Macht (siehe z. B. Verfassungsorgane des Vereinigten Königreichs). Adelige sitzen in Großbritannien und Nordirland im Oberhaus, der Aufstieg in den Adel durch Nobilitierung ist in einigen Ländern noch möglich (z. B. Großbritannien und Nordirland, Belgien, Spanien), und sie sind nach wie vor in Verbänden organisiert (z. B. das schwedische Riddarhuset); Adelige bilden dort selbstverständlich einen Teil der Elite.
In anderen Ländern Europas hat hingegen ein deutlicher Bruch stattgefunden. Adelige wurden normale Bürger. Unter ihnen sind Länder, die Republiken wurden, z. B. Frankreich, Deutschland (1918/1919) und Italien. In diesen Ländern hat der Adel meist auf einen Schlag seine politische Macht vollständig verloren, hat zum Teil aber noch ein gewisses gesellschaftliches Gewicht, während er sich gleichzeitig in Bezug auf Eheschließungen zunehmend groß- und bildungsbürgerlichen Schichten öffnet. In einigen Ländern wurde sogar das Führen der Adelstitel (als Bestandteile des Familiennamens) untersagt, so in Österreich (Adelsaufhebungsgesetz 1919) oder ab 1918 in der Tschechoslowakei. In Österreich wurde jedoch nicht in das Besitzrecht eingegriffen, außer bei der Regentenfamilie (Habsburgergesetze) und der vormalige österreichische Adel besteht als gesellschaftliche Gruppierung in Form eines breit verflochtenen Verwandtschaftsnetzwerks weiter.
Schließlich hat der Adel in einigen anderen, vor allem osteuropäischen Ländern einen noch schärferen Bruch durch die Errichtung sozialistischer oder kommunistischer Diktaturen erfahren (Sowjetunion, SBZ/DDR, Polen etc.). Hier wurde der Adel zum Teil vollständig seines Besitzes entledigt, vertrieben, interniert oder erschossen.
In Deutschland spielt heute die Beachtung des Adelsrechts, das auf die Grundsätze des Salischen Rechts zurückgeht, immer noch eine Rolle, insbesondere in den regelmäßig publizierten Bandreihen des Genealogischen Handbuchs des Adels sowie in der Monatszeitschrift Deutsches Adelsblatt, unter der Aufsicht eines „Deutschen Adelsrechtsausschusses“, da die Gestaltungsmöglichkeiten heutigen Namensrechts (Adoptionen, Weitergabe des Namens durch ausgeheiratete Frauen, einbenannte Ehemänner, nichteheliche Kinder, Künstlernamen usw.) zahlreiche Namensträger produzieren, die dem „historischen Adel“ nicht angehören („Scheinadel“). In Österreich hingegen ist durch die Streichung aller Titel 1919 einer solchen „Titelflut“ vorgebeugt; hier zählt allein das Wissen, welche Familien und welche der dazugehörenden Namensträger dem Adel angehören oder angehörten.
Ehrenkodex des europäischen Adels
Als Ehrenkodex des europäischen Adels gilt die Resolution zum Verhaltenskodex des Adels, die von den in der C.I.L.A.N.E. (Commission d’Information et de Liaison des Associations Nobles d’Europe) vertretenen offiziellen europäischen Adelsverbänden am 2. September 1989 im portugiesischen Porto verabschiedet wurde und an der sich im 21. Jahrhundert jeder Edelmann und jede Edelfrau messen lassen soll. Folgende Werte gelten als zukunftsweisend, erstrebens- und erhaltenswert:
Geistig-moralische Werte: Respekt gegenüber anderen religiösen und philosophischen Traditionen (gleichgültig, welcher Religion oder philosophischen Weltanschauung der oder die Adelige angehöre), hoher Stellenwert der Würde der Person, Ausschluss von Intoleranz und Sektierertum, Förderung der Menschenrechte unabhängig von Herkunft, sozialer Lage und Ethnie, Kultivierung der Ehrenhaftigkeit, Wort halten, Verpflichtungen erfüllen.
Familiäre Werte: Förderung von Familiensinn und Familienverband, Betrachtung der Familie als Ausgangspunkt der Gesellschaft, Würdigung der Ehe, „Schönheit der ehelichen Liebe“, Schutz des kulturellen Erbes, Erinnerung an die Verstorbenen, Erhaltung der Familientraditionen, familiäre Solidarität, Achtung zwischen den Generationen.
Gesellschaftliche Werte: „Den Sinn der Freiheit darin zu sehen, Herausragendes anzustreben, Verantwortung zu übernehmen und uneigennützig zu dienen“, Berufung zur Verantwortung, zur Führung zum Wohl aller und nicht um der eigenen Vorteile willen, Aufrechterhaltung des Geistes des Dienens, Erwerb von Sprachkenntnissen, Profession statt Mittelmäßigkeit, Pflege der Haltung, die sich nicht an unmittelbarem Profit und an Macht orientiert, sondern am Nutzen für die Gesellschaft, Verantwortung aus der Geschichte, Unternehmergeist und Mut zur Opferbereitschaft, aktive Teilnahme am Aufbau Europas, Bürgersinn und gemeinwohlorientiertes Handeln, Sorge um das Wohlergehen anderer, insbesondere Schwächerer, Wahrung der Höflichkeit und entsprechender Umgangsformen, Verwurzelung in der örtlichen Gemeinde, Verbundenheit mit Grund und Boden, Heimatsinn und berechtigter Nationalstolz, Schutz der Umwelt, Bewahrung der natürlichen Ressourcen sowie Anerkennung der positiven Rolle des Humors in der Gesellschaft, Vorbild sein.
Adel nach Ländern
Die im Folgenden genannten Ländernamen dienen der geographischen, politischen und kulturellen Orientierung, da sich über die Zeit hinweg Reichs- und Staatsgrenzen änderten.
Europa
Belgien
Während der habsburgischen Herrschaft hatte der Adel (der größtenteils Adel aus der Zeit des Heiligen Römischen Reiches war) große politische Bedeutung. Während der Vereinigung mit den Niederlanden (1814–1830) hatte das Land eine ständische Verfassung, nach der der Adel in einer besonderen Kammer des Reichstags saß (Eerste Kamer). Diese wurde nach der Erlangung der Unabhängigkeit abgeschafft und der Adel verlor jede politische Bedeutung, obwohl dem König bis heute das Recht verblieb, Adelstitel zu verleihen, grundsätzlich nicht höher als Graf. Belgier, die in jüngster Zeit in den Adelsstand erhoben wurden, sind z. B. Dirk Frimout (Burggraf, 1986), Ilya Prigogine (Burggraf, 1989), Albert Frère (Baron, 1994), Eddy Merckx (Baron, 1996), Frank De Winne (Burggraf, 2002) und Jacques Rogge (Graf, 2002). Ausländische Adlige, die belgische Untertanen geworden waren, gelten nur dann als adlig, wenn sie durch eine „reconnaissance de noblesse“, meist auf Vorschlag des Raad van Adel/Conseil Héraldique, vom König in den Adel des Königreichs aufgenommen werden. Es gibt in Belgien einen persönlichen und einen erblichen Adel: Der erbliche vererbt sich entweder auf alle Nachkommen oder geht von Mann zu Mann nach dem Recht der Erstgeburt über. Die Rangstufen sind: unbetitelter Adel, Junker (Jonkheer oder Ecuyer), Ritter (Ridder oder Chevalier), Freiherr (Baron oder Baron), Burggraf (Burggraaf oder Vicomte), Graf (Graaf oder Comte), Marquis (Markies oder Marquis), Fürst (Prins oder Prince), und Herzog (Hertog oder Duc).
Der belgische Adel und auch das belgisches Königshaus (Sachsen-Coburg und Gotha) zeichnen sich im europäischen Vergleich heute durch noch häufig vorkommende Heiraten innerhalb des heimischen und ausländischen Adels aus. Der belgische König Philippe ist seit 1999 mit Mathilde d'Udekem d'Acoz verheiratet. Ihre dem niederen Adel entstammende Familie wurde anlässlich der Hochzeit in den erblichen Grafenstand erhoben. Philippes Schwester Astrid ist seit 1984 mit Erzherzog Lorenz von Österreich-Este verheiratet, der 1995 unter Anerkennung seiner österreichischen Adelstitel zum Prinzen von Belgien erhoben wurde. Der luxemburgische Erbgroßherzog Guillaume heiratete 2012 die belgische Gräfin Stéphanie de Lannoy.
Deutschland
Die ältesten Berichte über Adel im Gebiet des heutigen Deutschlands finden sich in der frühestens 98 n. Chr. in Rom erschienenen Germania des Tacitus. Der fränkische Abt Nithard, ein Enkel Karls des Großen, beschreibt 842 im IV. Buch, cap. 2 seiner Geschichte die drei Stände der Sachsen. In fränkischer Zeit entstanden die Stammesherzogtümer. Karl der Große breitete durch die Eroberung von Sachsen das fränkische Grafensystem auf das spätere gesamte Heilige Römische Reich aus.
Im Hochmittelalter verschmolzen die ursprünglichen Edelfreien und die Ministerialen durch das Lehnswesen zur Schicht der Ritterbürtigen, deren bis heute existierende Geschlechter als Uradel bezeichnet werden. Es entstand eine Lehnspyramide, deren Stufen als Heerschilde bezeichnet werden. Aus den Edelfreien des dritten und vierten Heerschilds sowie den Reichsministerialen entstanden im Spätmittelalter und in der frühen Neuzeit die Landesherren. Als 1495 der Reichstag zu einer festen Institution der Reichsverfassung wurde, erhielten die Inhaber großer Reichslehen (Kurfürsten, Fürsten, Herzöge, Grafen sowie die Reichsprälaten) erbliche Sitze und wurden dadurch zu Reichsständen.
Die Verleihung von Adelstiteln an Bürgerliche begann in den deutschen Landen (Deutschland, deutscher Sprachraum) in der Zeit Kaiser Karls IV. nach französischem Vorbild durch die Erhebung von Beamten (vor allem Rechtskundige) in die Adelsklasse (Briefadel). Die Nobilitierung war im Heiligen Römischen Reich ein Vorrecht des Kaisers oder während Thronvakanzen des Reichsvikars. Seit 1806 konnten die Fürsten der Rheinbundstaaten und nach 1815 alle deutschen Landesfürsten Standeserhebungen bis hin zum Grafen vornehmen, die Könige bis in den Fürstenstand. Dies blieb auch nach der Entstehung des Deutschen Kaiserreiches am 18. Januar 1871 bis 1918 so.
Mit dem Ende des Heiligen Römischen Reichs 1806 kam ein Großteil der bis dahin reichsunmittelbaren Reichsstände durch Mediatisierung unter die Herrschaft von Mitgliedsstaaten des Deutschen Bundes; sie behielten als Standesherren nur noch rudimentäre Sonderrechte; auch der niedere Adel hatte in den meisten Ländern des Deutschen Kaiserreichs kaum noch Sonderrechte. Bis ins frühe 20. Jahrhundert waren aber weite Teile des öffentlichen Lebens, zumal herausgehobene Positionen in Verwaltung, Diplomatie und Militär durch Gepflogenheit Adligen vorbehalten; herausragend befähigte Bürgerliche wurden oft nobilitiert und bildeten einen gesellschaftlich dem Bürgertum näherstehenden, kaum je landgesessenen Offiziers-, Beamten- und Professorenadel.
Nach dem Ende der Monarchie wurde in Artikel 109 der Weimarer Verfassung (Verfassung des Deutschen Reiches vom 11. August 1919) bestimmt: „Öffentlich-rechtliche Vorrechte oder Nachteile der Geburt oder des Standes sind aufzuheben. Adelsbezeichnungen gelten nur als Teil des Namens und dürfen nicht mehr verliehen werden.“ Die von den Fraktionen der USPD und SPD in der Nationalversammlung beantragte Formulierung „Der Adel ist abgeschafft“ wurde nach längerer Diskussion am 15. Juli 1919 abgelehnt. Heute leben in Deutschland nach den Angaben der Vereinigung der Deutschen Adelsverbände (VdDA) rund 80.000 Angehörige adliger Familien.
Nach der Abschaffung der Adelsprivilegien hat der Freistaat Preußen 1920 entschieden, dass auch in der Anrede kein Unterschied zwischen Bürgern und ehemaligen Adeligen zu machen sei. Diese Regelung wurde von der Bundesrepublik Deutschland übernommen. Nach heutigem deutschen Protokoll stehen deutschen Staatsbürgern mit ehemaligen Adelstiteln im Namen keine Besonderheiten mehr in Anrede und Schriftverkehr zu. Dies ergibt sich aus dem Gleichheitsgrundsatz des Grundgesetzes. Für ausländische Adelige gilt diese Regelung nicht. Ihnen steht nach deutschem Protokoll eine besondere Anrede je nach Titel zu. Offiziellen Charakter und protokollarische Bedeutung haben damit diese Titel, Rangbezeichnungen und Anreden nur in Ländern, in denen der Adel und seine Vorrechte nicht abgeschafft sind. Eine Verwendung der besonderen Anrede in Bezug auf Deutsche mit einer Abstammung vom historischen Adel oder einem erlangten Namen, der an den historischen Adel erinnert, ist damit rein freiwillig und entspricht nicht dem offiziellen Protokoll.
Der Feuilletonist Jens Jessen veröffentlichte anlässlich der 100-jährigen „Abschaffung“ des Adels im Jahr 2018 eine essayistische Betrachtung über dessen Fortleben, seine Eigenheiten sowie verbliebene Aspekte seiner Verschiedenheit vom Bürgertum.
Frankreich
Wie in Deutschland ist der französische Adel ursprünglich aus dem Lehnswesen des Mittelalters entstanden. Der ältere Adel wurde in der Zeit der Bourbonenkönige durch zahlreiche Standeserhöhungen und Einführung des Dienstadels (noblesse de robe) erheblich geschwächt und schließlich durch die Revolution weitgehend ausgelöscht. Napoleon I. schuf einen neuen Adel und nahm aber gleichzeitig einen Teil des alten Adels in sein System auf. Die kurzlebige 2. Republik hob den Adelsstand auf, Napoleon III. stellte ihn wieder her, doch die 3. Republik schaffte ihn 1870 endgültig ab. Seitdem sind adlige Titel nur noch Namensbestandteil.
Heiliger Stuhl
Der Heilige Stuhl (als partikuläres Völkerrechtssubjekt nicht mit dem Staat Vatikanstaat zu verwechseln) kann ebenfalls Adelswürden verleihen, doch wurde dies seit dem Pontifikat Johannes XXIII. nicht mehr praktiziert, obwohl die theoretische Möglichkeit immer noch besteht.
Der Papst ist ein regierender europäischer Monarch (heute im Vatikan, historisch die längste Zeit im Kirchenstaat), wenn auch in einer Wahlmonarchie (wie einst im Königreich Polen) und daher auch in der I. Abteilung der Bandreihe Fürstliche Häuser des „Gotha“ seit jeher mit eigenem Artikel aufgeführt. Als Kirchenfürsten hingegen bezeichnete man im Heiligen Römischen Reich die regierenden geistlichen Fürsten und ferner bis heute die Kardinäle, zu denen im „Gotha“ eine Erläuterung über den Geistlichen Fürstenstand enthalten ist, die jedoch dort nicht namentlich gelistet sind. Die Päpste schufen sich ihren eigenen päpstlichen Adel, aus dem sie häufig selbst hervorgingen.
Italien
Das mittelalterliche Lehnrecht in Italien und das italienische Erbrecht unterschieden sich erheblich vom fränkischen; daher ist der italienische Adel nur bedingt mit dem französischen oder deutschen vergleichbar. Aber auch der italienische Landadel entwickelte sich aus dem Lehnswesen, dabei besaß Italien im Gegensatz zu anderen europäischen Staaten auch eine starke Klasse des Stadtadels, die Signoria. Kennzeichnend für die Entwicklung des italienischen Adels war, dass die mittelalterlichen Grafschaften und Baronien recht klein waren, so dass die späteren Marquis und Grafen oft über nur unbedeutenden Landbesitz verfügten.
Eigentlich erst im Königreich Italien (1861–1946) kann von „Adel“ im Sinne der traditionellen „Adelsforschung“ gesprochen werden. Im 19. Jahrhundert gab es dann auch in Italien Rangstufen ähnlich wie in Deutschland, Frankreich, Großbritannien, Spanien: Fürst (Principe), Herzog (Duca), Markgraf (Marchese), Graf (Conte), Vizegraf (Visconte), Baron (Barone), Ritter (Cavaliere), Patrizier (Patrizio) und Edler (Nobiluomo). Wegen der hohen Zahl der betitelten Adligen im alten Stadt- und Landadel hat sich ein Kleinadel kaum entwickeln können. Mit dem Ende der Monarchie wurden die Adelstitel in Italien 1946 abgeschafft.
Nobilhòmini
Nicht mit dem traditionellen Adel vergleichbar sind die sogenannten venezianischen Nobili, die präzise Nobilhòmo (Venezianisch: Nobilòmo oder Nobiluomo) genannt werden müssen: Sie waren Kaufleute, und zwar aus jenen Familien, die zum venezianischen Parlament, dem Großen Rat, seinen Gremien und Regierungsämtern zugelassen waren und den Dogen und alle anderen Regierungsbeamten aus ihren Reihen wählten. Diese Nobili unterschieden sich ansonsten nicht von den reichen venezianischen Patrizierfamilien, die nach der Erweiterung des Großen Rates 1297 (üblicherweise falsch als Serrata = Verschluss bezeichnet) dazu keinen Zugang mehr hatten. Sie hatten daher eine Eigenständigkeit und ein Selbstbewusstsein, das jedem Monarchen ein Dorn im Auge sein musste, waren sie doch keine Lehnshintersassen eines Herrschers. Daher setzten Napoleon und die Habsburger Kaiser während ihrer Herrschaft über Venedig alles daran, aus den venezianischen Nobilhòmini Vasallen zu machen. Kaiser Franz I. von Österreich hatte nach der Wiederinbesitznahme Venedigs das Wort Nobilòmo abermals unter Strafe gestellt, wie es schon 1798 geschehen war.
Liechtenstein
Im Fürstentum Liechtenstein existiert ein (kleiner) Landesadel, welcher größtenteils aus den Familien von in liechtensteinische Dienste getretenen Ausländern sowie morganatischen Nachkommen des Fürstenhauses besteht. Adelsverleihungen und Standeserhöhungen sind selten, aber grundsätzlich möglich. Die letzte Nobilitierung wurde 1979 durch Fürst Franz-Josef II. vorgenommen.
Luxemburg
Neben der großherzoglichen Familie gibt es in Luxemburg keine Fürsten- oder Herzogsgeschlechter. Gemäß Luxemburger Verfassung besitzt der Großherzog das Recht „de conférer des titres de Noblesse“ (der Verleihung von Adelstiteln). Auch heute noch werden vom Großherzog Erhebungen in den Adelsstand vorgenommen. Zumeist handelt es sich jedoch um Nobilitierungen im Familienkreis. So wurde der Neffe der Großherzogin Charlotte, Gustaf Lennart Nicolaus Paul Bernadotte, im Jahre 1951 zum „Comte de Wisborg“ nobilitiert (siehe zum Beispiel: Thronfolge in Schweden).
Niederlande
Die Herkunft des Adels und die Entwicklung und späterer Verlust seiner Privilegien verliefen in ähnlichen Bahnen wie in Belgien. Ursprünglich war der Adel in den Landadel und das Stadtpatriziat aufgeteilt und hatte anfangs die Macht in den Händen, diese ging jedoch durch die Einführung der Republik im Jahre 1795 verloren. Im Jahre 1807 versuchte der zeitweilige König von Holland Louis Bonaparte den Adel mit seinen Titeln, Prädikaten und Privilegien wieder aufleben zu lassen, welches jedoch auf energischen Widerstand seines Bruders Napoleon Bonaparte stieß. Die niederländische Verfassung von 1848 schaffte endgültig alle Adelsprivilegien und das königliche Vorrecht der Nobilitierung ab. Der heutige niederländische Adel besteht vor allem aus Landbesitzern. Traditionell hat der Adel auch einige Funktionen am Hofe inne.
Der niederländische Adel ist nicht untituliert. Ein Namensbestandteil van oder de ist in aller Regel kein Hinweis auf einen adligen Namen. Die Rangstufen vom niedrigsten Titel sind: Junker (Jonkheer) (Bsp.: Jonkheer van Amsberg ist ein adliger Name, Dhr. Van Vollenhoven ist bürgerlich), Ritter (ridder), Baron (baron), Burggraf (burggraaf), Graf (graaf), Herzog (hertog), Prinz (prins).
Österreich
Der Adel in den zum Heiligen Römischen Reich zählenden Habsburgischen Erblanden war bis 1806 nach den im Reich geltenden Bestimmungen verfasst. Die habsburgischen Herrscher verliehen so als römische Kaiser Reichsfürstentitel an herausragende Adelshäuser der Donaumonarchie. Seit 1806 galten die für das 1804 gegründete Kaisertum Österreich vom jeweiligen Monarchen festgelegten Statuten. Im Königreich Ungarn, bis 1867 Teil des Kaisertums, galten außerdem die ungarischen Adelsregeln, in den anderen Kronländern auch die dort überlieferten Regeln (Galizien: polnische Regeln; kroatische, italienische, böhmische Regeln). Nach dem Ende der Habsburger Monarchie wurden in ihren Nachfolgestaaten, Deutschösterreich bzw. nachfolgend Republik Österreich und in der Tschechoslowakei nach 1918 die Adelstitel abgeschafft. Mit dem österreichischen Adelsaufhebungsgesetz von 1919 wurde der Adel explizit aufgehoben und das Führen von Adelsbezeichnungen unter Strafe gestellt.
Polen
Der polnische Adel war ursprünglich eine reine Kriegerkaste und schuf im Kampf mit der Königsmacht etwas Einzigartiges in ganz Europa: Die sogenannte Adelsrepublik. Bis zum Anfang des 16. Jahrhunderts hatte der polnische Adel keine Familiennamen, abgesehen von ein paar ganz alten, noch aus der heidnischen Zeit stammenden, Sippschaftsnamen oder beschreibenden Beinamen. Man fügte dem Taufnamen lediglich den Namen des Besitzes oder Landgutes mit der Präposition z, de hinzu, welche dasselbe bedeutete, wie das deutsche von (z. B. Jurand ze Spychowa, Jurand de Spychowo = Jurand aus / von Spychowo). Erst nach 1500 verbreitete sich die Sitte, diese in Eigenschaftswörter mit der Endung -ski, -cki oder -icz zu verwandeln. Hinter dem Namen wurde, falls vorhanden, noch die Wappengemeinschaft genannt: Longin Podbipięta herbu Zerwikaptur.
Mit den Teilungen Polens wurde die Adelswürde des größten Teils des untitulierten Adels in den drei Teilungsgebieten nicht anerkannt (jedoch ihre polnische Adelswürde haben diese Familien nie verloren), da dieser seine adelige Herkunft nicht ausreichend nachweisen konnte (dies war auch sehr kostspielig) oder aus Stolz vor dem Besatzer dies nicht tun wollte. Der Hochadel dagegen behielt seine Privilegien und bekam seine Fürstentitel durch die Teilungsmächte bestätigt. Der sogenannte Mitteladel bekam von diesen die ersehnten Grafentitel und die Erlaubnis, Fideikommisse zu gründen. Im wiedergegründeten Polen von 1918 wurde der Adel schließlich 1921 abgeschafft und der Gebrauch von Titeln verboten. Die Verfassung von 1935 hob das Verbot zwar wieder auf, doch schon 1945 wurde der Adel durch Wiedereinführung der Verfassung von 1921 endgültig abgeschafft und die Landgüter in einer Agrarreform entschädigungslos verstaatlicht und parzelliert. Heute haben sich die ehemaligen polnischen Adelsfamilien wieder organisiert und pflegen ihre Geschichte und Brauchtum.
Portugal
In Portugal wurde der erbliche Adel erst im 14. Jahrhundert unter König Johann I. geschaffen, der auch den Herzogstitel einführte. König Alfons V. fügte die Titel des Marquis, Vicomte und Baron hinzu. Diese Häuser bildeten den Hochadel, der Gerichtsbarkeit ausüben durfte. Der niedere Adel bestand aus den Fidalgos, den Rittern und den Rechtsgelehrten (doutores oder letrados). In der Zeit dieses Königs begann auch die Bildung der Majorate (morgados).
Minister Pombal schuf unter König Joseph I. (der von 1750 bis zu seinem Tod Anfang 1777 regierte) ein Gegengewicht zum alten Adel, den Briefadel. Er bestand aus Grundbesitzern, Kaufleuten und Gelehrten. Die adlige Gerichtsbarkeit wurde im Jahre 1790 abgeschafft. Während der liberalen Revolution (1820/21) verlor der Adel alle Vorrechte.
Am 5. Oktober 1910 wurde die Republik Portugal ausgerufen; der Adel wurde abgeschafft.
Russland
Der russische Adel (Dworjanstwo) war eine Mischung: Neben dynastischen Geschlechtern, Nachkommen des Rjurik, des Gediminas und uralter kaukasischer Fürstengeschlechter standen Söhne des niedersten Volkes, neben ethnischen Russen eine internationale Gesellschaft aus Angehörigen der eingegliederten Völker und Einwanderern verschiedener Nationalitäten. In alter Zeit galten in Russland die Bojaren als Adel. Deren Titel waren aber nicht erblich und sie hatten auch keinen festen Grundbesitz. Die Stellung des Adels wurde durch einen Ukas Peter I. vom 24. Januar 1722 geregelt, der eine Rangtabelle (Rangtafel) der Staatsdienerklassen schuf. Peter führte auch die Grafen- und Baronenwürden ein. Es gab ab nun den persönlichen und den erblichen Adel. Im Laufe des 18. Jahrhunderts wurden die Rechte und Privilegien des Adels erheblich erweitert. Gleichzeitig erhielt der Adel 1785 unter Katharina der Großen totales Verfügungsrecht über die ihm untertanen Bauern. Dieses wurde erst unter Zar Alexander II. geändert.
Die Oktoberrevolution des Jahres 1917 schaffte den Adel ab (Dekret vom ), viele Adlige wurden verfolgt, inhaftiert und erschossen. Erst nach 1991 wurden Adelsverbände und Organisationen der adligen Traditionspflege wieder erlaubt. Als soziale Schicht existiert der russische Adel aber nicht mehr.
San Marino
Die kleine Republik San Marino verlieh noch in den 1970er Jahren Adelstitel, weniger an Inländer als an Ausländer für „Verdienste um den Staat“, häufig aber eher für Geld. 1980 wurde die Verleihung des Adels abgeschafft.
Schweiz
Im Hochmittelalter entwickelte sich der Adel aus Edelfreien und Ministerialen wie im übrigen Reich. Viele Familien übten eigene Gerichtsbarkeit aus, manche erlangten eine hochadelige, dynastische Stellung wie die Habsburger, Kyburger, Lenzburger, Thiersteiner, Rapperswiler, Toggenburger oder Werdenberger.
Im Spätmittelalter entwickelte sich in den – vom 13. bis 15. Jahrhundert sich emanzipierenden – freien Reichsstädten ein eidgenössisches Patriziat, das sich aus reich gewordenen Kaufmannsfamilien mit oder ohne Adelsbrief, aus bürgerlichen Notabeln und bisweilen auch stadtsässig gewordenem Landadel zusammensetzte. Diese Patrizier erwarben häufig Landsitze oder Grundherrschaften mit eigener Gerichtsbarkeit, erbauten sich Schlösser und führten eine aristokratische Lebensform. In den Städten bildeten sie den alles beherrschenden Rat (Grosser Rat bzw. Kleiner Rat) und verdrängten Zünfte und Handwerkerschaft von der Macht. Mit dieser Annäherung der bürgerlichen Notabeln an die Lebensweise des Adels und der zunehmenden Abschottung gegenüber Aufsteigern bildete sich in den Städten der frühen Neuzeit das Patriziat, ein Begriff, der in der Renaissance eingeführt wurde, vergleichbar dem Patriziat in der italienischen Signoria, etwa den venezianischen Nobilhòmini. Wie diese – und im Unterschied zum sonstigen Landadel im Alten Reich – blieben die Patrizier aber zumeist auch wirtschaftlich (überwiegend im Handel, jedoch zunehmend auch im Söldnerwesen) tätig, im Unterschied zur ansonsten sozial ähnlich strukturierten englischen Gentry, die hauptsächlich von Pachteinnahmen lebte.
Da die Schweiz bis zum Westfälischen Frieden 1648 offiziell Teil des Heiligen Römischen Reichs war, verlieh der römisch-deutsche Kaiser den Reichsadelsstand nicht selten auch an Schweizer Geschlechter, namentlich an viele landsässig gewordene Patrizier oder an Offiziere in kaiserlichen Diensten. Wenige Jahre nach der Loslösung vom Reich schuf etwa Bern eine eigene gesellschaftliche Rangordnung, die sich nicht nach dem Adelsrecht im Reich richtete. In der Stadt und Republik Bern verschmolzen viele adlige Grundherren aus der Umgebung der Stadt mit dem dortigen Patriziat zu einer Aristokratie, die die Macht bis zum Jahre 1798, der französischen Invasion, ausübte. Zudem erwarben Angehörige des Berner Patriziats in den von Bern verwalteten Gebieten Herrschaften, die mit dem Recht zur Führung eines Adelstitels verbunden waren. Auch nach 1648 verliehen ausländische Mächte wie Frankreich, Preußen oder der Heilige Stuhl Adelstitel an in ihren Diensten stehende Schweizer. Im bis 1848 von Preußen in Personalunion regierten Neuenburg wurden zudem bis ins 19. Jahrhundert viele Patrizierfamilien in den Briefadel aufgenommen. Traten Angehörige von Schweizer Adelsfamilien in fremde Militärdienste (zum Beispiel in die des Vatikans oder Frankreichs und Preußens), so führten sie dort in der Regel ihre Rangtitel. Die 1792 beim Tuileriensturm durch die Sansculotten getöteten Angehörigen der Schweizergarde waren zu 90 % schweizerische Adlige. Eine besondere Rolle spielte der Adel des 1367 gegründeten Freistaats der Drei Bünde, einer Art Adelsrepublik, die bis zu ihrem Ende 1798 im Heiligen Römischen Reich verblieb und erst danach zur Schweiz kam; diese Familien (wie die von Salis und von Planta) unterhielten oft Verbindungen zu den österreichischen Habsburgern, aber auch zu Venedig und Frankreich.
Formell verloren die „Gnädigen Herren“ in den Städten der Schweiz ihre Macht vorübergehend mit der Helvetischen Republik und definitiv mit den liberalen Revolutionen in den 1830er und 1840er Jahren (Regeneration 1831 und Sonderbundskrieg 1847). Die ehemaligen Patrizierfamilien spielten aber noch bis zum Beginn des 20. Jahrhunderts eine wichtige wirtschaftliche und gesellschaftliche Rolle.
Rechtlich oder gesellschaftlich haben Adel und Patriziat in der egalitären Schweiz heute keine Bedeutung mehr. Die Führung der Prädikate und Titel ist ganz dem persönlichen Ermessen überlassen, jedoch können Titel wie Graf oder Freiherr nicht in amtliche Schriften eingetragen werden, sondern lediglich das Prädikat „von“. Es ist allerdings in der Schweiz nicht ganz einfach, alten Adel (z. B. die Grafen von Erlach, Grafen von Hallwyl, Freiherren von Bonstetten, Herren von Salis, von Planta u. a.), neuzeitliches, briefadeliges Patriziat (von Graffenried, von Wattenwyl) und die häufigen nicht-adeligen Herkunftsnamen (von Gunten, von Siebenthal, von Wartburg usw.) zu unterscheiden. Als Synonym zu „von“ wird in der Westschweiz „de“ verwendet, wie de Reyff, de Watteville etc.
Zu den einzelnen Geschlechtern: siehe :Kategorie:Schweizer Adelsgeschlecht
Skandinavien
Dänemark
Die Anfänge des dänischstämmigen Adels im Lande gehen auf die Bildung der Königsgarde, der Hauskerle zurück, die ein Adel kriegerischen Gepräges war. Die ersten Privilegien des Adels wurden ihm von König Knut VI. im 12. Jahrhundert verliehen, der den Adel und die Geistlichkeit zu privilegierten Ständen gegenüber dem Bürger und dem Bauern erhob, wodurch die nordische Freiheit und Gleichheit zurückgedrängt wurde. Die Vorrechte des Adels vermehrten sich noch, nachdem der schleswig-holsteinische Adel, der bedeutende Privilegien genoss, nach der Thronbesteigung der Oldenburger, zahlreich in Dänemark eingewandert war. Diese Vorherrschaft des Adels im Staate dauerte bis 1660. In diesem Jahre wurde König Friedrich III. (Frederik III.) von den Ständen Geistlichkeit und Bürgerschaft zum absoluten Herrscher im Lande erklärt: Der alte Adel behielt nur seine soziale Bevorzugung, musste sie aber seit 1671 mit dem neugeschaffenen Hofadel teilen. König Christian V. führte seit diesem Jahre sehr zahlreiche Nobilitierungen und Standeserhöhungen von Bürgerlichen und naturalisierten Fremden durch, welche den königstreuen Hofadel bildeten. Die neue Verfassung von 1849 hob dann die letzten dem Adel noch verbliebenen Vorrechte auf.
Heute bestehen in Dänemark noch etwa 225 Geschlechter, von denen ein Drittel naturalisierter, ausländischer Herkunft ist. Es gibt drei Rangstufen: unbetitelter Adel, Freiherren und Grafen. Das Staatsoberhaupt führt keine Nobilitierungen oder Standeserhöhungen mehr durch.
Finnland
Der Großteil des finnischen Adels stammt aus der schwedischen Bevölkerungsgruppe und hat seinen Ursprung in der Zeit vor 1809, als Finnland Teil Schwedens war. Auch im darauf folgenden Großfürstentum Finnland unter dem russischen Zaren behielt der Adel bis zum Jahre 1906 seine Stellung als einer der vier Stände des finnischen Landtages und die Befugnis, an der Gesetzgebung und Steuerbewilligung teilzunehmen. Der Zar erhob auch zahlreiche verdiente Persönlichkeiten in den Adelsstand, zuletzt General August Langhoff, der 1912 zum Freiherrn ernannt wurde.
Für den alten und neuen Adel besteht (wie in Schweden) ein Ritterhaus, einst eine besondere Kammer des Parlaments, heute mehr eine traditionspflegende Vereinigung. Nur wenige Adlige sind Grundbesitzer. Die meisten Söhne des finnischen Adels dienten während der Zeit des Großfürstentums in der russischen Armee (vgl. Gustaf Mannerheim). Die Anzahl der Geschlechter beträgt heute etwa 200. Es gibt drei Rangstufen: unbetitelter Adel, Freiherren und Grafen.
Norwegen
In Norwegen hat sich aus seiner unmittelbaren Gefolgschaft, dem Hirð zunächst ein Lehnsadel entwickelt. Im Mittelalter standen die vom König nominierten Jarle und die von ihm eingesetzten Lehnsmänner an der Spitze einzelner Landschaften. Einige dänische Adelsgeschlechter wanderten während der Personalunion mit Dänemark (1397–1814) nach Norwegen ein. Größerer adliger Landbesitz ist in Norwegen nur durch zwei Güter repräsentiert, die Grafschaft Jarlsberg und die Baronie Rosendal.
In § 108 des norwegischen Grundgesetzes von 1814 wurde die Errichtung neuer Grafschaften, Baronien, Stammhäuser und Fideikommisse untersagt. 1821 wurde mit Gesetz bestimmt, dass, wer seinen Adelstitel nicht bis zum nächsten ordentlichen Storting mit gesetzlichen Dokumenten nachgewiesen habe, diesen verliere. Heute gibt es noch einige wenige adlige Familien.
Schweden
Der schwedische Adel entstand im Zeitraum von der Mitte des 11. bis zur Mitte des 13. Jahrhunderts während ständiger Fehden zwischen verschiedenen Königsgeschlechtern und entwickelte sich aus dem freien Bauerntum. 1279 wurde die Steuerfreiheit des Adels und seine Dienstpflicht in der Kavallerie im Statut von Alsnö festgelegt. Es gab damals noch keine Unterscheidung des Adels in hohen und niederen. Erst Erich XIV. machte bei seiner Krönung im Jahre 1561 die mächtigsten und begütertsten Edelleute zu Grafen und Freiherren, so dass ein hoher und ein niederer Adel entstanden. Christina I. vermehrte den niederen Adel um etwa 400 Familien. König Gustav II. Adolf vereinigte den Adel in einem Ritterhaus. Die letzte Nobilitierung fand 1902 durch König Oskar II. statt.
2004 gab es noch etwa 619 schwedische Adelsgeschlechter, davon 46 Grafenhäuser, 124 Freiherrenhäuser und 449 adlige Häuser, mit zusammen etwa 28.000 Personen. Ihr Versammlungsort ist das Riddarhuset in Stockholm.
Spanien
In Spanien hob die Verfassung von 1837 in ihren Artikeln 4 bis 6 sämtliche Adelsprivilegien auf und stellte Adel und Bürgertum rechtlich gleich; Artikel 47 ermöglichte dem König aber weiterhin die Verleihung von Titeln. Beides gilt auch heute unter der Verfassung des Königreichs Spanien von 1978, ersteres nach dem Gleichheitsgrundsatz in Artikel 14, letzteres als Ausfluss der Staatsform der parlamentarischen Monarchie.
Zwischenzeitlich gab es aber andere Rechtsordnungen: Die Erste Spanische Republik von 1873 hob Titel und Oberhaus auf. König Alfons XII. stellte 1875 die Adelsränge wieder her. Die Verfassung der Spanischen Republik von 1931 hob sie wieder auf. Unter Francisco Franco wurden die Titel im Jahre 1948 wieder eingeführt.
Die Granden von Spanien (spanisch Grandes de España)
Granden sind die Inhaber des Grandentitels, der vom König verliehen wird. Er ist in aller Regel, aber nicht notwendig an einen Adelstitel gebunden und wird vom Monarchen erblich verliehen. Der Grandentitel verschafft seinen Inhabern den protokollarischen Vortritt vor anderen Adligen und einige wenige zeremonielle Rechte.
Der alte Adel wurde unter den Königen Karl III. und Karl IV. durch viele Nobilitierungen erheblich geschwächt. König Joseph Bonaparte schaffte den Grandentitel ab; nach der Rückkehr der Bourbonen wurde er wieder eingeführt. 1834 wurde den Granden Sitze in der Estamento de Próceres (Kammer der Pairs) eingeräumt, die aber nur bis 1836 existierte. Die Spanische Verfassung von 1837 hob die Vorrechte der Granden, wie des Adels insgesamt, auf. Ein empfindlicher Stoß gegen die Position der Granden war die von den Cortes verfügte Abschaffung der Majorate im Jahre 1855: Für viele Familien führte sie zum Ruin, andere arbeiteten sich auf dem Gebiet des Handels, des Gewerbes und der Kunst wieder empor. Anfang des 20. Jahrhunderts lebten etwa 200 Grandenfamilien in ungesicherten Verhältnissen und hatten nicht einmal das Recht, ihre alten Titel zu führen, denn bei jedem Übergang des Titels vom Vater auf den Sohn mussten hohe Abgaben an den Fiskus entrichtet werden, was die finanziellen Möglichkeiten der meisten Geschlechter überstieg. Während der alten Monarchie bis 1931 waren 392 Granden im spanischen Staatskalender aufgeführt, von denen nur 35 ausreichenden Vermögensstatus hatten, um ihren Sitz im Senat einnehmen zu können. 1931 wurde die Grandenwürde mit dem Adel insgesamt abgeschafft. Dem Spanischen Bürgerkrieg fielen manche Granden zum Opfer, von ihren Nachfahren verschwanden etliche spurlos in der Bevölkerung. 1948 lebte die Grandenwürde wieder auf, ohne aber ihren Trägern andere als rein zeremonielle Rechte einzuräumen.
Titulierter Adel (spanisch Titulados)
Er besteht aus folgender Rangfolge der Adelstitel: Principe, Duque, Marqués, Conde, Vizconde und Barón. Der Titel Don/Doña, ursprünglich dem König und der Königin vorbehalten, wird heute für alle Standespersonen als Höflichkeitsbezeichnung verwendet und vor den Vornamen gesetzt, informell aber auch für angesehene Bürgerliche verwendet. Wie beim britischen Adelsprädikat Sir/Dame wird ein Titelträger mit Don/Doña und Vorname angeredet, zum Beispiel Don Alfonso.
Nobilitierungen und Standeserhöhungen werden durch den König vorgenommen; zum Beispiel erhob König Juan Carlos I. seinen ersten Ministerpräsidenten Adolfo Suárez zum erblichen Herzog, den Künstler Salvador Dalí zum Marqués de Púbol und den Komponisten Joaquín Rodrigo zum Marqués de los Jardines de Aranjuez. Im Jahre 1992 existierten 4 Titel für die königliche Familie, 404 Grandentitel von Spanien und 2.351 Adelstitel. Da einige Träger mehrere Titel auf sich vereinen, gibt es weniger Personen als Titel (zum Beispiel führte die 18. Duquesa de Alba insgesamt 50 Titel). Es gibt sowohl erbliche Adelstitel als auch persönliche, die mit dem Ableben des Trägers erlöschen. Die Adelstitel stehen unter staatlicher Kontrolle; die Übertragung eines erblichen Titels muss vom rechtmäßigen Erben beantragt werden. Die Adelstitel vererben sich nach jüngster Reform in absoluter Primogenitur, ohne Ansehung des Geschlechts, an das jeweils älteste Kind, sofern sie nicht bei Lebzeiten mit Genehmigung des Monarchen an Nachfahren abgetreten werden; auf diese Weise können lange Titularketten auch auf mehrere Erben aufgeteilt werden.
Untitulierter Adel (spanisch Hidalgos)
Der niedere, untitulierte Adel besteht aus den Ständen der Hidalgos (katalonisch Ciudadnos oder Burgueses honrados) sowie den Caballeros und Escuderos, die unter der Bezeichnung Hidalgos zusammengefasst werden. Der Geblütsadel bzw. historische Ritterstand der Hidalgos – hidalgos de sangre – kann nur durch adelige Geburt erlangt und vom König auch nicht verliehen werden. Die Hidalgos stellen eine regional teilweise sehr zahlreiche Bevölkerungsgruppe dar. Da sie aber keine Titel führen und die Privilegien des Adels seit 1837 aufgehoben sind, ist ihre Adelszugehörigkeit eine rechtlich bedeutungslose historische Erinnerung. Daher unterliegen die Hidalgos auch keiner direkten staatlichen Kontrolle. Ihre Nachkommen haben sich aber in der Königlich Spanischen Adelskorporation, der Real Asociación de Hidalgos de España zusammengeschlossen, die über die Einhaltung des historischen Adelsrechts wacht. Die Mitglieder werden persönlich in einer Adelsmatrikel geführt. Dieser Adelsverband ist Mitglied im Dachverband der europäischen Adelsverbände (C.I.L.A.N.E.).
Tschechien
Im Königreich Böhmen wurde traditionell zwischen dem Böhmischen Herrenstand und dem landbesitzenden Ritterstand unterschieden. Dem Herrenstand gehörten um 1500 nur 30 Familien an, die im Böhmischen Landtag die Geschicke des Landes führten. Sie unterstanden einer privilegierten Gerichtsbarkeit, genossen persönliche Steuerfreiheit und anderes. Diese kleine Gruppe führender Familien hatte eine staatsrechtliche Stellung, die weit über die des Adels in anderen Ländern hinausging. Die Stände Böhmens legten, wie die ungarischen, Wert auf ihr traditionelles Recht zur Königswahl (siehe: Geschichte Böhmens), was die Habsburger aber zunehmend bestritten und zur reinen Formalie erklärten, um diese Kronen ihren Erblanden einzugliedern. Jahrhundertelang zählten zu den Ländern der Böhmischen Krone neben Böhmen und der Markgrafschaft Mähren auch die schlesischen Herzogtümer, die Grafschaft Glatz, die Ober- und Niederlausitz sowie kleinere Reichslehen, die jeweils ihre eigenen Ständevertretungen hatten und deren Adel die politische Autonomie ihrer Länder betonte. Innerer Zwist entstand durch die Hussitenkriege, wegen der Verfolgung der Hussiten, die 1436 durch den katholischen König zunächst anerkannt worden waren. Diese schlossen sich später dem Luthertum an, das auch in der Niederlausitz und in Schlesien (wie auch in Österreich und Ungarn) verbreitet war, darunter ein erheblicher Teil des böhmischen Adels.
Der Ständeaufstand in Böhmen (1618) veranlasste König Ferdinand II. zur Entmachtung des Adels, was zur Auswanderung und Enteignung zahlreicher protestantischer Adliger (Exulanten) führte. Parteigänger der Gegenreformation, die zumeist selbst rechtzeitig rekonvertiert waren, konnten sich dabei erheblich bereichern. Die mit Hilfe der Jesuiten bewirkte Rekatholisierung von Adel und Volk sowie die Einführung der absolutistischen Königsherrschaft sicherten die habsburgische Zentralmacht ab. Mit der verneuerten Landesordnung von 1627 wurde eine neue Ständepyramide geschaffen; zur Aufnahme in den Herrenstand genügte jetzt die Verleihung eines Freiherren-, Grafen- oder Fürsten-Titels durch den König von Böhmen oder das Inkolat an eine entsprechende ausländische Familie. Der Herrenstand ergänzte sich nun nicht mehr selbst, sondern der König entschied darüber. Es erfolgte eine Gliederung in den alten Herrenstand, den böhmischen Freiherrenstand und den Ritterstand. Auch das politische Mitspracherecht war stark eingeschränkt, alle Landesämter kamen nun in die Verfügungsgewalt des Königs und dieser konnte darüber entscheiden, wer das Inkolat und damit auch die Berechtigung zur Teilnahme am Landtag erhielt. Einige Politiker und Heerführer aus königsnahen Familien, teils böhmische, teils österreichische, konnten die Ländereien der Exulanten günstig an sich bringen und großen Besitz akkumulieren. Die besondere Stellung des böhmischen Herrenstandes endete mit der Auflösung der ständischen Verfassung von 1849. Doch sahen sich dessen ehemalige Mitglieder noch bis 1918 als Bewahrer und Hüter der Rechte des Landes Böhmen innerhalb der Habsburgischen Erblande.
Über die Zeit von Kaiser Franz Joseph I. wird berichtet: „In Prag vereinigte sich in den Wintermonaten der gesamte böhmische Adel, einer der vornehmsten Teile der österreichischen Hofgesellschaft. Da hatten die Lobkowitz, die Fürstenberg, Schwarzenberg… und viele andere ihre alten historischen Häuser… Die Prager Gesellschaft war abgeschlossener als jene in Wien. In der Residenzstadt waren in der Hofgesellschaft neben dem böhmischen Adel auch ungarischer, spezifisch österreichischer und polnischer, auch italienischer Adel vertreten. Außerdem gehörten manche Familien von Staatsmännern, soferne sie hoffähig waren, vor allem die zahlreichen Diplomaten und deren Gemahlinnen, zur Hofgesellschaft. In Prag war das nicht der Fall. Die dortige Gesellschaft war eine in sich geschlossene große Familie… Sie hatten ihre gemeinsamen Interessen, ihre gemeinsamen Erinnerungen an die Séjours, die sie abwechselnd in diesem oder jenem Schlosse in den Sommermonaten zusammen verlebt, oder an die Jagden, auf denen sie sich im Herbst miteinander vergnügt hatten… In die Prager Gesellschaft einzudringen, war für Menschen, die nicht jenen ersten Familien oder zumindest deren Verwandtenkreis angehörten, unmöglich. Ein Fremder wäre nicht nur als störend und die gewohnte allgemeine Intimität hemmend empfunden worden; er hätte sich auch selbst nicht wohl gefühlt; denn auch dem größten Verstandes- und Gedächtnisriesen wäre es nicht gelungen, sich in all den Vornamen, petits noms und Verwandtschaftsverhältnissen zurechtzufinden und die allerhand kleinen, mystischen Beziehungen und Vertrautheiten zu verstehen. Es war sicher nicht Hochmut, sondern eine gewisse Trägheit, eine unbezwingbare Abneigung davor, geniert zu sein und sich anders als gewohnt geben zu müssen, der Grund, warum sich der böhmische Adel gegen alles Fremde abschloß.“ (Nora Fugger)
In Tschechien existiert seit der Gründung der Tschechoslowakei im Jahr 1918 staatsrechtlich kein Adel mehr. Die Führung der ehemaligen Titel ist untersagt. In den 1920er Jahren verloren die Adelsfamilien etwa 20 % ihrer Besitzungen durch eine Landreform. Im Protektorat unter deutscher Besatzung wurden einzelne oppositionelle Adlige wie die Fürsten Max Lobkowicz und Adolph Schwarzenberg enteignet, einige als Zwangsarbeiter herangezogen. In der Dritten Tschechoslowakischen Republik zwischen 1945 und 1948 flohen die sudetendeutschen Adelsfamilien bereits aus dem Land bzw. wurden durch die Beneš-Dekrete enteignet und vertrieben, während die meisten Geschlechter mit tschechoslowakischer Staatsangehörigkeit ihren Besitz unter immer prekäreren Umständen noch halten konnten. In der kommunistischen Tschechoslowakischen Republik (1948–1960) wurden sie jedoch enteignet und verfolgt.
Nach der Samtenen Revolution 1989 wurde in der nunmehrigen Tschechischen und Slowakischen Föderativen Republik 1991 ein Restitutionsgesetz verabschiedet, aufgrund dessen etliche ehemals adelige Familien im neu gegründeten Staat Tschechien ab 1992 ihre entzogenen Schlösser und in Teilen auch Grundbesitze zurückerhielten, sofern sie in der Zwischenkriegszeit die tschechoslowakische Staatsangehörigkeit besessen hatten, z. B. die ehemals fürstlichen Familien Schwarzenberg, Lobkowitz, Mensdorff-Pouilly und Kinsky sowie Angehörige der gräflichen Familien Czernin, Colloredo, Dobrženský, Kolowrat, Podstatzky-Prusinowitz, Schlik, Sternberg und anderer. Einige Vertreter des ehemaligen Hochadels gingen in die Politik; so war Karel (Fürst) Schwarzenberg zwischen 2007 und 2013 Außenminister Tschechiens und Michal (Prinz) Lobkowicz 1998 kurzzeitig Verteidigungsminister. In der Slowakei erfolgte eine Beschränkung der Restitution auf Enteignungen ab dem 25. Februar 1948, was insbesondere die ungarische Bevölkerungsminderheit betraf und infolge aufweichender Gerichtsentscheidungen dann teilweise zur Rechtsunsicherheit führte.
Ungarn
Die Verhältnisse in Ungarn ähnelten denen in Polen. Ein Lehnsverband, den man sonst überall im mittelalterlichen Europa findet, bestand dort nie. Jedes Mitglied des kriegerischen Stammes der Magyaren, das von niemandem abhängig war und den Fahnen des Königs folgen konnte, rechnete sich zum Adel (nemesség). Auf diese Weise entstand der sehr zahlreiche ungarische Adel, der wie in Polen etwa 12–16 % der Gesamtbevölkerung ausmacht. Aus der Masse des Adels gingen allmählich die Magnatenfamilien hervor. Am Anfang des 11. Jahrhunderts gab König Stephan I. (der Heilige) dem Lande eine Verfassung, durch welche die Krone im Geschlecht Arpad erblich wurde und Prälaten mit dem hohen Adel samt niederem Adel als privilegierte Stände galten.
Im Jahre 1405 vereinigte sich im Nationalkonvent der niedere Adel mit den Vertretern der Städte zur Ständetafel, während die hohen geistlichen Würdenträger und der Hochadel die Magnatentafel bildeten, in welcher jeder Bischof oder Magnat persönlich vertreten war. In der Ständetafel hatte der niedere Adel das unbedingte Übergewicht; auf den Komitatsversammlungen hatte jeder grundbesitzende Edelmann (auch wenn er einen Kleinsthof bewirtschaftete) Sitz und Stimme. (Solche Kleinadeligen wurden im Volksmund hétszilvafás nemes – „Adeliger mit sieben Zwetschgenbäumen“ – genannt.) Der Adel war befreit von Zöllen, Steuern und Einquartierungen und vom Militärdienst: Er zog nur zu Felde, wenn ein Adelsaufgebot (Insurrektion – Nemesi felkelés) für König und Vaterland ausgerufen worden war. Ein Adliger konnte nur von seinesgleichen gerichtet werden und die wichtigeren Ämter waren ihm vorbehalten. Erst 1843 wurden nichtadlige Personen zu den Ämtern zugelassen.
Der magyarische Adel kannte nur zwei Titel: Graf (gróf) und Baron (báró). Rang und Titel eines Fürsten bzw. Herzogs (herceg) kamen nur den Söhnen des Königs zu. Andere Adelige hatten als äußeres Zeichen ihres Ranges meistens nur die Schreibweise der Endung ihres Familiennamens auf -y (statt auf -i) bzw. den kleingeschriebenen Adelsvortitel (z. B. nagybányai Horthy Miklós).
Fünf Grafengeschlechter erhielten ausländische Fürstentitel: Batthyány (1764), Esterházy (1687), Erdődy (1654) und Odescalchi (1689) wurden vom Kaiser des Heiligen Römischen Reiches zu Reichsfürsten erhöht, Koháry (1815) und Pálffy (1816) vom Kaiser von Österreich zu Fürsten des Kaisertums; diese Titel wurden in Ungarn anerkannt. Später erwarben auch zehn ausländische fürstliche Häuser das ungarische Indigenat. In der Zeit der Monarchie mit einem König – bis 1918 – gab es in Ungarn außer diesen 14 Fürstenhäusern 98 gräfliche und 94 freiherrliche Geschlechter, deren Titel aber nicht weiter zurück als um 1550 reichten und habsburgische Verleihungen waren. Diese Zahl wuchs nach 1918, da der Reichsverweser Admiral Miklós Horthy in der königlosen Monarchie in großem Maße Standeserhebungen (zum Beispiel in eine Art „Ritterstand“, siehe Vitézi Rend) vornahm. Diese Ordensverleihungen in der Zeit des Königreichs Ungarn (1920–1945) sind anerkannte erbliche Adelungen. In Deutschland können Angehörige derartiger Familien sofern sie vor Januar 1947 die ungarische Staatsangehörigkeit verloren hatten, ihren Namen mit „von“ bzw. „Ritter von“ führen. Die nach dem Krieg gegründeten Orden und ihre Titel haben hingegen keine Rechtsqualität im Sinne des historischen Adelsrechts.
Der Ungarische Adel war mit dem österreichischen und böhmischen lange Zeit unter dem Dach der Donaumonarchie vereint und durch zahlreiche Eheschließungen verwandt, betrachtete sich aber immer als Führungselite einer eigenständigen Nation. Beim Zerfall des Habsburgerreiches wurde „Großungarn“ durch den Vertrag von Trianon 1920 aufgeteilt, das Königreich Ungarn (1920–1946) blieb ein Rumpfstaat ohne König, weite Teile Oberungarns kamen an die Erste Tschechoslowakische Republik (und heute die Slowakei), Siebenbürgen an das bis 1947 existierende Königreich Rumänien und das Burgenland an die Republik Österreich.
Der Kroatische Adel wurde lange Zeit dem ungarischen zugerechnet, da sich Kroatien seit 1102 im Staatsverband mit Ungarn befand. Ab 1745 wurde innerhalb der Habsburgermonarchie unter der ungarischen Krone Kroatien gemeinsam mit dem Königreich Slawonien zum autonomen Königreich Kroatien und Slawonien zusammengefasst. Entsprechendes gilt für den Adel im Königreich Dalmatien und in der Markgrafschaft Istrien. Diese Regionen kamen mit der 1918/19 erfolgten Sezession 1920 an das Königreich Jugoslawien.
In der Zweiten Ungarischen Republik ab 1946 geriet der landsässige Adel unter Druck, in der kommunistischen Volksrepublik Ungarn ab 1949 wurde er enteignet und teilweise verfolgt. Ähnliches gilt für die Tschechoslowakische Republik (1948–1960). 1945 erfolgte in der Sozialistischen Föderativen Republik Jugoslawien ebenfalls die Enteignung des Großgrundbesitzes, ebenso ab 1945 unter den Kommunisten in Rumänien.
Durch die Abschaffung des Adels und die Parzellierung der Güter nach 1945 wurde dem ungarischen Adel die Existenzgrundlage genommen, viele Adlige blieben jedoch im Lande und emigrierten erst während des Ungarnaufstands 1956, um ein oft kümmerliches Dasein in Deutschland oder Österreich zu fristen. Die Einzigen, die von der Konfiskation teilweise verschont blieben, waren die Fürsten Esterházy, weil sie ihre Güter teilweise im seit 1921 österreichischen Burgenland hatten; jedoch verbrachte Fürst Paul V. Esterházy bis 1956 fast zehn Jahre in einem ungarischen Gefängnis. Nach 1991 kehrten viele Vertreter des Adels, auch des Hochadels, nach Ungarn zurück (zum Beispiel die Familie Isépy).
Vereinigtes Königreich
Das Vereinigte Königreich ist eines der wenigen Länder in Europa, in dem Adelstitel noch heute verliehen werden. Der britische Adel ist in zwei Klassen eingeteilt, die Gentry, den niederen Adel, und die Peerage oder Nobility, den Höheren Adel. Die höchste Würde der Peerage ist die des Duke (Herzogs). Nach dem Duke folgt der Marquess (Markgraf), dann der Earl (Graf), der Viscount (Vizegraf) und der Baron (Freiherr). Die Adelswürden der Gentry sind die des Baronets und die des Knights. Erbliche Adelstitel werden heute nur noch an Mitglieder der königlichen Familie verliehen; die Verleihung persönlichen Adels aufgrund individueller Leistung ist hingegen nach wie vor üblich. Der erbliche untitulierte Adel kann weiterhin unter anderem durch die Verleihung eines Familienwappens erlangt werden, damit bildet der niedere Adel keine geschlossene Schicht.
Asien
China und Indochina
Bis zur Abschaffung des Kaisertums im Jahre 1912 gab es in China einen Hochadel, der erstens aus den Mitgliedern der herrschenden Mandschu-Dynastie bestand (in Europa nannte man sie „Prinzen“) und zweitens aus dem engen Kreis von zehn Häusern, die den erblichen Adel von früheren Kaisern erhalten hatten, u. a. dem Oberhaupt der Nachkommen von Konfuzius, der Familie Kong, und dem der Sprösslinge des Warlords von Formosa im 17. Jahrhundert, des Koxinga.
Bei den übrigen Adelsverleihungen erbte jede nachfolgende Generation nur den um eine Stufe niedrigeren Adel (es gab fünf Stufen), so dass die adlige Würde nach fünf Generationen wieder verschwand.
Die Zugehörigkeit zum Adel gab nur Vorrechte bei der Besetzung der Hofämter. Im Zivildienst und in der Armee gaben die literarischen und militärischen Prüfungen ohne Rücksicht auf die soziale Herkunft den Ausschlag.
In der bürgerlichen und später der kommunistischen Republik verschwand der Adel spurlos. Viele wanderten aus, nach Hong Kong, Taiwan, Singapur, Südostasien oder in die USA. Auch die ehemalige kaiserliche Familie, bis 1924 noch vom Staat mit Apanage versehen, üben heute einen Beruf aus.
Die neueste Entwicklung seit etwa 2003 scheint eine Erneuerung der alten Traditionen zu bringen. Die Oberhäupter der Nachfahren des Konfuzius (1937: 650.000 Personen (Frauen ungerechnet)) haben wieder das Wohnrecht im alten Familienpalais in Qufu. Ein Aufschwung für die letzte Kaisersippe ist nicht zu erwarten, denn die Mitglieder der Qing-Dynastie wurden als fremde, nichtchinesische Eindringlinge betrachtet.
Indien
Die hinduistischen Herrscher in Indien trugen im Allgemeinen den Titel Radscha oder Maharadscha, wohingegen die islamischen Herrscher die Titel Schah, Sultan oder im Mogulreich Padischah verwendeten. Das Wort Raja bedeutet „königlicher Herrscher“; auch Prinzregenten wurden Raja genannt.
Das Mogulreich (1526–1757) definierte „Adlige“ (umarā) als „Staatsdiener mit einem Dienstrang (manṣab) von über 1000“; die höchsten Ränge lagen, außer für Prinzen, bei 7000. Theoretisch konnte jeder vom Kaiser mit hohem Dienstrang eingestellt und somit adelig werden, und bei nicht wenigen nach Indien eingewanderten Dichtern und Geistlichen geschah dies auch. Dieser Adel war ein reiner Krieger- und Beamtenadel, wobei zwischen Heer und Verwaltung nicht grundsätzlich unterschieden wurde. Adlige waren keine Grundherren im europäischen Sinn, sondern erhielten ein Gehalt aus dem Steueraufkommen eines festgelegten Gebietes (jāgīr). Aus diesem Gehalt mussten sie eine festgelegte Anzahl von Kavallerie unterhalten und im Kriegsfall bereitstellen. Adlige wurden häufig versetzt, durchschnittlich alle drei Jahre. Seit 1597 wurde die Zahl der Reiter (savār) in einem eigenen Rang fixiert und der ursprüngliche Rang als zāt („persönlich“) bezeichnet. Der Rang eines Adligen wurde seither als z. B. 3000 zāt, 1000 savār angegeben.
Mit der Einstellung bekam der Adlige einen Titel (khitāb), der bei Muslimen gewöhnlich aus der Bezeichnung einer Tugend plus Khān (= etwa engl. Sir) bestand, z. B. Mahābat Khān = der Herr Würde. Mit diesem Titel wurde er fortan angesprochen. Hindus bekamen statt Khān den Titel Rāja. Theoretisch waren weder Ämter noch Titel erblich. Letztere wurden nach dem Ableben eines Adligen neu vergeben, manchmal auch vorher, wenn sich der Adlige einen höheren Titel verdient hatte und der alte frei geworden war. Jedoch wurden die Söhne von Adligen durch die Empfehlung ihrer Verwandtschaft üblicherweise in kleine Ämter eingestellt und machten dann Karriere. Seit etwa Shah Jahan (1628–1658) wurden die in den Traditionen des Adels erzogenen „hausgeborenen“ (khāna-zād) Söhne von Adligen bevorzugt eingestellt, und ihre Ethik wurde zum Ideal.
Eine Ausnahme davon waren die alteingesessenen hinduistischen Adligen, die in aller Regel das Steueraufkommen ihres Heimatgebiets (vaṭan jāgīr) erhielten, und deren Ländereien erblich waren, in der Regel mit Primogenitur. Dies galt für die großen Rajas Rajasthans, aber auch für viele kleine Landadlige (zamīndār) in ganz Indien, die seit Akbar (1561–1605) zur Verbindung zwischen Staatsapparat und Bauern wurden. Der Staat behielt sich jedoch vor, aufsässige hinduistische Adlige genau wie Staatsdiener abzusetzen.
Beim Zerfall des Mogulreichs ab 1720 konnten Provinzgouverneure oder Generäle in den von ihnen kontrollierten Gebieten erbliche Fürstentümer errichten. Die Briten leisteten diesen Militärhilfe, machten sie so von sich abhängig (auch finanziell) und stärkten die Position dieser Fürsten in der Regel, solange sie sich loyal verhielten.
Zur Zeit der britischen Herrschaft über Indien (1757–1947) gab es etwa 600 so genannte Fürstenstaaten (princely states), Gebiete, denen die Briten eine begrenzte Autonomie unter lokalen Fürsten zugestanden hatten. Bei der Teilung in die unabhängigen Staaten Indien und Pakistan 1947 hatten sich die Fürstenstaaten für eines dieser beiden Länder zu entscheiden. Das Zögern des Maharadschas von Jammu und Kaschmir und das Interesse beider Staaten an diesem Gebiet führte zum Kaschmir-Konflikt.
Nach der Unabhängigkeit Indiens wurden die Fürstenstaaten oder Verbände von diesen zunächst zu indischen Bundesstaaten und die Fürsten zu deren Ministerpräsidenten. 1956 wurden alle Fürstenstaaten durch den States Reorganisation Act aufgelöst und indischen Bundesstaaten angeschlossen, und Südindien zudem völlig neu nach Sprachgebieten organisiert. Indira Gandhi begrenzte den Landbesitz der Adligen und schaffte ihre Apanagen ab, so dass sie ihre Bedeutung heute größtenteils eingebüßt haben. Geblieben sind einigen ihre Rolle in religiösen Festen, wie die Pflicht des ehemaligen Königs von Orissa, die Götterwagen beim Wagenfest zu kehren.
In Pakistan spielt der Adel nach wie vor eine große Rolle in der Politik.
Japan
Bis ins 5. Jahrhundert n. Chr. war der Adel in Japan nur ein lockerer Verband von bodenbeherrschenden Sippen. Im 6. Jahrhundert erteilte die kaiserliche Zentralmacht des Tennō erbliche Standestitel an einige der Sippenoberhäupter. Die tatsächliche Befehlsgewalt der Sippenoberhäupter wurde damit staatlich delegiert und legitimiert.
Im 7. Jahrhundert wurde im Zuge der Einsetzung des stark chinesisch beeinflussten Ritsuryō-Systems das Adelskriterium der Geburt durch die Verwaltungsfähigkeit ersetzt. Durch Landesgesetz aus dem Jahre 701 wurde der Geburtsadel durch einen Verdienstadel von Zivilbeamten (Kuge) ersetzt. Unter der Leitung dieses Verdienstadels, der sich zunehmend in der Hauptstadt Heian-kyō (heute Kyōto) konzentrierte, verdrängten Verbände von bodenständigen Kriegern und Landgutsverwaltern aus den Provinzen den Zivil-Adel bis ca. 1200 zunehmend von der Macht. Es regierte dann der sogenannte Schwert-Adel (Buke, speziell Samurai, Daimyō, Shōgun) in Japan bis 1868. Dem Tennō blieben lediglich oberpriesterliche, kulturwahrende und legitimierende Aufgaben. 1884 in der Meiji-Restauration durch die (oder zumindest im Namen der) Kaisermacht wurden Zivil-Adel und Schwert-Adel zu einem Einheitsadel (Kazoku) zusammengefasst, der Samurai-Stand als solcher abgeschafft. Durch das Gesetz vom 7. Juli 1884 wurde der Adel nach dem britischen Peerage-System in fünf Klassen abgestuft, jedoch chinesische Titel dafür verwendet. Im Gegensatz zu der in China geltenden Regel war er unbegrenzt erblich nach dem Grundsatz der Erstgeburt, so dass die jüngeren Söhne eines betitelten Adligen zeitlebens und der Erbsohn bei Lebzeiten des Vaters ohne Adelsprädikat waren. Nach dem Zweiten Weltkrieg wurde der Adel als Institution durch die Verfassung von 1946 beseitigt. Lediglich die kaiserliche Familie selbst blieb bestehen.
Persien
Seitdem sieben Mitverschwörer den Achämeniden Darius I. den Großen zur Königsmacht verholfen hatten, und damit zu den Stammvätern der mächtigen sieben persischen Stämme wurden, deren Nachkommen dafür mit verschiedenen Privilegien ausgestattet worden waren, sollten über die Jahrhunderte immer wieder mächtige Adelsfamilien neben dem Schah an der Herrschaft mittelbar oder unmittelbar beteiligt werden.
So unterscheiden bereits die mittelpersischen Königsinschriften der Sassaniden vier genau bestimmte Gruppen von Aristokraten: die šahrdārān (regionale Dynasten und mit der Herrschaft über wichtige Reichsteile betraute Königssöhne), die wāspuhragān (Mitglieder des Sassaniden-Clans ohne direkte Abkunft vom Herrscher), die wuzurgān (Häupter der wichtigsten Adelsgeschlechter sowie weitere Angehörige des Hochadels und die āzādān (übrige edle Iraner)). Der Rang eines Adeligen war lange von der Gunst des Königs unabhängig, verdankte sich, samt der äußeren Zeichen seiner Würde (Tiara mit wappenartigen Symbolen, Gürtel, Ohrringe), vor allem Name und Abkunft und war somit Zeichen seiner politischen wie wirtschaftlichen Sonderstellung.
Die persische Stammesaristokratie bestand ebenfalls zur Zeit der Sassaniden-Dynastie aus sieben persischen und parthischen Clans (Sassan, Aspahbad, Karin, Suren, Spandiyadh, Mihran, Guiw), und genauso bildete sich die spätmittelalterliche turkmenische Militär- und Verwaltungselite der Safawiden-Dynastie aus sieben Stämmen der so genannten Qizilbāš (türkisch: Kızılbaş) oder „Rotköpfe“ (Ustāğlu, Rumlu, Šāmlu, Zhulqadir, Qāğār, Afšār, Tekkelu).
Das 1785 bis 1925 herrschende Kaiserhaus der Kadscharan schließlich entstammte einem dieser Qizilbāš-Stämme und entsprach zunächst in Selbstverständnis, Organisation und Struktur ganz der safawidischen Tradition stammesrechtlich gegliederter Herrschaftsstrukturen.
So berichtet Engelbert Kaempfer vom Hof des persischen Großkönig während der Safawiden-Ära (1501–1722) über die Herrschaftsstrukturen in Persien:
„… das Reich (wurde) in fünf Gaue und Hauptprovinzen aufgeteilt. Über dieses Reichsgebiet setzen die Schahe 25 Großbeyge (beyglarbeygi), denen sämtliche übrigen Statthalter, Khane, und Landesbeamten unterstellt waren, ausgenommen alleine die Krongutsverwalter (wāzir), die dem Schah unmittelbar und direkt privat unterstanden. Die Statthalter wiederum geboten über Unterstatthalter (soltān), die ihren Herren Rechenschaft ablegen mussten. Diese „Reichsherren“ (beyg) bauten sich ihre Hofhaltung möglichst getreu dem Vorbild des Kaiserhofes auf, scharten prächtiges Gefolge um sich und wetteiferten mit dem Schah in der Prunkentfaltung. In ihrem Amtsbereich waren die Aristokraten auch Träger der Gerichtshoheit. Die Einkünfte seines Gebietes, über die ein Beyg oder Khān wie sein Eigentum verfügte, verausgabte er zum großen Teil für die Entlohnung seiner Bediensteten und seiner Truppen, mit denen er die Reichsgrenzen zu schützen hatte. Ebenso musste er kaiserliche Truppenkontingente auf seinem Boden verpflegen und dem Hof jährlich gewisse Abgaben entrichten. Er war dabei aber ständig von der Gunst des Schahs abhängig. Die Würde eines Beyglarbeyg stand so hoch, dass ihr Träger im Reichshofrat einen Sitz hatte. Unter diesen Großbeygen wiederum ragten mit dem Titel eines wāli („Statthalter“) einige Reichsfürsten nach Ansehen und Alter heraus. Als Abkömmlinge jener Herrscher, denen vor den Safawiden die einzelnen Gebiete schon untertan waren, waren diese fürstlichen Geblütes gewesen; ihre Einsetzung erfolgte zwar durch den Schah, doch konnte dieser nur ein Mitglied des einst regierenden Hauses zum Wāli ernennen.“
Ozeanien
In Polynesien existierten in vorkolonialer Zeit mehrere Inselkönigreiche, diese gingen jedoch unter (z. B. auf Rapanui) oder wurden von den Kolonialmächten abgeschafft. Eine wichtige Rolle spielt der Adel noch in Tonga und Samoa.
Tonga
Nur auf Tonga gibt es noch heute eine über 900 Jahre alte Königsdynastie. Der Einfluss des Adels auf Politik und Gesellschaft ist weiterhin groß. König Taufaʻahau Tupou sicherte sich nach Kämpfen zwischen rivalisierenden Adelshäusern 1845 die Vorherrschaft. Widerstände der übrigen tonganischen Führer führten zu einer Neuformulierung der Gesetze im Jahr 1850, so dass eine beratende Versammlung – fakataha – geschaffen wurde, in der die traditionellen Führer den König beraten sollten. Im Jahr 1862 gab es dann eine weitere Änderung der Gesetze: im Edict of Emancipation wurden die gewöhnlichen Tonganer aus der Abhängigkeit von den traditionellen tonganischen Führern befreit. Als am 9. Dezember 1865 der Tuʻi Tonga ohne Erbe starb, gab es keinen ebenbürtigen Rivalen um die Macht mehr und so wurde die tonganische Verfassung am 16. September 1875 von König Georg Tupou I. nach britischem Vorbild erlassen. König Taufaʻahau Tupou IV., ein direkter Nachfahre des ersten Königs, lebte bis zu seinem Tod am 10. September 2006 mit seiner Familie, einigen einflussreichen Adligen sowie der wachsenden nicht-adligen Elite in relativem Reichtum. Erst nach Reformen infolge von Unruhen 2006 konnten 17 der 26 Parlamentarier vom Volk gewählt werden, 9 Sitze sind weiterhin dem Adel vorbehalten.
Der Begriff 'Eiki motuʻa beschreibt einen Adeligen, dessen Privilegien aus der Zeit vor der Verfassung stammen, 'Eiki nopele jemanden, der die Adelswürde später erlangte. Ein Tu'i war ein Stammesführer, wobei der Name des Stammes nachgestellt wurde.
Afrika
Altes Ägypten
Die Überhöhung des ägyptischen Herrschers lässt auf den ersten Blick den Eindruck eines durch königliche Beamte geführten Zentralstaates entstehen. Die tatsächlichen Machtverhältnisse ähneln aber durchaus der Elitenbildung anderer Kulturen. Zunächst war Ägypten regional in Gaue gegliedert, deren Fürsten auf Linie gebracht werden mussten. Auch nach der ersten Reichseinigung waren sie bestrebt, ihre Privilegien zu vererben, oder schielten nach dem Thron. Dynastiewechsel waren üblich, nur in besonders unsicheren Zeiten konnte ein General „aus dem Volke“ in diese Kreise vordringen. Auch die berühmten Beamten mit den blumigen Titeln, Ministerialen entsprechend, strebten nach dynastischer Dauerhaftigkeit und konnten dem Herrscher zur Gefahr werden. Die als Stabilisierung gedachte Staatsreligion führte mit der Zeit in der Tempelwirtschaft zu einer – mit Fürstbischöfen vergleichbaren – Priesterkaste mit Neigung zur Unbotmäßigkeit.
Westafrika
Die Dynastie der Ouattara regierte im Westen des heutigen Burkina Faso. Tiéba Ouattara war in der Eroberungsphase König des dortigen Reiches Kong.
Die Fulbe haben ein für westafrikanische Ethnien bezeichnendes Kastensystem. Als Beispiel sei der Futa-Dschallon in Guinea gewählt: An der Spitze des Staates stehen Familien, die Nachfahren der kriegerischen muslimischen Djihadisten aus dem 18. Jahrhundert sind. Nach Errichtung der Theokratie im Futa-Dschallon wurde das Gebiet unter verschiedenen, kämpfenden Sippen aufgeteilt und blieb bis heute im Besitz dieser Familien. So ist anzunehmen, dass alle Mitglieder der Clans der Diallo, Bah (bzw. Baldé) und Barry dieser Abkunft sind.
Die heutigen afrikanischen Nationalstaaten sind aber keineswegs historisch gewachsen, sondern sind ein Produkt des Kolonialismus. Daher ist es schwierig, Sippen der einzelnen Ethnien auf ein bestimmtes Territorium zu begrenzen.
Sonstiges
Erbkrankheiten
Erbkrankheiten beim Adel gehören zu Erscheinungen, die in einigen Stammbäumen nachgewiesen sind. Sie sind auch Gegenstand einzelner wissenschaftlicher Untersuchungen.
Pflichten und Privilegien, Rechte und Beschränkungen
Dem Adel obliegen – wie den anderen Ständen in ständischen Gesellschaften auch – bestimmte exklusive Rechte, Privilegien, Pflichten und Beschränkungen. Gewisse Vorrechte des Adels wurden geradezu zum Standessymbol, wie z. B. die Jagd. Zu den weiteren Rechten gehören z. B. die Gerichtsbarkeit oder das Kirchenpatronat, zu den Privilegien z. B. die Wählbarkeit, zu den Pflichten z. B. die „Cur und Verpflegung“ des Gesindes bei Krankheit und zu den Beschränkungen z. B. bestimmte Berufs- oder Tätigkeitsverbote wie Verhaltensgebote.
Eine frühe Darstellung adeliger Privilegien und Pflichten findet sich im „Historiarum Libri IV“ („Vier Bücher Geschichte“) des Nithard, eines Enkels Karls des Großen, von 842. Über die sächsischen Adeligen schreibt er, dass sie Anspruch auf ein dreifaches Wergeld, aber auch Verstöße mit dreifacher Buße sühnen mussten. Eine ähnliche Struktur von mehrfachem Wergeld wie Bußgeld für Adelige findet sich im Sachsenspiegel des Eike von Repgow aus dem 13. Jahrhundert. William Robertson beschreibt eine mehrfache Abstufung: Ein Vergehen (von der Beleidigung bis zur Ermordung) an einem Adeligen kostete den Täter mehr Wergeld, als wenn sie einen „Freyen“ getroffen hatte, und dieser erhielt auch mehr als ein einfacher „Leut“. Wenn der Täter ein Höriger war, hielt man sich an seinen Herrn, der dann das Wergeld bezahlen musste. Wenn der Täter ein Adeliger war, musste er auch mehr für sein Vergehen bezahlen als der „Freye“, und dieser mehr als der „Leut“.
Ein Beispiel für eine juristische Kodifizierung der Rechte, Privilegien, Pflichten und Beschränkungen in einer neuzeitlichen ständischen Gesellschaft ist das Allgemeine Landrecht für die Preußischen Staaten aus dem Jahre 1794. Es enthält einen ausführlichen Katalog von Gesetzen, die adeliges Verhalten definieren und Fehltritte sanktionieren sowie die Bestimmung des Adelsstandes definieren: „Die Vertheidigung des Staats, so wie die Unterstützung der äußern Würde und innern Verfassung desselben“. Zu den Vorrechten gehören unter anderem: Unterwerfung nur dem höchsten Gericht in der Provinz, Erwerb adliger Güter, Gerichtsbarkeit in ihrem Namen, Ehrenrechte, die mit ihrem Kirchenpatronat verbunden sind, Stimmrecht bei Kreis- und Landtagen für den angesessenen Adel usw. Zu den Einschränkungen gehören: Erwerb von Rustikalgründen, Ausübung bürgerlicher Gewerbe, Aufnahme in eine Gilde oder Innung etc. Das heimliche Betreiben bürgerlicher Gewerbe, das Eintreten in eine Zunft oder Innung, eine unehrbare Lebensart, mit der der Adelige sich zu dem gemeinen Volke herabsetzte oder das Begehen von Verbrechen führten zum Verlust adeliger Rechte.
Sozialprestige
Hinsichtlich des Sozialprestiges, das mit einem Adelstitel verbunden ist, konnte und kann es zwischen Bürgerlichen und Adligen, aber auch bei Adligen untereinander zu Spannungen kommen.
Das konnte sich darin ausdrücken, dass eine Standeserhöhung bewusst abgelehnt wurde: Otto von Bismarck zierte sich, die Verleihung des Grafen- und später des Fürsten- und Herzogstitels anzunehmen (den Herzogtitel führte er nie).
Auch für Hanseaten war die Annahme von Adelstiteln seit dem 13. Jahrhundert teils ausdrücklich verboten, zumindest verpönt und unüblich. Der Adel konnte bis 1860 keinen Grundbesitz in Hamburg erwerben und war damit von der Erbgesessenen Bürgerschaft und von bürgerlichen Ehrenämtern ausgeschlossen. (Siehe: Hanseaten und Adel).
Der vor 1806 etablierte Adel betrachtete den napoleonischen und nachnapoleonischen Adel mit Skepsis. So waren bei alten Familien bayerische Titel wenig angesehen. Noch in den 1950er Jahren erklärte die Mutter des damals prominenten Bundestagsabgeordneten Karl Theodor Freiherr von und zu Guttenberg auf die Frage eines Spiegel-Reporters, ob sie nicht gerne bayerische Gräfin geworden wäre: „Ein fränkischer Freiherr spuckt auf einen bayerischen Grafen“. Dies hatte seine Ursache vor allem darin, dass die fränkischen (wie auch die schwäbischen und rheinischen) Reichsritter jahrhundertelang keinem Reichsfürsten untertan, sondern vielmehr reichsunmittelbar gewesen waren.
Name nach Sitz oder Amt
Der Adelsname war ursprünglich eine Herkunftsbezeichnung, bezogen auf den Familienstammsitz. Bei Orts- oder Besitzwechsel wechselte man seinerzeit auch den Namen – so wurden aus Grafen von Arnstein die Grafen von Barby, als diese die Herrschaft über die Burg Barby übernahmen. Manchmal hängte man den neuen Besitz auch als zusätzlichen Namensbestandteil an („von“ Stein „zum“ Altenstein). Desgleichen bilden sich so die Nebenlinien (weshalb heute manchmal die Stamm- und die Nebenlinie durchgekoppelt angegeben werden: „Habsburg-Laufenburg“, „von Habsburg zu Laufenburg“ oder „von Laufenburg“). Erst im Laufe der frühen Neuzeit, parallel zur Entstehung moderner Familiennamen, wurde das „von“ zu einem vom Besitz unabhängigen, während das „zu“ ein vom Besitz abhängiges Adelsprädikat blieb. Dass heute „von und zu“ ein Ausdruck für „von hohem, altem Adel; vornehm“ ist, liegt daran, dass ein „von und zu“ nur ein Adeliger führen konnte, der noch in der Neuzeit am alten Stammsitz der Familie ansässig war, und so unverkennbar Altadel in Primogenitur (so „von und zu Liechtenstein“, während die Nebenlinien etwa „von Liechtenstein zu Nikolsburg“ hießen).
Manche Adelsgeschlechter haben auch ganz gewöhnliche Familiennamen (Fuchs, Frübös, Gross, Gans, Pflugk, Stein, Schwarz), Sippennamen (Beissel, Knuth, Schilling, Landschad) oder Bezeichnungen von Ämtern (Marschall, Schenk, Truchsess, Droste, Spies). Diesen Namen wurde der jeweilige Wohnsitz mit dem Prädikat „von“ oder „zu“ hinzugefügt (Gans zu Putlitz, Marschall von Bieberstein, Schenck zu Schweinsberg, Schenk von Stauffenberg, Droste zu Hülshoff).
Wurden später in Deutschland durch Nobilitierung aufgrund von Verdiensten auch bürgerliche zu adligen Namen (von Goethe, von Schiller usw.), behielt man im Reichsadel und in Österreich die Tradition bei, dass eine Ortsbezeichnung im Adelsnamen geführt werden soll (zum Beispiel Fischer von Erlach), die meist irgendeinen Bezug zu der in den Adelsrang erhobenen Person aufwies (bürgerlicher Wohnsitz, Erbgut oder Erbhof, oder – wie im genannten Falle – vom Familiennamen der Mutter: Fischer ist der Familienname des Vaters und die Mutter war eine geborene Erlacher).
Literatur
Europa
Übergreifendes
Claus Heinrich Bill: Neue Adels-Bibliographie. Monographien, Sammelbände und Aufsätze des Erscheinungszeitraums ab 1494 bis heute zum Adel in den deutschsprachigen Ländern. Sonderburg 2023, 1454 Seiten (PDF-E-Book ohne ISBN).
Eckart Conze (Hrsg.): Kleines Lexikon des Adels. Titel, Throne, Traditionen. Beck, München 2005, ISBN 3-406-51070-1.
Werner Conze: Stichwort „Adel, Aristokratie“. In: Geschichtliche Grundbegriffe. Historisches Lexikon zur politisch–sozialen Sprache in Deutschland. Band I, Stuttgart 1972, S. 1–48.
Plinio Corrêa de Oliveira: Der Adel und die vergleichbaren traditionellen Eliten in den Ansprachen von Papst Pius XII. an das Patriziat und an den Adel von Rom. Wien 2008, ISBN 3-9501846-1-9.
Walter Demel: Der europäische Adel. Vom Mittelalter bis zur Gegenwart. München 2005, ISBN 3-406-50879-0.
Walter Demel: Die Spezifika des europäischen Adels – Erste Überlegungen zu einem globalhistorischen Thema. In: Zeitenblicke.
Bettina Musall, Eva-Maria Schnurr (Hrsg.): Die Welt des Adels. Deutsche Verlags-Anstalt (DVA), München 2021, ISBN 978-3-421-04868-4.
Wilfried Rogasch: Schnellkurs Adel. DuMont Literatur und Kunst Verlag, Köln 2004, ISBN 3-8321-7617-9.
Antike
Jan Bernhard Meister: ‘Adel‘ und gesellschaftliche Differenzierung im archaischen und frühklassischen Griechenland. Historia Einzelschriften 263, Stuttgart 2020.
Winfried Schmitz: Verpaßte Chancen. Adel und Aristokratie im archaischen und klassischen Griechenland, in: Hans Beck, Peter Scholz, Uwe Walter (Hrsg.): Die Macht der Wenigen. Aristokratische Herrschaftspraxis, Kommunikation und „edler“ Lebensstil in Antike und Früher Neuzeit. Historische Zeitschrift. Beihefte. N. F. Bd. 47, München 2008, 35–70.
Mittelalter
Neuzeit
Ronald G. Asch: Europäischer Adel in der Frühen Neuzeit. Böhlau, 2008, ISBN 978-3-8252-3086-9.
Rudolf Endres: Adel in der Frühen Neuzeit. Oldenbourg, 1993, ISBN 978-3-486-55742-8.
Michael Sikora: Der Adel in der Frühen Neuzeit. Wissenschaftliche Buchgesellschaft, Darmstadt 2009, ISBN 978-3-534-17366-2.
Dominic Lieven: Abschied von Macht und Würden. Der Europäische Adel 1815–1914. Frankfurt am Main 1995, ISBN 3-10-044804-9.
Arno J. Mayer: Adelsmacht und Bürgertum. Die Krise in der europäischen Gesellschaft 1848–1914. München 1988, ISBN 3-406-09749-9.
H. M. Scott (Hrsg.): The European Nobilities in the Seventeenth and Eighteenth Centuries. Band I: Western Europe; Band II: Northern, Central and Eastern Europe. London 1985, ISBN 0-582-08070-3.
Johanna Singer: Arme adlige Frauen im Deutschen Kaiserreich. Mohr Siebeck, Tübingen 2016, ISBN 978-3-16-154380-7.
Nachschlagewerke zu Einzelpersonen und Familien
Almanach de Gotha, Gotha 1901 und 1930.
Deutsches Adelsblatt
Genealogisches Handbuch des Adels (von 1951 bis 2015)
Gothaisches Genealogisches Handbuch (seit 2015)
Darstellungen zu Einzelstaaten
Dänemark
Danmarks Adels Aarbog, Kopenhagen 1932
Deutschland, Römisch-deutsches Reich nördlich der Alpen
Andermann, Kurt und Peter Johanek (Hrsg.): Zwischen Nicht-Adel und Adel (= Vorträge und Forschungen des Konstanzer Arbeitskreis für Mittelalterliche Geschichte, Bd. 53). Stuttgart 2001.
Eckhart Conze und Monika Wienfort (Hrsg.): Adel und Moderne – Deutschland im europäischen Vergleich im 19. und 20. Jahrhundert, Köln 2004, ISBN 3-412-18603-1.
Elisabeth Fehrenbach (Hrsg.), Elisabeth Müller-Luckner: Adel und Bürgertum in Deutschland 1770–1848 (= Schriften des Historischen Kollegs. Kolloquien. Bd. 31). Oldenbourg Wissenschaftsverlag, 1994, ISBN 3-486-56027-1 (Digitalisat)
Gothaisches Genealogisches Taschenbuch (aufgeteilt in Gräfliche, Freiherrliche und Adelige Häuser), Verlag Justus Perthes Gotha, 1763–1942.
Genealogisches Taschenbuch der Ritter- und Adelsgeschlechter, später Genealogisches Taschenbuch der adeligen Häuser, 19 Jahrgänge, Irrgang, Brünn 1870–1894 (Brünner Taschenbuch – BTB) (GTdAH).
Genealogisches Handbuch des Adels – Adelslexikon. Limburg/Lahn 1972–2005.
William D. Godsey Jr.: Noble Survival and Transformation at the Beginning of the Late Modern Era. The Counts Coudenhove from Rhenish Cathedral Canons to Austrian Priests, 1750–1850. In: German History 19, 2001, S. 499–524, .
Joerg Hartwein: Preußischer Neuadel. Bildungsbürger. Die in Preußen 1871–1918 nobilitierten Mediziner, Wissenschaftler und Kulturschaffenden. Verlag Dr. Kovač, 2023, ISBN 978-3-339-13526-1.
Mark Hengerer und Elmar L. Kuhn (Hrsg.): Adel im Wandel. Oberschwaben von der Frühen Neuzeit bis zur Gegenwart. Ostfildern 2006, ISBN 3-7995-0216-5.
Dieter Hertz-Eichenrode: Wilhelminischer Neuadel? Zur Praxis der Adelsverleihung in Preußen vor 1914. In: Historische Zeitschrift 282/2006, S. 645–679, .
Iris Freifrau v. Hoyningen-Huene: Adel in der Weimarer Republik. Die rechtlich-soziale Situation des reichsdeutschen Adels 1918–1933. Limburg 1992, ISBN 3-7980-0690-3.
Wolfgang Jahn/Margot Hamm/Evamaria Brockhoff (Hrsg.): Adel in Bayern, Ritter, Grafen, Industriebarone. Lizenzausgabe für die Wissenschaftliche Buchgesellschaft, Augsburg 2008.
Gisela Drossbach/Andreas Otto Weber/Wolfgang Wüst (Hrsg.): Adelssitze – Adelsherrschaft – Adelsrepräsentation in Bayern, Franken und Schwaben. Ergebnisse einer Internationalen Tagung in Schloss Sinning und Residenz Neuburg a.d. Donau, 8.-10. September 2011 (Neuburger Kollektaneenblatt 160/2012 – Schwäbische Geschichtsquellen und Forschungen 27), Neuburg a.d. Donau 2012. ISBN 978-3-89639-897-0.
Larry E. Jones: Catholic Conservatives in the Weimar Republic. The Politics of the Rhenish-Westphalian Aristocracy, 1918–1933. In: German History 18, 2000, S. 61–85, .
Detlev Freiherr von Linsingen: Die Kgl. westphälischen Baronate und die Entstehung und Entwicklung des Adels. Ein Beitrag zu aktuellen Themen des historischen deutschen Adels, Augsburg 2012.
Stephan Malinowski: Vom König zum Führer. Sozialer Niedergang und politische Radikalisierung im deutschen Adel zwischen Kaiserreich und NS-Staat. Berlin 2003, ISBN 3-05-004070-X.
Johannes Rogalla von Bieberstein: Adelsherrschaft und Adelskultur in Deutschland. C.A. Starke, Limburg a.d.L. 1998, ISBN 3-7980-0686-5.
Ulrich Schmilewski: Der schlesische Adel bis zum Ende des 13. Jahrhunderts: Herkunft, Zusammensetzung und politisch-gesellschaftliche Rolle. Würzburg 2002 (= Wissenschaftliche Schriften des Vereins für Geschichte Schlesiens. Band 5).
Hans-Ulrich Wehler: Europäischer Adel 1750–1950. Göttingen 1990.
Monika Wienfort: Der Adel in der Moderne. Vandenhoeck & Ruprecht, Göttingen 2006.
Wolfgang Wüst: „Adeliges Selbstverständnis im Umbruch? Zur Bedeutung patrimonialer Gerichtsbarkeit 1806–1848“. In: Walter Demel, Ferdinand Kramer (Hrsg.): Adel und Adelskultur in Bayern (ZBLG, Beiheft 32). München 2008, ISBN 978-3-406-10673-6, S. 349–376.
Frankreich
André F. Borel d’Hauterive, Albert Révérend: Annuaire de la Noblesse de France. Bureau de la Publication, Paris Jg. 48 (1892) – Jg. 84 (1938) [Vorgänger und Nachfolger: Annuaire de la noblesse de France et des maisons souveraines de l’Europe].
Monique de Saint Martin: Der Adel – Soziologie eines Standes. Konstanz 2003.
Großbritannien
Burke’s Peerage and Baronetage. London 1892.
Burke’s Landed Gentry. London 1870.
David Cannadine: Die Erfindung der britischen Monarchie 1810–1994. Berlin 1994, ISBN 3-8031-5147-3.
David Cannadine: The Decline and Fall of the British Aristocracy. London 2005, ISBN 0-14-102313-9.
Italien
Alexander Francis Cowan: The Urban Patriciate: Lübeck and Venice 1500–1700. Köln/Wien 1986.
Oliver Thomas Domzalski: Politische Karrieren und Machtverteilung im venezianischen Adel (1646–1797). Sigmaringen 1996.
Dieter Girgensohn: Kirche, Politik und adelige Regierung in der Republik Venedig zu Beginn des 15. Jh. Göttingen 1996.
Volker Hunecke: Der venezianische Adel am Ende der Republik 1646–1797. Demographie, Familie, Haushalt. Tübingen 1995.
Hagen Keller: Adelsherrschaft und ständische Gesellschaft in Oberitalien (9.–12. Jahrhundert). Tübingen 1979.
Peter Kunz: Nürnberg und Venedig: Gegenseitige Einflüsse und Parallelismen in zwei europäischen Adelsrepubliken. Saarbrücken 2009.
Marion Lühe: Der venezianische Adel nach dem Untergang der Republik (1797–1830). Köln 2000.
Marco Meriggi: Der lombardo-venezianische Adel im Vormärz. In: Armgard Rehden-Dohna, Ralph Melville (Hrsg.): Der Adel an der Schwelle des bürgerlichen Zeitalters 1780–1860. Stuttgart 1988, 1998, S. 225–236.
Margarete Merores: Der venezianische Adel. Ein Beitrag zur Verfassungsgeschichte. In: Vierteljahrschrift für Sozial- und Wirtschaftsgeschichte Bd. XIX/1926, S. 193–237.
Margarete Merores: Der große Rat von Venedig und die sogenannte Serrata vom Jahre 1297. In: Vierteljahrschrift für Sozial- und Wirtschaftsgeschichte Bd. XXI/1928, S. 33–113.
Gerhard Rösch: Der venezianische Adel bis zur Schließung des Großen Rates. Sigmaringen 1989, Stuttgart 2001.
Japan
Hans A. Dettmer: Die Urkunden Japans von 8. bis ins 10. Jahrhundert. Wiesbaden.
Bd. 1 – Die Ränge. 1972, ISBN 3-447-01460-1.
Horst Hammitzsch (Hrsg.): Japan-Handbuch. Wiesbaden 1990, ISBN 3-515-05753-6.
Cornelius J. Kiley: [Artikel] in: Kodansha Encyclopedia of Japan. Tokio 1983.
Österreich
Ivo Cerman: Habsburgischer Adel und Aufklärung. Bildungsverhalten des Wiener Hofadels im 18. Jahrhundert. Stuttgart 2010.
Karl F. von Frank zu Döring: Alt-Österreichisches Adels-Lexikon. Selbstverlag, Wien 1928.
Gudula Walterskirchen: Der verborgene Stand – Adel in Österreich heute. Wien 1999, völlig überarb. Neuauflage 2007, ISBN 3-85002-428-8.
Genealogisches Taschenbuch der adeligen Häuser Österreichs. Bde. 1–5, Wien 1905–1913 (TAÖ).
Polen
Simon Konarski: Armorial de la noblesse polonaise titrée. Selbstverlag, Paris 1957.
Russland
S. Andoljenko: Nagrudnyje znaki russkoj armii. Paris 1966.
Jessica Tovrov: The Russian Noble Family – Structure and Changes. New York 1987.
Schweden
Sveriges Ridderskaps och Adels Kalender. Stockholm 1933.
Christopher von Warnstedt (Hrsg.): Ointroducerad Adels Kalender. Uppsala 1975.
Schweiz
Weblinks
Deutscher Adelsrechtsausschuß
Lexikon der Adelsrechtsbegriffe
Anreden des Hochadels
Stiftung Seeau Private Enzyklopädie über den Adel in Österreich
Historische Standeserhöhungen und Gnadenakte
Institut Deutsche Adelsforschung
Online-Adelslexikon 1648-1918
Einzelnachweise
Gesellschaftliche Schicht
Herrschaftsform
|
Q134737
| 753.397 |
193760
|
https://de.wikipedia.org/wiki/Zodiak
|
Zodiak
|
Als Zodiak, auch Zodiakus (zu , von ) oder deutsch Tierkreis, wird heute eine etwa 20 Grad breite Zone um die Ekliptik, also die scheinbare Sonnenbahn, bezeichnet, innerhalb derer die scheinbaren Bahnen von Sonne, Mond und Planeten verlaufen. Die Ekliptik bildet dabei die Mittellinie. Sie schneidet die dreizehn Ekliptiksternbilder. Da die Umlaufbahnen der anderen Planeten sowie des Mondes zur Ekliptik etwas geneigt sind, können diese Himmelskörper sich außerdem in weiteren Sternbildern befinden wie zum Beispiel Corvus, Orion oder Cetus, die in den Zodiak ragen.
Bis ins 19. Jahrhundert und noch heute in der Astrologie wurde unter Zodiak dagegen die in zwölf 30 Grad große Abschnitte, die Tierkreiszeichen, geteilte Ekliptik verstanden, beginnend mit dem Frühlingspunkt
Wegen der Präzession der Erdachse liegen die Tierkreis-Sternbilder heute nicht mehr in den gleichnamigen Tierkreiszeichen, die beiden müssen also streng voneinander unterschieden werden.
Geschichte
Der – siderische – Tierkreis mit seinen zwölf gleichen 30°-Abschnitten und dem Beginn mit dem Tierkreiszeichen Widder könnte dadurch entstanden sein, dass er an den schematischen Ideal-Kalender mit 12 Monaten zu 30 Tagen, mit dem das babylonische Jahr nahe dem Frühjahrs-Äquinoktium vielleicht ab dem 7. Jh. v. Chr. begann, und den parallelen Sternbildern angelehnt wurde. Der vollständige Tierkreis mit seinen – noch unterschiedlich langen – zwölf Sternbildern auf der Ekliptik wurde schließlich im 5. Jh. v. Chr. während des Achämenidenreichs im Gebiet Mesopotamiens entwickelt bzw. erstmals überliefert. Im 4. Jh. v. Chr. entstand, wohl schon in der seleukidischen Herrschaft nach der hellenistischen Eroberung des Gebietes, die exakte Aufteilung des Tierkreises in 12 „Zeichen“ zu 30° sowie die erstmals nachweisbare mathematische Astronomie, welche ermöglichte, die Planetenpositionen vorauszuberechnen auf Basis des Koordinatensystems der 30°-Abschnitte der einzelnen Tierkreiszeichen. Beide Entwicklungen ermöglichten dort eine weitere, für die Astrologie und Geburtshoroskopie wichtige Neuerung: die Erstellung von sogenannten Keilschrift-„Horoskopen“, zudem nun auch für gewöhnliche Menschen. Damit sind Keilschrift-Täfelchen gemeint, welche die Planetenstellungen im Tierkreis bei einer Geburt aufführen, gelegentlich mit kurzen Sprüchen zu den einzelnen Planeten bzw. den Planetenkonstellationen, den Omina.
Dieser zwölfteilige Tierkreis entlang der Ekliptik wurde von den Griechen übernommen. Im Parapegma des Euktemon findet sich der heute noch gebräuchliche Tierkreis, es ist bereits ein tropischer Tierkreis (abgeleitet vom griechischen τρόποι, trópoi, was ‚Wendungen, Wendepunkte‘ bedeutet), weil hier die Hauptpunkte der Sonnenbahn (Äquinoktien und Solstitien) den Anfang von vier der zwölf Zeichen festlegen. In diesem Parapegma treten auch die heute noch gängigen Namen auf; sie sind in den meisten Fällen Übersetzungen der babylonischen Bezeichnungen.
Im Jahre 1928 legte die Internationale Astronomische Union (IAU) die Grenzen der siderischen Sternbilder wissenschaftlich genau fest und postulierte zugleich 13 Sternbilder entlang der Ekliptik. Das dreizehnte Sternbild, der Schlangenträger, wurde bei der antiken Kanonisierung der ekliptikalen Sternbilder ignoriert, wie heute noch in der Astrologie, vielleicht um die in vieler Hinsicht attraktivere Zwölf-Teilung zu ermöglichen.
Ekliptiksternbilder
Die 13 von der Ekliptik geschnittenen Sternbilder sind die zwölf klassischen Tierkreissternbilder
Widder,
Stier,
Zwillinge,
Krebs,
Löwe,
Jungfrau,
Waage,
Skorpion,
Schütze,
Steinbock,
Wassermann und
Fische
sowie der zwischen Skorpion und Schütze gelegene und erst seit 1928 berücksichtigte Schlangenträger. Der Frühlingspunkt liegt heute in den Fischen, wandert aber auf der Ekliptik in 72 Jahren um 1° und wird sich frühestens ab etwa 2200 im Wassermann befinden, bei genauerer astronomischer Betrachtung hingegen erst ab ca. 2450. Die Ekliptik als Ganzes behält dagegen ihre Lage bezüglich der Sternbilder weitestgehend bei. Sie ändert sich nur durch Störungen der Erdbahn.
Einteilung der Ekliptik
Es ist sinnvoll, die Orte von Mond und Planeten in Bezug auf die Ekliptik zu beschreiben, weil diese sich nie weit von ihr entfernen. Die zugehörigen Koordinaten sind ekliptikale Länge und Breite. Älter als die heute übliche Längenangabe in Grad ist eine Einteilung der Ekliptik in die zwölf gleich großen Tierkreiszeichen
Widder ♈︎,
Stier ♉︎,
Zwillinge ♊︎,
Krebs ♋︎,
Löwe ♌︎,
Jungfrau ♍︎,
Waage ♎︎,
Skorpion ♏︎,
Schütze ♐︎,
Steinbock ♑︎,
Wassermann ♒︎
und Fische ♓︎.
Diese Zeichen sind dabei an den Hauptpunkten Frühlingsäquinoktium, Sommersonnenwende, Herbstäquinoktium und Wintersonnenwende ausgerichtet, die untereinander einen Abstand von je 90° haben. Der Anfangspunkt der Längenzählung ist der Frühlings- oder Widderpunkt ♈︎.
Die Positionsangabe „25° 55′ ♌︎, Breite 1° 33′ n.“ entspricht damit der Länge 4 · 30° + 25° 55′ = 145° 55′.
Siehe auch: Die zwölf Tierkreiszeichen mit den Vergleichszeiten der Sonnendurchgänge durch die Tierkreiszeichen
Literatur
Wolfgang Hübner: Eigenschaften der Tierkreiszeichen in der Antike. Ihre Darstellung und Verwendung unter besonderer Berücksichtigung des Manilus (= Sudhoffs Archiv. Beiheft 22). Steiner, Wiesbaden 1981, ISBN 3-515-03337-8.
Robert Powell: Geschichte des Tierkreises. Astronova, Tübingen 2007, ISBN 978-3-937077-23-9 (Zugleich: Warschau, Polnische Akademie der Wissenschaften, Dissertation, 2004).
B. L. van der Waerden: Erwachende Wissenschaft. Band 2: Die Anfänge der Astronomie. 2. Auflage. Birkhäuser, 1980, ISBN 3-7643-1196-7.
B. L. van der Waerden: Die Astronomie der Griechen. Wissenschaftliche Buchgesellschaft, 1988, ISBN 3-534-03070-2.
Weblinks
Wiener Zeitung:
Fotos der Sternbilder im Zodiak
Einzelnachweise
Himmelsmechanik
Beobachtende Astronomie
Sonne in der Kultur
|
Q40540
| 883.121635 |
25798
|
https://de.wikipedia.org/wiki/Tunnel
|
Tunnel
|
Ein Tunnel oder Tunnelbauwerk ist ein zumeist unterirdisches Bauwerk ähnlich einer Röhre, das der Unterquerung von Hindernissen wie Bergen, Gewässern oder anderen Verkehrswegen dient. Seltener dienen Tunnel anderen Zwecken wie zum Beispiel dem Schutz der Anwohner vor Straßen- oder Schienenverkehrslärm. In diesem Fall werden sie auch als Unterflurtrasse bezeichnet. Tunnel zählen zu den Ingenieurbauwerken.
Bereits in der Antike wurden Tunnel für die Wasserver- und -entsorgung, selten auch für Straßen, die insbesondere militärischen Zwecken dienten, gebaut. Nach dem Ende des Römisches Reiches stagnierte der europäische Tunnelbau, die wenigen Tunnelbauten des Mittelalters orientierten sich in Bauweise und Funktion an antiken Vorbildern.
Der Begriff Tunnel, der aus dem Englischen stammt (tunnel), setzte sich seit dem ersten Drittel des 19. Jahrhunderts im Deutschen durch.
Definition nach DIN
In Deutschland werden Tunnel nach der geltenden DIN-Norm 1076 – Ingenieurbauwerke im Zuge von Straßen und Wegen; Überwachung und Prüfung als unterhalb der Erd- oder Wasseroberfläche liegende Bauwerke definiert. Oberirdische Einhausungen von Verkehrswegen mit mindestens 80 m Länge und Galeriebauwerke gelten ebenfalls als Tunnel. Unterführungen zählen nach der Norm nicht zu den Tunnelbauwerken, wenn diese in offener Bauweise hergestellt wurden und kürzer als 80 Meter sind.
Sprachliche Herkunft
Der Begriff tunnel tauchte erstmals im frühen 15. Jahrhundert im Englischen auf und bezeichnete ein trichterförmiges Vogelnetz. Es ist nicht klar, ob der Begriff von oder stammt. In den 1540er-Jahren wurde tunnel erstmals für Röhre verwendet und in den 1660er Jahren erstmals für unterirdischer Durchgang. Aus dem Englischen kam der Begriff zurück ins Französische und verdrängte dort das zuvor für unterirdische Bauwerke verwendete Wort mine.
Im Duden wird neben dem Stichwort der Tunnel auch das Tunell aufgeführt als Begriff, der in Süddeutschland, Österreich und der Schweiz verwendet wird. Im Sprachgebrauch ist die Verwendung als Neutrum nur noch selten. Die bis zum Anfang des 20. Jahrhunderts noch typische Endbetonung wie im Französischen ist weitgehend der Betonung auf der ersten Silbe gewichen, mit Ausnahme einiger Sprecher im Süden des deutschen Sprachraums und besonders Südtirols.
Maßgrößen
Neben der Länge werden bei Tunneln u. a. die folgenden charakteristischen Maße angegeben:
Querschnittsfläche: Durch die Tunnelwände begrenzter Flächeninhalt einer rechtwinklig zum Tunnelverlauf gespannten Fläche.
Ausbruchsfläche: Durch das Gebirgsprofil begrenzter Flächeninhalt einer rechtwinklig zum Tunnelverlauf gespannten Fläche.
Überdeckung: Abstand zwischen der Oberkante des Tunnels und der Oberkante des darüber befindlichen Geländes.
Lichte Höhe: Abstand zwischen der Oberkante und dem Boden des Tunnels. Tunnel werden aus statischen Gründen meist gewölbt ausgeführt, so dass die maximale lichte Höhe wesentlich größer ist als die von den Fahrzeugen nutzbare lichte Durchfahrtshöhe – die minimal zulässige lichte Höhe im Bereich des Durchfahrtsprofils.
Geschichte
Antike und Frühmittelalter
Vorläufer der dem Verkehr dienenden großen Tunnel waren unterirdische Wasserleitungen in Stollen- oder Kanatbauweise, die bereits seit der Antike errichtet wurden. Seit dem Beginn des 1. Jahrtausends v. Chr. wurde in den verschiedenen Staaten des Orients Grundwasser durch Kanate erschlossen, bei denen auf der Trasse der zukünftigen Wasserleitung senkrechte Schächte in die Tiefe getrieben und dann horizontal miteinander verbunden wurden. Ein Qanat hatte immer ein leichtes Gefälle zu einer Siedlung hin. Dadurch konnte unterirdisch das Grundwasser erschlossen und durch das Qanat zur Siedlung geführt werden. Andernfalls hätte dasselbe Grundwasser aus großer Tiefe unterhalb der Siedlung heraufgeholt werden müssen. Die Kanaaniter schlugen in Megiddo bereits einen 70 Meter langen Stollen in den Fels, der ihnen einen gedeckten Zugang zu einer unterirdischen Zisterne außerhalb der Stadtmauern gewährte.
Wie beim Kanat kam auch im Tunnelbau das sogenannte Gegenortverfahren zur Anwendung. Dabei wurden vom Ausgangs- und vom Endpunkt des Tunnels zunächst Suchstollen geschlagen, die erst nach dem Aufeinandertreffen auf den erforderlichen Querschnitt erweitert wurden. In der frühbronzezeitlichen Siedlung Khirbet ez-Zaraqon in Jordanien existiert ein 200 Meter langer Tunnel, an dessen Firste sich die Suchstollen noch gut nachvollziehen lassen. Seine Datierung in die Zeit vor der Verwendung von Eisenwerkzeugen scheint problematisch. Die Griechen bauten beispielsweise auf Samos zur verdeckten Wasserversorgung um 530 v. Chr. den 1063 Meter langen sogenannten Tunnel des Eupalinos. Unter dem judäischen König Hiskija wurde ebenfalls zur Wasserversorgung bei Belagerungen von der Gihon-Quelle zum Teich von Siloah in Jerusalem der 533 Meter lange Hiskija-Tunnel gegraben. Ein etwa 150 v. Chr. geschlagener 700 Meter langer Tunnel nach Qumran am Toten Meer diente ebenfalls der Wasserversorgung. Die Etrusker schufen die weniger spektakulären zahlreichen Cuniculi, schmale Tunnel, die der Wasserleitung, der Drainage oder der Wassersammlung dienten. Im 6. Jahrhundert v. Chr. errichteten sie in den Albaner Bergen erste Straßentunnel. Besonders die Römer führten viele Bauten aus, darunter die Ableitung des Fucino-Sees, ein 5623 Meter langer Tunnel von der Mitte des 1. Jahrhunderts. Vespasian ließ im Jahr 77 auf der Via Flaminia einen neuen Tunnel durch den Intercisa-Pass (Furlo) errichten. Besonders bekannt ist ein Aquädukttunnel im algerischen Bejaia aus dem 2. Jahrhundert n. Chr. durch den römischen Baumeister Nonius Datus, der in einer Inschrift die Schwierigkeiten des Gegenortverfahrens beschrieb. Straßentunnel errichteten die Römer nur in Italien: Der Architekt Lucius Cocceius Auctus errichtete im Bürgerkrieg mit Sextus Pompeius 38/37 v. Chr. drei Tunnel um Cumae und am Averner See sowie zwei weitere zwischen Neapel und Puteoli, die eine Länge von bis zu 1000 Metern hatten. Auf der Insel Ponza ist ein Straßentunnel nachweisbar. Aufgrund von Resten antiker Schachtbauwerke in der Umgebung von Dover geht die moderne Forschung davon aus, dass bereits die Römer sich mit dem Gedanken eines Ärmelkanaltunnels nicht nur theoretisch beschäftigt haben.
Als ältester Verkehrstunnel der Alpen gilt der Buco di Viso (französisch Le Pertuis du Viso) in den Cottischen Alpen. Er wurde 1480 fertiggestellt und diente dem Warentransport mit Saumtieren.
Der mitteleuropaweit älteste frühmittelalterliche Wasserstollen ist der Stiftsarm des Almkanals in Salzburg, der der Nutzwasserversorgung der Stadt diente und 1143 durch den Mönchsberg geschlagen worden war. Ein weiterer Tunnel, der vermutlich aus dieser Zeit stammt, ist der Fulbert-Stollen am Laacher See, der nach 1164 gebaut wurde und der Konstanthaltung des Wasserspiegels diente.
Neuzeit
Nördlich der Alpen gab es in Deutschland vor dem Zeitalter des Eisenbahnbaus nur vier Tunnel. Zu ihnen zählt der Tiergarten-Tunnel in Blankenheim in der Eifel. Die Einführung des Schwarzpulvers zur Gesteinssprengung machte seit dem 17. Jahrhundert Tunnel beim Bau von Kanälen realisierbar, beispielsweise der 157 Meter lange Malpas-Tunnel für den Canal du Midi (um 1680) und der Schifffahrtstunnel von Weilburg an der Lahn. 1708 wurde mit dem Urnerloch bei Andermatt der erste Tunnel an einer Alpenstraße (Länge 64 m) für den Güter- und Personenverkehr gebaut. Das 1765 fertiggestellte Sigmundstor in Salzburg mit einer Länge von 131 Metern ist der älteste Straßentunnel Österreichs. Der 1789 eröffnete Sapperton-Kanaltunnel im Thames & Severn Canal in England war 3,5 Kilometer lang und erlaubte den Transport von Kohlefrachtern. Der 2869 Meter lange Norwood-Tunnel in England, eröffnet 1775, ist ein weiteres Beispiel. Durch den von 1842 bis 1847 erbauten 4880 Meter langen Mauvages-Tunnel im Canal de la Marne au Rhin im Elsass wurden Boote und Schiffe mit einem im Jahr 1912 in Betrieb genommenen elektrischen Kettenschlepper getreidelt. Die Treideleinrichtung ist jedoch nicht mehr in Betrieb, da der Kanal überwiegend von Freizeitschiffern genutzt wird.
Der erste Verkehrstunnel unter einem Fluss wurde unter der Themse in London zwischen Rotherhithe und Wapping von 1825 bis 1841 mit einer Unterbrechung von sieben Jahren erstellt. Nach der Ausrüstung mit Licht, Fahrbahnen, Treppen und einer Maschinenanlage zur Drainage wurde er am 25. März 1843 für den öffentlichen Verkehr freigegeben. Für Fußgänger wurde er nur bis 1865 genutzt, danach wurde dieser Thames Tunnel von der East London Railway als Teil der London Underground (zuletzt East London Line) benutzt.
Der erste amerikanische Verkehrstunnel unter einem Fluss wurde am 1. Januar 1869 in Chicago eröffnet. 1899 wurde der Spreetunnel Stralau in Berlin in Betrieb genommen. Am 7. September 1911 wurde der Elbtunnel in Hamburg eröffnet.
Die ersten Eisenbahntunnel schuf George Stephenson auf der Strecke Liverpool–Manchester 1826 bis 1830. 1837 bis 1839 wurde auf der Strecke Leipzig–Dresden bei Oberau der erste Tunnel einer Vollbahn auf dem europäischen Festland gebaut. Die Erfindung des Dynamits und der mit Druckluft betriebenen Gesteinsbohrmaschinen ermöglichte den Bau der großen Gebirgstunnel.
Bemerkenswert ist der 1882 unter dem Col de Tende hindurchgetriebene 3182 Meter lange Col-de-Tende-Straßentunnel. Er war der erste Straßentunnel unter einem Alpenpass und dürfte seinerzeit einer der längsten für den öffentlichen Verkehr freigegebenen Tunnels der Welt gewesen sein.
Jüngere Geschichte
Tunnel schrieben auch politische und militärische Geschichte: Gegen Ende des Zweiten Weltkriegs lagerte die deutsche Rüstungsindustrie zahlreiche Fertigungsstätten in bombensicher vermauerte Verkehrstunnel im Rahmen des so genannten U-Verlagerungsprogramms aus. In den 1960er Jahren wurden geheime Fluchttunnel aus Ostberlin und der DDR nach Westberlin und Spionagetunnel vice versa während der Zeit der Berliner Mauer gebaut. Während des Vietnamkrieges besaß der Vietcong in den 1970er Jahren eine Vielzahl von Tunneln bis in die Nähe der südvietnamesischen Hauptstadt Saigon, in welche die Soldaten der Vietnamesischen Volksbefreiungsarmee sich bei amerikanischen Luftangriffen und Patrouillen versteckten, Nachschublager unterhielten und Verwundete operierten und pflegten. Während des Bosnienkrieges in den 1990er Jahren bauten die bosnischen Truppen einen geheimen Tunnel von Sarajevo unter dem serbischen Belagerungsring hindurch, durch den sie bescheidenen Nachschub erhielten.
Arten
Tunnel können nach deren Benutzung eingeteilt werden. Sie können von Schienenfahrzeugen, Straßenfahrzeugen, Wasserfahrzeugen, Fußgängern, Rohrleitungen, Elektrische Leitungen benutzt werden.
Tunnel für Verkehrswege können ein-, zweispurig oder mehrspurig sein. Tunnel können im wechselweisen Richtungsverkehr betrieben werden. Bei Autobahnen ist das die Regel, zwei parallele Röhren können dann als ein Tunnel angesehen werden.
Eisenbahntunnel
Eisenbahntunnel dienen in erster Linie der Umgehung topografischer Hindernisse. Im Gegensatz zu Straßenfahrzeugen können Adhäsionsbahnen nur geringe Steigungen überwinden und große Bögen befahren, weshalb die Trasse oft nicht über oder um Hindernisse herumgeführt werden kann.
Bei Gebirgsbahnen werden Kehrtunnel eingesetzt, die dem Höhengewinn der Strecke dienen, indem die Strecke durch einen Tunnel im Gebirge künstlich verlängert wird. Kehrtunnel kommen bei extremen topografischen Verhältnissen wie bei Zahnradbahnen vor.
Ein Einzelfall dürfte der 300 m lange Tunnel auf der Neubaustrecke Mattstetten–Rothrist sein, welcher ein Käselager vor Verschmutzung durch die Eisenbahn schützt.
U-Bahn-Tunnel
Straßentunnel
Da Straßenfahrzeuge größere Steigungen als Schienenfahrzeuge überwinden können, begann der Bau von Straßentunneln in größerem Umfang erst im Zuge des Baus von Autobahnen und anderen Schnellstraßen. Vorher waren Straßentunnel nur im Gebirge anzutreffen und meist nur kurz.
Seit neuerer Zeit werden Tunnel aus Gründen des Landschafts- und Umweltschutzes errichtet. So wurde beispielsweise im Zuge der Bundesautobahn 4 westlich von Jena in Thüringen der 2014 in Betrieb genommene Jagdbergtunnel gebaut, um das ökologisch wertvolle Leutratal vom Autoverkehr zu befreien.
Weiter haben einige Grünbrücken so große Längen, dass sie als Tunnel gelten.
Fußgängertunnel
Diese Tunnelart wird hauptsächlich in Städten angewendet. Dort dienen Fußgängertunnel häufig als Ersatz für Fußgängerüberführungen über breite Straßen oder als Verbindung von U-Bahn-Stationen. Insbesondere in Bahnhöfen werden Personentunnel angelegt. In Städten in kälteren Klimazonen gibt es größere Netze aus Fußgängertunneln, welche Untergrundstädte genannt werden. Beispiele für Fußgängertunnel sind die Berliner Fußgängertunnel oder der Eiertunnel in Bad Kleinen. Der Schlossbergtunnel in Tübingen ist dagegen 1974 für Fußgänger zur Durchquerung dieses natürlichen Höhenzuges gebaut worden.
Kriminelle bauen mitunter temporäre Tunnel, um in eine Bank einzubrechen, oder um illegale Drogen unter Landesgrenzen hindurch zu schmuggeln; manche Gefangenen bauen temporäre Tunnel, um einem Gefängnis oder Gefangenenlager zu entkommen. Die Fluchttunnel in Berlin während der deutschen Teilung dienten dem Zweck, Bürgern der Sowjetischen Besatzungszone und später der DDR die dort kriminalisierte „Republikflucht“ zu ermöglichen.
In der Lamprechtshöhle im Land Salzburg wurde vor Jahrzehnten ein Tunnel in den Fels gesprengt und später mit einer eisernen Tür verschließbar gemacht, um einen Siphon umgehen zu können, der temporär den trockenen Weg versperrt.
In Städten werden mitunter Tunnel als Fußgängerbereiche angelegt, um ganzjährig angenehme „Außen“-Temperaturen vor Geschäftslokalen zu schaffen, in der ost-kanadischen Stadt Toronto als Schutz vor großer Kälte im Winter.
Tunnel werden auch bei Besetzungen genutzt, da es besonders schwierig ist, diese zu räumen ohne die körperliche Unversehrtheit der Besetzenden zu riskieren.
Kanaltunnel
Als Kanaltunnel (Schiffstunnel) werden Bauwerke bezeichnet, mit denen ein schiffbarer Kanal unter Landschaftserhebungen wie Hügeln oder Bergen hindurchgeführt wird. Bei der Planung von Kanälen werden Anhöhen, die nicht mit einem Geländeeinschnitt zu durchqueren sind, wenn immer möglich mit einer längeren Strecke auf gleichbleibender Höhe umgangen oder mit Schleusenreihen überschritten. Wo beides nicht in Frage kommt oder für eine solche Lösung eine zu große Massenbewegung erforderlich wäre, kann der Bau eines Tunnels die wirtschaftlich optimale Variante sein.
Kanaltunnel sind meist für einspurigen Verkehr ausgelegt. Vor beiden Portalen sind ausreichende Warteräume und Signaleinrichtungen für die Verkehrsregelung erforderlich. In einigen Tunneln wird der Wasserweg von einem Bankett über dem Wasserniveau begleitet, das für Kontrollgänge und das Ziehen von Kähnen diente. Der erste Kanaltunnel wurde im 17. Jahrhundert für den Canal du Midi gebaut.
Auswahl langer Kanaltunnel
der 7120 Meter lange Tunnel du Rove des Canal de Marseille au Rhône bei Marseille (nach Teileinsturz seit 1963 nicht mehr schiffbar)
der 5677 Meter lange Riquevaltunnel in der Picardie, Canal de Saint-Quentin, Frankreich
der 5209 Meter lange Standedge-Tunnel im Huddersfield-Narrow-Kanal, England
der 4880 Meter lange Mauvages-Tunnel des Canal de la Marne au Rhin (deutsch: Rhein-Marne-Kanal) in Frankreich
der 4354 Meter lange Souterrain de Ruyaulcourt des Canal du Nord, Frankreich
der 3490 Meter lange, inzwischen eingestürzte Sapperton-Kanaltunnel des Themse-Severn-Kanals in England
der 3333 Meter lange Scheiteltunnel Voûte de Pouilly-en-Auxois des Canal de Bourgogne (deutsch: Burgund-Kanal) in Frankreich
der 2836 Meter lange Norwood-Tunnel im Chesterfield-Kanal, England
Der einzige schiffbare Tunnel in Deutschland ist der 195 Meter lange Weilburger Schifffahrtstunnel an der Lahn, der am 18. September 1847 eröffnet wurde.
Scheiteltunnel und Basistunnel
Tunnel, welche durch Gebirge führen, können in Scheiteltunnel, seltener Passtunnel, und Basistunnel eingeteilt werden.
Scheiteltunnel
Scheiteltunnel bezeichnen Bauwerke, die über Zufahrtsrampen erreicht werden und meist unter einem Gebirgspass hindurchführen. Dabei befindet sich der höchste Punkt des Verkehrsweges – die Passhöhe – oft innerhalb des Tunnels.
Beispiele für Passrouten mit Scheiteltunnel:
Straße über den Col du Galibier: die 1890 erbaute Straße unterquert den 2645 m hohen Pass mit einem Scheiteltunnel von 363 m Länge, in dem die Straße eine Höhe von 2556 m erreicht.
Tauerntunnel der Tauernbahn durch den Alpenhauptkamm, errichtet 1901–1906, Scheitelhöhe bei 1226 m ü. A.
Großglockner-Hochalpenstraße: Die 1930 bis 1932 erbaute Straße unterquert das 2576 m hohe Hochtor mit einem Scheiteltunnel von 311 m Länge, dessen höchster Punkt auf 2504 m liegt.
Basistunnel
Mit Basistunnel werden Tunnelbauwerke bezeichnet, die ohne Rampen mit nur geringer Steigung durch ein Gebirge führen, dafür wesentlich länger und aufwändiger herzustellen sind als Scheiteltunnel.
Beispiele für Basistunnel in den Alpen:
Mont-Blanc-Tunnel: Der 11,6 km lange Straßentunnel wurde 1965 eröffnet.
Tauerntunnel: Der 6,4 km lange Straßentunnel der Tauern Autobahn A 10 wurde 1975 eröffnet.
Arlbergtunnel: Der 13,9 km lange Straßentunnel der Arlberg Schnellstraße S 16 wurde 1978 eröffnet.
Gotthard-Basistunnel: Der 57 km lange Eisenbahntunnel wurde am 1. Juni 2016 eröffnet.
Gemeinsamkeiten
Scheitel- wie Basistunnel können beachtliche Längen erreichen. Um die Verkehrswege möglichst leistungsfähig zu gestalten, wurden meist Lösungen gewählt, die mit der damaligen Technik gerade noch machbar waren oder an die Grenzen der Finanzierungsmöglichkeiten stießen. Die bei großer Länge nur mit dem für die Entwässerung nötigen Gefälle verlaufenden Tunnel haben meist keine gute natürliche Entlüftung, weil der höchste Punkt des Tunnels im Berg liegt. Dies führte beispielsweise beim Furka-Basistunnel zu Nebelbildung, welche die Schienen korrodieren ließ, so dass sie vorzeitig ausgetauscht werden mussten. Sicherheitstechnisch sind die langen Tunnel eine besondere Herausforderung, da sie oft in entlegenen Gebieten liegen und die Rettungsdienste lange Anfahrtswege bei Störfällen im Tunnel haben. Bei manchen Tunnel, wie etwa beim Elbtunnel Hamburg existieren spezielle Tunnelfeuerwehren. Im Mont-Blanc- und im Tauerntunnel (Autobahn) ereigneten sich 1999 schwere Tunnelbrände, welche Maßnahmen zur Verbesserung der Tunnelsicherheit nach sich zogen.
Unterwassertunnel
Unterwassertunnel können zur Querung von Wasserflächen eingesetzt werden. Generell sind Unterwassertunnel kostspieliger als Brücken, können dafür größere Distanzen überwinden. Bei Schifffahrtswegen können Brücken oft nur eingeschränkt eingesetzt werden, weil sie die Schifffahrt behindern.
Beispiele für Tunnel, die aus Schifffahrtsgründen an Stelle von Brücken erbaut wurden:
Alter Elbtunnel (Bau: 1907–1911, zwischen St. Pauli und Steinwerder)
Holland-Tunnel (Bau: 1920–1927, zwischen New Jersey und Manhattan)
Lincoln-Tunnel (Bau: 1934–1937, mittlere Röhre, zwischen New Jersey und Manhattan, spätere Erweiterungen durch 2 weitere Röhren)
Unterwassertunnel können als Absenktunnel gebaut werden, indem vorgefertigte Tunnelabschnitte eingeschwommen und abgesenkt werden; wenn sie am Grund liegen werden sie miteinander verbunden, abgedichtet und leer gepumpt.
Beispiele für Tunnel, die als Absenktunnel gebaut wurden:
1961: Kanaltunnel Rendsburg
1975: Neuer Elbtunnel Hamburg (erste bis dritte Röhre, von Osten gezählt) Bestandteil der Bundesautobahn 7
Wildtiertunnel (Wildunterführungen)
Zunehmend werden Tunnel als Unterführungen von Straßen gebaut, um die Wanderung von Wildtieren zu erleichtern. Dies kompensiert vor allem die zunehmende Fragmentierung von Lebensräumen und damit die Abnahme und den Verlust von Biodiversität. In Costa Rica wurden 4 solcher Tunnel über 3 Wochen mittels Kamerafallen überwacht. Die Tunnel wurden in diesem Zeitraum von 12 Säugetier-Arten und insgesamt 108 Exemplaren durchquert. Man kann daraus schließen, dass solche Tunnel einen effektiven Beitrag zum Natur- und Artenschutz leisten, insbesondere wenn nicht nur Säugetiere betrachtet werden (und damit und pro Jahr Hunderten oder gar Tausenden von Tieren mehr Bewegungsmöglichkeiten bieten). In Deutschland werden u. a. Amphibientunnel und Dachsröhren verwendet.
Tunnelbau
Der Bau eines Tunnels ist kostenintensiv und oft eine Herausforderung an die Ingenieurskunst. Lange Tunnel werden üblicherweise von beiden Seiten her im Gegenortvortrieb gebaut, dies gilt vor allem im Gebirge oder unter dem Meer. Inzwischen gibt es Bauwerke, bei denen auch von Zwischenangriffen, die beispielsweise mit Schächten erschlossen wurden, gebaut wurde (als Beispiel der Gotthard-Basistunnel). Damit lässt sich die Bauzeit verkürzen, da dann 4 statt nur 2 Vortriebe vorhanden sind.
Der Bau von Tunneln erfolgt in geschlossener oder in offener Bauweise. Bei der geschlossenen Bauweise erfolgt die Herstellung bergmännisch in der Neuen Österreichischen Bauweise mittels Bohr- und Sprengvortrieb oder maschinell mittels einer Tunnelbohrmaschine also im Schildvortrieb oder im offenen Vortrieb. Beim Tunnelbau in offener Bauweise wird das Tunnelbauwerk in einer offenen Baugrube hergestellt, die anschließend wieder verfüllt wird.
Bei längeren Tunneln im Gebirge und im Hochgebirge kommt oft nur der Gegenortvortrieb, eventuell ergänzt um weitere Vortriebe von Zwischenangriffen aus, als Bauweise in Frage, um die Bauzeit zu reduzieren. Die Grundlage für einen erfolgreichen Tunnelbau ist eine präzise Vermessung des zu bauenden Tunnels.
Bei einem langen Tunnel (mit geradlinigem Streckenverlauf) weicht die Linie des konstanten Gefälles bereits deutlich von einer Geraden ab. Diese Linie liegt dank der Erdkrümmung näherungsweise auf einem Kreis mit dem Erdradius. Die Abweichung von der Geraden beträgt auf 10 km Länge bereits 8 m. Etwa ab 1 km langen Bauwerken ist daher Höhere Geodäsie nötig, um ausreichende Genauigkeit zu erreichen. Der entdeckte Vermessungsfehler beim Zusammentreffen der beiden je etwa 10 km langen Richtstollen des Simplontunnels betrug etwa 22 Zentimeter.
Der Bau von Tunneln ist sehr investitionsintensiv. So schlägt in Deutschland ein einröhriger, zweistreifiger Straßentunnel, welcher bergmännisch in mittelschweren Bodenverhältnissen hergestellt wird, im Schnitt mit 20.000 Euro pro Meter zu Buche. Dies ist nur ein Durchschnittswert, der nach unten, vor allem stark nach oben hin abweichen kann. Hinzu kommen 15 bis 20 Prozent für die Ausstattung des Tunnels, zum Beispiel Beleuchtung, Entlüftung, Löschwasserleitungen, Betriebsgebäude etc. Neben den zum Teil enormen Baukosten ist die Unterhaltung des Tunnels ebenfalls kostspielig. Im Schnitt wird mit jährlich 180.000 Euro pro Kilometer Tunnelstrecke gerechnet.
Um Menschen beim Bau eines Tunnels ausreichende Sicht und atembare Luft bereitzustellen, ist eine Belüftung notwendig, z. B. durch eine an der Stollendecke abgehängte Lutte oder über einen Parallelstollen und Querschlag oder quer verlaufende Zu- oder Abluftstollen. Die bauzeitliche Belüftung dient insbesondere auch der Abführung der Sprenggase beim Sprengvortrieb und der Abführung der Abgase der verwendeten Baumaschinen.
Tunnelsicherheit
Die Betriebssicherheit stellt einen wesentlichen Aspekt bei der Planung, dem Bau und dem Betrieb von Tunnelbauwerken dar. Im Vergleich zu Unfällen im offenen Gelände können sich bei Unglücken in Inneren von längeren Tunneln folgende besondere Herausforderungen ergeben:
Fehlende natürliche Hitzeabfuhr im Brandfall,
Fehlender natürlicher Rauchabzug,
Rasche Rauchausbreitung durch den Kamineffekt,
Erschwerter Zugang für Rettungskräfte zur Unglücksstelle,
Erschwerte Evakuierung der Unglücksstelle,
Erschwerter Abtransport von Schwer- und Schwerstverletzten,
Erschwerte Räumung der Unglücksstelle.
Bauliche Maßnahmen
In Tunneln kann ein funktionierendes Sicherheitssystem bei Unfällen oder Bränden Leben retten. Folgende bauliche und technische Maßnahmen erhöhen die Sicherheit in Tunnelanlagen:
Abflusssystem für brennbare Flüssigkeiten,
Anlage zur automatischen Branddetektion (Brandmelder),
Anlage zur Sichttrübungsmessung,
Anlage zur Windgeschwindigkeitsmessung,
Lüftungsanlagen zur Betriebs- und Brandlüftung,
nach Fahrtrichtungen getrennte Tunnelröhren (Richtungsverkehrstunnel, „Zwillingsröhre“ im Gegensatz zu Gegenverkehrstunnel),
Notausgänge zu Fluchtwegen, zumeist gebildet durch Querschläge (Querstollen) zu benachbarten Tunnelröhren,
zusätzliche Rettungsstollen, die hauptsächlich als Fluchtweg, aber auch als Zugang für Einsatzkräfte genutzt werden können,
Fluchtweghinweise mit Entfernungsangabe und Fluchtwegbeleuchtung,
Notbeleuchtung bei Eisenbahntunneln,
Nothaltebuchten bei Straßentunneln,
Notrufnische mit Notrufanlage und mit Brandmelder und Feuerlöscher,
Sprinkleranlage und für die Feuerwehr Löschwasserentnahmestutzen,
Videoüberwachungsanlage,
Lautsprecheranlage für Sprachdurchsagen durch Leitwartenpersonal und Feuerwehr, insbesondere für Evakuierungsaufforderungen im Brandfall und weitere Sicherheitshinweise. Seit 2009 wird in Deutschland für Straßenverkehrstunnel fast nur noch die von der Bundesanstalt für Straßenwesen (BAST) empfohlene synchronisierte Längsbeschallung (SLASS-Technik = synchronized longitudinal announcement speaker system) mit Grenzflächenhornlautsprechern installiert, mit der erstmals trotz der extremen akustischen Verhältnisse eine akzeptable Sprachverständlichkeit solcher Durchsagen erreicht wird.
Sicherheitsmanagement
Bei Tunnelbauwerken ist ein intensives Sicherheitsmanagement notwendig, welches das Erstellen von Alarmplänen und Durchführungen von Übungen mit den ansässigen Feuerwehren beinhaltet. Feuerwehren, in deren Schutzgebiet Tunnelbauwerke für Verkehrswege liegen, werden Portalfeuerwehren genannt. Sie verfügen über spezielle Ausrüstung für den Einsatz im Tunnel. Zahlreiche schwere Unfälle in Tunneln zeigen, dass viele Tunnel nur über ein schlechtes Sicherheitssystem verfügen.
Schienenverkehr
Einige Eisenbahnunfälle in Tunneln sind in der Liste schwerer Unfälle im Schienenverkehr aufgeführt.
Straßenverkehr
Um die Sicherheit in Straßentunneln zu erhöhen, werden laufend Tests von den Verkehrsclubs durchgeführt, bei denen ungefähr 30 Tunnel in ganz Europa miteinander verglichen werden. Durch Veröffentlichung der Resultate soll auf die Tunnelbetreiber öffentlicher Druck ausgeübt werden. 2005 begann das von der Europäischen Union geförderte Sicherheitsprojekt EuroTAP (European Tunnel Assessment Programme) des ÖAMTC, an dem sich Verkehrsclubs aus zehn weiteren Ländern beteiligen. Die Europäische Union hat zur Verbesserung der Tunnelsicherheit in Straßentunneln die Richtlinie 2004/54/EG erlassen, deren Umsetzung in den Mitgliedsstaaten bis zum 30. April 2016 abgeschlossen sein musste. In Österreich wurde dazu das ab 1. Mai 2006 gültige Tunnelsicherheitsgesetz erlassen, das für alle Straßentunnel auf den Autobahnen und Schnellstraßen mit einer Länge von 500 Metern oder mehr gültig ist.
Trotz aller dieser Maßnahmen kann vor allem in Straßentunneln keine hundertprozentige Sicherheit gewährleistet werden. Auch die Benutzer müssen sich der Gefahren bewusst sein und sich an die Regeln halten, wie:
Ampel unbedingt beachten
Autoradio mit Verkehrsfunk einschalten
Nie hinter einem brennenden Fahrzeug noch in den Tunnel einfahren
Fahrgeschwindigkeit reduzieren
Fahrzeugbeleuchtung einschalten
Sicherheitsabstand einhalten
nicht stehen bleiben im Tunnel
die Umstellung der Lichtverhältnisse der Augen beachten, Sonnenbrille abnehmen
bei Ausfahrt mit stark veränderten Wetterverhältnissen wie Eis, Nebel, Schneetreiben rechnen
sich über richtiges Verhalten bei Unfällen und Bränden in Tunneln informieren
nicht wenden (siehe Anlage 3 (zu § 42 Absatz 2) StVO, lfd. Nr. 14)
Die längsten Tunnel der Erde
Die längsten und bereits für den Verkehr freigegebenen Tunnel der Erde sind:
Gotthard-Basistunnel, 57,1 Kilometer, Schweiz, Eisenbahn
Seikan-Tunnel, 53,9 Kilometer, Japan, Eisenbahn
Eurotunnel, 50,5 Kilometer, Frankreich/Großbritannien, Eisenbahn
Lötschberg-Basistunnel, 34,6 Kilometer, Schweiz, Eisenbahn
Neuer Guanjiao-Tunnel, 32,6 Kilometer, China, Eisenbahn
Guadarrama-Tunnel, 28,4 Kilometer, Spanien, Eisenbahn
Taihangshan-Tunnel, 27,8 Kilometer, China, Eisenbahn
Hakkōda-Tunnel, 26,5 Kilometer, Japan, Eisenbahn
Iwate-Ichinohe-Tunnel, 25,8 Kilometer, Japan, Eisenbahn
Lærdalstunnel, 24,5 Kilometer, Norwegen, Straße
Siehe auch
Liste der längsten Tunnel in Deutschland
Liste von Alpentunneln
Liste von Tunneln in Deutschland
Liste von Tunneln in Österreich
Liste der Schweizer Tunnel
Amphibientunnel
Literatur
Michael Hascher: Tunnel. In: Enzyklopädie der Neuzeit Online. Im Auftrag des Kulturwissenschaftlichen Instituts (Essen) und in Verbindung mit den Fachherausgebern herausgegeben von Friedrich Jaeger. doi:10.1163/2352-0248_edn_COM_368091.
Weblinks
adac.de, EuroTAP-Tunneltest: ADAC-Tunneltest: Erfreuliche Ergebnisse (2015)
bast.de: Lautsprecheranlagen und akustische Signalisierung in Straßentunneln
ffb.kit.edu: Brandversuch im Röfix-Tunnel (PDF-Datei; 1,1 MB)
tunnel-online.info
Einzelnachweise
Unterirdische Bauform
Bauform (Felsbau)
|
Q44377
| 386.907389 |
164255
|
https://de.wikipedia.org/wiki/R%C3%BCstungsindustrie
|
Rüstungsindustrie
|
Die Rüstungsindustrie ist der Wirtschaftszweig, der Ausrüstung für das Militär herstellt. Der Kernbereich ist die Herstellung von Waffen, mobilen und stationären Waffensystemen und Munition zur Erfüllung hoheitlicher Sicherheitsaufgaben. Diese nehmen jedoch nur den geringen Teil des gesamten Güteraufkommens ein. Der weitaus größere Anteil, und der als Schwerpunkt bezeichnete Teil der Branche, geht auf den sogenannten erweiterten Bereich zurück wie beispielsweise Kommunikations- oder Überwachungstechnologien, die auch in der Privatwirtschaft z. B. an Flughäfen genutzt werden.
Rüstungsgüter
Kategorisierung
Kernbereich Sicherheits- und Verteidigungsindustrie
Güter für Interdiktion und Wirkung
Waffensysteme, Waffen und Munition
Erweiterter Bereich Sicherheits- und Verteidigungsindustrie
Güter für Prävention und Einsatzmanagement
Einsatzbereitschaft (z. B. Analysesoftware)
Einsatzmobilität (z. B. Boote der Küstenwache)
Überwachung, Aufklärung, Alarmierung (z. B. Videoüberwachung)
Schutz (z. B. Körperschutz vor Feuer)
Führung, Kontrolle, Kommunikation (z. B. Navigationstechnik)
Schadensminimierung (z. B. Überschwemmungsbekämpfung)
Bereitstellung von Rüstungsgütern
Rüstungsgüter werden hergestellt um das öffentliche Gut Landesverteidigung zu gewährleisten. Der Staat ist für die Bereitstellung öffentlicher Güter verantwortlich. Ein öffentliches Gut liegt vor, wenn Nichtausschließbarkeit vom Konsum und keine Rivalität im Konsum herrscht. Die effiziente Bereitstellung von Rüstungsgütern ist problematisch, da diese immer auch ein Marktversagen hervorrufen; aufgrund von Informationsasymmetrien und externen Effekten.Produziert aber werden Rüstungsgüter (im Auftrag der Bundesregierung) von etlichen privatwirtschaftlichen Unternehmen. Es lassen sich keine vollständigen Zahlen und Namen von Firmen finden, die erkennen lassen, wer alles zur deutschen Rüstungsindustrie gehört.
Rüstungsmarkt
„Der Markt für Rüstungsgüter unterscheidet sich von anderen Märkten vor allem dadurch, daß in den meisten Industrieländern der Staat Monopsonist auf diesem Markt ist; allenfalls kommt es vor, daß ausländische Nachfrager – meist wiederum Regierungen – zugelassen sind.“
Nachfrager
Um die Nachfrageseite der Rüstungsindustrie zu betrachten, muss zwischen dem deutschen Staat und den „restlichen“ Nachfragern unterschieden werden. Dabei schließen sich die Bezeichnungen Monopson, also Nachfrage-Monopol und ein Auftreten auf dem Weltmarkt nicht zwingend aus. Denn durch das Kriegswaffenkontrollgesetz könnte die Öffentliche Hand generell als alleiniger Nachfrager am Markt auftreten, da dieses vorgibt, welche Rüstungsgüter hergestellt, befördert und in Verkehr gebracht werden dürfen. Dennoch hat auch der Staat ein Interesse daran, dass diese Güter – unter bestimmten Voraussetzungen – weltweit verkauft werden. Es besteht demnach eine gegenseitige Abhängigkeit. Beispielsweise durch die Sicherung mehrerer zehntausend Arbeitsplätze, das Erhalten von Know-how bei der Entwicklung und Produktion und den Verkauf jener Güter.
Anbieter
Alle Unternehmen die Rüstungsgüter produzieren, sind marktwirtschaftlich organisiert. Trotzdem muss die Angebotsseite des Rüstungsmarktes mit einigen Besonderheiten leben. Je nachdem, wie diversifiziert die Produktpalette des Unternehmens ist, sind diese mehr oder weniger vom Staat abhängig – da nur dieser einen Auftrag über Rüstungsgüter ausschreiben darf (siehe: Bereitstellung von Rüstungsgüter). Stellt ein Unternehmen ausschließlich Rüstungsgüter für den militärischen Einsatz her, so ist die Auftragslage des Unternehmens stark abhängig von der jeweiligen Regierung; ob diese viel oder wenig Steuergeld für Rüstungsgüter ausgeben möchte.
Regulierung
Es gibt Gesetze und Regularien, die klar definieren, in welchem Handlungsfeld sich die Rüstungsindustrie bewegen darf. So besagt das Kriegswaffenkontrollgesetz, dass bestimmte Waffen nur mit Genehmigung der Bundesregierung hergestellt, befördert und in den Verkehr gebracht werden dürfen. Außerdem gibt es seitens der Regierung Maßnahmen um Korruption zu verhindern, deutsche Rüstungsexporte zu regulieren oder zur Kontrolle, falls ehemalige Beamte in die Rüstungsindustrie wechseln möchten.
Kritik
In seiner Abschiedsrede als Präsident vom 17. Januar 1961 warnte Eisenhower eindringlich vor den Gefahren, die ein einflussreicher, von ihm erstmals so bezeichneter „militärisch-industrieller Komplex“ für die USA in Zukunft mit sich bringen würde:„Wir in den Institutionen der Regierung müssen uns vor unbefugtem Einfluss – beabsichtigt oder unbeabsichtigt – durch den militärisch-industriellen Komplex schützen. Das Potenzial für die katastrophale Zunahme fehlgeleiteter Kräfte ist vorhanden und wird weiterhin bestehen. Wir dürfen es nie zulassen, dass die Macht dieser Kombination unsere Freiheiten oder unsere demokratischen Prozesse gefährdet. Wir sollten nichts als gegeben hinnehmen. Nur wachsame und informierte Bürger können das angemessene Vernetzen der gigantischen industriellen und militärischen Verteidigungsmaschinerie mit unseren friedlichen Methoden und Zielen erzwingen, so dass Sicherheit und Freiheit zusammen wachsen und gedeihen können.“
Unter anderem steht die Rüstungsindustrie immer wieder aufgrund mangelnder Funktionsfähigkeit von Waffen – wie bei dem Sturmgewehr G36 von Heckler & Koch – oder Verzögerungen von Lieferungen in der Kritik.
Unter ökonomischen Gesichtspunkten lassen sich diese Probleme zumeist damit erklären, dass es sich bei der Auftragsvergabe um öffentliche Ausschreibungen handelt. Der wirtschaftlich günstigste Bieter bekommt den Zuschlag vom Staat und darf die Rüstungsgüter produzieren. Durch enorme Informationsasymmetrien gegenüber den jeweiligen Rüstungsfirmen kann der Staat schwerlich nachprüfen – und wenn, nur mit hohen Transaktionskosten – ob die veranschlagten Kosten bzw. Kostensteigerungen ihre Legitimität haben und nicht möglicherweise von dem jeweiligen Unternehmen getragen werden müssten.
Beispiele für Kostensteigerungen
Bei einer kleinen Anfrage (Kostensteigerung bei Großwaffensystemen, hier speziell wegen des Schützenpanzers Puma) an den Bundestag war die Antwort der Regierung: „Vertragsstrafen sind im Beschaffungsvertrag nicht vereinbart, da sie im Zuge der Vertragsverhandlungen aufgrund der Monopolstellung des Auftragnehmers nicht durchsetzbar waren.“
Errechneter Stückpreis: 6,5 Millionen Euro, tatsächlicher Stückpreis: 9,9 Millionen Euro
Eines der wohl längsten und teuersten Rüstungsprojekte ist das Kampfflugzeug Euro Hawk. Die Idee einer Aufklärungsdrohne für die Bundeswehr entstand im Jahr 2000. Beteiligt daran waren der amerikanische Rüstungskonzern Northrop Grumman und der europäische Luft- und Raumfahrtkonzern EADS. Anscheinend gab es frühe Hinweise darauf, dass die Drohne bei Weitem nicht die geforderten Standards für eine Zulassung besaß. Trotzdem wurden weiterhin Steuergelder für das Projekt verwendet und weitere Testflüge angeordnet. Der damalige Verteidigungsminister Thomas de Maizière (CDU) hat erst 2013 beschlossen, das Drohnenprojekt stillzulegen, da es nicht absehbar war, eine Zulassung für den deutschen Luftraum zu bekommen. Bis dahin hat das Ganze den deutschen Steuerzahler etwa 600 Millionen Euro gekostet, ohne dass er einen Nutzen davon gehabt hätte.
Geschichte
Die Rüstungsindustrie entwickelte sich im Laufe der Industrialisierung in Westeuropa im 19. Jahrhundert stetig weiter. Am Anfang standen einzelne Betriebe, traditionell meist in staatlicher Regie, die Feuerwaffen produzierten. Allmählich entwickelten sich große und sehr vielseitige private Großbetriebe wie zum Beispiel Rheinmetall und Krupp in Deutschland, Schneider in Frankreich, Škoda in Österreich-Ungarn, Bethlehem Steel in den Vereinigten Staaten. Neben der Produktion von Handfeuerwaffen gewann die Herstellung von Geschützmaterial immer mehr an Bedeutung.
Im Deutsch-Französischen Krieg 1870/71 zeigte sich die Bedeutung moderner Waffen:
Die stählernen Hinterlader-Geschütze von Alfred Krupp erwiesen sich als ausschlaggebende Artillerie. Sie konnten über 4 km weit schießen (mehr als das Doppelte der bis dahin möglichen Reichweite).
Das damals neueste dieser Geschütze hieß C/64/67; es hatte zahlreiche Vorteile. Speziell bei der Schlacht bei Sedan zeigte sich, dass eine hohe Kadenz (bis zu zehn Schuss pro Minute) zusammen mit einer großen Reichweite bei guter Trefferleistung eine verheerende Wirkung erzeugte.
Die Franzosen hatten Vorteile bei Reichweite und Kadenz mit dem neuen Chassepot-Gewehr und dem Mitrailleuse-Maschinengewehr. Ersteres war dem preußischen Hinterlader-Zündnadelgewehr überlegen.
Die Erfindung und Weiterentwicklung der Brisanzgranate um 1890 brachte große Umwälzungen in der Kriegsführung:
Klassische Festungsanlagen mit Wällen aus Mauerwerk und Erde konnten den neuen Granaten nicht widerstehen. Die Forts (teilweise erst in der zweiten Hälfte des 19. Jahrhunderts erbaut, z. B. die französische Barrière de fer) wurden aufgrund dieser Brisanzgranatenkrise teils mit Beton verstärkt; sie verloren ihre Bedeutung spätestens gegen Ende des Ersten Weltkriegs praktisch vollständig. So hatte beispielsweise die französische Festung Maubeuge bereits einen Monat nach Kriegsbeginn kapitulieren müssen, nachdem sie während einer zweiwöchigen Belagerung von der deutschen Artillerie mit Brisanzgranaten zusammengeschossen worden war.
Brisanzgranaten konnten auf kurze bis mittlere Gefechtsentfernungen an den ungepanzerten Teilen von Kriegsschiffen große Zerstörungen erzielen.
Die Aufrüstung der kaiserlichen Marine vor dem Ersten Weltkrieg sicherte in Deutschland den aufstrebenden Unternehmen Aufträge und unterstützte den Ausbau ihrer Kapazitäten. 1898 beschloss der Reichstag ein neues Flottengesetz, welches den weiteren Ausbau festlegte. Der Marinebedarf war vor 1914 der technologisch und innovativ am weitesten vorangetriebene Rüstungssektor.
Nach dem Ersten Weltkrieg, der als enormer Schrittmacher für neue Rüstungszweige (Luftfahrtindustrie, Kraftfahrzeugindustrie, Panzer, Chemische Waffen) gewirkt hatte, wurden der Rüstungsindustrie Deutschlands im Versailler Vertrag enge Grenzen gesetzt. Die Waffenproduktion wurde international überwacht und der Waffenexport vollständig verboten. Das NS-Regime bescherte ihr mit seiner Aufrüstung der Wehrmacht und seiner Kriegspolitik ein enormes Wachstum. Nach dem Zweiten Weltkrieg wurde die Rüstungsindustrie 1945 im Rahmen der Demilitarisierung Deutschlands aufgelöst. In der Bundesrepublik Deutschland erlebte sie im Rahmen von Westintegration und Wiederbewaffnung in der Mitte der 1950er Jahre einen Neubeginn.
In der Vergangenheit nahmen Rüstungsindustrielle mehrfach Einfluss auf das politische Geschehen, um Bedingungen für ihren Wirtschaftszweig zu verbessern. Dabei kam es auch zu illegalen Schmiergeldzahlungen von Rüstungslobbyisten. Bekannte Beispiele sind der Waffenhändler Karlheinz Schreiber sowie der ehemalige Staatssekretär und Präsident des Bundesamtes für Verfassungsschutz Ludwig-Holger Pfahls.
In den Reihen der Friedensbewegung, der Friedensforschung und auch der Gewerkschaften werden seit den 1980er Jahren Konzepte entwickelt, wie der Übergang von militärischer zu ziviler Produktion gestaltet werden kann (Rüstungskonversion). Diese Konzepte werden oft nicht umgesetzt, es ist teilweise eher der gegenläufige Trend zu beobachten. Im Zuge des Kriegs gegen den Terror seit 2001 (9/11) expandierte die Rüstungsindustrie. So stieg der Jahresdurchschnitt des internationalen Handels mit schweren konventionellen Waffen in den Jahren 2005 bis 2009 um 22 Prozent im Vergleich zum Jahresdurchschnitt für die Jahre 2000–2004. Unternehmen, die militärische und zivile Produkte herstellen, versuchen teilweise, den zivilen Unternehmensteil zu verkaufen (z. B. hat BAE Systems seinen Airbusanteil 2006 verkauft) und den militärischen Anteil zu erhöhen. Im deutschen Rüstungssektor sank die Zahl der Beschäftigten von etwa 290.000 (1990) auf 80.000 im Jahr 2002.
Stand 2022 wird die Rüstungsindustrie in Deutschland, nach Eigenbezeichnung auch Sicherheits- und Verteidigungsindustrie (SVI) genannt, von wenigen großen Unternehmen – allen voran Rheinmetall und Krauss-Maffei Wegmann – dominiert. Lediglich etwa die Hälfte der 350 deutschen Rüstungsfirmen ist laut der Deutschen Gesellschaft für Auswärtige Politik (DGAP) in der Eigentümerschaft unabhängig von den großen Unternehmen.
Unternehmen
Bis zum Jahr 2017 verzichtete SIPRI aufgrund mangelnder Daten darauf, Zahlen zu chinesischen Rüstungsfirmen zu publizieren. Erst in der Publikation des Jahres 2020 ordnete das Institut die chinesischen Unternehmen für das Jahr 2018 in die fünfzig weltgrößten Rüstungsfirmen ein.
Waffenexport
Die größten Waffenlieferanten der Welt sind die Vereinigten Staaten von Amerika, gefolgt von Russland, Deutschland, Frankreich, China und Großbritannien. All diese Länder besitzen hochentwickelte Rüstungsbetriebe und stehen im gegenseitigen Konkurrenzkampf bei der Entwicklung neuer und wirkungsvollerer Waffensysteme. Die Zahlen der folgenden Tabelle entstammen der SIPRI-Datenbank 2016 und sind gerundet in Milliarden US-Dollar basierend auf den Preisen von 1990 angegeben.
Wie problematisch ein Waffenexport sein kann, wurde zum Beispiel in den folgenden Fällen bewusst:
im Falklandkrieg (1982) kämpfte das argentinische Militär mit zahlreichen Waffen gegen das Vereinigte Königreich, die von westlichen Ländern an Argentinien verkauft worden waren. Die argentinische Luftwaffe besaß
Mirage-III-Jagdflugzeuge, Mirage-5-Jagdbomber,
alte (aber immer noch sehr leistungsfähige) Douglas-A-4-Jagdbomber und
veraltete English-Electric-Canberra-Bomber, außerdem
zwei zu Betankungsflugzeugen umgebaute Lockheed C-130
Vier damals hochmoderne Exocet-Luft-Schiff-Raketen standen bei Kriegsbeginn nach argentinischen Angaben zur Verfügung.
Die Marineflieger besaßen fünf Dassault Super Étendards; diese waren für Luftbetankung ausgerüstet. 14 Flugzeuge waren bestellt, bis zum Ausbruch des Krieges waren fünf geliefert, wovon eines infolge eines Embargos als Ersatzteilspender am Boden bleiben musste.
die Marine besaß unter anderem drei moderne französische d’Estienne d’Orves-Korvetten mit Exocet-Flugkörpern und zwei moderne, in der Bundesrepublik Deutschland hergestellte Küstenunterseeboote der U-Boot-Klasse 209.
Im Krieg in Afghanistan wurden die US-Amerikaner und ihre Verbündeten oft mit Waffen bekämpft, die sie selbst nach dem Einmarsch der Sowjets in Afghanistan (1979) den Mujaheddin und anderen Rebellengruppen (damals auch „Freiheitskämpfer“ genannt) geliefert hatten.
Der Internationale Militäreinsatz in Libyen 2011 richtet sich gegen die libyschen Streitkräfte. Diesen verkauften westliche Unternehmen bzw. Regierungen jahrelang Waffen.
Ein von der Bundesregierung 2011 geplanter Export von 200 Leopard-Panzern nach Saudi-Arabien erregte viel öffentliche Kritik, weil Saudi-Arabien im benachbarten Bahrain kurz zuvor mit Panzern an der Unterdrückung von Demonstrationen teilgenommen hatte (siehe Proteste in Bahrain 2011).
Der Export und auch Import von Waffen ist von Land zu Land sehr unterschiedlich und lässt sich teils durch eine Verlagerung der Produktion ins Ausland umgehen. In Deutschland wird der Export durch das Außenwirtschaftsgesetz und Kriegswaffenkontrollgesetz reglementiert. Die Erlaubnis zum Export wird von dem unter Ausschluss der Öffentlichkeit tagenden Bundessicherheitsrat der Bundesregierung erteilt. Es gibt kein parlamentarisches Kontrollgremium und Waffenexporte benötigen auch keine Zustimmung des Bundestages. Die erfolgten Exporte werden einmal im Jahr im Rüstungsexportbericht veröffentlicht.
Zu beachten ist, dass es keine weltweit gültigen Standards zur Erfassung und Veröffentlichung von Rüstungsexporten gibt. Das Stockholmer SIPRI-Institut beschreibt z. B. Deutschland für den Zeitraum von 2003 bis 2008 als drittgrößten Rüstungsexporteur der Welt, mit einem Marktanteil von 10 Prozent (nach den Vereinigten Staaten und Russland). Demgegenüber sieht eine Studie des International Institute for Strategic Studies (IISS) Deutschland für 2006 mit deutlichem Abstand hinter Großbritannien auf Platz 4. Der deutsche Weltmarktanteil lag nach dieser Studie für 2006 bei 3,7 Prozent (zum Vergleich: Vereinigte Staaten 51,9 Prozent, Russland 21,5 Prozent, Vereinigtes Königreich 12,2 Prozent).
Zu den Rüstungsgütern zählen unter anderem Kleinwaffen und leichte Waffen, international mit SALW (Small Arms and Light Weapons) abgekürzt. Eine detaillierte Aufstellung der Waffenexporte, die nur Schusswaffen beinhalten, zu denen auch zivile Jagd- und Sportgewehre, sowie Kurzwaffen zählen, findet man hier:
Insbesondere die deutschen Ausfuhren an europäische Abnehmer stiegen an: Im Vergleich zum Fünfjahres-Zeitraum von 1998 bis 2003 nahmen sie laut SIPRI um 123 Prozent zu.
Chinas Rüstungsindustrie wächst und holt technologisch auf. Beispiel: China feierte im Januar 2011 den ersten „offiziellen“ Testflug eines Tarnkappenbombers (J-20). Die J-20 hat Ähnlichkeit mit der russischen Mig 1.44 (die nie in Serie ging) und den Raptor-Flugzeugen der US-Armee.
China exportiert immer mehr Waffen und macht der russischen Rüstungsindustrie immer mehr Konkurrenz. Dabei hat der aufstrebende Exporteur China einige Vorteile gegenüber Russland.
Beide Länder haben vor allem Schwellenländer, die nach mehr militärpolitischer Unabhängigkeit vom Westen streben, als Absatzmarkt für ihre Waffen im Visier.
Siehe auch
Deutscher Rüstungsexport
militärische Rüstung
Rüstungsindustrie in Afrika
Altpreußische Rüstungsindustrie
Vertrag über den Waffenhandel
Waffenhandel
Militärisch-industrieller Komplex
Bundesverband der Deutschen Sicherheits- und Verteidigungsindustrie
Deutsche Gesellschaft für Wehrtechnik
Literatur
Heinz-J. Bontrup, Norbert Zdrowomyslaw: Die deutsche Rüstungsindustrie: Vom Kaiserreich bis zur Bundesrepublik. Ein Handbuch. Distel Verlag, Heilbronn 1988, ISBN 3-923208-18-9.
Dieter Hanel: Die Bundeswehr und die deutsche Rüstungsindustrie, Bonn 2003, ISBN 3-7637-6238-8.
Hartmut Küchle: Die deutsche Heeresindustrie in Europa. Perspektiven internationaler Kooperationen und industriepolitischer Nachholbedarf (= Edition Hans-Böckler-Stiftung. Nr. 200). Düsseldorf 2007, ISBN 978-3-86593-080-4 (online).
Wilhelm Muehlon: Ein Fremder im eigenen Land. Erinnerungen und Tagebuchaufzeichnungen eines Krupp-Direktors 1908–1914. Herausgegeben und eingeleitet von Wolfgang Benz. Donat Verlag, Bremen 1989, ISBN 3-924444-44-7.
Anthony Sampson: Die Waffenhändler: Von Krupp bis Lockheed. Die Geschichte eines tödlichen Geschäfts. Deutsch von Margaret Carroux. Rowohlt, Reinbek bei Hamburg 1977, ISBN 3-498-06118-6. (Originalausgabe: The arms bazaar: The companies, the dealers, the bribes. From Vickers to Lockheed. Hodder and Stoughton, London 1977, ISBN 0-340-21331-0).
Rudolf Jaun, David Rieder (Hrsg.): Schweizer Rüstung. Politik, Beschaffungen und Industrie im 20. Jahrhundert. Baden 2013, ISBN 978-3-03919-279-3.
Weblinks
des Gesetzes über die Kontrolle von Kriegswaffen
Rüstungsindustrie auf robotergesetze.com (mit Liste der Rüstungsunternehmen in Deutschland)
Einzelnachweise
Industriezweig
Militärökonomie
|
Q392933
| 95.857381 |
95758
|
https://de.wikipedia.org/wiki/Suffolk
|
Suffolk
|
Suffolk [] ist eine nordöstlich von London an der englischen Ostküste gelegene Grafschaft. Zusammen mit Cambridgeshire und Norfolk wird dieser Bereich Englands auch East Anglia genannt. Die Grafschaft grenzt an Norfolk im Norden, Cambridgeshire im Westen und Essex im Süden. Der Hauptort ist Ipswich; andere wichtige Orte sind Bury St Edmunds, Lowestoft und Stowmarket.
Die Bezeichnung rührt von south folk (den „südlichen Leuten“) der Angeln her – vgl. Norfolk.
Von 1889 bis 1974 war Suffolk in zwei Verwaltungsgrafschaften, East Suffolk und West Suffolk aufgeteilt. Seit April 2019 gliedert sich Suffolk in fünf Districts: Babergh, East Suffolk (entstanden aus Suffolk Coastal und Waveney), Ipswich, Mid Suffolk, West Suffolk (entstanden aus Forest Heath und St Edmundsbury)
Geschichte
Vor der Eroberung durch die Römer siedelten hier die keltischen Icener, In römischer Zeit verlief entlang der Küste Suffolks die Festungskette des „litus saxonicum“ (Sachsenküste), die u. a. den River Deben vor Pirateneinfällen schützen sollte. Zu dieser Kette gehörte auch Walton Castle. Im 5. Jahrhundert wanderten die Angeln in die zuvor dünn besiedelte Region ein. Zu den vermutlich wichtigsten Siedlungen der angelsächsischen Zeit entwickelten sich Sudbury und Ipswich. Aus dem 7. Jahrhundert stammt das Bootsgrab von Sutton Hoo, möglicherweise das des Königs Rædwalds. In Dommoc, das meist mit dem heutigen Dunwich identifiziert wird, befanden sich ein Hauptsitz des Königreichs East Anglia und eine Diözese. Im 9. Jahrhundert kam es wiederholt zu Einfällen der Wikinger, die 869 ganz East Anglia verwüsteten.
Nach der normannischen Eroberung wurden viele Motten bzw. Burgen wie Eye Castle, Clare Castle, Denham Castle. Framlingham Castle und Walton Castle (letzteres auf den Mauern des römischen Kastells) erbaut. In der Folgezeit entwickelt sich die Wollverarbeitung, die durch die feine Wolle des Suffolk-Schafs berühmt wurde. Dunwich, dass sich bis zum 13. Jahrhundert durch den Wollhandel zu einem blühenden Hafen mit vielen Einwohnern entwickelt hatte, verlor durch Stürme und Küstenabbrüche 1286, 1287, 1328, 1347 und 1362 viele Einwohner, viele Häuser und seine Bedeutung. Dafür wurde das benachbarte Walberswick als Hafen genutzt. Die Küstenerosion schreitet immer noch fort. Erst in der viktorianischen Zeit entwickelten sich neue Küstenorte wie Felixstowe und Lowestoft.
Obwohl Suffolk im Domesday Book 1086 als selbstständige Grafschaft bezeichnet wurde, wurde es bis 1575 gemeinsam mit Norfolk von einem Sheriff verwaltet. In den Rosenkriegen stand es überwiegend zum Haus York. Die Grenzen Suffolks haben sich seit dem Mittelalter kaum verändert, von Küstenabbrüchen wie zuletzt 1953 und 2013 einmal abgesehen.
Wirtschaft
Wenngleich die Wolle aus Suffolk keine Spitzenqualität erreichte, war die Ausbeute seit alten Zeiten groß. Eine frühe mechanische Anlage zum Säubern und Verdicken (fulling) von Wolltuch, das dadurch wasserdicht gemacht wurde, entstand 1287 in Hadleigh. Der Ort wurde später auch durch die Färberei mit Indigo bekannt. Um 1330 ließen sich flämische Weber in Suffolk nieder. Im 14. und 15. Jahrhundert war Dunwich durch Wollverarbeitung und -handel neben London eine der reichsten Städte Englands, im 16. und 17. Jahrhundert litten diese Gewerbe zunehmend unter der holländischen Konkurrenz, die leichtere Stoffe erzeugte. Daneben spielten Fischerei, die inzwischen fast verschwunden ist, und Landwirtschaft stets eine große Rolle. 1778 wurde in Leiston die Landmaschinenfabrik von Richard Garrett & Sons gegründet, die bis 1932 bestand. Im 19. Jahrhundert entstand in Ipswich die exportintensive Landmaschinenfabrik Ransomes, Sims & Jefferies, die auch Torfabbaumaschinen, Trolleybusse und zuletzt noch Rasenmäher baute; die letzte Fertigung wurde Ende des 20. Jahrhunderts geschlossen. Die Nahrungsmittelindustrie ist z. B. durch die Greene King Brewery in Bury St Edmunds und durch die Fleischverarbeitung vertreten, die Pharmaindustrie durch Sanofi in Haverhill.
In Lowestoft existieren Werftbetriebe, Offshore-Zulieferdienste und Betriebe zum Bau von Ölplattform-Komponenten und Windkraftanlagen. In Felixstowe bestehen zwei große Containerterminals; damit ist Felixstowe der größte Containerhafen Großbritanniens mit ca. 3,6 Millionen TEU im Jahr 2019.
Städte und Ortschaften
Acton, Akenham, Aldeburgh, Alpheton, Assington
Beccles, Belstead, Bildeston, Blundeston, Blythburgh, Bower House Tye, Boxford, Bramford, Brandon, Brent Eleigh, Broad Street, Bungay, Bures, Burstall, Bury St Edmunds
Calais Street, Capel St. Mary, Castling’s Heath, Cavendish, Chattisham, Chelmondiston, Chelsworth, Clare, Coddenham
Dalham, Ditchingham, Dunwich
East Bergholt, Eastbridge, Edwardstone, Elmsett, Erwarton, Eye
Felixstowe, Framlingham, Freston
Glemsford, Gosling Green, Great Bealings, Great Thurlow, Great Waldingfield, Groton, Grundisburgh
Hadleigh, Halesworth, Harkstead, Hartest, Haughley, Haverhill, Herringfleet, Higham, Hintlesham, Holbrook, Holton St. Mary, Honington, Horner’s Green, Hoxne
Ipswich, Ixworth
Kedington, Kesgrave, Kessingland, Kettlebaston
Lakenheath, Lavenham, Lawshall, Laxfield, Leiston, Lindsey, Lindsey Tye, Little Cornard, Little Waldingfield, Long Melford, Lowestoft
Melton, Mendlesham, Middleton, Milden, Mildenhall, Mill Green, Monks Eleigh, Moulton
Naughton, Nayland, Nedging, Needham Market, Newmarket, Norton
Orford, Oulton, Oulton Broad
Pakenham, Parliament Heath, Peasenhall, Polstead, Poslingford, Priory Green,
Rattlesden, Raydon, Rose Green, Round Maple
Saxmundham, Saxtead, Saxtead Green, Semer, Shelley, Sherbourne Street, Shimpling, Shotley, Shotley Gate, Shottisham, Snape, Somerleyton, Somerton, Southwold, Sproughton, St. Olaves, Stackyard Green, Stanstead, Stoke by Claire, Stoke-by-Nayland, Stowmarket, Stradbroke, Stutton, Sudbury, Swingleton Green
Tattingstone, Thorpe Morieux, Thorpeness
Ufford
Walberswick, Walsham le Willows, West Stow, Westleton, Whatfield, Wherstead, Wickham Market, Whitestreet Green, Woodbridge, Woolpit, Woolverstone
Yoxford
Sehenswürdigkeiten
Adnams Brewery
Aldeburgh Festival
Boxted Hall
Bungay Castle
Broads National Park
Christchurch Mansion
Clare Castle
Dedham Vale
Druid's Stone
Elveden Hall
Erwarton Hall
Eye Castle
Framlingham Castle
Greene King Brewery
Haughley Castle
Holy Trinity Church, Long Melford
Kentwell Hall
Langham Hall
Leiston Abbey
Lindsey Castle
Melford Hall
Mettingham Castle
Ness Point, östlichster Punkt des Vereinigten Königreiches
Norfolk and Suffolk Aviation Museum
Orford Ness und Castle
Saxtead Green Post Mill
Southwold Lighthouse
St. Edmunds Abbey
St. Edmundsbury Cathedral
St. Peter and St. Paul’s Church, Lavenham
Sue Ryder Foundation Museum
Suffolk Broads
Suffolk Coast and Heaths Path
Suffolk Heritage Coast
Sutton Hoo
Wingfield Castle
Weblinks
Einzelnachweise
Englische Grafschaft
|
Q23111
| 226.031535 |
853
|
https://de.wikipedia.org/wiki/Christentum
|
Christentum
|
Das Christentum ist eine Weltreligion, die aus dem Judentum hervorging und sich ab etwa 60 n. Chr. über Palästina hinaus ausbreitete. Ihre Anhänger werden Christen genannt, die Gesamtheit der Christen wird auch als die Christenheit bezeichnet.
Von zentraler Bedeutung für das Christentum ist Jesus von Nazaret, ein jüdischer Wanderprediger, der etwa in den Jahren 28–30 n. Chr. auftrat und in Jerusalem hingerichtet wurde. Seine Jünger erkannten gemäß christlicher Vorstellung in ihm nach seiner Kreuzigung und Auferstehung den Sohn Gottes und den vom Judentum erwarteten Messias. In ihren Bekenntnissen nennen sie ihn Jesus Christus. Der Glaube an ihn ist in den Schriften des Neuen Testaments grundgelegt. Die weitaus meisten Christen glauben an einen Gott (Monotheismus) als eine Trinität, das heißt eine Wesenseinheit aus Vater, Sohn und Heiligem Geist. Daneben existieren innerhalb des Christentums kleinere antitrinitarische Gruppierungen.
Die zahlreichen Konfessionen bzw. Kirchen innerhalb des Christentums lassen sich in fünf Hauptgruppen zusammenfassen: die römisch-katholische Kirche, die orthodoxen Kirchen, die protestantischen Kirchen, die anglikanischen Kirchen und die Pfingstbewegung. Mit rund 2,5 Milliarden (2022) Mitgliedern ist das Christentum vor dem Islam (2 Milliarden) und dem Hinduismus (1,2 Milliarden) die weltweit am weitesten verbreitete Religion.
Überblick
Bezeichnung
Der Begriff „Christentum“ (von griech. Χριστιανισμός, Christianismós) wird erstmals in einem Brief des syrischen Bischofs Ignatius von Antiochien im 2. Jahrhundert erwähnt und ist den älteren Begriffen Ἰουδαισμός (Ioudaismós, Judentum) und Ἑλληνισμός (Hellēnismós, Hellenismus) nachgebildet. Nach der Apostelgeschichte wurden die Jünger Jesu Christi zuerst von den Bewohnern der zum Römischen Reich gehörenden syrischen Stadt Antiochia am Orontes Χριστιανόι (Christianói, Christen) genannt, in welche die Christen nach den ersten Verfolgungen in Palästina geflohen waren. Man sah offenbar das Christusbekenntnis der Anhänger Jesu als charakteristisch für ihren Glauben an. Die Christen übernahmen diese Bezeichnung bald auch für sich selbst (vgl. , ). Das deutsche Wort Kristentûm ist erstmals bei Walther von der Vogelweide belegt.
Ursprung
Die Wurzeln des Christentums liegen im Judentum im römisch beherrschten Palästina zu Beginn des 1. Jahrhunderts. Es geht zurück auf die Anhänger des jüdischen Wanderpredigers Jesus von Nazaret. Mit dem Judentum ist das Christentum insbesondere durch den ersten Teil seiner Bibel verbunden, der den jüdischen heiligen Schriften des Tanach entspricht und im Christentum Altes Testament genannt wird. Ohne das Alte Testament wäre der christliche Glaube geschichtslos und bliebe unverständlich. Christen lesen die Texte des Alten Testaments allerdings von Jesus Christus her und auf ihn hin (christologische Interpretation). Das Christentum verbreitete sich in kurzer Zeit im Mittelmeerraum. Dabei übte der Hellenismus erheblichen Einfluss auf das christliche Denken aus.
Selbstverständnis
Der Kern der christlichen Religion rührt nach ihrem Selbstverständnis aus der bedingungslosen Liebe Gottes gegenüber den Menschen und der gesamten Schöpfung. In dieser Liebe, in der sich Gott in der Gestalt des Menschen Jesus von Nazaret offenbart und selbst erschließt, wird die Beziehung Mensch-Welt-Gott geklärt. Sie betrifft alle Daseinsbereiche des Menschen und alle Dimensionen des Menschseins. Die Heilszusage gilt den Menschen aller Nationen, unabhängig von ethnischer Zugehörigkeit, Geschlecht oder gesellschaftlicher Stellung (vgl. ). Das Christentum versteht sich somit als universale Religion und gleichzeitig als der unüberbietbare Ort, an dem sich Gott den Menschen in der Geschichte zugewandt hat und erfahrbar ist. Diesem Verständnis bzw. dem Sendungsauftrag Christi entspricht der missionarische Charakter des Christentums.
Lehre
Jesus ist nach vorherrschendem christlichen Glaubensverständnis zugleich wahrer Gott und wahrer Mensch. Die christliche Lehre, die auf dem biblischen Zeugnis basiert, hat folgenden zentralen Inhalt: Gott wandte sich in der Menschwerdung („Inkarnation“) in seinem Sohn Jesus Christus der in Sünde verstrickten Menschheit zu; der Tod Jesu Christi am Kreuz bewirkte die Erlösung durch Beseitigung von Schuld und Sünde der Menschheit.
Die Glaubensgewissheit lag für die ersten Christen in den Ereignissen zu Ostern begründet, dem dritten Tag nach der Kreuzigung Jesu. Damals – so die Überzeugung der Christen – bewirkte Gott an Jesus als erstem von allen Menschen die Auferstehung bzw. Auferweckung und bestätigte somit die Botschaft Jesu vom kommenden Reich Gottes . Die Anhänger Jesu machten die Erfahrung, dass ihnen der auferstandene Jesus erschien und seine bleibende Gegenwart zusagte . Auf diese Oster- bzw. Auferstehungserfahrung gründet sich die christliche Gemeinschaft (Kirche), die an Pfingsten durch den Heiligen Geist die Befähigung zur Erfüllung des Missionsauftrags erhielt.
Dieser Glaube wurde, zusammen mit der Erinnerung an das Wirken Jesu von Nazaret als dem Verkünder der Botschaft Gottes, in Form von gottesdienstlichen Hymnen sowie Bekenntnisformeln ausgedrückt und in Predigten entfaltet. Kern des Bekenntnisses waren auf Jesus übertragene, zum Teil alttestamentliche Hoheitstitel wie „Herr“, Gesalbter (griech. Christus, hebr. Messias), „Sohn Gottes“ und andere. Schrittweise entstanden die Schriften des Neuen Testaments, die im Laufe der ersten Jahrhunderte – gemeinsam mit der Bibel der Juden – im biblischen Kanon festgehalten sowie bewahrt wurden – als einheitliche Grundlage der christlichen Lehre. In Bezug auf die Anerkennung der weiteren Lehrentwicklung gibt es konfessionelle Unterschiede.
Verbreitung
Das Christentum ist die zahlenmäßig bedeutendste Weltreligion, der schätzungsweise ungefähr ein Drittel aller Menschen auf der Welt angehören. Die meisten staatlichen Statistiken werden auf Selbstbezeichnungen der einzelnen Staatsbürger oder Hochrechnungen zurückzuführen sein, manchmal auch auf amtliche Listen. In vielen Ländern der Erde werden Christen verfolgt, so dass von dort nur ungewisse Zahlen vorliegen.
Oben angeführt sind die Bevölkerungszahlen der UNO von 1998. Zahlen über Religionszugehörigkeit aus Gebet für die Welt, Ausgabe 2003 (siehe unten). Die Daten stammen aus den Jahren 1998–2000. Die Wachstumsraten betreffen das durchschnittliche Wachstum von 1995 bis 2000, beruhen jedoch zum Teil auf einem Wechsel der Datenbasis. Das Christentum wuchs in dieser Zeit in den meisten Erdteilen der Welt, wobei sich sein Wachstum vom „alten“ Kontinent Europa hin zu den „neuen“ Erdteilen verschob; besonders stark wuchs es in Asien und Afrika. Dieses Wachstum verteilt sich gleichermaßen auf die katholische Kirche, evangelikale Gemeinschaften und Kirchen der Pfingstbewegung. Der Anteil der Lutheraner geht somit langsam zurück. In Europa kann man aufgrund des allgemeinen Geburtenrückganges und der Kirchenaustritte bei gleichzeitiger Migration einen Rückgang der Gesamtzahl der Christen verzeichnen.
Zusammenhalt, Organisation und Richtungen
Die gesamte Christenheit wird als Ekklesia angesehen, als Leib Christi mit Christus als Haupt. Jeder einzelne Christ stellt ein Glied dieses mystischen Leibes dar. Manche christlichen Theologen unterscheiden zwischen der „unsichtbaren Kirche“, die alle gläubigen Christen aller Konfessionen umfasst, und der sichtbaren Kirche, deren Mitglieder mehr oder weniger gläubig sein können.
Innerhalb des Christentums entstanden bald mehrere Gruppierungen bzw. Strömungen, manchmal durch politische Motive oder geographische Gegebenheiten, aber auch durch abweichende Lehrmeinungen. Grob lassen sich diese Richtungen nach ihren Merkmalen in Konfessionen und Denominationen einteilen. Zu einer Konfession oder Denomination gehören eine oder mehrere Kirchen oder Gemeinden. Der einzelne Christ ist Mitglied einer bestimmten Kirche oder Gemeinde. Neben den Konfessionen gibt es auch konfessionsübergreifende theologische Richtungen, beispielsweise liberal, evangelikal oder charismatisch.
Viele Kirchen stehen in einer mehr oder weniger lockeren Gemeinschaft mit anderen Kirchen, die in beiderseits anerkannten Lehren begründet ist, ohne deshalb ihre spezifischen Lehren und ihr Brauchtum aufzugeben. Beispiele für solche Gemeinschaften sind der Ökumenische Rat der Kirchen, die Evangelische Allianz und die Leuenberger Konkordie. Daneben gibt es auch Kirchengemeinschaften, die die vollständige gegenseitige Anerkennung von Sakramenten, Kirchenmitgliedschaft und Ämtern beinhalten. Beispiele für solche Kirchengemeinschaften sind die Anglikanische Gemeinschaft, die orthodoxen Kirchen und die evangelischen Unierten Kirchen.
Da man den Christen die Taufe nicht angesehen hatte, wollten sie dennoch untereinander und nach außen hin identifizierbar sein. Da das Vaterunser einfache, für jeden wiederholbare Akte aufgewiesen hatte, erfüllte dieses alle Voraussetzungen für ein verbindendes und nach außen abgrenzendes Merkmal.
Historische Entwicklung
In der antiken Welt gab es fünf christliche Patriarchate, denen jeweils die lokalen Metropoliten, Erzbischöfe und Bischöfe unterstellt waren: Rom, Konstantinopel, Alexandrien, Antiochien und Jerusalem. Sollte über wesentliche Lehrfragen entschieden werden, wurde ein Konzil (eine Versammlung von Bischöfen) einberufen. Das höchste Ansehen genossen die ökumenischen Konzile, in denen Bischöfe aus allen Patriarchaten zusammenkamen. Mehreren Konzilien, die sich selbst als „ökumenisch“ betrachteten, wurde dieser Status wegen mangelnder Zustimmung der Ortskirchen allerdings später aberkannt. Insgesamt gab es von 325 bis 787 sieben ökumenische Konzile, die bis heute von der katholischen, den orthodoxen, den anglikanischen und den meisten evangelischen Kirchen anerkannt werden; einige protestantische Kirchen lehnen allerdings das Zweite Konzil von Nicäa wegen seiner Aussagen über die Bilderverehrung ab.
Nach dem Konzil von Ephesos 431 n. Chr. kam es zu einer ersten Spaltung, nämlich der Abspaltung der Apostolischen Kirche des Ostens („Nestorianer“). Auf dem folgenden ökumenischen Konzil von Chalcedon wurde die Natur Christi als zugleich menschlich und göttlich definiert. Die miaphysitischen Kirchen, zu denen unter anderen die koptische Kirche, die syrisch-orthodoxe Kirche und die armenische apostolische Kirche gehören, betonen die Einigung (Enosis) der menschlichen und der göttlichen Natur Christi und lehnen die Lehre eines „zweifachen Christus“ ab, wie er im Nestorianismus vertreten wird. Die römische Reichskirche rezipierte die gemäßigte Zweinaturenlehre des Chalcedonense, so dass sie Bestandteil der Dogmatik der meisten heute existierenden Konfessionen ist.
In den folgenden Jahrhunderten vertiefte sich in der Reichskirche die Entfremdung zwischen der östlichen und westlichen Tradition bis zum Bruch. Die westliche Tradition entwickelte sich in der Spätantike und im frühen Mittelalter im Weströmischen Reich, während die östliche Tradition in Konstantinopel, Kleinasien, Syrien und Ägypten entstand (Oströmisches/Byzantinisches Reich). Die eigentlich dogmatischen Unterschiede blieben zwar gering, aber die lateinische Kirche hatte in dieser Zeit Lehren entwickelt, die nicht von ökumenischen Konzilien abgesegnet worden waren (z. B. Erbsündenlehre, Fegefeuer, Filioque, päpstlicher Primat des Papstes). Weitere Unterschiede bestanden seit langem bezüglich politischer Umgebung, Sprache und Fragen des Ritus und der Liturgie (Samstagsfasten, Azyma). Die Situation spitzte sich im 11. Jahrhundert zu, so dass es 1054 zu einer gegenseitigen Exkommunikation zwischen dem Papst und dem Patriarchen von Konstantinopel kam. Dieses Datum gilt üblicherweise als Beginn des morgenländischen Schismas.
Die Westkirche erfuhr durch die Reformation des 16. Jahrhunderts eine tiefgreifende Spaltung. Die Anliegen der Reformatoren betrafen vor allem das Kirchen- und Sakramentenverständnis und die Rechtfertigungslehre. Die reformatorische Bewegung führte zu mehreren parallelen Kirchenbildungen, von denen sich im weiteren Verlauf neue Gruppierungen lösten, die in den folgenden Jahrhunderten zum Teil zu Kirchengemeinschaften zusammenfanden.
Nach ersten Ansätzen im 19. Jahrhundert (z. B. Bonner Unionskonferenzen) kam es im 20. Jahrhundert zu einer Annäherung zwischen den Konfessionen und zu Formen des Dialogs und der Zusammenarbeit, die sich unter dem Stichwort ökumenische Bewegung zusammenfassen lassen. So sehen sich heutzutage Kirchen, die die zentralen Elemente der christlichen Lehre bejahen, als Schwesterkirchen, oder sie engagieren sich in ökumenischen Foren, wie beispielsweise dem Weltkirchenrat oder der Arbeitsgemeinschaft Christlicher Kirchen in Deutschland.
Östliche Tradition
Die Patriarchate von Konstantinopel, Alexandrien, Antiochien und Jerusalem und einige seither neu dazugekommene nationale Kirchen, haben bis heute die gleiche Theologie und Spiritualität, die sich kaum verändert hat, und sehen sich als Teil der ursprünglichen, von Christus gegründeten Kirche. Allen ist gemeinsam, dass sie die Liturgie in der jeweiligen Landessprache feiern. Die größte orthodoxe Kirche ist heute die russisch-orthodoxe Kirche. Faktisch hat seit dem Untergang des Weströmischen Reiches der Patriarch von Konstantinopel den Ehrenvorrang unter den orthodoxen Patriarchen inne. Heute haben die orthodoxen Patriarchate oft auch Kirchen im Ausland, die ihnen unterstellt sind. Es gibt signifikante Unterschiede zwischen den orthodoxen und den westlichen Kirchen – dazu gehören z. B. der Stellenwert des Heiligen Geistes im Hinblick auf die Heiligung der Gläubigen und der zu konsekrierenden Materie, die Spiritualität, die Ikonen und die Lehre von der Kirche. Die orthodoxen Kirchen haben ihre historischen Schwerpunkte in Südost- und Osteuropa, im Nahen Osten, in Indien und in Nordostafrika und sind heute als Auswandererkirchen in allen Teilen der Welt zu finden.
Orthodoxe Christen erkennen dem Bischof von Rom einen Ehrenvorrang im Rahmen der Pentarchie zu, sofern darunter nicht ein juristischer Primat verstanden wird. Dazu bedarf es, dass der Papst rechtgläubig im Sinne der Orthodoxie ist und er sich als „primus inter pares“ sieht.
In den orthodoxen Kirchen werden die drei Sakramente der Eingliederung (Taufe, Myronsalbung und Erstkommunion) in einer einzigen Feier gespendet. Der Zölibat ist in den orthodoxen Kirchen wie auch in den mit Rom unierten katholischen Ostkirchen nur für das Bischofsamt, für Ordensleute und geweihte Jungfrauen vorgeschrieben. Die Lehre basiert auf dem Verständnis, dass die Tradition unter der Führung des Heiligen Geistes fortschreiten kann, wobei eine „traditio constitutiva“ (unveränderbar) und eine „traditio divino-apostolica“, zu denen die Adiaphora zählen, zu unterscheiden ist. Die Orthodoxie beschränkt die „traditio constitutiva“ auf die von ihnen anerkannten ökumenischen Konzilien.
Orientalisch-Orthodoxe Kirchen
Innerhalb des östlichen Christentums bilden die Orientalisch-Orthodoxen Kirchen (auch bekannt als altorientalische Kirchen) eine eigene Gruppe. Die Bezeichnung Orientalisch-Orthodoxe Kirchen hat für jene Kirchen Gültigkeit, welche die Beschlüsse des Konzils von Chalcedon (451) nicht angenommen haben. Federführend bezüglich der starken Opposition gegen die Beschlüsse des Konzils von Chalcedon waren vor allem die Kopten und die Syrisch-Orthodoxen Assyrer. Die Armenier und Äthiopier waren hingegen kaum in die Auseinandersetzungen um die chalcedonische Christologie involviert, sondern übernahmen einfach später die Position der Kopten und Syrisch-Orthodoxen Assyrer. Zur Gruppe der Orientalisch-orthodoxen Kirchen zählen heute die folgenden Kirchen:
Koptisch-Orthodoxe Kirche
Syrisch-Orthodoxe Kirche von Antiochien
Äthiopisch-Orthodoxe Tewahedo-Kirche
Eritreisch-Orthodoxe Tewahedo-Kirche
Malankara Orthodox-Syrische Kirche
Armenische Apostolische Kirche
Westliche Tradition
Ab der Spätantike entwickelte sich die Lehre, dass der Bischof von Rom eine Autorität besitzt, die direkt auf den Apostel Petrus zurückgeführt werden kann und die ihn zum Stellvertreter Christi und damit Inhaber des obersten Jurisdiktions-, Lehr- und Hirtenamts in der christlichen Kirche macht.
Um die Mitte des zweiten Jahrtausends forderten Theologen an verschiedenen Orten in Europa (Martin Luther und Ulrich Zwingli im deutschen Sprachraum, Johannes Calvin im französischen, und Thomas Cranmer im englischen) aus Protest gegen Missbräuche Reformen in der katholischen Kirche. Daraus entstand die Trennung der westlichen Kirche in eine römische Tradition, die in der Reformation bei Rom blieb, und eine reformatorische Tradition, die sich von Rom löste.
Die Unfehlbarkeit des Papstes bei ex cathedra verkündeten Glaubensaussagen und dessen Jurisdiktionsprimat über die Gesamtkirche wurden 1870 im Ersten Vatikanischen Konzil mit der dogmatischen Konstitution Pastor Aeternus zu verbindlichen Glaubenssätzen der Römisch-katholischen Kirche erhoben. Nach diesem Konzil trennten sich die Unfehlbarkeitsgegner von Rom bzw. wurden exkommuniziert und bildeten fortan eigene altkatholische Kirchen, die sich in der Utrechter Union der Altkatholischen Kirchen zusammenschlossen. Weil ihre historische Tradition zwischen dem 16. und dem 19. Jahrhundert der römisch-katholischen Kirche parallel lief, sie aber gemäß ihrem Selbstverständnis eine reformorientierte Ausrichtung haben, die sie in Kirchengemeinschaft mit den Anglikanern und in ökumenische Verbundenheit zum Protestantismus gebracht hat, ist ihre Klassifizierung schwierig.
Römisch-katholische Tradition
Der römisch-katholischen Kirche gehören weltweit etwa 1,1 Milliarden Gläubige an. Nach ihrem Verständnis ist die „eine heilige katholische Kirche“ (Nicäno-Konstantinopolitanisches Glaubensbekenntnis) das wandernde „Volk Gottes“, das unter Leitung des Papstes als dem Nachfolger des Apostels Petrus und Stellvertreter Christi auf Erden „unzerstörbare Keimzelle der Einheit, der Hoffnung und des Heils“ ist (vgl. Lumen gentium, Apostolicae curae und Dominus Jesus). Das Zweite Vatikanische Konzil ergänzte das Dogma der päpstlichen Unfehlbarkeit (1870) um die Aussage: „Die Gesamtheit der Gläubigen, welche die Salbung von dem Heiligen haben (vgl. ), kann im Glauben nicht irren.“
Die drei Sakramente der Eingliederung in die katholische Kirche sind die Taufe, die Firmung und der Empfang der Eucharistie.
Die apostolische Sukzession sieht die Kontinuität mit der Urkirche dadurch gewährleistet, dass sie eine Kette von Handauflegungen (Weihe), ausgehend von den Aposteln über viele Bischöfe vergangener Tage bis hin zu den heutigen Bischöfen, annimmt. Nur in apostolischer Sukzession stehende Bischöfe können daher das Weihesakrament gültig spenden.
Römisch-katholische Gottesdienste sind für alle zugänglich; der Empfang der Kommunion ist jedoch nur Katholiken sowie Angehörigen orthodoxer und orientalischer Kirchen erlaubt, sofern diese in rechter Weise disponiert sind. Mitgliedern anderer Kirchen darf in Todesgefahr die Wegzehrung gereicht werden, sofern sie bezüglich dieses Sakraments den katholischen Glauben bekunden. Interkommunion ist untersagt.
Evangelische Tradition
Die evangelischen Kirchen verstehen sich als allein aus der biblischen Schrift heraus begründet (Sola scriptura), während die römisch-katholische Kirche sich durch die Schrift und die Überlieferung begründet sieht. Dennoch erkennen die evangelischen Kirchen die frühen kirchlichen Traditionen an, damit die Beschlüsse ihrer Synoden und Konzile, und die aus ihr stammenden Bekenntnisse (Apostolisches Glaubensbekenntnis und Nizäisches Glaubensbekenntnis). Diese beziehen ihre Autorität jedoch nur aus ihrem Einklang mit dem evangelischen Verständnis der Schrift und nicht aufgrund der Ämter ihrer Autoren.
Die öffentliche Auseinandersetzung Martin Luthers mit der römisch-katholischen Tradition begann – nach einer mehrjährigen theologischen Entwicklung – mit den 95 Thesen; seine Lehre ist in zwei von ihm verfassten Katechismen (Großer und Kleiner Katechismus) und anderen Schriften festgehalten. Luther selbst war Verfechter der Kindstaufe, der Beichte und der Marienverehrung, wandte sich aber entschieden gegen den Zölibat und heiratete 1525 Katharina von Bora.
Der als Augustinermönch ausgebildete Theologe verfasste eine neue, auf Augustinus von Hippo fußende Rechtfertigungslehre, die besagt, dass der „Glaube allein“ (Sola fide) den Menschen „coram Deo“ (vor Gott) gerecht mache und ihn so vor der gerechten Strafe Gottes errette. Basierend auf dieser Rechtfertigungslehre, sowie dem Prinzip der Sola scriptura, erkennen die meisten evangelische Christen als Sakramente nur zwei Handlungen an: die Taufe, bei der Jesus selbst nicht Handelnder gewesen ist, sondern Johannes der Täufer, und das Abendmahl oder Herrenmahl, das Jesus selbst begründete. Für beide Handlungen sind ein Wort und ein Element konstitutiv, die in der biblischen Überlieferung mit dem Gebot Jesu zu deren Durchführung verbunden sind. In der evangelischen Tradition gibt es unterschiedliche Abendmahlsverständnisse, die jedoch von den Mitgliedskirchen der Leuenberger Konkordie für nicht kirchentrennend gehalten werden. Die reformierte Tradition versteht das Abendmahl dabei als rein symbolisches Gedächtnismahl, während in der lutherischen Tradition der Gedanke der Realpräsenz Jesu „in, mit und unter“ den Elementen Brot und Wein betont wird (Konsubstantiation), ohne allerdings deren Wandlung (Transsubstantiation) wie im katholischen Verständnis. Es ist weiterhin möglich, die Beichte abzulegen und Absolution zu empfangen, aber dies sei weder notwendig, noch sei es ein Sakrament. In den taufgesinnten evangelischen Kirchen (nicht jedoch in den deutschen Landeskirchen, die in der Evangelischen Kirche in Deutschland (EKD) vereint sind) wurde die Taufe unmündiger Kinder durch die Gläubigentaufe ersetzt, da diese Kirchen davon ausgehen, dass ein persönlicher Glaube des Täuflings eine neutestamentliche Voraussetzung für den Empfang der Taufe (sola fide) sei. Die vielfältigen evangelischen Konfessionen sind institutionell autonom und haben keine offizielle gemeinsame Lehre, die über die Schrift hinausgeht, und kein gemeinsames Oberhaupt außer Christus.
Die gemeinsamen Grundgedanken der evangelischen Kirchen lassen sich durch die „vier Soli“ zusammenfassen:
„sola fide“: Allein der Glaube rechtfertigt vor Gott.
„sola gratia“: Allein die Gnade Gottes bringt Erlösung.
„sola scriptura“: Allein die Bibel ist Regel und Richtschnur des Glaubens („regula fidei“).
„solus Christus“: Allein die Person, das Wirken und die Lehre Jesu ist Grundlage des Glaubens.
Ein besonderer Fall ist die anglikanische Kirche, die an der apostolischen Sukzession, an vielen katholischen Bräuchen in der Liturgie und an der Realpräsenz Christi in den eucharistischen Gaben festhält.
Bezüglich des Verhältnisses von Tradition und Bibel gibt es alle Zwischenstufen von der Anglikanischen Kirche bis zu den calvinistisch-reformierten Kirchen, die jede Kirchentradition außerhalb der Bibel ablehnen.
Über Lehre und Praxis wird in den meisten Konfessionen durch Synoden oder Konferenzen auf internationaler Ebene entschieden, in anderen Konfessionen auf der Ebene der lokalen Kirche.
Heute sind die Unterschiede zwischen liberalen und konservativen Flügeln innerhalb einer Konfession oft größer als die Unterschiede zwischen einzelnen Liberalen bzw. zwischen einzelnen Konservativen aus verschiedenen Konfessionen.
Während die evangelischen Konfessionen früher sehr stark die Unterschiede betonten, gibt es heute einige Ansätze zur Annäherung: Viele evangelische Konfessionen in Europa haben sich in der Leuenberger Konkordie zusammengeschlossen, evangelikale Konfessionen arbeiten in der evangelischen Allianz zusammen. In einigen Fällen ist es sogar zu Wiedervereinigungen gekommen (United Church of Canada aus Lutheranern, Methodisten und Presbyterianern; Uniting Church of Australia aus Presbyterianern, Kongregationalisten und Methodisten; United Church of Christ aus sieben Konfessionen). Mit dem Weltkirchenrat gibt es auch ein Gremium der ökumenischen Zusammenarbeit, das nicht nur auf den Dialog zwischen den verschiedenen evangelischen Kirchen beschränkt ist, sondern in dem auch die altkatholischen, orthodoxen und altorientalischen Kirchen vertreten sind.
Tradition evangelischer Freikirchen
Die 1525 in Zürich entstandene radikal-reformatorische Täuferbewegung wird von vielen Freikirchen zu ihrer Vorgeschichte gerechnet. Die Mennoniten (Taufgesinnte) und Hutterer stehen in direktem historischen Zusammenhang damit. Ebenfalls in der Reformationszeit verwurzelt sind die Schwenkfeldianer und die Unitarier. Die erste Baptistengemeinde wurde 1609 in unter englischen Puritanern und unter Einfluss niederländischer Mennoniten in Amsterdam gegründet. Im 18. Jahrhundert folgte in England die Gründung der Methodisten. Im Pietismus entstanden im deutschsprachigen Raum weitere Kirchen wie die Schwarzenau Brethren und die Herrnhuter, die zum Teil auf die früheren Böhmischen Brüder zurückgehen. Im 19. Jahrhundert folgte schließlich die Bildung der Heilsarmee, der Freien evangelischen Gemeinden und der Siebenten-Tags-Adventisten. Anfang des 20. Jahrhunderts entwickelte sich dann von Nordamerika aus die Pfingstbewegung.
Die meisten dieser Bewegungen verstehen sich als taufgesinnt und sind der Überzeugung, dass die Wassertaufe ein Ausdruck der bereits zuvor erlebten Neugeburt eines Menschen sein soll. Die Täuferbewegung wurde jahrhundertelang verfolgt. Auch die später entstandenen Freikirchen erfuhren Verfolgung und Diskriminierung. Sie waren getrennt von der jeweiligen Staats- oder Landeskirche und somit „Freikirchen“, die für die Trennung von Kirche und Staat eintraten. Diese verschiedenen freikirchlichen Zweige zeigen heute weltweit in Bezug auf Mitgliederzahlen ein starkes Wachstum.
In Deutschland arbeiten viele evangelische Freikirchen in der Vereinigung Evangelischer Freikirchen zusammen, in der Schweiz im Verband Evangelischer Freikirchen und Gemeinden in der Schweiz. In Österreich kam es zu einem Zusammenschluss mehrerer Bünde (Pfingstler, Evangelikale, Baptisten, Mennoniten) zu den Freikirchen in Österreich; dieser Zusammenschluss ist dort eine rechtlich anerkannte Kirche.
Andere Konfessionen
Apostolische Gemeinschaften
Als apostolische Gemeinschaften werden christliche Gemeinschaften bezeichnet, deren Ursprünge in den Erweckungsbewegungen zwischen 1820 und 1830 sowie in der daraus hervorgegangenen katholisch-apostolischen Gemeinschaft liegen. Hauptanliegen dieser Erweckungsbewegungen war eine Wiederbesetzung des Apostelamtes. Vor allem in den Anfangsjahren wurden die Lehre und Praxis der apostolischen Gemeinschaften sowohl vom Protestantismus als auch vom Katholizismus beeinflusst und geprägt. Es entwickelten sich – neben der Lehre vom Apostelamt – weitere exklusive Lehrvorstellungen, beispielsweise im Bereich der Eschatologie und des Entschlafenenwesens. Eine theologische Besonderheit aller dieser Gemeinschaften stellt auch das Sakrament der Heiligen Versiegelung dar, das laut Lehrmeinung notwendig sei, um vollständiges Heil zu erlangen (wobei sich die Aussagen hierüber unterscheiden).
Heute zählen zu den bedeutendsten Vertretern die Neuapostolische Kirche (NAK) und die Vereinigung Apostolischer Gemeinden (VAG), deren Gemeinden hauptsächlich als Abspaltungen von der NAK entstanden. Außerdem existieren das Apostelamt Jesu Christi, das Apostelamt Juda und die Old Apostolic Church. Einige der Gemeinschaften beteiligen sich an der Ökumenischen Bewegung und sind trotz theologischer Vorbehalte in die Arbeitsgemeinschaften Christlicher Kirchen aufgenommen worden.
Neureligiöse Gemeinschaften
Verschiedene andere Konfessionen sehen sich weder in der orthodoxen, katholischen noch in der evangelischen Tradition. Gruppen, die sich selbst so einordnen, sind beispielsweise die Quäker, die Kirche Jesu Christi der Heiligen der Letzten Tage und andere Gemeinschaften der Mormonen, Die Christengemeinschaft, die Vereinigungskirche, die Ernsten Bibelforscher, die Freien Bibelgemeinden und die Zeugen Jehovas. Viele dieser neureligiösen Gemeinschaften haben von den oben skizzierten Konfessionen abweichende Auslegungen. Beispielsweise haben sie Ansichten über die Trinität, die nicht mit den ökumenischen Konzilen übereinstimmen, oder gleichwertige Schriften neben der Bibel oder bestimmte sogenannte „Sonderlehren“, die sich bei den anderen Konfessionen bzw. in der Bibel in dieser Form nicht finden oder ihnen sogar offen widersprechen. Wegen dieser Abweichungen ist es umstritten, ob jene oft auch als „(christliche bzw. religiöse) Sondergruppen oder -gemeinschaften“ oder „Sekten“ bezeichneten Gruppen überhaupt zu den christlichen Konfessionen gezählt werden können. Einige der besagten Gruppen haben die (allerdings unterschiedlich stark ausgeprägte) Tendenz, ihre eigene Sicht des Christentums als „absolut“ zu setzen. Der Begriff Unitarier umfasst heute sowohl antitrinitarisch-christliche Gruppen (Unitarier im traditionellen Sinne) als auch Vertreter einer pantheistisch-humanistisch ausgerichteten Religion, in der Christus keine zentrale Rolle mehr spielt.
Geschichte
Lehre
Für die christliche Lehre sind die Menschwerdung Gottes, der Kreuzestod und die Auferstehung Jesu Christi zentral. Die Mehrheit der Christen glaubt, dass diese Ereignisse die Basis von Gottes Werk bilden, das die Menschheit mit ihm aussöhnt; sein Tod am Kreuz wird als Erlösungstat verstanden. Die Menschwerdung und der freiwillige Opfertod gelten als Ausdruck äußerster Liebe Gottes zur verlorenen Menschheit. Entsprechend zentral für das christliche Handeln ist die Liebe (griechisch Αγάπη; lateinisch caritas) zu Gott (Gottesliebe) und zum Mitmenschen (Nächstenliebe).
Der großen Mehrheit der verschiedenen Konfessionen sind folgende Glaubensaussagen gemeinsam:
Es ist nur ein einziger Gott, und Gott ist dreieinig – ein einziges ewiges Wesen, das sich in drei „Personen“ offenbart: Vater (Schöpfer), Sohn (Mittler, Erlöser) und Heiliger Geist (Kraft, „Tröster“ = Beistand, Vollender).
Jesus Christus ist der Sohn Gottes und der verheißene Messias.
Jesus Christus ist zugleich wahrer Gott und wahrer Mensch (Zwei-Naturen-Lehre).
Jesus Christus hat das kommende Gottesreich verkündet, das mit seinem Auftreten begonnen hat.
Richtschnur für das Leben als Christ ist die Einheit von Gottes- und Nächstenliebe einschließlich der Feindesliebe.
Jesus konnte nicht sündigen. Durch sein Opfer am Kreuz ist allen Menschen ihre Schuld der Erbsünde vergeben, die ihnen seit ihrer Geburt anhaftet, und sie sind durch das Blut Christi mit Gott versöhnt, sofern sie dies annehmen.
Täuflinge werden mit Wasser und nach der trinitarischen Taufformel getauft. Durch den Glauben werden sie vom Tod in ein ewiges Leben auferweckt, sofern sie an dieses Erlösungswerk Gottes für sich glauben.
Menschen empfangen durch den Glauben an Christus den Heiligen Geist, der Hoffnung bringt und sie bzw. die Kirche in Gottes Wahrheit und gemäß Gottes Absichten führt.
Der auferstandene Jesus sitzt zur Rechten Gottes. Er wird wiederkehren, um die Gläubigen in die ewige Anschauung Gottes zu führen. Bis zu dieser Wiederkehr hat die Kirche den Auftrag, allen Menschen und Völkern die frohe Botschaft zu verkünden.
Die Bibel ist als Wort Gottes von Gott inspiriert. In ihr ist die Botschaft über Jesus und Gott sowie die Richtschnur für das gottesbewusste Verhalten der Menschen niedergelegt.
Maria, die Mutter Jesu, gebar den Sohn Gottes, der durch das Wirken des Heiligen Geistes gezeugt wurde.
Ursprung und Einflüsse
Die ersten Christen waren Juden, die zum Glauben an Jesus Christus fanden. In ihm erkannten sie den bereits durch die biblische Prophetie verheißenen Messias (hebräisch: maschiach, griechisch: Christos, latinisiert Christus), auf dessen Kommen die Juden bis heute warten. Die Urchristen übernahmen aus der jüdischen Tradition sämtliche heiligen Schriften (den Tanach), wie auch den Glauben an einen Messias oder Christus (christos: Gesalbter). Von den Juden übernommen wurden die Art der Gottesverehrung, das Gebet der Psalmen u. v. a. m. Eine weitere Gemeinsamkeit mit dem Judentum besteht in der Anbetung desselben Schöpfergottes. Jedoch sehen fast alle Christen Gott als einen dreieinigen Gott an: den Vater, den Sohn (Christus) und den Heiligen Geist. Darüber, wie der dreieinige Gott konkret gedacht werden kann, gibt es unter den christlichen Konfessionen und Gruppierungen unterschiedliche Auffassungen bis hin zur Ablehnung der Dreieinigkeit Gottes (Antitrinitarier). Der Glaube an Jesus Christus führte zu Spannungen und schließlich zur Trennung zwischen Juden, die diesen Glauben annahmen, und Juden, die dies nicht taten, da diese es unter anderem ablehnten, einen Menschen anzubeten, denn sie sahen in Jesus Christus nicht den verheißenen Messias und erst recht nicht den Sohn Gottes. Die heutige Zeitrechnung wird vom traditionellen Geburtsjahr Christi aus gezählt. Anno Domini (A. D.) bedeutet „im Jahr des Herrn“.
Heilige Schrift und weitere Quellen
Die zentrale Quelle für Inhalt und Wesen des christlichen Glaubens ist die Bibel, wobei Stellenwert und Auslegung variieren. Sie besteht aus zwei Teilen, dem Alten und dem Neuen Testament. Das Alte Testament entspricht inhaltlich bis auf Details dem jüdischen Tanach und wurde von Jesus und den Urchristen ebenso wie von den Juden als Heilige Schrift gesehen. Das Neue Testament enthält Berichte vom Leben Jesu (Evangelien), der frühen Kirche (Apostelgeschichte für die Jahre 30 bis etwa 62), Briefe der Apostel, sowie die Offenbarung des Johannes. Die Begriffe „Alt“ und „Neu“ für die Testamente bezeichnen den Tatbestand, dass es aus Sicht der Christen einen alten und einem neuen Bund zwischen Gott und den Menschen gibt. Das Alte Testament ist ursprünglich auf Hebräisch verfasst und wurde später (allerdings noch in vorchristlicher Zeit) unter der Bezeichnung Septuaginta ins Altgriechische übersetzt. Das Neue Testament ist hingegen in einer speziellen Variante des Altgriechischen, der Koine, verfasst. Später wurden beide Testamente ins Lateinische übersetzt (Vetus Latina, Vulgata), dem folgten sehr viel später verschiedene, teilweise konfessionsgebundene, Übersetzungen (aus dem Urtext) in die jeweiligen Volks- und/oder Landessprachen (etwa Lutherbibel, Zürcher Bibel, Einheitsübersetzung, King-James-Bibel).
Der Umfang des Alten Testaments wird von den Konfessionen unterschiedlich bestimmt, da die griechische Überlieferung der Septuaginta auch mehrere Texte enthält, die in der hebräischen Überlieferung nicht enthalten sind. Die Teile, die nur in der Septuaginta stehen, werden als deuterokanonische bzw. apokryphe Schriften bezeichnet. (Siehe auch Kanon des Alten Testaments.)
Über den Inhalt des Neuen Testaments besteht bei allen großen Konfessionen ein Konsens, der sich im Laufe der ersten vier Jahrhunderten entwickelt hat. (Siehe auch Kanon des Neuen Testaments.)
Durch zahlreiche Funde von Kodizes und Papyri in den letzten zwei Jahrhunderten kann der ursprüngliche Text des Neuen Testaments heute mit großer Genauigkeit wissenschaftlich rekonstruiert werden. Damit befasst sich die Textgeschichte des Neuen Testaments. Wie sich dieser rekonstruierte Text am besten in die Sprachen der Gegenwart übersetzen lässt, wird intensiv diskutiert (siehe Bibelübersetzung).
Auch in Bezug auf Exegese (Auslegung) der biblischen Texte und ihrer praktischen Anwendung auf das tägliche Leben (Ethik) gibt es eine große Bandbreite von Meinungen.
Bei den meisten Konfessionen beeinflussen neben der Bibel auch andere Texte wie Glaubensbekenntnisse, Katechismus, Tradition, Liturgie und christliche Vorbilder wie Heilige die Ausformung der kirchlichen und persönlichen Praxis.
Beziehung zu anderen Weltanschauungen
Das Christentum hat andere Religionen beeinflusst, deren Anhänger sich zwar nicht als Christen sehen, aber Jesus als Propheten Gottes anerkennen. Im Koran erscheint Jesus als Isa ibn Maryam, das heißt als Sohn Marias, seine Gottessohnschaft wird indessen bestritten. Scharf zurückgewiesen werden im Koran jede Anbetung Jesu sowie nach Sure 112 die Dreieinigkeit. Andererseits trägt Jesus im Koran positive Titel wie Messias, Wort Gottes und auch Geist Gottes; ebenso gehört er zu den Propheten des Islam. Die Kreuzigung Christi wird in Sure 4, Vers 157 und entsprechend in der islamischen Koranexegese verneint:
Dem Christentum wird generell unter Nichtchristen Positives wie Negatives zugesprochen. Positiv wird meist die Lehre der Nächstenliebe gesehen. Auch setzen sich weltweit viele Christen für den Frieden und für barmherzige Konzepte gegen die Armut ein. Negativ wird die Geschichte des Christentums mit Kreuzzügen, Hexenverfolgungen, Inquisition und Antijudaismus gesehen. Die Positionen zu ethischen Reizthemen wie künstlicher Empfängnisverhütung, Homosexualität und Schwangerschaftsabbruch sind auch innerchristlich umstritten.
Der spätere König von Thailand Mongkut hatte um 1825 herum als buddhistischer Abt intensiven Kontakt mit dem katholischen Bischof Jean-Baptiste Pallegoix. Er kommentierte: „Was Ihr die Menschen zu tun lehrt, ist bewundernswert. Aber was Ihr sie zu glauben lehrt, ist töricht.“
Es ist ein Anliegen vieler christlicher Kirchen, sich untereinander zu versöhnen und eine gemeinsame Basis zu schaffen (Ökumene). Außerdem führen einige das Gespräch mit anderen Religionen (interreligiöser Dialog). Ziel ist ein friedliches Zusammenleben der Religionsgemeinschaften.
In den ersten nachchristlichen Jahrhunderten kam es zu teils heftigen Christenverfolgungen im Römischen Reich. Auch heute, gerade in kommunistischen und islamischen Ländern, findet eine starke Christenverfolgung statt.
Dem Christentum wird teilweise der Vorwurf gemacht, eine Mitschuld an der Judenverfolgung gehabt zu haben, da z. B. im Mittelalter Juden verfolgt wurden, weil man ihnen die Schuld am Kreuzestod Jesu gab. Ursache für diese Verfolgung war die Vermischung der historischen und der theologischen Schuldfrage, die dazu führte, dass gegenwärtig lebende Juden für die (historische) Schuld am Tod Jesu haftbar gemacht wurden und beispielsweise als „Gottesmörder“ bezeichnet wurden. Die heutige theologische Forschung unterscheidet zwischen der Frage nach der historischen Schuld für einen Justizmord, die gleichberechtigt für Jesus ebenso wie für jeden anderen Justizmord der Weltgeschichte gestellt werden kann und muss, und der theologischen Frage nach der Bedeutung des Todes Jesu Christi für jeden Einzelnen. Die historische Frage nach der Schuld am Tode Jesu wird heute relativ einhellig so beantwortet, dass hier die römische Besatzungsmacht die Verantwortung trug, da die jüdischen Autoritäten gar keine Befugnis zur Hinrichtung von Menschen hatten. Die theologische Frage wird im christlichen Glaubensverständnis so beantwortet, dass ein jeder Sünder selber die Schuld am Kreuzestod Jesu trägt.
Kultureller Einfluss des Christentums
In der Geschichte des Abendlandes haben sich Glaube, Kultur und Kunst wechselseitig beeinflusst. Eine entscheidende Station war beispielsweise der Bilderstreit im frühen Mittelalter. Im Abendland beschäftigte sich Kunst oft mit christlichen Themen, obwohl seit der Renaissance stärker auch Rückgriff auf nichtchristliche Motive aus der Antike genommen wurde.
Musik gehört von jeher zur liturgischen Ausdrucksform des christlichen Glaubens. Große Bedeutung hatte der einstimmige unbegleitete cantus choralis sive ecclesiasticus, der ab dem 9. Jahrhundert als cantus gregorianus (gregorianischer Gesang) bezeichnet wird. In allen Epochen der Musikgeschichte schufen die bedeutendsten Musiker ihrer Zeit Werke auch für die Kirchenmusik, so beispielsweise Georg Friedrich Händel, Wolfgang Amadeus Mozart, Felix Mendelssohn Bartholdy; an herausragender Stelle aber vor allem Johann Sebastian Bach. Dichter wie Martin Luther oder Paul Gerhardt schufen im deutschsprachigen Raum Texte von hohem Rang und beeinflussten die weitere Entwicklung der Kirchenmusik maßgeblich. Der Einfluss des christlichen Glaubens ist dabei nicht auf die so genannte klassische oder E-Musik beschränkt: So greift beispielsweise die Gospelmusik vor allem im amerikanischen Kulturraum unterschiedliche Stilrichtungen des 20. Jahrhunderts auf und entwickelt diese weiter.
Auch im Bereich der Sprache und Schulbildung hat das Christentum in vielen Ländern maßgeblich gewirkt. Im deutschsprachigen Raum hatte Martin Luther durch seine Bibelübersetzung prägenden Einfluss auf die Entwicklung und Verbreitung der hochdeutschen Sprache. Die Bibel als meistübersetztes Buch der Weltliteratur machte es insbesondere in kleineren Sprachräumen z. T. überhaupt erst einmal erforderlich, eine Schriftsprache zu entwickeln, wodurch kleinere Sprachen häufig in ihrem Wert und ihrer Identität gestärkt wurden.
Naturbeobachtung, Arbeit und Technik spielten bei den westlichen Mönchen eine wichtige Rolle, sie gehörten zum geregelten Tagesablauf im Kloster, dem Ora et labora (deutsch: bete und arbeite). So erfand Gregor von Tours (538–594) die Wassermühle, Wilhelm von Auvergne (1228–1249) die mechanische Uhr und erfanden Mönche in Pisa oder Lucca 1280 die Brillengläser. Im sechzehnten Jahrhundert förderten die Reformatoren durch verständliche Bibelübersetzungen in die Volkssprachen auch eine vermehrte Einrichtung von öffentlichen Schulen und das Lesen der Bibel in der Familie, was zu einem größeren Engagement und Verantwortungsbewusstsein in Beruf und Gesellschaft führte. Die meisten der frühen Naturwissenschaftler waren Christen, weil sie von einem vernünftigen, gesetzmäßig aufgebauten Kosmos überzeugt waren, der entdeckt, erforscht und beschrieben werden konnte. Um 1830 entwickelten der Presbyterianer Cyrus McCormick und der Quäker Obed Hussey erste Mähmaschinen, um den Bauern in den USA die harte Erntearbeit zu erleichtern und die Erträge zu erhöhen.
Wurde der christlichen Mission früher teilweise der Vorwurf gemacht, zugleich mit dem christlichen Glauben auch die Kultur des Abendlandes (z. B. in Form von Kleiderordnungen) zu exportieren, ist das Selbstverständnis von Mission heute eher auf Inkulturation ausgerichtet. Zu den wesentlichen kulturellen Einflüssen des Christentums ist zudem die Etablierung der christlichen Zeitrechnung im Abendland zu zählen.
Siehe auch
Christianisierung
Christliche Erziehung
Christliche Literatur
Zeittafel Geschichte des Christentums
Liste christlicher Konfessionen
Liste religiöser Amts- und Funktionsbezeichnungen
Literatur
Einführungen
Micha Brumlik: Entstehung des Christentums. Verlagshaus Jacoby & Stuart, Berlin 2010, ISBN 978-3-941787-14-8.
David Bentley Hart: Die Geschichte des Christentums: Glaube, Kirche, Tradition. National Geographic, 2010, ISBN 978-3-86690-189-6 (Übersetzung: Ute Mareik).
Hans-Peter Hasenfratz: Das Christentum – eine kleine Problemgeschichte. Theologischer Verlag, Zürich 1992, ISBN 3-290-10151-7.
Werner Heinz: Der Aufstieg des Christentums. Geschichte und Archäologie einer Weltreligion. Konrad-Theiss-Verlag, Stuttgart 2005, ISBN 3-8062-1934-6.
Klaus Koschorke, Johannes Meier u. a.: Christentum. In: Religion in Geschichte und Gegenwart. 4. Aufl. Bd. 2, 1999, Sp. 183–246, ISBN 3-16-146942-9.
Hans Küng: Das Christentum. Wesen und Geschichte. Piper, München 1995, ISBN 3-492-03747-X.
Joseph Ratzinger: Einführung in das Christentum – Vorlesungen über das apostolische Glaubensbekenntnis. dtv, München 1971, ISBN 3-423-04094-7.
Geschichte (umfangreiche Darstellungen)
Cambridge History of Christianity. Mehrere Hrsg. 9 Bände. Cambridge 2005ff. (Gesamtdarstellung, die den neueren Forschungsstand miteinbezieht.)
Die Geschichte des Christentums. Religion Politik Kultur. Herausgegeben von Jean-Marie Mayeur, Charles und Luce Pietri, André Vaucher, Marc Venard. Deutsche Ausgabe herausgegeben von Norbert Brox, Odilo Engels, Georg Kretschmar, Kurt Meier, Heribert Smolinsky, 14 Bde., Verlag Herder, Freiburg i. Br. 1991ff. (Aktuelle Gesamtdarstellung: Besprechung)
Handbuch der Kirchengeschichte. Hrsg.: Hubert Jedin u. a., 7 Bde., Freiburg 1962–1979, ISBN 3-451-20454-1 (Standardwerk zur Geschichte des Christentums aus dem Blickwinkel der katholischen Kirche und teils überholt.)
Lexika
Siehe vor allem: Theologische Realenzyklopädie, Religion in Geschichte und Gegenwart [4. Aufl.], Lexikon für Theologie und Kirche [3. Aufl.] und Biographisch-Bibliographisches Kirchenlexikon.
Metzler Lexikon christlicher Denker: 700 Autorinnen und Autoren von den Anfängen des Christentums bis zur Gegenwart. Hrsg.: Markus Vinzent. Metzler, Stuttgart u. a. 2000
Philosophische Deutungen
Ludwig Feuerbach: Das Wesen des Christentums. Otto Wiegand, Leipzig 1841.
René Girard: Ich sah den Satan vom Himmel fallen wie einen Blitz. Eine kritische Apologie des Christentums. Hanser, München 2002.
Georg Wilhelm Friedrich Hegel: Frühe Schriften. Werke in zwanzig Bänden, Band 1. Suhrkamp, Frankfurt am Main 1971.
Michel Henry: Inkarnation: Eine Philosophie des Fleisches. 2. Aufl. Alber, Freiburg 2004.
Jean-Luc Nancy: Dekonstruktion des Christentums. Diaphanes, Zürich / Berlin 2008.
Slavoj Žižek: Das Reale des Christentums. Suhrkamp, Frankfurt am Main 2006, ISBN 3-518-06860-1.
Sonstige Literatur
Bruce Bawer: Stealing Jesus: How Fundamentalism Betrays Christianity. Three Rivers Press, New York 1997, ISBN 0-609-80222-4 (Kritik an fundamental-dogmatischen Tendenzen.)
Karl-Heinrich Ostmeyer: Das Vaterunser. Gründe für seine Durchsetzung als ‚Urgebet’ der Christenheit; New Testament Studies 50, 2004, S. 320–336.
Weblinks
Christentum-Dossier – Weltreligionen bei wdr.de
Anmerkungen
Abrahamitische Religion
Weltreligion
Offenbarungsreligion
Universalismus (Religionswissenschaft)
Jesus als Namensgeber
|
Q5043
| 4,548.91041 |
103347
|
https://de.wikipedia.org/wiki/Menschenhandel
|
Menschenhandel
|
Menschenhandel bedeutet, sich einer anderen Person unter Ausnutzung ihrer persönlichen oder wirtschaftlichen Zwangslage oder Hilflosigkeit zu bemächtigen, um sie zu bestimmten Zwecken auszubeuten, etwa zur Zwangsprostitution oder zu anderen erzwungenen Tätigkeiten.
Bis in die zweite Hälfte des 19. Jahrhunderts bezeichnete der Begriff den Handel mit Sklaven. Mit Abschaffung der Sklaverei, gesellschaftlichen Modernisierungsprozessen infolge der Urbanisierung und vor allem mit der Entwicklung der Dampfschifffahrt breitete sich ab dieser Zeit der schon immer in verschiedensten Formen bestehende Frauenhandel international und interkontinental aus. Anfangs noch als Begleiterscheinung der Prostitution betrachtet, wurden ab Anfang des 19. Jahrhunderts mehrere internationale Abkommen dagegen verabschiedet, die neben Frauen- und Mädchenhandel teilweise bereits den Begriff des Menschenhandels thematisierten. Mit Beginn des 21. Jahrhunderts folgten weitere Abkommen, in denen der Begriff expliziter hervorgehoben wurde.
Obwohl das Phänomen anfangs synonym als „weiße“ und später als „moderne Sklaverei“ (vor allem vom US-amerikanischen Soziologen Kevin Bales) bezeichnet wurde, grenzte die EU-Grundrechte-Charta aus dem Jahr 2000 Sklaverei zusammen mit Leibeigenschaft sowie illegaler Zwangs- und Pflichtarbeit explizit vom Menschenhandel ab. Da der Internationale Strafgerichtshof für das ehemalige Jugoslawien bereits zwei Jahre später alle vier Begriffe als Weiterentwicklung des traditionellen Sklaverei-Konzepts bezeichnete, können die Übergänge zwischen den Begriffen als fließend betrachtet werden. Menschenhandel ist von Menschenschmuggel zu unterscheiden, da es sich bei Menschenschmuggel lediglich um die Unterstützung bei der Überschreitung von Grenzen handelt.
Menschenhandel gehört inzwischen zu den Erscheinungsformen der organisierten Kriminalität. Es handelt sich um ein globales Phänomen im Spannungsfeld zwischen strafrechtlicher Verbrechensbekämpfung, Migrationspolitik und Menschenrechtsverletzung.
Verlässliche Zahlen zum Ausmaß des nationalen und internationalen Menschenhandels gibt es wegen der vielfältigen Erscheinungsformen, unterschiedlicher Erhebungsmethoden und eines großen Dunkelfelds nicht. Ein UN-Bericht von 2014 dokumentiert weltweit 40.177 Beispiele aus 152 Ländern. Danach ist ein Drittel der Opfer von Menschenhandel minderjährig. Die Opfer stammen vor allem aus Afrika, Süd- und Ostasien sowie Osteuropa und werden nach Westeuropa, Nordamerika und auf die Arabische Halbinsel geschleust, 70 % Prozent der Opfer sind Frauen, die wenigsten Täter werden verurteilt.
Die Internationale Arbeitsorganisation (ILO) schätzt für das Jahr 2012 die Anzahl der Menschen in Zwangsarbeit auf weltweit über 20 Millionen.
Internationale Übereinkommen
Vereinte Nationen
Konvention zur Unterbindung des Menschenhandels (1949)
Menschenhandel wurde zunächst als Begleiterscheinung der Prostitution in der internationalen Sozial- und Kriminalpolitik thematisiert.
Zwischen 1904 und 1933 wurden insgesamt vier internationale Abkommen gegen den Mädchenhandel verabschiedet. Keines dieser Abkommen lieferte eine präzise Definition dessen, was als Frauenhandel gelten sollte, wobei sie sich alle mit mehr oder weniger erzwungenen Formen der transnationalen Mobilität von Frauen und Mädchen zum Zwecke der mehr oder weniger freiwilligen sexuellen Arbeit befassten.
Während die ersten beiden Abkommen noch den Begriff der „weißen Sklaverei“ (White Slave Traffic) enthielten, wurde mit der Übernahme des Themenkomplexes durch den Völkerbund und im Kontext der Verabschiedung einer weiteren Konvention im Jahre 1921 das neutralere Konzept des Frauen- und Kinderhandels übernommen. 1933 wurde eine weitere Konvention verabschiedet, die sich erstmals mit erzwungener Prostitution und dem Handel mit volljährigen Frauen befasste. Unter Frauenhandel sei die transnationale Vermittlung und Verbringung von Frauen zu verstehen, „um der Unzucht eines anderen Vorschub zu leisten, zu unsittlichem Zwecke“ (gratify the passions of another).
1949 verabschiedete die Generalversammlung der Vereinten Nationen die Konvention zur Unterbindung des Menschenhandels und der Ausnutzung der Prostitution anderer. Diese kann auf die zunehmend transnationalen Bemühungen der sogenannten abolitionistischen Bewegung gegen staatlich reglementierte Prostitution einerseits und auf die internationalen Verrechtlichungsprozesse im Kontext der Bekämpfung des Frauen- und Mädchenhandels seit Ende des 19. Jahrhunderts andererseits zurückgeführt werden. Die Konvention von 1949 sollte die bis dahin verabschiedeten Abkommen zusammenfassen und nicht nur die polizeilichen Aspekte berücksichtigen, sondern auch der in der Nachkriegszeit verbreiteten Auffassung von Prostitution als sozialem Problem Rechnung tragen. Sie kriminalisierte Drittparteien wie Zuhälter, Kupplerinnen und Menschenhändler, verbot eine Diskriminierung von Prostituierten durch staatliche Lizenzierungs- und Überwachungssysteme und sah neben Präventionsprogrammen auch Maßnahmen zur sozialen Rehabilitierung bei Aufgabe der Prostitution vor.
Die UN-Menschenrechtskommission gründete 1974 die Arbeitsgruppe über Sklaverei. Die UN-Konvention zur Beseitigung jeder Form von Diskriminierung der Frau (CEDAW) von 1979 enthält unter anderem die Abschaffung jeder Form des Frauenhandels und der Ausbeutung der Prostitution von Frauen. Damit einher geht seit den 1970er Jahren ein zunehmendes Engagement von Selbsthilfeorganisationen, etwa des International Committee for Prostitutes Rights (ICPR) für eine Entkriminalisierung der Prostitution und Anerkennung als eine anderen Tätigkeiten sozial und rechtlich gleichwertige Erwerbsarbeit.
Zusatzprotokoll „Menschenhandel“ zur Palermo-Konvention (2000)
Das Übereinkommen gegen die grenzüberschreitende organisierte Kriminalität vom 15. November 2000 (United Nations Convention against Transnational Organized Crime and the Protocols Thereto – UNTOC, „Palermo-Konvention“) dient der internationalen Zusammenarbeit, um die grenzüberschreitende organisierte Kriminalität wirksamer zu verhüten und zu bekämpfen.
In der Anlage II wurde ergänzend das Protokoll zur Verhütung, Bekämpfung und Bestrafung des Menschenhandels, insbesondere des Frauen- und Kinderhandels mit verabschiedet. Es erhebt den Anspruch, das einzige allgemein gültige Übereinkommen zu sein, das neben der sexuellen Ausbeutung auch alle weiteren Aspekte des Menschenhandels erfasst wie Arbeitsausbeutung, illegale Organentnahme, Leibeigenschaft oder sklavereiähnliche Praktiken. Es widmet Frauen und Kindern als den Hauptbetroffenen des Menschenhandels besondere Aufmerksamkeit. Die vom Zusatzprotokoll explizit genannten Tathandlungen sind die Anwerbung, Beförderung, Beherbergung und Empfang von Personen. Tatmittel sind Androhung oder Anwendung von Gewalt, diverse Formen der Nötigung (z. B. Entführung), arglistige Täuschung, Betrug (Deutschland), Missbrauch von Macht, Einfluss oder Druckmitteln, Ausnutzung eines Abhängigkeitsverhältnisses und/oder Bestechung des Gewaltinhabers.
Das Übereinkommen enthält Maßnahmen zur Verhütung und Bekämpfung des Menschenhandels, insbesondere des Frauen- und Kinderhandels, ein umfassendes internationales Vorgehen in den Herkunfts-, Transit- und Zielländern, Maßnahmen zur Verhütung dieses Handels sowie zur Bestrafung der Händler und zum Schutz der Opfer dieses Handels, namentlich durch den Schutz ihrer international anerkannten Menschenrechte.
Das Übereinkommen und das Zusatzprotokoll sind als völkerrechtliche Verträge für die Vertragsstaaten rechtsverbindlich.
Europarat
Eingedenk der Konvention zum Schutz der Menschenrechte und Grundfreiheiten (EMRK) von 1950 verabschiedete der Europarat am 16. Mai 2005 das Übereinkommen zur Bekämpfung des Menschenhandels.
Es verbessert die Voraussetzungen zur Bekämpfung des Menschenhandels insbesondere im europäischen Raum. Neben einer Angleichung der Straftatbestände und einer effizienten Strafverfolgung auch über die Grenzen sieht es einen speziellen Opfer- und Zeugenschutz vor. Es schafft die Voraussetzungen für nachhaltige Maßnahmen der einzelnen Vertragsstaaten und für eine engere europäische Zusammenarbeit auf Basis der Begriffsbestimmung und Weiterentwicklung der Pflichten der Vertragsstaaten, die im Zusatzprotokoll „Menschenhandel“ zur Palermo-Konvention festgelegt wurden.
Die Bundesrepublik Deutschland hat dem Übereinkommen mit Gesetz vom 12. Oktober 2012 zugestimmt. Das Übereinkommen ist in Deutschland am 1. April 2013 in Kraft getreten.
Die Expertengruppe für die Bekämpfung des Menschenhandels (Group of Experts on Action against Trafficking in Human Beings – GRETA) überwacht gem. Art. 36 ff. die Durchführung des Übereinkommens durch die Vertragsparteien. Im Juni 2015 wurde der Bericht über die Umsetzung des Übereinkommens durch Deutschland für den ersten Evaluierungszyklus vorgelegt, im Oktober 2015 für Österreich und die Schweiz.
Europäische Union
Die Europäische Union hat sich der Verhütung und Bekämpfung des Menschenhandels sowie dem Schutz der Rechte der Opfer insbesondere mit dem Rahmenbeschluss 002/629/JI des Rates vom 19. Juli 2002 zur Bekämpfung des Menschenhandels und dem EU-Plan über bewährte Vorgehensweisen, Normen und Verfahren zur Bekämpfung und Verhütung des Menschenhandels von 2005 angenommen.
Die EU-Menschenhandelsrichtlinie von 2011 ist das jüngste internationale Rechtsdokument und sieht ein integriertes, ganzheitliches und menschenrechtsbasiertes Vorgehen bei der Bekämpfung des Menschenhandels vor. Die Umsetzung der Richtlinie in deutsches Recht erfolgte mit dem Gesetz zur Verbesserung der Bekämpfung des Menschenhandels und zur Änderung des Bundeszentralregistergesetzes sowie des Achten Buches Sozialgesetzbuch vom 11. Oktober 2016 (MenHBVG), in Kraft getreten am 15. Oktober 2016.
Definition
Legaldefinition
Anlage II zur Palermo-Konvention definiert in Art. 3 Buchst. a „Menschenhandel“ als die Anwerbung, Beförderung, Verbringung, Beherbergung oder den Empfang von Personen durch die Androhung oder Anwendung von Gewalt oder anderen Formen der Nötigung, durch Entführung, Betrug, Täuschung, Missbrauch von Macht oder Ausnutzung besonderer Hilflosigkeit oder durch Gewährung oder Entgegennahme von Zahlungen oder Vorteilen zur Erlangung des Einverständnisses einer Person, die Gewalt über eine andere Person hat, zum Zweck der Ausbeutung. Ausbeutung umfasst mindestens die Ausnutzung der Prostitution anderer oder andere Formen sexueller Ausbeutung, Zwangsarbeit oder Zwangsdienstbarkeit, Sklaverei oder sklavereiähnliche Praktiken, Leibeigenschaft oder die Entnahme von Körperorganen.
Dieser Definition folgen weitere internationale Rechtsdokumente wie Art. 4 des Europarat-Übereinkommens von 2005 oder Art. 2 der EU-Menschenhandelsrichtlinie von 2011.
Art. 5 Abs. 3 der EU-Grundrechtecharta (GrCH) verbietet Menschenhandel und grenzt ihn von Sklaverei und Leibeigenschaft (Art. 5 Abs. 1 GrCH) sowie Zwangs- oder Pflichtarbeit (Art. 5 Abs. 2 GrCH) ab.
Rechtsprechung des Europäischen Gerichtshofs für Menschenrechte
Im Jahr 2010 entschied der EGMR durch Auslegung „im Lichte der heutigen Verhältnisse“, dass Menschenhandel, wie ihn das Palermo-Protokoll und das Übereinkommen des Europarats definieren, in den Anwendungsbereich von Art. 4 EMRK fällt, obwohl Menschenhandel dort nicht ausdrücklich erwähnt ist.
Das Fehlen einer ausdrücklichen Erwähnung von Menschenhandel in der EMRK überrasche nicht, da sie von der Allgemeinen Erklärung der Menschenrechte von 1948 inspiriert worden sei, deren Art. 4 »Sklaverei und Sklavenhandel« verbietet. Menschenhandel als globales Phänomen habe seitdem deutlich zugenommen. Bei der Einschätzung des Anwendungsbereichs von Art. 4 EMRK dürften weder die besonderen Merkmale der EMRK als Vertrag zum Schutz der Menschenrechte noch die Tatsache aus den Augen verloren werden, dass sie ein lebendiges Instrument sei, das im Licht der gegenwärtigen Bedingungen ausgelegt werden müsse.
Der Internationale Strafgerichtshof für das ehemalige Jugoslawien habe bereits 2002 festgestellt, dass sich das traditionelle Konzept der Sklaverei dahingehend entwickelt habe, dass es verschiedene Formen der Versklavung umfasse, die auf der Ausübung jener Befugnisse beruhen, die mit dem für die Sklaverei typischen Eigentumsrecht an anderen Menschen einhergehen. Angesichts der Ausbreitung sowohl des Menschenhandels selbst als auch der Maßnahmen zu seiner Bekämpfung hielt es der EGMR für angemessen zu prüfen, inwiefern Menschenhandel als solcher dem Sinn und Zweck von Art. 4 EMRK widerspreche und damit in den Anwendungsbereich dieser Bestimmung falle, ohne dass geprüft werden müsse, welche der drei verbotenen Kategorien der Sklaverei, der Leibeigenschaft oder der Zwangs- und Pflichtarbeit durch die spezifische Behandlung im vorliegenden Fall betroffen sei.
Aufgrund seines auf Ausbeutung gerichteten Ziels beruhe Menschenhandel auf der Ausübung von Befugnissen, die mit dem Eigentumsrecht verbunden seien. Er behandele Menschen als Gegenstände, die ge- und verkauft und zur Arbeit gezwungen würden, meist in der Sexindustrie. Er setze die enge Überwachung der Aktivitäten der Opfer voraus, deren Bewegungsfreiheit oft eingeschränkt werde. Er bringe die Anwendung von Gewalt und Drohungen gegen die Opfer mit sich, die unter schlechten Bedingungen wohnten und arbeiteten. Es könne daher kein Zweifel daran bestehen, dass Menschenhandel die menschliche Würde und die Grundfreiheiten seiner Opfer bedrohe und unvereinbar mit einer demokratischen Gesellschaft und den Werten der EMRK sei.
Erscheinungsformen
Menschenhandel zum Zweck der Arbeitsausbeutung
Wenn von Menschenhandel zum Zweck der Arbeitsausbeutung gesprochen wird, ist damit gemeint, dass die Notlage von Arbeitskräften massiv ausgenutzt wird oder sie gezwungen werden, ihre Arbeitskraft ohne angemessene Gegenleistung einzusetzen. Die Betroffenen werden in ihrer Handlungsfreiheit so weit eingeschränkt, dass sie nicht mehr frei über ihre Arbeitskraft verfügen können. Sie werden nicht oder nicht angemessen entlohnt und müssen unter extrem schlechten Bedingungen arbeiten.
Strafrechtlich ist die Schwelle zu Menschenhandel zum Zweck der Arbeitsausbeutung in Deutschland dann überschritten, wenn Personen mittels Täuschung, Zwang, Drohungen oder Gewaltanwendung zur Aufnahme und Fortsetzung von Dienstleistungen und Tätigkeiten gebracht oder gezwungen werden, die ausbeuterisch oder sklavenähnlich sind. Die Arbeitsverhältnisse zeichnen sich zum Beispiel durch schlechte Bezahlungen, lange Arbeitszeiten, überhöhte Vermittlungsgebühren und/oder Mietzahlungen, gefährliche Arbeitsbedingungen und Vorenthalten des Lohns aus.
Zwar suggeriert der Begriff, dass Betroffene zwischen Ländern gehandelt werden, dies ist allerdings nicht zwangsläufig der Fall. Der Tatbestand des Menschenhandels setzt in Deutschland kein Überschreiten von Ländergrenzen voraus. Menschenhandel kann sowohl zulasten von Migranten verwirklicht werden, deren Hilflosigkeit, die mit dem Aufenthalt in Deutschland verbunden ist, ausgenutzt wird als auch zulasten Deutscher unter Ausnutzung einer persönlichen oder wirtschaftlichen Zwangslage. Bei Personen unter 21 Jahren spielt die nationale Herkunft keine Rolle.
Der Übergang zwischen ungünstigen und schlechten Arbeitsbedingungen, Arbeitsausbeutung und Menschenhandel ist oft fließend und eine Zuordnung schwierig. Manchmal verschärft sich ein eingangs „nur“ ungünstiges Arbeitsverhältnis im Laufe der Zeit derart, dass Arbeitsausbeutung oder sogar Menschenhandel vorliegt.
Einige Branchen scheinen von Arbeitsausbeutung und Menschenhandel zur Arbeitsausbeutung stärker zu profitieren als andere. Nach gegenwärtigen Einschätzungen findet Menschenhandel vermehrt in folgenden Branchen statt: Landwirtschaft, Pflege, private Haushalte (Haushaltshilfen, Reinigungskräfte, Au-Pair u. a.), Gastronomie etc.
Gründe, warum Personen von ausbeuterischen Arbeitsverhältnissen und Menschenhandel betroffen sein können, sind zum Beispiel: falsche Versprechungen über Arbeits- und Verdienstmöglichkeiten, wirtschaftliche und/oder aufenthaltsrechtliche Notlage, Notwendigkeit der finanziellen Unterstützung der Familie im Herkunftsland, angebliche Schulden, die abbezahlt werden müssen, Anwendung von Gewalt, Drohung etc.
Die meisten Betroffenen von Menschenhandel zur Ausbeutung der Arbeitskraft befinden sich in Asien, insbesondere in Indien. Die häufigste Ausprägungsform von Menschenhandel zur Arbeitsausbeutung in Indien ist dabei die Schuldknechtschaft, welche über Generationen hinweg vererbt wird.
Menschenhandel zum Zweck der sexuellen Ausbeutung
Im Gegensatz zum Menschenhandel zum Zweck der Arbeitsausbeutung ist Menschenhandel zur sexuellen Ausbeutung (auch sex trafficking genannt) sowohl in den Medien und der Gesellschaft als auch in den internationalen Institutionen schon seit vielen Jahren ein sensibles und oft diskutiertes Thema. Betroffen sind von dieser Form der Ausbeutung vor allem Frauen und Mädchen.
Laut des Bundeslagebildes Menschenhandel des Bundeskriminalamtes (BKA) werden Betroffene von Menschenhandel zum Zweck der sexuellen Ausbeutung häufig durch Täuschung zur Aufnahme oder Fortsetzung der Prostitution veranlasst. Angeworben über Zeitungsinserate oder Modelagenturen, werden die Betroffenen über die Art der Tätigkeit oder die Höhe des Verdiensts getäuscht. Darüber hinaus kommt es vor, dass Betroffene sich zwar freiwillig zur Ausübung der Prostitution entscheiden, dann aber mit Arbeitsbedingungen konfrontiert sind, denen sie vorher nicht zugestimmt haben und die zu ändern oder verlassen sie von den Tätern gehindert werden. Laut BKA wird nur ein geringer Anteil von Betroffenen durch Gewalt oder Drohung in die Prostitution gezwungen. Durch hohe Schulden für Einreise, Passbeschaffung etc. werden aber vor allem ausländische Betroffene in ein Abhängigkeitsverhältnis gedrängt und müssen einen Großteil ihres Verdienstes an die Täter abführen. In manchen Fällen werden Mädchen und junge Frauen durch die sog. Loverboy-Methode angeworben. Die Täter täuschen den Betroffenen eine Beziehung vor, um sie anschließend über emotionale Abhängigkeit in die Prostitution zu drängen und auszubeuten.
Nach dem aktuellen Global Report des Büros der Vereinten Nationen für Drogen- und Verbrechensbekämpfung (UNODC) ist Menschenhandel zur sexuellen Ausbeutung die meist identifizierte Form von Menschenhandel weltweit. 53 % der global identifizierten Fälle von 2010–2012 stehen laut den Vereinten Nationen im Zusammenhang mit sexueller Ausbeutung. Experten schätzen allerdings, dass Menschenhandel zum Zweck der Arbeitsausbeutung weit häufiger vorkommt und weltweit die am meisten verbreitete Ausbeutungsform des Menschenhandels ist. Diese Diskrepanz rührt laut den Vereinten Nationen vor allem daher, dass das Bewusstsein für die sexuelle Ausbeutung in der Gesellschaft und bei Strafverfolgungsorganen höher sei und diese Form der Ausbeutung somit öfter strafrechtlich verfolgt werde. Ebenso seien Fälle von Zwangsprostitution und Ausbeutung zum Zweck anderer sexuellen Handlungen wie Pornografie oder Stripshows sichtbarer als andere Ausbeutungsformen.
In Nigeria, vor allem im Südosten des Landes, werden junge Frauen und Mädchen an Orten, auch „Baby-Fabriken“ genannt, festgehalten, um Kinder zu gebären, die an kinderlose Paare im In- oder Ausland verkauft werden. Manche werden durch Versprechen von Arbeit und Unterkunft dorthin gelockt, was den Tätern angesichts des Stigmas unehelicher Schwangerschaften und des Abtreibungsverbots besonders leicht fällt. Manche werden vergewaltigt, um sie zu schwängern.
Ebenfalls in direktem Bezug zu Nigeria stehen einige verbrecherische Geheimbünde wie die „Schwarze Axt“, die nigerianische Frauen unter Vorgabe falscher Tatsachen nach Europa schleusen und sie dort mit Lügen, Drohungen und Gewalt zur Prostitution zwingen – wozu sie vorgeblich verpflichtet seien, um hohe Summen für den erfolgten Transport zu zahlen.
Andere Ausbeutungszwecke
Neben Menschenhandel zum Zweck der Arbeitsausbeutung und zur sexuellen Ausbeutung werden international weitere Zwecke wie die Ausbeutung zur Bettelei, die Ausnutzung bei der Begehung strafbarer Handlungen oder die rechtswidrige Entnahme von Organen erfasst.
Nach der EU-Menschenhandelsrichtlinie „sind Betteltätigkeiten als eine Form der Zwangsarbeit oder der erzwungenen Dienstleistung im Sinne des Übereinkommens Nr. 29 der Internationalen Arbeitsorganisation (ILO) von 1930 über Zwangs- oder Pflichtarbeit zu verstehen. Die Ausbeutung für Betteltätigkeiten, wozu auch der Einsatz abhängiger Opfer des Menschenhandels als Bettler gehört, erfüllt daher nur dann die Definition des Menschenhandels, wenn alle Merkmale der Zwangsarbeit oder der erzwungenen Dienstleistung vorhanden sind. […] Die 'Ausnutzung für strafbare Handlungen' sollte als Ausnutzung einer Person zur Begehung unter anderem von Taschendiebstahl, Ladendiebstahl, Drogenhandel und sonstigen ähnlichen Handlungen verstanden werden, die unter Strafe stehen und der Erzielung eines finanziellen Gewinns dienen.“
Menschenhandel zum Zweck der Organentnahme meint die Ausbeutung einer anderen Person unter Täuschung, Drohung oder Anwendung von Gewalt zum Zwecke der rechtswidrigen Entnahme von Organen. Auch diese Form des Menschenhandels umfasst ein breites Spektrum an Handlungen, kommt aber vor allem in drei Varianten vor. Zum einen gibt es Betroffene, die freiwillig der Organentnahme zustimmen, zu einem späteren Zeitpunkt aber nicht (oder nur teilweise) die ausgemachte Gegenleistung erhalten. In anderen Fällen werden den Betroffenen unter Zwang und gewaltsam die Organe ohne ihre Zustimmung entnommen, so mutmaßlich während des Kosovokriegs 1999. Letztendlich wird ebenfalls von Fällen berichtet, bei denen Betroffene gegen ein tatsächliches oder vermeintliches Leiden behandelt und während der Behandlung unwissentlich die Organe entnommen werden.
Deutschland
Menschenhandel gehört zu den Straftaten gegen die persönliche Freiheit.
§ 232 StGB enthält den zeitlich vorgelagerten Tatbestand des Menschenhandels, der bereits mit der ersten Übernahme der Kontrolle über eine Person verwirklicht ist. Die §§ 232a StGB (Zwangsprostitution) und 232b StGB (Zwangsarbeit) pönalisieren das anschließende Einwirken auf das Opfer zum Zwecke der Ausbeutung. Die §§ 233 und 233a StGB stellen die kommerzielle Ausbeutung der Arbeitskraft und die Ausbeutung unter Ausnutzung einer Freiheitsberaubung unter Strafe. Allen Tatbeständen ist gemeinsam, dass die Tathandlungen jeweils entweder unter Einsatz eines Nötigungsmittels oder List oder unter Ausnutzung der persönlichen oder wirtschaftlichen Zwangslage des Opfers oder dessen Hilflosigkeit, die mit dem Aufenthalt in einem für das Opfer fremden Land verbunden ist, begangen werden.
Menschenhandel (§ 232 StGB)
Seit 15. Oktober 2016 ist der Tatbestand Menschenhandel in Deutschland in Paragraph StGB n.F. geregelt. Durch die Neuregelung wurde die EU-Menschenhandelsrichtlinie umgesetzt.
Menschenhandel ist gekennzeichnet durch die in § 232 Abs. 1 StGB enummerativ aufgezählten Tathandlungen, (einfachen) Tatmittel und Tatzwecke. § 232 Abs. 2 StGB betrifft die konkrete Art und Weise der Tatausführung mit schwereren Mitteln als der Ausnutzung einer Zwangslage oder Hilflosigkeit des Opfers, beispielsweise durch Anwendung von Gewalt oder Entführung des Opfers. § 232 Abs. 3 StGB erfasst erschwerende Tatumstände wie das Alter des Opfers unter 18 Jahren, die Tatauswirkungen auf das Opfer oder die gewerbs- und bandenmäßige Begehung der Tat.
§ 232 Abs. 2 und Abs. 3 StGB enthalten Strafschärfungen gegenüber § 232 Abs. 1 StGB. Die Höchststrafe in § 232 Abs. 2 und Abs. 3 StGB beträgt 10 Jahre gegenüber 5 Jahren in § 232 Abs. 1 StGB.
Gem. § 232 Abs. 1 StGB wird mit Freiheitsstrafe von sechs Monaten bis zu fünf Jahren bestraft, „wer eine andere Person unter Ausnutzung ihrer persönlichen oder wirtschaftlichen Zwangslage oder ihrer Hilflosigkeit, die mit dem Aufenthalt in einem fremden Land verbunden ist, oder wer eine andere Person unter einundzwanzig Jahren anwirbt, befördert, weitergibt, beherbergt oder aufnimmt, wenn
1. diese Person ausgebeutet werden soll
a) bei der Ausübung der Prostitution oder bei der Vornahme sexueller Handlungen an oder vor dem Täter oder einer dritten Person oder bei der Duldung sexueller Handlungen an sich selbst durch den Täter oder eine dritte Person,
b) durch eine ausbeuterische Beschäftigung (§ 232 Abs. 1 Satz 2 StGB),
c) bei der Ausübung der Bettelei oder
d) bei der Begehung von mit Strafe bedrohten Handlungen durch diese Person,
2. diese Person in Sklaverei, Leibeigenschaft, Schuldknechtschaft oder in Verhältnissen, die dem entsprechen oder ähneln, gehalten werden soll oder
3. dieser Person rechtswidrig ein Organ entnommen werden soll.“
Tathandlung
§ 232 Abs. 1 StGB stellt in Übereinstimmung mit den unionsrechtlichen Vorgaben bereits solche Verhaltensweisen als Menschenhandel unter Strafe, mit denen erstmals Kontrolle über eine Person ausgeübt wird. Hierunter fällt das Anwerben, Befördern, Weitergeben, Beherbergen oder Aufnehmen von Personen, und zwar unter Ausnutzung einer persönlichen oder wirtschaftlichen Zwangslage oder einer Hilflosigkeit, die mit dem Aufenthalt in einem fremden Land verbunden ist. Dies muss zum Zwecke der Ausbeutung des Opfers in einer der in den Nummern 1 bis 3 des § 232 Abs. 1 StGB näher beschriebenen Weise geschehen. Der Einsatz eines bestimmten Tatmittels oder eine besondere Situation ist nicht erforderlich, wenn es sich um Personen unter 21 Jahren handelt. Diese Personen werden als per se besonders schutzbedürftig angesehen, da sie nach der Vorstellung des Gesetzgebers aufgrund zumindest verminderter Kompetenz und sozialer Unterlegenheit als in erheblichen Maße leichter manipulierbar angesehen werden.
Eine Zwangslage ist eine Situation der nicht notwendigerweise existenzbedrohenden, aber ernsten persönlichen oder wirtschaftlichen Bedrängnis des Opfers, die ein dringendes Geld- oder Sachbedürfnis nach sich zieht. Es genügt, wenn das Opfer seine Lage als eine solche Zwangslage empfindet, die es in seiner freien Willensbetätigung einschränkt. Diese Schwächesituation muss der Täter ausnutzen. Das
bedeutet, dass nach seiner Vorstellung gerade die Schwächesituation das Gelingen seiner Tat zumindest erleichtern muss.
Tatzwecke
Die Ausbeutung des Opfers wird bezweckt, wenn der Täter eine gewissenlose, d. h. ohne Rücksicht auf die persönlichen und wirtschaftlichen Belange des Opfers und unangemessene Nutzung seiner Leistungen oder Tätigkeiten beabsichtigt. Ein auf Dauer angelegtes Abhängigkeitsverhältnis ist dagegen für das Vorliegen einer Ausbeutung insgesamt nicht erforderlich.
Sexuelle Ausbeutung
Der Strafbestand des Menschenhandels zur sexuellen Ausbeutung war in Deutschland bereits in § 232 Strafgesetzbuch (StGB) a.F. geregelt. Erste Neuregelungen traten mit dem 37. Strafrechtsänderungsgesetz am 19. Februar 2005 in Kraft und verfolgten das Ziel, den Menschenhandel nach Möglichkeit in allen seinen Erscheinungsformen zu erfassen und den alten, gesetzgebungstechnisch unbefriedigenden Zustand der §§ 180b, 181 StGB a.F. durch Vereinfachung und Vereinheitlichung der Tatbestände zu beseitigen. Zudem machten das Palermo-Protokoll der Vereinten Nationen und der EU-Rahmenbeschluss zur Bekämpfung des Menschenhandels vom 19. Juli 2002 eine Gesetzesänderung notwendig.
§ 232 StGB a. F. stellte es unter Strafe „unter Ausnutzung einer Zwangslage oder der Hilflosigkeit, die mit ihrem Aufenthalt in einem fremden Land verbunden ist“ eine andere Person zur Aufnahme oder Fortsetzung von Prostitution oder ausbeuterischen sexuellen Handlungen (z. B. Stripshows, Pornographie) zu zwingen. Im Weiteren kamen auch andere Straftatbestände wie § 233 StGB (Menschenhandel zum Zweck der Ausbeutung der Arbeitskraft), § 233a StGB (Förderung des Menschenhandels), StGB (Ausbeutung einer Prostituierten) und (Zuhälterei) bei Fällen von Ausbeutung in der Prostitution zum Tragen. Bei Opfern unter 21 Jahren war die Tat auch ohne Ausnutzen einer Zwangslage oder Hilflosigkeit strafbar.
Ausbeuterische Beschäftigung
Eine ausbeuterische Beschäftigung liegt gem. § 232 Abs. 1 Satz 2 StGB vor, wenn die Beschäftigung aus rücksichtslosem Gewinnstreben zu Arbeitsbedingungen erfolgt, die in einem auffälligen Missverhältnis zu den Arbeitsbedingungen solcher Arbeitnehmer stehen, welche der gleichen oder einer vergleichbaren Beschäftigung nachgehen.
Ausübung der Bettelei
Siehe auch Zwangsbettelei
Seit der Gesetzesnovelle 2016 ist auch der Tatbestand der Ausbeutung durch Bettelei als eigener Tatbestand im Strafgesetzbuch (StGB) erfasst.
Begehung von mit Strafe bedrohten Handlungen
Hierunter fällt es etwa, wenn Personen zum Kreditkartenbetrug, für Diebstähle in Kaufhäusern oder Überfälle auf Personen beim Geldabheben vor EC-Automaten ausgebeutet werden sollen oder die Ausnutzung noch nicht strafmündiger rumänischer Straßenkinder für Taschendiebstähle, Trickbetrug oder Einbrüche.
Halten in Sklaverei, Leibeigenschaft oder Schuldknechtschaft
Neben § 232 StGB gilt das Gesetzes betreffend die Bestrafung des Sklavenraubes und des Sklavenhandels von 1895 (SklHG) gem. GG als vorkonstitutionelles Recht fort. § 2 SklHG bedroht das Betreiben von Sklavenhandel und die vorsätzliche Mitwirkung an der dazu dienenden Beförderung von Sklaven mit einer Freiheitsstrafe nicht unter einem Jahr. Ein „Handeltreiben“ wie es etwa mit Betäubungsmitteln oder Organen unter Strafe gestellt ist, ist für § 232 StGB nämlich nicht erforderlich, wenngleich sich der Menschenhandel dadurch auszeichnet, dass er ein arbeitsteiliger Prozess ist, aus dem die Beteiligten einen wirtschaftlichen Vorteil ziehen wollen. Insofern ist die eigenständige Strafbarkeit des Sklavenhandels durchaus von Bedeutung, wurde mit der Reform 2016 jedoch nicht in das StGB integriert.
Rechtswidrige Organentnahme
Der Menschenhandel zum Zweck der rechtswidrigen Entnahme von Organen wurde 2016 in § 232 Abs. 1 Nr. 3 StGB aufgenommen. Unabhängig davon steht der Organ- und Gewebehandel gem. und TPG unter Strafe.
Zwangsprostitution und Zwangsarbeit (§§ 232 a, 232b StGB)
Die §§ 232a StGB (Zwangsprostitution) und 232b StGB (Zwangsarbeit) pönalisieren das an den Menschenhandel anschließende Einwirken auf das Opfer zum Zwecke der Ausbeutung. Dieser Umstand kommt in dem Tatbestandsmerkmal des „Veranlassens“ zu den jeweils tatbestandsmäßigen Handlungen zum Ausdruck, etwa der Aufnahme der Prostitution, der Bettelei oder einer ausbeuterischen Beschäftigung. Insoweit setzen §§ 232a und 232b StGB den Eintritt eines bestimmten Taterfolgs voraus. Mit dem Veranlassen soll eine verwerfliche Beeinflussung der Willensentschließungsfreiheit durch den Täter sanktioniert werden. Erfasst werden alle Formen der psychischen Einwirkung, welche die Entschließung des Opfers beeinflussen. Die wohl h. M. lässt in weiter Auslegung jede Form der Verursachung des tatbestandlichen Erfolges genügen. Eine von Teilen der Literatur geforderte „intensive und hartnäckige Einflussnahme auf das Opfer, etwa durch Drängen, Überreden, Einsatz von Autorität, Einschüchterung oder Täuschung“ würde den Tatbestand zu sehr einengen.
Tritt der gewünschte Taterfolg nicht ein, kommt eine Strafbarkeit wegen Versuchs in Betracht (§§ 232a Abs. 2, 232b Abs. 2 StGB).
Ausbeutung der Arbeitskraft und Ausbeutung unter Ausnutzung einer Freiheitsberaubung (§§ 233, 233a StGB)
Die Ausbeutung der Arbeitskraft ist seit 15. Oktober 2016 in StGB mit Strafe bedroht, der des Schwarzarbeitsbekämpfungsgesetzes ergänzt. Der Täter muss die Situation des Opfers, aus der sich die eingeschränkte Fähigkeit, sich der Ausbeutung zu widersetzen, ergibt, erkennen und sich zum eigenen Vorteil zunutze machen, etwa eine ausbeuterische Beschäftigung nach § 232 Absatz 1 Satz 2 (§ 233 Abs. 1 Nr. 1 StGB). Entscheidend ist, dass das Opfer durch die Handlung des Täters zum Objekt degradiert wird. Nur dann ist eine Bestrafung der Einschränkung des freien Willens verhältnismäßig, z. B. bei jeder nicht uneingeschränkt freiwilligen Vornahme sexueller Handlungen.
Der Menschenhandel zum Zwecke der Ausbeutung der Arbeitskraft war bereits seit 2005 unter § 233 StGB als Straftat erfasst; mit der Strafrechtsreform im Jahr 2016 wurde Menschenhandel in § 232 StGB, Zwangsarbeit in § 232b StGB und die Ausbeutung der Arbeitskraft in §§ 233 und 233a StGB geregelt.
Polizeilich registrierte Zahlen in Deutschland
Laut dem „Bundeslagebild Menschenhandel“ wurden 2013 insgesamt 478 Ermittlungsverfahren zum Menschenhandel zur Zweck der Arbeitsausbeutung und zur sexuellen Ausbeutung abgeschlossen. Davon handelte es sich bei 425 Fällen um Menschenhandel zur sexuellen Ausbeutung und bei 53 Fällen um Menschenhandel zum Zweck der Arbeitsausbeutung. Die Zahl der registrierten Menschenhandelsfälle und -opfer wie auch der durchgeführten Verfahren der Polizei in den einzelnen Bundesländern fällt sehr unterschiedlich aus. Auch innerhalb eines Bundeslandes schwanken die Zahlen von Jahr zu Jahr. Als Grund hierfür nennt eine Studie des BKA. die wechselnde Kontroll- und Ermittlungsintensität der Polizei, die von den vorhandenen Ressourcen und der kriminalpolitischen Schwerpunktsetzung abhänge. Ebenfalls wird angemerkt, dass die Schwankungen auf den in der Realität schwierig anzuwendenden Straftatbeständen zurückzuführen ist. Zu beachten ist, dass diese Zahlen lediglich die Fälle des Menschenhandels beinhalten, die der Polizei bekannt sind und in denen Ermittlungsverfahren eingeleitet und auch abgeschlossen wurden. Fälle von Menschenhandel, in denen kein Kontakt mit der Polizei zustande kam oder in denen kein Ermittlungsverfahren eingeleitet wurde, werden nicht erfasst. Somit können die Zahlen nur eine sehr eingeschränkte Aussage über das Ausmaß von Menschenhandel in Deutschland geben. Das vermutete hohe Dunkelfeld wird nicht erfasst.
Am 18. April 2018 wurde die bis dahin personell größte Razzia in der Geschichte der Bundespolizei gegen einen Menschenhändlerring im Rotlichtmilieu durchgeführt und dabei Bordelle, Büros und Wohnungen in zwölf Bundesländern durchsucht. Ein erster Gerichtsprozess fand Anfang 2019 in Baden-Baden statt, ein weiterer ab Mai 2019 in Hanau. Zu den Anklagepunkten zählen gewerbs- und bandenmäßiges Einschleusen von Ausländern, Ausbeutung, Zuhälterei und Zwangsprostitution, es geht aber auch um Wirtschaftskriminalität, etwa Steuerhinterziehung und nicht gezahlte Sozialversicherungsbeiträge.
Für 2019 sind beim Bundeskriminalamt (BKA) sieben Betroffene von Menschenhandel aus Vietnam registriert. Das BKA und mit weitere Ermittlungsbehörden in Europa gehen von einer hohen Dunkelziffer aus und haben den Menschenhandel von Vietnamesen ab 2021 zu einem ihrer Arbeitsschwerpunkte erklärt.
Opferschutz
In der Bundesrepublik Deutschland gibt es ca. 50 Fachberatungsstellen, die Betroffenen von Menschenhandel anonym und kostenfrei Beratung, Unterstützung und Hilfe bieten. Die meisten der in Deutschland tätigen Fachberatungsstellen sind im Bundesweiten Koordinierungskreis gegen Menschenhandel e. V. vereint. Zu dessen Mitgliedern zählen u. a. auch Migrantinnen-Projekte, Frauenhäuser, Prostituierten-Beratungsstellen und weitere Organisationen.
Auch der Ban Ying e. V. in Berlin bildet eine Koordinations- und Fachberatungsstelle gegen Menschenhandel, darüber hinaus bietet er eine Zufluchtswohnung für Betroffene an. Sie setzt sich sowohl für die Rechte von Migrantinnen ein, die Erfahrungen von Gewalt, Ausbeutung oder Menschenhandel gemacht haben als auch für deren Umfeld.
Mit der EU-Opferschutz-Richtlinie vom 29. April 2004 (2004/81/EG des Rates) wurde für die Opfer eines Menschenhandels die Einführung eines besonderen aufenthalts- und asylrechtlichen Aufenthaltstitels vereinbart, der eine Kooperation mit den zuständigen Polizei-, Strafverfolgungs- und Justizbehörden zur Bekämpfung des Menschenhandels voraussetzt. In Deutschland gibt es seit 2008 den Aufenthalt aus humanitären Gründen zwecks Zeugenaussage in einem Strafverfahren ( Abs. 4a AufenthG). Bei der Entscheidung wirken Staatsanwaltschaft bzw. Strafgericht und Ausländerbehörde zusammen ( Abs. 6 AufenthG).
Zur Umsetzung der EU-Menschenhandelsrichtlinie wurde mit Wirkung zum 15. Oktober 2016 die Strafprozessordnung (StPO) ergänzt. Zeigt das Opfer eines Menschenhandels diese Straftat an und wird hierdurch bedingt ein vom Opfer selbst begangenes Vergehen bekannt, so kann die Staatsanwaltschaft von der Verfolgung des durch das Opfer begangenen Vergehens absehen, wenn nicht wegen der Schwere der Tat eine Sühne unerlässlich ist ( Abs. 2 StPO). Diese Vorschrift soll vor allem Opfern eines Menschenhandels zur Ausbeutung bei der Begehung von mit Strafe bedrohten Handlungen durch diese Person zugutekommen ( Abs. 1 Nr. 1 Buchst. d StGB).
Bund-Länder-Arbeitsgruppe
Seit der 16. Legislaturperiode ist das Bundesministerium für Arbeit und Soziales (BMAS) federführend in der Bundesregierung für die Themen gesellschaftliche Verantwortung von Unternehmen (Corporate Social Responsibility – CSR) und Menschenhandel zum Zweck der Ausbeutung der Arbeitskraft. Beim Bundesministerium für Familie, Senioren, Frauen und Jugend (BMFSFJ) ist seit 1997 die Bund-Länder-Arbeitsgruppe Frauenhandel (B-L-AG) angesiedelt. Diese dient dem fachübergreifenden Austausch und der gemeinsamen Entwicklung von Strategien und Handlungsempfehlungen. Neben Vertretern verschiedener Ministerien wie dem BMFSFJ, dem BMAS, dem Bundesministerium des Innern (BMI) und dem Bundesministerium für Justiz und Verbraucherschutz (BMJV) und den entsprechenden Ministerien der Bundesländer sind dort auch das Bundeskriminalamt (BKA) und der bundesweite Koordinierungskreis gegen Frauenhandel und Gewalt an Frauen im Migrationsprozess (KOK e.V.) vertreten. Für die Zusammenarbeit zwischen Fachberatungsstellen und Strafverfolgungsbehörden wurde 1999 ein Kooperationskonzept entwickelt.
Österreich
Nach Ratifizierung des Palermo-Protokolls im Herbst 2005 hat die österreichische Bundesregierung ihre Strategie zur Bekämpfung des Menschenhandels in einem ersten nationalen Aktionsplan für den Zeitraum 2007–2009 niedergelegt. Durch seine Lage im Zentrum Europas sei Österreich von Menschenhandel als Transit- und Zielland betroffen, insbesondere hinsichtlich sexueller Ausbeutung, sklavereiähnlicher Zustände bei Hausangestellten und Kinderhandel. Der österreichische Ansatz bei der Bekämpfung des Menschenhandels umfasse nationale Koordination, Prävention, Opferschutz, Strafverfolgung und internationale Zusammenarbeit. Die Ausarbeitung weiterer nationaler Aktionspläne und die Überwachung von deren Umsetzung wurde einer bei dem Bundesministerium für Europa, Integration und Äußeres angesiedelten Task Force Menschenhandel (TF-MH) übertragen, in der alle relevanten Bundesministerien und Regierungsstellen, die Bundesländer, die Sozialpartner sowie spezialisierte Nichtregierungsorganisationen vertreten sind. Ihre Hauptaufgabe ist es, den gemeinsamen Kampf gegen den Menschenhandel in Österreich zu strukturieren und zu intensivieren. Für die Jahre 2015–2017 hat die TF-MH den vierten nationalen Aktionsplan erstellt.
Zum 1. August 2013 hat Österreich die EU-Menschenhandelsrichtlinie umgesetzt. Mit dem Sexualstrafrechtsänderungsgesetz 2013 wurden unter anderem der Tatbestand des Menschenhandels in § 104a StGB erweitert und die Strafandrohung auf bis zu 10 Jahre erhöht.
Schweiz
Die Schweiz hat sowohl das Zusatzprotokoll zur Palermo-Konvention als auch die Konvention des Europarates zur Bekämpfung des Menschenhandels ratifiziert. Die Konvention ist in der Schweiz zum 1. April 2013 in Kraft getreten. Insbesondere mit dem Zeugenschutzgesetz vom 23. Dezember 2011 hatte die Schweiz zum 1. Januar 2013 alle Bedingungen für ihren Beitritt zum Europaratsübereinkommen erfüllt.
Bereits 2001 hatte eine interdepartementale Arbeitsgruppe die juristischen, sozialen, finanziellen, polizeilichen und gesundheitlichen Bedingungen zur Bekämpfung von Menschenhandel in der Schweiz untersucht.
In der Schweiz stehen alle Formen des Menschenhandels seit dem 1. Dezember 2006 in Art. 182 StGB unter Strafe. Der frühere Art. 196 StGB erfasste lediglich den Menschenhandel zum Zwecke der sexuellen Ausbeutung.
Die private Opferschutzstelle FIZ stellt in Zusammenarbeit mit den Kantonalen Runden Tischen gegen Menschenhandel ein umfassendes Opferschutzprogramm für Betroffene von Menschenhandel zur Verfügung.
USA
Menschenhandel mit dem Ziel der sexuellen Ausbeutung wird in den USA Sex trafficking genannt (volle Bezeichnung Sex trafficking of children or by force, fraud, or coercion) und ist eine strafbare Handlung nach Bundesrecht im Strafrecht der Vereinigten Staaten nach . Daneben besteht Bundesstrafbarkeit nach s. 2421 Mann Act sowie Strafbarkeit nach dem jeweiligen Recht des Bundesstaates.
Weitere Staaten
In der Volksrepublik China wurden 2009 nach offiziellen Statistiken jährlich 3.000 Personen Opfer von Menschenhändlern, ungefähr die Hälfte davon Kinder, die Hälfte Frauen. Entführte Frauen, aber auch kleine Mädchen werden teils von Eltern als Braut für ihren Sohn gekauft. Ältere Kinder werden als (Kinder-)Arbeitskräfte an Industriebetriebe und Kohlegruben verkauft. Ein Kind zu kaufen, ist in China nicht strafbar; lediglich der Verkauf eines Kindes wird bestraft.
Im April kündete das chinesische Polizeiministerium eine neunmonatige Kampagne gegen den Menschenhandel an. Es wurde eine DNA-Datenbank für vermisste Kinder eingerichtet, und die Zeitdauer, nach welcher die Polizei Ermittlungen aufnimmt, wurde in einigen Provinzen von 24 Stunden auf 7 Stunden herabgesetzt.
In Indien wurden 2011 innerhalb eines Jahres fast 100.000 Jungen und Mädchen als vermisst gemeldet, und über ein Drittel von ihnen wurden nicht wiedergefunden.
Eine im Jahr 2022 veröffentlichte Recherche von Spiegel ergab, dass Menschenhändler Jobsuchende aus ganz Asien nach Sihanoukville (Kambodscha) bringen, dort ihre Pässe verkaufen und sie zur Arbeit als Betrüger zwingen.
Menschenhandel in der öffentlichen Wahrnehmung
Laut dem UN-Büro für Drogen- und Verbrechensbekämpfung (UNDOC) waren im Jahr 2020 fast 40 Prozent der verurteilten Menschenhändler weiblich. Dies widerspricht der öffentlichen Wahrnehmung, wonach vor allem Männer Menschenhändler seien.
Auch existieren in der öffentlichen Diskussion bestimmte Stereotypen, wonach von Menschenhandel zur sexuellen Ausbeutung nur Frauen und von Menschenhandel zur Arbeitsausbeutung nur Männer betroffen seien. Frauen sind aber tatsächlich genauso häufig von Arbeitsausbeutung betroffen, insbesondere in den Bereichen Haushalt und Pflege, aber auch in der Landwirtschaft, der Gastronomie sowie im Hotel- und Reinigungsgewerbe. Menschenhandel zur sexuellen Ausbeutung kann auch Kinder, Männer sowie transgender Personen betreffen.
Ein weiteres Problem der Darstellung von Menschenhandel in Öffentlichkeit und Medien stellt die Konzentration auf das Problem von Menschenhandel zur sexuellen Ausbeutung dar. Durch die einseitige Berichterstattung und Fokussierung auf die sexuelle Ausbeutung entsteht in der Öffentlichkeit der Eindruck, dass diese Form des Menschenhandels verbreiteter sei als andere Ausbeutungsformen. Insbesondere der Menschenhandel zur Arbeitsausbeutung ist in der öffentlichen und medialen Diskussion demgegenüber weniger präsent, obwohl die Zahl der Betroffenen weit höher sein dürfte.
Problematisch ist zudem die Gleichsetzung von legaler Prostitution und Menschenhandel zur sexuellen Ausbeutung. Während manche Institutionen jegliche Prostitution als unfreiwillig und erzwungen ansehen, argumentieren vor allem Verbände von Sexarbeitern gegen eine Stigmatisierung von allen Prostituierten als „Zwangsprostituierten“ und für eine Anerkennung als beruflich Selbstständige oder Arbeitnehmer.
Probleme der Dunkelfeldforschung sowie unterschiedliche Definitionen von Menschenhandel in unterschiedlichen Institutionen erschweren verlässliche Aussagen zum Menschenhandel.
In Deutschland kam es insbesondere im Zeitraum der Fußball-Weltmeisterschaft 2006 zu Spekulationen um das mögliche Ausmaß des Menschenhandels zur sexuellen Ausbeutung. In den Medien war von „40.000 Zwangsprostituierten“ die Rede, die zur Fußball-Weltmeisterschaft 2006 in Deutschland erwartet würden. Diese Zahl wird heute angezweifelt und als unzutreffend kritisiert.
Anlässlich der Fußball-Weltmeisterschaft führte FIM – Frauenrecht ist Menschenrecht e.V. in Zusammenarbeit mit einem breiten Netzwerk eine bundesweite Kampagne gegen Zwangsprostitution durch. Das sportliche Großereignis sollte als Anlass dafür genommen werden, erstmals bundesweit Freier anzusprechen. Die Kampagne richtete sich mit Flyern, Plakaten und Fernsehspots direkt an die potenziellen Freier, um sie für das Thema zu sensibilisieren, und forderte sie dazu auf, sich in Verdachtsfällen an eine anonyme Hotline zu wenden.
Im internationalen Kontext berufen sich viele Organisationen und Institutionen auf die jährlich herausgegebenen Trafficking in Person-Berichte der US-Regierung. Seit dem Jahr 2000 veröffentlicht das US-Büro zur Überwachung und Bekämpfung von Menschenhandel (Office to Monitor and Combat Trafficking in Persons – ONCTP) jährlich seine Einschätzung des Menschenhandels und der internationalen Bemühungen zu seiner Bekämpfung. Es bewertet andere Staaten in vier verschiedenen Kategorien, wobei Kategorie 1 die größten Bemühungen zur Bekämpfung von Menschenhandel darstellt. Obwohl diese Berichte von vielen Seiten und bei der wissenschaftlichen Auseinandersetzung mit Menschenhandel verwendet werden, wird die Berichterstattung als interessengeleitet kritisiert und die Nachvollziehbarkeit angezweifelt.
Siehe auch
Zwangsadoption (diese weist oft Aspekte des Menschenhandels auf)
Literatur
Irene Stratenwerth, Esther Sabelus, Simone Blaschka-Eick, Hermann Simon (Hrsg.): Der Gelbe Schein: Mädchenhandel 1860 bis 1930. Deutsches Auswandererhaus, Bremerhaven 2012. ISBN 978-3-00-038801-9. Rezension von Michael Wuliger: »Der gelbe Schein« Vom Schtetl ins Bordell, Eine Ausstellung zu Prostitution und Mädchenhandel 1860 bis 1930. In: Jüdische Allgemeine. 16. August 2012
Christian Pfuhl: Menschenhandel zum Zweck der sexuellen Ausbeutung unter besonderer Berücksichtigung der internationalen Grundlagen. Peter Lang Verlag Frankfurt am Main, 2012. ISBN 978-3-631-62558-3 (Zugleich Dissertation an der Universität Konstanz 2012).
Philipp Thiée (Hrsg.): Menschen-Handel – wie der Sexmarkt strafrechtlich reguliert wird. Vereinigung Berliner Strafverteidiger, Berlin 2008. ISBN 978-3-9812213-0-5
Lea Ackermann, Inge Bell, Barbara Koelges: Verkauft, versklavt, zum Sex gezwungen. Das große Geschäft mit der Ware Frau. Kösel, München 2005. ISBN 3-466-30691-4
Jürgen Nowak: Homo Transnationalis. Menschenhandel, Menschenrechte und soziale Arbeit. Opladen, Berlin und Toronto 2014. ISBN 978-3-86649-473-2
Caroline Baur-Mettler: Menschenhandel und Zwangsprostitution in der Schweiz – Eine Analyse der Rechtsprechung und die Sicht betroffener Opfer und Prostituierter. Schulthess Verlag, Zürcher Studien zum Strafrecht 72, 2014. ISBN 978-3-7255-7105-5 (Zugleich Dissertation an der Universität Zürich 2014).
Rezeption
Filme
Human Trafficking – Menschenhandel. Von Christian Duguay. Kanada, USA, 2005, 176 Minuten
Weblinks
Bundeskriminalamt:
Menschenhandel und Ausbeutung
Bundeslagebilder Menschenhandel
Richtiges Verhalten bei Verdacht des Menschenhandels
Office on Drugs and Crime – Trafficking in Persons (Berichte und Statistiken der Vereinten Nationen)
Internationale Organisation für Migration (Hrsg.): Counter Trafficking and Assistance to Vulnerable Migrants: Annual Report of Activities 2011 Genf 2012 (englisch)
Heike Rabe, Naile Tanis: Menschenhandel als Menschenrechtsverletzung – Strategien und Maßnahmen zur Stärkung der Betroffenenrechte Handreichung, hrsg. vom Deutschen Institut für Menschenrechte und KOK e.V., Berlin 2013
Kinderhandel in China: Polizei gibt gerettete Babys an Käufer zurück Ostasien-Institut der Hochschule Ludwigshafen am Rhein, abgerufen am 16. Juli 2017
Human Trafficking Research and Measurement Portal der Universität Heidelberg, Alfred-Weber-Institut für Wirtschaftswissenschaften, letzte Änderung: 25. November 2014
Bundesweiter Koordinierungskreis gegen Menschenhandel e.V. Startseite
Trafficking in Persons Report 2016 Website des US-Department of State, abgerufen am 28. Oktober 2017 (englisch)
Situation Report Trafficking in human beings in the EU Europol Public Information, Februar 2016 (englisch)
Einzelnachweise
Juristisches Querschnittsgebiet (Deutschland)
Besondere Strafrechtslehre (Deutschland)
Migration
Prostitutionsrecht
|
Q181784
| 122.454681 |
82405
|
https://de.wikipedia.org/wiki/Luzk
|
Luzk
|
Luzk (; ; historisch Lutschesk) ist eine Stadt in der nordwestlichen Ukraine. Die am Fluss Styr gelegene Großstadt mit über 210.000 Einwohnern ist das Zentrum der Oblast Wolyn und Hauptstadt, war aber bis Juli 2020 nicht Bestandteil des gleichnamigen Rajons Luzk.
Name
Die Herkunft des Namens ist unklar.
Hinsichtlich der Etymologie existieren verschiedene Vermutungen:
der Name stammt von dem altslawischen Wort luka ab (Mäander (Flussschlinge) eines Flusses),
der Ort ist nach Luka benannt, einem Anführer des ostslawischen Stamms der Duleben,
der Name leitet sich von einem Stamm der Lutschanen her (die allerdings nur im westlichen Böhmen erwähnt sind).
Geschichte
Kiewer Rus
Die Burg wurde erstmals im Jahr 1085 in der Hypatioschronik als Lutschesk erwähnt und befand sich im Fürstentum Wolhynien.
Die Siedlung entstand um eine aus Holz errichtete Festung eines lokalen Zweigs der Rurikiden. Seit 1154 war sie Mittelpunkt eines eigenen Fürstentums.
Im Mongolensturm 1240 wurde sie von den Mongolen erobert, die aber die Festung nicht zerstörten.
Königreich (Fürstentum) Halytsch-Wolodymyr
Seit 1288 war die Stadt Sitz der orthodoxen Bischöfe von Luzk.
1321 starb mit Georg (Juri), Sohn des Lew I., der letzte Adlige der Gründungslinie in der Schlacht am Irpen gegen Gediminas, Großfürst von Litauen. Dieser verleibte Festung und Stadt seinem Reich ein. 1340 wurde mit dem Bau der Liubartas-Burg begonnen. 1349 wurde die Stadt von Truppen des polnischen Königs Kasimirs des Großen für kurze Zeit erobert, sie fiel aber bereits kurze Zeit später wieder an das Fürstentum Halytsch-Wolodymyr.
Großfürstentum Litauen
Unter den Litauern erfuhr die Stadt einen wirtschaftlichen und kulturellen Aufschwung. Fürst Witold warb Kolonisten für Luzk an (überwiegend Juden, Tataren, Armenier und Karaimen).
1428 wurde das römisch-katholische Bistum Luzk errichtet.
1429 fand auf Einladung des polnischen Königs Władysław II. Jagiełło und Vytautas, des Großfürsten von Litauen, in der Stadt eine Versammlung europäischer Herrscher statt, welche die vom Osmanischen Reich ausgehende Bedrohung zum Thema hatte. Unter den Eingeladenen befanden sich der deutsche Kaiser Sigismund, der russische Großfürst Wassili II., der dänische König Erich von Pommern, der Großmeister des Schwertbrüderordens Zisse von Rutenberg, der pommersche Herzog Kasimir V., Dan III., Herrscher der Walachei, zwei tatarische Chane und weitere deutsche Fürsten.
Fürstentum Wolodymyr, Großfürstentum Litauen
Nach dem Tod von Švitrigaila, dem jüngsten Bruder Władysław Jagiełłos, im Jahr 1452 wurde Wolhynien ein Lehnswesen des Großfürstentums Litauen. Die Stadt wurde Sitz eines Woiwoden, dessen Nachfolger sich später Marschalle des Landes Wolhynien nannten. Im gleichen Jahr erhielt Łuck das Magdeburger Stadtrecht.
Ende des 15. Jh. besaß die Stadt 19 orthodoxe und zwei römisch-katholische Kirchen. Daher trug sie damals auch den Spitznamen Wolhynisches Rom.
Königreich Polen
1569 kam Łuck nach der Union von Lublin unter direkte polnische Herrschaft und wurde Hauptstadt der Woiwodschaft Wolhynien und des Łucker Powiats. 1596 trat der orthodoxe Bischof Kyrill Terlecki mit der Eparchie Łuck zur neuen unierten griechisch-katholischen Kirche bei.
Die orthodoxe Bruderschaft der Stadt vertrat seit 1617 als einzige die Interessen der Orthodoxie. Sie betrieb ein Hospital, eine Schule und eine Druckerei.
Das Brigittenkloster wurde 1624 gegründet.
Mitte des 17. Jahrhunderts war die Stadt auf etwa 50.000 Einwohner angewachsen. Beim Kosaken-Aufstand unter Bohdan Chmelnyzkyj wurde sie 1648 von Truppen des Obersten Kolodko geplündert und teilweise niedergebrannt. Hierbei wurden knapp 4.000 Menschen getötet, etwa 35.000 flohen. Von diesem Ereignis hat sich der Ort lange nicht erholen können.
1781 zerstörte ein Feuer 440 Häuser, beide Kathedralen und zahlreiche weitere Kirchen.
Russisches Kaiserreich
Im Zuge der Dritten Teilung Polens wurde Luzk 1795 von Russland annektiert. Die Woiwodschaft wurde aufgelöst. Luzk war nicht mehr Provinzhauptstadt, sondern wurde von Schytomyr aus regiert. Nach dem Novemberaufstand wurde die Russifizierungsbemühungen in der Stadt verstärkt, wodurch Russisch das Polnische als dominierende Verkehrssprache ablöste. Griechisch-katholische Kirchen wurden in russisch-orthodoxe umgewandelt. 1845 ereignete sich in der Stadt erneut ein Großbrand, der Abwanderungen zur Folge hatte.
1850 wurden drei große Festungen um Luzk gebaut und die Stadt wurde in Michailogorod umbenannt. Bei der ersten gesamtrussischen Volkszählung von 1897 wurde eine Einwohnerzahl von 15.804 festgestellt.
Erster Weltkrieg
Während des Ersten Weltkrieges wurde die Stadt im Feldzug nach Rowno am 29. August 1915 von der österreichisch-ungarischen Armee besetzt, wobei es zu leichten Zerstörungen kam. In der darauf folgenden russischen Gegenoffensive musste die Stadt am 23. September wieder geräumt, konnte aber nach drei Tagen erneut besetzt werden. In der einjährigen Besatzungszeit hatte die 4. Armee unter dem Erzherzog Joseph Ferdinand hier ihr Hauptquartier. Aufgrund von Problemen bei der Nahrungsmittelversorgung brach in dieser Zeit eine Typhusepidemie aus.
Am 7. Juni 1916 wurde Luzk im Verlauf der Brussilow-Offensive nach einem dreitägigen Artilleriebombardement von der russischen Armee zurückerobert.
Ukrainische Volksrepublik
In der Folge des Friedens von Brest-Litowsk wurde Luzk am 7. Februar 1918 von den Deutschen besetzt, die es am 22. Februar 1918 an die Truppen der Ukrainischen Volksrepublik unter Symon Petljura übergaben.
Zweite Polnische Republik
Während des Polnisch-Sowjetischen Kriegs wurde Luzk am 5. Mai 1919 von polnischen Truppen unter General Aleksander Karnicki erobert.
Nach dem Friedensvertrag von Riga kam Luzk 1921 an die Zweite Polnische Republik und wurde erneut Hauptstadt einer Woiwodschaft Wolhynien. Der bereits seit 1890 bestehende Eisenbahnanschluss von Kiwerzi wurde um die Strecke nach Lemberg erweitert. Während der Zugehörigkeit zu Polen entwickelte sich die Industrie in der Stadt. Luzk wurde Garnison des 13. leichten Artillerieregiments.
Am 1. Januar 1939 lebten in Luzk 39.000 Einwohner, darunter 17.500 Juden und 13.500 Polen. Die Umgebung war dagegen mehrheitlich von Ukrainern bewohnt. So wohnten im Powiat 316.970 Einwohner, wovon 59 % Ukrainer, 19,5 % Polen und 14 % Juden waren. Weiterhin lebten dort etwa 23.000 Tschechen sowie Wolhyniendeutsche in 42 Kolonien.
Ukrainische SSR
Im Zuge der sowjetischen Besetzung Ostpolens wurde Luzk im Herbst 1939 von der Roten Armee erobert und der Ukrainischen SSR angegliedert. Viele Fabriken wurden abgebaut (inklusive einer seit 1938 in Bau befindlichen Radiostation) und in die Sowjetunion transferiert. Etwa 10.000 Einwohner, überwiegend Polen, wurden in Lager deportiert oder vom NKWD inhaftiert.
Deutsche Besatzung
Ende Juni 1941 – kurz nach Beginn des Deutsch-Sowjetischen Krieges – nahm die deutsche Wehrmacht Luzk ein. Siehe hierzu Panzerschlacht bei Dubno-Luzk-Riwne.
In der Burg fanden die Deutschen Opfer eines Massakers des NKWD vor. Daraufhin kam es zu einem ersten, von den Deutschen begünstigten Pogrom ukrainischer Nationalisten gegen die jüdischen Einwohner der Stadt. Am 2. Juli 1941 erschoss dann das Sonderkommando 4a der Einsatzgruppe C unter Führung von Paul Blobel und mit Tatbeteiligung eines Zuges Ordnungspolizei und eines Zuges Wehrmacht-Infanterie 1160 Juden. Die verbliebenen jüdischen Bewohner der Stadt wurden in ein Ghetto umgesiedelt und später beim in der Nähe der Stadt gelegenen Dorf Hirka Polonka ermordet.
1943 und 1944 verübten ukrainische Nationalisten der OUN-UPA, zum Teil unter Beteiligung ukrainischer „Selbstschutzgruppen“, an der polnischen Bevölkerung der Westukraine Massaker, mit dem Ziel, diese Gebiete „ethnisch rein“ zu machen. Im Zuge dieser wurde der überwiegende Teil der polnischen Einwohner ermordet oder vertrieben (vgl. dazu auch Polnisch-Ukrainischer Konflikt in Wolhynien und Ostgalizien).
Ukrainische SSR
Unter der 1944 wiedererrichteten sowjetischen Herrschaft wurde die Stadt zu einem Industriezentrum.
Ukraine
Im Zuge des Zerfalls der Sowjetunion und der ukrainischen Unabhängigkeit wurde die Stadt 1991 Teil der Ukraine.
Bevölkerung
Sehenswürdigkeiten
Sakralbauten
Dreifaltigkeitskathedrale (orthodox, Kiewer Patriarchat)
Kathedrale St. Peter und Paul (römisch-katholisch)
Lutherkirche, 19. Jahrhundert (protestantisch)
Große Synagoge
Baukomplex Luzker Bruderschaft mit Kreuzerhöhungskirche, 16. Jahrhundert, historisches Ensemble
Ikonenmuseum
Profanbauten
Liubartas-Burg, 14. Jahrhundert
Haus des Architekten Holowan
Marktplatz
Lessja-Ukrajinka-Straße
Museum der Geschichte der Landwirtschaft in Wolhynien in Rokyni
Verwaltungsgliederung
Am 25. Oktober 2019 wurde die Stadt zum Zentrum der neugegründeten Stadtgemeinde Luzk (). Zu dieser zählten auch die 4 Dörfer Datschne, Pryluzke, Sapohowe und Schabka, bis dahin bildete die Stadt die gleichnamige Stadtratsgemeinde Luzk (Луцька міська рада/Luzka miska rada) am Nordostrand des Rajons Luzk.
Am 12. Juni 2020 wurde die Stadtgemeinde um 1 Siedlung städtischen Typs und 30 weitere Dörfer erweitert.
Am 17. Juli 2020 wurde der Ort Teil des Rajons Luzk.
Folgende Orte sind neben dem Hauptort Luzk Teil der Gemeinde:
Städtepartnerschaften
Luzk hat achtzehn Partnerstädte:
Wirtschaft und Infrastruktur
Der industrielle Schwerpunkt der Stadt liegt auf dem Maschinenbau (u. a. Automobilbau) und der Leichtindustrie. An Hochschulen verfügt der Ort u. a. über eine staatliche Universität und eine industrielle Hochschule.
Verkehr
Luzk liegt am Schnittpunkt der Europastraße 85 (ukrainische Klassifizierung: M 19) mit der N 22 und an der Eisenbahnlinie Lwiw–Luzk–Kiwerzi. Im 14 km nordöstlich der Stadt gelegenen Kiwerzi besteht Anbindung an die Strecke Kowel–Riwne–Kiew.
Unternehmen
Im Jahr 1981 wurde am südlichen Stadtrand eine Wälzlagerfabrik gebaut und 1997 von SKF übernommen. Dort werden, vorwiegend mit deutschen Maschinen, Wälzlager mit Außendurchmesser von 45 mm bis 320 mm gefertigt. Es besteht eine enge Kooperation zum Werk in Lüchow, außerdem wurde 2009 eine Fertigungslinie von Schweinfurt hierher verlagert.
Die deutsche Firma Kromberg & Schubert führt in der Nähe von Luzk seit 2006 ein Werk zur Montage von PKW-Kabelbäumen. Ebenfalls in der Automobilbranche arbeitet das Luzker Automobilwerk (LuAZ), das beispielsweise das Amphibienfahrzeug LuAZ-967 fertigte, sowie den Bus BOGDAN, der in der Ukraine zu den meist genutzten Bussen gehört.
Der 1945 gegründete und zwischen 2008 und 2010 bzw. 2014 und 2016 komplett modernisierte Lebensmittelhersteller ПрАТ «Луцьк Фудз» (PrJSC Lutsk Foods) „produziert nicht, sondern kocht mit Liebe“ unter seinem Markennamen Руна bzw. Runa hochwertige, möglichst naturbelassene Soßen und Konserven u. a. für den Export.
Persönlichkeiten
Benedykt Chmielowski (1700–1763), polnischer Priester und Verfasser der ersten polnischen Enzyklopädie
Alojzy Feliński (1771–1820), polnischer Wissenschaftler und Schriftsteller
Abraham Firkowitsch (1787–1874), Geistliches Oberhaupt der Karaimen, Manuskriptsammler
Józef Ignacy Kraszewski (1812–1887), polnischer Schriftsteller
Zygmunt Szczęsny Feliński (1822–1895), Erzbischof von Warschau
Gabriela Zapolska (1857–1921), polnische Schriftstellerin
Lessja Ukrajinka (1871–1913), ukrainisch-russische Schriftstellerin
Katerina Desnitzka (1886–1960), Krankenschwester im Russisch-Japanischen Krieg
Naoum Blinder (1889–1965), russisch-amerikanischer Geiger und Musikpädagoge
Alfred Kleindienst (1893–1978), wolhyniendeutscher Theologe
Boris Blinder (1898–1987), US-amerikanischer Cellist
Georg Hoffmann (1902–1988), Theologe und Rektor der Universität Kiel
Mateusz Oks (1905–1996), Politiker
Isaac Mamott (1907–1964), kanadischer Cellist und Musikpädagoge
Jaroslaw Smeljakow (1913–1972), russischer Dichter
Szymon Szurmiej (1923–2004), Schauspieler, Regisseur und Theaterleiter
Florian Siwicki (1925–2013), polnischer Armeegeneral und Politiker
Shmuel Shilo (1929–2011), israelischer Schauspieler und Regisseur
Mykola Rjabtschuk (* 1953), ukrainischer Schriftsteller und Journalist
Nelli Tarakanowa (* 1954), Ruderin
Oksana Sabuschko (* 1960), ukrainische Schriftstellerin, Dichterin und Essayistin
Peter Bondra (* 1968), slowakischer Eishockeyspieler
Mykola Oleschtschuk (* 1972), Kommandeur der Ukrainischen Luftstreitkräfte
Swetlana Sacharowa (* 1979), russische Balletttänzerin
Wjatscheslaw Schewtschuk (* 1979), Fußballspieler
Anatolij Tymoschtschuk (* 1979), Fußballspieler der ukrainischen Nationalmannschaft
Ihor Hus (* 1982), Politiker
Witalij Schafar (* 1982), Marathonläufer
Pawlo Schwarz (* 1982), evangelischer Geistlicher
Iwan Banseruk (* 1990), Geher
Jewhen Budnik (* 1990), Fußballspieler
Olena Zjos (* 1990), Bahnradsportlerin
Jana Belomoina (* 1990), Mountainbikerin
Dariia Lytvishko (* 1995), Kirchenmusikerin
Katarina Sawazka (* 2000), Tennisspielerin
Weblinks
Sowjetische topographische Karte (1:100.000)
Siehe auch
Kenessa (Luzk), hölzerne Synagoge der Karäer von 1814; 1972 abgebrannt.
Einzelnachweise
Ort in der Oblast Wolyn
Hochschul- oder Universitätsstadt in der Ukraine
Ersterwähnung 1085
Hauptstadt einer Oblast in der Ukraine
Ort am Styr
Namensgeber für einen Marskrater
|
Q7550
| 112.947387 |
22431
|
https://de.wikipedia.org/wiki/Motorradsport
|
Motorradsport
|
Motorradsport ist das Fahren von Motorrädern und Motorradgespannen im sportlichen Wettkampf.
Geregelt wird der Motorradsport weltweit von der Fédération Internationale de Motocyclisme (FIM), europaweit von der Union Européenne de Motocyclisme (UEM).
Befestigte Rundstrecke
Internationale Meisterschaften
Motorrad-Weltmeisterschaft
500-cm³-Klasse (Prototypen bis 500 cm³, 1949–2001) → MotoGP-Klasse (Prototypen bis 800 cm³, 2007–2011; Prototypen bis 1000 cm³, 2002–2006, seit 2012)
350-cm³-Klasse (Prototypen bis 350 cm³, 1949–1982)
250-cm³-Klasse (Prototypen bis 250 cm³, 1949–2009) → Moto2-Klasse (Prototypen bis 600 cm³, Einheitsmotor von Honda 2010–2018, seit 2019 von Triumph)
125-cm³-Klasse (Prototypen bis 125 cm³, 1949–2011) → Moto3-Klasse (Prototypen bis 250 cm³, seit 2012)
50-cm³-Klasse (Prototypen bis 50 cm³, 1962–1983) → 80-cm³-Klasse (Prototypen bis 80 cm³, 1984–1989)
Superbike-Weltmeisterschaft (seriennahe Motorräder bis 1300 cm³, seit 1988)
Supersport-Weltmeisterschaft (seriennahe Motorräder bis 600 cm³, seit 1999)
Supersport-300-Weltmeisterschaft (seriennahe Motorräder bis 300 cm³, seit 2017)
Formel 750 (1973–1979, seriennahe Motorräder bis 750 cm³)
Formula TT (1977–1989, seriennahe Motorräder)
Formula I – Viertakter von 600 bis 1000 cm³ und Zweitakter von 350 bis 500 cm³
Formula II – Viertakter von 400 bis 600 cm³ und Zweitakter von 250 bis 350 cm³
Formula III – Viertakter von 200 bis 400 cm³ und Zweitakter von 125 bis 250 cm³
FIM Endurance World Championship (Serienmotorräder bis 1000 cm², seit 1980)
FIM Sidecar World Championship
FIM Supermoto World Championship
Internationale Deutsche Supermoto Meisterschaft
Europäische Meisterschaften
Motorrad-Europameisterschaft (1924–1939, 1947–1948, 1961, seit 1981)
Superstock 1000 (bis 1000 cm³)
Supersport 600 (bis 600 cm³)
Moto3 (bis 250 cm³)
Nationale Meisterschaften
(1950–1990, in Klassen von 50 bis 500 cm³)
Langstreckenrennen
8 Stunden von Suzuka
24 Stunden von Le Mans
Bol d’Or gefahren auf dem
Circuit Paul Ricard (1978–1999, seit 2015)
Circuit de Nevers Magny-Cours (2000–2014)
24 Stunden von Lüttich gefahren auf dem Circuit de Spa-Francorchamps
Rennen ohne WM-Status
Daytona 200 gefahren auf dem
Daytona Beach Road Course (1937–1941 und 1947–1960)
Daytona International Speedway (zurzeit Superbike-Klasse, seit 1961)
Motorradmarkenpokale
Yamaha-Cup (Typenpokal mit von 1978 bis 1998 wechselnden Typen; von 1999 bis 2017 Yamaha-R6-Cup)
MZ-Cup (Typenpokal, seit 1997 durchgehend und ausschließlich mit MZ Skorpion)
Straßenrennen
Isle of Man TT gefahren auf dem Snaefell Mountain Course (alle Klassen, seit 1907)
TTXGP (Elektromotorräder, 2009) → TT Zero (Elektromotorräder, seit 2010)
Macau Grand Prix gefahren auf dem Guia Circuit (neben Automobilen zurzeit seriennahe Motorräder bis 1000 cm³, seit 1967)
Manx Grand Prix gefahren auf dem Snaefell Mountain Course
North West 200
Ulster Grand Prix (alle Klassen, 1922–1939 und seit 1946)
Gelände
Motocross
Endurosport
Trial
Hillclimbing (ohne FIM-Weltmeisterschaftstitel)
Rallye Raid wie z. B. Africa Eco Race oder Rallye Paris-Dakar
Bahn
Langbahnrennen (Rennen auf Sand- oder Grasbahnen mit einer Länge von bis zu 1200 m)
Speedway (Rennen auf kurzen Sandbahnen bis 400 m)
Dirttrack oder Flattrack (in den USA)
Eisspeedway
Sonstige Formen
Auto Race (Ōto Rēsu) (Japanische Ovalrennen um Wetteinsätze)
Bergrennen
Freestyle Motocross
Motoball (Fußball auf Motorrädern)
Motorradbiathlon
Supermono (Einzylindermotoren bis 800 cm³)
Beschleunigungsrennen mit speziell aufgebauten Drag Bikes
Skijöring
Siehe auch
Café Racer und Clubmansport
Historischer Motorradsport
Liste tödlich verunglückter Motorradrennfahrer
Weblinks
Motorsportart
|
Q328716
| 92.179775 |
5542406
|
https://de.wikipedia.org/wiki/Nematoida
|
Nematoida
|
Die Nematoida (von und Suffix „-oid“; „fadenartig“) sind ein rangloses Taxon, in dem zwei Stämme wurmartiger, wirbelloser Tiere vereint werden, die Fadenwürmer (Nematoda) und die Saitenwürmer (Nematomorpha).
Merkmale
Die Nematoida haben als gemeinsames Merkmal einen langen, dünnen Körper mit einer Kollagenkutikula und einer Längsmuskulatur. Eine Ringmuskulatur fehlt. Dadurch sind peristaltische Bewegungen nach Art eines Regenwurms unmöglich. Die Tiere bewegen sich durch Wellenbewegungen fort, die bei den Saitenwürmern seitlich von rechts nach links, bei den Fadenwürmer dorso-ventral von oben nach unten erfolgen.
Eine bauchseitige (ventrale) und eine rückenseitige (dorsale) Epidermisleiste wird von je einem Nervenstrang durchzogen. Der Raum zwischen der von der Kutikula überzogenen Längsmuskulatur und dem Darm, das Pseudocoel, ist mit einer Flüssigkeit gefüllt, die unter hohem Druck steht und damit die Funktion eines Hydroskeletts erfüllt.
Ausscheidungsorgane, selbst einfache Protonephriden, sind nicht vorhanden. Die Spermien sind amöboid und haben kein Akrosom.
Allen Nematoida gemeinsam ist eine konstante Anzahl von Zellen für jede Art (Eutelie).
Einzelnachweise
Literatur
Hynek Burda, Gero Hilken, Jan Zrzavý: Systematische Zoologie. UTB, 1. Auflage, Stuttgart 2008, Seite 146–147, ISBN 3825231194.
Vielzellige Tiere
Metazoa
|
Q867425
| 98.141558 |
122090
|
https://de.wikipedia.org/wiki/Ringen
|
Ringen
|
Ringen ist ein Kampf- und Kraftsport mit Ganzkörpereinsatz ohne weitere Hilfsmittel.
Geschichte
Bei den Olympischen Spielen der Antike gehörte das Ringen unter dem Namen Pale zu den Disziplinen des Fünfkampfs. Darüber hinaus war das Ringen aber auch Einzeldisziplin. In der Antike traten die Athleten beim Ringkampf nackt an. Sie wurden noch nicht in verschiedene Gewichtsklassen eingeteilt. Einen Bodenkampf gab es damals noch nicht. Sieger war derjenige, der seinen Gegner dreimal zu Boden geworfen hatte.
Ringen gehört spätestens seit dem Spätmittelalter auch zum Repertoire in der militärischen Nahkampfausbildung. Beschrieben wurde dies zum Beispiel im Jahre 1459 im Fechtbuch von Hans Talhoffer.
Das europäische Kampfringen, welches vermutlich auch die Ritter als Elitekrieger trainiert hatten, starb aus, wird aber heute unter anderen Namen praktiziert, jedoch ohne direkte Verbindung zum europäischen Kampfringen zu haben. Das Ringen am Schwert aus der Deutschen Fechtschule nach Lichtenauer enthielt auch Tritte.
Als Begründer des modernen Ringkampfes in Deutschland gilt Carl Abs. Mit Beginn der Olympischen Spiele der Neuzeit ab 1896 gehört Ringen zum olympischen Programm.
Seit 1950 werden jährlich offizielle Weltmeisterschaften im Ringen veranstaltet. Ausnahme sind lediglich die Jahre, in denen Olympische Sommerspiele stattfinden.
Bei den Spielen 2004 wurde Freistil-Ringen auch als olympische Disziplin für Frauen eingeführt.
Nachdem Ringen (als olympische Kernsportart) im Februar 2013 vom IOC ohne nähere Erläuterung aus dem olympischen Programm gestrichen wurde, kam es zu zahlreichen, auch prominenten, Protesten, beispielsweise von Wladimir Putin, amerikanischen und ostasiatischen Verbänden sowie vom Deutschen Ringerbund (DRB). Drei Monate später (nach einer Neustrukturierung des Weltverbandes FILA) wurde die Sportart Ringen wieder in das olympische Programm aufgenommen und wird mindestens bis zum Jahr 2028 olympisch bleiben.
Regeln
Beim Ringen werden zwei Stilarten unterschieden:
Freistil: Der gesamte Körper, vom Kopf bis zu den Füßen, gilt als Angriffsfläche. Das gilt im Stand- wie auch im Bodenkampf (siehe Hauptartikel Freistilringen).
Griechisch-Römisch (kurz auch Greco): Nur der Körper oberhalb der Gürtellinie gilt als Angriffsfläche. Dies gilt im Stand- wie auch im Bodenkampf (siehe Hauptartikel Griechisch-römisches Ringen).
Ein Ringer zielt generell darauf hin, seinen Gegner aus dem Stand in die Bodenlage und mit beiden Schultern auf die Matte zu bringen (Schultersieg). Dabei kommen als Techniken Würfe, Schleuder- und Hebelgriffe zum Einsatz. Schläge, Tritte, Stöße und Würgeansätze sind verboten. Die Kampfleitung und die Wertung der Grifftechniken übernimmt entweder der Kampfrichter oder ein Kampfgericht aus drei Wertungsrichtern. Sieger ist, wer am Ende der Kampfzeit die meisten Punkte gesammelt hat oder wer vorher seinen Gegner auf beide Schultern gebracht („geschultert“ oder „gepinnt“) hat.
Im Jahr 2005 wurde vom Weltverband FILA ein neues Reglement eingeführt. Die Regeländerungen sollen einen aktiveren Kampf und vor allem einen spannenderen, publikumswirksameren Sport aus dem Ringen machen. Beide Kontrahenten sind gezwungen, schneller als zuvor zu agieren, um das Punkten des Gegners zu verhindern. Allerdings sind die Regeländerungen heftig umstritten.
Gemäß den geänderten Regeln wird international und in Turnierkämpfen in drei Kampfrunden gerungen; In Mannschaftskämpfen wird zwei mal drei Minuten mit 30 Sekunden Pause gerungen. Sieger ist, wer nach sechs Minuten die meisten Punkte gesammelt hat. Der Schultersieg beendet den Kampf sofort.
Eine Runde gewinnt derjenige vorzeitig, der völlig unabhängig vom Gesamt-Punktestand zwei Drei-Punkte-Wertungen oder eine Fünf-Punkte-Wertung erzielt. Ein Unterschied von sechs Punkten beendet ebenfalls die Runde. Beendet keiner der beiden Kontrahenten die Runde vorzeitig, siegt bei Punktgleichheit der Ringer mit den wenigsten Verwarnungen. Bei weiterem Gleichstand entscheidet die höchste Einzelwertung – sind diese weiterhin gleich hoch, bestimmt die letzte erzielte Wertung den Sieger.
Der Ablauf einer einzelnen Runde unterscheidet sich in den beiden Stilarten.
Griechisch-römisches Ringen
Im griechisch-römischen Ringkampf erfolgt zunächst 90 Sekunden Standkampf, anschließend 30 Sekunden Bodenkampf, wobei ein Ringer der Obermann/Angreifer ist. Obermann wird grundsätzlich der Ringer, der nach den im vorherigen Absatz genannten Kriterien Rundensieger wäre.
Bei absolutem Gleichstand im Mannschaftskampf entscheidet der Kampfrichter, wer der führende oder aktivere Kämpfer war und wer Obermann sein darf. Erzielt ein Ringer in den 30 Sekunden, in denen er Obermann ist, keine Wertung, so erhält sein Gegner beim Stand von 0:0 einen Punkt zugesprochen und gewinnt die Runde.
Im Turnier bzw. Einzelwettkampf wird in der ersten Runde bei absolutem Gleichstand der Ringer im roten Trikot zuerst Obermann. Steht es in der zweiten Runde nach Ablauf von einer Minute und 30 Sekunden nach allen genannten Kriterien wieder 0:0, wird der Ringer im blauen Trikot Obermann.
Sollte es eine dritte Runde geben und wieder absoluter Gleichstand herrschen, entscheidet das Los über den Obermann (Wurfscheibe bzw. Münze mit roter und blauer Seite). Sollte ein Ringer vor dem angeordneten Bodenkampf einen Punkt erzielt haben, wird er automatisch Obermann. Sein Gegner erhält nach Ablauf der Zeit keine Extrawertung, wenn keine Aktion seitens des Obermannes erfolgt.
Ab der B-Jugend hat der Obermann/Angreifer seine Hände auf den Rücken des Gegners zu legen oder zum verkehrten Ausheber zu fassen.
Freistilringen
Wurde vor Ablauf der Zeit keine Wertung erzielt, muss der passive Ringer in die Bodenlage gehen und es wird nach Anpfiff des Schiedsrichters ausgerungen. Der Gegner hat vom Anpfiff an 30 Sekunden Zeit, eine Wertung zu erzielen. Sein Gegner hat die Aufgabe, das zu verhindern oder selbst eine Wertung zu erreichen.
Gewichtsklassen
Derzeit sind die Gewichtsklassen bei den Männern verteilt im Bereich zwischen 57 und 130 kg Körpergewicht. Bei den Frauen gibt es Gewichtsklassen im Bereich von 48 bis 75 kg.
Bei den Frauen und Männern gibt es je sieben Gewichtsklassen.
Grifftechniken
Nachfolgend werden einige Griffe beispielhaft aufgeführt. Angesichts der Jahrtausende alten Ringkampf-Tradition gibt es geschätzte 1.000 mögliche Grifftechniken. Allerdings werden nur etwa 100 Griffarten bei Ringkampf-Turnieren tatsächlich angewendet.
Der Spaltgriff ist ein Griff, bei welchem man den Gegner zwischen den Beinen ergreift und ruckartig hochreißt. Er wird bevorzugt angewendet, um einen in der Bank befindlichen Gegner abzuheben oder zu drehen, um so Wertungspunkte zu erzielen. Der Spaltgriff kann für einen Ringer sehr unangenehm sein.
Beim Paketgriff im freien Stil wird mit dem einen Arm der Gegner um den Nacken gegriffen. Mit dem anderen Arm erfasst man das Bein des Kontrahenten in den Kniekehlen und reißt es hoch, so dass er sich nicht mehr befreien kann. Dieser Griff wird auch als „Achselwurf“ bezeichnet.
Der Armzug ist ein Griff im Standkampf, bei dem der Ringer an einem Arm des Gegners zieht und den Gegner mit diesem Richtung Matte herunterreißt. Hierbei gibt es mehrere Variationen, wie z. B. die Art, den Arm über die Schulter zu ziehen und selbst auf die Knie zu gehen, um den Gegner aus dem Stand herunter zu zwingen (Grundausführung).
Der Kopfzug und Kopfhüftschwung sind ähnlich dem Armzug, jedoch wird hier mit einem Arm der Kopf umklammert und eine dem Armzug ähnliche Bewegung ausgeführt. Auch hierbei wird der Gegner, meistens aus dem Stand, auf die Matte befördert.
Beim Suplex greift man den Gegner von hinten mit beiden Armen um den Brustkorb und geht mit Schwung in eine ‚Brücke‘.
Abgrenzung zu anderen Sportarten
Ringen (englisch „Wrestling“) ist nicht zu verwechseln mit dem „Professional Wrestling“ (deutsch: „Catchen“), einer besonders in den USA populären Show-Sportart (WWE), die anderen Regeln folgt.
In vielen Regionen der Welt sind dem Ringen ähnliche Sportarten als traditionelle Volkssportarten verbreitet. Als Beispiele sind zu nennen:
in China: Shuaijiao
in der Türkei: Öl-Ringkampf
in Iran, Afghanistan und Tadschikistan: Koschti
in Korea: Ssireum
in der Mongolei: Boke
in Japan: Sumō
im Ostalpenraum: Ranggeln
in der Schweiz: Schwingen
auf Island: Glíma
auf den Kanaren (Spanien): Lucha Canaria
in der Bretagne (Frankreich): Gouren
Mannschaftskämpfe
Ringen wird auch als Mannschaftssport ausgetragen. Hierbei treten jeweils zwei Teams gegeneinander an. Jedes Team stellt in der Regel pro Gewichtsklasse zwei Starter auf, da sowohl im Freistil als auch im griechisch-römischen Stil gerungen wird. Für das Gesamtergebnis werden die einzelnen gewonnenen Runden addiert. Ausnahme bilden der Schultersieg, die technische Überlegenheit, Aufgabe und Disqualifikation eines Ringers. Diese werden im Gesamtergebnis mit 4:0 für den Sieger gewertet. Werden beide Ringer vom Kampfrichter disqualifiziert, werden keine Punkte vergeben.
Einmal pro Jahr finden die Deutschen Mannschaftsmeisterschaften der Frauen statt. Hierbei treten ausnahmslos Auswahlmannschaften der verschiedenen Bundesländer gegeneinander an. Die Kämpfe finden nur im freien Stil statt.
Ringen in verschiedenen Ländern
Ringen in Deutschland
Deutsche Ringerliga
Ringer-Bundesliga
Ringen in Finnland
Ringen in der Schweiz
Ringer-Europameisterschaften
Listen erfolgreicher Ringer
Liste international erfolgreicher Ringer
Liste der Olympiasieger im Ringen
Literatur
Günter Czech: Ringkampf, klassisch und frei. (2. Auflage) Sportverlag, Berlin 1971
Konstantin Groß: Fit für die Zukunft. 100 Jahre Kraft-Sport-Verein Schriesheim. Mit einem Vorwort von Bundeskanzler Gerhard Schröder, Verlag Druckerei Stöckl GmbH Mannheim, Mannheim 2003, ISBN 3-9806908-8-1
Helmut Minkowski: Das Ringen im Grüblein. Eine spätmittelalterliche Form des deutschen Leibringens. Schorndorf bei Stuttgart 1963 (= Beiträge zur Lehre und Forschung der Leibeserziehung. Band 16).
Weblinks
Deutscher Ringer-Bund (DRB)
Österreichischer Ringsportverband (ÖRSV)
Swiss Wrestling Federation (SWFE)
Internationaler Ringerverband (UWW)
Einzelnachweise
Kampfsportart
Olympische Sportart
|
Q42486
| 490.168155 |
157913
|
https://de.wikipedia.org/wiki/Shanxi
|
Shanxi
|
Shanxi () ist eine Provinz im Norden der Volksrepublik China. Gelegentlich wird sie mit der westlichen Nachbarprovinz Shaanxi () verwechselt, da sich die Aussprache der Namen nur im Ton der ersten Silbe unterscheidet.
Wegen ihrer Lage westlich des Taihangshan-Gebirges trägt die Provinz den Namen Shānxī, der westlich der Berge bedeutet. Die Abkürzung der Provinz lautet Jin (). Jin ist der Name eines antiken chinesischen Staates, der im Gebiet Shanxis lag.
Geographie
Shanxi liegt zwischen der nordchinesischen Ebene und dem mittleren Lauf des Huáng Hé, welcher die Provinz im Westen und im Süden begrenzt. Im Norden verläuft die Chinesische Mauer entlang der Grenze. Nachbarprovinzen sind Shaanxi im Westen, Henan im Süden, Hebei im Osten und die Innere Mongolei im Norden.
Ein großer Teil der Provinz liegt höher als 1000 m über dem Meeresspiegel. Gebirge machen 67,5 % der Fläche der Provinz aus und liegen vor allem im Nordosten. Wichtige Gebirge sind Lüliang Shan (bis 2831 m), Taihangshan (bis 2322 m), Wutai Shan (bis 3058 m), Heng Shan (bis 2017 m) und Taiyue Shan (bis 2567 m).
Shanxi liegt im Osten des Lössplateaus.
Das Klima in Shanxi ist kalt und trocken. Die Temperaturen liegen im Jahresdurchschnitt im Norden bei etwa 5 °C und im Süden bei etwa 15 °C. Im Norden sind nur vier Monate frostfrei. Im Süden sind es immerhin sieben. Der Jahresniederschlag nimmt von Nordwesten nach Südosten zu und beträgt 350 bis 700 mm. Etwa 60 % der Niederschläge fallen im Sommer.
Wichtige Flüsse sind Huang He, Fen He, Sanggang He und Hutuo He.
Wichtige Städte neben der Hauptstadt Taiyuan sind Datong, Yuci, Yangquan, Changzhi, Linfen, Jincheng und Yuncheng.
Geschichte
Shanxi gehört zu den Wiegen der chinesischen Kultur. Unter anderem hat sich in Shanxi im Neolithikum die frühe Xia-Dynastie herausgebildet. Insbesondere der fruchtbare Süden der Provinz mit seinen Lössböden gehörte zu diesem Kern. Die archäologischen Funde im Norden der Provinz belegen die Erschließung dieses Gebietes durch die Zhou-Dynastie (1100–771 v. Chr.).
Während der Zeit der Streitenden Reiche gehörte die Region zuerst zum Königreich Jin (Hauptstädte u. a. in Linfen und Quwo), dann zu den Reichen Wei und Zhao. Nach der Einigung des Reiches durch Qin Shihuangdi war dieses Territorium ein ständiger Bestandteil Chinas. Unter der Han-Dynastie begann die Förderung der Kohlevorkommen bei Datong (Tatung).
Die Tang-Dynastie (618–907) ist in Taiyuan, Shanxi Provinz entstanden. Aufgrund der historische Bedeutung bzw. dem Einfluss und Stärke der Tang-Dynastie in der Geschichte wurde der Begriff „Tang Ren“ () in der chinesischen Sprache zum Synonym für Chinesen allgemein. Während der Tang-Dynastie wurde die Region Hedong (), wörtl. „östlich des (Gelben) Flusses“, genannt. Die Kaiserin Wu Zetian, Chinas einzige Herrscherin, wurde in der Provinz Shanxi geboren.
Während Ming- und Qing-Dynastien war die Stadt Pingyao das Finanzzentrum Chinas.
1556 war auch die Provinz Shanxi durch das schwere Erdbeben in Shaanxi betroffen.
Bei der Hungersnot 1876–79 starben mehrere Millionen Menschen.
Um 1900 breitete sich der Boxeraufstand auf Shanxi aus, und seit der Revolution von 1911 wurde die Provinz durch den Militärgouverneur Yan Xishan beherrscht und wiederaufgebaut. Im zweiten Chinesisch-Japanischen Krieg war die Provinz von 1937 bis 1945 durch die Japaner besetzt. 1947 übernahmen die Kommunisten unter Mao Zedong, deren Basis im benachbarten Yan’an lag, die Macht.
Administrative Gliederung
Auf Bezirksebene setzt sich Shanxi aus elf bezirksfreien Städten zusammen (Stand: Zensus 2020):
Taiyuan (), 6.867 km², 5.304.061 Einwohner;
Datong (), 14.068 km², 3.105.591 Einwohner;
Yangquan (), 4.563 km², 1.318.505 Einwohner;
Changzhi (), 13.977 km², 3.180.884 Einwohner;
Jincheng (), 9.410 km², 2.194.545 Einwohner;
Shuozhou (), 10.629 km², 1.593.444 Einwohner;
Jinzhong (), 16.355 km², 3.379.498 Einwohner;
Yuncheng (), 14.183 km², 4.774.508 Einwohner;
Xinzhou (), 25.186 km², 2.689.668 Einwohner.
Größte Städte
Die zehn größten Städte der Provinz mit Einwohnerzahlen der eigentlichen städtischen Siedlung auf dem Stand der Volkszählung 2020 sind die folgenden:
Demographie
Beim Zensus 2002 wurden 32.368.083 Angehörige der Han-Nationalität, das sind 99,68 % der Bevölkerung, gezählt. Weitere ethnische Gruppen sind die Hui mit 0,19 % der Bevölkerung, die Mandschu mit 0,04 %, die Mongolen mit 0,03 % und die Miao mit 0,01 %.
Bevölkerungsentwicklung
Bevölkerungsentwicklung der Provinz seit dem Jahre 1954.
Wirtschaft und Verkehr
Shanxi verfügt über sehr reiche Vorkommen an Kohle und anderen Rohstoffen, wie zum Beispiel Bauxit, Kupfer, Aluminium und Schwefel. Die Kohlereviere machen 37 Prozent der Fläche Shanxis aus und beherbergen mit 200 Milliarden Tonnen ein Drittel der Kohlevorkommen Chinas. Kohle aus Shanxi wird exportiert und in mehr als 20 Provinzen, regierungsunmittelbare Städte und autonome Gebiete geliefert. Ferner sind die Erzeugung von Stahl, der Maschinenbau, die chemische Industrie und die Textilindustrie, mit Baumwollexport, wichtige Wirtschaftszweige. Der Transport der Güter, insbesondere der Kohle, erfolgt vorrangig über das chinesische Schienennetz. Von den 20 größten Güterbahnhöfen der Volksrepublik China gemessen an der Menge der verladenen Güter in Tonnen befanden sich im Jahr 2012 alleine 15 in der Provinz Shanxi. Wichtige Knotenpunkte sind Datong, wo die Bahnstrecke Datong–Puzhou und die Bahnstrecke Datong-Qinhuangdao beginnen, und die Hauptstadt Taiyuan.
In der Landwirtschaft sind der Anbau von Weizen, Hirse und Gaoliang (, eine Gattung der Sorghum-Hirse, aus der man gern einen hochprozentigen Schnaps brennt) im Terrassenfeldbau von Bedeutung, sowie die Schweinezucht.
Das Bruttoinlandsprodukt betrug im Jahr 2003 245,7 Milliarden RMB und 7410 RMB pro Kopf.
Im Juni 2007 befreite die Polizei in Shanxi und Henan Hunderte Sklavenarbeiter, darunter Dutzende Kinder, aus Kohlebergwerken und Ziegeleien. Es handelte sich mehrheitlich um Arbeitssuchende aus ländlichen Gebieten in Henan, die in die Fänge illegaler Arbeitsvermittler geraten waren.
Sehenswürdigkeiten
Über den Heng Shan sind verschiedene Denkmäler verstreut. Am berühmtesten ist das Hängende Kloster, das in der Nähe vom Pass des Goldenen Drachen an eine steile Felswand 30 Meter über den Talboden gebaut wurde. Das im 6. Jahrhundert entstandenen Kloster besteht aus 40 kleine Hallen und Pavillons. Gestützt werden die Bauten von Balkenkonstruktionen, die in Felsspalten verankert sind.
16 Kilometer südwestlich von Datong liegen die Yungang-Grotten, bekannt für ihre Höhlentempel mit zahlreichen buddhistischen Statuen aus dem 5. und 6. Jahrhundert. Als herausragendes Beispiel für buddhistische Höhlen- und Steinmetzkunst sind die Yungang-Grotten seit 2001 Teil des UNESCO-Weltkulturerbe.
Die Stadt Pingyao, 80 Kilometer südwestlich von Taiyuan, ist vor allem bekannt wegen ihres guterhaltenen Stadtbilds aus den Ming- und Qingdynastien. 1997 wurde Pingyao in das UNESCO-Weltkulturerbe aufgenommen.
Das Wutai-Gebirge bildet die höchste Erhebung der Provinz. Das Gebirge gilt als Residenz des Bodhisattva der Weisheit Manjushri und ist das wichtigste der vier heiligen Gebirge des chinesischen Buddhismus.
Bildung
Technische Universität Taiyuan
Shanxi Universität
Medizinische Universität Shanxi
Söhne und Töchter der Stadt
Sun Fajing (* 1996), Tennisspieler
Weblinks
Einzelnachweise
Provinz (China)
|
Q46913
| 370.457261 |
3754
|
https://de.wikipedia.org/wiki/Orchideen
|
Orchideen
|
Orchideen (Singular: Orchidee, ) oder Orchideengewächse (Orchidaceae) sind eine weltweit verbreitete Pflanzenfamilie. Die zwei hodenförmigen Wurzelknollen der Knabenkräuter (von griechisch ὄρχις orchis ‚Hoden‘) haben der gesamten Pflanzenfamilie ihren Namen gegeben. Nach den Korbblütlern (Asteraceae) stellen die Orchideen die zweitgrößte Familie unter den bedecktsamigen Blütenpflanzen dar. Sie gehören innerhalb der Klasse der Bedecktsamer zu den Einkeimblättrigen Pflanzen (Monokotyledonen). Etwa 1000 Gattungen mit 15.000 bis 30.000 Arten werden von den Botanikern anerkannt.
Merkmale
Allgemeines
Die Pflanzentaxa der Familie Orchideen unterscheiden sich nur durch einige wenige eindeutige Merkmale von anderen verwandten Pflanzenfamilien der Einkeimblättrigen Pflanzen. Dabei gibt es trotz der vielfachen Merkmale, die bei den meisten Orchideenarten zu finden sind, nur sehr wenige, die bei allen vorkommen.
Orchideen weisen folgende spezifische Merkmale auf:
Orchideenblüten besitzen in der Regel eine Säule (Gynostemium). Durch das teilweise oder vollständige Zusammenwachsen des einzigen fruchtbaren Staubblattes (Stamen) und des Stempels entsteht ein einziges Blütenorgan(Pflanzen der Unterfamilie Cypripedioideae mit zwei Stamina und Apostasioideae mit zwei oder drei Stamina).
Die Pollenkörner sind zu den sogenannten Pollinien zusammengeballt.
Orchideen bilden zahlreiche sehr kleine Samen, die in der Regel nicht ohne Symbiosepilze keimfähig sind.
Das in der Symmetrieachse gelegene Blütenhüllblatt des inneren Hüllblattkreises (drittes Kronblatt = Petalum) unterscheidet sich meist deutlich von den anderen und wird Lippe oder Labellum genannt. Es steht dem fruchtbaren Staubblatt (Teil der Säule) gegenüber.
Die Blüten sind in der Regel zygomorph (monosymmetrisch, dorsiventral). Ausnahmen finden sich beispielsweise in den Gattungen Mormodes, Ludisia und Macodes. Die Blüten der meisten Orchideenarten zeichnen sich dadurch aus, dass sie sich von der Knospenbildung bis zur Blütenentfaltung um 180° drehen. Dies wird als Resupination bezeichnet. Es gibt auch Arten, bei denen sich der Blütenstiel um 360° dreht (hyper-resupiniert).
Orchideen sind in der Regel ausdauernde Pflanzen, könnten theoretisch je nach Wuchsform unbegrenzt lange weiterwachsen (jedes Jahr ein oder mehrere Neutriebe oder permanentes Weiterwachsen eines Sprosses). Tatsächlich ist aber nur sehr wenig darüber bekannt, welches Alter Orchideen erreichen können.
Wuchsformen
Orchideen können auf verschiedene Art und Weise wachsen. Man unterscheidet dabei folgende Formen:
epiphytisch, auf anderen Pflanzen wachsend (nicht als Schmarotzer)
terrestrisch, auf dem Boden wachsend
lithophytisch, auf Felsen oder Steinen wachsend
Mehr als die Hälfte aller tropischen Arten wachsen als Epiphyten auf Bäumen. Sie besitzen spezielle morphologische (Velamen radicum, Pseudobulben) und physiologische (CAM-Mechanismus) Besonderheiten, um mit den teilweise widrigen Bedingungen wie Trockenheit und Nährstoffmangel im Kronenraum zurechtzukommen.
Ihre Größe ist sehr unterschiedlich, sie kann nur wenige Millimeter (Platystele jungermannioides, Anathalis manausesis) bis zu einigen Metern (Tiger-Orchidee) betragen.
Habitus
Man unterscheidet monopodial wachsende Orchideen, die eine an der Spitze weiterwachsende einheitliche Sprossachse besitzen (teilweise auch mit Verzweigungen) und sympodial wachsende Orchideen, die durch Verzweigung nacheinanderfolgende Sprossglieder mit begrenztem Spitzenwachstum ausbilden. Bei den monopodial wachsenden Orchideen dienen Blätter und/oder Wurzeln als Speicherorgane, während die sympodial wachsenden Orchideen dazu mehr oder weniger dicke ein- oder mehrgliedrige Pseudobulben ausbilden. Einige Orchideengattungen bilden auch unterirdische Speicherorgane (Kormus). Neben den beiden angeführten Wachstumsformen gibt es aber auch seltene Abwandlungen, die nicht dem normalen Schema monopodialen vs. sympodialen Wachstums entsprechen. So bilden etwa viele Arten der Pleurothallidinae (z. B. Pleurothallis, Lepanthes) trotz sympodialen Wuchses keine Pseudobulben aus, sondern haben stattdessen fleischige Blätter.
Wurzeln
Orchideen bilden keine Primärwurzel (Pfahlwurzel) aus, sondern nur sekundäre Wurzeln, die dem Spross entspringen. In ihrer Dicke unterscheiden sie sich teilweise ziemlich deutlich. Beim überwiegenden Teil der Orchideen weisen die Wurzeln ein Velamen auf. Neben ihrer Funktion als Aufnahmeorgan für Wasser und Nährstoffe dienen sie oft auch als Haft- und Halteorgan. Dies ist besonders bei epiphytisch wachsenden Arten von Bedeutung. Die Form der Wurzeln hängt im Wesentlichen davon ab, wo sie wachsen. Während die frei in der Luft hängenden Wurzeln der Epiphyten bzw. die Wurzeln, die völlig in den Boden wachsen, meist zylindrisch sind, weisen die Haft- und Haltewurzeln, die auf den Oberflächen wachsen, eine eher abgeflachte Form auf. Bei einigen Arten sind die Wurzeln chlorophylltragend, um auch während klimatisch bedingtem Blattabwurf weiterhin Nährstoffe verarbeiten zu können. Die Wurzeln der Orchideen verzweigen eher selten. Sie haben eine Lebensdauer, die von verschiedenen Umweltfaktoren abhängt und kürzer ist als die des Sprosses. Die Neubildung von Wurzeln erfolgt in der Regel mit dem Wachstum des neuen Sprosses zum Ende der Vegetationsperioden oder auch während der Wachstumsphase. Bei vielen terrestrischen Orchideenarten bilden sich an den Wurzeln Speicherorgane oder knollenähnliche Gebilde. Bei einigen Gattungen ist es möglich, dass sich an den Wurzeln Adventivknospen bilden, aus denen neue Sprosse entstehen.
Neben der Mykorrhiza, die für die embryonale Entwicklung aus einem Samen notwendig ist, gibt es auch in den Wurzeln Mykorrhiza. Dabei wachsen die Pilzfäden in die äußeren oder unteren Zellschichten der Wurzeln oder Rhizome. Die Orchideen nehmen auch in diesem Fall durch Verdauung von Pilzteilen oder -ausscheidungen Nährstoffe auf. Da der Pilz, der das Protokorm (Keimknöllchen) befällt, in der Regel nicht mit den neuen Wurzeln nach außen wächst, muss die Mykorrhiza jedes Jahr von neuem (mit der Bildung neuer Wurzeln) ausgebildet werden. Bei ausreichendem Angebot von Licht und Nährstoffen sind Orchideen in der Regel nicht auf diese Mykorrhiza angewiesen. Ausnahmen sind die myko-heterotroph lebenden Orchideen.
Blätter
Der überwiegende Teil der Orchideen besitzt parallelnervige Blätter mit kaum sichtbaren Querverbindungen. Sie sitzen in der Regel zweireihig, abwechselnd an den entgegengesetzten Seiten des Sprosses. Viele Orchideen bilden nur ein einziges richtiges Blatt aus, die Anlagen der Blätter sind jedoch ebenfalls zweireihig. Die Form der Blätter und Blattspitzen, die Festigkeit, die Färbung und der Blattaufbau variieren sehr stark.
Blattformen (Auswahl): kreisrund, elliptisch, eiförmig, verkehrt-eiförmig, nierenförmig, spatelig, spießförmig, länglich, borstenförmig
Form der Blattspitzen (Auswahl): abgerundet, stumpf, spitz, dreispitzig, eingekerbt, eingeschnitten, ungleich scharf gezähnt
Blattränder: in der Regel glatt, teilweise leicht gewellt, nur selten deutlich gekräuselt (Lepanthes calidictyon)
Blattaufbau: mit und ohne Blattstiel
Festigkeit der Blätter: variiert von dünn und weich über fleischig fest bis hin zu sukkulenten Blättern
Blattfarbe: in der Regel Grün in den unterschiedlichsten Abstufungen (von Hell- bis tiefem Dunkelgrün), aber auch vollständig bzw. zum Teil (Unterseiten) rötlich bis rotbraun, oder chlorophyllarm oder -frei vollständig oder zum Teil hell bis weiß
Viele Arten verlieren klimatisch bedingt ihre Blätter, um sie zu Beginn des nächsten Vegetationszyklus neu auszubilden. Während bei dem überwiegenden Teil dieser Arten die Blätter tatsächlich nur einjährig sind, gibt es ebenso Arten, die ihre Blätter nur unter widrigen Standortbedingungen abwerfen bzw. unter günstigen Bedingungen behalten. Es gibt aber auch Arten, die völlig blattlos wachsen (Dendrophylax lindenii). Dafür besitzen sie chlorophylltragende Wurzeln.
Blütenstand
Die Blütenstände der Orchideen sind in der Regel traubenförmig, an denen sich je nach Art bis zu hundert und mehr Blüten ausbilden können. Wachsen verzweigte Blütenstände (rispenförmig), so ist die Traubenform jeweils an den äußersten Zweigen zu finden. Neben den trauben- oder rispenförmigen Blütentrieben gibt es aber auch eine Vielzahl von Orchideen, die nur einblütig sind. Bei einigen Arten bilden sich nacheinander mehrere Blüten an demselben Blütentrieb, wobei jedoch nie mehr als eine Blüte geöffnet ist (z. B. Psychopsis papilio). Die Blütenstände können an jeder Stelle des Sprosses der Orchidee entspringen. Dabei wird zwischen endständigen (terminal (an der Triebspitze), apikal (zentral am Triebansatz)) und seitenständigen (lateral) Blütenständen unterschieden. Meist entspringen die Blütentriebe einer Blattachsel. Aufgrund der Wuchsrichtung sind die Blütenstände der monopodialen Orchideen immer seitenständig. Die einzelnen Blüten werden stets von einer Braktee (Tragblatt) gestützt, die meist unauffällig ist.
Blüte
Keine andere Pflanzenfamilie hat ein solches Spektrum, was Formen und Farben der Blüten anbelangt, wie die Familie der Orchideen. Die Größe der Blüten variiert von einigen Millimetern (Beispiel Lepanthes calodictyon) bis zu 20 Zentimetern und mehr pro Blüte (Beispiel Paphiopedilum hangianum). Das Farbspektrum reicht dabei von zartem Weiß über Grün- und Blautöne bis zu kräftigen Rot- und Gelbtönen. Viele der Orchideenblüten sind mehrfarbig.
Außer bei einigen Gattungen (zum Beispiel Catasetum) sind die dreizähligen Blüten der Orchideen zwittrig. Die Blütenhülle (Perianth) besteht aus zwei Kreisen. Es gibt einen äußeren Hüllblattkreis, der aus drei Kelchblättern (Sepalen) besteht und einen inneren Hüllblattkreis, der aus drei Kronblättern (Petalen) besteht. Die Blütenblätter können frei oder zu einem gewissen Grad miteinander verwachsen sein. Bei einigen Orchideengattungen, so etwa in der Unterfamilie Cypripedioideae oder bei Acriopsis, sind die unteren beiden Sepalen komplett verwachsen. Das in der Symmetrieachse gelegene Blütenhüllblatt des inneren Hüllkreises ist in der Regel deutlich abweichend was Größe, Farbe und Form betrifft. Es bildet die Lippe (Labellum) der Orchideenblüte. Bei vielen Orchideen ist die Lippe auf der Rückseite zu einem schlauchigen bis sackigen Gebilde verlängert, dem so genannten Sporn (Beispiele Aeranthes, Aerangis). In ihm befindet sich entweder Nektar oder er ist leer. Andere Arten bilden aus der Lippe einen „Schuh“ (zum Beispiel die Gattungen der Unterfamilien Cypripedioideae). Außerdem sind Säule (Gynostemium) und der Fruchtknoten wesentliche Bestandteile der Blüten. Im Grundaufbau unterscheidet man monandrische (ein fertiles Staubblatt, Beispiele Cattleya, Phalaenopsis) und diandrische (zwei fertile Staubblätter, Beispiel Paphiopedilum, Cypripedium) Orchideen. Der Fruchtknoten ist bei Orchideen unterständig. Die anderen Blütenteile (Sepalen und Petalen, Säule, Lippe) sind mit diesem vollständig verwachsen und stehen über ihm. In der Regel ist der Fruchtknoten nur sehr schmal und schwillt erst nach der Bestäubung an (Ausbildung der Samenkapsel).
Die Blüten der Orchideen sind mit Ausnahme einiger Gattungen (Beispiel Ludisia und Mormodes mit asymmetrischen Blüten) bilateral-symmetrisch (zygomorph). Das heißt, dass man durch die Mitte der Blüte eine Spiegelachse legen kann, und zwar nur eine einzige (monosymmetrisch).
Eine zentrale Rolle in der Fortpflanzung von Orchideen spielen die besonderen Pollenanhäufungen. Die von den Staubblättern gebildeten Pollen sind zu zwei lockeren oder festen Bündeln verklebt (Pollinien). Diese beiden Klumpen hängen auf einem mehr oder weniger langen Schaft mit einer Klebscheibe (Viscidium), sie haftet an dem Bestäuber durch eine Flüssigkeit aus der Klebdrüse (Rostellum).
Früchte
Fast alle Orchideenfrüchte sind Kapseln. Sie unterscheiden sich in Größe, Form und Farbe deutlich. Epiphyten besitzen eher dickere Früchte mit fleischigen Wänden, terrestrische Arten oft dünnwandige trockene Früchte. Es gibt dreieckige, rundliche mit einer mehr (bis 9) oder weniger (bis 3) großen Anzahl von Rippen oder auch geschnäbelte Früchte. Manche sind behaart oder stachelig oder besitzen eine warzige Oberfläche. Die Früchte entwickeln sich aus dem bereits im Knospenstadium am Boden der Blüte vorgebildeten Fruchtknoten, welcher aus drei Fruchtblättern besteht. Bei eintretender Reife platzen die meisten Orchideenfrüchte der Länge nach auf, ohne sich an der Spitze vollständig zu trennen. Dabei bilden sich in der Regel drei oder sechs Längsspalten, bei manchen auch nur eine oder zwei. Fast immer werden die Samen dabei trocken verstreut.
Vermehrung
Orchideen können auf unterschiedliche Weise vermehrt werden. Es gibt die Vermehrung durch Samen als auch die vegetative Vermehrung. Unter künstlichen Bedingungen ist auch die Vermehrung durch Meristeme möglich.
Samen
Fast alle Orchideen haben winzige Samen. Jede Pflanze produziert Hunderttausende bis Millionen von Samen in einer Samenkapsel. Durch ihre geringe Größe sind die Samen von Orchideen nur noch auf eine Hülle und den in ihr liegenden Embryo reduziert. Im Gegensatz zu anderen Samen fehlt ihnen das Nährgewebe oder Endosperm, das für eine erfolgreiche Keimung nötig ist. Nur bei wenigen Gattungen ist dieses noch vorhanden (z. B. Bletilla). Orchideen sind deshalb auf eine Symbiose mit Pilzen angewiesen. Bei diesem als Mykorrhiza bezeichneten Vorgang wird der mit der Keimung beginnende Embryo durch das Eindringen von Pilzfäden in den Samen infiziert. Der Embryo bezieht über diese Verbindung Nährstoffe (Mykotrophie), indem er Teile des Pilzkörpers oder Ausscheidungen des Pilzes verdaut. Sobald der Sämling zur Photosynthese fähig ist, übernimmt diese die Versorgung der Pflanze mit Nährstoffen und die Mykotrophie ist zur weiteren Entwicklung nicht mehr notwendig. Es gibt aber einige Orchideenarten, die aufgrund des fehlenden oder nur in unzureichenden Mengen vorhandenen Chlorophylls zeitlebens auf die Mykotrophie angewiesen sind (Bsp. Korallenwurz). Dies betrifft alle vollkommen myko-heterotroph lebenden Arten.
Während der überwiegende Teil der Orchideen trockene Samen verstreut, gibt es einige Gattungen (Bsp. Vanilla), bei denen die Samen von einer feuchten Masse umgeben sind.
Bestäubung
Die Bestäubung der Orchideen erfolgt in der Natur hauptsächlich durch Insekten (z. B. Ameisen, Käfer, Fliegen, Bienen, Schmetterlinge), aber auch durch Vögel (z. B. Kolibris), Fledermäuse oder Frösche. Dabei haben sich teilweise Art-Art-Bindungen (z. B. Drakea glyptodon und Zapilothynus trilobatus oder die einheimische Orchis papilionacea und Eucera tuberculata) oder Gattungs-Gattungs-Bindungen (z. B. wird die Orchideengattung Chloraea von Bienen der Gattung Colletes bestäubt) herausgebildet. Diese Spezialisierung ist in der Regel nur einseitig, da keine Insektenart auf die Bestäubung einer einzigen Orchideenart beschränkt ist. Innerhalb der Familie gibt es aber auch einige Gattungen, bei denen sich einige oder alle Arten auf asexuellem Weg durch Selbstbestäubung fortpflanzen. Dazu zählen unter anderem die Gattungen Apostasia, Wullschlaegelia, Epipogium und Aphyllorchis. Von der Art Microtis parviflora ist bekannt, dass sie sich ebenfalls selbstbestäuben kann, wenn die Bestäubung durch Ameisen ausbleibt. Die Bestäuber sind bei einer Vielzahl von Orchideengattungen jedoch unbekannt oder nur wenig erforscht.
Orchideen sind in der Regel nicht selbststeril.
In der Natur entstehen teilweise durch die Bestäuber Hybriden zwischen zwei verwandten Arten (seltener über Gattungsgrenzen hinweg), diese werden Naturhybriden genannt.
Bestäubungsmechanismen
Im Vergleich zu anderen Blütenpflanzen fällt auf, dass beispielsweise nicht-tropische Orchideen häufig keine Belohnung in Form von Nahrung anbieten, sondern ihr Ziel durch Mimikry oder Täuschung erreichen. Werden Belohnungen angeboten, bestehen diese oft nicht aus Nahrung, sondern aus Duftstoffen (zum Beispiel Sexuallockstoffe für Insekten wie es bei manchen Wespenarten der Fall ist) oder Wachs.
Durch die evolutionäre Entwicklung verschiedener Blütenformen ergab sich eine zunehmende Spezialisierung auf bestimmte Bestäubergruppen und somit auch auf die Art und Weise, wie die Blüten bestäubt werden. Im Folgenden werden einige Bestäubungssysteme und -mechanismen erläutert.
„Röhrenblüten“: Der Aufbau der Blüte ist so gestaltet, dass der Bestäuber eine „Röhre“ unterhalb der Säule betreten muss und so der Pollen meist auf den Rücken der Insekten geheftet wird. Manchmal auch an den Kopf oder an die Unterseite. (Bsp. Cattleya)
„Schlüssellochblüten“: Die Blüte ist so gebaut, dass der Bestäuber in oder auf der Blüte eine ganz bestimmte Stellung einnehmen muss, bei der der Pollen meist am Kopf oder manchmal sogar direkt am Schnabel oder Rüssel des Bestäubers angeheftet wird. (Bsp. Epidendrum)
„Fallenblüten“: In dieser Kategorie unterscheidet man in Klapp- oder Kippfallen (Bsp. Porroglossum, Bulbophyllum) und Kesselfallen (Gattungen der Unterfamilie Cypripedioideae). Allen diesen Fallen ist gemein, dass sie die Bestäuber zwingen, durch einen bestimmten Ausgang zu kriechen, bei dem sie meist zuerst die Narbe streifen und danach die Pollinien, die ihnen angeheftet werden. Somit wird eine Selbstbestäubung beim ersten Durchgang verhindert.
„Pheromonblüten“: Die Form der Blüte ähnelt einem weiblichen Insekt und strömt ggf. auch Pheromone aus. Dadurch werden paarungswillige männliche Insekten angelockt und eine Bestäubung findet während des vermeintlichen Versuchs der Kopulation statt. Pseudokopulation ist eine Variante der Mimese und bekannt bei der heimischen Gattung Ophrys.
„Alarmstoffblüten“: Die Blüten senden Alarmstoffe entweder einer vermeintlichen Beute (z. B. der Honigbiene) aus oder produzieren pflanzeneigene Signalstoffe, die normalerweise anzeigen, dass ein Pflanzenfresser die Pflanze bedroht (z. B. eine Schmetterlingsraupe). Vor allem Wespen- und Hornissenweibchen lassen sich davon täuschen und reagieren darauf, indem sie sich auf die Orchideenblüte in Erwartung einer leichten Beute stürzen.
Die Pollen sind bei Orchideen zu Pollinien mit angehefteten Viscidien (Viscidium = Klebscheibe, Klebkörper) zusammengeballt (eine Ausnahme bilden dabei beispielsweise die Cypripedioideae). Dies ermöglicht es, die Pollenpakete exakt zu positionieren, so dass es möglich ist, dass an einem Bestäuber die Pollinien verschiedener Arten befestigt werden können, ohne dass es zu falschen Bestäubungen kommt. An verschiedenen Bienenarten (Euglossinae) konnten bis zu 13 Anheftungsstellen festgestellt werden. Im Gegensatz zu anderen Blütenpflanzen dient der Orchideenpollen nicht als Nahrung.
Eine ungewöhnliche Bestäubungstechnik wendet die epiphytisch lebende chinesische Orchideenart Holcoglossum amesianum an: die Antherenkappe öffnet sich und die männlichen Staubfaden drehen sich aktiv und ohne jedes Hilfsmittel um fast 360 Grad in Richtung der weiblichen Narbe. Die an dem biegsamen Staubfaden befestigten Pollenkörner werden anschließend bei Berührung der Narbe freigegeben, so dass eine Selbstbefruchtung erfolgen kann. Es wird vermutet, dass es sich bei dieser Technik um eine Anpassung der Orchidee an ihren trockenen und insektenarmen Lebensraum handelt, die womöglich bei Pflanzen vergleichbarer Biotope gar nicht so selten ist. Die bereits bekannte Selbstbestäubung der Bienen-Ragwurz (Ophrys apifera) folgt einem ähnlichen Schema.
Orchideen und Prachtbienen: Die bestuntersuchten Blumendüfte sind die von Stanhopea und Catasetum, die durchdringend nach Ananas, Vanille, Zimt, Kümmel oder Menthol riechen und Prachtbienenmännchen anziehen, wobei diese die Blüten beim Einsammeln der von der Pflanze produzierten Öle bestäuben. Die gesammelten Duftstoffe dienen den männlichen Bienen bei der Balz. Es gibt sowohl unzählige Prachtbienen- als auch jeweils dazugehörige Orchideen-Arten.
Vegetative Vermehrung
Verschiedene Arten haben die Möglichkeit, sich durch die Bildung von Stolonen (Bsp. Mexipedium xerophyticum), Knollen (Bsp. Pleionen) oder Kindeln (Adventiv-Pflanzen; Bsp. Phalaenopsis lueddemanniana) auf vegetativem Weg fortzupflanzen. Die entstehenden Pflanzen sind genetisch identisch.
Meristeme
Die Vermehrung über Meristeme erfolgt vor allem im Erwerbsgartenbau zur Erzeugung großer Mengen von Orchideen für den Schnitt wie auch zum Verkauf als Topfpflanze, die man häufig in Gartencentern oder Baumärkten erwerben kann. Große Produzenten findet man vor allem in den Niederlanden oder in Thailand. Außerdem ist es die einzige Möglichkeit, von bestimmten Klonen, beispielsweise prämierten Pflanzen, identische Nachkommen in großen Mengen zu erzeugen, die auch den gleichen Kultivarnamen tragen dürfen. Im Erwerbsgartenbau geht man bei der Massenvermehrung aber immer mehr dazu über, mittels In-vitro-Aussaat von Orchideensamen und Clusterbildung durch Hormongaben den Bedarf zu decken.
Verbreitung
Orchideen wachsen mit Ausnahme der Antarktis auf jedem Kontinent.
Aufgrund ihrer enormen Vielfalt gibt es Orchideen fast in jeder Ökozone (nicht in Wüsten). Selbst oberhalb des nördlichen Polarkreises oder in Patagonien und den dem ewigen Eis des Südpols vorgelagerten Inseln, z. B. Macquarie Island gibt es Orchideen. Der Großteil der Arten wächst allerdings in den Tropen und Subtropen, hauptsächlich in Südamerika und Asien. In Europa gibt es etwa 250 Arten.
Einen groben Überblick über die Häufigkeit auf den einzelnen Kontinenten bietet die folgende Auflistung:
Eurasien – etwa 40 bis 60 Gattungen
Nordamerika – etwa 20 bis 30 Gattungen
Neotropis (Mittel- und Südamerika und Karibische Inseln) – etwa 300 bis 350 Gattungen
tropisches Afrika – etwa 125 bis 150 Gattungen
tropisches Asien – etwa 250 bis 300 Gattungen
Ozeanien – etwa 50 bis 70 Gattungen
Systematik
In den Anfängen der botanischen Systematik finden sich bei Linné 1753 acht Gattungen, die zu den Orchideen gehören. Jussieu fasste sie 1789 erstmals als Familie Orchidaceae zusammen. In der Folge wurden rasch sehr viele tropische Arten bekannt; so unterschied Swartz im Jahr 1800 schon 25 Gattungen, von denen er selbst zehn neu aufstellte. Swartz publizierte im selben Jahr eine Monographie der Familie und gilt als einer der ersten Spezialisten für die Systematik der Orchideen.
Im 19. Jahrhundert erschienen, bedingt durch die Kenntnis immer neuer tropischer Orchideen, weitere wichtige Arbeiten. Lindley veröffentlichte von 1830 bis 1840 The Genera and Species of Orchidaceaous Plants mit fast 2000 Arten und einer wegweisenden Einteilung in Unterfamilien und Triben. In England erschien 1881 Benthams Systematik, die auch in seinem zusammen mit Hooker herausgegebenen Werk Genera Plantarum verwendet wurde. Am Heidelberger botanischen Garten entstand 1887 Pfitzers Entwurf einer natürlichen Anordnung der Orchideen. 1926 erschien posthum Schlechters Arbeit Das System der Orchidaceen mit 610 Gattungen; es wurde für die nächsten Jahrzehnte das Standardwerk.
Im 20. Jahrhundert waren die Publikationen Dresslers einflussreich, vor allem The Orchids. Natural History and Classification von 1981. Die weitere Entwicklung verläuft über die kladistische Analyse äußerer Merkmale zur Auswertung genetischer Untersuchungen, die zahlreich etwa von Mark W. Chase publiziert wurden.
Aus phylogenetischer Sicht existieren die fünf primären monophyletischen Linien Apostasioideae, Cypripedioideae, Vanilloideae, Orchidoideae und Epidendroideae, deren Verwandtschaftsverhältnisse in einem Kladogramm wie folgt dargestellt werden können:
Danach gibt es keine genetischen Anhaltspunkte für die Existenz der Unterfamilien Vandoideae oder Spiranthoideae. Die Unterfamilie Vandoideae ist nach diesen Untersuchungen ein Bestandteil innerhalb der Epidendroideae, die Spiranthoideae ein Bestandteil der Orchidoideae. Die separate Unterfamilie Vanilloideae war „klassisch“ Bestandteil der Epidendroideae.
Innerhalb der einkeimblättrigen Pflanzen werden die Orchideen in die Ordnung der Spargelartigen (Asparagales) gestellt. Auf Basis äußerer Merkmale ließ sich die Frage nach den nächsten Verwandten der Orchideen nur unsicher beantworten, Alstroemeriaceae, Philesiaceae oder Convallariaceae wurden vermutet, auch eine Einordnung in die Ordnung der Lilienartigen (Liliales) schien möglich. Genetische Untersuchungen bestätigten die Zuordnung zu den Spargelartigen und sehen die Orchideen als Schwestergruppe zu allen anderen Spargelartigen, das heißt, sie haben sich schon früh von den anderen Pflanzen dieser Ordnung entfernt.
Evolution
Die Orchideen wurden häufig als besonders junge Familie angesehen. Anhand eines fossilen Polliniums von Meliorchis caribea wurde das Mindestalter des letzten gemeinsamen Vorfahren aller Orchideen auf 76 bis 84 Millionen Jahre bestimmt. Bis zum Ende der Kreidezeit vor 65 Millionen Jahren spalteten sich schon die fünf Unterfamilien auf. Im Tertiär fand eine große Zunahme der Artenvielfalt der Orchideen statt. Nach der Methode der „molekularen Uhr“ datiert der Ursprung der Orchideen noch früher, vor mindestens 100, wenn nicht sogar 122 Millionen Jahren. Es wird angenommen, dass sie sich in einem tropischen Gebiet als erstes entwickelten. Die Verbreitung verschiedener primitiver Orchideen (Bsp. Vanilla, Corymborkis) und das Vorkommen der primitiven Gattungen (Bsp. Cypripedium, Epistephium) in nahezu allen tropischen Gebieten ist ein Indiz dafür, dass die Entwicklung der Orchideen in einer Zeit begonnen haben muss, in der Afrika und Südamerika enger beieinanderlagen (Kontinentaldrift). Der Hauptteil der Evolution der Orchideen hat allerdings erst begonnen, als sich die wichtigsten tropischen Regionen schon weiter voneinander entfernt hatten.
Die epiphytische Lebensweise vieler Orchideen, vor allem der tropischen und subtropischen Arten, ist das Resultat einer evolutionären Anpassung an verschiedene Bedingungen. Periodisch trockenes Klima oder gut entwässerte Standorte, die bereits zur Entstehung der Orchideen vorhandene Neigung zur Insektenbestäubung sowie der zumindest kurzzeitige Zyklus einer myko-heterotrophen Lebensweise und der damit einhergehenden Entwicklung von kleinen Samen scheinen wesentliche Faktoren gewesen zu sein, dass Orchideen Bäume besiedelten. Andererseits scheint auch die Ausbildung von fleischigen Wurzeln mit Velamen oder von fleischigen Blättern als Anpassung an die periodisch trockenen Standortbedingungen eine Voraussetzung oder eine Möglichkeit gewesen zu sein, von Felsen oder anderen gut entwässerten Standorten auf Bäume überzusiedeln. Ob dabei der Weg über Humusepiphyten und anschließende Besiedlung der ökologischen Nischen in den Baumkronen oder die direkte Besiedlung der Bäume erfolgte, konnte bis heute nicht geklärt werden.
Bei der Wuchsform der Orchideen geht man davon aus, dass sich die Vielfalt der heutigen Orchideen aus einer sehr primitiven Form entwickelt hat, die man noch ansatzweise in fast allen Unterfamilien findet. So werden die ersten Orchideen einen sympodialen Wuchs mit schmalen Rhizomen, fleischigen Wurzeln (keine Speicherorgane), gefaltete Blätter und endständige Blütenstände besessen haben. Aufgrund der fehlenden Fossilien lässt sich nur schwer ableiten, auf welchem Weg sich die verschiedenen Wuchsformen herausgebildet haben und welches die Hauptrichtungen der Wuchsevolution sind. Ähnlich verhält es sich bei der evolutionären Entwicklung der verschiedenen Blütenformen. Es wird davon ausgegangen, dass die Entwicklung und Anpassung der Blüten vor allem mit den bestäubenden Insekten in Verbindung zu bringen ist. Am Anfang stand sicherlich eine lilienähnliche Blüte, die nach und nach ihre ventralen Staubbeutel verloren hat. Dies hängt wahrscheinlich mit der Art zusammen, wie die Bestäuber in die röhrenförmige Blüte eingedrungen sind. Dabei konnten wohl nur die dorsalen Staubbeutel ihre Pollen an eine für die Bestäubung sinnvolle Position heften. Die Ausbildung der Lippe resultierte ziemlich wahrscheinlich daraus, dass die Insekten immer wieder auf die gleiche Art und Weise auf den Blüten „gelandet“ sind. Vermutlich konnten Pflanzen mit lippenförmigem unterem Petalum (medianes Blütenhüllblatt des inneren Blütenhüllblattkreises) die jeweiligen Bestäuber besser unterstützen, was ein entscheidender Vorteil in ihrer Evolution gewesen sein dürfte.
Gattungen und Arten
Siehe auch: Liste der Orchideengattungen
Die Schätzungen über die Artenzahl der Orchideen reichen von 15.000 bis 35.000. Govaerts, der für die Kew Gardens eine Checkliste führt, stellte 2005 einen Stand von 25.158 Arten in 859 Gattungen fest. Im Zeitraum von 1990 bis 2000 wurden pro Jahr 200 bis 500 neue Arten beschrieben. Die artenreichsten Gattungen besitzen eine hauptsächlich tropische Verbreitung, dies sind:
Bulbophyllum (1800 Arten), Pleurothallis (1250), Dendrobium (1200), Epidendrum (1120), Lepanthes (970), Habenaria (845), Maxillaria (560), Masdevallia (545), Stelis (525) und Liparis (425)
In der gemäßigten Zone ist die Artenvielfalt geringer, je etwa 250 Arten sind in Europa, Ostasien und Nordamerika verbreitet. Gattungen der gemäßigten Zone sind unter anderen:
Frauenschuhe (Cypripedium), Dingel (Limodorum), Händelwurzen (Gymnadenia), Hohlzungen (Coeloglossum), Hundswurzen (Anacamptis), Knabenkräuter (Dactylorhiza, Orchis), Kohlröschen (Nigritella), Kugelorchis (Traunsteinera), Nestwurzen (Neottia), Nornen (Calypso), Ragwurzen (Ophrys), Stendelwurzen (Epipactis), Waldhyazinthen (Platanthera), Waldvöglein (Cephalanthera), Zweiblatt (Listera), Zwergstendel (Chamorchis)
Gefährdung der Habitate und Artenschutz
Nur für die wenigsten Gattungen liegen gesicherte Informationen über die Stärke der Populationen vor. Trotzdem muss davon ausgegangen werden, dass die Bestände vieler Arten in der Natur stark gefährdet sind. Dies gilt für die Habitate in allen Regionen der Welt. Vor allem die Abholzung der Regenwälder und die landwirtschaftliche Nutzung von Gebieten mit Orchideenhabitaten reduzieren die Bestände stetig. Zusätzlich werden sie durch das unkontrollierte Sammeln gefährdet.
Zum Schutz der Pflanzen wurden Vorschriften erlassen, die den Handel und den Umgang mit ihnen regeln. Alle Orchideenarten stehen mindestens im Anhang II des Washingtoner Artenschutz-Übereinkommens (WA). Folgende Gattungen und Arten stehen aufgrund besonders umfangreicher Aufsammlungen in der Vergangenheit und/oder der Gegenwart im Anhang I und unterliegen somit noch strengeren Auflagen:
Aerangis ellisii, Dendrobium cruentum, Laelia jongheana, Laelia lobata, Peristeria elata, Renanthera imschootiana;
alle Arten der Gattungen Paphiopedilum und Phragmipedium.
Der Rückgang vieler europäischer Arten ist auch auf eine veränderte ländliche Bewirtschaftung zurückzuführen. Durch den enormen Rückgang der Beweidung (Schafe usw.), vor allem in Mitteleuropa, gehen die v. a. durch menschlichen Eingriff entstandenen Habitate (Trockenrasen) in ihren vermuteten ursprünglichen, bewaldeten Zustand zurück. Orchideenarten, die auf Trockenrasen wachsen, treten in diesen Wäldern kaum noch auf. Aus Sicht der Megaherbivorenhypothese jedoch wäre diese Wiederbewaldung als nur bedingt natürlicher Prozess zu verstehen, und Weidelandschaften wie Trockenrasen hätten auch vor dem Eintreffen des Menschen in Europa natürlicherweise existiert.
Geschichte
Siehe auch: Liste bedeutender Orchideenforscher
Orchideen faszinieren und beschäftigen die Menschen schon seit mehr als 2500 Jahren. Sie wurden als Heilmittel, Dekoration und Aphrodisiakum verwendet oder sie spielten im Aberglauben eine große Rolle.
China
Die ältesten Überlieferungen über Orchideen stammen aus dem Kaiserreich China und beziehen sich auf die Kultur von Orchideen aus der Zeit um 500 v. Chr. (Tsui Tsze Kang: Orchideenkultur im Kum Cheong (erschienen in der Song-Dynastie 1128–1283)). Der chinesische Philosoph Konfuzius (551–478 v. Chr.) berichtete über ihren Duft und verwendete sie als Schriftzeichen »lán« (), was so viel wie Anmut, Liebe, Reinheit, Eleganz und Schönheit bedeutet. Allgemein gilt die Orchidee in der chinesischen Gartenkunst als Symbol für Liebe und Schönheit oder auch für ein junges Mädchen. Orchideen in der Vase stehen dort für Eintracht.
Die ersten monographischen Abhandlungen über Orchideen entstanden in China bereits während der Song-Dynastie (Tsui Tsze Kang: Orchideenkultur im Kum Cheong, Wong Kwei Kok Die Orchideenkultur des Herrn Wong). Anhand der Schilderungen in diesen Werken kann man ablesen, dass sich die Orchideenkultur in China damals bereits auf einer hohen Stufe befand.
Amerika
Auch in Amerika (Mexiko) werden Orchideen schon lange kultiviert. Noch bevor die Spanier das Land eroberten, wurden vor allem die Früchte von „Tlilxochitl“ (Vanilla planifolia) als Gewürz geschätzt. Die Azteken verehrten »Coatzontecomaxochitl« (Stanhopea-Arten) als heilige Blumen und kultivierten diese in den Gärten ihrer Heiligtümer.
Europa
Die ältesten europäischen Überlieferungen, in denen Orchideen erwähnt werden, stammen aus der griechischen Spätklassik von Theophrastus von Lesbos (etwa 372–289 v. Chr.). In seinem Werk Historia plantarum beschrieb er eine Pflanze mit zwei unterirdischen Knollen und bezeichnete sie als orchis, was dem griechischen Wort ὄρχις „Hoden“ entspricht. Kurt Sprengel deutete sie als die Art Orchis morio. Die älteste erhalten gebliebene Schrift über Orchideen stammt von Pedanios Dioscurides (1. Jh.). Er beschrieb vier Arten (Orchis, anderes Orchis, Satyrion und rotes Satyrion), die nach seinen Angaben botanisch nur schwer zu bestimmen sind. Medizinisch sollten sie wundheilend, stuhlstopfend und gegen Atemnot wirken. Unter Anwendung der Signaturenlehre unterschied Dioscurides bei den rundknolligen Orchideen zwei Arten von Wurzelknollen: die großen diesjährigen und die kleinen letztjährigen. Die großen, von Männern verzehrt, sollten die Geburt von Knaben bewirken, die kleinen, von Frauen genossen, die Geburt von Mädchen. Allgemein sollten die Orchideenwurzeln als Aphrodisiakum wirken. Die Orchideenbeschreibungen bei Plinius (1. Jh.) und Galen (2. Jh.) sowie bei späteren Autoren weichen nur unwesentlich von denen des Dioscurides ab.
Seit dem Spätmittelalter wurden flache, handförmige Orchideenwurzeln von runden Wurzeln unterschieden. Die flachen, handförmigen Wurzeln wurden „palma christi“, „manus christi“, „stendel wurcz das wyblin“ oder „hendel wurcz“ genannt.
Ab der ersten Hälfte des 16. Jh. setzte man sich auch in Europa stärker mit den Orchideen auseinander. So in den Werken der Väter der Botanik, die die bisher bekannten Pflanzen ordneten, indem sie verwandte Arten zusammenstellten, Wuchsformen, Blüten und Wurzelknollen beschrieben.
Mit dem Erscheinen von Species plantarum von Carl von Linné (1753) erhielten auch verschiedene Orchideenarten erstmals Namen nach der binären Nomenklatur. Jussieu begründete 1789 mit der Herausgabe des Werkes Genera Plantarum die Grundlagen der botanischen Klassifikation und somit auch die Schaffung der Orchidaceae als Pflanzenfamilie. Der schwedische Botaniker O. Swartz gliederte 1800 als erster die Orchideenfamilie in zwei verschiedene Gruppen (ein oder zwei fruchtbare Staubblätter). Mit seinem Werk The Genera and Species of Orchidaceous Plants (London, 1830 bis 1840) und unzähligen Einzelbearbeitungen wurde J. Lindley zum eigentlichen Begründer der Orchideenkunde. Sein Hauptwerk lag in der Gliederung und Beschreibung von Arten. Seine Arbeiten wurden später durch H. G. Reichenbach (Rchb. f.), J. D. Hooker, R. Schlechter und andere ergänzt, erweitert und zum Teil wesentlich überarbeitet.
Bevor man in Europa begann, aus Übersee tropische Orchideen einzuführen, kultivierte man schon lange Zeit heimische Orchideen in den Gärten. Die erste tropische Orchidee in Europa erblühte 1615 in Holland (Brassavola nodosa). 1688 wurde Disa uniflora aus Südafrika nach Europa eingeführt. Vor allem durch seine weltweite Vormachtstellung als Kolonialmacht und die daraus resultierenden Verbindungen gelangten viele Arten nach England, wo im 19. Jahrhundert zahlreiche Sammlungen entstanden. Vor allem C. Loddiges war ausgesprochen erfolgreicher Kultivateur. Als 1818 bei W. Cattley die erste Cattleya labiata (später als Cattleya labiata var. autumnalis bezeichnet) erblühte, war die große lavendelblaue Blüte eine Sensation in Europa und führte zu einem immer stärkeren Bedarf an weiteren tropischen Orchideen. Es wurden immer mehr Sammler und Forschungsreisende (darunter John Gibson, William und Thomas Lobb, D. Burke, J. H. Veitch) in alle Welt geschickt, um neue unbekannte Arten zu finden und diese Pflanzen in die Sammlungen der zahlenden Gärtnereien (zum Beispiel C. Loddiges, J. Linden, F. Sander, L. van Houtte, Veitch and Sons) und Privatpersonen (zum Beispiel W. Cattley, A.L. Keferstein, Senator Jenisch) einzugliedern. Die Anzahl der Importe verringerte sich erst wieder, als die Orchideenzüchtung immer mehr an Bedeutung gewann (Anfang 20. Jahrhundert). Mit dem Beginn der stärkeren wissenschaftlichen Untersuchung der Familie Orchidaceae – unter anderem zur Klärung offener Verwandtschaftsverhältnisse – und dem wachsenden Interesse von Amateuren stieg der Bedarf und das Interesse an den Naturformen wieder. Auch heute noch sind Gärtnereien in aller Welt daran interessiert, Wildformen in ihre Bestände einzugliedern, um durch Einkreuzungen vorhandenes Pflanzenmaterial aufzufrischen. Auch heute werden bisher unbekannte Arten neu entdeckt.
In den letzten Jahrzehnten wurde die Orchideenkultur immer populärer, das Angebot und die Verfügbarkeit von Kulturhybriden wurde größer und so versuchten sich immer mehr Amateure daran, in den heimischen Zimmern, Vitrinen und Gewächshäusern Orchideen zu kultivieren. Heute ist die Kultur dieser Pflanzen nichts Ungewöhnliches mehr. Vor allem der Massenproduktion von Orchideen in Taiwan, Thailand und den Niederlanden ist es zu verdanken, dass die Preise der Pflanzen so gesunken sind, dass eine blühende Orchidee im Topf (zum Beispiel in Deutschland) zum Teil preiswerter ist als ein durchschnittlicher Blumenstrauß. Diese Popularität hat aber auch dazu geführt, dass die Jagd nach dem Besonderen, dem Einzigartigen, dem Besitz besonders hochwertiger Pflanzen wieder aktueller denn je ist. Die Folge ist zum einen, dass für besonders rare Exemplare oder prämierte Pflanzen exorbitante Preise in Japan oder den USA gezahlt werden, und zum anderen, dass aus Geldgier besonders bei neuentdeckten Arten häufig die natürlichen Bestände geplündert werden, nur um die Nachfrage sogenannter „Sammler“ zu befriedigen. So führte die Entdeckung von Phragmipedium kovachii neben einem Streit um die Erstbeschreibung auch dazu, dass die bekanntgewordenen Habitate in Peru stark dezimiert wurden.
Orchideen standen zudem im Mittelpunkt des künstlerischen Schaffens der amerikanischen Malerin Georgia O’Keeffe, die Blumenmotive mit der Sexualität weiblicher Körper assoziierte. Zu nennen wären etwa die Bilder An Orchid oder Narcissa’s Last Orchid, jeweils aus dem Jahr 1941.
Wirtschaftliche Bedeutung
Orchideen als Nutzpflanzen
Trotz ihrer großen Vielfalt werden nur wenige Orchideenarten als kultivierte Nutzpflanze verwendet. Dazu zählt die Gewürzvanille (Vanilla planifolia) zur Gewürzproduktion. Einige Arten werden auch zur Aromatisierung/Bereitung von Tee (Bsp. Jumellea fragrans) oder auch als Parfümierungsmittel für Parfüm und Tabak (Bsp. Vanilla pompona) genutzt.
Wo nationale Naturschutzgesetze dies nicht unterbinden, werden verschiedene Arten der Gattungen Orchis und Ophrys (Bsp. Orchis morio) durch Naturentnahmen zur Gewinnung von Gallerte aus „Salep“ genutzt. Die ausgegrabenen Wurzelknollen werden in der Türkei zur Aromatisierung von Speiseeis verwendet.
Orchideen als Zierpflanze
Große wirtschaftliche Bedeutung erlangen die Orchideen als Zierpflanzen oder Schnittblumen. Viele können in weitem Umfang, auch über Gattungsgrenzen hinweg, zur Kreuzung verwendet werden. So entstanden im Lauf der letzten etwa 150 Jahre ungefähr 100.000 Hybriden. Von diesen werden wiederum einige Tausende als Zierpflanzen kommerziell vermehrt und verkauft. Den größten Anteil daran haben im Zierpflanzenbereich die Züchtungen von Hybriden der Gattungen Phalaenopsis, Cattleya, Dendrobium, Paphiopedilum und Cymbidium. Außer als getopfte Pflanzen werden die Blütentriebe der Gattungen Phalaenopsis, Dendrobium und Cymbidium häufig auch als Schnittblumen vermarktet.
Im südostasiatischen Raum erwirtschaftet Thailand mit dem Export von Orchideen jährlich ca. 2 Milliarden Baht (etwa 40 Mio. Euro), wobei die Hauptmärkte in den USA, Japan, Europa, Hongkong, Taiwan und Südkorea liegen. Dies sorgte 2002 für den Export von über 3,1 Mio. Orchideenpflanzen. Da laut thailändischer Landwirtschaftsbehörde ein Trend mit großem Umsatzpotenzial erkannt wurde, wird versucht, die Qualität und Attraktivität der thailändischen Orchideen mit Zertifikaten weiter zu steigern.
In Europa werden große Mengen von Orchideenhybriden vor allem in den Niederlanden für den Massenmarkt (Baumärkte, Pflanzen- und Blumencenter) produziert. So gab es 2003 dort etwa 216 ha überglaste Anbaufläche alleine für die Produktion von Orchideen für den Schnittblumenverkauf. In den USA betrug der Umsatz durch getopfte Orchideen etwa 121 Millionen US-$ (2003).
Der Massenmarkt wird vorwiegend mit in vitro erzeugten Pflanzen bedient. Die Bedeutung dieses Geschäftszweiges lässt sich anhand der Entwicklung der Produktionsmengen belegen. Innerhalb von 10 Jahren (1991–2000) hat sich die Menge der in Deutschland in vitro produzierten Orchideen fast verfünffacht (1991: ca. 2,5 Millionen Pflanzen, 2000: über 12 Millionen Pflanzen). Den größten Anteil hatten daran Pflanzen (größtenteils Hybriden) der Gattungen Phalaenopsis (2000: über 9 Millionen Pflanzen).
Sonstiges
Darwins Entdeckungen
Schon Charles Darwin war fasziniert von einer madagassischen Orchideen-Blüte Angraecum sesquipedale mit einem bis zu 35 cm langen Sporn. Auch diese Blüte muss irgendwie bestäubt werden, und irgendein Tier muss in diesen Sporn hineinkommen. Tatsächlich fand man 1903 das zu der Pflanze passende Insekt, den Schwärmer Xanthopan morgani praedicta.
Orchideen als psychoaktive Pflanze
Die Trichocentrum cebolleta ist eine Orchideenart mit gelb-braun getupften Blüten, die im tropisch-subtropischen Amerika und in der Karibik wächst. In Europa wird sie schon seit langem als Zierpflanze kultiviert. Die Blätter enthalten als wirksame Inhaltsstoffe verschiedene Phenanthrene. Diese wirken halluzinogen und werden von den Tarahumara (einem mexikanischen Indianerstamm) als Ersatz für den Peyotekaktus Lophophora williamsii gebraucht (Hauptwirkstoff Meskalin).
Orchidee als Metapher in der Sprache
Die besondere Stellung der Orchidee unter den Blumen macht das Wort Orchidee zu einer beliebten Metapher in der Sprache. Die Orchidee gilt als ausnehmend schön und als selten zu finden. Daher steht einerseits „Orchidee“ oft für etwas besonders Schönes. In Verbindung mit der sexuellen Konnotation wird daher oft eine äußerst hübsche Frau als Orchidee bezeichnet, so im Film Wilde Orchidee. Andererseits steht „Orchidee“ für etwas besonders Seltenes. Diese zweite Metapher kann auch spöttisch sein; so wird eine selten studierte Studienrichtung mit außergewöhnlichen Inhalten als Orchideenfach bezeichnet.
Literatur
James Bateman: Hundert Orchideen. Lithographien von Walter Hood Fitch. Nach der Buchausgabe von 1867. Mit einem Nachwort von Edmund Launert. Harenberg, Dortmund (= Die bibliophilen Taschenbücher. Band 136).
R. Schlechter: Die Orchideen. 4 Bände und Register. Überarb. K. Senghas. 3. Auflage. Blackwell, Berlin/Wien 2003, ISBN 3-8263-3410-8 (Das Standardwerk zum Thema Orchideen)
Robert L. Dressler: Die Orchideen. Bechtermünz, Augsburg 1997, ISBN 3-86047-413-8.
Gertrud Fast (Hrsg.): Orchideenkultur. Botanische Grundlagen, Kulturverfahren, Pflanzenbeschreibungen. Eugen Ulmer, Stuttgart 1995, ISBN 3-8001-6451-5.
Helmut Bechtel, Philip Cribb, Edmund Launert: Orchideen-Atlas. Lexikon der Kulturorchideen. 3. Auflage. Ulmer, Stuttgart 1993, ISBN 3-8001-6199-0 (umfangreiches, gut bebildertes Nachschlagewerk)
Filme
Verborgene Schönheit – Die Orchideen des Saaletals (2017) Regie: David Cebulla. Naturfilm, 19 Min.
Weblinks
Allgemein
Beschreibung der Familie der Orchidaceae bei der APWebsite (englisch)
Weltweite Suche und Links: Orchideen
The Internet Orchid Photo Encyclopedia (die umfangreiche Orchideen-Enzyklopädie im Netz, englisch)
Orchideenfotos die im USENET veröffentlicht wurden (gesammelt in einem durchsuchbaren Archiv)
RBO – Reproduktionsbiologie der Orchideen (Web-Portal)
Übersicht: Im Internet verfügbare historische Literatur zu Orchideen
Orchideenkonservation Private Initiative zur Rettung wilder Orchideen
Orchideenforum.de Orchideenportal mit vielen Informationen zur Pflege und Haltung.
Orchideenmantis: Hymenopus coronatus
Vereine und Gesellschaften
Arbeitskreise Heimische Orchideen (AHO)
Deutsche Orchideen Gesellschaft (DOG)
Verein Deutscher OrchideenFreunde (VDOF)
Oesterreichische Orchideengesellschaft
Schweizerische Orchideenstiftung am Herbarium Jany Renz
Arbeitsgruppe Einheimische Orchideen Aargau (AGEO Schweiz)
Einzelnachweise
Zierpflanze
|
Q25308
| 598.388032 |
147
|
https://de.wikipedia.org/wiki/Al-B%C4%ABr%C5%ABn%C4%AB
|
Al-Bīrūnī
|
Abu r-Raihan Muhammad b. Ahmad al-Bīrūnī (; persisch auch nur kurz , Abū Raiḥān Bīrūnī) – kurz (al-)Biruni (geboren am 4. September 973 in Kath, Choresmien (heute Usbekistan); gestorben am 9. Dezember 1048 in Ghazna (ghaznawidische Hauptstadt; heute Afghanistan)) war ein persischer (choresmischer) Universalgelehrter, Mathematiker, Kartograf, Astronom, Astrologe, Philosoph, Pharmakologe, Mineraloge, Forschungsreisender, Historiker und Übersetzer in Zentralasien.
Leben und Werk
Die ersten 20 Jahre lebte Abū r-Raiḥān Muḥammad ibn Aḥmad in Choresmien, wo er schon in jungen Jahren von dem Gelehrten Abu Nasr Mansur ausgebildet wurde. Als die von Kath aus herrschende Afrighiden-Dynastie, welcher al-Bīrūnī nahestand, 995 von den Mamuniden aus Gurgandsch gestürzt wurde, verließ er das Land und ging an den Hof des Samaniden Mansur II. nach Buchara. Hier wirkte zu dieser Zeit auch der vor allem als Mediziner und Philosoph bekannte Ibn Sina (Avicenna), mit dem al-Bīrūnī (nachdem er um 997 einen programmatischen Briefwechsel eingeleitet hatte) viele Jahre lang zusammenarbeitete und den er auch in seiner „Chronologie“ aus dem Jahr 1000 erwähnte. 998 zog er nach Tabaristan und lebte am Hof des Ziyariden Qabus (Qābūs ibn Wuschmagīr), bevor er in seine Heimat zurückkehrte, wo er sieben Jahre lang zum Gurgandschischen Gelehrtenkreis um Khwarazm-Schah Mamun II. gehörte. Offenbar hatte er zuvor mit den Mamuniden Frieden geschlossen und die Beobachtung einer Mondfinsternis am 24. Mai 997 in Kath zeigt, dass er Choresmien schon eher wieder besucht haben muss. Al-Bīrūnī hatte damals mit Abu'l-Wafa verabredet, dass dieser das Ereignis in Bagdad beobachtet; durch einen Vergleich der notierten Eintrittszeiten des Erdschattens konnten sie die Differenz in den geographischen Längen von Kath und Bagdad bestimmen. Al-Bīrūnī beschäftigte sich in dieser Zeit mit Astronomie, Geschichte und Kartografie.
1017 eroberte der Ghaznawidensultan Mahmud von Ghazni Choresmien und nahm al-Bīrūnī, Abu Nasr Mansur ibn Iraq und andere als seine Gefangenen mit nach Ghazna. In der Folgezeit erhielt al-Bīrūnī von Mahmud finanzielle Zuwendungen für astronomische Aufgaben. Die Beobachtung einer Sonnenfinsternis am 8. April 1019 in Lamghan nördlich von Kabul zeigt, dass er sich zumindest im Herrschaftsbereich Mahmuds frei bewegen konnte. Er bestimmte auch die genaue geographische Breite von Kath. Ab 1022 beherrschte Mahmud Teile von Nordindien. Al-Bīrūnī begleitete ihn auf diesen Feldzügen. Er war der erste islamische Wissenschaftler, der sich mit der brahmanischen Wissenschaft beschäftigte und darüber im Kitab al-Hind umfassend berichtete. Al-Bīrūnī, dessen Muttersprache choresmisch war, übersetzte zahlreiche arabische und griechische Werke ins Sanskrit, darunter die Elemente des Euklid. 1023 ermittelte er mit einem von ihm erfundenen neuen Messverfahren den Radius der Erdkugel zu 6339,6 km, was dem realen heutigen Wert am Äquator von 6378,1 Kilometer recht nahe kommt. Abu 'r-Raihan Muhammad al-Bīrūnī konstruierte das erste Pyknometer. Damit bestimmte er die Dichte (das spezifische Gewicht) von unterschiedlichen Materialien.
Ehrungen
Eine moderne Stadt im Bereich von al-Bīrūnīs Geburtsort wurde 1958 ihm zu Ehren in Beruniy umbenannt. Die Universität Schiraz benannte ihr astronomisches Observatorium Abu Reihan Observatorium. Die Internationale Astronomische Union (IAU) ehrte ihn durch die Benennung des Mondkraters Al-Biruni. Ferner ist er Namensgeber für die Insel Biruni Island in der Antarktis.
Schriften
Al-Bīrūnī schrieb etwa 146 Bücher mit geschätzten 13.000 Seiten Umfang und tauschte sich mit Kollegen wie Avicenna (Ibn Sina) per Briefverkehr aus. Etwa ein Fünftel seines Werkes ist erhalten geblieben, darunter:
al-Qānūn al-Masʿūdī, ein Sultan Masud I. von Ghazni gewidmetes Handbuch der Astronomie
Kitāb al-tafhīm li- awāʾil ṣināʿat al-tanǧīm: „Buch der Unterweisung in die Anfänge der Kunst der Sterndeutung“
Kitāb aṣ-Ṣaidala: Pharmakognosie, ein alphabetisches Verzeichnis von Heilpflanzen und Nahrungsmitteln
Kitāb al-Ǧamāhir fī maʿrifat al-ǧawāhir, ein Buch über Mineralien
Kitāb Taḥdīd nihāyat al-amkin li-taṣḥīḥ masāfāt al-masākin, ein Buch über Geodäsie
Kitāb fī taḥqīq mā li-l-Hind min maqūla maqbūla fī l-ʿaql au marḏūla, ein Buch zur Geschichte Indiens. Es wurde 1958 in Hyderabad ediert und 1888 von Eduard Sachau unter dem Titel Alberuni's India ins Englische übersetzt.
Kitāb al-Āṯār al-bāqiya ʿan al-qurūn al-ḫāliya („Buch der Hinterlassenschaften früherer Jahrhunderte“), ein dem Ziyariden Qabus gewidmetes Geschichtswerk (entstanden um 1000). Das Buch wurde von Eduard Sachau 1876 unter dem Titel „Chronologie orientalischer Völker“ ediert und 1879 unter dem Titel The chronology of ancient nations ins Englische übersetzt (Digitalisat).
Literatur
Friedrun R. Hau: al-Bīrūnī, Abū Raiḥān. In: Werner E. Gerabek, Bernhard D. Haage, Gundolf Keil, Wolfgang Wegner (Hrsg.): Enzyklopädie Medizingeschichte. De Gruyter, Berlin / New York 2005, ISBN 3-11-015714-4, S. 184.
Muhammad Taqi ad-Din al-Hilali: Die Einleitung zu al-Bīrūnīs Steinbuch. Mit Erläuterungen übersetzt. Dissertation unter Aufsicht von Richard Hartmann und Hans Heinrich Schaeder. Mit einer Widmung an Herbert W. Duda. Harrassowitz, Leipzig 1941. (Digitalisat).
E.S. Kennedy: al-Bīrūnī. In: Lexikon des Mittelalters. Band 2, S. 226b–227a.
Wassilios Klein: Abu Rayhan al-Biruni und die Religionen. Eine interkulturelle Perspektive (= Interkulturelle Bibliothek. Band 119). Bautz, Nordhausen 2005, ISBN 3-88309-317-3.
Karl Schoy: Die trigonometrischen Lehren des persischen Astronomen Abu'l-Raiḥân Muḥ. Ibn Aḥmad al-Bîrûnî: dargestellt nach Al-qânûn al-masûdî. Nach dem Tode des Verfassers herausgegeben von Julius Ruska und Heinrich Wieleitner. Orient-Buchhandlung Lafaire, Hannover 1927.
Gotthard Strohmaier: Al-Bīrūnī. In den Gärten der Wissenschaft. Ausgewählte Texte aus den Werken des muslimischen Universalgelehrten, übersetzt und erläutert. 2. Auflage. Reclam, Leipzig 1991, ISBN 3-379-00262-3.
Gotthard Strohmaier: Al-Biruni – ein Gelehrter, den das Abendland übersah. In: Spektrum der Wissenschaft. Mai 2001 (Online-Version).
Arslan Terzioglu, S. Kolta: Duftdrogen, Parfüme und Körperhygiene in al-Bīrūnī’s Werken. In: Beiträge zur Geschichte der Pharmazie. Band 27, 1975, S. 25–39 (Digitalisat).
Weblinks
Jan Hogendij: Hogendijk, Jan: Abu Rayhan Muhammad ibn Ahmad al-Biruni. (englisch) – Handschriften, kritische Editionen, Übersetzungen und Online-Versionen.
Artikel BĪRŪNĪ, ABŪ RAYḤĀN in der Encyclopædia Iranica. 4/3, 1989, 274 ff.
Abu Raihan Mohamad al Biruni
Comprehensive Book on Precious Stones – Al Biruni. (englisch), Buch über Mineralien, Online-Version.
Wolfgang Burgmer: Vom Abendland übersehen: Der arabische Gelehrte al-Biruni WDR ZeitZeichen vom 4. September 2023. (Podcast, verfügbar bis 4. September 2099.)
Anmerkungen
Universalgelehrter
Kartograf (Mittelalter)
Astronom (islamisches Mittelalter)
Islamische Medizin
Mediziner des Mittelalters
Astrologe (11. Jahrhundert)
Person als Namensgeber für einen Mondkrater
Übersetzer aus dem Arabischen
Übersetzer aus dem Altgriechischen
Übersetzer ins Sanskrit
Choresmien
Iranistik
Perser
Geboren 973
Gestorben 1048
Mann
|
Q11826
| 125.485976 |
636259
|
https://de.wikipedia.org/wiki/Energieeffizienz
|
Energieeffizienz
|
Die Energieeffizienz ist das Verhältnis von Dienstleistungs-, Waren- oder Energieertrag (Output) zur zugeführten Energie (Input) (vgl. Energieeffizienz-Richtlinie 2012/27/EU). Unter Energieeffizienz wird somit also die rationelle Verwendung von Energie verstanden. Durch optimierte Prozesse sollen „die quantitativen und qualitativen Verluste, die im Einzelnen bei der Wandlung, dem Transport und der Speicherung von Energie“ entstehen, minimiert werden, „um einen vorgegebenen (energetischen) Nutzen bei sinkendem Primär- bzw. Endenergieeinsatz zu erreichen“.
Gesetzliche Normen
Energieeinsparung
Mit der EG-Richtlinie 2002/91/EG kam der Begriff Energieeffizienz () in den gängigen deutschen Sprachgebrauch.
In deutsches Recht umgesetzt wurde diese Richtlinie mit dem Energieeinspargesetz (EnEG) und, darauf basierend, mit der Energieeinsparverordnung (EnEV), worin in § 20 die Verbesserung der energetischen Eigenschaften zur verbesserten Energieeffizienz führt. Dabei ist der Endenergiebedarf das Maß für die Energieeffizienz. Unterschieden wird die Gesamtenergieeffizienz, bei der zusätzlich zum Endenergiebedarf noch die Vorkette (Erkundung, Gewinnung, Verteilung, Umwandlung) der jeweils eingesetzten Energieträger (z. B. Heizöl, Gas, Strom, erneuerbare Energien etc.) berücksichtigt wird. Anhand der Vornorm DIN V 18599 Energetische Bewertung von Gebäuden kann die Energieeffizienz bestimmt und im Energieausweis dokumentiert werden.
Die Richtlinie 2006/32/EG über Endenergieeffizienz und Energiedienstleistungen (Energy Service Directive ESD) enthält Richtziele und sorgt für eine Förderung des Markts bei Energiedienstleistungen sowie für die Bereitstellung von anderen Energieeffizienzmaßnahmen beim Endverbraucher.
Die neue Richtlinie 2012/27/EU (Energieeffizienz-Richtlinie) vom 25. Oktober 2012 schreibt unter anderem verpflichtende Energieeinsparungen vor, um das EU-Ziel von 20 % höherer Energieeffizienz gegenüber 2008 zu realisieren. Deutschland hat es versäumt, die Richtlinie fristgerecht in nationales Recht umzusetzen. Die EU-Kommission hat im August 2014 ein Vertragsverletzungsverfahren eingeleitet.
Abfallverwertung
Die Energieeffizienz einer Abfallverbrennungsanlage entscheidet nach der EU-Abfallrahmenrichtlinie darüber, ob es ein Verfahren der Abfallverwertung, nämlich eine energetische Verwertung oder ein Beseitigungsverfahren ist. Nach der sogenannten Abfallhierarchie geht die Verwertung der Beseitigung vor mit entsprechenden Konsequenzen etwa für die Genehmigungsfähigkeit von Anlagen oder die Strafbarkeit einer Müllentsorgung.
Industrie
Viele industrielle Prozesse erfordern große Mengen Wärme und mechanische Energie. Diese werden zum überwiegenden Teil mittels Brennstoffen und Elektrizität bereitgestellt. In einigen Bereichen (z. B. Zementherstellung) werden sogenannte Sekundärbrennstoffe eingesetzt. Aufgrund der Vielfältigkeit industrieller Prozesse gibt es zahlreiche Möglichkeiten zur Effizienzsteigerung. Oft handelt es sich dabei um speziell angepasste Prozesse und Technologien. Verbesserte Kessel und Brenner können bei höheren Temperaturen arbeiten und gleichzeitig weniger Brennstoff verbrennen. Dadurch sind sie effizienter bei geringerer Schadstoffemission.
Konventionelle Stromerzeugung durch Dampfkraftwerke, bei der die anfallende Wärme als Abwärme entweicht, wandelt typischerweise gut 40 % bis günstigstenfalls 60 % (GuD) der eingesetzten Energie in Elektrizität um. Durch kombinierte Nutzung von Elektrizität (Kraft-Wärme-Kopplung) können kombinierte Wirkungsgrade von über 90 % erreicht werden. In der Industrie werden [Stromkennzahl]en von durchschnittlich ca. 0,4 erreicht, dies zeigt das weitere Potential die Prozesswärmeerzeugung durch exergetisch effizientere KWK auszubauen.
Von den Brennstoffen, die amerikanische Industriebetriebe verfeuern, dienen (Stand etwa 2005) über 45 % zur Erzeugung von Dampf. Der typische Betrieb kann den Energieaufwand hierfür laut einem Merkblatt des Washingtoner Environmental and Energy Study Institute um 20 % verringern, indem er die Rohrleitungen für Dampf und Kondensat wärmedämmt, Lecks in den Dampfleitungen schließt und Kondensatableiter verwendet.
Viele Elektromotoren laufen bei konstanter Drehzahl, aber mit einer elektronischen Drehzahlregelung kann die Energieabgabe des Motors an die jeweilige Last angepasst werden. Damit können, je nach Art des Motoreinsatzes, Einsparungen von 3 bis 60 % erreicht werden. Elektromotoren von 0,75 kW bis 375 kW werden seit 2009 international in Energieeffizienzklassen von IE1 bis IE4 eingeteilt. Als Vorläuferregelung galt in Europa seit 1998 eine Einteilung in die Klassen EFF3 bis EFF1.
Die Industrie verwendet eine Vielzahl von Pumpen und Kompressoren. Deren Effizienz hängt von verschiedenen Faktoren ab; oft kann durch bessere Prozessregelung und bessere Wartung die Effizienz verbessert werden. Kompressoren werden gewöhnlich dazu benutzt, Druckluft für Werkzeuge, Sandstrahlgebläse, Sprühgeräte und anderes zu erzeugen. Die Energieeffizienz der Pressluftanlagen kann um 20 bis 50 % verbessert werden, indem man Drehzahlregler installiert und mit vorbeugender Wartung Lecks findet und abdichtet.
Die Deutsche Unternehmensinitiative Energieeffizienz (DENEFF) hat im Mai 2013 den ersten Branchenreport Energieeffizienz vorgestellt. Sie hat dazu Marktstrukturen, Zahlen und Trends in der Energieeffizienzbranche untersucht. Der Markt für Energieeffizienz erwirtschaftete demnach 2012 einen Gesamtumsatz von 146 Milliarden Euro. Dies ist im Vergleich zum Vorjahr ein Plus um 16 Prozent. Die Beschäftigtenzahl nahm im gleichen Zeitraum um 10 Prozent auf hochgerechnet etwa 800.000 Mitarbeiter zu. Der Report basiert auf einer Erhebung unter 63 Unternehmen aus verschiedenen Bereichen wie Maschinenbau, Gebäudeenergieberatung, Baustoffe, Banken und Hausgeräten sowie auf bestehenden Studien und Statistiken. Bislang fehlte ein solch umfassender Überblick über Marktdaten, Entwicklungen und Stimmungen unter Unternehmen, deren Geschäft in der Einsparung von Energie liegt.
Das Institut für Energieeffizienz in der Produktion (EEP) der Universität Stuttgart veröffentlicht seit 2013 in Kooperation mit dem Fraunhofer IPA, dem Bundesverband der Deutschen Industrie (BDI), der Deutschen Energie-Agentur (dena) und dem TÜV Rheinland den Energieeffizienz-Index (EEI). Es handelt sich dabei um eine halbjährliche Erhebung, die Unternehmen aus 26 verschiedenen Wirtschaftszweigen (Stand: Sommererhebung 2016) bezüglich unterschiedlicher Aspekte der Energieeffizienz befragt. An der Erhebung zum Sommer 2016 nahmen dabei insgesamt 637 Unternehmen teil.
Potenziale und politische Diskussion
Verbesserte Energieeffizienz ist eine der möglichen Methoden zur Energieeinsparung. Die Energieeinsparung ist der breitere Begriff, denn sie umfasst noch weitere Maßnahmen, die den Energieverbrauch vermindern, wie etwa Änderungen des Verhaltens. Zum Beispiel ist es auch ohne verbesserte Effizienz möglich, Energie zu sparen, indem man einen Raum im Winter weniger heizt oder weniger mit dem Auto fährt.
Der Energieverbrauch der Welt kann laut einer Studie der Internationalen Energieagentur (IEA) durch verbesserte Energieeffizienz von Gebäuden, Transport und industriellen Verfahren bis 2050 um 17 bis 33 % verringert werden.
In Deutschland kann laut einer Studie der Deutschen Unternehmensinitiative für Energieeffizienz (DENEFF) durch Effizienzmaßnahmen bis 2020 der jährliche Stromverbrauch um 68,3 Mrd. Kilowattstunden reduziert werden, was ungefähr der Jahresproduktion von sechs Kernkraftwerken entspricht.
In der EU sind 90 % aller Wohnungen nach Angaben der EU-Kommission nicht energieeffizient.
Eine Studie von Prognos und des Instituts für elektrische Anlagen und Energiewirtschaft Aachen (IAEW) kommt zum Ergebnis, dass die Energiewende bis 2035 um mehrere Milliarden Euro günstiger gestaltet werden kann, wenn die Anreize für das Stromsparen verstärkt würden. Eine Reduktion des Stromverbrauchs um 10 bis 35 Prozent gegenüber der geplanten Entwicklung senkt die Kosten im Jahr 2035 um 10 bis 20 Milliarden Euro. Dadurch könne die Stromrechnung deutlich reduziert werden, zudem würde sich je nach Effizienzsteigerung der Ausbaubedarf im Höchstspannungsnetz bis 2050 von etwa 8500 Kilometern auf 1750 bis 5000 Kilometer verringern.
Die Umsetzung der politischen Ziele verläuft schleppend. Das im Zuge der Energiewende erklärte Ziel, den Energieverbrauch bis 2020 um 20 % gegenüber 2008 zu senken, wird vermutlich deutlich verfehlt, wie das Bundeswirtschaftsministerium im Nationalen Aktionsplan Energieeffizienz (en) (NAPE) Ende 2014 feststellte. Nach einer Metaanalyse der Agentur für Erneuerbare Energien, in der 14 wissenschaftliche Studien ausgewertet wurden, wird mit bestehenden Maßnahmen nur eine Reduktion von 10-15 % erreicht. Der Bundesverband Erneuerbare Energie forderte, die Anstrengungen im Bereich erneuerbare Wärme sowie im Bereich Mobilität zu forcieren.
Bereits im September 2013 hatten 21 Experten die Politik zu einer konsequenteren Effizienzpolitik aufgerufen. „Ohne eine neue Energiesparpolitik würde die Energiewende teurer, langsamer und schwieriger werden“, denn: „Je geringer der Energiebedarf, desto geringer der Bedarf an neuen Erzeugungs-, Netz- und Speicherkapazitäten.“ So sei seit Jahren bekannt, dass deutschlandweit über 60 Prozent des Endenergieverbrauchs wirtschaftlich und nachhaltig einzusparen wären, mehr als die Hälfte davon alleine in den nächsten 20 Jahren. Um die Kosten der Energiewende auf ein vernünftiges Maß zu begrenzen, drängen die Autoren daher auf eine integrierte Energieeffizienzpolitik für eine ausgewogene „Energiebalance“, bei der der Ausbau einer umweltverträglichen Versorgungsstruktur mit der Senkung der Energienachfrage Hand in Hand gehen.
Nach Ansicht der DIHK sind Einsparziele überflüssig und die Senkung des Stromverbrauchs klimapolitisch nicht nötig.
Internationale Kooperationen
Initiiert vom Ost-Ausschuss der Deutschen Wirtschaft wurde 2013 erstmals eine Energieeffizienzpartnerschaft zwischen der deutschen Stadt Delitzsch und der ukrainischen Stadt Schowkwa geschlossen. Delitzsch gehört im Rahmen nationaler und internationaler Vergleiche zu den kommunalen Schrittmachern einer nachhaltigen Stadtentwicklung und Energieeffizienz. Neben dem kommunalpolitischen und bürgerschaftlichen Engagement in der Stadt Delitzsch, gehören zu den Projektpartnern das Bundesministerium für Forschung und Entwicklung, das Institut für Infrastruktur und Ressourcenmanagement der Universität Leipzig und das Forschungszentrum Jülich.
Effizienzförderung in Deutschland
Die Senkung des Energieverbrauchs durch mehr Energieeffizienz bildet neben dem Ausbau der erneuerbaren Energie seit der 18. Legislaturperiode der Bundesregierung (2013–2017) die entscheidende Säule der Energiewende.
Der Kerngedanke hinter dem Efficiency First-Prinzip: Die sauberste Energie ist jene, die gar nicht erst erzeugt, transportiert und verbraucht wird. Am 1. Juli 2015 beschloss die Bundesregierung im Rahmen ihres Aktionsprogramms Klimaschutz 2020, dass bis im Jahr 2020 durch eine Verbesserung der Energieeffizienz (durch eine Erweiterung des Nationalen Aktionsplans Energieeffizienz, NAPE) zwischen 25 und 30 Millionen Tonnen CO2 weniger emittiert werden sollen (ohne Verkehrssektor). Dafür stellt das BMWi über entsprechende Förderprogramme insgesamt rund 17 Milliarden Euro bis zum Ende der zweiten Dekade (2020) zur Verfügung.
Effizienzförderung in der Schweiz
Als Gegenvorschlag zu einer Volksinitiative für den Atomausstieg wurde in der Schweiz bereits in den 1980er Jahren folgende Verfassungs-Bestimmung eingeführt (Art. 89, Abs. 3): „Der Bund erlässt Vorschriften über den Energieverbrauch von Anlagen, Fahrzeugen und Geräten. Er fördert die Entwicklung von Energietechniken, insbesondere auch im Bereich des Energiesparens“. Die Bestimmung wurde allerdings bisher nur punktuell umgesetzt.
Diese Weisung wurde auch im Energiegesetz von 1998 (EnG, Art. 9, Abs. 1) an die Kantone vermittelt „Die Kantone schaffen im Rahmen ihrer Gesetzgebung günstige Rahmenbedingungen für die sparsame und rationelle Energienutzung sowie die Nutzung erneuerbarer Energien.“
Der Verkauf von Glühlampen der Effizienzklassen F und G wurde per 2009 verboten.
Siehe auch
Kumulierter Energieaufwand
Bundesstelle für Energieeffizienz
Energiepolitik
Rebound-Effekt (Ökonomie)
Ökodesign-Richtlinie
Wärmerückgewinnung
Energiesuffizienz
Literatur
Jürgen Dispan: Greentech im Maschinen- und Anlagenbau Baden-Württembergs. Potenziale in den Zukunftsfeldern Energieeffizienz, Erneuerbare Energien, Elektromobilität. (= IMU-Informationsdienst. Heft 1-2011). Stuttgart 2011. imu-institut.de (PDF; 1,3 MB)
Matthias Günther: Energieeffizienz durch Erneuerbare Energien. Möglichkeiten, Potenziale, Systeme. Wiesbaden 2015, ISBN 978-3-658-06753-3.
Peter Hennicke, Susanne Bodach: Energierevolution: Effizienzsteigerung und erneuerbare Energien als neue globale Herausforderung. München 2010, ISBN 978-3-86581-205-6.
Jens Hesselbach: Energie- und klimaeffiziente Produktion. Grundlagen, Leitlinien und Praxisbeispiele. Wiesbaden 2012, ISBN 978-3-8348-0448-8.
Martin Pehnt (Hrsg.): Energieeffizienz: Ein Lehr- und Handbuch. Springer, Berlin 2010, ISBN 978-3-642-14250-5.
B. Steinmüller: Reducing Energy by a Factor of 10 – Promoting Energy Efficient Sustainable Housing in the Western World. Centre for Sustainability Management (CSM), Lüneburg 2008 (online)
Miriam Vollmer: Nachhaltigkeit als Maßstab des Energieeffizienzgebotes – Eine Untersuchung zu § 5 Abs. 1, S. 1 Nr. 4 BImSchG. Kovač, Hamburg 2009, ISBN 978-3-8300-4123-8.
Ernst Ulrich von Weizsäcker, Amory Lovins, Hunter Lovins, Faktor Vier. Doppelter Wohlstand – halbierter Naturverbrauch. München 1997, ISBN 3-426-77286-8.
Ernst Ulrich von Weizsäcker, Karlson Hargroves, Michael Smith: Faktor Fünf. Die Formel für nachhaltiges Wachstum. München 2012, ISBN 978-3-426-40022-7.
Franz Wosnitza, Hans Gerd Hilgers: Energieeffizienz und Energiemanagement. Vieweg+Teubner, Wiesbaden 2012, ISBN 978-3-8348-1941-3.
Weblinks
Europa
European Council for an Energy Efficient Economy (eceee)
Deutschland
Die Energieeffizienz-Kampagne des Bundesministeriums für Wirtschaft und Energie (BMWi)
Die Nationale Top-Runner-Initiative für energieeffiziente Geräte (NTRI) des Bundesministeriums für Wirtschaft und Energie (BMWi)
BMWi: Energieeffizienz in Zahlen, PDF, August 2018
Thema Online „Energieeffizienz“ – Publikationen und Forschungsaktivitäten des Wuppertal Instituts
Deutsche Energie-Agentur GmbH (dena)
Deutsche Unternehmensinitiative für Energieeffizienz e.V. - DENEFF
Bundesländer-Übersicht zu Energie-Effizienz
BINE – Energieforschung für die Praxis
Klinergie 2020 – Energieeffizienz in Krankenhäusern, eine Informationskampagne der Stiftung viamedica
Bundesverband BKWK Kraft-Wärme-Kopplung – Chance für Wirtschaft und Umwelt
Initiative Energieeffizienz der dena (Deutsche Energie-Agentur)
Informations- und Qualifikationsoffensive für Klimaschutz und Energieeffizienz – Website zur Partnerschaft für Klimaschutz, Energieeffizienz und Innovation zwischen der IHK-Organisation, dem Bundesministerium für Wirtschaft und Technologie und dem Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit
„Kampagne Energieeffizienz“ des Bayerischen Landesamtes für Umwelt
Bundesstelle für Energieeffizienz
BMWi (August 2018): Energiedaten: Gesamtausgabe (S. 18: Primärenergieverbrauch, Stromerzeugung und Energieeffizienz (Grafik) von 1990 bis 2017)
BEE: Klimaneutral und kosteneffizient die EnEV 2016 erfüllen. Informationsbroschüre zur Energie-Einspar-Verordnung 2016
Österreich
Energieeffizienz-Seiten des Ministeriums für Wirtschaft, Familie und Jugend
Energieeffizienz-Monitoringstelle des Ministeriums für Wirtschaft, Familie und Jugend
Schweiz
EnergieSchweiz. Programm des Bundesamtes für Energie BFE für Energieeffizienz und erneuerbare Energien
Schweizerische Agentur für Energieeffizienz, Zürich
Energieeffizienz in Kurzform, energie.ch
Energieverzeichnis der Schweiz, Energieverzeichnis
Einzelnachweise
Energieeinsparung
Ökologieorientierte Betriebswirtschaftslehre
|
Q924713
| 86.880147 |
74767
|
https://de.wikipedia.org/wiki/Erbrechen
|
Erbrechen
|
Erbrechen ist die schwallartige Entleerung des Magen- oder Speiseröhreninhaltes (Chymus) entgegen der natürlichen Richtung (retroperistaltisch) durch die Speiseröhre und den Mund.
Medizinische Fachbegriffe für das Erbrechen sind die Emesis (griechisch ἔμεσις) und der Vomitus (lateinisch). Aus dem Lateinischen ist auch die deutsche (vornehme) Bezeichnung „Vomitation“ gebräuchlich.
Von Erbrechen abzugrenzen ist die Regurgitation, bei der es zu einem passiven Rückfluss von Speisebrei aus Magen und Speiseröhre in den Mund ohne Einsatz antiperistaltischer Muskulatur kommt, und die nicht mit Übelkeit verbunden ist. Die Ursachen für Erbrechen und Regurgitation sind in der Regel unterschiedlich.
Physiologie
Beim Erbrechen ziehen sich – nach Unterbrechung der rhythmischen Magenkontraktionen und Nahrungsstau im Magen – Zwerchfell und auch die Zwischenrippen- und Bauchmuskulatur zusammen, der Magenmund öffnet sich und der untere Speiseröhrenschließmuskel erweitert sich, sodass Mageninhalt, in schweren Fällen auch Darminhalt, über die Speiseröhre in den Mund und dann als Erbrochenes (Vomitat) weiter nach außen gelangt. Es ist meist mit einem brennenden Gefühl in der Speiseröhre (Sodbrennen) verbunden, das durch die Magensäure verursacht wird.
Ursachen
Das Erbrechen wird meist über vago-vagale Reize ausgelöst und durch einen komplexen Fremdreflexmechanismus vom Brechzentrum (u. a. der Area postrema) in der Medulla oblongata des Hirnstammes gesteuert.
Beim Brechreflex sind der neunte und zehnte Hirnnerv (der Nervus glossopharyngeus und der Nervus vagus), Nerven der Atemwege, Nerven für die Bauchmuskeln und das Zwerchfell aktiviert.
Medikamente und äußere Reize
Erbrechen kann durch die Verabreichung von Emetika oder indirekt über die Rachenhinterwand- oder Magenschleimhaut, die Geruchs- oder Geschmacksorgane insbesondere bei Ekel oder über das Gleichgewichtsorgan (siehe Übelkeit) ausgelöst werden, aber auch als psychovegetative Reaktion auf optische, olfaktorische (Geruchssinn) oder akustische Reize.
Chemotherapie-induziertes Erbrechen
Bei der Behandlung von Krebserkrankungen mit Chemotherapie kommt es häufig zu Übelkeit und Erbrechen. Je nach zeitlichem Abstand zur Chemotherapie unterscheidet man akutes, verspätetes und antizipatorisches Erbrechen. Das akute Erbrechen tritt innerhalb von 24 Stunden auf und wird vor allem über eine Serotoninfreisetzung aus enterochromaffinen Zellen vermittelt. Das verspätete Erbrechen tritt zwischen 24 Stunden und sieben Tagen nach der Chemotherapiegabe auf. Diese Art des Chemotherapie-induzierten Erbrechens wird vor allem über Substanz P vermittelt. Das antizipatorische Erbrechen entsteht durch klassische Konditionierung nach vorangegangener Chemotherapie mit Übelkeit und Erbrechen. Durch eine leitliniengerechte Vorbeugung und Behandlung kann das Risiko von Übelkeit und Erbrechen erheblich gesenkt werden.
Erkrankungen des Gehirns
Eine direkte Reizung des Brechzentrums, z. B. durch Gehirnerschütterung, Tumorerkrankungen, eine Hirnhautentzündung, Sonnenstich, Schlaganfall, erhöhten Hirndruck oder Abflussbehinderungen des Hirnwassers kann zum Erbrechen führen. Schiffsreisen und Schaukelbewegungen (Seekrankheit), kurvenreiche Autofahrten, Achterbahnfahrten oder Erkrankungen des Innenohrs können das Gleichgewichtsorgan stören und ebenfalls den Brechreiz auslösen. Migräne erzeugt mitunter Übelkeit und führt so auch zum Erbrechen. Als umschriebene bulbäre Schädigung gilt das Syndrom des Deiters-Kerns und seiner Kleinhirn-, N. vestibularis- und anderen weit verbreiteten Afferenzen (Bonnier-Syndrom) als auslösend für Brechreiz.
Erkrankungen der Verdauungsorgane
Die Ursachen des Erbrechens sind vielfältig und reichen von vorübergehenden Magen-Darm-Infekten zu schwerwiegenderen Erkrankungen wie zum Beispiel chronischen Speiseröhren- oder Magen- und Darmerkrankungen. Auch durch Medikamente (sogenanntes medikamenteninduziertes Erbrechen, vor allem durch Zytostatika) und bei Vergiftungen (z. B. durch Pilze oder bei übermäßiger Alkoholzufuhr) kann es zu Erbrechen kommen.
Bei Verengung im Magenausgang oder Darmverschluss kann es auch ohne vaso-vagalen Reiz zum sogenannten Überlauferbrechen kommen.
Vor allem bei kleinen Kindern können auch Hustenanfälle Erbrechen auslösen.
Nach der Medikamentengabe einer Chemo- bzw. nach Strahlentherapie bei Krebserkrankungen können Übelkeit und Erbrechen entweder sofort oder verzögert nach einigen Tagen auftreten. Dies wird jedoch weitestgehend durch die vorsorgliche Gabe von Antiemetika verhindert.
Eine andere Ursache für Übelkeit und Erbrechen können Stoffwechselentgleisungen sein: Urämie, Leberversagen, Blutzuckerveränderungen. Erbrechen ist einer der häufigsten Beratungsanlässe in einer allgemeinmedizinischen Praxis.
Psychische Störungen
Willentlich herbeigeführtes Erbrechen kann ein Symptom einer Essstörung wie der Anorexia nervosa oder Bulimia nervosa sein, aber auch bei anderen psychischen Störungen wie dissoziativen Störungen und hypochondrischen Störungen auftreten. Psychisches Erbrechen kann auch spontan auftreten. Dabei wird psychischer Ekel empfunden.
Erbrechen während der Schwangerschaft
Erbrechen nach Operation und Narkose
Erbrechen bei Tieren
Einige Tierarten erbrechen außerdem, um Nahrung an andere Artgenossen weiterzugeben (Trophallaxis). Andere erbrechen, um mit der Zeit angesammelte unverdauliche Haarballen oder Gewölle loszuwerden, so zum Beispiel Katzen, Eulen, ähnlich schon bei den stammesgeschichtlich viel älteren Haien. Zu unterscheiden ist davon das Emporwürgen von Vorverdautem bei den Wiederkäuern, das eine Funktion im eigenen Verdauungsprozess hat. Einige Tiere können nicht erbrechen, z. B. Pferde und Ratten.
Folgen und Komplikationen
Beim Erbrechen gehen Flüssigkeit und Magensäure verloren, sodass es zu einem Mangel an Flüssigkeit und Elektrolyten im Körper kommen kann. Auch kann es durch das Erbrechen zu einer Reizung der Speiseröhre und zu einem Einriss in der unteren Speiseröhre kommen (Mallory-Weiss-Syndrom, Boerhaave-Syndrom). Bei häufigem Erbrechen können auch die Zähne in Mitleidenschaft gezogen werden. Beim Erbrechen ist nicht gewährleistet, dass die Wirkstoffe von Medikamenten über Magen und Darm aufgenommen werden, daher sollte ggf. ein anderer Weg der Wirkstoffzufuhr gewählt werden, z. B. intravenös oder subkutan.
Behandlung
Die Behandlung des Erbrechens sollte sich nach den Ursachen richten und in ruhiger Umgebung erfolgen. Zur medikamentösen Therapie stehen Antiemetika zur Verfügung. Bei Gleichgewichtsstörungen werden erfolgreich Antihistaminika (z. B. Diphenhydramin und Doxylamin) oder Anticholinergika (z. B. Scopolamin) eingesetzt. Übelkeit und Erbrechen im Zusammenhang mit einem Migräne-Anfall werden üblicherweise mit Prokinetika (z. B. Metoclopramid und Domperidon) behandelt, die zusätzlich die Aufnahme von Migränetherapeutika beschleunigen. Bei Erbrechen im Rahmen der Chemotherapie maligner Tumoren mit Zytostatika sind Setrone (5-HT3-Antagonisten, z. B. Ondansetron und Tropisetron) und das Kortikoid Dexamethason wirksam. Bei psychischen Essstörungen (Anorexia nervosa und Bulimie) ist eine psychiatrische Klärung wichtig.
Problematisch bei der Behandlung des Erbrechens ist die mangelhafte Aufnahme von Medikamenten, die in Form von Tabletten oder Tropfen gegeben werden. In leichteren Fällen genügt die rektale Verabreichung eines Antiemetikums wie Domperidon oder Diphenhydramin als Zäpfchen. In schwereren Fällen kann eine parenterale Medikamentengabe und zusätzlich ein Flüssigkeits- und Salzausgleich notwendig sein.
Die Art des Erbrochenen kann diagnostisch bedeutsam sein, so z. B. bei:
Bluterbrechen (Hämatemesis, Kaffeesatzerbrechen) bei Blutungen aus dem oberen Gastrointestinaltrakt
Koterbrechen (Miserere oder Kopremesis), Erbrechen von Darminhalt bei Darmverschluss (Ileus), prognostisch oft ungünstig
Galleerbrechen (Cholemesis, Biliäres Erbrechen)
nichtgalliges Erbrechen bei Obstruktionen proximal der Papilla duodeni major
Bei Vergiftungen kann das Erbrochene wichtige Hinweise auf deren Ursache geben.
Therapeutisches Erbrechen
Bei einer akuten Vergiftung versucht man, durch induziertes Erbrechen die Resorption des Giftes zu verringern bzw. zu verhindern. Der Stellenwert des therapeutischen Erbrechens bei der akuten Vergiftung hat zugunsten von Maßnahmen wie der Magenspülung und vor allem der Gabe von Aktivkohle stark abgenommen, da diese Maßnahmen mit weniger Komplikationen verbunden sind. Diese Maßnahme darf nicht durchgeführt werden bei (Kontraindikationen) Bewusstseinsstörung des Patienten, Vergiftung mit Säuren oder Laugen (zusätzliche Schädigung durch zweiten Kontakt mit Speiseröhre und Mund), Vergiftungen mit schaumbildenden Stoffen oder organischen Lösungsmitteln (wegen Aspirationsgefahr) oder Atem-/Kreislaufstörungen.
Das Erbrechen kann dabei mit folgenden Stoffen (Emetika) ausgelöst werden:
Ipecacuanha-Sirup – bei Kindern und Erwachsenen anzuwenden. Die Wirkung tritt nach 20 bis 30 Minuten ein. Keine vorherige therapeutische Gabe von Aktivkohle.
Apomorphin, ist bei Kindern kontraindiziert
Kochsalzlösung wird wegen möglicher Natrium-Vergiftung nicht mehr eingesetzt.
Historische Bedeutung
Dem Brechverfahren wurde in der alten Medizin eine große Bedeutung beigemessen. Der Arzt und Medizinhistoriker Bernhard Aschner, der die alte Medizin in der Konstitutionstherapie propagierte, bezeichnet das Brechverfahren als „eines der mächtigsten, unentbehrlichsten und oft entscheidend lebensrettenden Heilmittel“. Die Unsitte, nach der Mahlzeit künstlich Erbrechen hervorzurufen, wurde jedoch bereits in der Antike als im Normalfall unnötig erachtet (etwa von Diokles von Karystos).
Christoph Wilhelm Hufeland zählte das Brechmittel (zusammen mit Aderlass und Opium) zu den „drei Heroen der Heilkunst“, ohne die er nicht Arzt sein wollte; bei Avicenna heißt es: (Erbrechen ist für Kinder ein mächtiges Heilmittel); Hippokrates von Kos beschrieb das Brechverfahren als eines der wichtigsten Heilmittel für Geisteskrankheiten (Solche Vorstellungen hielten noch bis zum 18. Jahrhundert an.). Im mittelalterlichen Antidotarium Nicolai finden sich verschiedene Brechmittel wie Vomitus Nicholay, Vomitus patriarchae und Vomitus valens tertianariis.
Aschner beschreibt ein breites Indikationsgebiet für das Brechverfahren:
Krankheiten im Bereich des Kopfes, des Mundes und des Halses
Lungenkrankheiten
Herzkrankheiten
Magenkrankheiten
Gallenleiden
Infektionskrankheiten
Hautkrankheiten
Gelenkleiden und Rheumatismen
Kinderkrankheiten
Nervenkrankheiten
Geistesstörungen
Angst vor dem Erbrechen
Die krankhafte Angst vor dem Erbrechen nennt man Emetophobie.
Kulturelle Aspekte
Das Erbrechen spielt weltweit in vielen magischen bzw. ekstatischen Praktiken eine wichtige Rolle und wird dabei unter anderem als eine Form der Katharsis oder Mimesis betrachtet. Unter diesem Aspekt wurde das „Kotzen“ von dem Tübinger Ethnologen Thomas Hauschild untersucht. Neben dem Wort „Kotzen“ sind weitere umgangssprachliche Begriffe dafür bekannt: Reihern, Würgen, Sich übergeben, Speien, Göbeln, in Österreich auch Speiben.
Der mittelhochdeutsche und frühneuhochdeutsche Ausdruck undauen („nicht verdauen“) bedeutete so viel wie „erbrechen“.
Siehe auch
Regurgitation – Zurückfließen des Inhaltes von Hohlorganen, wie der Speiseröhre
Rumination – „Wiederkäuen“; bezeichnet eine motorische Unruhe des Magens mit willkürlich gesteuertem Hochwürgen (= Regurgitation), erneutem Durchkauen und Wiederverschlucken des Mageninhaltes. Kommt in der Pädiatrie v. a. bei vernachlässigten Säuglingen und Kindern vor.
Ingwer, Abschnitt Gegen Übelkeit und Erbrechen
Weblinks
Erbrechen – kindergesundheit-info.de: unabhängiges Informationsangebot der Bundeszentrale für gesundheitliche Aufklärung (BZgA)
R. Schäfer: Übelkeit und Erbechen. In: Aktuelle Schmerzmedizin. 20. Ergänzungslieferung 12/14, S. 141–150 (Leseprobe).
Einzelnachweise
Krankheitssymptom in der Gastroenterologie
Krankheitsbild in der Inneren Medizin
|
Q127076
| 119.991191 |
19946
|
https://de.wikipedia.org/wiki/Rotationsellipsoid
|
Rotationsellipsoid
|
Ein Rotationsellipsoid (englisch spheroid) ist eine Rotationsfläche, die durch die Drehung einer Ellipse um eine ihrer Achsen entsteht. Anders als bei einem dreiachsigen bzw. triaxialen Ellipsoid sind zwei Achsen gleich lang.
Je nach dem, welche der beiden Halbachsen der erzeugenden Ellipse als Drehachse fungiert, werden unterschieden:
das abgeplattete (oblate) Ellipsoid bei Rotation um die kleine Halbachse (Beispiel: Form einer Schokolinse)
das verlängerte (prolate) Ellipsoid bei Rotation um die große Halbachse (Beispiel: Form des Rugbyballs).
Vorkommen
Die meisten größeren Himmelskörper sind angenähert abgeplattete Rotationsellipsoide, die auch Sphäroide genannt werden. Sie entstehen durch die Fliehkraft, die bewirkt, dass ein sich drehender kugelförmiger Körper verformt wird. An den Polen, also den Durchstoßpunkten der Rotationsachse, werden diese Körper abgeplattet, am Äquator entsteht eine Ausbauchung. Besonders deutlich ist die Abplattung bei den großen Gasplaneten Jupiter und Saturn ausgeprägt, weil sie besonders schnell rotieren und nicht verfestigt sind. Aber auch die Erde und die anderen Planeten des Sonnensystems werden durch die bei der Rotation entstehenden Fliehkräfte zu Rotationsellipsoiden verformt. Der in zehn Stunden rotierende Jupiter ist um etwa 1/16 abgeplattet, die Erdabplattung beträgt 1/298,257223563 (WGS 84).
Elliptische Galaxien sind oft keine Rotationsellipsoide, sondern triaxial.
Parameterdarstellung
Die folgende Parameterdarstellung beschreibt ein Rotationsellipsoid, das durch Rotation der Halb-Ellipse (in der --Ebene) um die -Achse entsteht (s. Rotationsfläche):
.
Die Zahlen sind die Halbachsen der rotierenden Halbellipse. Im Fall entsteht ein abgeplattetes Rotationsellipsoid, im Fall ein verlängertes Rotationsellipsoid. Falls ist, ergibt sich eine Kugel mit Radius .
Man beachte: Die Pole (Punkte auf der Rotationsachse) besitzen keine eindeutige Darstellung.
Das entstandene Rotationsellipsoid besitzt die implizite Darstellung:
Volumen
Das Volumen des obigen Rotationsellipsoids beträgt
.
Dabei ist der Radius des Äquatorkreises und der Abstand der Pole vom Mittelpunkt.
Oberfläche
Die Oberfläche für das abgeplattete Ellipsoid () berechnet man mit
die des verlängerten Ellipsoids () mit
Eine Kugel mit Radius hat das Volumen und die Oberfläche (s. Kugel).
Herleitung der Formeln
Der Inhalt des Flächenmantels einer durch Rotation der Kurve erzeugten Rotationsfläche ist
(siehe Rotationsfläche)
Für das obige Rotationsellipsoid ist . Es muss also das Integral
(2-mal ein halbes Ellipsoid) berechnet werden. Für ist und es ergibt sich die Oberfläche einer Kugel. Im Folgenden wird vorausgesetzt.
Die Substitution mit führt zu
und damit zu
falls , und
falls .
Unter Beachtung, dass der Bruch unter der Quadratwurzel in beiden Fällen positiv ist, ergeben sich mit Hilfe einer Integrationstabelle (z. B. Bronstein-Semendjajew) die Stammfunktionen für die beiden Integrale und schließlich die oben angegebenen Formeln für die Oberfläche.
Anwendung
In der Geodäsie, Kartografie und den anderen Geowissenschaften werden Rotationsellipsoide als geometrische Annäherung an das physikalische Geoid benutzt. Diese Rotationsellipsoide dienen dann als Referenzfläche, um die Lage bzw. Höhe von Objekten der Erdoberfläche anzugeben. Man spricht dann von einem Referenzellipsoid.
In einem Hohlkörper reflektieren die Begrenzungsflächen des (gestreckten) Rotationsellipsoids die Strahlung von einem Brennpunkt zum anderen. Den Effekt nutzt ein Flüstergewölbe für die Bündelung von Schallwellen.Derart geformte optische Reflektoren bündeln die Strahlung einer nahezu punktförmigen, sich in einem der Brennpunkte befindlichen Lichtquelle auf den anderen Brennpunkt des Ellipsoids. Dort kann sich die Grenzfläche eines Lichtleitkabels, ein anderes optisches Element oder der Ort eines strahlungsinduzierten Prozesses befinden.
Anwendungsbeispiele
Jupiter und Saturn
Die Planeten Jupiter und Saturn sind wegen den durch die schnelle Rotation wirkenden Zentrifugalkräfte an den Polen deutlich flacher als am Äquator und haben annähernd die Form eines Rotationsellipsoids.
Jupiter
Jupiter hat den Äquatordurchmesser 142984 km und den Poldurchmesser 133708 km. Also gilt für die Halbachsen und . Die Masse des Jupiter beträgt etwa 1,899 · 1027 kg. Daraus ergibt sich mithilfe der oben genannten Formeln für das Volumen, die mittlere Dichte und die Oberfläche:
Volumen:
Das ist etwa 1321-mal so viel wie das Volumen der Erde.
Mittlere Dichte:
Jupiter hat also insgesamt eine etwas höhere Dichte als Wasser unter Standardbedingungen.
Oberfläche:
Das ist etwa 121-mal so viel wie die Oberfläche der Erde.
Saturn
Saturn hat den Äquatordurchmesser 120536 km und den Poldurchmesser 108728 km. Also gilt für die Halbachsen und . Die Masse des Saturn beträgt etwa 5,683 · 1026 kg. Daraus ergibt sich:
Volumen:
Das ist etwa 764-mal so viel wie das Volumen der Erde.
Mittlere Dichte:
Saturn hat also insgesamt eine etwas geringere Dichte als Wasser unter Standardbedingungen.
Oberfläche:
Das ist etwa 84-mal so viel wie die Oberfläche der Erde.
Rugbyball
Ein Rugbyball hat eine Länge von etwa 280 Millimetern und an der Nebenachse einen Durchmesser von etwa 200 Millimetern. Also gilt für die Halbachsen und . Die Masse eines Rugbyballs beträgt etwa 400 Gramm. Daraus ergibt sich:
Volumen:
Mittlere Dichte:
Kuppel des Berliner Reichstagsgebäudes
Die nach der Deutschen Wiedervereinigung neu errichtete Kuppel des Berliner Reichstagsgebäudes hat die Form eines halben Rotationsellipsoiden mit einem Durchmesser von 38 Metern an der Nebenachse und einer Höhe von 23,5 Metern. Also gilt für die Halbachsen und . Daraus ergibt sich das Volumen
.
Siehe auch
Ellipsoid
Rotationsparaboloid
Rotationshyperboloid
Achernar
Weblinks
Einzelnachweise
Raumgeometrie
|
Q208395
| 193.263116 |
12149
|
https://de.wikipedia.org/wiki/Blasinstrument
|
Blasinstrument
|
Blasinstrumente sind Musikinstrumente, bei denen ein Musiker üblicherweise durch seine Atemluft meistens mit einem Instrumentenmundstück die Luftsäule innerhalb eines Hohlkörpers – meistens einer Röhre – zum Schwingen bringt. Blasinstrumente zählen gemäß der Hornbostel-Sachs-Systematik zu den Aerophonen. Der eingeblasene Luftstrom kann auch mit einem Luftsack oder Blasebalg direkt oder mittels einer Spielmechanik wie bei der Orgel erzeugt werden. Es gibt verschiedene Möglichkeiten, die Vielfalt der vorhandenen Blasinstrumente in Gruppen einzuordnen.
Klassifikation
Die Einteilung der Blasinstrumente orientiert sich an der Hornbostel-Sachs-Systematik und erfolgt in Holz-, Blechblasinstrumente und Durchschlagzungeninstrumente nach der Art der Tonerzeugung:
Luftblatt- oder Labialinstrumente (mit Anblaskante): Flöten
Instrumente mit einfachem (aufschlagendem) Rohrblatt: Klarinetten, Saxophone
Instrumente mit doppeltem (gegenschlagendem) Rohrblatt: Schalmeien inkl. Oboe, Fagott, Sarrusophon etc.
Instrumente mit Trichter-, Becher- oder Kesselmundstück, bei denen die Lippen des Spielers die Schwingung erzeugen: Blechblasinstrumente, Zink, Alphorn
Instrumente mit durchschlagenden Zungen (wenn mit einer Luftsäule verbunden, ansonsten sind dies freie Aerophone)
Instrumente für Marschkapellen werden so gebaut, dass ihr Schalltrichter beim Spielen eher nach vorne gerichtet ist (etwa im Gegensatz zu einem Waldhorn), sie werden als „marching brass“-Version bezeichnet, siehe dazu auch Drum Corps#Brass.
Holzblasinstrumente
Die Holzblasinstrumente lassen sich unterteilen in die Flöteninstrumente (mit Anblaskante) und die Rohrblattinstrumente mit einem oder zwei schwingenden Rohrblättern.
Flöteninstrumente
Die ältesten Instrumente mit Anblaskante, wahrscheinlich die ältesten Blasinstrumente überhaupt, sind die Kernspaltflöten, zu denen die Blockflöte gehört. Das kleinste und lauteste Instrument dieser Gattung ist die Trillerpfeife. Auch die Panflöte lässt sich weit in die Vorzeit zurückverfolgen. Die Flöte des Alten Testaments heißt Chalil. Aus der Schwegelpfeife des Mittelalters entstand die Traversflöte, die sich zur Querflöte und ihren Unterarten (Piccoloflöte, Altflöte) weiterentwickelte. Nur noch selten in Verwendung ist das mit der Blockflöte eng verwandte Flageolett.
Aufschlagzungeninstrumente
Vergleiche den Hauptartikel Einfachrohrblattinstrument
Eine elastische Zunge schlägt gegen den Luftstrom auf eine Kehle und erzeugt somit einen Ton. Verwendet wird das Prinzip mit Metallzunge bei der Martinstrompete oder mit Holzzunge beim Bordun der Sackpfeife. Aus dem Chalumeau mit hölzernem Rohrblatt entwickelte sich die Klarinette (und ihre Unterarten Bassklarinette und Bassetthorn). Auch das Saxophon gehört auf Grund dieser Tonerzeugung zu den „Holzbläsern“.
Doppelrohrblattinstrumente
Vergleiche den Hauptartikel Doppelrohrblattinstrument
Das Doppelrohrblatt besteht aus zwei aufeinander liegenden symmetrischen Rohrblättern, die gegen den Luftstrom schwingen. Die ältesten Vertreter dieser Art sind die primitiven Doppelrohrblattinstrumente im antiken Ägypten und Griechenland (Aulos), spätere Vertreter sind Schalmei, Piffero, Rankett und Pommer. Im modernen Orchester findet man Oboen (Oboe d’amore, Englischhorn, Heckelphon) und Fagotte (Kontrafagott). Aber auch im Dudelsack und in anderen Instrumenten mit Windkapsel stecken Doppelrohrblätter.
Blechblasinstrumente
Diese Instrumente werden mit den menschlichen Lippen des Mundes angeblasen. Die Tonerzeugung lässt sich mit Funktionsweise der Polsterpfeife erklären. Die Vorgänger der heutigen Blechblasinstrumente waren aus Hornsubstanz (Kuh-, Stier- oder Widderhorn). Blech als heutige Materialverwendung spielt für die Einteilung keine Rolle. Musiziert wird mit der Naturtonreihe, Längenveränderungen sind mit Ventilen oder Teleskoprohren möglich. Auch die Blechblasinstrumente können in zwei Familien gegliedert werden, die Unterscheidung erfolgt nach der verwendeten Mensur: Ist diese zum größeren Teil konisch, spricht man von Instrumenten der Hornfamilie, wenn die zylindrische Bauweise überwiegt, von Trompeteninstrumenten.
Horninstrumente
Die ältesten Naturhörner waren Tierhörner wie der Schofar aus Widderhorn, die Elfenbeintrompete (im Mittelalter Olifant) aus einem Elefantenstoßzahn (Elfenbein), das Alphorn aus Holz und die Lure aus Bronze. Aus Holz wurden der Zink und das Serpent hergestellt. Mit großer Fertigkeit wurden aus gewalztem Blech (Messing) Parforcehorn, später Jagdhorn und Ophikleide gebaut. Das Kornett wurde noch vor dem modernen Horn mit Ventilen ausgestattet. Eine vollständige Unterfamilie der Horninstrumente mit Vertretern in allen Lagen sind die Bügelhörner, zu denen auch Flügelhorn, Tenorhorn, Bariton, Helikon, Sousaphon und Tuba zählen.
Trompeteninstrumente
Aus den Naturtrompeten, die für Fanfaren und militärische Signale benutzt wurden, entwickelte sich die verfeinerte, aber immer noch ventillose Barocktrompete und daraus später die moderne Trompete. Die tiefen Vertreter dieser Familie sind die Posaunen (Ventilposaunen oder Zugposaune).
Ein Didgeridoo hat ein zylindrisches oder leicht konisches Lumen mit etwa gerader Achse.
Durchschlagzungeninstrumente
Hierzu gehören nur jene Instrumente, deren Schwingungen durch einen Luftstrom angeregt werden und bei denen eine Luftsäule zur Resonanz gebracht wird. Dazu zählen insbesondere die Zungenpfeifen der Orgel oder die Mundorgel Sheng, eines der wichtigsten Instrumente der klassischen chinesischen Musik. Ein ähnliches Instrument wird in Japan Shō und in Laos Khaen genannt.
Durchschlagzungeninstrumente ohne Resonator wie die Mundharmonika, trotzdem sie augenscheinlich angeblasen wird, sowie das Akkordeon oder das Harmonium zählen zu den freien Aerophonen.
Membranopipes
Membranopipes wurden 2011 als weitere Gruppe von Blasinstrumenten in die Hornbostel-Sachs-Systematik eingefügt, weil sie keiner vorhandenen Kategorie zugeordnet werden konnten. Bei den Membranopipes ist der Tonerreger eine gespannte Membran, die durch einen Luftstrom angeregt wird und so periodisch einen Luftdurchlass öffnet und schließt, wodurch die Luft in einer Röhre in Schwingung versetzt wird. Im Ruhezustand verschließt bei Membranopipes die Membran den Luftdurchlass, während bei den ansonsten nach Art der Tonerzeugung ähnlichen Rohrblattinstrumenten im Ruhezustand der Luftdurchlass geöffnet ist und sich erst durch die Blasluft periodisch schließt.
Anblastechnik
Bei Blasinstrumenten wird eine Luftsäule im Resonanzkorpus durch Anblasen zu Schwingungen angeregt. Die Anblastechnik und die Form des Instrumentenmundstücks beeinflussen wesentlich den Toncharakter. Bei vielen Varianten des Instruments lässt sich die Grundschwingung auch überblasen: durch stärkeres Anblasen wird statt des Grundtones ein höherer Naturton angeregt, bei Blechblasinstrumenten wird dies über eine höhere Luftgeschwindigkeit und erhöhte Lippenspannung erreicht. Mittels Zirkularatmung kann ein Ton ununterbrochen erzeugt werden.
Die verschiedenen Stellungen der Mundmuskulatur beim Anblasen werden als Ansatz bezeichnet.
Das mehr oder weniger schnelle Einschwingen, bzw. das weiche oder harte Erklingen des Tonbeginns beim Anblasen wird als Ansprache bezeichnet.
Der Tonbeginn erfolgt mit einem Zungenstoß (eigentlich das Abziehen der Zunge vom vorderen Gaumen bzw. vom Rohrblatt), der den Luftstrom in Fluss bringt.
Die Atemtechnik, mit der ein stabiler, kontrollierten Luftfluss unter Einsatz der Bauch-, Brust- und Rückenmuskulatur erzeugt wird, nennt man Atemstütze.
Zur Verbesserung der Technik und des Klangs werden unter anderem Übungen mit den natürlichen Obertönen (Naturtonreihe) und lang gehaltene Töne eingesetzt.
Der Versuch, den Klang von Blasinstrumenten elektronisch zu erzeugen, wird durch die komplexe individuelle Art der Anblasgeräusche und der Transienten im ausgehaltenen Ton erschwert.
Bei manchen Blasinstrumenten, wie beispielsweise beim Saxophon, kann der Toncharakter auch durch Mitsingen (gleichzeitig mit dem Blasen) variiert werden. Beim Saxophon entsteht durch dieses „Growling“ (übersetzt „Brummen“ oder „Knurren“) ein rauerer Klang ähnlich einer menschlichen „rauchigen“ Stimme. Bei einigen Längsflöten produziert der Spieler durch einen eingesungenen Brummton eine Zweistimmigkeit mit einem tiefen Bordun. Diese Spielweise ist für den Typ der zentralasiatischen Hirtenflöten charakteristisch, zu denen die Kurai westlich des Ural, die Sybyzgy in Kasachstan, die Tüidük in Turkmenistan, die Tsuur in der Mongolei und die Narh in Pakistan gehören.
Während bei der weit überwiegenden Zahl von Blasinstrumenten Luft durch eine Öffnung eingeblasen wird, produzieren Durchschlagzungeninstrumente Töne bei Luftströmen in beiden Richtungen. Daneben gibt es eine kleine Gruppe von traditionellen Blasinstrumenten, deren Luftschwingungen durch Vibration der Lippen beim Ansaugen von Luft entstehen. Zu diesen Sauginstrumenten (englisch sucked trumpets) gehören manche Tierhörner, konische Rindentrompeten und Holztrompeten. Sauginstrumente sind in Sibirien mit dem tungusischen Wort byrgy und in Chile als nolkin bekannt.
Literatur
Enrico Weller: Der Blasinstrumentenbau im Vogtland von den Anfängen bis zum Beginn des 20. Jahrhunderts. Dissertation, Chemnitz 2002, Hrsg.: Verein der Freunde und Förderer des Musikinstrumenten-Museums e. V. Markneukirchen, Geiger-Verlag, Horb am Neckar 2004, ISBN 3-89570-986-7.
Paul Wiebe: Bläser arrangieren. Wizoobooks Verlag 12/2007, ISBN 978-3-934903-61-6.
Weblinks
Einzelnachweise
Aerophon
|
Q173453
| 148.353684 |
74020
|
https://de.wikipedia.org/wiki/Sch%C3%B6nheit
|
Schönheit
|
Schönheit ist ein Attribut individuellen menschlichen Wohlgefallens, das zum Beispiel in Naturerscheinungen, bei Kunstgegenständen und in Alltagserlebnissen auftritt. Als Bezugsgröße persönlichen Empfindens entzieht sich Schönheit jedoch einer allseits akzeptierten, verbindlichen Objektivierung und Festlegung. Als „schön“ empfunden werden können unter anderem Landschaften, Sonnenuntergänge, Menschen, Gebrauchsgegenstände oder Kunstwerke. In einem weiteren Sinn werden oft auch abstrakte Objekte wie Ideen, Erkenntnisse, Handlungen, Beziehungen, Situationen oder Erinnerungen als schön bezeichnet. Im umgangssprachlichen Alltag streut die Verwendung dieses Adjektivs sehr breit. Wenn von Schönheit im Sinne eines bewusst getroffenen Werturteils gesprochen wird, handelt es sich um anderes als einfaches Wohlfühlen oder Lustempfinden.
Ob Schönheit eine Eigenschaft des Objektes, oder eine Empfindung des Subjektes, oder etwas Drittes ist, ist traditionell und bis heute umstritten. Untersuchungsgegenstand ist Schönheit sowohl in der Philosophie, wo das Schöne speziell in der griechischen Antike zusammen mit dem Wahren und dem Guten zu den obersten Werten gehörte, als auch in einer Reihe anderer Wissenschaftszweige, darunter Psychologie und Kunstwissenschaften. Wie Kunst und Geschmack ist Schönheit zentral für die Ästhetik, wo sie in Beziehung gesetzt wird zu Anmut, Eleganz oder Erhabenheit. Als ästhetischer Wert steht der Schönheit die Hässlichkeit gegenüber. Das Phänomen, dass an sich „hässliche“ Attribute gelegentlich dennoch als schön empfunden werden, wird als Paradox der Hässlichkeit bezeichnet.
Schönheit hat sowohl objektbezogene als auch subjektive Aspekte: Sie hängt einerseits von Eigenschaften der jeweiligen Objekte ab, andererseits vom individuellen Geschmack der urteilenden Person. Der subjektiven Seite entspricht die Redewendung, Schönheit liege „im Auge des Betrachters“. Was in einem alltäglichen Sinne als „schön“ bezeichnet wird, ist zudem großteils von sich wandelnden Schönheitsidealen abhängig, die sich zwischen verschiedenen Kulturen und Epochen teils stark voneinander unterscheiden. In diesem Sinne haben auch Moden (z. B. bei Kleidung und Körpergestaltung) sowie stilistische Veränderungen (z. B. in Kunst, Literatur und Musik) Einfluss auf das ästhetische Empfinden.
Die Verschönerung des eigenen Erscheinungsbildes ist als häufig geübte Praxis nicht neu in der Menschheitsgeschichte. Im Gegenwartshorizont, der für den Trend zur diesbezüglichen Individualisierung mit den erweiterten Gestaltungsmitteln der Tätowierung, der Piercings und der Schönheitschirurgie eine ungekannt breite Palette von Möglichkeiten anbietet, wird der Drang zur oberflächlichen Selbstoptimierung auch teilweise kritisch gesehen.
Definitionsprobleme und -annäherungen
Die Suche nach einer generellen Definition von Schönheit führe nirgends zum Erfolg, so Karen Gloy, weder im Internet noch in philosophischen oder ästhetischen Lexika oder Wörterbüchern. Welche bekanntere Zitatformel man auch nehme – etwa die von Friedrich Schiller, dass Wahrheit für den Weisen sei, die Schönheit „für ein fühlend Herz“, die von Christian Morgenstern, wonach Schönheit eigentlich alles sei, was man mit Liebe betrachtet, oder die von Albert Einstein, wonach das Schönste das Geheimnisvollste sei –, stets müsse man wie die Genannten von einer bestimmten Perspektive ausgehen und von dort aus größere Zusammenhänge erschließen. Jeder solcher Ausgangspunkt aber bleibe beliebig, da auch ein anderer gewählt werden könnte; eine systematische Gesamtschau über das Seiende jedoch gebe es nicht.
Als eine Verheißung von Glück bzw. als ein Glücksversprechen hat Stendhal Schönheit verstanden, eine Betrachtungsweise, die laut Konrad Paul Liessmann neuerdings wieder häufiger aufgegriffen wird. Demnach weckt der Anblick von Schönheit Erwartungen, Begierden und Sehnsüchte, stellt dieses Glück aber nicht selbst dar. „Schönheit lässt uns ahnen, dass es mehr gibt als das Nützliche und das Unnütze, als unmittelbare Lust und unmittelbares Leid.“ Schönheit gehe über den einfachen Reiz der Sinne stets hinaus. „Wenn wir im Alltag, in der Kunst oder in der Natur etwas ‚schön‘ nennen, meinen wir in der Regel, dass etwas in besonderer Weise geglückt, in sich stimmig, als Gesamtheit gelungen ist.“
Liessmann zufolge hörte das Schöne spätestens im 18. Jahrhundert auf, als Ausdruck objektiver Gesetzmäßigkeiten verstanden zu werden. Seither sei das Schöne keine Eigenschaft des Objekts mehr, sondern Ausdruck einer subjektiven Einstellung. „Nun liegt die Schönheit im Auge des Betrachters, was schön ist, unterliegt dem individuellen Geschmack.“ In der Folge komme es zu einer Sensualisierung, Psychologisierung und Subjektivierung des Schönen. Fortan seien nicht mehr die Vernunft und der Intellekt die Organe zur Erfassung des Schönen, sondern die Erfahrung des Schönen liege vielmehr in den Sinnen selbst. Für David Hume war Schönheit keine den Dingen selbst innewohnende Eigenschaft; „sie existiert lediglich im Geiste dessen, der die Dinge betrachtet.“ Das Gefühl für das Schöne könne allerdings durch Schulung und Übung, durch Vergleiche und Kenntnisse geschärft, die diesbezügliche Urteilskraft treffsicherer werden.
Mit der experimentellen Ästhetik, für die Gustav Theodor Fechner als Begründer der Psychophysik den Boden bereitete, wurde der traditionell-philosophischen „Ästhetik von oben“ eine das Schönheitserleben auf experimenteller Basis erforschende „Ästhetik von unten“ gegenübergestellt. Für Gábor Paál gilt: „Schönheit beschränkt sich nicht auf Kunst oder auf besinnliche Momente, sondern sie ist existenziell. An einem Mangel an Schönem kann man leiden.“
Schönheitsempfinden und -erleben in Alltagsbereichen
In nahezu allen Lebensbereichen, so Liessmann, spielt Schönheit eine bedeutende Rolle. Von der Geburt – dem „schönen“ Baby – bis zum Tod – der „schönen“ Leich’ – stelle Schönheit im Alltag einen Wert dar. Erotik und Sexualität seien in hohem Maße davon bestimmt: „schöne“ Körper und „schöner“ Sex. Schönheit grundiere die Ziele und Wunschvorstellungen menschlicher Lebenspraxis – die „schöne“ Wohnung, der „schöne“ Urlaub, ein „schöner“ Abend. Als zentrale Norm bestimme Schönheit die Ästhetik von Kleidung und das Design von Gebrauchsgegenständen.
Mit den Zusammenhängen zwischen Schönheit und Musik beschäftigt sich die Musikästhetik. Auch in den sogenannten exakten Wissenschaften spielt Schönheit eine Rolle. Sie kommt etwa in der Eleganz mathematischer und physikalischer Formeln oder Beweisführungen zum Tragen und ist Untersuchungsgegenstand der Wissenschaftsästhetik. Viele mathematische Objekte gelten als „schön“. Dazu gehören Fraktale, die Eulersche Identität sowie die mathematischen Eigenschaften des goldenen Schnitts. Auch Bildern von mikroskopischen oder makroskopischen Strukturen wird häufig ein ästhetischer Wert beigemessen.
Einen auf den ersten Blick inflationären Gebrauch des Wortes „schön“ folgert Paál: schöne Erlebnisse, schöne Nachrichten, schöne Vorträge, schöne Begegnungen; und daneben scheinbar unverträglich die Schönheit eines Rilke-Gedichts oder eines Da-Vinci-Gemäldes. Gleichwohl plädiert Paál für einen sehr weiten Begriff von Schönheit.
Vier verschiedene Ausprägungen des Schönen behandelt Roger Scruton in seiner diesbezüglichen Untersuchung: 1. Schönheit als Objekt der Begierde; 2. natürliche Schönheit als Gegenstand der Kontemplation; 3. Schönheit im Alltag als Thema der praktischen Vernunft; 4. künstlerische Schönheit als bedeutungstragende Form und Gegenstand von Geschmacksurteilen.
Evolutionäre Veranlagung des Sinns für Schönheit
In der evolutionären Psychologie wird geprüft, unter welchen Umständen die Fortpflanzungschancen eines Organismus steigen, wenn er Empfindungen für das Schöne entwickelt. Scruton unterscheidet dabei zwei Zugänge zu einer evolutionären Erklärung der Ästhetik: einen gruppenbezogenen und einen individuellen. Der gruppenspezifische bezieht sich auf Rituale und Feste, in denen die Mitglieder ihrem Bedürfnis Ausdruck verleihen, etwas Besonderes zu sein. Dieses in diversen kulturellen Eigenheiten sich artikulierende Bedürfnis wird mit dem evolutionären Vorteil für den Gruppenzusammenhalt auch in Krisenzeiten erklärt, der aber auch die Fortpflanzung der Menschen in Friedenszeiten fördere. Der individuelle Betrachtungsansatz sieht den Sinn für das Schöne durch den Prozess der sexuellen Selektion gefördert, wie er bereits von Charles Darwin vertreten wurde. Hervorzuheben sei, so Scruton, dass die ästhetischen Aktivitäten von Menschen weitaus mehr umfassen als das Balzgehabe von Tieren, so beispielsweise das Malen von Bildern, das Dichten und den Liedgesang.
Die auf Darwin zurückgehende, rein biologische Erklärung der äußeren Erscheinung speziell des Menschen darf auch aus Gloys Sicht von Anbeginn nicht zu eng gefasst werden. Für das Überleben der Menschengattung spiele nicht nur die Vererbung und Weitergabe der äußeren, geschlechtsspezifischen Schönheitsmerkmale eine Rolle, sondern auch der die Menschen umgebende Lebensraum, in dem sie sich einrichten, sowie die sie tragenden sozialen Strukturen. In verschiedenen Kulturen und auch innerhalb derselben Kultur zu verschiedenen Epochen kann der auf die äußere menschliche Erscheinung gerichtete Schönheitsbegriff variieren. So bevorzugen Wohlstands- und Überflussgesellschaften mit reichlichem Nahrungsangebot das Schlankheitsideal; an Nahrungsmangel leidende Naturvölker, die am Existenzminimum leben, ziehen dagegen dem Wunschziel der Nahrungsfülle entsprechende, also fülligere Formen vor.
Evolutionsgeschichtliche Darstellungen menschlicher Verhaltensadaptionen gründen laut Winfried Menninghaus auf der Grundannahme, dass Menschen in zwei Zeiten leben: einer historisch-kulturellen und einer urgeschichtlich-evolutionären. Zwischen beiden liege ein Bruch, der sich ereignete, als menschliche Intelligenz der natürlichen Umgebung die selbstgeschaffene Technik und Kultur gegenüberstellte. „Unsere genetisch fixierten Körpermerkmale und viele unserer evolvierten Verhaltensprogramme sind mit dem Einsetzen der Kultur – und also sehr früh in der gesamten Menschheitsgeschichte – gleichsam eingefroren worden.“ Empirisch grundiert würden neuere evolutionstheoretische Hypothesen in methodisch für Menninghaus oft hochproblematischen Erhebungen transkultureller Aussehenspräferenzen. Als universal gültige Bevorzugungsmerkmale im Aussehen gelten demnach heute: „hohe Symmetriewerte von Gesicht und Körperteilen, glatte Haut, hemisphärische Brüste, eine bestimmte Relation von Taille und Hüfte, das Kindchen-Schema bei Frauengesichtern und männliche Sportlerfiguren.“ Angesichts mancher offenen Fragen im Spannungsfeld zwischen evolutionären und kulturellen Prägungen sind hinreichende Erklärungen aktuellen menschlichen Verhaltens aus der Evolutionstheorie laut Menninghaus nicht zu erwarten, „sondern allenfalls Plausibilisierungen für unbestimmt große Teile unseres Verhaltens“.
Geordnete Schönheit – symmetrisch, proportioniert, harmonisch
Dass Schönheit mit Ordnung einhergehe, ist eine der griechischen Antike entstammende Vorstellung. Die Welt als geordnetes Ganzes bildet den Kosmos, von dem Kosmetik als Verschönerungskunst abgeleitet ist. Den Ordnungsliebenden Griechen, heißt es bei Gloy, war das Chaos ein Gräuel. Sie suchten und strebten zwecks Beherrschung der Dinge nach Klarheit, Ordnung und Übersicht, was als Motiv auch für die Entstehung der Wissenschaften ursächlich gewesen sei. Auf Pythagoras Wirken bezogen bemerkte Umberto Eco: „Alle Dinge existieren, weil sie eine Ordnung haben, und sie sind geordnet, weil sich in ihnen mathematische Regeln realisieren, die zugleich die Bedingung für die Existenz von Schönheit sind.“ Der Zusammenhang von Mathematik und Geometrie mit Schönheit dürfte darin bestehen, so Gloy, „dass mathematische Gleichungen, Symmetrien, Proportionen, geometrische Formen und Figuren als vollkommene, ideale Verhältnisse und Gestalten Sicherheit und Stabilität verschaffen in einer ansonsten schwankenden, chaotischen Umgebung und daher mit Wohlgefallen verbunden sind.“
Symmetrie im Sinne von Gleichmaß bzw. Ebenmaß wird vorzugsweise auf Linien, Formen und Gestalten bezogen und durch die Waage mit ihren ausgeglichenen Schalen symbolisiert. Symmetrische Figuren sind in der Natur zahllos vorhanden, unter anderem in den Paarbildungen bei Menschen und Tieren hinsichtlich Augen, Ohren, Armen und Beinen. Als Naturveranlagung mitgegeben ist sie praktisch allgegenwärtig und vorbildhaft, indem sie Balance, Ruhe und Beständigkeit ausstrahlt, während Symmetriebrüche Unruhe und Instabilität erzeugen.
Der antike Bildhauer Polyklet schuf mit seinem Kanon ein trotz Überlieferungslücken in der Folge vielfach übernommenes Muster für die künstlerische Darstellung von Menschen in idealen Proportionen. Die Maßverhältnisse eines Fingers zum anderen, aller Finger zur Mittelhand und zur Handwurzel sowie die der Elle zum Arm sollten einander entsprechen. Für den weiblichen Körper sah er einen gleich großen Abstand zwischen den Brustwarzen, von den Brüsten bis zum Nabel und vom Nabel bis zur Gabelung der Beine vor. Die Ideen von Polyklets Proportionslehre wurden über Vitruv in der Renaissance fortgeführt, wofür Sandro Botticellis Gemälde Die Geburt der Venus das erste Beispiel in der Malerei war.
Als schön angesehen wurde gemäß antiker Überlieferung dasjenige, dessen Teile in harmonischen Proportionen zueinander und zum Ganzen stehen. Dem altgriechischen Mythos zufolge war Harmonie die aus dem unstatthaften Liebesleben der Liebesgöttin Aphrodite und des Kriegsgottes Ares hervorgegangene Tochter. Harmonie, das lehrt laut Liessmann der antike Mythos, „ist der nur durch Gewalt herstellbare Gleichklang des Verschiedenen.“ Harmonie zu erzeugen bedeute, zu einem stimmigen Ganzen zusammenzufügen, was auseinanderstrebt. Indem aber das Einzelne immer nur unter der Perspektive seines Beitrags zum Harmonisch-Ganzen gesehen werde, so Liessmann, sei die Schönheit der Harmonie immer brüchig und bedroht.
Das Kunstschöne
Zu den Erscheinungsformen des Kunstschönen vornehmlich im literarischen Bereich gehören unter anderem Gegensatzpaare: das Komische und das Tragische, das Heitere und das Melancholische, das Besinnliche und das Dramatische. Kunstschönes zeigt sich aber auch in der Harmonie von Farben und Formen, etwa in Architektur und bildender Kunst, oder als Aufbau und Auflösung der Spannung zwischen Akkorden in der Musik.
Der Vorstellung, dass Kunst prinzipiell der Schönheit verpflichtet sei, und dass diese sich primär in Kunstwerken zeige, tritt Liessmann entgegen. Weder in der Antike noch im Mittelalter und schon gar nicht in der Moderne habe dieser Anspruch gegolten; vielmehr sei das nur für eine relativ kurze Epoche der europäischen Geistesgeschichte im Gefolge der Renaissance bis zum frühen 19. Jahrhundert der Fall. Die Kunst sei in der Regel mit Aufgaben und Absichten verbunden worden, die über die Hervorbringung des Schönen weit hinausgingen. Die Kunstproduktion und ihre Wahrnehmung waren vielmehr seit ihrer Entstehung von politischen, religiösen, erkenntnistheoretischen, pädagogischen und hedonistischen Motiven begleitet. „Die Grenzen zwischen Kunst, Kult Design, Rhetorik, Werbung und Unterhaltung waren und sind fließend.“
Die „schönen Künste“ verdanken diese Bezeichnung dem französischen Philosophen und Ästhetiker Charles Batteux, der die beaux arts (Malerei, Bildhauerei, Musik, Dichtung, Tanz, Architektur und Rhetorik) von den mittelalterlichen artes liberales (Wissenschaften) und den artes vulgares (den Handwerkskünsten) abgrenzte. Für das systematische Nachdenken über die Künste sollte Batteux zufolge in den belles lettres (den schönen Wissenschaften) gesorgt werden; tatsächlich wurde daraus die Belletristik, die „schöne Literatur“.
Beim ästhetischen Urteil in der Kunst geht es für Scruton um die Frage, was einem gefallen sollte und was nicht. Er besteht auf Werkanalyse und -einordnung als didaktischen Mitteln der Geschmacksbildung. Es genüge nicht, Kunstwerke „als formal interessante Objekte interesseloser Freude zu sehen“. Sie stellten kommunikative Akte mit Sinn und Bedeutung dar, die es zu erschließen gelte und die also verständlich sein müssten.
In der Kunst des 20. Jahrhunderts zeigte sich eine deutliche Abkehr vom als bürgerlich und konservativ erachteten klassizistischen Schönheitsideal. Liessmann fasst den zeitspezifisch vorherrschenden Anspruch so zusammen: „Kunst will in gesellschaftliche Prozesse aufklärend oder irritierend eingreifen, gleichzeitig aber auch sich ihrer ästhetischen und technischen Möglichkeiten vergewissern und diese ausdehnen, sich letztlich überhaupt aus den eng definierten Bezirken der Hochkultur befreien und dadurch entgrenzen.“ Auf radikale Weise äußerte sich die Kritik am hergebrachten Schönen in der Auseinandersetzung mit dem Kitsch, der als Trivialisierung des Ästhetischen im Verbund mit massenhafter Herstellung und billigem Vertrieb verachtet wurde, in der Postmoderne als Kitsch-Art aber fortlebt und dabei mit den klassischen Schönheitsidealen ebenso spielt wie mit dem Massengeschmack des Schönen.
Das Naturschöne
Schönheit in der Natur (Das Naturschöne) wird in mannigfaltigen Erscheinungen wahrgenommen, zu denen beispielsweise die „erhabene“ Schönheit schneebedeckter Berggipfel und schaumgekrönter Meereswogen gehören sowie die „anmutige“ Schönheit zierlicher Blüten oder sanfter Bewegungen menschlicher Körper. Landschaftserleben gehört zu den das menschliche Wohlbefinden mitbestimmenden Umweltbedingungen. Landschaften können abweisend wirken und auch Schrecken erregen, wie die Bezeichnungen Höllenschlucht oder Glutofen zeigen. Während dunkle Räume zu Unwohlsein und Depression führen können, gehen weite, offene, lichtdurchflutete Räume eher mit Freude, Glück und Hochstimmung einher. Ferienhäuser, Erholungsheime und Sanatorien werden bevorzugt im Grünen angesiedelt, in waldreichen Gegenden oder an der See. Scruton betont, dass es bei der Erfahrung des Naturschönen nicht um wissenschaftliche Erfassung geht, sondern um ein Feld der freien Wahrnehmung. „Wir können unser Wahrnehmungsvermögen beim Anblick einer Naturszene ruhen lassen, ohne dass wir darin irgendeine Mitteilung entziffern müssen.“ Während Kunstwerke als „ewig zu respektierende Monumente gewollter Aussagen“ daständen, zeige sich die Natur großzügig, da es ihr nur um sich selbst gehe, „grenzenlos, ohne Rahmen und in täglich wechselnder Erscheinungsform.“ Bei der Erfahrung des Naturschönen geht es für Scruton nicht um Empfindungen oder Ausrufe wie „hübsch“ oder „reizend“, sondern „um die fundamentale Erfahrung, dass die Welt der richtige Platz für uns ist – eine Heimat, in der unsere menschlichen Fähigkeiten und Hoffnungen ihre Bestätigung finden können.“
Als kritisches Korrektiv zur Kunst, „als Quelle und Modell eines anderen, besseren Lebens“, habe erst die Romantik die Natur entdeckt, heißt es bei Liessmann. Ob aber der Natur überhaupt Schönheit zuzusprechen sei, bezeichnet er als umstritten, ebenso die Vorstellung von der Natur als eigentlicher Lehrmeisterin des Schönen. Die Moderne begegne ihr eher mit dem Interesse der Beherrschung und Ausbeutung. Doch seien nicht nur Ästhetiker und Künstler mit ihrer Schönheit beschäftigt; in Zeiten der ökologischen Krise interessiere das auch Umweltschützer und Tourismus. Da Natur im Gegensatz zur Kunst keinen historischen Kontext hat, ist ihr Schönheitspotenzial kulturübergreifend überall zugänglich. Das Gefallen daran steht allen Menschen offen, die Wertschätzung von Naturschönheit ist universal veranlagt.
Fasslichkeit und Bewegt-Sein als Wirkungsfaktoren
Schönheitsempfinden und ästhetische Bewertungen menschlicher Individuen sind mitbestimmt von dem Streben nach Komplexitätsreduktion bzw. „kognitiver Leichtigkeit“. Stehen parallel eine schwierige und leichte Aufgabe zur Lösung an, wendet man sich eher der leichteren zu. Zur Frage, ob ein Politiker „gut“ sei, werde keine Gesamtbilanz erstellt, sondern kämen einfachere Kriterien (kognitive Abkürzungen) zur Anwendung, beispielsweise Ausstrahlung, Redefähigkeit oder jüngste Auffälligkeiten bei dieser Person. Auf ästhetische Präferenzen angewendet, wird gefolgert, dass vornehmlich kognitiv leicht erfassbare Objekte ansprechend wirken. Außerdem spiele Vertrautheit eine Rolle: Die wiederholte Wahrnehmung eines Kunstwerks mache es mental „verfügbarer“ und erhöhe die Wahrscheinlichkeit einer positiven Bewertung.
Zum Schönheitserleben beitragen können auch ästhetische Emotionen, zu denen etwa am Max-Planck-Institut für empirische Ästhetik geforscht wird. Emotionales Bewegt-Sein ergibt sich bei fortgeschrittener sozialer Anteilnahme. Paál führt als filmisches Beispiel die Versöhnung eines Paares nach langer Trennung an. Hier könne die dazu gedrehte Liebesszene sehr viel bewegender sein, als wenn es zuvor keine Trennung gegeben hätte: In einer solchen Versöhnung sei noch der Schmerz der vorangegangenen Trennung mit enthalten. Bei der experimentellen Betrachtung von Gemälden im Rahmen der Forschungen zum Default Mode Network zeigten sich bei den Versuchspersonen zunächst rückläufige Gehirnaktivitäten, nicht jedoch, wenn die Probanden die von den Bildern ausgehende Wirkung selbst als „bewegend“ charakterisierten: Dann kam es im Gegenteil zu ungewöhnlicher Aktivierung. Daraus folgert Paál für das Bewegt-Sein eine ähnliche Wirkung wie beim Gefühl kognitiver Leichtigkeit: „Die primäre Emotion ist noch nicht das Schönheitsempfinden – aber sie beeinflusst es sehr stark.“
Philosophisch grundierte Schönheitstheorien
Auf den polnischen Philosophen und Kunsthistoriker Władysław Tatarkiewicz geht der Begriff der Großen Theorie des Schönen mit einem Geltungszeitraum von der Antike bis zur Renaissance zurück, die das Schöne nach objektiven Kriterien zu bestimmen suchte. Im 18. Jahrhundert wird die Suche nach dem Schönen vom Objekt auf das Subjekt verlagert, auf die Wahrnehmung des menschlichen Individuums. Danach liegt Schönheit im Auge des Betrachters.
Ganzheitliche bzw. „große“ Theorie antiker Herkunft
Zu den das Schöne konstituierenden objektiven Kriterien im Sinne der Großen Theorie gehörten die oben bereits ausgeführten: Symmetrie, Proportionalität und Harmonie. Zugleich wurde das Schöne in enger Verbindung gesehen zum Wahren und zum moralisch Guten. Schönheit und Tugend der Person standen hiernach im Entsprechungsverhältnis der Kalokagathia, wie die altgriechische begriffliche Zusammenfassung von schön (καλός) und gut (ἀγαθός) heißt, die zuerst bei Xenophon im 5. Jahrhundert v. Chr. überliefert ist. Herleiten lässt sich diese Zusammenführung von den homerischen Helden, die durchgängig als äußerlich schön beschrieben werden, „um dem kriegerischen Ideal der Männlichkeit, Standhaftigkeit, Tapferkeit und des Mutes zu genügen.“ Die physiologische Voraussetzung des ethischen Ideals der Tüchtigkeit, führt Gloy aus, sei die körperliche Schönheit – die kampfestaugliche Wohlgeformtheit der adligen Helden –, „so dass beide Ideale stets zusammen genannt werden.“ Bei Platon und Aristoteles wird anstelle des Mutes (θυμός) die Vernunft (νοῦς) als Hauptleitwert eingesetzt, womit laut Gloy in der europäischen Geistesgeschichte die Beherrschung der sinnlichen Begierden und Triebe (ἐπιθυμίαι) durch die Vernunft begann.
Platon
In mehreren seiner Dialoge behandelte Platon Aspekte der Schönheit. Während im Hippias maior alle Definitionsversuche auch von Sokrates Seite scheitern, wird im Philebos deutlich, dass das Gute nur in Verbindung mit der Schönheit, dem „Ebenmaß“, und der Wahrheit bestimmt werden kann. Den Aufstieg zum Schönen behandelt im Sinne der Ideenlehre Platons das Symposion. Dabei handelt es sich um die Rückschau auf ein Trinkgelage, in dem eine Reihe von Teilnehmern Reden zur Würdigung des Gottes Eros hielten, meist, indem sie die Attraktivität der sinnlichen und der geistig-seelischen Liebe erörterten. Der später hinzugekommene Sokrates hingegen bezieht sich auf Lehren der Seherin und Priesterin Diotima, die Eros erstlich mit dem Begehren des Schönen verbunden habe, die zweitens vermittelte, dass Schönheit nicht nur eine körperlich-sinnliche Seite habe, sondern auch auf eine innere, geistige Qualität ziele, eine schöne Seele. Diese innere Qualität befähige zu guter Letzt, eine dritte Dimension des Eros zu erschließen, nämlich Wesen und Idee der Schönheit, das „Urschöne“ selbst.
Für Gloy, die insgesamt sechs Stufen im Vortrag des Sokrates unterscheidet, handelt es sich um eine merkwürdige Stufenleiter der Schönheit, bei der die letzte und höchste Stufe gar nicht definiert und begriffen werden könne. Gesucht werde auf dieser Stufe „ein absolut Eingestaltiges“, worin „jede Vielfalt, Differenz, Gegensätzlichkeit aufgehoben ist und in letzter Konsequenz auch seine eigene Differenz zur Vielheit.“ Die Schönheit habe als einzige der Ideen im Sinne Platons eine Doppelbedeutung: Das Schöne sei einerseits das Göttliche selbst und andererseits „der Weg des Göttlichen in die Endlichkeit über alle Stufen.“ Es vollziehe sich im Glänzen und Strahlen, im Scheinen. „Das Schöne ist schön, während es anderes schön macht und verklärt.“
Zenon und die stoische Lehre
Dem Bericht des Diogenes Laertios zufolge fand sich die Verknüpfung des Schönen mit dem Guten in der Lehre des Stoikers Zenon wieder, der die Schönheit des vollkommenen Guten mit dessen vollkommener Proportionalität begründete und daraus die Identität des moralisch Guten mit dem proportional Schönen folgerte. Das moralische Gut-Sein eines Verhaltens stimmt demnach mit der Proportionalität oder Symmetrie seines Schön-Seins zusammen. Schön und folglich auch gut ist die symmetrische Einheit der vier Kardinaltugenden: Gerechtigkeit, Tapferkeit, Mäßigkeit (oder Angemessenheit) und Verständigkeit. Schön und damit auch gut ist die Veranlagung des Menschen, der mit seiner Ausstattung auszuführen vermag, wozu er im Kosmos bestimmt ist – die symmetrische Zuordnung von menschlichem Vermögen und menschlicher Bestimmung. Schön und gut ist es vor allem, wenn diese Möglichkeit des Menschen in einem Weisen Wirklichkeit wird, indem dieser sich vollkommen in die kosmische Ordnung einfügt.
Cicero
Übernommen und der römischen Realität angepasst wurde dieses Schönheitsverständnis der Stoa von Cicero in De officiis. Ausgehend von der menschlichen Natur, dem Streben nach Selbsterhaltung und Arterhaltung sowie von der Vernunftbegabung und Befähigung zur Erkenntnis der Wahrheit, behandelt Cicero ausführlich die vom Sehvermögen unterstützte Fähigkeit, die Schönheit und Symmetrie in der natürlichen Körperwelt wahrzunehmen und – im Transfer auf die Verhaltensebene – Schönheit und Ordnung, Maß und Angemessenheit im Handeln zu erkennen und zu bewahren. Allerdings ersetzt Cicero bei der verhaltensethischen Qualifikation die Schönheit (pulchritudo) durch die Ehrbarkeit (honestas) und weist damit den gesellschaftlichen Normen bzw. dem allgemeinen Wertekonsens die moralisch-ästhetische Kompetenz zu. „Die proportionale Schönheit der Griechen scheint so im Augenblick, in dem sie in Rom und in der römischen Realität rezipiert wird“, heißt es bei Eckhard Keßler, „in ihrem objektiven, ontologisch-transzendenten Kern aufgeweicht und in eine subjektive, konsensisch begründete Kategorie der Handlungsorientierung verwandelt zu werden.“
Renaissance-Reflexionen
Der Humanist und Kunsttheoretiker Leon Battista Alberti, der wie viele Humanisten moralphilosophisch interessiert war, übernahm von Cicero das Ehrbare (honestum) als höchsten Wert, in dem laut Kessler die absolute Schönheit (bellezza) und die sozial bedingte Preiswürdigkeit (lodabilita) gleichermaßen repräsentiert sind. Die Wertorientierung erfährt bei Alberti eine sachte Umwidmung zur Erfolgsorientierung. Beim menschlichen Handeln komme es auf den angemessenen Zeitpunkt (Kairos) an, abhängend von den situativen Umständen und den beteiligten Personen, die es für ein erfolgreiches Agieren zu berücksichtigen gelte. Doch ebenso wie in der von Cicero eingehend behandelten Rhetorik gibt es für Alberti in der Malerei den für sich gültigen Wertmaßstab des proportional Schönen. In seiner Schrift De pictura („Über die Malkunst“) lehrt Alberti die Konstruktion der Zentralperspektive in Verbindung mit der Feststellung, dass sich die Eigenschaft der Dinge nur im Verhältnis zu den Eigenschaften anderer Dinge bestimmen lassen und dass die Realität folglich nur als ein Netz von Beziehungen und Proportionen aufzufassen ist. In seinem Architekturtraktat De re aedificatoria („Über das Bauwesen“) merkt Alberti zum Erscheinungsbild der vollendeten proportionalen Schönheit an, „dass man weder etwas hinzufügen noch wegnehmen oder verändern kann, ohne dass das Ganze weniger annehmbar würde.“
Baumgartens Ästhetik
Mitte des 18. Jahrhunderts setzte Alexander Gottlieb Baumgarten der bis dahin dominierenden, vornehmlich vernunftbasierten Erkenntnis und Urteilsbildung in den Künsten eine umfängliche Abhandlung (Aesthetica) über den Zusammenhang von Kunst, Schönheit und Erkenntnis vermittels der Sinneswahrnehmungen entgegen, mit der er sich den Ruf als eigentlicher Begründer der philosophischen Ästhetik erwarb. Zweck der Ästhetik als Wissenschaft war für Baumgarten „die Vollkommenheit der sinnlichen Erkenntnis“ – gleichbedeutend mit der Schönheit. Baumgartens „ästhetische Wahrheit“ fasste, anders als die Vernunft, nicht alle Dinge unter möglichst allgemeine Begriffe. Stattdessen ging es dabei um die einzelnen Dinge sowie deren konkrete und vielfältige Bestimmungen. Die ästhetische Wahrheit im Sinne Baumgartens bringe auch die eigenen Ansprüche und die „Lebendigkeit“ der künstlerischen Darstellung in den Blick, hebt Arno Schubbach hervor. Als „glücklichen Ästhetiker“ (felix aestheticus) bezeichnete Baumgarten einen Menschen, der Wahrnehmung und Phantasie, künstlerische Gestaltung und vernünftige Einsicht in ein ausgewogenes Verhältnis zueinander zu bringen imstande ist. Einerseits durchaus Freund der logischen Wahrheit, ist er andererseits nicht ihr Sklave und bewahrt ihr gegenüber seine „poetische Freiheit“.
Von Hume zu Kant
Unter dem Eindruck der von David Hume ausgegebenen Formel – „Schönheit ist keine Eigenschaft, die den Dingen an ihnen selbst zukommt; sie existiert lediglich im Geiste dessen, der die Dinge betrachtet.“ – wurde Schönheit im 18. Jahrhundert zum Entsprechungsbegriff des ästhetischen Geschmacks. In der Allgemeinen Theorie der schönen Künste des Schweizers Johann Georg Sulzer wird Geschmack definiert als das Vermögen, das Schöne zu empfinden. Die Fundierung der Erfahrung des Schönen im Geschmack, dem bereits Hume die Fähigkeit zur Verfeinerung zuerkannt hatte, erreichte laut Liessmann ihre systematisch anspruchsvollste Fassung bei Immanuel Kant in seinem Werk Kritik der Urteilskraft. Dort heißt es in einer viel zitierten Wendung: „Geschmack ist das Beurteilungsvermögen eines Gegenstandes oder einer Vorstellung durch ein Wohlgefallen oder Mißfallen, ohne alles Interesse. Der Gegenstand eines solchen Wohlgefallens heißt schön.“ Vom subjektiven Geschmacksempfinden ohne Verbindlichkeit unterscheidet Kant das Geschmacksurteil, das die Ebene rein subjektiver Unverbindlichkeit hinter sich lässt und – bedingt durch den menschlichen Gemeinsinn – auf anderweitige Übereinstimmung zielt. Bereits unter den Zeitgenossen stieß Kant mit dem Begriff des interesselosen Wohlgefallens auf Kritik. Nichts könne ohne Interesse gefallen, erklärte Johann Gottfried Herder in seiner Schrift Kalligone. Gerade die Schönheit sei für den Empfindenden das „höchste Interesse“.
Schiller
Wiederum auf Leitsätze Kants als Grundbausteine der eigenen Schönheitstheorie berief sich Friedrich Schiller in den Kallias-Briefen. So schrieb er an Christian Gottfried Körner am 28. Februar 1893 von zwei alles überragenden Kantischen Maximen: „Bestimme Dich aus Dir selbst“ und: „Die Natur steht unter dem Verstandesgesetze.“ Schiller folgerte daraus: „Diese große Idee der Selbstbestimmung strahlt uns aus gewissen Erscheinungen der Natur zurück, und diese nennen wir Schönheit. “ Doch suchte Schiller darüber hinaus nach einem von Kant als Möglichkeit ausgeschlossenen objektiven Prinzip der Schönheit – also nach einem objektiven Maßstab dafür, was schön sei.
Allein das „Faktum der Schönheit“ bietet für Schiller die Gewähr, dass Menschen als vernünftige wie auch sinnliche Wesen aus moralischer Freiheit handeln können. Zentral in der Betrachtung des Schönen ist demnach die Wechselwirkung zwischen Sinnlichkeit und Vernunft. Die menschliche Freiheit wurde Schiller zufolge gattungs- wie individualgeschichtlich dadurch gewonnen, dass die Menschen eine Entwicklung von der Herrschaft des auf Materie bezogenen sinnlichen Triebs zur Herrschaft des auf Form bezogenen vernünftigen Triebs durchliefen. Ohne das Schöne gelangten Menschen nicht zum Bewusstsein ihrer moralischen Freiheit, so Schiller, „weil nur aus dem ästhetischen nicht aber aus dem physischen Zustand der moralische sich entwickeln kann.“ Zwar erfahre sich das Subjekt als frei, diese Erfahrung werde ihm aber erst durch den Freiheit zur Erscheinung bringenden schönen Gegenstand ermöglicht.
Mit der Bestimmung der Schönheit als „Freiheit in der Erscheinung“ setzte Schiller dem subjektiv-rationalen Begriff Kants ausdrücklich einen sinnlich objektiven entgegen. Im Unterschied zu Kant bestimmte Schiller Moralität nicht als Pflichterfüllung, sondern als „Schöne Seele“, in der sinnlicher und vernünftiger Trieb in harmonischer Verbindung ständen. Moralische Schönheit ist für Schiller „das Maximum der Charaktervollkommenheit“ eines Menschen, „denn sie tritt nur alsdann ein, wenn ihm die Pflicht zur Natur geworden ist.“ Und die Schönheit der poetischen Darstellung ist für Schiller mit einem Wort „freie Selbsthandlung der Natur in den Fesseln der Sprache.“
Hegel
Als ansatzweise letzten großen Versuch, das Schöne, die Kunst und den Anspruch auf das Wahre zusammenzuführen, betrachtet Liessmann Hegels Ästhetik. Ausschließlich die Kunst sei bei ihm der eigentliche Ort des Schönen. „Denn die Kunstschönheit ist die aus dem Geist geborene und wiedergeborene Schönheit“, so Hegel, verbunden mit dem Anspruch auf Wahrhaftigkeit und Wahrheit. Sich im Bereich der Sinne zu bewegen, sei sowohl Vorzug als auch Nachteil der Kunst. „Denn das Schöne hat sein Leben an dem Scheine.“ Der könne aber auch immer eine Täuschung sein, Fiktion, Illusion. Andererseits stellt sich der Schein Hegel als „dem Wesen wesentlich“ dar, „die Wahrheit wäre nicht, wenn sie nicht schiene und erschiene.“ Und so entberge sich im gestalteten Schönen, referiert Liessmann, eine höhere Realität und ein wahrhaftigeres Dasein. Der ästhetische Schein, durch den ein Kunstwerk sich auszeichne, ist demnach selbst notwendiges Moment jener Wahrheit, die es zum Ausdruck bringen soll. Nur ein Moment allerdings und als solches nicht der Philosophie als höchster geistiger Wahrheitsinstanz gleichzusetzen. In einer wissenschaftlich gewordenen Welt, so deutet Liessmann Hegels These vom „Ende der Kunst“, habe „das Schöne nicht mehr die Kraft, die Wahrheit angemessen zur Erscheinung zu bringen.“
Schönheitsstreben im Gegenwartshorizont
Eine „fulminante Wiederkehr des Schönen – buchstäblich auf allen Kanälen“, stellt Raimar Zons im begonnenen 21. Jahrhundert fest. Die Ikonen einer neuen ästhetischen Lebenskultur, „die langbeinigen Supermodels und verträumten Rockstars aus Hollywood“, brächten diese bei den alten Griechen Kalokratie genannte Macht der Schönheit auf globales Niveau: „keines ihrer weltweit zirkulierenden Bilder, das nicht digital noch schöner ‚gemorpht‘ wäre.“ Längst fernsehtauglich zeige sich die Schönheitschirurgie. Was bei den einen als „Schönheitswahn“ mit verheerenden geistigen, sozialen und politischen Folgen scharfe Ablehnung erfahre, werde von anderen als Ausdruck eines neuen, jugendlichen Lebensgefühls gefeiert.
Schönheitsmaßstäbe
Die Vollkommenheit des Menschen besteht gemäß Platons Timaios im Gut-Sein, dieses im Schön-Sein, so die Kurzfassung Eckhard Keßlers, und das Schön-Sein wiederum darin, nicht ohne Maß (ἂμετρον) zu sein. Der Mensch ist demnach ein symmetrisch ebenso geordnetes Ganzes wie der Kosmos, ein Mikrokosmos, der den Kosmos maßstäblich abbildet und an der Schönheit der Ebenmäßigkeit den anziehendsten Betrachtungsgegenstand findet.
Für Gesichter ist eine von Vitruv überlieferte Schönheitsformel bekannt, nach der sich ein schönes Gesicht gleichmäßig in Drittel aufteilen lässt: vom Haaransatz bis zu den Augenbrauen, von den Augenbrauen bis direkt unterhalb der Nase und von dort bis zum Kinn. Zudem soll die Gesichtsbreite zwei Drittel der Länge des Gesichts betragen, der Augenabstand einer Augenbreite entsprechen und identisch sein mit dem Abstand der Nasenflügel voneinander.
Die neuere Attraktivitätsforschung bestätigt solche reinen Zahlenmesswerte als Schönheitskriterien nicht. In den zur Schönheitswahrnehmung von Gesichtern angestellten Experimenten mit Versuchspersonen ergab sich, dass als am attraktivsten ein „durchschnittliches“ Gesicht wahrgenommen wird, eines, das aus sehr vielen einzelnen Gesichtern durch Computerberechnungen zu einem Gesamtgesicht verschmolzen wird. In diesem Sinne schöne Gesichter weisen aber einen Nachteil auf, wie Karl Grammer anmerkt: Man könne sie sich schlechter merken. Das besser erinnerbare „ideal schöne Gesicht“ sei deshalb eines, „das dem Durchschnitt entspricht, aber in einem oder dem anderen Merkmal vom Durchschnitt abweicht.“
Schönheitsvorteile
Zahlreiche Untersuchungen der jüngeren Attraktivitätsforschung belegen, dass als schön angesehenen Menschen wesentlich öfter als anderen noch weitere positive Eigenschaften zugeschrieben werden, mit der Folge, dass sie im Alltag eine andere Art von Aufmerksamkeit und Zuwendung erfahren als weniger attraktive Menschen: Schöne Kinder werden von ihren Lehrern bevorzugt; schöne Menschen haben vor Gericht die besseren Chancen; attraktive Verkäuferinnen und Verkäufer sind erfolgreicher als weniger attraktive. Gut aussehende Frauen und Männer werden bei Jobsuche und Verdienst bevorzugt; Ärzte und Psychologen widmen ihnen mehr Zeit und Geduld. Kriminelle mit vergleichsweise attraktivem Aussehen kommen ungeachtet der Schwere der Straftat leichter ungestraft davon und bekommen im Fall der Verurteilung die günstigeren Sozialprognosen. Eine unter dem Titel „Beautycheck“ publizierte Untersuchung der psychologischen Fakultät der Universität Regensburg ergab, dass mit attraktiven Gesichtern Ausgestattete als wesentlich geselliger, zufriedener, fleißiger, intelligenter, kreativer, sympathischer, sogar ehrlicher eingeschätzt wurden als unattraktiver Aussehende. Von ausschlaggebender Bedeutung für die Bewertung, so weitere Untersuchungsergebnisse, ist bereits der „erste Blick“, und zwar unabhängig von Intelligenz- oder Bildungsgrad der Probanden.
Schöne Menschen, so Liessmann, haben offenbar mehr vom Leben. Kaum jemand könne sich der „geheimen Macht der Attraktivität“ entziehen. Menschen, die dem eigenen Schönheitsempfinden entsprechen, tritt man anders als anderen gegenüber, und zwar auch dann, „wenn wir solche Stereotype bewusst vermeiden wollen.“ In einer seit den 1980er Jahren sich stark wandelnden Medienwelt, in der Unterhaltungsformate im Sinne der Zuschauerbindung gegenüber Informationsangeboten zunehmend favorisiert werden, wird die Aufmerksamkeit der Medienrezipienten von den politischen Zusammenhängen auf die Inszenierung des politischen Personals verschoben. Das Aussehen von politisch Verantwortlichen gerät zum „Artikulationspunkt“ und zur „Projektionsfläche“ für Vorstellungen und Wünsche der Zuschauer. Die „massenmediale Apparatur“ wird in Eigenregie für die Selbstdarstellung von Politikerinnen und Politikern dienstbar gemacht, etwa hinsichtlich Sprechzeiten, Beleuchtung, Kamerawinkel und Bildhintergrund. Marketingstrategisch angestrebt wird „ein perfektes Produkt in perfekter Verpackung“. Im Zentrum steht dabei laut Paula Diehl ein „fitter“ Körper, „der Erfolg signalisiert und als Verwirklichungsraum für Schönheitshandeln fungiert.“
Schönheitsverlockungen
„Mit hängenden Augenliedern lassen sich keine Wahlen gewinnen, also müssen sie korrigiert werden“, ebenso unregelmäßige Zähne, referiert Käte Meyer-Drawe entsprechende Erwartungshaltungen. Gebräunte Haut, gern auch per Solarium, stehe für Dynamik, Jugend und Flexibilität. Als Hilfsmittel, um dem eigenen Aussehen nachzuhelfen, stehen unter anderem Gesichtsstraffung, Fillings, Designs, Bodybuilding und Shaping zur Verfügung. Ein neues Modell politischer Repräsentation dränge sich statt der institutionsbezogenen Mandatierung auf: ein Identifikationsangebot mit Körperaussehen und Lifestyle, so Diehl. Die politische Auseinandersetzung werde in diesem Rahmen auf die Inszenierung von Schönheit verschoben.
Als Träger sozialer, erotischer und ästhetischer Botschaften mittels Schmuck, Verhüllung, Training und dergleichen mehr wurde und wird der menschliche Körper seit jeher in den unterschiedlichen Kulturen benutzt. Hautbemalung sowie die Verformung bestimmter Körperteile wie Lippen, Nasen oder Füße sind in den frühen Kulturen ebenso zu finden wie beispielsweise Nasen- und Ohrringe, Ketten und Haarnadeln. Neu im Gegenwartshorizont ist der allgemeine Zugang zu einer Ansammlung von Bildern mit besonders „schön“ hergerichteten Menschen. „Angesichts dieser Bilderflut“, schreibt Liessmann, „muss fast jeder Körper defizitär erscheinen, insbesondere, ja paradoxerweise auch dann, wenn diese Bilder Resultat digitaler Manipulation sind, denen keine Realität mehr entspricht und entsprechen kann.“ An diesen Bildern aber, die oftmals kombiniert mit Werten wie Gesundheit, Fitness und Langlebigkeit transportiert würden, seien die die vorzunehmenden Korrekturen am eigenen Körper gegebenenfalls ausgerichtet. Doch selbst die Ergebnisse von Schönheitsoperationen seien womöglich wegen nachfolgenden Nichtgefallens mitunter nochmals korrekturbedürftig.
„Entweihung“ des Schönen
Bei vielen als Body-Modification gelabelten Verfahren gilt für Liessmann, „dass die Grenzen zwischen Selbstformung und Selbstverstümmelung, zwischen Verletzung und Gestaltung, zwischen Schönheitschirurgie und bewusster Verhässlichung so leicht nicht zu ziehen sind.“ Im Falle von Tätowierungen und Piercings handelt es sich um Verletzungen der Haut, die von sich aus „so wachsam gegen jeden Eindringling“ sei, wie Meyer-Drawe betont. Zur Deutung heißt es bei ihr unter anderem: Narbenzeichnungen und die Einpflanzung von Metallgebilden unter die Haut „bestätigen schmerzhaft die eigene Existenz und forcieren den Selbstbezug des Leibes, seine Reflexivität an der Schwelle zum Bewusstsein. Sie bemänteln die Fragilität des Selbst und überspielen die Abgründigkeit seiner Existenz, welche sie dadurch auf eigene Weise erst hervorheben.“
Auf der Flucht vor dem Schönen sieht Roger Scruton viele Bereiche des modernen Kulturbetriebs. Es herrsche „der allgemeine Wunsch, das Schöne in einer ästhetischen Bilderstürmerei zu beschmutzen.“ Es handle sich darum, die „dünne Stimme der Schönheit“ im Lärm ihrer Entweihung untergehen zu lassen; denn diese Stimme fordere dazu auf, „den eigenen Narzissmus im Zaum zu halten und die Welt mit Ehrfurcht zu betrachten.“ Auf das Bedürfnis nach Schönheit können Menschen, die sich als voll entwickelte Persönlichkeiten verstehen, laut Scruton aber nicht einfach verzichten. Schließlich gehe es um ein „aus unserer metaphysischen Existenz als freie Individuen“ erwachsendes Bedürfnis, sich in dieser Welt gemeinsam mit anderen heimisch zu fühlen und zur Ruhe zu kommen.
Literatur
Einführungen
Karen Gloy: Was ist Schönheit? Würzburg 2022, ISBN 978-3-8260-7647-3.
Konrad Paul Liessmann: Schönheit. UTB, Stuttgart 2009, ISBN 978-3-8252-3048-7.
Nachschlagewerke
Anne Eusterschulte: Schönheit, das Schöne. In: Gert Ueding (Hrsg.): Historisches Wörterbuch der Rhetorik. Band 10, WBG, Darmstadt 2011, Sp. 1142–1193.
Glenn W. Most u. a.: Schöne, das. In: Historisches Wörterbuch der Philosophie. Band 8, 1992, Sp. 1343–1385.
Jörg Zimmermann: Das Schöne. In: Ekkehard Martens, Herbert Schnädelbach (Hrsg.): Philosophie. Ein Grundkurs. Band 1, 7. Auflage. Rowohlt, Reinbek 2003, ISBN 3-499-55457-7, S. 348–394.
Spezialliteratur
Nathalie Chahine: Schönheit. Eine Kulturgeschichte des 20. Jahrhunderts. München 2000, ISBN 3-88814-946-0. (Frz.: La beauté du siècle, 2000)
Friedrich Cramer, Wolfgang Kaempfer: Die Natur der Schönheit. Zur Dynamik der schönen Formen. Frankfurt am Main 1992, ISBN 3-458-16261-5.
Nina Degele: Sich schön machen. Zur Soziologie von Geschlecht und Schönheitshandeln. Wiesbaden 2004, ISBN 3-531-14246-1.
Ebba D. Drolshagen: Des Körpers neue Kleider: Die Herstellung weiblicher Schönheit. Frankfurt am Main 1997, ISBN 3-596-13624-5.
Umberto Eco: Die Geschichte der Schönheit. München 2004, ISBN 3-446-20478-4. (Ita.: Storia della bellezza, 2004)
Nancy Etcoff: Nur die Schönsten überleben. Die Ästhetik des Menschen. München 2001, ISBN 3-7205-2222-9. (Eng.: The Survival of the Prettiest, 1999)
Thomas Ettl: Geschönte Körper – geschmähte Leiber: Psychoanalyse des Schönheitskultes. edition diskord, Tübingen 2006.
Hans Ulrich Gumbrecht: Allgegenwärtig und gehoben: Ob unsere Gegenwart das Schöne absorbiert. In: Romanische Studien. Nr. 2, 2015, S. 301–314 (online).
Cathrin Gutwald, Raimar Zons (Hrsg.): Die Macht der Schönheit. München 2007, ISBN 978-3-7705-4310-6.
Andreas Hejj: Traumpartner – Evolutionspsychologie der Partnerwahl. Springer, Berlin u. a. 1996, ISBN 3-540-60548-7.
Dirk Hensen: Von der Schönheit des Weltgebäudes – Zur Logik der Ästhetik. Buan, Berlin 2011, ISBN 978-3-00-035032-0.
Ronald Henss: Spieglein, Spieglein an der Wand ... Geschlecht, Alter und physische Attraktivität. München 1992, ISBN 3-621-27148-1.
Roland K. Kobald: Zur Philosophie der Schönheit im 21. Jahrhundert, oder die Ökonomie des Impressionsmanagement. In: sic et non. Band 8, 2007 (online).
Winfried Menninghaus: Das Versprechen der Schönheit. Frankfurt am Main 2003, ISBN 3-518-58380-8.
Gábor Paál: Was ist schön? Die Ästhetik in allem. Würzburg 2020, ISBN 978-3-8260-7104-1.
Waltraud Posch: Projekt Körper – Wie der Kult um die Schönheit unser Leben prägt. Frankfurt am Main 2009, ISBN 978-3-593-38912-7.
Ulrich Renz: Schönheit – eine Wissenschaft für sich. Berlin 2006, ISBN 3-8270-0624-4.
Klaus Richter: Die Herkunft des Schönen. Grundzüge der evolutionären Ästhetik. Mainz 1999, ISBN 3-8053-2539-8.
Roger Scruton: Schönheit. Eine Ästhetik. München 2012, ISBN 978-3-424-35068-5.
Weblinks
Eva-Maria Sewing, Schönes, in: Wulff D. Rehfus (Hrsg.), Handwörterbuch Philosophie, UTB/Vandenhoeck & Ruprecht, 2003, S. 605–606 (waybackmachine)
Ildikó von Kürthy: Hauptsache schön? zum Thema Schönheit
FaceResearch – Aktuelle wissenschaftliche Forschungsberichte und Onlinestudien zur Rolle des Gesichts für die Schönheit
Aktuelle Studie der Uni Regensburg zu Symmetrie und Kindchenschema als Schönheitskriterien
Schönheit in der Sackgasse
Anmerkungen
Ästhetik
|
Q7242
| 253.337832 |
68308
|
https://de.wikipedia.org/wiki/Proportionalit%C3%A4t
|
Proportionalität
|
Zwischen zwei veränderlichen Größen besteht Proportionalität, wenn sie immer in demselben Verhältnis zueinander stehen.
Grundlagen
Proportionale Größen sind verhältnisgleich; das heißt, bei den proportionalen Größen und ist die Verdopplung (Verdreifachung, Halbierung, …) der Größe stets mit einer Verdopplung (Verdreifachung, Halbierung, …) der Größe verbunden, oder allgemein gesagt: Die Größe geht aus der Größe durch Multiplikation mit einem immer gleichen Faktor hervor. Bei diesem Zusammenhang wird das Verhältnis Proportionalitätsfaktor oder Proportionalitätskonstante genannt.
Beispiele:
Der Kreisumfang ist proportional dem Kreisdurchmesser; der Proportionalitätsfaktor ist die Kreiszahl = 3,14159…
Bei einem Kauf ist die Mehrwertsteuer proportional dem Nettopreis; der Proportionalitätsfaktor ist der Mehrwertsteuersatz, beispielsweise 0,19 (= 19 %).
Bei einer Bewegung mit konstanter Geschwindigkeit ist die zurückgelegte Strecke proportional zur verstrichenen Zeit.
Proportionalität ist ein Spezialfall der Linearität. Bei einem linearen Zusammenhang zweier Größen sind nicht deren Werte selbst zueinander proportional, sondern nur die Veränderungen bezogen auf ein Paar von zusammengehörenden Werten. Die grafische Darstellung eines linearen Zusammenhangs zwischen zwei reellen Größen ist in einem kartesischen Koordinatensystem eine Gerade. Im Fall der Proportionalität ist diese Grade eine Ursprungsgerade, d. h. sie geht durch den gemeinsamen Nullpunkt. Ihre Steigung wird durch den Proportionalitätsfaktor bestimmt.
Gelegentlich wird die Proportionalität auch als direkte Proportionalität bezeichnet, während als indirekte, inverse, umgekehrte oder reziproke Proportionalität der Zusammenhang bezeichnet wird, bei dem eine Größe proportional dem Kehrwert der anderen Größe ist. Statt des Quotienten der beiden Größen ist hierbei also ihr Produkt konstant. Der Graph ist eine Hyperbel und geht nicht durch den Nullpunkt.
Der Kalkül des Dreisatzes setzt eine proportionale Funktion voraus.
Mathematische Definition
Historische Definition
Euklid, Elemente Buch V, Definitionen 3–6.
Definition 5 lautet:
Definition 6:
Aktuelle Definition
Eine proportionale Funktion ist eine homogene lineare Zuordnung zwischen Argumenten und ihren Funktionswerten :
mit einem konstanten Proportionalitätsfaktor . Dabei ist der Faktor nicht sinnvoll.
Da es bei Proportionalität gleichwertig ist, ob die Größe aus der Größe durch Multiplikation mit einem immer gleichen Faktor hervorgeht, oder umgekehrt aus , gilt ferner
;
dabei ist der Faktor unzulässig.
Zwei Variable, für die das Verhältnis zusammengehöriger Werte und konstant ist, heißen proportional zueinander
.
Proportionalität liegt demnach genau dann vor, wenn dieses Verhältnis konstant ist; wenn es reell ist, kann es positiv oder negativ sein.
Weitere Beispiele
Dichte
Die Tabelle gibt die Masse verschiedener Volumina von Öl an:
Die drei Wertepaare sind im Bild (rechts) als Punkte markiert. Berechnet man den Quotienten , Masse/Volumen, so erhält man stets denselben Wert 0,8 t/m3. Allgemein gibt der Quotient die Steigung der Geraden an und ist zugleich der Proportionalitätsfaktor der Zuordnung, hier mit der Bedeutung der Dichte des Öls. Auch der umgekehrte Quotient ist eine Proportionalitätskonstante, in diesem Fall mit der Bedeutung des spezifischen Volumens. Im Beispiel erhält man
Volumen/Masse = 1,25 m3/t
Dehnung
Wird an einem Draht mit einer Kraft gezogen, so ergibt sich bei elastischem Verhalten eine Dehnung in Längsrichtung
mit der Querschnittsfläche und der Proportionalitätskonstanten (Elastizitätsmodul). Dehnung bedeutet, dass sich die Länge des Drahtes um ändert, .
Mit der elastischen Längsdehnung verbunden ist bei einem homogenen isotropen Material eine Querkontraktion, durch die sich sein Durchmesser um ändert
mit der Proportionalitätskonstanten (Poissonzahl).
Das Minuszeichen bedeutet: Bei einer Vergrößerung der Länge (positives ) verkleinert sich der Durchmesser (negatives ).
Schreibweise
Für „a proportional zu b“ verwendet man das Tilde-Zeichen ~:
Ebenfalls genormt ist die Schreibweise:
Das Zeichen leitet sich aus dem mittelalterlichen æ für lat. aequalis, dem Vorgänger des Gleichheitszeichens, ab.
Verwandte Begriffe
Es wird von Überproportionalität zwischen zwei Größen gesprochen, wenn die eine sich immer stärker ändert als die andere. Entsprechend spricht man von Unterproportionalität bei einer systematisch schwächeren Änderung der anderen Größe. „Stärker“ und „schwächer“ bedeuten hierbei, wenn man es auf die Formulierung mit der Gleichung mit einem Exponenten bezieht, dass bei normaler Proportionalität , bei Überproportionalität und bei Unterproportionalität gilt.
Weblinks
Einzelnachweise
Folgen und Reihen
|
Q51379
| 146.32904 |
101043
|
https://de.wikipedia.org/wiki/Programmierparadigma
|
Programmierparadigma
|
Ein Programmierparadigma ist ein fundamentaler Programmierstil. „Der Programmierung liegen je nach Design der einzelnen Programmiersprache verschiedene Prinzipien zugrunde. Diese sollen den Entwickler bei der Erstellung von ‚gutem Code‘ unterstützen, in manchen Fällen sogar zu einer bestimmten Herangehensweise bei der Lösung von Problemen zwingen“.
Programmierparadigmen unterscheiden sich durch ihre Konzepte für die Repräsentation von statischen (wie beispielsweise Objekte, Methoden, Variablen, Konstanten) und dynamischen (wie beispielsweise Zuweisungen, Kontrollfluss, Datenfluss) Programmelementen.
Grundlegend für den Entwurf von Programmiersprachen sind die Paradigmen der imperativen und der deklarativen Programmierung. Beim letzteren sind als wichtige Ausprägungen die Paradigmen der funktionalen Programmierung und der logischen Programmierung zu nennen.
Die verschiedenen Paradigmen sind, bezogen auf einzelne Computerprogramme, nicht als konkurrierende bzw. alternative Programmierstile zu verstehen. Vielmehr können „viele Programmiersprachen mehrere Paradigmen gleichzeitig unterstützen“.
Beispiel
In einer unter MS Access und mit VBA entwickelten Anwendung sind die funktionalen Komponenten ereignis- und objektorientiert angelegt (Bsp.: „beim Öffnen von Formular X“). Der VBA-Code ist strukturiert/modular/prozedural (denn er besteht aus Modulen, Makros, Prozeduren etc.); und er ist gleichzeitig imperativ, weil er „Befehle“ enthält, die (innerhalb der Prozeduren…) exakt in der codierten Folge ausgeführt werden. Formulare und Berichte sowie die SQL-Aufrufe sind deklarativ, weil der Entwickler hier nur das WAS und nicht das WIE festlegt.
Trotzdem werden Programmiersprachen häufig – nach ihrer Grund-Charakteristik – z. B. als objektorientierte, prozedurale oder deklarative Sprache bezeichnet. Die ein Paradigma bestimmenden Merkmale beruhen überwiegend auf den Eigenschaften der angewendeten Programmiersprachen (wie z. B. bei OOP, deklarativ …), zum Teil aber auch auf dem individuellen Stil, der beim Programmieren praktiziert wird (z. B. strukturiert, modular).
Oft kann an den „Bürgern erster Klasse“ („First Class Citizens“ – FCCs) einer Programmiersprache – also den Formen von Daten, die direkt verwendet werden können – erkannt werden, welchem Paradigma die Sprache gehorcht. In Java (objektorientiert) zum Beispiel sind Objekte FCCs, in Lisp ist jedes Stück Programm FCC, in Perl sind es Zeichenketten, Arrays und Hashes.
Neben den Programmierparadigmen gibt es noch eine Reihe weiterer Kriterien für die Entwicklung einer möglichst fehlerfreien und wartbaren Software – wie zum Beispiel Lesbarkeit des Programmcodes, Redundanzfreiheit, Modularität und Nebenwirkungsfreiheit. Diese sollten unter jedem Paradigma so weit wie möglich eingehalten werden. Siehe auch Programmierstil.
Imperative Programmierung
Bei der imperativen Programmierung „besteht ein Programm (Anm.: d. h. hier der Quellcode) aus einer Folge von Befehlen, die vorgeben, in welcher Reihenfolge was vom Computer getan werden soll“. Die Bezeichnung basiert auf lateinisch „imperare“ („anordnen“, „befehlen“).
Strukturierte Programmierung
Eine Weiterentwicklung imperativer Sprachen markierte der Aufsatz Go To Statement Considered Harmful von Edsger W. Dijkstra aus dem Jahr 1968. Darin wird der Verzicht oder zumindest die Einschränkung der absoluten Sprunganweisungen (Goto) gefordert; stattdessen sollen Kontrollstrukturen, wie zum Beispiel „if… then…“, „case… of…“, „while… do…“, „repeat… until…“ verwendet werden.
Prozedurale Programmierung
Den Ansatz, Programme in kleinere Teilaufgaben aufzuspalten, bezeichnet man als prozedurale Programmierung. Die entstehenden Teilprogramme werden Prozeduren genannt. Praktisch alle aktuellen imperativen Programmiersprachen beinhalten den prozeduralen Ansatz.
Die Entwicklung prozeduraler Programmiersprachen und -techniken waren ein wesentlicher Schritt zwischen Assemblersprache und Hochsprachen, indem sie Abstraktion und Zerlegung von Algorithmen ermöglichen.
Modulare Programmierung
Modulare Programmierung war der erste Versuch, der wachsenden Größe von Softwareprojekten Herr zu werden. In der modularen Programmierung wird der prozedurale Ansatz erweitert, indem Prozeduren zusammen mit Daten in logischen Einheiten zusammengefasst werden. Die Software wird so in größere funktionale Teilblöcke zerlegt, die einzeln geplant, programmiert und getestet werden können. Die entstehenden Unterprogramme werden als Module bezeichnet. Am Ende können die Einzelteile dann logisch miteinander verknüpft werden und die Software ist einsatzbereit. Die normierte Programmierung beschreibt dabei den Versuch, diesen Ablauf zu standardisieren. Die erste streng modularisierte Programmiersprache war 1978 Modula-2.
Programmierung mit abstrakten Datentypen
Die Programmierung mit abstrakten Datentypen behandelt Daten und Funktionen zur Behandlung dieser Daten als Einheit.
Deklarative Programmierparadigmen
Die Idee einer deklarativen Programmierung ist der historisch jüngere Ansatz. Im Gegensatz zu imperativen Programmierparadigmen, bei denen das Wie im Vordergrund steht, fragt man in der deklarativen Programmierung nach dem Was, das berechnet werden soll. Es wird also nicht mehr der Lösungsweg programmiert, sondern nur noch angegeben, welches Ergebnis gewünscht ist. Zu diesem Zweck beruhen deklarative Paradigmen auf mathematischen, rechnerunabhängigen Theorien.
Aufgrund der referenziellen Transparenz gibt es keine Nebeneffekte. Programme sind damit teilweise auswertbar und ermöglichen so zum Beispiel die Behandlung unendlicher Datenstrukturen.
Beweise (zum Beispiel Korrektheitsbeweis, Beweise über Programmeigenschaften) sind dank mathematischer Basis (unter anderem Lambda-Kalkül) uneingeschränkt durchführbar.
Architekturunabhängigkeit
teilweise geringe Akzeptanz (man spricht gern von sogenannten Akademikersprachen)
Zu den deklarativen Programmiersprachen gehören:
funktionale Sprachen (unter anderem Lisp, ML, Miranda, Gofer, Haskell, F#, Scala)
logische Sprachen (unter anderem Prolog)
funktional-logische Sprachen (unter anderem Babel, Escher, Curry, Oz)
mengen-orientierte Abfragesprachen (unter anderem SQL)
Beispiel Quicksort: Haskell ist eine typische deklarative Programmiersprache. Der Programmierer beschreibt, was das Programm mit einer Eingabe macht, also wie mit welcher Eingabe umzugehen ist, wobei der Berechnungsablauf nicht von Interesse ist. Die Berechnungen erfolgen dann durch Wertemanipulation. Hauptkontrollstruktur bildet die Rekursion, insbesondere aus Effizienzgründen die Endrekursion:
quicksort [] = []
quicksort (x:xs) = quicksort [n | n<-xs, n<x] ++ [x] ++ quicksort [n | n<-xs, n>=x]
Funktionale Programmierung
Die Aufgabenstellung und die bekannten Prämissen werden hier als funktionaler Ausdruck formuliert. Das selbstständige Anwenden von Funktionsersetzung und Auswertung seitens des Interpreters oder Compilers lösen dann die Aufgabenstellung. Das Programm kann als Abbildung der Eingabe auf die Ausgabe aufgefasst werden.
Logische Programmierung
Die Aufgabenstellung und ihre Prämissen werden als logische Aussagen (Regeln) formuliert (vgl. funktionale Programmierung, s. o.). Der Interpreter versucht dann, die gewünschte Lösungsaussage herzuleiten.
Bei anderen regelbasierten Sprachen wie OPS-5, XSLT oder Prolog werden Regeln gegen eine Datenmenge auf ihre Instanziierbarkeit geprüft.
Aus allen Regelinstanziierungen wird eine (mehrere, alle) ausgewählt und die zur Regel gehörenden Anweisungen werden ausgeführt.
Constraintprogrammierung
Bei der Constraintprogrammierung werden Constraints definiert. Sie wird als natürliche Weiterentwicklung der logischen Programmierung verstanden. Logische und Constraintprogrammierung werden typischerweise in Kombination eingesetzt.
Objektorientierte Programmierparadigmen
Klassen sind instanziierbare Module und Grundelemente in der objektorientierten Programmierung. Nach dem objektorientierten Programmierparadigma werden Objekte mit Daten und den darauf arbeitenden Routinen zu Einheiten zusammengefasst. Im Unterschied dazu werden beim prozeduralen Paradigma die Daten von den die Objekte verarbeitenden Routinen getrennt gehalten. Ein Computerprogramm ist realisiert als eine Menge interagierender Objekte.
Objektorientierte Programmierung lässt sich gut mit der ereignisorientierten Programmierung kombinieren, z. B. bei der Programmierung interaktiver, grafischer Benutzeroberflächen.
Komponentenorientierte Programmierparadigmen
Mithilfe der komponentenbasierten Entwicklung von Software mit abstrakten und generischen Komponentenmodellen können Softwarekomponenten mit streng definierten Schnittstellen erstellt werden.
Durch die Wiederverwendbarkeit von Software-Bausteinen kann der Entwicklungsaufwand und die Fehleranfälligkeit reduziert sowie die Informationssicherheit erhöht werden. Durch die vollständige und strenge Datenkapselung wird ferner die Portabilität von Daten und Programmen erleichtert.
Agentenorientierte Programmierung
Bei der agentenorientierten Programmierung steht der Begriff des autonomen und planenden Agenten im Vordergrund, der selbstständig und in Kooperation mit anderen Agenten Probleme löst.
Aspektorientierte Programmierung
Bei der aspektorientierten Programmierung wird der objektorientierte Begriff der Klasse zum Aspekt erweitert und ermöglicht so orthogonale Programmierung.
Generative Programmierung
Generative Programmierung ist ein Überbegriff für die programmatische Erzeugung von Sourcecode (Siehe Buch: Generative Programming, Krzysztof Czarnecki, W. Eisenecker).
Generische Programmierung
In der generischen Programmierung wird versucht, die Algorithmen für mehrere Datentypen verwendbar zu gestalten.
Datenstromorientierte Programmierung
Es wird von einem kontinuierlichen Datenfluss ausgegangen (meist Audio- oder Videodaten), der (oft in Echtzeit) verändert und ausgegeben wird.
Graphersetzung
Bei der Graphersetzung werden die Daten in Form von Graphen modelliert und die Berechnungen durch Graphersetzungsregeln spezifiziert, durch deren gesteuerte Anwendung ein gegebener Arbeitsgraph Stück für Stück umgeformt wird.
Konkatenative Programmierung
Konkatenative Programmierung zeichnet sich dadurch aus, dass Programme durch die einfache Verkettung von (Programmier-)Wörtern gebildet werden. Diese operieren alle auf derselben Datenstruktur, welche weitergereicht wird, ohne dass dazu eine weitergehende komplexe Syntax nötig wäre. Das führt dazu, dass eine natürlichsprachliche Syntax wie A B C möglich ist, für die in anderen Sprachen beispielsweise C(B(A(x))) geschrieben werden müsste. Konkatenative Programmiersprachen sind daher meistens aus Implementierungsgründen auch stapelbasierte Sprachen, wie zum Beispiel Forth, Joy, Cat und PostScript.
Im Gegensatz dazu sind applikative Programmiersprachen solche, die Funktionen auf Argumente anwenden. In diese Kategorie fallen die meisten imperativen und funktionalen Sprachen.
Multiparadigmatische Programmierung
Multiparadigmatische Sprachen vereinigen verschiedenen Paradigmen miteinander.
Beispiele sind F-Sharp, Lisp, OCaml, Swift, und Wolfram Language.
Weblinks
Literatur
Einzelnachweise
|
Q188267
| 265.057096 |
4718
|
https://de.wikipedia.org/wiki/Stummfilm
|
Stummfilm
|
Als Stummfilm wird seit der Verbreitung des Tonfilms in den 1920er-Jahren ein Film ohne technisch-mechanisch vorbereitete Tonbegleitung bezeichnet. Die Aufführung solcher Filme wurde zeitgenössisch fast ausnahmslos wenigstens musikalisch untermalt. Der Stummfilm entstand gegen Ende des 19. Jahrhunderts in Westeuropa und in den Vereinigten Staaten von Amerika. Grundlage für die Herstellung und Wiedergabe der ersten Stummfilme waren Erfindungen im Bereich der Technik und der Fotografie (siehe den Artikel zur Filmgeschichte).
Während der Frühzeit des Kinos gab es noch keine zufriedenstellende Möglichkeit, Bild und Ton synchron aufzunehmen und abzuspielen. Die Filme wurden vor Publikum je nach Art der Vorführstätte von Orchester, Klavier bzw. Pianola, Grammophon u. a. begleitet oder es kamen Photoplayer zum Einsatz. Letztere waren selbstspielende Klaviere, die mit zusätzlichen von Hand auszulösenden Geräuscheffekten versehen waren.
Stummfilme wurden auch mit einmontierten Texten, den Zwischentiteln, erzählt. Oft begleitete auch ein Filmerzähler oder -erklärer die Vorstellung. Trotzdem musste der Großteil der Handlung und Gefühle über die Filmbilder transportiert werden. Das Schauspiel der Akteure früher Filme war aus diesem Grund meistens sehr körperbetont. Gestik und Mimik der Schauspieler vor allem in Dramen wirken vom heutigen Blickpunkt aus oft übertrieben. Ein Vorteil des Stummfilms liegt darin, dass er universell verständlich ist. Die Sprache der Schauspieler spielt keine Rolle, da sie nicht zu hören ist und Zwischentitel mit geringem Aufwand in andere Sprachen übersetzt werden können.
Geschichte
Von den ersten Filmvorführungen bis zur ersten Krise (bis 1908)
Erste Filmvorführungen
Ein Pionier des bewegten Bildes war der Chronophotograph Eadweard Muybridge. Seine 1878 entstandenen Serienbilder The Horse in Motion zeigten den genauen Bewegungsablauf bei einem galoppierenden Pferd.
Die erste international bekannte Vorführung eines kurzen Filmshots war die Präsentation der Roundhay Garden Scene durch Louis Le Prince, den Gründer der Leeds Technical School of Arts. Die von ihm selbst vermutlich am 14. Oktober 1888 hergestellte Bilderfolge von 2,11 Sekunden stellte vier gehende Personen dar – im Garten seiner Schwiegereltern in Roundhay, einem Vorort von Leeds. Für seine Ein-Linsen-Kamera erhielt Le Prince 1888 ein Patent. Er hatte sie ab 1886 in Experimenten entwickelt, die von seinem Freund Louis Jacques Mandé Daguerre inspiriert waren.
Am 20. Mai 1891 stellte der Erfinder Thomas Edison in der National Federation of Women’s Clubs einen Kinetographen vor. Die erste öffentliche Vorführung fand dann am 9. Mai 1893 im Brooklyn Institute of Arts and Sciences statt.
Die ersten kinomäßigen Filmvorführungen, also Filmprojektionen für ein zahlendes Publikum, gab es 1895: ab 20. Mai in New York durch die Familie Latham (Vater Woodville Latham und Söhne Otway und Gray), ab 1. November im Berliner „Wintergarten“ als Schlussnummer eines Varieté-Programms durch die Brüder Skladanowsky und – mit dem größten Einfluss auf die Kinogeschichte – ab 28. Dezember in Paris durch die Brüder Lumière.
Der von den Brüdern Lumière erfundene Cinématographe war gleichzeitig ein Aufnahme-, Kopier- und Abspielgerät, in dem der Film mittels Perforation über Greifzähne vor dem Objektiv entlanggeführt wird. Die erste Präsentation von Filmgerät und -material fand nicht öffentlich statt: Die Brüder Lumière zeigten am 22. März 1895 ihren Film Arbeiter verlassen die Lumière-Werke einem ausgewählten Publikum der gesellschaftlichen Oberschicht. Am 28. Dezember 1895 folgte die erste öffentliche kommerzielle Präsentation Frankreichs: Im Pariser „Grand Café“ führten die Lumières zehn ihrer kurzen Filme vor.
Die Filme, die in der Frühzeit des Stummfilms vorgeführt wurden, waren meistens nur einige Sekunden lang und zeigten unspektakuläre Szenen aus dem alltäglichen Leben, manchmal aber auch gespielte Witz-Szenen. Sie faszinierten anfangs durch ihre schiere technische Machbarkeit. Das Interesse an weitergehender Inszenierung wuchs erst Jahre später.
Die ersten Jahre
In den ersten Jahren des Films wurden die kurzen Streifen als Teil von Revuen in Varieté-Theatern vorgeführt und waren in erster Linie der Mittelschicht vorbehalten. Die Brüder Lumière machten ein großes Geschäft damit, ihren Cinématographen an Schausteller in aller Welt zu verleihen. Als sie die steigende Nachfrage nach Filmprojektoren nicht mehr befriedigen konnten, verkauften sie 1905 das Patent zur Geräteherstellung an das Unternehmen Pathé Frères. Daraus entstand die Berufskamera Pathé industriel, die 1908 herauskam.
Da die Brüder Lumière den Film nur als eine Ergänzung zur Fotografie sahen – sie sprachen von „lebender Fotografie“ –, beschränkten sie sich in ihrer Arbeit auf die Dokumentation realer Ereignisse. In diesen Filmen wurde die Krönung des Zaren Nikolaus II. ebenso dokumentiert wie die Fütterung eines Babys (Babys Frühstück) oder die Einfahrt eines Zuges (L’Arrivée d’un train en gare de La Ciotat). Eine Ausnahme bildet ihr humoristischer Film L’arroseur arrosé, in dem sie erstmals eine nachgestellte Szene filmten.
Der französische Illusionist und Theaterbesitzer Georges Méliès war der erste, der das erzählerische Potenzial des jungen Mediums erkannte und ausschließlich inszenierte Filme drehte. Für die Umsetzung seiner weitgehend phantastischen Stoffe und Szenen fand Méliès Filmtricks, z. B. den Stoptrick, der noch heute angewandt wird. Mit Die Reise zum Mond gelang Méliès 1902 ein frühes Meisterwerk, das vollständig mit Trickeffekten hergestellt wurde. Dieser Film wird häufig als erstes bedeutendes Exemplar des Genres Science-Fiction-Film bezeichnet.
Doch Méliès fühlte sich stark den Regeln des Theaters verpflichtet, und so verharrte sein filmisches Bildvokabular weitgehend auf einer Einstellungsgröße, der Totalen. Diese entspricht dem Szenenfeld, das ein Theaterzuschauer von der Bühne sieht. Méliès machte diesen „Stil“ mit Hilfe seines immensen Filmausstoßes und der weltweiten Vermarktung zu einer gängigen Praxis.
Der erste bekannte Film, der mit dieser Regel brach (The Little Doctor, 1902, von Arthur Melbourne-Cooper), kam durch den Briten George Albert Smith in Umlauf. Man sah zum ersten Mal die Nahaufnahme einer Katze, womit ein Grundstein für filmisches Erzählen gelegt wurde. Mit Perspektivenwechsel, Variation der Bildgröße und mit der Montage, die diese Wechsel in einen Rhythmus bringt, entwickelte sich in den folgenden Jahren eine Filmsprache.
Als wegweisend für den erzählenden Film wird der 12-minütige Film Der große Eisenbahnraub (1903) von Edwin S. Porter angesehen. In diesem ersten Western wird ein Zugüberfall von der Durchführung über die Flucht bis hin zum Showdown geschildert.
Das Interesse an dem neuen Medium Film stieg immens, so dass eine neue Marktidee aufkam: die Einrichtung ortsfester Kinos. Auch die fallenden Preise für Vorführgeräte verlockten Unternehmer dazu, Lichtspielhäuser – sogenannte Kintöppe (Deutschland) bzw. Nickelodeons (USA) – zu eröffnen. Mit der Einrichtung der ersten festen Kinos stieg auch die Nachfrage nach neuen Filmaufnahmen. Wurden bisher die Aufnahmen der verschiedenen Schausteller und Filmunternehmer nur selten ausgewechselt, da sich in jeder Stadt wieder neues, erstauntes Publikum fand, so war mit den ersten Kinos Innovation gefragt. Die Filme erhielten Handlung. Die zumeist komischen Sketche bzw. Einakter wuchsen in den 1900er Jahren auf eine Länge von bis zu fünfzehn Minuten, was der Höchstlänge einer Filmrolle entsprach (One-Reeler).
Bereits 1895 wurde in den USA unter anderem die Filmproduktionsgesellschaft Biograph Company gegründet. Dort hatte D. W. Griffith sein Regiedebüt bei The Adventures of Dollie. Die führenden Filmproduktionsgesellschaften waren jedoch die französischen Pathé Frères und Gaumont, die noch vor der Jahrhundertwende die wirtschaftlichen Möglichkeiten des Films entdeckten und die ganze Welt mit ständig neuen Kurzfilmen versorgten. Ab etwa 1900 entstanden jedoch auch in einigen anderen Ländern erste Filmgesellschaften – der internationale Austausch an Filmen begann zu florieren und erste Filmverleihe entstanden, um die rasch wachsende Zahl der Kinos zu erschwinglichen Preisen mit Filmen versorgen zu können. Kino wurde so zu einem Volksvergnügen für die breiten Massen. In den USA betrug der Eintrittspreis anfangs lediglich fünf Cents (einen nickel, daher auch der Begriff Nickelodeon). Man saß gemeinsam im Dunkeln und bekam endlich Einblicke in die Welt der Reichen und Schönen, von der man bislang ausgeschlossen war.
Erste Krise und ihre Folgen für die Filmkunst
1907/1908 gab es erstmals eine Krise im Filmgeschäft. Die Besucherzahlen gingen zurück, da die häufig wenig phantasievollen und kurzen Produktionen an Attraktivität verloren. Erstmals setzte man sich mit Filmtheorie und Filmsprache auseinander. In Frankreich reagierte man darauf mit der Orientierung an zeitgenössischen literarischen Vorlagen. Die Produktionen wurden länger und behandelten nun komplexere Geschichten. Diese französische Innovation nannte sich „Film d’Art“ und fand Nachahmer in vielen Ländern der Welt. Im deutschsprachigen Raum orientierte man sich an deutschsprachiger Literatur – vor allem Volksstücke. Formal orientierte man sich am Theater, so dass die spezifischen Stärken des Mediums Film nicht zum Tragen kamen. Künstlerisch war es eine Sackgasse, aber es gelang, durch die Verpflichtung bekannter Autoren die Zuschauerkreise zu erweitern. Die Wiener Kunstfilm-Industrie stellte den Bezug zu solchen Filmen bereits in ihrem Firmennamen her. Laiendarsteller und Bekannte der Filmproduzenten wurden von nun an durch professionelle Schauspieler ersetzt, die häufig vom Theater kamen und sich als Filmschauspieler ein Zusatzeinkommen verschafften. Von der Filmschauspielerei allein konnte sich vorerst kaum jemand ein Leben finanzieren. Zu den ersten, die dazu jedoch im Stande waren, zählte die dänische Schauspielerin Asta Nielsen, die mit den damals international weit verbreiteten dänischen Filmen Bekanntheit erlangte und zum wahrscheinlich ersten weiblichen Filmstar avancierte. Bis 1914 verboten große Theater des deutschsprachigen Raums ihren Schauspielern, in Filmen mitzuwirken, da das Kino eine Konkurrenz für das Theater darstellte. Zu den ersten Theaterpersönlichkeiten, die diesen Bann mit künstlerisch ambitionierten Filmproduktionen durchbrachen, gehörten 1912/1913 die Schauspieler Paul Wegener (Der Student von Prag) und Albert Bassermann (Der Andere) sowie der Regisseur Max Reinhardt (Die Insel der Seligen).
In Dänemark und den anderen skandinavischen Ländern sowie Frankreich war der Film zu dieser Zeit bereits eine anerkannte Kunstform. Im deutschen Sprachraum war dies anders. Das Bildungsbürgertum stand dem Kino feindselig gegenüber. Zum einen stellte das neue Medium tradierte Kunstvorstellungen (Idealismus) in Frage, zum anderen war es auf die Bedürfnisse des Proletariats und Subproletariats zugeschnitten. Das frühe Kino war ein Unterschichtsvergnügen mit latent anarchistisch-subversiven Zügen. Weil die Filme den Bruch mit sittlich-moralischen Konventionen offen zeigten, befürchteten die Kritiker eine „Überreizung der Seele“ beim Proletariat, die zum Aufstand gegen Staat und Autoritäten führen könnte. Diese Argumentation lebte in der deutschen Kinoreformbewegung lange fort und wurde nach dem Zweiten Weltkrieg von der Medienpädagogik leicht verändert wieder aufgenommen.
Erst in der Mitte der 1920er Jahre gaben weitere Bevölkerungsgruppen ihre Vorbehalte gegen das Kino auf, jetzt waren hauptsächlich Angestellte im Kinopublikum zu finden. Die staatlichen Zensurstellen veranlassten zudem häufig das Herausschneiden gesellschaftskritischer oder „anrüchiger“ Szenen. Der deutschsprachige Film bekam seine entscheidenden Impulse in seiner frühen Phase von komödiantischen Wandertruppen, dem Kabarett, dem Boulevard- und Schmierentheater. Hier wusste man, wie man Stücke erarbeitet und Spannung erzeugt. Die ersten Filmlustspiele waren von Schwank und Operette beeinflusst. Zum ersten deutschen Filmstar wurde Henny Porten. In Österreich war es Liane Haid.
In den folgenden Jahren erforschten die Filmschaffenden nach und nach die Möglichkeiten des Films. Kulissen und Dekorationen wurden aufwendiger, die Handlungen komplexer, und auch die technischen Ansprüche stiegen, vor allem bezüglich der Beleuchtung. Das Filmemachen wurde dadurch teurer, und aufwendige technische Ausstattung konnten sich nur die wenigsten leisten. Private Filmemacher hatten somit immer weniger Chancen auf dem Filmmarkt, der Regisseur nicht mehr die alleinige Verantwortung für die Filme.
Zwischen erster Krise und Erstem Weltkrieg (1908 bis 1918)
Entstehung der US-Filmindustrie
In den Vereinigten Staaten explodierte die Filmindustrie förmlich, denn der Hunger der Kinogänger nach neuen Filmen war schier unersättlich. Im Jahre 1909 war Film bereits „Big Business“, in den USA expandierte die Branche um 25 Millionen Dollar jährlich. Wegen der riesigen Nachfrage gründeten die größten Filmverleiher unter der Federführung von Thomas Alva Edison die Motion Picture Patents Company (MPPC), um ihre Marktanteile zu halten. Sie gingen davon aus, dass die technische Ausrüstung der Boden war, auf dem das Filmgeschäft aufbaute. Zusammen hielten sie 16 Patente auf Aufnahme- und Vorführgeräte. Gleichzeitig schlossen sie einen Exklusiv-Vertrag mit Eastman Kodak, damals praktisch dem einzigen Lieferanten von Filmmaterial. Darüber hinaus machten sie über ein spezielles Lizenzierungs-System Druck auf die Kinobetreiber, möglichst nur noch Filme aus ihrer Produktion zu zeigen. Bewusst wollte die MPPC ein Monopol errichten.
Um dieses Monopol aufzubauen, sabotierte die MPPC die unabhängigen Filmproduktionen in den Vereinigten Staaten durch organisierte Banden, unterstützt von Polizei und Sheriffs. Kinos wurden demoliert, Schauspieler verprügelt und Geräte beschlagnahmt. Die freien Produzenten unter der Führung von Carl Laemmle versuchten dennoch, ihre Projekte zu verwirklichen. Die Dreharbeiten wurden von Bewaffneten geschützt. Teilweise wurde mit dem gesamten Set jeden Tag an einem anderen Ort gedreht. Der größte Teil der amerikanischen Filmindustrie war zu dieser Zeit in New York ansässig, wo sich die oben beschriebenen Szenen auch abspielten. In den folgenden Jahren begann die Macht der MPPC zu bröckeln und auch unabhängige Produzenten konnten erfolgreich arbeiten, bis schließlich der Oberste Gerichtshof der Vereinigten Staaten gegen die Monopolbildung der MPPC vorging und diese auflöste.
Von 1910 an ließen sich in Hollywood verschiedene Filmschaffende nieder, unter ihnen Carl Laemmle, William Fox, Samuel Goldwyn und Adolph Zukor, und legten den Grundstein für die spätere Traumfabrik. Laemmle, der Anführer der unabhängigen Filmproduzenten, gründete dabei das erste große Filmstudio in Hollywood: Universal Pictures. Grund für die Wahl Kaliforniens war zum einen die große Entfernung von den brancheninternen Revierkämpfen an der Ostküste, zum anderen das sonnige Wetter: Aufgrund des relativ lichtunempfindlichen Filmmaterials und des damaligen Standes der Lichttechnik war Tageslicht die wichtigste Beleuchtungsquelle beim Dreh. Nur wenige Monate nach Gründung der Universal Studios gingen die Keystone Studios unter der Federführung des Slapstick-Spezialisten Mack Sennett an den Start, gefolgt von einer ganzen Reihe weiterer Filmgesellschaften.
Erste Monumentalfilme
Die „Kunst des Erzählens“ wurde in den 1910er Jahren perfektioniert, und zwar auch außerhalb der Vereinigten Staaten. In Italien setzte man ab 1912 neue Maßstäbe in Sachen Produktionsaufwand. Es entstanden eine Reihe von Verfilmungen von Klassikern der Literaturgeschichte, wie Der Fall von Troja, Die drei Musketiere, Faust, Die Plünderung Roms, Macbeth, Cabiria (1914) und auch Quo Vadis? (1913), bei denen aufwendige Kulissen und Kostüme sowie Massenszenen mit Tausenden von Statisten eingesetzt wurden. Am erfolgreichsten von diesen Filmen war Quo Vadis?, der vor dem Ersten Weltkrieg „als das größte Meisterwerk der Welt galt; nach England und Amerika 1913 eingeführt, brachte er allen Beteiligten riesenhafte Gewinne“. Nachdem man sich bislang nicht an die Herstellung solch in jeder Hinsicht aufwendiger Produktionen herangewagt hatte, beflügelte der Erfolg der italienischen Produktion nun auch andere Länder zur Herstellung solcher Monumentalproduktionen. Am erfolgreichsten waren hierbei die USA, wo D. W. Griffith während des Ersten Weltkriegs Filme wie Die Geburt einer Nation (1915) und Intoleranz (1916) herstellte, die als Meilensteine der Filmgeschichte gelten.
Im Ersten Weltkrieg
Im Ersten Weltkrieg isolierten sich die Mittelmächte, allen voran Deutschland und Österreich, weitgehend von Filmimporten aus den nun teils feindlichen großen Filmnationen, allen voran Frankreich. Die heimische Filmwirtschaft erfuhr dadurch zumindest im inländischen Markt einen starken Aufschwung, der auch in die wirtschaftlich schwierige Nachkriegszeit mitgenommen werden konnte. Die Verknüpfung der Filmszenen der im Kriege verbündeten Nachbarländer Österreich und Deutschland fand hier ebenfalls ihren Anfang. Die erstarkte deutsche Filmwirtschaft rund um ihre Hauptstadt Berlin wurde nach dem Weltkrieg zum Arbeitsplatz zahlreicher österreichischer Filmschaffender. Aber auch deutsche Schauspieler und Regisseure wirkten in den folgenden zwei, drei Jahrzehnten häufig in Filmstudios der österreichischen Hauptstadt Wien.
Mit dem Ersten Weltkrieg erfuhr der Film zudem eine weitere Funktion: jene der Propaganda. Bereits im September 1914 berichtete die Wiener Kunstfilm-Industrie in ihrem Kriegs-Journal begeistert vom Frontgeschehen. 1915 folgte die Einrichtung einer Filmexpositur im k.u.k. Kriegspressequartier, deren Leitung der bedeutendste österreichische Produzent jener Jahre übernahm, Sascha Kolowrat-Krakowsky. Es entstanden weitere geschönte Kriegs-Wochenschauen und zahlreiche Propagandafilme wie Mit Herz und Hand fürs Vaterland mit dem Star des österreichischen Films, Liane Haid. In Deutschland erkannte man ebenfalls bald die kriegsdienlichen Möglichkeiten des Films. Die Deulig, gegründet Ende 1916, sollte im Ausland Sympathien für Deutschland wecken, und mit dem Bild- und Filmamt (BUFA) schuf man Anfang 1917 auch hier eine zentrale Stelle zur Steuerung der propagandistischen Filmproduktion. Es folgte die Zentralisierung der deutschen Filmproduktion, zu deren Zweck gegen Kriegsende die UFA gegründet wurde. Sie entwickelte sich nach dem Krieg zu einer der weltweit wichtigsten Produktionsstätten von Filmen in den 1920er Jahren. Aber auch die Gegner Deutschlands wussten den Film als Propagandamittel einzusetzen. In den Vereinigten Staaten etwa warb The Battle Cry of Peace (1915) für den Kriegseintritt.
Nach dem Ersten Weltkrieg bis zur zweiten Krise (1918 bis 1926)
Aufstieg Amerikas zur größten Filmnation der Welt
Vor dem Ersten Weltkrieg war Frankreich der bedeutendste Filmproduzent der Welt, denn dort wurden bis 1914 noch mehr Filme produziert als in den USA. Französische Unternehmen hatten von Anfang an auf Expansion gesetzt und verfügten europaweit über Vertriebsstellen und Kinos. Der Krieg isolierte die Filmwirtschaften der beiden Bündnissysteme voneinander und beanspruchte Rohstoffe, die auch zur Filmherstellung notwendig waren, was für das international orientierte und produktionsstarke Frankreich einen schweren Rückschlag bedeutete. Für andere Länder wiederum, wie etwa Österreich oder Deutschland, bedeutete der Erste Weltkrieg eine Entledigung von der bis dahin so starken ausländischen Konkurrenz. Heimische Filmhersteller blühten regelrecht auf. Die Qualität der Produktionen stieg aber nicht in derselben Relation wie die Anzahl der Produktionen. Anfang der 1920er Jahre stellte sich dies als fatal heraus, da die rasch expandierende US-Filmindustrie, die wirtschaftlich wesentlich besser organisiert war als die europäischen Unternehmen, nun eine bedrohliche Konkurrenz für den europäischen Film darstellte.
Sehr beliebt beim Publikum waren von Anfang an Slapstick-Komödien, deren bekanntester Vertreter Charlie Chaplin schon in den 1910er Jahren mit kurzen Sketchen großen Erfolg hatte. Mit The Kid (1921) drehte er seinen ersten abendfüllenden Film, auf den noch eine Reihe von Meisterwerken in den 1920ern folgten (zum Beispiel Goldrausch). Auch Buster Keaton war ein Star des Slapsticks und für seine regungslose Mimik berühmt. Zu seinen bedeutendsten Werken gehören Der General (1926) und Steamboat Bill junior (1928).
Um Filmemachern eine größere Partizipation am wirtschaftlichen Erfolg ihrer Filme zu ermöglichen, wurde 1919 die zuerst nur als Verleihfirma, später aber auch als Produktionsfirma tätige United Artists von Charlie Chaplin, Mary Pickford, Douglas Fairbanks sen. und D. W. Griffith gegründet.
Avantgardistisches Filmschaffen
In Europa bestand ab den 1910er Jahren ein besonderes Interesse am kunstvollen Film. Daraus entwickelte sich Schritt für Schritt die Avantgarde des Stummfilms. Einige besonders ausgeprägte Stilrichtungen sollen im Folgenden beschrieben werden.
In Frankreich erlebte der Film eine Blütezeit mit künstlerischen Ansätzen, die zunächst dem Impressionismus angelehnt waren, später aber mehr zum Surrealismus tendierten. Künstler wie Luis Buñuel oder Jean Cocteau prägten diese Stilrichtung mit Filmen wie Ein andalusischer Hund (1929).
Die russische Avantgarde zählt Künstler wie Sergej Eisenstein in ihren Reihen, der die Filmmontage maßgeblich beeinflusste. Sein bekanntester Film Panzerkreuzer Potemkin (1925) erzählt von einem Aufstand auf dem gleichnamigen Schiff und der Konfrontation der Meuterer mit der russischen Armee in Odessa. Einige Szenen aus dem Film, darunter die Treppenszene in Odessa, gehören zu den meistzitierten in der Filmgeschichte.
Der Russe Dsiga Wertow hingegen war ein Vertreter des sogenannten absoluten Films, durch den eine universale Filmsprache ohne sprachliche Hürden propagiert wurde. Sein berühmtestes Werk ist Der Mann mit der Kamera (1929), ein vielschichtiges Bild einer russischen Großstadt durch das Auge eines Kameramannes.
Der expressionistische Film
Der deutsche und österreichische Film dieser Zeit entwickelte eine besondere Ästhetik, die sich an der expressionistischen Malerei orientierte. Als erster expressionistischer Film gilt Das Cabinet des Dr. Caligari (1920) von Robert Wiene, dessen Elemente der expressionistischen Filmästhetik von den somnambulen Charakteren über Schattenmalereien bis hin zu den spitzwinklig verzerrten Kulissen reichen. Weitere Vertreter dieser Stilrichtung sind der Gruselfilm Nosferatu, eine Symphonie des Grauens (1922) von Friedrich Wilhelm Murnau und Das Wachsfigurenkabinett (1924) von Paul Leni. Bedeutende expressionistische Werke kamen auch aus Österreich, wo man mit der Erforschung des Stummfilmerbes allerdings erst spät begann, weshalb viele Bereiche filmwissenschaftlich erst unzureichend verarbeitet werden konnten. Gesicherte Belege für die Integration expressionistischer Stilelemente in österreichischen Filmen sind Robert Wienes Orlac’s Hände (1924) und Hans Karl Breslauers Die Stadt ohne Juden (1924). Ihren Kulminationspunkt erreichte die Epoche in dem Film Metropolis (1927) von Fritz Lang, der zugleich einer der ersten wegweisenden Science-Fiction-Filme war.
Europäische Filmwirtschaftskrise durch aufstrebende US-Filmindustrie
Mitte der 1920er Jahre erlebte der europäische Stummfilm seine schwerste Krise. Die Folgen sind bis heute spürbar: die Abhängigkeit europäischer Filmproduzenten von der Filmförderung und die fast weltweite Dominanz der US-amerikanischen Filmindustrie. Ursache für diese Entwicklung war in erster Linie der Erste Weltkrieg, der Kapital aus Europa abzog und in die USA leitete, was sich entsprechend auf die Finanzkraft der Filmproduzenten auswirkte. Die amerikanische Filmindustrie wäre jedoch nicht zur weltweit dominierenden Filmnation aufgestiegen, hätte sie nicht von Anfang an den Film als hochwirtschaftlichen Industriezweig aufgebaut. Die europäische Filmlandschaft blieb nicht zuletzt aufgrund der Zurückhaltung der Finanzgeber klein strukturiert. Es entstanden, abgesehen von der Universum Film (UFA) in Deutschland, keine großen, vertikal integrierten Filmkonzerne, die mit den amerikanischen vergleichbar gewesen wären. Die daraus resultierende Finanzschwäche verhinderte die kontinuierliche Produktion von aufwendigen, erstklassigen, starbesetzten Filmen zu wettbewerbsfähigen Preisen. Dass dies den amerikanischen Filmgesellschaften aber möglich war, lag daran, dass sie die Produktionskosten ihrer auf den Massengeschmack abgestimmten Filme dank enormer Werbung und Einsatz aller bekannten Marketinginstrumente bereits in den USA hereinspielen konnten. Nur wenige selbstständige Produzenten wie Charlie Chaplin wagten Filme herzustellen, die ihren eigenen künstlerischen Ansprüchen genügen sollten. Um erfolgreich zu sein, mussten aber auch sie nach dem Geschmack der Massen trachten.
Da die US-Filmindustrie zur Mitte der 1920er Jahre bereits einen jährlichen Ausstoß von 800 oder mehr Filmen aufweisen konnte, was fast 90 Prozent der weltweiten Filmproduktion bedeutete und den jährlichen Gesamtfilmbedarf der meisten europäischen Länder deutlich übertraf, bedeutete dies eine zunehmende Verdrängung europäischer Produktionen nicht nur vom europäischen, sondern auch vom Weltmarkt. Dies hatte wiederum den Niedergang zahlreicher europäischer Filmproduzenten zur Folge. Die britische, französische und italienische Filmindustrie kamen als erste nahezu zum Erliegen. In Großbritannien wurde der Tiefpunkt im „schwarzen November“ 1924 erreicht, als sich kein einziger Film in Produktion befand. Andere zu dieser Zeit große Filmproduzenten, etwa Österreich und Dänemark, traf es besonders hart – ihre Filmindustrie erlangte nie wieder so große internationale Bedeutung wie zuvor. Deutschland hingegen konnte diese Krise weitgehend verhindern, da bereits 1917 auf staatliches Betreiben der große UFA-Konzern geschaffen worden war und zudem bereits seit Anfang der 1920er Jahre das deutsche Kontingentgesetz die Einfuhr ausländischer Filme stark beschränkte, so dass rund 50 Prozent aller in Deutschland gezeigten Filme aus Deutschland stammten. Japan konnte mit einem ähnlichen Kontingentgesetz seine Filmwirtschaft erfolgreich schützen, und auch viele andere Länder führten Filmkontingente ein.
Zur Festigung ihrer Vormachtstellung wandten die US-Filmproduzenten und -verleiher auch an die Grenze der Legalität gehende Geschäftspraktiken an: etwa das „Blocksystem“, das Kinobesitzer zur Abnahme aller Filme der Filmgesellschaft zwingen sollte. Verweigerte ein Kinobesitzer dieses „Blindbuchen“ eines ganzen Jahresprogramms, durfte er auch die „Blockbuster“ der jeweiligen Filmgesellschaft nicht spielen, was natürlich ein enormer Wettbewerbsnachteil gewesen wäre, da solche Filme das meiste Publikum anzogen. Diese Geschäftspraxis wurde erst nach und nach von den europäischen Staaten verboten: in Deutschland zeitgleich mit dem Kontingentgesetz Anfang der 1920er Jahre, in England erst 1927 mit Einführung der Quotabill. Jeder Kinobesitzer hatte nun das Recht, jeden Film vor dem Kauf vorab zu sehen.
Nahezu europaweit forderten Filmindustrielle wie Filmschaffende ein Eingreifen der Politik. In den meisten Ländern kam es bis 1926, 1927 zu Gesetzen, die die Einfuhr US-amerikanischer Produktionen, oder ausländischer Produktionen generell, einschränkten: Importbeschränkungen, Zölle oder auch Förderungen an heimische Produzenten.
Die Krise der europäischen Filmwirtschaft veranlasste den britischen Filmproduzenten und Publizisten L’Estrange Fawcett, in seinem 1927 erstveröffentlichten filmtheoretischen Werk „Die Welt des Films“ besonders auf die Filmindustrie Hollywoods einzugehen, um „die von den amerikanischen Filmtrusts in einen schweren Daseinskampf gedrängte europäische Filmproduktion auf die Vorteile und Mängel jener großartigen Unternehmungen aufmerksam zu machen, damit sie beim Aufbau der heimischen Industrie daraus Anregung und Nutzen ziehen können. Das eigenartige Gefüge des amerikanischen Filmbetriebes wird uns gerade jetzt willkommene Lehren bieten, zu einem Zeitpunkt, da viele Länder Europas darangehen, ihre in den letzten Jahren durch den überstarken Konkurrenten verdrängten Filmindustrien mit staatlicher oder gesetzgeberischer Beihilfe zu neuem Leben zu erwecken.“ Des Weiteren erwähnte er zu den Ursachen, wie der amerikanische Film den europäischen Film in die Krise stürzen konnte: „In Europa wurde der Film eben seit jeher als ein Geschäft minderer Güte behandelt; einzelne haben dabei Geld verdient, die meisten daran verloren, und wenn man heute einem europäischen Kapitalisten mit einem Filmprojekt kommt, so ist er von vornherein misstrauisch. Die Amerikaner jedoch haben von allem Anfang an den Film als ‚big business‘, als Großgeschäft, aufgefasst, das ebenso gründlich verfolgt und gemanagt werden muss wie jedes andere Geschäft in Wall Street. Daher auch die Ausbeutung aller Möglichkeiten, die Vereinigung von Produktion und Vertrieb in einer Hand, die ungeheure Zunahme des Kinobetriebes.“
Übergang vom Stummfilm zum Tonfilm (1927 bis 1936)
In den späten 1920er und den frühen 1930er Jahren wurde der Stummfilm durch den Tonfilm – auch „Talkie“ bzw. „Sprechfilm“ genannt – abgelöst. Es setzte sich das Lichttonverfahren durch, bei dem sich die Tonspur mit auf dem Filmband befand. Die Übergangsperiode dauerte weltweit etwa zehn Jahre. Insbesondere in China entstanden in den 1930er Jahren die heute als Stummfilmklassiker des Landes geltenden Filme. Zu den letzten US-amerikanischen Stummfilmproduktionen gehört der 1935 auf Bali gedrehte Zweifarben-Technicolorfilm Legong: Dance of the Virgins.
Künstlerisch hatte der Stummfilm ab Mitte der 1920er Jahre seinen Höhepunkt erreicht. Hollywood war seither der Magnet für internationale Fachkräfte, und da es im Stummfilm keine Sprachbarrieren gab, konnte eine sehr fruchtbare Wechselwirkung zwischen individueller Kreativität und technischem Know-how entstehen. Regisseuren wie Victor Sjöström, Mauritz Stiller, Jacques Feyder, Ernst Lubitsch, Paul Leni, Josef von Sternberg, Erich von Stroheim, Harrie d'Abbadie d'Arrast und Maurice Tourneur gelangen erfolgreiche Karrieren. Gleiches galt für die Schauspieler, die in Hollywood arbeiteten: Vilma Bánky aus Ungarn, Greta Garbo, Lars Hanson und Nils Asther aus Schweden, Camilla Horn und Emil Jannings aus Deutschland, Pola Negri aus Polen, Alla Nazimova aus Russland und Ramón Novarro aus Mexiko. Es gab damals so viele ausländische Stars, dass die nationale Filmpresse in den USA bereits xenophobe Artikel veröffentlichte, die vor einer Überfremdung der heimischen Industrie warnten.
Streifen wie Hotel Imperial von Mauritz Stiller aus dem Jahr 1927 oder Es tut sich was in Hollywood, eine Komödie mit Marion Davies aus dem Jahr 1928, imponierten mit hoher dramaturgischer Dichte und ausgefeilter Darstellungstechnik, die der Tonfilm erst viele Jahre später erreichen konnte. Interessanterweise waren gerade die stummen Verfilmungen populärer Operetten in diesen Jahren Kassenmagneten, angefangen bei The Merry Widow unter der Regie von Erich von Stroheim bis hin zu The Student Prince von Ernst Lubitsch. Anscheinend vermissten die Zuschauer die Dialoge nicht besonders. Die Gründe für die Einführung des Tons waren daher hauptsächlich wirtschaftlicher Art. Die Zuschauerzahlen stagnierten mit rund 55 Millionen Zuschauern wöchentlich seit 1926 auf mittlerem Niveau. Zur größten Konkurrenz wurde zunehmend das Radio, wo sehr populäre Shows, Hörspiele und Sportreportagen ein Millionenpublikum fesselten.
Das Studio Warner Brothers hatte bereits seit Mitte der 1920er Jahre gemeinsam mit der Firma Western Electric unter dem Namen „Vitaphone“ tonunterstützte Filme produziert. Der am 6. August 1926 uraufgeführte Streifen Don Juan mit dem sehr populären Broadwayschauspieler John Barrymore wurde ein großer Erfolg. Bei diesen frühen Werken lief die Tonspur parallel auf einem anderen Medium, häufig auf den schallplattenähnlichen Matrizen – das sogenannte Nadeltonverfahren.
Ermutigt von den Erfolgen brachte Warner Brothers weitere Tonfilme in die Kinos. Die Neuerung bestand in der integralen Bedeutung des Dialogs für die Handlung. Waren in den vorherigen Werken meistens nur Monologe zu hören, konnte das Publikum nunmehr echte Gespräche zwischen den Schauspielern verfolgen. Als offizieller Beginn der Tonfilmära gilt der 6. Oktober 1927, als Der Jazzsänger uraufgeführt wurde. Allerdings machen die gesprochenen Teile nur knapp ein Viertel der Gesamtlaufzeit des Films aus.
Das Publikum war sehr angetan von der Neuerung, und die Warner-Brüder nutzten die Neugier, um weitere dialogunterstützte Filme zu produzieren. Das Studio wurde dank des starken Zuschauerzuspruchs eine Zeit lang das profitabelste Unternehmen der Filmbranche und produzierte Mitte 1928 mit Lights of New York den ersten Film, der komplett nur aus Dialogen besteht. Warner Brothers bekam rasch Konkurrenz von William Fox, dem zu diesem Zeitpunkt mächtigsten Mann im Filmgeschäft. Er stand kurz vor der Übernahme der neu entstandenen Filmgesellschaft MGM und erkannte das Potential, das in der Innovation des Tonfilms lag. Dabei stützte sich Fox auf ein zukunftsträchtigeres Tonsystem als Warner. Es synchronisierte die Tonspur in einem komplizierten Verfahren mit der Filmspur – das Lichttonverfahren, von einer Gruppe rund um Hans Vogt entwickelt, deren Patente William Fox aufkaufte. Die übrigen Studios zögerten teilweise lange, ehe sie ebenfalls die Investitionen für die notwendige technische Ausrüstung wagten. Besonders Irving Thalberg, Produktionschef bei MGM, war skeptisch über die Zukunft der Neuerung. Erst Mitte 1928, als die New Yorker Finanzgeber der großen Studios sich für den Tonfilm entschieden hatten, begann auch MGM Tonfilme zu produzieren. Es war der Tontechniker Douglas Shearer, Bruder von Hollywoodstar Norma Shearer, der das Lichttonverfahren perfektionierte, bei dem die Tonspur auf die Filmspur kopiert wird. Mit dem Slogan All Talking, All Dancing, All Singing wurde 1929 The Broadway Melody beworben, der erstmals das neue Verfahren präsentierte. Der Film gewann als zweiter Film den Oscar als Bester Film des Jahres und etablierte die Hauptdarstellerin Bessie Love als ersten Gesangsstar der neuen Epoche.
Eine Zeit lang existierten noch sogenannte „Hybridfilme“, die nur Dialogpassagen oder Soundeffekte aufwiesen. Die Studios brachten mitunter auch etablierte Streifen erneut heraus, die mit zusätzlichen Geräuscheffekten versehen waren. Zu den bekannteren Beispielen zählen Das Glück in der Mansarde, Der Patriot und Der Hochzeitsmarsch. Darüber hinaus produzierte man für die Kinos, die noch nicht auf Tonfilme umgerüstet waren, eine stumme Version des Streifens mit dazu. Der erste Film, für den das nicht mehr gemacht wurde, war Wise Girls aus dem Jahr 1929. Nachdem auch MGM sich für den Tonfilm entschieden hatte, entstand Ende 1929 mit Der Kuß dort der letzte reine Stummfilm aus US-amerikanischer Produktion. Die primitive Aufnahmetechnik machte es notwendig, dass die Schauspieler während ihrer Dialoge völlig stillstanden und ganz gezielt in das meistens nur grob kaschierte Mikrophon sprachen – die Mikrophone wurden in oder hinter allen möglichen Dekorationsobjekten versteckt. Daher wirken die meisten frühen Tonfilme extrem statisch und die Schauspieler angestrengt und immobil. Erst von 1929 an konnte der Tonfilm beginnen, sich dem hohen künstlerischen Niveau, das der Stummfilm gerade in den letzten Jahren erreicht hatte, wieder zu nähern. Wichtige Innovationen auf dem Weg zu einer neuen, integrativen Behandlung des Tons für die Dramatik der Handlung waren Werke wie Applaus von Rouben Mamoulian, Liebesparade und Monte Carlo von Ernst Lubitsch sowie In Old Arizona von Irving Cummings, die erste Großproduktion, die außerhalb des Studios sozusagen im Freien produziert wurde.
Der Tonfilm bescherte Hollywood einen dramatischen Zuwachs der Zuschauerzahlen von 55 Millionen wöchentlich im Jahr 1927 auf 155 Millionen wöchentlich im Jahr 1930, und entsprechend stiegen die Gewinne der Studios. 1930, als der sogenannte Talkie Craze, der Run des Publikums auf Dialogfilme, seinen Höhepunkt erreichte, verdiente Paramount über 18 Millionen, den höchsten Gewinn eines Studios bis dahin. MGM konnte über 16 Millionen Gewinn erzielen. Erst 1946/1947 konnten vergleichbare Zahlen wieder erzielt werden. Die Neuerung brachte naturgemäß auch neue Genres mit sich. Gerade am Anfang waren dialogreiche Gerichtsdramen, Kriminalgeschichten und Salonkomödien populär. Auch konnte sich aus den ersten Revuefilmen das Musical entwickeln – in Europa entstanden parallel dazu die Operettenfilme, die in Verbindung mit dem historischen Ambiente Wiens zur Kaiserzeit ein noch spezialisierteres Genre ergaben: den Wiener Film.
Der Übergang zum neuen Medium brachte in den USA einigen Künstlern große Schwierigkeiten. Besonders ausländische Stars, die mit teilweise starkem Akzent oder gar kein Englisch sprachen, hatten Probleme, ihren Status zu wahren. Zu den bekannteren Opfern gehörten:
Pola Negri, deren Karriere sich seit 1925 kontinuierlich nach unten entwickelt hatte. Sie versuchte 1932 ein Tonfilm-Comeback mit dem Streifen A Woman Commands, doch das Publikum akzeptierte ihren Akzent nicht, den das Studio euphemistisch als „pikant“ bezeichnete.
Vilma Bánky, eine sehr populäre Ungarin, deren Aussprache ein Kritiker als „seltsamen Mix aus Budapest und Chicago“ bezeichnete.
Emil Jannings, der den ersten Oscar als bester Schauspieler gewonnen hatte, jedoch vor der Herausforderung des Tonfilms kapitulierte und zurück nach Deutschland ging.
Norma Talmadge stellte unter Beweis, dass auch ein starker Brooklyn-Akzent hinderlich sein konnte. Ihre Schwester Constance Talmadge drehte überhaupt keinen Tonfilm mehr.
Keine Regel ohne Ausnahme: Greta Garbo erlebte durch den Tonfilm noch eine Zunahme der Popularität. Das Studio setzte sie erst Anfang 1930 als Schwedin in Anna Christie ein und warb gleichzeitig mit dem Slogan „Garbo talks!“. Auch Ramón Novarro und Dolores del Río gelang der erfolgreiche Wechsel ins neue Metier.
Etliche Stars, die bereits in Stummfilmtagen beliebt waren, konnten sich zumindest bis zur Mitte der Dekade behaupten. So wurden Joan Crawford, Gary Cooper, Wallace Beery, Marie Dressler, Janet Gaynor, Bebe Daniels und Norma Shearer noch populärer. Einige Schauspieler wurden gerade aufgrund ihres Akzents beliebt. Maurice Chevalier stieg 1929 zum größten Star der Paramount auf, nachdem er einige erfolgreiche Musicals gedreht hatte. Ein Jahr später bewies Marlene Dietrich, dass die Fähigkeit, Englisch zu sprechen, nur ein Aspekt für beruflichen Erfolg war. Zu den Gewinnern des Tonfilms zählten aber vor allem Schauspieler, die eine gewisse Bühnen- und damit Sprecherfahrung aufweisen konnten. George Arliss, John Barrymore und Ronald Colman waren schon zu Stummfilmzeiten populär und konnten durch ihre klare Diktion überzeugen. Dazu kam eine ganze Karawane von Broadway-Mimen, die von 1929 an in Richtung Westen zogen und dort teilweise sehr populär wurden: Ruth Chatterton, Fredric March, Nancy Carroll, Ann Harding, Barbara Stanwyck, Tallulah Bankhead, um nur einige zu nennen.
Viele Karrieren endeten langsam, da sich mit dem Wechsel zum Tonfilm auch neue Vorlieben im Publikumsgeschmack ergaben. William Haines, Mary Pickford, Corinne Griffith, Gloria Swanson, Lila Lee, Laura La Plante, John Gilbert, Marion Davies, Betty Compson, Richard Dix und Clara Bow waren einige Namen, die zwar gut die Hürde des Mikrophons nahmen, jedoch allmählich ihre Anziehungskraft an der Kinokasse verloren. Besonders deutlich wird dies am Beispiel von Colleen Moore, die 1923 durch den Film Flaming Youth das Image des Flapper-Girls schuf und noch 1928 mit dem Streifen Lilac Times einen der größten Hits des Jahres produzierte. Sie hatte eine angenehme Stimme, konnte passabel tanzen und drehte 1929 noch einige Musicals, doch der Geschmack des Publikums hatte sich bereits zu ihren Ungunsten verändert. Flapper waren passé und Miss Moore zog sich 1930 zeitweise ins Privatleben zurück. Manche Schauspieler machten sehr spät ihr Tonfilmdebüt. Lon Chaney drehte erst 1930 seinen ersten und zugleich letzten Streifen. Lillian Gish hatte ebenfalls 1930 ihre Premiere im Sprechfilm. Charles Chaplin wartete damit sogar bis 1940.
Hollywood präsentierte die Stummfilmepoche schon 1939 in dem Streifen Hollywood Cavalcade mit Don Ameche und Alice Faye als längst vergangene Ära, die bestenfalls als Hintergrund für Komödien zu gebrauchen war. Eine besonders witzige Persiflage über die Panik, die Hollywood damals heimsuchte, ist der Streifen Singin' in the Rain aus dem Jahr 1952. Besonders die Rolle von Jean Hagen als temperamentvoller Star ist stark am Charakter von Norma Talmadge orientiert.
Regisseure
Die erste Spielfilmregisseurin der Filmgeschichte war die Französin Alice Guy-Blaché, die 1896 La Fée aux Choux drehte.
Der einflussreichste und erfolgreichste amerikanische Stummfilm-Regisseur war D. W. Griffith. Dessen bedeutendste Werke sind Intoleranz und Die Geburt einer Nation, wobei letzter wegen seiner relativ kritiklosen Verherrlichung des Ku Klux Klans umstritten ist. Aus technischer und stilistischer Sicht aber gelten seine Filme als frühe Meisterwerke des Kinos. 1919 gehörte Griffith zu den Gründern der United Artists. Die bekanntesten Stummfilme für den US-amerikanischen Filmverleih waren Weit im Osten und Zwei Waisen im Sturm.
In Europa war der russische Regisseur Sergej Eisenstein insbesondere durch seinen Stummfilm Panzerkreuzer Potemkin sehr einflussreich und bekannt. Er erregte mit seiner neuen Schnitttechnik Aufsehen und prägte die filmische Sprache bis heute. Insbesondere die sogenannte Odessa-Sequenz ist legendär und wurde oft zitiert und auch parodiert. Eisenstein prägte den filmästhetischen Begriff der „Montage“. Auch die beiden deutschen Regisseure Friedrich Wilhelm Murnau (Sonnenaufgang – Lied von zwei Menschen, Faust – eine deutsche Volkssage) und Fritz Lang (Metropolis, Dr. Mabuse) setzten durch ihren Expressionismus, Kameraführung (Der letzte Mann) und dem Spiel mit Licht und Schatten (Nosferatu – Eine Symphonie des Grauens) Maßstäbe.
Alfred Hitchcock begann seine Karriere in London als Zeichner von Zwischentiteln und Regieassistent. Zwischen 1925 und 1929 drehte er als Regisseur neun eigene Stummfilme, darunter als den berühmtesten Der Mieter.
Bedeutende Filmgesellschaften der Stummfilmzeit
In den Jahren nach dem Ersten Weltkrieg geriet der weltweite Filmmarkt zunehmend unter amerikanische Dominanz. Die großen amerikanischen Filmgesellschaften besaßen bereits damals zumeist eigene Vertriebssysteme sowie ganze Kinoketten.
Die größten Filmproduzenten gegen Ende der Stummfilmära waren:
Paramount Famous-Lasky, USA: rund 80 Filme jährlich, eigener Vertrieb durch mehr als 200 Niederlassungen weltweit, 500 eigene Kinos
Metro-Goldwyn-Mayer, USA: eigener Vertrieb, rund 400 eigene Kinos
United Artists, USA: ursprünglich reiner Vertrieb von Produktionen seiner Mitglieder auch Filmproduzent, im Besitz zahlreicher Kinos
First National, USA: ebenfalls aus Vertriebsorganisation hervorgegangen, Verbindung mit dem Kinokonzern Stanley (300 Kinos)
Universal Pictures Corporation, USA: eigener Vertrieb, 200 eigene Kinos, Produktionsaußenstelle in Berlin
Fox, USA: eigener Vertrieb, 356 eigene Kinos, Verbindung mit Finkelstein-Rubin-Gruppe (150 Kinos)
Weitere große Filmproduzenten waren:
Warner Brothers, USA: eigener Vertrieb, zahlreiche eigene Kinos
Producers' Distributing Corporation, USA: ursprünglich als Vertreiber der Cecil-de-Mille-Filme gegründet
Ton in der Stummfilmzeit
Der erste experimentelle Tonfilm wurde bereits 1894 oder 1895 von William K. L. Dickson, einem Techniker von Thomas Alva Edison erstellt. Wenn die Notwendigkeit bestand, Handlungen zu erklären, wurden bis 1908 unsystematisch Filmerklärer eingesetzt, danach meistens Texttafeln mit erklärenden Zwischentiteln. Im japanischen Kino gab es ab etwa 1908 einen oder mehrere Benshi, die die Filme erklärten und alle Rollen live während der Vorführung sprachen. Zu allen Stummfilmen lief Musik, entweder in Form einer für den Film geschriebenen Partitur oder als Improvisation eines Musikers. Gespielt wurde meistens am Klavier. Klavierspieler in den Kinos wurden auch Tappeure genannt. Der Umfang und die Qualität der musikalischen Begleitung hingen vom Kino ab, für Galaveranstaltungen und Premieren großer, aufwendiger Filme, die ab Mitte der 1910er Jahre allmählich entstanden, wurden teilweise ganze Orchester zur Begleitung engagiert. Einige Kinos verfügten über eigens konstruierte Kinoorgeln, die auch Geräuscheffekte ermöglichten. Als Deutschlands bekanntester Stummfilmpianist gilt Willy Sommerfeld, in Österreich ist Gerhard Gruber der bedeutendste Stummfilmbegleiter am Klavier.
Von Beginn der Filmprojektion an bestand der Wunsch, die stummen Filme mit Ton auszustatten. Zeitungskritiken zu den ersten Filmvorführungen sprachen, bei aller Bewunderung für die „Lebende Photographie“, den Mangel der stummen Bilder deutlich aus. Zu den ersten Filmvorführungen z. B. in Ostfriesland wurde durch den Wanderkinopionier als Hintergrundvertonung Militärmusik mittels des Phonographen gespielt. Von 1904 an führten die Wanderkinos auf den Jahrmärkten mittels Nadeltonverfahren die sog. „Tonbilder“, mit speziell für die Filme produzierten Schallplatten, auf. Diese Tonbilder konnten sich noch bis in die Frühzeit der ersten Ladenkinos im Programm jedes Kinos halten. Die Qualität war schlecht und die Platten liefen fast nie synchron zu den Bildern; für die von etwa 1915 an üblichen längeren Filme hatten die damaligen Schallplatten auch eine viel zu kurze Laufzeit, so dass die „Tonbilder“ bald wieder verschwanden.
„Moderne Stummfilme“
Auch nach Einführung des Tonfilms entstanden Filme, deren Handlung ganz oder teilweise ohne gesprochenes Wort vermittelt wird. Diese Filme sind keine Stummfilme im eigentlichen Sinn. Anders als beim echten Stummfilm handelt es sich dabei nicht um die Konsequenz des Fehlens der Tonspur (eines technischen Aspekts), sondern um das künstlerische Mittel der Verwendung sekundärer stummfilmtypischer Eigenheiten wie Schwarzweißfilm, Zwischentitel und pantomimische Elemente.
Charles Chaplin war einer der ersten Künstler, die auch nach Einführung des Tonfilms weiter auf den Stummfilm als künstlerisches Ausdrucksmittel setzten. So entstanden Filme wie Lichter der Großstadt (1931) und Moderne Zeiten (1936). In den 1970er Jahren inszenierte Mel Brooks mit dem Film Silent Movie eine Hommage an den Stummfilm. In jüngerer Zeit setzen einige Filmemacher den Stummfilm wieder als künstlerisches Ausdrucksmittel ein. So entstanden 1995 der als Hommage konzipierte Film Die Gebrüder Skladanowsky von Wim Wenders und 1999 der Film Juha von Aki Kaurismäki. Im 21. Jahrhundert folgen dann Call of Cthulhu (2005) von Andrew Leman, Franka Potentes Film Der die Tollkirsche ausgräbt von 2006 sowie The Artist (2011) von Michel Hazanavicius. 2012 verwendete Jonas Grosch mit A Silent Rockumentary den Stummfilm erstmals für einen Dokumentarfilm. Als Gemeinsamkeit dieser Filme kann über die Verwendung einiger Stilmittel des Stummfilms hinaus ihre spezifische Referenz an die Übergangsphase vom Stummfilm zum Tonfilm angesehen werden. Malte Wirtz veröffentlichte im September 2021 seinen Film Geschlechterkrise, den ersten deutschen Stummfilm in Spielfilmlänge in Farbe.
Erforschung des Stummfilms
Experten schätzen, dass 80 bis 90 Prozent aller Stummfilme unwiederbringlich verloren sind. Dies ist vor allem auf das damals verwendete Filmmaterial Zellulosenitrat zurückzuführen, das nach langer Lagerung zu Selbstzersetzung und Entzündung neigt.
In den 1920er Jahren wurden in den USA systematisch Nitratfilme zerstört, um daraus Silber zu gewinnen. Dazu kam das jahrzehntelange Desinteresse an Produktionen vor dem Ersten Weltkrieg. Die frühen Filme galten als „primitiv“. Erst mit einem Treffen der FIAF 1978 setzte langsam ein Umdenken ein.
Die Suche nach verschollenen Filmen gestaltet sich sehr schwierig. Filmhistoriker forschten jahrzehntelang nach einer Kopie des verloren geglaubten Greta-Garbo-Films The Divine Woman. Am Ende konnte in Moskauer Archiven ein gut zehnminütiges Fragment gefunden werden, das im New Yorker Filminstitut wieder aufgeführt wurde.
Erhaltung und Verfügbarkeit
Die überwiegende Mehrheit der im späten 19. und frühen 20. Jahrhundert produzierten Stummfilme gilt als verschollen; laut einem Bericht der United States Library of Congress waren dies im September 2013 rund 70 Prozent aller zwischen 1912 und 1929 produzierten US-amerikanischen Spielfilme.
Zahlreiche Stummfilme sind in den letzten Jahren auf DVD verfügbar gemacht worden. Dabei wurde die ursprüngliche Filmmusik (wenn es eine eigene Komposition für den Film gab) oft von bekannten heutigen Künstlern neu eingespielt; bei Filmen ohne eigene Musik wurde oft auf zeitgenössische Berichte über die zu einer Aufführung gespielte Musik zurückgegriffen. Ein Problem für die Übertragung auf DVD stellt jedoch die Tatsache dar, dass viele Stummfilme noch nicht auf die heute übliche Abspielgeschwindigkeit von 24 Bildern pro Sekunde angelegt waren, sondern weniger Bilder verwendeten. Da diese niedrigeren Geschwindigkeiten im DVD-Standard nicht vorgesehen sind, müssen solche Filme aufwendig und unter Qualitätsverlust auf die höhere Bildgeschwindigkeit hochgerechnet werden.
Neben dem Stummfilmangebot in Programmkinos werden auch dem Stummfilm gewidmete Filmfestivals und Veranstaltungen wie CineFest – Internationales Festival des deutschen Film-Erbes, Hamburg – Berlin – Wien – Zürich, organisiert von CineGraph und Bundesarchiv-Filmarchiv, die Internationalen Stummfilmtage in Bonn, die StummFilmMusikTage Erlangen oder das Kino Kabaret angeboten, die historische und zeitgenössische Stummfilme in traditioneller Aufführung mit Musikern zeigen. Das international bedeutendste Stummfilmfestival ist Le Giornate del Cinema Muto, das jedes Jahr in Pordenone veranstaltet wird.
Literatur
Bücher
Herbert Birett: Das Filmangebot in Deutschland 1895–1911. Filmbuchverlag Winterberg, München 1991, ISBN 3-921612-10-1.
Herbert Birett: Lichtspiele. Der Kino in Deutschland bis 1914. Q-Verlag, München 1994.
Kevin Brownlow: Pioniere des Films. Vom Stummfilm bis Hollywood (OT: The Parade’s Gone By …). (= Schriftenreihe des Deutschen Filmmuseums Frankfurt am Main). Stroemfeld, Basel / Frankfurt am Main 1997, ISBN 3-87877-386-2.
Kevin Brownlow: Behind the mask of innocence. Sex, violence, prejudice, crime; films of social conscience in the silent era. Knopf, New York 1990, ISBN 0-394-57747-7.
Hans-Michael Bock, Michael Töteberg (Hrsg. in Zusammenarbeit mit CineGraph): Das Ufa-Buch. Kunst und Krisen, Stars und Regisseure, Wirtschaft und Politik. Zweitausendeins, Frankfurt am Main 1992, ISBN 3-86150-065-5.
Ilona Brennicke, Joe Hembus: Klassiker des deutschen Stummfilms. 1910–1930.(= Citadel-Filmbücher). Goldmann, München 1983, ISBN 3-442-10212-X.
Rainer Fabich: Musik für den Stummfilm. Peter Lang, Frankfurt am Main 1993, ISBN 3-631-45391-4.
Heinz-B. Heller: Literarische Intelligenz und Film. Zu Veränderungen der ästhetischen Theorie und Praxis unter dem Eindruck des Films 1910–1930 in Deutschland. Tübingen 1985, ISBN 3-484-34015-0.
Detlef Hoffmann, Jens Thiele: Lichtbilder, Lichtspiele. Anfänge der Fotografie und des Kinos in Ostfriesland. Jonas-Verlag, Marburg 1989, ISBN 3-922561-84-5.
Gabriele Jatho, Rainer Rother (Hrsg.): City Girls. Frauenbilder im Stummfilm. Bertz + Fischer, Berlin 2007, ISBN 978-3-86505-177-6.
Walter Kerr: The Silent Clowns. Knopf, New York 1979, ISBN 0-394-73450-5.
Thorsten Lorenz: Wissen ist Medium. Die Philosophie des Kinos. Fink, München 1988, ISBN 3-7705-2400-4. (= Zugleich: Dissertation Universität Freiburg/B. 1985)
Heide Schlüpmann: Unheimlichkeit des Blicks. Das Drama des frühen deutschen Kinos. Stroemfeld/Roter Stern, Frankfurt am Main 1990, ISBN 3-87877-373-0.
Claudia Preschl: Lachende Körper. Komikerinnen im Kino der 1910er Jahre (= FilmmuseumSynemaPublikationen. Band 6). Wien 2008, ISBN 978-3-901644-27-6.
Zeitschriften
KINtop. Jahrbuch zur Erforschung des frühen Films. Stroemfeld, Basel / Roter Stern, Frankfurt am Main 1992–2006, , .
Weblinks
Stummfilm im Filmglossar von Kinofenster.de
Website des Stummfilm Magazins
. In: Stummfilm.info
Porträts deutscher Stummfilmstars bei Cyranos.ch
Stummfilme bei arte
Weltweit Stummfilmmusiker Verzeichnis bei BrentonFilm.com (englisch)
Lost Films Datenbank (englisch)
Women Film Pioneers Project
Einzelnachweise
Filmtechnik
Filmgattung
|
Q226730
| 593.374813 |
64505
|
https://de.wikipedia.org/wiki/Hallo-Welt-Programm
|
Hallo-Welt-Programm
|
Ein Hallo-Welt-Programm ist ein kleines Computerprogramm, das auf möglichst einfache Weise zeigen soll, welche Anweisungen oder Bestandteile für ein vollständiges Programm in einer Programmiersprache benötigt werden, und somit einen ersten Einblick in die Syntax gibt. Aufgabe des Programms ist, den Text Hallo Welt! oder auf Englisch Hello World! auszugeben. Wegen der einfachen Aufgabenstellung eignen sich solche Programme insbesondere für didaktische Zwecke. Deshalb wird es in vielen Programmier-Lehrbüchern als Einsteigerprogramm verwendet.
Geschichte
Die Verwendung des Textes „Hello World!“ ist eine Tradition und geht auf Programming in C – A Tutorial zurück, ein internes Programmierhandbuch der Bell Laboratories über die Programmiersprache C, das Brian Kernighan 1974 verfasste, nachdem er dort schon ein Jahr zuvor die Wörter „hello“ und „world“ in einer Einführung in die Programmiersprache B verwendet hatte. Bekanntheit erlangte der Text jedoch erst durch die 1978 erfolgte Veröffentlichung in dem Buch The C Programming Language () von Brian Kernighan und Dennis Ritchie.
Auch wenn in beiden Veröffentlichungen noch die Schreibweise hello, world (ohne Großbuchstaben und Ausrufezeichen) verwendet wurde, hat sich heute Hello World! durchgesetzt.
Siehe auch
Liste von Hallo-Welt-Programmen/Höhere Programmiersprachen
Liste von Hallo-Welt-Programmen/Assembler
Liste von Hallo-Welt-Programmen/Sonstige
Weblinks
Hello-World-Sammlung mit über 500 Programmiersprachen und über 70 natürlichen Sprachen.
Einzelnachweise
Programmierung
!Halloweltprogramm
|
Q131303
| 93.697591 |
116475
|
https://de.wikipedia.org/wiki/Petroleum
|
Petroleum
|
Petroleum (von mittellateinisch , von bzw. ‚(großer) Stein‘ und ; Kurzform Petrol) ist ein flüssiges Stoffgemisch von Kohlenwasserstoffen, das durch fraktionierte Destillation von Erdöl gewonnen wird. Die Eigenschaften des Stoffgemisches sind von der jeweiligen genauen chemischen Zusammensetzung abhängig und können stark variieren. Die Anzahl Kohlenstoffatome pro Molekül liegen im Bereich C10-C16. Petroleum ist wenig flüchtig und schwer entzündlich mit einem Flammpunkt zwischen 55 und 74 °C. Petroleumdämpfe sind wesentlich schwerer als Luft und können mit dieser explosionsfähige Gemische bilden.
Die Petroleumfraktion bei der Erdöldestillation liegt im Siedebereich zwischen Benzin und Dieselkraftstoff von etwa 175 °C bis 325 °C.
Die korrekte Bezeichnung im britischen Englisch ist , selten auch .
Die korrekte Bezeichnung für Petroleum im amerikanischen Englisch ist dagegen . Kerosene mit dem deutschen Kerosin gleichzusetzen, ist nicht korrekt, da der deutsche Begriff Kerosin ausschließlich auf leichtes Petroleum beschränkt ist.
Petroleum (lateinisch auch Oleum petrae) war der historische Ausdruck für Erdöl, und das englische Wort bedeutet weiterhin Erdöl oder Rohöl. Im Britischen Englisch ist der Name für Benzin. Die Bezeichnung nach dem Europäischen Übereinkommen über die internationale Beförderung gefährlicher Güter auf der Straße (ADR) lautet „KEROSIN“.
Verwendung
Im Handel werden für unterschiedlichste Anwendungsfälle Reinigungs- und Lösungsmittel mit sehr engen Siedebereichen angeboten und als Petroleum oder Kriechöl verkauft. Diese Stoffe sind sehr rein (z. B. hydriert, entaromatisiert) und haben keine schweren Anteile, welche Rückstände hinterlassen würden.
Petroleum wird als Schmiermittel für präzise gleitgelagerte Spindeln eingesetzt, z. B. an Flachschleifmaschinen.
Auch dünnflüssige Universal-Öle mit kriechenden Eigenschaften wie Caramba und WD-40 enthalten überwiegend Petroleum.
Petroleum wird zur Lagerung reaktiver Metalle (beispielsweise reines Kalium) verwendet. Dabei zeigt sich aber eine stärkere Krustenbildung als bei der Aufbewahrung der Alkalimetalle unter reinem Paraffinöl.
Petroleum als Brenn-, Kraft- und Treibstoff
Mit einem Flammpunkt von (>) 55 °C ist Petroleum deutlich ungefährlicher als Flug- oder Autobenzin.
Wie die Siedeverlaufskurve (im Bild) zeigt, ist Petroleum dem Turbinenkraftstoff (Kerosin) zwar ähnlich, die deutlich erkennbaren schwerer siedenden Anteile würden jedoch zu einem erhöhten, nicht spezifikationsgerechten Freezing Point führen. Kerosin als Petroleum mit Additiven zu bezeichnen, ist somit falsch.
Petroleum wird als Brennstoff (Heizwert: Energie/Masse 11,9 kWh/kg entsprechend 43,1 MJ/kg, Energie/Volumen 9,5 kWh/l entsprechend 34,2 MJ/l) für Petroleumlampen sowie als Reinigungsmittel verwendet. Es brennt gleichmäßig unter stark öliger und versottender Rußentwicklung ab und eignet sich als Reinigungsmittel, um damit stark haftende Fett- und Schmutzrückstände von Metalloberflächen zu entfernen.
Petroleum wird als Treibstoff für Modellflugzeug-Selbstzündermotoren (auch Dieselmotoren genannt) verwendet (42 % Petroleum, 36 % Diethylether, 20 % Rizinusöl, 2 % Amylnitrat). Dieser Motorentyp wird nur noch selten verwendet. Petroleum wird auch in Strahltriebwerken für Flugmodelle eingesetzt.
Petroleum wurde auch als Ersatzkraftstoff für fremdgezündete Motoren genutzt, ist dort aber nicht sehr effizient. Beispiele dafür sind die Petro-Modelle von Saab-Valmet für den finnischen Markt.
Zur Verbesserung der Kälteeigenschaften (siehe Cloud Point, Cold Filter Plugging Point) von Dieselkraftstoff bei niedrigen Temperaturen kann Petroleum zugemischt werden. Diese Methode ist durch die Bereitstellung von Winterdiesel (frühzeitig vor der kalten Jahreszeit) meist nicht mehr erforderlich.
Geschichte
Petroleum wurde seit der Antike als Brennmaterial und Arzneimittelzutat verwendet. Ab ca. 1865 bis ins 20. Jahrhundert wurde es vor allem als Brennstoff für Petroleumlampen verwendet, bevor es als Leuchtmittel durch elektrischen Strom abgelöst wurde.
Siehe auch
Paraffin
Heizöl EL
Tiroler Steinöl
Weblinks
Quellen
Kraftstoff
Erdölprodukt
Stoffgemisch
Flüssigbrennstoff
|
Q76904
| 124.933635 |
151081
|
https://de.wikipedia.org/wiki/Aquakultur
|
Aquakultur
|
Aquakultur oder Aquafarming ist die kontrollierte Aufzucht von aquatischen, also im Wasser lebenden Organismen, insbesondere Fischen, Muscheln, Krebsen und Algen. Allen in Aquakultur produzierten Organismen gemein ist die Zuordnung zu einem Besitzer. So unterscheidet sich die Aquakultur vom klassischen Fischfang in öffentlichen Gewässern. Die Aquakultur gewinnt besonders wegen der Überfischung zunehmend an Bedeutung.
Die weltweiten Hauptaktivitäten im Bereich der Aquakultur lassen sich in drei Bereiche untergliedern:
Fisch-, Muschel-, Garnelenzucht und anderes (Mast) für die Nahrungsmittelindustrie, z. B. Austernzucht
Setzlingszucht für die Fischzucht, zur Arterhaltung oder zum Besatz von Angelgewässern
Mikro- und Makroalgenzucht für die chemische, pharmazeutische und lebensmitteltechnische Industrie sowie den Futtermittelmarkt
Verfahren
Teichwirtschaft
Klassisch und auf dem europäischen Festland am meisten verbreitet sind Aquakulturanlagen in fließenden oder stehenden Gewässern unter freiem Himmel. Die Haltung in Teichen mit stehendem Wasser ist typisch und angebracht für Fische, die von Natur aus ruhige Gewässer bevorzugen (z. B. Karpfen, Schleien, Zander, Hecht). Dagegen werden Fische, die an Fließgewässer mit hohem Sauerstoffgehalt und niedrigen Temperaturen angepasst sind (z. B. Forelle, Äschen, Seesaibling, Bachsaibling) sowie Saiblingskreuzungen (Elsässer), klassisch in durchströmten länglichen Teichen gehalten (mindestens dreifacher Wasseraustausch pro Tag). Seit den 1970er-Jahren verbreitet sich die Haltung in Fließkanälen (). Fließkanäle sind künstliche Bachläufe mit festen Seitenwänden und laminarer Strömung des Wassers zum optimalen Wasseraustausch.
Aquakultur in natürlichen Gewässern
In Südostasien, vor allem in Vietnam am Unterlauf des Mekong, ist die Aufzucht von Pangasius in schwimmenden Käfigen für den lokalen Markt weit verbreitet. Gefüttert wird der vergleichsweise anspruchslose Fisch zum Teil mit Neben- oder Abfallprodukten aus der Land- und Hauswirtschaft wie Reismehl und Gemüseresten.
Aquakultur im Meer
Dieses Verfahren basiert oft auf Netzgehegen im freien Meer oder in Buchten (z. B. Lachse in den norwegischen Fjorden). Teilweise basiert sie auch auf Schwimmkörpern aus Holz und anderem.
Geschlossene Kreislaufsysteme
Seit einigen Jahrzehnten wird versucht, sogenannte geschlossene Kreislaufanlagen zu betreiben, um von Umwelteinflüssen und vom hohen Wasserverbrauch möglichst unabhängig zu werden. Viele Anlagen wurden jedoch wieder geschlossen wegen der kostenintensiven Wasseraufbereitung und dem daran gekoppelten hohen Energieverbrauch sowie wegen mangelnder Stabilität der erreichten Wasserbeschaffenheit. Dieses Problem scheint allerdings langsam gelöst zu sein. So wurde nun ein Kultursystem entwickelt, das die gesamte Wasseraufbereitung im Tank integriert durchführt, das integriert-rezirkulierende Aquakultur-System (IRAS). Dadurch wird der Energiebedarf minimiert und Kosten gesenkt. Die benötigte Wärmeenergie steht an vielen Orten, zum Beispiel durch Biogasanlagen, ungenutzt zur Verfügung. Durch derartige Systeme wird es in Zukunft möglich sein, Fischprodukte ökonomisch an nahezu jedem Ort der Welt herzustellen. Im September 2018 wurde in der Schweiz zum ersten Mal Lachs aus einer Kreislaufanlage in Lostallo geerntet. Nach den Richtlinien der ökologischen Aquakultur dürfen Kreislaufanlagen nicht für die Fischhaltung, sondern nur für Brutstationen oder für die Erzeugung von ökologischen Futterorganismen genutzt werden.
Aquaponik
Aquaponik (Kofferwort aus Aquakultur und Hydroponik) ist eine Sonderform der geschlossenen Aquakultur in Kreislaufsystemen und beschreibt ein gemischtes Nutzungssystem aus Fischhaltung und Pflanzenproduktion in einem anorganischen Substrat. Es handelt sich dabei um einen geschlossenen Nährstoffkreislauf, welcher in automatisierten Abläufen bewirtschaftet wird.
Arten
Fische
Rund 150 Fischarten werden in Aquakultur gezüchtet, einige der wichtigsten sind:
Aal (Anguilla anguilla) (es werden nur gefischte Glasaale aufgezogen, Aale laichen in der Tiefsee, eine Zucht vom Ei bis zum ausgewachsenen Fisch ist deshalb unmöglich)
Afrikanischer Raubwels (Clarias gariepinus)
Atlantischer Lachs (Salmo salar)
Pazifischer Lachs (Oncorhynchus sp.)
Buntbarsche (Tilapia, insbesondere der Nil-Buntbarsch Oreochromis niloticus)
Riesenbarsche (wie der Barramundi Lates calcarifer)
Streifenbarsch (Kreuzung: Morone saxatilis x M. chrysops)
Wolfsbarsch (Dicentrarchus labrax)
Dorade (Sparus aurata)
Forelle (Salmo trutta)
Karpfen (Cyprinus carpio)
Graskarpfen (Ctenopharyngodon idella)
Silberkarpfen (Hypophthalmichthys molitrix)
Milchfisch (Chanos chanos)
Dicklippige Meeräsche (Chelon labrosus)
Pangasius (Pangasianodon hypophthalmus)
Regenbogenforelle (Oncorhynchus mykiss)
Stör (Acipenser sp.)
Steinbutt (Scophthalmus maximus)
Zander (Lucioperca sandra)
Regenbogenforelle
Die raschwüchsigen Regenbogenforellen (Oncorhynchus mykiss) sind von großer Bedeutung in der Aquakultur und werden hauptsächlich in sauerstoffreichen Teichen der Mittelgebirge und Süddeutschland gehalten. Regenbogenforellen eignen sich sowohl für die Teichwirtschaft als auch für Durchlauf-, Unterwasser-, Silo- und Rinnenanlagen mit höherem Technologieeinsatz. Aus der im 19. Jh. von Max von Born eingeführten amerikanischen Regenbogenforelle haben sich im Lauf der Jahre in Deutschland verschiedene Rassen der einzelnen Züchter herausgebildet, die sich hinsichtlich in Laichzeitpunkt, Wachstumsgeschwindigkeit und Körperbau unterscheiden. Im Forschungsinstitut für Biologie landwirtschaftlicher Nutztiere (FBN) im mecklenburgischen Dummerstorf untersuchen Molekularbiologen im Projekt DIREFO (Different resistente Regenbogenforellen) die genetische und immunologische Variabilität von Forellenrassen hinsichtlich ihrer Reaktion auf abiogene Stressfaktoren. Ziel war es, widerstandsfähige Stämme zu isolieren, welche in einer stressigen Umgebung wie den Hälterbecken offener Anlagen mit hoher Besatzdichte, weniger krankheitsanfällig sind und größere Temperaturschwankungen vertragen. Ergebnis dieser Züchtung ist die Regenbogenforellenlinie „Born“. Born-Forellen tolerieren höhere Salzgehalte im Wasser (Brackwasser), sind auch bei hoher Besatzdichte wenig stress- und krankheitsanfällig und haben insgesamt eine höhere Fitness als vergleichbare Regenbogenforellenrassen. Die Energiebilanz der Born-Linie ist zugunsten der Stressverarbeitung verschoben, dennoch weist das Fleisch kaum qualitative Einbußen auf.
Regenbogenforellen mit triploidem Gensatz weisen die höchsten Wachstumsraten auf und erreichen schnell ihre Endgröße. Besonders in Kanada und Dänemark wurde züchterisch an triploiden Forellen gearbeitet. Triploide Forellen liefern eine signifikant höhere Schlachtkörperausbeute.
Die aktuell größte Regenbogenforelle mit 24 Kilogramm wurde 2009 aus dem Lake Diefenbaker in Saskatchewan in Kanada gefangen, 2007 eine annähernd so schwere Forelle von 21 Kilogramm. Die triploiden Tiere stammten vermutlich aus transgenem Tiermaterial einer benachbarten Forellenfarm, welche in den Stausee entkamen.
Dänemark gehörte zu den Pionieren der Lachs- und Regenbogenforellenhaltung in Aquakultur. Seit 1950 in mariner Käfighaltung und seit den 1970er-Jahren in Aquakultur. Seit 1987 existieren Gesetzesauflagen, welche zur Vermeidung der Eutrophierung die Freisetzung von mit Nährstoffen angereicherten Abwässern aus der Forellenhaltung in natürliche Gewässer regulieren. Bereits 1914 gab es in Dänemark 140 Forellenfarmen, die Stückgewichte von 250 bis 350 Gramm (handelsübliche „Portionsforellen“) für den Export produzierten. Ein weiterer Absatzmarkt ist der Verkauf von Großforellen bis 15 Kilogramm in Put-&-Take-Angelteichen. Durch den technischen Fortschritt konnte das Verhältnis des eingesetztem Futters zu erwirtschaftetem Fisch nachhaltig optimiert werden; so werden mittlerweile nur noch 0,95 Kilogramm Trockenfutter für die Produktion von einem Kilogramm Forellenfleisch (mit ca. 75 Prozent Wassergehalt) benötigt.
Karpfen
Der Karpfen gehört zu den wichtigsten Speisefischen der Aquakultur und Teichwirtschaft und wird weltweit in über 80 Ländern produziert. Beim Anteil an der weltweiten Gesamterzeugung belegte der Karpfen (im Jahr 2020) mit etwa 8,6 Prozent den dritten Platz, nach dem Silberkapfen (10 %) und dem und der Graskarpfen (12 %). Zu den Hauptproduzenten in Europa gehören Tschechien, Polen, Ungarn und Deutschland. In Asien, wo Karpfen bereits seit 2500 Jahren in Teichen gezüchtet werden, liegt der globale Schwerpunkt der Produktion insbesondere in der Volksrepublik China, sowie in Myanmar und Indonesien. Infolge der über Jahrhunderte betriebenen Auslesezüchtung sind zahlreiche lokale Varietäten und Rassen entstanden.
Im Unterschied zur semi-extensiven Teichwirtschaft, wo Karpfen einen großen Bestandteil ihrer Nahrung in ihrer natürlichen Umgebung suchen, werden in der Aquakultur Karpfen ab einer bestimmten Größe bis zur Schlachtreife in Bassins gemästet. Dadurch, dass der Karpfen den Großteil seiner Nahrung am Boden aufnimmt, erhält sein Fleisch einen schlammigen und unerwünschten Beigeschmack, den er erst nach Hälterung für gewisse Zeit in klarem Wasser verliert.
In Deutschland erprobte die Bundesforschungsanstalt für Fischerei ab 1971 die ganzjährige Warmwasserhaltung von Karpfen in Kreislaufwirtschaft und Durchlaufanlagen, was zu einem wesentlich schnelleren Wachstum, Geschlechtsreife und Erreichen der Schlachtreife dieser zentralasiatischen und sehr wärmeliebenden Fischart führte. Später wurde auch Prozesswärme von Braunkohlekraftwerken genutzt, um eine konstante Wassertemperatur von 23 °C zu erreichen, was den Fischen ganzjähriges Wachstum ermöglicht.
Tilapien
In der globalen Aquakultur zählen die, aus den Tropen und Subtropen stammenden Tilapia-Buntbarsche, mit einer Jahresproduktion von rund 4,5 Mio. t (Stand: 2020) zu den vier wichtigsten Fischarten. Insbesondere Nil-Tilapien (Oreochromis niloticus), lassen sich leicht vermehren, stellen geringe Ansprüche an ihre Umwelt und kommen mit pflanzlicher Kost aus. In Ägypten werden sie bereits seit langer Zeit als Speisefische geschätzt, wie 4000 Jahre alte Wandzeichnungen belegen.
Die schnell wachsenden Maulbrüter weisen neben einer hohen Reproduktionsquote, Robustheit gegenüber Umwelteinflüssen bei geringer Krankheitsanfälligkeit auf und werden daher weltweit in großer Zahl in Aquakulturen produziert. Die drei kommerziell genutzten Buntbarsch-Gattungen Coptodon, Sarotherodon und Oreochromis gehörten früher zur Gattung Tilapia. Heute unterscheidet man sie auf Grund des Fortpflanzungsverhaltens: siehe Tabelle.
Tilapien werden wegen ihrer hohen Wassertemperaturansprüche (20–30 °C) auch als water chicken bezeichnet. Das Optimum liegt bei 25 °C. Tilapien zeichnen sich durch eine hervorragende Futterverwertung aus. Oreochromis niloticus beispielsweise ist euryphag (allesfressend), kann mit Abfällen aus Haus- und Landwirtschaft gefüttert werden und filtert neben Wasserpflanzen sogar größere Algen aus dem Wasser heraus. In größeren Anlagen werden hauptsächlich die Arten Oreochromis niloticus, Oreochromis mossambicus und Oreochromis aureus gezüchtet.
Geschlechtsreife Tilapien (nach sechs Monaten) vermehren sich sechs- bis achtmal im Jahr, was zu einem Aufbau von großen Beständen führt. Beachtet werden muss, dass brütende Tiere ein starkes Revierverhalten zeigen und in dieser Zeit ihre Artgenossen tödlich verletzen können.
Der Nilbuntbarsch (Oreochromis niloticus) ist in extensiver (Teichwirtschaft) und intensiver Haltung (Aquakultur) von großer wirtschaftlicher Bedeutung in 85 Ländern Afrikas, Asiens und Amerikas. Bedeutende Aquakulturen mit Tilapien gibt es in der Volksrepublik China, in Indonesien, auf den Philippinen, in Thailand, in Vietnam und auf Taiwan. Taiwan exportiert beispielsweise Tilapien für den japanischen Sashimi-Markt. Neben Karpfen und Salmoniden stehen Tilapia-Buntbarsche an dritter Stelle der Nutzfische in Süßwasserproduktion.
Die Vereinigten Staaten importieren jährlich 56.000 Tonnen Tilapiafilets (größtenteils aus Mexiko aber auch Honduras, Costa Rica und Ecuador). Der europäische Markt wird aus Israel und afrikanischen Ländern wie Sambia bedient. In der Produktionstechnologie sind israelische Unternehmen wie APT Aquaculture Production Technology Ltd. Marktführer.
Bei entsprechender Fütterung erreichen Tilapien nach neun Monaten ein Gewicht von durchschnittlich 500 Gramm. In intensiver Masthaltung können Besatzdichten von 100 Individuen pro Kubikmeter verwendet werden.
Die Anlagen können mit unterschiedlicher Intensität gefahren werden, über sehr einfach (einfache extensive Teichwirtschaft mit wenig Kontrolle über Wasserqualität, minimaler Fütterung und geringem Ertrag) bis hin zu hochkomplex mit sinkenden Produktionskosten und hohem Fischertrag/genutzter Fläche. Fischbesatz mit mehr als 1,5 Kilogramm pro Kubikmeter erfordert Krankheits- und Schädlingskontrolle sowie künstliche Anreicherung des Wassers mit Sauerstoff.
Pangasius
Die Produktion von Pangasiuswelsen nimmt aufgrund ihres weißen und sehr fettarmen Fleisches weltweit stark zu und auch in Europa wird Pangasiusfilet stark nachgefragt. Haupterzeugerland mit einem Marktanteil von 90 Prozent ist derzeit Vietnam.
Eines der Hauptabnehmerländer in der Europäischen Union ist Polen. Kommerziell genutzte Arten sind Pangasius hypophthalmus und Pangasius bocourti, wobei letzterer einen etwas höheren Fettanteil aufweist. In den 1990er-Jahren begannen der französische Fischereibiologe Marc Legendre in Vietnam mit der genetischen Verbesserung von Pangasiuswelsen. Die Produktion ist aufgrund des geringen Sauerstoffbedarfs und der Robustheit dieser allesfressenden Fische relativ unproblematisch. Die Aufzucht erfolgt in Teichen, Schwimmkäfigen und Netzgehegen. Das Schlachtgewicht von 1,5 bis 2 Kilogramm wird bei entsprechender Fütterung bereits nach sechs Monaten erreicht. In der traditionellen asiatischen Teichwirtschaft wird Pangasius mit Pflanzenabfällen gefüttert, für die schnelle agroindustrielle Mast haben sich Pellets (häufig aus der Reisverarbeitung) mit einem Eiweißgehalt von 26 Prozent und einem Fettgehalt von 5 Prozent durchgesetzt. Auch Futtermittel aus Fischmehl und -öl werden eingesetzt. Zur Verbesserung der Absatzchancen auf dem relativ neuen europäischen Markt haben vietnamesische Fischfarmer ein Qualitätsmanagement nach dem Qualitätswerkzeug Gefahrenanalyse und kritische Kontrollpunkte (HACCP) und nach ISO9001:2000-Normen implementiert.
Krebstiere
Flusskrebse
Europäischer Hummer
Diverse Spezies von Garnelen, insbesondere die Schwarze Tigergarnele und die Weißfuß-Garnele
Süßwassergarnelen, aus der zu den Felsengarnelen zählenden Gattung der Großarmgarnelen (Macrobrachium), wo insbesondere die Rosenberggarnele (Macrobrachium rosenbergii) sowie Macrobrachium amazonicum von wirtschaftlicher Bedeutung sind.
Weichtiere
Austern, insbesondere die Pazifische Auster, sowie die Europäische Auster (siehe auch Austernzucht)
Kammmuscheln (einschließlich der Jakobsmuschel)
Miesmuscheln, wie die Gemeine Miesmuschel und die Mittelmeer-Miesmuschel
Abalone
Grünschalmuscheln
Frösche
Frösche bzw. Froschschenkel werden sowohl in Europa, als auch den USA und der Karibik gern gegessen. Um Wildfänge einzugrenzen und eine gesicherte Qualität anbieten zu können, werden mittlerweile zahlreiche Arten in Aquakultur gezüchtet, wobei größere Betriebe vor allem in Asien, Südamerika und den USA zu finden sind. Für das Jahr 2017 schätzte die Chinesische Akademie der Ingenieurwissenschaften den Wert der chinesischen Froschzuchten auf rund 7 Mrd. UD-Dollar. Die Importe in die EU gingen zwischen 2010 und 2019 um gut 12 Prozent zurück, wobei der umfangreichste Rückgang in Belgien zu verzeichnen war.
Folgende Arten werden bereits in Aquakulturen gezüchtet:
Nordamerikanischer Ochsenfrosch (Rana catesbeiana); die am häufigsten in Aquakultur gezüchtete Art
Asiatischer Ochsenfrosch (Hoplobatrachus tigerinus)
Chinesischer Ochsenfrosch (Hoplobatrachus rugulosus)
Seefrosch (Pelophylax ridibundus)
Türkischer Wasserfrosch (Pelophylax bedriagae)
Im Zusammenhang mit Fröschen aus Aquafarming kritisieren Wissenschaftler unter anderem fehlende, international verbindliche Haltungs- und Hygienestandards. Ein weiterer Kritikpunkt besteht darin, dass entkommene Arten aus Froschfarmen sich als Neobiota ausbreiten und so das ökologische Gleichgewicht gefährden können.
Algen
Der Anteil von Algen, die in Acquakultur gezüchtet werden machte, 2022, rund 20 Prozent der gesamten Biomasse aus Acquakultur aus und nimmt um etwa 8 Prozent jährlich zu.
Verwendungsmöglichkeiten beinhalten die Verwendung als Nahrungs- oder Futtermittel sowie als Zutat in der Kosmetik- und Düngemittelindustrie.
Braunalgen wie Undaria pinnatifida, Sargassum fusiforme oder Japanischer Blatttang (Saccharina japonica)
diverse Saccharina-arten, einschließlich Zuckertang
Rotalgen, z. B. der Gattungen Eucheuma, Pyropia (siehe auch Nori) und Gracillaria
Seegras, wie z. B. Kappaphycus alvarexii
Mikroalgen: Euglena und Chlorella (für die Erzeugung von Biokraftstoff)
Früher wurden Organismen der Gattung Spirulina, die ebenfalls angebaut werden, zu den Blaualgen gezählt, mittlerweile ist jedoch kalr, dass es sich hierbei um Cyanobakterien handelt.
Weltweit bedeutende Aquakulturunternehmen
Blue Ridge Aquaculture, Inc., Martinsville, Virginia, USA (weltgrößter Tilapia-Produzent)
Nutreco Aquaculture Holding N.V., Amersfoort, Niederlande (weltgrößter Aquakulturfarmer)
Mowi ASA, Oslo, Norwegen
AKVA Group ASA, Bryne, Norwegen
Taiwan Aquaponics Association, Taiwan
Open Blue (Betreiber der größten Marikulturfarm)
Aquakultur in Deutschland
2019 wurden in Deutschland 18.500 t Fisch aus Aquakulturen geerntet:
Dazu wurden 19.000 t Muscheln aus der Nordseezucht geerntet. Mit anderen Meeresfrüchten sowie Rogen/ Kaviar betrug die Gesamtproduktion etwa 38.000 t. Dem stand in Deutschland ein Verbrauch von 401.000 t gegenüber.
Aquakultur in der Schweiz
In der Schweiz ist die Aquakultur in den letzten Jahren stark gewachsen (Stand 2020). Das Bundesamt für Lebensmittelsicherheit und Veterinärwesen beabsichtigt deshalb eine Koordinationsstelle für die Schweizer Aquakultur aufzubauen.
Entwicklung
Die Aquakultur und die Aquakulturtechnologie ist ein weltweit stark wachsender Markt; 2009 stammten laut der FAO 55 Millionen Tonnen Fisch aus Aquakulturen, das war etwas mehr als ein Drittel der insgesamt 145 Millionen Tonnen gefangenen Fisches. In Shrimp-Farmen wurden 2003 mehr als 1,6 Millionen Tonnen an Krebstieren herangezogen. Ihr Marktwert betrug nahezu neun Milliarden US-Dollar. Im Jahre 2018 wurden nach Angaben der FAO in Aquakulturen 54 Millionen Tonnen Fisch, 18 Millionen Tonnen Weichtiere (Austern, Muscheln und Schnecken), 9 Millionen Tonnen Krebstiere (in der Mehrzahl Garnelen) sowie 1 Million Tonnen anderer Wassertiere (wie Frösche) mit einem Gesamtwert von über 220 Milliarden Euro produziert.
Zwischen 1990 und 2003 erreichte das durchschnittliche jährliche Wachstum zehn Prozent. Besonders stark in der Aquakultur vertreten ist China, das 2006 gemäß der offiziellen Statistik der FAO 70 Prozent der weltweiten Produktion auf sich vereinigte. Das Wachstum der Aquakultur allgemein läge ohne den chinesischen Beitrag bei nur fünf Prozent.
Vorteile von Aquakulturen gegenüber traditionellem Fischfang liegen einerseits in niedrigeren Preisen (der Preis für Lachs aus Aquakulturen hat sich seit dem Beginn der 1980er-Jahre um etwa 80 % reduziert) und in dem kontinuierlichen und planbaren Aufkommen. Während beispielsweise das Aufkommen von wildem Lachs starken Schwankungen unterliegt, ist der Ertrag aus Aquakulturen gleichmäßiger und leichter zu prognostizieren, was es Supermärkten erleichtert, die Fische in ihr Angebot zu integrieren.
Stand 2021 züchtet die Aquakulturindustrie etwa die Hälfte des weltweiten Fischbedarfs und ist – mit einem Wert von mehr als 260 Milliarden Dollar – das am schnellsten wachsende Segment der globalen Nahrungsmittelproduktion.
Gesundheitliche Folgen für die Fische
Die mit dieser Form von Intensivhaltung einhergehenden hohen Besatzdichten und stressgeschwächten Immunsysteme machen die Fische anfällig für verschiedene Arten von Krankheiten, darunter Flossenverletzungen durch ständiges Reiben an Artgenossen, Katarakt sowie Parasitenbefall.
Da Fische ebenfalls ein Schmerzempfinden besitzen, kritisieren Tierrechtsorganisationen wie die Albert Schweitzer Stiftung für unsere Mitwelt die aktuellen Verhältnisse und fordern Verbesserungen der Haltungsbedingungen.
Ökologische Folgen
Probleme ergeben sich aus der Überdüngung von Gewässern, insbesondere in marinen Aquakulturen, aufgrund nicht vollständig verwerteter Nahrung, Ausscheidung der Fische und toten Fischen. Zusätzlich sind die in unnatürlich großen und dichten Verbänden gehaltenen und in Hinblick auf maximale Erträge gezüchteten Fische krankheitsanfälliger als Wildfische und benötigen deshalb Antibiotika oder andere Mittel gegen Parasiten, die ebenfalls die Ökosysteme der Umgebung und die menschliche Gesundheit gefährden. Technischer Fortschritt führt teilweise zu einer Linderung der Folgen: Ausscheidungen norwegischer Lachse wurden zwischen 1975 und 2003 von etwa 180 Kilogramm auf 30 Kilogramm pro produzierter Tonne Fisch reduziert. Eingesetzte Antibiotika entsprachen im Jahr 2003 etwa 0,5 Prozent der Menge, die noch 1990 notwendig war.
Vor allem in Ländern mit niedrigen ökologischen Standards in Südostasien hatte die Ausbreitung von Aquakulturen negative Folgen. Beispielsweise gingen im Mekong-Delta seit 1975 etwa 70 Prozent der Mangrovenbestände verloren. Ein großer Teil dieser Verluste wird der Garnelenzucht angerechnet.
Auch besteht die Gefahr, dass Fische ausbrechen und sich mit natürlichen Beständen vermischen oder sie verdrängen können. Beispielsweise sind in den 1990er-Jahren insgesamt etwa eine Million atlantischer Lachse an der amerikanischen Westküste aus Kulturen entkommen und haben sich dort außerhalb ihres natürlichen Verbreitungsgebietes etabliert. Dieser Nachteil wird wohl in Zukunft durch die Nutzung von Indoor-Fischzuchtanlagen aufgehoben. Hier ist eine völlige Isolation vom umgebenden Ökosystem gewährleistet.
Als Vorteil von Aquakulturen ist zu bewerten, dass sie der Überfischung der Meere entgegenwirken und eine neue Nahrungsquelle darstellen. Dies trifft allerdings nur auf einen Teil der Aquakulturen zu. Fleischfressende Fische wie Lachse oder Forellen benötigen tierisches Eiweiß, das häufig aus wilden Fischen gewonnen wird (Fischmehl). Um ein Kilogramm Fisch zu züchten, benötigt man ungefähr vier Kilogramm Futter. Nur pflanzenfressende Fische wie etwa der Karpfen können die Meere tatsächlich entlasten. Im Jahr 2003 waren etwa 80 Prozent der weltweiten Bestände in Aquakulturen Pflanzen- oder Allesfresser.
Indirekt schädlich ist vor allem der durch die Aquakulturindustrie gestiegene Bedarf an – und Verbrauch von – Fischmehl als Futter für die Aufzucht. Fischmehl macht – je nach Fisch – zwischen 50 und 90 Prozent der Betriebskosten der Aquakulturindustrie aus und ist Stand 2021 die einzige kommerziell nutzbare Futterquelle. Dabei verbrauchen die Aquakulturfarmen teilweise mehr Fisch als sie später wiederum an Supermärkte und Restaurants liefern. Beispielsweise kann ein gezüchteter Thunfisch mehr als das Fünfzehnfache seines Gewichts an frei lebenden Fischen fressen, die zu Fischmehl verarbeitet wurden. Tatsächlich enden etwa ein Viertel aller weltweit im Meer gefangenen Fische als Fischmehl. Dieser gestiegene Bedarf führt zur Überfischung in einigen Küstengebieten Afrikas, wodurch wiederum die Lebensgrundlage der einheimischen Bevölkerung gefährdet wird.
Für Pazifische Lachse der Gattung Oncorhynchus wurde nachgewiesen, dass sich das aus atlantischen Aquakulturen stammende Piscine Orthoreovirus-1 (PRV-1) unter pazifischen Wildpopulationen verbreitet hat.
Siehe auch
Ökologische Aquakultur
Stephan Ludwig Jacobi (1711–1784) Erfinder der künstlichen Fischzucht
Hydrokultur
Norwegisches Aquakulturcenter
Literatur
Colin Nash: The History of Aquaculture. Wiley-Blackwell, 2011, ISBN 0-8138-2163-0.
Thundathil V. Pillay: Aquaculture. Principles and Practices. Fishing News Books, Oxford 1990, ISBN 0-85238-168-9.
Weblinks
Aquaculture – Informationen der Ernährungs- und Landwirtschaftsorganisation der Vereinten Nationen (englisch)
Marcus Ernst Gerhard Breuer: Aquakulturproduktion in der EU, EU Fact Sheet, Europäisches Parlament Think Tank, Dezember 2020
Aquakulturinfo - Informationsportal zur Aquakultur, betreut vom Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB)
Farmed Seafood, World Wildlife Fund (englisch)
Produzenten
Website von Blue Ridge Aquaculture (englisch)
Website von Nutreco, the international animal and nutrition and fish feed company (englisch)
Website von Mowi ASA (englisch)
Website der Aqua Group (englisch)
Belege
Meerestechnik
|
Q188989
| 160.846463 |
136626
|
https://de.wikipedia.org/wiki/Serin
|
Serin
|
Serin, abgekürzt Ser oder S, ist in der L-Konfiguration [(S)-Konfiguration] eine proteinogene, nicht-essentielle α-Aminosäure.
Isomere
Serin besitzt ein stereogenes Zentrum und hat damit zwei Enantiomere, die D-Aminosäure D-Serin [Synonym: (R)-Serin] und ihr Spiegelbild, das „natürliche“ L-Serin. Das Racemat DL-Serin [Synonym: (RS)-Serin] besteht zu gleichen Teilen aus L-Serin und D-Serin. Wenn in der wissenschaftlichen Literatur Serin ohne jeden weiteren Zusatz (Präfix) genannt wird, ist fast immer L-Serin gemeint.
L-Serin racemisiert (partiell) leichter als andere proteinogene L-Aminosäuren. Deshalb enthalten viele L-Serin-Präparate geringe Mengen (0,5 bis 3 %) D-Serin.
Vorkommen
Erstmals isoliert wurde Serin aus Seide, genauer aus dem Seidenbast, auch Sericin genannt, der leimartig in der Rohseide die Fibroinfäden verklebt und beim Entbasten entfernt wird. Dieser umhüllende Bast des seidenen Fadens, den die Larve des Seidenspinners (Bombyx mori) zum Kokon spinnt, besteht zu einem Drittel aus Serin. Auch dessen Name ist vom lateinischen Wort sericus ‚seiden‘ abgeleitet.
Als proteinogene Aminosäure ist L-Serin ein Baustein zahlreicher verschiedener Proteine. So macht es beispielsweise in Kollagenen, den häufigsten Faserproteinen der extrazellulären Matrix im Gewebe von Säugetieren und Fischen, ungefähr ein Zwanzigstel aus. Eine besondere Rolle spielt die Seitenkette eines Serins im aktiven Zentrum bestimmter enzymatisch wirksamer Proteine, der Serinproteasen. Hierzu gehören nicht nur Verdauungsenzyme wie die Trypsine und Chymotrypsine, sondern auch das für die Blutgerinnung wichtige Thrombin ebenso wie das Plasmin, das Fibrin spaltet. Auch die im zentralen und peripheren Nervensystem wirkende Acetylcholinesterase – zerlegt den Neurotransmitter Acetylcholin – enthält einen Serinrest in der katalytischen Triade ihres aktiven Zentrums.
Daneben ist Serin eine wesentliche Komponente von Phosphatidylserinen, einer Gruppe der Phosphoglyzeride in der Lipiddoppelschicht der Zellmembran
Das Enantiomer D-Serin ist eine beim Menschen natürlich vorkommende D-Aminosäure und wird mithilfe einer Racemase aus L-Serin gebildet. Das D-Serin stellt einen Signalstoff von Nervenzellen dar und wirkt neuromodulatorisch als Ligand am NMDA-Rezeptor durch Bindung an Stelle von Glycin, stärker als dieses.
Eigenschaften
Serin liegt bei neutralem pH-Wert überwiegend als Zwitterion vor, dessen Bildung dadurch zu erklären ist, dass das Proton der Carboxygruppe an das Elektronenpaar des Stickstoffatoms der Aminogruppe wandert:
Im elektrischen Feld wandert das Zwitterion nicht, da es als Ganzes ungeladen ist. Genaugenommen ist dies am isoelektrischen Punkt (bei einem bestimmten pH-Wert) der Fall, bei dem das Serin auch seine geringste Löslichkeit in Wasser hat. Der isoelektrische Punkt von Serin liegt bei 5,68.
Genauso wie alle Aminosäuren mit einer (hydrophilen) OH-Gruppe (Hydroxygruppe) kann Serin phosphoryliert werden und spielt somit bei der Aktivierung bzw. Inaktivierung von Enzymen eine wichtige Rolle. Außerdem befindet sie sich häufig im aktiven Zentrum von Enzymen und spielt daher für die Biokatalyse eine wichtige Rolle: Beispiele dafür sind die Serinproteinasen und ihre Inhibitoren, die Serpine (Serinproteinasen-Inhibitoren).
Biosynthese und Abbau
Für Biosynthese und Abbau inklusive Strukturformeln siehe Abschnitt Weblinks.
Durch Oxidation und folgende Transaminierung ausgehend von 3-Phosphoglycerat wird Serin synthetisiert. Im Körper wird Serin zu Glycin abgebaut, es kann jedoch auch in einer PALP-abhängigen, eliminierenden Desaminierung durch die Serin-Dehydratase zu Pyruvat umgewandelt werden.
Technische Herstellung
Industriell wird L-Serin durch Fermentation hergestellt, in einer geschätzten Menge von 100–1000 Tonnen pro Jahr. Alternativ können keratinhaltige Proteine mit Salzsäure hydrolysiert und mit Ammoniak neutralisiert werden. Das so erhaltene Gemisch von ca. 20 proteinogenen Aminosäuren (eine davon ist das L-Serin) wird aufgrund unterschiedlicher Löslichkeiten und mittels Ionenaustauscherchromatographie getrennt. Die einzelnen Fraktionen werden durch Umkristallisation gereinigt.
D-Serin
In Gliazellen und Neuronen wird D-Serin durch das Enzym Serin-Racemase gebildet. An NMDA-Rezeptoren fungiert D-Serin als endogener Co-Agonist, es bindet an der NR1-Untereinheit und erhöht die Affinität von Glutamat an diesem Rezeptor. Es gibt Hinweise darauf, dass ein physiologischer Mangel an D-Serin eine Rolle im Depressionsgeschehen spielen könnte.
In einigen Pflanzen ist die Serin-Racemase in Stempel und Samenanlagen nachgewiesen und spielt dort eine Rolle in der Navigation des einwachsenden Pollenschlauchs. L-Serin wird dabei zu D-Serin umkonfiguriert und vom Pollenschlauch erkannt. GLR-Gene (Glutamate receptor-like genes) bilden im Pollenschlauch Ca2+-Kanäle, die durch D-Serin aktiviert werden, dadurch entsteht ein oszillierendes Ca2+-Signal in der Pollenschlauchspitze, das das Wachstum fördert und richtet. Pollenschläuche in denen dieser Signalweg gestört wurde, zeigen deformiertes Wachstum, verzweigen sich und sind weniger fertil.
Dieser pflanzliche Signalmechanismus ist insofern interessant, als die Aminosäure-vermittelte Kommunikation bislang eher mit dem zentralen Nervensystem der höheren Tiere in Zusammenhang gebracht wurde.
Weblinks
Einzelnachweise
Proteinogene Aminosäure
Arzneistoff
Alpha-Aminopropansäure
Beta-Hydroxycarbonsäure
Aromastoff (EU)
Futtermittelzusatzstoff (EU)
|
Q183290
| 134.520272 |
126573
|
https://de.wikipedia.org/wiki/Schwer%C3%B6l
|
Schweröl
|
Schweröl (, HFO) ist ein Rückstandsöl aus der Destillation oder aus Crackanlagen der Erdölverarbeitung. Internationale Handelsbezeichnung eines solchen Öles ist Marine (Residual) Fuel Oil (MFO; ), manchmal wird es auch unter der US-Bezeichnung Bunker C geführt.
Es dient (gemischt mit Dieselöl) als Kraftstoff für Großdieselmotoren, zum Beispiel für den Antrieb von Schiffen (als Schiffstreibstoff) und als Brennstoff für Dampflokomotiven mit Ölhauptfeuerung sowie für Kraftwerke zur Stromerzeugung und zur Erzeugung von Prozessdampf.
Herstellung
Schweröle verbleiben hauptsächlich als Rückstände der Erdölverarbeitung. Hierbei heißt Rückstand, dass diese Komponente als nicht mehr verdampfbarer Teil („Sumpf“) eines erdölverarbeitenden (meist destillativen) Prozesses entstanden ist. Technisch unterscheidet man dabei zwischen atmosphärischem Rückstand (long residue, Sumpf der atmosphärischen Kolonne), Vakuumrückstand (short residue, Sumpf der Vakuumkolonne), Visbroken residue (Sumpf aus der atmosphärischen Visbreaker-Kolonne) oder flashed visbroken residue (Vakuumrückstand aus der Vakuumkolonne eines Visbreakers). Heutzutage kommen aus ökonomischen Gründen vorwiegend gecrackte Vakuumrückstände zum Einsatz. In all diesen Komponenten befinden sich die „schwersten“ Bestandteile des Erdöls, die sogenannten Asphaltene, hochkondensierte aromatische Verbindungen, die zum Teil mit Metallen komplexiert sind. Diese Verbindungen sind für die schwarze Farbe dieser Schweröle verantwortlich.
Solche Rückstände haben hohe Viskositäten (300 bis 30.000 mm²/s bei 100 °C), sie werden mit sogenannten Verdünnern (Diluents, auch cutter stocks genannt) auf die Spezifikationsviskosität (zu spezifikationsgerechtem MFO) zurückgemischt. Solch eine Mischung nennt man Blend (aus Einzelkomponenten auf Spezifikation gemischt). Allerdings besteht MFO meist nur aus zwei bis drei Komponenten; im Vergleich dazu besteht Benzin aus gegebenenfalls 10 und mehr Komponenten. Als Verdünner kann alles Mögliche – von Kerosin (0,1 mm²/s bei 100 °C) bis zu „Visbreaker-Vakuumdestillat“ (Flashed Cracked Distillate, 6 mm²/s bei 100 °C) – zur Anwendung kommen. Beliebt ist sogenanntes Light Cycle Oil (LCO), Heavy Cycle Oil (HCO) oder Slurry aus der FCC-Anlage. Natürlich sind andere Spezifikationen – speziell der Flammpunkt – mitzuberücksichtigen. Deshalb fällt Kerosin in vielen Fällen als Diluent aus, obwohl es ökonomisch die beste Alternative darstellt (der beste „Viskositätseffekt“, deshalb geringer Bedarf an diesem Diluent und – trotz relativ hohen Preises – die beste Ökonomie). Der Schwefelgehalt des erzeugten Schweröls wird durch die Auswahl des Erdöls gesteuert und ggfs. durch Zudosierung hochschwefliger Rückstandskomponenten eingestellt.
Bei Verwendung von Heavy Cycle Oil oder Slurry kann der Treibstoff mit sogenannten „catalyst fines“ (fein zerriebener Zeolith-Katalysator des FCC) kontaminiert sein. Fines können während der Aufbereitungsphase an Bord unter Umständen nicht vollständig beseitigt werden (veraltetes Separatorsystem oder Ähnliches). Sie sind verantwortlich für die Abrasion im Treibstofftransportsystem und im Motor.
Eigenschaften
Hauptbestandteile des MFO sind vor allem Alkane, Alkene, Cycloalkane und hochkondensierte aromatische Kohlenwasserstoffe (Asphaltene) mit etwa 20 bis 70 Kohlenstoff-Atomen pro Molekül und einem Siedebereich zwischen 300 °C und ≈ 700 °C (das Siedeende von 700 °C ist eine berechnete Größe). Daneben treten noch aliphatische sowie heterocyclische Stickstoff- und Schwefelverbindungen auf (Stickstoffgehalt: 0,5 % und mehr / Schwefelgehalt: bis ≈ 6 %). In Rückstandsölen sind alle metallischen Verunreinigungen des Erdöls aufkonzentriert, wie Nickel, Vanadium, Natrium und Calcium. Alle weiteren Eigenschaften werden durch die Spezifikationen vorgegeben.
Spezifikationen
Schweröl ist in verschiedenen Qualitäten erhältlich. So regelt MARPOL 73/78 Annex VI den Ausstoß von Schwefel-Verbrennungsprodukten in bestimmten Seegebieten, weshalb sogar – von der Norm abweichende – schwefelreduzierte Qualitäten hergestellt werden. Entsprechend der Norm für Marine-Kraftstoffe in der aktuellen Fassung von 2005 wird zwischen „Marine Distillate Fuel Oil“ (DMX, DMA/MGO = Marine Gasoil, DMB/MDO = Marine Diesel Oil, DMC) und „Marine Residual Fuel Oil“ (siehe Tabelle) unterschieden, wobei es sich bei den „Residual Fuels“ um Schweröle im engeren Sinne handelt. Eine Sonderstellung stellt die Sorte DMC dar: Hier erlauben die Spezifikationen das Zumischen von Rückstandsöl.
Bei Nichteinhaltung der bestellten Spezifikation kann der Schiffseigner die Lieferung beanstanden und unter Umständen die Tanks auf Kosten des Lieferanten vollständig auspumpen lassen.
Die wichtigsten Spezifikationen limitieren die Dichte, Viskosität, den Wassergehalt und den Flammpunkt. Weitere Qualitätseigenschaften ergeben sich aus dem sogenannten micro carbon residue-Test (MCR, beschreibt die Neigung des MFO, Koksablagerungen zu bilden) und dem Total Sediment Potential (TSP).
Die Dichte darf die Spezifikationsgrenze nicht überschreiten, da sonst die Wasserseparation (s. u.) nicht mehr funktioniert. Früher lag das Limit bei 0,991 kg/L; neue Separatortechniken erlauben eine Dichte des Schweröls von bis zu 1,010 kg/L (Sorten RMK).
Die Viskosität wird durch die technischen Möglichkeiten des Systems bestimmt (Lagertemperatur, maximale Pumpviskosität, Vorwärmtemperatur e.g. Einspritzdüsenviskosität). Die Zahl hinter dem 3-Buchstabenkürzel beschreibt die Viskosität bei 50 °C (zum Beispiel weist RMG-380 eine Viskosität von maximal 380 mm²/s bei 50 °C auf).
Ein hoher Wassergehalt ist ökonomisch unerwünscht und belastet zudem die Separatoren und das Einspritzsystem.
Der Flammpunkt ist eine wichtige sicherheitstechnische Größe (s. u.).
Ein zu hoher MCR führt zu Ablagerungen von Koks an den Einspritzdüsen und im Brennraum.
Das TSP beschreibt das Potential des MFO, Sedimente (= Ablagerungen ausgeflockter Asphaltene) zu bilden (siehe Aufbereitung). Ein Ausflocken führt zur Belastung der Separatoren, im Extremfall zur Blockade des gesamten Kraftstoffsystems.
Qualitätskontrolle
Entsprechend den MARPOL-Regularien (MARPOL 73/78 ANNEX VI) muss zumindest eine Probe (MARPOL-Probe) von jeder Brennstofflieferung am Bunkermanifold des zu bebunkernden Schiffes gezogen werden. Zulässige Verfahren der Probennahme sind gemäß MARPOL:
von Hand mittels Ventil einstellbare Probenehmer mit kontinuierlichem Tropfen,
zeitproportionale Automatikprobenehmer,
strömungsproportionale Automatikprobenehmer.
Diese Probenehmer müssen so arbeiten, dass eine über den gesamten Bunkervorgang repräsentative Probe entsteht. In der Regel wird mittels Probenehmer eine größere Probe in ein Spezialgefäß gezogen und diese (nachdem der Bunkervorgang abgeschlossen ist) in vier spezielle Probeflaschen umgefüllt, etikettiert und von beiden Parteien versiegelt. Eine der Proben wird an ein Prüflabor geschickt. Idealerweise sollte mit dem Verbrauch des neuen Brennstoffes erst begonnen werden, wenn das Labor bestätigt, dass der Brennstoff den Angaben auf dem Lieferschein (Bunker Delivery Note) und damit der Norm entspricht. Eine Probeflasche erhält der Lieferant des Brennstoffes. Die MARPOL-Probe und die 4. Probe, kommerzielle Probe genannt, verbleiben an Bord. Die MARPOL-Probe muss so lange an Bord behalten werden, bis der Brennstoff überwiegend verbraucht ist, mindestens jedoch 12 Monate. Sie dient der Kontrolle durch die Behörden der Hafenstaaten, zum Beispiel, um den Schwefelgehalt zu prüfen. Die Etiketten der Probenflaschen müssen immer vom leitenden Ingenieur an Bord und vom Lieferanten unterschrieben sein. Meist übergibt der Lieferant des Brennstoffes eine in der Bunkereinrichtung (Bunkerbarge oder Landeinrichtung) gezogene Probe. Auch diese wird an Bord aufbewahrt.
Aufbereitung und Umweltaspekte
Schweröl ist bei Zimmertemperatur (20 °C) hochviskos (von etwa 1.500 bis 10.000 mm²/s, je nach Sorte) mit einer Dichte bis 1,010 kg/L (bei 15 °C; somit etwas schwerer als Wasser von 4 °C). Um Schweröl pumpfähig zu machen bzw. zu halten, muss es auf 40 bis etwa 50 °C Lager- bzw. Verpumpungstemperatur erwärmt werden. Zur Einspritzung in den Motorverbrennungsraum wird MFO auf 130 bis 140 °C aufgeheizt (entspricht 8 bis 15 mm²/s). Für den Hilfskesselbetrieb und den Kesselbetrieb auf Dampfschiffen oder Dampflokomotiven gelten ähnliche Werte.
Schweröl enthält bis zu 2,5 % unbrennbare Bestandteile. Normalerweise werden vor der Verbrennung zuerst das Wasser und dann die festen Bestandteile (fines, Sedimente aus Asphaltenen) entfernt (Absetzbehälter, Separatoren, Filter) und als Abfall, sogenannter Schlamm (engl. Sludge), in Tanks gesammelt. Zu hohe Sludge-Mengen belasten die Reinigungsanlagen. Die Kapazität der Reinigungsanlagen kann in extremen Fällen zum Engpassfaktor bei hoher Motorlast werden; dies könnte die Sicherheit des Schiffes auf See beeinträchtigen.
Sludge (der Inhalt der Sludge-Tanks) kann gebührenpflichtig in Häfen entsorgt werden. Noch vorhandener Ölgehalt enthält eine gewisse Energie. Um Kosten zu sparen, wurde Sludge früher auch auf See verklappt. An Strände gespülte bzw. getriebene Sludge-Klumpen verschmutzen auch heute noch manche Strandabschnitte.
Im Jahr 1973 setzte die International Maritime Organization (IMO) die International Convention for the Prevention of Marine Pollution from Ships (MARPOL) in Kraft. Die Konvention wurde im Jahre 1978 grundlegend erweitert; sie wird allgemein als MARPOL 73/78 bezeichnet. Die MARPOL 73/78 hat sechs Anhänge ANNEX I bis ANNEX VI, die den Umgang mit Schadstoffen auf Schiffen reglementieren.
MARPOL 73/78 Annex I reglementiert den Umgang mit ölartigen Stoffen an Bord von Schiffen, insbesondere die Führung eines Öltagebuchs, das den Verbleib aller Öle dokumentiert. Die Einhaltung dieser Regularien wird von den Flaggenstaaten und den Hafenstaaten in kurzen Abständen unregelmäßig kontrolliert.
Die Nutzung von Schweröl als Betriebsstoff von Schiffsmotoren wird von Umweltverbänden wie dem NABU angeprangert. Die Kritik richtet sich gegen die Verklappung von Sludge und auch gegen den hohen Schadstoffausstoß im Normalbetrieb. Kritisiert werden der hohe Rußausstoß und der Schwefelanteil des Schweröls (vgl. Tabelle weiter oben). Zum Vergleich: Heizöl (Standard) hat einen Schwefelanteil von maximal 1 ‰, Heizöl schwefelarm einen solchen von maximal 0,05 ‰.
Preise
Die Preise für MFO orientieren sich in Europa am Rotterdamer Markt, international auch an den Marktpreisen von Houston, Fujairah und Singapur. Es werden diverse Sorten notiert, zum Beispiel BUNKER 380 CST (entspricht RMG 380). Die Sorten werden in US-Dollar je 1000 kg (US-$/t) gehandelt. Verschiedene Publikationsorgane berichten (zum Teil täglich) über aktuelle Handelspreise und Volumina, zum Beispiel Platts und ICIS. Der Preis versteht sich, zumindest in Rotterdam, als: „delivered in ship“. Eine genaue Definition der diversen Notierungen findet man bei Platts.
Seeschiffe nutzen MFO als Kraftstoff für den Hauptantrieb, der Preis stieg ab Frühjahr 2005 von ca. 200 auf über 700 US-$/t im Juli 2008.
In Rotterdam kostete am 19. Juni 2013 1 t IFO380 595 $, IFO 180 618 $, MGO 894 $.
Die hohen Kraftstoffpreise und die schwache Nachfrage nach Gütern durch die Weltwirtschaftskrise führten dazu, dass Schiffe häufig mit verminderter Geschwindigkeit unterwegs sind, um Treibstoff zu sparen (Slow steaming). Eine Minderung der Reisegeschwindigkeit von 25 auf 20 Knoten beispielsweise kann den Verbrauch um rund 50 % senken (abhängig von Bauform des Schiffsrumpfs, Menge des Bewuchses (Fouling) am Unterschiff, Trimmung des Schiffes u. a.).
Angebot und Nachfrage
Obwohl beispielsweise in Deutschland die Ölindustrie durch moderne Raffinerie-Techniken (zum Beispiel Delayed Coker, Rauchgasentschwefelung oder der POx) den Anteil des Schweröls am Produktportfolio deutlich verringert hat, erfreut sich MFO – wegen der stark gestiegenen internationalen Handelsströme und des damit verbundenen Schiffsverkehrs – einer verstärkten Nachfrage. Auch wegen des stark ansteigenden Bedarfs der Volksrepublik China ist nicht mit einem Rückgang der Schweröl-Verbrennung zu rechnen, sondern eher mit einem Anstieg. Steuern lässt sich das Angebot eigentlich nur über die Rohölauswahl (Verarbeitung „schwererer“ Rohöle).
Illegale Beimengungen werden beobachtet. Es können zum Beispiel Reste aus der Kunststoffherstellung oder Altöle beigemengt werden. Damit sparen die Täter Entsorgungskosten und verdienen zusätzlich am Verkauf. Die Beimengungen führen oft zu Problemen bei der bordseitigen Kraftstoffreinigung.
Siehe auch
Marinedieselöl
Weblinks
bunkerworld.com – Preise (englisch)
Fuel Standard, 2017
Einzelnachweise
Meeresschutz
Erdölprodukt
Kraftstoff
Stoffgemisch
Öl und Fett
|
Q214199
| 409.818687 |
154024
|
https://de.wikipedia.org/wiki/Ball
|
Ball
|
Ein Ball ist ein rundes, üblicherweise kugelförmiges, seltener ovales, elastisches Spielzeug oder Sportgerät aus Leder, Gummi oder Kunststoff. Der Begriff kommt nicht vom altgriechischen Verb ballein für „werfen“, sondern ist vielmehr ein germanisches Erbwort, welches sich von dem Wortfeld für „anschwellen“ ableiten lässt und mit griechisch phallos urverwandt ist. Neben Bällen gibt es noch Spielkugeln, die üblicherweise aus hartem Material wie Holz, Kunststoff, Metall oder Elfenbein bestehen. Durch Spiele, die dem englischen Sprachraum entspringen, in dem es nur den Begriff ball gibt, wird die Grenze zwischen den Begriffen verwischt. Beispielsweise werden beim Billard oder Bowling beide Begriffe verwendet.
Schon in der Antike richtete man in den Palästen eigene Ballspielräume ein. Im Laufe der Jahrhunderte wurden unzählige Ballspiele/Ballsportarten erfunden. Für diese Ballspiele wurden auch Regeln festgelegt und wenn nötig verfeinert.
Beschaffenheit
Bälle bestehen normalerweise aus einer luftgefüllten Hülle, die erst durch Aufpumpen auf einen bestimmten Druck ihre Kugelform erhält. Ausnahmen bilden beispielsweise der Hockey- und Golfball. Als offizielle Kugelsportverbände gelten international Confédération Mondiale des Sports de Boules (CMSB) bzw. national Deutscher Boccia-, Boule- und Pétanque-Verband (DBBPV), sie werden unter Boule-Spiel behandelt.
Liste nach Sportarten
Bildergalerie
Spielzeugbälle
Spielzeugbälle sind häufig bunt oder schwarz-weiß bedruckt oder gefärbt, manchmal aber auch einfarbig. Es gibt sie in den verschiedensten Größen, die in der Regel keiner Norm entsprechen.
Bekannte Hersteller:
TOGU (Deutschland)
Mondo (Italien)
Hedstrom (USA)
Unice (Spanien)
Weblinks
Einzelnachweise
Spielzeug
|
Q18545
| 154.404781 |
55435
|
https://de.wikipedia.org/wiki/Multikulturalismus
|
Multikulturalismus
|
Multikulturalismus (zumeist abwertend auch Multi-Kulti oder Multikulti) ist der Oberbegriff für eine Reihe sozialphilosophischer Theorieansätze mit Handlungsimplikationen für die Gesellschaftspolitik eines Staates.
Definition
Rein deskriptiv beschreibt Multikulturalismus das Vorhandensein mehrerer (lat.: multus) Kulturen in einem Raum. Häufig hat Multikulturalismus auch eine normative Verwendungsweise, nach der das Zusammenleben Angehöriger verschiedener Kulturen ohne Assimilation stattfinden soll. Nach dieser Auffassung des Begriffs tritt der Multikulturalismus als politisches Konzept für den Schutz und die Anerkennung kultureller Unterschiede ein: „Multikulturalismus ist die Idee, dass Menschen ‚nicht trotz ihrer Unterschiede gleich, sondern wegen dieser Unterschiede verschieden‘ zu behandeln seien“.
Im liberalen Multikulturalismus erfolgt die kulturelle Differenzierung nur im privaten Bereich, während man sich bemüht, den öffentlichen Raum neutral zu gestalten und statt der Unterschiede die bestehenden Gemeinsamkeiten (z. B. hinsichtlich wirtschaftlicher Interessen oder Politik) hervorzuheben.
Die Theorien des Multikulturalismus stehen dem Gedanken einer dominanten Nationalkultur ebenso entgegen wie dem in den USA weit verbreiteten Gedanken des Melting Pot, der von einer Angleichung der verschiedenen Kulturen und der daraus resultierenden Herausbildung einer gemeinsamen, nationalen Kultur ausgeht.
Das Ziel der multikulturellen Gesellschaft
Ziel des Multikulturalismus ist die multikulturelle Gesellschaft, in der es keinen staatlichen oder auch nichtstaatlichen Anreiz oder „Druck“ zur Assimilation geben soll. Die ethnischen und kulturellen Gruppen sollen hingegen einzeln existieren. Dabei beruht dieses Modell auf dem Postulat, dass die (Angehörigen der) jeweiligen Ethnien sich gegenseitig Verständnis, Respekt, Toleranz entgegenbringen und einander als gleichberechtigt ansehen können. Kanada wird des öfteren als positives Beispiel für die Umsetzung des Multikulturalismus angeführt.
Zielgruppen
Meist werden Ethnien, wie etwa die französischsprachige Bevölkerung Kanadas, oder Religionsgruppen als Zielgruppen multikultureller Politik gesehen, selten auch andere Gruppen wie zum Beispiel Geschlechter oder Gruppen, die durch die sexuelle Orientierung ihrer Mitglieder abgegrenzt sind. Allgemein geht es jedoch schlicht um kulturell unterschiedliche Gruppen jeder Art.
Gegenpositionen
Kritik am Multikulturalismus wird von unterschiedlichen Kreisen ausgeübt, darunter auch von Anhängern des Konzepts der Transkulturalität. Im Rahmen des kritischen Multikulturalismus wird die Grundannahme des Multikulturalismus, dass die ethnische Zugehörigkeit für die Gesellschaftmitglieder die wichtigste Identifikationskategorie darstellen würde, angesichts der vielfachen Zugehörigkeiten zu verschiedenen nicht nur ethnisch markierten Gruppen (Multikollektivität) infrage gestellt.
Einer der ersten, die sich kritisch mit der Idee des Multikulturalismus auseinandersetzte, war der links-liberale US-Historiker und enge Freund der Familie Kennedy Arthur M. Schlesinger. In seinem Buch „The Disuniting of America – Reflections on a Multicultural Society“ (1991) konstatiert er mit Blick u. a. auf den sich damals anbahnenden Jugoslawienkrieg und auf die Sezessionsbewegungen in Spanien (Katalonien), Großbritannien (Schottland), Belgien (Flandern) und anderen Ländern die „inhärente Fragilität der multiethnischen Gesellschaft“. Die Grundfrage des zu Ende gehenden 20. und des 21. Jahrhunderts sei: „Was passiert, wenn Menschen unterschiedlicher ethnischer Herkunft, die verschiedene Sprachen sprechen und verschiedene Religionen praktizieren, in derselben geographischen Region und unter derselben politischen Autorität miteinander zusammenleben? Wenn kein gemeinsames Ziel sie verbindet, werden ethnische Feindseligkeiten sie auseinandertreiben. Ethnische und rassische Konflikte werden, so viel scheint sicher, von nun an den Konflikt der Ideologien als das explosive Problem unserer Zeit bestimmen“. Ähnlich hatte auch Daniel Cohn-Bendit als Gründer und erster Leiter des Frankfurter „Amtes für Multikulturelle Angelegenheiten“ auf die erheblichen Konfliktpotenziale der multikulturellen Gesellschaft hingewiesen, wenn diesen nicht vorbeugend begegnet wird: „Die multikulturelle Gesellschaft ist hart, schnell, grausam und wenig solidarisch, sie ist von beträchtlichen sozialen Ungleichgewichten geprägt (…)“ Dies wurde von konservativer Seite schon bald – etwa vom damaligen bayerischen Ministerpräsidenten Edmund Stoiber in seiner Regierungserklärung am 8. Dezember 1994 – aufgegriffen. Viele Gegner des Multikulturalismus sehen diesen als gescheitert an.
Auch der ehemalige britische Premierminister David Cameron vertritt diese Position. In seiner Rede auf der Münchner Sicherheitskonferenz am 5. Februar 2011 stellte er Segregation und Separatismus als Schlüsselthemen hinter der Bedrohung des islamistischen Extremismus dar und setzte sich für eine „gemeinsame nationale Identität“ ein, um „die Doktrin des staatlichen Multikulturalismus“ zu ersetzen. Als Konsequenz forderte er einen „aktiven und starken Liberalismus“ und kündigte die Einstellung der staatlichen Förderung islamistischer, terrorismusfördernder Organisationen an.
Der Berliner Politologe und Islamwissenschaftler Ralph Ghadban erklärt die Ideologie des Multikulturalismus für unvereinbar mit den Grundprinzipien einer freiheitlichen und menschenrechtlich orientierten Gesellschaft: „Die Ideologie des Multikulturalismus stammt von dem Philosophen Charles Taylor. Seine These: Der liberale Individualismus führt dazu, dass der Mensch der Befriedigung seiner Bedürfnisse nachgeht und durch die Konsumwelt entfremdet und amoralisch wird. Das könne man korrigieren, indem man auf alte Strukturen zurückgreift, nämlich die Gemeinschaft, die eine authentische Identität und eine gute Sittlichkeit liefere. Das geht einher mit Einschränkungen der individuellen Freiheit, aber führt zur Aufhebung der Entfremdung. Taylor benutzt eine marxistische Terminologie, die er jedoch total umformt. Ich bin der Auffassung, Multikulti ist keine linke, sondern eine reaktionäre Ideologie, gerichtet gegen den liberalen Individualismus“. Er betont die Bedeutung der Menschenrechte als eine der Verfassung zugrunde liegende Basis für die Demokratie; dem Multikulturalismus hingegen fehle eine gemeinsame Basis.
Nach vergleichbaren Positionierungen durch Bundeskanzlerin Angela Merkel, den ehemaligen französischen Staatspräsidenten Nicolas Sarkozy und die ehemaligen Premierminister von Australien und Spanien, John Howard und José María Aznar, die am Multikulturalismus kritisieren, dass er Erfolgen bei der Integration von Einwanderern im Wege stünde, schaltete sich am 11. Februar 2011 auch der Vatikan in die Debatte ein: Als Präsident des Päpstlichen Kulturrats erklärte Kurienkardinal Gianfranco Ravasi das Modell des Multikulturalismus ebenfalls für gescheitert, sprach sich stattdessen für Interkulturalität aus und kündigte ein offizielles Vatikandokument hierzu an.
Am Konzept des Multikulturalismus hat der Rostocker Althistoriker Egon Flaig in einem Gespräch mit dem Blog der Wochenzeitung Die Zeit schon vor einigen Jahren Kritik geübt: „Der Multikulturalismus wird nur von der so genannten Linken in den liberalen Gesellschaften vertreten. Außerhalb dieser Gesellschaften gibt es keinen Multikulturalismus und hat es nie einen gegeben“. Dort, wo der Multikulturalismus die „Gleichheit“ und das „Eigenrecht“ aller Kulturen erklärt und keinen kulturübergreifenden Werte-Konsens anerkennt – etwa den Maßstab der universellen Menschenrechte –, sieht Flaig den „linken“ Multikulturalismus überdies in der Nähe „rechter“ ethnopolitischer Vorstellungen von der „Apartheid“ unantastbarer kultureller Entitäten mit ihren jeweiligen Werte- und Moralkategorien: „Wenn jede Kultur das absolute Recht hätte, zu bestimmen, was ein Verbrechen ist und was nicht, ohne Rücksicht auf universale Werte, dann wäre Auschwitz kein Verbrechen mehr“. Ähnlich argumentiert auch der deutsch-syrische Politologe Bassam Tibi in Bezug auf die muslimische Einwanderung nach Europa: „Beispielsweise neigen Kulturrelativisten dazu, die fundamentalistische Forderung nach einer Geltung der Scharia für die in Europa lebenden Muslime im Sinne von multikultureller Toleranz als ‚Präsentation‘ einer anderen Kultur zuzulassen“. Der „innere Frieden in Gesellschaften, in die Migrationsschübe erfolgen“, hänge jedoch „von der Bejahung einer Ordnung ab, die auf einer Werte-Verbindlichkeit basiert“.
Begriff „Multikulti“
Das politische Schlagwort Multikulti wird in Debatten teilweise auch verwendet, um eine angenommene oder tatsächliche multikulturalistische Ideologie des Gegenübers abwertend zu kommentieren.
Siehe auch
Interkulturalität
Kulturelle Vielfalt
UNESCO
Mehrsprachigkeit
Weltkulturerbe
Literatur
Imke Leicht: Multikulturalismus auf dem Prüfstand. Kultur, Identität und Differenz in modernen Einwanderungsgesellschaften. Metropol Verlag, Berlin 2009, ISBN 978-3-940938-43-5.
Heiner Bielefeldt: Menschenrechte in der Einwanderungsgesellschaft. Plädoyer für einen aufgeklärten Multikulturalismus. Transcript, Bielefeld 2007, ISBN 978-3-89942-720-2.
Andrew Cardozo, Louis Musto (Hrsg.): The Battle over Multiculturalism. Band 1. PSI, Ottawa 1997, ISBN 0-9681458-0-9.
Will Kymlicka: Multikulturalismus und Demokratie. Über Minderheiten in Staaten und Nationen. Hrsg. Otto Kallscheuer. Rotbuch, Hamburg 1999, ISBN 3-434-53046-0.
Stefan Luft: Abschied von Multikulti: Wege aus der Integrationskrise. Gräfelfing 2007, ISBN 978-3-935197-46-5.
Stefan Luft/Peter Schirmany: Integration von Zuwanderern. Erfahrungen, Konzepte, Perspektiven. Transcript Verlag, Bielefeld 2010, ISBN 978-3-8376-1438-1.
Alf Mintzel: Multikulturelle Gesellschaften in Europa und Nordamerika: Konzepte, Streitfragen, Analysen, Befunde. Rothe, Passau 1997.
Bhikhu Parekh: The Future of Multi-Ethnic Britain: Report of the Commission on the Future of Multi-Ethnic Britain. Profile Books, 2000, ISBN 1-86197-227-X.
Uli Sanwald, Stefan Stautner-Bhuruth: Am deutschen Multikulturalismus soll die Welt genesen. In: Spiel ohne Grenzen. Verbrecher, Berlin 2004, ISBN 3-935843-39-9.
Axel Schulte: Multikulturelle Gesellschaft: Chance, Ideologie oder Bedrohung? In: Aus Politik und Zeitgeschichte, B 23–24/1990.
Friedhelm Steffens: Integrations- und Segregationsmuster von türkischen Migranten. Menschen im Spannungsfeld zwischen Tradition und Moderne. Die Ford-Mitarbeiter in Köln. Kovac, Hamburg 2008, ISBN 978-3-8300-3736-1.
Charles Taylor: Multikulturalismus und die Politik der Anerkennung. Mit Kommentaren von Amy Gutmann, Steven C. Rockefeller, Michael Walzer und Susan Wolf. Mit einem Beitrag von Jürgen Habermas. Fischer, Frankfurt am Main 1993, ISBN 3-10-076704-7.
Bassam Tibi: Europa ohne Identität? Die Krise der multikulturellen Gesellschaft. Bertelsmann, München 1998, ISBN 3-570-00169-5 (Neuausgaben 2000/2002 mit dem Untertitel Leitkultur oder Wertebeliebigkeit, Neuausgabe 2016 mit dem Untertitel Europäisierung oder Islamisierung).
(PDF; 211 kB; 16 S.) Croatian Political Science Review, 38 (5), 2002, S. 48–61 (Kritik von Kymlickas einflussreicher Theorie (englisch).
Weblinks
RWTH Aachen
Rainer Geißler: „Multikulturalismus in Kanada – Modell für Deutschland?“ Bundeszentrale für politische Bildung, 2003
Ingrid Thurner: Schluss mit Multikulti? In: Die Presse, Spectrum 26. Februar 2011
Multikulturalismus-Debatte – Artikelsammlung im Perlentaucher
Einzelnachweise
Interkulturalität
Kulturideologie
Kulturpolitik
Migrationswissenschaft
Migrationspolitik
Migrationssoziologie
Soziale Bewegung
|
Q190656
| 179.840763 |
151888
|
https://de.wikipedia.org/wiki/Stereofonie
|
Stereofonie
|
Mit Stereofonie (von und fōnē ‚Laut‘, ‚Ton‘) werden Techniken bezeichnet, die mit Hilfe von zwei oder mehr Schallquellen einen räumlichen Schalleindruck beim natürlichen Hören erzeugen.
Geschichte
Die frühesten Vorläufer der Stereotechnik gehen auf den französischen Flugpionier und Erfinder Clément Ader zurück. Während der Internationalen Elektrizitätsausstellung 1881 ließ er Opernaufführungen mehrkanalig elektrisch in einen entfernten Raum übertragen, wo diese Signale über Telefonhörer abgehört werden konnten. Ader nannte sein System „Théatrophone“.
Der Ingenieur Heinrich Kluth-Nauen entwickelte 1925 ein Gerät, das aus einem Mono-Signal durch eine 180°-Phasendifferenz einen räumlichen Eindruck erzeugte. Er nannte es „Stereophon“.
Ab 1930 entstanden in den USA erste Tonaufnahmen, bei denen dieselbe Aufführung von zwei Mikrofonen an unterschiedlichen Positionen aufgenommen wurde, und die sich später zu Stereoaufnahmen zusammenfügen ließen. Es ist allerdings nicht überliefert, ob mit diesen Aufnahmen bereits eine stereophonische Wiedergabe beabsichtigt wurde oder man nur unterschiedliche Mikrofonpositionen ausprobieren wollte.
Alan Dower Blumlein, Elektroingenieur und Erfinder in der Forschungsabteilung bei EMI, begann 1931 mit Experimenten zu von ihm „binaural“ genannten Aufnahmetechniken, zunächst mit Sprache. Im Zuge dieser Experimente meldete er eine ganze Reihe von Patenten an, darunter mehrere Stereo-Mikrofonverfahren die heute als Standard gelten: AB, XY und MS. Das heute als „Blumlein-Verfahren“ bekannte, koinzidente System aus zwei winkelversetzten Mikrofonen mit Achtercharakteristik ist zwar ihm zu Ehren benannt, scheint aber nicht von ihm erdacht worden zu sein. Blumlein war ebenfalls maßgeblich an der Entwicklung der Schneidestichel beteiligt, um binaurale Signale auf Schellack-Platte aufzeichnen zu können. Anfang 1934 waren die „Abbey Road Studios“ der EMI mit der „binauralen“ Technik betriebsbereit und die ersten Experimente mit Musik wurden am 11. und 12. Januar 1934 durchgeführt. Wenige Tage später, am 19. Januar 1934, entstand ebenfalls dort die Aufnahme einer Probe unter Leitung von Sir Thomas Beecham mit dem London Philharmonic Orchestra auf insgesamt neun Platten. Geprobt wurde Mozarts Symphonie Nr. 41 „Jupiter“ (KV 551).
Walt Disney brachte seinen Zeichentricklangfilm Fantasia (1940) in „Fantasound“, einem frühen stereofonischen Tonverfahren heraus, das zur damaligen Zeit aber nur die wenigsten Kinos wiedergeben konnten.
1944 machte die Reichs-Rundfunk-Gesellschaft in Berlin erste Stereo-Aufnahmen auf Magnetband mittels Magnetophon. Dabei entstanden erste Aufnahmen in Zusammenarbeit mit dem Dirigenten Herbert von Karajan.
Möglicherweise hat Blumleins Nutzung des Begriffs „binaural“ in seinen Patenten die weitere Verbreitung dieses Begriffes behindert, um Patentansprüchen auszuweichen. Nach der schnellen Durchsetzung der Magnetbandtechnik in der industriellen Tonträgerproduktion in den 1950er Jahren hat sich der Begriff „stereo“, abgeleitet von der visuellen Technik der Stereoskopie, durchgesetzt.
Sidney Frey, Chef des Plattenlabels Audio Fidelity Records, brachte 1957 die erste Stereo-Schallplatte heraus: Auf der einen Seite waren Eisenbahngeräusche zu hören, auf der anderen Seite Dixieland Jazz mit den Dukes of Dixieland. In den ersten Jahren gab es erhebliche Probleme bei der Standardisierung und auch bei der Qualitätssicherung in der Plattenproduktion.
Die Beatles zum Beispiel nahmen anfangs ihre Songs mit einer Art der „Stereotechnik“ auf, die genauer betrachtet zweimal „Mono“ ist. Die Instrumentalbegleitung wurde auf einen Kanal und der Gesang auf den anderen Kanal gelegt. Das hat recht wenig mit Stereo zu tun, außer dass aus jedem Lautsprecher etwas Verschiedenes herauskam. Ebenfalls aus dieser Zeit ist der Begriff „Ping-Pong-Stereo“ bekannt und bezieht sich auf eine Aufnahmetechnik, die Instrumente von links nach rechts – oder umgekehrt – wandern lässt. Dieses war insbesondere in der Frühzeit der Stereoaufnahmetechnik bei populärer Musik gefragt: Eine Stereoanlage war in den frühen 1960er Jahren ein Statussymbol – und man wollte schließlich den Effekt auch deutlich hören und im Freundeskreis stolz vorführen.
Der Hörfunk stellte dem immer attraktiver werdenden Programmangebot des Fernsehens die technische Innovation des Zweikanaltons entgegen. Für die UKW-Sender (FM) in der BRD wurde auf der 25. Großen Deutschen Funk-Ausstellung in Berlin am 30. August 1963 die FM-Stereofonie eingeführt. 1967/68 betrieb jede Landesrundfunkanstalt mindestens ein UKW-Sendernetz stereophon. Damit konnte Hörfunk in einer besseren Tonqualität ausgestrahlt werden, als es beim Fernsehen möglich war. Weitere qualitative Vorteile erzielte der Hörfunk 1973 mit der Einführung der binauralen Tonaufnahme. Diese „Kunstkopf-Stereofonie“ konnte sich aber nicht durchsetzen.
Zu Anfang der 1970er Jahre wurden Monoaufnahmen aus Verkaufsgründen „verstereofoniert“, also ein künstliches Stereosignal erzeugt, was mit Pseudostereofonie oder auch mit „Electronic Stereo“ bezeichnet wurde. Ein dafür häufig verwendetes Verfahren ist die Methode nach Lauridsen-Schodder oder mehrkanalige Version derselben.
Eine Untergruppe der Stereophonie stellt die Stereo-Erweiterung dar. Sie lässt das Stereo-Klangfeld breiter und die Klänge, die damit bearbeitet wurden plastischer klingen.
Hier haben in den 1980er Jahren zwei Varianten auf sich aufmerksam gemacht:
Holophonics (prominent umgesetzt u. a. für: Pink Floyd – The final cut / Roger Waters – The pros and cons of hitch hiking)
Q-Sound (prominent eingesetzt u. a. für: Madonna – Immaculate Collection / Roger Waters – Amused to Death)
Grundlagen
Im einfachsten Fall erfolgt die horizontal verteilte Abbildung allein durch Pegelunterschiede Δ L oder durch Laufzeitunterschiede Δ t der beiden Lautsprechersignale. Die Abbildung der Tiefenstaffelung beruht auf Ausnutzung von frühen Reflexionen und auf Klangverfärbungen durch blauertsche Bänder, um bei der Abbildung „diffus und präsent“ herauszuarbeiten und räumliche Tiefenabbildung aus dem Verhältnis von Direktschallanteilen D und Raumschallanteilen R sowie Pegeldifferenzen herauszustellen.
Beim Hören wird das psychoakustische Phänomen ausgenutzt, dass der Mensch mit seinen Ohren auf Grund von interauralen Pegel-Unterschieden (Interaural Level Difference, ILD) und Laufzeit-Unterschieden (Interaural Time Difference, ITD) die Richtung von Schallquellen lokalisieren kann. Gute Hörbedingungen bei der Stereo-Lautsprecherwiedergabe bringt die Aufstellung im Stereodreieck. Der individuelle Ohrabstand des Menschen spielt bei Lautsprecherstereofonie keine Rolle, wohl aber bei der binauralen Aufnahmetechnik (Kunstkopf-Stereofonie), die allein für Kopfhörerwiedergabe geeignet ist:
Die Kunstkopf-Stereofonie mit den interauralen Signaldifferenzen konnte sich nicht durchsetzen, da zu deren Wiedergabe zwingend Kopfhörer erforderlich sind. Zwar können normale Stereosignale mittels Kopfhörern wiedergegeben werden, nicht jedoch Kunstkopf-Aufnahmen mittels Lautsprechern; Letzteres führt zu Klangverfärbungen und fehlerhaftem oder fehlendem Stereoeindruck, da die mit dem Kunstkopfmikrofon gewonnenen inneren Ohrsignale nicht mit den Lautsprechersignalen gleichzusetzen sind. Das heißt: ILD und ITD sind nicht gleich Δ L und Δ t. Die Ohren des Hörers bilden aus den Signalen der Stereolautsprecher die eigenen Ohrsignale mit der persönlichen HRTF (Head Related Transfer Function – Übertragungsfunktion des eigenen Kopfes).
Akustische Aspekte
Es gibt mehrere Verfahren, um Stereosignale für die Lautsprecherstereofonie aufzuzeichnen. Man unterscheidet bei der Mikrofonierung insbesondere zwischen Laufzeit-Stereofonie und Intensitätsstereofonie (Pegeldifferenzstereofonie). Mischformen bezeichnet man als Äquivalenzstereofonie.
Bei der Intensitätsstereofonie werden zwei Mikrofone verwendet, deren Richtwirkung so ausgenutzt wird, dass die Pegeldifferenz der Signale auf den beiden Kanälen eine bestimmte Hörereignisrichtung bei der Wiedergabe auf der Stereo-Lautsprecherbasis hervorruft. Genauer sind es allein die Schalldruckunterschiede, die hier wirksam sind und welche die Richtung der gehörten Phantomschallquelle bestimmen. Wird ein Tonsignal auf zwei Stereolautsprecher identisch verteilt, so nimmt der Hörer eine Phantomschallquelle genau aus der Stereomitte (Center) wahr. Wird nun das Signal auf einem Lautsprecher im Pegel erhöht, so wandert die Phantomschallquelle in Richtung dieses Lautsprechers, bei einer Pegeldifferenz von etwa 18 dB (16 dB bis 20 dB) nimmt der Hörer eine vollständige Auslenkung aus der Richtung der Lautsprecher wahr. Die einfachsten Hauptmikrofonaufstellungen sind hier X/Y-Stereofonie (zwei Nierenmikrofone mit dem entsprechenden Achsenwinkel zueinander, aber dicht am selben Ort) und MS-Stereofonie (Kugelmikrofon für die Mono-Summe (M) und Achtermikrofon für das Links/Rechts-Differenzsignal (S), über eine elektronische Matrix zu Links und Rechts gemischt). Siehe hierzu Richtungsmischer und Panpot. Mit der Pegeldifferenzstereofonie erzeugt man bei der Lautsprecherwiedergabe die größte Lokalisationsschärfe der Phantomschallquellen.
Bei der Laufzeit-Stereofonie werden zwei Mikrofone mit einem gewissen Abstand voneinander, der Mikrofonbasis, aber auch in einem gewissen Abstand von der Schallquelle aufgestellt, so dass Schallereignisse abhängig von ihrer Position zu verschiedenen Zeitpunkten auf den beiden Kanälen als Laufzeitdifferenz Δ t aufgenommen werden. Wird ein Tonsignal auf zwei Stereolautsprecher identisch verteilt, nimmt der Hörer eine Phantomschallquelle genau aus der Stereomitte (Center) wahr. Wird nun das Signal auf dem einen Lautsprecher durch Laufzeitverzögerung verändert, so wandert die Hörereignisrichtung in die Richtung des anderen Lautsprechers. Bei einer Laufzeitdifferenz von etwa Δt = 1,5 ms (1 bis 2 ms) nimmt der Hörer eine vollständige Auslenkung (100 % Hörereignisrichtung) aus der Richtung eines Lautsprechers wahr. Durch die unterschiedliche Distanz der Mikrofone zur Schallquelle ergibt sich zumindest bei den mikrofonnahen Instrumenten allerdings immer auch ein gewisser Pegelunterschied. Die bekannteste Hauptmikrofonaufstellung ist die A/B-Stereofonie. Das sind zwei Kugelmikrofone in definiertem Abstand, der Mikrofonbasis, zueinander. Man unterscheidet „Klein-A/B“ etwa bei einer Basis kleiner als 35 cm (quasi Doppelkopf) und „Groß-A/B“ bei entsprechend größerer Basis. Dieser Wert ist nicht allgemein festgelegt.
Die Laufzeit-Stereofonie ergibt dabei einen besseren Raumeindruck des resultierenden Schallsignals, hat jedoch gegenüber der Intensitätsstereofonie die Nachteile, dass die Lokalisationsschärfe der Phantomschallquellen geringer ist und sich das Signal im Klang weniger kompatibel über Mono-Abspielgeräte wiedergeben lässt, da es durch die zeitlichen Verschiebungen zu Interferenz-Erscheinungen (Auslöschungen von bestimmten Frequenzen) kommen kann, die den Klangeindruck verfälschen (Mono-Inkompatibilität).
Mischformen, die nach dem Prinzip der Äquivalenzstereofonie Lokalisationsinformationen sowohl über Laufzeit- als auch über Pegeldifferenzen enthalten, versuchen, die Vorteile beider Verfahren zu verbinden. Bekannte Mikrofonaufstellungen sind hier beispielsweise ORTF und NOS.
Als eine seltene Aufnahmemethode sei hier noch an die Kunstkopf-Aufnahmetechnik erinnert. Dabei wird die Form eines menschlichen Kopfes nachgebildet, und an Stelle der beiden Ohren werden die Mikrofone angebracht. Diese Aufnahmetechnik zeichnet das Schallsignal etwa so auf, wie der Mensch es direkt an seinen Trommelfellen hört. Wird diese Aufnahme wie vorgesehen mit einem Kopfhörer abgehört (Kopftrennung), so empfängt der Hörer wieder das ursprüngliche Schallereignis an den Ohren und kann die Richtungen der Geräusche lokalisieren, wobei die genaue Vornelokalisation nicht immer gelingt. Verbessert werden kann die Wiedergabe von Kunstkopfaufnahmen durch eine Anpassung an die individuelle HRTF, also der Kopfübertragungsfunktion des Hörers, sowie über ein sogenanntes Head-Tracking, bei dem die Bewegungen des Kopfes in die Berechnung der Kopfübertragungsfunktion mit einbezogen werden. Eine Spezialform dieses Verfahrens ist die Echtkopf-Stereofonie, bei der eine Person Mikrofone im Gehörgang trägt. Binaurale Aufnahmen, also Kunstkopf-Aufnahmen sind aber generell nicht zur Wiedergabe in der Form der üblichen Lautsprecher-Stereofonie gedacht.
Es ist leicht ersichtlich, dass Aufnahmeverfahren, die Mischformen zwischen Lautsprecher- und Kopfhörerstereofonie darstellen, in der Praxis nicht zufriedenstellend funktionieren können. Einige davon, wie etwa die Jecklin-Scheibe (Mikrofonabstand jetzt 35 cm), werden jedoch bisweilen von Amateuren verwendet.
Wird eine Tonaufnahme (die nicht mit einem Kunstkopf aufgenommen wurde) über zwei Stereo-Lautsprecher wiedergegeben, die sich in einer Ebene vor dem Hörer befinden, so entsteht im Raum eine Schallfeldüberlagerung, die auf der Mittellinie zwischen den Lautsprechern einen Stereo-Höreindruck erzeugt. Das ist das gleichseitige „60°-Stereodreieck“. Der Zuhörer sollte sich idealerweise im „sweet-spot“ in der Mitte vor den Stereo-Lautsprechern befinden.
Werden mehrere Lautsprecher nebeneinander angeordnet, die jeweils eine definierte Mischung des Rechts- und Links-Signals wiedergeben, so kann dadurch der Bereich vergrößert werden, in dem der Hörer den räumlichen Höreindruck wahrnehmen kann. Das kann beispielsweise im Kino bei größeren Lautsprecherabständen der Fall sein.
Übertragungstechnik
Die ersten Schallplatten mit Stereo-Aufnahmen waren in Deutschland seit 1958 erhältlich. 1964 begann die Rundfunk-Übertragung mit Stereo-Ton auf FM/UKW (Pilotton-Multiplexverfahren), Anfang der 80er Jahre bekamen Fernsehsendungen auch Stereo-Ton. Durch geeignete Verfahren wurde sichergestellt, dass die neuen Signale zu den Mono-Signalen kompatibel waren, um sie weiterhin auch mit den alten Geräten wiedergeben zu können. Inzwischen gelang es auch, Stereo-Übertragungen im Lang-, Mittel- und Kurzwellenbereich durchzuführen (AM-Stereo) und in Stereo zu telefonieren.
Stereo in der Popmusik
Bei Popmusik-Studioproduktionen werden die einzelnen Klangelemente (Gesang, Instrumente, …) in einzelnen Spuren (Tracks) getrennt voneinander und nacheinander aufgenommen. Bei der Abmischung des Materials wird dann für jeden Track mittels des Panoramareglers (auch Panpot genannt, von Panorama und Potentiometer) die Position im Stereobild eingestellt. Tontechniker bezeichnen diese Art der Aufnahme und Mischung als Knüppelstereofonie. Für den Gesang ist es üblich, diesen genau in der Mitte zu positionieren, d. h. die Stimme erklingt aus beiden Lautsprechern gleich laut. Zusätzlich kann ein künstlicher Raumklang (Nachhall) dazugemischt werden.
Stereo in der Praxis
Um einen guten stereofonen Klangeindruck zu erleben, müssen eine Reihe von Bedingungen erfüllt sein:
Beide Lautsprecher sollten gleich weit von der Rückwand und den Seitenwänden des Raumes entfernt stehen. Insbesondere Standlautsprecher sollten nicht zu nahe an der Wand stehen.
Der Sitzplatz des Hörers sollte sich an der Spitze eines gleichseitigen Dreiecks befinden, das von ihm und den Lautsprechern gebildet wird. Praktisch heißt das, der Abstand der Lautsprecher untereinander sollte dem Abstand des Zuhörers von jedem der Lautsprecher entsprechen. So erhält man einen Abhörwinkel von ±30° = 60°.
Die Lautsprecher müssen in Richtung des Zuhörers zeigen. Dabei ist es sinnvoll, auf die Abstrahl-Achse zu achten, da es unterschiedliche Ausprägungen in der Hochton-Lautstärke der Lautsprecher gibt (30°-Zone). Bei stark bündelnden Lautsprechern sollten sie nach innen stehen.
Die Hochtöner sollten auf die Ohren des Hörers gerichtet sein. Dazu können sie in Ohrhöhe platziert sein oder auch tiefer/höher und entsprechend gekippt stehen, damit der Direktschall die Ohren erreicht – Reflexionen von den Wänden aber nicht mehr sofort in Ohrhöhe reflektieren.
Der Raum soll ein sinnvolles Maß an Dämpfung besitzen (geringer Hall, geringe Reflexionen an Wänden).
Zwar befindet sich heute in den meisten Haushalten, Schulen oder Konferenzräumen eine Stereo-Wiedergabemöglichkeit, die genannten Bedingungen sind aber aufgrund der räumlichen Gegebenheiten nur selten erfüllt. Oft werden die Lautsprecher ungünstig platziert oder es treten unerwünschte Reflexionen an Wänden auf, so dass hier Abstriche zu machen sind.
Tragbare Stereogeräte (Radiorekorder, auch „Ghettoblaster“ genannt) haben die Lautsprecher fest in 20 bis 30 cm Entfernung voneinander eingebaut. Zwar ist die Wiedergabe stereofon, jedoch müsste der Zuhörer für einen guten Stereoeindruck seinen Kopf unmittelbar vor das Gerät halten. Bei transportablen Geräten mit geringem Lautsprecherabstand wird daher oft eine elektronische Basisverbreiterung oder Basisbreitenvergrößerung (auch „3D-Stereo-Effekt“ genannt) angewendet. Dazu wird ein Teil der hohen Frequenzen jedes Kanals gegenphasig (also verpolt) dem jeweils anderen Kanal zugemischt. Aufgrund der Laufzeit-Diskriminierung der Ohren entsteht dann der akustische Eindruck, dass die Lautsprecher weiter auseinanderlägen, beziehungsweise wird das Richtungshören auch bei größerem Hörabstand verbessert.
Viele Heimkinoanlagen nutzen den Effekt, dass der Abstrahlort tiefer Frequenzen (unter ca. 100 Hz, variierend je nach Aufstellung und örtlichen Gegebenheiten) für den Stereo-Richtungseindruck unerheblich ist. Sie besitzen deshalb nur einen einzigen Lautsprecher (Subwoofer) zur Tiefenwiedergabe, der die Tieftonanteile aller Verstärkerkanäle wiedergeben kann und dessen Aufstellungsort die Stereofonie nicht signifikant beeinflusst. Die Boxen zur Wiedergabe der übrigen Frequenzen (Satelliten) können kleiner ausfallen, da sie weniger Tieftonanteile wiedergeben müssen; sie werden an relativ zum Hörer festgelegten Orten aufgestellt und sorgen für den Stereofonieeffekt.
Siehe auch
Knüppelstereofonie
Quadrofonie | 5.1 | Raumklang | Stereodecoder
Liste von Audio-Fachbegriffen
Literatur
Matthias Thalheim: Dramaturgisch inszenatorische Konsequenzen der Kunstkopf-Stereophonie in funkdramatischen Produktionen. Diplomarbeit, Humboldt-Universität zu Berlin 1985, Sektion Kulturwissenschaften und Ästhetik, Bereich Theaterwissenschaft. epubli, Berlin 2016, ISBN 978-3-7375-9781-4
Weblinks
Stereofonie-Aufnahmesysteme mit zwei Mikrofonen. (PDF; 227 kB) sengpielaudio.com
Stereowiedergabe und Psycho-Akustik. (PDF; 38 kB) sengpielaudio.com
Visualisierung aller Stereo-Mikrofonsysteme mit zwei Mikrofonen. sengpielaudio.com; hier: EBS-Stereosystem – 2 × Niere 90° 25 cm Äquivalenzanordnung.
Zwei Ohren, zwei Lautsprecher? -Zur Problematik der Phantomschallquellen- basierenden Lautsprecherwiedergabe. holophony.net
Die STEREO-Bühnendarstellung in der Praxis. hifi-today.de
Einzelnachweise
|
Q34678
| 131.172029 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.